Elementi di Teoria dei Sistemi Universit`a di Perugia Dipartimento di

Transcript

Elementi di Teoria dei Sistemi Universit`a di Perugia Dipartimento di
Elementi di Teoria dei Sistemi
Università di Perugia
Dipartimento di Ingegneria
Paolo Valigi
Versione del Febbraio 2015
SysDin
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 0-1
Copyright
Questo testo è rilasciato nei termini della Licenza Creative Commons Attribuzione - Non Commerciale - Condividi allo stesso modo 3.0 versione italiana.
L’autore si riserva il diritto di restringre i termini di licenza in future
versione dell’opera.
Ciò significa che tu, il lettore, puoi riprodurre, distribuire, comunicare al pubblico quest’opera, e puoi modificare
quest’opera, alle seguenti condizioni:
• Attribuzione Devi attribuire la paternità dell’opera nei modi indicati dall’autore o da chi ti ha dato
l’opera in licenza e in modo tale da non suggerire che essi avallino te o il modo in cui tu usi l’opera.
• Non commerciale Non puoi usare quest’opera per fini commerciali.
• Condividi allo stesso modo Se alteri o trasformi quest’opera, o se la usi per crearne un’altra, puoi
distribuire l’opera risultante solo con una licenza identica o equivalente a questa.
Il riassunto dei termini di licenza (commons deed) è disponibile all’indirizzo:
http://creativecommons.org/licenses/by-nc-sa/3.0/it/deed.it,
mentre la formulazione completa (legal code) è disponibile all’indirizzo:
http://creativecommons.org/licenses/by-nc-sa/3.0/it/legalcode.
Indice
1 Modellazione di sistemi dinamici
1.1 I sistemi dinamici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Un semplice sistema meccanico . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Un ulteriore sistema meccanico: oscillatore smorzato . . . . . . . . . . . . . . . . .
1.4 Un circuito elettrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5 Un motore in corrente continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6 Il pendolo: un robot ad un grado di libertà . . . . . . . . . . . . . . . . . . . . . .
1.7 Un altro approccio alla modellazione di sistemi meccanici: le equazioni di Lagrange
1.8 Modelli decisionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.9 Dinamica di popolazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.10 Successione di Fibonacci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.11 Un modello di magazzino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.12 Sistemi a segnali campionati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.13 Algoritmi per il calcolo numerico: la radice quadrata . . . . . . . . . . . . . . . . .
1.14 Il modello di un motore a combustione . . . . . . . . . . . . . . . . . . . . . . . . .
1.15 Un modello dell’apparato cardio-circolatorio umano . . . . . . . . . . . . . . . . . .
1.16 Un circuito elettrico nonlineare: l’oscillatore di Van der Pol . . . . . . . . . . . . .
1.17 Un sistema preda-predatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.18 Modellazione di fenomeni alla scala biomolecolare . . . . . . . . . . . . . . . . . . .
1.19 Un modello di sistema dinamico ad eventi discreti: un sistema soggetto a guasti . .
1.20 Un sistema soggetto a guasti: modello stocastico . . . . . . . . . . . . . . . . . . .
1.21 Un impianto di produzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.22 Modellazione della corsa agli armamenti . . . . . . . . . . . . . . . . . . . . . . . .
1.23 Colonna di distillazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.24 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
8
10
13
16
17
19
19
22
24
24
25
26
26
27
28
29
30
33
33
35
36
36
37
2 Analisi di sistemi lineari stazionari a tempo continuo
2.1 Rappresentazione esplicita per sistemi lineari, stazionari, a tempo continuo .
2.1.1 Matrice di transizione dello stato . . . . . . . . . . . . . . . . . . . . .
2.1.2 Risposta libera e risposta forzata per sistemi LSTC . . . . . . . . . . .
2.2 Analisi modale per sistemi LSTC: approccio nel dominio del tempo . . . . . .
2.2.1 Il caso di sistema diagonalizzabile, con autovalori reali . . . . . . . . .
2.2.2 Il caso di sistema diagonalizzabile, con autovalori complessi . . . . . .
2.2.3 Il caso di sistema non diagonalizzabile, con autovalori reali . . . . . .
2.2.4 Il caso di sistema non diagonalizzabile, con autovalori complessi . . . .
2.2.5 Il caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.6 Caratterizzazione di convergenza . . . . . . . . . . . . . . . . . . . . .
2.2.7 Riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.8 Il significato fisico del concetto di autovettore: eccitazione singoli modi
2.2.9 Decomposizione spettrale . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.10 Il piano delle fasi per sistemi planari . . . . . . . . . . . . . . . . . . .
2.2.11 Esercizi risolti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 La trasformata di Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Proprietà della trasformata di Laplace . . . . . . . . . . . . . . . . . .
2.3.2 Trasformata di Laplace di segnali notevoli . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
39
40
41
43
44
46
48
49
50
50
52
53
55
55
56
60
60
62
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
SysDin
2.4
2.5
2.6
2.7
2.8
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 0-3
2.3.3 Alcuni teoremi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.4 Esponenziale di matrice, forme esplicite e matrice di trasferimento per sistemi
2.3.5 Antitrasformata di funzioni razionali proprie . . . . . . . . . . . . . . . . . .
2.3.6 Esercizi svolti sulla trasformata di Laplace . . . . . . . . . . . . . . . . . . . .
Analisi modale per sistemi LSTC: approccio nel dominio di Laplace . . . . . . . . .
2.4.1 Il caso di autovalori distinti . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Il caso di autovalori qualsiasi . . . . . . . . . . . . . . . . . . . . . . . . . . .
Analisi del comportamento ingresso-uscita per sistemi LSTC . . . . . . . . . . . . .
2.5.1 Risposta impulsiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.2 Risposta indiciale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.3 Risposta ad ingresso sinusoidale . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.4 Il caso dei poli immaginari . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.5 Risposta permanente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Risposta armonica e diagrammi di Bode . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Tracciamento dei diagrammi di Bode: esempio . . . . . . . . . . . . . . . . .
2.6.2 Tracciamento dei diagrammi di Bode . . . . . . . . . . . . . . . . . . . . . . .
Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7.1 Esempio: analisi di un circuito elettrico RLC . . . . . . . . . . . . . . . . . .
2.7.2 Analisi di un ulteriore circuito elettrico a componenti passivi . . . . . . . . .
2.7.3 Esempio: analisi circuito RLC [RLC100] . . . . . . . . . . . . . . . . . . . . .
Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 Analisi di sistemi lineari stazionari a tempo discreto
3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Rappresentazione esplicita per sistemi LTDS . . . . . . . . . . . . . . . . .
3.2.1 Risposta libera e risposta forzata . . . . . . . . . . . . . . . . . . . .
3.3 La trasformata Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Proprietà della trasformata Zeta . . . . . . . . . . . . . . . . . . . .
3.3.2 Trasformata Zeta di segnali notevoli . . . . . . . . . . . . . . . . . .
3.3.3 Alcuni teoremi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.4 Esponenziale di matrice e matrice di trasferimento per sistemi LSTD
3.3.5 Antitrasformata di funzioni razionali proprie . . . . . . . . . . . . .
3.3.6 Esercizi risolti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Analisi modale per sistemi LSTD: approccio nel dominio del tempo . . . . .
3.4.1 Il caso di sistema diagonalizzabile, con autovalori reali . . . . . . . .
3.4.2 Il caso di sistema diagonalizzabile, con autovalori complessi . . . . .
3.4.3 Il caso di sistema non diagonalizzabile, con autovalori reali . . . . .
3.4.4 Il caso di sistema non diagonalizzabile, con autovalori complessi . . .
3.4.5 Il caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.6 Caratterizzazione dei modi naturali rispetto alla convergenza . . . .
3.4.7 Riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.8 Eccitazione di singoli modi . . . . . . . . . . . . . . . . . . . . . . .
3.5 Analisi modale per sistemi LSTD: approccio nel dominio Zeta . . . . . . . .
3.5.1 Il caso di autovalori distinti . . . . . . . . . . . . . . . . . . . . . . .
3.5.2 Il caso di autovalori qualsiasi . . . . . . . . . . . . . . . . . . . . . .
3.6 Analisi del comportamento ingresso-uscita per sistemi LSTD . . . . . . . .
3.6.1 Risposta impulsiva . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.2 Risposta indiciale . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.3 Risposta ad ingresso sinusoidale . . . . . . . . . . . . . . . . . . . . .
3.6.4 Risposta permanente . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.7 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
LSTC
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
63
64
65
68
74
74
77
80
81
86
90
91
93
98
100
103
114
114
119
122
125
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
131
131
131
133
134
134
136
137
137
138
141
147
148
149
150
151
151
152
153
153
155
155
157
161
162
163
164
166
168
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
SysDin
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 0-4
4 Stabilità
4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Definizione di stabilità . . . . . . . . . . . . . . . . . .
4.3 Stabilità di sistemi lineari . . . . . . . . . . . . . . . .
4.3.1 L’equazione di Lyapunov . . . . . . . . . . . .
4.4 Il criterio ridotto di Lyapunov per sistemi non lineari .
4.5 Il metodo diretto di Lyapunov per sistemi non lineari .
4.6 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7 Stabilità esterna . . . . . . . . . . . . . . . . . . . . .
4.8 Retroazione . . . . . . . . . . . . . . . . . . . . . . . .
4.9 Analisi di circuiti con OpAmp . . . . . . . . . . . . . .
4.9.1 Modelli ideali per un OpAmp . . . . . . . . . .
4.9.2 OpAmp in configurazione non invertente . . . .
4.9.3 OpAmp in configurazione invertente . . . . . .
4.9.4 Interconnesione di più OpAmp . . . . . . . . .
4.9.5 Convertitore tensione-corrente . . . . . . . . .
4.10 Criterio di Nyquist . . . . . . . . . . . . . . . . . . . .
4.10.1 Diagramma di Nyquist . . . . . . . . . . . . . .
4.10.2 Criterio di Nyquist . . . . . . . . . . . . . . . .
4.10.3 Stabilità e robustezza . . . . . . . . . . . . . .
4.11 Esercizi proposti . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
172
172
172
175
178
178
180
183
186
186
187
187
188
190
192
194
196
196
201
205
208
5 Proprietà strutturali:
5.1 Introduzione . . . .
5.2 Definizioni . . . . .
5.3 Raggiungibilità per
5.4 Raggiungibilità per
5.5 Risultati notevoli .
5.6 Esercizi risolti . . .
5.7 Esercizi proposti .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
210
210
210
211
212
213
215
217
6 Allocazione degli autovalori per sistemi scalari
6.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Regolazione e dinamica d’errore . . . . . . . . . . . . . . .
6.3 Allocazione degli autovalori: formulazione del problema .
6.4 Allocazione degli autovalori: soluzione . . . . . . . . . . .
6.4.1 Le funzioni di trasferimento a ciclo aperto e a ciclo
6.5 Il caso dei sistemi non completamente raggiungibili . . . .
6.6 Esercizi risolti . . . . . . . . . . . . . . . . . . . . . . . . .
6.7 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
chiuso
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
220
220
220
221
221
223
224
225
227
7 Proprietà strutturali: Osservabilità
7.1 Introduzione . . . . . . . . . . . . . . . . . . . .
7.2 Osservabilità . . . . . . . . . . . . . . . . . . .
7.3 Dualità . . . . . . . . . . . . . . . . . . . . . .
7.4 Esercizi . . . . . . . . . . . . . . . . . . . . . .
7.4.1 Sistemi a singola uscita, tempo discreto
7.4.2 Sistemi a due uscite, tempo discreto . .
7.4.3 Sistemi a singola uscita, tempo continuo
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
231
231
231
233
236
236
238
240
raggiungibilità
. . . . . . . . . .
. . . . . . . . . .
sistemi LSTD . .
sistemi LSTC . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8 Osservatori asintotici dello stato e regolatori in retroazione dall’uscita per
8.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Osservatori asintotici dello stato . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Regolatori dinamici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4 Un esempio: regolazione di un motore a corrente continua . . . . . . . . . . . .
8.4.1 Le proprietà strutturali . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.2 Progetto del controllore in retroazione dinamica dall’uscita . . . . . . .
sistemi
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
scalari 241
. . . . . 241
. . . . . 241
. . . . . 242
. . . . . 244
. . . . . 244
. . . . . 245
SysDin
8.5
8.6
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 0-5
Ulteriori problemi di controllo . . . . . .
8.5.1 Un problema di regolazione . . .
8.5.2 Inseguimento di traiettoria . . .
8.5.3 Sistemi a segnali campionati . .
8.5.4 Stima dei disturbi . . . . . . . .
Esercizi . . . . . . . . . . . . . . . . . .
8.6.1 Osservatori asintotici e regolatori
9 Esercizi di riepilogo risolti
9.1 Esercizi di riepilogo . . . . . . . .
9.2 Soluzioni . . . . . . . . . . . . . .
9.2.1 Soluzione esercizio 9.1 . .
9.2.2 Soluzione esercizio 9.2 . .
9.2.3 Esercizio 9.3: traccia della
9.2.4 Esercizio 9.4: traccia della
. .
. .
. .
. .
. .
. .
per
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
sistemi a singolo ingresso e singola
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
uscita
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
247
248
248
249
250
252
252
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
255
255
257
257
262
268
269
A Strumenti geometrici per l’analisi di sistemi dinamici lineari
A.1 Autovalori ed autovettori . . . . . . . . . . . . . . . . . . . . .
A.2 Trasformazioni di similarità algebrica . . . . . . . . . . . . . . .
A.3 Forme canoniche . . . . . . . . . . . . . . . . . . . . . . . . . .
A.3.1 Forma diagonale . . . . . . . . . . . . . . . . . . . . . .
A.3.2 Forma canonica reale . . . . . . . . . . . . . . . . . . . .
A.3.3 Forma di Jordan . . . . . . . . . . . . . . . . . . . . . .
A.4 Esponenziale di matrice . . . . . . . . . . . . . . . . . . . . . .
A.4.1 Forma canonica reale . . . . . . . . . . . . . . . . . . . .
A.5 Forma di Jordan di sistemi in forma canonica di controllore . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
273
273
274
276
276
276
277
281
281
281
. . . . . .
. . . . . .
. . . . . .
. . . . . .
soluzione
soluzione
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
B Riferimenti
283
B.1 Riferimenti bibliografici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
Prefazione
Il testo raccoglie materiale preparato per le lezioni del corso di Teoria dei Sistemi, Università degli Studi di
Perugia, prima Facoltà di Ingegneria ed ora Dipartimento di Ingegneria, a partire dall’anno accademico 1998/99.
Il testo è andato crescendo negli anni, anche sulla base delle variazioni al programma del corso indotte dalle
numerose riforme dell’ordinamento didattico che si sono andate susseguendo e sovrapponendo negli anni.
Ringrazio tutti gli studenti che nel corso degli anni hanno fornito preziosi commenti ed hanno evidenziato
errori, inesattezze ed imprecisioni.
Ringrazio inoltre i colleghi che hanno letto parti del testo, ed in particolare l’ing. Mauro Boccadoro, che
nel frattempo ha lasciato il nostro gruppo e il nostro ateneo per seguire un diverso ed alto percorso di crescita
personale, l’ing. Mario Luca Fravolini e il prof. Andrea Scorzoni.
Ringrazio infine mia moglie e i nostri figli, per l’infinita pazienza mostrata nei miei riguardi durante le varie
fasi di scrittura, nel corso degli anni.
6
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-7
Capitolo 1
Modellazione di sistemi dinamici
1.1
I sistemi dinamici
In questo capitolo verranno presentati alcuni modelli dinamici di sistemi reali, con lo scopo di illustrare sia
i metodi e gli strumenti tipici della Teoria dei Sistemi sia i problemi di analisi e progetto che possono essere
affrontati in tale contesto.
Il concetto di sistema è ampio e generico, e viene utilizzato in molto contesti ed ambiti, con molteplici significati. Nel quadro di questo testo, ed in generale nel quadro dell’Automatica, il riferimento è ai sistemi dinamici,
cioè a degli “enti” reali (nel senso di enti esistenti nella realtà), in grado di avere interazioni con l’ambiente
esterno ed il cui comportamento dipende sia dalla storia passata del sistema stesso sia da tali interazioni.
La dipendenza del comportamento del sistema dalla storia passata è una caratteristica fondamentale per la
connotazione “dinamica”, anzi, è la caratteristica fondamentale di tale connotazione.
L’approccio della Teoria dei Sistemi consiste nell’introdurre un modello astratto, matematico, dell’ente reale
di interesse, che prescinda dalla specifica natura fisica sia del sistema stesso sia delle interazioni con l’ambiente
esterno. Le proprietà del sistema reale vengono dedotte dalla proprietà del modello matematico astratto.
Un modello matematico, nel senso di questo testo, è costituito da relazioni tra tre classi di segnali, cioè tre
classi di funzioni del tempo: a) i segnali di ingresso, che descrivono le interazioni tra ambiente e sistema, b)
le variabili di stato, che descrivono in modo completo il comportamento del sistema e che tengono conto della
storia passata del sistema, e infine, c) i segnali di uscita, che descrivono in modo sintetico il comportamento del
sistema (si noti che i segnali di uscita non descrivono entità o quantità che “escono” dal sistema, bensı̀ grandezze
di specifico interesse nello studio del sistema).
Tali relazioni tra gli ingressi, lo stato e le uscite possono essere molto diverse al variare della natura fisica
del sistema.
In questo testo l’attenzione verterà principalmente sui sistemi a variabile continua, sia a tempo discreto sia
a tempo continuo, e cioè su sistemi il cui comportamento sia ben descritto da variabili di ingresso, stato e uscita
definite nell’insieme dei reali o degli interi e a valori nell’insieme dei reali.
Per completezza, verranno presentati anche alcuni esempi di sistemi ad eventi discreti, per i quali le grandezze
che ne descrivono il comportamento assumono valori solo in un insieme discreto.
Una ulteriore caratterizzazione molto importante riguarda la natura delle relazioni tra ingresso, stato ed
uscita, che possono essere lineari o non lineari, ed essere indipendenti dal tempo o meno.
Più esplicitamente, il testo tratta (quasi esclusivamente) sistemi lineari, a dimensione finita, stazionari,
causali, con evoluzione guidata dal tempo, e descritti da equazioni differenziali, se il tempo è una grandezza
reale:
ẋ(t) = Ax(t) + Bu(t),
y(t) = Cx(t) + Du(t),
x ∈ Rn ,
y ∈ Rp ,
u ∈ Rm
(1.1a)
(1.1b)
o da equazioni alle differenze finite, se il tempo è una quantità intera:
x(t + 1) =
y(t) =
Ax(t) + Bu(t),
Cx(t) + Du(t),
x ∈ Rn ,
y ∈ Rp .
u ∈ Rm
(1.2a)
(1.2b)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-8
In entrambe le classi di modelli, le quattro matrici A, B, C e D sono matrici ad elementi reali costanti, di
dimensioni compatibili con le dimensioni del vettore di stato x, del vettore dei segnali di ingresso u e dl vettore
delle funzioni di uscita y. La matrice A è detta anche matrice dinamica o matrice del sistema, la matrice B
descrive le modalità con le quali l’ingresso influenza lo stato (sinteticamente, matrice di ingresso), la matrice
C descrive le modalità con le quali lo stato determina l’uscita (sinteticamente, matrice di uscita), ed infine la
matrice D descrive il legame diretto ingresso-uscita.
La natura “stazionaria” corrisponde al fatto che le quattro matrici A, B, C e D sono matrici costanti, la
natura “a dimensione finita” corrisponde al fatto che i vettori di ingresso, stato ed uscita hanno dimensione
finita, la natura causale, e cioè il fatto che il futuro non inflenzi il passato e il presente corrisponde al fatto che
le equazioni differenziali e alle differenze finite dipendono solo dal valore corrente del segnale di ingresso (non
dipendono né da valori futuri, né da derivate temporali dell’ingresso).
Alcuni risultati verranno presentati per la classe più ampia dei sistemi non lineari, sinteticamente descritti
dai modelli:
x ∈ Rn ,
y ∈ Rp ,
ẋ(t) = f (x(t), u(t)),
y(t) = h(x(t), u(t)),
u ∈ Rm
(1.3a)
(1.3b)
nel caso di sistemi a tempo continuo e, nel caso dei sistemi a tempo discreto, dai modelli:
x(t + 1) =
y(t) =
x ∈ Rn ,
y ∈ Rp .
f (x(t), u(t)),
h(x(t), u(t)),
u ∈ Rm
(1.4a)
(1.4b)
In alcune situazioni, in particolare nei sistemi del tipo (1.2) o (1.4), la variabile indipendente può anche
essere diversa dal tempo. Tale variabile sarà comunque indicativa dell’evoluzione del sistema.
Nelle sezioni seguenti vengono presentati esempi di calcolo di modelli dinamici, prevalentemente descritti da
equazioni diffenziali e alle differenze finite, e con alcuni esempi di altra natura.
1.2
Un semplice sistema meccanico
Il sistema meccanico rappresentato in Figura 1.1 è costituito da un corpo rigido di massa m che scorre lungo
un binario poggiato su di un piano perfettamente liscio, senza attrito, collegato tramite una molla lineare ad
una parete rigida e sottoposto all’azione di una forza esterna. Si vuole determinare un modello matematico che
consenta di descrivere il moto del corpo, ed in particolare la traiettoria seguita dal centro di massa.
Il comportamento del sistema può essere descritto a partire dall’equazione fondamentale del moto (secondo principio della dinamica): F = m a, tenendo conto di tutte le forze agenti sul sistema, e ricavando la
corrispondente equazione del moto.
m
fa
ke
ℓ0
ℓ
Figura 1.1: Sistema meccanico massa-molla
Nel caso in esame, sulla massa agiscono la forza esterna fa (t), esercitata il tramite un opportuno attuatore,
e la forza fe (t) esercitata dalla molla. Indicando con ℓ0 la posizione del centro di massa del corpo quando la
molla è a riposo, con ℓ(t) la posizione del centro di massa all’istante t e con ke , ke > 0, la costante di elasticità,
la forza esercitata dalla molla è pari a:
fe (t) = −ke (ℓ(t) − ℓ0 ).
(1.5)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-9
La risultate delle forze applicate al corpo è quindi:
f (t) = fe (t) + fa (t) = −ke (ℓ(t) − ℓ0 ) + fa (t),
(1.6)
da cui, indicando con p(t) := ℓ(t) − ℓ0 la posizione della massa rispetto a quella di riposo, e ricordando che
a = ṗ, il moto della massa è descritto dalla seguente equazione differenziale del secondo ordine:
mp̈(t) + ke p(t) = fa (t),
(1.7)
La soluzione dell’equazione differenziale omogenea associata alla (1.7), data da:
mp̈(t) + ke p(t) = 0,
(1.8)
è legata alle radici dell’equazione caratteristica:
mλ2 + ke = 0,
(1.9)
che sono immaginarie pure. Ne segue, per noti risultati sulle equazioni differenziali, che la soluzione nella
variabile p(t) è una sinusoide di pulsazione determinata dalle costanti m e ke e con fase ed ampiezza determinate dalle condizioni iniziali. Più precisamente, la pulsazione è data dalla parte immaginaria delle radici
dell’equazione caratteristica, e quindi, in questo caso, vale:
r
ke
.
(1.10)
ω=
m
Un tipico andamento della risposta libera in uscita, per ke = 1, m = 1, e per un vettore condizioni iniziali
x1 (0) = 1, x2 (0) = 0 (cioè, massa inizialmente nella posizione p = 1, con velocità nulla) è riportato in figura
1.2.
Risposta libera di un sistema massa−molla [m=1, ke=1]
1
Posizione p(t) del centro di massa (m)
0.8
0.6
0.4
0.2
0
−0.2
−0.4
−0.6
−0.8
−1
0
2
4
6
8
10
12
Tempo (secs)
14
16
18
20
Figura 1.2: Risposta libera nella variabile p(t).
L’equazione omogenea descrive il sistema in evoluzione libera, cioè nelle situazioni in cui la forza esterna è
nulla. La soluzione sinusoidale individuata implica quindi che, se la forza esterna è nulla, una perturbazione
della condizione di riposo induce un moto oscillatorio permanente della massa.
L’equazione del moto può essere riscritta sotto forma di sistema di equazioni lineari del primo ordine introducendo le variabili x1 (t) := p(t), x2 (t) := ṗ(t) = v(t) e u(t) := fa (t):
ẋ1
ẋ2
= x2
1
ke
= − x1 + u(t).
m
m
(1.11a)
(1.11b)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-10
Il sistema di equazioni (1.11) viene detto modello dinamico nello spazio di stato. In particolare, le due
variabili x1 ed x2 , cioè la posizione e la velocità della massa, costituiscono il vettore di stato del sistema, in
quanto racchiudono tutte le informazioni sulla storia passata del sistema rilevanti per determinare l’evoluzione
futura.
La connotazione di modello dinamico deriva dal fatto che la storia passata del sistema, attraverso il vettore
di stato, ne influenza il comportamento corrente e futuro. Viceversa, nel caso di un modello statico, il valore
passato delle variabili non ha alcun ruolo nella determinazione dei rispettivi valori all’istante corrente, né tanto
meno dei loro valori futuri.
Un modello dinamico nello spazio di stato, di norma, è descritto in modo compatto, con una notazione
matriciale. Si consideri il vettore di stato x = [x1 x2 ]T , e le matrici:
A=
"
0
ke
−
m
1
0
#
,
b=
"
0
1
m
#
,
c=
1
0
,
(1.12)
allora il modello (1.11), insieme all’equazione che descrive il comportamento della variabile di interesse (in questo
caso la posizione della massa), può essere posto nella forma:
ẋ
= Ax + bu
(1.13a)
y
= cx.
(1.13b)
La seconda equazione descrive il legame tra la variabile di interesse, detta funzione di uscita, e lo stato del
sistema. Si noti infine che il polinomio caratteristico della matrice A, dato da p(λ) = det(λI − A), coincide
con l’equazione caratteristica (1.9). Infatti, gli autovalori della matrice A determinano la forma della soluzione
dell’equazione differenziale (1.11), cioè determinano i modi naturali del sistema.
È bene precisare che la forma matriciale (1.13) è strettamente legata alla natura lineare dei fenomeni e delle
corrispondenti equazioni.
La disponibilità di un modello dinamico del sistema in esame consente di analizzarne in modo rigoroso il
comportamento. Ad esempio, note le condizioni iniziali della massa (posizione e velocità) e nota la legge oraria
della forza esterna applicata, si può determinare la posizione della massa e la sua velocità in qualunque istante
futuro. Il modello dinamico ha insomma un ruolo predittivo, che risulta di fondamentale importanza nell’analisi
del comportamento di un sistema.
1.3
Un ulteriore sistema meccanico: oscillatore smorzato
Un modello più realistico per il sistema massa-molla considera anche la presenza di un termine di attrito
viscoso fv , proporzionale alla velocità v(t) della massa tramite un coefficiente di attrito viscoso kv :
fv (t) = −kv v(t).
(1.14)
Il sistema è illustrato in figura 1.3.
m
fa
ke
kv
ℓ0
ℓ
Figura 1.3: Sistema meccanico massa-molla-smorzamento
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-11
In questo caso, la risultante delle forze applicate alla massa è pari a:
f (t) = fe (t) + fv (t) + fa (t) = −ke p(t) − kv v(t) + fa (t),
(1.15)
e quindi l’equazione che descrive il moto della massa rispetto alla posizione di riposo è:
mp̈(t) + kv ṗ(t) + ke p(t) = u(t).
(1.16)
La soluzione dell’equazione omogenea associata alla (1.16) dipende dalle radici dell’equazione caratteristica
associata:
mλ2 + kv λ + ke = 0,
(1.17)
che in generale non sono immaginari pure. A seconda del valore della costante di smorzamento kv , tali soluzioni
possono avere parte reale negativa, nulla o positiva. Nel caso in cui la parte reale sia nulla, che si verifica solo se
ka = 0, si ricade nel sistema precedente. Se il parametro kv è positivo si hanno due zeri di (1.17) con parte reale
negativa (e cioè due autovalori della matrice A con parte reale negativa), e quindi la soluzione nella variabile
p(t) è una funzione decrescente in modo esponenziale (si veda la figura 1.4), eventualmente con un termine
sinusoidale moltiplicativo se le radici dell’equazione caratteristica sono complesse coniugate.
Risposta libera di un sistema massa−molla [m=1, k =20, k =1]
e
v
1
Posizione p(t) del centro di massa (m)
0.8
0.6
0.4
0.2
0
−0.2
−0.4
−0.6
−0.8
0
5
10
15
Tempo (secs)
Figura 1.4: Risposta libera nella variabile p(t), con smorzamento positivo.
Viceversa, se il parametro kv fosse negativo, le radici dell’equazione caratteristica avrebbero parte reale
positiva (e cioè due autovalori della matrice A con parte reale positiva) e quindi la soluzione nella variabile p(t),
cioè la posizione del centro di massa, sarebbe una funzione con crescita esponenziale (si veda la figura 1.5),
anche in questo caso con un possibile fattore sinusoidale moltiplicativo.
Da un punto di vista fisico, la massa tende a fermarsi nel caso di soluzione decrescente, mentre tende ad
allontanarsi sempre di più dalla posizione di riposo nel caso di soluzione crescente: in questo ultimo caso (in cui
gli autovalori hanno parte reale positiva) il sistema è instabile.
L’equazione differenziale del secondo ordine (1.17) può essere riscritta nella forma matriciale:
"
#
"
#
0
1
0
1
ẋ =
,
kv x +
ke
−
−
m
m
m
1 0 x.
y =
(1.18a)
(1.18b)
e può essere utilizzato, tra l’altro, per studiare il comportamento di una sospensione attiva. In effetti, in tal caso
il moto, di norma, avviene in un piano verticale, e quindi si deve tenere conto anche della forza di gravità. Ciò
però avrebbe il solo effetto di modificare la posizione di riposo della molla, senza modificare il comportamento
dinamico (più precisamente, il comportamento dinamico di interesse in queste note).
La scelta di un opportuno segnale di ingresso, e cioè di una opportuna forza fa (t) applicata dall’esterno,
dipendente dalla misura istantanea della posizione e dalla velocità della massa, consente di imporre un comportamento assegnato alla sospensione attiva. In altre parole, una scelta opportuna della forza esterna consente di
controllare la sospensione attiva. Si veda, a titolo di esempio, quanto detto alla fine del prossimo esempio.
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-12
Risposta libera di un sistema massa−molla [m=1, ke=20, kv=−1]
1500
Posizione p(t) del centro di massa (m)
1000
500
0
−500
−1000
−1500
−2000
0
5
10
15
Tempo (secs)
Figura 1.5: Risposta libera nella variabile p(t), con smorzamento negativo.
Risposta libera di un sistema massa−molla controllato [m=1, k =15, k =8]
1
2
1
Posizione p(t) del centro di massa (m)
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
0.5
1
1.5
2
2.5
3
Tempo (secs)
3.5
4
4.5
5
Figura 1.6: Risposta libera “desiderata” nella variabile p(t) per il sistema controllato 1.17.
Fino ad ora abbiamo utilizzato il modello dinamico per analizzare il comportamento di questo semplice
sistema massa-molla, ed in particolare per studiare la sua risposta libera. In effetti, il modello è particolarmente
utile anche per capire in che modo agire sul sistema qualora tale comportamento non risulti soddisfacente.
Si supponga ad esempio che lo smorzamento non sia adeguato, perchè troppo basso (cioè, la massa torna
alla posizione di riposo troppo lentamente). Se il sistema massa-molla è il modello di una sospensione di un
autoveicolo, questo significa che, a seguito di una perturbazione nella posizione, il veicolo stesso continuerà ad
oscillare, sia pure in modo smorzato, per troppo tempo e con oscillazioni troppo ampie.
Si potrebbe cercare di utilizzare la forza esterna applicabile alla massa per modificare il suo comportamento
naturale (sospensione attiva). Il modello dinamico introdotto consente di capire come scegliere questa azione
da esercitare sulla massa. Si supponga di disporre di sensori per misurare in modo continuo la posizione della
massa rispetto a quella di riposo e la sua velocità. Si supponga inoltre di avere determinato due valori k1 e k2
per i parametri che caratterizzano il modello, in corrispondenza dei quali il sistema avrebbe il comportamento
desiderato, ad esempio quello riportato in figura 1.6.
Allora, è facile vedere come una forza esterna del tipo:
u(t) = kv v(t) + ke p(t) − k2 v(t) − k1 p(t),
(1.19)
applicata al corpo, dia luogo ad un modello “controllato” del tipo:
mp̈(t) + k2 ṗ(t) + k1 p(t) = 0,
che, per la scelta dei parametri k1 e k2 , ha il comportamento desiderato.
(1.20)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-13
L’equazione (1.19) definisce una legge di controllo in reazione dallo stato, perchè, sulla base di misure dello
stato, consente di modificare, cioè di controllare, il comportamento del sistema per renderlo conforme a delle
assegnate specifiche di comportamento. La legge di controllo definita dalla (1.19) è detta statica, perchè la forza
da applicare, in ogni istante di tempo, dipende solo dalla posizione e dalla velocità allo stesso istante.
Nel seguito di questo corso, e nei corsi successivi, si vedranno anche leggi di controllo dinamiche, che
determinano il valore istantaneo del segnale di controllo non solo sulla base di misure relative allo stesso istante,
ma anche sulla base della storia passata, descritta dallo stato di un opportuno sistema aggiuntivo: il controllore
o compensatore.
1.4
Un circuito elettrico
In modo del tutto simile a quanto fatto per i sistemi meccanici precedenti, è possibile ricavare un modello
dinamico nello spazio di stato per un circuito elettrico. Si consideri il semplice sistema illustrato in figura 1.4,
costituito da un generatore di corrente e dal parallelo di un resistore R, un condensatore C ed un induttore L.
Si indichi con iG (t) la corrente erogata dal generatore e con vR (t) la tensione ai capi della resistenza, e cioè la
grandezza di interesse, detta funzione di uscita.
iG
C
L
R
Figura 1.7: Circuito elettrico a componenti passivi.
La tensione vL (t) ai capi di un induttore percorso da una corrente iL (t) è pari a:
vL (t) = L
d iL (t)
.
dt
(1.21)
La corrente iC (t) che fluisce in un condensatore ai cui capi sia applicata una differenza di potenziale vC (t) è
data da:
d vC (t)
iC (t) = C
.
(1.22)
dt
L’applicazione della legge di Kirchhoff ai nodi permette di scrivere:
iG (t)
= iR (t) + iL (t) + iC (t)
d vC (t)
vR
+ iL (t) + C
,
=
R
dt
(1.23a)
(1.23b)
dove vR e iR indicano, rispettivamente, la tensione ai capi del resistore R e la rispettiva corrente.
Assumendo come grandezza di interesse, cioè come funzione di uscita vO (t), la tensione vR (t) ai capi del
resistore, il modello del circuito può essere riscritto in forma di equazione differenziale del secondo ordine:
C v¨O (t) +
1
1
iG (t)
v˙O (t) + vO (t) =
.
R
L
dt
(1.24)
Se l’interesse è solo per il legame dinamico tra la grandezza di ingresso iG (t) e l’uscita vO (t), cioè per la
mappa ingresso-uscita,il modello precedente è sufficiente.
Lo studio del legame ingresso-uscita di norma è condotto utilizzando la trasformata di Laplace, che costituisce
una diversa rappresentazione di una funzione del tempo. Sotto ipotesi abbastanza deboli, una data funzione del
tempo può essere rappresentata, senza perdere alcuna informazione, in un dominio diverso da quello temporale:
il dominio della variabile di Laplace s. L’interesse nell’uso di questa rappresentazione risiede principalmente
nel fatto che in questo dominio l’operazione di differenziazione rispetto al tempo corrisponde semplicemente al
prodotto per s, e quindi le equazioni differenziali vengono trasformate in equazioni algebriche. Se f (t) è una data
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-14
funzione del tempo, differenziabile, e F (s) indica la sua trasformata di Laplace, brevemente F (s) := L{f (t)},
allora la trasformata di Laplace della derivata rispetto al tempo di f (t) è pari a s · F (s) (assumendo f (0) = 0).
Indicando allora con V (s) la trasformata di Laplace della tensione ai capi del resistore, ed utilizzando la regola
di derivazione, l’equazione differenziale (1.24), nel dominio di Laplace, diviene:
1
1
2
VO (s) s C + s +
= sIG (s),
(1.25)
R L
che può essere riscritta nella seguente forma, di prodotto tra funzioni di s, ove la funzione razionale propria
W (S) é detta funzione di trasferimento:
VO (s) = W (s)IG (s),
W (s) :=
s/C
.
1
1
s2 +
s+
RC
LC
(1.26)
Ad esempio, volendo calcolare la risposta in uscita ad un ingresso sinusoidale del tipo iG (t) = sin(t), applicato
a partire dall’istante t = 0 ed assumendo condizioni iniziali nulle, si ottiene in modo immediato, nel dominio di
Laplace, la funzione di uscita:
1
s/C
(1.27)
VO (s) =
2+1
1
1
s
s2 +
s+
RC
LC
1
rappresenta la trasformata di Laplace del segnale sinusoidale sin(t). L’andamento
dove il fattore moltiplicativo 2
s +1
nel tempo della risposta si può ottenere con un’operazione di trasformazione inversa del segnale VO (s) trovato.
Si noti comunque che l’uscita dipende sia dal segnale applicato, attraverso la trasformata del segnale di ingresso,
che dalla caratteristiche del circuito, attraverso i termini che derivano dalla funzione di trasferimento.
Un modello del circuito elettrico che tenga conto anche delle variabili di stato può essere ottenuto costruendo
una realizzazione di tale funzione di trasferimento. Come si vedrà successivamente, il modello nello spazio di
stato corrispondente alla funzione di trasferimento in esame ha due variabili di stato (poiché il denominatore è
un polinomio di grado due). Siano z1 (t) e z2 (t) tali variabili di stato e si indichi con u(t) il segnale di ingresso:
u(t) = iG (t). Una possibile realizzazione di tale funzione di trasferimento è data da:
ż1
ż2
y
= z2
(1.28a)
1
1
z1 −
z2 (t) + u(t),
= −
LC
RC
1
=
z2
C
(1.28b)
(1.28c)
ed in termini matriciali:
ż
y
con il vettore di stato e le matrici date da:
"
0
z1
1
, A=
z=
z2
−
LC
= Az + bu
= cz.
1
1
−
RC
#
,
b=
(1.29a)
(1.29b)
0
1
,
c=
0
1
C
.
(1.30)
Il significato fisico delle variabili di stato, nel modello precedente, non è immediato. La particolare forma delle
matrici A e c dipende solo dai coefficienti della matrice di trasferimento.
La risposta libera del circuito è riportata in figura 1.8. Si noti come sia del tutto identica alla risposta libera
dell’oscillatore meccanico smorzato analizzato nella precedente sezione.
La risposta dello stesso sistema a fronte del segnale di ingresso u(t) = sin(2t), è riportato nella seguente
figura 1.9.
Commento 1.1
Val la pena sottolineare come il modello appena ricavato ed il modello dell’oscillatore meccanico smorzato
abbiano esattamente la stessa struttura, e si differenzino solo per i valori dei parametri. Questa caratteristica
è uno dei punti di forza della Teoria dei Sistemi. Attraverso l’uso di sistemi astratti orientati, cioè di modelli
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-15
Risposta libera di un circuito RLC [R=1, L=1/20, C=1]
1
0.8
Tensione ai capi di R (Volt)
0.6
0.4
0.2
0
−0.2
−0.4
−0.6
−0.8
0
5
10
15
Tempo (secs)
Figura 1.8: Risposta libera del circuito nella variabile vR (t).
Risposta alla funzione sin(2 t) di un circuito RLC [R=1, L=1/20, C=1]
0.15
Tensione ai capi di R (Volt)
0.1
0.05
0
−0.05
−0.1
−0.15
−0.2
0
5
10
15
Tempo (secs)
Figura 1.9: Risposta forzata per ingresso u(t) = sin(2t), del circuito nella variabile vR (t).
differenziali indipendenti dalla specifica natura fisica del sistema fisico (o processo) in esame, si possono introdurre strumenti di analisi e sintesi di validità generale. Nel seguito vedremo spesso come i risultati astratti
ricavati in questo modo, quando vengono poi calati nello specifico ambito applicativo di interesse, hanno sempre
interpretazioni fisiche evidenti e notevoli.
Tornando al sistema in esame, le matrici A e b che caratterizzano il modello hanno una struttura particolare,
detta forma canonica di controllo ad un ingresso. Quando le matrici che descrivono un sistema sono in questa
forma, è possibile determinare in modo immediato una legge di controllo che consenta di modificare gli autovalori
del sistema, e quindi i suoi modi naturali.
Per ottenere un modello nello spazio di stato, si possono introdurre, in alternativa alla scelta precendente,
le variabili x1 (t) = iL (t) e x2 (t) = vC (t), che hanno un significato fisico più immediato. In tal caso si ottiene il
sistema di equazioni:
ẋ1
ẋ2
y
1
x2
L
1
1
1
= − x1 −
x2 + u(t)
C
RC
C
= x2 .
=
(1.31a)
(1.31b)
(1.31c)
I due modelli nello spazio di stato del circuito elettrico, descritti dalle equazioni (1.29) e (1.31), sono detti
simili o algebricamente equivalenti, ed hanno le stesse proprietà, e costituiscono due diverse rappresentazioni dello
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-16
stesso sistema, espresse tramite due insiemi distinti di variabili, o, meglio, tramite due diversi, ma equivalenti,
sistemi di coordinate. A seconda del tipo di studio da condurre può essere utile esprimere un modello dinamico
utilizzando diversi sistemi di coordinate.
Il modello del circuito dipende, ovviamente, dai valori dei componenti passivi che lo costituiscono. Se tali
componenti non cambiano valore nel corso del funzionamento, il sistema è detto stazionario, è cioè descritto
da matrici i cui elementi sono costanti, non cambiano valore al trascorrere del tempo. Può accadere che, ad
esempio per effetto di variazioni della temperatura ambiente, uno o più componenti cambiano valore. In tal caso,
il sistema è detto non stazionario, o anche tempo variante. Tale considerazione può essere estesa a qualsiasi
sistema dinamico.
L’analisi dei sistemi non stazionari richiede strumenti sensibilmente più avanzati del caso stazionario. In
vero, nel caso generale, non vi sono strumenti per il loro studio se non l’analisi simulativa al calcolatore. In
questo testo verranno presi in considerazione solo sistemi stazionari.
1.5
Un motore in corrente continua
Il modello dinamico di un motore in corrente continua, a magneti permanenti e con alimentazione d’armatura,
può essere determinato a partire dalle equazioni che descrivono il comportamento della parte elettrica e di quella
meccanica. Per una trattazione più dettagliata e precisa della modellazione delle macchine elettriche si rimanda
a testi specifici, tra cui [1, 2, 3, 4]. Il diagramma1 in figura 1.10 illustra il principio di funzionamento del motore
elettrico in corrente continua.
Figura 1.10: Principio di funzionamento di un motore in corrente continua.
Il circuito di armatura può essere descritto dalla seguente equazione differenziale:
La
d ia
+ Ra ia + Ke ω = va ,
dt
(1.32)
in cui ia indica la corrente nel circuito di armatura, La ed Ra sono l’induttanza e la resistenza equivalenti
d’armatura, Ke è la costante di proporzionalità velocità/tensione relativa alla forza contro-elettromotrice ec =
Ke ω, ed infine va indica la tensione di armatura, e rappresenta il segnale di ingresso.
La sezione meccanica del motore può essere descritta tramite le due equazioni differenziali:
J
dω
+ kv ω + τd
dt
dθ
dt
=
Km ia ,
(1.33a)
=
ω,
(1.33b)
in cui ω e θ indicano, rispettivamente, velocità e posizione angolari del rotore del motore, J indica il momento
di inerzia del rotore e di un eventuale carico, kv indica il coefficiente di attrito viscoso (o smorzamento), km
indica la costante di coppia ed infatti il termine km ia indica la coppia meccanica fornita dal campo magnetico,
ed infine τd indica una eventuale coppia di disturbo.
1 Immagine
elaborata da hyperphysics.phy-astr.gsu.edu
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-17
Si consideri il caso, di notevole interesse reale, in cui sia accessibile per la misura solo la posizione del rotore
θ, che svolge quindi il ruolo di uscita (misurata).
Introducendo, per semplicità di notazione, le variabili x1 = θ, x2 = ω, x3 = ia , x = [x1 x2 x3 ]T , u = ea ,
ed i parametri f22 = kv /J, f23 = km /J, f32 = ke /La , f33 = Ra /La e b3 = 1/La , d = τd m2 = 1/J, ed infine
considerando come funzione di uscita la posizione del rotore, il modello dinamico del motore è dato da:
ẋ1
ẋ2
ẋ3
y
= x2
= −f22 x2 + f23 x3 − m2 d
= −f32 x2 − f33 x3 + b3 u
= x1
ed in termini matriciali:
ẋ
y
con le matrici descritte da:

0
1
A =  0 −f22
0 −f32

0
f23  ,
−f33
= Ax + bu + mu
= cx


0
b =  0 ,
b3

0
m =  −m2  ,
0

c=
1 0
0
.
(1.35)
Un insieme realistico di parametri è dato, ad esempio, da: Ra = 1Ω, La = 10−2 H, ke = 0.5volts/rps,
km = 0.7N − m/A, J = 2 × 10−3 Kg − m3 , kv = 2 × 10−5 N − m/rps.
1.6
Il pendolo: un robot ad un grado di libertà
Il sistema illustrato in figura 1.11 è un pendolo ideale, costituito da un braccio rigido di lunghezza ℓ, collegato
ad un estremo ad un motore in grado di produrre una coppia τ (t), e con una massa puntiforme m fissata all’altro
estremo. Il pendolo si muove in un piano verticale, ed è quindi soggetto alla forza di gravità. La configurazione
del pendolo, ad un dato istante, è completamente caratterizzata dalla misura dell’angolo θ che il braccio forma
con l’asse verticale del sistema di riferimento (x, y) (si noti che la configurazione del pendolo non coincide con
il vettore di stato).
Il sistema in esame è, ad esempio, il modello della parte meccanica di un robot ad un solo grado di libertà.
Nella maggior parte dei casi, un robot industriale è costituito da una insieme di braccia (e quindi, di pendoli
ad un grado di libertà), collegati tra loro in successione. Per una trattazione dettagliata del problema della
modellazione di robot si veda, tra l’altro, [5]. Il sistema è detto anche pendolo semplice, e costituisce un ottimo
modello per lo studio della stabilità di corpi rigidi sospesi tramite un vincolo, soggetti alla forza di gravità e,
in taluni casi, anche all’azione di forze esterne ulteriori. In certe situazioni un quadricottero rientra uin questa
classe di sistemi.
x
l
θ
m
y
Figura 1.11: Pendolo verticale
Per determinare il moto del pendolo si può procedere applicando l’equazione di Newton per moti rotazionali:
Jα = τR . Il contributo della forza di gravità è dato dalla componente perpendicolare al braccio (giacché quella
allineata al braccio viene compensata dalla assunta non estendibilità del braccio stesso):
τg = −mgℓ sin(θ(t)),
(1.36)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-18
mentre il momento di inerzia J della massa è pari a mℓ2 , per cui il moto del pendolo è descritto dall’equazione:
mℓ2 α(t) = −mgℓ sin(θ(t)) + τ (t),
(1.37)
dove α(t) = θ̈(t) indica l’accelerazione angolare del pendolo.
Riordinando le equazioni e ricordando che ω = θ̇ e α = θ̈, si trova il seguente modello non lineare:
g
1
θ̈(t) = − sin(θ(t)) +
τ (t).
ℓ
mℓ2
(1.38)
Lo studio di questo modello, ed il suo controllo, puà essere condotto con tecniche di controllo non lineare
[11], oppure introducendo un modello lineare approssimato.
Quest’ultimo può essere ottenuto linearizzando la funzione f (θ) = sin(θ) in un intorno dell’origine, che
costituisce una posizione di equilibrio per il sistema autonomo, ottenendo:
1
g
¨
τ (t),
θ̃(t) = − θ̃(t) +
ℓ
mℓ2
(1.39)
dove θ̃ indica lo scostamento del pendolo rispetto alla posizione di equilibrio. Questo modello descrive con
un’approssimazione lineare il pendolo, e quindi vale solo in un’intorno piccolo, di norma molto piccolo, dell’origine.
Il vantaggio della linearità del modello è cosı̀ importante che assai spesso si utilizza tale approssimazione, detta
anche approssimazione a piccoli segnali.
Il modello completo, non lineare, può essere posto in forma di spazio di stato. Si scelgano come variabili di
stato posizione e velocità angolari del pendolo, cioè x1 = θ ed x2 = θ̇ = ω, e si indichi con u(t) = τ (t) la coppia
di ingresso. Si trova:
ẋ1
=
ẋ2
=
x2
1
g
u.
− sin(x1 ) +
ℓ
mℓ2
(1.40)
(1.41)
Il modello dinamico in questo caso è non lineare, e quindi non può essere scritto in forma matriciale. La forma
compatta abitualmente utilizzata (se il sistema conserva la linearità negli ingressi, come in questo caso) è del
tipo:
ẋ =
y =
f (x) + g(x)u
h(x)
(1.42)
(1.43)
con le funzioni f , g ed h date da:
f (x) =
"
x2
g
− sin(x1 )
ℓ
#
,
g(x) =
"
0
1
mℓ2
#
,
h(x) = x1 ,
(1.44)
assumendo interesse per la posizione angolare del pendolo (funzione di uscita).
Le tecniche di controllo non lineare (che esulano dagli scopi di questo testo), consentono di indurre un
comportamento effettivamente lineare per il pendolo, in modo globale e non solo in un’intorno dell’origine,
agendo tramite il segnale di controllo.
Si supponga di poter misurare la posizione e la velocità del pendolo per mezzo di opportuni sensori. Allora,
si può pensare di applicare al pendolo una coppia data da:
i
hg
(1.45)
sin(θ) − k1 θ − k2 θ̇ ,
τ = mℓ2
ℓ
ottenendo, per il sistema controllato, il modello:
θ̈(t) = −k1 θ − k2 θ̇,
(1.46)
e cioè un modello lineare, con parametri che possono essere scelti liberamente, e quindi con un comportamento
a ciclo chiuso che può essere scelto a piacere. Insomma, in certi casi, è possibile utilizzare il segnale di controllo
per compiere una operazione di linearizzazione esatta tramite retroazione.
Capitolo 1: Modelli dinamici
1.7
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-19
Un altro approccio alla modellazione di sistemi meccanici: le
equazioni di Lagrange
Nel caso particolare dei sistemi meccanici (ed anche per alcune classi di sistemi elettromeccanici [12]) un
approccio alternativo a quello seguito nell’esempio precedente è basato sull’uso delle equazioni di Lagrange
[13, 14]. Infatti l’approccio basato sull’equilibrio delle forze, nel caso di sistemi meccanici composti da più corpi
rigidi interconnessi, richiede di tener conto di tutte le forze agenti sui vari corpi, comprese le forze di reazione
vincolare. Ciò rende il metodo particolarmente complesso da un punto di vista computazionale.
Viceversa, la determinazione del modello per mezzo delle equazioni di Lagrange richiede solo il calcolo
dell’energia cinetica e potenziale dei vari corpi, e di norma tale calcolo è più semplice della determinazione di
tutte le forze agenti.
Più precisamente, la derivazione del modello è fatta a partire dalla funzione Lagrangiana L, definita da:
L(q, q̇) := T (q, q̇) − V (q)
(1.47)
dove T (q, q̇) indica l’energia cinetica del sistema, V (q) l’energia potenziale e q indica il vettore ad n componenti
delle coordinate generalizzate, cioè il vettore dell’insieme di grandezze che descrivono in modo completo la
configurazione degli n corpi che compongono il sistema. Indicato con τ il vettore delle forze e coppie agenti sul
sistema, le equazioni del moto sono date dalle seguenti equazioni di Lagrange:
∂L
d ∂L
−
= τi ,
dt ∂ q̇i
∂qi
i = 1, 2, . . . , n.
(1.48)
Nel caso particolare del pendolo, il vettore delle coordinate generalizzate è dato semplicemente da q =
θ. L’energia cinetica del sistema, assumendo la massa del braccio nulla (perché concentrata nella masssa
puntiforme), è data da:
1
(1.49)
T (q, q̇) = mℓ2 θ̇2 ,
2
mentre l’energia potenziale è data da:
V (q) = −mgℓ cos(θ).
(1.50)
La funzione Lagrangiana è quindi:
1 2 2
mℓ θ̇ + mgℓ cos(θ).
2
da cui, sostituendo nelle equazioni di Lagrange, si ottiene:
L(q, q̇) =
d ∂L
dt ∂ q̇
∂L
∂q
(1.51)
=
d
(mℓ2 θ̇) = mℓ2 θ̈
dt
(1.52a)
=
−mgℓ sin(θ)
(1.52b)
e quindi:
mℓ2 θ̈ + mgℓ sin(θ) = τ.
1.8
(1.53)
Modelli decisionali
Una classe molto importante di sistemi dinamici è costituita dai modelli decisionali, cioè da modelli utilizzati
per valutare l’effetto di possibili decisione alternative. Nel caso dei sistemi a tempo continuo tali modelli possono
essere facilmente descritti in termini di modelli fluidi.
Si consideri, a titolo di esempio, il caso di un’azienda di trasporti che gestisce un parco autoveicoli molto
numeroso. L’azienda organizza gli autoveicoli in due insiemi: gli autoveicoli che hanno percorso meno di 15.000
Km, indicati come autoveicoli di classe A, e quelli che hanno percorso più di 15.000 Km, indicati come autoveicoli
di classe B. Entrambe le classi di autoveicoli sono soggette a guasti e/o a manutenzioni periodiche. Ogni veicolo
guasto, in funzione dell’entità del guasto stesso, verrà riparato o dismesso.
Complessivamente quindi l’intero parco può essere diviso in quattro insiemi (o compartimenti):
• compartimento (o insieme) 1: autoveicoli di classe A (meno di 15.000 Km) funzionanti;
• compartimento (o insieme) 2: autoveicoli di classe A (meno di 15.000 Km) guasti/in manutenzione;
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-20
• compartimento (o insieme) 3: autoveicoli di classe B (più di 15.000 Km) funzionanti;
• compartimento (o insieme) 4: autoveicoli di classe B (più di 15.000 Km) guasti/in manutenzione.
Per costruire un modello decisionale, ad esempio finalizzato a studiare il numero previsto di veicoli in
ogni classe, o il tasso al quale inserire nuovi veicoli, od altri elementi di interesse, è importante caratterizzare
ulteriormente il modello. In particolare è importante conoscere il tasso di transizione tra i vari insiemi, e cioè
quale frazione di autoveicoli di ogni insieme transita ad un insieme contiguo.
In particolare, si assuma che ogni giorno:
• lo 0.1 % dei veicoli della classe A si danneggi e/o debba essere sottoposto a manutenzione;
• lo 0.15% dei veicoli della classe B si danneggi e/o debba essere sottoposto a manutenzione;
• il 1% dei veicoli della classe A danneggiati venga rimesso in operazione;
• lo 0.20% dei veicoli di classe A danneggiati venga dismesso;
• il 1.5 % dei veicoli della classe B danneggiati venga rimesso in operazione;
• lo 0.25% dei veicoli di classe B danneggiati venga dismesso.
• il 0.10% dei veicoli funzionanti della classe B venga dismesso.
È bene precisare che la scala temporale utilizzata per i precedenti parametri, il giorno, corrisponde all’unità
di misura del tempo.
Il sistema in esame può essere descritto tramite un modello fluido se il numero di elementi coinvolti è alto
(in questo esempio il numero di veicoli), in modo tale da poter approssimare i valori interi con valori reali,
e se i singoli eventi, cioè i “fatti” che influenzano il comportamento del sistema stesso, avvengono in modo
indipendente. In tal caso, si può associare ad ogni compartimento una variabile di stato reale, e descrivere le
transizioni degli autoveicoli tra i vari insiemi in termini di flussi (o velocità), assumendo che i passaggi tra due
insiemi avvengano con continuità.
Una rappresentazione grafica del sistema è riportata nella seguente figura 1.8. Si tratta di un grafo bipartito,
in cui cioè i nodi sono di due classi distinte: nodi compartimento (indicati con un cerchio vuoto) e nodi
sorgente/pozzo (indicati con un triangolo).
I nodi sono collegati tra loro da archi pesati ed orientati. Il peso di ciascun arco indica la frazione di
contenuto del nodo origine che fluisce nel nodo destinazione nell’unità di tempo. In assenza di etichetta di peso,
si assume peso unitario.
A ciascun nodo di tipo compartimento deve essere associata una variabile di stato, mentre i nodi sorgente/pozzo determinano variazioni nette di flusso nel sistema. In particolare, i nodi sorgente/pozzo autonomi
sono indicati con un triangolo vuoto, caratterizzato da un parametro (u1 nell’esempio in figura 1.8) che indica
il flusso indotto dal nodo. Per tali nodi, nel caso di un arco da una sorgente verso un nodo compartimento è
positivo per il nodo compartimento, mentre nel caso di un arco da un compartimento ad un pozzo il flusso è
negativo per il nodo di tipo compartimento.
I nodi di tipo pozzo dipendenti dallo stato del sistema sono indicati con un triangolo nero, ed assorbono un
flusso caratterizzato dall’arco in ingresso. Tale flusso è quindi un flusso negativo per il nodo origine dell’arco
pesato con destinazione il pozzo. Nell’esempio in esame, si tratta dei nodi legati tra loro dagli archi con peso
a2,0 , a3,0 e a4,0 .
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-21
a1,3
u1
1
x1
x3
a1,2
a2,1
a3,4
a4,3
x2
a3,0
x4
a2,0
a4,0
Per tali classi di modelli, le variabili di stato descrivono ciascun singolo insieme (o compartimento), e
tipicamente denotano la quantità di beni (materiali, oggetti, liquidi, etc ...) contenuti nell’insieme.
Nel caso del sistema in esame si può quindi porre:
1. x1 : numero di veicoli nel compartimento (o insieme) 1, cioè numero di veicoli di classe A (meno di 15.000
Km) funzionanti;
2. x2 : numero di veicoli nel compartimento (o insieme) 2, cioè numero di veicoli di classe A (meno di 15.000
Km) guasti/in manutenzione;
3. x3 : numero di veicoli nel compartimento (o insieme) 3, cioè numero di veicoli di classe B (più di 15.000
Km) funzionanti;
4. x4 : numero di veicoli nel compartimento (o insieme) 4, cioè numero di veicoli di classe B (più di 15.000
Km) guasti/in manutenzione.
Si indichi con ai,j il flusso di veicoli dall’insieme i all’insieme j. Nel caso in esame si ha quindi:
• a1,2 = 1 × 10−3 (% dei veicoli della classe A che si danneggia e/o debba essere sottoposto a manutenzione);
• a1,3 = 1 × 10−3 (% dei veicoli della classe A che passano alla classe B);
• a2,1 = 10 × 10−3 (% dei veicoli della classe A danneggiati e rimessi in operazione);
• a2,0 = 2 × 10−3 (% dei veicoli di classe A danneggiati e dismessi);
• a3,0 = 1.0 × 10−3 (% dei veicoli funzionanti della classe B dismessi);
• a3,4 = 1.5×10−3 (% dei veicoli della classe B che si danneggia e/o debba essere sottoposto a manutenzione);
• a4,3 = 15 × 10−3 (% dei veicoli della classe B danneggiati e rimessi in operazione);
• a4,0 = 2.5 × 10−3 (% dei veicoli di classe B danneggiati e dismessi).
Il comportamento dinamico del sistema è quindi descritto dalle seguenti equazioni
ẋ1
=
ẋ2
ẋ3
=
=
ẋ4
=
−a1,2 x1 − a1,3 x1 + a2,1 x2 + u1
(1.54)
−a4,3 x3 + a3,4 x3 2 − a4,0 x4 .
(1.57)
a1,2 x1 − a2,1 x2 − a2,0 x2
a1,3 x1 − a3,4 x3 + a4,3 x4 − a3,0 x3
(1.55)
(1.56)
Assumendo inoltre come grandezze di interesse il numero di veicoli di classe A operativi ed il numero totale
di veicoli operativi, si hanno le due funzioni di uscita (cioè l’uscita vettoriale)
y1
y2
=
=
x1
x1 + x3 .
(1.58)
(1.59)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-22
Si noti come i flussi verso un dato compartimento, ad esempio il flusso descritto dal parametro a1,2 , dia luogo
ad un termine positivo nella seconda equazione, e ad un corrispondente termine negativo nella prima equazione.
In termini matriciali il modello può quindi essere scritto nella forma seguente:
ẋ =
y =
Ax + Bu
Cx
ove le matrici che descrivono il modello sono date da:

−a1,2 − a1,3
a2,1
0

a
−a
−
a
0
1,2
2,1
2,0
A = 

a1,3
0
−a3,4 − a3,0
0
0
−a4,3
1 0 0 0
C =
1 0 1 0
1.9
(1.60)
(1.61)
0
0


,

a4,3
+a3,4 − a4,0

1
 0 

B=
 0 
0

(1.62)
(1.63)
Dinamica di popolazioni
I modelli matematici vengono utilizzati spesso anche per studiare dinamiche di popolazioni. Anche in questo
caso si fa riferimento a modelli fluidi.
A titolo di esempio, si consideri un corso di studio universitario di durata triennale. La popolazione di tale
corso può essere organizzata in tre insiemi di studenti:
• compartimento (o insieme) 1: studenti iscritti al primo anno di corso;
• compartimento (o insieme) 2: studenti iscritti al secondo anno di corso;
• compartimento (o insieme) 3: studenti iscritti al terzo anno di corso e studenti fuori corso (iscritti da più
di tre anni).
Anche per tali classi di modelli, le variabili di stato descrivono ciascun singolo insieme (o compartimento),
ed in particolare misurano la popolazione in ogni compartimento. Nel caso del sistema in esame si può quindi
porre:
• x1 : numero di studenti iscritti al primo anno di corso;
• x2 : numero di studenti iscritti al secondo anno di corso;
• x3 : numero di studenti iscritti al terzo anno di corso e studenti fuori corso (iscritti da più di tre anni).
Le variabili di stato, e cioè la popolazione che contraddistingue ciascun anno di corso, cambia con cadenza
annuale, in corrispondenza del processo di iscrizione, ed è (sostanzialmente) costante nel corso di ciascun anno. I
cambiamenti nelle variabili di stato possono quindi essere associati ad un indice intero che descriva il trascorrere
degli anni accademici: la quantità reale x1 (k) indica il numero di studenti iscritti al primo anno nel corso del
k-esimo anno accademico e la quantità reale x1 (k + 1) indica la popolazione iscritta al primo anno nel successivo
anno accademico. Il modello è quindi a tempo discreto: la variabile indipendente “tempo” assume solo valori
interi.
Analogamente a quanto visto nel caso del modello decisionale, la derivazione delle equazioni che descrivono
l’evoluzione della popolazione di interesse si basa sulla conoscenza delle caratteristiche del sistema, e nello
specifico sia sulla conoscenza dei tassi di passaggio degli studenti da un anno al successivo, sia sulla conoscenza
dei tassi di abbandono ai vari anni e del tasso di laurea.
A titolo di esempio, si assuma che:
• il 70 % degli studenti iscritti al primo anno passi, nel successivo anno accademico, al secondo;
• il 5 % degli studenti iscritti al primo anno rimanga, nel successivo anno accademico, al primo;
• il 25 % degli studenti iscritti al primo anno abbandoni gli studi nel corso dell’anno accademico;
• il 90 % degli studenti iscritti al secondo anno passi, nel successivo anno accademico, al terzo;
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-23
• il 5 % degli studenti iscritti al secondo anno rimanga, nel successivo anno accademico, al secondo;
• il 5 % degli studenti iscritti al secondo anno abbandoni gli studi nel corso dell’anno accademico;
• il 50 % degli studenti iscritti al terzo anno o successivi, consegua la laurea nel corso dell’anno accademico;
• il 5 % degli studenti iscritti al terzo anno abbandoni gli studi nel corso dell’anno accademico;
• ogni anno si immatricoli un numero noto di studenti (al primo anno).
Il sistema in esame, analogamente a quanto visto per il precedente modello decisionale, può essere descritto
tramite un modello fluido. Una rappresentazione grafica del sistema è riportata nella seguente figura 1.9.
A differenza del precedente modello, in questo caso (cioè nel caso dei modelli fluidi a tempo discreto) ciascun
arco determina un flusso positivo per il nodo destinazione, ma non determina alcun flusso per il nodo origine.
7
10
u1
1
9
10
x1
25
100
x2
5
100
5
100
x3
5
100
5
100
45
100
Il comportamento dinamico del sistema è quindi descritto dalle seguenti equazioni, dette equazioni alle
differenze finite
x1 (k + 1) =
x2 (k + 1) =
x3 (k + 1) =
5
x1 (k) + u1 (k)
100
5
7
x1 (k) +
x2 (k)
10
100
9
45
x2 (k) +
x3 (k).
10
100
(1.64)
(1.65)
(1.66)
Assumendo come grandezza di interesse il numero complessivo di studenti:
y(k) =
x1 (k) + x2 (k) + x3 (k)
(1.67)
(1.68)
il modello può essere scritto nella seguente forma matriciale:
x(k + 1) =
y(k) =
ove le matrici che descrivono il modello sono date da:

5
0
 100

 7
5
A = 
 10 100


9
0
10
1 0 0
C =
Ax(k) + Bu(k)
Cx(k)
0




0 
,

45 
100
(1.69)
(1.70)


1
B= 0 
0
(1.71)
(1.72)
Capitolo 1: Modelli dinamici
1.10
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-24
Successione di Fibonacci
La successione di Fibonacci 2 è una successione di numeri interi naturali, con la proprietà che ciascun numero
della successione è il risultato della somma dei due precedenti.
I numeri di tale successione, detti numeri di Fibonacci, trovano applicazione in molti contesti. Una delle
caratteristiche di tali numeri è che il rapporto tra due valori consecutivi tende alla sezione aurea o numero di
Fidia. Indicato con F (k) il generico numero di Fibonacci, si ha insomma:
√
F (k)
1+ 5
lim
=
.
(1.73)
k→∞ F (k − 1)
2
Il calcolo di un assegnato numeri di elementi consecutivi della successione di Fibonacci può essere condotto
utilizzando la definizione ricorsiva del generico termine:
F (k) = F (k − 1) + F (k − 2),
∀k ≥ 2,
(1.74)
a partire dalle condizioni iniziali F (0) = 0 e F (1) = 1. Il calcolo della sequenza è frequentemente utilizzato nei
corsi di programmazione come esempio di realizzazione ricorsiva o iterativa di algoritmi.
La stessa sequenza può essere studiata introducendo un modello a tempo discreto nello spazio di stato. La
soluzione di tale modello consente il calcolo, in forma chiusa, di un generico elemento, mentre la sua analisi
consente di ricavare le proprietà di tale sequenza, ad esempio la proprietà sintetizzata dalla (1.73).
Per costruire un modello nello spazio di stato che descriva la successione di Fibonacci si considerino le due
variabili di stato:
x1 (k)
F (k)
x1 (k)
=
, x :=
, x ∈ R2 .
(1.75)
x2 (k)
F (k + 1)
x2 (k)
Dalla definizione di tali variabili e dei numeri di Fibonacci (1.74) segue facilmente che:
x1 (k + 1) =
F (k + 1) = x2 (k)
(1.76a)
x2 (k + 1) =
y(k) =
F (k + 2) = F (k + 1) + F (k) = x1 (k) + x2 (k)
F (k) = x1 (k)
(1.76b)
(1.76c)
da cui il modello matriciale:
x(k + 1) =
y(k) =
Ax(k)
Cx(k)
(1.77)
(1.78)
con
A
=
0 1
1 1
,
C=
1 0
.
(1.79)
Rispetto alla proprietà (1.73), ci si limita in questa sede a notare come la sezione aurea sia uno degli
autovalori della matrice A.
1.11
Un modello di magazzino
Un ulteriore tipico esempio di sistema a tempo discreto è costituito dal modello dinamico di un magazzino.
Si indichi con y(k), k ∈ Z, il livello della merce presente nel magazzino all’inizio di un fissato intervallo di
tempo, ad esempio all’inizio di ogni settimana, prima degli approvvigionamenti e delle consegne della settimana
stessa. Si supponga che gli ordini per il rifornimento del magazzino vengano inviati al fornitore all’inizio della
settimana, cioè all’inizio del k-esimo periodo di tempo, e che il fornitore consegni nell’arco di tempo tra l’inizio
e la fine del periodo k-esimo la merce ordinata all’inizio del periodo k − 1; si indichi con u(k) tale quantità.
Infine, si indichi con v(k) la merce consegnata ai clienti del magazzino durante il periodo k.
Considerando le funzioni u(k) e v(k) come ingressi al sistema, ed assumendo che l’interesse è nello studio del
livello della merce nel magazzino, indicato tramite la funzione di uscita y(k), il legame tra le varie grandezze è
espresso dalla seguente equazione alle differenze finite del secondo ordine:
y(k + 1) = y(k) + u(k − 1) − v(k).
2 Leonardo
da Pisano, detto Leonardo Fibonacci, (Pisa, 1170 - Pisa, 1240 ca.)
(1.80)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-25
Una possibile scelta delle variabili di stato è:
x2 (k) = u(k − 1).
(1.81)
x1 (k) + x2 (k) − v(k)
u(k)
(1.82a)
(1.82b)
x1 (k)
(1.82c)
x1 (k) = y(k),
Con tale scelta, il modello del magazzino diviene:
x1 (k + 1) =
x2 (k + 1) =
y(k) =
In forma matriciale il sistema può essere scritto come:
x(k + 1) =
y(k) =
con
A=
1.12
1
0
1
0
,
B=
Ax(k) + Bu(k)
(1.83)
Cx(k)
(1.84)
−1
0
0
1
,
C=
1
0
.
(1.85)
Sistemi a segnali campionati
Il controllo dei sistemi dinamici è ormai realizzato, salve rarissime eccezioni, esclusivamente tramite controllori digitali, e quindi con leggi di controllo a tempo discreto, per l’intrinseca natura discreta degli elaboratori
digitali. In modo analogo, la quasi totalità degli apparati di elaborazione e trasmissione dei segnali è basata su
tecnologie digitali.
Viceversa, la maggior parte dei sistemi reali sono intrinsecamente a tempo continuo. Si pone quindi il
problema di studiare sistemi di controllo a segnali campionati, in cui cioè siano presenti elementi a tempo
discreto ed elementi a tempo continuo.
Un primo approccio allo studio di tali sistemi è quello di condurre l’intero processo di analisi e sintesi del
controllore a tempo continuo, e poi discretizzare il controllore cosı̀ ottenuto. In alternativa, si può discretizzare
il modello del processo, e poi condurre l’analisi e la sintesi a tempo discreto. In entrambi i casi, si pone il
problema di passare da un modello a tempo continuo ad un modello a tempo discreto.
Un concetto fondamentale per trattare tali argomenti è quello di intervallo di campionamento: si assume
che i seganli a tempo continuo di interesse, abitualmente detti segnali analogici, vengano acquisiti ad istanti di
tempo regolari. La distanza di tempo tra due acquisizioni consecutive è detta periodo di campionamento.
Se si dispone di un modello nello spazio di stato del sistema da discretizzare, si può procedere come segue.
Per semplicità, si considera un sistema con una sola variabile di stato; l’approccio è comunque generale. Quello
presentato è uno degli approcci possibili: in altri corsi verranno introdotte altre procedure.
Dato il sistema:
ẋ =
ax + bu,
y
cx,
=
x ∈ R, u ∈ R,
y ∈ R,
(1.86)
(1.87)
la sua soluzione nella variabile x(t), a partire dalla condizione iniziale x(0) = x0 , è data da:
at
x(t) = e x0 +
Z
t
e a(t−τ ) bu(τ )dτ.
(1.88)
0
Nel caso di sistemi a segnali campionati, le grandezze di controllo sono costanti all’interno di un periodo di
campionamento. Sia T la durata del periodo campionamento/controllo, e sia u(k) il valore assunto dal segnale
di controllo durante il k-esimo periodo di controllo. Si ha:
u(τ ) = u(k),
∀τ ∈ [kT, (k + 1)T ).
(1.89)
Si consideri ora la soluzione nella variabile di stato x(t) del sistema (1.88) all’interno del k-esimo intervallo
di controllo:
Z t
x(t) = e a(t−kT ) x(kT ) +
e a(t−τ ) bu(τ )dτ, t ∈ [kT, (k + 1)T ).
(1.90)
kT
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-26
Poiché il segnale di controllo è costante in tale intervallo, può essere portato fuori dall’integrale, ottenendo:
!
Z
x(t) = e a(t−kT ) x(kT ) +
kT +t
e a(t−τ ) dτ
bu(k),
kT
t ∈ [kT, (k + 1)T ),
(1.91)
da cui, ponendo l’attenzione sull’istante di tempo t = (k + 1)T e cambiando variabile di integrazione, si trova:
!
Z
T
x((k + 1)T ) = e aT x(kT ) +
e aσ dσ bu(k).
(1.92)
0
L’equazione precedente descrive la legge di aggiornamento dei valori dello stato in corrispondenza degli istanti
di campionamento. Definite le costanti:
"Z
#
aD := e aT ,
T
bD :=
e aσ dσ b,
(1.93)
0
lo stato del sistema, in corrispondenza degli istanti di campionamento e sotto l’ipotesi che il segnale di controllo
sia costante tra due istanti di campionamento successivi, è descritto dall’equazione alle differenze finite:
x(k + 1) = aD x(k) + bD u(k),
y(k) = cx(k),
(1.94a)
(1.94b)
dove l’equazione di uscita è ottenuta semplicemente ricordando che il legame stato-uscita è statico, e la durata
del periodo di controllo è stata omessa dall’argomento dello stato e dell’ingresso (cioè, x(k + 1) indica in effetti
x((k + 1)T )).
Con procedimento del tutto analogo, salvo l’uso di operazioni matriciali, si può ricavare il modello a tempo
discreto di un sistema continuo di dimensione maggiore di uno.
Si noti che il modello a tempo discreto ricavato, sotto le ipotesi fatte, ed in particolare sotto l’ipotesi che il
segnale di controllo sia costante in un periodo, non è una approssimazione del sistema a tempo continuo, ma
invece è una descrizione esatta del comportamento dello stato in corrispondenza degli istanti di campionamento.
1.13
Algoritmi per il calcolo numerico: la radice quadrata
Un’altra classe molto importante di sistemi dinamici a tempo discreto è costituita da algoritmi iterativi per
il calcolo numerico. Un esempio di tale classe di sistemi è dato dal semplice algoritmo per il calcolo della radice
quadrata del numero reale α, descritto dall’equazione:
x(k + 1) = x(k) + α − x(k)2 .
(1.95)
È immediato verificare che il valore xe = +α è un punto di equilibrio del sistema, asintoticamente stabile (cioè,
tale che l’evoluzione libera del sistema tende alla soluzione cercata) per α ∈ (0, 1) e per condizioni iniziali
sufficientemente vicine alla soluzione cercata.
Un altro algoritmo per il calcolo della radice quadrata, valido per un insieme più ampio di valori del parametro
α3 , è dato dalla legge iterativa:
x(k)2 − α
x(k + 1) = x(k) −
.
(1.96)
2x(k)
Si suggerisce di studiare gli algoritmi (1.95) e (1.96) per via simulativa, realizzando due semplici programmi
in un qualsiasi linguaggio di programmazione.
1.14
Il modello di un motore a combustione
L’approccio seguito finora per la determinazione di modelli dinamici di sistemi reali è basato principalmente
sull’uso delle leggi fisiche che regolano il funzionamento del sistema stesso.
3 formalmente:
xe = α.
un insieme più ampio di valori del parametro α cui corrisponda la stabilità asintotica del punto di equilibrio
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-27
Nel caso di sistemi complessi si ricorre spesso a modelli approssimati costruiti sulla base di procedimenti
di identificazione del legame ingresso-uscita che caratterizza il sistema. Tipicamente, si determina prima un
modello parametrico del sistema o sulla base di alcune considerazioni fisiche, o sulla base di misure preliminari,
e si procede poi all’identificazione del valore numerico dei parametri. Un approccio molto comune per risolvere
tale problema è quello di immettere in ingresso al sistema segnali sinusoidali, misurare l’uscita corrispondente,
in un intervallo di frequenze ritenuto di interesse, e risolvere poi un problema di minimizzazione, calcolando i
valori numerici dei parametri che danno luogo allo scarto minimo tra le uscite misurate e quelle ottenute dal
modello.
Procedendo in questo modo è possibile costruire, ad esempio, il modello dinamico di un motore a combustione
interna. L’esempio che segue descrive il modello del motore di una Lancia Dedra [15].
Si considerino come grandezze di ingresso l’anticipo di accensione, a(s), e l’apertura della valvola a farfalla,
d(s). Le grandezze di uscita di interesse, di norma, sono la pressione nel collettore di aspirazione, p(s), e la
velocità del motore, n(s). Sulla base di alcune considerazioni circa i principi di funzionamento del motore, si
ritiene che i legami tra queste grandezze siano bene rappresentati dal seguente modello parametrico in forma di
matrice di trasferimento:
p(s)
g1,1 (s) g1,2 (s)
a(s)
=
,
(1.97)
n(s)
g2,1 (s) g2,2 (s)
d(s)
in cui le quattro funzioni gi,j (s) sono descritte da:
−q3 q6
,
+ q5 )s + (q3 q4 + q2 q5 )
q1 (q7 s + q5
,
g1,2 (s) =
2
q7 s (q2 q7 + q5 )s + (q3 q4 + q2 q5 )
q6 (s + q2 )
,
g2,1 (s) =
q7 s2 (q2 q7 + q5 )s + (q3 q4 + q2 q5 )
q1 q4
g2,2 (s) =
.
2
q7 s (q2 q7 + q5 )s + (q3 q4 + q2 q5 )
g1,1 (s) =
q7 s2 (q2 q7
(1.98)
(1.99)
(1.100)
(1.101)
Per quanto riguarda il valore dei parametri q1 , . . ., q7 , si è visto che per ogni condizione di funzionamento
è conveniente scegliere un insieme diverso di valori. Per una descrizione più accurata del modello, per i valori
numerici dei parametri e per ulteriore bibliografia sull’argomento si veda [15, Cap. 3 e Cap. 10].
Il problema della stima dei parametri di un modello dinamico, ad esempio del tipo analizzato in questa
sezione, sulla base di misure dei segnali di ingresso ed uscita è detto problema di identificazione.
1.15
Un modello dell’apparato cardio-circolatorio umano
GLi strumenti di modellazione ed analisi tipici dell’ingegneria dell’informazione sono molto utili anche nel
settore della medicina e della biologia.
In tale contesto, un interessante esempio di sistema dinamico è costituito dall’apparato cardio-circolatorio
umano. Per la realizzazione di efficienti sistemi di ausilio meccanico alla circolazione (cuore artificiale e ventricolo
artificiale (VAD)), è necessario disporre di un accurato modello di tale apparato. Sono stati proposti vari
modelli, di complessità ed accuratezza diversa. In quasi tutti i casi, la struttura del modello è definita a partire
da considerazioni di meccanica dei fluidi, mentre la determinazione dei parametri numerici è fatta sulla base di
opportune procedure di identificazione. Un problema assai rilevante, in questo caso, è legato al fatto che non si
può ricorrere, se non in misura assai contenuta, alla stimolazione esterna del sistema con segnali sinusoidali di
frequenza arbitraria!
I modelli del sistema circolatorio sono di solito descritti facendo ricorso ad analogie elettriche. La determinazione del modello in spazio di stato del sistema è quindi possibile seguendo la traccia vista nella sezione
1.4. Un modello di uso molto frequente per la descrizione semplificata del sistema circolatorio, che tiene conto
solo del ventricolo sinistro e del carico arterioso, è riportato in figura 1.12 [16]. Il sistema è non lineare, per la
presenza dei diodi che modellano le valvole mitrale ed aortica. Il generatore controllato che appare nello schema
descrive il funzionamento interno del ventricolo, secondo il modello più accreditato in questo momento, detto
modello ad elastanza variabile. Secondo tale modello, il volume VLV e la pressione interna PLV del ventricolo
sinistro (Left Ventricle) sono legati dalla relazione:
PLV (t) = PL0 + (VLV (t) − VL0 )E(t) + RV̇LV (t),
(1.102)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-28
in cui il parametro E(t), variabile nel tempo in modo periodico, con periodo pari a quello cardiaco, descrive le
capacità elastiche del muscolo, e le costanti PL0 e VL0 sono invece parametri di traslazione.
Rc
R
D
QLV
L
E(t)
=
PLV
Ca
Rid
Piso
Figura 1.12: Sistema cardio-circolatorio (Interazione ventricolo-carico)
Partendo dall’analogia elettrica, in base alla quale una pressione (differenza di pressione) corrisponde ad
una tensione (differenza di potenziale) ed un flusso corrisponde ad una corrente (flusso di cariche), si ricava
facilmente il vettore di stato del sistema, costituito dal flusso QL attraverso l’induttanza di carico Lc (inertanza
del sangue in aorta), dalla tensione P1 ai capi del condensatore Ca (complianza arteriosa), ed infine dal volume
del ventricolo VLV , che ne descrive lo stato interno. Le variabile di interesse, che possono essere scelte come
funzioni di uscita del modello, sono invece la pressione in ventricolo, PLV , la pressione in aorta, PAo , ed il flusso
in uscita dal ventricolo. Le grandezze esogene (cioè, i segnali esterni che influenzano il comportamento del
sistema, ma che, in questo caso, non possono essere modificati dal “controllo”) sono invece dati dal parametro
di traslazione PL0 (assumendo nullo il parametro VL0 ) e dalla pressione media nel ciclo in atrio Pmc . Con tale
scelta delle variabili, il modello nello spazio di stato diviene:
d
P1
dt
d
QL
dt
d
VLV
dt
=
=
=
QLV
=
PAo
PLV
=
=
No Γ +
1
RT P
No ΓRC
No ΓE(t)
No Γ
P1 +
QL +
VLV +
PL0
(1.103a)
CA
CA
CA
CA
No ΓRC
RC (No ΓRC − 1)
No ΓRC E(t)
No ΓRC
−
P1 +
QL +
VL +
PL0
(1.103b)
L
L
L
L
N1 RRC No Γ
Ni RNo Γ
Ni E(t)
P1 −
(1 − No ΓR) VLV(1.103c)
No Γ −
QL − No ΓE(t) −
Rid
Rid − RC No Γ
Rid
Ni (1 − No ΓR
Ni
PL0
(1.103d)
Pmc − No Γ +
+
Rid
Rid
−No ΓP1 + No ΓRC QL + No ΓE(t)VLV + No ΓPLO
(1.103e)
−
2
(1 − RC No Γ)P1 + (No ΓRC
− RC )QL + No ΓRC E(t)VLV + No ΓRC PLO
No ΓRP1 − No ΓRRC QL − (No ΓR − 1)E(t)VLV + (1 − No ΓR)PLO
(1.103f)
(1.103g)
(1.103h)
Per una descrizione più dettagliata del modello e del corrispondente problema di identificazione, nonché per
ulteriori riferimenti bibliografici, si può vedere [16, 17].
1.16
Un circuito elettrico nonlineare: l’oscillatore di Van der Pol
Un sistema nonlineare molto studiato è l’oscillatore armonico di van der Pol.4 Il sistema è costituito da un
semplice circuito RLC con elementi in parallelo, con induttanza e capacità lineari e resistenza non lineare, con
caratteristica corrente-tensione descritta da:
4 Balthasar
2
iR (vR ) = αvR (vR
− 1),
van der Pol (Utrecht, 1889 - Wassenaar, 1959).
α > 0,
(1.104)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-29
dove iR e vR indicano, rispettivamente, la corrente attraverso la resistenza e la corrente ai suoi capi. Si noti che
per piccoli valori della tensione il componente ha un comportamento attivo.
Il modello dinamico del sistema, ricordando che i tre elementi sono collegati in parallelo, indicando con vC
la tensione ai capi del condensatore (e quindi di tutti gli elementi) e con iL la corrente nell’induttanza, ed
assumendo parametri unitari, è dato da:
diL
dt
dvC
dt
=
vC
(1.105a)
=
2
−iL − vC (vC
− 1).
(1.105b)
L’oscillatore di van der Pol può essere descritto anche nella seguente forma, diversa nel termine non lineare:
x˙1
x˙2
=
=
x2
(1.106a)
−x1 + x2 (1 −
x21 ).
(1.106b)
Si noti che, per entrambe le formulazioni, l’origine è punto di equilibrio. Tuttavia, l’equilibrio è instabile. Il
comportamento del sistema è caratterizzata da un ciclo limite stabile. In altri termini, traiettorie con origine
al di fuori del ciclo limite convergono ad esso, mentre traiettorie con origine sul ciclo limite vi rimangono.In
considerazione di tale comportamento, il sistema costituisce un oscillatore autosostenuto: il ciclo limite infatti
non dipende dalle condizioni iniziali, ma solo dai parametri che caratterizzano il sistema.
Il comportamento del sistema, nella variante (1.106), è illustrato dai due diagrammi in figura 1.13. Il
diagramma a sinisra illustra l’evoluzione temporale delle due variabili di stato, quello a destra il piano delle
fasi. La curva magenta rappresenta il ciclo limite, le frecce gialle l’andamento del flusso, la curva in colore verde
l’evoluzione, nel piano delle fasi, di una traiettoria con punto di origine all’interno del ciclo limite, ed infine la
curva in blu descrive l’evoluzione di una traiettoria con origine al di fuori del ciclo limite.
Modello di van der Pol − Andamenti temporali
Modello di van der Pol − Piano delle fasi
2.5
3
2
2
Ciclo limite
1
1
2
0.5
Coordinata x
Variabili di stato x1 (blu) & x2 (verde)
1.5
0
−0.5
0
−1
−1
−1.5
−2
−2
−3
−2.5
0
5
10
tempo
15
20
−3
−2
−1
0
1
Coordinata x
2
3
1
Figura 1.13: Comportamento dell’oscillatore di van der Pol.
1.17
Un sistema preda-predatore
Il comportamento di un sistema ecologico, con due specie diverse, una specie preda ed un specie predatore, può
essere descritto tramite un sistema dinamico. Il modello, detto modello di Volterra-Lotka, ha origine dagli studi
di Vito Volterra5 su alcune popolazioni ittiche dell’Adriatico. Indicando con x1 il livello di popolazione (numero
5 Vito
Volterra, (Ancona, 1860 - Roma, 1940)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-30
di individui, assunto continuo) della specie preda e con x2 il livello della specie predatore, il modello è descritto
dalla seguente coppia di equazioni:
ẋ1
ẋ2
= ax1 − bx1 x2
= cx1 x2 − dx2 ,
dove i parametri a, b, c e d sono tutti positivi. L’equazione può essere giustificata sulla base di alcune considerazioni qualitative:
• in assenza di predatori (cioè, x2 = 0) il livello delle prede cresce con tasso a, e ciò giustifica il termine ax1
nella prima equazione;
• in assenza di predatori (cioè, x1 = 0) il livello dei predatori decresce con tasso d, e ciò giustifica il termine
−dx2 nella seconda equazione;
• se sono presenti entrambe le specie, il numero di prede decresce in funzione del numero di incontri predapredatore, e ciò giustifica il termine −bx1 x2 nella prima equazione;
• se sono presenti entrambe le specie, il numero di predatori cresce in funzione del numero di incontri
preda-predatore, e ciò giustifica il termine cx1 x2 nella seconda equazione.
Il modello, pur estremamente semplice, riesce a riprodurre, per scelte opportune dei parametri, alcuni importanti
fenomeni che si osservano nella realtà. La soluzione del modello descrive andamenti della popolazione oscillante:
nei periodi in cui vi sono molti predatori il livello delle prede è basso, nei periodi con pochi predatori vi sono
molte prede.
Si noti come le popolazioni delle prede e dei predatori siano descritte tramite variabili reali: si tratta di un
ulteriore esempio di modello fluido.
Il comportamento del sistema è illustrato dai due diagrammi in figura 1.14. Il diagramma a sinisra illustra
l’evoluzione temporale delle due variabili di stato, quello a destra il piano delle fasi.
Modello di Volterra − Lotka − Andamenti temporali
Modello di Volterra − Lotka − Piano delle fasi
2.2
2.5
1.8
2
Coordinata x
2
1.6
1.4
1
2
Variabili di stato x (blu) & x (verde)
2
1.2
1
1.5
1
0.8
0.5
0.6
0.4
0
0
5
10
15
tempo
20
25
0
0.5
1
1.5
Coordinata x1
2
2.5
Figura 1.14: Comportamento del modello di Volterra-Lotka.
1.18
Modellazione di fenomeni alla scala biomolecolare
Gli strumenti di modellazione matematica possono essere utilizzati anche per descrivere il comportamento di
reazioni biochimiche alla scala dei fenomeni genetici e di quelli interni ad una cellula. Si tratta di un approccio
oramai comune nel campo della systems biology [7]).
A titolo di esempio, si consideri la catena di reazioni biochimiche che si incontrano nel percorso cellulare dai
recetottori EGFR and IGF1R, posti sulla membrana cellulare, fino alle proteine MAPK e PIK3, all’interno della
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-31
cellula e dello stesso nucleo cellulare. Il modello matematico che si può costruire descrive il comportamento
complessivo del sistema e le interdipendenze funzionali e dinamiche tra i recettori, le proteine e le altre sostanze
coinvole [6]). Lo schema di principio della rete biochimica è illustrato nella figura 1.15.
Figura 1.15: Lo schema della rete EGFR e IGF1R.
Per descrivere l’approccio modellativo, si consideri una singola reazione, quella che porta alla attivazione
della proteina Ras da parte di SOS. La corrispondente reazione biochimica, di tipo enzimatico, è data da:
a
1
k1
⇀
SOS + Ras −
↽
− SOS − Ras −→ Ras∗ + SOS,
d1
(1.107)
dove Ras∗ rappresenta la forma attiva della proteina Ras e SOS − Ras il prodotto intermedio della reazione.
In termini matematici, tale reazione pu ò essere descritta dalle sequenti equazioni differenziali, che conseguono
da una semplice applicazione della legge di azione di massa:
d[SOS]
dt
d[Ras]
dt
d[SOS − Ras]
dt
d[Ras∗ ]
dt
= −a1 [SOS][Ras] + d1 [SOS − Ras] + k1 [SOS − Ras]
(1.108a)
= −a1 [SOS][Ras] + d1 [SOS − Ras]
(1.108b)
= +a1 [SOS][Ras] − d1 [SOS − Ras] − k1 [SOS − Ras]
(1.108c)
= k1 [SOS − Ras].
(1.108d)
Nelle equazioni precedenti, [S] indica la concentrazione della sostanza “S ′′ . In considerazione della specifica
natura delle reazioni enzimatiche, viene abitualmente introdotta una forma approssimata di tali equazioni,
basata sulla della cinetica di Michaelis-Menten. Nel caso della reazione in (1.107), si ha:
k
1
Ras∗ + SOS,
SOS + Ras −→
(1.109)
cui corrisponde il sistema di equazioni differenziali:
[Ras]
d[Ras∗ ]
= k1 [SOS]
dt
kM + [Ras]
[Ras]
d[Ras]
= −k1 [SOS]
,
dt
kM + [Ras]
(1.110a)
(1.110b)
dove [SOS] indica la concentrazione di enzima e kM è la costante di Michaelis, legata alle costanti del modello
completo (1.108) dalla relazione kM = (d1 + k1 )/a1 .
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-32
L’approccio descritto sopra può essere utilizzato per l’intera rete EGFR-IGF1R, ottenendo il modello completo riportato sotto, e composto da 18 variabili di stato, 3 segnali di ingresso e 39 parametri.
d
[EGF R∗ ]
dt
d
[IGF 1R∗ ]
dt
d
[SOS]
dt
=
−γEGF R [EGF R∗ ]
=
−γIGF 1R [IGF 1R∗ ]
=
−
d
[DSOS]
dt
=
−
d
[Ras∗ ]
dt
d
[Ras]
dt
d
[Raf ∗ ]
dt
=
=
=
−
d
[Raf ]
dt
=
+
d
[M EK]
dt
d
[M EK ∗ ]
dt
d
[Erk∗ ]
dt
d
[Erk]
dt
d
[p90Rsk∗ ]
dt
d
[p90Rsk]
dt
d
[P IK3∗ ]
dt
=
=
=
=
=
=
=
+
d
[P IK3]
dt
=
−
d
[Akt∗ ]
dt
d
[Akt]
dt
=
=
[DSOS]
[DSOS]
+ kSOS:I [IGF R∗ ]
KMSOS:E + [DSOS]
KMSOS:I + [DSOS]
[SOS]
kDSOS:p90Rsk[p90Rsk∗ ]
KMDSOS:p90Rsk + [SOS]
[SOS]
kDSOS:p90Rsk[p90Rsk∗ ]
KMDSOS:p90Rsk + [SOS]
[DSOS]
[DSOS]
kSOS:E [EGF R∗ ]
− kSOS:I [IGF R∗ ]
KMSOS:E + [DSOS]
KMSOS:I + [DSOS]
[Ras]
[Ras∗ ]
kRas:SOS [SOS]
− kRas:RasGab [RasGab]
KMRas:SOS + [Ras]
KMRas:RasGab + [Ras∗ ]
[Ras]
[Ras∗ ]
−kRas:SOS [SOS]
+ kRas:RasGab [RasGab]
KMRas:SOS + [Ras]
KMRas:RasGab + [Ras∗ ]
[Raf ]
[Raf ∗ ]
kRaf :Ras[Ras∗ ]
− kRaf :Raf P P [Raf P P ]
KMRaf :Ras + [Raf ]
KMRaf :Raf P P + [Raf ∗ ]
∗
[Raf ]
kRaf :Akt [Akt∗ ]
KMRaf :Akt + [Raf ∗ ]
[Raf ]
[Raf ∗ ]
−kRaf :Ras[Ras∗ ]
+ kRaf :Raf P P [Raf P P ]
KMRaf :Ras + [Raf ]
KMRaf :Raf P P + [Raf ∗ ]
∗
[Raf
]
kRaf :Akt [Akt∗ ]
KMRaf :Akt + [Raf ∗ ]
[M EK]
[M EK ∗ ]
−kM EK:Raf [Raf ∗ ]
+ kM EK:P P 2A [P P 2A]
KMM EK:Raf + [M EK]
KMM EK:P P 2A + [M EK ∗ ]
[M EK]
[M EK ∗ ]
+kM EK:Raf [Raf ∗ ]
− kM EK:P P 2A [P P 2A]
KMM EK:Raf + [M EK]
KMM EK:P P 2A + [M EK ∗ ]
[Erk]
[Erk∗ ]
kErk:M EK [M EK ∗ ]
− kErk:P P 2A [P P 2A]
KMErk:M EK + [Erk]
KMErk:P P 2A + [Erk∗ ]
[Erk]
[Erk∗ ]
−kErk:M EK [M EK ∗ ]
+ kErk:P P 2A [P P 2A]
KMErk:M EK + [Erk]
KMErk:P P 2A + [Erk∗ ]
[p90Rsk]
kp90Rsk:Erk [Erk∗ ]
− kdp90Rsk [p90Rsk∗ ]
KMp90Rsk:Erk + [p90Rsk]
[p90Rsk]
kdp90Rsk [p90Rsk∗ ] − kp90Rsk:Erk [Erk∗ ]
KMp90Rsk:Erk + [p90Rsk]
[P IK3]
[P IK3]
kP IK3:Ras [Ras∗ ]
+ kP IK3:IGF 1R [IGF 1R∗ ]
KMP IK3:Ras + [P IK3]
KMP IK3:IGF 1R + [P IK3]
[P IK3]
kP IK3:EGF R [EGF R∗ ]
− kfP IK3 ∗ [P IK3∗ ]
KMP IK3:EGF R + [P IK3]
[P IK3]
[P IK3]
−kP IK3:Ras [Ras∗ ]
− kP IK3:IGF 1R [IGF 1R∗ ]
KMP IK3:Ras + [P IK3]
KMP IK3:IGF 1R + [P IK3]
[P IK3]
kP IK3:EGF R [EGF R∗ ]
+ kfP IK3 ∗ [P IK3∗ ]
KMP IK3:EGF R + [P IK3]
[Akt]
+kAkt:P IK3 [P IK3∗ ]
− kdAkt [Akt∗ ]
KMAkt:P IK3 + [Akt]
[Akt]
−kAkt:P IK3 [P IK3∗ ]
+ kdAkt [Akt∗ ]
KMAkt:P IK3 + [Akt]
kSOS:E [EGF R∗ ]
Capitolo 1: Modelli dinamici
1.19
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-33
Un modello di sistema dinamico ad eventi discreti: un sistema
soggetto a guasti
I modelli visti fino ad ora sono relativi a sistemi per i quali lo stato è costituito da un vettore di variabili
continue.
Un’altra classe molto importante è costituita dai sistemi dinamici ad eventi discreti, cioè sistemi dinamici
per i quali lo stato può assumere valori in un insieme discreto, ad esempio l’insieme degli interi non negativi.
Modelli di questo tipo sono utilizzati per studiare sistemi di produzione industriale, sistemi di comunicazione,
reti di elaboratori, sistemi di traffico [18, 19, 20].
Un semplice sistema di questo tipo, molto utile nella modellazione degli impianti di produzione industriale, è
costituito da un sistema con due soli stati, e transizioni descritte dal verificarsi di eventi (automa a stati finiti).
Ad esempio, l’automa rappresentato in figura 1.16 può trovarsi in due soli stati, lo stato F e lo stato G, ed il
passaggio da uno stato all’altro avviene solo in corrispondenza del verificarsi dell’evento g o dell’evento r.
g
F
G
r
Figura 1.16: Un semplice automa a stati finiti
Tale automa è utile, ad esempio, per descrivere il comportamento di dispositivi soggetti a guasti. Se il
sistema si trova inizialmente nello stato F , cioè nello stato “funzionante”, può passare allo stato G (stato di
guasto) in corrispondenza del verificarsi di un evento di guasto g. Similmente, se il sistema si trova nello stato
G, tornerà allo stato di funzionamento F in corrispondenza del verificarsi di un evento di riparazione r. Si noti
che nello stato F è considerato ammissibile solo l’evento g, mentre l’evento r non è ammissibile, come indica
l’assenza di un arco con etichetta r in uscita da tale stato. In modo analogo, l’evento g non è ammissibile a
partire dallo stato G. Per questo automa, lo stato può assumere quindi solo i due valori F o G. Un automa è
spesso rappresentato, formalmente, tramite un grafo orientato o tramite una matrice di transizione [18, 19, 20].
Si noti che in questo caso lo stato non indica la misura di una grandezza fisica, come tipicamente avviene
nel caso dei più comuni sistemi di variabile continua, ma piuttosto indica una configurazione del sistema, una
situazione nella quale si trova il sistema: lo stato di un sistema ad eventi discreti ha spesso un significato
simbolico, rappresentativo.
1.20
Un sistema soggetto a guasti: modello stocastico
Un automa può essere anche non deterministico, e cioè l’evoluzione dello stato dipende anche da fenomeni
descrivibili solo in termini probabilistici.
Relativamente all’automa della sezione precedente, un caso molto importante da un punto di vista applicativo
è quello in cui la transizione tra due stati sia descritta solo in termini stocastici, e vi sia interesse, ad esempio,
a conoscere con quale probabilità la macchina sarà nello stato funzionante nel prossimo futuro.
Nel caso in cui i tempi di permanenza in ciascuno stato sono descritti per mezzo di variabili aleatorie con
distribuzione geometrica (esponenziale) l’intero sistema è descrivibile tramite una catena (processo) di Markov.
In particolare, si consideri una catena con due stati F e G, sia g il parametro della distribuzione geometrica
che descrive la transizione da F a G ed r il parametro della distribuzione geometrica che descrive la transizione
da G ad F . Infine, sia σ(t), t ∈ Z, σ(·) ∈ {F, G}, lo stato della catena all’istante t. L’ipotesi che il sistema sia
markoviano corrisponde allora alla condizione:
Prob {σ(t + 1) = σ1 |σt = σ0 , σt−1 = σ−1 , σt−2 = σ−2 , . . .} = Prob {σ(t + 1) = σ1 |σt = σ0 }
(1.112)
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-34
ove σi , i = 1, 0, −1, −2, . . ., ∈ {F, G}. Si definisca ora il vettore π(t) = [πF (t) πG (t)]T , πF (·), πG (·) ∈ R, come
πF (t)
=
πG (t)
=
Prob {σ(t) = F },
(1.113a)
Prob {σ(t) = G},
(1.113b)
che rappresenta la probabilità che lo stato dell’automa, all’istante t, sia F o G. Si definisca inoltre la probabilità
di transizione
Pij = Prob {σ(t + 1) = i|σ(t) = j}, ∀t ≥ 0,
(1.114)
e si assuma che tale probabilità non dipenda dal tempo t (cioè, equivalentemente, si assuma che la catena di
Markov corrispondente sia omogenea rispetto al tempo).
Si ricordi inoltre il seguente teorema della probabilità totale.
Teorema 1.1 Se E1 , E2 , E3 , . . ., ES
n sono n eventi mutuamente esclusivi (cioè, Prob {Ei ∩ Ej } = 0, ∀ i 6= j)
e complessivamente esaustivi (cioè, i Ei = Ω}, ove Ω indica lo spazio campione), ed A è un generico evento,
allora:
n
X
Prob {A|Ei } Prob {Ei }.
(1.115)
Prob {A} =
i=1
Il teorema della probabilità totale ha un ruolo fondamentale nella costruzione di processi stocastici, ed in particolare di processi (e catene) di Markov. Si consideri infatti il caso E1 = Prob {σ(t) = F }, E2 = Prob {σ(t) =
G}. È facile vedere che E1 ed E2 sono mutuamente esclusivi e completamente esaustivi. Si considerino ora
gli eventi Prob {σ(t + 1) = F } e Prob {σ(t + 1) = G} e si ricordi che, secondo le notazioni introdotte,
πj (t) = Prob {σ(t) = j}, j = F, G. Allora:
πF (t + 1) = PF,F πF (t) + PF,G πG (t),
(1.116a)
πG (t + 1) = PG,F πF (t) + PG,G πG (t),
(1.116b)
e cioè:
πF (t + 1) = (1 − g)πF (t) + rπG (t),
(1.117a)
πG (t + 1) = gπF (t) + (1 − r)πG (t),
ed in forma matriciale:
π(t + 1) = P π(t),
P =
1−g
g
r
1−r
(1.117b)
.
(1.118)
Il sistema di equazioni alle differenze (1.118) descrive la dinamica della conoscenza dello stato della catena di
Markov, e non, si badi bene, la dinamica della catena. In altre parole, il modello (1.118) non descrive l’evoluzione
dello stato della catena, ma solo la conoscenza che si ha di tale evoluzione. È di interesse determinare la soluzione
di regime dell’equazione (1.118), cioè π = limt→∞ π(t). Se tale soluzione esiste, deve soddisfare l’equazione
π = P π,
(1.119)
πF + πG = 1.
(1.120)
insieme all’equazione di consistenza
La soluzione di tale sistema è data da:
πF
=
πG
=
r
,
r+g
g
.
r+g
(1.121a)
(1.121b)
Si noti che la catena di Markov in esame è ergodica, o che, e ciò è equivalente, la matrice di transizione dello
stato P ha un, ed uno solo, autovalore pari ad uno. La soluzione del sistema di equazioni alle differenze (1.118)
è data da:
r
πF (t) = (1 − r − g)t πF (0) +
[1 − (1 − r − g)t ],
(1.122a)
r+g
g
[1 − (1 − r − g)t ],
(1.122b)
πG (t) = (1 − r − g)t πG (0) +
r+g
da cui si vede facilmente che
lim π(t) = π.
t→∞
Per una trattazione più approfondita del tema si può vedere, tra l’altro, [21, 22, 19].
(1.123)
Capitolo 1: Modelli dinamici
1.21
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-35
Un impianto di produzione
Il modello stocastico della sezione precedente è particolarmente utile se si vuole studiare il comportamento
di una macchina rispetto ai guasti. Se invece l’interesse è per il comportamento logico di un sistema, ad esempio
se si è interessati a studiare la possibilità che il sistema finisca in una situazione di stallo, sono utili modelli di
altro tipo. In particolare, il funzionamento logico di sistemi ad eventi discreti è descritto bene tramite l’uso di
reti di Petri.
Si consideri un semplice sistema di produzione, costituito da una macchina per l’assemblaggio automatico.
La funzione della macchina è quella di prelevare, da appositi magazzini, una scocca e montare su di essa un
componente. Ad esempio, una macchina di questo tipo è utilizzata nell’industria automobilistica per montare i
cruscotti. La macchina può procedere al montaggio di una nuova parte solo se è disponibile almeno una scocca
ed almeno un componente. Questo fenomeno di sincronizzazione è descritto in modo naturale dalla rete di Petri
riportata in figura 1.17.
T1
P1
T3
T2
P3
T4
P2
Figura 1.17: Una rete di Petri.
Una rete di Petri è un grafo bipartito, cioè costituito da due tipi di nodi, detti posti e transizioni, collegati
tra loro da archi orientati. I posti sono indicati con cerchi e le transizioni con barre. Ogni arco ha origine in un
posto e termina in una transizione, o viceversa. Non sono ammessi archi con origine e destinazione in due posti
o in due transizioni.
All’interno dei posti vi possono essere dei gettoni, ed un posto che contiene almeno un gettone si dice marcato.
Una transizione è abilitata a scattare quando tutti i posti a monte sono marcati. Quando una transizione scatta,
preleva un gettone da ciascuno dei posti a monte ed aggiunge un gettone a ciascuno dei posti a valle (in effetti, gli
archi possono essere pesati, ed il peso di un arco indica il numero di gettoni spostati dalla transizione collegata
all’arco).
Si consideri la rete in figura 1.17, in cui il posto P1 indica la disponibilità di scocche, il posto P2 la disponibilità
di parti da montare, ed il posto P3 indica la macchina.
Allora, è immediato vedere che la transizione T3 immette un nuovo gettone nella macchina (cioè, mette la
macchina in condizioni di produrre una nuova parte) solo se è disponibile sia una scocca che un componente.
Infatti, a monte di questa transizione vi sono i due posti P1 e P2 .
Si consideri poi il caso in cui la macchina è in grado di produrre una sola parte alla volta. Questo fatto può
tenuto in conto semplicemente aggiungendo un nuovo posto P4 , come in figura 1.18.
T1
P1
T3
T2
P3
T4
P2
P4
Figura 1.18: Una rete di Petri.
In questo modo la transizione T3 può scattare solo se, oltre alla disponibilità di una scocca ed un componente,
la macchina è libera, cioè il posto P4 è marcato.
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-36
Da un punto di vista formale, una rete di Petri può essere descritta ed analizzata, a partire dalla matrice
di incidenza, cioè una matrice n × m, con n pari al numero di posti ed m pari al numero di transizioni. Il
generico elemento di posizione i, j della matrice di incidenza vale 1 se il posto i-esimo ha un arco che lo collega
in uscita alla transizione j-esima, lo stesso elemento vale invece − se il posto ha tra i suoi archi di ingresso
un arco proveniente dalla j-esima transizione. Se non vi sono archi dal posto i alla transizione j l’elemento
corrispondente vale zero [19].
La letteratura sulle Reti di Petri è estremamente vasta. Per una trattazione più approfondita di questo
strumento di modellazione dal punto di vista del controllo dei sistemi ad eventi discreti si possono consultare,
tra l’altro, [23, 24].
1.22
Modellazione della corsa agli armamenti
Gli strumenti della modellazione matematica e della teoria dei sistemi sono stati utilizzati, ad esempio da
Lewis Fry Richardson, anche per descrivere conflitti tra nazioni e corse agli armamenti. Si indichi con x1 ed x2
il livello di armamenti disponibili ad un certo tempo t a due distinte nazioni in competizione tra loro.
Il tasso di variazione del livello di armamenti di ciascuna nazione è proporzionale al livello di armamenti
dell’altra nazione, con un meccanismo di “corsa agli armamenti”. Al contempo, il livello di ciascun arsenale
diminuisce per obsolescenza e viene modificato in base alle politiche militari specifiche di ciascuna nazione.
In termini differenziali, questo comportamento può essere descritto dalle seguenti equazioni:
x˙1
x˙2
= −o1 x1 + c1 x2 + u1
= +c2 x1 − o2 x2 + u2 .
(1.124a)
(1.124b)
Nell’equazione precedente, i coefficienti oi descrivono il tasso di obsolescenza e in generale di disarmo, i coefficienti ci il tasso di corsa agli armamenti, ed i due segnali ui gli effetti ulteriori delle politiche militari dei due
paesi.
In forma matriciale il sistema è descritto da:
ẋ =
con
A=
−o1
c2
c1
−o2
Ax + Bu
,
B=
(1.125)
1
0
0
1
.
(1.126)
Assumendo, per semplicità di analisi, che i tasso di obsolescenza siano unitari e i tassi di corsa uguali per i
due paesi, la matrice A che descrive il sistema diviene:
−1 c
A=
,
(1.127)
c −1
il cui polinomio caratteristico è pari a:
det(λI − A) = λ2 + λ + 1 − 2c,
le cui radici sono pari a:
λ = −1 ±
√
2c,
(1.128)
(1.129)
e quindi il sistema ammette un autovalore con parte reale positiva (il che implica che le variabili di stati crescono
esponenzialmente!) se il tasso di “corsa” à maggiore di 1/2, e cioè se tale tasso è superiore alla metà del tasso
di obsolescenza.
1.23
Colonna di distillazione
Gli strumenti che verranno introdotti in questo testo, e più in generale gli strumenti della teoria del controllo
trovano applicazione in moltissimi contesti industriali.
Tra i processi di traasformazione, qui viene citato, a titolo di esempio, il modello di una colonna di distillazione. Nello specifico, una colonna binaria, cioè con fluido di ingresso a due sole componenti, del tipo a piatti.
Il modello tiene esplicitamente conto delle variazioni nella pressione interna.
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-37
Figura 1.19: Schema di principio di una colonna di distillazione (tratto da [26])
La dinamica del sistema, di norma, è descritto da equazioni non lineari. Il modello proposto è una versione
lineare, approssimata. Si tratta di un modello di dimensione undici (cioè, lo spazio di stato è costituito da R11 ),
con tre ingressi di controllo u, un ingresso di disturbo d e tre uscite y. Il modello può quindi essere descritto,
in forma matriciale, come segue:
ẋ
y
= Ax + Bu(t) + M d(t),
= Cx, y ∈ R
3
x ∈ R11 , u ∈ R3 , d ∈ R1
(1.130)
(1.131)
in cui le variabili di stato, i segnali di ingresso ed uscita ed il disturbo hanno il significato descritto nella
tabella seguente. I valori numerici delle matrici che descrivono il sistema sono riportati nel file colonna.m,
reperibile tramite le pagine web del corso. Per una descrizione più dettagliata degli aspetti di modellazione si
può consultare [26, 27, 28, 29, 30], mentre per una descrizione di alcuni problemi di controllo per una torre di
distillazione si può vedere, tra l’altro, [30, 31, 32].
1.24
Esercizi proposti
Esercizio 1.1 (Classificazione) Classificare i modelli descritti nel corso del capitolo rispetto alla natura del
tempo (a tempo continuo o a tempo discreto), rispetto al tipo di legami funzionali tra i segnali (lineari o non
lineari), rispetto alle caratteristiche del vettore di stato (variabile continua o sistema ad eventi), e rispetto alla
dipendenza o meno dal tempo (sistemi stazionari o non stazionari).
Esercizio 1.2 (Simulazione) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta
di simulare il comportamento dei due algoritmi per il calcolo della radice quadrata introdotti nella sezione 1.13,
verificandone e confrontando i risultati per α = 14 e per α = 4
Esercizio 1.3 (Successione di Fibonacci) Scrivere, in un qualsiasi linguaggio di programmazione, del codice
che consenta di simulare il comportamento del sistema che descrive la successione di Fibonacci, descritto nella
sezione 1.10 e verificare per via simulativa una delle caratteristiche√di tale successione: il rapporto tra due valori
consecutivi tende alla sezione aurea o numero di Fidia, pari a 1+2 5 .
Esercizio 1.4 (Autovalori) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta di
visualizzare graficamente l’andamento degli autovalori del circuito RLC descritto nella sezione 1.4, al variare della
Capitolo 1: Modelli dinamici
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-38
Variabili
x1
x2
..
.
Significato
composizione del componente più volatile nel condensatore
composizione del componente più volatile nel primo piatto
..
.
xi
..
.
composizione del componente più volatile nel piatto i − 1-esimo
..
.
x9
x10
x11
y1
y2
y3
u1
u2
u3
d
composizione del componente più volatile
composizione del componente più volatile
pressione nella colonna
composizione del componente più volatile
composizione del componente più volatile
pressione
temperatura del vapore nel ribollitore
temperatura del liquido nel condensatore
livello di riflusso
composizione del liquido in ingresso
nel piatto n. otto
nel ribollitore
nel prodotto di coda (in basso)
nel prodotto di testa (in alto)
Tabella 1.1: Descrizione delle variabili di stato e dei segnali di ingresso-uscita per il modello di una colonna di
distillazione (tratto da [27])
resistenza R nell’insieme dei reali strettamente positivi, per valori unitari della capacità, C = 1, e dell’induttanza,
L = 1.
Esercizio 1.5 (Simulazione tempo continuo) Scrivere, in un qualsiasi linguaggio di programmazione, del
codice che consenta di simulare il comportamento del circuito RLC descritto nella sezione 1.4, per ingresso
sinusoidale u(t) = sin(t) e assumendo condizione iniziale nulla e valori unitari di tutti i componenti.
Esercizio 1.6 (Simulazione tempo continuo: linearità) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta di simulare il comportamento del circuito RLC descritto nella sezione 1.4, per
valori unitari di tutti i componenti ed utilizzare tale codice per verificare la linearità del sistema.
Esercizio 1.7 (Sospensione attiva) Determinare il modello dinamico semplificato di una sospensione attiva,
costituita da un sistema massa-molla del tipo descritto nella sezione 1.3, ruotato in modo tale da muoversi lungo
un binario verticale anziché orizzontale.
Esercizio 1.8 (Simulazione tempo continuo: piano delle fasi) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta di simulare il comportamento dell’oscillatore di van der Pol descritto nella
sezione 1.16, e tracciare il comportamento della soluzione nel piano delle fasi, riproducendo la figura 1.13.
Esercizio 1.9 (Dimensioni fisiche delle grandezze fisiche) Discutere le dimensioni fisiche delle variabili
di stato di un sistema dinamico.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-39
Capitolo 2
Analisi di sistemi lineari stazionari a
tempo continuo
In questo capitolo vengono presentati strumenti per l’analisi del comportamento nel tempo di sistemi dinamici
lineari, stazionari, a tempo continuo (LSTC)
Dopo aver introdotto la rappresentazione esplicita si affronta il tema dell’analisi modale (cioè, lo studio della
risposta libera nello stato). Viene successiamente introdotta la trasformata di Laplace e lo studio della risposta
forzata (cioè, lo studio del comportamento in uscita a fronte di segnali noti applicati in ingresso). Il capitolo
prosegue con lo studio della risposta forzata per segnali notevoli e della risposta armonica. Segue poi uno degli
argomenti più importanti dell’intero corso: i diagrammi di Bode. Vengono inoltre presentati esercizi risolti ed
esempi, e vengono proposti esercizi di riepologo ed approfindimento.
2.1
Rappresentazione esplicita per sistemi lineari, stazionari, a tempo
continuo
La classe di sistemi dinamici considerata in questo capitolo è costituita dai sistemi lineari, a tempo continuo, stazionari, a dimensione finita e causali (brevemente Lineari Stazionari a Tempo Continuo, LSTC),
rappresentabili per mezzo di equazioni differenziali della seguente forma:
ẋ(t) =
y(t) =
Ax(t) + Bu(t),
Cx(t) + Du(t),
x ∈ Rn , u ∈ Rm , t ∈ R
y∈R
p
(2.1a)
(2.1b)
in cui A, B, C e D sono matrici ad elementi reali di dimensioni compatibili con il vettore di stato x, il vettore
dei segnali di ingresso u ed il vettore dei segnali di uscita y.
Molti dei modelli visti nel precedente capitolo rientrano in tale categoria di sistemi.
Nel seguito un sistema del tipo precedente verrà sinteticamente indicato con la notazione Σ(A, B, C, D),
mentre la coppia di equazioni (2.1) verrà indica anche con il termine rappresentazione implicita del sistema.
Lo studio del comportamento di un sistema dinamico a tempo continuo può essere condotto analizzando
le proprietà della soluzione dell’equazione differenziale corrispondente. In particolare, il comportamento del
vettore di stato x(t) e del vettore di uscita y(t) può essere descritto tramite la rappresentazione esplicita, cioè
tramite la soluzione dell’equazione differenziale (2.1a) e della coppia di equazioni (2.1). Nel caso generale tale
rappresentazione esplicita è data, formalmente, dalle due funzioni seguenti:
x(t)
y(t)
= x(t, t0 , x0 , u[t0 ,t) ) = x(t, t0 , x0 , u(·))
= y(t, t0 , x0 , u[t0 ,t) ) = y(t, t0 , x0 , u(·)).
(2.2a)
(2.2b)
La funzione x(t, t0 , x0 , u[t0 ,t) ), per semplicità indicata con la notazione x(t, t0 , x0 , u(·)), è la rappresentazione
esplicita nello stato, e definisce il valore dello stato all’istante t, a partire dalla condizione iniziale x0 all’istante
t0 , sotto l’effetto del segnale di ingresso u(·), applicato nell’intervallo [t0 , t)1 . La funzione y(t, t0 , x0 , u(·)) è la
1 La
notazione s[t1 ,t2 ) si riferisce alla porzione del segnale s relativa all’intervallo temporale [t1 , t2 ). Se il segnale s è continuo in
t = t2 , allora s[t1 ,t2 ) ed s[t1 ,t2 ] coincidono.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-40
rappresentazione esplicita in uscita, a partire dalla condizione iniziale x0 all’istante t0 , sotto l’effetto del segnale
di ingresso u(·) , applicato nell’intervallo [t0 , t).
Lo studio della risposta esplicita verrà condotto inizialmente per un sistema scalare, cioè per un sistema con
matrice della dinamica A pari allo scalare reale a, e cioè con spazio di stato dato dalla retta reale.
Si consideri inizialmente il caso di un sistema omogeneo, cioè senza segnale di ingresso; limitatamente
all’equazione che descrive l’evoluzione dello stato, il modello di interesse è:
ẋ = ax,
(2.3)
da cui, risolvendo l’equazione differenziale per separazione di variabili ed avendo indicato con x0 il valore dello
stato all’istante iniziale t0 , si trova:
x(t) = e a(t−t0 ) x0 .
(2.4)
La soluzione del sistema dinamico omogeneo (2.3), ovvero la risposta libera nello stato, a partire dalla
condizione iniziale x0 all’instante iniziale t0 , assume quindi la forma:
x(t, t0 , x0 , 0) = e a(t−t0 ) x0 .
(2.5)
Nel caso generale di un sistema con spazio di stato di dimensione n, la soluzione è esprimibile generalizzando
la funzione esponenziale scalare al caso matriciale. Data una matrice quadrata ad elementi reali A, la matrice
esponenziale a tempo continuo associata è definita dalla seguente serie esponenziale matriciale:
e At :=
∞
X
Ai ti
i=0
i!
.
(2.6)
Sulla base di tale definizione, la risposta libera nello stato per un sistema a tempo continuo, omogeneo, del tipo:
ẋ = Ax,
(2.7)
a partire dallo stato x(t0 ) = x0 all’instante t0 è data da:
x(t) = x(t, t0 , x0 , 0) = e A(t−t0 ) x0 .
(2.8)
La forma (2.8) della soluzione dell’equazione differenziale omogenea (2.7) può essere dimostrata facilmente
derivando l’esponenziale di matrice rispetto al tempo e ricordando il teorema di esistenza ed unicità della
soluzione di una equazione differenziale.
Nel caso generale in (2.1), e cioè nel caso di un sistema vettoriale sottoposto all’azione di un forzamento
esterno, si trova:
Z
x(t) = x(t, t0 , x0 , u(·)) = e A(t−t0 ) x0 +
t
e A(t−τ ) Bu(τ )dτ,
(2.9)
t0
che costituisce la soluzione, nelle variabili di stato, del sistema dinamico (2.1), e cioè la risposta completa nello
stato, a partire dalla condizione iniziale x0 all’instante iniziale t0 , sotto l’azione della funzione di ingresso u(·).
La dimostrazione di tale risultato può essere condotta verificando che tale espressione determina un’identità se
sostituita nella (2.1).
Il fatto che la risposta completa nello stato all’istante t dipenda solo dal segmento del segnale di ingresso
tra l’istante iniziale t0 e tale istante t costituisce la proprietà di causalità. Meglio, è l’evidenza del sussistere di
tale proprietà.
L’integrale che compare nell’equazione precedente descrive l’effetto del segnale di ingresso sullo stato del
sistema ed è detto integrale di convoluzione.
2.1.1
Matrice di transizione dello stato
L’esponenziale matriciale (2.6), quando riferita alla soluzione di un sistema dinamico, come in queste note,
prende anche il nome di matrice di transizione dello stato (a tempo continuo). Posto:
Φ(t, t0 ) = e A(t−t0 ) ,
(2.10)
x(t, t0 , x0 , 0) = Φ(t, t0 )x0 .
(2.11)
si ha quindi:
L’esponenziale di matrice gode di alcune importanti proprietà, generalizzazioni delle corrispondenti proprietà
della funzione esponenziale scalare.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-41
Proprietà 2.1 (Derivata dell’esponenziale di matrice)
d At
e = Ae At .
dt
(2.12)
Inoltre, vale la proprietà commutativa tra una matrice A ed il suo esponenziale, e quindi:
d At
e = Ae At = e At A
dt
(2.13)
La dimostrazione segue facilmente dalla definizione (2.6) di esponenziale di matrice.
Proprietà 2.2 (Composizione temporale tra esponenziali di matrice)
e At1 · e At2 = e A(t1 +t2 ) .
(2.14)
La dimostrazione segue facilmente dalla definizione (2.6) di esponenziale di matrice.
Proprietà 2.3 (Inversa di un esponenziale di matrice)
At −1
e
= e −At ,
e quindi:
e At
−1
(2.15)
· e At = I.
(2.16)
Anche questa dimostrazione segue facilmente dalla definizione (2.6) di esponenziale di matrice. La proprietà
appena descritta implica anche il fatto che l’esponenziale di matrice, o matrice di transizione dello stato a tempo
continuo, sia sempre una matrice non singolare e quindi ammetta sempre inversa.
Nello studio del comportamento di sistemi dinamici si fa largo uso dello strumento della trasformazione di
similarità algebrica, o trasformazione di coordinate nello spazio di stato. Di fatto, si tratta di un cambio di
base nello spazio vettoriale che descrive lo spazio di stato. L’argomento è trattato in dettaglio nella sezione A
dell’Appendice. Qui si anticipa solo che, dato un sistema descritto da una matrice dinamica Ax , nelle nuove
coordinate z = T −1 x la stessa matrice è rappresentata da:
Az = T −1 Ax T.
(2.17)
Gli esponenziali delle due matrici algebricamente equivalenti Ax e Az sono legati tra loro da una analoga
relazione di equivalenza, come sintetizzato nella seguente proprietà.
Proprietà 2.4 (Esponenziali di matrici algebricamente equivalenti) Siano Ax e Az due matrici algebricamente equivalenti, cioè legate dalla relazione Az = T −1 Ax T . Allora
e Az t = T −1 e Ax t T.
(2.18)
Ancora una volta, la dimostrazione segue facilmente dalle definizioni di sistemi algebricamente equivalenti e
di esponenziale di matrice, notando che, per qualsiasi matrice quadrata ad elementi reali A, si ha:
−1
i
T A T = T −1 [A]i T, ∀i ∈ N.
(2.19)
2.1.2
Risposta libera e risposta forzata per sistemi LSTC
La risposta completa nello stato (2.9) risulti lineare sia rispetto alla condizione iniziale, sia rispetto alla
funzione di ingresso. In virtù di questa linearità, si ha che la risposta completa alla condizione iniziale x0 ed
alla funzione di ingresso u(·) può essere scomposta nel contributo della risposta libera xℓ (t), che dipende solo
dalla condizione iniziale, e della risposta forzata xf (t), che dipende solo dal segnale di ingresso. In sintesi:
Z t
e A(t−τ ) Bu(τ )dτ
(2.20a)
x(t) = x(t, t0 , x0 , u(·)) = xf (t) + xℓ (t) = e A(t−t0 ) x0 +
t0
xf (t) := x(t, t0 , 0, u(·)) =
xℓ (t) := x(t, t0 , x0 , 0) = e
Z
t
e A(t−τ ) Bu(τ )dτ
t0
A(t−t0 )
x0 .
(2.20b)
(2.20c)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-42
La risposta libera nello stato xℓ (·) descrive solo l’effetto della condizione iniziale del sistema, in assenza
di ingresso, mentre la risposta forzata nello stato xf (·) descrive solo l’effetto della funzione di ingresso, a
partire da condizioni iniziali nulle. Le relazioni (2.20) costituiscono una applicazione del ben noto principio di
sovrapposizione degli effetti.
Le considerazione relative all’evoluzione dello stato possono essere estese facilmente al caso dell’uscita,
tenendo conto del fatto che il legame uscita-stato è statico:
y(t) = Cx(t) + Du(t).
(2.21)
La risposta completa in uscita è data quindi da:
y(t) = y(t, t0 , x0 , u(·)) = Ce
A(t−t0 )
x0 +
Z
t
Ce A(t−τ ) Bu(τ )dτ + Du(t),
(2.22)
t0
ed analogamente per la risposta libera in uscita yℓ (·) e la risposta forzata in uscita yf (·) si trova:
yℓ (t) := y(t, t0 , x0 , 0) = Ce A(t−t0 ) x0
Z t
Ce A(t−τ ) Bu(τ )dτ + Du(t).
yf (t) := y(t, t0 , 0, u(·)) =
(2.23a)
(2.23b)
t0
La natura stazionaria dei sistemi in esame rende arbitraria la scelta dell’istante iniziale. Nel seguito del testo
si assumerà quindi, come regola generale, nullo l’istante iniziale: t0 = 0.
Capitolo 2: Analisi sistemi LSTC
2.2
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-43
Analisi modale per sistemi LSTC: approccio nel dominio del
tempo
In questa sezione verranno studiate le proprietà di maggiore interesse, dal punto di vista della Teoria dei
Sistemi, della risposta libera nello stato per un sistema LSTC, e cioè dell’esponenziale matriciale a tempo
continuo. Scopo di questa analisi è lo studio del comportamento temporale delle funzioni che compogono tale
soluzione, funzioni (tutte a valori reali) che sono dette modi naturali del sistema dinamico. Tale studio costituisce
l’analisi modale, che è di fondamentale importanza per valutare il comportamento di un sistema dinamico a
fronte di variazioni, eventualmente improvvise, del suo stato interno.
Più in generale, l’analisi modale di un sistema dinamico lineare e stazionario consente di studiare il comportamento dello stesso sistema rispetto ad ogni sollecitazione cui venga sottoposto il sistema, sia tramite il
segnale di ingresso u, sia tramite altre azioni non meglio specificate e modellabili per mezzo di variazioni dello
stato interno del sistema.
L’analisi modale verrà presentata secondo un approccio classico, nel dominio del tempo. In una sezione
successiva verrà presentato un approccio nel dominio di Laplace. L’approccio nel dominio del tempo presuppone
l’uso di strumenti algebrici, ed in particolare di trasformazioni di similarità tra sistemi dinamici (strumenti
descritti nel capitolo A dell’appendice).
Poiché l’analisi riguarda la risposta libera nello stato, ci si limita alla sola equazione differenziale omogenea.
Si consideri allora il sistema dinamico:
ẋ = Ax,
x(0) = x0 ,
x ∈ Rn .
(2.24)
Sia pA (λ) = det(λI − A) il polinomio caratteristico di tale sistema:
pA (λ) = det(λI − A) =
r
Y
i=1
(λ − λi )µi ,
(2.25)
dove i numeri λi , i = 1, · · · , r, sono gli autovalori distinti del sistema, reali o complessi coniugati a coppie,
ciascuno con molteplicità algebrica (cioè molteplicità come radice del polinomio caratteristico) pari a µi . Nel
caso di un autovalore complesso, se ne indichi con σi e ωi la parte reale ed immaginaria, rispettivamente:
λi = σi + ωi .
A ciascun autovalore del sistema dinamico in esame (cioè, della matrice A di tale sistema) è associato un
autospazio Vi , costituito da tutti gli autovettori del sistema legati a tale autovalore, cioè da tutti i vettori
soluzione del sistema omogeneo:
Avi = λi vi ⇔ (λi I − A)vi = 0,
i = 1, · · · , r.
(2.26)
Il numero di vettori linearmente indipendenti che sono soluzione della precedente equazione omogenea, che
corrisponde alla dimensione dell’autospazio Vi , è detto molteplicità geometrica del corrispondente autovalore e
verrà indicato con il simbolo νi . Sulla base di risultati noti, la molteplicità geometrica è uguale alla dimensione
del kernel, o nucleo, della matrice (λi I − A):
νi := dim(Vi ) = dim [ker(λi I − A)] = n − rango (λi I − A).
(2.27)
Infine, si ricordi che la molteplicità algebrica è sempre maggiore od uguale alla molteplicità geometrica: µi ≥ νi ,
∀i.
Il risultato fondamentale della sezione è sintetizzato dal seguente teorema, che descrive la totalità dei modi
naturali che compogono la risposta libera di un sistema LSTC.
Teorema 2.1 (Modi naturali di un sistema LSTC) Sia dato il sistema lineare stazionario a tempo continuo, omogeneo:
ẋ = Ax, x(0) = x0 , x ∈ Rn ,
(2.28)
e siano λi , i = 1, · · · , r, i corrispondenti autovalori distinti, caratterizzati dalle molteplicità algebrica e geometrica µi e νi , rispettivamente.
Allora si ha che:
• ad ogni autovalore λi ∈ R sono associati i seguenti µi modi naturali:
– λi ∈ R, µi = 1, ⇒ mi (t) = e λi t ;
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-44
– λi ∈ R, µi = νi , ⇒ mi,j (t) = e λi t , j = 1, · · · , µi ;
– λi ∈ R, µi > νi , ⇒ mi,1 (t) = e λi t , mi,2 (t) = te λi t , mi,3 (t) = · · · ;
• ad ogni coppia di autovalori complessi coniugati (λi , λ∗i ) = σi ± ωi sono associate le seguenti µi coppie di
modi naturali:
– λi ∈ C, µi = 1, ⇒ mi,c (t) = e σi t cos(ωi t), mi,s (t) = e σi t sin(ωi t) ;
– λi ∈ C, µi = νi , ⇒ mi,c,j (t) = e σi t cos(ωi t), mi,s,j (t) = e σi t sin(ωi t), j = 1, · · · , µi ;
– λi ∈ C, µi > νi , ⇒ mi,c,1 (t) = e σi t cos(ωi t), mi,s,1 (t) = e σi t sin(ωi t), mi,c,2 (t) = te σi t cos(ωi t),
mi,s,2 (t) = te σi t sin(ωi t), mi,c,3 (t) = ..., mi,c,3 (t) = .....
⊓
⊔
Dal teorema precedente emergono alcune considerazioni.
Commento 2.1
• Il modo naturale base per un sistema LSTC è una funzione esponenziale con parametro pari all’autovalore
associato. Ciò vale sia per un autovalore reale semplice (cioè con molteplicità algebrica unitaria), sia per
una coppia di autovalori complessi coniugati semplici.
• Se tutti gli autovalori sono reali, ed inoltre semplici (cioè µi = 1, ∀i) o con molteplicità algebriche e
geometriche uguali (cioè µi = νi , ∀i), i modi naturali sono costituiti solo da funzioni esponenziali reali.
• Se tutti gli autovalori sono complessi ed inoltre semplici (cioè µi = 1, ∀i) o con molteplicità algebriche
e geometriche uguali (cioè µi = νi , ∀i), i modi naturali sono costituiti solo da prodotti tra funzioni
esponenziali reali e funzioni sinusoidali e cosinusoidali.
• Se anche un solo autovalore ha molteplicitè algebrica strettamente maggiore della molteplicità geometrica,
compaiono una o più funzioni polinomiali del tempo a moltiplicare i modi naturali base (il terzo caso di
ciascuno dei due scenari citati nel teorema). In particolare, se le due molteplicità sono divese compare
certamente il termine polinomiale di grado uno.
• Nei casi in cui, per uno o più autovalori λi , si abbia µi > νi , il numero ed il grado delle corrispondenti
funzioni polinomiali dipende da ulteriori considerazioni (sulla molteplicità del corrispondente autovalore
come radice del polinomio minimo) che esulano dagli scopi di queste note.
I modi naturali del tipo e λi t e del tipo te λi t , associate ad autvalori reali, sono dette funzioni aperiodiche. I
modi naturali associati ad autovalori complessi coniugati, del tipo e σi t cos(ωi t), e σi t sin(ωi t), e le corrispondenti
moltiplicate per polinoni del tempo, sono dette funzioni pseudoperiodiche. Nel caso particolare di autovalori
immaginari puri e coniugati, con molteplicità uguali, i modi naturali diventano funzioni periodiche: cos(ωi t) e
sin(ωi t).
Il teorema 2.1 verrà discusso in dettaglio nelle successive sottosezioni, che ne costituiscono quindi traccia
di dimostrazione. In particolare la sottosezione 2.2.1 discute il primo e secondo caso relativo ad un autovalore
reale, la sottosezione 2.2.2 discute il primo e secondo caso relativo ad una coppia di autovalore complessi, la
sottosezione 2.2.3 completa il caso di autovalore reale e la sottosezione 2.2.4 completa l’esame della coppia
complessa. Infine, la sottosezione 2.2.5 trae delle conclusioni e completa la traccia di dimostrazione del teorema.
2.2.1
Il caso di sistema diagonalizzabile, con autovalori reali
Si consideri inizialmente il caso di un sistema scalare, cioè con spazio di stato di dimensione unitaria. In tal
caso la matrice A diviene uno scalare, A = a, a ∈ R, e quindi il sistema dinamico e la risposta libera nello stato
sono descritti, rispettivamente, dall’equazione e dalla funzione seguenti:
ẋ = ax(t)
at
x(t) = e x0 ,
(2.29a)
t ≥ 0, x(0) = x0 .
La funzione e at rappresenta il modo naturale del sistema in esame.
(2.29b)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-45
La soluzione del caso vettoriale è immediata se la matrice dinamica A è diagonale: A = diag {λ1 , λ2 , · · · , λn } =:
Λ. In questo caso il sistema dinamico è descritto dall’equazione:


λ1 0 · · · 0
 0 λ2 · · · 0 


ẋ =  .
(2.30)
..
..  x = Λx.
..
 ..
.
.
. 
0
0 · · · λn
Si noti che, poiché la matrice è diagonale, gli elementi λi sono anche gli autovalori della matrice stessa. Per il
calcolo della risposta libera nello stato si trova facilmente:

 λ1 t
e
0
···
0
 0
e λ2 t · · ·
0 


(2.31)
x(t) =  .
.
..  x0 , t ≥ 0, x(0) = x0 ,
.
..
..
 ..
. 
0
0
· · · e λn t
e cioè la collezione di sistemi scalari
x1 (t) = e λ1 t x1,0
x2 (t) = e
..
.
λ2 t
(2.32a)
x2,0
(2.32b)
xn (t) = e λn t xn,0
(2.32c)
ove xi,0 indica la i-esima componente della condizione iniziale x0 .
Dalle considerazioni precedenti segue che l’esponenziale di matrice a tempo continuo del sistema (2.30),
descritto da una matrice diagonale Λ, è dato da:

 λt
e 1
0
···
0
 0
e λ2 t · · ·
0 


(2.33)
e Λt =  .
..  .
.
..
..
 ..
.
. 
0
0
···
e λn t
Le funzioni e λi t , i = 1, 2, . . . , n, che descrivono la soluzione del sistema, sono associate agli autovalori del
sistema e sono i modi naturali del sistema Σ(Λ, ·, ·, ·), brevemente Σ(Λ) (si veda anche la figura 2.1).
Si noti com non siano state poste ipotesi sulla molteplicità degli autovalori del sistema. In particolare, alcuni
autovalori (anche tutti) possono essere tra loro coincidenti.
La forma (2.31) della soluzione o, equivalentemente, la forma (2.33) dell’esponenziale di matrice, per un
sistema diagonale deriva in modo immediato dalla constatazione che tale sistema sia riconducibile ad una
collezione di sistemi scalari. In alternativa, la forma (2.33) dell’esponenziale di matrice può essere ricavata dalla
definizione stessa di esponenziale di matrice, notando la seguente relazione generale:

 i
λ1 0 · · · 0
 0 λi2 · · · 0 


i
(2.34)
Λ = .
..  , ∀i ∈ N,
..
..
 ..
.
. 
.
0
0 · · · λin
da cui segue:
P∞ λi1 ti
i=0

i!


∞
X Λ i ti 
0
=
=

..
i!

i=0
.


0

e
Λt
0
P∞
λi2 ti
i=0
..
.
0
i!
···
···
..
.
···
0

  λ1 t
e

 
0

0
=
 ..

..
  .
.

0
P∞ λin ti 
i=0
i!
0
e λ2 t
..
.
0
···
···
..
.
0
0
..
.
···
e λn t



.

(2.35)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-46
Si noti che la forma della risposta libera, per ciascuna componente, dipende dal modo naturale relativo,
mentre l’ampiezza dipende dalla rispettiva condizione iniziale. Ad esempio, se la condizione iniziale è pari al
vettore e1 (cioè, la prima colonna della matrice identità), la risposta libera nello stato sarà nulla per tutte le
componenti dello stato, salvo la prima, il cui andamento sarà descritto dalla funzione x1 (t) = e λ1 t x1,0 = e λ1 t ,
t ≥ 0.
Si consideri ora il caso di un sistema descritto da una matrice dinamica A non diagonale, ma diagonalizzabile.
In merito è utile ricordare il seguente lemma, ben noto dagli insegnamenti di geometria.
Lemma 2.1 (Matrice diagonalizzabile) Una matrice A, di dimensione n × n ad elementi reali, è diagonalizzabile se e solo se ha n autovettori linearmente indipendenti, e cioè se e solo se µi = νi , ∀i = 1, 2, · · · , r, ove
r indica il numero di autovalori distinti della matrice.
La diagonalizzabilità implica l’esistenza di una matrice di trasformazione di coordinate T , non singolare,
tale che, nelle nuove coordinate, la matrice A diviene una matrice Λ con struttura diagonale:


λ1 0 · · · 0
 0 λ2 · · · 0 


(2.36)
T −1 AT = Λ,
Λ= .
..  ,
..
..
 ..
.
. 
.
0
0 · · · λn
in cui gli elementi λi , i = 1, 2, . . . , n, sono gli autovalori della matrice A (si ricordi che gli autovalori sono
invarianti rispetto a trasformazioni di similarità algebrica). La matrice di trasformazione T che consente la
diagonalizzazione è la matrice costituita da n autovettori indipendenti.
Si ricordi che tale operazione (la trasformazione di coordinate) corrisponde ad un cambio di base nello spazio
vettoriale utilizzato per rappresentare la matrice.
Per quanto riguarda l’esponenziale di matrice nelle coordinate originali, cioè relativo alla matrice A, applicando la proprietà 2.4 si trova facilmente:
 λt

e 1
0
···
0
 0
e λ2 t · · ·
0 


e At = T e Λt T −1 = T  .
(2.37)
.
..  T −1 .
.
..
..
 ..
. 
0
0
· · · e λn t
L’esponenziale di matrice a tempo continuo è quindi composta da combinazioni lineari delle funzioni e λi t ,
i = 1, 2, · · · , n, associate ai rispettivi autovalori del sistema, cioè da combinazioni lineari dei modi naturali del
sistema.
Le considerazioni precedenti corrispondono alla dimostrazione qualitativa dei primi due punti del teorema
relativi ad autovalori reali.
2.2.2
Il caso di sistema diagonalizzabile, con autovalori complessi
L’analisi condotta finora, basata sull’uso di una matrice diagonale, non è utilizzabile se il sistema possiede
autovalori complessi. In tal caso infatti, vi sarebbero un’infinità di condizioni iniziali cui corrisponderebbero
risposte libere nello stato caratterizzate da funzioni a valori complessi. Ciò non è ammissibile, poiché i sistemi
dinamici di interesse in queste note sono descrizioni di processi reali, e quindi tutti i segnali associati sono
caratterizzati da valori reali. La necessità di ottenere solo comportamenti reali comporta l’introduzione di
vincoli nella scelta delle possibili condizioni iniziali: tale approccio non è soddisfacente. Per ovviare a ciò, si
introduce la cosiddetta forma canonica reale.
Si consideri per semplicità un sistema planare, cioè un sistema con spazio di stato di dimensione due, descritto
da una matrice dinamica Ap , con autovalori complessi coniugati λ e λ∗ , cioè:
λ = σ + ω,
λ∗ = σ − ω.
(2.38)
Gli autovettori associati ai due autovalori complessi coniugati sono anch’essi complessi coniugati, e quindi
indipendenti. Indicati con v1 = vR + vI e v2 = v1∗ = vR − vI i due autovettori, tra loro indipendenti, è facile
vedere che anche i due vettori vR e vI sono indipendenti, e quindi possono essere scelti come nuovi vettori di
base. In tal caso, scelta la matrice di trasformazione come:
(2.39)
T = vR vI ,
Capitolo 2: Analisi sistemi LSTC
la matrice dinamica, nelle nuove coordinate, assume la forma:
σ
−1
Λp = T Ap T =
−ω
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-47
ω
σ
.
(2.40)
La forma Λp in (2.40) è detta forma canonica reale. L’esponenziale di matrice a tempo continuo in questo caso
è dato da:
cos(ωt) sin(ωt)
= e σt Ω(t).
(2.41)
e Λp t = e σt
− sin(ωt) cos(ωt)
dove Ω(t) indica la matrice quadrata di dimesione due che descrive la componente periodica:
cos(ωt) sin(ωt)
Ω(t) :=
.
− sin(ωt) cos(ωt)
(2.42)
Le funzioni e σt cos(ωt) e e σt sin(ωt) sono i modi naturali associati ad una coppia di autovalori complessi
coniugati λ = σ + ω e λ∗ = σ − ω.
La risposta libera nello stato del sistema planare in esame, nelle nuove coordinate z = T −1 x, è data da:
cos(ωt) sin(ωt)
z0 ,
(2.43)
z(t) = e σt
− sin(ωt) cos(ωt)
ed è facile vedere come non sia possibile eccitare in modo indipendente i due modi: nel caso di un sistema
planare con autovalori complessi coniugati, la risposta libera nello stato contiene sempre almeno due modi
indipendenti. Ovviamente, la stessa considerazione può essere estesa anche al sistema planare nelle coordinate
originali, poiché la matrice di trasformazione di coordinate è ad elementi reali. Si ottiene
cos(ωt) sin(ωt)
σt
At
Λp −1
T −1 x0 ,
(2.44)
e = T e T , x(t) = T e
− sin(ωt) cos(ωt)
Si consideri ora il caso di un sistema dinamico di dimensione n, con matrice dinamica A diagonalizzabile.
Si assuma, senza perdita di generalità, che i primi nr autovalori λi , i = 1, 2, · · · , nr , siano reali, ed i rimanenti
n − nr autovalori siano costituiti da nc coppie complesse coniugate, n − nr = 2nc . Siano vi , i = 1, 2, · · · , nr , gli
autovettori associati agli autovalori reali, e (wi , wi∗ ), wi = wR,i + wI,i , i = 1, 2, · · · , nc , le coppie di autovettori
associati agli autovalori complessi. Scelti come nuovi vettori di base gli autovettori reali e le parti reali ed
immaginarie degli autovettori complessi, la nuova matrice di cambio di coordinate è data da:
(2.45)
T = v1 v2 · · · vnr wR,1 wI,1 wR,2 wI,2 · · · wR,nc wI,nc .
Nelle nuove coordinate la matrice dinamica è esprimibile nella seguente forma diagonale a blocchi:


λ1 0 · · ·
0
..
.
 0 λ2 · · ·

0


0
 ..

.
..
.
..
..
 .

.
..


.
 0

0
·
·
·
λ
nr

,
ΛR = 

Λ
0
·
·
·
0
p,1
..


.


0
Λ
·
·
·
0
p,2



0

..
..
.
.
.
.


.
.
.
.
..
.
0
0
· · · Λp,nc
in cui i termini Λp,i , i = 1, 2, · · · , nc rappresentano forme canoniche reali del tipo (2.40):
σi ωi
Λp,i =
.
−ωi σi
(2.46)
(2.47)
Capitolo 2: Analisi sistemi LSTC
Tenendo conto del fatto che la
blocchi, è facile trovare la seguente

e λ1 t

0


..

.


0
ΛR t
e
=






[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-48
potenza k-esima di una matrice diagonale a blocchi è ancora diagonale a
forma per la matrice esponenziale, nelle nuove coordinate:

0
···
0
..
.

e λ2 t · · ·
0

0

..
..
..

.
.
.
..

.
λnr t

0
··· e
,
(2.48)
Λp,1 t

e
0
···
0
..

.

0
e Λp,2 t · · ·
0

0

..
..
.
..
..

.
.
.
..
.
0
0
· · · e Λp,nc t
ove e Λp,i t indica la matrice di risposta libera nello stato di un sistema planare con autovalori complessi del tipo
descritta in (2.41):
cos(ωi t) sin(ωi t)
Λp,i t
σi t
e
=e
= e σi t Ωi (t).
(2.49)
− sin(ωi t) cos(ωi t)
La risposta libera nello stato in coordinate originali è quindi:
e At = T e ΛR t T −1 .
(2.50)
Poiché la matrice di cambio di coordinate è non singolare, l’esponenziale di matrice e ΛR t nelle coordinate
diagonali e l’esponenziale di matrice e At nelle coordinate originali contengono esattamente le stesse funzioni
del tempo. Più precisamente, ogni singolo elemento dell’esponenziale di matrice in coordinate originali sarà
costituito dalla combinazione lineare di uno o più modi naturali del sistema.
Il comportamento temporale dell’esponenziale di matrice, e quindi dell’intero sistema, è governato quindi
esclusivamente dai modi naturali delsistema, dati dalle funzioni esponenziali e λi t , i = 1, 2, . . . , nr , e dalle
funzioni esponenziali-sinusoidali e σi t cos(ωi t) ed e σi t sin(ωi t) i = 1, 2, . . . , nc .
Ciò conclude la discussione dei primi due punti del teorema, sia nel caso di autovalori reali, sia nel caso di
autovalori complessi.
2.2.3
Il caso di sistema non diagonalizzabile, con autovalori reali
L’analisi dei modi naturali ed il calcolo della risposta nello stato per un sistema non diagonalizzabile è
basata sulla forma canonica di Jordan, che costituisce la generalizzazione della forma diagonale esaminata in
precedenza. Il blocco base per la costruzione di una forma canonica di Jordan è costituito dal miniblocco di
Jordan Jλ , di dimensione r, associato all’autovalore reale λ, dato dalla matrice r × r della forma seguente:


λ 1 0 ··· 0 0
 0 λ 1 ··· 0 0 



.. ..  ,
Jλ =  ... ... ...
(2.51)
. . 


 0 0 0 ··· λ 1 
0 0 0 ··· 0 λ
cui corrisponde una matrice esponenziale a tempo continuo della forma:

tr−1 λt
λt
e
te λt · · ·
 e
(r − 1)!


tr−2 λt

e
e λt · · ·
e Jλ t =  0
(r − 2)!

 .
..
..
..
 ..
.
.
.
0
0
···
e λt





.



(2.52)
Le funzioni e λt , te λt , · · · , tr−1 e λt sono i modi naturali generati da un miniblocco di Jordan di dimensione r
associato all’autovalore reale λ (si veda la figura 2.3).
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-49
La forma canonica di Jordan JA di una matrice A è una struttura diagonale a blocchi, con blocchi sulla
diagonale costituiti da miniblocchi di Jordan Jλ di dimensioni opportune:


0 ···
0
Jλ1
 0 Jλ2 · · ·
0 


(2.53)
JA =  .
..
.. 
..
 ..
.
.
. 
0
0
···
Jλp
ed ottenibile per similarità algebrica dalla matrice A tramite un’opportuna matrice di trasformazione T :
JA = T −1 AT.
(2.54)
La costruzione della matrice T è basata su una generalizzazione del concetto di autovettore.
L’esponenziale matriciale in coordinate di Jordan è ancora una matrice diagonale a blocchi, con blocchi del
tipo riportato nella (2.52):
 Jλ t

e 1
0
···
0
 0
e J λ2 t · · ·
0 


e JA t =  ..
(2.55)

..
..
.
.
 .

.
.
.
0
0
···
e J λp t
mentre l’esponenziale di matrice in coordinate originali è dato:
e At = T e JA t T −1
(2.56)
ed è quindi costituito da combinazioni lineari del vari modi naturali. Si noti che nella forma di Jordan di una
matrice A assegnata possono essere presenti più miniblocchi Jλ relativi ad uno stesso autovalore λ. A riguardo,
si hanno le seguenti proprietà e caratteristiche importanti.
Commento 2.2
• La somma delle dimensioni di tutti i miniblocchi associati ad uno stesso autovalore λ è uguale alla
molteplicità algebrica µ dello stesso autovalore, e cioè uguale alla molteplicità di tale autovalore come
soluzione del polinomio caratteristico.
• Il numero di miniblocchi associati ad uno stesso autovalore λ è uguale alla molteplicità geometrica ν dello
stesso autovalore, e cioè uguale alla dimensione del sottospazio vettoriale ker(λI − A).
• La dimensione del miniblocco più grande associato ad un dato autovalore λ è uguale alla molteplicità di
tale autovalore come soluzione del polinomio minimo.
L’andamento del modo naturale base e dei modi con termini polinomiali di ordine uno e di ordine due è
illustrato nella seguente figura 2.3, più avanti nel capitolo.
2.2.4
Il caso di sistema non diagonalizzabile, con autovalori complessi
Infine, per completare l’analisi dei possibili modi naturali di un sistema dinamico a tempo continuo, si deve
analizzare il caso di matrice non diagonalizzabile con autovalori complessi di molteplicità maggiore di uno.
La determinazione dei modi naturali passa per la generalizzazione della forma canonica reale. Indica con Ap
una forma canonica reale planare, la sua generalizzazione al caso di una sola coppia di autovalori complessi di
molteplicità pari ad r, r > 1, è una matrice con r × r blocchi, del tipo:


..
0
.
0 
 Λp I2


..
 0 Λp I2
.
0 


,
..
JR = 
(2.57)
 0
0 Λp
.
0 


 .
..
..
.. 
..
 ..
.
.
.
. 
0
0
···
···
Λp
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-50
cui sono associati modi naturali del tipo tj e σt cos(ωt) e tj e σt sin(ωt), con j = 0, 1, . . . , r − 1.
Nel caso particolare di un sistema con una coppia di autovalori complessi coniugati λ = σ + ω e λ∗ = σ − ω,
ciascuno di molteplicità due, si trova la seguente forma di Jordan reale:


σ ω 1
0
 −ω σ
0
1 
,
(2.58)
JR 2 = 
 0
0 σ ω 
0
0 −ω σ
cui corrisponde il seguente esponenziale matriciale:

cos(ωt) sin(ωt) t cos(ωt) t sin(ωt)

σt  − sin(ωt) cos(ωt) −t sin(ωt) t cos(ωt)
JR2 t
=e 
e
0
0
cos(ωt)
sin(ωt)
0
0
− sin(ωt) cos(ωt)


.

(2.59)
Nel caso in cui il sistema abbia solo autovalori complessi, ma con molteplicità arbitraria, l’esponenziale di
matrice, in coordinate reali, ricordando la notazione (2.42), assume la forma:


tr−1
Ω(t)
tΩ(t)
·
·
·
Ω(t)


(r − 1)!


r−2


t

JR t
σt 
Ω(t)
0
Ω(t)
·
·
·
e
=e 
(2.60)
.
(r − 2)!



 ..
..
.
.
..
..

 .
.
0
0
···
Ω(t)
2.2.5
Il caso generale
Si consideri ora il caso generale, di un sistema con nR autovalori reali, alcuni di loro eventualmente coincidenti,
ed nC autovalori complessi coniugati, alcuni di loro eventualmente coincidenti, sia gli autovalori reali sia quelli
complessi con molteplicità arbitraria. Per tale sistema, nelle coordinate di Jordan, si ha un’esponenziale di
matrice della seguente forma, che contiene tutti i modi naturali del sistema stesso:

e Jt







=






e J λ1 t
0
..
.
0
e J λ2 t
..
.
···
···
..
.
0
0
..
.
J λn t
0
0
···
0
0
0
0
···
···
0
0
0
0
0
0
···
···
0
0
e
R
0
0
0
0
···
···
0
0
0
0
0
0
0
0
e JR1 t
0
..
.
···
···
0
e JR2 t
..
.
···
···
..
.
0
0
..
.
0
0
···
e JRn C t








.






(2.61)
in cui le sottomatrici e Jλi t , i = 1, 2, · · · , nR , sono matrici (di dimensione opportuna) del tipo in equazione (2.52),
mentre le sottomatrici e JRi t , i = 1, 2, · · · , nC , sono matrici (di dimensione opportuna) del tipo in equazione
(2.60).
L’esponenziale di matrice nelle coordinate originali si ottiene per trasformazione di similarità di tale matrice,
e contiene tutti e soli i modi naturali presenti nella (2.61). Ciò completa l’analisi del teorema 2.1 relativo ai
modi naturali di un sistema lineare, stazionario, a tempo continuo.
2.2.6
Caratterizzazione di convergenza
Al variare della posizione degli autovalori nel piano complesso, i modi naturali di un sistema sono caratterizzati da specifiche proprietà di convergenza, che costituiscono uno degli elementi fondamentali dell’analisi modale.
Come si vedrà successivamente infatti, le proprietà più importanti dei sistemi dinamici sono determinate dai
modi naturali, e in particolare dalle loro caratteristiche di convergenza. Tra le altre, la stabilità dei punti di
equilibrio di un sistema LSTC e dello stesso sistema dipendono unicamente da tali proprietà di convergenza.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-51
In modo analogo, l’esistenza della risposta permamente per un sistema LSTC dipende esclusivamente dalle
proprietà di convergenza dei modi naturali.
La caratterizzazione di convergenza è sintetizzata dal seguente teorema.
Teorema 2.2 (Caratterizzazione di converganza del modi naturali di un sistema LSTC) Sia dato il
sistema lineare stazionario a tempo continuo, omogeneo:
ẋ = Ax,
x(0) = x0 ,
x ∈ Rn ,
(2.62)
e siano λi , i = 1, · · · , r, i corrispondenti autovalori distinti, caratterizzati dalle molteplicità algebrica e geometrica µi e νi , rispettivamente.
Allora, per ciascun autovalore λi ∈ R e per ciascuna coppia di autovalori complessi (λi , λ∗i ) ∈ C, si ha che i
corrispondenti modi naturali sono:
• convergenti se la parte reale dell’autovalore è negativa: Re(λi ) < 0, ∀µi ;
• limitati se la parte reale dell’autovalore è nulla, Re(λi ) = 0, ed inoltre le molteplicità algebrica e geometrica sono uguali, µi = νi ;
• divergenti se la parte reale dell’autovalore è nulla, Re(λi ) = 0, ed inoltre le molteplicità algebrica e
geometrica sono diverse, µi > νi ;
• divergenti se la parte reale dell’autovalore è positiva: Re(λi ) > 0, ∀µi .
I vari casi vengono descritti nel seguito, con una traccia di dimostrazione.
Autovalori reali semplici
Nel caso di un autovalore reale semplice λ, il modo naturale associato è dato dalla funzione esponenziale e λt .
È ben noto che in tal caso il comportamento asintotico dipende dal segno dell’autovalore. Nel caso di autovalore
negativo, si ha un modo naturale convergente, mentre nel caso di autovalore positivo (cioè, se l’autovalore è
alla destra dell’asse immaginario) il modo naturale è divergente. Infine, il modo naturale è detto limitato se
l’autovalore corrispondente è nullo (cioè, se l’autovalore coincide con l’origine del piano complesso): in tal caso
il modo naturale è infatti un segnale costante. La situazione è sintetizzata dalla figura 2.1.
Autovalore reale negativo
1
Autovalore nullo
2
0.9
1.8
0.8
1.6
0.7
1.4
0.6
0.5
0.4
Modo naturale
100
Modo naturale
Modo naturale
Autovalore reale positivo
150
50
0.3
1
0.8
0.6
0.2
0.4
0.1
0
1.2
0.2
0
5
0
Tempo (secs)
0
5
0
0
Tempo (secs)
5
Tempo (secs)
Figura 2.1: Modi naturali associati ad autovalori reali.
Autovalori complessi coniugati semplici
La caratterizzazione di convergenza è del tutto analoga nel caso di una coppia di autovalori complessi,
i cui modi naturali sono dati dalle due funzioni e σt sin(ωt) e e σt cos(ωt). L’unica differenza è la presenza
di un comportamento oscillatorio, dovuto ai termini sin(ωt) e cos(ωt). I modi naturali sono convergenti se
gli autovalori hanno parte reale negativa; i modi naturali sono divergenti se gli autovalori hanno parte reale
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-52
maggiore di zero, i modi naturali sono limitati se gli autovalori hanno parte reale nulla. Si noti che, nel caso
di autovalori complessi, parte reale nulla corrisponde a modi naturali oscillatori puri, cioè del tipo sin(ωt) e
cos(ωt). La situazione è sintetizzata dalla figura 2.2.
Autovalori parte reale negativa
Autovalore parte reale positiva
1.5
Autovalore parte reale nulla
200
1
0.8
150
1
0.6
100
0.4
0
50
Modo naturale
Modo naturale
Modo naturale
0.5
0
−50
−0.5
0.2
0
−0.2
−0.4
−100
−0.6
−1
−150
−1.5
0
1
2
3
Tempo (secs)
4
5
−200
−0.8
0
1
2
3
Tempo (secs)
4
5
−1
0
1
2
3
Tempo (secs)
4
5
Figura 2.2: Modi naturali associati ad autovalori complessi.
Autovalori reali non semplici
La caratterizzazione rispetto alla convergenza dei modi naturali nel caso di autovalori con molteplicità algebrica e geometrica diverse è legata ancora al segno della parte reale dell’autovalore: si hanno modi convergenti
nel caso di autovalori con parte reale negativa e modi divergenti nel caso di autovalori con parte reale positiva.
Nel caso di autovalori a parte reale negativi e non semplici, con molteplicità algebrica e geometrica diverse, la
presenza dei termini polinomiali determina un diverso andamento iniziale delle funzioni, ma ovviamente non ne
risente la proprietà di convergenza (si veda la figura 2.3).
Nel caso di un autovalore con parte reale nulla, la convergenza dei modi è legata alla molteplicità nel
polinomio minimo2 . Ad esempio, il modo naturale te λt , per autovalore nullo, diviene la funzione t, e quindi è
una funzione crescente del tempo. Analogamente per tutti i modi di ordine superiore, cioè del tipo tj e λt , con
j > 0 ed autovalore nullo. In conclusione, per autovalori con parte reale nulla e con molteplicità algebrica e
geometrica diverse 3 , i modi naturali sono divergenti, sia pure con tasso di crescita minore di quello associato
ad autovalori a parte reale positiva (si veda la figura 2.4).
Autovalori complessi coniugati non semplici
Il caso di autovalori complessi coniugati con molteplicità algebrica e geometrica diverse è del tutto analogo
al caso precedente: la presenza di termini polinomiali rende i modi naturali divergenti sia in caso di autovalori
a parte reale positiva, sia a parte reale nulla. Sono invece convergenti i modi naturali associati ad autovalori
con parte reale negativa.
2.2.7
Riepilogo
Nel caso generale, una matrice dinamica A potrà avere autovalori sia reali sia complessi, ciascuno con
molteplicità unitaria o maggiore. Nel calcolo della sua matrice esponenziale saranno quindi coinvolti alcuni, od
al limite tutti, i casi particolari visti in precedenza. Tuttavia l’esponenziale di matrice sarà sempre basata su una
combinazione lineare di modi naturali, per la cui determinazione è sufficiente un’analisi completa degli autovalori
della matrice A. In altre parole, di norma (ad esempio, se l’interesse è limitato allo caratterizzazione dei modi
rispetto alla convergenza), non è richiesto il calcolo esplicito dell’esponenziale matriciale e delle relative matrici
2 che
coincide con la dimensione del miniblocco associato.
per molteplicità non unitaria nel polinomio minimo, che corrisponde a miniblocchi di dimensione maggiore di uno associati
ad autovalori (reali) nulli.
3 cioè
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-53
−t
m1(t)=e
Modo
1
0.5
0
0
0.5
1
1.5
2
2.5
Tempo (secs)
−t
m2(t)=t e
3
3.5
4
4.5
5
0
0.5
1
1.5
2
2.5
Tempo (secs)
m3(t)=t2 e−t
3
3.5
4
4.5
5
0
0.5
1
1.5
2
2.5
Tempo (secs)
3
3.5
4
4.5
5
Modo
0.4
0.2
0
Modo
1
0.5
0
Figura 2.3: Modi naturali associati ad autovalori reali negativi e non semplici.
di similarità, ma è invece sufficiente valutare in modo completo gli autovalori della matrice A, in coordinate
originali.
I possibili modi naturali di un sistema a tempo continuo sono riepilogati nella prima colonna della tabella
2.1, e le loro proprietà di convergenza sono riepilogate nelle successive colonne della stessa tabella.
2.2.8
Il significato fisico del concetto di autovettore: eccitazione singoli modi
Per studiare la dipendenza della risposta libera nello stato dalle condizioni iniziali, ed in particolare per studiare
la possibilità di eccitare singoli modi naturali con opportune condizioni iniziali, è utile approfondire il significato
fisico del concetto di autovettore.
Si consideri inizialmente il caso di un sistema diagonalizzabile, e si rappresenti il sistema nelle coordinate
in cui la sua matrice dinamica è diagonale. Indicato con z = T −1 x il nuovo vettore di stato, la dinamica
corrispondente è data da:
ż = Λz, Λ = diag {λ1 , λ2 , . . . , λn }
(2.63)
Come visto in precedenza, in questo caso ciascun modo naturale può essere eccitato indipendentemente, scegliendo
in modo opportuno il vettore delle condizioni iniziali. Analogamente, ciascuna condizione iniziale eccita solo i
modi naturali lungo i quali la condizione stessa ha componenti non nulle. Ad esempio, la condizione iniziale
z0 = e1 eccita solo il primo modo, descritto da e λ1 t . Viceversa, la condizione iniziale z0 = e2 + 3e4 eccita i due
modi naturali e λ2 t e e λ4 t , e la corrispondente risposta libera nello stato è data da x(t) = e λ2 t + 3e λ4 t . (La
notazione ei indica la i-esima colonna della matrice identità).
Passando alle coordinate originali, si ricordi che la matrice di cambio di coordinate che consente di diagonalizzare la matrice A è costituita dagli n autovettori della matrice stessa (se tali autovettori non sono indipendenti,
la matrice non è diagonalizzabile, come noto). Cioè, detti vi , i = 1, 2, · · · , n, gli autovettori associati agli
autovalori λi , i = 1, 2, · · · , n, la matrice di trasformazione è data da:
(2.64)
T = v1 v2 · · · vn ,
come si deduce facilmente anche dalla relazione:



AT = T Λ = T 

λ1
0
..
.
0
λ2
..
.
···
···
..
.
0
0
..
.
0
0
···
λn



.

(2.65)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-54
m (t)=δ
1
(t)
−1
Modo
2
1
0
0
0.5
1
1.5
2
2.5
Tempo (secs)
m (t)=t
3
3.5
4
4.5
5
2.5
Tempo (secs)
2
m (t)=t
3
3.5
4
4.5
5
2.5
Tempo (secs)
3
3.5
4
4.5
5
2
Modo
6
4
2
0
0
0.5
1
1.5
2
3
Modo
30
20
10
0
0
0.5
1
1.5
2
Figura 2.4: Modi naturali associati ad un autovalore nullo non semplice.
Allora, è immediato vedere che una condizione iniziale x0 eccita un solo modo naturale se è allineata secondo il
corrispondente autovettore e viceversa. Analogamente, una data condizione iniziale eccita tutti i modi naturali
associati agli autovettori che concorrono alla rappresentazione della condizione iniziale stessa.
Lo studio delle condizioni iniziali che consentono di eccitare singoli modi naturali, può essere condotto
anche con un altro approccio, lavorando in coordinate originali e prescindendo dalla diagonalizzabilità.
Si assuma una condizione iniziale allineata con un autovettore. Ad esempio, sia vj l’autovettore relativo
all’autovalore λj , e sia x(0) = vj la condizione iniziale. La risposta libera nello stato è quindi:
x(t) = e At x(0) = e At vj .
(2.66)
Ricordando le definizioni di autovettore e di matrice esponenziale:
Av = λv,
e
At
=
∞
X
Ai ti
i=0
i!
,
(2.67)
e notando, ad esempio per induzione, che, dato un autovettore v ed un intero positivo qualsiasi ℓ, vale la
relazione:
Aℓ v = λℓ v,
(2.68)
la risposta libera nello stato diviene:
x(t) = e At x(0) = e At vj
∞
X
Ai ti
vj
=
i!
i=0
=
∞
X
λij ti
i=0
λj t
=e
i!
vj ,
vj
(2.69a)
(2.69b)
(2.69c)
(2.69d)
e quindi tale risposta libera contiene solo ed unicamente il modo naturale relativo all’autovettore che descrive
la condizione iniziale.
Si noti che le considerazioni svolte in questa ultima parte prescindono completamente dalla molteplicità
algebrica e geometrica e sono quindi di validità generale.
Capitolo 2: Analisi sistemi LSTC
Modo
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-55
Caratterizzazione di convergenza
naturale
convergente
limitato
divergente
e λt , λ ∈ R
Re(λ) < 0
Re(λ) = 0
Re(λ) > 0
tj e λt , λ ∈ R
Re(λ) < 0
Re(λ) = 0, j = 0
[Re(λ) = 0, j > 0], [Re(λ) > 0]
e σt cos(ωt), λ ∈ C
Re(λ) = σ < 0
Re(λ) = σ = 0
Re(λ) = σ > 0
e σt sin(ωt), λ ∈ C
Re(λ) = σ < 0
Re(λ) = σ = 0
Re(λ) = σ > 0
tj e σt cos(ωt), λ ∈ C
Re(λ) = σ < 0
Re(λ) = σ = 0, j = 0
[Re(λ) = σ = 0, j > 0], [Re(λ) = σ > 0]
tj e σt sin(ωt), λ ∈ C
Re(λ) = σ < 0
Re(λ) = σ = 0, j = 0
[Re(λ) = σ = 0, j > 0], [Re(λ) = σ > 0]
Tabella 2.1: Modi naturali di un sistema a tempo continuo e condizioni di convergenza
2.2.9
Decomposizione spettrale
La matrice dinamica A, rappresentativa del comportamento dinamico di un sistema, può essere rappresentata
come combinazione lineare di opportune matrici quadrate, derivate dagli autovettori e pesate con gli autovalori
del sistema stesso. Sia A una matrice diagonalizzabile, siano λi i suoi autovalori, vi i corrispondenti autovettori
(destri), e wiT gli autovettori sinistri (cioè, vettori riga che soddisfano le equazioni wiT A = λi wiT ). Allora, la
matrice A può essere riscritta secondo la seguente decomposizione spettrale:
A=
n
X
λi vi wiT .
(2.70)
i=1
Si noti che i termini vi wiT sono matrici quadrate. La decomposizione (2.70) può essere estesa anche alla
corrispondente matrice esponenziale:
n
X
At
e =
e λi t vi wiT .
(2.71)
i=1
2.2.10
Il piano delle fasi per sistemi planari
Nel caso di sistemi planari, cioè con spazio di stato di dimensione due, è interessante studiare, in modo
qualitativo, il comportamento delle traiettorie nel piano delle fasi (cioè, nel piano che rappresenta le due variabili
di stato). In particolare, si consideri un sistema planare autonomo, con autovalori complessi, e con condizione
iniziale pari a x0 = [1, 0]T :
σ ω
ẋ =
x.
(2.72)
−ω σ
Il comportamento nel piano delle fasi, per σ = ±0.2, ω=2, è riportato in figura (2.5), a sinistra nel caso
di parte reale positiva e al centro nel caso di parte reale negativa. Il diagramma a destra è relativo a parte
reale nulla. Il comportamento pseudo-periodico divergente dei due modi naturtali corrisponde ad una spirale
crescente, quello dei due modi pseudo-periodici convegenti ad una spirale decrescente.
Lo studio del comportamento nel piano delle fasi per sistemi planari con autovalori reali viene lasciato come
esercizio.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-56
Modi pseudo−periodici divergenti
6
1
0
−2
−4
0.5
Coordinata x2
2
Coordinata x2
Coordinata x2
4
0
−0.5
−6
−8
−4
Modi periodici
Modi pseudo−periodici convergenti
1
0.5
0
−0.5
−1
−2
0
2
Coordinata x
4
−1
−0.5
1
0
Coordinata x
0.5
1
−1
−0.5
0
0.5
Coordinata x
1
1
Figura 2.5: Comportamento nel piano delle fasi per un sistema con modi naturali pseudo-periodici divergenti.
2.2.11
Esercizi risolti
Esercizio 2.1 Si consideri il sistema dinamico descritto dal

−1 0
ẋ =  0 −2
0
0
modello:

0
0 x
3
(2.73)
Il sistema è caratterizzato da una matrice A diagonale, e quindi i suoi autovalori sono semplicemente gli elementi
sulla diagonale, e cioè:
λ1 = −1; λ2 = −2; λ3 = 3,
(2.74)
cui corrispondono, rispettivamente, i modi naturali:
m1 (t) = e −t ; m2 (t) = e −2t ; m3 (t) = e 3t .
(2.75)
I primi due modi naturali sono convergenti, il terzo modo naturale è divergente. L’esponenziale di matrice del
sistema in esame è dato da:
 −t

e
0
0
e −2t 0  .
e At =  0
(2.76)
0
0
e 3t
Esercizio 2.2 Si consideri il sistema dinamico descritto dal modello:


3
0
0
ẋ =  4 −2 −1  x
−4 0 −1
(2.77)
Il polinomio caratteristico del sistema è dato da:
pA (λ)
=
=
det(λI − A)

λ−3
0
det  −4 λ + 2
4
0

0
1  = λ3 − 7λ − 6,
λ+1
che può essere fattorizzato nella forma pA (λ) = (λ + 1)(λ + 2)(λ − 3), e quindi i suoi autovalori sono:
λ1 = −1; λ2 = −2; λ3 = 3,
(2.78)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-57
cui corrispondono, rispettivamente, i modi naturali:
m1 (t) = e −t ; m2 (t) = e −2t ; m3 (t) = e 3t .
(2.79)
I primi due modi naturali sono convergenti, il terzo modo naturale è divergente. Si noti che si tratta degli stessi
modi naturali dell’esempio precedente.
Infatti, presa come matrice di trasformazione (costruita utilizzando come nuova base i tre autovettori) la
matrice


1 0 1
T −1 =  0 1 1  ,
(2.80)
−1 0 0
ed indicate con A1 ed A2 le matrici, rispettivamente, dei due esempi 2.1 e 2.2, si trova:
A2 = T −1 A1 T,
da cui segue, per l’esponenziale di matrice dell’esempio corrente:

e 3t
0
A2 t
−1 A1 t
−t
e
=T e
T =  −e + e 3t e −2t
e −t − e 3t
0
(2.81)

0
−e −t + e −2t  .
e −t
(2.82)
Come atteso, tale esponenziale contiene solo combinazioni lineari dei modi naturali.
Commento 2.3 A scanso di equivoci, è bene sottolineare come la coincidenza del polinomio caratteristico tra
due sistemi non sia in alcun modo condizione sufficiente per la equivalenza algebrica degli stessi.
Esercizio 2.3 Si consideri il sistema dinamico descritto dal modello:


−1 1
0
ẋ =  0 −1 0  x
0
0 −1
(2.83)
Il sistema è costituito da due miniblocchi di Jordan, il primo di dimensione due ed associato all’autovalore
λ1 = −1, il secondo di dimensione uno ed associato allo stesso autovalore. Sulla base della teoria dell’analsi
modale, è noto che a tale situazione corrispondono, rispettivamente, i seguenti modi naturali:
m1 (t) = e −t ; m2 (t) = te −t ; m3 (t) = e −t .
(2.84)
In tal caso, tutti i modi naturali sono convergenti, poiché la parte reale dell’unico autovalore è negativa.
L’esponenziale di matrice del sistema in esame è dato da:

 −t
e
te −t
0
e −t
0 .
(2.85)
e At =  0
0
0
e −t
Esercizio 2.4 Si consideri il sistema dinamico descritto dal modello:


−1 0
0
ẋ =  0 −2 −1  x
0
1
0
(2.86)
Il polinomio caratteristico del sistema vale:
pA (λ)
=
=
det(λI − A)

λ+1
0
λ+2
det  0
0
−1

0
1  = λ3 + 3λ2 + 3λ + 1 = (λ + 1)3 .
λ
Il sistema ha un solo autovalore con moltiplicità pari a tre:
λ1 = −1; µ1 = 3.
(2.87)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-58
Per valutare la forma dei modi naturali si deve studiare la molteplicità geometrica di tale autovalore. Si tratta
quindi di valutare la dimensione del nucleo della matrice λI − A, per λ = −1, che corrisponde poi a valutare il
numero di autovettori indipendenti associati all’autovalore λ = −1. Si trova:


0 0
0
1 .
λI − A = −I − A =  0 1
0 −1 −1
Si vede facilmente che la matrice ha una riga nulla e due righe dipendenti, e quindi il suo nucleo ha dimensione
2 (in alternativa, la matrice ha rango uno, e quindi il nucleo ha dimensione n − 1 = 3 − 1 = 2). L’autovalore di
interesse ha quindi molteplicitià geometrica pari a 2. Ne segue che il sistema ha due miniblocchi di Jordan, ed
appare un termine polinomiale. I modi naturali sono quindi:
m1 (t) = e −t ; m2 (t) = te −t ; m3 (t) = e −t .
(2.88)
In tal caso, tutti i modi naturali sono convergenti, poiché la parte reale dell’unico autovalore è negativa.
Presa come matrice di trasformazione (calcolabile con procedura non parte del programma d’esame) la
matrice


1 0 1
T −1 =  0 1 1  ,
(2.89)
−1 0 0
ed indicate con A1 ed A2 le matrici, rispettivamente, dei due esempi 2.3 e 2.4, si trova:
A2 = T −1 A1 T,
da cui segue, per l’esponenziale di matrice dell’esempio corrente:
 −t
e
0
−te −t + e −t
e A2 t = T −1 e A1 t T =  0
0
te −t
(2.90)

0
.
−te −t
−t
e + te −t
(2.91)
Come atteso, tale esponenziale contiene solo combinazioni lineari dei modi naturali.
Esercizio 2.5 Si consideri il sistema dinamico descritto dal modello:


0
0
0
ẋ =  −1 −1 −1  x
0
1
1
(2.92)
Il polinomio caratteristico del sistema vale
pA (λ)
=
=
det(λI − A)


λ
0
0
1  = λ3 .
det  1 λ + 1
0
−1 λ − 1
e quindi il sistema ha un solo autovalore λ = 0, con moltiplicità µ = 3.
Per valutare la forma dei modi naturali si deve studiare la molteplicità geometrica di tale autovalore. Si
tratta quindi di valutare la dimensione del nucleo della matrice λI − A, per λ = 0. Si trova:


0 0
0
1 .
λI − A = −A =  1 1
0 −1 −1
Si vede facilmente che la matrice ha due righe indipendenti ed una riga nulla, e quindi il suo nucleo ha dimensione
1 (in alternativa, la matrice ha rango due, e quindi il nucleo ha dimensione n − 2 = 3 − 2 = 1). L’autovalore
nullo ha quindi molteplicitià geometrica pari ad 1. Ne segue che il sistema ha un solo miniblocco di Jordan. Tra
i suoi modi naturali vi saranno quindi un termine polinomiale di grado uno ed un ulteriore termine di grado
due.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-59
I modi naturali sono quindi:
m1 (t) = δ−1 (t); m2 (t) = tδ−1 (t) = t; m3 (t) = t2 δ−1 (t) = t2 .
(2.93)
In tal caso, il primo modo naturale è limitato, gli altri due crescono e sono quindi divergenti.
Nel caso in esame, presa come matrice di trasformazione (calcolabile con procedura non parte del programma
d’esame) la matrice


1 0 1
T −1 =  0 1 1  ,
(2.94)
−1 0 0
si trova:

0 1
AJ = T −1 AT =  0 0
0 0
cui corrisponde l’esponenziale di matrice:

δ−1 (t) tδ−1 (t)
e AJ t = 
0
δ−1 (t)
0
0

0
1 ,
0
 
t2 δ−1 (t)
δ−1 (t)
t
tδ−1 (t)  = 
0
δ−1 (t)
δ−1 (t)
0
0
(2.95)

t2

t
δ−1 (t)
da cui segue, per l’esponenziale di matrice in coordinate originali, la forma:


δ−1 (t)
0
0

−tδ−1 (t)
e At = T −1 e AJ t T =  t2 δ−1 (t) − tδ−1 (t) −tδ−1 (t) + δ−1 (t)
2
−t δ−1 (t)
tδ−1 (t)
δ−1 (t) + tδ−1 (t)


δ−1 (t)
0
0
.
−t
=  t2 − t −t + δ−1 (t)
2
−t
t
δ−1 (t) + t
Come atteso, tale esponenziale contiene solo combinazioni lineari dei modi naturali.
(2.96)
Capitolo 2: Analisi sistemi LSTC
2.3
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-60
La trasformata di Laplace
Lo studio dei sistemi lineari stazionari a tempo continuo, ed in particolare lo studio dei legami ingresso-uscita
di tali sistemi, è di solito condotto facendo uso delle strumento formale-simbolico della trasformata di Laplace4 .
In queste note la trasformata di Laplace viene presentata in modo estremamente sintetico ed operativo. Per
tutti gli aspetti formali, di esistenza della trasformata, e per i legami con altre trasformate ed integrali, ad
esempio con la trasformata di Fourier5 , si rimanda a testi specifici e ad altri insegnamenti.
Si consideri una funzione del tempo f (·), a valori complessi, nulla per t < 0, e maggiorata da M e γt , per
qualche valore di M > 0 e γ > 0: f : R → C, f (t) = 0, t < 0, f (t) < M e γt , t > 0.
La trasformata di Laplace della funzione f (·), indicata (sia pure impropriamente) con la notazione:
F (s) := L[f (t)],
(2.97)
è una funzione F :→ C → C definita dal seguente integrale, supposto che converga:
Z ∞
Z ∞
F (s) = L[f (t)] := lim
f (t)e −st dt =
f (t)e −st dt.
−
0
ǫ → 0 −ǫ
ǫ>0
(2.98)
Se l’integrale (2.98) converge per un certo s0 = σ0 + ω0 , allora converge per tutti i valori s tali che Re(s) ≥ σ0 .
Il più piccolo valore di σ0 tale che, per ogni s con Re(s) > σ0 l’integrale (2.98) converge, è detto ascissa di
convergenza, e sarà indicato con α; la regione del piano complesso E := {s ∈ C : Re(s) > α} è detta regione
di esistenza. La funzione F (s) ha lo stesso contenuto informativo del segnale di origine f (t); più precisamente,
F (s) ed f (t) sono due diverse rappresentazioni dello stesso segnale: F (s) è la rappresentazione nel dominio della
variable di Laplace, mentre f (t) è la rappresentazione dello stesso segnale nel dominio del tempo.
Nota la trasformata di Laplace F (s) di un segnale, la sua rappresentazione nel dominio del tempo, f (t),
può essere ricostruita a partire dalla trasformata inversa di Laplace o antitrasformata di Laplace, definita
dall’integrale di linea:
Z σ+∞
1
−1
F (s)e st ds, t ≥ 0
(2.99)
f (t) = L [F (s)] =
2π σ−∞
cioè:
−1
f (t) = L
1
[F (s)] =
2π
Z
∞
F (σ + ω)e (σ+ω)t dω,
−∞
t≥0
(2.100)
ove σ è un qualunque numero reale maggiore dell’ascissa di convergenza α. Si noti che l’integrale è calcolato
lungo una retta del piano complesso parallela all’asse immaginario. Di norma, tale integrale si calcola tramite
il teorema dei residui, considerando il percorso chiuso costituito dalla retta verticale s = σ + ω e da un arco di
cerchio antiorario di raggio infinito.
La trasformata di Laplace ha interesse perchè le due trasformazioni (2.98) e (2.99) rappresentano una relazione biunivoca tra funzioni del tempo e corrispondenti trasformate, nel senso meglio precisato dalla seguente
proprietà di unicità.
2.3.1
Proprietà della trasformata di Laplace
Le seguenti proprietà della trasformata di Laplace sono di fondamentale importanza.
Proprietà 2.5 (Proprietà di unicità) Se L[x(t)] = L[y(t)] lungo una qualche linea s = σ + ω, con σ >
max{αx , αy }, allora le due funzioni del tempo coincidono, cioè x(t) = y(t), t ≥ 0 (quasi ovunque).
Proprietà 2.6 (Linearità) Siano u(t) e y(t) due funzioni del tempo, con trasformata U (s) ed Y (s), rispettivamente. Allora, vale la seguente proprietà di linearità:
L[c1 u(t) + c2 y(t)] = c1 U (s) + c2 Y (s),
4 Pierre
5 Jean
∀c1 , c2 ∈ R.
Simon Laplace (Beaumont-en-Auge, 1749 – Parigi, 5 marzo 1827).
Baptiste Joseph Fourier (Auxerre, 21 marzo 1768 Parigi, 16 maggio 1830)
(2.101)
⊓
⊔
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-61
Le due proprietà di unicità e linearità sono di fondamentale importanza concettuale: se non valessero, la
trasformata di Laplace non sarebbe di alcun interesse pratico.
Le sequenti proprietà hanno invece un significato operativo: descrivono situazioni specifiche nelle quali la
trasformata riveste interesse e le corrispondenti forme di impiego.
Proprietà 2.7 (Ritardo finito) Siano u(t) ed U (s) un segnale del tempo e la sua trasformata, con ascissa di
convergenza αu . Allora, dato un reale T > 0, la funzione traslata nel tempo u(t − T ) ha trasformata ed ascissa
di convergenza pari a:
L[u(t − T )] = e −sT U (s), α = αu .
(2.102)
Dimostrazione
L[u(t − T )] =
=
Z ∞
u(t − T )e −st dt =
u(τ )e −s(τ +T ) dτ
−
0
−T
Z ∞
−sT
−sτ
e
u(τ )e
dτ = e −sT U (s), Re(s) > αu .
Z
∞
0−
⊓
⊔
Proprietà 2.8 (Trasformata di una derivata) Siano u(t) ed U (s) un segnale del tempo e la sua trasformata. Allora, la derivata temporale u̇(t) della funzione u(t) ha trasformata pari a:
d u(t)
= sU (s) − u(0− ).
(2.103)
L
dt
Dimostrazione Integrando per parti si trova:
Z ∞
Z ∞
∞
d
d
u(t)
=
u(t)e −st dt = u(t)e −st 0 + s
u(t)e −st dt = −u(0− ) + sU (s).
L
dt
0− dt
0−
⊓
⊔
La dimostrazione assume, implicitamente, che valga il seguente limite: limt→∞ u(t)e −st = 0. Perché ciò è
vero? Si veda anche l’esercizio proposto 2.14.
Proprietà 2.9 (Trasformata di una derivata seconda) Siano u(t) ed U (s) un segnale del tempo e la sua
d2
trasformata. Allora, la derivata temporale seconda 2 u(t) della funzione u(t) ha trasformata pari a:
dt
2
d
d
2
L
u(t) = s U (s) − su(0) −
u(t) |t=0 .
(2.104)
dt2
dt
Proprietà 2.10 (Trasformata di un integrale) Siano u(t) ed U (s) un segnale del tempo e la sua trasforRt
mata. Allora, l’integrale 0 u(τ )dτ ha trasformata pari a:
L
Z
0
t
1
u(τ )dτ = U (s).
s
(2.105)
Dimostrazione. Integrando per parti si trova:
∞
Z t
Z
Z
Z ∞ Z t
1 ∞
1
1 t
+
u(τ )dτ e −st
u(t)e −st dt = U (s).
L
u(τ )dτ
=
u(τ )dτ e −st dt = −
s
s
s
−
−
0
0
0
0
0
0
⊓
⊔
Proprietà 2.11 (Traslazione nel dominio di s (traslazione complessa)) Siano u(t) ed U (s) un segnale
del tempo e la sua trasformata. Allora, la funzione e at u(t) ha trasformata pari a:
L[e at u(t)] = U (s − a).
(2.106)
⊓
⊔
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-62
Proprietà 2.12 (Trasformata di un integrale di convoluzione) Siano u(t) ed y(t) due funzioni del tempo,
U (s) ed Y (s) le loro trasformate. Allora, l’integrale di convoluzione delle due funzioni del tempo, se esiste, ha
trasformata pari a:
Z
t
L
0
u(t − τ )y(τ )dτ = U (s)Y (s).
(2.107)
⊓
⊔
Proprietà 2.13 (Antitrasformata della derivata rispetto ad s) Siano u(t) ed U (s) un segnale del tempo
d
U (s) ha antitrasformata pari a:
e la sua trasformata. Allora, la funzione
ds
d
−1
L
U (s) = −tu(t).
(2.108)
ds
⊓
⊔
2.3.2
Trasformata di Laplace di segnali notevoli
Si danno ora le trasformate di alcuni segnali elementari, di interesse nello studio di sistemi dinamici.
Proprietà 2.14 (Gradino unitario) Sia δ−1 (t) la funzione gradino unitario:
0 t<0
,
δ−1 (t) =
1 t≥0
(2.109)
la sua trasformata di Laplace e la corrispondente ascissa di convergenza α sono date da:
L[δ−1 (t)] =
1
,
s
α = 0.
(2.110)
Dimostrazione
L [δ−1 (t)]
=
Z
∞
0−
e
−st
e −st
dt = −
s
∞
0−
=−
1
1
lim e −st − lim e −st = ,
t→0
s t→∞
s
Re(s) > 0.
⊓
⊔
Proprietà 2.15 (Rampa unitaria) Sia δ−2 (t) una rampa con pendenza unitaria:
0 t<0
δ−2 (t) =
,
t t≥0
(2.111)
la sua trasformata di Laplace e la corrispondente ascissa di convergenza sono:
L [δ−2 (t)] =
1
,
s2
α = 0.
(2.112)
Dimostrazione Si ottiene facilmente a partire dalla trasformata di un gradino, applicando la proprietà (2.10) di
trasformazione di un integrale. Si noti che δ−2 (t) = tδ−1 (t). Si noti inoltre che per il calcolo della trasformata
(2.112) si potrebbe applicare anche la proprietà 2.13, riscritta come:
L [tu(t)] = −
d
U (s).
ds
(2.113)
⊓
⊔
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-63
Proprietà 2.16 (Segnale esponenziale) Sia u(t) un segnale esponenziale con costante a positiva:
0
t<0
u(t) =
,
e at t ≥ 0
(2.114)
la sua trasformata di Laplace ed ascissa di convergenza sono:
L[e at δ−1 (t)] =
1
,
s−a
α = a.
(2.115)
Dimostrazione Innanzitutto, si noti che la funzione u(t) definita sopra coincide con la funzione e at δ−1 (t). Data
una generica funzione del tempo f (t), la notazione f (t)δ−1 (t) è usata per indicare il fatto che la funzione in
esame è nulla per tempi negativi.
∞
Z ∞
at
e −(s−a)t
at −st
e e
dt = −
L e δ−1 (t) =
=
s − a 0−
0−
1
1 lim e −(s−a)t − lim e −(s−a)t =
, Re(s) > a.
= −
t→0
s − a t→∞
s−a
Si ponga attenzione alla affermazione, implicita nella dimostrazione precedente:
⊓
⊔
lim e −(s−a)t = 0.
t→∞
È importante capire se tale limite vale sempre, e in particolare se vale, o meno, per ogni valore della costante
reale a e della variabile complesssa s.
Proprietà 2.17 (Segnale sinusoidale) Sia u(t) un segnale sinusoidale con pulsazione ω: u(t) = sin(ωt). La
sua trasformata di Laplace ed ascissa di convergenza sono:
L[sin(ωt)δ−1 (t)] =
s2
ω
,
+ ω2
α = 0.
(2.116)
La dimostrazione di questa proprietà è lasciata per esercizio.
A scopo esemplificativo, la tabella 2.2 raccoglie le trasformate dirette ed inverse di alcune funzioni di uso
comune. Di norma, tali trasformate si ottengono facilmente a partire da quelle riportate sopra, tramite le
proprietà descritte in precedenza.
2.3.3
Alcuni teoremi
Nello studio dei sistemi dinamici sono utili alcuni teoremi sui legami tra i valori limite di un segnale del
tempo e della corrispondente trasformata di Laplace.
Teorema 2.3 (Valore finale) Sia u(t) una funzione del tempo, con trasformata U (s). Allora, il limite per t
che tende ad infinito di tale funzione, se esiste ed è finito, è dato da:
lim u(t) = lim sU (s).
t→∞
s→0+
(2.117)
Si noti che il teorema è applicabile solo se il punto s = 0 è interno alla regione di convergenza, cioè solo se
l’ascissa di convergenza è nel semipiano complesso sinistro. In effetti, l’esistenza del limite di interesse, cioè
limt→∞ u(t), garantisce tale posizione dell’ascissa di convergenza (e viceversa).
A titolo di esempio, per sottolineare l’importanza del commento precedente, si consideri la funzione u(t) =
sin(ωt). Ad una prima analisi superficiale potrebbe apparire:
lim sin(ωt) = lim s
t→∞
s→0+
ω
= 0,
s2 + ω 2
mentre, come ben noto, tale limite nel dominio del tempo non esiste.
(2.118)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-64
Teorema 2.4 (Valore iniziale) Sia u(t) una funzione del tempo con trasformata U (s). Allora il valore iniziale
per t che tende a zero da destra di tale funzione, se esiste ed è finito, è dato da:
lim u(t) = lim sU (s).
(2.119)
s→∞
t→0+
Teorema R2.5 (Valore dell’integrale) Sia u(t) una funzione del tempo, con trasformata U (s). Allora, se
∞
l’integrale 0 u(t)dt esiste, il suo valore è dato da:
Z
∞
u(t)dt = lim U (s).
2.3.4
(2.120)
s→0
0
Esponenziale di matrice, forme esplicite e matrice di trasferimento per sistemi LSTC
Si consideri il sistema dinamico:
ẋ = Ax,
x(0) = x0 .
(2.121)
È noto che la soluzione di tale equazione differenziale omogenea, cioè la risposta libera nello stato, è descritta
dall’esponenziale di matrice:
x(t) = e At x0 , t ∈ R+ .
(2.122)
Per il calcolo dell’esponenziale di matrice e At si può far uso alla trasformata di Laplace. Infatti, per la
proprietà della trasformata di una funzione derivata, il sistema precedente, nel dominio di Laplace, può essere
scritto come:
sX(s) − x(0) = AX(s),
(2.123)
da cui segue facilmente:
(sI − A)X(s) = x(0).
(2.124)
Nel campo delle funzioni razionali (e non, si badi bene, nel campo dei reali o dei complessi), la matrice
(sI − A) è non singolare, infatti il suo determinante è il polinomio caratteristico del sistema, per cui l’equazione
precedente può essere risolta rispetto alla trasformata dello stato, trovando:
X(s) = (sI − A)−1 x(0),
(2.125)
x(t) = L−1 (sI − A)−1 x(0),
(2.126)
e At = L−1 (sI − A)−1 .
(2.127)
da cui, antitrasformando, segue:
e quindi, dal confronto con (2.122), segue:
Per quanto riguarda invece l’analisi di un sistema lineare a tempo continuo, il metodo della trasformata di
Laplace consente di determinare in modo semplice il legame ingresso-uscita, e cioè la matrice di trasferimento,
di tale sistema. Si consideri allora il sistema:
ẋ =
y =
Ax + Bu,
Cx + Du,
x ∈ Rn , u ∈ Rm ,
y ∈ Rp .
(2.128a)
(2.128b)
AX(s) + BU (s)
CX(s) + DU (s),
(2.129a)
(2.129b)
Nel dominio di Laplace il sistema è quindi descritto da:
sX(s) − x(0) =
Y (s) =
e quindi, tenendo conto della non-singolarità della matrice (sI − A) nel campo delle funzioni razionali, si trova:
X(s) =
Y (s)
=
(sI − A)−1 BU (s) + (sI − A)−1 x(0),
−1
C(sI − A)
(2.130a)
−1
BU (s) + DU (s) + C(sI − A)
x(0).
(2.130b)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-65
Le due equazioni (2.130) descrivono completamente il sistema: la (2.130a) la risposta completa nello stato,
la (2.130b) la risposta completa in uscita.
I termini delle (2.130) che descrivono l’effetto delle condizioni iniziali sullo stato e sull’uscita sono dette
risposte libere, nello stato e nell’uscita, rispettivamente:
Xℓ (s) = (sI − A)−1 x(0),
Yℓ (s) = C(sI − A)−1 x(0)
(2.131a)
(2.131b)
mentre i termini che descrivono l’effetto del segnale (vettoriale) di ingresso sullo stato e sull’uscita sono dette
risposte forzate, nello stato e nell’uscita, rispettivamente:
Xf (s) = (sI − A)−1 BU (s),
Yf (s) = C(sI − A)−1 BU (s) + DU (s).
(2.132a)
(2.132b)
Infine, la matrice di funzioni razionali
W (s) = C(sI − A)−1 B + D,
(2.133)
che descrive completamente il legame tra il segnale di ingresso e quello di uscita (nel caso di condizioni iniziali
nulle), è detta matrice di trasferimento del sistema. Nel caso in cui sia il segnale di ingresso che quello di uscita
siano scalari, e cioè nel caso m = 1 e p = 1, si parla di funzione di trasferimento.
2.3.5
Antitrasformata di funzioni razionali proprie
Il legame ingresso-uscita di un sistema lineare stazionario a tempo continuo è rappresentabile con una matrice
di funzioni razionali proprie nella variabile s. Tenendo conto della forma della trasformata di segnali esponenziali
e polinomiali, anche la corrispondente risposta forzata in uscita è descritta da una funzione razionale. È quindi
di notevole importanza vedere come antitrasformare una funzione razionale.
Si consideri allora la seguente funzione Y (s), propria e con denominatore monico:
Y (s) =
βn sn + βn−1 sn−1 + · · · + β1 s + β0
,
sn + αn−1 sn−1 + · · · + α1 s + α0
(2.134)
e si assuma, per semplicità, che le radici del denominatore siano tutte distinte (e complesse coniugate a coppia,
se non reali), cioè:
n
Y
(s − pi ), pi 6= pj , i 6= j.
(2.135)
sn + αn−1 sn−1 + · · · + α1 s + α0 =
i=1
Per ben noti risultati sulle funzioni razionali, la funzione Y (s) può essere scomposta in frazioni parziali
(detto anche sviluppo di Heaviside):
Y (s) = R0 +
R1
R2
Rn
+
+ ··· +
,
s − p1
s − p2
s − pn
(2.136)
con R0 = lims→∞ Y (s) ed inoltre Ri = lims→pi (s − pi )Y (s), per il teorema dei residui. Il calcolo dei residui Ri ,
i = 1, 2, . . . , n, può essere verificato in modo immediato. Infatti dalla (2.135) si ha, per il generico residuo Ri :
(s − pi )Y (s) = (s − pi )R0 + (s − pi )
n
Y
j=1
j 6= i
Rj
+ Ri
s − pj
(2.137)
A partire dalla scomposizione in frazioni parziali (2.136), tenendo conto della proprietà di linearità (2.12) e
delle trasformate di segnali elementari, si vede immediatamente che il segnale y(t) è dato da:
y(t) = R0 δ(t) + R1 e p1 t + R2 e p2 t + · · · + Rn e pn t .
(2.138)
Nel caso in cui alcuni degli zeri del denominatore della funzione razionale da anti-trasformare, (cioè alcuni
poli della funzione), abbiano molteplicità maggiore di uno, il procedimento è analogo, salvo la forma della
espansione in frazioni parziali ed il calcolo dei residui.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-66
Sia allora W (s) una generica funzione razionale propria,
W (s) =
βn sn + βn−1 sn−1 + · · · + β1 s + β0
.
sn + αn−1 sn−1 + · · · + α1 s + α0
(2.139)
W (s) può essere espansa in frazioni parziali nella forma:
W (s) = R0 +
qi
r X
X
i=1 j=1
Ri,j
,
(s − pi )j
(2.140)
dove r indica il numero di zeri distinti del denominatore della W (s), qi indica la molteplicità di pi come zero di
tale denominatore, R0 indica il legame diretto, cioè R0 = lims→∞ W (s), ed il generico residuo Ri,j è calcolato
come:
dqi −j
1
qi
.
(2.141)
W
(s)]
[(s
−
p
)
Ri,j = lim
i
s→pi
(qi − j)! dsqi −j
In tal caso, tenendo conto delle varie proprietà della trasformata di Laplace, si ha:
−1
w(t) = L
[W (s)] = R0 δ(t) +
qi
r X
X
i=1 j=1
Ri,j
tj−1
e pi t .
(j − 1)!
(2.142)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-67
Funzione del tempo
Trasformata di Laplace
δ(t) (impulso di Dirac)
1
δ−1 (t) (gradino unitario)
1
s
δ−2 (t) = tδ−1 (t) (rampa unitaria)
1
s2
δ−1 (t − a) (gradino unitario con inizio in t = a)
1 −as
e
s
e at (esponenziale)
1
s−a
tn−1
e at (esponenziale polinomiale)
(n − 1)!
1
(s − a)n
sin(ωt) (sinusoide)
s2
ω
+ ω2
cos(ωt) (cosinusoide)
s
s2 + ω 2
p
1
p
e −ζωn t sin(ωn 1 − ζ 2 t)
2
ωn 1 − ζ
s2
e −at cos(ωt)
s+a
(s + a)2 + ω 2
e −at sin(ωt)
ω
(s + a)2 + ω 2
ẋ(t)
s X(s) - x(0)
Rt
s−1 X(s)
0
x(τ )dτ
1
(fattore trinomio)
+ 2ζωn s + ωn2
x(t − T ), T > 0
e −sT X(s)
e at x(t)
X(s − a)
Rt
X1 (s)X2 (s)
0
x1 (t − τ )x2 (τ )dτ
tx(t)
−
d
X(s) (derivata nel dominio di s)
ds
Tabella 2.2: Trasformate ed antitrasformate di Laplace di uso comune
Capitolo 2: Analisi sistemi LSTC
2.3.6
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-68
Esercizi svolti sulla trasformata di Laplace
Esercizio 2.6 Si considerino le funzioni ξ1 (t) = e t x1 (0), ξ2 (t) = e −t x2 (0), con valore iniziale x1 (0) = x1,0 6= 0
e x2 (0) = x2,0 6= 0, e si definisca la seguente funzione:
y(t) = (1 + t)ξ1 (t)δ−1 (t) + t2 ξ2 (t − 1)δ−1 (t − 1),
t ∈ R,
dove δ−1 (·) è la funzione gradino unitario. Calcolare la trasformata di Laplace della y(t).
Soluzione La trasformata della funzione y(t) si può calcolare usando le proprietà enunciate in precedenza, e
facendo uso delle trasformate notevoli riportate in tabella.
Si introducano le funzioni y1 (t) = e t x1,0 δ−1 (t) e y2 (t) = e −t x2,0 δ−1 (t). Il termine (1 + t)ξ1 (t)δ−1 (t) può
allora essere riscritto come:
(1 + t)ξ1 (t)δ−1 (t) = (1 + t)y1 (t),
mentre il secondo termine, tenendo conto che t2 = (t − 1)2 + 2(t − 1) + 1, può essere riscritto come:
t2 ξ2 (t − 1)δ−1 (t − 1) = (t − 1)2 y2 (t − 1) + 2(t − 1)y2 (t − 1) + y2 (t − 1).
La funzione di interesse è quindi:
y(t) = (1 + t)y1 (t) + (t − 1)2 y2 (t − 1) + 2(t − 1)y2 (t − 1) + y2 (t − 1).
Dalle trasformate notevoli segue facilmente che:
Y1 (s) =
Y2 (s) =
x1,0
,
s−1
x2,0
.
L[y2 (t)] =
s+1
L[y1 (t)] =
Inoltre, tenendo conto della forma della trasformata della funzione esponenziale-polinomiale, si ha:
x1,0
,
L[ty1 (t)] =
(s − 1)2
x2,0
L[ty2 (t)] =
,
(s + 1)2
2x1,0
L[t2 y1 (t)] =
,
(s + 1)3
ed infine, tenendo conto della trasformata di una funzione traslata, si trova:
x2,0
L[y2 (t − 1)] = e −s
,
(s + 1)
x2,0
,
L[(t − 1)y2 (t − 1)] = e −s
(s + 1)2
2x1,0
L[(t − 1)2 y1 (t − 1)] = e −s
.
(s + 1)3
Complessivamente quindi, per linearità, la trasformata di Laplace della funzione y(t) è pari a:
L[y(t)] =
x2,0
2x1,0
x1,0
x2,0
x1,0
+ e −s
+ e −s
.
+
+ e −s
s − 1 (s − 1)2
(s + 1)
(s + 1)2
(s + 1)3
Esercizio 2.7 Calcolare le trasformate di Laplace delle seguenti tre funzioni del tempo:
α(t+1)
e
t ≥ 0,
x1 (t) =
0
t < 0,
α(t−1)
e
t ≥ 1,
x2 (t) =
0
t < 1,
α(t−1)
e
t ≥ 0,
x3 (t) =
0
t < 0.
Discutere le differenze fra le varie trasformate.
(2.143)
♦
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-69
Soluzione. Ci si limita a calcolare la trasformata della funzione x1 (t). Il calcolo delle altre due trasformate
viene lasciato per esercizio. Si noti che gli intervalli di tempo in cui le due funzioni x2 (t) ed x3 (t) sono non nulle
non coincidono.
Per quanto riguarda la funzione x1 (t) si trova facilmente:
= L[e α(t+1) ] = L[e α e αt ]
1
= e α L[e αt ] = e α
.
s−α
L[x1 (t)]
♦
Esercizio 2.8 Calcolare la trasformata di Laplace delle seguenti funzioni:

t ∈ R, t < 0,
 0,
sin(2πt), t ∈ R, 1/2 ≥ t ≥ 0,
y(t) =

0,
t ∈ R, t > 1/2,
e

 0,
|cos(2πt)|,
x(t) =

0,
t ∈ R, t < 0,
t ∈ R, 1 ≥ t ≥ 0,
t ∈ R, t > 1,
dove | · | indica la funzione valore assoluto.
Soluzione. In questo caso ci si limita a considerare la funzione y(t). La trasformata del segnale x(t) può essere
calcolata in modo simile.
Si noti che la funzione in esame, riportata in figura 2.6, è ottenibile combinando opportunamente funzione
sinusoidali troncate (cioè, moltiplicate per un gradino) ed opportunamente traslate nel tempo.
Grafico della funzione u(t)
1.2
1
0.8
0.6
0.4
0.2
0
−0.2
0
0.2
0.4
0.6
0.8
1
Tempo
1.2
1.4
1.6
1.8
2
Figura 2.6: Esercizio (2.8): funzione y(t)
In particolare, la funzione è ottenibile sommando alla funzione seno (troncata) la stessa funzione traslata in
avanti di un semiperiodo. Sia y1 (t) = sin(2πt)δ−1 (t) la funzione seno troncata, allora è facile vedere che
y(t) = y1 (t) + y1 (t − 1/2).
(2.144)
Per quanto riguarda la trasformata di Laplace si ottiene allora, usando, nell’ordine, la proprietà di linearita, la
regola per il calcolo della trasformata di una funzione traslata e la trasformata della funzione seno:
L[y(t)] =
=
=
L[y1 (t)] + L[y1 (t − 1/2)]
(1 + e −s/2 )L[y1 (t)]
2π
.
(1 + e −s/2 ) 2
(s + 4π 2 )
♦
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-70
Esercizio 2.9 Calcolare la funzione antitrasformata di Laplace delle seguenti funzioni:
X1 (s) =
X2 (s) =
X3 (s) =
X4 (s) =
4
,
(s − 2)
5
,
(s − 2)(s + 3)
1
,
(s − 2)2
1
,
(s2 − 4)2
Soluzione. L’antitrasformata della funzione X1 (s) è immediata:
4
= 4e 2t , t ∈ R+ .
L−1
(s − 2)
Per antitrasformare la funzione X2 (s) conviene effettuare prima l’espansione in frazioni parziali:
X2 (s) =
5
1
1
=
−
,
(s − 2)(s + 3)
(s − 2) (s + 3)
tenendo conto che i residui sono R1 = lims→2 (s − 2)X2 (s) = lims→2
= lims→−3
5
= 1, ed R2 = lims→−3 (s + 3)X2 (s)
(s + 3)
5
= −1. La funzione antitrasformata è quindi:
(s − 2)
1
1
−1
−1
L [X2 (s)] = L
−
(s − 2) (s + 3)
=
e 2t − e −3t .
L’antitrasformata della funzione X3 (s) è ancora immediata:
1
−1
−1
= te 2t ,
L [X3 (s)] = L
(s − 2)2
t ∈ R+ .
Infine, per antitrasformare la funzione X4 (s) conviene espandere in frazioni parziali, tenendo conto della
presenza di poli con molteplicità maggiore di uno. Basandosi sulle relazioni (2.141) si trova:
X4 (s) =
con
R1,2
R1,1
R2,2
R2,1
R1,1
R2,1
R1,2
R2,2
+
,
+
+
(s − 2) (s − 2)2
(s + 2) (s + 2)2
(2.145)
1
1
=
,
(s + 2)2
16
1
−2
1
d
d 2
= lim
(s − 2) X4 (s) = lim
=− ,
= lim
s→2 (s + 2)3
s→2 ds (s + 2)2
s→2 ds
32
1
1
= lim (s + 2)2 X4 (s) = lim
=
,
s→−2
s→−2 (s − 2)2
16
d 1
1
−2
d
= lim
= lim
(s + 2)2 X4 (s) = lim
=
.
2
3
s→−2 ds
s→−2 (s − 2)
s→−2 ds (s − 2)
32
=
lim (s − 2)2 X4 (s) = lim
s→2
s→2
Dalle relazioni precedenti segue quindi:
X4 (s)
=
1
1
1
1
1
1
1
1
−
+
+
16 (s − 2)2
32 (s − 2) 16 (s + 2)2
32 (s + 2)
da cui segue immediatamente:
x4 (t) =
1
1
1
1 2t
te − e 2t + te −2t + e −2t , t ∈ R+ .
16
32
16
32
♦
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-71
Esercizio 2.10 Data la seguente matrice

4
 1
B=
 1
1
0
4
0
0
0
0
4
0

0
0 

1 
4
determinare, per mezzo della trasformazione di Laplace, la matrice eBt , t ∈ R+ .
Soluzione. Il calcolo dell’esponenziale di matrice richiede l’inversione della matrice polinomiale:


s−4
0
0
0
 −1 s − 4
0
0 
,
(sI − B) = 
 −1
0
s − 4 −1 
−1
0
0
s−4
(2.146)
che, per la struttura della B, è diagonale a blocchi. In tal caso, nel calcolo dell’inversa si può far uso della
seguente relazione, di immediata dimostrazione:
−1
M1,1
0
M1,1
0
, M −1 =
M=
,
(2.147)
−1
−1
−1
M2,1 M2,2
−M2,2
M2,1 M1,1
M2,2
in cui le matrici M1,1 , M1,2 e M2,2 sono generiche matrici, di dimensioni tra loro compatibili, ed inoltre le
matrici M1,1 ed M2,2 sono nonsingolari.
Facendo uso della regola precedente, l’inversa di interesse si può calcolare ponendo:




s−4
0
0
−1
s − 4 −1  , M2,1 =  −1  .
M1,1 = (s − 4), M2,2 =  0
(2.148)
0
0
s−4
−1
La matrice M2,2 si può invertire precedente allo stesso modo, oppure utilizzando la relazione:
M −1 =
adj(M )
.
det(M )
(2.149)
In ogni caso si trova:
−1
M1,1
1
,
=
(s − 4)
ed inoltre:
−1
M2,2
1
 (s − 4)


0
=


0

−1
−1
M2,2
M2,1 M1,1
per cui la matrice (sI − B)−1 è data da:

−1
(sI − B)
1
(s − 4)
1
(s − 4)2





=
 s−3


 (s − 4)3

1
(s − 4)2




=



1
(s − 4)
1
(s − 4)2
1
(s − 4)
0




,



1
(s − 4)2 

s−3 
,
−

(s − 4)3 

1
−
(s − 4)2
1
(s − 4)
0
0
(2.150)
−
0
0
0
0
(2.151)
0
0
0
1
(s − 4)
1
(s − 4)2
1
(s − 4)
0






.





(2.152)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-72
Si tratta ora di calcolare la trasformata inversa dei vari elementi della matrice. Per il termine
s−3
, ricor(s − 4)3
dando che moltiplicare per s corrisponde a derivare nel tempo, si trova:
s−3
s
−3
d t2 4t
3t2 4t
1
−1
−1
−1
L
=
L
+
L
=
−
e
e = te 4t + t2 e 4t .
(s − 4)3
(s − 4)3
(s − 4)3
dt 2
2
2
(2.153)
La trasformata inversa appena determinata può essere calcolata anche utilizzando il metodo dell’espansione in
frazioni parziali. In questo caso si ha:
F (s) :=
R1
R3
R2
s−3
=
+
,
+
3
2
(s − 4)
(s − 4) (s − 4)
(s − 4)3
(2.154)
con
R3
R2
R1
= (s − 4)3 F (s)|s=4 = (s − 3)|s=4 = 1,
d
(s − 4)3 F (s) |s=4 = 1,
=
ds
d2
(s − 4)3 F (s) |s=4 = 0,
=
2
ds
e quindi la trasformata inversa è semplicemente data da:
1
s−3
−1
= te 4t + t2 e 4t .
L
3
(s − 4)
2
(2.155)
La trasformata inversa degli altri elementi è invece immediata:
1
L−1
= e 4t ,
(s − 4)
1
L−1
= te 4t ,
(s − 4)2
e quindi:
e 4t
te 4t



e Bt = 
 te 4t + 1 t2 e 4t

2
te 4t
0
e 4t
0
0
0
0
0
e 4t
te 4t
0
0
e 4t



.


(2.156)
♦
Esercizio 2.11 Calcolare l’uscita di un sistema dinamico caratterizzato dalla funzione di trasferimento:
W (s) =
2s + 3
,
s3 + 6s2 + 11s + 6
per un segnale di ingresso sinusoidale di pulsazione ω compresa tra 0.1 e 100 rad/sec, ed assumendo condizioni
iniziali nulle.
Soluzione. Il calcolo dell’uscita del sistema in esame si può determinare facilmente, considerando la trasformata della funzione seno, ed espandendo in frazioni parziali il prodotto della funzione di trasferimento per la
trasformata della funzione seno.
La funzione di uscita ha quindi una trasformata di Laplace data da:
Y (s) =
s3
ω
2s + 3
.
2
2
+ 6s + 11s + 6 (s + ω 2 )
(2.157)
Tale trasformata, notando che i poli del sistema sono pari a −1, −2 e −3, può essere riscritta nella forma:
Y (s) =
R1
R2
R3
G1
G2
+
+
+
+
.
s + 1 s + 2 s + 3 (s − ω) (s + ω)
(2.158)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-73
I due residui relativi alla coppia di poli immaginari complessi coniugati ±ω sono anch’essi complessi coniugati,
e possono quindi essere scritti, in termini di modulo e fase, come
G1 =
G2 = −
1
Mω e ϕω
2
1
Mω e −ϕω .
2
Con questa notazione, i due termini dell’espansione in frazioni parziali relativi al segnale di ingresso divengono:
G1
G2
Mω e ϕω
Mω e −ϕω
+
=
+
(s − ω) (s + ω)
2(s − ω) 2(s + ω)
(2.159)
e quindi la loro trasformata inversa è data da:
ricordando che
1
Mω e ωt e ϕω − e −ωt e −ϕω = Mω sin(ωt + ϕω ),
2
sin(α) =
1
e α − e −α .
2
(2.160)
(2.161)
Complessivamente quindi, il segnale di uscita è descritto dalla funzione:
y(t) = R1 e −t + R2 e −2t + R3 e −3t + Mω sin(ωt + ϕω ).
(2.162)
Capitolo 2: Analisi sistemi LSTC
2.4
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-74
Analisi modale per sistemi LSTC: approccio nel dominio di
Laplace
In questa sezione viene presentato un approccio nel dominio di Laplace per l’analisi modale di un sistema
lineare a tempo continuo.
Si consideri il sistema dinamico:
ẋ = Ax, x(0) = x0 .
(2.163)
È noto (si veda la sezione 2.3.4) che la soluzione di tale equazione differenziale omogenea, cioè la risposta
libera nello stato, è descritta dall’esponenziale di matrice:
x(t) = e At x0 ,
t ∈ R+ .
(2.164)
Per il calcolo dell’esponenziale di matrice e At si può ricorrere alla trasformata di Laplace. Infatti, per la
proprietà della trasformata di una funzione derivata, il sistema precedente, nel dominio di Laplace, può essere
scritto come:
sX(s) − x(0) = AX(s),
(2.165)
da cui segue facilmente:
(sI − A)X(s) = x(0),
(2.166)
X(s) = (sI − A)−1 x(0),
(2.167)
e quindi
da cui, per confronto con l’equazione (2.164), segue immediatamente:
e At = L−1 (sI − A)−1
(2.168)
Per determinare la forma assunta nel dominio del tempo dall’esponenziale di matrice a partire dalla sua
rappresentazione nel dominio di Laplace, conviene ricordare la seguente espressione per l’inversa di una matrice
M data:
adj (M )
M −1 =
,
(2.169)
det(M )
da cui segue:
(sI − A)−1 =
adj (sI − A)
.
det(sI − A)
(2.170)
L’esponenziale di matrice nel dominio di Laplace ha alcune proprietà che saranno utili per trattare in modo
completo l’analisi modale:
Proprietà 2.18 Gli elementi della matrice (sI − A)−1 sono funzioni razionali strettamente proprie, poiché
adj (sI − A) è una matrice polinomiale.
Proprietà 2.19 Le radici del denominatore di ciascun elemento della matrice (sI − A) sono un sottoinsieme
delle radici del polinomio det(sI − A), e quindi sono un sottoinsieme degli autovalori della matrice A.
Proprietà 2.20 Ciascun autovalore della matrice A è radice del denominatore di almeno un elemento della
matrice (sI − A)−1 .
Per analizzare in dettaglio il comportamento della risposta libera di un sistema lineare a tempo continuo, è
bene esaminare inizialmente alcuni casi particolari.
2.4.1
Il caso di autovalori distinti
Si consideri inizialmente il caso di un sistema con tutti gli autovalori distinti, e quindi il caso in cui il
denominatore della matrice esponenziale nel dominio di Laplace abbia tutte le radici del suo denominatore
distinte. In tale caso si può porre:
det(sI − A) =
n
Y
i=1
(s − λi ),
λi 6= λj , i 6= j,
(2.171)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-75
ove n indica l’ordine del sistema, e quindi il numero dei suoi autovalori.
n (s)
Sia p(s) = dpp(s) un generico elemento della matrice (sI − A)−1 , dopo eventuali cancellazioni di termini comuni numeratore/denominatore. La corrispondente antitrasformata, e cioè il corrispondente elemento
dell’esponenziale di matrice, si può ottenere facilmente tramite espansione
in frazioni parziali.
Qm
Tenendo conto dell’ipotesi di autovalori distinti, si ha dp (s) = i=1 (s − λi ), (ove m ≤ n, perché possono
esservi cancellazioni) e quindi la seguente espansione in frazioni parziali6 :
R1
R2
Rm
np (s)
=
+
+ ···+
s − λ1
s − λ2
s − λm
i=1 (s − λi )
p(s) = Qm
(2.172)
cui corrisponde, nel dominio del tempo, la funzione:
p(t) = R1 e λ1 t + R2 e λ2 t + · · · + Rm e λm t
(2.173)
La singola funzione esponenziale e λi t è detta modo naturale associato all’autovalore λi , e descrive appunto il
comportamento naturale del sistema, cioè il comportamento proprio, specifico del sistema, indipendentemente
dalla sollecitazione eventualmente esercitata dall’ambiente esterno tramite il segnale di ingresso.
Gli elementi della matrice esponenziale sono quindi costituiti da combinazioni lineari di modi naturali,
ciascun modo associato ad un diverso autovalore, ed i coefficienti della combinazioni lineare sono i residui
dell’espansione in frazioni parziali dell’elemento stesso.
È importante esaminare con maggior dettaglio il caso in cui tra i valori autovalori vi siano coppie complesse
coniugate (è ben noto che non vi possono essere autovalori complessi non “accompagnati” dal corrispondente
coniugato). Siano quindi λi = σ + ω e λj = λ∗i = σ − ω due autovalori complessi coniugati. I termini
corrispondenti dell’espansione in frazioni parziali sono dati da:
Rj
Ri
Ri∗
Ri
+
=
+
,
s − λi
s − λj
s − λi
s − λ∗i
(2.174)
poiché ad autovalori coniugati corrispondono residui coniugati. Nel dominio del tempo, indicando con Ri =
1
ϕi
il residuo, il suo modulo e la sua fase, si ottiene quindi:
2 Mi e
Ri
Ri∗
1
1
L−1
+
= Mi e ϕi e σi t e ωt + Mi e −ϕi e σi t e −ωt
(2.175)
s − λi
s − λ∗i
2
2
cui corrisponde la funzione reale
Mi e σi t cos(ωt + ϕi ).
(2.176)
Ad una coppia di autovalori complessi coniugati è quindi associata una funzione pseudo-periodica esponenzialecosinusoidale, con pulsazione pari alla parte immaginaria dell’autovalore e parametro del termine esponenziale
pari alla parte reale dell’autovalore.
È ben noto che la funzione cos(ωt + ϕi ) può essere ottenuta per combinazione lineare delle funzioni di base
cos(ωt) e sin(ωt), e è quindi evidente che sono sempre presenti, per ciascun coppia di autovalori complessi
coniugati, sia la funzione cosinusoidale e σi t cos(ωt) che la sua ortogonale sinusoidale e σi t sin(ωt). In altre
parole, alla coppia di autovalori complessi coniugati λi e λ∗i sono associati i due modi naturali reali e σi t sin(ωt)
e e σi t sin(ωt).
Esempio 2.1 (Sistema con autovalori reali) Si consideri il sistema dinamico planare
0 1
ẋ =
x,
2 −1
(2.177)
il cui polinomio caratteristico è dato da det(sI − A) = λ2 + λ − 2 = (λ + 2)(λ − 1), ed i cui autovalori sono
quindi λ1 = 1 e λ2 = −2. I modi naturali associati sono quindi le due funzioni esponenziali pure e t ed e −2t .
Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Laplace.
Seguendo la traccia delineata sopra, e ricordando le regole per l’espansione in frazioni parziali, si ottiene:
s
−1
s+1 1
(sI − A) =
,
adj (sI − A) =
, det(sI − A) = s2 + s − 2
(2.178)
−2 s + 1
2
s
6 Si noti che il termine R non è presente, poiché tutti gli elementi della matrice sI − A sono funzioni razionali strettamente
0
proprie
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-76
e quindi
(sI − A)−1

1
s2 + s − 2 
.

s
s+1
 s2 + s − 2
=

2

s2 + s − 2
(2.179)
s2 + s − 2
Espandendo in frazioni parziali il primo elemento della matrice si trova:
m1,1 (s) =
2 1
1 1
s+1
=
+
s2 + s − 2
3s−1 3s+2
(2.180)
e quindi, per il corrispondente elemento dell’esponenziale di matrice, si ha:
m1,1 (t) =
2 t 1 −2t
e + e
.
3
3
(2.181)
Procedendo in modo analogo per gli altri elementi si trova la seguente matrice esponenziale a tempo continuo:
e At
2 t 1 −2t
e + e
 3
3

=
2 t 2 −2t
e − e
3
3


1 t 1 −2t
e − e

3
3
,
1 t 2 −2t 
e + e
3
3
(2.182)
che, come è immediato vedere, è costituita da combinazioni lineari dei due modi naturali già individuati sulla
base della semplice analisi degli autovalori.
♦
Esempio 2.2 (Sistema con autovalori complessi) Si consideri il sistema dinamico planare
ẋ =
−1 2
−2 −1
x,
(2.183)
il cui polinomio caratteristico è dato da det(sI − A) = (λ + 1)2 + 4 = λ2 + 2λ + 5 = (λ + 1 − 2)(λ + 1 + 2), ed
i cui autovalori sono quindi λ1 = −1 − 2 e λ2 = −1 + 2. I modi naturali associati sono quindi le due funzioni
esponenziali-cosinusoiali e −t cos(2t) ed e −t sin(2t).
Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Laplace.
s + 1 −2
s+1
2
(sI − A) =
,
adj (sI − A) =
, det(sI − A) = (s + 1)2 + 4
(2.184)
2
s+1
−2 s + 1
e quindi
(sI − A)−1
s+1
 (s + 1)2 + 4
=

−2

(s + 1)2 + 4

2
2
(s + 1) + 4 
.

s
(2.185)
(s + 1)2 + 4
Ricordando le trasformate di segnali notevoli, per i vari elementi della matrice esponenziale si trova facilmente:
s+1
2
−1
−t
−1
L
= e cos(2t), L
= e −t sin(2t),
(2.186)
(s + 1)2 + 4
(s + 1)2 + 4
e quindi la matrice esponenziale, nel dominio del tempo, è data da:
 −t

e cos(2t) e −t sin(2t)
,
e At = 
−t
−t
−e sin(2t) e cos(2t)
(2.187)
che, come è immediato vedere, è costituita da combinazioni lineari (in questo caso banali) dei due modi naturali
già individuati sulla base della semplice analisi degli autovalori.
♦
Capitolo 2: Analisi sistemi LSTC
2.4.2
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-77
Il caso di autovalori qualsiasi
Si passi ora ad esaminare il caso di un sistema dinamico con autovalori comunque piazzati nel piano complesso
(salvo, ovviamente, il vincolo della chiusura rispetto alla coniugazione complessa).
In tal caso il polinomio caratteristico può essere fattorizzato nella forma:
det(sI − A) =
r
Y
(s − λi )ni ,
i=1
r
X
ni = n
(2.188)
i=1
ove l’intero r indica il numero di autovalori distinti ed il generico intero ni indica la molteplicita dell’autovalore
λi . La molteplicità di un autovalore come radice del polinomio caratteristico è detta molteplictà algebrica
dell’autovalore.
Nel caso generale quindi, in virtù della forma (2.188) del polinomio caratteristico, l’esponenziale di matrice
nel dominio di Laplace è costituita da funzioni razionali che possono avere radici del denominatore di molteplicità
maggiore di uno.
Sia m(s) il minimo comune denominatore degli elementi di Exp(A, L), matrice di funzioni razionali. Esso
può essere fattorizzato nella forma:
m(s) =
r
Y
i=1
(s − λi )mi ,
1 ≤ mi ≤ n i .
(2.189)
In merito a tale fattorizzazione, è importante notare come 1) ogni autovalore (cioè, ogni radice di det(sI − A))
compare come radice di tale polinomio; 2) la molteplicità mi di ciascun autovalore come radice del polinomio
in (2.189) può essere minore della molteplicità algebrica.
Il polinomio m(s) è detto polinomio minimo del sistema, e la molteplicità mi dell’autovalore λi come radice
di m(s) è detta molteplicità come radice del polinomio minimo.
Si consideri ora la forma dell’esponenziale di matrice nel dominio del tempo, nel caso generale in esame. Sia
p(s) = np (s)/dp (s) il generico elemento della matrice (sI − A)−1 . Ricordando la forma della trasformata inversa
di una funzione razionale si ottiene, per un qualche intero q e per un opportuno ordinamento degli autovalori:
Rq,mq
R1,1
Rq,1
R1,m1
np (s)
=
+ +···+
+ ··· +
+ ··· +
p(s) = Q
m
m
i
1
(s − λi )
(s − λ1 )
(s − λ1 )
(s − λq )
(s − λq )mq
(2.190)
dove i q autovalori sono un sottoinsieme degli autovalori del sistema. Tenendo conto di tale forma dell’espansione
in frazioni parziali ed antitrasformando nel dominio del tempo si trova il generico elemento dell’esponenziale di
matrice:
p(t) = R1,1 e λ1 t + · · · +
Rq,mq mq −1 λq t
R1,m1 m1 −1 λ1 t
t
e
+ · · · + Rq,1 e λq t + · · · +
t
e .
(m1 − 1)!
(mq − 1)!
(2.191)
Gli elementi della matrice esponenziale sono quindi composti da combinazioni lineari di funzioni polinomialeesponenziale del tipo:
tµ e λt
(2.192)
in cui la potenza µ del termine polinomiale varia tra zero e la molteplicità meno uno del corrispondente autovalore
come radice del polinomio minimo.
Analogamente a quanto già visto nel caso di autovalori distinti, nel caso di coppie di autovalori complessi
coniugati λ = σ + ω, di molteplicità arbitraria m, si ottengono modi naturali costituiti da funzioni del tipo:
tµ e σt cos(ωt),
tµ e σt sin(ωt),
(2.193)
con la potenza µ del termine polinomiale compresa tra zero ed m − 1.
Le funzioni (2.192) sono i modi naturali associati ad autovalori reali di molteplicità maggiore di uno.
Le funzioni (2.193) sono i modi naturali reali associati ad autovalori complessi coniugati di molteplicità
maggiore di uno.
Riepilogando, ad ogni autovalore, reale o complesso, semplice o con moltiplicità maggiore di uno, possono
essere associati modi naturali di forma determinata solo dalla posizione dall’autovalore stesso nel piano complesso
ed in numero pari alla molteplicità dell’autovalore come radice del polinomio minimo.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-78
Esempio 2.3 (Sistema planare con molteplicità non unitaria) Si consideri il sistema dinamico planare
−1 1
ẋ =
x.
(2.194)
0 −1
il cui polinomio caratteristico è dato da det(sI−A) = (λ+1)2 , ed i cui autovalori sono quindi λ = −1, molteplicità
algebrica pari a due. I modi naturali associati potrebbero essere quindi le due funzioni esponenziali-polinomiale
e −t ed te −t , in dipendenza della molteplicità dell’autovalore nel polinomio minimo.
Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Laplace.
s + 1 −1
s+1
1
(sI − A) =
,
adj (sI − A) =
, det(sI − A) = s2 + 2s + 1
(2.195)
0
s+1
0
s+1
e quindi
(sI − A)−1
s+1
 (s + 1)2
=

0

 
1
1
2
(s + 1)   (s + 1)
=
s+1  
0
(s + 1)2

1
(s + 1)2 
.

1
(2.196)
(s + 1)
Come si vede, in questo caso nel calcolo dell’esponenziale nel dominio di Laplace vi sono delle cancellazioni
polo/zero in alcuni termini. Il polinomio minimo, è immediato vedere, coincide con il polinomio caratteristico, e
quindi i modi naturali sono dati sia dalla funzione esponenziale pura che dalla funzione esponenziale polinomiale.
Ricordando le trasformate di segnali notevoli, per i vari elementi della matrice esponenziale si trova facilmente:
1
1
−1
−t
−1
= e −t ,
(2.197)
L
= te , L
(s + 1)2
(s + 1)
e quindi la matrice esponenziale, nel dominio del tempo, è data da:
 −t

e
te −t
,
e At = 
0
e −t
(2.198)
che, come è immediato vedere, è costituita da combinazioni lineari dei due modi naturali già individuati sulla
base dell’analisi degli autovalori e del polinomio minimo.
♦
Esempio 2.4 Si consideri il sistema dinamico planare
−1 0
ẋ =
x,
0 −1
(2.199)
il cui polinomio caratteristico è dato da det(sI − A) = (λ + 1)2 , ed i cui autovalori sono quindi λ = −1,
molteplicità algebrica pari a due. Si noti come il polinomio caratteristico, e quindi gli autovalori e la loro
molteplicità algebrica, siano del tutto identici all’esempio precedente. I modi naturali associati potrebbero
quindi essere le due funzioni esponenziali-polinomiale e −t ed te −t , o la sola funzione esponenziale e −t .
Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Laplace.
s+1
0
s+1
0
(sI − A) =
,
adj (sI − A) =
, det(sI − A) = s2 + 2s + 1
(2.200)
0
s+1
0
s+1
e quindi
(sI − A)−1
s+1
 (s + 1)2
=

0

0
s+1
(s + 1)2
1
  (s + 1)
=
 
0


0
1
(s + 1)


.

(2.201)
Come si vede, in questo caso nel calcolo dell’esponenziale nel dominio di Laplace vi sono delle cancellazioni
polo/zero in alcuni termini. Il polinomio minimo, è immediato vedere, in questo caso non coincide con il
polinomio caratteristico, ed dato da: m(s) = (s + 1). L’autovalore ha quindi molteplicità unitaria nel polinomio
minimo. Ciò implica che il sistema ha un solo modo naturale, dato dalla funzione esponenziale pura e −t .
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-79
Ricordando le trasformate di segnali notevoli, per l’elemento significativo della matrice esponenziale si trova
facilmente:
1
−1
= e −t ,
L
(2.202)
(s + 1)
e quindi la matrice esponenziale, nel dominio del tempo, è data da:
 −t

e
0
,
e At = 
−t
0
e
(2.203)
che, come è immediato vedere, contiene solo il modo naturale già individuato sulla base dell’analisi degli autovalori e del polinomio minimo.
♦
Si consiglia al lettore di svolgere i due esercizi seguenti, che saranno particolarmente utili nello studio di
condizioni di stabilità, nel seguito.
Esercizio 2.12 Si consideri il sistema dinamico planare
0 1
ẋ =
x,
0 0
e si conduca l’analisi modale.
Esercizio 2.13 Si consideri il sistema dinamico planare
0 0
ẋ =
x,
0 0
e si conduca l’analisi modale.
(2.204)
▽
(2.205)
▽
Capitolo 2: Analisi sistemi LSTC
2.5
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-80
Analisi del comportamento ingresso-uscita per sistemi LSTC
In questa sezione si studierà il problema del calcolo della risposta in uscita di un sistema dinamico ad un
segnale u(·) applicato in ingresso, secondo lo schema di principio in figura 2.7.
Ingresso u(·) (noto)
✲
Uscita y(·) =?
✲
Sistema
Figura 2.7: Analisi ingresso-uscita di un sistema dinamico
Il sistema dinamico è descritto da un modello differenziale del tipo seguente
ẋ =
Ax + Bu,
y
Cx + Du,
=
x ∈ Rn , u ∈ Rm ,
y ∈ Rp ,
la cui rappresentazione nel dominio di Laplace, già determinata in precedenza, è data dalla risposta completa
nello stato (comprendente sia la risposta libera Xℓ già studiata con l’analisi modale sia la risposta forzata Xf ):
X(s) = (sI − A)−1 x(0) + (sI − A)−1 BU (s),
X(s) = Xℓ (s) + Xf (s),
Xℓ (s) := (sI − A)−1 x(0),
Xf (s) := (sI − A)−1 BU (s),
e dalla risposta completa in uscita, che può anch’essa essere decomposta nella risposta libera Yℓ ed in quella
forzata Yf (si vedano anche la sezione 2.1 e la sezione 2.3.4)
Y (s)
= C(sI − A)−1 x(0) + [C(sI − A)−1 B + D]U (s),
Y (s)
= Yℓ (s) + Yf (s),
Yℓ (s) = C(sI − A)−1 x(0),
Yf (s) = C(sI − A)−1 BU (s) + DU (s).
Si noti come, dalla linearità dell’operatore trasformata, discenda in modo immediato il principio di sovrapposizione degli effetti: dato un segnale u(·), combinazione lineare di segnali elementari u1 (·) ed u2 (·), la risposta
complessiva in uscita è pari alla somma delle risposte ai singoli segnali elementari:
U (s) = L {u(t)} = L {c1 u1 (·) + c2 u2 (·)} = c1 U1 (s) + c2 U2 (s)
Y (s) = W (s)U (s) = W (s) · (c1 U1 (s) + c2 U2 (s)) = c1 Y1 (s) + c2 Y2 (s)
(2.206a)
(2.206b)
In questa sezione l’interesse specifico è per l’analisi della risposta forzata, che è determinata in modo immediato (nel dominio di Laplace, si veda ancora la sezione 2.3.4) come prodotto tra la funzione di trasferimento e
la trasformata del segnale di ingresso:
Yf (s) = C(sI − A)−1 BU (s) + DU (s) = C(sI − A)−1 B + D U (s) = W (s)U (s)
(2.207a)
W (s) =
C(sI − A)−1 B + D.
(2.207b)
Si noti come, in virtù delle proprietà dell’esponenziale di matrice nel dominio di Laplace, la funzione di
trasferimento sia una matrice di funzioni razionali.
È molto importante sottolineare le seguenti caratteristiche della risposta forzata (e quindi della matrice di
trasferimento quale modello descrittivo): da un lato ne sottolineano l’estrema importanza, dall’altro evidenziano
alcuni limiti ed elementi di attenzione.
Commento 2.4
• La risposta forzata di un sistema dinamico descrive il legame ingresso-uscita del sistema stesso.
• La risposta forzata di un sistema dinamico assume condizioni iniziali nulle.
• La risposta forzata di un sistema dinamico può trascurare alcune componenti del comportamento dinamico
interno (si veda, ad esempio il circuito elettrico riportato nell’esercizio 2.7.1 e la Fig. 2.40).
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-81
Si consideri ora, per semplicità e senza perdità di generalità, il caso di un sistema scalare (dal punto di vista
ingresso-uscita, cioè con un solo ingresso ed una sola uscita). Sia
W (s) = c(sI − A)−1 b + d =
c · adj (sI − A) · b
+d
det(sI − A)
(2.208)
la sua funzione di trasferimento che, come già notato in precedenza, è una funzione razionale propria (se d 6= 0)
o strettamente propria (se d = 0).
Commento 2.5 Per semplicità notazionale, l’ordine del denominatore di una generica funzione di trasferimento
(e quindi il numero di poli) verrà ancora indicato con la lettera n, analogamente alla notazione utilizzata per
indicare la dimensione dello spazio di stato di un generico sistema (e quindi il numero di autovalori). Si ricordi
tuttavia che, in generale, il numero di poli può essere minore del numero di autovalori. Si veda, a titolo di
esempio, il già citato esercizio 2.7.1.
2.5.1
Risposta impulsiva
L’analisi della risposta forzata di norma viene condotta considerando alcuni segnali notevoli. Tra le possibile
risposte forzate, la più semplice è la risposta impulsiva, e cioè la risposta ad un segnale di ingresso dato da un
impulso di Dirac7 δ(t), illustrato nella figura 2.8. La figura contiene anche una possibile sequenza di funzioni
approssimanti, del tutto qualitativa e informale. Per una definizione rigorosa dell’impulso di Dirac si rimanda
a testi di teoria dei segnali o ad altri testi di teoria dei sistemi. Qui, ci si limita a sottolineare che la trattazione
formale di questo argomento richiede l’introduzione del concetto di distribuzione, che estende e generalizza la
nozione classica di funzione.
15
10
5
0
−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Figura 2.8: Impulso di Dirac.
L’impulso di Dirac è un segnale di estrema importanza, benché non fisicamente realizzabile. Una delle sue
caratteristiche principali consiste nel descrivere una variazione istantanea dell’energia interna del sistema. Una
seconda caratteristica fondamentale è la sua proprietà campionatrice.
Ricordando come la trasformata di Laplace di un impulso sia pari ad uno, si ricava la considerazione che la
risposta impulsiva, e cioè la risposta del sistema ad una variazione istantanea e finita dell’energia interna, ha
una forma (cioè un andamento nel tempo) che dipende solo dalle caratteristiche del sistema stesso.
Esaminando in dettaglio tale uscita, si trova infatti:
Y (s) = W (s)U (s) ⇒ Yimp (s) = W (s) · 1.
(2.209)
Assumendo, per semplicità, un sistema con funzione di trasferimento strettamente proprio e con tutti i poli
distinti, si ha:
n
Yimp (s) =
7 Paul
W (s) =
X Ri
βn−1 sn−1 + βn−2 sn−2 + · · · + β1 s + β0
=
,
sn + αn−1 sn−1 + · · · + α1 s + α0
(s − pi )
i=1
Adrien Maurice Dirac (Bristol, 8 agosto 1902 Tallahassee, 20 ottobre 1984)
(2.210)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-82
da cui segue, per la risposta nel dominio del tempo:
−1
yimp (t) = L
[Yimp (s)] =
n
X
Ri e pi t .
(2.211)
i=1
Poiché i poli sono un sottoinsieme degli autovalori, le funzioni che appaiono nella risposta impulsiva sono
un sottoinsieme dei modi naturali del sistema: la risposta impulsiva contiene tutti, e soli, i modi naturali
del sistema che influenzano il legame ingresso-uscita. Nel caso in cui alcuni poli siano complessi coniugati a
coppie, i modi naturali relativi possono essere raccolti ed espressi in termini reali, sotto forma di funzioni di
tipo esponenziale-sinusoidale e esponenziale-cosinusoidale, come già visto nell’analisi dei modi naturali.
Il comportamento asintotico della risposta impulsiva si ricava immediatamente dalla caratterizzazione rispetto
alla convergenza dei modi naturali che la compongono. Se tutti tali modi naturali sono convergenti, la risposta
impulsiva tende asintoticamente a zero.
Nel caso di poli qualsiasi, e quindi con molteplicità anche non unitaria, si trova facilmente8 :
Yimp (s) = W (s) =
qi
r X
X
i=1 j=1
e quindi, nel dominio del tempo:
yimp (t) =
qi
r X
X
Vi,j
,
(s − pi )j
Vi,j
i=1 j=1
r
X
qi = n,
(2.212)
i=1
tj−1
e pi t .
(j − 1)!
(2.213)
La risposta è ancora una combinazione lineare di modi naturali, che possono essere di qualsiasi tipo, e
quindi anche di tipo polinomiale-esponenziale. Considerazioni analoghe valgono anche nel caso di poli complessi
coniugati non semplici.
Anche in questo caso, il comportamento asintotico della risposta impulsiva si ricava immediatamente dalla
caratterizzazione rispetto alla convergenza dei modi naturali che la compongono. Se tali modi sono tutti
convergenti, la risposta impulsiva tende asintoticamente a zero. In tutti i casi, la presenza anche di un solo
modo limitato o divergente, e cioè di un solo autovalore con parte reale non negativa, rende l’intera risposta
impulsiva non convergente.
Infine, è facile vedere, dal confronto tra la risposta impulsiva in uscita e la risposta libera in uscita, rispettivamente date da:
Yimp (s) = c(sI − A)−1 b · 1, Yℓ (s) = c(sI − A)−1 x(0),
(2.214)
come la risposta impulsiva possa essere interpretata anche come una risposta libera a partire dalla condizione
iniziale x(0) = b. In altre parolem, l’impulso di Dirac trasferisce istantaneamente al sistema una quantità di
energia pari a quella descritta da una condizione iniziale x(0) = b.
Esempio 2.5 (Circuito elettrico: modello I/O) Si consideri il circuito elettrico in figura 2.9, di cui si è già
determinato il modello nello spazio di stato nel primo capitolo (sezione 1.4).
iG
C
L
R
Figura 2.9: Circuito elettrico a componenti passivi.
Procedendo al calcolo della funzione di trasferimento, a partire dal modello seguente, già determinato:
8 si
ẋ
= Ax + bu
y
= cx
assume ancora una funzione di trasferimento strettamente propria
Capitolo 2: Analisi sistemi LSTC


A=

si trova:
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-83
−
1
RC
1
L

1
C 
,

0

1


b =  C ,
0

−
c=
1
0
,
(2.215)
s/C
.
(2.216)
1
1
s2 +
s+
RC
LC
In modo dettagliato, i vari elementi che concorrono al calcolo della matrice di trasferimento sono l’aggiunta
di (sI − A):


 
1
1
1
s+
s
−



RC C 
C
,
=
adj (sI − A) = adj 
(2.217)



1
1 
1
s
s+
−
L
L
RC
il polinomio c adj (sI − A)b, che costituisce il numeratore



1
1
s
−


C
 C 
(2.218)
c adj (sI − A)b = 1 0 
 = s/C
 1
1 
0
s+
L
RC
W (s) = W (s) =
ed infine in denominatore:
1
1
s+
.
(2.219)
RC
LC
Assumendo i valori R = 0.1, C = 1 ed L = 1 per i parametri che caratterizzano il circuito, si ottiene:
det(sI − A) = s2 +
W (s) =
s
,
s2 + 10s + 1
(2.220)
i cui poli sono dati da:
s2 + 10s + 1 = (s + 9.9)(s + 0.1); p1 = −9.9, p2 = −0.1.
(2.221)
Poiché i due poli (e quindi i due autovalori) sono reali e negativi, il sistema ha due modi convergenti.
Procedendo al calcolo della risposta impulsiva si ottiene:
Yimp (s) = W (s) · 1 =
s2
s
R1
R2
1.01
0.01
=
+
≃
−
,
+ 10s + 1
(s + 9.9) (s + 0.1)
(s + 9.9) (s + 0.1)
avendo calcolato i residui corrispondenti:
s s
=
≃ 1.01,
R1 = (s + 9.9)
(s + 9.9)(s + 0.1) s=−9.9
s + 0.1 s=−9.9
s
s R2 = (s + 0.1)
=
≃ −0.01.
(s + 9.9)(s + 0.1) s=−0.1
s + 9.9 s=−0.1
(2.222)
(2.223a)
(2.223b)
La risposta impulsiva nel dominio del tempo è quindi:
yimp (t) = 1.01e −9.9t − 0.01e −0.1t ,
(2.224)
ed il corrispondente andamento nel tempo è illustrato in figura 2.10.
Nel caso in cui il sistema fosse caratterizzato dai seguenti diversi parametri R = 1, C = 1 ed L = 1, si
otterrebbe la seguente funzione di trasferimento:
W (s) =
s
,
s2 + s + 1
(2.225)
cui corrispondono poli complessi coniugati:
(s2 + s + 1) = (s + 0.5 + 0.866)(s + 0.5 − 0.866),
(2.226)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-84
Riposta impulsiva
1
0.9
0.8
0.7
Uscita
0.6
0.5
0.4
0.3
0.2
0.1
0
0
0.5
1
1.5
Tempo (secs)
Figura 2.10: Risposta impulsiva per il circuito in figura 2.9 (R = 0.1, C = 1, L = 1).
Risposta Impulsiva
1
0.8
Ampiezza
0.6
0.4
0.2
0
−0.2
−0.4
0
1
2
3
4
5
Tempo (sec)
6
7
8
9
10
Figura 2.11: Risposta impulsiva per il circuito in figura 2.9 (R = 1, C = 1, L = 1).
e quindi modi naturali pseudo-periodici (cioè esponenziale-periodico), con termine reale e −0.5t e termini periodici
di pulsazione ω = 0.866.
In tal caso, la risposta impulsiva ha l’andamento illustrato nella figura 2.11.
Per completezza, in figura 2.12 viene riportato l’andamento della risposta impulsiva nel caso di un circuito
costituito dal solo palallelo L − C, senza resistenza eletttrica. Si noti il comportamento periodico della risposta
impulsiva, dovuto all’assenza, in questo caso, di termini dissipativi, e quindi alla presenza di una coppia di
autovalori immaginari puri.
Esempio 2.6 (Circuito elettrico: modello diretto ingresso/uscita)
Il modello dinamico, in termini di funzione di trasferimento, può essere determinato direttamente, introducendo modelli ad “impedenza” dei vari componenti elettrici. Tale approccio consente di giungere più velocemente alla determinazione della funzione di trasferimento, ma perde la completezza modellativa dello spazio di
stato.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-85
Riposta impulsiva
1
0.8
0.6
0.4
Uscita
0.2
0
−0.2
−0.4
−0.6
−0.8
−1
0
5
10
15
Tempo (sec)
20
25
30
Figura 2.12: Risposta impulsiva per il circuito in figura 2.9 (R = ∞, C = 1, L = 1).
A titolo esemplificativo, si consideri il sistema inC figura 2.13, in cui i componenti vengono modellati come
u
R
Figura 2.13: Circuito elettrico a componenti passivi: modello ingresso/uscita
“impedenze”, introducendo un modello equivalente nel dominio di Laplace:
Resistenza:
vR (t) = RiR (t) → VR (s) = RIR (s),
(2.227a)
Induttanza:
vL (t) = L
(2.227b)
d iL (t)
→ VL (s) = sLIL (s),
dt
d vC (t)
→ IC (s) = sCVC (s).
iC (t) = C
dt
Capacità:
(2.227c)
Assumendo come grandezze di interesse le tensioni di ingresso ed uscita:
• Tensione di ingresso u(t) → U (s)
• Tensione di uscita y(t) = vR (t) → Y (s) = VR (s)
l’uso delle leggi di Kirchoff
U (s) = VC (s) + VR (s);
IC (s) = IR (s) = I(s),
(2.228)
e delle relazioni (2.227) porta in modo immediato al seguente modello ingresso-uscita:
I(s)
+ VR (s)
sC
sRC + 1
VR (s) 1
+ VR (s) =
VR (s)
R sC
sRC
U (s) = VC (s) + VR (s) =
=
(2.229)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-86
cui corrisponde la seguente funzione di trasferimento
VR (s) =
2.5.2
sRC
U (s),
sRC + 1
W (s) =
sRC
.
sRC + 1
(2.230)
Risposta indiciale
Un secondo segnale notevole, molto importante per lo studio del comportamento dei sistemi dinamici, è il
gradino unitario, già introdotto iun predenza e indicato con δ−1 (t). Tale segnale può essere interpretato anche
come integrale dell’impulso di Dirac.
In tal caso l’uscita forzata viene indicata con il termine risposta al gradino, o risposta indiciale.
1
La trasformata di Laplace del gradino è pari a , e quindi la risposta forzata è data da:
s
1
Ygra (s) = W (s) .
(2.231)
s
La risposta nel dominio del tempo di ottiene facilmente per espansione in frazioni parziali e trasformazione
inversa. Si assuma inizialmente un sistema con funzione di trasferimento priva di poli nell’origine. In tal caso
la risposta indiciale può essere espansa in frazioni parziali:
Ygra (s) =
qi
r X
X
i=1 j=1
Ri,j
G
+
j
(s − pi )
s
(2.232)
dove r indica il numero di poli distinti del denominatore della W (s), qi indica la molteplicità del polo pi , ed il
generico residuo Ri,j è calcolato come indicato nella condizione (2.141).
La risposta indiciale nel dominio del tempo è quindi:
ygra (t) = L−1 [Ygra (s)] =
qi
r X
X
Ri,j
i=1 j=1
tj−1
e pi t + Gδ−1 (t).
(j − 1)!
(2.233)
Si vede facilmente i termini che costituiscono la risposta indiciale possano essere organizzati in due gruppi.
Il primo gruppo contiene tutti i termini che derivano dai poli della funzione di trasferimento e coincide, a meno
dei coefficienti della combinazione lineare, con la risposta impulsiva:
ygra,t (t) =
qi
r X
X
Ri,j
i=1 j=1
tj−1
e pi t ,
(j − 1)!
(2.234)
mentre il secondo gruppo contiene solo un termine della stessa forma del segnale di ingresso ed ampiezza variata:
ygra,p (t) = Gδ−1 (t).
(2.235)
L’ampiezza G con cui il segnale di ingresso appare in uscita è pari al guadagno in continua del sistema:
G := s · Ygra (s)|s=0 = W (s)|s=0 = W (0).
(2.236)
Analogamente a quanto accade per la risposta impulsiva (e più in generale per l’antitrasformata di una generica funzione razionale), nel caso di coppie di poli complessi coniugati le corrispondenti funzioni esponenziale
possono essere raccolte nella forma di funzioni reali di tipo esponenziale-sinusoidale, eventualmente con termini
polinomiali se i poli non sono semplici.
La risposta indiciale quindi può essere decomposta nella somma di termini che descrivono la risposta impulsiva, e cioè di modi naturali, e di un termine con la stessa forma dell’ingresso. Nel caso particolare in cui la
risposta impulsiva sia convergente a zero, si ottiene una risposta che converge asintoticamente ad un gradino di
ampiezza G = W (0). In tal caso, si suole indicare con la dizione di risposta transitoria la somma ygra,t (t) di
tutti i termini che dipendono dai poli del sistema, mentre il termine derivante dall’ingresso viene indicato con
la dizione di risposta permanente:
Se
ygra,t (t)
=
lim ygra,t (t) = 0 ⇒
t→∞
qi
r X
j−1
X
Ri,j
i=1 j=1
ygra,p (t)
ygra (t) = ygra,t (t) + ygra,p (t),
t
e pi t risposta transitoria
(j − 1)!
= Gδ−1 (t) risposta permanente.
(2.237)
(2.238)
(2.239)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-87
Risposta indiciale sistema del primo ordine (p=−1)
1
0.9
0.8
0.7
Uscita
0.6
0.5
0.4
0.3
0.2
0.1
0
0
1
2
3
Tempo (secs)
4
5
6
Figura 2.14: Risposta indiciale di un sistema del primo ordine
Il caso di un sistema con un polo nullo viene lasciato per esercizio al lettore (una situazione simile verrà
discussa nel paragrafo 2.5.4).
Nello studio dei sistemi dinamici, e più in particolare nell’analisi e nel progetto di sistemi di controllo, è molto
importante considerare la risposta al gradino per un sistema del primo e del secondo ordine. I comportamenti
tipici sono descritti dalle seguenti figure. La risposta indiciale può essere influenzata in modo significativo anche
dalla presenza di uno zero nella funzione di trasferimento, come descritto dalla figura 2.17.
Risposta indiciale secondo ordine (p =−1, p =−2)
Risposta indiciale secondo ordine (p =−1, p =−10)
2
1
1
0.9
0.9
0.8
0.8
0.7
0.7
0.6
0.6
Uscita
Uscita
1
1
0.5
0.5
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1
0
0
2
4
Tempo (secs)
6
2
0
0
2
4
Tempo (secs)
6
Figura 2.15: Risposta indiciale di un sistema del secondo ordine, con poli reali.
Lo studio della risposta indiciale è importante anche per la possibilità di caratterizzare in modo quantitativo
la velocità di riposta. Il parametro utilizzato è detto tempo di salita (della rispota indiciale). La definizione di
tale indicate ha senso solo nei casi in cui le funzioni legate ai poli della funzione di trasferimento siano tutte
convergenti. In tal caso, dopo un tempo sufficientemente lungo dall’istante di applicazione del segnale a gradino
in ingresso, in uscita sarà presente, di fatto, solo il termine costante Gδ−1 (t). Si vedrà più avanti che, in generale,
tale inicatore è significativo solo per i sistemi che ammettono risposta permamente in uscita.
Il tempo di salita TS è definito come il tempo che intercorre tra l’istante in cui la risposta indiciale assume
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-88
Risposta indiciale secondo ordine (p1=−1+5j, p2=−1−5j)
1.6
1.4
1.2
Uscita
1
0.8
0.6
0.4
0.2
0
0
1
2
3
Tempo (secs)
4
5
6
Figura 2.16: Risposta indiciale di un sistema del secondo ordine, con poli complessi.
un valore pari al 10% del valore di regime G, e l’istante in cui la stessa uscita assume un valore pari al 90% di
G.
Nel caso particolare di un sistema del primo ordine, cioè con un solo polo, il tempo di salita è legato in modo
semplice a tale polo e alla corrispondente constante di tempo τ :
TS =
2.2
= 2.2τ ≃ 2τ.
|p|
(2.240)
La precedente condizione 2.240 è particolarmente utile in sede di progetto/sintesi di schemi di controllo in
retroazione.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-89
Risposta indiciale (z1=−5 (r); z1=−3 (b); z1=−1 (v))
1.4
1.2
1
Uscita
0.8
0.6
0.4
0.2
0
0
1
2
3
Tempo (secs)
4
5
6
Figura 2.17: Risposta indiciale di un sistema del secondo ordine, al variare della posizione dello zero (poli
p1 = −2, p2 = −4).
Capitolo 2: Analisi sistemi LSTC
2.5.3
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-90
Risposta ad ingresso sinusoidale
Il segnale sinusoidale è uno dei più rilevanti, anche in considerazione del suo ruolo fondamentale come
componente di base nella costruzione di segnali arbitrari, secondo quanto noto dalla teoria dell’analisi armonica
dei segnali.
Per lo studio della risposta forzata in uscita si consideri quindi un sistema dinamico descritto dalla seguente
funzione di trasferimento:
βn sn + βn−1 sn−1 + · · · + β1 s + β0
W (s) = n
.
(2.241)
s + αn−1 sn−1 + · · · + α1 s + α0
Applicando in ingresso un segnale sinusoidale di ampiezza unitaria e pulsazione pari ad ω rad/s, con trasformata come sotto indicato:
ω
,
(2.242)
u(t) = sin(ωt),
U (s) = 2
s + ω2
assumendo che il sistema non abbia poli immaginari coniugati posti in ±ω, si ottiene la seguente risposta
forzata, nel dominio di Laplace:
r
Ysin (s) =
qi
X X Ri,j
ω
G1
G2
βn sn + βn−1 sn−1 + · · · + β1 s + β0
· 2
=
+
+
(2.243)
n
n−1
2
j
s + αn−1 s
+ · · · + α1 s + α0
s +ω
(s − pi )
s − ω s + ω
i=1 j=1
che, nel dominio del tempo, può essere scritta nella forma seguente, raggruppando9 insieme i termini che derivano
dai poli del sistema e quelli che derivano dai poli della trasformata del segnale di ingresso:
ysin (t) =
qi
r X
X
Ri,j
i=1 j=1
tj−1
e pi t + G1 e ωt + G2 e −ωt , .
(j − 1)!
dove la somma
qi
r X
X
Ri,j
i=1 j=1
tj−1
e pi t
(j − 1)!
raccoglie tutti i termini generati dal sistema (cioè tutti i modi naturali presenti nella risposta forzata in uscita),
mentre la somma
G1 e ωt + G2 e −ωt
rappresenta il contributo dovuto al segnale di ingresso.
Il calcolo dei residui procede come nel caso generale. In particolare i residui Ri,j , relativi ai poli del sistema,
richiedono, nel caso generale, l’uso delle relazioni valide per punti singolari non semplici, mentre i residui G1 e
G2 , relativi ai due termini caratterizzanti il segnale di ingresso, possono essere calcolati sulla base delle relazioni
per i poli semplici, in considerazione dell’ipotesi precedente di non coincidenza tra i poli del segnale e quelli del
sistema. Si ottiene quindi:
1
dqi −j
qi
Ri,j = lim
Y
(s)]
,
(2.244)
[(s
−
p
)
i
s→pi
(qi − j)! dsqi −j
G1
= [(s − ω)Y (s)]s=ω = (s − ω) W (s)
=
ω
W (s)
(s + ω)
dove
G2
= W (ω)
s=ω
Mω := |W (ω)|,
(2.245a)
s=ω
ω
1
1
=
W (ω) =
Mω e ϕω ,
2ω
2
2
ϕω := ∠W (ω),
ω
(s − ω)(s + ω) s=−ω
ω
1
1
= W (−ω) · −
= − W (−ω) = − Mω e −ϕω ,
2ω
2
2
= [(s + ω)Y (s)]s=−ω = (s + ω) W (s)
=
W (s)
ω
(s − ω)
dove ancora
9 Il
ω
(s − ω)(s + ω)
s=−ω
Mω = |W (ω)|,
ϕω = ∠W (ω).
raggruppamento è reso possibile dall’ipotesi di assenza di poli del sistema coincidenti con quelli del segnale.
(2.245b)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-91
La risposta forzata ad ingresso sinusoidale, nel dominio del tempo, vale quindi:
ysin (t)
ysin,t (t)
= ysin,t (t) + ysin,p (t)
=
qi
r X
X
Ri,j
i=1 j=1
ysin,p (t)
tj−1
e pi t
(j − 1)!
= G1 e ωt + G2 e −ωt
=
(2.246a)
Modi del sistema
(2.246b)
Modi del segnale di ingresso
(2.246c)
1
Mω e ωt+ϕω − e −ωt−ϕω = Mω sin(ωt + ϕω ),
2
in cui il termine ysin,t (t) raccoglie tutti i modi naturali del sistema e coincide, a meno dei coefficienti della
combinazione lineari, cioè a meno dei residui, con la risposta impulsiva, mentre il termine ysin,p (t) contiene una
replica del segnale di ingresso, modificato in ampiezza e fase in modo dipendente solo dal valore della funzione
di trasferimento alla pulsazione del segnale stesso.
Se il sistema ha tutti i poli con parte reale negativa (cioè, come vedremo in seguito, se il sistema è esternamente stabile), allora, e solo in questo caso, il termine ysin,t (t) può prendere il nome di risposta transitoria e
converge a zero esponenzialmente (in modo del tutto analogo a quanto visto per il caso dell’ingresso a gradino).
In tal caso, il termine ysin,p (t) è il solo segnale che “permane” dopo l’esaurimento del transitorio, ed è la
risposta permanente per ingressi sinusoidali.
Si noti come, sia nel caso di ingressi sinusoidali sia nel caso precedente di ingressi a gradino, la risposta
transitoria esiste solo se la risposta impulsiva converge asintoticamente a zero. In tal caso, la risposta transitoria e
la risposta impulsiva sono costruite dalle stesse funzioni elementari, i modi naturali associati ai poli del sistema,
combinate linearmente con diversi coefficienti (i residui relativi). Il concetto di risposta permanente è più
articolato di quanto detto sommariamente nelle righe precedenti, e verrà ripreso più estesamente nella sezione
2.5.5.
2.5.4
Il caso dei poli immaginari
Infine, alcune considerazione circa l’ipotesi di poli della funzione di trasferimento non coincidenti con i
poli del segnale. Nel seguito si considera il caso in cui il segnale di ingresso sia sinusoidale, rimandando ad
approfondimenti personali il caso della risposta indiciale per un sistema con un polo nullo.
Si consideri un sistema caratterizzato da due poli immaginari in ±ω. Nell’espansione in frazioni parziali
della risposta forzata riportata in (2.243) non è più possibile separare tra loro i termini che derivano da tali poli
e quelli che derivano dai poli del segnale. La risposta forzata, nel dominio di Laplace, deve quindi essere scritta
nella forma seguente:
Y (s)
=
=
ω
βn sn + βn−1 sn−1 + · · · + β1 s + β0
· 2
n
n−1
s + αn−1 s
+ · · · + α1 s + α0
s + ω2
q
r
i
X X Ri,j
G1,1
G2,1
G1,2
G2,2
+
+
+
+
j
2
(s
−
p
)
(s
−
ω)
(s
−
ω)
(s
+
ω)
(s
+ ω)2
i
i=3 j=1
(2.247a)
(2.247b)
avendo assunto, senza perdita di generalità, che i poli p1 e p2 siano i due poli immaginari in ±ω. La risposta
forzata in uscita allora conterrà termini che derivano dai poli non immaginari del sistema, e termini che derivano
dall’effetto congiunto dei poli in ±ω. Tali termini, nel dominio del tempo, danno luogo ad una funzione
sinusoidale di fase ed ampiezza opportune (in corrispondenza delle frazioni parziali con poli semplici) ed una
funzione rampa-sinusoidale (in corrispondenza delle frazioni parziali con poli multipli) del tipo:
M2 t sin(ωt + ϕ2 )
(2.248)
la cui ampiezza cresce al crescere del tempo secondo una rampa. In tal caso la risposta permanente non è ben
definita, ed infatti la risposta impulsiva non è convergente a zero. La risposta impulsiva infatti, a motivo della
coppia di poli immaginari, avrebbe una componente limitata di tipo sinusoidale. La coppia di poli immaginari
nella funzione di trasferimento caratterizza la presenza di una frequenza di risonanza. Su tale concetto si tornerà
anche nella sezione relativa ai diagrammi di Bode.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-92
Ovviamente, nel caso in cui il sistema avesse coppie di poli immaginari di molteplicità non unitaria, la
risposta in uscita a segnali sinusoidali coincidenti con tali poli sarebbe caratterizzata da termini polinomiali di
ordine pari alla molteplicità dei poli del sistema.
Esempio 2.7 (Risposta forzata per ingressi sinusoidali)
Si consideri un sistema dinamico descritto dalla seguente funzione di trasferimento:
W (s)
=
2s + 3
2s + 3
=
,
s3 + 6s2 + 11s + 6
(s + 1)(s + 2)(s + 3)
(2.249)
e sottoposto all’effetto di un segnale di ingresso sinusoidale di pulsazione ω = 1 rad/s:
u(t) = sin(t),
U (s) =
(s2
1
.
+ 1)
(2.250)
Il sistema ha tre poli reali, rispettivamente in −1, −2 e −3, e quindi ammette risposta transitoria e risposta
permanente in uscita (si veda la successiva sezione sulla risposta permamente).
La risposta forzata in uscita è descritta dalla funzione razionale:
Y (s) =
s3
2s + 3
1
· 2
,
2
+ 6s + 11s + 6
(s + 1)
(2.251)
che può essere espansa in frazioni parziali come segue:
Y (s) =
R1
R2
R3
G1
G2
+
+
+
+
.
s + 1 s + 2 s + 3 (s + ) (s − )
(2.252)
I residui relativi ai vari poli del sistema sono dati da:
R1
=
(s + 1)Y (s)|s=−1 =
1
1
(2s + 3)
|s=−1 =
(s + 2)(s + 3) (s2 + 1)
4
(2.253a)
R2
=
(s + 2)Y (s)|s=−2 =
(2s + 3)
1
1
|s=−2 =
(s + 1)(s + 3) (s2 + 1)
5
(2.253b)
R3
=
(s + 1)Y (s)|s=−3 =
1
3
(2s + 3)
|s=−3 = −
2
(s + 1)(s + 2) (s + 1)
20
(2.253c)
mentre quelli relativi al segnale sono:
G1
=
=
G2
=
=
1
(s − )(2s + 3)
·
(s − )Y (s)|s= =
(s + 1)(s + 2)(s + 3)
(s + )(s − ) s=
(2s + 3)
1
1
= M e ϕ ,
·
M = 0.36, ϕ = −0.98
(s + 1)(s + 2)(s + 3)
(s + ) s= 2
1
(s + )(2s + 3)
·
(s + )Y (s)|s=− =
(s + 1)(s + 2)(s + 3)
(s + )(s − ) s=−
(2s + 3)
1
1
= − M e −ϕ ,
·
(s + 1)(s + 2)(s + 3)
(s − ) s=−
2
(2.254a)
(2.254b)
Il termine relativo al segnale di ingresso, e cioè la risposta permanente, in Laplace è quindi pari a:
G1 =
1
M e ϕ ,
2
cui corrisponde, nel dominio del tempo:
B1
B2
+
L−1
(s − ) (s + )
B2 = −
=
=
1
M e −ϕ ,
2
M = 0.36, ϕ = −0.98
1
1
M e ϕ e t − M e −ϕ e −t
2
2
1
M e (t+ϕ) − e −(t+ϕ) = M sin(t + ϕ)
2
B1 e t + G2 e −t =
(2.255)
(2.256)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-93
La risposta forzata infine è data da:
y(t) = R1 e −t + R2 e −2t + R3 e −3t + M sin(ωt + ϕ),
(2.257)
mentre la sola risposta transitoria vale:
y(t) = R1 e −t + R2 e −2t + R3 e −3t .
(2.258)
Gli andamenti delle risposte forzata, permanente e transitoria in uscita sono riportati nella figura 2.18,
ove la curva verde indica la riposta forzata, la curva rossa la risposta transitoria e la curva ciano la risposta
permanente.
La figura 2.19 è invece relativa ad un sistema con la stessa funzione di trasferimento già studiata, salvo il
primo polo posto in p = 1, e quindi instabile. La figura riporta la risposta forzata, nonchè i termini legati ai
poli del sistema ed i termini legati al segnale di ingresso. Mentre tale ultimo contributo è identico nei due casi,
il contributo legati ai poli del sistema è sostanzialmente diverso, e quindi le due risposte forzate sono del tutto
diverse.
Risposte dinamiche in uscite, per ingresso sinusoidale
0.4
0.3
0.2
0.1
0
−0.1
−0.2
−0.3
−0.4
0
2
4
6
8
10
tempo
12
14
16
18
20
Figura 2.18: Risposte forzata, permanente e transitoria per il sistema 2.249.
2.5.5
Risposta permanente
La risposta permanente descrive il comportamento di un sistema dinamico, a fronte dell’applicazione di un
segnale di ingresso e dopo molto tempo dall’istante di applicazione iniziale del segnale stesso. Più precisamente,
descrive la risposta completa in uscita e nello stato, dopo molto tempo dall’istante iniziale di tale applicazione. In
questa sezione il concetto, già introdotto informalmente in precedenza, verrà discusso in modo più approfondito,
presentando anche le relative condizioni di esistenza.
Affinché la riposta permanente sia ben definita, essa deve essere indipendente dalla condizione iniziale, cioè,
dato un assegnato sistema dinamico e fissato il segnale di ingresso, si deve avere la stessa risposta permanente
al variare della condizione iniziale.
Ricordando le espressioni della risposta completa in uscita, nel dominio del tempo e di Laplace secondo comodità, è evidente come il concetto di risposta permanente in uscita sia ben posto solo se (condizione necessaria)
tutti i poli del sistema sono a parte reale negativa, cosı̀ da dar luogo ad una risposta impulsiva convergente asintoticamente a zero. In aggiunta, per avere anche indipendenza dalla condizione iniziale, è sufficiente che tutti
gli autovalori abbiano parte reale negativa. Tale condizione è più forte della convergenza a zero della risposta
impulsiva, perché, in generale, non tutti gli autovalori compaiono tra i poli della funzione di trasferimento, e
quindi tra i poli della risposta impulsiva.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-94
Risposte dinamiche in uscite, per ingresso sinusoidale
4
3.5
3
2.5
2
1.5
1
0.5
0
−0.5
−1
0
2
4
6
8
10
tempo
12
14
16
18
20
Figura 2.19: Risposta forzata per un sistema del primo ordine con polo positivo.
Si vedano, a titolo di esempio, i grafici nelle due figure 2.18 e 2.19 ed il corrispondente sistema.
Per discutere con maggior dettaglio la relazione tra le due condizioni citate (quella necessaria e quella
sufficiente) sono richiesti concetti non ancora discussi. In particolare è richiesto il concetto di osservabilità dello
stato e di sottosistema osservabile: verranno trattati in un capitolo successivo. In questa sede è sufficiente
ricordare, come si è già visto in alcuni esempi, il fatto che la risposta completa in uscita, in generale, ha un
contenuto di modi naturali più ricco rispetto alla corrispondente risposta forzata.
Si consideri, a titolo di esempio, il seguente sistema dinamico:
−p1
0 −p1 p2
x+
ẋ =
u
(2.259a)
1
1 p1 + p2
0 1 x
y =
(2.259b)
1
.
Il sistema (2.259) ha polinomio caratteristico pari a (λ − p1 )(λ − p2 ) e funzione di trasferimento W (s) = s−p
2
Uno dei due autovalori non figura come polo, e quindi il corrispondente modo naturale non figura nella risposta
impulsiva. Entrambi i modi naturali sono presenti nella risposta libera in uscita.
Ciò implica che la risposta forzata in uscita del sistema contiene, rispetto ai modi naturali, solo la funzione
e p2 t , mentre la risposta libera in uscita, data da yℓ (t, x0 ) = ce At x0 , contiene entrambe le funzioni e p1 t e e p2 t .
La risposta impulsiva tende quindi a zero solo se (condizione necessaria) l’autovalore p2 è negativo, mentre la
risposta libera tende a zero, per qualsiasi condizione iniziale, se (e solo se) entrambi gli autovalori sono negativi.
Formalmente, la risposta permanente in uscita, yp (t), è il limite, se esiste, cui tende la risposta completa, per
istante di applicazione t0 del segnale di ingresso tendente a meno infinito e indipendentemente dalla condizione
iniziale x(t0 ):
yp (t) := lim yc (t, t0 , x(t0 ), u(·)), ∀x(t0 ),
(2.260)
t0 →−∞
ove yc (t, t0 , x(t0 ), u(·)) indica la risposta completa in uscita, corrispondente all’applicazione del segnale u(·) a
partire dall’istante t0 , con condizione iniziale in t0 pari a x(t0 ).
In modo equivalente, si assuma l’esistenza di una funzione yp (t), dipendente dal sistema considerato e dal
segnale di ingresso, ma indipendente dalla condizioni iniziali. Una tale funzione si chiama risposta permanente
se e solo se vale il seguente limite:
lim (yc (t, t0 , x(t0 ), u(·)) − yp (t)) = 0,
t→∞
∀ x(t0 ).
(2.261)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-95
In tal caso, la funzione yp (t) viene detta risposta permanente e la funzione
yt (t) := yc (t, t0 , x(t0 ), u(·)) − yp (t),
(2.262)
viene detta risposta transitoria.
Si noti che la risposta permanente non corrisponde al limite della risposta forzata per tempi tendenti ad
infinito (come talora si afferma, in modo qualitativo). Tale limite infatti, per molti segnali di interesse tra cui
quelli sinusoidali, non è definito.
È possibile dare una definizione analoga per la risposta permanente nello stato. Nel seguito si presterà
maggiore attenzione al caso del segnale di uscita, riservando qualche commento conclusivo al caso della risposta
nello stato.
Il concetto di risposta permanente è di interesse per tutti i segnali con trasformata di Laplace razionale
propria e con i corrispondenti poli a parte reale non negativa, e cioè per tutti i segnali con trasformata razionale
propria che permangono nel tempo, cioè che non convergono asintoticamente a zero. È opportuno sottolineare
il fatto che i segnali a trasformata razionale propria sono di interesse particolare perché sono “autofunzioni”
(modi naturali, come vengono chiamati in questo corso), cioè possono essere generati come risposta libera in
uscita di opportuni sistemi lineari a tempo continuo. Tali segnali quindi sono naturalmente associati ai sistemi
dinamici che vengono studiati in questo capitolo.
Si consideri quindi un segnale di ingresso u(t) la cui trasformata U (s) sia una funzione razionale:
U (s) =
γµ sµ + γµ−1 sγ−1 + · · · + γ1 s + γ0
γµ sµ + γµ−1 sγ−1 + · · · + γ1 s + γ0
Qρ
=
µ
µ
µ−1
s + ηµ−1 s
+ · · · + η1 s + η0
i=1 (s − πi )i
(2.263)
e tutti i poli πi , i = 1, . . . , ρ, abbiano parte reale non negativa (eventuali poli del segnale con parte reale
negativa fornirebbero componenti che svanirebbero al crescere del tempo, e quindi irrilevanti rispetto alla risposta
permanente).
Si consideri un sistema dinamico
ẋ
y
= Ax + bu,
= cx + du,
(2.264a)
(2.264b)
indicato per brevità con la notazione Σ(A, b, c, d), descritto da una funzione di trasferimento di forma generale:
W (s) =
βn sn + βn−1 sn−1 + · · · + β1 s + β0
βn sn + βn−1 sn−1 + · · · + β1 s + β0
Qr
=
q
n
n−1
s + αn−1 s
+ · · · + α1 s + α0
i=1 (s − pi )i
(2.265)
caratterizzata da poli arbitrari, salvo l’avere tutti parte reale negativa (per la condizione necessaria vista sopra).
Ciò implica che la risposta impulsiva del sistema tende a zero.
In tal caso, la risposta forzata in uscita può essere scritta, dopo l’espansione in frazioni parziali, nella forma:
βn sn + βn−1 sn−1 + · · · + β1 s + β0 γµ sµ + γµ−1 sγ−1 + · · · + γ1 s + γ0
Qr
Qρ
·
(2.266a)
q
µ
i=1 (s − pi )i
i=1 (s − πi )i
µi
ρ X
qi
r X
X
X
Gi,j
Ri,j
+
= YW (s) + Yu (s),
j
(s − pi )
(s − πi )j
i=1 j=1
i=1 j=1
Yf (s) = W (s)U (s) =
=
YW (s) :=
qi
r X
X
i=1 j=1
Ri,j
,
(s − pi )j
Yu (s) :=
µi
ρ X
X
i=1 j=1
Gi,j
.
(s − πi )j
(2.266b)
Antitrasformando nel domino del tempo si ottiene quindi:
yf (t)
yW (t)
yu (t)
= yW (t) + yu (t),
(2.267a)
= L−1 {YW (s)} =
= L−1 {Yu (s)} =
qi
r X
X
i=1 j=1
µi
ρ X
X
j−1
Gi,j
i=1 j=1
t
e pi t
(j − 1)!
(2.267b)
tj−1
e πi t .
(j − 1)!
(2.267c)
Ri,j
Si notino alcuni fatti rilevanti per la forma della risposta forzata scritta sopra.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-96
Commento 2.6
• Innanzitutto, il fatto che i poli del sistema siano a parte reale negativa e quelli del segnale siano a parte reale
nulla o positiva rende vuota l’intersezione dei rispettivi insiemi, e quindi rende possibile, nell’espansione
in frazioni parziali operata nella (2.266b), separare i termini derivanti dai poli del sistema dai termini
derivanti dai poli del segnale.
• Ciò implica, come secondo fatto, che la funzione yW (t) definita sopra contenga solo i modi naturali
associati ai poli della funzione di trasferimento W (s), e quindi il fatto che il comportamento asintotico di
tale funzione sia lo stesso della risposta impulsiva.
• Il terzo fatto importante è che la funzione yu (t) contiene solo le funzioni del tempo presenti nel segnale di
ingresso, trasferite in uscita al sistema con la stessa forma e, in generale, con pesi relativi diversi.
• Il quarto fatto importante è che, come visto in più esempi, l’insieme dei poli della funzione di trasferimento
è, in generale, un sottoinsieme proprio dell’insieme degli autovalori del sistema.
Se vale l’ipotesi, ricordata sopra, che tutti i poli del sistema sono a parte reale negativa, il termine yW (t)
converge asintoticamente a zero ed allora la funzione yu (t) rappresenta ciò che “permane” in uscita dopo
l’esaurimento a zero della risposta yW (t) (che, come detto sopra, ha lo stesso comportamento asintotico della
risposta impulsiva). Tale analisi però è riferita alla sola risposta forzata, ed assume quindi condizioni iniziali
nulle, cioè trascura la risposta libera in uscita.
Come si è visto anche con il semplice esempio (2.259), la risposta libera in uscita può contenere modi naturali
aggiuntivi rispetto a quelli presenti nella risposta forzata, e quindi la risposta completa in uscita può, in funzione
delle condizioni iniziali e della caratterizzazione di convergenza di tali modi aggiuntivi, avere un comportamento
asintotico diverso da quello che caratterizza la sola risposta forzata.
È opportuno formalizzare tale concetto qualitativo. Si consideri un generico sistema dinamico Σ(A, b, c, d),
con funzione di trasferimento del tipo (2.265), e con poli di tale funzione di trasferimento che possono anche
essere un sottoinsieme proprio degli autovalori dello stesso sistema. Si assuma un segnale di ingresso u(t) con
trasformata razionale del tipo in (2.263). La risposta completa in uscita, a partire da una generica condizione
iniziale x0 all’istante t0 = 0 e sotto l’effetto del segnale di ingresso u(t), tenendo conto della scomposizione
(2.267a) per la risposta forzata, assume la forma:
yc (t, 0, x0 , u(·))
= yℓ (t, x0 ) + yW (t) + yu (t).
(2.268)
Se vale il seguente limite:
lim yc (t, 0, x0 , u(·)) − yu (t) = 0,
t→∞
∀ x0 ,
(2.269)
allora il termine yu () è la risposta permanente in uscita del sistema ed il termine yℓ (t, x0 ) + yW (t) è la risposta
transitoria in uscita, cioè:
yp (t)
:= yu (t)
(2.270a)
yt (t)
:= yℓ (t, x0 ) + yW (t).
(2.270b)
Il limite 2.269 vale se tutte le funzioni del tempo che compaiono in yℓ (t, x0 ) e in yW (t) convergono a zero, e
quindi se tutti i poli della funzione di trasferimento hanno parte reale negativa (per il termine yW (t)) e se tutti
gli autovalori che compaiono nella risposta libera in uscita (il termine yℓ (t, x0 )) hanno parte negativa. Si noti
come questo secondo insieme contenga (in generale strettamente) tutti i poli della funzione di trasferimento.
Complessivamente quindi, si può formulare il seguente teorema, che descrive il criterio di esistenza della
risposta permanente in uscita.
Teorema 2.6 (Criterio di esistenza della risposta permanente in uscita per sistemi LSTC)
Un sistema dinamico Σ(A, b, c, d) ammette risposta permanente in uscita, indipendente dalla condizione
iniziale, se e solo se tutti gli autovalori associati ai modi naturali presenti nella risposta libera in uscita hanno
parte reale negativa.
⋄
Da un punto di vista pratico, la determinazione della risposta permanente, qualora esista, può essere condotta
limitando il calcolo alla porzione di risposta forzata in uscita relativa ai soli termini che costituiscono il segnale
di ingresso, e cioè ai soli termini Yu (s) nella relazione generale (2.266b).
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-97
Commento 2.7 La condizione citata nel criterio, e cioè la condizione “se e solo se tutti gli autovalori associati
ai modi naturali presenti nella risposta libera in uscita hanno parte reale negativa” corrisponde, formalmente,
alla condizione: “se e solo se tutti gli autovalori del sottosistema osservabile hanno parte reale negativa”. Ciò
emergerà con maggior chiarezza nel capitolo dedicato alle proprietà strutturali dell’uscita.
Si noti come la trattazione riportata sopra sia relativa al solo segnale di uscita, in analogia con il tipo di
trattazione più comune per tale argomento. Ancora più precisamente: in molte discipline la trattazione della
risposta permanente si limita alla sola risposta forzata, ed addirittura, spesso si trascura il contributo della
risposta transitoria e si considera come risposta in uscita di un sistema dinamico il solo contributo che abbiamo
qui chiamato “permanente”. Ciò deriva dal fatto che in tali discipline la stabilità interna del sistema, che
implica l’esistenza della risposta permamente, viene data per valida in virtù di una adeguata progettazione e
realizzazione del sistema stesso. In questo corso invece lo studio della stabilità è argomento centrale e quindi
non può esser dato per certo: anzi, studiare la stabilità e, per quanto possibile, garantirla, è uno degli obiettivi
principali degli strumenti che vengono proposti.
Si richiama ancora una volta l’attenzione sulle figure 2.18 e 2.19 e sul corrispondente sistema per sottolineare come l’assumere come risposta in uscita il solo contributo “permanente” costituisca una approssimazione
accettabile del comportamento effettivo solo in alcuni casi e non abbia validità generale.
Come mostrato dall’esempio (2.259) all’inizio della sezione, il contributo della risposta libera a volte può
essere determinante. Il prossimo esempio mostra come, nel caso generale, si debba estendere l’attenzione anche
alla risposta nello stato, e non ci si possa limitare alla risposta in uscita, sia pure nella forma completa.
Si consideri il seguente sistema dinamico:
0
0
1
x+
ẋ =
u
(2.271a)
1
−p1 p2 p1 + p2
−p1 1 x.
y =
(2.271b)
caratterizzato da un polinomio caratteristico pari a (λ − p1 )(λ − p2 ) e da una funzione di trasferimento W (s) =
1
s−p2 . Uno dei due autovalori non figura come polo, e quindi il corrispondente modo naturale non figura nella
risposta impulsiva. In questi termini, tale sistema ha le stesse caratteristiche del sistema (2.259).
Una analisi della risposta libera in uscita consente di capire che il modo naturale e p1 t non figura neanche
nella risposta libera in uscita. Ne segue che la risposta completa in uscita contiene, rispetto ai modi naturali,
solo la funzione e p2 t .
Per verificare tale forma per la risposta libera in uscita (non potendo ancora utilizzare il concetto di osservabilità) si considerino i due autovettori del sistema. Si trova facilmente, per i due autovalori λ1 = p1 e λ2 = p2 ,
la coppia di rispettivi autovettori:
1
1
.
(2.272)
, v2 =
v1 =
p2
p1
Poiché tali vettori sono linearmente indipendenti se gli autovalori sono distinti, possono essere scelti come
nuova base nello spazio di stato. Ne consegue che una generica condizione iniziale x0 può essere espressa come
combinazione lineare di questi due vettori:
x0 = α1 v1 + α2 v2 ,
(2.273)
per opportuni valori dei coefficienti reali α1 e α2 . La risposta libera in uscita, per una generica condizione
iniziale, vale quindi:
yℓ (t, x0 ) = ce At x0 = ce At (α1 v1 + α2 v2 ) = α1 cv1 e p1 t + α2 cv2 e p2 t ,
(2.274)
in cui si è tenuto conto del fatto che una condizione iniziale allineata con un autovettore eccita solo il corrispondente modo naturale. Notando poi che, per il sistema in esame, la matrice di uscita c è ortogonale all’autovettore
v1 , e quindi cv1 = 0, ne segue:
yℓ (t, x0 ) = ce At x0 = α2 (p2 − p1 )e p2 t ,
(2.275)
e quindi il modo naturale e p2 t appare in tale risposta, ma il modo naturale e p1 t non vi appare mai.
La risposta libera nello stato invece, data da xℓ (t, x0 ) = e At x0 , contiene, ovviamente, entrambe le funzioni
p1 t
e
ed e p2 t .
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-98
La risposta permanente in uscita quindi, in base al criterio visto in precedenza, esiste se e solo se l’autovalore
p2 è negativo. La risposta libera nello stato, invece, tende a zero per qualsiasi condizione iniziale se, e solo se,
entrambi gli autovalori sono negativi. Ne segue che, se il sistema ha autovalore p1 positivo, per un fissato
ingresso si ha risposta completa in uscita tendente alla risposta permanente, e risposta completa nello stato
divergente verso infinito.
La formalizzazione della risposta permanente nello stato può essere fatta utilizzando lo stesso approccio
seguito per l’uscita. La risposta completa nello stato, a partire da una generica condizione iniziale x0 all’istante
t0 = 0 e sotto l’effetto del segnale di ingresso u(t), tenendo conto di una scomposizione della risposta forzata
nello stato analoga alla (2.267a), assume la forma:
xc (t, 0, x0 , u(·)) =
xℓ (t, x0 ) + xH (t) + xu (t),
(2.276)
ove i termini xH (t) e xu (t) vanno intesi come i contributi nella risposta forzata nello stato derivanti dai poli
legati alla relazioni ingresso-stato in Laplace10 e dai poli del segnale di ingresso, rispettivamente.
Se il limite seguente vale:
lim xc (t, 0, x0 , u(·)) − xu (t) = 0, ∀ x0 ,
(2.277)
t→∞
allora il termine xu () è la risposta permanente nello stato del sistema ed il termine xℓ (t, x0 ) + xH (t)è la risposta
transitoria nello stato.
Il limite 2.277 vale se tutte le funzioni del tempo che compaiono in xℓ (t, x0 ) e in xH (t) convergono a zero, e
quindi se tutti i poli del legame ingresso-stato hanno parte reale negativa (per il termine xH (t)) e se tutti gli
autovalori (per il termine xℓ (t, x0 )) hanno parte negativa. Si noti come questo secondo insieme contenga (in
generale strettamente) tutti i poli del legame ingresso-stato.
Complessivamente quindi, si può formulare il seguente criterio di esistenza della risposta permanente nello
stato, che garantisce anche l’esistenza della risposta permanente in uscita (come condizione sufficiente ma non
necessaria).
Teorema 2.7 (Criterio di esistenza della risposta permanente nello stato per sistemi LSTC)
Un sistema dinamico Σ(A, b, c, d) ammette risposta permanente nello stato, indipendente dalla condizione iniziale, se e solo se tutti i suoi autovalori hanno parte reale negativa.
⋄
2.6
Risposta armonica e diagrammi di Bode
L’analisi della risposta permanente per segnali sinusoidali è di estrema importanza nello studio di un sistema
dinamico. Si è visto che, se tale risposta permanente esiste, allora il segnale di ingresso è riportato in uscita,
a regime (cioè, dopo l’esaurimento della risposta transitoria), con una ampiezza ed una fase dati dal modulo e
dalla fase della funzione di trasferimento, rispettivamente, alla pulsazione del segnale di ingresso.
Cioè, se la risposta transitoria esiste, allora la risposta completa in uscita, per ingresso u(t) = sin(ωt), tende
asintoticamente alla risposta permanente:
yp (t) = M (ω) sin(ωt + ϕ(ω)),
M (ω) = |W (ω)|, ϕ(ω) = ∠W (ω).
(2.278)
È quindi utile studiare la risposta armonica, e cioè l’andamento della funzione di trasferimento, in modulo
e fase, in funzione della pulsazione ω: insomma le due funzioni reali M (ω) e ϕ(ω).
1
,
Considerando, a titolo di esempio, il sistema del primo ordine con funzione di trasferimento W (s) = s+1
per il modulo della risposta armonica si trova l’andamento nella seguente figura 2.20.
Per consentire una migliore rappresentazione delle ascisse (per dilatare la zona di basse pulsazioni e contrarre
quella della alte) e per rappresentare meglio la parte di bassi valori del modulo, di norma si utilizza una scala
logaritmica per le pulsazioni, sia per il diagramma dei moduli sia per quello delle fasi. In aggiunta, il modulo è
abitualmente espresso in decibel:
MdB (ω) := 20 log10 (|W (ω)|).
(2.279)
I due andamenti, del modulo in decibel e della fase in gradi, sono dati in forma grafica in funzione della
pulsazione. Tale coppia di diagrammi viene indicata con il termine diagrammi di Bode11 del sistema. A titolo
1
di esempio, i diagrammi di Bode del sistema con funzione di trasferimento W (s) = s+1
sono riportati nella
seguente figura 2.21.
10 tale
relazione è data da: H(s) = (sI − A)−1 b
Wade Bode.(Madison, 1905 – Cambridge, 1982)
11 Hendrik
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-99
Risposta in frequenza (scala lineare)
1
Mudulo risposta armonica M(ω)
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0.5
1
1.5
2
2.5
ω rad/sec
3
3.5
4
4.5
Figura 2.20: Modulo della risposta armonica per W (s) =
5
1
s+1 .
Diagrammi di Bode
Magnitude (dB)
0
−10
−20
−30
Phase (deg)
−40
0
−45
−90
−2
10
−1
10
0
10
Frequency (rad/sec)
1
10
Figura 2.21: Diagrammi di Bode per W (s) =
2
10
1
s+1 .
L’analisi dei diagrammi di Bode consente quindi di determinare in modo immediato la risposta in frequenza
di un sistema dinamico, e cioè il modo in cui un segnale con dato contenuto armonico transita attraverso un
sistema.
Si ricorda, ancora una volta, come i diagrammi di Bode descrivano in modo corretto la risposta permanente
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-100
in uscita solo per sistemi con autovalori del sottosistema osservabile a parte reale negativa (i poli rendono conto
solo della risposta forzata e non della risposta libera in uscita). In caso contrario, il diagramma di Bode descrive
solo una parte della risposta permamente, tralasciando termini legati ai modi naturali, che sono divergenti o
tali da poter generare segnali con crescita lineare o polinomiale.
2.6.1
Tracciamento dei diagrammi di Bode: esempio
I diagrammi di Bode si possono tracciare utilizzando semplici regole grafiche. Si consideri, a titolo di esempio
1
, con p numero reale. Per motivi che saranno chiari
iniziale, il sistema con funzione di trasferimento W (s) = s+p
nel seguito, conviene riscrivere la funzione di trasferimento nella forma di costanti di tempo:
W (s) =
1
1/p
.
=
s+p
1 + ps
(2.280)
Il diagramma dei moduli corrisponde quindi al grafico di12 :
!
1/2 !
ω2
|1/p|
= −20 log(|p|) − 20 log
MdB (ω) = 20 log
1+ 2
.
|1 + ω
p
p |
(2.281)
Si noti come, grazie alla presenza della funzione logaritmo, i due contributi del numeratore e del denominatore
– che sono moltiplicativi nella funzione di trasferimento – siano ora additivi: possono quindi essere analizzati
separatamente e poi sommati.
Il termine di “guadagno” 20 log(p) è una retta orizzontale, con ordinata positiva, nulla o negativa a seconda
che il fattore moltiplicativo positivo |p| sia, rispettivamente, maggiore, uguale o minore di uno. Nel caso in
esempio, fissato p = 2, si trova il diagramma riportato in figura 2.22.
Diagramma asintotico di Bode (moduli) − Termine guadagno
−5
MdB
−5.5
−6
−6.5
−7
−7.5
−2
10
−1
10
0
10
ω (rad/sec)
1
10
2
10
Figura 2.22: Diagramma di Bode dei moduli, asintotico, per un guadagno p = 2.
2
Il termine −20 log((1 + ωp2 )1/2 ) può essere analizzato per valori della pulsazione ω molto piccoli o molto
grandi, rispetto a p. Nel primo
caso si ottiene una funzione nulla, nel secondo caso, trascurando il termine
1/2 ω2
≃ −20 log( ωp ). Poiché l’asse delle ascisse è logaritmico, e quindi la variabile
1, si ha −20 log 1 + p2
indipendente ω aumenta esponenzialmente, la funzione −20 log( ωp ) risulta essere una retta con pendenza di
−20dB per ogni decade di aumento della pulsazione. Tenendo conto che tale retta assume il valore zero (in
decibel) per ω = p, si può tracciare un diagramma asintotico costituito da una spezzata: la semiretta con
ordinata nulla fino al valore ω = p, detto punto di rottura o anche pulsazione di rottura, e la semiretta con
pendenza pari a −20dB per decade da tale valore in avanti. Il diagramma asintotico relativo (assumendo p = 2)
è riportato in figura 2.23.
Il diagramma asintotico complessivo si ottiene sommando i due contributi, ottenendo il risultato riportato
in figura 2.24. Si noti che il diagramma dei moduli, dipendendo dal modulo del polo p, è lo stesso sia per poli
a parte negativa sia per poli a parte reale positiva.
12 Nel
seguito si ometterà il pedice 10 nella indicazione del logaritmo
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-101
Diagramma asintotico di Bode (moduli) − Termine polo
0
−5
MdB
−10
−15
−20
−25
−30
−35
−2
10
−1
10
0
10
ω (rad/sec)
1
10
Figura 2.23: Diagramma di Bode dei moduli, asintotico, per il polo
2
10
1
1+s/2 .
Diagramma asintotico di Bode (moduli)
−5
−10
MdB
−15
−20
−25
−30
−35
−40
−2
10
−1
10
0
10
ω (rad/sec)
1
10
Figura 2.24: Diagramma di Bode dei moduli, asintotico, per W (s) =
2
10
2
1+s/2 .
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-102
Per valutare lo scostamento tra tale diagramma asintotico (e quindi approssimato) ed il diagramma corretto,
2
si consideri il punto di rottura ω = p. Qui il valore esatto del diagramma, per il termine −20 log((1 + ωp2 )1/2 ),
√
2
vale MdB (p) = −20 log((1 + pp2 )1/2 ) = −20 log( 2) ≃ −3. Il diagramma esatto del termine associato al polo nel
punto di rottura vale −3dB. Tale valore è anche l’errore massimo che si commette nel considerare il diagramma
asintotico in luogo di quello corretto.
La figura 2.25 illustra l’andamento della differenza tra diagramma asintotico e diagramma corretto in un
intervallo di quattro decadi a cavallo del punto di rottura ω = p. Come si vede, i due diagrammi hanno una
differenza apprezzabile solo da una decade prima il punto di rottura ad una decade dopo, mentre sono del tutto
identici fuori da tale intervallo.
Diagramma asintotico di Bode (moduli) − Correzione binomio
0
−0.5
−1
−1.5
−2
−2.5
−3
−3.5
−2
10
−1
10
0
10
1
2
10
10
Figura 2.25: Diagramma di Bode dei moduli, asintotico, per W (s) =
.
2
1+s/2
Ne segue che il diagramma esatto (corretto) può essere ottenuto da quello asintotico con una curva di
raccordo che parte da ω = 0.1p, passa per il punto di quota −3dB in corrispondenza del punto di rottura ω = p
e si raccorda nuovamente al diagramma asintotico in ω = 10p. La figura 2.26 illustra il diagramma asintotico e
quello corretto per il sistema in esame.
0
−10
−20
−30
−40
−50
−2
10
−1
10
0
10
1
10
Figura 2.26: Diagrammi di Bode dei moduli, asintotico e corretto, per W (s) =
.
2
10
2
1+s/2
Il diagramma delle fasi viene tracciato in modo analogo. La proprietà di additività vale ancora, e quindi i
contributi dei singoli termini possono essere determinati separatamente e poi sommati. Il diagramma della fasi
del termine di guadagno p vale 0 o, alternativamente, −180o, in funzione del segno di p.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-103
Per il termine associato al polo si procede con l’analisi del diagramma asintotico e poi si introducono le
correzioni opportune. La fase, al contrario del modulo, dipende dal segno del polo. Si assume nel seguito un
polo a parte reale negativa (e quindi un valore positivo per il parametro p).
La fase del termine 1 + ω
p vale zero per valori della pulsazione piccoli rispetto a p, e vale novanta gradi per
valori grandi della pulsazione (rispetto a p). Poiché il termine in esame è a denominatore, il valore della fase
deve essere cambiato di segno. Ne segue che la fase di tale termine parte da un valore nullo e diminuisce fino ad
un valore di −90 gradi. La forma più semplice di diagramma asintotico per la fase è costituita da una funzione
gradino, con valore nullo fino al punto di rottuta ω = p e con valore pari a −90o dopo tale punto, come riportato
in figura 2.27.
0
−20
−40
−60
−80
−100
−2
10
−1
10
0
10
1
10
2
10
Figura 2.27: Diagramma di Bode delle fasi, asintotico a gradino, per W (s) =
1
s+2 .
Una forma più accurata di diagramma asintotico si basa su una curva spezzata, ma continua, con fase nulla
fino ad una decade prima del punto di rottura, fase pari a −90o a partire da una decade dopo il punto di rottura,
e fase decrescente linearmente nelle due decadi a cavallo del punto di rottura, e con valore pari a −45o nel punto
ω = p. L’andamento è illustrato in figura 2.28.
0
−20
−40
−60
−80
−100
−2
10
−1
10
0
10
1
10
Figura 2.28: Diagramma di Bode delle fasi, asintotico, per W (s) =
2
10
1
s+2 .
L’andamento esatto della fase di un termine polo è riportato in figura 2.29: si noti che la fase corretta nel
punto di rottura è −45 gradi13 .
2.6.2
Tracciamento dei diagrammi di Bode
Le regole utilizzate nell’esempio precedente per la costruzione dei diagrammi di Bode possono essere estese
allo studio di una generica funzione di trasferimento.
In generale, un sistema dinamico espresso tramite funzione di trasferimento ha poli e zeri reali e non nulli,
poli e zeri nulli, poli e zeri complessi coniugati, ed un numeratore che può essere non monico. Una tale funzione
di trasferimento è rappresentabile nella seguente forma:
Q
Q
2
)
k i (s + zi ) i (s2 + 2ξ¯i ω̄n,i s + ω̄n,i
Q 2
,
(2.282)
W (s) = q Q
2
s
i (s + 2ξi ωn,i s + ωn,i )
i (s + pi )
13 Infatti
per ω = p parte reale e parte immaginaria del termine in esame, a denominatore, sono uguali a meno del segno.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-104
0
−20
−40
−60
−80
−100
−2
10
−1
0
10
1
10
10
2
10
Figura 2.29: Diagrammi di Bode delle fasi, asintotico e corretto, per W (s) =
1
s+2 .
dove i parametri zi e pi indicano gli zeri ed i poli reali non nulli, l’intero q indica il numero netto di poli e zeri
nulli, i parametri ξ¯i e ω̄n,i caratterizzano le coppie di zeri complessi coniugati, i parametri ξi e ωn,i caratterizzano
le coppie di poli complessi coniugati, ed il termine costante k indica il coefficiente di grado massimo del polinomio
a numeratore. Le produttorie a numeratore e denominatore si intendono estese ad un numero opportuno di
termini, a seconda del sistema, che per semplicità di notazione non vengono indicati esplicitamente.
Per la costruzione dei diagrammi di Bode conviene scrivere il sistema nella forma di costanti di tempo, detta
anche forma di Bode:
Q
Q
2
¯i s
g i (1 + zsi ) i ( ω̄s2 + 2 ω̄ξn,i
+ 1)
n,i
W (s) = Q
,
(2.283)
Q
2
ξ
s
i
+ 1)
sq i (1 + psi ) i ( ωs2 + 2 ωn,i
n,i
ove il guadagno g, che nel caso di assenza di poli e zeri nulli coincide con il guadagno in continua, vale:
Q Q 2
k i zi i ω̄n,i
Q 2 .
g= Q
i pi
i ωn,i
(2.284)
Con questa rappresentazione, i vari fattori che compongono la funzione di trasferimento (eccezion fatta per
il guadagno g e per eventuali poli e zeri nulli) hanno contributo nullo a basse frequenze.
Una generica funzione di trasferimento si ottiene quindi dalla combinazione moltiplicativa di quattro termini
fondamentali, corrispondenti al guadagno g, ad un termine binomio per rappresentare poli e zeri reali, ad
un termine s per rappresentare poli o zeri nulli (nell’origine del piano complesso), e ad un termine trinomio
per rappresentare poli e zeri complessi coniugati. La conversione in decibel del modulo rende additiva tale
combinazione di termini, inoltre anche la fase di tali termini è additiva. Ne consegue che il tracciamento dei
diagrammi di Bode di una funzione di trasferimento assegnata corrispondente al tracciamento dei diagrammi
dei singoli termini ed alla loro successiva somma, analogamente a quanto visto nell’esempio iniziale.
I quattro termini da analizzare sono quindi:
wg (s)
= g,
(2.285a)
w0 (s)
= s,
(2.285b)
wb (s)
wt (s)
s
= 1+ ,
p
s2
s
=
+ 1,
+ 2ξ
ωn2
ωn
(2.285c)
(2.285d)
tenendo conto che, salvo il guadagno, tutti gli altri termini possono essere sia a numeratore sia a denominatore.
Diagrammi di Bode del termine wg (s) = g
Per tale termine sia il diagramma dei moduli sia il diagramma delle fasi sono costanti. Il diagramma dei
moduli è una retta di ordinata pari a 20 log(|g|), mentre il diagramma delle fasi vale 0o se g è positivo e −180o
se g è negativo. Si vedano le due coppie di diagrammi in figura 2.30.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-105
Diagramma di Bode termine w (s)=g, g=10
g
21
Magnitude (dB)
20.5
20
19.5
19
1
Phase (deg)
0.5
0
−0.5
−1
−1
10
0
10
ω (rad/sec)
1
10
Diagramma di Bode termine wg(s)=g, g=−4
13.5
Magnitude (dB)
13
12.5
12
11.5
11
181
Phase (deg)
180.5
180
179.5
179
−1
10
0
10
ω (rad/sec)
1
10
Figura 2.30: Diagrammi di Bode del termine wg (s) = g, per g = 10 (alto) e g = −4 (basso).
Diagrammi di Bode del termine w0 (s) = s
Il termine relativo ad un polo o uno zero nullo corrisponde ai diagrammi delle funzioni 20 log(ω) per il modulo
e arg (ω) per la fase. In considerazione della scala logaritmica per le pulsazioni il diagramma dei moduli è quindi
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-106
una retta con pendenza costante e pari a +20 decibel per decade nel caso di uno zero (termine a numeratore
e quindi crescente con ω) e pari invece a −20 dB/decade nel caso di un polo nell’origine. In entrambi i casi le
rette passano per il punto di ordinata 0 db per pulsazione pari a ω = 1. Si vedano le due coppie di diagrammi
in figura 2.31.
Diagramma di Bode termine w (s)=s, (zero)
0
20
Magnitude (dB)
10
0
−10
Phase (deg)
−20
91
90.5
90
89.5
89
−1
10
0
1
10
ω (rad/sec)
10
Diagramma di Bode termine w (s)=1/s, (polo)
0
20
15
Magnitude (dB)
10
5
0
−5
−10
−15
−20
−89
Phase (deg)
−89.5
−90
−90.5
−91
−1
10
0
1
10
ω (rad/sec)
Figura 2.31: Diagrammi di Bode del termine w0 (s) = s (alto) e w0 (s) =
10
1
s
(basso) .
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-107
Diagrammi di Bode del termine binomio wb = 1 +
s
p
I diagrammi di tale termine, nel caso di polo positivo, sono stati analizzati con cura nell’esempio precedente.
In generale, si deve tener conto del fatto che tale termine può descrivere uno zero od un polo, e in entrambi i
casi sia positivo sia negativo. La forma dei due diagrammi rimane invariata, salvo riflessioni rispetto all’asse
delle ascisse.
Nel caso di un polo p, il diagramma dei moduli ha valore iniziale nullo e decresce al crescere della pulsazione.
Il diagramma delle fasi invece dipende dal segno del polo: la fase iniziale vale 0o mentre la fase finale vale −90o
per poli negativi e +90o per poli positivi.
Nel caso in cui il termine wb (s) faccia riferimento ad uno zero, e quindi sia un termine a numeratore, il
diagramma dei moduli cresce al crescere della pulsazione, ed asintoticamente cresce con pendenza pari a +20
dB/decade a partire dal punto di rottura: si ottiene quindi per ribaltamento del corrispondente diagramma di
un polo rispetto all’asse delle ascisse. Anche in questo caso la posizione nel piano complesso dello zero non è
rilevante. Per quanto riguarda la fase, il diagramma parte da fase iniziale nulla e poi ci si muove verso una fase
finale pari a −90o per zeri positivi e +90o per zeri negativi (anche in questo caso con ribaltamento rispetto alla
ascisse del corrispondente diagramma dei poli).
Le situazioni possibili sono illustrare nelle figure 2.32 e 2.33 per il caso di un polo reale ed nelle figure 2.34
e 2.35 per il caso di uno zero reale. In entrambe le figure, l’asse delle ascisse riporta le pulsazioni normalizzate
al parametro p (cioè riporta la quantità ω/p, e quindi il punto di rottura vale ω/p = 1). I diagrammi dei
moduli sono rappresentati nella forma asintotica e corretta. I diagrammi delle fasi sono rappresentati con due
forme approssimate e nella forma corretta per le due varianti associate ai poli, mentre nel caso degli zeri (per
semplicità) si riporta solo la forma asintotica a gradino e la forma corretta.
Diagrammi di Bode termine w (s)=1+s/p, (polo positivo)
b
0
Modulo (dB)
−10
−20
−30
−40
−50
−2
10
−1
10
0
1
10
ω/|p| (rad/sec)
10
2
10
100
Fase (gradi)
80
60
40
20
0
−2
10
−1
10
0
Figura 2.32: Diagrammi di Bode del termine wb (s) = 1 +
Diagrammi di Bode del termine trinomio wt =
2
1
10
ω/|p| (rad/sec)
s2
2
ωn
10
s
p
2
10
nel caso di un polo negativo.
+ 2 ωξ ns + 1,
Il polinomio wt = ωs 2 +2 ωξ ns +1 descrive un termine trinomio ed è caratterizzato da due radici, la cui posizione
n
nel piano complesso, per un fissato valore del parametro ωn , detto frequenza naturale, dipende dal parametro ξ,
detto smorzamento. Nelle applicazioni di interesse pratico lo smorzamento è un numero reale compreso tra zero
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-108
Diagrammi di Bode termine wb(s)=1+s/p, (polo negativo)
Modulo (dB)
0
−10
−20
−30
−40
−50
−2
10
−1
10
0
1
10
ω/|p| (rad/sec)
10
2
10
0
Fase (gradi)
−20
−40
−60
−80
−100
−2
10
−1
10
0
1
10
ω/|p| (rad/sec)
Figura 2.33: Diagrammi di Bode del termine wb (s) = 1 +
10
s
p
2
10
nel caso di un polo positivo.
Diagrammi di Bode termine w (s)=1+s/p, (zero negativo)
b
50
Modulo (dB)
40
30
20
10
0
−2
10
−1
10
0
1
10
ω/|p| (rad/sec)
10
2
10
100
Fase (gradi)
80
60
40
20
0
−2
10
−1
10
0
1
10
ω/|p| (rad/sec)
Figura 2.34: Diagrammi di Bode del termine wb (s) = 1 +
10
s
p
2
10
nel caso di un zero negativo.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-109
Diagrammi di Bode termine wb(s)=1+s/p, (zero positivo)
50
Modulo (dB)
40
30
20
10
0
−2
10
−1
10
0
1
10
ω/|p| (rad/sec)
10
2
10
0
Fase (gradi)
−20
−40
−60
−80
−100
−2
10
−1
10
0
1
10
ω/|p| (rad/sec)
Figura 2.35: Diagrammi di Bode del termine wb (s) = 1 +
10
s
p
2
10
nel caso di un zero positivo.
ed uno. Le due radici sono reali, coincidenti e pari a ωn per smorzamento di valore unitario, sono complesse
coniugate e con parte reale negativa per tutti i valori ξ ∈ [0, 1). In particolare, al diminuire dello smorzamento
da uno verso zero le due radici si muovono lungo la semicirconferenza centrata nell’origine, di raggio pari a ωn
e posta a sinistra dell’asse immaginario. Per smorzamento nullo le due radici sono sull’asse immaginario nelle
posizioni ±ωn .
Per ξ = 1, il termine trinomio coincide con il quadrato di un termine binomio. I diagrammi di Bode si
ottengono quindi sommando i diagrammi di due termini binomio identici. Se il termine descrive una coppia
di poli, il diagramma asintotico dei moduli ha un valore nullo fino al punto di rottura ω = ωn e poi decresce
linearmente con pendenza pari a −40 dB/decade. Il diagramma delle fasi invece parte da valori iniziali nulli e
decresce fino al valore di −180o. I due diagrammi asintotici appena descritti vengono utilizzati come riferimento
per il termine trinomio, indipendentemente dal valore dello smorzamento. La costruzione dei due diagrammi
esatti si basa su una correzione che invece dipende in modo significativo dallo smorzamento. Per quanto riguarda
i moduli, al ridursi dello smorzamento da uno verso zero il diagramma si riduce (rispetto a quello asintotico)
via via più lentamente, fino allo smorzamento ξ = 0.707, a partire dal quale il diagramma corretto assume,
per un certo intervallo di pulsazioni, valori maggiori di zero (in dB) per tendere poi ad assestarsi, una decade
dopo la pulsazione naturale, al diagramma asintotico (si veda il diagramma in alto nella figura 2.36). In questo
ultimo scenario il sistema è in grado di amplificare il segnale applicato in ingresso. Ciò è vero anche per sistemi
a componenti passivi. In tal caso si parla di frequenza di risonanza 14 . Si noti come, nel caso di smorzamento
nullo, in corrispondenza di ω = ωn il diagramma dei moduli abbia un asintoto verticale. Per completezza, il
lettore è invitato a rivisitare le considerazioni fatte in precedenza nella sezione 2.5.4.
In modo analogo, il diagramma asintotico della fase è via via più simile al diagramma asintotico a gradino,
al ridursi dello smorzamento. La figura 2.36 illustra tale comportamento. In tale figura, l’asse delle ascisse
riporta le pulsazioni normalizzate alla pulsazione naturale wn .
Il caso in cui il termine trinomio si riferisca ad una coppia di zeri (ma sempre con smorzamento positivo) si
ricava dai diagramma precedenti per ribaltamento rispetto all’asse delle ascisse, come indicato in figura 2.37.
La correzione da applicare al diagramma asintotico dei moduli di un termine trinomio in funzione del
14 Alcuni
testi parlano di frequenza di risonanza solo per smorzamento nullo, e quindi solo nel caso di asintoto verticale
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-110
Diagrammi di Bode moduli − wt(s)=s2/ω2n + 2 ζ s /ωn + 1, (coppia poli)
40
30
20
Modulo (dB)
10
0
−10
−20
−30
−40
ζ=0
ζ=0.1
ζ=0.2
ζ=0.4
ζ=0.5
ζ=0.6
ζ=0.707
ζ=0.8
ζ=1
−50
−1
10
0
10
ω/ωn (rad/sec)
1
10
Diagrammi di Bode fasi − wt(s)=s2/ω2n + 2 ζ s /ωn + 1, (coppia poli)
0
−20
−40
Fase (gradi)
−60
−80
−100
−120
−140
−160
−180
−1
10
ζ=0
ζ=0.1
ζ=0.2
ζ=0.4
ζ=0.5
ζ=0.6
ζ=0.707
ζ=0.8
ζ=1
0
10
ω/ωn (rad/sec)
Figura 2.36: Diagrammi di Bode del termine wt (s) =
.
s2
2
ωn
1
10
+ 2 ωξ ns + 1 nel caso di una coppia di poli
parametro di smorzamento è riportata in figura 2.38.
Infine, i diagrammi relativi al caso di poli o zeri con parte reale positiva (cioè il caso di smorzamenti negativi)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-111
2
2
n
Diagrammi di Bode moduli − w (s)=s /ω + 2 ζ s /ω + 1, (coppia zeri)
t
n
50
40
30
Modulo (dB)
20
10
0
ζ=0
ζ=0.1
ζ=0.2
ζ=0.4
ζ=0.5
ζ=0.6
ζ=0.707
ζ=0.8
ζ=1
−10
−20
−30
−40
−1
10
0
1
10
ω/ω (rad/sec)
10
n
2
Diagrammi di Bode fasi − wt(s)=s2/ωn + 2 ζ s /ωn + 1, (coppia zeri)
180
160
140
Fase (gradi)
120
100
80
ζ=0
ζ=0.1
ζ=0.2
ζ=0.4
ζ=0.5
ζ=0.6
ζ=0.707
ζ=0.8
ζ=1
60
40
20
0
−1
10
0
10
ω/ωn (rad/sec)
Figura 2.37: Diagrammi di Bode del termine wt (s) =
.
s2
2
ωn
1
10
+ 2 ωξ ns + 1 nel caso di una coppia di zeri
si ottengono dai corrispondenti diagrammi a smorzamento positivo per ribaltamento del solo diagramma delle
fasi. Non vengono riportati esplicitamente per il loro scarso uso.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-112
Diagramma di Bode (moduli) − Correzione per termine trinomio
25
ζ=0
ζ=0.1
ζ=0.2
ζ=0.4
ζ=0.5
ζ=0.6
ζ=0.77
ζ=0.8
ζ=1
20
15
MdB
10
5
0
−5
−10
−1
10
0
1
10
ω/ωn (rad/sec)
Figura 2.38: Diagrammi di Bode - correzione di wt (s) =
.
10
s2
2
ωn
+ 2 ωξ ns + 1
Il diagramma in figura 2.39 illustra il caso di un sistema con funzione di trasferimento data da:
W (s) =
1
,
(s2 + 1)
(2.286)
e quindi caratterizzato da una frequenza di risonanza in ωn = 1, con smorzamento nullo (insomma, due poli
sull’asse immaginario). Come si vede, il diagramma di Bode dei moduli presenta un asintoto verticale in
corrispondenza della frequenza di risonanza.
Benchè in tal caso il diagramma di Bode non descriva correttamente la risposta armonica (in questa situazione
il sistema non ammette risposta permanente), pur tuttavia l’asintoto verticale indica che un segnale sinusoidale
in ingresso, con pulsazione ω = 1, sarebbe riportato in uscita con ampiezza infinita. Ciò è qualitativamente
vicino al reale comportamento della risposta forzata, che in tal caso è caratterizzata dalla presenza di un termine
seno con ampiezza a crescita lineare, a motivo della doppia coppia di poli immaginari nella espressione in Laplace
della risposta forzata (si veda la relazione (2.248)).
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-113
Diagrammi di Bode sistema con smorzamento nullo
Magnitude (dB)
40
20
0
−20
Modulo (dB) (deg)
−40
0
−45
−90
−135
−180
−1
10
0
10
ω/ωn (rad/sec) (rad/sec)
1
10
Figura 2.39: Diagramma di Bode per un sistema con frequenza di risonanza in ω = 1
Capitolo 2: Analisi sistemi LSTC
2.7
2.7.1
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-114
Esercizi di riepilogo
Esempio: analisi di un circuito elettrico RLC
Il modello dinamico di un circuito elettrico a componenti passivi può essere determinato facilmente seguendo
l’approccio già visto nel primo capitolo. In questa sezione l’esercizio viene risolto in forma parametrica, fin
quando possibile, per generalità. Di norma, salvo richiesta e/o necessità diversa, esercizi di questo tipo posso
essere risolti più agevolmente sostituendo i valori numerici dei parametri.
R1
R3
L
R2
C2
Vin
C1
R4
Figura 2.40: Circuito RLC1 .
Si consideri il circuito elettrico illustrato in figura 2.40. In tal caso le equazioni costitutive dei componenti
descrivono l’induttanza, le due capacità ed i vari resistori. Indicata con iL la corrente lungo l’induttanza, con
vC1 e vC2 le tensioni ai capi della prima e della seconda capacità, ed utilizzando analoga notazione per le altre
correnti e tensioni nel circuito, si ha:
d
iL
dt
d
C1
vC
dt 1
vRi
L
= vL
(2.287a)
= iC1 ,
d
vC = iC2 ,
dt 2
i = 1, . . . , 4.
C2
= Ri iRi ,
(2.287b)
(2.287c)
Le leggi di Kirchoof, per il sistema in esame, sono date da due equazioni sulle tensioni, relative a due maglie
indipendenti, e da una equazione delle correnti, relativa alle correnti nell’induttanza, nel resistore R2 e nel
resistore R3 . Le equazioni relative alle correnti in componenti in serie, ed in particolare R1 ed L, R2 e C1 , R3 ,
C2 ed R4 , sono omesse per semplicità. Le equazioni rilevanti, posto u = vin , sono quindi:
vR2 + vC1
=
=
vR1 + vL + vR2 + vC1 ,
vR3 + vC2 + vR4 ,
(2.288a)
(2.288b)
iL
=
iC1 + iC2 .
(2.288c)
u
Le variabili di stato, per un circuito elettrico a componenti passive, sono date dalle correnti lungo tutte le
induttanze e dalle tensioni ai capi dei condensatori. Nel caso in esame si hanno quindi tre variabili di stato:
x1
x2
=
=
iL
vC1
(2.289a)
(2.289b)
x3
=
vC2
(2.289c)
Le equazioni costitutive dei componenti con memoria, riscritte in termini di equazioni differenziali del primo
ordine, sono quindi:
x˙1
=
x˙2
=
x˙3
=
1
vL
L
1
iC
C1 1
1
iC .
C2 2
(2.290a)
(2.290b)
(2.290c)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-115
Per determinare il modello nello spazio di stato è quindi richiesta la conoscenza delle grandezze vL , iC1 ed
iC2 rispetto alle variabili di stato ed al segnale di ingresso. Tali relazioni possono essere ricavate utilizzando le
equazioni di equilibrio e le relazioni costitutive delle resistenze (cioè, le equazioni non ancora utilizzate).
Dalle precedenti equazioni (2.288) si ricava il sistema algebrico:
u
=
R1 x1 + vL + R2 iC1 + x2 ,
(2.291a)
R2 iC1 + x2
iL
=
=
R3 iC2 + x3 + R4 iC2 ,
iC1 + iC2
(2.291b)
(2.291c)
la cui soluzione, nelle variabili vL , iC1 ed iC2 rispetto alle variabili di stato ed ingresso è data da:
vL
=
iC1
=
iC2
=
R1 (R2 + R3 + R4 ) + R2 (R3 + R4 )
R3 + R4
R2
x1 −
x2 −
x3 + u (2.292a)
R2 + R3 + R4
R2 + R3 + R4
R2 + R3 + R4
1
1
R3 + R4
x1 −
x2 +
x3
(2.292b)
R2 + R3 + R4
R2 + R3 + R4
R2 + R3 + R4
R2
1
1
x1 +
x2 −
x3 .
(2.292c)
R2 + R3 + R4
R2 + R3 + R4
R2 + R3 + R4
−
Il modello dinamico del circuito elettrico in esame si ottiene combinando le equazioni (2.290) con le (2.292):
R1 (R2 + R3 + R4 ) + R2 (R3 + R4 )
R3 + R4
R2
u
x1−
x2−
x3+ (2.293a)
L(R2 + R3 + R4 )
L(R2 + R3 + R4 )
L(R2 + R3 + R4 )
L
1
1
R3 + R4
x1 −
x2 +
x3
(2.293b)
=
C1 (R2 + R3 + R4 )
C1 (R2 + R3 + R4 )
C1 (R2 + R3 + R4 )
1
1
R2
x1 +
x2 −
x3 .
(2.293c)
=
C2 (R2 + R3 + R4 )
C2 (R2 + R3 + R4 )
C2 (R2 + R3 + R4 )
x˙1 = −
x˙2
x˙3
Tali equazioni vanno completate con l’equazione di uscita. Se la grandezza di interesse (cioè, l’uscita), è la
tensione vR4 ai capi della resistenza R4 , si ha:
R2
1
1
yR4 = R4 iR4 = R4
(2.294)
x1 +
x2 −
x3 .
R2 + R3 + R4
R2 + R3 + R4
R2 + R3 + R4
In forma matriciale il modello dinamico, sulla base delle (2.293) e della (2.294), è quindi:
ẋ =
Ax + bu,
(2.295a)
y
cx
(2.295b)
=
con le matrici A, b e c pari a:

R1 (R2 + R3 + R4 ) + R2 (R3 + R4 )
−

L(R2 + R3 + R4 )

R3 + R4

A = 

C1 (R2 + R3 + R4 )

R2
C2 (R2 + R3 + R4 )
b

1


=  L
0 ,
0

c=
R2 R4
(R2 + R3 + R4 )
R3 + R4
L(R2 + R3 + R4 )
1
−
C1 (R2 + R3 + R4 )
1
C2 (R2 + R3 + R4 )
R2
x3
L(R2 + R3 + R4 )
1
C1 (R2 + R3 + R4 )
1
−
C2 (R2 + R3 + R4 )
−
R4
(R2 + R3 + R4 )
−
R4
−
(R2 + R3 + R4 )
.




(2.296a)


(2.296b)
Per valori fissati dei componenti, ad esempio:
R1 = 1, R2 = 2, R3 = 1, R4 = 1 L =
si ottengono le seguenti matrici,


−4 −1 −1
A =  2 −1 1  ,
2
1 −1


2
b =  0 ,
0
1
1
1
, C1 = , C2 =
2
4
4
c=
1
2
1
4
1
−
4
(2.297)
.
(2.298)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-116
Il calcolo della matrice di trasferimento può essere condotto in modo dettagliato, esaminando la forma della
matrice c adj (sI − A) b e la forma del polinomio det(sI − A). Si trova:
c adj (sI − A) b
det(sI − A)
=
=
s(s + 2),
3
(s + 2)
(2.299)
(2.300)
e quindi, dopo aver operato la cancellazione polo-zero, si ottiene la seguente funzione di trasferimento:
wR4 (s) =
s
.
s2 + 4s + 4
(2.301)
Si noti, infine, come uno degli autovalori del sistema, cancellandosi con uno zero, non appare nella funzione
di trasferimento. Ciò implica una “perdita di informazione” sulla struttura interna del sistema nell’uso della
funzione di trasferimento come modello. Si vedrà nel seguito che tale fenomeno è legato ad una carenza della
proprietà strutturale di “raggiungibilità”. Approfondendo la cancellazione polo-zero, si può notare, dal calcolo
dettagliato della matrice adj (sI − A) e del polinomio det(sI − A), che lo zero interessato alla cancellazione
emerge dal prodotto adj (sI − A) b, e quindi tale cancellazione dipende dal modo in cui il segnale di ingresso
(il cui effetto sullo stato è legato alla matrice b) interagisce con la dinamica. Tale interazione è estremamente
importante, e sarà studiata in modo particolarmente approfondito in un capitolo successivo.
In questo caso particolare (ma il fatto non ha assolutamente validità generale) vi è anche una perdita di
osservabilità. Infatti, anche dal polinomio c adj (sI − A) emerge un termine comune con il denominatore che
porta, per altra via, alla stessa cancellazione.
Si noti infine, anche la presenza di uno zero nell’origine.
È interessante studiare la risposta al gradino del circuito in esame. Il calcolo della risposta forzata, condotto
nel dominio di Laplace, consente di ottenere:
Y (s)
= wR4 (s)
1
s
1
= 2
.
s
s + 4s + 4 s
(2.302)
Omettendo di semplificare il termine polo-zero comune (allo scopo di illustrare l’effetto dello zero), che deriva
dall’interazione ingresso-sistema, si ottiene:
Y (s) =
G
R2
R1
+ ,
+
s + 2 (s + 2)2
s
(2.303)
in cui i residui R1 ed R2 (da non confondere con le resistenze R1 e R2 ), legati ai modi naturali del sistema, sono
dati da:
R2
=
R1
=
lim (s + 2)2 Y (s) = 1,
s→2
lim
s→2
d
[1] = 0
ds
Il guadagno in continua del sistema, che descrive la variazione in ampiezza del gradino, vale:
s
= 0.
G = lim sY (s) =
2
s→0
(s + 2) s=0
(2.304)
(2.305)
(2.306)
Tale guadagno è nullo proprio per la presenza dello zero nell’origine, il cui significato è esattamente quello di
bloccare la trasmissione attraverso il sistema di un segnale con polo nullo, e cioè un segnale a gradino. Ciò
corrisponde ad una proprietà generale degli zeri di una funzione di trasferimento, che vengono anche detti zeri
di blocco o zeri di trasmissione.
Infine, l’analisi in frequenza del sistema consente di tracciare il diagramma dei moduli riportato nella seguente
figura 2.41. Le risposte forzate in uscita per ingresso sinusoidale, di pulsazione ω1 = 1 e di pulsazione ω2 = 100,
sono riportate nelle successive figure 2.42 e 2.43.
Se, in alternativa alla tensione vR4 , si considera come funzione di uscita la tensione vC2 ai capi della seconda
capacità, si ottiene la relazione:
(2.307)
yC2 = x2 ,
cui corrisponde la matrice di uscita:
c=
0
0 1
,
(2.308)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-117
Bode Diagram
0
−10
Magnitude (dB)
−20
−30
−40
−50
−60
−70
−80
90
Phase (deg)
45
0
−45
−90
−2
−1
10
0
10
10
1
10
2
10
Frequency (rad/sec)
Figura 2.41: Risposta in frequenza del circuito RLC1 .
mentre le matrici A e b non vengono modificate. Procedendo come sopra per il calcolo della funzione di
trasferimento si trova:
c adj (sI − A)b
det(sI − A)
= 2(s + 2),
= (s + 2)3 ,
(2.309)
(2.310)
e quindi, dopo aver operato la cancellazione polo-zero, si ottiene la seguente funzione di trasferimento:
wC2 (s) =
2
.
s2 + 4s + 4
(2.311)
Si noti come sia ancora presente una cancellazione polo-zero, ma il sistema non abbia più uno zero nell’origine.
L’assenza dello zero nell’origine porta ad una risposta al gradino non nulla a regime.
Il modello dinamico del circuito elettrico può essere analizzato estesamente ricorrendo ad un semplice modello
di simulazione in Matlab, utilizzando il codice riportato di seguito.
R1=1; R2=2; R3=1; R4=1; R234=(R2+R3+R4);
L=1/2; C1=1/4; C2=1/4;
A=[-(R1*R234+R2*(R3+R4))/(R234*L), -(R3+R4)/(R234*L), -R2/(R234*L);
(R3+R4)/(R234*C1), -1/(R234*C1), 1/(R234*C1);
(R2)/(R234*C2), 1/(R234*C2), -1/(R234*C2)];
b=[1/L; 0; 0]; c=[R2*R4/R234, R4/R234, -R4/R234];
sys=ss(A,b,c,0); systf=tf(sys)
zero(systf) pole(systf)
bode(systf)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-118
0.2
0.15
0.1
0.05
0
−0.05
−0.1
−0.15
−0.2
−0.25
0
2
4
6
8
10
12
14
16
18
20
Figura 2.42: Risposte forzata, permamente e transitoria per ingresso sin(t) del circuito RLC1 .
om1=1; W1=(i*om1/((i*om1+2)^2)); M1=abs(W1); phi1=angle(W1);
t=0:0.1:20; s1=sin(om1*t); ys1=lsim(sys,s1,t); ys1=ys1’; yp1=M1*sin(om1*t+phi1); yt1=ys1-yp1;
plot(t,ys1,t,yp1,t,yt1);
om2=100; W2=((i*om2)/((i*om2+2)^2)); M2=abs(W2); phi2=angle(W2);
figure(2)
t2=0:0.001:0.8; s2=sin(om2*t2); ys2=lsim(sys,s2,t2); ys2=ys2’; yp2=M2*sin(om2*t2+phi2);
yt2=ys2-yp2;
plot(t2,ys2,t2,yp2,t2,yt2);
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-119
0.02
0.015
0.01
0.005
0
−0.005
−0.01
−0.015
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
Figura 2.43: Risposta forzata, permamente e transitoria per ingresso sin(100t) del circuito RLC1 .
2.7.2
Analisi di un ulteriore circuito elettrico a componenti passivi
Si consideri il circuito elettrico illustrato in figura 2.44, il cui modello dinamico può essere ottenuto utilizzando
le equazioni di Kirkoff, analogamente a quanto già visto in precedenti esempi.
RG
C2
R1
vin
C1
C3
Figura 2.44: Circuito RLCN C .
Indicate con vC1 , vC2 e vC3 le tensioni ai capi delle tre capacità, ed utilizzando analoga notazione per le
altre correnti e tensioni nel circuito, si ottengono le seguenti equazioni dinamiche, costitutive dei componenti
con memoria:
d
vC
dt 1
d
C2 vC2
dt
d
C3 vC3
dt
C1
=
iC1 ,
(2.312a)
=
iC2 ,
(2.312b)
=
iC3 ,
(2.312c)
e le seguenti equazioni algebriche, costitutive delle resistenze:
vRi
= Ri iRi ,
i = 1, 2.
(2.313)
Le leggi di Kirchoof, per il sistema in esame, sono date da due equazioni sulle tensioni, relative a due maglie
indipendenti, e da una equazione delle correnti. Le equazioni relative alle correnti in componenti in serie, ed in
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-120
particolare C2 R2 C3 , sono omesse per semplicità. Le equazioni rilevanti, posto u = vin , sono quindi:
vC1
= vR1 + vC1 ,
= vC2 + vR2 + vC3 ,
(2.314a)
(2.314b)
i R1
= iC1 + iC2 .
(2.314c)
u
Le variabili di stato, nel caso in esame, sono date dalle seguenti grandezze:
x1
=
vC1 ,
(2.315a)
x2
x3
=
=
vC2 ,
vC3 .
(2.315b)
(2.315c)
Le equazioni costitutive dei componenti con memoria, riscritte in termini di equazioni differenziali del primo
ordine, sono quindi:
x˙1
=
x˙2
=
x˙3
=
1
iC ,
C1 1
1
iC ,
C2 2
1
iC .
C3 3
(2.316a)
(2.316b)
(2.316c)
Per determinare il modello nello spazio di stato è quindi richiesta la conoscenza delle grandezze iC1 , iC2 ed
iC3 rispetto alle variabili di stato ed al segnale di ingresso. Tali relazioni possono essere ricavate utilizzando le
equazioni di equilibrio e le relazioni costitutive delle resistenze (cioè, le equazioni non ancora utilizzate).
Dalle precedenti equazioni (2.314) si ricava il sistema algebrico:
u
x1
i R1
= R1 iR1 + x1 ,
(2.317a)
= x2 + x3 + R2 iR2 ,
(2.317b)
= iC1 + iC2
(2.317c)
la cui soluzione, nelle variabili iC1 , iC2 ed iC3 rispetto alle variabili di stato ed ingresso, è data da (assumendo
componenti di valore unitario):
iC1
=
iC2
iC3
=
=
u − 2x1 + x2 + x3
(2.318a)
x1 − x2 − x3
x1 − x2 − x3 .
(2.318b)
(2.318c)
Il modello dinamico del circuito elettrico in esame si ottiene combinando le equazioni (2.316) con le (2.318):
x˙1
x˙2
x˙3
= −2x1 + x2 + x3 + u
(2.319a)
= x1 − x2 − x3
= x1 − x2 − x3 .
(2.319b)
(2.319c)
Tali equazioni vanno completate con l’equazione di uscita. Se la grandezza di interesse (cioè, l’uscita), è la
tensione vR2 + vC3 ai capi della serie resistenza R2 e capacità C3 , si ha:
y = x1 − x2
(2.320)
In forma matriciale il modello dinamico, sulla base delle (2.319) e della (2.320), è quindi:
ẋ =
Ax + bu,
(2.321a)
y
cx
(2.321b)
=
con le matrici A, b e c pari a:
A =


−2 1
1
 1 −1 −1  ,
1 −1 −1


1
b =  0 ,
0
c=
1 −1 0
.
(2.322a)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-121
Gli autovalori della matrice A risultano essere: λ1 = 0, λ2 = −0.58 e λ3 = −3.41, cui sono quindi associati
i tre modi naturali reali:
m1 (t)
=
m2 (t)
m3 (t)
=
=
e 0t = δ−1 (t),
(2.323a)
e −0.58t ,
e −3.41t .
(2.323b)
(2.323c)
Il calcolo della matrice di trasferimento può essere condotto in modo dettagliato, esaminando la forma della
matrice c adj (sI − A) b e la forma del polinomio det(sI − A). Si trova:
c adj (sI − A) b
det(sI − A)
=
=
s(s + 1),
(2.324)
2
s(s + 4s + 2)
(2.325)
e quindi, dopo aver operato la cancellazione polo-zero, si ottiene la seguente funzione di trasferimento:
w(s) =
s+1
.
s2 + 4s + 2
(2.326)
Da un punto di vista meramente algebrico, si noti come, in virtù della forma delle matrici b e c del sistema, sia
sufficiente calcolare solo i primi due elementi della prima riga della matrice adj (sI − A) per determinare la
funzione di trasferimento. Infatti, la forma della matrice b implica che la seconda e terza riga di adj (sI −A) non
sono rilevanti (poiché vengono moltiplicate per zero), mentre la forma della matrice c implica la non rilevanza
della terza colonna di tale matrice.
Si noti come uno degli autovalori del sistema, quello nell’origine, cancellandosi con uno zero, non appare
nella funzione di trasferimento. Ciò implica una “perdita di informazione” sulla struttura interna del sistema
nell’uso della funzione di trasferimento come modello. Si vedrà nel seguito che tale fenomeno è legato, come nel
caso del precedente esercizio, ad una carenza della proprietà strutturale di “raggiungibilità”.
Approfondendo la cancellazione polo-zero, si può notare, dal calcolo dettagliato della matrice adj (sI − A)
e del polinomio det(sI − A), che lo zero interessato alla cancellazione emerge dal prodotto adj (sI − A) b, e
quindi tale cancellazione dipende dal modo in cui il segnale di ingresso (il cui effetto sullo stato è legata alla
matrice b) interagisce con la dinamica. Ciò è del tutto analogo a quanto già visto nell’esempio riportato nella
sezione precedente.
Tale interazione è estremamente importante, e sarà studiata in modo particolarmente approfondito in un
capitolo successivo.
A titolo di esercizo, in questo caso si propone lo studio dell’intera matrice esponenziale. Lavorando nel
dominio di Laplace, verrà studiata quindi l’intera matrice (sI − A)−1 :
 2

s + 2s
s
s
s
s2 + 3s + 1
−s − 1  ,
adj (sI − A) = 
(2.327a)
s
−s − 1
s2 + 3s + 1
 2

s + 2s
s
s
1
s
s2 + 3s + 1
−s − 1 
(sI − A)−1 = 
(2.327b)
s(s2 + 4s + 2)
2
s
−s − 1
s + 3s + 1


1
1
s+2
=
 s2 + 4s + 2

1

 s2 + 4s + 2


1
2
s + 4s + 2
s2 + 4s + 2
s2 + 3s + 1
s(s2 + 4s + 2)
−s − 1
2
s(s + 4s + 2)
s2 + 4s + 2
−s − 1
2
s(s + 4s + 2)
s2 + 3s + 1
s(s2 + 4s + 2)



.


(2.327c)
Si noti come gli elementi relativi alla seconda e terza variabile di stato (cioè, gli elementi in posizione (2, 2),
(2, 3), (3, 2) e (3, 3)) non presentino la cancellazione dell’autovalore nell’origine. Si noti che tali elementi (in
base alla considerazione riportata poco sopra) non concorrono a determinare la funzione di trasferimento.
È molto utile anche esaminare l’autovettore associato all’autovalore nullo, verificare la corrispondente soluzione
nel dominio del tempo, ed utilizzare la forma di tale autovettore per dedurre indicazioni sul significato fisico del
modo naturale costante e della sua mancata presenza nel legame ingresso/uscita.
Per studiare meglio la cancellazione polo-zero (in attesa di approfondire il tema con lo studio delle proprietà
strutturali) che porta alla “perdita di informazione”, per cui un autovalore non appare come polo, si può provare
a studiare l’autovettore associato all’autovalore “perso”.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-122
Ricordando che la relazione tra una matrica A, un suo autovalore λ ed il corrispondente autovettore v è
λv = Av, per il caso dell’autovalore nullo del modello in esame si trova:
Av

−2 1
=  1 −1
1 −1


1
v1
−1   v2  = 0,
−1
v3
(2.328)
la cui soluzione si trova facilmente essere v1 = 0, v2 = −v3 , e quindi l’autovettore cercato è:


0
v =  1 .
−1
(2.329)
Le condizioni iniziali che eccitano solo il modo naturale costante associato a tale autovalore sono quindi
caratterizzate dal fatto che il condensatore C1 è scarico, mentre i condensatori C2 e C3 sono carichi con due
tensioni uguali ed opposte. In tale situazione, la caduta di tensione ai capi della resistenza di uscita è nulla.
Tale condizione iniziale, se osservata solo a partire dalla funzione di uscita, è quindi del tutto indistinguibile
dalla condizione iniziale nulla. Su questo aspetto si tornerà con maggiore dettaglio in occasione dello studio
della proprietà strutturale di osservabilità.
Analogamente, un punto dello spazio di stato caraterizzato dalla prima componente dello stato nulla, come
l’autovettore in esame, corrisponde ad un circuito equivalente del tipo in figura 2.45, da cui si evince facilmente
l’ostruzione che trova il segnale di ingresso. Su questo aspetto si tornerà con maggiore dettaglio in occasione
dello studio della proprietà strutturale di raggiungibilità.
RG
C2
R1
vin
C3
Figura 2.45: Circuito RLCN C ridotto.
2.7.3
Esempio: analisi circuito RLC [RLC100]
Dato il seguente circuito elettrico, con R1 = α, e tutti gli altri parametri di valore unitario, a) determinare
il modello dinamico, parametricamente rispetto al reale α, e inoltre b), fissato α = 1, tracciare i diagrammi di
Bode del sistema.
Modello dinamico
Il sistema, caratterizzato da tre componenti con memoria, può essere descritto da un modello dinamico con tre
variabili di stato, ed in particolare dalla caduta di tensione ai capi del condensatore e dalla corrente lungo i due
induttori:
x1
= VC
(2.330)
x2
x3
= iL1
= iL2 .
(2.331)
(2.332)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-123
RG
L2
C
L1
vin
Ro , vRo = vout
R1
Figura 2.46: Schematico del circuito RLC100.
Si ricava facilmente il modello differenziale:
ẋ1
ẋ2
= x2 + x3
= −x1 − (1 + α)x2 − x3 + u
(2.333a)
(2.333b)
= −x1 − x2 − 2x3 + u
= x3 ,
ẋ3
y
(2.333c)
(2.333d)
che in forma matriciale è descritto da:
ẋ =
y
=




0
1
1
0
 −1 −(1 + α) −1  x +  1  u,
−1
−1
−2
1
0 0 1 x.
(2.334a)
(2.334b)
Per il calcolo della funzione di trasferimento si può procedere con la formula classica:
W (s) = c(sI − A)−1 b =
c adj (sI − A) b
.
det(sI − A)
(2.335)
Per il numeratore si tratta di calcolare il prodotto:
c adj (sI − A) b =
trovando:
0
0 1

∗
∗
 ∗
∗
∗ e3,2
∗
∗
e3,3


0
 1 ,
1
c adj (sI − A) b = s2 + s = s(s + 1).
(2.336)
(2.337)
Per il denominatore si trova facilmente:
det(sI − A) = s3 + 4s2 + 5s + 2 = (s + 1)2 (s + 2),
(2.338)
e quindi la funzione di trasferimento, operando la semplificazione numeratore/denominatore, è pari a:
W (s) =
s
s(s + 1)
=
.
(s + 1)2 (s + 2)
(s + 1)(s + 2)
(2.339)
Tracciamento dei diagrammi di Bode
Per il tracciamento dei diagrammi di Bode si parte dalla funzione di trasferimento, già calcolata al punto
precedente, riscrivendola nella forma di costanti di tempo e guadagno:
W (s) =
s
s
1
=
.
(s + 1)(s + 2)
2 (1 + s)(1 + s/2)
(2.340)
Si procede tracciando i diagrammi asintotici dei moduli per il termine di guadagno (pari a g = 1/2), per i
termini associati ai due poli e per il termine associato allo zero nell’origine.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-124
Diagramma asintotico di Bode (moduli)
40
30
20
10
M
dB
0
−10
−20
−30
−40
−50
−1
10
0
1
10
10
2
10
rad/sec
Figura 2.47: Circuito RLC100: diagramma di Bode del termine di guadagno.
Diagramma asintotico di Bode (moduli)
40
30
20
10
M
dB
0
−10
−20
−30
−40
−50
−1
10
0
1
10
10
2
10
rad/sec
Figura 2.48: Circuito RLC100: diagramma di Bode asintotico del polo p1 = −1.
Il guadagno è un termine costante pari a 20 log10 (1/2) = −6dB:
Il contributo del primo polo, p1 = −1, è nullo fino ad una pulsazione pari a 1 rad/s (Fig. 2.48). Il contributo
del secondo polo, p2 = −2, è nullo fino ad una pulsazione pari a 2rad/s (Fig. 2.49).
Infine, il contributo dello zero nell’origine è una retta con pendenza costante su tutto lo spettro e pari a
20dB/dec (figura 2.50).
Sommando tutti i singoli diagrammi asintotici, si ottiene il diagramma asintotico complessivo (figura 2.51),
che si trasforma facilmente nel diagramma esatto tenendo conto delle correzioni da apportare in corrispondenza
dei punti di rottura associati a ciascun polo (figura 2.52).
Per quanto riguarda il diagramma delle fasi, si riporta solo il diagramma corretto, ottenuto con l’utilizzo di
Matlab (figura 2.53).
♦
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-125
Diagramma asintotico di Bode (moduli)
40
30
20
10
M
dB
0
−10
−20
−30
−40
−50
−1
10
0
1
10
10
2
10
rad/sec
Figura 2.49: Circuito RLC100: diagramma di Bode asintotico del polo p2 = −2.
Diagramma asintotico di Bode (moduli)
40
30
20
10
M
dB
0
−10
−20
−30
−40
−50
−1
10
0
1
10
10
2
10
rad/sec
Figura 2.50: Circuito RLC100: diagramma di Bode asintotico dello zero nell’origine z1 = 0.
2.8
Esercizi proposti
Esercizio 2.14 Si dimostri, con riferimento sia alla proprietà 2.8 di trasformazione di una derivata sia alla
notazione utilizzata in tale contesto e alle relative ipotesi, che:
lim u(t)e −st = 0.
t→∞
(2.341)
Esercizio 2.15 Si dimostri, con riferimento alla proprietà 2.17, la trasformata di Laplace di una funzione
sinusoidale.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-126
Diagramma asintotico di Bode (moduli)
40
30
20
10
M
dB
0
−10
−20
−30
−40
−50
−1
10
0
1
10
10
2
10
rad/sec
Figura 2.51: Circuito RLC100: diagramma di Bode asintotico (moduli)
Diagramma asintotico e corretto di Bode (moduli)
40
30
20
10
M
dB
0
−10
−20
−30
−40
−50
−1
10
0
1
10
10
2
10
rad/sec
Figura 2.52: Circuito RLC100: diagramma di Bode dei moduli corretto
Esercizio 2.16 Si consideri il sistema dinamico planare
ẋ =
0
0
1
0
x,
(2.342)
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-127
Diagramma corretto di Bode (fasi)
100
80
60
40
deg
20
0
−20
−40
−60
−80
−100
−2
10
−1
0
10
10
rad/sec
1
10
2
10
Figura 2.53: Circuito RLC100: diagramma di Bode delle fasi corretto
e si conduca l’analisi modale.
Esercizio 2.17 Si consideri il sistema dinamico planare
0 0
ẋ =
x,
0 0
(2.343)
e si conduca l’analisi modale.
Esercizio 2.18 Calcolare la funzione trasformata di Laplace della funzione del tempo:
x(t)
= e3t (t + 1)2 (δ−1 (t − 2) − δ−1 (t − 5)),
t ∈ R,
dove δ−1 (·) è la funzione a gradino unitario.
Esercizio 2.19 Data le seguenti matrici


λ 1 0
A= 0 λ 1 
0 0 λ


λ 1 0
F = 0 λ 0 
0 0 λ
determinare, per mezzo della trasformazione di Laplace, gli esponenziali di matrice definiti da e At , t ∈ R+ e da
e F t , t ∈ R+ .
Discutere le due funzioni matriciali trovate.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-128
Esercizio 2.20 Data la seguente matrice

λ1
A= 0
0
1
λ2
0

0
1 
λ3
determinare, per mezzo della trasformazione di Laplace, la matrice e At , t ∈ R+ .
Esercizio 2.21 Calcolare la trasformata di Laplace delle seguenti funzioni:
Y1 (s)
=
Y2 (s)
=
Y3 (s)
=
Esercizio 2.22 Calcolare la trasformata di




x(t) =



e −2s
,
(s + 2)(s + 3)
2
,
s2 (s + 1)(s − 1)
s
.
(s + 6π)2
Laplace della seguente funzione:
0,
t ∈ R, t < 0,
2πt
sin(
) , t ∈ R, 6 ≥ t ≥ 0,
6
0,
t ∈ R, t > 6,
dove | · | indica la funzione valore assoluto. Si consiglia di disegnare la funzione, ed esprimerla poi come
combinazione lineare di funzioni trasformabili in modo semplice.
Esercizio 2.23 Per mezzo della trasformazione di Laplace, calcolare il valore numerico del seguente integrale:
Z +∞
τ 4 e−3τ dτ.
0
Esercizio 2.24 Calcolare la funzione antitrasformata di Laplace della seguente funzione:
X(s) =
(s2
s
.
+ 4)2
Esercizio 2.25 Calcolare la funzione antitrasformata di Laplace della seguente funzione:
X(s) =
s
.
(s2 − 4)(s2 − 9)
Esercizio 2.26 Calcolare la funzione antitrasformata di Laplace della seguente funzione:
X(s) =
(s2
s
.
+ 4)(s2 + 9)
Esercizio 2.27 Calcolare la funzione antitrasformata di Laplace della seguente funzione:
X(s) =
1
.
(s2 + 1)(s2 − 1)
Esercizio 2.28 Calcolare la funzione antitrasformata di Laplace della seguente funzione:
X(s) =
1
.
(s2 − 16)(s2 + 9)
Esercizio 2.29 Calcolare la funzione trasformata di Laplace della seguente funzione:
x(t) = e 2t (2t + 1)(δ−1 (t − 2) − δ−1 (t − 4)),
dove δ−1 (t) è la funzione gradino unitario.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-129
Esercizio 2.30 Calcolare la funzione trasformata di Laplace della seguente funzione:
x(t) = e 2t (t + 2)(δ−1 (t − 1) − δ−1 (t − 3)),
dove δ−1 (t) è la funzione gradino unitario.
Esercizio 2.31 Determinare la trasformata di Laplace della seguente funzione
x(t) = |e 10 − e 2t |δ−1 (t),
t ∈ R,
dove δ−1 (·) è la funzione a gradino unitario.
Esercizio 2.32 Data la seguente matrice

1
 4
B=
 1
1
0
0
0
4
0
0
0
0

0
0 

4 
4
determinare, per mezzo della trasformazione di Laplace, la matrice e Bt , t ∈ R+ .
Esercizio 2.33 Si consideri il seguente sistema di due equazioni differenziali lineari e stazionarie:
ẋ1 (t) =
ẋ2 (t) =
y(t) =
−x2 (t) − et + 1,
x2 (t) + et ,
x1 (t) + x2 (t).
Si determini, per mezzo della trasformazione di Laplace, la soluzione di tale sistema (sia nelle variabili di
stato che nella variabile di uscita) a partire da una condizione iniziale x(0) = (x1 (0), x2 (0))T nulla.
Esercizio 2.34 Si consideri il seguente sistema di due equazioni differenziali lineari e stazionarie:
ẋ1 (t) =
ẋ2 (t) =
y(t) =
−x2 (t),
x2 (t),
x1 (t) + x2 (t).
Si determini, per mezzo della trasformazione di Laplace, la soluzione di tale sistema (sia nelle variabili di
stato che nella variabile di uscita) a partire da una condizione iniziale x1 (0) = 1, x2 (0) = 0 ed a partire da una
condizioni iniziale x1 (0) = 0, x2 (0) = 1.
Esercizio 2.35 Dato il sistema lineare a tempo continuo:
ẋ1
ẋ2
y(t)
= x2
= −p1 x1 − (p1 + 1)x2 + u(t),
= 2x1 ,
se ne determini la funzione di trasferimento tra l’ingresso u(t) e l’uscita y(t), parametricamente rispetto al
parametro p1 .
Si studi poi la forma della risposta nelle variabili x1 (t) ed y(t) per ingresso forzante u(t) = u1 (t), u1 (t) =
δ−1 (t) e per ingresso forzante u(t) = u2 (t), u2 (t) = sin(6πt), al variare del parametro p1 nell’insieme dei numeri
reali.
Esercizio 2.36 Dato il sistema lineare a tempo continuo:
ẋ1
ẋ2
y(t)
= x2
= −p1 x1 − (p1 + 1)x2 + u(t),
= x1 + x2 ,
se ne determini la funzione di trasferimento tra l’ingresso u(t) e l’uscita y(t), al variare del parametro p1
nell’insieme dei reali.
Capitolo 2: Analisi sistemi LSTC
[P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-130
Esercizio 2.37 Dato il sistema lineare a tempo continuo:
ẋ1
=
x2
ẋ2
=
−6x1 − 5x2 + u(t),
y(t) =
x1 ,
si risolvano i seguenti problemi.
1. Determinare la funzione di trasferimento tra l’ingresso u(t) e l’uscita y(t).
2. Calcolare la risposta in uscita per i seguenti segnali di ingresso, assumendo condizioni iniziali nulle:
u(t) =
u(t) =
sin(0.1t);
sin(t);
u(t) =
u(t) =
sin(10t);
2δ1 (t);
u(t) =
e 2t ;
u(t) =
t.
3. Valutare l’esistenza della risposta permanente del sistema.
4. Calcolare, se esiste, il vettore di condizioni iniziali x1 (0) = x1,0 , x2 (0) = x2,0 cui corrisponde una risposta
completa coincidente con la risposta permanente, assumendo come segnale di ingresso un gradino unitario.
Esercizio 2.38 Dato il sistema lineare a tempo continuo:
ẋ1
=
ẋ2 =
y(t) =
x2
−x1 − 2x2 + 2u(t),
x1 ,
risolvere i seguenti problemi.
1. Determinare la funzione di trasferimento tra l’ingresso u(t) e l’uscita y(t).
2. Calcolare la risposta in uscita per i seguenti segnali di ingresso, assumendo condizioni iniziali nulle:
u(t) =
u(t) =
sin(0.5t);
sin(t);
u(t) =
u(t) =
δ2 (t);
e 4t .
3. Valutare l’esistenza della risposta permanente del sistema.
4. Calcolare, se esiste, il vettore di condizioni iniziali x1 (0) = x1,0 , x2 (0) = x2,0 cui corrisponde una risposta
completa coincidente con la risposta permanente, assumendo come segnale di ingresso una rampa con
pendenza unitaria.
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-131
Capitolo 3
Analisi di sistemi lineari stazionari a
tempo discreto
3.1
Introduzione
In questo capitolo vengono presentati strumenti per l’analisi del comportamento nel tempo di sistemi dinamici
lineari, stazionari, a tempo discreto (LSTD).
Dopo aver introdotto la rappresentazione esplicita e la trasformata Zeta, si affronta il tema dell’analisi
modale, del comportamento ingresso-uscita e della risposta forzata. Il capitolo si conclude con lo studio della
risposta permamente e con esempi ed esercizi.
3.2
Rappresentazione esplicita per sistemi LTDS
La classe di sistemi a tempo discreto considerata in queste note è costituita dai sistemi lineari, stazionari, a
dimensione finita e causali, rappresentabili per mezzo di equazioni alle differenze finite della seguente forma:
x(k + 1) =
y(k) =
Ax(k) + Bu(k),
Cx(k) + Du(k),
x ∈ Rn , u ∈ Rm , k ∈ Z
y ∈ Rp
(3.1a)
(3.1b)
in cui A, B, C e D sono matrici ad elementi reali di dimensioni compatibili con il vettore di stato x, il vettore
delle sequenze di ingresso u ed il vettore delle sequenze di uscita y.
Nel seguito un sistema del tipo precedente verrà sinteticamente indicato con la notazione Σ(A, B, C, D),
mentre le equazioni alle differenze finite verranno indicate anche con il termine rappresentazione implicita del
sistema.
Lo studio del comportamento dei sistemi dinamici a tempo discreto può essere condotto analizzando le
proprietà della soluzione dell’equazione alle differenze finite corrispondente. In particolare, il comportamento
del vettore di stato x(k) e del vettore di uscita y(k) può essere descritto tramite la rappresentazione esplicita,
cioè tramite la soluzione dell’equazione alle differenze finite (3.1) e dell’equazione algebrica (3.1b). Nel caso
generale tale rappresentazione esplicita è data, formalmente, dalle due funzioni seguenti:
x(k)
=
x(k, k0 , x0 , u[k0 ,k] ) = x(k, k0 , x0 , u(·))
(3.2a)
y(k) =
y(k, k0 , x0 , u[k0 ,k] ) = y(k, k0 , x0 , u(·)).
(3.2b)
La funzione x(k, k0 , x0 , u[k0 ,k] ), per semplicità indicata con la notazione x(k, k0 , x0 , u(·)) è la rappresentazione
esplicita nello stato, e definisce il valore dello stato all’istante k, a partire dalla condizione iniziale x0 all’istante k0
sotto l’effetto della sequenza di ingresso u(·), ristretta all’intervallo temporale [k0 , k]1 . La funzione y(k, k0 , x0 , u(·))
è la rappresentazione esplicita in uscita, a partire dalla condizione iniziale x0 all’istante k0 sotto l’effetto della
sequenza di ingresso u[k0 ,k] .
Nel caso dei sistemi a tempo discreto la forma della rappresentazione esplicita, cioè della soluzione dell’equazione
alle differenze, può essere ricavata per semplice ragionamento induttivo. Si consideri inizialmente il caso di un
1 La
notazione s[k1 ,k2 ] indica la porzione di seguenza s relativa all’intervallo [k1 , k2 ].
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-132
sistema omogeneo, cioè senza segnale di ingresso, caratterizzato dalla condizione iniziale x(0) = x0 . In tal caso,
limitatamente alla dinamica dello stato ed assumendo nullo l’istante iniziale, il sistema è descritto dall’equazione:
x(k + 1) = Ax(k),
(3.3)
da cui, per induzione:
x(1)
x(2)
= Ax(0)
= Ax(1) = A2 x0
(3.4a)
(3.4b)
x(3)
= Ax(2) = A3 x0
..
.
= Ax(k − 1) = Ak x0 .
(3.4c)
x(k)
(3.4d)
La soluzione nelle variabili di stato del sistema dinamico omogeneo (3.3), ovvero la risposta libera nello stato, a
partire dalla condizione iniziale x0 all’instante iniziale k0 = 0, assume quindi la forma:
x(k, 0, x0 , 0) = Ak x0 .
(3.5)
La matrice Ak verrà detta nel seguito matrice esponenziale a tempo discreto, brevemente matrice esponenziale
discreta. È detta anche matrice di transizione dello stato a tempo discreto.
Nel caso generale di sistema forzato, descritto quindi dalla rappresentazione implicita:
x(k + 1) = Ax(k) + Bu(k)
(3.6)
procedendo ancora per induzione si trova:
x(1) =
Ax0 + Bu(0)
x(2) =
=
Ax(1) + Bu(1)
A2 x0 + ABu(0) + Bu(1)
=
A2 x0 +
1
X
(3.7a)
A2−1−i Bu(i)
(3.7b)
i=0
x(3) =
=
=
Ax(2) + Bu(2)
A3 x0 + A2 Bu(0) + ABu(1) + Bu(2)
2
X
A3−1−i Bu(i)
A3 x0 +
(3.7c)
i=0
x(k)
..
.
=
=
=
Ax(k − 1) + Bu(k − 1)
Ak x0 + Ak−1 Bu(0) + · · · + ABu(k − 2) + Bu(k − 1)
Ak x0 +
k−1
X
Ak−1−i Bu(i),
(3.7d)
i=0
e quindi la soluzione del sistema dinamico (3.6) nello stato, ovvero la risposta completa nello stato, a partire
dalla condizione iniziale x0 all’instante iniziale k0 = 0, sotto l’azione della sequenza di ingresso u(·), assume la
forma:
k−1
X
k
Ak−1−i Bu(i).
(3.8)
x(k, 0, x0 , u(·)) = A x0 +
i=0
Pk−1
k−1−i
La sommatoria
Bu(i) nell’equazione (3.8) è l’equivalente a tempo discreto dell’integrale di
i=0 A
convoluzione, ed è chiamata convoluzione discreta.
Capitolo 3: Analisi sistemi LTDS
3.2.1
[Ed. 2015, V 4.0 - PV - UniPG] - 3-133
Risposta libera e risposta forzata
Si noti che la risposta completa nello stato è lineare sia rispetto alla condizione iniziale, sia rispetto alla sequenza
di ingresso. In virtù di questa linearità per la risposta completa vale il ben noto principio di sovrapposizione degli
effetti: la risposta completa alla condizione iniziale x0 ed alla sequenza di ingresso u(·) può essere scomposta
nel contributo della risposta libera xℓ )(·) e della risposta forzata xf (·):
x(k)
x(k)
=
=
xf (k) + xℓ (k),
(3.9a)
x(k, 0, x0 , u(·)) = Ak x0 +
k
X
Ak−1−i Bu(i)
(3.9b)
i=0
xf (k) =
xℓ (k) =
x(k, 0, 0, u(·)) =
x(k, 0, x0 , 0) =
k
X
Ak−1−i Bu(i)
i=0
Ak x0 .
(3.9c)
(3.9d)
Si noti come la risposta libera nello stato xℓ (·) descrive solo l’effetto della condizione iniziale del sistema, in
assenza di ingresso, mentre la risposta forzata nello stato xf (·) descrive solo l’effetto della sequenza di ingresso,
a partire da condizioni iniziali nulle.
Le considerazione relative all’evoluzione dello stato possono essere estese facilmente al caso dell’uscita,
tenendo conto del fatto che il legame uscita-stato è statico:
y(k) = Cx(k) + Du(k).
(3.10)
La risposta completa in uscita è data quindi da:
y(k) = y(k, 0, x0 , u(·)) = CAk x0 +
k−1
X
CAk−1−i Bu(i) + Du(k),
(3.11)
i=0
ed analogamente per la risposta libera in uscita yℓ (·) e la risposta forzata in uscita yf (·):
yℓ (k)
yf (k)
= y(k, 0, x0 , 0) = CAk x0
= y(k, 0, 0, u(·)) =
k−1
X
i=0
CAk−1−i Bu(i) + Du(k).
(3.12a)
(3.12b)
Capitolo 3: Analisi sistemi LTDS
3.3
[Ed. 2015, V 4.0 - PV - UniPG] - 3-134
La trasformata Z
Lo studio dei sistemi lineari stazionari a tempo discreto, ed in particolare lo studio dei legami ingresso-uscita
di tali sistemi, è di solito condotto facendo uso delle strumento formale-simbolico della trasformata Z.
In queste note la trasformata Z viene presentata in modo estremamente sintetico ed operativo. Per tutti gli
aspetti formali e di esistenza della trasformata si rimanda a testi specifici.
Si consideri una sequenza f : Z+ → C, {f (k) = fk , k = 0, 1, 2, . . .}. La trasformata Z è un operatore
dallo spazio di tali sequenze allo spazio di funzioni di variabile complessa, ed associa ad ogni sequenza f (·) una
funzione, indicata (impropriamente) con F (z) = Z[f (k)], e definita dalla serie:
F (z) :=
∞
X
f (k)z −k ,
(3.13)
k=0
ammesso che tale serie converga. Tenendo conto del fatto che F (z) è definita a partire da una serie in z −1 ,
la convergenza sarà ottenuta all’esterno di un cerchio centrato nel’origine del piano complesso e di raggio R
sufficientemente grande. Il valore di tale raggio è detto raggio di convergenza della trasformata U (z), e dipende
dalla specifica sequenza considerata. La regione del piano complesso esterna al cerchio di raggio R centrato
nell’origine è detta regione di convergenza o dominio di convergenza.
Ad esempio, si consideri la funzione (a tempo discreto) impulso unitario, definito da:
1 k=0
δ(k) =
(3.14)
0 k 6= 0
La trasformata Z di u(k) = δ(k) è data da:
U (z) = Z[u(k)] = 1,
(3.15)
infatti, dalla definizione, segue immediatamente:
U (z) = u(0) + u(1)z −1 + u(2)z −2 + · · · = u(0) = 1.
(3.16)
Da quanto precede, segue facilmente che il raggio di convergenza è R = 0.
Nota la trasformata Z di una sequenza, sia essa X(z), la sua rappresentazione nel dominio del tempo può
essere ottenuta tramite la anti-trasformata Z, o trasformata inversa, definita dal seguente integrale di inversione:
Z
1
x(k) = Z −1 [X(z)] =
z k−1 X(z)dz, ∀k ∈ Z+ ,
(3.17)
2π Γ
dove l’integrale di linea è calcolato lungo una circonferenza Γ interna alla regione di convergenza e con centro
nell’origine del piano z.
L’uso della trasformata Z, analogamente a quanto visto per la trasformata di Laplace, è reso particolarmente
agevole da alcune proprietà fondamentali, che consentono di ricavare la trasformata della maggior parte dei
segnali di interesse a partire da quella di pochi segnali notevoli (si veda le seguente tabella 3.1).
3.3.1
Proprietà della trasformata Zeta
Le seguenti proprietà della trasformata Zeta sono di fondamentale importanza.
Proprietà 3.1 (Proprietà di unicità) Data una funzione olomorfa U (z), definita nella regione di piano complesso esterna ad un cerchio di raggio ρ, esiste ed è unica una funzione x(k), k ∈ Z+ , che soddisfa la condizione:
U (z) = Z[x(k)],
(3.18)
e che può essere calcolata per mezzo dell’integrale (3.17), con Γ cerchio di raggio maggiore di ρ.
Proprietà 3.2 (Linearità) Siano u(k) e y(k), k ∈ Z+ , due sequenze temporali, con trasformata Zeta U (z) ed
Y (z), rispettivamente. Allora, vale la seguente proprietà di linearità:
Z[c1 u(k) + c2 y(k)] = c1 U (z) + c2 Y (z),
∀c1 , c2 ∈ R.
(3.19)
⊓
⊔
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-135
Analogamente a quanto già visto nel caso dei sistemi a tempo continuo, le due proprietà di unicità e linearità
sono di fondamentale importanza concettuale, e senza di loro la trasformata Zeta non sarebbe di alcun interesse
pratico. Le sequenti proprietà hanno invece un significato operativo: descrivono le situazioni specifiche nelle
quali la trasformata riveste interesse e le corrispondenti forme di impiego.
Proprietà 3.3 (Ritardo (Scorrimento a destra)) Siano u(k) ed U (z) una sequenza temporale e la sua
trasformata. Allora, dato un intero h > 0, la funzione traslata nel tempo u(k − h) ha trasformata:
Z[u(k − h)] = z −h U (z).
(3.20)
Dimostrazione.
Z[u(k − h)] =
∞
X
k=0
u(k − h)z
−t
=
∞
X
u(k)z
−(k+h)
=z
−h
k=−h
∞
X
u(k)z
−k
=z
k=−h
−h
∞
X
u(k)z −k = z −h U (z).
k=0
⊓
⊔
Proprietà 3.4 (Anticipo (Scorrimento a sinistra)) Siano u(k) ed U (z) una sequenza temporale e la sua
trasformata. Allora, dato un intero h > 0, la funzione traslata nel tempo a sinistra (anticipata) u(k + h) ha
trasformata:
#
"
h−1
X
−t
h
.
(3.21)
u(k)z
Z[u(k + h)] = z U (z) −
k=0
Nel caso particolarmente importante in cui lo scorrimento è di un solo passo, si ha:
Z[x(k + 1)] = zU (z) − zu(0).
(3.22)
Dimostrazione. La trasformata di interesse è data da:
Z [x(k + h)]
=
∞
X
x(k + h)z −t =
t=0
= zh
∞
X
k=h
∞
X
x(k)z −(k−h) = z h
k=h
x(k)z −k ± z h
∞
X
x(k)z −k
k=h
h−1
X
x(k)z −k = z h
k=0
∞
X
k=0
x(k)z −k − z h
h−1
X
k=0
x(k)z −k = z h X(z) − z h
h−1
X
x(k)z −k
k=0
⊓
⊔
Proprietà 3.5 (Traslazione nel dominio di z (traslazione complessa)) Siano u(k), k ∈ Z+ , ed U (z) un
segnale del tempo e la sua trasformata. Allora, la funzione ak u(k) ha trasformata pari a:
z
Z[ak u(k)] = U ( ).
a
(3.23)
⊓
⊔
Proprietà 3.6 (Convoluzione) Siano u(k) ed y(k) due sequenze del tempo, k ∈ Z+ , U (z) ed Y (z) le loro
trasformate. Allora, la convoluzione delle due sequenze, definita da:
u(k) ∗ y(k) :=
k
X
τ =0
u(k − τ )y(τ ) =
k
X
τ =0
u(τ )y(k − τ )
(3.24)
ha trasformata pari a:
Z [u(k) ∗ y(k)] = U (z)Y (z).
(3.25)
⊓
⊔
Proprietà 3.7 (Differenziazione rispetto a z) Siano u(k), k ∈ Z, ed U (z) un segnale del tempo e la sua
trasformata. Allora, la funzione ku(k) ha trasformata Zeta pari a:
Z [ku(k)] = −z
d
U (z).
dz
(3.26)
⊓
⊔
Capitolo 3: Analisi sistemi LTDS
3.3.2
[Ed. 2015, V 4.0 - PV - UniPG] - 3-136
Trasformata Zeta di segnali notevoli
Si danno ora le trasformate di alcuni segnali elementari, di interesse nello studio di sistemi dinamici.
Proprietà 3.8 (Gradino unitario) Sia δ−1 (k), k ∈ Z la funzione gradino unitario:
0 ∈ Z, < 0
δ−1 (k) =
,
1 k ∈ Z, k ≥ 0
la sua trasformata Zeta è data da:
Z[δ−1 (k)] =
z
.
(z − 1)
(3.27)
(3.28)
Dimostrazione In questo caso la serie formale che definisce la trasformata Zeta diviene:
∞
X
u(k)z −k =
k=0
∞
X
z −k ,
(3.29)
k=0
e tale serie converge, per tutti i valori z con |z| > 1, ed ha come somma:
z
1
=
.
−1
1−z
z−1
Proprietà 3.9 (Rampa unitaria) Sia δ−2 (k) una rampa con pendenza unitaria:
0 k ∈ Z, k < 0
δ−2 (k) =
,
k k ∈ Z, k ≥ 0
la sua trasformata Zeta è data da:
Z [δ−2 (k)] =
z
.
(z − 1)2
(3.30)
⊓
⊔
(3.31)
(3.32)
Dimostrazione Si ottiene facilmente a partire dalla trasformata di un gradino, applicando la proprietà (3.7) di
differenziazione rispetto a z.
⊓
⊔
Proprietà 3.10 (Segnale esponenziale) Sia u(k) un segnale esponenziale (a tempo discreto) con costante
a:
0
k ∈ Z, k < 0
u(k) =
,
(3.33)
ak k ∈ Z, k ≥ 0
la sua trasformata Zeta è data da:
Z[ak δ−1 (k)] =
z
.
z−a
(3.34)
Dimostrazione Il risultato si può dimostrare a partire dalla trasformata di un gradino, tenendo conto della
proprietà 3.5 di traslazione nel dominio di z.
⊓
⊔
Proprietà 3.11 (Segnale esponenziale-rampa) Sia u(k) il prodotto di un esponenziale per una rampa:
0
k ∈ Z, k < 0
,
(3.35)
u(k) =
kak k ∈ Z, k ≥ 0
la sua trasformata Zeta è data da:
Z[kak ] =
az
.
(z − a)2
(3.36)
Dimostrazione Si ottiene facilmente a partire dalla trasformata di un gradino, applicando la proprietà (3.7) di
differenziazione rispetto a z.
⊓
⊔
A scopo esemplificativo, la tabella 3.1 raccoglie le trasformate dirette ed inverse di alcune funzioni di uso
comune. Di norma, tali trasformate si ottengono facilmente a partire da quelle riportate sopra, tramite le
proprietà descritte in precedenza.
Capitolo 3: Analisi sistemi LTDS
3.3.3
[Ed. 2015, V 4.0 - PV - UniPG] - 3-137
Alcuni teoremi
Nello studio dei sistemi dinamici sono utili alcuni teoremi sui legami tra i valori limite di un segnale del
tempo e della corrispondente trasformata Zeta.
Teorema 3.1 (Valore finale) Sia u(k), k ∈ Z+ , una funzione del tempo, con trasformata U (z). Allora, il
limite per k che tende ad infinito di tale funzione, se esiste ed è finito, è dato da:
lim u(k) = lim
k→∞
z→1+
z−1
U (z).
z
(3.37)
Si noti che il teorema è applicabile solo se il raggio di convergenza è minore di uno, cioè solo se il cerchio unitario
è tutto interno alla regione di convergenza.
Teorema 3.2 (Valore iniziale) Sia u(k), k ∈ Z+ , una funzione del tempo, con trasformata U (z). Allora il
valore iniziale della sequenza, u(0), è dato da:
u(0) = lim U (z).
|z|→∞
(3.38)
(3.39)
3.3.4
Esponenziale di matrice e matrice di trasferimento per sistemi LSTD
Si consideri il sistema dinamico:
x(k + 1) = Ax(k),
x(0) = x0 , k ∈ Z+
(3.40)
È noto che la soluzione di tale equazione omogenea alle differenze finite, cioè la risposta nello stato del sistema
alla data condizione iniziale, la risposta libera nello stato, è descritta dall’esponenziale di matrice (a tempo
discreto):
x(k) = Ak x0 , k ∈ Z+ .
(3.41)
Per il calcolo di tale esponenziale di matrice si può far uso della trasformata Zeta. Infatti, per la proprietà
della trasformata di una funzione traslata nel tempo, il sistema precedente, nel dominio della variabile z, può
essere scritto come:
zX(z) − zx0 = AX(z),
(3.42)
da cui segue facilmente:
(zI − A)X(z) = zx0 .
(3.43)
Nel campo razionale (e non, si badi bene, nel campo dei reali o dei complessi), la matrice (zI − A) è non
singolare, infatti il suo determinante è il polinomio caratteristico del sistema, per cui l’equazione precedente può
essere risolta rispetto alla trasformata dello stato, trovando:
X(z) = z(zI − A)−1 x0 ,
(3.44)
x(k) = Z −1 z(zI − A)−1 x0 ,
(3.45)
Ak = Z −1 z(zI − A)−1 .
(3.46)
da cui, antitrasformando, segue:
e quindi, dal confronto con (3.41), segue:
Per quanto riguarda invece l’analisi di un sistema lineare a tempo discreto, il metodo della trasformata Zeta
consente di determinare in modo semplice il legame ingresso-uscita, e cioè la matrice di trasferimento, di tale
sistema. Si consideri allora il sistema:
x(k + 1) = Ax(k) + Bu(k),
y(k) = Cx(k) + Du(k),
x ∈ Rn , u ∈ Rm , k ∈ Z+
y ∈ Rp .
(3.47)
(3.48)
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-138
Nel dominio della variabile z il sistema è quindi descritto da:
zX(z) − zx0 =
Y (z) =
AX(z) + BU (z)
CX(z) + DU (z),
(3.49)
(3.50)
e quindi, tenendo conto della non-singolarità della matrice (zI − A) nel campo delle funzioni razionali, si trova:
X(z) =
Y (z) =
(zI − A)−1 BU (z) + z(zI − A)−1 x0 ,
−1
C(zI − A)
(3.51a)
−1
BU (z) + DU (z) + zC(zI − A)
x0 .
(3.51b)
Le due equazioni (3.51) descrivono completamente il sistema. La (3.51a) descrive l’effetto delle condizioni
iniziali e dell’ingresso sullo stato, mentre la seconda descrive il legame tra le stesse grandezze e la funzione di
uscita.
I termini delle (3.51) che descrivono l’effetto delle condizioni iniziali sullo stato e sull’uscita sono dette
risposte libere, nello stato e nell’uscita, rispettivamente:
Xℓ (z) = z(zI − A)−1 x0 ,
Yℓ (z) = zC(zI − A)−1 x0
(3.52)
(3.53)
mentre i termini che descrivono l’effetto del segnale (vettoriale) di ingresso sullo stato e sull’uscita sono dette
risposte forzate, nello stato e nell’uscita, rispettivamente:
Xf (z) = (zI − A)−1 BU (z),
Yf (z) = C(zI − A)−1 BU (z) + DU (z).
(3.54)
(3.55)
Infine, la matrice di funzioni razionali
W (z) = C(zI − A)−1 B + D,
(3.56)
che descrive completamente il legame tra il segnale di ingresso e quello di uscita (nel caso di condizioni iniziali
nulle), è detta matrice di trasferimento del sistema. Nel caso in cui sia il segnale di ingresso che quello di uscita
siano scalari, e cioè nel caso m = 1 e p = 1, si parla di funzione di trasferimento.
3.3.5
Antitrasformata di funzioni razionali proprie
Il legame ingresso-uscita di un sistema lineare stazionario a tempo discreto è rappresentabile con una matrice
di funzioni razionali proprie nella variabile z. Tenendo conto della forma della trasformata di segnali esponenziali
e polinomiali, anche l’uscita di un sistema lineare, in risposta a segnali di questo tipo, è descritta, nel dominio
di z, da una funzione razionale. È quindi di notevole importanza vedere come calcolare la trasformata inversa
di una data funzione razionale Y (z). Si procede esattamente come nel caso dei sistemi a tempo continuo, salvo
1
l’opportunità di lavorare con la funzione Y (z) := Y (z). Si noti che la funzione Y (z) è propria, o strettamente
z
propria, e quindi la funzione Y (z) è sempre strettamente propria.
Si consideri allora la seguente funzione Y (z), propria e con denominatore monico:
Y (z) =
βn z n + βn−1 z n−1 + · · · + β1 z + β0
,
z n + αn−1 z n−1 + · · · + α1 z + α0
(3.57)
e si assuma, per semplicità, che le radici del denominatore siano tutte distinte (e complesse coniugate a coppia,
se non reali), e non sia presente un polo nell’origine (perchè introdotto artificialmente nel seguito), cioè:
z n + αn−1 z n−1 + · · · + α1 z + α0 =
n
Y
(z − pi ),
i=1
pi 6= pj , i 6= j, pi 6= 0.
(3.58)
1
Per ben noti risultati sulle funzioni razionali, la funzione Y (z) = Y (z), che è sempre strettamente propria,
z
può essere scomposta in frazioni parziali:
Y (z) =
A0
A2
An
A1
+
+ ··· +
,
+
z
z − p1
z − p2
z − pn
(3.59)
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-139
(z − pi )
Y (z).
z
A partire dalla scomposizione in frazioni parziali (3.59), la funzione originale Y (z) può essere riscritta come:
con A0 = limz→0 zY (z) = limz→0 Y (z) ed inoltre Ai = limz→pi (z − pi )Y (z) = limz→pi
Y (z) = A0 + A1
z
z
z
+ A2
+ · · · + An
,
z − p1
z − p2
z − pn
(3.60)
e quindi, tenendo conto della proprietà 3.2 di linearità e delle trasformate di segnali notevoli, si vede immediatamente che il segnale y(k) è dato da:
y(k) = A0 δ(k) + A1 pk1 + A2 pk2 + · · · + An pkn .
(3.61)
Nel caso in cui alcuni poli del sistema abbiano molteplicità maggiore di uno, il procedimento è analogo, salvo
la forma della espansione in frazioni parziali. In questo caso, possono essere presenti un numero qualsiasi di poli
nell’origine. Sia allora Y (z) una generica funzione razionale propria,
Y (z) =
βn z n + βn−1 z n−1 + · · · + β1 z + β0
.
z n + αn−1 z n−1 + · · · + α1 z + α0
(3.62)
1
e si consideri la funzione Y (z) = Y (z), che è strettamente propria. Tale funzione può essere espansa in frazioni
z
parziali nella forma:
qi
r X
X
Ai,j
Y (z) =
,
(3.63)
(z
− pi )j
i=1 j=1
dove r indica il numero di poli distinti della Y (z), compreso il polo nell’origine, sicuramente presente, qi indica
la molteplicità del polo pi , ed il generico residuo Ai,j è calcolato come:
1
1
dqi −j dqi −j (z − pi )qi
qi
=
lim
Ai,j = lim
W
(z)
(z
−
p
)
W
(z)
.
(3.64)
i
z→pi
z→pi
(qi − j)! dz qi −j
(qi − j)! dz qi −j
z
In tal caso, tenendo conto delle varie proprietà della trasformata Zeta, ed assumendo che p1 indica il polo
nell’origine (p1 = 0), si ha:
y(k) = Z −1 [Y (z)] =
q1
X
j=1
A1,j δ(k − j) +
qi
r X
X
i=2 j=1
Ai,j
k
j
pi k−j .
(3.65)
Un modo alternativo per tenere conto di possibili poli nell’origine nella funzione razionale da trattare consiste
nel notare che un fattore z ν a denominatore corrisponde ad un ritardo di ν passi della corrispondente funzione del
tempo. Si possono quindi trascurare tali poli nulli, calcolare la trasformata inversa della funzione Ŷ (z) = z ν Y (z),
e poi traslare a destra (ritardare) di ν passi il segnale cosı̀ ottenuto.
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-140
Funzione del tempo (sequenza)
Trasformata Zeta
δ(k) (impulso unitario)
1
δ−1 (k) (gradino unitario)
z
(z − 1)
kδ−1 (k) (rampa unitaria)
z
(z − 1)2
δ−1 (k − a) (gradino unitario con inizio in k = a)
z −a
ak (potenza)
z
z−a
kak (potenza-polinomio)
az
(z − a)2
sin(kωT ) (sinusoide)
z sin(ωT )
z 2 − 2z cos(ωT ) + 1
cos(kωT ) (cosinusoide)
z[z − cos(ωT )]
z 2 − 2z cos(ωT ) + 1
a
k−h
k
h
(esponenziale-fattore binomio)
z
(z − 1)
z
(z − a)h+1
u(k − h)
z −h U (z)
u(k + h)
z h U (z) − z h
ak u(k)
U ( az )
u(k) ∗ y(k)
U (z)Y (z)
ku(k)
−z
Ph−1
t=0
u(k)z −k
d
U (z)
dz
Tabella 3.1: Trasformate ed antitrasformate Zeta di uso comune
Capitolo 3: Analisi sistemi LTDS
3.3.6
[Ed. 2015, V 4.0 - PV - UniPG] - 3-141
Esercizi risolti
Esercizio 3.1 Calcolare la trasformate z delle due funzioni seguenti:
k+1
k
(δ−1 (k − 2) − δ−1 (k − 5)), k ∈ Z
x(k) = 3
2
k+2
(δ−1 (k − 1) − δ−1 (k − 3)), k ∈ Z,
x(k) = 2k
3
k+h
dove
, con h e k positivi, k < t + h, è definito nel modo seguente:
k

 0,
k ∈ Z, k < k − h,
k+h
(k + h)!
=
k
, k ∈ Z, k ≥ k − h.

(k + h − k)!k!
ed inoltre δ−1 (·) è la funzione gradino unitario.
Soluzione Per risolvere l’esercizio conviene scrivere le funzioni di interesse come somma di segnali con trasformata nota, eventualmente traslati nel tempo. In questo caso la presenza dei due gradini unitari traslati suggerisce di costruire opportune funzioni del tempo traslate allo stesso modo. Nel seguito si risolvere l’esercizio
solo relativamente alla prima funzione, lasciando la seconda al “lettore”.
Conviene cominciare scrivendo in modo esplicito il termine binomio:
(k + 1)k(k − 1)!
(k + 1)!
k+1
=
, k ≥ 1,
=
2
(k − 1)! 2!
(k − 1)! 2!
(k + 1)t
=
.
2
La funzione di interesse può quindi essere riscritta, per la parte relativa a k ≥ 1, come:
x(k)
x2 (k)
x5 (k)
(k + 1)k
(δ−1 (k − 2) − δ−1 (k − 5)) = x2 (k) − x5 (k),
2
(k + 1)k
:= 3k
δ−1 (k − 2),
2
(k + 1)k
δ−1 (k − 5).
:= 3k
2
=
3k
Si scriva ora la funzione x2 (k) sotto forma di funzione del tempo traslata di due passi:
x2 (k)
[(k − 2) + 3][(k − 2) + 2]
(k + 1)k
δ−1 (k − 2) = 32 3(k−2)
δ−1 (k − 2)
2
2
2
[(k − 2) + 5(k − 2) + 6]
δ−1 (k − 2)
= 32 3(k−2)
2
32 (k−2)
=
3
[(k − 2)2 + 5(k − 2) + 6]δ−1 (k − 2)
2
= 3k
e quindi tale funzione è interpretabile come combinazione lineare delle funzioni k 2 3k , k3k e 3k , traslate di due
passi. Si devono quindi determinare le seguenti trasformate:
Z k 2 3k
=
Z 3k
=
Z k3k
=
3z(z + 3)
,
(z − 3)3
3z
,
(z − 3)2
z
.
(z − 3)
La trasformata del termine k 2 3k si può ottenere dalla proprietà di differenziazione rispetto a z:
3z(z + 3)
3z
d d
=
.
Z k 2 3k = −z Z k3k = −z
dz
dz (z − 3)2
(z − 3)3
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-142
Sulla base delle identità precedenti, la trasformata della funzione x2 (k), tenendo conto del ritardo di due
passi che la caratterizza, è pari a:
32 −2 3z(z + 3)
3z
z
−2
−2
z
,
X2 (z) =
+ 5z
+ 6z
2
(z − 3)3
(z − 3)2
(z − 3)
32 3(z + 3)
15
6
=
.
+
+
2 z(z − 3)3
z(z − 3)2
z(z − 3)
Per determinare la trasformata della funzione x5 (k) si procede in modo analogo. Si scriva la funzione x5 (k)
sotto forma di funzione del tempo traslata di cinque passi:
x5 (k)
= 3k
=
[(k − 5) + 6][(k − 5) + 5]
(k + 1)k
δ−1 (k − 5) = 35 3(k−5)
δ−1 (k − 5)
2
2
35 (k−5)
3
[(k − 5)2 + 11(k − 5) + 30]δ−1 (k − 5)
2
e quindi anche questa funzione è interpretabile come combinazione lineare delle funzioni k 2 3k , k3k e 3k , traslate
di cinque passi. Sulla base delle trasformate calcolate in precedenza, la funzione X5 (z) è pari a:
35 −5 3z(z + 3)
3z
z
−5
−5
X5 (z) =
z
,
+
11z
+
30z
2
(z − 3)3
(z − 3)2
(z − 3)
3(z + 3)
33
30
35
.
+
+
=
2 z −4 (z − 3)3
z −4 (z − 3)2
z −4 (z − 3)
Infine, la trasformata della funzione x(k) è data da:
X(z) =
=
X2 (z) + X5 (z)
32 3(z + 3)
15
6
+
+
+
2 z(z − 3)3
z(z − 3)2
z(z − 3)
35
3(z + 3)
33
30
.
+ −4
+ −4
2 z −4 (z − 3)3
z (z − 3)2
z (z − 3)
♦
Esercizio 3.2 Date le matrici:

2 1
A= 0 2
0 0

0
1 ,
2

λ 1
B= 0 λ
0 0

0
1 ,
λ

λ
F = 0
0

1 0
λ 0 ,
0 λ
calcolare gli esponenziali di matrice (a tempo discreto) Ak , k ∈ Z+ , B k , k ∈ Z+ e F k , k ∈ Z+ , per mezzo della
trasformata z. Commentare il risultato, in termini di presenza di termini polinomiale-esponenziale nel risultato.
Soluzione Si tratta di determinare l’esponenziale (a tempo discreto) relativa alla matrice:


2 1 0
A =  0 2 1 .
0 0 2
utilizzando la relazione Ak = Z −1 [z(zI − A)−1 ]. Punto di partenza è quindi il calcolo della matrice (zI − A)−1 ,
data da:


z − 2 −1
0
adj
(zI
−
A)
, (zI − A) =  0
z − 2 −1  .
(zI − A)−1 =
det(zI − A)
0
0
z−2
Per quanto riguarda il determinante, si trova facilmente:
det(zI − A) = (z − 2)3 ,
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-143
mentre per l’aggiunta:
complementi algebrici =
aggiunta =
(z − 2)2
 (z − 2)
1

2
(z − 2)

0
0

(z − 2)
(z − 2)2
0
e quindi la trasformata zeta dell’esponenziale di matrice è pari a:

z
z
 (z − 2) (z − 2)2

z
−1
0
z(zI − A) = 

(z − 2)

0
0
Ricordando che Z a
matrice:
(k−h)
k
h
=

0
,
0
(z − 2)2

1
(z − 2)  ,
(z − 2)2
0
(z − 2)2
(z − 2)
z
(z − 2)3
z
(z − 2)2
z
(z − 2)



.


z
si trova facilmente, per la trasformata dei vari elementi della
(z − a)h+1
z
Z −1
z−2
z
Z −1
(z − 2)2
z
Z −1
(z − 2)3
= (2)k ,
= (2)(k−1)
= (2)(k−2)
k
1
k
2
,
.
Complessivamente quindi l’esponenziale di matrice a tempo discreto cercata è data da:


k
k
(2)k (2)(k−1)
(2)(k−2)


1
2


k

.
k
A =
k
(k−1)

0
(2)
(2)


1
k
0
0
(2)
La soluzione relativamente alle matrici B ed F è lasciata per ulteriore esercizio, che non presenta difficoltà,
alla luce di quanto già risolto.
♦
Esercizio 3.3 Dato il sistema dinamico a tempo discreto descritto dalle seguenti equazioni alle differenze finite:
x1 (k + 1) =
x2 (k + 1) =
y(k) =
x2 (k),
1
x1 (k) + u(k),
4
x1 (k),
si determini:
1. la sua funzione di trasferimento;
2. l’esponenziale di matrice soluzione dell’equazione alle differenze;
3. la risposta libera nello stato e in uscita alle condizioni iniziali x1 (0) = 1, x2 (0) = 1;
4. la risposta forzata in uscita per un segnale di ingresso u(k) = 2δ−1 (k);
5. le condizioni iniziali a partire dalle quali la risposta completa nell’uscita per un ingresso a gradino unitario
è costante per ogni istante di tempo (cioè, le condizioni iniziali per le quali la risposta completa al gradino
coincide con la corrispondente risposta permanente).
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-144
Soluzione Ci si limita a risolvere esplicitamente solo il punto 5, relativo alla determinazione di opportune
condizioni iniziali. Per ottenere questo risultato tuttavia sarà necessario risolvere, di fatto, anche alcuni degli
altri punti.
La risposta completa in uscita del sistema in esame, riscritto nella forma:
x(k + 1) = Ax(k) + bu(k),
y(k) = cx(k),
con
A=
0 1
1/4 0
,
b=
0
1
,
c=
ha una trasformata zeta pari a:
1 0
,
(3.66)
Y (z) = c(zI − A)−1 bU (z) + zc(zI − A)−1 x0 ,
dove x0 = (x1,0 , x2,0 )T indica la generica condizione iniziale. Si vede facilmente che il determinante ∆ e l’inversa
della matrice (zI − F )−1 sono pari a:
1
1
z 1
−1
2
.
∆ = z − , (zI − A) =
4
∆ 14 z
La funzione di trasferimento del sistema in esame è data da:
−1
W (z) = c(zI − A)
1 1
b=
∆
0
z
1
4
1
z
0
1
1
=
z2 −
1
4
(si noti che il sistema di interesse è in forma canonica di controllore, e quindi la sua funzione di trasferimento
si può calcolare in modo immediato senza passare per il prodotto c(zI − A)−1 b).
z
, la funzione Y (z) vale:
Considerando un gradino in ingresso, con trasformata pari a
z−1
Y (z) =
z
z 2 x1,0 + zx2,0
+
.
1
(z − 1)(z 2 − 4 )
(z 2 − 41 )
Espandendo in frazioni parziali si trova:
Y (z) = A
z
z
z
+B
+C
(z − 1)
(z − 21 )
(z + 12 )
con i parametri A, B e C dati da:
A
=
B
=
C
=
4
z−1
1
Y (z)|z=1 = 2 1 |z=1 = ,
z
3
(z − 4 )
z − 21
1
1 + (z − 1)(zx1,0 + x2,0 )
|z=1/2 = −2 + x1,0 + x2,0 ,
Y (z)|z= 21 =
1
z
2
(z − 1)(z + 2 )
z + 21
1 + (z − 1)(zx1,0 + x2,0 )
2 1
Y (z)|z=− 21 =
|z=−1/2 = + x1,0 − x2,0 .
1
z
3 2
(z − 1)(z − 2 )
Ne segue quindi che la risposta completa, nel dominio del tempo, è data da:
k
k
−1
1
y(k) = Aδ−1 (k) + B
+C
, k ≥ 0,
2
2
e quindi si ottiene una risposta costante per tutti gli istanti, cioè si ottiene fin dall’istante iniziale la risposta
permanente, se le costanti B e C sono nulle, cioè se valgono le:
1
−2 + x1,0 + x2,0
2
2 1
+ x1,0 − x2,0
3 2
= 0,
= 0,
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-145
la cui soluzione è data da:
4
4
, x2,0 = .
3
3
Con queste condizioni iniziali la risposta completa del sistema nella funzione di uscita è quindi:
x1,0 =
y(k) =
cioè:
4
δ−1 (k),
3
k ≥ 0,
4 4 4 4
(y(0), y(1), y(2), y(3), . . .) = ( , , , , . . .).
3 3 3 3
♦
Esercizio 3.4 Trovare la soluzione, a partire della condizioni iniziali X(0) = 1, x(1) = e (e numero di Nepero),
della seguente equazione non lineare alle differenze finite:
x(n + 2) = x(n + 1)3 x(n)4 ,
n ∈ Z+ ,
utilizzando il metodo della trasformata z.
Soluzione Per trovare la soluzione dell’equazione alle differenze finite
x(n + 2) = x(n + 1)3 x(n)4 ,
n ∈ Z+ ,
conviene innanzitutto rimuove, attraverso un opportuno cambio di coordinate, i termini non lineari (qualora
possibile). In questo caso, notando che i termini non lineari sono prodotto di potenze, si può provare applicando
la funzione logaritmo ai due lati dell’equazione. Si trova:
ln (x(n + 2)) = 3 ln (x(n + 1)) + 4 ln (x(n)) ,
da cui, operando il cambio di variabili y(n) = ln(x(n)), si trova:
y(n + 2) = 3y(n + 1) + 4y(n).
Insomma, il sistema “appariva” non lineare perchè descritto in un sistema di coordinate “non idoneo”. Si noti
che, date le condizioni iniziali, la sequenza x(·) assume sempre valori positivi (e reali), e quindi la trasformazione
proposta è biunivoca.
Utilizzando la proprietà di anticipo nel tempo, l’equazione alle differenze finite di interesse può essere riscritta
come:
z 2 Y (z) − z 2 (y(0) + z −1 y(1)) = 3(zY (z) − zy(0)) + 4Y (z),
da cui:
Y (z) z 2 − 3z − 4 = (z 2 − 3z)y(0) + zy(1),
e quindi:
Y (z) =
z 2 − 3z
z
y(0) + 2
y(1).
− 3z − 4)
(z − 3z − 4)
(z 2
La trasformata inversa della Y (z) determinata sopra, per le condizioni iniziali date, risolve il problema nella
variabile trasformata. Si tratta poi di utilizzare la funzione esponenziale per trovare la soluzione nella variabile
x originale. Si noti ora che le condizioni iniziali date corrispondono, nella nuova variabile, a:
y(0) = ln(x(0)) = ln(1) = 0,
y(1) = ln(x(1)) = ln(e) = 1
e quindi è sufficiente determinare la trasformata inversa del solo secondo termine (diviso per z). Notando che i
poli del sistema sono p1 = 4 e p2 = −1, si trova:
z
1
A1
A2
= 2
=
+
,
z(z 2 − 3z − 4)
(z − 3z − 4)
(z − 4) (z + 1)
con
A1 =
(z − 4)
1
1
|z=4 =
|z=4 = ,
(z 2 − 3z − 4)
z+1
5
A2 =
(z + 1)
1
1
|z=−1 =
|z=−1 = − .
(z 2 − 3z − 4)
z−4
5
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-146
La funzione del tempo y(k) si ottiene quindi calcolando la trasformata inversa della funzione:
Y (z) =
z
z
−
,
5(z − 4) 5(z + 1)
vale:
1 k 1
4 − (−1)k ,
5
5
ed ovviamente soddisfa alle condizioni iniziali date. Infine, la soluzione nella variabile originale x(k) vale:
y(k) = Z −1 [Y (z)] =
x(k) = e y(k)
(4k − (−1)k )
5
=e
.
♦
Capitolo 3: Analisi sistemi LTDS
3.4
[Ed. 2015, V 4.0 - PV - UniPG] - 3-147
Analisi modale per sistemi LSTD: approccio nel dominio del
tempo
In questa sezione verranno studiate le proprietà di maggiore interesse dell’esponenziale matriciale a tempo
discreto, seguendo un approccio nel dominio del tempo, del tutto analogo a quanto visto per i sistemi a tempo
continuo.
Nella prossima sezione verrà presentato un approccio basato sulla trasformata Zeta.
Il risultato fondamentale della sezione è sintetizzato dal seguente teorema, che descrive la totalità dei modi
naturali che compogono la risposta libera di un sistema lineare, stazionario, a tempo discreto. A differenza di
quanto visto nel caso dei sistemi LSTC2 , qui gli autovalori complessi verranno descritti con la notazione modulo
(indicato con σ) e fase (indicata conω): λ ∈ C ⇒ λ = σe ω .
Teorema 3.3 (Modi naturali di un sistema LSTD) Sia dato il sistema lineare stazionario a tempo discreto, omogeneo:
x(k + 1) = Ax, x(0) = x0 , x ∈ Rn , k ∈ Z,
(3.67)
e siano λi , i = 1, · · · , r, i corrispondenti autovalori distinti, caratterizzati dalle molteplicità algebrica e geometrica µi e νi , rispettivamente.
Allora si ha che:
• ad ogni autovalore λi ∈ R sono associate le seguenti µi funzioni reali:
– λi ∈ R, µi = 1, ⇒ mi (k) = λi k ;
– λi ∈ R, µi = νi , ⇒ mi,j (k) = λi k , j = 1, · · · , µi ;
– λi ∈ R, µi > νi , ⇒ mi,1 (k) = λi k−1 , mi,2 (k) = kλi k , mi,3 (k) = · · · ;
• ad ogni coppia di autovalori complessi coniugati (λi , λ∗i ) = σi e ±ωi sono associate le seguenti µi coppie di
funzioni reali:
– λi ∈ C, µi = 1, ⇒ mi,c (k) = σ k cos(ωk), mi,s (k) = σ k sin(ωk) ;
– λi ∈ C, µi = νi , ⇒ mi,c,j (k) = σ k cos(ωk), mi,s,j (k) = σ k sin(ωk), j = 1, · · · , µi ;
– λi ∈ C, µi > νi , ⇒ mi,c,1 (k) = σ k sin(ωk), mi,s,1 (k) = σ k sin(ωk), mi,c,2 (k) = kσ k−1 sin(ωk),
mi,s,2 (k) = kσ k−1 sin(ωk), mi,c,3 (k) = ..., mi,c,3 (k) = .....
Dal teorema precedente emergono alcune considerazioni, ancora del tutto analoghe alle corrispondenti a
tempo continuo.
Commento 3.1
• Il modo naturale base per un sistema LSTD è una funzione esponenziale a tempo discreto con parametro
pari all’autovalore associato. Ciò vale sia per un autovalore reale semplice (cioè con molteplicità algebrica
unitaria), sia per una coppia di autovalori complessi coniugati semplici.
• Se tutti gli autovalori sono reali, ed inoltre semplici (cioè µi = 1, ∀i) o con molteplicità algebriche e
geometriche uguali (cioè µi = νi , ∀i), i modi naturali sono costituiti solo da funzioni esponenziali reali.
• Se tutti gli autovalori sono complessi ed inoltre semplici (cioè µi = 1, ∀i) o con molteplicità algebriche
e geometriche uguali (cioè µi = νi , ∀i), i modi naturali sono costituiti solo da prodotti tra funzioni
esponenziali reali e funzioni sinusoidali e cosinusoidali.
• Se anche un solo autovalore ha molteplicitè algebrica strettamente maggiore della molteplicità geometrica,
compaiono una o più funzioni polinomiali del tempo a moltiplicare i modi naturali base (il terzo caso di
ciascuno dei due scenari citati nel teorema). In particolare, se le due molteplicità sono divese compare
certamente il termine polinomiale di grado uno.
2 Si noti come nel caso dei sistemi a tempo discreto si sia scelto di indicare con il simbolo σ il modulo dell’autovalore complesso,
e non la sua parte reale, come nel caso a tempo continuo. Analogamente, il simbolo ω indica ora la fase e non la parte immaginaria
di un autovalore. Il motivo di questa diversa notazione apparirà chiaro dalla dipendenza dei modi dai parametri σ ed ω e dalla
caratterizzazione di convergenza.
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-148
• Nei casi in cui, per uno o più autovalori λi , si abbia µi > νi , il numero ed il grado delle funzioni polinomiali
che appaiono dipende da ulteriori considerazioni (sulla molteplicità del corrispondente autovalore come
radice del polinomio minimo) che esulano dagli scopi di queste note.
I modi naturali del tipo λi k e del tipo kλi k , associati ad autvalori reali, sono dette funzioni aperiodiche. I
modi naturali associati ad autovalori complessi coniugati, del tipo σi k cos(ωi k), σi k sin(ωi k), e le corrispondenti
moltiplicate per polinoni del tempo, sono dette funzioni pseudoperiodiche.
Nel caso particolare di autovalori complessi e coniugati, con modulo unitario e con molteplicità algebriche
e geometriche uguali (sia semplici sia multipli), i modi naturali diventano le funzioni periodiche: cos(ωi k) e
sin(ωi k).
Il teorema 3.3 verrà discusso in dettaglio nelle successive sottosezioni, con un approccio analogo a quello
seguito nel caso dei sistemi LSTC.
3.4.1
Il caso di sistema diagonalizzabile, con autovalori reali
Si consideri inizialmente il caso di un sistema scalare, cioè con spazio di stato di dimensione unitaria. In tal
caso la matrice A diviene uno scalare, A = a, a ∈ R, e quindi il sistema dinamico e la risposta libera nello stato
sono descritti, rispettivamente, dall’equazione e dalla successione seguenti:
x(k + 1) = ax(k)
x(k) = ak x0 ,
k ≥ 0, x(0) = x0
(3.68)
(3.69)
La successione ak rappresenta il modo naturale del sistema in esame.
La soluzione del caso vettoriale è immediata se la matrice dinamica A è diagonale: A = diag {λ1 , λ2 , · · · , λn }.
In questo caso il sistema dinamico è descritto dall’equazione:


λ1 0 · · · 0
 0 λ2 · · · 0 


x(k + 1) =  .
(3.70)
..
..  x(k).
..
 ..
.
.
. 
0
0 · · · λn
Si noti che, poiché la matrice è diagonale, gli elementi λi sono
calcolo della risposta libera nello stato si trova facilmente:
 k
λ1 0 · · ·
 0 λk2 · · ·

x(k) =  .
..
..
 ..
.
.
0
0
···
anche gli autovalori della matrice stessa. Per il
0
0
..
.
λkn
e cioè la collezione di sistemi scalari



 x0 ,

(3.71)
x1 (k)
x2 (k)
= λk1 x1,0
= λk2 x2,0
..
.
(3.72)
(3.73)
xn (k)
= λkn xn,0 .
(3.74)
Si noti che la forma della risposta libera, per ciascuna componente, dipende dal modo naturale relativo,
mentre la corrispondente ampiezza dipende dalla rispettiva condizione iniziale. Ad esempio, se la condizione
iniziale è pari al vettore e1 (cioè, la prima colonna della matrice identità), la risposta libera nello stato sarà
nulla per tutte le componenti dello stato, salvo la prima, il cui andamento sarà descritto dalla sequenza x1 (k) =
λk1 x1,0 = λk1 , k ≥ 0.
L’esponenziale matriciale a tempo discreto del sistema in esame è dato da:
 k

λ1 0 · · · 0
 0 λk2 · · · 0 


Ak =  .
(3.75)
..
..  .
..
 ..
.
.
. 
0
0 · · · λkn
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-149
Le successioni temporali λki , i = 1, 2, . . . , n, che descrivono la soluzione del sistema, sono associate agli
autovalori del sistema e sono dette modi naturali del sistema Σ(A).
Si noti che non sono state poste ipotesi sugli autovalori del sistema. In particolare, alcuni autovalori (od
anche tutti) possono essere coincidenti.
Si consideri ora il caso di un sistema descritto da una matrice dinamica A non diagonale, ma diagonalizzabile.
Ricordando le relazioni (2.36) e (2.19) (che, si noti bene, descrivono proprietà della matrice A e non del sistema
dinamico associato), e ricordando l’invarianza degli autovalori rispetto a trasformazioni di similarità, si trova,
per l’esponenziale di matrice nelle coordinate originali:
Ak
= (T ΛT −1 )k
(3.76)
= T Λk T −1
 k
λ1 0
 0 λk2

= T .
..
 ..
.
0
0
(3.77)
···
···
..
.
0
0
..
.
···
λkn


 −1
T .

(3.78)
L’esponenziale di matrice a tempo discreto è quindi composto da combinazioni lineari delle sequenze λki , i =
1, 2, · · · , n, e cioè da combinazioni lineari dei modi naturali del sistema.
3.4.2
Il caso di sistema diagonalizzabile, con autovalori complessi
L’analisi condotta finora, basata sull’uso di una matrice diagonale, non è utilizzabile se il sistema ammette
autovalori complessi (ovviamente, complessi coniugati a coppie). In tal caso infatti vi sono un’infinità di condizioni iniziali cui corrispondono risposte libere nello stato caratterizzate da funzioni a valori complessi. Ciò
non è ammissibile, poiché i sistemi dinamici di interesse in queste note sono descrizioni di processi reali, e quindi
non rappresentabili con grandezze complesse. Per ovviare a ciò, si introduce la forma canonica reale.
Si consideri per semplicità un sistema planare, cioè un sistema con spazio di stato di dimensione due, descritto
da una matrice dinamica Ap , con autovalori complessi coniugati λ e λ∗ , cioè (λ, λ∗ ) = σe ±ω .
In questo caso, con opportuan scelta dei nuovi vettori di base, si ottiene la matrice dinamica nella forma
seguente:
cos(ω) sin(ω)
−1
Λp = T Ap T = σ
,
(3.79)
− sin(ω) cos(ω)
detta forma canonica reale a tempo discreto. È facile calcolare in forma chiusa l’esponenziale di matrice a tempo
discreto in questo caso, trovando:
cos(ωk) sin(ωk)
k
k
= σ k Ω(k),
(3.80)
Λp = σ
− sin(ωk) cos(ωk)
ove Ω(k) indica la matrice delle componenti periodiche a tempo discreto:
cos(ωk) sin(ωk)
Ω(k) =
.
− sin(ωk) cos(ωk)
(3.81)
Le funzioni σ k cos(ωk) e σ k sin(ωk) sono i modi naturali (reali) del sistema con autovalori complessi coniugati
λ = σe ω e λ∗ = σe −ω .
La risposta libera nello stato del sistema planare in esame, nelle nuove coordinate e a partire dalla condizione
iniziale x̄(0), è data da:
cos(ωk) sin(ωk)
k
x̄(0) = σ k Ω(k)x̄(0),
(3.82)
x̄(k) = σ
− sin(ωk) cos(ωk)
ed è facile vedere come non sia possibile eccitare in modo indipendente i due modi: nel caso di sistema con
autovalori complessi coniugati, la risposta libera nello stato contiene sempre almeno due modi distinti. Ovviamente, la stessa considerazione può essere estesa anche al sistema planare nelle coordinate originali, poiché la
matrice di trasformazione di coordinate è ad elementi reali.
Si consideri ora il caso di un sistema dinamico di dimensione n, con matrice dinamica A diagonalizzabile.
Si assuma, senza perdita di generalità, che i primi nr autovalori λi , i = 1, 2, · · · , nr , siano reali, ed i rimanenti
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-150
n − nr autovalori siano costituiti da nc coppie complesse coniugate, n − nr = 2nc . Siano vi , i = 1, 2, · · · , nr ,
gli autovettori associati agli autovalori reali, e (wi , wi∗ ), wi = wR,i + wI,i , i = 1, 2, · · · , nc , le coppie di autovettori associati agli autovalori complessi. Scelte come nuove coordinate gli autovettori reali e le parti reali ed
immaginarie degli autovettori complessi, la nuova matrice di cambio di coordinate è data da:
(3.83)
T = v1 v2 · · · vnr wR,1 wI,1 wR,2 wI,2 · · · wR,c wI,nc .
Nelle nuove coordinate la matrice dinamica è esprimibile nella seguente forma diagonale a blocchi:


λ1 0 · · ·
0
..
.

 0 λ2 · · ·
0


0

 ..
..
.
.
.
.

 .
.
.
.
..


.

 0
0 · · · λnr
,
ΛR = 


Λp,1
0
···
0
..


.


0
Λp,2 · · ·
0


0


..
..
.
..
..


.
.
.
..
.
0
0
· · · Λp,nc
in cui i termini Λp,i , i = 1, 2, · · · , nc rappresentano matrici di dimensione due della forma:
cos(ωi ) sin(ωi )
Λp,i = σi ·
.
− sin(ωi ) cos(ωi )
(3.84)
(3.85)
Tenendo conto del fatto che la potenza k-esima di una matrice diagonale a blocchi è ancora diagonale
a blocchi, è facile trovare la seguente forma per la matrice di transizione del sistema dinamico, nelle nuove
coordinate:


λk1 0 · · ·
0
..
.

 0 λk2 · · ·
0


0

..
..
 ..
..

 .
.
.
.
..


.
k


0
0 · · · λnr
,
(3.86)
ΛkR = 
k


Λp,1
0
···
0
..


.


0
0
Λkp,2 · · ·


0


.
.
.
..
..
..
..


.
..
.
0
0
· · · Λk
p,nc
ove
Λkp,i
indica la matrice di risposta libera nello stato di un sistema planare:
cos(ωi k) sin(ωi k)
= σik Ωi (k).
Λkp,i = σik
− sin(ωi k) cos(ωi k)
(3.87)
La risposta libera nello stato in coordinate originali è quindi:
Ak = T ΛkR T −1
(3.88)
e quindi è costituita da combinazioni lineari dei modi naturali del sistema, dati dalle successioni λk , σ cos(ωk)
e σ sin(ωk).
3.4.3
Il caso di sistema non diagonalizzabile, con autovalori reali
L’analisi dei modi naturali ed il calcolo della risposta nello stato per sistemi con matrice dinamica non diagonalizzabile è basata sulla forma canonica di Jordan, già introdotta nel caso di sistemi LSTC: una struttura
diagonale a blocchi, con blocchi sulla diagonali costituiti da miniblocchi di Jordan. Un miniblocco di Jordan Jλ
di dimensione r associato all’autovalore reale λ:


λ 1 0 ··· 0 0
 0 λ 1 ··· 0 0 



.. ..  ,
Jλ =  ... ... ...
(3.89)
. . 


 0 0 0 ··· λ 1 
0 0 0 ··· 0 λ
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-151
ha una matrice esponenziale a tempo discreto dato dalla seguente funzione matriciale del tempo:


k
k
k
k−1
k−(r−1)
λ
λ
·
·
·
λ


1


r−1 

k
k
k−(r−2)


λ
···
λ
Jλk =  0
.
r
−
2



 ..
.
..
.
.
.

 .
.
.
.
0
0
···
λk
(3.90)
k
k
k−1
Le successioni λ ,
λ
, ···,
λk−(r−1) sono i modi naturali generati da un miniblocco di
1
r−1
Jordan di dimensione r associato all’autovalore reale λ.
La caratterizzazione dei modi naturali è legata ancora al modulo dell’autovalore: si hanno modi convergenti
nel caso di autovalori con modulo minore di uno e modi divergenti nel caso di autovalori con modulo maggiore
di uno. Nel caso di un autovalore
reale di modulo unitario, si tratta da valutare la dimensione del miniblocco
k
associato. Il modo naturale
λk−1 per autovalore di modulo unitario, diviene la successione k(sign(λ))k−1 ,
1
e quindi è una funzione crescentedel tempo. Analogamente per tutti i modi di ordine superiore, cioè del tipo
k
(e tutti i modi del tipo
λk−(r−j) , con 0 < j < r ed autovalore reale di modulo unitario. In tal caso,
r−j
e cioè per miniblocchi di dimensione maggiore di uno associati ad autovalori (reali) a modulo unitario, i modi
naturali sono divergenti.
k
3.4.4
Il caso di sistema non diagonalizzabile, con autovalori complessi
Infine, per completare l’analisi dei possibili modi naturali di un sistema dinamico a tempo discreto, si deve
analizzare il caso di matrice non diagonalizzabile con autovalori complessi di molteplicità maggiore di uno. La
determinazione dei modi naturali passa per la generalizzazione della forma canonica reale, del tipo:

 Λp


JR =  0
 .
 ..
0
I2
Λp
..
.
0
..
.
..
.
..
.
···

0 

0 
,
.. 
. 
(3.91)
Λp
k
k
k−(r−1)
cui sono associati modi naturali del tipo
σ
cos(ωk) e
σ k−(r−1) sin(ωk). Analogar−1
r−1
mente a quanto visto nel caso immediatamente precedente, questi modi sono: convergenti per autovalori con
modulo minore di uno; divergenti per autovalori con modulo maggiore di uno; limitati per modulo unitario e dimensione del miniblocco più grande uguale ad uno; divergenti per modulo unitario e dimensione del miniblocco
più grande maggiore di uno.
Nel caso in cui il sistema abbia solo autovalori complessi, ma con molteplicità arbitraria, l’esponenziale di
matrice a tempo discreto, in coordinate reali, assume quindi la forma:


k
k
Ω(k) · · ·
Ω(k) 
 Ω(k)
1


r−1 

k
k
k
Ω(k)
···
Ω(k) 
JR = σi  0
(3.92)
.
r
−
2


 ..

..
..
..
 .

.
.
.
0
0
···
Ω(k)
3.4.5
Il caso generale
Si consideri ora il caso generale, di un sistema con nR autovalori reali, alcuni di loro eventualmente coincidenti,
ed nC autovalori complessi coniugati, alcuni di loro eventualmente coincidenti, sia gli autovalori reali sia quelli
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-152
complessi con molteplicità arbitraria. Per tale sistema, nelle coordinate di Jordan, si ha un’esponenziale di
matrice a tempo discreto della seguente forma, che contiene tutti i modi naturali del sistema stesso:


0
0
···
0
0
···
0
Jλ1 k

 0
0
Jλ2 k · · ·
0
0
···
0



 .
..
..
..

 ..
.
.
.
0
0
···
0



 0
k
0
· · · JλnR
0
0
···
0


.
(3.93)
Jk = 



 0
0
···
0
0
···
0
JR 1 k



 0
0
0
JR 2 k · · ·
0
···
0


..
..
..


..

 0
.
0
···
0
.
.
.
k
0
0
· · · JR n C
0
0
···
0
in cui le sottomatrici Jλi k , i = 1, 2, · · · , nR , sono matrici (di dimensione opportuna) del tipo in equazione (3.90),
mentre le sottomatrici JRi k , i = 1, 2, · · · , nC , sono matrici (di dimensione opportuna) del tipo in equazione
(3.92).
L’esponenziale di matrice nelle coordinate originali si ottiene per trasformazione di similarità di tale matrice,
e contiene tutti e soli i modi naturali presenti nella (3.93).
3.4.6
Caratterizzazione dei modi naturali rispetto alla convergenza
Al variare della posizione degli autovalori nel piano complesso, i modi naturali di un sistema a tempo discreto,
analogamente a quanto già visto per i sistemi a tempo continuo, sono caratterizzati da proprietà di convergenza
di varia natura. Nel caso di un autovalore reale, cui corrisponde un modo naturale λk , il modo ha un comportamento decrescente al crescere del tempo, ed il modo è detto convergente, se l’autovalore ha modulo minore
di uno (cioè, se l’autovalore è interno al cerchio unitario); il modo naturale è detto divergente se l’autovalore
corrispondente ha modulo maggiore di uno (cioè, se l’autovalore è esterno al cerchio unitario); infine, il modo
naturale è detto limitato se l’autovalore corrispondente ha modulo unitario (cioè, se l’autovalore è esattamente
sul cerchio unitario). Si noti che nel caso di autovalore reale a modulo unitario, il modo naturale corrispondente
può essere costante, pari ad 1, oppure oscillare tra 1 e −1.
Modulo = 0.7
Modulo = 2
1
Modulo = 1
35
0.9
Modulo = −1
1
1
0.9
0.8
0.8
0.6
0.7
0.4
0.6
0.2
0.5
0
0.4
−0.2
0.3
−0.4
0.2
−0.6
0.1
−0.8
30
0.8
25
0.7
0.6
20
0.5
15
0.4
0.3
10
0.2
5
0.1
0
0
5
Tempo
0
0
5
Tempo
0
0
5
Tempo
−1
0
5
Tempo
Figura 3.1: Modi naturali associati ad autovalori reali per sistemi a tempo discreto
La caratterizzazione dei modi naturali è del tutto analoga nel caso di autovalori complessi, con la sola
differenza di un comportamento oscillatorio, dovuti ai termini sin(ωk) e cos(ωk) che compone i modi naturali:
i modi naturali sono convergenti se gli autovalori hanno modulo minore di uno; i modi naturali sono divergenti
se gli autovalori hanno modulo maggiore di uno, i modi naturali sono limitati se gli autovalori hanno modulo
unitario. Si noti che, nel caso di autovalori complessi, modulo unitario corrisponde a modi naturali oscillatori
puri, cioè del tipo sin(ωk) e cos(ωk).
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-153
Modulo = 0.7
Modulo = 2
1
Modulo = 1
200
1
0.8
0.8
150
0.6
0.6
0.4
100
0.2
0.4
50
0
0.2
−0.2
0
−0.4
0
−0.6
−50
−0.2
−0.8
−0.4
0
10
Tempo
20
−100
0
10
Tempo
20
−1
0
10
Tempo
20
Figura 3.2: Modi naturali associati ad autovalori complessi per sistemi a tempo discreto
Analogamente, nel caso di autovalori non semplici, la caratterizzazione rispetto alla convergenza dei modi
naturali è legata ancora al modulo dell’autovalore: si hanno modi convergenti nel caso di autovalori con modulo
minore di uno e modi divergenti nel caso di autovalori con modulo maggiore di uno. Nel caso di un autovalori
con modulo unitario, la convergenza dei modi è legata alla molteplicità nel polinomio minimo 3 . Ad esempio, il
modo naturale k(1)k , per autovalore unitario, diviene la funzione k, e quindi è una funzione crescente del tempo.
Analogamente per tutti i modi di ordine superiore, cioè del tipo k j (1)k , con 0 < j < r e modulo unitario. In
tal caso, e cioè per autovalori con unitario di molteplicità non unitaria nel polinomio minimo4 , i modi naturali
sono divergenti.
3.4.7
Riepilogo
Analogamente a quanto già affermato per i sistemi lineari a tempo continuo, una matrice dinamica A potrà
avere autovalori sia reali che complessi, ciascuno con molteplicità unitaria o maggiore. Nel calcolo della sua
matrice esponenziale a tempo discreto saranno quindi coinvolti alcuni, od al limite tutti, i casi particolari visti
in precedenza. Tuttavia l’esponenziale di matrice sarà sempre basata su una combinazione lineare di modi
naturali, per la cui determinazione è sufficiente un’analisi completa degli autovalori della matrice A. Di norma
insomma (ad esempio, se l’interesse è limitato allo caratterizzazione dei modi rispetto alla convergenza), non è
richiesto il calcolo esplicito dell’esponenziale matriciale (e delle relative matrici di similarità nel caso geometrico
o dell’esponenziale nelle coordinate Zeta nel secondo caso), ma è invece sufficiente valutare in modo completo
gli autovalori della matrice A, in coordinate originali.
Anche in ordine alla possibilità di eccitare modi naturali semplici (cioè, modi naturali esponenziali discreti
puri), valgono considerazioni del tutte analoghe a quelle condotte nel caso dei sistemi a tempo continuo. In
particolare, un modo naturale semplice viene eccitato come unico modo se e solo se lo stato iniziale del sistema
è allineato con l’autovettore corrispondente.
I possibili modi naturali di un sistema a tempo discreto sono riepilogati nella prima colonna della tabella
3.2, mentre le loro proprietà di convergenza sono riepilogate nelle successive colonne della stessa tabella.
3.4.8
Eccitazione di singoli modi
Per studiare la dipendenza della risposta libera nello stato dalle condizioni iniziali, e per studiare la possibilità
di eccitare singoli modi naturali con opportune condizioni iniziali, si può procedere esattamente come nel caso
dei sistemi a tempo continuo.
Anche in questo caso si giunge alla conclusione che una condizione iniziale x0 eccita un solo modo naturale se
è allineata secondo il corrispondente autovettore e viceversa. Analogamente, una data condizione iniziale eccita
3 che
4 cioè
coincide con la dimensione del miniblocco associato
per miniblocchi di dimensione maggiore di uno associati ad autovalori (reali) nulli
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-154
Modo
Caratterizzazione
naturale
convergente
limitato
divergente
λk , λ ∈ R
|λ| < 1
|λ| = 1
|λ| > 1
|λ| < 1
|λ| = 1
[|λ| = 1, j > 1], [|λ| > 1]
σ k cos(ωk), λ ∈ C
σ<1
σ=1
σ>1
σ k sin(ωk), λ ∈ C
σ<1
σ=1
σ>1
k
j
λk−j , λ ∈ R
k
j
σ k−j cos(ωk), λ ∈ C
σ<1
σ=1
[σ = 1, j > 1], [σ > 1]
k
j
σ k−j sin(ωk), λ ∈ C
σ<1
σ=1
[σ = 1, j > 1], [σ > 1]
Tabella 3.2: Modi naturali di un sistema a tempo discreto: condizioni di convergenza
tutti i modi naturali associati agli autovettori che concorrono alla rappresentazione della condizione iniziale
stessa.
Capitolo 3: Analisi sistemi LTDS
3.5
[Ed. 2015, V 4.0 - PV - UniPG] - 3-155
Analisi modale per sistemi LSTD: approccio nel dominio Zeta
In questa sezione viene presentato un approccio nel dominio Zeta per l’analisi modale di un sistema lineare
a tempo discreto. La trattazione è del tutto parallela a quanto già proposto per i sistemi a tempo continuo.
Si consideri il sistema dinamico:
x(k + 1) = Ax(k),
x(0) = x0 .
(3.94)
È noto (si veda la sezione 3.2) che la soluzione di tale equazione omogenea alle differenze finite, cioè la
risposta libera nello stato, è descritta dall’esponenziale di matrice a tempo discreto:
x(k) = Ak x0 ,
k ∈ Z+ .
(3.95)
Per il calcolo dell’esponenziale di matrice a tempo discreto Ak si può ricorrere alla trasformata Zeta. Infatti,
per la proprietà della trasformata di una funzione traslata (anticipata) nel tempo, il sistema precedente, nel
dominio Zeta, può essere scritto come:
zX(z) − zx(0) = AX(z),
(3.96)
(zI − A)X(z) = zx(0),
(3.97)
X(z) = z(zI − A)−1 x(0),
(3.98)
da cui, per confronto con l’equazione (3.95), segue immediatamente:
Ak = Z −1 z(zI − A)−1
(3.99)
da cui segue facilmente:
e quindi
Per analizzare le proprietà dell’esponenziale di matrice tempo discreto, conviene ricordare la seguente espressione:
adj (zI − A)
.
(3.100)
z(zI − A)−1 = z
det(zI − A)
da cui seguono facilmente, come già visto anche per i sistemi a tempo continuo, le seguenti proprietà, che
saranno utili per trattare in modo completo l’analisi modale:
Proprietà 3.12 Gli elementi della matrice z(zI − A)−1 sono funzioni razionali proprie, poiché adj (zI − A)
è una matrice polinomiale.
Proprietà 3.13 Le radici del denominatore di ciascun elemento della matrice (zI − A)−1 sono un sottoinsieme
delle radici del polinomio det(zI − A), e quindi sono un sottoinsieme degli autovalori della matrice A.
Proprietà 3.14 Ciascun autovalore della matrice A è radice del denominatore di almeno un elemento della
matrice (zI − A)−1 .
Per analizzare in dettaglio il comportamento della risposta libera di un sistema lineare a tempo discreto, è
bene esaminare inizialmente alcuni casi particolari.
3.5.1
Il caso di autovalori distinti
Si consideri inizialmente il caso di un sistema con tutti gli autovalori distinti, e quindi il caso in cui il
denominatore della matrice esponenziale nel dominio della variabile Zeta abbia tutte le radici. In tale caso si
può porre:
n
Y
(z − λi ), λi 6= λj , i 6= j,
(3.101)
det(zI − A) =
i=1
ove n indica l’ordine del sistema, e quindi il numero dei suoi autovalori.
Sia p(z) = np (z)/dp (z) un generico elemento della matrice z(zI − A)−1 , dopo eventuali cancellazioni di
termini comuni numeratore/denominatore. La corrispondente antitrasformata, e cioè il corrispondente elemento
dell’esponenziale di matrice a tempo discreto, si può ottenere facilmente tramite espansione in frazioni parziali.
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-156
Qm
Tenendo conto dell’ipotesi di autovalori distinti, si ha dp (z) = i=1 (z − λi ), (ove m ≤ n, perché possono
esservi cancellazioni) e quindi la seguente espansione in frazioni parziali:
A1 z
A2 z
Am z
np (z)
=
+
+ ···+
z
−
λ
z
−
λ
z
− λm
(z
−
λ
)
1
2
i
i=1
p(z) = Qm
(3.102)
cui corrisponde, nel dominio del tempo, la funzione:
p(k) = A1 λk1 + A2 λk2 + · · · + Am λkm
(3.103)
La singola funzione esponenziale λki è detta modo naturale associato all’autovalore λi , e descrive appunto il
comportamento naturale del sistema, cioè il comportamento proprio, specifico del sistema, indipendentemente
dalla sollecitazione eventualmente esercitata dall’ambiente esterno tramite il segnale di ingresso.
Gli elementi della matrice esponenziale a tempo discreto sono quindi costituiti da combinazioni lineari di
modi naturali, ciascun modo associato ad un diverso autovalore, ed i coefficienti della combinazioni lineare sono
i residui dell’espansione in frazioni parziali dell’elemento stesso.
È importante esaminare con maggior dettaglio il caso in cui tra i valori autovalori vi siano coppie complesse
coniugate (è ben noto che non vi possono essere autovalori complessi non “accompagnati” dal corrispondente
coniugato). Siano quindi λ = σe ω e λ∗ = σe −ω due autovalori complessi coniugati. Si noti che in questo caso
σ indica il modulo dell’autovalore, e non la parte reale, come nel caso a tempo continuo, e ω indica invece la
fase, e non la parte immaginaria, come nel caso a tempo continuo. I termini corrispondenti dell’espansione in
frazioni parziali sono dati da:
Az
A∗ z
+
,
(3.104)
z − λ z − λ∗
poiché ad autovalori coniugati corrispondono residui coniugati. Nel dominio del tempo, indicando con A =
1
ϕ
modulo e fase del residuo A, si ottiene quindi:
2Me
Az
1
A∗ z
1
−1
Z
= M e ϕ σ k e ωk + M e −ϕ σ k e −ωk
+
(3.105)
∗
z−λ z−λ
2
2
cui corrisponde la funzione reale
M σ k cos(ωk + ϕ).
(3.106)
Ad una coppia di autovalori complessi coniugati è quindi associata una funzione pseudo-periodica esponenzialecosinusoidale, con pulsazione pari alla fase dell’autovalore e parametro del termine esponenziale pari al modulo
dell’autovalore.
È ben noto che la funzione cos(ωk + ϕ) può essere ottenuta per combinazione lineare delle funzioni di base
cos(ωk) e sin(ωk), e quindi è evidente sono sempre presenti, per ciascun coppia di autovalori complessi coniugati,
sia la funzione cosinusoidale σ k cos(ωk) che la sua ortogonale sinusoidale σ k sin(ωk). In altre parole, alla coppia
di autovalori complessi coniugati λ e λ∗ sono associati i due modi naturali reali σ k sin(ωk) e σ k cos(ωk).
Esempio 3.1 (Sistema con autovalori reali) Si consideri il sistema dinamico planare
0 1
x(k + 1) =
x(k),
2 −1
(3.107)
il cui polinomio caratteristico è dato da det(λI − A) = λ2 + λ − 2 = (λ + 2)(λ − 1), ed i cui autovalori sono
quindi λ1 = 1 e λ2 = −2. I modi naturali associati sono quindi le due funzioni esponenziali pure 1k = 1 ed
(−2)k .
Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Zeta.
Seguendo la traccia delineata sopra, e ricordando le regole per l’espansione in frazioni parziali, si ottiene:
z
−1
z+1 1
(zI − A) =
, adj (zI − A) =
, det(zI − A) = z 2 + z − 2
(3.108)
−2 z + 1
2
z
e quindi
z(zI − A)−1
z(z + 1)
 z2 + z − 2
=

2z
z2 + z − 2


z
z2 + z − 2 
.

z2
z2 + z − 2
(3.109)
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-157
Espandendo in frazioni parziali il primo elemento della matrice si trova:
m1,1 (z) =
z(z + 1)
2 z
1 z
=
+
z2 + z − 2
3z−1 3z+2
(3.110)
e quindi, per il corrispondente elemento dell’esponenziale di matrice, si ha:
m1,1 (k) =
2
1
2 k 1
1 + (−2)k = δ−1 (k) + (−2)k .
3
3
3
3
(3.111)
Procedendo in modo analogo per gli altri elementi si trova la seguente matrice esponenziale a tempo discreto:


2
1
1
1
δ−1 (k) + (−2)k
δ−1 (k) − (−2)k

 3
3
3
3
,
Ak = 
(3.112)
 2

2
1
2
k
k
δ−1 (k) − (−2)
δ−1 (k) − (−2)
3
3
3
3
che, come è immediato vedere, è costituita da combinazioni lineari dei due modi naturali già individuati sulla
base della semplice analisi degli autovalori.
♦
Esempio 3.2 (Sistema con autovalori complessi) Si consideri il sistema dinamico planare
1 1
x(k + 1) =
x(k),
−1 1
(3.113)
√
√
il cui polinomio caratteristico√è dato da det(λI√− A) = λ2 − 2λ + 2 = (λ − 2e π/4 )((λ − 2e −π/4 )), ed i cui
autovalori sono quindi λ1 = 2e π/4 e λ2 = 2e −π/4 . I modi naturali associati sono quindi le due funzioni
esponenziali-cosinusoiali (1.4124)−k cos(π/4k) ed (1.4142)−k sin(π/4k).
Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Zeta.
z − 1 −1
z−1
1
(zI − A) =
,
adj (zI − A) =
, det(zI − A) = z 2 − 2z + 2
(3.114)
1
z−1
−1 z − 1
e quindi
z(zI − A)−1
z(z − 1)
 z 2 − 2z + 2
=

−z
z 2 − 2z + 2


z
z 2 − 2z + 2 
.

z(z − 1)
z 2 − 2z + 2
Ricordando le trasformate di segnali notevoli, la matrice esponenziale a tempo discreto è data da:


cos(π/4k) sin(π/4k)
√
k
,
Ak = 2 
− sin(π/4k) cos(π/4k)
(3.115)
(3.116)
che, come è immediato vedere, è costituita da combinazioni lineari (in questo caso banali) dei due modi naturali
già individuati sulla base della semplice analisi degli autovalori.
♦
3.5.2
Il caso di autovalori qualsiasi
Si passi ora ad esaminare il caso di un sistema dinamico con autovalori comunque piazzati nel piano complesso
(salvo, ovviamente, il vincolo della chiusura rispetto alla coniugazione complessa).
In tal caso il polinomio caratteristico può essere fattorizzato nella forma:
det(zI − A) =
r
Y
(z − λi )ni ,
i=1
r
X
ni = n
(3.117)
i=1
ove l’intero r indica il numero di autovalori distinti ed il generico intero ni indica la molteplicita dell’autovalore
λi . La molteplicità di un autovalore come radice del polinomio caratteristico è detta molteplictà algebrica
dell’autovalore.
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-158
Nel caso generale quindi, in virtù della forma (3.117) del polinomio caratteristico, l’esponenziale di matrice
nel dominio Zeta è costituita da funzioni razionali che possono avere radici del denominatore di molteplicità
maggiore di uno.
Sia m(z) il minimo comune denominatore (cioè, il minimo comune multiplo dei polinomi a denominatore)
degli elementi di Exp(A, Z). Esso può essere fattorizzato come:
m(z) =
r
Y
i=1
(z − λi )mi ,
1 ≤ mi ≤ n i .
(3.118)
In merito a tale fattorizzazione, è importante notare come 1) ogni autovalore (cioè, ogni radice di det(zI − A))
compare come radice di tale polinomio; 2) la molteplicità mi di ciascun autovalore come radice del polinomio
in (3.118) può essere minore della molteplicità algebrica.
Il polinomio m(z) è detto polinomio minimo del sistema, e la molteplicità mi dell’autovalore λi come radice
di m(z) è detta molteplicità come radice del polinomio minimo.
Si consideri ora la forma generale dell’esponenziale di matrice nel dominio del tempo. Sia p(z) = np (z)/dp (z)
il generico elemento della matrice z(zI − A)−1 . Ricordando la forma della trasformata inversa di una funzione
razionale si ottiene, per un qualche intero q e per un opportuno ordinamento degli autovalori:
p(z) = Q
Aq,mq z
Aq,1 z
A1,m1 z
np (z)
A1,1 z
+ ···+
+ ··· +
+ ···+
=
(z − λ1 )
(z − λ1 )m1
(z − λq )
(z − λq )mq
(z − λi )mi
(3.119)
dove i q autovalori λi , i = 1, . . . , q sono un sottoinsieme degli autovalori del sistema. Tenendo conto di tale forma
dell’espansione in frazioni parziali, ed antitrasformando nel dominio del tempo, si trova il generico elemento
dell’esponenziale di matrice:
k
k
k−(m1 −1)
p(k) = A1,1 λk1 + · · ·+ A1,m1
λ1
+ · · ·+ Aq,1 λkq + · · ·+ Aq,mq
λqk−(mq −1) . (3.120)
m1 − 1
mq − 1
Gli elementi della matrice esponenziale sono quindi composti da combinazioni lineari di funzioni polinomialeesponenziale del tipo:
k µ λk
(3.121)
in cui la potenza µ del termine polinomiale varia tra zero e la molteplicità meno uno del corrispondente autovalore
come radice del polinomio minimo. Le funzioni (3.121) sono i modi naturali associati ad autovalori reali di
molteplicità maggiore di uno.
Analogamente a quanto già visto nel caso di autovalori distinti, nel caso di coppie di autovalori complessi
coniugati λ = σe ω , di molteplicità arbitraria m, si ottengono modi naturali costituiti da funzioni del tipo:
k µ σ k cos(ωk),
k µ σ k sin(ωk),
(3.122)
con la potenza µ del termine polinomiale compresa tra zero ed m − 1. Le funzioni (3.122) sono i modi naturali
reali associati ad autovalori complessi coniugati di molteplicità maggiore di uno.
Esempio 3.3 (Sistema planare con molteplicità non unitaria) Si consideri il sistema dinamico planare
−1 1
x(k + 1) =
x(k).
(3.123)
0 −1
il cui polinomio caratteristico è dato da det(zI − A) = (λ + 1)2 , ed i cui autovalori sono quindi λ = −1,
molteplicità algebrica pari a due. I modi naturali associati potrebbe essere quindi le due funzioni esponenzialik
k
polinomiale (−1) ed k(−1) , in dipendenza della molteplicità dell’autovalore nel polinomio minimo.
Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Zeta.
z + 1 −1
z+1
1
(zI − A) =
,
adj (zI − A) =
, det(zI − A) = z 2 + 2z + 1
(3.124)
0
z+1
0
z+1
e quindi
z(zI − A)−1

z(z + 1)
 (z + 1)2

=

0
 
z
z

(z + 1)2 
(z
+
1)
 
=
z(z + 1) 
0
(z + 1)2
z
(z + 1)2
z
(z + 1)


.

(3.125)
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-159
Come si vede, in questo caso nel calcolo dell’esponenziale nel dominio Zeta vi sono delle cancellazioni polo/zero
in alcuni termini. Il polinomio minimo, è immediato vedere, coincide con il polinomio caratteristico, e quindi i
modi naturali sono dati sia dalla funzione esponenziale pura che dalla funzione esponenziale polinomiale.
Ricordando le trasformate di segnali notevoli, per i vari elementi della matrice esponenziale si trova facilmente:
z
z
k
−1
−1
Z
= (−1)k ,
(3.126)
= −k(−1) , Z
(z + 1)2
(z + 1)
e quindi la matrice esponenziale, nel dominio del tempo, è data da:

k
k 
(−1) −k(−1)
,
Ak = 
(3.127)
k
0
(−1)
che, come è immediato vedere, è costituita da combinazioni lineari dei due modi naturali già individuati sulla
base dell’analisi degli autovalori e del polinomio minimo.
♦
Esempio 3.4 Si consideri il sistema dinamico planare
−1 0
x(k + 1) =
x(k),
0 −1
(3.128)
il cui polinomio caratteristico è dato da det(λI − A) = (λ + 1)2 , ed i cui autovalori sono quindi λ = −1,
molteplicità algebrica pari a due. Si noti come il polinomio caratteristico, e quindi gli autovalori e la loro
molteplicità algebrica, siano del tutto identici all’esempio precedente. I modi naturali associati potrebbero
k
k
k
quindi essere le due funzioni esponenziali-polinomiale (−1) ed k(−1) , o la sola funzione esponenziale (−1) .
Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Zeta.
z+1
0
z+1
0
(zI − A) =
,
adj (zI − A) =
, det(zI − A) = z 2 + 2z + 1
(3.129)
0
z+1
0
z+1
e quindi
z(zI − A)−1

z(z + 1)
 (z + 1)2

=

0

z
  (z + 1)
 
=
z(z + 1)  
0
(z + 1)2
0

0
z
(z + 1)


.

(3.130)
Come si vede, in questo caso nel calcolo dell’esponenziale nel dominio Zeta vi sono delle cancellazioni polo/zero
in alcuni termini. Il polinomio minimo, è immediato vedere, in questo caso non coincide con il polinomio
caratteristico, ed dato da: m(z) = (z + 1). L’autovalore ha quindi molteplicità unitaria nel polinomio minimo.
k
Ciò implica che il sistema ha un solo modo naturale, dato dalla funzione esponenziale pura (−1) .
Ricordando le trasformate di segnali notevoli, per l’elemento significativo della matrice esponenziale si trova
facilmente:
z
k
= (−1) ,
(3.131)
Z −1
(z + 1)
e quindi la matrice esponenziale, nel dominio del tempo, è data da:


k
(−1)
0
,
Ak = 
k
0
(−1)
(3.132)
che, come è immediato vedere, contiene solo il modo naturale già individuato sulla base dell’analisi degli autovalori e del polinomio minimo.
♦
Esempio 3.5 Si consideri il sistema dinamico di ordine tre

0 1
x(k + 1) =  0 0
0 0

0
1  x.
0
(3.133)
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-160
Il polinomio caratteristico di tale matrice è dato da: det(zI − A) = z 3 , cui corrisponde un autovalore nullo,
di molteplicità tre. Si proceda al calcolo della matrice (zI − A)−1 , trovando:
−1
z(zI − A)

1



= 0


0
1
z
1
0
1 
z2 

1 
.

z 
(3.134)
1
Il calcolo delle trasformate inverse è immediato, ricordando la trasformata del’impulso unitario ed il significato della moltiplicazione per z −1 (operatore di ritardo unitario). Si trova quindi che i vari termini della matrice
esponenziale sono impulsi unitari, ritardi di zero, uno e due passi. L’esponenziale di matrice nel dominio del
tempo è quindi:


δ(k) δ(k − 1) δ(k − 2)
δ(k)
δ(k − 1)  .
Ak =  0
(3.135)
0
0
δ(k)
Come si può notare, i modi naturali del sistema vanno a zero in tre passi, e cioè, a partire dal passo k = 3
tutti i modi naturali sono esattamente nulli. Ciò accade solo per autovalori nulli.
Un sistema con tale caratteristica, e cioè con tutti i modi naturali che vanno a zero in un numero finito di
passi (o, equivalentemente, con tutti gli autovalori nulli), si chiama a tempo di risposta finita od anche sistema
a risposta piatta. Tali sistemi sono di estrema importanza nel settore dei filtri digitali, dove sono noti come filtri
Finite Impulse Response (filtri FIR).
♦
Capitolo 3: Analisi sistemi LTDS
3.6
[Ed. 2015, V 4.0 - PV - UniPG] - 3-161
Analisi del comportamento ingresso-uscita per sistemi LSTD
In questa sezione si studierà il problema del calcolo della risposta in uscita di un sistema dinamico ad una
sequenza u(·) applicata in ingresso, secondo lo schema di principio in figura 3.3.
Ingresso u(·) (noto)
✲
Uscita y(·) =?
✲
Sistema
Figura 3.3: Analisi ingresso-uscita di un sistema dinamico
Il sistema dinamico è descritto da un modello alle differenze finite del tipo seguente
x(k + 1) =
y
=
Ax(k) + Bu(k),
Cx(k) + Du(k),
x ∈ Rn , u ∈ R,
y ∈ R,
la cui rappresentazione nel dominio della variabile Zeta, già determinata in precedenza, è data dalla risposta
completa nello stato (comprendente sia la risposta libera Xℓ già studiata con l’analisi modale sia la risposta
forzata Xf ):
X(z) = z(zI − A)−1 x(0) + (zI − A)−1 BU (z),
X(z) = Xℓ (z) + Xf (z),
Xℓ (z) = z(zI − A)−1 x(0),
Xf (z) = (zI − A)−1 BU (z),
e dalla risposta completa in uscita, che può anch’essa essere decomposta nella risposta libera Yℓ ed in quella
forzata Yf (si vedano anche la sezione 3.2 e la sezione 3.3.4)
Y (z) = zC(zI − A)−1 x(0) + [C(zI − A)−1 B + D]U (z),
Y (z) = Yℓ (z) + Yf (z),
Yℓ (z) = zC(zI − A)−1 x(0),
Yf (z) = C(zI − A)−1 BU (z) + DU (z).
Si noti come, dalla linearità dell’operatore trasformata, discenda in modo immediato il principio sovrapposizione degli effetti: dato un segnale u(k), combinazione lineare di segnali elementari u1 (k) ed u2 (k), la risposta
complessiva in uscita è pari alla somma delle risposte ai singoli segnali elementari:
U (z) =
Y (z) =
Z {u(k)} = Z {c1 u1 (k) + c2 u2 (l)} = c1 U1 (z) + c2 U2 (z)
W (z)U (z) = W (z) · (c1 U1 (z) + c2 U2 (z)) = c1 Y1 (z) + c2 Y2 (z)
(3.136)
(3.137)
In questa sezione l’interesse specifico è per l’analisi della risposta forzata, che è determinata in modo immediato (nel dominio della variabile Zeta, si veda ancora la sezione 3.3.4) come prodotto tra la funzione di
trasferimento e la trasformata del segnale di ingresso:
Yf (z) = C(zI − A)−1 BU (z) + DU (z) = C(zI − A)−1 B + D U (z) = W (z)U (z)
(3.138)
W (z) :=
C(zI − A)−1 B + D.
(3.139)
Si noti come, in virtù delle proprietà dell’esponenziale di matrice nel dominio Zeta, la funzione di trasferimento sia una matrice di funzioni razionali.
È molto importante sottolineare le seguenti proprietà della risposta forzata (e quindi della matrice di trasferimento quale modello descrittivo), che ne caratterizzano l’estrema importanza, ma anche i limiti.
Commento 3.2
• La risposta forzata di un sistema dinamico descrive il legame ingresso-uscita del sistema stesso.
• La risposta forzata di un sistema dinamico assume condizioni iniziali nulle.
• La risposta forzata di un sistema dinamico può trascurare alcune componenti del comportamento dinamico
interno.
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-162
Si consideri ora, per semplicità e senza perdità di generalità, il caso di un sistema scalare (dal punto di vista
ingresso-uscita). Sia
c · adj (zI − A) · b
W (z) = c(zI − A)−1 b + d =
+d
(3.140)
det(zI − A)
la sua funzione di trasferimento che, come già notato in precedenza, è una funzione razionale propria (se d 6= 0)
o strettamente propria (se d = 0).
Commento 3.3 Per semplicità notazionale, l’ordine del denominatore di una generica funzione di trasferimento
(e quindi il numero di poli) verrà ancora indicato con la lettera n, analogamente alla notazione utilizzata per
indicare la dimensione dello spazio di stato di un generico sistema (e quindi il numero di autovalori). Si ricordi
tuttavia che, in generale, il numero di poli è minore del numero di autovalori.
3.6.1
Risposta impulsiva
L’analisi della risposta forzata di norma viene condotta considerando alcuni segnali notevoli. Tra le possibile
risposte forzate, la più semplice è la risposta impulsiva, e cioè la risposta ad un segnale di ingresso dato da un
impulso a tempo discreto.
Ricordando come la trasformata Zeta di un impulso sia pari ad uno, si ricava la considerazione che la risposta
impulsiva descrive la reazione del sistema in esame ad una variazione finita di energia, e la forma di tale risposta
dipende solo dalle caratteristiche del sistema stesso.
Esaminando in dettaglio tale uscita, si trova infatti:
Y (z) = W (z)U (z) ⇒ Y imp (z) = W (z) · 1.
(3.141)
Assumendo, per semplicità, un sistema con tutti i poli distinti e strettamente proprio, si ha:
n
Y imp (z) =
βn−1 z n−1 + βn−2 z n−2 + · · · + β1 z + β0 X Ai z
=
,
z n + αn−1 z n−1 + · · · + α1 z + α0
(z − pi )
i=1
(3.142)
da cui segue, per la risposta nel dominio del tempo:
n
X
Ai pki .
y imp (k) = Z −1 Y imp (z) =
(3.143)
i=1
Poichè i poli sono un sottoinsieme degli autovalori, le funzioni che appaiono nella risposta impulsiva sono
un sottoinsieme dei modi naturali del sistema. Poichè il segnale di ingresso, avendo trasformata pari ad uno,
non contribuisce con specifiche funzioni del tempo, la risposta impulsiva contiene tutti, e soli, i modi naturali
del sistema che influenzano il legame ingresso-uscita.
Il comportamento asintotico della risposta impulsiva si ricava immediatamente dalla caratterizzazione rispetto
alla convergenza dei modi naturali che la compongono. Se tutti tali modi naturali sono convergenti, la risposta
impulsiva tende asintoticamente a zero.
Nel caso di poli qualsiasi, e quindi con molteplicità anche non unitaria, si trova facilmente5 :
Y imp (z) = W (z) =
qi
r X
X
i=1 j=1
Ai,j z
,
(z − pi )j
r
X
qi = n,
(3.144)
λt−(j−1) pi k−(j−1) .
(3.145)
i=1
e quindi, nel dominio del tempo:
y
imp
(k) =
qi
r X
X
i=1 j=1
Ai,j
k
j−1
La risposta è ancora una combinazione lineare di modi naturali, che possono essere di qualsiasi tipo, e quindi
anche di tipo polinomiale-esponenziale. Nel caso in cui alcuni poli siano complessi coniugati a coppie, i modi
naturali relativi possono essere raccolti ed espressi in termini reali, sotto forma di funzioni di tipo polinomialeesponenziale-sinusoidale e polinomiale-esponenziale-cosinusoidale.
5 si
assume ancora una funzione di trasferimento strettamente propria
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-163
Anche in questo caso, il comportamento asintotico della risposta impulsiva si ricava immediatamente dalla
caratterizzazione rispetto alla convergenza dei modi naturali che la compongono. Se tutti tali modi naturali
sono convergenti, la risposta impulsiva tende asintoticamente a zero.
Infine, è facile vedere, dal confronto tra la risposta impulsiva in uscita, data da:
Y imp (z) = c(zI − A)b · 1
(3.146)
Yℓ (z) = c(zI − A)x(0)
(3.147)
e la risposta libera in uscita, data da:
come la risposta impulsiva possa essere interpretata anche come una risposta libera a partire dalla condizione
iniziale x(0) = b.
3.6.2
Risposta indiciale
Un secondo segnale di interesse per lo studio del comportamento di sistemi dinamici è il gradino unitario
δ−1 (k). In tal caso l’uscita forzata viene indicata con il termine risposta al gradino, o risposta indiciale.
z
La trasformata di Zeta del gradino è pari a
, e quindi la risposta forzata è data da:
z−1
Y gra (z) = W (z)
z
.
z−1
(3.148)
La risposta nel dominio del tempo di ottiene facilmente per espansione in frazioni parziali e trasformazione
inversa. Si assuma inizialmente un sistema con funzione di trasferimento priva di poli in uno. In tal caso la
risposta indiciale può essere espansa in frazioni parziali:
Y gra (z) =
qi
r X
X
i=1 j=1
Ai,j z
Bz
+
j
(z − pi )
z−1
(3.149)
dove r indica il numero di poli distinti del denominatore della W (z), qi indica la molteplicità del polo pi , ed il
generico residuo Ai,j è calcolato come indicato nella condizione (3.64).
La risposta indiciale nel dominio del tempo è quindi:
y gra (k) = Z −1 [Y gra (z)] =
qi
r X
X
Ai,j
i=1 j=1
k
j−1
pi k−(j−1) + Bδ−1 (k).
(3.150)
Si vede facilmente i termini che costituiscono la risposta indiciale possano essere organizzati in due gruppi.
Il primo gruppo contiene tutti i termini che derivano dai poli della funzione di trasferimento e coincide, a meno
dei coefficienti della combinazione lineare, con la risposta impulsiva:
y gra,t (k) =
qi
r X
X
i=1 j=1
Ai,j
k
j−1
k−(j−1)
pi
,
(3.151)
mentre il secondo gruppo contiene semplicemente un termine della stessa forma del segnale di ingresso ed
ampiezza variata:
y gra,p (k) = Bδ−1 (k).
(3.152)
L’ampiezza B con cui il segnale di ingresso appare in uscita è pari al guadagno in continua del sistema:
B = (z − 1) · Y gra (z)|z=1 = W (z)|z=1 = W (1).
(3.153)
Analogamente a quanto accade per la risposta impulsiva (e più in generale per l’antitrasformata di una generica funzione razionale), nel caso di coppie di poli complessi coniugati le corrispondenti funzioni esponenziale
possono essere raccolte nella forma di funzioni reali di tipo esponenziale-sinusoidale, eventualmente con termini
polinomiali se i poli non sono semplici.
La risposta indiciale quindi può essere decomposta nella somma di termini che descrivono la risposta impulsiva (e che sono un sottoinsieme dei termini che compongono la risposta libera in uscita del sistema) e di
un termine con la stessa forma dell’ingresso. Nel caso particolare in cui la risposta impulsiva sia convergente a
zero, si ottiene una risposta che converge asintoticamente ad un gradino di ampiezza B = W (0). In tal caso, si
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-164
suole indicare con la dizione di risposta transitoria la somma ygra,t (k) di tutti i termini che dipendono dai poli
del sistema, mentre il termine derivante dall’ingresso viene indicato con la dizione di risposta permanente:
Se
y gra,t (k)
=
lim y gra,t (k) = 0 ⇒ y gra (k) = y gra,t (k) + y gra,p (k),
k
pi k−(j−1) risposta transitoria
Ai,j
j−1
k→∞
qi
r X
X
(3.154)
(3.155)
i=1 j=1
y gra,p (k)
3.6.3
= Bδ−1 (k) risposta permanente.
(3.156)
Risposta ad ingresso sinusoidale
Si considerti ora il caso di una sequenza di ingresso sinusoidale, ad esempio ottenuta per campionamento
di un segnale a tempo continuo. Per lo studio della risposta forzata in uscita si consideri quindi un sistema
dinamico descritto dalla seguente funzione di trasferimento:
W (z) =
βn z n + βn−1 z n−1 + · · · + β1 z + β0
.
z n + αn−1 z n−1 + · · · + α1 z + α0
(3.157)
Applicando in ingresso un segnale sinusoidale di ampiezza unitaria e pulsazione pari ad ωT , con trasformata
come sotto indicato:
z sin(α)
.
(3.158)
u(k) = sin(ωT k) = sin(αk),
U (z) = 2
z − 2z cos(α) + 1
Si noti come, nel caso di sistema a tempo discreto ottenuto per campionamento di un sistema a tempo
continuo, con periodo di campionamento T , allora la sequenza di ingresso sin(ωT k) rappresenta appunto il
campionamento di un segnale a tempo continuo sin(ωt), di pulsazione pari ad ωrad/sec, mentre la pulsazione
del segnale a tempo discreto dipende anche dal periodo di campionamento. Per semplicità, nel seguito il termine
ωT varrà sinteticamente indicato con α: α = ωT . I poli del segnale (cioè, i poli della trasformata Zeta del segnale
di ingresso) sono sul cerchio unitario nelle posizioni cos(α) +  sin(α) = eα e cos(α) −  sin(α) = e−α .
Assumendo quindi che il sistema non abbia poli complessi coniugati posti in cos(α) ±  sin(α), si ottiene la
seguente risposta forzata, nel dominio Zeta:
z sin(α)
βn z n + βn−1 z n−1 + · · · + β1 z + β0
· 2
n
n−1
z + αn−1 z
+ · · · + α1 z + α0
z − 2z cos(α) + 1
qi
r X
X
Ai,j z
B1 z
B2 z
=
+
+
j
(z
−
p
)
z
−
cos(α)
−

sin(α)
z
−
cos(α)
+  sin(α)
i
i=1 j=1
Y sin (z) =
(3.159)
(3.160)
che, nel dominio del tempo, può essere scritta nella forma seguente, raggruppando insieme i termini che derivano
dai poli del sistema e quelli che derivano da dai poli della sequenza di ingresso:
y
sin
(k) =
qi
r X
X
i=1 j=1
+
Ai,j
k
j−1
B1 e αk + B2 e −αk
pi k−(j−1)
Modi sistema
Modi ingresso.
Il calcolo dei residui procede come nel caso generale. In particolare i residui Ai , relativi ai poli del sistema,
richiedono, nel caso generale, l’uso delle relazioni valide per punti singolari non semplici, mentre i residui B1 e
B2 , relativi ai due termini caratterizzanti il segnale di ingresso, possono essere calcolati sulla base delle relazioni
per i poli semplici, in considerazione dell’ipotesi precedente di non coincidenza tra i poli del segnale e quelli del
sistema. Si ottiene quindi:
Ai,j
=
lim
z→pi
1
dqi −j
(qi − j)! dz qi −j
(z − pi )qi sin
Y (z) ,
z
(3.161)
Capitolo 3: Analisi sistemi LTDS
B1
=
=
=
W (cos(α) +  sin(α))
=
=
=
=
(3.162)
(3.163)
z=cos(α)+ sin(α)
(3.164)
sin(α)
1
=
W (cos(α) +  sin(α))
2 sin(α)
2
1
Mα e ϕα ,
2
dove
Mα := |W (cos(α) +  sin(α))| = |W (eα )|,
=
=
(z − cos(α) −  sin(α))
Y (z)
z
z=cos(α)+ sin(α)
(z − cos(α) −  sin(α))
z sin(α)
W (z)
z
(z − cos(α) −  sin(α))(z − cos(α) +  sin(α))
sin(α)
W (z)
(z − cos(α) +  sin(α)) z=cos(α)+ sin(α)
=
B2
[Ed. 2015, V 4.0 - PV - UniPG] - 3-165
(3.165)
ϕα := ∠W (cos(α) +  sin(α)) = ∠W (eα ),
(z − cos(α) +  sin(α))
Y (z)
z
z=cos(α)− sin(α)
(3.166)
(z − cos(α) +  sin(α))
z sin(α)
W (z)
z
(z − cos(α) −  sin(α))(z − cos(α) +  sin(α))
sin(α)
W (z)
(z − cos(α) −  sin(α)) z=cos(α)− sin(α)
W (cos(α) −  sin(α)) −  sin(α)
− sin(α)
1
= − W (cos(α) −  sin(α))
2 sin(α)
2
1
Mα e ϕα ,
2
dove
Mα := |W (cos(α) −  sin(α))| = |W (e−α )|,
(3.167)
z=cos(α)− sin(α)
(3.168)
(3.169)
−
ϕα := ∠W (cos(α) −  sin(α)) = ∠W (e−α ),
La risposta forzata ad ingresso sinusoidale, nel dominio del tempo, vale quindi:
y sin (k)
ytsin (k)
= ytsin (k) + ypsin (k)
=
qi
r X
X
i=1 j=1
ypsin (k)
Ai,j
k
j−1
= B1 e αk + B2 e −αk
=
(3.170)
pi k−(j−1)
Modi sistema
Modi ingresso
(3.171)
(3.172)
1
Mα e αk+ϕα − e −αk−ϕα = Mα sin(αk + ϕα ),
2
in cui il termine ytsin (k) raccoglie tutti i modi naturali del sistema e coincide, a meno dei coefficienti della
combinazione lineari, cioè a meno dei residui, con la risposta impulsiva, mentre il termine ypsin (k) contiene
una replica della sequenza di ingresso, modificato in ampiezza e fase in modo dipendente solo dal valore della
funzione di trasferimento alla pulsazione del segnale stesso.
Se il sistema ha tutti i poli con modulo minore di uno (cioè, come vedremo in seguito, se il sistema è
esternamente stabile), allora, e solo in questo caso, il termine ytsin (k) prende il nome di risposta transitoria e
converge a zero esponenzialmente (in modo del tutto analogo a quanto visto per il caso dell’ingresso a gradino).
In tal caso, il termine ypsin (k) è il solo segnale che “permane” dopo l’esaurimento del transitorio, ed è la
risposta permanente per ingressi sinusoidali.
Si noti come, sia nel caso di ingressi sinusoidali sia nel caso precedente di ingressi a gradino, la risposta
transitoria esiste solo se la risposta impulsiva converge asintoticamente a zero. In tal caso, la risposta transitoria
e la risposta impulsiva sono costruite dalle stesse funzioni elementari, i modi naturali associati ai poli del sistema,
combinate linearmente con diversi coefficienti (i residui relativi).
Capitolo 3: Analisi sistemi LTDS
3.6.4
[Ed. 2015, V 4.0 - PV - UniPG] - 3-166
Risposta permanente
La risposta permanente (in uscita) descrive il comportamento in uscita di un sistema dinamico, a fronte
dell’applicazione di un segnale di ingresso e dopo molto tempo dall’istante di applicazione iniziale del segnale
stesso. Analoghe considerazioni possono essere svolte per la risposta permamente nello stato.
Si noti che la risposta permanente non corrisponde al limite, per tempi tendenti ad infinito, della risposta
forzata. Tale limite infatti, per molti segnali di interesse tra cui quelli sinusoidali, non è definito. Formalmente,
la risposta permanente è il limite cui tende la risposta forzata, per istante di applicazione k0 del segnale di
ingresso tendente a meno infinito:
yp (k) := lim y(k, k0 , 0, u(·)),
(3.173)
k0 →−∞
ove y(k, k0 , 0, u(·)) indica la risposta forzata in uscita, corrispondente all’applicazione del segnale u(·) a partire
dall’istante k0 , con condizione iniziale in k0 pari a zero.
La risposta permamente, per essere ben definita, non deve dipendere dalle condizioni iniziali. Condizione
sufficiente per tale comportamento è che tutti gli autovalori del sistema abbiano modulo minore di uno, con
assoluta analogia con quanto già discusso nel caso dei sistemi a tempo continuo.
I criteri di esistenza sono analoghi a quelli visti per i sistemi a tempo continuo, e sono sintetizzati dai due
seguenti teoremi.
Teorema 3.4 (Criterio di esistenza della risposta permanente in uscita per sistemi LSTD)
Un sistema dinamico Σ(A, b, c, d) ammette risposta permanente in uscita se e solo se tutti gli autovalori
associati ai modi naturali presenti nella risposta libera in uscita hanno modulo minore di uno.
⋄
Teorema 3.5 (Criterio di esistenza della risposta permanente nello stato per sistemi LSTD)
Un sistema dinamico Σ(A, b, c, d) ammette risposta permanente nello stato se e solo se tutti i suoi autovalori
hanno modulo minore di uno.
⋄
Il concetto di risposta permanente, descritto finora per segnali a gradino e per segnali sinusoidali, può essere
esteso a tutti i segnali con trasformata Zeta razionale e con poli a moduo maggiore od uguale ad uno. Ci si
limita allo studio della sola risposta forzata in uscita, lasciando al lettore l’estensione al caso della risposta
completa in uscita e nello stato.
Nel caso generale quindi, sia dato un sistema con funzione di trasferimento:
W (z) =
βn z n + βn−1 z n−1 + · · · + β1 z + β0
βn z n + βn−1 z n−1 + · · · + β1 z + β0
Qr
=
q
n
n−1
z + αn−1 z
+ · · · + α1 z + α0
i=1 (z − pi )i
(3.174)
caratterizzata da poli arbitrari, ma tutti con modulo minore di uno, e si consideri un segnale U (z) con trasformata
razionale:
γµ z µ + γµ−1 z µ−1 + · · · + γ1 z + γ0
γµ z µ + γµ−1 z µ−1 + · · · + γ1 z + γ0
Qρ
(3.175)
=
U (z) = µ
µ
z + ηµ−1 z µ−1 + · · · + η1 z + η0
i=1 (z − πi )i
e tutti i poli πi , i = 1, . . . , ρ con modulo maggiore od uguale ad uno.
In tal caso, la risposta forzata può essere scritta, dopo l’espansione in frazioni parziali, nella forma:
Y (z)
=
Yt (z) :=
βn z n + βn−1 z n−1 + · · · + β1 z + β0 γµ z µ + γµ−1 z µ−1 + · · · + γ1 z + γ0
Qr
Qρ
·
(3.176)
q
µ
i=1 (z − pi )i
i=1 (z − πi )i
µi
ρ X
qi
r X
X
X
Bi,j z
Ai,j z
+
= Yt (z) + Yp (z),
j
(z
−
p
)
(z
− πi )j
i
i=1 j=1
i=1 j=1
W (z)U (z) =
qi
r X
X
i=1 j=1
Ai,j z
,
(z − pi )j
Yp (z) :=
µi
ρ X
X
i=1 j=1
Bi,j z
.
(z − πi )j
(3.177)
Antitrasformando nel domino del tempo si ottiene quindi:
y(k) = yt (k) + yp (k),
yt (k)
yp (k)
= Z −1 {Yt (z)} =
= Z −1 {Yp (z)} =
(3.178)
qi
r X
X
i=1 j=1
µi
ρ X
X
i=1 j=1
Ai,j
Bi,j
k
j−1
pi k−(j−1)
(3.179)
k
j−1
πi k−(j−1) .
(3.180)
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-167
Se tutti i poli del sistema sono con modulo minore di uno, il termine yt (k) converge asintoticamente a zero,
e costituisce la risposta transitoria: in tal caso, e solo in tal caso, il termine yp (k), che contiene gli stessi modi
del segnale di ingresso (a meno dei coefficienti della combinazione lineare), indica la risposta permanente del
sistema all’ingresso dato.
Da un punto di vista pratico, la determinazione della risposta permanente, qualora esista, può quindi essere
condotta limitando il calcolo alla porzione di risposta forzata in uscita relativa ai soli termini che costituiscono
il segnale di ingresso, e cioè ai soli termini Yp (z) nella relazione generale (3.177).
Come in tutti i casi precedenti, il caso in cui alcuni poli del segnale siano complessi coniugati si tratta,
a partire dalla (3.177), raccogliendo i termini esponenziali relativi alle coppie complesse (tenendo conto della
molteplicità) ed esprimendo le corrispondenti combinazioni in forma reale, utilizzando funzioni polinomialeesponenziale-sinusoidale e polinomiale-esponenziale-sinusoidale.
Capitolo 3: Analisi sistemi LTDS
3.7
[Ed. 2015, V 4.0 - PV - UniPG] - 3-168
Esercizi proposti
Esercizio 3.5 Si consideri il sistema dinamico planare
x(k + 1) =
0
0
0
0
x,
(3.181)
▽
e si conduca l’analisi modale.
Esercizio 3.6 Determinare la trasformata z della sequenza temporale:
π k−2 h
π i
π
x(k) = k−1 1 − sin( k) − cos( k) δ−1 (k − 10),
2
2
2
k ∈ Z,
con δ−1 (k) funzione gradino unitario.
Esercizio 3.7 Calcolare la funzione antitrasformata z della seguente funzione:
X(z) =
1
.
(z 2 + 16)2
Esercizio 3.8 Calcolare le trasformate inverse delle seguenti funzioni razionali in z:
1
,
+ 2)
1
,
(z 2 − 2)
1
,
(z 2 + 2)2
z+4
.
2
(z + 2)(z + 1)(z + 3)
X1 (z) =
(z 2
X2 (z) =
X3 (z) =
X4 (z) =
2
Esercizio 3.9 La sequenza x(k), k ∈ Z+ , sia generata a partire da x(−1) = , x(0) = 1 per mezzo della
3
seguente regola induttiva sull’intero k ∈ N, k ≥ 1:
k−1 X
2
x(k + 1) =
x(τ ) − 2x(τ + 1) .
3
τ =−1
Dopo avere espresso x(k) come soluzione di un’equazione alle differenze finite, utilizzare il metodo della trasformazione z per calcolare l’espressione analitica di x(k) come funzione di k ∈ Z+ .
Esercizio 3.10 Sia assegnata la seguente serie formale
+∞ X
h+3
ρh ,
3
h=0
dove
h+3
3
ρ ∈ R,
è definito nel modo seguente:
h+3
3
=
(
0,
h ∈ Z, h < 0,
(h + 3)!
, h ∈ Z, h ≥ 0.
h!3!
Utilizzando il metodo della trasformazione z, determinare i valori di ρ per i quali la serie converge e (nel caso
di convergenza) la somma di tale serie.
Esercizio 3.11 Data la seguente matrice

4
 1
B=
 1
1
0
4
0
0
0
0
4
0

0
0 

1 
4
determinare, per mezzo della trasformazione z, la matrice B k , k ∈ Z+ .
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-169
Esercizio 3.12 Calcolare la funzione antitrasformata z della seguente funzione:
X(z) =
z
.
(z 2 + 4)2
Esercizio 3.13 Calcolare la funzione antitrasformata z della seguente funzione:
X(z) =
(z 2
z
.
− 4)(z 2 − 9)
Esercizio 3.14 Calcolare la funzione antitrasformata z della seguente funzione:
X(z) =
z
.
(z 2 + 4)(z 2 + 9)
Esercizio 3.15 Calcolare la funzione antitrasformata z della seguente funzione:
X(z) =
1
.
(z 2 − 4)(z 2 + 1)
Esercizio 3.16 Calcolare la funzione antitrasformata z della seguente funzione:
X(z) =
(z 2
1
.
+ 1)(z 2 − 9)
Esercizio 3.17 Date le matrici:
A =
F
=

λ1
 0
0

λ1
 0
0
1
λ2
0
0
λ2
0

0
1 ,
λ3

0
0 ,
λ3
con i tre parametri λ1 , λ2 e λ3 reali e distinti tra loro, calcolare gli esponenziali di matrice (a tempo discreto)
Ak , k ∈ Z+ e F k , k ∈ Z+ , per mezzo della trasformata z. Commentare il risultato.
Esercizio 3.18 Dato il sistema dinamico a tempo discreto:
x1 (k + 1) =
1/2x1 (k) + 2x2 (k),
x2 (k + 1) =
y(k) =
−1/2x2(k) + u(k),
x1
1. determinare la funzione di trasferimento ingresso-uscita;
2. calcolare la risposta in uscita ad un gradino unitario (a partire da condizioni iniziali nulle);
3. determinare, se esistono, le condizioni iniziali che assicurano una risposta in uscita, per ingresso a gradino
unitario, costante per tutti i tempi.
Esercizio 3.19 Calcolare la funzione trasformata z della seguente funzione:
k
k
(δ−1 (k − h) − δ−1 (k − k)),
x(k) = 2
1
dove δ−1 (k) è la funzione gradino unitario, e h, k sono numeri interi positivi.
Esercizio 3.20 Calcolare la funzione trasformata z della seguente funzione, parametrica in h e k:
k+1
k
(δ−1 (k − h) − δ−1 (k − k)),
x(k) = 4
1
dove δ−1 (k) è la funzione gradino unitario, e h, k sono numeri interi positivi.
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-170
Esercizio 3.21 Calcolare la funzione trasformata z della seguente funzione, parametrica in h e k:
k−1
k
(δ−1 (k − h) − δ−1 (k − k)),
x(k) = 6
1
dove δ−1 (k) è la funzione gradino unitario, e h, k sono numeri interi positivi.
Esercizio 3.22 Utilizzando il metodo della trasformazione z, determinare la soluzione, a partire da condizioni
iniziali nulle all’istante k = 0, della seguente equazione alle differenze finite:
1
= k + 3k , k ∈ Z+ .
16
Utilizzando il metodo della trasformazione z, determinare inoltre la soluzione a regime permanente e la
soluzione transitoria a partire da condizioni iniziali nulle all’istante t = 0.
x(k + 4) −
Esercizio 3.23 Data la seguente matrice

2
 0
F =
 0
0

0 0
0 0 

λ 0 
0 λ∗
1
2
0
0
ove λ è un numero complesso e λ∗ il suo coniugato, determinare, per mezzo della trasformazione z, la matrice
F k , k ∈ Z+ ,.
Esercizio 3.24 Data la seguente matrice

1
 3
B=
 1
1
0
0
0
3
0
0
0
0

0
0 

3 
3
determinare, per mezzo della trasformazione z, la matrice B k , k ∈ Z+ ,.
Esercizio 3.25 Dato il sistema dinamico a tempo discreto descritto dalle seguenti equazioni alle differenze
finite:
x1 (k + 1) =
x2 (k + 1) =
x2 (k),
x1 (k) + x2 (k),
y(k) =
x1 (k) + x2 (k),
si determini, per mezzo della trasformazione Zeta, la soluzione di tale sistema (sia nelle variabili di stato che
nella variabile di uscita) a partire da una condizione iniziale x1 (0) = 1, x2 (0) = 0 ed a partire da una condizioni
iniziale x1 (0) = 0, x2 (0) = 1.
Esercizio 3.26 Dato il sistema dinamico a tempo discreto descritto dalle seguenti equazioni alle differenze
finite:
x1 (k + 1) =
−x2 (k),
x2 (k + 1) =
x1 (k),
y(k) =
x1 (k),
si determini, per mezzo della trasformazione Zeta, la soluzione di tale sistema (sia nelle variabili di stato che
nella variabile di uscita) a partire da una condizione iniziale x1 (0) = 1, x2 (0) = 0 ed a partire da una condizioni
iniziale x1 (0) = 0, x2 (0) = 1.
Esercizio 3.27 Dato il sistema lineare a tempo discreto:
x1 (k + 1) =
x2 (k)
x2 (k + 1) =
−p1 x1 (k) − (p1 + 1)x2 (k) + u(k),
y(k) =
x1 (k) + x2 (k),
se ne determini la funzione di trasferimento tra l’ingresso u(k) e l’uscita y(k), al variare del parametro p1
nell’insieme dei reali.
Capitolo 3: Analisi sistemi LTDS
[Ed. 2015, V 4.0 - PV - UniPG] - 3-171
Esercizio 3.28 Dato il sistema lineare a tempo discreto:
x1 (k + 1) = x2
1
x2 (k + 1) =
(x1 − x2 ) + u(k),
6
y(k) = x1 ,
si risolvano i seguenti problemi.
1. Determinare la funzione di trasferimento tra l’ingresso u(k) e l’uscita y(k).
2. Determinare l’esponenziale di matrice soluzione dell’equazione omogenea associata.
3. Calcolare la risposta in uscita per i seguenti segnali di ingresso (nulli per k < 0), assumendo condizioni
iniziali nulle:
u(k) = 2δ−1 (k);
u(k) = δ(k − 2);
u(k) = 3k ;
u(k) = (−1)k .
4. Valutare l’esistenza della risposta permanente del sistema.
5. Calcolare, se esiste, il vettore di condizioni iniziali x1 (0) = x1,0 , x2 (0) = x2,0 cui corrisponde una risposta
completa coincidente con la risposta permanente, assumendo come segnale di ingresso un gradino unitario.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-172
Capitolo 4
Stabilità
4.1
Introduzione
Una delle proprietà qualitative più importanti nello studio dei sistemi dinamici è quella di stabilità, che
corrisponde alla discussione della seguente domanda: come reagisce un sistema dinamico che, trovandosi in uno
stato di quiete (stato di equilibrio), viene sottoposto ad una perturbazione che lo sposta da tale stato?
Lo studio della stabilità ha le sue origine nei lavori pionieristici, ed indipendenti, di A.M. Lyapunov1 e di
J.H. Poincaré2, agli inizi del secolo scorso.
L’idea principale dei due ricercatori è quella di studiare le proprietà qualitative di un insieme di soluzioni di
un’equazione differenziale, senza procedere all’effettivo calcolo delle soluzioni stesse, sia in forma chiusa sia in
forma numerica.
4.2
Definizione di stabilità
Lo studio della stabilità è centrato intorno al concetto di punto di equilibrio. Un punto xe dello spazio di
stato di un sistema dinamico è punto di equilibrio o stato di equilibrio se il sistema rimane in quiete nel punto
indefinitamente, eventualmente sotto l’effetto di un segnale di ingresso costante.
Si consideri il sistema dinamico non lineare:
ẋ = f (x, u),
x ∈ Rn ,
(4.1)
e sia x(t) = x(t, t0 , x0 , u(·)) lo stato del sistema (cioè, la soluzione dell’equazione differenziale) all’istante t, a
partire dallo stato x0 all’istante iniziale t0 , sotto l’effetto del segnale di ingresso u(·). Un punto xe è punto di
equilibrio per il sistema dinamico (4.1), sotto l’effetto del segnale di ingresso costante u(t) = ue , ∀t ≥ t0 , se e
solo se:
xe = x(t, t0 , xe , ue ), ∀t ≥ t0 .
(4.2)
Se xe è punto di equilibrio, la condizione (4.2) implica, per un sistema dinamico a tempo continuo, ẋe = 0,
e quindi i punti di equilibrio del sistema (4.1), per ingresso costante ue , sono tutte, e sole, le soluzione reali
dell’equazione algebrica:
f (xe , ue ) = 0.
(4.3)
Commento 4.1 Si noti che il caso di un sistema dinamico caratterizzato da un punto di equilibrio xe distinto
dall’origine e relativo ad un segnale di ingresso costante non nullo ue , può sempre essere ricondotto al caso di
un sistema dinamico autonomo (cioè, senza forzamento) con equilibrio nell’origine. Infatti, sia xe 6= 0 punto di
equilibrio per il sistema (4.1) per ingresso ue 6= 0. Si consideri come nuovo vettore di stato z := x − xe e come
nuovo ingresso il segnale v := u − ue . Il sistema dinamico
ż = f¯(z, v),
f¯(z, v) := f (z + xe , v + ue )
(4.4)
ha quindi un punto di equilibrio nell’origine relativo ad ingresso nullo, poiché f¯(0, 0) = f (xe , ue ) = 0. Non è
insomma restrittivo limitare l’analisi al caso di un sistema autonomo con equilibrio nell’origine. La precedente
affermazione diviene particolarmente importante nei sistemi lineari, come si vedrà più avanti.
1 Aleksandr
2 Jules
Michajlovič Ljapunov (Jaroslavl, 1857 - Odessa, 1918)
Henry Poincaré (Nancy, 1854 - Parigi, 1912)
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-173
Analogamente a quanto visto nella condizione (4.3), i punti di equilibrio di un sistema dinamico a tempo
discreto descritto dall’equazione alle differenze finite:
x(t + 1) = f (x(t), u(t)),
x ∈ Rn ,
t ∈ Z,
(4.5)
per i quali vale ancora la condizione di equilibrio (4.2), possono essere determinati sulla base delle soluzioni reali
dell’equazione algebrica:
xe = f (xe , ue ).
(4.6)
Anche in questo caso, l’analisi può essere limitata al caso di un equilibrio nell’origine per un sistema autonomo.
Nel seguito, per semplicità di notazione, il generico sistema dinamico di interesse, sia a tempo continuo sia
a tempo discreto, verrà indicato con la notazione unificata:
∆x(t) = f (x, u),
x ∈ Rn , t ∈ T .
(4.7)
Nel caso di un sistema a tempo continuo l’operatore ∆ indica la derivata prima rispetto al tempo e T = R, nel
caso di un sistema a tempo discreto l’operatore ∆ indica un anticipo temporale di un passo e T = Z. Con abuso
di notazione, si scriverà anche f (xe , ue ) = ∆xe per indicare una condizione di equilibrio sia a tempo continuo
sia a tempo discreto. La coppia di valori (xe , ue ) verrà indicata anche con il termine punto di lavoro del sistema.
L’evoluzione del sistema (4.7) a partire da una generica condizione iniziale x0 6= xe , interpretata come una
perturbazione, cioé uno scostamento, rispetto all’equilibrio, sotto l’effetto del segnale di ingresso costante ue
tale che f (xe , ue ) = ∆xe , e descritta dalla relazione generale x(t) = x(t, t0 , x0 , ue ), verrà chiamata evoluzione
perturbata o traiettoria perturbata ed indicata brevemente come xs (t), xs (t) := x(t, t0 , x0 , ue ).
La stabilità di un punto di equilibrio di un sistema dinamico concerne il comportamento del sistema stesso
se perturbato rispetto al suo stato di equilibrio. La domanda principale cui fornisce risposta la teoria della
stabilità è: cosa accade al moto di un sistema dinamico, in quiete in un punto di equilibrio, se il sistema, per
effetto di una piccola perturbazione, viene spostato dallo stato dall’equilibrio?
Un esempio classico è quello di una massa puntiforme posta su di una superficie con minimi e massimi
locali, come indicato in figura 4.1. Nel caso di una massa in quiete in corrispondenza di un minimo, una piccola
perturbazione dello stato del sistema, ad esempio una lieve variazione della posizione o della velocità, porta
ad un moto che non si allontanerà molto dalla posizione di equilibrio, e tale moto sarà tanto più prossimo
all’equilibrio quanto minore sarà la perturbazione iniziale. Un comportamento di questo tipo corrisponde ad
un equilibrio stabile. Se inoltre il moto del punto materiale tende a tornare, asintoticamente, sul punto di
equilibrio, ad esempio perchè il sistema è caratterizzato anche da forze dissipative, come l’attrito, si parla di
punto di equilibrio asintoticamente stabile.
Figura 4.1: Punti di equilibrio
Viceversa, una perturbazione, comunque piccola, allo stato di una massa puntiforme in equilibrio in corrispondenza di un massimo produrrà un moto che si allontanerà in modo definito dall’equilibrio stesso, senza
alcuna possibilità di rimanere confinato in un intorno del punto di equilibrio. Un comportamento di questo tipo
corrisponde ad un equilibrio non stabile, o instabile. Si noti che, nell’esempio citato, l’evoluzione perturbata
relativa ad un equilibrio instabile potrebbe finire in prossimità di un equilibrio stabile: l’instabilità insomma
non implica necessariamente comportamenti che tendono ad infinito.
Le precedenti definizione informali di punti di equilibrio stabili, asintoticamente stabili ed instabili possono
essere poste in termini formali, nel contesto della stabilità á la Lyapunov.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-174
Le definizioni che seguono in questa sezione sono applicabili sia al caso dei sistemi a tempo continuo che a
quello dei sistemi a tempo discreto. La norma utilizzata nel seguito si può assumere essere la consueta norma
L2 (Euclidea), sebbene tutte le norme siano equivalenti (in spazi finito dimensionali).
Definizione 4.1 (Equilibrio stabile) Un punto di equilibrio xe di un sistema ∆x = f (x, u) è detto punto di
equilibrio stabile se, per ogni ǫ > 0, esiste un δ > 0 tale che, per ogni condizione iniziale x0 : kx0 − xe k < δ,
ne segue che kxs (t) − xe k < ǫ, ∀t > t0 , xs (t) := x(t, t0 , x0 , ue ).
x(t)
ǫ
x0
xe δ
Figura 4.2: Punto di equilibrio stabile
Un secondo concetto importante è quello di convergenza.
Definizione 4.2 (Equilibrio convergente) Un punto di equilibrio xe di un sistema ∆x = f (x, u) è detto
punto di equilibrio convergente se esiste un δ > 0, tale che, per ogni condizione iniziale x0 : kx0 − xe k < δ,
ne segue che limt→∞ kxs (t) − xe k = 0, xs (t) := x(t, t0 , x0 , ue ).
x(t)
δ
x0
xe
Figura 4.3: Punto di equilibrio convergente
La proprietà di convergenza descrive un comportamento asintotico, senza fornire indicazioni sul comportamento transitorio: un punto convergente non è necessariamente stabile.
Definizione 4.3 (Equilibrio asintoticamente stabile) Un punto di equilibrio xe di un sistema ∆x = f (x, u)
è detto punto di equilibrio asintoticamente stabile se è sia stabile sia convergente.
Definizione 4.4 (Equilibrio non stabile) Un punto di equilibrio xe di un sistema ∆x = f (x, u) è detto
punto di equilibrio non stabile (o instabile) se non è stabile.
Concetti di stabilità analoghi a quelli visti per punti di equilibrio possono essere introdotti anche per moti
e traiettorie. In queste note ci si limita allo studio di punti, rimandando ad altri testi per tali estensioni.
Sulla base delle definizioni di stabilità date, possono essere introdotti criteri di stabilità di diversa natura.
Nel seguito verranno presentati criteri validi per sistemi dinamici lineari, e poi si passerà allo studio di sistemi
non lineari.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-175
x(t)
ǫ
x0
xe δ
Figura 4.4: Punto di equilibrio asintoticamente stabile
4.3
Stabilità di sistemi lineari
Si consideri un sistema lineare a tempo continuo, stazionario:
ẋ = Ax + Bu,
x ∈ Rn , u ∈ Rm .
(4.8)
I punti di equilibrio di tale sistema sono dati dalla soluzione del sistema omogeneo algebrico:
Axe + Bue = 0.
(4.9)
Nel caso particolare di un sistema omogeneo, e quindi descritto da
ẋ = Ax,
x ∈ Rn ,
(4.10)
la totalità dei punti di equilibrio è data dalle soluzioni del sistema omogeneo:
Axe = 0,
(4.11)
tra le quali è sempre presente la soluzione nulla, e quindi l’origine è sempre punto di equilibrio di un sistema
lineare, a tempo continuo, omogeneo. L’esistenza di ulteriori punti di equilibrio è legata alla dimensione del
nucleo della matrice A: se tale sottospazio ha dimensione non nulla, il sistema ha infiniti punti di equilibrio. Si
noti che tale sottospazio coincide con l’autospazio associato all’autovalore nullo.
Si può enunciare il seguente lemma:
Lemma 4.1
In un sistema lineare, a tempo continuo, stazionario ed omogeneo, l’origine è sempre punto di equilibrio, ed
è unico se il sistema non ha autovalori nulli. Se il sistema ha uno o più autovalori nell’origine, esso ammette
infiniti punti di equilibrio, dati dall’intero autospazio associato all’autovalore nullo.
Nel caso dei sistemi a tempo discreto si ha una situazione simile. Dato un sistema LSTD:
x(t + 1) = Ax + Bu,
x ∈ Rn , u ∈ Rm , t ∈ Z,
(4.12)
i sui punti di equilibrio sono dati dalla soluzione del sistema omogeneo algebrico:
Axe + Bue = xe .
(4.13)
Nel caso particolare di un sistema omogeneo, e quindi descritto da
x(t + 1) = Ax,
x ∈ Rn , t ∈ Z,
(4.14)
la totalità dei punti di equilibrio è data dalle soluzioni del sistema omogeneo:
Axe = xe ⇔ (I − A)xe = 0,
(4.15)
tra le quali è sempre presente la soluzione nulla, e quindi l’origine è sempre punto di equilibrio di un sistema
lineare, a tempo discreto, omogeneo. L’esistenza di ulteriori punti di equilibrio è legata alla dimensione del nucleo
della matrice (I − A): se tale sottospazio ha dimensione non nulla, il sistema ha infiniti punti di equilibrio. Si
noti che tale sottospazio coincide con l’autospazio associato all’autovalore pari ad uno.
Si può enunciare il seguente lemma:
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-176
Lemma 4.2 In un sistema lineare, a tempo discreto, stazionario ed omogeneo, l’origine è sempre punto di
equilibrio, ed è unico se il sistema non ha autovalori unitari. Se il sistema ha uno o più autovalori unitari
(λ = 1), esso ammette infiniti punti di equilibrio, dati dall’intero autospazio associato all’autovalore pari ad
uno.
Nel caso dei sistemi lineari, la forma della soluzione dell’equazione differenziale può essere determinata nel
caso generale, ed è data dalla ben nota funzione esponenziale matriciale:
x(t) = e At x0 ,
t ∈ R,
(4.16)
nel caso a tempo continuo e dalla forma “esponenziale” corrispondente:
x(t) = At x0 ,
t ∈ Z,
(4.17)
nel caso dei sistemi a tempo discreto. In entrambi i casi, l’esponenziale di matrice contiene tutti i modi naturali
del sistema. Il comportamento transitorio ed asintotico della soluzione dipende quindi, come già ben noto, dalle
caratteristiche di convergenza dei modi naturali. Si ricordi che la condizione iniziale x0 , che descrive l’effetto
della perturbazione iniziale, appare come termine moltiplicativo della risposta libera nello stato.
La definizione (4.1) di stabilità di un punto di equilibrio, specializzata al caso dell’origine, diviene:
Definizione 4.5 (Stabilità dell’origine per un sistema lineare omogeneo) L’origine xe = 0 è punto
di equilibrio stabile per un sistema lineare omogeneo ∆x = Ax se per ogni ǫ > 0 esiste un δ > 0 tale che,
per ogni condizione iniziale kx0 k < δ, si abbia kxs (t)k < ǫ, ∀t ≥ t0 .
La traiettoria perturbata in questo caso corrisponde ad una risposta libera nello stato. Intuitivamente, si
avrà il comportamento descritto nella definizione se, e solo se, tutti i modi naturali del sistema sono limitati o
convergenti.
Più precisamente, indicata con kM k la norma indotta3 sulla matrice M dalla norma vettoriale in uso, e
ricordando che kM vk ≤ kM k · kvk, si può scrivere:
kxs (t)k
kxs (t)k
=
=
k expAt x0 k ≤ k expAt kkx0 k, ∀t ≥ t0 ,
kAt x0 k ≤ kAt kkx0 k, ∀t ≥ t0 ,
t ∈ Z.
t ∈ R,
(4.18)
(4.19)
Sia nel caso dei sistemi a tempo continuo, sia nel caso dei sistemi a tempo discreto, ne segue che l’origine
è un punto di equilibrio stabile se la norma dell’esponenziale di matrice è limitata per tutti i valori del tempo.
Poichè tale matrice contiene tutti i modi naturali del sistema, la presenza anche di un solo modo divergente
rende non limitata la norma, e quindi non stabile l’origine. Ne segue il seguente criterio:
Lemma 4.3 (Criterio di stabilità dell’origine per un sistema lineare omogeneo)
L’origine dello spazio di stato è punto di equilibrio stabile per un sistema lineare omogeneo ∆x = Ax se e
solo se tutti i modi naturali del sistema sono limitati o convergenti.
Il criterio può essere specializzato al caso dei sistemi a tempo continuo e di quelli a tempo discreto per il
tramite delle seguenti formulazioni specifiche. Si ricorda che lo spettro di una matrice A, indicato con sp(A),
costitutisce l’insieme di tutti i suoi autovalori, che la molteplicità algebrica di un autovalore è indicata con µ e
la molteplicità geometrica con ν.
Teorema 4.1 (Criterio di stabilità dell’origine per sistemi lineari omogenei a tempo continuo)
L’origine dello spazio di stato è punto di equilibrio stabile per un sistema lineare omogeneo a tempo continuo
ẋ = Ax se e solo se tutti i modi naturali del sistema sono limitati o convergenti, e cioè se e solo se valgono
entrambe le condizioni:
Re(λ) ≤ 0, ∀λ ∈ sp(A),
∀λ ∈ sp(A) : Re(λ) = 0, ⇒ µ = ν.
3 Assunta
(4.20a)
(4.20b)
una norma kvk per i vettori di uno spazio Rn , si dice norma indotta di una matrice M ∈ Rn×n la quantità:
kAvk
= maxkvk=1 kAvk
maxv
kvk
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-177
Infatti, ad autovalori con parte reale negativa corrispondono modi naturali convergenti, per la presenza di
un termine esponenziale reale con parametro pari proprio alla parte reale dell’autovalore, e ad autovalori con
parte reale nulla e molteplicità algebrica e geometrica uguali corrispondono modi naturali limitati (funzioni a
gradino o funzioni co/sinusoidali).
In modo analogo, per i sistemi a tempo discreto.
Teorema 4.2 (Criterio di stabilità dell’origine per sistemi lineari omogenei a tempo discreto)
L’origine dello spazio di stato è punto di equilibrio stabile per un sistema lineare omogeneo a tempo discreto
x(t+ 1) = Ax se e solo se tutti i modi naturali del sistema sono limitati o convergenti, e cioè se e solo se valgono
entrambe le condizioni:
|λ| ≤ 1, ∀λ ∈ sp(A),
∀λ ∈ sp(A) : |λ| = 1, ⇒ µ = ν.
(4.21a)
(4.21b)
Infatti, ad autovalori con modulo minore di uno corrispondono modi naturali convergenti, per la presenza di un termine “esponenziale a tempo discreto” reale, del tipo σ t , con parametro pari proprio al modulo
dell’autovalore, e ad autovalori con modulo unitario e molteplicità algebrica e geometrica uguali corrispondono
modi naturali limitati (funzioni a gradino o funzioni periodiche).
Si consideri ora la definizione di punto di equilibrio convergente, adattandola allo studio dell’origine di un
sistema lineare.
Definizione 4.6 (Convergenza dell’origine per un sistema lineare omogeneo)
L’origine xe = 0 è punto di equilibrio convergente per un sistema lineare omogeneo ∆x = Ax se esiste un
δ > 0 tale che, per ogni condizione iniziale kx0 k < δ, ne segue che limt→∞ kxs (t)k = 0.
Intuitivamente, si avrà il comportamento descritto nella definizione se, e solo se, tutti i modi naturali del
sistema sono convergenti.
Ricordando le relazioni (4.18) e (4.19), si trova che, sia nel caso dei sistemi a tempo continuo, sia nel caso dei
sistemi a tempo discreto, l’origine è un punto di equilibrio convergente se la norma dell’esponenziale di matrice
è convergente a zero asintoticamente. Poichè tale matrice contiene tutti i modi naturali del sistema, la presenza
anche di un solo modo divergente o limitato rende non convergente la norma, e quindi non convergente l’origine.
Ne segue il seguente criterio:
Lemma 4.4 (Criterio di convergenza dell’origine per un sistema lineare omogeneo)
L’origine dello spazio di stato è punto di equilibrio convergente per un sistema lineare omogeneo ∆x = Ax
se e solo se tutti i modi naturali del sistema sono convergenti.
Si noti che la classe di sistemi per i quali l’origine è convergente è strettamente contenuta nella classe dei
sistemi per i quali l’origine è punto di equilibrio stabile. Ne consegue che, limitatamente ai sistemi lineari, la
convergenza implica la stabilità, e quindi la stabilità asintotica. Ciò è sintetizzato dal seguente risultato.
Lemma 4.5 (Criterio di stabilità asintotica dell’origine per un sistema lineare omogeneo)
L’origine dello spazio di stato è punto di equilibrio asintoticamente stabile per un sistema lineare omogeneo
∆x = Ax se e solo se tutti i modi naturali del sistema sono convergenti.
Il criterio precedente può essere specializzato al caso dei sistemi stazionari a tempo continuo (TC) e di quelli
a tempo discreto (TD) per il tramite delle seguenti formulazioni specifiche.
Teorema 4.3 (Criterio di stabilità asintotica dell’origine per sistemi omogenei LSTC)
L’origine dello spazio di stato è punto di equilibrio asintoticamente stabile per un sistema lineare stazionario
omogeneo a tempo continuo ẋ = Ax se e solo se tutti i modi naturali del sistema sono convergenti, e cioè se e
solo se vale la condizione:
Re(λ) < 0, ∀λ ∈ sp(A).
(4.22)
In modo analogo, per i sistemi a tempo discreto.
Teorema 4.4 (Criterio di stabilità asintotica dell’origine per sistemi omogenei LSTD)
L’origine dello spazio di stato è punto di equilibrio asintoticamente stabile per un sistema lineare stazionario
omogeneo a tempo discreto x(t + 1) = Ax se e solo se tutti i modi naturali del sistema sono convergenti, e cioè
se e solo se vale la condizione:
|λ| < 1, ∀λ ∈ sp(A).
(4.23)
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-178
Commento 4.2
Si noti come, nel caso dei sistemi lineari, le proprietà di stabilità siano globali, e in particolare la perturbazione
impressa allo stato iniziale, caratterizzata dal reale δ nelle definizioni, possa essere arbitrariamente grande.
Nel caso dei sistemi lineari, specializzando il contenuto del commento 4.1, è facile vedere che se un sistema,
anche non omogeneo, ammette molti (e quindi infiniti) punti di equilibrio, questi hanno tutti le stesse proprietà
di stabilità dell’origine del sistema omogeneo associato. Ne segue che, limitatamente al caso lineare, le proprietà
di stabilità dell’origine vengono attribuite anche all’intero sistema, e si parla quindi di sistemi stabili, sistemi
asintoticamente stabili e sistemi instabili, in funzione della collocazione degli autovalori nel piano complesso
definita nei criteri di stablità dell’origine riportati in precedenza.
4.3.1
L’equazione di Lyapunov
Per lo studio della stabilità di sistemi lineari à disponibile anche un risultato che si rivela interessante in sede di
progetto di controllori stabilizzanti, sia per sistemi lineari sia per sistemi non lineari: l’equazione di Lyapunov.
Si ricorda la seguente definizione.
Definizione 4.7 (Matrice definita positiva) Una matrice quadrata, reale e simmetrica M , di dimensioni
n × n, è detta definita positiva se la forma quadratica xT M x, x ∈ Rn , è definita positiva.
Si consideri il sistema LSTC omogeneo in (4.10). Si ha il seguente teorema.
Teorema 4.5 (Equazione di Lyapunov per sistemi LSTC omogenei)
Il sistema lineare, stazionario, a tempo continuo, omogeneo
ẋ = Ax,
x ∈ Rn ,
(4.24)
è asintoticamente stabile se e solo se, per ogni matrice Q simmetrica e definita positiva, l’equazione matriciale
lineare:
AT P + P A = −Q
(4.25)
nella matrice incognita P , quadrata, reale, simmetrica e definita positiva, ammette una soluzione simmetrica e
definita positiva.
L’equazione (4.25) è detta appunto equazione di Lyapunov a tempo continuo.
Per i sistemi a tempo discreto vale un risultato analogo. La corrispondente equazione è detta equazione di
Lyapunov a tempo discreto.
Teorema 4.6 (Equazione di Lyapunov per sistemi LSTD omogenei)
Il sistema lineare, stazionario, a tempo discreto, omogeneo
x(k + 1) = Ax,
x ∈ Rn ,
(4.26)
è asintoticamente stabile se e solo se, per ogni matrice Q simmetrica e definita positiva, l’equazione matriciale
lineare:
AT P A − P = −Q
(4.27)
nella matrice incognita P , quadrata, reale, simmetrica e definita positiva, ammette una soluzione simmetrica e
definita positiva.
4.4
Il criterio ridotto di Lyapunov per sistemi non lineari
Lo studio della stabilità di punti di equilibrio per sistemi non lineari può essere condotta, in prima approssimazione, studiando il comportamento, intorno al punto stesso, di una versione approssimata del sistema
dinamico.
Si consideri un sistema non lineare
∆x = f (x, u),
x ∈ Rn , u ∈ Rm ,
(4.28)
e sia xe un punto di equilibrio per tale sistema, cioè, tale che ∆xe = f (xe , ue ). Il punto di equilibrio xe può essere
preso come punto iniziale per un’espansione in serie di Taylor della funzione f (x, u). Indicati con δx := x − xe
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-179
e δu = u − ue gli scostamenti rispetto all’equilibrio dello stato interno del sistema e del segnale di ingresso, lo
sviluppo in serie di Taylor della funzione vettoriale f (x, u) è dato da:
∂f (x, u) ∂f (x, u) δx +
δu + r(δx, δu, xe , ue )
(4.29)
f (x, u) = f (xe , ue ) +
∂x x=xe
∂u x=xe
u=ue
u=ue
dove r(δx, δu, xe , ue ) indica il resto dello sviluppo in serie. Poiché esso contiene solo termini di ordine superiore
al primo in δx e δu, costituisce un infinitesimo di ordine superiore rispetto ai due incrementi, e cioè:
lim
δx→0
kr(δx, δu, xe , ue )k
= 0,
kδxk
lim
δu→0
kr(δx, δu, xe , ue )k
= 0.
kδuk
(4.30)
∂f (x, u)
, di dimensioni n×n, è detta matrice jacobiana della funzione vettoriale (più precisamente,
∂x
∂f (x, u)
, di dimensioni n×m, è detta matrice jacobiana
del campo vettoriale) f (x, u) rispetto ad x, ed il termine
∂u
della funzione vettoriale f (x, u) rispetto ad u. Valutando le due matrici jacobiane in corrispondenza del punto
di lavoro (xe , ue ) si ottengono due matrici ad elementi reali, indicate con A e B per analogia con il caso lineare:
∂f (x, u) ∂f (x, u) ,
B
:=
.
(4.31)
A :=
∂x x=xe
∂u x=xe
Il termine
u=ue
u=ue
Il campo vettoriale f (x, u), in un intorno del punto di lavoro, può quindi essere approssimato come:
f (x, u) ≃ f (xe , ue ) + Aδx + Bδu.
(4.32)
Ne consegue che il sistema non lineare (4.28), in un intorno del punto di lavoro (xe , ue ), è descritto dal
modello lineare approssimato:
∆δx = Aδx + Bδu,
(4.33)
ed i particolare
˙ = Aδx + Bδu,
δx
(4.34)
δx(t + 1) = Aδx + Bδu,
(4.35)
per un sistema a tempo continuo e
per un sistema a tempo discreto.
Commento 4.3 Si precisa che i modelli lineari (4.34) e (4.35) descrivono l’evoluzione approssimata dello scostamento δx tra l’andamento effettivo dello stato x(t) del sistema nonlineare ed il corrispondente punto di equilibrio.
Di per sé, quindi, l’utilizzo dello stesso simbolo δx nelle (4.34) e (4.35) e nella definizione δx := x − xe non è
completamento corretto. Si procede nel modo proposto per semplicità di notazione.
Le proprietà di stabilità dell’approssimazione lineare (più formalmente, della sua origine), possono essere
utilizzate per caratterizzare, per piccole perturbazioni, le proprietà di stabilità del punto di equilibrio del sistema
non lineare originale. L’idea alla base di tale risultato deriva dal fatto che, in un intorno sufficientemente piccolo
dell’origine, un termine lineare non identicamente nullo cresce più velocemente di qualsiasi termine polinomiale
di ordine superiore al primo. Purtroppo, se tale termine lineare è nullo (cioè, con coefficiente angolare nullo),
la crescita è imposta dai termini di ordine superiore.
Tali idee qualitative possono essere raccolte nel seguente teorema, detto criterio ridotto di Lyapunov, formulabile come segue per un generico sistema, e specializzato nel seguito tenendo conto della natura del tempo.
Teorema 4.7 (Criterio ridotto di Lyapunov) Sia (xe , ue ) un punto di lavoro per un sistema non lineare
∆x = f (x, u), e sia ∆δx = Aδx l’approssimazione lineare di tale sistema intorno al punto di lavoro, calcolata
secondo le relazioni (4.31). Allora, il punto xe è punto di equilibrio:
1. asintoticamente stabile, se tutti i modi naturali dell’approssimazione lineare sono convergenti (cioè, se
l’approssimazione lineare è asintoticamente stabile);
2. instabile, se l’approssimazione lineare ha almeno un modo naturale divergente (cioè, se l’approssimazione
lineare è instabile);
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-180
3. critico (caso critico) se l’approssimazione lineare ha uno o più modi naturali limitati e gli altri convergenti
(cioè, se l’approssimazione lineare è semplicemente stabile).
Si precisa che la dizione caso critico indica che il criterio ridotto non è in grado di fornire risposte significative,
poiché il comportamento del sistema in un intorno del punto di lavoro è caratterizzato dai termini di ordine
superiore al primo, che sono stati trascurati nella costruzione della approssimazione lineare. Si vedano, in
proposito, i successivi esempi 4.1 ed 4.2.
Il criterio ridotto può essere formulato in modo più specifico in funzione della natura dei sistemi. Per la
classe dei sistemi non lineari a tempo continuo si ha il seguente teorema.
Teorema 4.8 (Criterio ridotto di Lyapunov per sistema a tempo continuo)
˙ = Aδx l’approssimazione
Sia (xe , ue ) un punto di lavoro per un sistema non lineare ẋ = f (x, u), e sia δx
lineare di tale sistema intorno al punto di lavoro, calcolata secondo le relazioni (4.31). Allora, il punto xe è
punto di equilibrio:
1. asintoticamente stabile, se tutti gli autovalori dell’approssimazione lineare hanno parte reale negativa
(cioè, se l’approssimazione lineare è asintoticamente stabile);
2. instabile, se almeno un autovalore dell’approssimazione lineare ha parte reale positiva (cioè, se l’approssimazione
lineare è instabile);
3. critico (caso critico) se l’approssimazione lineare ha uno o più autovalori con parte reale nulla e tutti gli
altri con parte reale negativa (cioè, se l’approssimazione lineare è semplicemente stabile).
Nel caso dei sistemi non lineari a tempo discreto si ha invece il seguente teorema.
Teorema 4.9 (Criterio ridotto di Lyapunov per sistema a tempo discreto)
Sia (xe , ue ) un punto di lavoro per un sistema non lineare x(t + 1) = f (x, u), e sia δx(t + 1) = Aδx
l’approssimazione lineare di tale sistema intorno al punto di lavoro, calcolata secondo le relazioni (4.31). Allora,
il punto xe è punto di equilibrio:
1. asintoticamente stabile, se tutti gli autovalori dell’approssimazione lineare hanno modulo minore di uno
(cioè, se l’approssimazione lineare è asintoticamente stabile);
2. instabile, se almeno un autovalore dell’approssimazione lineare ha modulo maggiore di uno (cioè, se
l’approssimazione lineare è instabile);
3. critico (caso critico) se l’approssimazione lineare ha uno o più autovalori con modulo unitario e tutti gli
altri con modulo minore di uno (cioè, se l’approssimazione lineare è semplicemente stabile).
4.5
Il metodo diretto di Lyapunov per sistemi non lineari
Lo studio delle proprietà di stabilità di punti di equilibrio può essere condotto anche utilizzando il metodo
diretto di Lyapunov, o secondo metodo di Lyapunov, cosı̀ chiamato perché basato direttamente sulla equazione
differenziale che regola il moto, e non sulla sua soluzione.
L’idea del metodo deriva (probabilmente, [9]) da un risultato di Lagrange, intorno al 1800: se in una certa
posizione di riposo un sistema meccanico conservativo ha un minimo di energia potenziale, allora l’equilibrio è
stabile; se la posizione di equilibrio non corrisponde ad un minimo dell’energia potenziale, allora l’equilibrio è
instabile (si veda la citata figura 4.1).
Il criterio diretto di Lyapunov estende le considerazioni qualitative sulla energia potenziale di un sistema,
introducendo una sorta di generalizzazione della funzione energia, detta funzione candidata di Lyapunov.
Nel seguito, senza perdere di generalità in base a quanto già detto nel commento 4.1, si tratterà solo il caso
di equilibrio nell’origine per sistemi non lineari omogenei.
I teoremi di stabilità di Lyapunov sono basati su particolari classi di funzioni, ben definite in segno. Nel
seguito, W indicherà un intorno dell’origine dello spazio vettoriale Rn . Di norma i risultati saranno locali,
appunto validi solo in un intorno dell’origine. In alcuni casi, può accadere che l’intorno possa essere esteso
all’intero spazio di stato: in tal caso i risultati sono detti globali.
Definizione 4.8 (Funzione definita positiva) Una funzione continua V (x) : W → R è detta definita positiva (d.p.) nell’insieme W contenente l’origine, se:
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-181
1. V (0) = 0,
2. V (x) > 0, per tutti i punti x 6= 0, x ∈ W.
Definizione 4.9 (Funzione semidefinita positiva) Una funzione continua V (x) : W → R è detta semidefinita positiva (s.d.p.) nell’insieme W contenente l’origine, se:
1. V (0) = 0,
2. V (x) ≥ 0, per tutti i punti x 6= 0, x ∈ W.
Definizione 4.10 (Funzione definita negativa) Una funzione continua V (x) : W → R è detta definita
negativa (d.n.) nell’insieme W contenente l’origine, se la funzione −V (x) è definita positiva, e quindi se:
1. V (0) = 0,
2. V (x) < 0, per tutti i punti x 6= 0, x ∈ W.
Definizione 4.11 (Funzione semidefinita negativa) Una funzione continua V (x) : W → R è detta semidefinita negativa (s.d.n.) nell’insieme W contenente l’origine, se la funzione −V (x) è semidefinita positiva.
Le considerazioni qualitative sulla variazione dell’energia generalizzata, a fronte di una perturbazione, implicano lo studio della variazione di tale funzione. Tale studio viene condotto utilizzando la conoscenza della
derivata temporale, nel caso dei sistemi a tempo continuo, il calcolo diretto della variazione nei sistemi a tempo
discreto.
L’idea, nel caso dei sistemi a tempo continuo, viene concretizzata utilizzando lo strumento della derivata di
una funzione scalare lungo una funzione vettoriale.
Si consideri un sistema dinamico autonomo
ẋ = f (x),
x ∈ Rn .
(4.36)
Si consideri inoltre una funzione scalare V (x) : W → R, V (x) ∈ C 1 , cioè con derivate prime continue.
Definizione 4.12 (Derivata rispetto ad un campo vettoriale) La derivata V̇ di una funzione V (x) : W →
R rispetto al campo vettoriale f (x) è definita dal prodotto scalare:
V̇ :=< grad V (x), f (x) >=
∂V (x)
∂V (x)
f1 (x) + · · · +
fn (x).
∂x1
∂xn
(4.37)
Si noti che V̇ si calcola direttamente dalla conoscenza di V (x) e del campo vettoriale f (x), senza necessità di
risolvere l’equazione differenziale relativa, cioè l’equazione ẋ = f (x). Come già accennato in precedenza, questo
è uno dei principali punti di forza del metodo diretto.
La notazione V̇ indica una derivata temporale. Infatti la derivata di V lungo f descrive la variazione
temporale della funzione V (x) quando calcolata lungo una soluzione x(t) dell’equazione differenziale. Utilizzando
la regola di derivazione di funzioni composte, se la funzione V (x) viene valutata lungo la traiettoria x(t) =
x(t, t0 , x0 , u(·)), si trova:
V̇ =
∂V (x)
∂V (x)
∂V (x)
∂V (x)
ẋ1 + · · · +
ẋn =
f1 (x) + · · · +
fn (x).
∂x1
∂xn
∂x1
∂xn
(4.38)
E’ ora possibile enunciare i principali teoremi di stabilità (ed instabilità) di Lyapunov per l’origine di sistemi
non lineari, a tempo continuo, omogenei.
Teorema 4.10 (Teorema di stabilità di Lyapunov) Sia l’origine, xe = 0, punto di equilibrio del sistema
non lineare ẋ = f (x). Se esiste una funzione scalare definita positiva (d.p.) V (x) : W → R, V (x) ∈ C 1 , con W
intorno dell’origine, tale che V̇ sia semidefinita negativa (s.d.n.) in W per il sistema ẋ = f (x), allora l’origine
è punto di equilibrio stabile di tale sistema.
Teorema 4.11 (Teorema di stabilità asintotica di Lyapunov) Sia l’origine, xe = 0, punto di equilibrio
del sistema non lineare ẋ = f (x). Se esiste una funzione scalare definita positiva (d.p.) V (x) : W → R,
V (x) ∈ C 1 , con W intorno dell’origine, tale che V̇ sia definita negativa (d.n.) in W per il sistema ẋ = f (x),
allora l’origine è punto di equilibrio asintoticamente stabile di tale sistema.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-182
Vi è anche un teorema di instabilità.
Teorema 4.12 (Teorema di instabilità di Lyapunov) Sia l’origine, xe = 0, punto di equilibrio del sistema
non lineare ẋ = f (x). Se esiste una funzione scalare definita positiva V (x) : W → R, V (x) ∈ C 1 , con W intorno
dell’origine, tale che V̇ sia definita positiva in W, allora l’origine dello spazio di stato è punto di equilibrio
instabile di tale sistema.
Una funzione scalare V (x) : W → R, che sia definitiva positiva ed abbia derivate prime continue, è detta
funzione candidata di Lyapunov. Una funzione candidata di Lyapunov che soddisfi ad uno dei due teoremi 4.10
o 4.11 è detta funzione di Lyapunov per il sistema corrispondente.
Lo studio della stabilità dell’origine per sistemi non lineari a tempo discreto può essere condotta in modo
analogo, salvo utilizzare la variazione finita della funzione candidata di Lyapunov in luogo della sua derivata
temporale.
Sia quindi
x(t + 1) = f (x), x ∈ Rn
(4.39)
un sistema non lineare a tempo discreto, omogeneo, con l’origine punto di equilibrio del sistema (xe = 0), e
cioè f (0) = 04 . Sia V (x) : W → R una funzione definita positiva in un opportuno intorno W dell’origine. La
variazione δV := V (x(t+ 1))− V (x(t)) di tale funzione lungo le traiettorie del sistema si può calcolare facilmente
come:
δV = V (x(t + 1)) − V (x(t)) = V (f (x) − V (x))
(4.40)
Sulla base di tale variazione della funzione candidata, possono essere formulati tre teoremi, del tutto analoghi
ai corrispondenti a tempo continuo.
Teorema 4.13 (Teorema di stabilità di Lyapunov a tempo discreto) Sia l’origine, xe = 0, punto di
equilibrio del sistema non lineare x(t + 1) = f (x). Se esiste una funzione scalare definita positiva (d.p.)
V (x) : W → R, con W intorno dell’origine, tale che la sua variazione δV sia semidefinita negativa (s.d.n.) in
W per il sistema x(t + 1) = f (x), allora l’origine è punto di equilibrio stabile di tale sistema.
Teorema 4.14 (Teorema di stabilità asintotica di Lyapunov a tempo discreto) Sia l’origine, xe = 0,
punto di equilibrio del sistema non lineare a tempo discreto x(t + 1) = f (x). Se esiste una funzione scalare
definita positiva (d.p.) V (x) : W → R, con W intorno dell’origine, tale che la sua variazione δV sia definita
negativa (d.n.) in W per il sistema x(t + 1) = f (x), allora l’origine è punto di equilibrio asintoticamente stabile
di tale sistema.
Vi è anche un teorema di instabilità.
Teorema 4.15 (Teorema di instabilità di Lyapunov a tempo discreto) Sia xe = 0 punto di equilibrio
del sistema non lineare a tempo discreto x(t + 1) = f (x). Se esiste una funzione scalare definita positiva
V (x) : W → R, con W intorno dell’origine, tale che la sua variazione δV sia definita positiva in W, allora
l’origine dello spazio di stato xe = 0è punto di equilibrio instabile di tale sistema.
Alcuni commenti.
Commento 4.4 Si noti che i teoremi non forniscono alcuna informazione circa la costruzione della funzione
candidata di Lyapunov. Ciò costituisce la principale difficoltà nell’applicazione del criterio.
Commento 4.5 I teoremi forniscono condizioni sufficienti di stabilità. Tali condizioni non sono necessarie.
Esistono tuttavia dei teoremi inversi (converse Lyapunov theorems), che affermano l’esistenza di una funzione
di Lyapunov per un punto di equilibrio (asintoticamente) stabile di un sistema non lineare.
Commento 4.6 Le condizioni di stabilità sono locali. In alcuni casi, l’intorno dell’origine considerato potrebbe
essere anche molto piccolo. In particolare nel teorema 4.11 l’intorno W, che descrive perturbazioni iniziali che
danno luogo a moti convergenti, potrebbe essere anche molto piccolo.
La seguente definizione è importante in molte applicazioni della teoria della stabilità á la Lyapunov alla
teoria del controllo.
4 In
questo caso, e solo in questo caso, le condizioni di equilibrio per sistemi a tempo continuo e a tempo discreto coincidono.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-183
Definizione 4.13 (Regione di convergenza (o Bacino di attrazione)) Sia xe un punto di equilibrio asintoticamente stabile per un sistema dinamico ∆x = f (x, u). La regione dello spazio di stato Bxe tale che:
∀x0 ∈ Bxe ,
lim x(t, t0 , x0 , ue ) = xe ,
t→∞
(4.41)
è detta Regione di Convergenza o Bacino di Attrazione per il punto di equilibrio xe .
Per completezza, si riporta il criterio di Lyapunov nella formulazione globale.
Teorema 4.16 (Teorema di Lyapunov di stabilità globale asintotica) Sia xe = 0 punto di equilibrio del
sistema non lineare ẋ = f (x). Se esiste una funzione scalare definita positiva (d.p.) V (x) : Rn → R, V (x) ∈ C 1 ,
tale che V̇ sia definita negativa (d.n.) in Rn per il sistema ẋ = f (x), allora l’origine è punto di equilibrio
globalmente asintoticamente stabile di tale sistema.
4.6
Esempi
Esempio 4.1 Si consideri il sistema dinamico:
ẋ = −x3 ,
x ∈ R.
(4.42)
Il sistema ammette come unico punto di equilibrio l’origine. Applicando il criterio ridotto di Lyapunov per
studiare la stabilità si trova:
d 3
A=
x |x=0 = (−3x2 )|x=0 = 0,
(4.43)
dx
e quindi si ha un caso critico.
1
Si consideri la funzione candidata di Lyapunov V (x) = x2 . Si trova:
2
V̇ = xẋ = −x4 ,
d.n.
(4.44)
che è definita negativa, e quindi l’origine è punto di equilibrio asintoticamente stabile.
▽
Esempio 4.2 Si consideri il sistema dinamico:
ẋ = +x3 ,
x ∈ R.
(4.45)
Il sistema ammette come unico punto di equilibrio l’origine. Applicando il criterio ridotto di Lyapunov per
studiare la stabilità si trova:
d 3
A=
x |x=0 = (3x2 )|x=0 = 0,
(4.46)
dx
e quindi si ha un caso critico.
1
Si consideri la funzione candidata di Lyapunov V (x) = x2 . Si trova:
2
V̇ = xẋ = +x4 ,
d.p.
(4.47)
che è definita positiva, e quindi l’origine è punto di equilibrio instabile.
▽
Esempio 4.3 Si consideri il modello dinamico di un pendolo, ricavato nella sezione 1.6 e sotto riportato nel
caso particolare di parametri tutti unitari, salvo il coefficiente di attrito viscoso, indicato qui con α, α ≥ 0, in
luogo di kv .
θ
x2
ẋ = f (x, u), x =
,
(4.48)
, f (x, u) =
− sin(x1 ) − αx2 + u
ω
dove x1 = θ indica la posizione angolare del pendolo, x2 = ω la corrispondente velocità angolare ed u il segnale
esterno, cioè, la coppia motrice esercitata sul pendolo da un azionamento opportuno.
Il sistema omogeneo, intuitivamente, ha molti punti di equilibrio, corrispondenti alla posizione con massa
verso il basso, caratterizzata da x1,e = k2π, con k intero, ed alla posizione con massa verso l’alto, caratterizzata
da x1,e = k3/2π, con k intero.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-184
Sempre da un punto di vista intuitivo, le posizioni con massa verso il basso sono punti di equilibrio stabili
(ed asintoticamente stabili se α > 0), le posizioni con massa verso l’alto sono punti di equilibrio instabili.
Si proceda con il calcolo dei punti di equilibrio. Dalla relazione f (xe , ue ) = 0, considerando il sistema
omogeneo, si ha:
kπ
x2,e
= 0 ⇒ xe =
, ∀k ∈ Z,
(4.49)
f (xe , 0) =
0
− sin(x1,e ) − αx2,e
come atteso dalla valutazione qualitativa.
Per una analisi formale della stabilità, si consideri il criterio ridotto di Lyapunov. Si trova (per il sistema
omogeneo):
∂f (x)
0
1
=
(4.50)
− cos(x1 ) −α
∂x
e quindi, nel punto di equilibrio xe = 0, rappresentativo di tutti i punti di equilibrio “pendolo in basso”, si trova
la matrice dell’approssimazione lineare:
∂f (x) 0
1
0
1
=
=
,
(4.51)
A0 =
− cos(x1 ) −α x =0
−1 −α
∂x x =0
e
e
√
2
il cui polinomio caratteristico vale: det(λI − A0 ) = λ2 + αλ + 1, le cui radici valgono λ1,2 = − α2 ± α2 −4 , e
sono a parte reale positiva per tutti i valori strettamente positivi del parametro α. Se il sistema quindi dissipa
energia, l’origine è punto di equilibrio asintoticamente stabile.
Se invece il sistema non dissipa energia, e quindi α = 0, l’approssimazione lineare ha un polinomio caratteristico pari a λ2 + 1, e quindi ha due autovalori con parte reale nulla: si è nella situazione di caso critico, ed il
criterio ridotto non è in grado di fornire indicazioni.
Nel caso del punto di equilibrio xe = (π, 0)T , posizione in alto, si trova:
∂f (x) 0
1
0
1
=
=
,
(4.52)
Aπ =
− cos(x1 ) −α x =(π,0)T
+1 −α
∂x x =(π,0)T
e
e
il cui polinomio caratteristico vale: det(λI − A0 ) = λ2 + αλ − 1, le cui radici valgono λ1,2 = − α2 ±
sono di segno discorde. Il punto di equilibrio quindi è punto di equilibrio non stabile, o instabile.
√
α2 +4
,
2
e
▽
Esempio 4.4 Si consideri ancora il modello dinamico di un pendolo:
θ
x2
ẋ = f (x, u), x =
,
, f (x, u) =
− sin(x1 ) − αx2 + u
ω
(4.53)
Si consideri la funzione:
1
(4.54)
V (x) = (1 − cos(x1 )) + x22 .
2
La funzione ha derivate prime continue, è definita positiva nell’intorno dell’origine W = {(x1 , x2 ) : −π < x1 < π}
e quindi è utilizzabile come funzione candidata di Lyapunov. Si noti come, in questo caso, l’intorno W determini
una validità locale, ma in “grande”: il risultato cioè non vale solo per perturbazioni molto piccole, infinitesime,
ma anche per perturbazioni finite.
Applicando il teorema di stabilità di Lyapunov all’origine si trova, per il sistema omogeneo:
V̇ (x) = x˙1 sin(x1 ) + x˙2 x2 = sin(x1 )x2 − (sin(x1 ) + αx2 )x2 = −αx22
(4.55)
che è semi-definita negativa per ogni valore non negativo del parametro α (e quindi per ogni valore fisicamente
possibile). Ne consegue che l’origine è punto di equilibrio (semplicemente) stabile per il sistema in esame.
Si noti come il risultato appena derivato sia in apparente contraddizione con il precedente esempio 4.3, dal
quale si ricava stabilità asintotica per valori strettamente positivi del parametro α.
La inconsistenza in effetti non esiste, poiché, come detto nel commento 4.5, il metodo diretto di Lyapunov
fornisce condizioni sufficienti: se una specifica funzione candidata fornisce un risultato di stabilità, si è certi del
fatto che il punto di equilibrio non è instabile, ma rimane la possibilità che sia asintoticamente stabile. Una
diversa funzione candidata potrebbe consentire di mostrare questa seconda proprietà, più forte.
▽
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-185
Esempio 4.5 Si consideri ancora il modello dinamico di un pendolo, con valore unitario del parametro α:
θ
x2
ẋ = f (x, u), x =
, f (x, u) =
,
(4.56)
ω
− sin(x1 ) − x2 + u
e si consideri la funzione:
1
1
(4.57)
V (x) = 2(1 − cos(x1 )) + x22 + (x1 + x2 )2 .
2
2
Analogamente al caso del precedente esempio, la funzione ha derivate prime continue, è definita positiva
nell’intorno dell’origine W = {(x1 , x2 ) : −π < x1 < π} e quindi è utilizzabile come funzione candidata di
Lyapunov.
Applicando il teorema di stabilità di Lyapunov all’origine del sistema omogeneo, e quindi con u = 0, si trova:
V̇ (x)
= 2x˙1 sin(x1 ) + x˙2 x2 + (x˙1 + x˙2 )(x1 + x2 )
(4.58a)
= 2 sin(x1 )x2 − (sin(x1 ) + x2 )x2 + (x2 − sin(x1 ) − x2 )(x1 + x2 ) == −x1 sin(x1 ) −
x22
(4.58b)
che è definita negativa, poiché per valori piccoli di x1 , si ha che sin(x1 ) ≃ x1 .
Ne consegue che l’origine è punto di equilibrio asintoticamente stabile per il sistema in esame.
Questo risultato illustra ulteriormente il commento alla fine del precedente esempio.
▽
Esempio 4.6 Si consideri il modello dinamico non lineare a tempo discreto:
x(t + 1) = x(t) − x(t)2 + α,
α ∈ R+ .
(4.59)
Il calcolo dei punti di equilibrio mostra che:
xe = xe − x2e + α
√
⇒ xe = ± α
(4.60)
e quindi il sistema ha due punti di equilibrio, pari alle due √
radici quadrate del parametro reale positivo α.
Le proprietà di stabilità, ad esempio del punto xe = + α, posso essere studiate tramite il criterio ridotto
di Lyapunov per sistemi a tempo discreto. Per il gradiente del campo si trova:
f (x) = x(t) − x(t)2 + α,
⇒
∂f (x)
= 1 − 2x,
∂x
e quindi l’approssimazione lineare intorno al punto di equilibrio vale
√
δx(t + 1) = aδx, a = 1 − 2 α.
(4.61)
(4.62)
Il parametro a (e cioè l’autovalore) ha modulo minore di uno √
per tutti i valori di α minori di uno e positivi.
Per tali valori del parametro quindi, il punto di equilibrio xe = α del sistema (4.59) è asintoticamente stabile.
Tale sistema è quindi un possibile algoritmo per il calcolo della radice quadrata.
▽
Esempio 4.7 Si consideri il modello dinamico non lineare a tempo discreto:
x(t + 1) = x(t) −
x(t)2 − α
,
2x(t)
α ∈ R+ .
(4.63)
Il calcolo dei punti di equilibrio mostra che:
xe = xe −
x2e − α
xe
√
⇒ xe = ± α
(4.64)
e quindi il sistema ha due punti di equilibrio, pari alle due radici quadrate del parametro reale positivo α,
analogamente al sistema nel precedente esempio.
√
Le proprietà di stabilità, ad esempio del punto xe = + α, posso essere studiate tramite il criterio ridotto
di Lyapunov per sistemi a tempo discreto. Per il gradiente del campo si trova:
f (x) = x(t) −
x(t)2 − α
,
2x(t)
⇒
x2 − α
∂f (x)
2x x2 − α
=
,
=1−
+
2
∂x
2x
x
x2
(4.65)
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-186
e quindi l’approssimazione lineare intorno al punto di equilibrio vale
δx(t + 1) = aδx,
a = 0.
(4.66)
√
L’approssimazione lineare ha autovalore nullo, e quindi il punto di equilibrio xe = α del sistema (4.63) è
asintoticamente stabile per tutti i valori del parametro, cioè del numero del quale si vuole calcolare la radice
quadrata: anche il sistema (4.63) è un possibile algoritmo per il calcolo della radice quadrata.
▽
4.7
Stabilità esterna
Il tema della stabilità esterna è solo accennato. Per una trattazione completa si rimanda ad altri testi e alle
lezioni in aula.
Definizione 4.14 (Stabilità esterna) Un sistema dinamico LTCS o LTDS del tipo:
∆x
=
Ax + bu,
y
=
Cx
x ∈ Rn ,
(4.67a)
(4.67b)
è detto esternamente stabile o anche stabile in senso BIBO (BIBO: Bounded Input Bounded Output) se e solo
se ad ogni segnale limitato applicato in ingresso corrisponde una rispota forzata limitata.
La proprietà può essere verificata per mezzo di uno dei due criteri seguenti, in funzione del tipo di sistema
in esame.
Teorema 4.17 Un sistema dinamico stazionario a tempo continuo, è stabile esternamente, o in senso BIBO,
se e solo se tutti i poli della funzione di trasferimento hanno parte reale negativa.
Teorema 4.18 Un sistema dinamico stazionario a tempo discreto, è stabile esternamente, o in senso BIBO,
se e solo se tutti i poli della funzione di trasferimento hanno modulo strettamente minore di uno.
4.8
Retroazione
La sezione sulla retroazione non è ancora stata scritta. Si rimanda ad altri testi che verranno citati a lezione.
Capitolo 4: Stabilità
4.9
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-187
Analisi di circuiti con OpAmp
Lo scopo di queste note è lo studio delle caratteristiche dinamiche di un amplificatore operazionale nelle
tipiche configurazioni non invertente ed invertente.
Ancor più precisamente, lo scopo è quello di esemplificare, per il tramite degli amplificatori operazionali,
il comportamento di sistemi dinamici e gli effetti della retroazione su tali sistemi. I risultati che emergeranno
dalle considerazioni seguenti possono infatti essere astratti ed applicati a qualsiasi sistema dinamico.
Lo studio verrà condotto solo dal punto di vista del legame ingresso-uscita e delle corrispondenti caratteristiche dinamiche, senza alcun cenno né alla struttura interna di un OpAmp né alla maggior parte delle sue
caratteristiche di non idealità. Per questi aspetti si rimanda agli specifici corsi di area elettronica.
4.9.1
Modelli ideali per un OpAmp
I circuiti (i sistemi dinamici) basati su amplificatori operazionali vengono abitualmente analizzati facendo
ricorso a modelli ideali, di accuratezza via via crescente. Il sistema illustrato in figura 4.5 è detto anche sistema
in catena aperta.
i+
vD
i−
+
−
vOUT
Figura 4.5: Amplificatore operazionale: componente base
Il modello più semplice per un amplificatore operazione è quello qui chiamato modello ideale:
Modello Ideale
Il guadagno ingresso-uscita dell’OpAmp è infinito, quindi, per tensioni di uscita finite, la tensione differenziale
vD ai capi dei morsetti di ingresso è nulla.
La corrente che scorre nella porta di ingresso è nulla, la corrispondente impedenza di ingresso è infinita.
Poiché l’interesse di queste note è relativo agli effetti della retroazione, e quindi è relativo allo studio di
particolari forme del segnale di ingresso, in luogo del precedente modello, estremamente ideale, verrà considerato
il modello a guadagno costante: la tensione vOUT in uscita al componente è proporzionale alla tensione in ingresso
vD tramite una costante di guadagno g molto grande (figura 4.5).
Modello a Guadagno Costante
La relazione ingresso-uscita dell’OpAmp è data da:
vOUT = gvD .
(4.68)
La corrente che scorre nella porta di ingresso è nulla, la corrispondente impedenza di ingresso è infinita.
Valori tipici per g sono nell’ordine di 105 ÷ 106 .
La relazione (4.68) descrive bene il guadagno in continua (e alla “basse” frequenze), ma non descrive bene
il comportamento per frequenze (sufficientemente) alte: come tutti i sistemi reali, anche un OpAmp ha un
guadagno variabile con la frequenza.
Si consideri quindi, in luogo del modello a guadagno costante (4.68), un modello a polo dominante, caratterizzato da una funzione di trasferimento del primo ordine:
Modello a Polo Dominante
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-188
La relazione ingresso-uscita dell’OpAmp è dato da:
W (s) =
b
,
s+a
(4.69)
o dal corrispondente modello nello spazio di stato:
ẋ
y
= −ax + bvD ,
= x, vOUT = y
x∈R
(4.70a)
(4.70b)
La corrente che scorre nella porta di ingresso è nulla, la corrispondente impedenza di ingresso è infinita.
In merito al modello precedente, si noti che il guadagno in continua vale W (0) = b/a, e quindi il legame
tra i due modelli con guadagno finito è dato da: g = b/a. Valori tipici per il parametro b del modello sono
nell’intervallo 106 ÷ 107 s−1 e per a dell’ordine di 10 ÷ 20 Hz. Un tipico diagramma di Bode per un OpAmp a
ciclo aperto (in altre discipline si usa la locuzione a “catena aperta”) è riportato nella figura seguente:
OpAmp: diagramma di Bode dei moduli
95
90
Magnitude (dB)
85
80
75
70
65
60
0
10
1
10
2
10
3
10
Frequency (rad/sec)
Figura 4.6: Diagramma di Bode dei moduli per un OpAmp a ciclo aperto
.
Sulla base dei due modelli con guadagno finito illustrati, è possibile analizzare semplici circuiti basati su
amplificatori operazionali.
4.9.2
OpAmp in configurazione non invertente
Il circuito riportato nella figura 4.7 è la ben nota configurazione non invertente per un amplificatore operazionale.
Il partitore costituito dalle due resistenze R1 ed R2 costituisce la rete di retroazione, che fissa il guadagno in
continua dell’intero circuito.
Sulla base delle ipotesi di idealità che caratterizzano il modello a guadagno costante, per la maglia di ingresso
del sistema in configurazione non invertente in fig. 4.7 si trova:
vIN = vD + vR1 ,
(4.71)
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-189
+
−
vD
vIN
vOUT
R2
R1
Figura 4.7: Amplificatore operazionale in configurazione non invertente
mentre per la maglia di uscita si trova:
vOUT = vR1 + vR2 .
(4.72)
Tenendo conto dell’ipotesi di idealità che implica corrente nulla nella porta di ingresso e della (4.72), la corrente
iR che scorre nei due resistori R1 ed R2 risulta pari a:
vOUT
iR =
,
(4.73)
R1 + R2
da cui, insieme alla (4.71), per la tensione differenziale vD in ingresso all’amplificatore operazionale si trova:
vD = vIN −
R1
vOUT .
R1 + R2
(4.74)
L’equazione (4.74) mostra chiaramente come il partitore resistivo R1 , R2 induca una retroazione: la tensione differenziale vD applicata in ingresso all’OpAmp dipende anche dal segnale di uscita vOUT allo stesso
componente. Tenendo conto del modello in catena aperta a guadagno costante dato dalla (4.68), per il legame
ingresso-uscita dell’intera rete si trova:
1
R1
vIN =
+
vOUT .
(4.75)
g R1 + R2
Poiché il guadagno in catena aperta g è molto grande, nell’equazione precedente il termine 1/g può essere
1
, ottenendo il legame ingresso uscita:
trascurato rispetto al termine R1R+R
2
R2
vOUT = 1 +
vIN .
(4.76)
R1
La precedente equazione è il più semplice modello di OpAmp in configurazione non invertente. Descrive
bene il guadagno in continua (e alla “basse” frequenze), ma non descrive bene il comportamento per frequenze
(sufficientemente) alte: come tutti i sistemi reali, anche un OpAmp ha un guadagno variabile in frequenza.
Utilizzando il più accurato modello a polo dominante nella forma di spazio di stato (4.70), applicando il
segnale di ingresso (4.74) calcolato sopra, e tenendo conto del fatto che il segnale di uscita vOUT coincide con
il segnale y e quindi con lo stato interno x del modello in uso, si trova il sistema dinamico a ciclo chiuso:
R1
R1
x + bvIN ,
(4.77)
x + bvIN = − a + b
ẋ = −ax − b
R1 + R2
R1 + R2
y = x.
(4.78)
Poiché, come già notato in precedenza, il parametro a è molto piccolo, in particolare rispetto al parametro
b, e supponendo che R1 e R2 non differiscano di molti ordini di grandezza, il modello precedente può essere
approssimato come:
ẋ
= −b
y
= x,
R1
x + bvIN ,
R1 + R2
(4.79)
(4.80)
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-190
cui corrisponde il legame ingresso-uscita descritto dalla funzione di trasferimento Wni (s):
Wni (s) =
b
R1
s+b
R1 + R2
.
(4.81)
La conclusione più importante rispetto allo scopo di queste note consiste nel fatto che la retroazione applicata
all’OpAmp e descritta dal segnale di ingresso (4.74) modifica le proprietà dinamiche del sistema, ed in particolare
R1
modifica l’autovalore del sistema: a ciclo aperto l’autovalore vale a mentre a ciclo chiuso vale b
. Si noti,
R1 + R2
in aggiunta, come il valore dell’autovalore a ciclo chiuso possa essere scelto arbitrariamente fissando in modo
opportuni i parametri di progetto R1 ed R2 .
La modifica dell’autovalore implica, ovviamente, la modifica del polo della funzione di trasferimento e quindi
R1
della banda passante: la banda passante diviene molto maggiore, passando da a al nuovo valore pari a b
.
R1 + R2
La retroazione modifica anche il guadagno in continua: il sistema retroazionato ha un guadagno in continua
R2
pari a 1 +
, molto più piccolo del corrispondente valore a ciclo aperto, pari a b/a.
R2
La figura 4.8 riporta il diagramma di Bode dei moduli per un OpAmp in configurazione non invertente
(curva continua). Per confronto, la curva tratteggiata rappresenta il diagramma a ciclo aperto.
Infine, si noti come il prodotto guadagno/banda-passante rimanga invariato e pari a b: si tratta di un
parametro caratteristico del componente. Ne segue che ad un aumento del guadagno in continua a ciclo chiuso
corrisponde una diminuzione della banda passante, ed analogamente se viene aumentata la banda passante si
riduce il guadagno.
OpAmp: diagramma di Bode dei moduli (continuo: ciclo chiuso, tratto: ciclo aperto)
100
80
Magnitude (dB)
60
40
20
0
−20
0
10
2
10
4
10
Frequency (rad/sec)
6
10
Figura 4.8: Diagramma di Bode dei moduli per un OpAmp a ciclo aperto (linea tratteggiata) e ciclo chiuso
(linea continua).
4.9.3
OpAmp in configurazione invertente
Il circuito riportato nella figura 4.9 rappresenta la configurazione invertente per un amplificatore operazionale.
Il partitore costituito dalle due resistenze R1 ed R2 costituisce la rete di retroazione.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-191
R2
vIN
vD
R1
−
+
vOUT
Figura 4.9: Amplificatore operazionale in configurazione invertente
Il calcolo della relazione ingresso-uscita per la configurazione invertente può essere condotto in modo analogo
a quanto fatto nel caso della configurazione non invertente. Utilizzando il modello a guadagno costante, ed in
particolare la relazione (4.68), per le connessioni di uscita si trova:
vD + vR2 + vOUT = 0,
da cui, utilizzando il modello a guadagno costante dell’OpAmp, vOUT = gvD , si trova:
1
vOUT 1 +
= −vR2 ,
g
(4.82)
(4.83)
da cui, trascurando il termine 1/g, si ottiene la corrente iR2 che scorre nel resistore R2 :
i R2 = −
VOUT
.
R2
(4.84)
Per la porta di ingresso si trova invece:
vIN − VR1 + vD
= 0,
(4.85)
da cui, risolvendo rispetto alla tensione differenziale di ingresso all’OpAmp vD (utilizzando la (4.84) e l’ipotesi
ideale che la corrente in ingresso al componente sia nulla), si trova:
vD = −
R1
vOUT − vIN .
R2
(4.86)
L’equazione precedente, analogamente a quanto visto per la (4.74) nel caso della configurazione non invertente, mostra come il partitore resistivo R1 , R2 induca una retroazione sul componente: il segnale differenziale
di ingresso dipende dall’uscita dello stesso componente.
Per determinare la relazione tra le tensioni di ingresso ed uscita all’intero circuito, cioè per determinare il
legame ingresso-uscita, dalla relazione precedente, utilizzando il modello vOUT = gvD , si trova:
R1
1
vOUT = −vIN ,
(4.87)
+
R2
g
e quindi, trascurando il termine 1/g, molto piccolo, se R1 e R2 non differiscono di molti ordini di grandezza, si
ha:
R2
vOUT = − vIN ,
(4.88)
R1
che costituisce il modello ideale dell’amplificatore operazionale in configurazione invertente.
Un modello più accurato può essere ottenuto tenendo conto del comportamento in frequenza del componente OpAmp. Utilizzando ancora il modello del primo ordine, a polo dominante, descritto dalla funzione di
trasferimento in (4.69) e dal corrispondente modello nello spazio di stato, applicando il segnale di retroazione
(4.86) si trova:
R1
R1
x − bvIN ,
(4.89)
ẋ = −ax − b x − bvIN = − a + b
R2
R2
y = x.
(4.90)
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-192
Poiché, come già notato in precedenza, il parametro a è molto piccolo rispetto a b, e supponendo che R1 e R2
non differiscano di molti ordini di grandezza, il modello precedente può essere approssimato come:
ẋ
= −b
y
= x,
R1
x − bvIN ,
R2
(4.91)
(4.92)
cui corrisponde il legame ingresso-uscita a ciclo chiuso descritto dalla funzione di trasferimento WIn (s):
WIn (s) = −
b
s+b
R1
R2
.
(4.93)
Anche in questo caso, l’effetto della retroazione è quello di modificare la banda passante del sistema, che
R1
passa dal valore a, molto piccolo, al valore b , molto grande, e ridurre il guadagno in continua dal valore
R2
R2
b/a, molto grande, al valore − , che può essere determinato dal progettista scegliendo opportunamente i due
R1
resistori.
4.9.4
Interconnesione di più OpAmp
L’approccio utilizzato nelle sezioni precedenti può essere esteso anche allo studio di circuiti con più OpAmp. A
titolo di esempio si consideri il sistema riportato nella seguente figura 4.10.
R3
R3
vD,1
vIN
+
−
R2
vD,2
OA1
−
+
OA2
vOUT
vOUT,1 vIN,2
R1
Figura 4.10: Interconnessione di due amplificatori operazionali
Il circuito può essere analizzato, in prima approssimazione, utilizzando il modello a guadagno costante per
i componenti OpAmp. Il secondo OpAmp, OA2 , è in configurazione invertente, il cui guadagno quindi vale
R3
−R
= −1. Detta vOUT la tensione in uscita all’intero circuito, e quindi ad OA2 , e vIN,2 la corrispondente
3
tensione in ingresso (si veda la figura 4.10), si ha quindi: vOUT = −vIN,2 , e quindi vOUT = −vOUT,1 .
Il primo OpAmp invece, OA1 , ha la struttura in una configurazione non invertente, salvo il fatto che la
retroazione è applicata dall’uscita del secondo operazionale e non del primo. Poiché il secondo OpAmp ha
guadagno pari a −1 ed inoltre vOUT,1 = −vOUT , si può scrivere, ricordando la (4.74):
vD,1 = vIN −
R1
vOUT
R1 + R2
(4.94)
e quindi, trascurando il termine vD,1 = g1 vOUT,1 = − g1 vOUT , si trova:
vOUT =
R2
1+
vIN
R1
(4.95)
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-193
R2
, cioè un guadagno della stessa
e quindi l’intero circuito ha un guadagno ingresso-uscita pari a 1 +
R1
ampiezza della configurazione non invertente.
Commento 4.7 Si sottolinea con decisione che la affermazione vOUT,1 = vIN,2 implica, di fatto, che il comportamento dei due circuiti analizzati in forma isolata, come nelle due sezioni 4.9.2 e 4.9.3, ed in forma
interconnessa, come in questa sezione, rimanga invariato. Ciò è vero con sufficiente grado di accuratezza solo
se le impedenze di ingresso ed uscita dei due blocchi sono ben dimensionate. Si rimanda ad altri testi e ad altri
corsi per un doveroso approfondimento su questo argomento.
Per condurre una analisi più accurata, che tenga conto anche degli aspetti dinamici, si consideri il modello
a polo dominante per il primo OpAmp ed il modello a guadagno costante per il secondo operazionale. Per OA2
valgono le considerazioni svolte sopra, e quindi:
vOUT = −
R3
vIN,2 = −vIN,2 ,
R3
(4.96)
e quindi anche per la tensione in ingresso al primo operazionale si trova la stessa relazione (4.94) vista sopra:
vD,1 = vIN +
R1
vOUT,1 .
R1 + R2
(4.97)
Utilizzando, per OA1 , il sistema nello spazio di stato associato al modello a polo dominante:
ẋ1
=
y1
=
−a1 x1 + b1 vD,1 ,
(4.98)
x1 , vOUT,1 = y1
(4.99)
ed applicando il segnale in retroazione (4.97) si trova:
ẋ1
= −a1 x1 + b1
y1
= x1 ,
R1
x1 + b1 vIN ,
R1 + R2
(4.101)
che può essere approssimata, trascurando il termine −a1 x1 rispetto a b1
ẋ1
y1
(4.100)
R1
x1 + b1 vIN ,
R1 + R2
= x1 ,
= b1
R1
x1 , con:
R1 + R2
(4.102)
(4.103)
cui corrisponde la funzione di trasferimento WOA1 (s) seguente:
b1
WOA1 (s) =
s − b1
R1
R1 + R2
.
(4.104)
Si noti che, in virtù della (4.96), la funzione di trasferimento Win,out tra il segnale vIN in ingresso all’intero
circuito ed il segnale vOUT in uscita dallo stesso circuito vale:
Win,out (s) = −WOA1 (s) = −
b1
.
(4.105)
R1
R1 + R2
R2
, e quindi identico (ovviamente) a
Il sistema complessivo ha quindi un guadagno in continua pari a 1 +
R1
quanto trovato utilizzando il modello a guadagno costante.
Si noti però che il sistema ha un autovalore, e quindi un polo, a parte reale positiva. Il corrispondente modo
naturale è quindi divergente: ciò implica che il sistema non è stabile esternamente, o in senso BIBO, e che il
sistema non ammette risposta permanente, né in uscita né nello stato. Ciò implica che il guadagno in continua
non è definibile, ed inoltre il fattore costante W (0) non descrive, per segnali di ingresso a gradino o sinusoidali
a bassa frequenza, l’ampiezza del segnale in uscita.
Le considerazioni svolte in questa sezione vengono riprese ed approfondite in alcuni esercizi proposti alla fine
del capitolo. Lo studente è invitato a lavorare in particolare sugli esercizi 4.2, 4.3 e 4.4.
s − b1
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-194
Ra
Rb
vD
−
+
vIN
vOUT
Figura 4.11: Convertitore tensione-corrente
4.9.5
Convertitore tensione-corrente
Poiché l’ingresso differenziale, in condizioni ideali, è un corto circuito, si ha:
vI = vRa = Ra iR ,
e quindi
iR =
(4.106)
vI
Ra
(4.107)
e quindi, poiché la corrente nei due resistori è uguale, per l’ipotesi di corrente di ingresso nulla per l’OpAmp,
la corrente in Rb è fissata ed indipendente dal valore di Rb stesso.
Utilizzando il modello a polo dominante per l’OpAmp, si trova:
= −av + bvD ,
= v
b
,
=
s+a
v̇
vO
w(s)
(4.108a)
(4.108b)
(4.108c)
ricordando che il guadagno in continua g dell’OpAmp e la corrispondente banda passante B sono legati dalla
relazione:
g
=
w(0) =
b
,
a
B = a.
(4.109)
Un modello alternativo, ma ovviamente equivalente, è dato da:
ż
vO
= −az + gavD ,
(4.110a)
= z
(4.110b)
con funzione di trasferimento:
w(s)
=
g
ga
=
.
s+a
s/a + 1
(4.111a)
L’uso delle KVL consente di affermare:
vI − vRa − vRb − vO
vI − vRa + vD
vD + vRb + vO
dove solo due delle tre relazioni sono tra loro indipendenti.
Dalla (4.112a) si ricava:
vI − vO = vRa vRb
=
=
0
0
(4.112a)
(4.112b)
=
0
(4.112c)
(4.113)
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-195
e quindi
iR = σ(vI − vO ),
σ :=
1
.
Ra + Rb
(4.114)
Utilizzando la relazione (4.112b) per la tensione differenziale in ingresso all’OpAmp si trova:
vD = vRa − vI = Ra iR − vI = ρa (vI − vO ) − vI ,
ρa :=
Ra
,
Ra + Rb
(4.115)
da cui, in modo immediato:
vD = −ρa vO − ρb vI ,
ρa :=
Rb
Ra
, ρb :=
.
Ra + Rb
Ra + Rb
(4.116)
Il sistema retroazionato quindi diviene:
v̇
vO
= −av + bvD ,
(4.117a)
= v,
(4.117b)
= −ρa vO − ρb vI ,
(4.117c)
= −av − bρa v − bρb vI ,
= v,
(4.118a)
(4.118b)
= σ(vI − vO ).
(4.118c)
vD
e quindi:
v̇
vO
iR
Si noti come assumere vO come segnale di uscita corrisponde a studiare l’OpAmp in configurazione invertente,
mentre assumere come segnale di uscita la corrente iR corrisponde a studiare il convertitore tensione-corrente.
Il sistema è asintoticamente stabile, poiché, dopo la retroazione, l’autovalore vale −(a + bρa ), che è sempre
negativo e può essere fissato scegliendo opportunamente il rapporto ρa .
La funzione di trasferimento tra il segnale di ingresso vI ed il segnale di uscita vO , cioè per l’OpAmp in
configurazione invertente, vale:
−bρb
,
(4.119)
WvO (s) =
s + a + bρa
cui corrisponde un guadagno in continua:
BvO = WvO (0) =
−bρb
Rb
=−
a + bρa
Ra
(4.120)
(assumendo a << bρa ) che è quanto atteso per la configurazione invertente.
La funzione di trasferimento tra il segnale di ingresso vI ed il segnale di uscita iR , cioè per l’OpAmp in
configurazione convertitore tensione-corrente, vale (notando che ρa + ρb = 1)):
WiR (s) =
σbρb
σs + σ(a + b)
+σ =
,
s + a + bρa
s + a + bρa
(4.121)
cui corrisponde un guadagno in continua:
BiR = WiR (0) =
σ(a + b)
1
=
a + bρa
Ra
(4.122)
(assumendo sia a << b sia a << bρa ) che è quanto atteso per la configurazione convertitore tensione-corrente.
Ovviamente, nulla cambia utilizzando la (4.112c) per calcolare il segnale in retroazione.
Capitolo 4: Stabilità
4.10
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-196
Criterio di Nyquist
Lo scopo di questea sezione è lo studio del Criterio di Nyquist5 ,
che consente di analizzre la stabilità di sistemi lineari a tempo continuo retroazionati, utilizzando modelli di
comportamento ingresso-uscita basati sulle funzioni di trasferimento.
4.10.1
Diagramma di Nyquist
La rappresentazione del comportamento ingresso-uscita di un sistema dinamico, ed in particolare di una funzione
di trasferimento, può essere data, oltre che in termini polari, come i diagrammi di Bode, anche sul piano di
Gauss6 . Tale rappresentazione consente interessanti valutazioni sulla posizione dei poli e degli zeri della funzione
di trasferimento stessa.
Per analizzare questa possibilità, si consideri una funzione razionale F (s). Il Principio dell’argomento, basato
sul teorema dei residui, afferma che:
I
F ′ (s)
ds = 2π(Z − P ),
(4.123)
γ F (s)
dove F ′ (s) indica la derivata di F (s), γ è una curva chiusa, senza mutue intersezioni, che non passa per poli e
zeri della F (s), ed assunta percorsa in senso orario, ed i numeri interi Z e P indicano il numero di zeri e poli,
rispettivamente, della funzione F (s) contenuti nell’area delimitata dalla curva γ, contati con la loro molteplicità.
Una possibile interpretazione della relazione precedente (che deriva dal calcolo effettivo dell’integrale in 4.123)
è che la curva descritta nel piano di Gauss dalla funzione F (s) quando la variabile indipendente s percorre la
curva chiusa γ, compie un numero N di giri intorno all’origine pari a Z − P , contando come positivi i giri in
senso orario (il verso di percorrenza della curva γ) e come negativi quelli in senso antiorario:
N = Z − P.
(4.124)
Si noti che se la curva γ viene percorsa in senso antiorario, la relazione precedente rimane valida, a patto
di considerare come positivi i giri intorno all’origine del vettore rappresentativo di F (s) compiuti in senso
antiorario. Se invece il verso di percorrenza della curva γ ed il senso positivo lungo la corrispondente curva
rappresentativa di F (s) sono discordi, la relazione (4.124) diviene:
N =P −Z
(4.125)
che sarà utile nel successivo criterio di Nyquist. Nel resto del capitolo, la curva chiusa descritta dalla variabile
indipendente s, qui chiamata curva γ, verrà assunta percorsa in senso orario.
Si consideri, come esempio, la funzione razionale:
F (s) =
s+1
.
(s − 1)(s + 2)
(4.126)
Scegliendo una curva γ1 pari ad un cerchio di raggio 1.5 centrato nel punto 1 + 0 del piano di Gauss7 , che
quindi circonda solo il polo positivo p1 = 1, si trova, per la curva F (s), il diagramma nella seguente figura 4.12:
che, come atteso, compie un giro antiorario intorno all’origine, e quindi N = 1, ed infatti in questo caso Z = 0
e P = 1. In questa figura e nelle successive, la freccia lungo la curva γ indica il punto iniziale della curva stessa
ed il verso di percorrenza, la freccia nella curva descrittiva di F (s) indica il corrispondente punto di partenza
ed il verso di percorrenza.8
Scegliendo una curva γ2 della stessa forma, ma con raggio maggiore, e tale da circondare anche lo zero
negativo z1 = −1, si ottiene il diagramma riportato in figura 4.13 che, come atteso, non compie alcun un giro
intorno all’origine, infatti in questo caso Z = 1, P = 1 e quindi Z − P = 0.
Scegliendo una curva γ3 della stessa forma, ma con raggio maggiore, e tale da circondare entrambi i poli
e lo zero, si ottiene il diagramma riportato in figura 4.14, che compie un solo giro intorno all’origine, in senso
antiorario, ed infatti Z = 1, P = 2 e quindi Z − P = −1.
Se si considera una curva γ4 tale da circondare solo lo zero, si ottiene il diagramma riportato in figura 4.15,
che, come atteso, compie un solo un giro, questa volta in senso orario, intorno all’origine, infatti in questo caso
5 Harry
Theodor Nyquist (Nilsby, 7 febbraio 1889 Harlingen, 4 aprile 1976)
Carl Friedrich Gauss (Braunschweig, 30 aprile 1777 Gottinga, 23 febbraio 1855)
7 Si considera una circonferenza per semplicità di tracciamento, qualsiasi altra curva chiusa porta allo stesso risultato. Si vedano
le figure 4.13 e 4.17.
8 Inoltre, nei diagrammi relativi alle curve chiuse, il simbolo “*” (asterisco) indica uno zero, il simbolo “⋄” (diamante) indica un
polo, i simboli in colore rosso punti esterni alla curva, quelli in colore verde punti circondati dalla curva.
6 Johann
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-197
Curva chiusa γ1
Curva F(s) lungo γ1
0.5
1
Parte immaginaria ω
Parte immaginaria ω
1.5
0.5
0
−0.5
0
−1
−1.5
−2
0
2
Parte reale σ
4
−0.5
−0.5
0
0.5
Parte reale σ
Figura 4.12: Curva γ1 (a sinistra) e corrispondente curva F (s) =
Curva chiusa γ
s+1
(s−1)(s+2) .
Curva F(s) lungo γ
2
2
3
0.4
2
Parte immaginaria ω
Parte immaginaria ω
1
1
0
−1
0.2
0
−0.2
−2
−3
−2
0
2
Parte reale σ
−0.4
−0.2
4
0
0.2
0.4
Parte reale σ
Figura 4.13: Curva γ2 (a sinistra) e corrispondente curva F (s) =
Curva chiusa γ
3
0.4
Parte immaginaria ω
Parte immaginaria ω
s+1
(s−1)(s+2) .
Curva F(s) lungo γ
3
4
2
0
−2
−4
−5
0.6
0
Parte reale σ
5
0.2
0
−0.2
−0.4
−1
−0.5
0
Parte reale σ
Figura 4.14: Curva γ3 (a sinistra) e corrispondente curva F (s) =
0.5
s+1
(s−1)(s+2) .
Z = 1, P = 0 e quindi Z − P = 1.
Infine il caso di una curva γ5 che non circondi alcuno zero o polo è illustrata nella figura 4.16: come atteso,
non compie alcun giro intorno all’origine, infatti Z = 0 e P = 0.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-198
Curva chiusa γ
Curva F(s) lungo γ
4
4
0.5
0.3
Parte immaginaria ω
Parte immaginaria ω
0.2
0
0.1
0
−0.1
−0.2
−0.3
−0.5
−2
−1
0
Parte reale σ
−0.4
−0.4
1
−0.2
0
0.2
Parte reale σ
Figura 4.15: Curva γ4 (a sinistra) e corrispondente curva F (s) =
0.6
1
0.4
0.5
0
−0.5
−1
−1.5
−2
s+1
(s−1)(s+2) .
Curva F(s) lungo γ5
1.5
Parte immaginaria ω
Parte immaginaria ω
Curva chiusa γ5
0.4
0.2
0
−0.2
−0.4
−0.6
0
2
4
Parte reale σ
−0.8
6
0
0.5
1
Parte reale σ
1.5
Figura 4.16: Curva γ5 (a sinistra) e corrispondente curva F (s) =
s+1
(s−1)(s+2) .
La figura 4.17 illustra il caso di una curva chiusa, la curva γ6 , di forma diversa rispetto alla curva γ2 in
figura 4.13, ma con analogo risultato in termini di giri intorno all’origine per il diagramma di F (s): nessun giro
intorno all’origine, Z = 0, P = 0.
Curva chiusa γ
Curva F(s) lungo γ
6
6
1
2
Parte immaginaria ω
Parte immaginaria ω
3
1
0
−1
0.5
0
−0.5
−2
−3
−2
0
2
Parte reale σ
4
−1
−0.2
0
0.2
0.4
Parte reale σ
0.6
Figura 4.17: Curva γ6 (a sinistra) e corrispondente curva della funzione F (s) =
s+1
(s−1)(s+2) .
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-199
Per comprendere meglio il risultato descritto in precedenza, si consideri la figura 4.18. I tre vettori rappresentati descrivono altrettanti termini del tipo s − a, con a parametro caratterizzante uno zero o un polo
s−1.5
. L’estremo libero (cioè sulla curva γ) di un vettore
della funzione razionale F (s) = (s+0.1)(s−1+0.5)(s−1−0.5)
con origine all’interno della curva compie un giro completo, in senso orario, quando la variabile indipendente s
percorre la curva γ nello stesso verso, mentre l’estremo libero di un vettore con origine fuori dalla curva non
compie un giro completo, ma solo un moto vario.
Curva chiusa γ
Curva F(s)
1
1
Parte immaginaria ω
Parte immaginaria ω
1.5
0.5
0
−0.5
−1
−1.5
−0.5
0.5
0
−0.5
−1
0
0.5
1
1.5
Parte reale σ
Figura 4.18: Curva chiusa γ e vettori per F (s) =
(destra).
2
−2
−1
0
Parte reale σ
s−1.5
(s+0.1)(s−1+0.5)(s−1−0.5)
1
(sinistra) e relativa curva F (s)
Si considerino i vettori con origine all’interno della curva. Nel caso di uno zero in posizione z, si ha s − z =
mz (s)e ϕz (s) , e la fase ha una variazione di −2π, e quindi si ha un contributo alla funzione complessiva di un
1
giro in senso orario. Nel caso di un polo in posizione p, si ha s−p
= mp (s)e −ϕp (s) , la fase complessiva ha una
variazione di +2π lungo γ, e quindi si ha un contributo al diagramma dell’intera funzione F (s) di un giro in
senso antiorario (cioè “meno” un giro in senso orario). Analogamente, la variazione complessiva di fase per i
vettori con origine al di fuori della curva γ vale zero, e quindi non vi sono contributi al numero di giri intorno
all’origine.
Sulla base di queste considerazione, la funzione dell’esempio descrive un percorso chiuso (diagramma a destra
in figura 4.18) che compie un solo giro intorno all’origine, in senso antiorario, quando la variabile s percorre la
curva chiusa γ in figura 4.18.
Il Principio dell’argomento può essere utilizzato per contare il numero di poli e zeri contenuti in una assegnata
regione di piano senza risolvere i rispettivi polinomi: se si ha a disposizione uno strumento per la costruzione del
diagramma di una funzione F (s) al variare di s, scegliendo opportunamente la curva γ si riesce a determinare
il numero di poli e zeri (in effetti, la differenza nel loro numero) all’interno della regione delimitata dalla curva.
Il Diagramma di Nyquist di una funzione di trasferimento rappresenta il comportamento di tale funzione
al variare della variabile indipendente s lungo un percorso (si veda il diagramma a sinistra in figura 4.19) che
racchiude tutto il semipiano destro: la semiretta immaginaria da ω = 0+ ad ω = +∞, poi un cerchio di raggio
infinito fino ad ω = −∞, e poi lungo il semiasse immaginario ω = −∞ fino ad ω = 0−9 . Tale percorso è
detto percorso di Nyquist o cammino di Nyquist (diagramma a sinistra nella figura 4.19) e viene utilizzato come
specifica curva γ.
Si noti come il diagramma della funzione razionale consista, di fatto, solo delle parti relative ai due segmenti
lungo l’asse immaginario, poiché la porzione di curva γ data dal semicerchio di raggio infinito (in colore rosso
nella figura 4.19, a sinistra) si mappa nel punto origine (punto rosso nella figura 4.19, a destra). Per completezza,
è bene precisare che se la funzione razionale è propria, ma non strettamente (e cioè, se il grado relativo è nullo),
allora la il semicherchio di raggio infinito diviene un punto dell’asse reale diverso dall’origine.
Si noti anche come la parte di diagramma relativa al semiasse negativo sia speculare (di fatto, complessa
coniugata) rispetto alla porzione relativa al semiasse positivo. Volendo disegnare l’intero diagramma, è quindi
9 In modo equivalente, si può pensare di percorrere tutto il semiasse immaginario, dal punto 0 − ∞ fino all’estremo opposto
0 + ∞ e poi il cerchio di raggio infinito da 0 + ∞ fino al punto di partenza 0 − ∞
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-200
Percorso di Nyquist
Diagramma di Nyquist
100
0.2
50
Parte immaginaria ω
Parte immaginaria ω
0.15
R=∞
0
−50
0.1
0.05
0
−0.05
−0.1
−0.15
−0.2
−100
−50
0
50
Parte reale σ
100
−0.25
−0.1
0
0.1
0.2
Parte reale σ
Figura 4.19: Diagramma di Nyquist della funzione F (s) =
0.3
0.4
s+2
.
(s + 1)(s + 3)
sufficiente disegnare la parte relativa al semiasse positivo e poi ribaltarla rispetto all’asse reale per ottenere la
figura completa.
Infine, si noti come il percorrere il semiasse immaginario positivo corrisponda a percorre l’intero asse delle ascisse in un diagramma di Bode. Se quindi si dispone già del diagramma di Bode di una funzione di trasferimento
F (s), ed in generale di una funzione razionale, il corrispondente diagramma di Nyquist può essere costruito a
partire dal diagramma di Bode. Il verso di percorrenza da considerare è quello associato al diagramma di Bode:
dal punto relativo ad ω = 0 fino al punto relativo ad ω = +∞, proseguendo poi in modo speculare lungo la
porzione speculare della curva.
A titolo di esempio, nelle seguenti figure 4.20 e 4.21 si riportano, rispettivamente, i diagrammi della funzione
6
6
e della funzione F2 (s) =
.
F1 (s) =
(s + 1)(s + 2)(s + 3)
(s − 1)(s + 3)
Diagramma di Bode di F1(s)
Diagramma di Nyquist di F1(s)
1
0
Parte immaginaria ω
0
Fase (gradi)
Modulo dB
−20
−40
−60
−80
−100
−200
−100
−2
10
0
2
10
10
Pulsazione (rad/sec)
−300
−2
10
0
0.5
0
−0.5
2
10
10
Pulsazione (rad/sec)
Figura 4.20: Diagramma di Nyquist della funzione F (s) =
−1
−1
0
Parte reale σ
1
6
.
(s + 1)(s + 2)(s + 3)
Il caso di cui la funzione di trasferimento abbia poli o zeri nell’origine, e più in generale sull’asse immaginario,
merita una specifica attenzione. In tal caso infatti il cammino di Nyquist passerebbe sopra uno o più tra i poli
e gli zeri, e quindi il Principio dell’argomento perderebbe validità.
In questo caso si ovvia al problema scegliendo un cammino caratterizzato da piccoli scostamenti dall’asse
immaginario in corrispondenza degli elementi a parte reale nulla. In particolare, si considera un cammino di
Nyquist che in corrispondenza di un polo lungo l’asse si muove lungo una semicirconferenza di raggio ǫ molto
piccolo, centrata nel polo stesso e contenuta nel semipiano destro, come illustrato in figura 4.22 per il caso di
un polo nell’origine e di una coppia complessa coniugata in ±2.
Poiché la presenza di poli lungo l’asse immaginario determina dei diagrammi di Bode dei moduli tendenti
ad infinito, per ω = 0 nel caso di poli nulli, per ω = ±p nel caso di coppie immaginarie, si ha che il corrispondente diagramma di Nyquist tende anch’esso ad infinito. Per chiudere all’infinito il diagramma (con tratti di
circonferenza di raggio infinito), si tenga presente la regola generale secondo la quale percorrendo il cammino
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-201
Diagramma di Bode di F2(s)
Diagramma di Nyquist di F2(s)
Parte immaginaria ω
−140
Fase (gradi)
Modulo dB
0
−20
−40
−150
−160
−170
−60
−2
10
0
2
10
10
Pulsazione (rad/sec)
−180
−2
10
0
0.5
0
−0.5
2
−2
10
10
Pulsazione (rad/sec)
Figura 4.21: Diagramma di Nyquist della funzione F (s) =
−1
0
Parte reale σ
6
.
(s − 1)(s + 3)
Percorso di Nyquist
10
8
6
Parte immaginaria ω
4
R=ε
2
0
−2
−4
−6
−8
−10
−2
0
2
4
Parte reale σ
6
8
10
Figura 4.22: Cammino di Nyquist per poli sull’asse immaginario.
di Nyquist lasciando i poli sull’asse alla propria sinistra (percorso del cammino di Nyquist in senso orario), si
lascia alla propria sinistra il corrispondente punto immagine (cioè il punto improprio a +∞).
Praticamente, si può utilizzare la seguente regola di chiusura all’infinito:
1. si determinano sul diagramma di Nyquist i punti all’infinito associati all’immagine di 0+ e di 0− ;
2. si unisce l’immagine del punto 0− a quella del punto 0+ con tanti mezzi giri, di raggio infinito, quanti
sono i poli nell’origine, lasciando il punto improprio alla sinistra (ruotando in senso orario).
1
A titolo di esempio, le figure 4.23 e 4.24 illustrano i diagrammi di Bode e di Nyquist delle funzioni F3 (s) =
s
1
e F4 (s) = 2 , rispettivamente.
s
1
.
La figura 4.25 riporta il caso della funzione di trasferimento F (s) = s2 (s+1)
4.10.2
Criterio di Nyquist
L’idea alla base del criterio di Nyquist è quella di legare il numero di poli e zeri appartenenti al semipiano
destro, e cioè a parte reale positiva, di una assegnata funzione razionale con la forma del grafico della stessa
funzione, e più precisamente con il numero di giri che la stessa funzione compie intorno al punto (−1, 0) del
piano complesso.
Il diagramma di Nyquist viene utilizzato per studiare la stabilità di un sistema retroazionato, con retroazione
unitaria dall’uscita, del tipo in figura 4.26.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-202
Diagramma di Nyquist di F(s)=1/s
10
Parte immaginaria ω
0
−10
−20
−1
10
0
−20
10
Fase (gradi)
Modulo dB
Diagramma di Bode di F(s)=1/s
20
−40
−60
−80
0
1
10
10
Pulsazione (rad/sec)
−100
−1
10
0
1
5
R=∞
0
−5
−10
10
10
Pulsazione (rad/sec)
0
5
Parte reale σ
Figura 4.23: Diagramma di Nyquist della funzione F (s) =
10
1
.
s
2
0
20
−50
Fase (gradi)
Modulo dB
Diagramma di Bode di F(s)=1/s
40
0
−20
−100
−150
−40
−1
10
0
10
Pulsazione (rad/sec)
−200
−1
10
1
10
2
20
2
Parte immaginaria ω
Parte immaginaria ω
F(s)=1/s (dettaglio)
3
R=∞
0
−10
−20
−30
1
10
2
Diagramma di Nyquist di F(s)=1/s
30
10
0
10
Pulsazione (rad/sec)
1
0
−1
−2
−20
0
Parte reale σ
−3
−3
20
−2
−1
0
Parte reale σ
Figura 4.24: Diagramma di Nyquist della funzione F (s) =
1
1
.
s2
La funzione di trasferimento W (s) del sistema a ciclo chiuso (si veda la figura 4.26), cioè tra il segnale di
riferimento r(t) ed il segnale di uscita y(t), è legata alla funzione di trasferimento del sistema in catena aperta
A(s), cioè del sistema tra il segnale di ingresso u(t) ed il segnale di uscita y(t), dalla relazione:
W (s) =
A(s)
,
1 + A(s)
(4.127)
e quindi, esplicitando il numeratore ed il denominatore di W (s) e A(s), si ha:
W (s) =
A(s)
nA (s)/dA (s)
nA (s)
=
=
,
1 + A(s)
1 + nA (s)/dA (s)
nA (s) + dA (s)
(4.128)
e quindi dA (s) descrive i poli del sistema a ciclo aperto, mentre il polinomio nA (s) + dA (s) descrive i poli del
sistema a ciclo chiuso. In questo caso particolare, la funzione di trasferimento A(s) coincide con la funzione di
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-203
Diagramma di Bode di F(s)=1/s2(s+1)
100
−180
−200
Fase (gradi)
Modulo dB
50
0
−50
−100
−150
−2
10
−220
−240
−260
0
10
Pulsazione (rad/sec)
2
10
−280
−2
10
20
R=∞
10
0
−10
2
10
F(s)=1/s2(s+1) (dettaglio)
2
Parte immaginaria ω
Parte immaginaria ω
Diagramma di Nyquist di F(s)=1/s2(s+1)
30
0
10
Pulsazione (rad/sec)
1
0
−1
−20
−30
−40
−20
0
20
Parte reale σ
40
−2
−2
−1.5
−1 −0.5
Parte reale σ
Figura 4.25: Diagramma di Nyquist della funzione F (s) =
r(t)
u(t)
0
0.5
1
.
s2 (s + 1)
y(t)
A(s)
W (s)
Figura 4.26: Sistema a retroazione unitaria dall’uscita.
trasferimento di anello. Nel seguito si assume che la funzione di trasferimento di anello A(s) non abbia parti in
comune tra numeratore e denominatore, non sia cioè caratterizzata da cancellazioni tra poli e zeri. La presenza
di tali cancellazioni, come si vedrà nel seguito, equivale alla presenza di porzioni di sistema non raggiungibile
e/o non osservabile, la cui presenza richiede specifiche attenzioni dal punto di vista della stabilità.
La funzione razionale C(s) = 1 + A(s) è espressa da:
C(s) = 1 + A(s) =
nA (s) + dA (s)
,
dA (s)
(4.129)
e quindi gli zeri della funzione C(s) coincidono con i poli del sistema a ciclo chiuso, mentre i poli della funzione
C(s) coincidono con i poli del sistema a ciclo aperto. Tale funzione caratterizza quindi sia la stabilità del sistema
a ciclo aperto, sia la stabilità del sistema a ciclo chiuso.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-204
Il diagramma di Nyquist di tale funzione, cioè il diagramma di C(s) lungo il percorso di Nyquist (che
circonda tutto il semipiano destro), consente quindi di valutare la differenza tra il numero di poli del sistema a
ciclo chiuso con parte reale positiva (gli zeri di C(s)) ed il numero di poli a ciclo aperto con parte reale positiva
(i poli di C(s)).
Poiché l’interesse è per lo studio della stabilità del sistema a ciclo chiuso, è evidente che si devono cercare
condizioni sotto le quali la funzione di trasferimento C(s) non abbia zeri a parte reale positiva, cioè contenuti
all’interno del cammino di Nyquist.
Infine, si noti come il diagramma della funzione C(s) ed il diagramma della funzione di trasferimento di
anello A(s) siano uguali, a meno di una traslazione nel piano di Gauss. Ne segue che i giri intorno all’origine
della funzione C(s) coincidono con i giri di A(s) intorno al punto (−1, 0), detto punto critico. Si indichino con
N il numero di giri intorno al punto (−1, 0), contati come positivi se in senso antiorario e negativi se in senso
orario (e quindi, sostanzialmente, si utilizzi la relazione (4.125).
Infine, il diagramma della funzione di trasferimento di anello è detto ben definito se non passa per il punto
(−1, 0), cosı̀ che il numero di giri intorno a (−1, 0) di A(s), e quindi intorno all’origine per C(s), siano ben
definiti. In tal caso, anche il numero N è detto ben definito.
Sulla base di tutti questi elementi è possibile formulare il Criterio di Nyquist.
Teorema 4.19 (Criterio di Nyquist) Il sistema con retroazione unitaria dall’uscita
W (s) =
A(s)
,
1 + A(s)
(4.130)
rappresentato dallo schema in figura 4.26, è asintoticamente stabile se e solo se valgono entrambe le due condizioni seguenti:
• il numero N di giri in senso antiorario della funzione di trasferimento di anello A(s) intorno al punto
(−1, 0) è ben definito;
• tale numero N ed il numero P di poli a parte reale positiva del sistema a ciclo aperto A(s) sono nella
relazione:
N = P.
(4.131)
Dimostrazione
La dimostazione del teorema, di fatto, è data dai commenti che precedono e dalle considerazioni in merito al
diagramma di Nyquist. Vengono richiamati gli elementi principali.
• In base al principio dell’argomento, il numero di giri intorno all’origine, positivi se in senso antiorario, di
una funzione razionale F (s) quando la variabile s percorre, in senso orario, una curva chiusa γ è pari alla
differenza P − Z tra il numero Z di zeri ed il numero P di poli della funzione F (s) interni alla curva stessa
(equazione (4.125)).
• Il diagramma di Nyquist di una funzione di trasferimento è il diagramma della stessa nel piano di Gauss
quando la variabile s percorre il cammino di Nyquist, corretto nel caso di poli sull’asse immaginario della
stessa funzione di trasferimento.
• In considerazione della forma del cammino di Nyquist, il numero di giri intorno all’origine, in senso
antiorario, del diagramma di Nyquist di una funzione di trasferimento F (s) conta la differenza tra il
numero P di poli a parte reale positiva ed il numero Z di zeri a parte reale positiva della funzione F (s).
• Dato un sistema di controllo del tipo in figura 4.26, in retroazione unitaria dall’uscita, i poli del sistema
a ciclo aperto coincidono con i poli della funzione di trasferimento C(s) = 1 + A(s), i poli del sistema a
ciclo chiuso con gli zeri della funzione di trasferimento C(s) = 1 + A(s).
• Il diagramma di Nyquist della funzione C(s) coincide con quello della funzione di trasferimento di anello
A(s), a meno di una traslazione lungo la retta reale. Ciò implica che il numero N di giri del diagramma di
Nyquist intorno all’origine di C(s) coincide con il numero N di giri intorno al punto (−1, 0) della funzione
A(s).
• Il sistema a ciclo chiuso è asintoticamente stabile se non ha poli a parte reale positiva (cioè interni al
cammino di Nyquist) o a parte reale nulla (cioè, tali da rendere N non ben definito).
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-205
• Ne seguono le due condizioni del teorema.
Commento 4.8 Dal Teorema di Nyquist discende che, nel caso in cui N sia diverso da P , la differenza N − P
indica il numero di poli a parte reale positiva del sistema retroazionato.
4.10.3
Stabilità e robustezza
Il Criterio di Nyquist è interessante anche perchè consente di valutare alcuni elementi di robustezza della stabilità
a ciclo chiuso.
Il Criterio di Nyquist appena presentato consente di studiare la stabilità a ciclo chiuso se il modello del
sistema, la sua funzione di trasferimento, è nota in modo completo. Molto spesso, anzi, nella maggior parte
dei casi di interesse reale, la conoscenza del modello è approssimata. Ad esempio, molti dei parametri che
caratterizzano un modello di norma possono essere determinati solo con un certo grado di approssimazione. Ed
inoltre, quasi sempre il modello trascura componenti ad alta frequenza, cioè poli lontani (e cioè, autovalori con
parte reale grande).
D’altro canto, la stabilità è una proprietà fondamentale, dalla quale non è possibile prescindere. Si pone
quindi il problema di caratterizzare in che misura la stabilità venga preservata anche a fronte di incertezze nel
modello nominale utilizzato per la verifica di stabilità, e che lo differenziano da quello reale. Si tratta insomma
di studiare in che misura si abbia una stabilità robusta a fronte di incertezze nei parametri che caratterizzano il
modello.
Il criterio di Nyquist consente di determinare in modo immediato la variazione complessiva (l’incertezza
complessiva) di guadagno tollerabile nella funzione di trasferimento di anello senza perdere stabilità a ciclo
chiuso, e la variazione complessiva di fase.
Margine di guadagno
Il primo criterio di robustezza è chiamato margine di gudagno, ed indica di quanto possa essere aumentato il
guadagno della funzione di anello senza perdere stabilità a ciclo chiuso.
Si consideri la funzione di trasferimento di anello:
g
,
(4.132)
A(s) =
(s + 1)(s + 2)(s + 3)
in cui g indica un fattore di guadagno incerto, il cui valore nominale si assume essere g = 6. La figura 4.27
riporta i diagrammi di Bode di tale funzione e la figura 4.28 il corrispondente diagramma di Nyquist. Il sistema
a ciclo aperto non ha poli a parte reale positiva, e quindi P = 0. Il diagramma di Nyquist non circonda il punto
critico, né lo tocca, e quindi N è ben definito e vale zero. Ne segue che il sistema a ciclo chiuso è asintoticamente
stabile.
L’analisi del diagramma di Nyquist mostra che, se il guadagno aumenta di un fattore sufficiente a portare
il punto A, che rappresenta l’intersezione tra il diagramma stesso e l’asse reale negativo, in corrispondenza del
punto critico, si perde la stabilità a ciclo chiuso. Infatti, in tal caso il parametro N non sarebbe ben definito.
Un ulteriore aumento, anche piccolissimo, del guadagno di anello porterebbe il diagramma a compiere due giri
intorno al punto critico, e quindi porterebbe alla instabilità del sistema a ciclo chiuso.
Il valore massimo di cui può essere aumentato il guadagno è quindi il reciproco della lunghezza di tale
intervallo (dall’origine al punto A), lunghezza indicata con 1/mg nella figura 4.28. Esaminando il corrispondente
diagramma di Bode, si vede che il margine di guadagno corrisponde, a parte il segno e la conversione in decibel,
al valore del modulo in corrispondenza della pulsazione alla quale la fase vale −180◦. Infatti, l’intersezione con
l’asse reale negativo corrisponde esattamente ad una fase di −180◦.
Nel caso dell’esempio, il margine di guadagno (il segmento in rosso nella figura 4.27) vale 20dB, che in valori
assoluti corrisponde ad un incremento possibile del guadagno (come fattore moltiplicativo) di 10.
Una delle conseguenze del concetto stesso di margine di guadagno è che, in generale, al crescere del guadagno
di anello, un sistema retroazionato tende alla instabilità.
Commento 4.9 Dalla definizione di margine di guadagno ne consegue che, se un sistema ha un ritardo di fase
(un diagramma di Bode delle fasi) sempre maggiore (in segno) di −180◦ , allora il suo margine di guadagno è
infinito, cioè il sistema a ciclo chiuso è asintoticamente stabile per ogni guadagno di anello.
Domanda 4.1 Il lettore/studente è invitato a valutare il commento precedente, sul margine di guadagno infinito, insieme alla affermazione che spesso, nella derivazione di modelli, vengono trascurati poli ad alta frequenza, perchè si lavora con approssimazioni ai poli dominanti.
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-206
Diagramma di Bode di F (s)
1
0
|mg|dB
Modulo dB
−20
−40
−60
−80
−100
−2
−1
10
0
10
1
10
Pulsazione (rad/sec)
2
10
10
0
Fase (gradi)
−50
−100
−150
−200
−250
−2
−1
10
0
10
1
10
Pulsazione (rad/sec)
2
10
10
Figura 4.27: Margine di guadagno: diagramma di Bode di F (s) =
Modulo di guadagno
g
, g = 6.
(s + 1)(s + 2)(s + 3)
Modulo di guadagno (dettaglio)
4
1
2
Parte immaginaria ω
Parte immaginaria ω
3
1
0
−1
−2
0.5
1/mg
0
A
−0.5
−3
−4
0
2
Parte reale σ
4
−1
−1.5
−1
−0.5
Parte reale σ
Figura 4.28: Margine di guadagno: diagramma di Nyquist di F (s) =
0
0.5
g
, g = 6.
(s + 1)(s + 2)(s + 3)
Margine di fase
Considerazioni analoghe a quelle condotte per il modulo possono essere fatte per la fase. Si consideri la funzione
di trasferimento di anello:
g
,
(4.133)
A(s) =
(s + 1)(s + 2)(s + 3)
in cui g indica un fattore di guadagno incerto, il cui valore nominale si assume essere g = 30. La figura 4.29
riporta i diagrammi di Bode di tale funzione e la figura 4.30 il corrispondente diagramma di Nyquist.
In questo caso, si vede facilmente dal diagramma a destra in figura 4.30 che la fase, in corrispondenza della
pulsazione con la quale si ha intersezione con il cerchio unitario (in nero nella figura) possa essere modificata
fino a raggiungere il valore di −180◦. Oltre tale valore, il diagramma passa per il punto critico, o lo supera,
e quindi non si ha più stabilità a ciclo chiuso. Il valore del quale può essere incrementato il ritardo di fase
(algebricamente, del quale può essere diminuita la fase) è pari all’angolo tra il punto in esame e l’asse reale
negativo: l’angolo indicato con mφ in figura.
Osservando i diagrammi di Bode del sistema, ed interpretando il diagramma di Nyquist, si vede in modo
immediato che il margine di fase corrisponde alla distanza dal valore −180◦ del diagramma delle fasi, in corrispondenza della pulsazione alla quale il modulo vale 0 dB (e cioè, alla quale il diagramma interseca il cerchio
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-207
Diagramma di Bode
20
Modulo dB
0
−20
−40
−60
−80
−100
−2
−1
10
0
10
1
10
Pulsazione (rad/sec)
2
10
10
0
mφ
Fase (gradi)
−50
−100
−150
−200
−250
−2
−1
10
0
10
1
10
Pulsazione (rad/sec)
Figura 4.29: Margine di fase: diagramma di Bode di F (s) =
Modulo di fase
2
10
10
g
, g = 30.
(s + 1)(s + 2)(s + 3)
Modulo di fase (dettaglio)
4
1.5
1
2
Parte immaginaria ω
Parte immaginaria ω
3
1
0
−1
−2
0
mφ
−0.5
−1
−3
−4
0.5
−1.5
0
2
Parte reale σ
4
−1
0
Parte reale σ
Figura 4.30: Margine di fase: diagramma di Nyquist di F (s) =
1
g
, g = 30.
(s + 1)(s + 2)(s + 3)
unitario). Il margine di fase per l’esempio considerato, pari al segmento in rosso tratto continuo in figura 4.29,
vale 25◦ .
Commento 4.10 I concetti di margine di guadagno e margine di fase enunciati sopra sono ben definiti solo
per i sistemi a stabilità regolare, cioè per i sistemi caratterizzati dal fatto che il diagramma di Bode dei moduli
assume per una sola pulsazione il valore di 0dB, ed il diagramma delle fasi assume per una sola pulsazione il
valore di −180◦ .
Commento 4.11 Per completezza, si cita il caso dei sistemi a stabilità condizionata, in cui la stabilità a ciclo
chiuso si ha solo per intervalli ben definiti del guadagno di anello, a motivo della forma assai intrecciata del
diagramma di Nyquist intorno al semiasse reale negativo.
Capitolo 4: Stabilità
4.11
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-208
Esercizi proposti
Esercizio 4.1 L’utilizzo di qualsiasi algoritmo di approssimazione numerica, ed in particolare quindi dell’algoritmo (4.63), richiede la definizione di un criterio di terminazione, per valutare il numero di iterazioni richieste.
Il lettore/studente formuli un criterio di terminazione per tale algoritmo, ed implementi, in un linguaggio di
programmazione qualsiasi, sia l’algoritmo sia il criterio di terminazione, valutando i risultati ottenuti.
Esercizio 4.2 L’analisi degli amplificatori operazionali in sezione 4.9.4 è stata condotta assumendo un modello
a guadagno costante per OA2 . Ciò, sebbene non dichiarato esplicitamente, implica una importante ipotesi sulla
banda passante del sottosistema relativo ad OA2 . Quale è questa ipotesi?
Esercizio 4.3 Con riferimento alla sezione 4.9.4 , il lettore/studente è invitato a condurre l’analisi del circuito
in figura 4.10 utilizzando un modello a polo dominante anche per OA2 .
Esercizio 4.4 . Con riferimento alla sezione 4.9.4 , il lettore/studente è invitato a condurre l’analisi del circuito
in figura 4.10 utilizzando come modelli le due funzioni di trasferimento a ciclo aperto per OA1 ed OA2 , in luogo
del modello nello spazio di stato suggerito nella precedente domanda e nella trattazione riportata sopra.
Esercizio 4.5 Calcolare il guadagno ingresso-uscita del circuito riportato nella seguente figura 4.5, sia con
riferimento ad un modello a guadagno costante per l’amplificatore operazionale, sia con riferimento ad un
modello a polo dominante, e confrontare i due risultati.
vD
−
+
vIN
vOUT
R2
R1
Esercizio 4.6 Calcolare i punti di equilibrio e valutare le loro proprietà di stabilità, per il seguente sistema
dinamico a tempo discreto:
x1 (t + 1) = x1 + x1 (x21 − 1)(1 + x22 )
x2 (t + 1) = x21 .
Esercizio 4.7 Dato il seguente sistema dinamico, valutare le proprietà di stabilità interna ed esterna al variare
del parametro α nell’insieme dei reali:




0 1
0
0
1  x +  0  u,
ẋ =  0 0
0 α 1−α
1
1 −1 0 x,
y =
Esercizio 4.8 Studiare la stabilità dell’origine per il seguente sistema a tempo continuo:
ẋ1
=
−αx31 − 2x32
ẋ2
=
x1 − x2 ,
al variare del parametro α nell’insieme dei reali positivi (α ∈ R, α > 0).
Capitolo 4: Stabilità
[Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-209
Esercizio 4.9 Studiare la stabilità dell’origine per il seguente sistema a tempo discreto, per β ∈ R:
x1 (k + 1) = (β − 1)x1 (k)
x2 (k + 1) = βx1 (k) − (β + 1)x2 (k).
Esercizio 4.10 Studiare le proprietà di stabilità dell’origine per il seguente sistema dinamico a tempo continuo:
ẋ1
=
ẋ2
=
x21 + 2x1 x2 − x32
x22 + x21 ex2 + x32
Capitolo 5: Raggiungibilità
[Ed. 2015, V 4.0 - PV - UniPG] - 5-210
Capitolo 5
Proprietà strutturali: raggiungibilità
5.1
Introduzione
Lo studio della proprietà strutturali del sistemi dinamici (nel nostro caso, limitatamente ai sistemi lineari) ha
lo scopo di analizzare le implicazioni della struttura interna del sistema rispetto alla interazione con l’ambiente
esterno. La prima proprietà, detta raggiungibilità, si preoccupa di caratterizzare il grado di influenza del segnale
di ingresso rispetto allo stato interno. In altre parole, fino a che punto è possibile influenzare e governare lo
stato interno agendo su segnale di ingresso.
5.2
Definizioni
Si ricorda che, nel caso di un sistema lineare e stazionario a tempo discreto, la forma esplicita è data da:
k
x(k, x0 , u(·)) = A x0 +
k−1
X
Ak−i−1 Gu(i),
i=0
mentre nel caso di un sistema a tempo continuo tale forma è data da:
Z t
x(t, x0 , u(·)) = e At x0 +
e A(t−τ ) Gu(τ )dτ,
0
k ∈ Z,
t ∈ R.
(5.1)
(5.2)
Inoltre, un sistema dinamico, a tempo continuo o discreto, descritto da matrici A, B ed C, verrà sinteticamente indicato con Σ(A, B, C), o Σ(A, B) se la matrice di uscita C non è rilevante.
Le proprietà strutturali di raggiungibilità e controllabilità descrivono la capacità del vettore dei segnali
di ingresso di influenzare il comportamento del sistema dinamico. Nel seguito, per semplicità, la variabile
indipendente tempo, sia per sistemi a tempo continuo che per sistemi a tempo discreto, verrà indicata con la
lettera t.
Definizione 5.1 (Stato raggiungibile) Uno stato x del sistema Σ = (A, B, C), a tempo continuo o a tempo
discreto, si dice raggiungibile se esiste un istante finito di tempo t > 0 ed una funzione di ingresso u(·) tale che
risulti:
x(t, 0, u(·)) = x.
(5.3)
In altre parole, un punto x dello spazio di stato è raggiungibile se esiste un segnale di ingresso ed un istante di
tempo t tale da portare lo stato del sistema in tale punto all’istante t, a partire da condizioni iniziali nulle.
Definizione 5.2 (Sistema raggiungibile) Un sistema Σ = (A, B, C), a tempo continuo o a tempo discreto,
si dice raggiungibile se tutti i punti del suo spazio di stato X sono raggiungibili.
Una proprietà, in qualche modo complementare, rispetto alla raggiungibilità è quella della controllabilità.
Definizione 5.3 (Stato controllabile) Uno stato x del sistema Σ = (A, B, C), a tempo continuo o a tempo
discreto, si dice controllabile se esiste un istante finito di tempo t > 0 ed una funzione di ingresso u(·) tale che
risulti:
x(t, x, u(·)) = 0.
(5.4)
Capitolo 5: Raggiungibilità
[Ed. 2015, V 4.0 - PV - UniPG] - 5-211
In altre parole, un punto x dello spazio di stato è controllabile se esiste un segnale di ingresso ed un istante di
tempo t tale da portare lo stato del sistema nell’origine dello spazio di stato all’istante t, a partire dallo stato
iniziale x.
Definizione 5.4 (Sistema controllabile) Un sistema Σ = (A, B, C), a tempo continuo o a tempo discreto,
si dice controllabile se tutti i punti del suo spazio di stato X sono controllabili.
È facile dimostrare che l’insieme dei punti raggiungibili e quello dei punti controllabili formano un sottospazio
dello spazio di stato.
Lemma 5.1 ([8]) L’insieme X R degli stati raggiungibili è un sottospazio lineare dello spazio di stato X .
Lemma 5.2 ([8]) L’insieme X C degli stati controllabili è un sottospazio lineare dello spazio di stato X .
5.3
Raggiungibilità per sistemi LSTD
Lo studio della proprietà di raggiungibilità per un sistema lineare, a tempo discreto, stazionario può essere
condotto a partire dalla rappresentazione esplicita 5.1, o, equivalentemente, a partire dalla rappresentazione
implicita.
Si analizzi in dettaglio la soluzione del sistema al crescere del tempo. Utilizzando una delle due rappresentazioni, e ricordando che la proprietà viene studiata assumendo condizione iniziale nulla, al primo passo si
ha:
x(1) = Bu(0).
(5.5)
Introdotta la matrice R1 := [B], detta matrice di raggiungibilità ad un passo, è immediato vedere che l’insieme
X1R degli stati raggiungibili in un passo è dato da
X1R := Im [R1 ] = Im [B].
(5.6)
Similmente, analizzando la risposta forzata al passo k = 2, si trova:
x(2) =
=
Ax(1) + Bu(1)
(5.7)
ABu(0) + Bu(1) = [ B
AB ]
u(1)
u(0)
.
(5.8)
e quindi, con ovvio significato dei simboli:
X2R := Im [R2 ] = Im [ B
AB ].
(5.9)
Iterando il ragionamento, al passo k si ottiene:
x(k) = Bu(k − 1) + ABu(k − 2) + · · · + Ak−1 Bu(0) =
B
AB
···
Ak−1 B





u(k − 1)
u(k − 2)
..
.
u(0)



.

La matrice Rk := B AB · · · Ak−1 B è detta matrice di raggiungibilità in k passi, mentre l’insieme XkR ,
sottospazio degli stati raggiungibili in k passi, è dato dall’immagine di tale matrice:
XkR := Im [Rk ] = Im B AB · · · Ak−1 B .
(5.10)
E` facile vedere che i sottospazi di raggiungibilità sono ordinati secondo la seguente catena di inclusioni,
poiché sono costruiti aggiungendo in successione nuove colonne alla matrice relativa al passo precedente:
R
X1R ⊆ X2R ⊆ · · · ⊆ XkR ⊆ XnR = Xn+1
.
(5.11)
Si noti che l’inclusione diviene sicuramente un’uguaglianza al passo n, in virtù del teorema di Cayley-Hamilton.
Ovviamente l’inclusione può divenire un’uguaglianza anche prima del passo n.
Capitolo 5: Raggiungibilità
[Ed. 2015, V 4.0 - PV - UniPG] - 5-212
Il sottospazio X R , detto sottospazio degli stati raggiungibili, cioè il sottospazio che raccoglie la totalità degli
stati raggiungibili, si ottiene quindi, al più, al passo n: X R := XnR ed è generato dalla matrice di raggiungibilità
R:
R := B AB · · · An−1 B .
(5.12)
Poichè X R contiene tutti i punti raggiungibili, un sistema dinamico Σ(A, B) è raggiungibile se e solo se tale
spazio coincide con l’intero spazio di stato:
XR ≡ X,
(5.13)
e quindi se e solo se la matrice di raggiungibilità ha rango pieno. Vale quindi il criterio di raggiungibilità
enunciato nel seguente teorema di raggiungibilità:
Teorema 5.1 (Criterio di raggiungibilità) Un sistema dinamico a tempo discreto Σ(A, B) è raggiungibile
se e solo se
rango B AB · · · An−1 B = n.
(5.14)
Si noti come la matrice di raggiungibilità sia una matrice con n righe e n × m colonne.
Il più piccolo intero r per cui la matrice
B AB · · · Ar−1 B
(5.15)
ha rango n è detto indice di raggiungibilità del sistema.
Il calcolo dell’ingresso u(·) che consente di raggiungere lo stato assegnato, cosı̀ come precisato nella definizione
5.1, è possibile a partire dalla matrice di raggiungibilità del sistema, od anche dalla matrice di raggiungibilità
in un numero fissato di passi. In particolare, la possibilità di raggiungere uno stato assegnato xf in k passi, con
k ≥ 1, è legata alla possibilità di risolvere il seguente sistema algebrico:


u(k − 1)


 u(k − 2) 
xf = B AB · · · Ak−1 B 
.
..


.
u(0)
L’esistenza di una soluzione per tale sistema indica la raggiungibilità del punto in k passi, ed una sua soluzione
(“la” soluzione, se unica), rispetto alle incognite u(k − 1), · · · , u(0), rappresenta una possibile sequenza (“la”
sequenza, se unica) che consente di raggiungere tale punto dall’origine in k passi.
Per quanto concerne l’esistenza della soluzione, è ben noto che cioè si verifica se, e solo se:
rango B AB · · · Ak−1 B = rango xf | B AB · · · Ak−1 B
(5.16)
5.4
Raggiungibilità per sistemi LSTC
Lo studio del sottospazio degli stati raggiungibili per sistemi lineari a tempo continuo è basato sul concetto di
gramiano di raggiungibiltà [8, 10]. L’introduzione di tale concetto esula dagli scopi di queste note. L’analisi
porta a concludere, anche nel caso dei sistemi a tempo continuo, che il sottospazio degli stati raggiungibili è
dato dall’immagine della matrice di raggiungibilità:
X R = Im [R] = Im
B
AB
···
An−1 B
.
(5.17)
Ne segue quindi un criterio di raggiungibilità a tempo continuo, raccolto nel seguente teorema, che è del tutto
identico all’analogo teorema per i sistemi a tempo discreto:
Teorema 5.2 (Criterio di raggiungibilità) Un sistema dinamico a tempo continuo Σ(A, B) è raggiungibile
se e solo se
rango B AB · · · An−1 B = n.
(5.18)
Il calcolo del segnale di ingresso che consente di raggiungere, se possibile, un assegnato punto dello spazio di
stato richiede il calcolo del gramiano di raggiungibilità (si veda [8, 10]).
Capitolo 5: Raggiungibilità
5.5
[Ed. 2015, V 4.0 - PV - UniPG] - 5-213
Risultati notevoli
Poiché la matrice di raggiungibilità, il sottospazio degli stati raggiungibili ed il criterio di raggiungibilità possono
essere formulati in modo identico per sistemi a tempo continuo e per sistemi a tempo discreto, tutte le proprietà
che ne derivano valgono in modo del tutto identico/analogo per entrambe le classi di sistemi.
Nei lemmi che seguono vengono riportate alcune proprietà, particolarmente rilevanti ai fini del corso.
Lemma 5.3 Il sottospazio X R degli stati raggiungibili è invariante rispetto a trasformazioni di similarità.
Si ricordi che un sottospazio vettoriale V è detto invariante rispetto ad un operatore A, e cioè V è A −
invariante, se vale la relazione:
AV ⊆ V ⇔ ∀v ∈ V, Av ∈ V.
(5.19)
Vale quindi il seguente lemma:
Lemma 5.4 Il sottospazio X R degli stati raggiungibili è un sottospazio A-invariante.
Se un sistema Σ(A, B), indifferentemente a tempo continuo o a tempo discreto, non è raggiungibile, è
possibile analizzare in dettaglio la sua struttura interna, ed evidenziare la parte eventualmente raggiungibile,
utilizzando la forma standard di raggiungibilità, o decomposizione di Kalman1 rispetto alla raggiungibilità. Tale
decomposizione è descritta dal seguente teorema:
Teorema 5.3 (Decomposizione di Kalman rispetto alla raggiungibilità) Se il sistema Σ = (A, B, C)
non è raggiungibile, esiste una trasformazione di coordinate nello spazio di stato x̄ = T −1 x, tale che il sistema,
nelle nuove coordinate, è descritto dalle matrici:
B̄1
Ā1,1 Ā1,2
, B̄ = T −1 B =
Ā = T −1 AT =
(5.20)
, C̄ = CT = C̄1 C̄2 ,
0
0
Ā2,2
in cui i blocchi Ā1,1 e Ā2,2 sono matrici quadrate, di dimensione ρ × ρ e (n − ρ) × (n − ρ), rispettivamente, con ρ
pari al rango della matrice di raggiungibilità, ed i blocchi Ā1,2 , B̄1 , C̄1 e C̄2 sono di dimensioni corrispondenti.
Inoltre, il sottosistema Σ̄1,1 = (Ā1,1 , B̄1 , C̄1 ) è completamente raggiungibile.
Il calcolo della matrice di trasformazione T −1 , o meglio la determinazione della nuova base T , è basato sulla
determinazione di un numero opportuno di colonne indipendenti della matrice di raggiungibilità. Sia ρ < n il
rango della matrice di raggiungibilità. La matrice di trasformazione può essere costruita selezionando ρ colonne
indipendenti di R, ed utilizzando ulteriori n − ρ vettori indipendenti per completare la base. Si consideri il caso
particolare di un sistema con un solo ingresso, per il quale quindi la matrice B è costituita da una sola colonna.
In tal caso, se la matrice di raggiungibilità ha rango ρ, una possibile scelta di altrettante colonne indipendenti
è data dalla prime ρ colonne. La matrice di trasformazione è allora:
(5.21)
T = b Ab · · · Aρ−1 b w1 · · · wn−ρ .
con w1 , · · · , wn−ρ vettori tali da generare una nuova base (e quindi, tali da generare una matrice T non
singolare).
La forma standard di raggiungibilità è di estremo interesse, perché consente di evidenziare il sottosistema
completamente raggiungibile e quello non raggiungibile. Una proprietà fondamentale del sottosistema raggiungibile è quella di essere il solo a caratterizzare la matrice di trasferimento dell’intero sistema, come affermato
nel seguente teorema.
Teorema 5.4 Sia Σ = (A, B, C) un sistema non completamente raggiungibile, e sia Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) il
sottosistema raggiungibile ottenuto dalla decomposizione canonica di Kalman rispetto alla raggiungibilità. Allora,
i due sistemi Σ e Σ̄1 hanno la stessa matrice di trasferimento:
C(ηI − A)−1 B = C̄1 (ηI − Ā1,1 )−1 B̄1
(5.22)
▽
1 Rudolf
Emil Kàlmàn (Budapest, 19 maggio 1930)
Capitolo 5: Raggiungibilità
[Ed. 2015, V 4.0 - PV - UniPG] - 5-214
Il teorema precedente implica che gli autovalori della matrice Ā2,2 del sottosistema non raggiungibile non
compaiono come poli della matrice di trasferimento del sistema Σ. Nella relazione (5.22), la variabile complessa
η rappresenta la variabile s di Laplace nel caso dei sistemi LSTC e la variabile z nel caso dei sistemi LSTD.
Infine, si riporta un ulteriore corollario, legato alla raggiungibilità (si veda [10][§5.7, corollario 2]):
Corollario 5.1 Sia Σ = (A, B, C) un sistema non completamente raggiungibile. Gli autovalori della matrice
Ā2,2 , che descrive il sottosistema non raggiungibile, sono tutti e soli i valori di λ in corrispondenza dei quali la
matrice
[A − λI|B]
(5.23)
non ha rango pieno.
Capitolo 5: Raggiungibilità
5.6
[Ed. 2015, V 4.0 - PV - UniPG] - 5-215
Esercizi risolti
Esercizio 5.1 Dato il sistema dinamico a tempo discreto




−2 −1 −5
3
x(k + 1) =  0
1
0  x(k) +  1  u(k),
2
2
5
−2
a) studiare la raggiungibilità;
b) determinare la decomposizione rispetto alla raggiungibilità.
Soluzione esercizio 5.1.




−5
3
0  x(k) +  1  u(k),
5
−2
−2 −1
1
x(k + 1) =  0
2
2
Raggiungibilità.
La matrice di raggiungibilità di questo sistema è data da:


3
3
3
R= 1
1
1 ,
−2 −2 −2
e quindi il sistema non è raggiungibile. Il suo indice di raggiungibilià è r = 1.
Decomposizione rispetto alla raggiungibilità.
Per calcolare la decomposizione, si sceglie un insieme di r = 1 colonne indipendenti della matrice R, ad
esempio e1 = b, e si completa tale insieme con 2 colonne linearmente indipendenti; ad esempio, si può scegliere:


 
1
0
e2 =  0  , e3 =  0  .
0
1
Ogni altra scelta di due colonne linearmente indipendenti rispetto alla matrice b è possibile.
La base per la decomposizione rispetto alla raggiungibilità è quindi:


3 1 0
T =  1 0 0 ,
−2 0 1
con inversa:
T −1

0
= 1
0

1 0
−3 0  .
2 1
Nelle nuove coordinate x̄ = T −1 x il sistema è descritto dalle matrici:




1 0
0
1
Ā =  0 −2 −5  , b̄ =  0  ;
0 2
5
0
con la notazione abitualmente utilizzata si ha:
Ā11 =
1
Esercizio 5.2 Dato il sistema dinamico a tempo

1

−5
x(k + 1) =
2
0 0
y(k) =
,
Ā22 =
−2 −5
2
5
.
discreto
0
−3
1
1



1
1
−5  x(k) +  −1  u(k),
2
0
x(k),
Capitolo 5: Raggiungibilità
[Ed. 2015, V 4.0 - PV - UniPG] - 5-216
1. valutare la raggiungibilità;
2. determinare, se possible, una sequenza di controllo per raggiungere lo stato x1 = (2 − 3 1)T ;
3. determinare una decomposizione rispetto alla raggiungibilità.
Soluzione esercizio 5.2.
Sistema dinamico a tempo discreto




1
0
1
1
x(k + 1) =  −5 −3 −5  x(k) +  −1  u(k),
2
1
2
0
0 0 1 x(k),
y(k) =
Valutare la raggiungibilità.
Per valutare la raggiungibilità del sistema in esame, si deve valutare il rango della matrice di raggiungibilità:


1
1
2
R = b Ab A2 b =  −1 −2 −4 
0
1
2
il cui rango è due, e quindi il sistema non è raggiungibile. Infatti, la seconda e terza colonna della matrice di
raggiungibilità sono linearmente dipendenti.
Determinare, se possible, una sequenza di controllo per raggiungere lo stato x1 = (2 − 3 1)T .
Lo stato x̄ è raggiungibile se appartiene all’immagine della matrice di raggiungibilità. In particolare, il punto
di interesse è pari alla somma della prime due colonne di R. Procedendo in modo analitico, si deve verificare il
rango della matrice:


1
1
2
b Ab x̄ =  −1 −2 −3 
0
1
1
che risulta essere pari a due, per cui il punto è raggiungibile in due passi. La sequenza di controllo che consente
di raggiungere il punto x̄ in due passi si può ottenere dalla soluzione del sistema:




2
1
1
u(1)
 −1 −2 
=  −3 
u(0)
1
0
1
che, per ispezione, è data da:
u(0) = 1,
u(1) = 1.
Determinare una decomposizione rispetto alla raggiungibilità.
Poiché il sistema non è raggiungibile, ha senso determinare la decomposizione rispetto alla raggiungibilità.
Le prime due colonne della matrice di raggiungibilità sono linearmente indipendenti, ed un possibile vettore per
completare la base è dato, ad esempio, dalla prima colonna della matrice identita, per cui la matrice di cambio
di base e la sua inversa sono date da:




0 −1 −2
1
1 1
1 .
T =  −1 −2 0  , T −1 =  0 0
1 1
1
0
1 0
La decomposizione rispetta alla raggiungibilità è quindi descritta dalle matrici:




0 0 1
1
Ā = T −1 AT =  1 2 2  , b̄ = T −1 b =  0  , Ā = T −1 AT = 0 1
0 0 −2
0
0
.
Capitolo 5: Raggiungibilità
5.7
[Ed. 2015, V 4.0 - PV - UniPG] - 5-217
Esercizi proposti
Esercizio 5.3 Dato il sistema dinamico a tempo discreto

x(k + 1) = Ax(k) + B1 u(k),
a) studiare la raggiungibilità ;

−1 1 0
2 0 ,
A= 2
2 −1 1


−1
B1 =  −2  ,
0
0 1 ]T e x̄2 = [ 2 1
b) verificare la raggiungibilità e degli stati x̄1 = [ 1
0 ]T ;
c) se gli stati x̄1 e x̄2 sono raggiungibili, determinare due segnali di controllo per raggiungerli in un numero
minimo di passi;
d) determinare almeno due distinti segnali di controllo che consentano di raggiungere lo stato x̄1 in 11 passi.
Esercizio 5.4 Dato il sistema dinamico a tempo discreto
x(k + 1) = Ax(k) + B1 u(k),
a) studiare la raggiungibilità;
b) verificare la raggiungibilità dello stato x̄1 = [ 1

−1 1
A= 1 1
1 0

0
0 ,
1


1
B1 =  0  ,
0
2 1 ]T ;
c) se lo stato x̄1 non è raggiungibile, determinare lo stato xo ∈ X R che rende minima la funzione kx̄1 − xk2 al
variare di x nel sottospazio di raggiungibilità;
d) determinare un segnale di controllo per raggiungere lo stato x̄1 o lo stato xo nel numero minimo di passi.
Esercizio 5.5 Dato il sistema dinamico a tempo discreto
x(k + 1) = Ax(k) + B1 u(k),
a) studiare la raggiungibilità;
b)verificare la raggiungibilità dello stato x̄ = [ 3

−1 1
A= 1 2
1 0

0
0 ,
1


1
B1 =  0  ,
0
1 2 ]T ;
c) se lo stato x̄ è raggiungibile, determinare un segnale di controllo u(·) per raggiungerlo nel numero minore
di passi.
Esercizio 5.6 Dato il sistema dinamico a tempo discreto

x(k + 1) = Ax(k) + Bu(k),
a) studiarne la raggiungibilità;
−1 1
A= 1 2
1 0
b) verificare la raggiungibilità dello stato x̄ = [ 3 1

0
0 ,
1

1
B= 0
0

0
0 ,
1
2 ]T ;
c) se lo stato x̄ è raggiungibile, determinare un segnale di controllo u(·) per raggiungerlo nel numero minore
di passi; utilizzando un solo segnale di controllo (si confronti questo esercizio con 5.5), ed utilizzando un
segnale avente norma minima.
d) confrontare i tre diversi segnali ottenuti al punti precedente.
Capitolo 5: Raggiungibilità
[Ed. 2015, V 4.0 - PV - UniPG] - 5-218
Esercizio 5.7 Dato il sistema dinamico a tempo continuo

1 1
ẋ(t) = Ax(t) + gu(t),
A= 0 1
0 0
a) studiare la raggiungibilità;
b)verificare la raggiungibilità dello stato x̄ = [ 0

0
0 ,
1


0
B =  1 ,
1
1 0 ]T ;
c) qualora x̄ non sia raggiungibile, determinare lo stato xo ∈ X R che rende minima la funzione kx̄ − xk2 al
variare di x nel sottospazio di raggiungibilità;
d) determinare la decomposizione rispetto alla raggiungibilità;
e) determinare il complemento all’intero spazio di stato del sottospazio di raggiungibilità, cioè il sottospazio
X 1 tale che X =XR ⊕ X 1 ;
f) determinare i modi non modificabili dall’ingresso (cioè associati ad autovalori invarianti);
g) dato un generico stato x0 = [ x10 x20 x30 ]T , e un valore finito t̄, assegnato, verificare se lo stato
xf = e At̄ x0 è raggiungibile a partire dallo stato iniziale x0 e, in caso affermativo, determinare un instante
di tempo t al quale tale stato finale può essere raggiunto ed il corrispondente segnale di controllo u(·);
h) calcolare il segnale di ingresso u(·) che consente di raggiungere lo stato x̄, o lo stato xo , definiti al punto c).
Esercizio 5.8 Dato il sistema dinamico a tempo

1
x(k + 1) =  0
0
a) studiare la raggiungibilità;
discreto



1 0
0
1 0  x(k) +  1  u(k),
0 1
1
b)verificare se lo stato x̄ = [ 0 −2 0 ]T è raggiungibile;
c) qualora x̄ non sia raggiungibile, determinare lo stato xo ∈ X R che rende minima la funzione kx̄ − xk2
al variare di x nel sottospazio di raggiungibilità, e determinare la sequenza di ingressi che consente di
raggiungere tale stato xo ;
d) determinare la decomposizione rispetto alla raggiungibilità;
e) determinare il complemento all’intero spazio di stato del sottospazio di raggiungibilità;
f) determinare i modi non modificabili dall’ingresso (cioè invarianti);
g)verificare se lo stato xf = [ 4 3 5 ]T è raggiungibile a partire dallo stato iniziale x0 = [ 1 1 0 ]T ,
calcolare il numero minimo di passi richiesti ed il segnale di controllo che consente di raggiungerlo.
Esercizio 5.9 Dato il circuito elettrico in figura 5.1 (si veda il paragrafo 2.3), e determinato il suo modello
dinamico
a) studiare la raggiungibilità;
b) determinare la decomposizione rispetto alla raggiungibilità.
c) calcolare l’autovettore relativo al’autovalore non raggiungibile.
Capitolo 5: Raggiungibilità
[Ed. 2015, V 4.0 - PV - UniPG] - 5-219
R1
R3
L
R2
C2
Vin
C1
Figura 5.1: Circuito elettrico relativo all’esercizio 5.9
R4
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-220
Capitolo 6
Allocazione degli autovalori per sistemi
scalari
6.1
Introduzione
Lo studio delle proprietà di stabilità dei sistemi lineari ha messo in chiara evidenza il ruolo fondamentale
degli autovalori nella caratterizzaione di tale proprietà.
In molte situazioni di interesse, ad esempio in tutti i casi in cui si ha un sistema instabile, oppure si ha
un sistema i cui modi naturali, pur essendo convergenti, sono troppo “lenti”, sarebbe utile poter intervenire
sul sistema e modificare i suoi autovalori. La modalità tipica di intervento è quella di applicare un opportuno
segnale di ingresso, che sia calcolato sulla base di misure del comportamento attuale del sistema, cioè, un segnale
in retroazione.
Più in generale, l’utilizzo di un segnale di controllo in retroazione consente di risolvere problemi di regolazione.
Nel seguito verrà presentata una possibile soluzione al problema della regolazione dello stato di un sistema
dinamico intorno ad un punto di equilibrio.
6.2
Regolazione e dinamica d’errore
Il problema della regolazione di un sistema dinamico intorno ad un punto di lavoro (punto di equilibrio) è
un problema di estrema importanza applicativa.
Si consideri un sistema dinamico a tempo continuo (il caso dei sistemi a tempo discreto è del tutto analogo),
con un solo ingresso ed una sola uscita, descritto dalle equazioni:
ẋ
= Ax + bu
y
= cx,
e sia xr un punto dello spazio di stato che si desidera rendere punto di lavoro per il sistema. Si desidera cioè agire
in modo tale che il sistema si trovi, di norma, in tale punto dello spazio di stato, e che eventuali scostamenti da
tale punto, a causa di disturbi e perturbazioni agenti dall’esterno, vengano recuperati con velocità assegnata.
Tale problema va sotto il nome di problema di regolazione.
Alla luce della teoria della stabilità il problema posto può essere risolto rendendo xr punto di equilibrio
asintoticamente stabile per il sistema di interesse.
Ciò può essere ottenuto suddividendo il problema di regolazione in due sottoproblemi: 1) rendere xr punto
di equilibrio; 2) rendere tale punto, e quindi il sistema, asintoticamente stabile.
Il primo sottoproblema è risolto facilmente determinando, se esiste, una soluzione al seguente sistema algebrico:
Axr + bur = 0.
(6.1)
Se tale sistema ammette soluzione nell’incognita scalare ur , allora il segnale di ingresso ur (t) = ur δ−1 (t) rende
il punto di interesse punto di equilibrio.
Per valutare le proprietà di stabilità di tale punto, e per progettare possibili azioni di intervento sul sistema,
è conveniente introdurre un sistema di errore, che descriva l’evoluzione temporale dello scostamento tra il
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-221
comportamento desiderato per il sistema ed il comportamento effettivo. Si introduca quindi un vettore x̃ : x−xr ,
che descrive lo scostamento tra il valore desiderato per lo stato ed il valore effettivo. Tale segnale è detto errore
di regolazione nello stato. Si supponga inoltre che il segnale di ingresso u(·) applicato al sistema sia dato dalla
somma del segnale costante utile a rendere xr punto di equilibrio e di un segnale aggiuntivo ũ, il cui scopo sarà
chiaro nel seguito.
La dinamica dell’errore di regolazione nello stato può essere determinata facilmente a partire dalla dinamica
del sistema e dalla condizione di equilibrio. Si trova:
x̃˙ =
=
=
ẋ − x˙r = ẋ = Ax + bu = A(x̃ + xr ) + b(ũ + ur )
Ax̃ + bũ + Axr + bur
Ax̃ + bũ.
La dinamica di errore è quindi governata da un sistema descritto dalle stesse matrici A e b che descrivono il
sistema da controllare (in virtù della linearità di quest’ultimo). Ne segue che il problema di regolazione sarà
ben risolto se la matrice A ha tutti gli autovalori con parte reale negativa, per garantire stabilità asintotica, e
con parte reale sufficientemente grande (in modulo), per garantire idonea velocità di convergenza.
Se tale matrice non ha le proprietà richieste, si potrebbe cercare di utilizzare il segnale ũ per modificare il
comportamento della dinamica di errore, e risolvere quindi in modo soddisfacente il problema di regolazione.
Come già notato, la dinamica d’errore ed il sistema da controllare (il processo) sono descritti dalle stesse
matrici. Ciò implica che regolare il sistema intorno ad un punto di equilibrio non nullo xr è del tutto equivalente
a regolarlo intorno all’origine. Nel seguito quindi ci si limiterà a studiare e risolvere il problema della regolazione
a zero di un sistema dinamico.
Tale problema può essere risolto, ad esempio, utilizzando un segnale in retroazione che consenta, se possibile,
di allocare in modo arbitrario tutti gli autovalori del sistema.
6.3
Allocazione degli autovalori: formulazione del problema
Problema 6.1 (Allocazione degli autovalori tramite retroazione statica dallo stato) Dato il sistema
dinamico Σ = (A, b, c) ed un insieme di n numeri complessi D = {λ1 , λ2 , . . . , λn }, con D arbitrario ma chiuso
rispetto all’operazione di coniugazione complessa, trovare, se esiste, una legge in retroazione statica dallo stato
u = kx + v,
k ∈ R1×n , v ∈ R,
(6.2)
tale che gli elementi dell’insieme D siano gli autovalori del sistema a ciclo chiuso ΣK = (A + bk, b, c).
Teorema 6.1 Il problema della allocazione degli autovalori tramite retroazione statica dallo stato per un sistema
dinamico Σ = (A, b, c) ammette soluzione se e solo se il sistema è raggiungibile, cioè se e solo se sono soddisfatte
le due condizioni equivalenti:
i) rango [b Ab . . . An−1 b] = n;
ii) rango [A − λI|b] = n,
6.4
∀λ ∈ sp {A}.
Allocazione degli autovalori: soluzione
Dimostrazione del teorema.
Sufficienza La sufficienza verrà mostrata dando una procedura per costruire una matrice k (k ∈ R1×n ) che
risolve il problema, e poi mostrando che, sotto l’ipotesi di raggiungibilità, la procedura può effettivamente
essere completata ed ottiene il risultato desiderato.
La procedura consiste nel determinare un nuovo sistema di coordinate, nel quale sia poi immediato calcolare
la matrice di retroazione cercata.
Procedura 6.1 (Allocazione degli autovalori tramite retroazione statica, singolo ingresso.)
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-222
Passo 1. Determinare un vettore riga h ad n componenti ( hT ∈ Rn ), tale da soddisfare il seguente sistema
algebrico:
hb =
hAb =
..
.
hAn−2 b
hAn−1 b
0
0
(6.3)
=
=
0
1.
Passo 2. Determinare le nuove coordinate xc secondo la trasformazione:
xc = T −1 x,
con
T
−1

T −1 ∈ Rn×n ,
h
hA
..
.



:= 

 hAn−2
hAn−1
(6.4)




.


(6.5)
Con queste nuove coordinate, che nel seguito verranno indicate come le coordinate di controllore, il sistema
originale risulta descritto dalla forma canonica di controllore ad un ingresso:
x˙c = Ac xc + bc u,
ove




Ac = T −1 AT = 


0
0
..
.
1
0
..
.
0
1
..
.
···
···
..
.
0
0
..
.
0
−a0
0
−a1
0
−a2
···
···
1
−an−1
(6.6)




,



0
0
..
.



bc = T −1 b = 

 0
1




.


(6.7)
Passo 3. Dato l’insieme di autovalori desiderati D = {λ1 , λ2 , . . . , λn }, chiuso rispetto all’operazione di coniugazione complessa, determinare il polinomio caratteristico desiderato:
p(λ) :=
n
Y
i=1
(λ − λi ) = λn + pn−1 λn−1 + · · · + p1 λ + p0 .
Passo 4. Calcolare la matrice di retroazione dallo stato in coordinate di controllore kc , kc ∈ R1×n :
kc = (a0 − p0 ) (a1 − p1 ) · · · (an−1 − pn−1 ) ;
(6.8)
(6.9)
e calcolare la matrice di retroazione nelle coordinate originali, data da:
k = kc T −1 .
(6.10)
♦
Si tratta ora di mostrare che la procedura può essere completata e la sua efficacia.
Per mostrare che la procedura può essere completata è sufficiente far vedere che è possibile calcolare la
matrice T −1 e che tale matrice è effettivamente non singolare.
La raggiungibilità del sistema Σ garantisce l’esistenza di un vettore riga h soluzione
del sistema algebrico
(6.3). Infatti, la raggiungibilità implica che la matrice R = b Ab · · · An−1 b è non singolare, e quindi
esiste la sua inversa R−1 .
Ora, il sistema di equazioni (6.3) può essere riscritto nella forma:
hR = 0 0 · · · 1 ,
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-223
la cui soluzione, in virtù dell’esistenza della matrice R−1, esiste ed è data da:
h = 0 0 · · · 1 R−1 ,
e quindi h è ottenibile come ultima riga dell’inversa della matrice di raggiungibilità (per semplice ispezione
visiva del prodotto righe-colonne).
La possibilità di calcolare la matrice T −1 a partire dal vettore riga h non comporta problemi, deve invece
essere mostrato che tale matrice è non singolare. Questo può essere fatto mostrando che le righe di T −1 sono
tutte linearmente indipendenti. Per assurdo, si assuma che non lo siano; allora esiste una sequenza di n costanti
η0 , η1 , . . . , ηn−1 , non tutte nulle, tali che la combinazione tramite tali coefficienti delle righe di T −1 è pari ad un
vettore riga nullo:
n−1
X
ηi hAi = 0.
(6.11)
i=0
Moltiplicando a destra entrambi i membri dell’equazione per il vettore b e ricordando le condizioni imposte
dal sistema (6.3), si trova che deve essere:
ηn−1 h An−1 b = 0,
(6.12)
da cui, per l’ultima delle (6.3), segue ηn−1 = 0. Moltiplicando poi a destra entrambi i membri dell’equazione
(6.11) per il vettore Ab e ricordando le condizioni imposte dal sistema (6.3), si trova che deve essere:
ηn−2 h An−2 Ab = 0,
(6.13)
da cui, per l’ultima delle (6.3), segue ηn−2 = 0. Procedendo in modo simile, si arriva a mostrare che tutti i
coefficienti η che consentono di ottenere una combinazione nulla devono essere necessariamente nulli, e quindi
l’indipendenza delle righe e la non singolarità della matrice T −1 . Questo completa la dimostrazione che la
procedura può essere completata.
Per quanto riguarda la sua efficacia, il primo passo è quello di provare che, nelle coordinate xc = T −1 x, con
−1
T
data dalle (6.5), il sistema assume effettivamente la forma (6.6), (6.7), cioè mostrare che le coordinate xc
sono effettivamente quelle che portano il sistema nella forma canonica di controllore ad un solo ingresso. Ciò
può essere fatto facilmente per ispezione, a partire dalle relazioni:
Ac T −1 = T −1 A,
bc = T −1 b,
(6.14)
tenendo conto della trasformazione (6.5) e del teorema di Cayley-Hamilton. Infatti, la prima della riga del
prodotto T −1 A, per la forma della T −1 , è pari alla seconda riga della T −1 stessa, da cui segue che la prima riga
della matrice Ac deve avere un uno in seconda posizione, e tutti gli altri elementi nulli. Analogamente per tutte
le altre righe della matrice Ac , salvo l’ultima che discende dall’applicazione di Cayley-Hamilton.
In modo simile si può mostrare che il vettore bc assume la forma indicata nella (6.7), in virtù del sistema
(6.3) e della trasformazione (6.5). Come secondo passo per mostrare l’efficacia, è immediato constatare che il
polinomio caratteristico del sistema retro-azionato nelle coordinate di controllore xc (cioè del sistema Σc = (Ac +
bc kc , bc , Cc )), coincide con il polinomio desiderato (6.8). Per le proprietà delle trasformazioni algebricamente
equivalenti, del tipo della T −1 , il sistema retro-azionato nelle coordinate originali ha esattamente lo stesso
polinomio caratteristico p(λ), e quindi il problema di assegnazione degli autovalori è risolto dalla matrice k =
kc T −1 .
⊓
⊔
6.4.1
Le funzioni di trasferimento a ciclo aperto e a ciclo chiuso
Il calcolo della funzione di trasferimento per un sistema in forma canonica di controllore è immediato. Con la
notazione (6.7), ed indicando la matrice di uscita nella forma di controllore con la notazione:
(6.15)
cc = c0 c1 · · · cn−1 ,
si trova facilmente (assumendo assenza di legame diretto ingresso-uscita) la funzione di trasferimento Wca (s)
del sistema a ciclo aperto:
Wca (s) = cc (sI − Ac )−1 bc =
sn
cn−1 sn−1 + · · · c1 s + c0
.
+ an−1 sn−1 + · · · a1 a + a0
(6.16)
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-224
Poiché (sempre nel caso di legame ingresso-uscita nullo), la retroazione non modifica l’equazione di uscita,
ma modifica il polinomio caratteristico, è immediato verificare che la funzione di trasferimento a ciclo chiuso,
Wcc (s), risulta pari a:
Wcc (s) = cc (sI − Ac )−1 bc =
cn−1 sn−1 + · · · c1 s + c0
.
sn + pn−1 sn−1 + · · · p1 a + p0
(6.17)
Poiché la funzione di trasferimento è invariante rispetto a trasformazioni di similarità algebrica, le due
funzioni di trasferimento Wca (s) e Wcc (s) descrivono i sistemi in catena aperta e in catena chiusa anche nelle
coordinate orginali.
6.5
Il caso dei sistemi non completamente raggiungibili
Il problema della allocazione degli autovalori può essere risolto, nella versione completa, solo se il sistema in
esame è raggiungibile.
Tuttavia, se il sistema non è raggiungibile, si può comunque valutare la possibilità di stabilizzarlo. Ciò è
possibile se tutti gli autovalori della parte non raggiungibile sono già asintoticamente stabili, e cioè, se tutti gli
autovalori della parte non raggiungibile sono a parte reale negativa, in caso di sistema a tempo continuo, oppure
sono con modulo minore di uno, per sistemi a tempo discreto.
In questo caso, la sintesi di un controllore in reazione statica dallo stato che modifichi gli autovalori della
parte raggiungibile può essere progettato seguendo il diagramma commutativo riportato in figura 6.1. Cioè,
si costruisce la forma standard di raggiungibilità Σ̄, con una prima trasformazione di coordinate descritta dai
nuovi vettori di base T̄ , poi si estrae il sottosistema raggiungibile Σ̄11 riducendo il sistema di partenza. Su
tale sistema si opera poi in modo classico, trasformando nelle coordinate di controllore con la matrice Tc ed
operando poi la retroazione (su un sistema di dimensione minore) Kc .
K
Σ
Σ
k
_
T
_
T
-1
_
_
Σ
Σ
k
Espansione
Riduzione
_
_
Σ11
k
Σ11
-1
T
c
_
Σ11,c
T
c
K
c
_
k
Σ11,c
Figura 6.1: Stabilizzazione di sistemi non raggiungibili
Dopo aver risolto il problema nelle coordinate di controllore per il sottosistema raggiungibile, si deve ricostruire la soluzione nelle coordinate originali, diverse per dimensione e vettori di base. Si tratti quindi di percorre
i tre passi seguenti: a) tornare alle coordinate della decomposizione di Kalman per mezzo della trasformazione
inversa Tc−1 , b) aumentare le dimensioni della matrice di retroazione, ad esempio aggiungendo un numero idoneo
di elementi nulli, ed infine c), tornare alle coordinate originali tramite la trasformazione inversa T̄ −1 .
Capitolo 6: Allocazione scalare
6.6
[Ed. 2015, V 4.0 - PV - UniPG] - 6-225
Esercizi risolti
Esercizio 6.1 Dato il sistema dinamico a tempo continuo




−2 1 −4
0
ẋ =  1 0 2  x +  1  u,
1 0 2
0
0 0 1 x,
y =
1. valutare la raggiungibilità e la controllabilità;
2. calcolare, se esiste, una legge di controllo in retroazione statica dallo stato che renda il sistema a ciclo
chiuso asintoticamente stabile;
3. determinare i poli della funzione di trasferimento del sistema a ciclo aperto e del sistema ottenuto al punto
precedente.
Soluzione.
Sistema dinamico a tempo continuo
ẋ =
y
=

−2 1
 1 0
1 0
0 0 1
1. valutare la raggiungibilità e la controllabilità.



−4
0
2  x +  1  u,
2
0
x,
Per valutare la raggiungibilità del sistema in esame, si deve valutare il rango della matrice di raggiungibilità:


0 1 −2
R = b Ab A2 g =  1 0 1 
0 0 1
il cui rango è tre, e quindi il sistema è raggiungibile. Il sistema è a tempo continuo, e quindi la raggiungibilità implica la controllabilità.
2. calcolare, se esiste, una legge di controllo in retroazione statica dallo stato che garantisca stabilità asintotica
per il sistema a ciclo chiuso.
L’esistenza di una legge legge di controllo in retroazione dallo stato, cioè del tipo:
u = Kx + v,
che garantisca stabilità asintotica del sistema a ciclo chiuso è garantita dalla raggiungibilità.
Per determinare la legge di controllo, si deve portare il sistema nella forma canonica di controllo ad un
ingresso. Si deve quindi trovare un vettore riga h, con tre componenti, soluzione del sistema di equazioni:

 

hb
0
 h Ab  =  0 
h A2 b
1
ed ottenibile, ad esempio, scegliendo h pari all’ultima

0
R−1 =  1
0
da cui si ricava:
h=
riga dell’inversa della matrice di raggiungibilità:

1 −1
0 2 ,
0 1
0 0
1
,
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-226
e quindi, per la matrice che caratterizza le nuove coordinate, si ottiene:




h
0 0 1
−2 1
T −1 =  hA   1 0 2  , T =  0 0
hA2
0 1 0
1 0
In queste nuove coordinate il sistema è descritto dalle matrici:




0 1 0
0
Ac = T −1 AT =  0 0 1  , gc = T −1 b =  0  ,
0 1 0
1

0
1 .
0
hc = hT =
1
0 0
.
A partire dalla forma canonica di controllore è immediato trovare la matrice di retroazione che consente di
allocare tutti gli autovalori in modo che il sistema a ciclo chiuso sia asintoticamente stabile. Ad esempio,
polinomio caratteristico desiderato può essere scelto pari a p(λ) = (λ + 1)3 = λ3 + 3λ2 + 3λ + 1. La matrice
di retroazione, nelle coordinate di controllore, deve essere scelta pari a:
kc = (0 − 1) (−1 − 3) (0 − 3) = −1 −4 −3 ,
cui corrisponde, nelle coordinate originali, la matrice:
k = kc T −1 = −4
−3 −9
.
La matrice che descrive la dinamica del sistema a ciclo chiuso è quindi (sebbene non richiesta):


−2 1 −4
A + bkf =  −3 −3 −7 
1
0
2
i cui autovalori sono tutti in −1, come desiderato.
3. determinare la funzione di trasferimento del sistema a ciclo aperto e del sistema a ciclo chiuso.
Le due funzioni di trasferimento possono essere determinate in modo immediato, ricordando che sistemi
algebricamente equivalenti hanno la stessa funzione di trasferimento. Dalla forma canonica di controllore
segue quindi, per il sistema a ciclo aperto:
w(s) =
1
,
s3 − s
(6.18)
mentre per il sistema a ciclo chiuso si trova:
w(s) =
s3
+
1
.
+ 3s + 1
3s2
(6.19)
Esercizio 6.2 Dato il seguente sistema dinamico a tempo continuo:
ẋ1
= x2
ẋ2
= x3
ẋ3
= x1 + x2 − x3 + u
y
= αx1 + x2 ,
1. valutare la stabilità interna ed esterna, al variare del parametro reale α;
2. fissato α = 1, determinare, se possibile, un segnale di controllo in retroazione statica dallo stato tale che,
per il sistema a ciclo chiuso, la risposta permanente in uscita per il segnale v(t) = δ−1 (t) + sin(20t) sia
caratterizzata da una attenuazione del termine sinusoidale pari almeno ad un fattore 100.
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-227
Traccia della soluzione.
Stabilità
- la stabilità interna si valuta con il segno degli autovalori. Poiché il sistema ha un autovalore con parte
reale positiva, è internamente instabile. - la stabilità esterna si valuta con il segno dei poli. Per α = −1 si ha
cancellazione dell’autovalore a parte reale positiva, e quindi il sistema è esternamente stabile, per tutti gli altri
valori di α si ha un polo pari a p = +1, e quindi il sistema non è stabile esternamente (non è stabile in senso
BIBO).
Sintesi
Una attenuazione di almeno 100 volte corrisponde, nel diagramma di Bode, ad una attenuazione di almeno
40dB. Si può ottenere il comportamento desiderato (attenuazione di almeno 40dB) ponendo due poli coincidenti
in p = −1. In tal modo il diagramma in corrispondenza di ω = 10 rad/sec è attenuato di 40dB, ed in
corrispondenza di ω = 20rad/sec (come richiesto) è attenuato di una quantità maggiore. Per ottenere due poli
in p = −1, dobbiamo allocare tre autovalori in λ = −1, per via dell’equazione di uscita, che introduce uno zero
nella stessa posizione.
Scelto il polinomio desiderato, la matrice K può essere progettata tramite la formula K = [a0 − p0 , a1 −
p1 , a2 − p2 ].
6.7
Esercizi proposti
Esercizio 6.3 Dato il sistema dinamico a tempo continuo

ẋ
y

−1 1 0
A =  1 2 0 ,
1 0 1
a) determinare la forma canonica di controllore;
= Ax + bu
= cx,


1
b =  0 ,
0
c=
1 0
1
,
b) calcolare una retroazione dallo stato che assegni come nuovi autovalori i numeri {−1, −2, −3};
c) calcolare gli zeri della funzione di trasferimento.
Esercizio 6.4 Dato il sistema a tempo continuo




−1 5
27
−2
ẋ =  −1 −5 −16  x +  1  u,
1
2
3
0
(6.20)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a
ciclo chiuso in {−2, −2, −2}.
Esercizio 6.5 Dato il sistema a tempo continuo




−1 5
9
−4
ẋ =  −1 −3 −4  x +  2  u,
1
2
1
0
(6.21)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a
ciclo chiuso in {−1, −2, −2}.
Esercizio 6.6 Dato il sistema a tempo continuo




2
13
26
−2
ẋ =  −1 −7 −14  x +  1  u,
0
1
3
0
(6.22)
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-228
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a
ciclo chiuso in {−1, −1, −1}.
Esercizio 6.7 Dato il sistema a tempo continuo




4
6
4
−1
ẋ =  −4 −7 −4  x +  1  u,
0
1
1
0
(6.23)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a
ciclo chiuso in {−1, −2, −3}.
Esercizio 6.8 Dato il sistema a tempo discreto




8
23
21
−1
x(k + 1) =  −4 −12 −11  x(k) +  1  u(k),
−2
1
0
0
(6.24)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a
ciclo chiuso in {1/2, 1/2, 1/2}.
Esercizio 6.9 Dato il sistema a tempo discreto

−3 −2
x(k + 1) =  3
3
−1 −1
a) studiare la raggiungibilità e la controllabilità;



−2
3
4  x(k) +  −3  u(k),
−1
1
(6.25)
b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a
ciclo chiuso in {1/3, 1/3, 1/3}.
Esercizio 6.10 Dato il sistema a tempo continuo




9
28
67
3
ẋ =  −9 −27 −65  x +  −3  u,
3
9
22
1
(6.26)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a
ciclo chiuso in {−3, −3, −2}.
Esercizio 6.11 Dato il sistema a tempo continuo




4
11
5
2
ẋ =  −2 −5 −2  x +  −1  u,
2
5
3
1
(6.27)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a
ciclo chiuso in {−2, −2, −1}.
Esercizio 6.12 Dato il sistema a tempo continuo




8
21
8
4
ẋ =  −4 −10 −3  x +  −2  u,
2
5
2
1
(6.28)
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-229
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a
ciclo chiuso in {−2, −1, −1}.
Esercizio 6.13 Dato il sistema a tempo continuo




2 −1 2
1
ẋ =  1 −2 −2  x +  0  u,
0 1
2
0
(6.29)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale rendere il polinomio caratteristico del
sistema a ciclo chiuso uguale a p(λ) = 2λ3 + 8λ2 + 10λ + 4.
Stabilizzazione e tempo di risposta finito.
Esercizio 6.14 Dato il sistema a tempo continuo

−2 −2
1
ẋ =  0
0
1
a) studiare la raggiungibilità e la controllabilità;



−8
0
3  x +  1  u,
2
0
(6.30)
b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso.
Esercizio 6.15 Dato il sistema a tempo discreto

0 −1
x(k + 1) =  0 −2
0 1
a) studiare la raggiungibilità;



−3
0
−4  x(k) +  1  u(k),
3
0
(6.31)
b) studiare la controllabilità con due diversi criteri;
c) determinare, se esiste, un controllore a tempo di risposta finito.
Esercizio 6.16 Dato il sistema a tempo discreto




0 1 −1
0
x(k + 1) =  0 4 −2  x(k) +  1  u(k),
0 1 −1
0
(6.32)
a) studiare la raggiungibilità;
b) studiare la controllabilità con due diversi criteri;
c) determinare, se esiste, un controllore a tempo di risposta finito.
Esercizio 6.17 Dato il sistema a tempo discreto




6 −11 8
2
x(k + 1) =  3 −6 3  x(k) +  1  u(k),
0
0
0
0
a) studiare la raggiungibilità;
b) studiare la controllabilità con due diversi criteri;
(6.33)
Capitolo 6: Allocazione scalare
[Ed. 2015, V 4.0 - PV - UniPG] - 6-230
c) determinare, se esiste, un controllore a tempo di risposta finito.
Esercizio 6.18 Dato il sistema a tempo continuo




3 −1 1
1
ẋ =  3 −2 0  x +  1  u,
0 0 −2
0
(6.34)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso.
Esercizio 6.19 Dato il sistema a tempo discreto

1 1
x(k + 1) =  1 0
0 0
a) studiare la raggiungibilità e la controllabilità;



−1/2
1
0  x(k) +  1  u(k),
−1/2
0
(6.35)
b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso.
Esercizio 6.20 Dato il sistema a tempo discreto

−1/2 −3
x(k + 1) =  1/4 −1
3/4
3
a) studiare la raggiungibilità e la controllabilità;



−9/2
−1
−3/4  x(k) +  0  u(k),
19/4
1
(6.36)
b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso.
Esercizio 6.21 Dato il sistema a tempo continuo




1 −6 −12
−3
ẋ =  0 −4 −9  x +  −2  u,
0 2
5
1
(6.37)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso.
Esercizio 6.22 Dato il sistema a tempo continuo




−1 6 −21
−3
ẋ =  0 −4 11  x +  2  u,
0 −2
6
1
(6.38)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso.
Esercizio 6.23 Dato il sistema a tempo discreto




−5 −14 −52
−5
x(k + 1) =  −3 −9 −33  x(k) +  −3  u(k),
1
3
11
1
(6.39)
a) studiare la raggiungibilità e la controllabilità;
b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso.
Capitolo 7: Osservabilità
[Ed. 2015, V 4.0 - PV - UniPG] - 7-231
Capitolo 7
Proprietà strutturali: Osservabilità
7.1
Introduzione
Il problema affrontato in questo capitolo è relativo alla determinazione dello stato interno di un sistema
dinamico a partire dalla conoscenza dei segnali di ingresso ed uscita su un dato intervallo finito di tempo.
Il problema riveste notevole importanza applicativa in tutte le situazioni in cui vi sia interesse a conoscere
l’andamento di grandezze non accessibili per la misura, per ragioni fisiche, oggettive, o per scelte progettuali.
La soluzione di tale problema richiede, preliminarmente, lo studio delle proprietà strutturali di osservabilità
e ricostruibilità, che risultano essere duali rispetto alle proprietà di raggiungibilità e controllabilità, già viste in
precedenza. Il problema di osservabilità può essere posto, formalmente, nel seguente modo.
Problema 7.1 (Osservabilità) Dato un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto, e
dato un istante di tempo T , determinare condizioni sotto le quali sia possibile calcolare lo stato iniziale del sistema
x(0) sulla base della conoscenza del segnale di ingresso u(t), t ∈ [0, T ] e del segnale di uscita y(t), t ∈ [0, T ]
sull’intervallo finito di tempo [0, T ].
Il concetto di ricostruibilità è relativo alla possibilità di determinare lo stato finale di un sistema, note le
funzioni di ingresso ed uscita su un intervallo finito di tempo.
Problema 7.2 (Ricostruibilità) Dato un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto,
e dato un istante di tempo T , determinare condizioni sotto le quali sia possibile calcolare lo stato finale del sistema
x(T ) sulla base della conoscenza del segnale di ingresso u(t), t ∈ [0, T ] e del segnale di uscita y(t), t ∈ [0, T ]
sull’intervallo finito di tempo [0, T ].
7.2
Osservabilità
Lo studio della proprietà di osservabilità si basa sul concetto di indistinguibilità tra due stati. Sia η(t, x0 , u(·))
la risposta completa in uscita di un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto. La
nozione di indistinguibilità è relativa alla possibilità di discriminare tra due stati distinti sulla base della risposta
completa in uscita, per uno stesso segnale di ingresso (si veda, tra l’altro, [33, 34, 35]).
Definizione 7.1 Due stati xa ed xb di un sistema dinamico Σ(A, B, C) (a tempo continuo o a tempo discreto),
si dicono indistinguibili nell’intervallo [0, T ] se, per ogni funzione di ingresso u(·), le risposte complete in
uscita coincidono:
y(t, xa , u(·)) = y(t, xb , u(·)), ∀t ∈ [0, T ].
(7.1)
Per estensione, due stati di dicono indistinguibili (senza riferimento specifico ad un intervallo temporale), se
sono indistinguibili in qualsiasi intervallo di durata non nulla. Per quanto concerne l’intero sistema, si parla di
sistema osservabile se, per tale sistema, non esistono coppie di stati indistinguibili.
Definizione 7.2 (Sistema osservabile) Un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto, si dice osservabile se non esistono coppie di stati tra loro indistinguibili.
Capitolo 7: Osservabilità
[Ed. 2015, V 4.0 - PV - UniPG] - 7-232
Intuitivamente, se due stati non sono indistinguibili, dall’analisi della coppia di funzioni ingresso ed uscita
potrebbe essere possibile calcolare lo stato iniziale, cioè, osservare lo stato iniziale.
Si consideri ora il caso di un sistema a tempo continuo. La risposta completa in uscita è data da:
Z t
y(t, x0 , u(·)) = Ce At x0 + C
e A(t−τ ) Bu(τ )d τ,
(7.2)
0
e quindi la condizione di indistinguibilità tra due punti xa ed xb diviene:
Z t
Z t
At
A(t−τ )
At
Ce xa + C
e
Bu(τ )d τ = Ce xb + C
e A(t−τ ) Bu(τ )d τ, ∀t ∈ [0, T ].
0
(7.3)
0
In virtù della linearità del sistema, i due termini che descrivono le risposte forzate in uscita coincidono.
Inoltre, nei sistemi a tempo continuo (per l’analiticità delle funzioni coinvolte), se una uguaglianza del tipo
precedente vale su un’intervallo finito di tempo [0, T ], allora vale per ogni valore non nullo di T . La condizione
di indistinguibilità diviene quindi:
Ce At xa = Ce At xb , ∀t ≥ 0,
(7.4)
e quindi:
Ce At (xa − xb ) = 0,
∀t ≥ 0.
(7.5)
Una coppia di stati xa ed xb sono quindi stati indistinguibili per un sistema a tempo continuo se la loro differenza
appartiene al kernel della matrice Ce At , matrice della risposta libera in uscita, per tutti i tempi.
Si consideri ora il caso in cui uno dei punti, ad esempio xb , sia l’origine. In tal caso, il concetto di indistinguibilità dall’origine viene sinteticamente indicato con non osservabilità: uno stato xa è non osservabile se è
indistinguibile dall’origine. In base alla relazione precedente lo stato xa è non osservabile se appartiene al kernel
della matrice della risposta libera in uscita:
Ce At xa = 0,
∀t ≥ 0.
(7.6)
Utilizzando la definizione di esponenziale di matrice, la condizione precedente diviene:
C
∞
X
Ai ti
i=0
i!
xa = 0, ∀t ≥ 0,
(7.7)
che corrisponde ad un polinomio di grado infinito nella variabile t, identicamente nullo:
Cxa + CAxa t + CA2 xa
tk
t2
+ · · · + CAk xa + · · · = 0,
2
k!
∀t ≥ 0.
(7.8)
Per il principio di identità dei polinomi (e cioè, per il concetto di indipendenza lineare in spazi vettoriali), tale
polinomio può essere identicamente nullo se, e solo se, tutti i suoi coefficienti sono nulli:
Cxa
= 0
CAxa
CA2 xa
..
.
= 0
= 0
CAk xa
..
.
= 0
In virtù del teorema di Cayley-Hamilton, la nullità dei primi n coefficienti implica la nullità di tutti gli altri.
La condizione di non osservabilità del punto xa diviene quindi, in forma matriciale:


C
 CA 


(7.9)
 xa = 0.

..


.
CAn−1
Capitolo 7: Osservabilità
[Ed. 2015, V 4.0 - PV - UniPG] - 7-233
La matrice che compare nella relazione precedente è detta matrice di osservabilità, e sarà indicata con il simbolo
O:


C
 CA 


O=
(7.10)
.
..


.
CAn−1
Dato un sistema dinamico a tempo continuo Σ(A, B, C), il nucleo della matrice di osservabilità descrive il
sottospazio degli stati non osservabili, X N O , cioè, il sottospazio di tutti gli stati che danno luogo ad una risposta
libera in uscita identicamente nulla, e quindi indistinguibile da quella relativa alla condizione iniziale nulla:
X N O = ker(O).
(7.11)
Si noti bene come ciò implichi il fatto importante che, se un sistema ammette un sottospazio di stati non
osservabili non vuoto, non sarà mai possibile osservare lo stato iniziale, poiché esistono infiniti punti che danno
luogo alla stessa risposta libera. In altri termini, per ogni stato iniziale, ne esistono infiniti altri, tutti quelli in
X N O , che danno luogo alla stessa risposta libera. Di conseguenza, fissato un qualsiasi punto x̄ dello spazio di
stato, tutti i punti del tipo x̄ + xno , xno ∈ X N O , sono indistinguibili da x̄.
Da tali considerazioni emerge che un sistema dinamico è osservabile se e solo se il sottospazio degli stati
non osservabili è vuoto. Ciò accade se la nullità della matrice di osservabilità è zero, e quindi se il suo rango è
massimo, come sintetizzato nel criterio presentato nel seguente teorema:
Teorema 7.1 (Criterio di osservabilità) Un sistema dinamico (lineare e stazionario) a tempo continuo
Σ(A, B, C) è osservabile se e solo se


C
 CA 


rango 
(7.12)
 = n.
..


.
CAn−1
Lo studio della proprietà di osservabilità e dell’associato concetto di indistinguibilità può essere condotto
in modo del tutto analogo, e formalmente più agevole, per i sistemi a tempo discreto, giungendo al seguente
criterio di osservabilità, identico a quello relativo ai sistemi a tempo continuo:
Teorema 7.2 (Criterio di osservabilità) Un sistema dinamico (lineare e stazionario) a tempo discreto Σ(A, B, C)
è osservabile se e solo se


C
 CA 


rango 
(7.13)
 = n.
..


.
CAn−1
7.3
Dualità
La proprietà strutturali relative al legame stato-uscita sono in relazione di dualità con le proprietà strutturali relative al legame ingresso-stato. In particolare, la proprietà di osservabilità è duale della proprietà di
raggiungiblità.
Si consideri un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto, e si definisca sistema
duale il sistema dinamico ΣD (AD , B D , C D ) descritto dalle matrici:
AD := AT ,
B D := C T ,
C D := B T ,
(7.14)
ottenuto insomma “trasponendo” il sistema originale (“primale”). Si consideri ora la matrice di osservabilità
del sistema primale e la matrice di raggiungibilità del sistema duale:


C
 CA 


O=
 , RD = B D AD B D · · · (AD )n−1 B D = C T AT C T · · · (AT )n−1 C T
..


.
CAn−1
(7.15)
Capitolo 7: Osservabilità
[Ed. 2015, V 4.0 - PV - UniPG] - 7-234
È immediato vedere come la matrice di osservabilità del primale coincida con la trasposta della matrice di
raggiungibilità del duale. Ne segue che il sistema primale è osservabile se e solo se il sistema duale è raggiungibile.
In modo del tutto analogo si può affermare che il sistema primale è raggiungibile se e solo se il sistema duale è
osservabile.
La nozione di dualità consente di estendere il modo immediato risultati e tecniche utilizzate per lo studio
della raggiungibilità allo studio dell’osservabilità. Un esempio è dato dalla forma standard di osservabilità, o
decomposizione di Kalman rispetto alla osservabilità.
Si consideri un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto, non osservabile. Per
il sistema duale, non raggiungibile, può essere costruita la forma standard di raggiungibilità, che può essere
utilizzata, per “trasposizione”, per determinare la forma standard di osservabilità del sistema primale. Indicato
con ρ il rango della matrice di osservabilità, tale forma è descritta nel seguente teorema
Teorema 7.3 (Decomposizione di Kalman rispetto alla osservabilità) Se il sistema Σ = (A, B, C) non
è osservabile, esiste una trasformazione di coordinate nello spazio di stato x̄ = T −1 x, tale che il sistema, nelle
nuove coordinate, è descritto dalle matrici:
B̄1
Ā1,1
0
−1
−1
, C̄ = CT = C̄1 0 ,
(7.16)
, B̄ = T B =
Ā = T AT =
B̄2
Ā2,1 Ā2,2
in cui i blocchi Ā1,1 e Ā2,2 sono matrici quadrate, di dimensione ρ × ρ e (n − ρ) × (n − ρ), rispettivamente, con ρ
pari al rango della matrice di raggiungibilità, ed i blocchi Ā2,1 , B̄1 , B̄2 e C̄1 sono di dimensioni corrispondenti.
Inoltre, il sottosistema Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) è osservabile.
Il calcolo della matrice di trasformazione T −1 può essere condotto costruendo la decomposizione rispetto
alla raggiungibilità del sistema duale.
Una proprietà fondamentale del sottosistema osservabile è quella di essere il solo a caratterizzare la matrice
di trasferimento dell’intero sistema, come affermato nel seguente teorema.
Teorema 7.4 Sia Σ = (A, B, C) un sistema non osservabile, e sia Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) il sottosistema osservabile ottenuto dalla decomposizione canonica di Kalman rispetto alla osservabilità. Allora, i due sistemi Σ e Σ̄1
hanno la stessa matrice di trasferimento:
C(sI − A)−1 B = C̄1 (sI − Ā1,1 )−1 B̄1
(7.17)
▽
Il teorema precedente implica che gli autovalori della matrice Ā2,2 non compaiono come poli della matrice
di trasferimento del sistema Σ.
Si noti come, nel caso generale, possa essere condotta una decomposizione rispetto ad entrambe le proprietà
strutturali di raggiungibilità ed osservabilità; tale decomposizione è detta decomposizione di Kalman. Nel caso
generale, quindi, il teorema precedente si estende, affermando che la matrice di trasferimento di un assegnato
sistema dinamico dipende solo dal sottosistema raggiungibile ed osservabile. Tale sottosistema può essere
ottenuto, ad esempio, costruendo in sequenza la forma di raggiungibilità e poi quella di osservabilità. Il seguente
teorema sintetizza il risultato.
Teorema 7.5 (Decomposizione di Kalman) Sia dato il sistema Σ = (A, B, C), non raggiungibile e non
osservabile. Allora, esiste una trasformazione di coordinate nello spazio di stato x̄ = T −1 x, tale che il sistema,
nelle nuove coordinate, risulta descritto dalle matrici:




Ā1,3
0
B̄1
Ā1,1
0


 Ā2,1 Ā2,2 Ā2,3 Ā2,4 
 , B̄ = T −1 B =  B̄2  , C̄ = CT = C̄1 0 C̄3 0 ,
Ā = T −1 AT = 
 0 
 0
Ā3,3
0 
0
0
0
Ā4,3 Ā4,4
0
(7.18)
in cui i blocchi diagonali Āi,i sono matrici quadrate di dimensione opportune e gli altri blocchi non nulli Āi,j ,
i 6= j sono di dimensioni corrispondenti.
Inoltre, il sottosistema Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) è il sottosistema sia raggiungibile sia osservabile.
▽
Capitolo 7: Osservabilità
[Ed. 2015, V 4.0 - PV - UniPG] - 7-235
Analogamente ai casi particolari visti sopra, vale il seguente teorema sulla matrice di trasferimento.
Teorema 7.6 Sia Σ = (A, B, C) un sistema non raggiungibile e non osservabile, e sia Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) il
sottosistema raggiungibile e osservabile ottenuto dalla decomposizione canonica di Kalman. Allora, i due sistemi
Σ e Σ̄1 hanno la stessa matrice di trasferimento:
C(sI − A)−1 B = C̄1 (sI − Ā1,1 )−1 B̄1
(7.19)
▽
Capitolo 7: Osservabilità
7.4
7.4.1
[Ed. 2015, V 4.0 - PV - UniPG] - 7-236
Esercizi
Sistemi a singola uscita, tempo discreto
Esercizio 7.1 Dato il sistema dinamico a tempo

−1
x(k + 1) =  −1
1
0 1
y(k) =
a) valutare l’osservabilità e la ricostruibilità;
discreto



5
27
−2
−5 −16  x(k) +  1  u(k)
2
3
0
5 ,
b) data la sequenza di uscita y(0) = 7, y(1) = 13, y(2) = 1 ed assumendo ingresso identicamente nullo,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = 2 e quella di uscita y(0) = 7, y(1) = 14, y(2) = 0, osservare lo
stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.2 Dato il sistema dinamico a tempo

−1
x(k + 1) =  −1
1
1 2
y(k) =
a) valutare l’osservabilità e la ricostruibilità;
discreto



5
27
−1
−5 −16  x(k) +  1  u(k)
2
3
0
4 ,
b) data la sequenza di uscita y(0) = 9, y(1) = 14, y(2) = 11 ed assumendo ingresso identicamente nullo,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = 2 e quella di uscita y(0) = 4, y(1) = 6, y(2) = 14, osservare lo
stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
d) verificare se la sequenza di uscita y(0) = −1, y(1) = 1, y(2) = −1, y(3) = 1, y(4) = −1 è ottenibile in
evoluzione libera, ed in caso affermativo osservare lo stato iniziale che la produce.
Esercizio 7.3 Dato il sistema dinamico a tempo discreto




−5 −3 4
−1
x(k + 1) =  2
1 −2  x(k) +  1  u(k)
1
2
1
0
1 2 1 ,
y(k) =
a) valutare l’osservabilità e la ricostruibilità;
b) data la sequenza di uscita y(0) = 1, y(1) = −1, y(2) = 4 ed assumendo ingresso identicamente nullo,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = 1, y(1) = 2, y(2) = 0, osservare
lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.4 Dato il sistema dinamico a tempo discreto




−2 1 −5
−2
x(k + 1) =  4 −3 10  x(k) +  2  u(k)
1
0
2
1
0 0 −1 ,
y(k) =
a) valutare l’osservabilità e la ricostruibilità;
Capitolo 7: Osservabilità
[Ed. 2015, V 4.0 - PV - UniPG] - 7-237
b) data la sequenza di uscita y(0) = 1, y(1) = 1, y(2) = −2 ed assumendo ingresso identicamente nullo,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = 1, y(1) = 2, y(2) = −1, osservare
lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.5 Dato il sistema dinamico a tempo discreto




−2 0 −4
1
x(k + 1) =  −2 0 −6  x(k) +  1  u(k)
1 0 3
0
0 0 1 ,
y(k) =
a) valutare l’osservabilità e la ricostruibilità;
b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non
osservabile;
c) data la sequenza di uscita y(0) = −1, y(1) = −2, y(2) = −4 ed assumendo ingresso identicamente nullo,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
d) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = −1, y(1) = −4, y(2) = −5,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.6 Dato il sistema dinamico a tempo discreto




0 0 −1
1
x(k + 1) =  0 −2 −5  x(k) +  −2  u(k)
0 1
3
1
0 1 3 ,
y(k) =
a) valutare l’osservabilità e la ricostruibilità;
b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non
osservabile;
c) data la sequenza di uscita y(0) = −2, y(1) = −3, y(2) = −5 ed assumendo ingresso identicamente nullo,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
d) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = −2, y(1) = −2, y(2) = −4,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.7 Dato il sistema dinamico a tempo discreto




3
6
6
−1
x(k + 1) =  −1 −2 −2  x(k) +  1  u(k)
1
2
1
0
1 2 2 ,
y(k) =
a) valutare l’osservabilità e la ricostruibilità;
b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non
osservabile;
c) data la sequenza di uscita y(0) = 1, y(1) = 5, y(2) = 1 ed assumendo ingresso identicamente nullo, osservare
lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
d) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = −1, y(1) = 0, y(2) = −1, osservare
lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Capitolo 7: Osservabilità
[Ed. 2015, V 4.0 - PV - UniPG] - 7-238
Esercizio 7.8 Dato il sistema dinamico a tempo discreto
x(k + 1) =
y(k)
=
001 − 11 − 11 − 11
0
a) valutare l’osservabilità e la ricostruibilità;
0 1
,


1
x(k) +  1  u(k)
0
b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non
osservabile;
c) data la sequenza di uscita y(0) = −1, y(1) = 0, y(2) = −1 ed assumendo ingresso identicamente nullo,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
d) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = −1, y(1) = −2, y(2) = −5,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.9 Dato il sistema dinamico a tempo discreto




5
5
6
0
x(k + 1) =  −5 −5 −5  x(k) +  1  u(k)
3
3
3
0
1 1 2 ,
y(k) =
a) valutare l’osservabilità e la ricostruibilità;
b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non
osservabile;
c) data la sequenza di uscita y(0) = −1, y(1) = −1, y(2) = −6 ed assumendo ingresso identicamente nullo,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
d) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = −3, y(1) = −12, y(2) = −42,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
7.4.2
Sistemi a due uscite, tempo discreto
Esercizio 7.10 Dato il sistema dinamico a tempo discreto




0
0
1
1
x(k + 1) =  −1 1 −1  x(k) +  1  u(k)
1 −1 1
0
0 0 1
y(k) =
,
1 0 3
a) valutare l’osservabilità e la ricostruibilità;
b) data la sequenza di uscita y(0) = [−1 − 2]T , y(1) = [−1 − 4]T , y(2) = [−3 − 10]T ed assumendo ingresso
identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = [−1 − 4]T , y(1) = [−3 − 9]T ,
y(2) = [−7 − 25]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.11 Dato il sistema dinamico a tempo discreto




1 0 3
−1
x(k + 1) =  0 1 1  x(k) +  0  u(k)
1 −1 1
1
1 −1 2
y(k) =
,
1 0 2
Capitolo 7: Osservabilità
[Ed. 2015, V 4.0 - PV - UniPG] - 7-239
a) valutare l’osservabilità e la ricostruibilità;
b) data la sequenza di uscita y(0) = [0 1]T , y(1) = [0 1]T , y(2) = [0 1]T ed assumendo ingresso identicamente
nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [−3 − 3]T , y(1) = [−6 − 7]T ,
y(2) = [−16 − 18]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.12 Dato il sistema dinamico a tempo

1
x(k + 1) =  0
1
1
y(k) =
0
discreto



1 4
1
1 1  x(k) +  1  u(k)
−1 1
0
−1 2
,
1 1
a) valutare l’osservabilità e la ricostruibilità;
b) data la sequenza di uscita y(0) = [4 3]T , y(1) = [11 5]T , y(2) = [34 14]T ed assumendo ingresso identicamente
nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [−3 − 1]T , y(1) = [−8 − 2]T ,
y(2) = [−2 − 8]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.13 Dato il sistema dinamico a tempo discreto




1
3 −4
−2
x(k + 1) =  −1 −3 3  x(k) +  1  u(k)
0 −1 2
1
1 0 2
y(k) =
,
0 0 1
a) valutare l’osservabilità e la ricostruibilità;
b) data la sequenza di uscita y(0) = [1 0]T , y(1) = [2 − 1]T , y(2) = [0 2]T ed assumendo ingresso identicamente
nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = 2 e quella di uscita y(0) = [−1 − 1]T , y(1) = [1 − 1]T ,
y(2) = [0 3]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.14 Dato il sistema dinamico a tempo discreto




2
5
0
1
x(k + 1) =  −1 −1 −2  x(k) +  0  u(k)
0 −3 3
0
0 −1 2
y(k) =
,
1 1 2
a) valutare l’osservabilità e la ricostruibilità;
b) data la sequenza di uscita y(0) = [−3 − 1]T , y(1) = [−13 − 6]T , y(2) = [−48 − 21]T ed assumendo ingresso
identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [−3 − 2]T , y(1) = [−14 − 6]T ,
y(2) = [−54 − 24]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.15 Dato il sistema dinamico a tempo discreto




0
3 0
0
3 0  x(k) +  0  u(k)
x(k + 1) =  1
−1 −6 0
1
1 1 0
y(k) =
,
1 0 0
Capitolo 7: Osservabilità
[Ed. 2015, V 4.0 - PV - UniPG] - 7-240
a) valutare l’osservabilità e la ricostruibilità;
b) data la sequenza di uscita y(0) = [1 0]T , y(1) = [6 3]T , y(2) = [21 9]T ed assumendo ingresso identicamente
nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [0 − 1]T , y(1) = [5 3]T ,
y(2) = [15 6]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
Esercizio 7.16 Dato il sistema dinamico a tempo discreto




−3 −11 2
−3
x(k + 1) =  2
6
0  x(k) +  1  u(k)
1
4
−1
1
1 3 0
y(k) =
,
0 1 −1
a) valutare l’osservabilità e la ricostruibilità;
b) data la sequenza di uscita y(0) = [3 2]T , y(1) = [5 1]T , y(2) = [13 4]T ed assumendo ingresso identicamente
nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile;
c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [2 2]T , y(1) = [2 0]T , y(2) = [6 2]T ,
osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile.
7.4.3
Sistemi a singola uscita, tempo continuo
Esercizio 7.17 Dato il sistema dinamico a tempo continuo




7
11
2
−3
ẋ =  −2 −3 0  x +  1  u
−3 −5 −1
1
1 1 2 ,
y =
a) valutare l’osservabilità e la ricostruibilità;
b) determinare la decomposizione rispetto alla osservabilità;
c) valutare la funzione di trasferimento del sistema complessivo, quella del sottosistema osservabile, verificare
i poli del sistema ed i suoi autovalori, confrontare poli, zeri ed autovalori.
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-241
Capitolo 8
Osservatori asintotici dello stato e
regolatori in retroazione dall’uscita per
sistemi scalari
8.1
Introduzione
In questo capitolo viene trattato il tema del progetto di osservatori asintotici dello stato ed il loro uso per il
progetto di regolatori in retroazione dall’uscita. Il tema viene affrontato solo per sistemi scalari (cioè sistemi
con un solo ingresso ed una sola uscita), indifferentemente a tempo continuo o a tempo discreto.
Il capitolo si conclude con un esercizio di riepilogo, con la discussione di alcuni problemi di controllo ed
infine con esercizi proposti.
8.2
Osservatori asintotici dello stato
In molte applicazioni di interesse ingegneristico è importante poter stimare il comportamento di grandezze
fisiche non direttamente accessibili, a partire da altre grandezze, misurabili e funzionalmente correlate con quelle
di interesse. Nel caso in cui il legame tra le grandezze misurabili e quelle di interesse possa essere descritto
tramite un sistema dinamico, a tempo continuo o a tempo discreto, si può tentare di risolvere il problema della
stima utilizzando un osservatore asintotico dello stato.
Si consideri il seguente sistema dinamico:
∆x
y
=
=
Ax + bu,
cx
(8.1a)
(8.1b)
dx
nel caso di sistemi a tempo continuo, ed
dt
indica invece l’operatore di anticipo temporale, cioè ∆x := x(t + 1) nel caso di sistemi a tempo discreto.
Un osservatore asintotico dello stato è un dispositivo in grado di generale una stima x̂ dello stato del sistema,
che converga asintoticamente allo stato stesso, sull base della conoscenza dell’ingresso u(·) e dell’uscita y(·) del
sistema stesso, e delle matrici che lo descrivono. Formalmente, il problema può essere posto nel modo seguente:
in cui l’operatore ∆ indica la derivata temporale, cioè ∆x :=
Problema 8.1 (Osservatore asintotico) Dato un sistema dinamico Σ(A, b, c), progettare un dispositivo che,
sulla base della conoscenza delle matrici del sistema e dei segnali u(·) ed y(·), generi una stima x̂ dello stato
asintoticamente convergente allo stato stesso, cioè:
lim kx̂(t) − x(t)k = 0.
t→∞
(8.2)
L’idea alla base del progetto di un osservatore è quella di costruire, utilizzando la conoscenza delle matrici
che descrivono il sistema, una replica del sistema di interesse, forzato dallo stesso segnale di ingresso u(·) che
forza il sistema stesso; lo stato interno di tale replica costituisce la stima cercata dello stato. Un osservatore
per il sistema (8.1) potrebbe essere quindi il sistema dinamico seguente:
∆x̂ = Ax̂ + bu.
(8.3)
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-242
Per valutare il comportamento dello stimatore, si può studiare l’evoluzione dell’errore di stima x̃, definito
come differenza tra il valore reale dello stato e la sua stima:
x̃(t) := x̂(t) − x(t).
(8.4)
La dinamica dell’errore di stima, cioè le equazioni che governano il comportamento dell’errore, sono date da:
∆x̃ = ∆x̂ − ∆x = Ax̂ + bu − Ax − bu = Ax̃.
(8.5)
La dinamica di errore è quindi descritta da un sistema in evoluzione libera, con matrice dinamica data dalla
stessa matrice dinamica A del sistema. Se il sistema è asintoticamente stabile, la dinamica d’errore sarà anch’essa
asintoticamente stabile, e quindi (8.3) produce, asintoticamente, una stima corretta dello stato, altrimenti la
stima non sarà corretta.
Per ovviare a tale potenziale problema di stabilità, e per consentire di variare la velocità di convergenza
dell’errore di stima, si ricorrere ad una versione estesa dello schema (8.3). In particolare, l’estensione principale
consiste nell’utilizzare anche la misura dell’uscita, per correggere la stima dello stato sulla base dell’errore
rilevabile in uscita. Lo schema precedente viene quindi integrato nella seguente forma:
∆x̂ = Ax̂ + bu + L(cx̂ − y),
(8.6)
in cui il termine aggiuntivo L(cx − y) prende il nome di iniezione dell’uscita. Lo schema (8.6) prende il nome
di osservatore asintotico dello stato.
Introdotto anche in questo caso l’errore di stima x̃ = x̂ − x, la sua dinamica è data da:
∆x̃ = ∆x̂ − ∆x = Ax̂ + bu + L(cx̂ − y) − Ax − bu = (A + Lc)x̃.
(8.7)
Si vede quindi come la convergenza dell’errore di stima dipenda ora dagli autovalori della matrice (A + Lc),
in cui la matrice L è un parametro di progetto. Se tale matrice può essere scelta in modo da assegnare
arbitrariamente gli autovalori di (A + Lc), si può imporre una dinamica arbitraria all’errore di stima.
È facile vedere come la matrice (A + Lc) abbia, come duale, la matrice (AT + cT LT ) = (AD + bD k D ), che
è del tutto analoga alla matrice di un sistema Σ(AD , bD ) retroazionato staticamente dallo stato con matrice
di retroazione k D = LT : progettare un osservatore asintotico dello stato per un sistema equivale ad allocare
gli autovalori per il sistema duale. Ciò implica che la matrice L può essere calcolata seguendo la procedura di
allocazione degli autovalori, applicata al sistema duale.
Il problema del progetto di un osservatore è quindi risolto dal seguente teorema.
Teorema 8.1 (Osservatore asintotico) Dato un sistema dinamico Σ(A, b, c), esiste un osservatore asintotico
dello stato con dinamica di errore arbitrariamente veloce se e solo se tale sistema è osservabile. L’osservatore
asintotico è descritto dalle equazioni:
∆x̂ = Ax̂ + bu + L(cx̂ − y),
(8.8)
con L progettata opportunamente.
Commento 8.1 Si noti che il teorema 8.1 richiede la proprietà di osservabilità per poter costruire un osservatore
con dinamica d’errore arbitrariamente veloce. Viceversa, se si cerca una dinamica d’errore asintoticamente
stabile, senza interesse per la velocità di convergenza, la proprietà di osservabilità non è necessaria. In tale caso
è sufficiente che si possano rendere asintoticamente stabile gli autovalori non già tali. Tale proprietà è detta
“ricostruibilità”. In particolare, si noti che un osservatore asintotico senza specifiche sulla velocità di convergenza
(salvo, ovviamente, la convergenza stessa) per un sistema già asintoticamente stabile è semplicemente dato da
un osservatore in catena aperta, cioè un osservatore con matrice di iniezione nulla.
8.3
Regolatori dinamici
Una delle applicazioni rilevanti dell’osservatore asintotico è quella del progetto di regolatori in retroazione
dinamica dall’uscita. L’idea base presentata in queste note per tali regolatori è quella di utilizzare, in luogo
di una retroazione statica del tipo u = kx + v, una retroazione basata sulla stima x̂ dello stato fornito da un
osservatore, e cioè u = kx̂ + v. Per quanto concerne il progetto della matrice k e dell’osservatore, si procede
con gli algoritmi già visti. In particolare, la matrice k viene progettata come se fosse possibile utilizzare,
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-243
per la retroazione, l’intero vettore di stato. La retroazione viene invece applicata sulla base della stima dello
stato fornita dall’osservatore. L’osservatore invece viene progettato sulla base dell’idea delineata nel precedente
teorema 8.1, senza considerare il fatto che tale stima viene poi utilizzata per controllare il sistema.
È possibile mostrare che il regolatore che ne risulta, purchè il sistema sia raggiungibile (per poter progettare
la matrice k), ed osservabile (per poter progettare l’osservatore), risolve il problema. Vale infatti il seguente
teorema di separazione.
Teorema 8.2 (Teorema di separazione) Dato un sistema dinamico Σ(A, b, c), esiste un regolatore in retroazione
dinamica dall’uscita
∆x̂ =
u =
Ax̂ + bu + L(cx̂ − y),
kx̂ + v
(8.9a)
(8.9b)
che consenta di allocare arbitrariamente tutti gli autovalori del sistema a ciclo chiuso se e solo se il sistema
Σ(A, b, c) è raggiungibile e osservabile. Se tale regolatore esiste, il sistema a ciclo chiuso ha come autovalori
quelli della matrice
A + bk
0
.
(8.10)
0
A + Lc
Dimostrazione
Il sistema a ciclo chiuso è descritto dalle seguenti equazioni:
∆x =
Ax + bu,
(8.11)
y =
∆x̂ =
cx,
Ax̂ + bu + L(cx̂ − y),
(8.12)
(8.13)
u =
kx̂ + v.
(8.14)
Applicando il segnale di ingresso al sistema ed i segnali in ingresso al regolatore si ottiene:
∆x
= Ax + bkx̂ + bv,
(8.15)
∆x̂
y
= Ax̂ + bkx̂ + bv + L(cx̂ − cx),
= cx,
(8.16)
(8.17)
che può essere espresso in forma matriciale come:
∆x
A
bk
x
x
b
=
+
+ be v,
v = Ae
∆x̂
−Lc A + bk + Lc
x̂
x̂
b
x
c 0
.
y =
x̂
(8.18)
(8.19)
Poiché non appaiono in modo immediato gli autovalori della matrice dinamica del sistema a ciclo chiuso,
si provi ad operare una trasformazione di coordinate. Si consideri come nuovo vettore di coordinate quello
costituito dallo stato x del processo da controllare e dall’errore di stima x̃. Tale trasformazione può essere
espressa in forma matriciale come:
x
I 0
x
x
x
=
,
.
(8.20)
= T −1
x̃
I −I
x̂
x̂
x̃
Il sistema algebricamente equivalente risulta descritto dalle matrici:
A + bk
bk
b
−1
−1
Āe = T Ae T =
, b̄e = T be =
.
0
A + Lc
0
(8.21)
Come asserito, gli autovalori del sistema a ciclo chiuso sono quelli della matrice (A + bk), uniti a quelli della
matrice (A + Lc).
⊓
⊔
La dimostrazione del teorema di separazione consente di derivare il modo immediato il seguente corollario.
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-244
Corollario 8.1 In un sistema controllato tramite un regolatore in retroazione dinamica dall’uscita del tipo
descritto dall’equazione (8.9), basato su osservatore, la dinamica d’errore è non raggiungibile, e la funzione di
trasferimento del sistema a ciclo chiuso è data da:
w(η) = c(ηI − (A + bk))−1 b
(8.22)
(ove η = s per sistemi a tempo continuo, ed η = z per sistemi a tempo discreto).
8.4
Un esempio: regolazione di un motore a corrente continua
In questa sezione il problema del progetto di regolatori viene applicato al caso di un motore in corrente
continua, analizzando le proprietà strutturali del sistema e trattando alcuni casi rilevanti. Viene inoltre descritta una modalità per la determinazione del modello a segnali campionati. Viene trattato anche il problema
dell’inseguimento di traiettoria e della stima di un eventuale disturbo di coppia.
Il modello dinamico di un motore in corrente continua, controllato tramite la tensione di armatura e con
eccitazione costante, è stato derivato nel primo capitolo, sezione1.5, a cui si rimanda. In questa sezione ci si
occupa dell’analisi delle sue proprietà strutturali e del progetto di regolatori in reazione dinamica dall’uscita,
per la soluzione di semplici problemi di regolazione ed inseguimento.
Il modello dinamico del motore considerato è descritto dalle equazioni:
ẋ1
= x2
ẋ2
ẋ3
= −a22 x2 + a23 x3
= −a32 x2 − a33 x3 + b3 u
y
= x1
ed in termini matriciali:
ẋ
y
con:

0
A= 0
0
1
−a22
−a32
= Ax + bu
= cx

0
a23  ,
−a33


0
b =  0 ,
b3
c=
1
0 0
.
(8.25)
Volendo progettare un controllore per rendere asintoticamente stabile l’origine dello spazio di stato, basandosi
solo sulla misura di posizione, si può ricorrere ad un osservatore asintotico dello stato, tramite il quale stimare
le altre variabili di stato, e cioè velocità del rotore e corrente di armatura, e poter quindi realizzare un controllo
in retroazione volto ad assegnare gli autovalori del sistema a ciclo chiuso.
8.4.1
Le proprietà strutturali
Per poter progettare la legge di controllo in retroazione e l’osservatore asintotico dello stato si deve prima
verificare la sussistenza delle proprietà di raggiungibilità e di osservabilità.
Per quanto riguarda la raggiungibilità si ha:


0
0
b3 a23
b3 a23 b3 a23 (a22 + a33 )  ,
R = b Ab A2 b =  0
(8.26)
b3 −b3 a23 b3 (a23 a32 + a233 )
da cui si vede che il modello del motore è raggiungibile se il parametro b3 della matrice di ingresso ed il parametro
a23 della matrice dinamica sono entrambi non nulli.
Per quanto riguarda l’osservabilità si ha invece:

 

1
0
0
c
1
0 ,
(8.27)
O =  cA  =  0
0 −a22 a23
cA2
da cui si vede che il modello del motore è osservabile, purché il parametro a23 sia non nullo.
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-245
Il parametro b3 è sempre non nullo, il parametro a23 è non nullo per ogni caso di interesse reale, perché
altrimenti il motore non sarebbe in grado di produrra alcuna coppia (infatti, a23 è nullo solo se Km è nullo). Se
infatti Km fosse nullo, il sottosistema meccanico sarebbe in evoluzione libera, e quindi non sarebbe influenzabile
dall’ingresso. Inoltre, il sottosistema meccanico non sarebbe influenzabile neanche dalla corrente d’armatura,
cioè dalla terza componente dello stato, e quindi tale variabile non sarebbe osservabile dal segnale di uscita
disponibile, la posizione del rotore, che corrisponde ad una variabile del sottosistema meccanico.
Le proprietà strutturali di interesse sussistono quindi indipendentemente dal valore numerico dei parametri.
8.4.2
Progetto del controllore in retroazione dinamica dall’uscita
Si assumano per i parametri elettrici e meccanici i seguenti valori: a22 = 3, a23 = 1, a32 = 1, a33 = 1, b3 = 1.
I valori scelti non sono del tutto realistici, ma sono più agevoli rispetto alla finalità dell’esercizio ed inoltre, in
virtù di quanto notato sopra, l’esatto valore dei parametri non modifica le proprietà strutturali di interesse.
Un insieme più realistico di parametri è dato, ad esempio, da: Ra = 1Ω, La = 10−2 H, Ke = 0.5volts/rps,
Km = 0.7N − m/A, J = 2 × 10−3 Kg − m3 , F = 2 × 10−5 N − m/rps.
Con il valore proposto dei parametri le matrici che descrivono il motore a corrente continua sono date da:




0 1
0
0
A =  0 −3 1  , b =  0  , c = 1 0 0 .
(8.28)
0 −1 −1
1
Per progettare il regolatore si può iniziare dalla determinazione di una matrice di retroazione k che consenta
di allocare gli autovalori di A + bk in posizioni desiderate del semipiano sinistro. Per fare questo, si deve prima
determinare la forma canonica di controllore ad un ingresso. Avendo già verificato la raggiungibilità, si tratta
di determinare un vettore riga h soluzione del sistema:

 

hb
0
 h Ab  =  0 
(8.29)
h A2 b
1
ed ottenibile, ad esempio, scegliendo h pari all’ultima riga dell’inversa



0 0
1
4
R =  0 1 −4  , R−1 =  4
1 −1 0
1
da cui si ricava:
h=
1
0 0
della matrice di raggiungibilità:

1 1
1 0 ,
0 0
,
e quindi, per la matrice che caratterizza le nuove coordinate, si ottiene:




h
1 0 0
1 0
T −1 =  hA   0 1 0  , T =  0 1
hA2
0 −3 1
0 3
Le nuove coordinate sono quindi date da:
xc = T −1 x,
(8.30)
(8.31)

0
0 .
1
(8.32)
(8.33)
e cioè, ricordando l’equazione (1.33a) ed l’ipotesi di coppia di disturbo nulla:
xc,1
xc,2
= x1 = θ
= x2 = ω
(8.34a)
(8.34b)
xc,3
= −3x2 + x3 = ω̇.
(8.34c)
Come previsto, le tre nuove coordinate sono ciascuna la derivata della precedente; si noti che l’unica coordinata
veramente nuova è data da ω̇, cioè dall’accelerazione angolare del rotore.
In queste nuove coordinate il modello dinamico del motore è descritto da:
ẋc,1
=
xc,2
ẋc,2
=
xc,3
ẋc,3
y
=
=
−4xc,2 − 4xc,3 + u
xc,1 ,
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-246
e quindi le matrici Ac , bc ed cc sono date da:


0 1
0
1 ,
Ac = T −1 AT =  0 0
0 −4 −4


0
bc = T −1 b =  0  ,
1
cc = cT =
1 0
0
.
(8.35)
In particolare, la forma canonica di controllore evidenzia il fatto che il sistema ha un autovalore nell’origine,
e cioè un polo nell’origine(infatti, a0 = 0)). Questo deriva direttamente dalla equazione differenziale della parte
meccanica θ̇ = ω.
Con il sistema in forma canonica di controllore ad un ingresso è immediato calcolare la matrice di retroazione
che consente di allocare il nuovo polinomio caratteristico. Se, non volendo alterare troppo la “velocità” del sistema controllato rispetto a quello reale, si desidera sistemare i nuovi autovalori in {−2, −2, −2}, cui corrisponde
il polinomio p(λ) = λ3 + 6λ2 + 12λ + 8, la matrice di retroazione, nelle coordinate di controllore, deve essere
scelta pari a:
kc = (0 − 8) (4 − 12) (4 − 6) = −8 −8 −2 ,
(8.36)
cui corrisponde, nelle coordinate originali, la matrice:
k = kc T −1 = −8 −2 −2 .
(8.37)
Come anticipato, nel caso in esame è disponibile solo la misura della posizione del rotore del motore, e
quindi, per poter effettivamente realizzare un’azione di controllo, si deve far uso di un osservatore asintotico che
consenta di ricostruire le altre due variabili di stato, e cioè la velocità del rotore e la corrente di armatura. Si
noti come la conoscenza del modello e la sua osservabilità, consentono di determinare, a partire da sole misure
di posizione (e cioè relative al sottosistema meccanico), anche lo stato del sottosistema elettrico.
L’osservatore asintotico dello stato è descritto dall’equazione matriciale:
x̂˙ = Ax̂ + L(cx̂ − y) + bu,
(8.38)
in cui la matrice L deve essere determinata in modo da assegnare il polinomio caratteristico della matrice A+Lc.
Infatti, introdotto l’errore di stima x̃ := x − x̂ e considerando la dinamica del sistema e la dinamica (8.38)
dell’osservatore, si trova:
x̃˙ = (A + Lc)x̃.
(8.39)
La sintesi della matrice L può essere condotta utilizzando il sistema duale. Sia Σ∗ = (Ā, b̄, c̄) il sistema
duale, con Ā = AT , m̄b = mcT , c̄ = bT . La matrice che descrive la dinamica dell’errore di stima, riscritta per il
sistema duale, diviene:
(A + Lc)T = AT + cT LT = Ā + b̄k̄,
(8.40)
e quindi, per assegnare gli autovalori che governano l’evoluzione della dinamica di errore, si può procedere
assegnando gli autovalori della matrice Ā + b̄k̄ per mezzo della matrice di guadagno k̄.
Procedendo in modo consueto, si tratta di determinare un vettore riga h̄ soluzione del sistema:
 


h̄b̄
0
 h̄ Āb̄  =  0 
(8.41)
h̄ Ā2 b̄
1
ed ottenibile, ad esempio, scegliendo h̄ pari all’ultima riga dell’inversa della matrice di raggiungibilità del sistema
duale:




1 0 0
1 0 0
R̄ =  0 1 −3  , R̄−1 =  0 1 3  ,
(8.42)
0 0 1
0 0 1
da cui si ricava:
h̄ =
0
0 1
,
e quindi, per la matrice che caratterizza le nuove coordinate:



0 0
1
4 4
T̄ −1 =  0 1 −1  , T̄ =  1 1
1 −4 0
1 0
(8.43)

1
0 .
0
(8.44)
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-247
Sulla base della matrice di trasformazione si può determinare la forma canonica di controllo ad un ingresso per
il sistema duale, dalla quale si determina in modo immediato la matrice k̄ cercata. In queste nuove coordinate
il sistema duale è descritto da:


 
0 1
0
0
1  , b̄c =  0  ;
Āc =  0 0
(8.45)
0 −4 −4
1
in effetti, tale forma per la matrice Āc era prevedibile, perché questa matrice ha lo stesso polinomio caratteristico della matrice Ac in (8.35) e del sistema originale. In particolare quindi, non è indispensabile calcolare
la matrice T̄ .
Si assuma inoltre di voler assegnare, come autovalori della dinamica di errore, i valori {−3, −3, −3}, in
modo da avere convergenza dell’errore di stima un poco più veloce della convergenza a zero dello stato. A tale
scelta degli autovalori corrisponde il polinomio caratteristico po (λ) = λ3 + 9λ2 + 27λ + 27.
La matrice k̄c che consente di ottenere questo polinomio per il sistema duale è quindi:
k̄c = (0 − 27) (4 − 27) (4 − 9) = −27 −23 −5 ,
(8.46)
cui corrisponde, nelle coordinate duali originali, la matrice:
k̄ = k̄c T̄ −1 = −5 −3 −4 .
(8.47)
Per determinare la matrice L di guadagno dell’osservatore, si noti che, per il sistema duale, si ha:
Ā + b̄k̄ = AT + cT k̄,
(8.48)
e quindi la dinamica dell’errore di stima è descritta dalla matrice:
(AT + cT k̄)T = A + k̄ T c,
(8.49)
e quindi la matrice L cercata è data da:


−5
L = k̄ T =  −3  .
−4
La dinamica di errore è quindi governata dalla matrice:


−5 1
0
A + Lc =  −3 −3 1  ,
−4 1 −1
(8.50)
(8.51)
con autovalori pari a {−3, −3, −3}, come progettato.
Riepilogando, un regolatore (o, più precisamente, una legge di controllo o un controllore) in retroazione
dinamica dall’uscita per stabilizzare asintoticamente un motore in corrente continua è dato da:
x̂˙ =
u =
Ax̂ + L(cx̂ − y) + bu
kx̂ + v,
(8.52a)
(8.52b)
con le matrici A, b ed c date dal modello dinamico del motore e le matrici di guadagno k e L (dette anche
matrice di retroazione e matrice di iniezione, rispettivamente) date da:


−5
k = −8 −2 −2 , L =  −3  .
(8.53)
−4
8.5
Ulteriori problemi di controllo
Un tipico problema di controllo in realà difficilmente richiede di portare un sistema nell’origine dello spazio di
stato, ma consiste piuttosto nel voler regolare la posizione del rotore ad un punto prefissato o nel voler inseguire
una predefinita traiettoria nello spazio di stato. Tuttavia, gli strumenti di stabilizzazione in retroazione, opportunamente utilizzati, consentono di risolvere anche questi problemi, ed in generale costituiscono un mattone
fondamentale ed imprenscindibile nella costruzione di sistemi di controllo complessi.
Capitolo 8: Osservatori e regolatori
8.5.1
[Ed. 2015, V 4.0 - PV - UniPG] - 8-248
Un problema di regolazione
Sotto l’ipotesi fatta in precedenza che la coppia di disturbo sia nulla (in mancanza della quale, oltre a quanto
visto sopra si deve ricorrere anche ad ulteriori strumenti),
se si desidera rendere asintoticamente stabile il
punto (in coordinare originali): xd = θd 0 0 , e cioè si vuole posizionare il rotore con angolo pari a θd
(ovviamente con velocità nulla), si può utilizzare la legge di controllo:
x̂˙ =
u =
Ax̂ + L(cx̂ − y) + bu
k(x̂ − xd ) + v,
(8.54a)
(8.54b)
con le matrici k ed L progettate in precedenza (equazione (8.53)), la quale rende asintoticamente stabile il punto
desiderato xd .
8.5.2
Inseguimento di traiettoria
Nel caso in cui si voglia invece considerare un problema di inseguimento di traiettoria, descritta per mezzo
di un vettore xd (t) che descrive il comportamento desiderato per lo stato, si tratta di determinare una legge di
controllo in modo che l’errore di inseguimento e(t) := x(t) − xd (t) converga a zero asintoticamente, cioè:
lim e(t) = 0.
t→∞
(8.55)
Si consideri per semplicità il caso in cui sia accessibile per la misura l’intero vettore di stato. Lo scopo di
queste brevi note è solo quello di sottolineare come la soluzione del problema dell’assegnazione degli autovalori
sia un elemento base per la soluzione di problemi più complessi.
Si consideri quindi il caso in cui si debba inseguire una predeterminare traiettoria nello spazio di stato, ad
esempio una traiettoria che specifica la posizione desiderata per il rotore nei vari istanti di tempo. Si assuma
che la traiettoria desiderata, indicata con θd (t), sia nota in termini analitici e sia derivabile almeno tre volte.
d
Allora, il comportamento desiderato per la velocità del rotore sarà necessariamente dato da ωd (t) = dθ
dt , ed
dωd
il comportamento desiderato per l’accelerazione angolare del rotore sarà dato da ad (t) = dt . Ricordando poi
il significato delle variabili (8.34) si ha il seguente legame le variabili meccaniche velocità ω ed accelerazione a
e la corrente di rotore ia = x3:
x3 = a + 3ω,
(8.56)
e quindi si può porre, come traiettoria desiderata completa nello spazio di stato (cioè per tutte le variabili) la
funzione vettoriale:
xd,1 (t)
xd,2 (t)
=
=
θd (t)
ωd (t)
(8.57a)
(8.57b)
xd,3 (t)
=
ad (t) + 3ωd (t).
(8.57c)
Per ottenere che la posizione del rotore insegua asintoticamente
la traiettoria data da θd (t), nel senso di
ottenere il risultato indicato dalla (8.55), indicato con xd = xd,1 xd,2 xd,3 il vettore delle traiettorie
desiderate date dalle (8.57), si può utilizzare la legge di controllo in retroazione statica dallo stato:
u = k(x − xd ) + η,
(8.58)
η := xd,2 + xd,3 + ẋd,3 ,
(8.59)
con
e con la matrice k definita dalla (8.36).
Infatti, dalle equazioni (8.57) e (8.59) e ricordando che ẋd,2 (t) = ad , la traiettoria desiderata soddisfa
l’equazione differenziale: il sistema dinamico:
ẋd,1 (t) =
xd,2 (t)
(8.60a)
ẋd,2 (t) =
ẋd,3 (t) =
−3xd,2 (t) + xd,3 (t)
xd,2 (t) + xd,3 (t) + η(t),
(8.60b)
(8.60c)
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-249
che, in forma matriciale, può essere riscritta come:
ẋd (t) = Axd (t) + bη(t).
(8.61)
La dinamica dell’errore di inseguimento e(t) = x(t) − xd (t), dopo aver applicato la legge in retroazione dallo
stato definita dalla (8.58), è governata quindi dalla equazione differenziale
ẋ − ẋd
ė =
Ax + bk(x − xd ) + bη − Axd − bη
A(x − xd ) + bk(x − xd )
=
=
=
(A + bk)e
e quindi, tenendo conto della scelta fatta per la matrice k, la dinamica dell’errore di inseguimento è asintoticamente stabile, e quindi l’errore converge asintoticamente a zero. Il segnale η(t) utilizzato nella legge di
controllo (8.58) è un termine di controllo in avanti (feed-forward).
8.5.3
Sistemi a segnali campionati
Per realizzare effettivamente una delle tre leggi di controllo presentate in precedenza, vi sono due classi di
soluzioni.
Una prima soluzione, utilizzata solo in casi particolari, è quella di realizzare un dispositivo analogico che
implementa la legge stessa, ad esempio, nel caso delle leggi basate sull’osservatore, si tratta di utilizzare un
gruppo di amplificatori operazionali opportunamente collegati.
Una soluzione alternativa, assai più frequente, è quella di implementare l’algoritmo di controllo in modo
digitale, e quindi tramite un elaboratore generico o un DSP. In questo secondo caso vi sono due approcci
possibili: si può sintetizzare la legge di controllo partendo dal modello a tempo continuo del motore (ed in
generale dell’impianto) e poi discretizzare il controllore (se vi è della dinamica), oppure si può discretizzare il
modello e poi sintetizzare un controllore a tempo discreto.
Indipendentemente dalla strada seguita per arrivare ad un controllore discreto, l’uso di un sistema digitale
di controllo, oltre alla flessibilità legata al’uso di uno strumento facilmente programmabile invece che alla
realizzazione di un circuito, ha un vantaggio anche in termini di prestazioni del sistema controllato: è possibile
ottenere un controllore a tempo di risposta finita, anche se il processo controllato è in realtà un sistema a tempo
continuo.
Per determinare un modello a tempo discreto di un processo continuo o di un controllore dinamico, genericamente indicato con l’equazione:
ẋ =
Ax + Bu
y
Cx
=
si può partire dalla soluzione nelle variabili di stato ad un generico istante t + δt , noto il valore dello stato
all’instante t, ed assumendo che il segnale di ingresso sia costante in tale intervallo (come accade, se il sistema
è controllato in modo digitale e δt è il passo di campionamento):
!
Z
t+δt
= e Aδt x(t) +
x(t + δt )
e A(t+δt −τ ) Bdτ
u(t),
t
y(t)
= Cx(t)
Allora, definite le matrici:
AD := e
Aδt
,
BD :=
Z
δt
e A(δt −τ ) Bdτ,
CD := C,
(8.62)
0
posto t + δt = (k + 1)δt , t = kδt , introducendo le variabili xD (k) = x(kδt ), la soluzione precedente può essere
riscritta come:
xD (k + 1) = AD xD (k) + BD u(k),
y(k) = CD xD (k)
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-250
e quindi ci si è ricondotti ad un sistema a tempo discreto, il cui stato è dato dalle variabili xD . Si noti che,
negli istanti di campionamento, cioè negli istanti del tipo t = kδt , lo stato del sistema a tempo continuo e quello
del suo modello a tempo discreto sono esattamente identici. Cioè, l’approccio proposto non introduce alcuna
approssimazione negli istanti di campionamento.
Nel caso del motore, con i valori dei parametri considerati, la matrice esponenziale e Aδt è data da:
e Aδt
8.5.4

1
= 0
0
0.25(1 − e −2δt + δt e −2δt )
e −2δt − δt e −2δt
−δt e −2δt

0.25(1 − e −2δt − δt e −2δt )
.
δt e −2δt
−2δt
−2δt
+ δt e
e
(8.63)
Stima dei disturbi
Nel trattare il problema del controllo del motore in corrente continua si è fatta l’ipotesi che la coppia di
carico, indicata con TL nel capitolo 1, sia nulla. In effetti, tale segnale di disturbo, in generale non noto e
non misurabile, non è nullo, anzi rappresenta proprio il lavoro che deve essere svolto dal motore. La soluzione
del problema di regolazione o inseguimento nel caso in cui tale segnale sia presente è ottenibile facilmente con
strumenti che saranno ampiamente discussi nel corso di Controlli Automatici.
Nel seguito si indica, in modo sintetico, uno strumento alternativo per la stima di take segnale di disturbo. La
stima cosı̀ottenuta può essere poi utilizzata all’interno di uno schema di controllo, più complesso di quelli visti in
precedenza in questa sezione, per ottenere anche reiezione del disturbo, oltre alla regolazione e/o inseguimento.
L’idea di base, descritta nel seguito solo per il caso di disturbi costanti (o comunque costanti a tratti), è
quella di estendere la dinamica del sistema considerando il disturbo come un’ulteriore variabile di stato, con
derivata nulla.
Il modello del motore in corrente continua, con indicazione esplicata della coppia di carico, è dato da:
ẋ1
= x2
(8.64)
ẋ2
ẋ3
= −a22 x2 + a23 x3 + TL
= −a32 x2 − a33 x3 + b3 u
(8.65)
(8.66)
y
= x1
(8.67)
e quindi, assumendo il disturbo costante, e ponendo x4 = TL , il modello dinamico esteso del motore in corrente
continua diviene:
ẋ1
ẋ2
ẋ3
ẋ4
y
= x2
= −a22 x2 + a23 x3 + x4
(8.68)
(8.69)
= −a32 x2 − a33 x3 + b3 u
= 0
(8.70)
(8.71)
= x1 ,
(8.72)
che, in forma matriciale, può essere scritto come:
ẋe
=
Ae xe + be u
(8.73a)
y
=
ce xe
(8.73b)
con il vettore di stato esteso xe dato da: xe := [x1 x2 x3 x4 ]T , e le matrici che descrivono il sistema caratterizzate
da:




0
1
0
0
0
 0 −f22 f23 1 
 0 



Ae = 
(8.74)
 0 −f32 −f33 0  , be =  b3  , ce = 1 0 0 0 .
0
0
0
0
0
Ora, una possibile soluzione per stimare il segnale di disturbo x4 = TL è quella di verificare l’osservabilità del
sistema esteso (8.73), e poi, in caso positivo, costruire un osservatore asintotico dello stato. Poichè l’osservabilità
implica la possibilità di ricostruire asintoticamente lo stato, la ricostruzione xˆ4 della nuova variabile di stato
corrisponde alla stima asintotica del disturbo.
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-251
Per verificare l’osservabilità, e quindi la possibilità di stimare il disturbo, si deve studiare il rango della
matrice:


ce
 ce Ae 

Θe := 
(8.75)
 ce A2e  ,
3
ce Ae
cioè della matrice:

1
 0
Θe := 
 0
0
0
1
−a22
a222 + a23 a32

0
0
0
0 
,
−a23
1 
a23 (a22 + a33 ) −a22
il cui rango è massimo, e quindi il sistema esteso è osservabile, se la matrice
−a23
1
M=
a23 (a22 + a33 ) −a22
(8.76)
(8.77)
ha determinante non nullo. Il determinante vale
det(M ) = −a23 a33 ,
(8.78)
e quindi il sistema esteso è osservabile se il motore è in grado di produrre coppia (cioè, il parametro a23 è
non nullo), e la sua resistenza di armatura è non nulla (cioè, il parametro a33 non è nullo). Ciò si verifica per
qualsiasi motore reale, e quindi il sistema esteso è osservabile, cioè, la misura di posizione, opportunamente
utilizzata, consente di stimare anche la coppia di disturbo.
Uno schema di osservatore asintotico che consente di raggiungere questo risultato è dato da:
xˆe = Ae xˆe + Le (ce xˆe − y) + be u
(8.79)
con la matrice Le da scegliere, con tecniche oramai ben note, in modo da rendere asintoticamente stabile la
dinamica dell’errore di stima:
x˜e = (Ae − Le ce )x˜e .
(8.80)
La stima cosı̀ ottenuta della coppia di disturbo può essere poi usata per compensare gli effetti del disturbo
reale sul sistema.
Capitolo 8: Osservatori e regolatori
8.6
8.6.1
[Ed. 2015, V 4.0 - PV - UniPG] - 8-252
Esercizi
Osservatori asintotici e regolatori per sistemi a singolo ingresso e singola
uscita
Esercizio 8.1 Dato il sistema a tempo continuo




−1 5
27
−2
ẋ =  −1 −5 −16  x +  1  u,
1
2
3
0
1 2 2 x,
y =
a) studiare l’osservabilità;
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile (si veda l’esercizio 6.4).
Esercizio 8.2 Dato il sistema a tempo continuo

−1
ẋ =  −1
1
0 0
y =
a) studiare l’osservabilità;



5
9
−4
−3 −4  x +  2  u,
2
1
0
1 x,
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile (si veda l’esercizio 6.5).
Esercizio 8.3 Dato il sistema a tempo continuo




2
13
26
−2
ẋ =  −1 −7 −14  x +  1  u,
0
1
3
0
1 3 4 x,
y =
a) studiare l’osservabilità;
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile, e con tutti gli autovalori con parte reale minore di -1 (si veda l’esercizio 6.6).
Esercizio 8.4 Dato il sistema a tempo continuo

4

−4
ẋ =
0
1 2
y =
a) studiare l’osservabilità;



6
4
−1
−7 −4  x +  1  u,
1
1
0
1 x,
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile, e con tutti gli autovalori con parte reale minore di -1 (si veda l’esercizio 6.7).
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-253
Esercizio 8.5 Dato il sistema a tempo discreto




8
23
21
−1
x(k + 1) =  −4 −12 −11  x(k) +  1  u(k),
−2
1
0
0
1 3 3 x,
y =
a) studiare l’osservabilità;
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile, e con tutti gli autovalori con modulo minore di 1 (si veda l’esercizio 6.8).
Esercizio 8.6 Dato il sistema a tempo discreto




−3 −2 −2
3
3
4  x(k) +  −3  u(k),
x(k + 1) =  3
−1 −1 −1
1
0 1 2 x,
y =
a) studiare l’osservabilità e la rilevabilità;
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso a tempo di
risposta finito (si veda l’esercizio 6.9).
Esercizio 8.7 Dato il sistema a tempo continuo




9
28
67
3
ẋ =  −9 −27 −65  x +  −3  u,
3
9
22
1
1 3 2 x,
y =
a) studiare l’osservabilità;
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile (si veda l’esercizio 6.10).
Esercizio 8.8 Dato il sistema a tempo continuo

4
ẋ =  −2
2
1
2
y =
a) studiare l’osservabilità;



11
5
2
−5 −2  x +  −1  u,
5
3
1
−2 x,
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile (si veda l’esercizio 6.11).
Esercizio 8.9 Dato il sistema a tempo continuo




8
21
8
4
ẋ =  −4 −10 −3  x +  −2  u,
2
5
2
1
−1 −1 1 x,
y =
Capitolo 8: Osservatori e regolatori
[Ed. 2015, V 4.0 - PV - UniPG] - 8-254
a) studiare l’osservabilità;
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile.
Esercizio 8.10 Dato il sistema a tempo continuo




2 −1 2
1
ẋ =  1 −2 −2  x +  0  u,
0 1
2
0
1 −1 1 x,
y =
a) studiare l’osservabilità;
b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno;
c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile, e con tutti gli autovalori con parte reale minore di -1.
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-255
Capitolo 9
Esercizi di riepilogo risolti
In questo capitolo vengono presentati alcuni esercizio di riepilogo. Si precisa che molti dei quesiti proposti sono
relativi al programma del corso Vecchio Ordinamento (corso quinquennale) o comunque di anni accademici
passati.
9.1
Esercizi di riepilogo
Esercizio 9.1 Dato il sistema a tempo discreto




1
2
1
0
0
0  x(k) +  0  u(k),
x(k + 1) =  1
−5 −1 −2
1
1 3 1 x(k),
y(k) =
a) studiare la raggiungibilità e l’osservabilità;
b) determinare, se esiste, una legge di controllo in retroazione dallo stato che garantisca tempo di risposta
finito per il sistema a ciclo chiuso;
c) determinare, se esiste, una legge di controllo in retroazione dallo stato che garantisca stabilità asintotica del
punto x = 0 per il sistema a ciclo chiuso;
d) determinare, se esiste, un osservatore asintotico dello stato di ordine intero con dinamica d’errore convergente
a zero in tempo finito;
e) determinare, se esiste, un osservatore asintotico dello stato di ordine intero con dinamica d’errore asintoticamente stabile;
f) determinare, se esiste, un regolatore in retroazione dall’uscita che garantisca tempo di risposta finito per il
sistema a ciclo chiuso e calcolare le matrici a ciclo chiuso ed i loro autovalori;
g) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile e calcolare le matrici a ciclo chiuso ed i loro autovalori;
h) calcolare, per i sistemi a ciclo chiuso determinati ai punti (b), (c) ed (f), la risposta forzata per segnale di
ingresso a gradino unitario.
Esercizio 9.2 Dato il sistema a tempo discreto
x(k + 1) =
y1 (k)
=
y2 (k)
F x(k) + g1
h1
x(k),
h2
g2
u1 (k)
u2 (k)
,
Capitolo 9: Esercizi riepilogo
con


1 1 1
F =  1 0 0 ,
−4 1 −2
[Ed. 2015, V 4.0 - PV - UniPG] - 9-256
g1
g2

0
= 0
1

0
1 ,
0
h1
h2
=
1 2 1
1 −1 0
,
(9.1)
a) studiare la raggiungibilità a partire dal solo ingresso u1 , e cioè usando la sola matrice di ingresso g1 , a
partire dal solo ingresso u2 , e cioè usando la sola matrice di ingresso g2 , e per mezzo di entrambi i segnali
di controllo;
T
b) raggiungere, se possibile, lo stato x̄ = 1 2 1
utilizzando solo il primo ingresso, solo il secondo
ingresso, ed infine, con numero minimo di passi, utilizzando entrambi gli ingressi;
T
T
c) se possibile, raggiungere in tre passi lo stato xf = 2 1 1
a partire dallo stato x0 = 0 0 1
(e
cioè, ottenere x(3) = xf a partire da x(0) = x0 );
d) valutare l’osservabilità sulla base dell’uscita y1 , e cioè usando la sola matrice di uscita h1 , sulla base
dell’uscita y2 , e cioè usando la sola matrice di uscita h2 , e per mezzo di entrambe le uscite;
e) data la sequenza di uscita y(0) = [4 0]T , y(1) = [0 2]T , y(2) = [4 − 4]T , ottenuta in evoluzione libera,
osservare, se possibile, lo stato iniziale sulla base della prima uscita, sulla base della seconda uscita e sulla
base di entrambe le uscite;
e) data la sequenza di uscita del punto precedente, ottenuta in evoluzione libera, ricostruire, se possibile, lo
stato al passo k = 3 sulla base della prima uscita, sulla base della seconda uscita e sulla base di entrambe
le uscite;
f) determinare la decomposizione rispetto alla osservabilità, considerando solo la prima uscita e considerando
solo la seconda uscita;
g) progettare una legge di controllo in retroazione dallo stato per assegnare tutti gli autovalori in zero, utilizzando entrambi gli ingressi ed imponendo un solo miniblocco di Jordan per la matrice retroazionata;
h) progettare una legge di controllo in retroazione dallo stato per assegnare tutti gli autovalori in zero, utilizzando entrambi gli ingressi ed imponendo due miniblocchi di Jordan per la matrice retroazionata;
i) progettare un osservatore con dinamica d’errore convergente a zero in tempo finito, utilizzando entrambe le
uscite ed imponendo un solo miniblocco di Jordan per la matrice della dinamica d’errore.
Esercizio 9.3 Dato un processo descritto dalla matrice di trasferimento:
z+1
z
,
W (z) =
z 2 + 3z + 2 z 2 + 4z + 4
(9.2)
a) determinare una realizzazione minima Σ(F, G, h);
b) determinare, se esiste, una legge di controllo in retroazione statica dallo stato u = Kx + v per il sistema Σ,
che consenta di ottenere un sistema a ciclo chiuso con tempo di risposta finito;
c) valutare il numero di miniblocchi nella forma di Jordan della matrice F + GK, ove K è la matrice calcolata
al passo precedente;
d) progettare, se esiste, un osservatore asintotico dello stato con dinamica dell’errore di stima asintoticamente
stabile;
e) progettare, se esiste, un regolatore in reazione dinamica dall’uscita che renda il sistema a ciclo chiuso
asintoticamente stabile;
f) calcolare la risposta al gradino unitario per il sistema a ciclo aperto, assumendo un gradino unitario sul primo
ingresso e secondo ingresso nullo, assumendo un gradino unitario sul secondo ingresso e primo ingresso
nullo, ed infine assumendo un gradino unitario su entrambi gli ingressi [esame];
g) dire se la risposta completa al gradino per il sistema a ciclo chiuso ottenuto al punto e) è limitata, e dire se
tale funzione ammette limite, per t tendente ad infinito.
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-257
Esercizio 9.4 Dato il sistema dinamico a tempo discreto

1 2
F = 0 0
0 −2
x(t + 1) = F x(t) + gu(t),
(9.3)
y(t) = Hx(t)



1
1
0  , g =  −1  ,
0
0
(9.4)
H=
1
0
0 1
−1 1
.
(9.5)
1. valutare la sua osservabilità e ricostruibilità, sulla base della sola prima uscita, della sola seconda uscita,
o di entrambe le uscite;
2. se l’uscita in evoluzione libera, nei primi tre passi, è pari a y(0) = (2 0)T , y(1) = (2 − 2)T , y(2) = (2 0)T ,
osservare lo stato iniziale e ricostruire lo stato ai passi t = 1 e t = 2, se possibile, utilizzando solo la prima
uscita, solo la seconda uscita ed entrambe le uscite;
3. progettare, se esiste, un osservatore asintotico dello stato con dinamica dell’errore di stima asintoticamente
stabile;
4. progettare, se esiste, una legge di controllo in retroazione statica dallo stato che renda il sistema a ciclo
chiuso asintoticamente stabile;
5. progettare, se esiste, una legge di controllo in retroazione dinamica dall’uscita che renda il sistema a ciclo
chiuso asintoticamente stabile.
9.2
9.2.1
Soluzioni
Soluzione esercizio 9.1
Raggiungibilità ed osservabilità.
Per valutare la raggiungibilità e l’osservabilità del sistema, si può procedere calcolando le matrici di raggiungibiltà e di osservabilità. Per la raggiungibilità si ha:


0 1 −1
1 ,
R = g F g F 2g =  0 0
1 −2 −1
il cui determinante vale 1, e quindi il sistema è raggiungibile.
Per l’osservabilità si ha:

 

h
1
3
1
O =  hF  =  −1 1 −1  ,
hF 2
5 −1 1
il cui determinante vale −16, e quindi il sistema è osservabile.
Determinare, se esiste, una legge di controllo in retroazione dallo stato che garantisca tempo di risposta finito
per il sistema a ciclo chiuso.
Poiché il sistema è raggiungibile, è possibile allocare in modo arbitrario tutti gli autovalori. Inoltre, poiché
è a tempo discreto, se gli autovalori vengono allocati tutti in zero, si ha convergenza a zero in un numero finito
di passi.
Per determinare una legge di controllo in retroazione dallo stato, cioè del tipo:
u = Kx + v,
che allochi tutti gli autovalori in posizioni arbitrarie, si procede calcolando la forma canonica di controllore a
singolo ingresso. Si deve quindi trovare un vettore riga c, con tre componenti, soluzione del sistema di equazioni:

 

cg
0
 cFg  =  0 
c F 2g
1
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-258
ed ottenibile, ad esempio, scegliendo c pari all’ultima riga dell’inversa



0 1 −1
2
1  , R−1 =  1
R= 0 0
1 −2 −1
0
da cui si ricava:
c=
e quindi, per la matrice che caratterizza le nuove


c
0
−1



cF
1
T =
cF 2
1
0
1 0
della matrice di raggiungibilità:

3 1
1 0 ,
1 0
,
(9.6)
(9.7)
coordinate, si ottiene:



1 0
0
1 0
0 0 , T =  1
0 0 .
2 1
−2 −1 1
In queste nuove coordinate il sistema è descritto dalle matrici:




0 1
0
0
1  , gc = T −1 g =  0  ,
Fc = T −1 F T =  0 0
3 −1 −1
1
hc = hT =
(9.8)
1
0 1
.
(9.9)
A partire dalla forma canonica di controllore è immediato trovare la matrice di retroazione che consente di
allocare tutti gli autovalori nell’origine, e quindi ottenere un sistema a tempo di risposta finito. Il polinomio
caratteristico desiderato in questo caso è dato da p(λ) = λ3 . La matrice di retroazione, nelle coordinate di
controllore, deve essere scelta pari a:
kc,f = (−3 − 0) (1 − 0) (1 − 0) = −3 1 1 ,
(9.10)
cui corrisponde, nelle coordinate originali, la matrice:
kf = kc,f T −1 =
2 −1 1
La matrice che descrive la dinamica del sistema a ciclo

1
F + gkf =  1
−3
i cui autovalori sono tutti nulli, come desiderato!
.
(9.11)
chiuso è quindi (sebbene non richiesta):

2
1
0
0 
−2 −1
Determinare, se esiste, una legge di controllo in retroazione dallo stato che garantisca stabilità asintotica del
punto x = 0 per il sistema a ciclo chiuso.
Nel caso dei sistemi lineari autonomi, l’origine è sempre punto di equilibrio, e le sue proprietà di stabilità sono
caratterizzate dagli autovalori del sistema, e cioè dagli autovalori della matrice F (con la descrizione abituale). Si
tratta quindi di costruire una matrice di retroazione dallo stato tale da rendere tutti gli autovalori del sistema a
ciclo chiuso asintoticamente stabili. Ovviamente, la matrice kf determinata al punto precedente è una possibile
soluzione. Una soluzione diversa si può ottenere, ad esempio, cercando di assegnare come nuovo polinomio
caratteristico il polinomio p(λ) = (λ + 1/2)3 = λ3 + 3/2λ2 + 3/4λ + 1/8, o un qualunque altro polinomio con zeri
minori di 1, in modulo. Per ottenere questo risultato, a partire dalla forma canonica di controllore già calcolata
in (9.9), si può porre:
kc,a = (−3 − 1/8) (1 − 3/4) (1 − 3/2) = −25/8 1/4 −1/2 ,
(9.12)
cui corrisponde, nelle coordinate originali, la matrice:
kf = kc,f T −1 = −1/4 −33/8 −1/2 .
La matrice che descrive la dinamica del sistema a ciclo chiuso è quindi (sebbene non richiesta):


1
2
1
1
0
0 
F + gkf = 
−21/4 −41/8 −5/2
(9.13)
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-259
i cui autovalori sono tutti {−1/2, −1/2, −1/2}, come desiderato!
Determinare, se esiste, un osservatore asintotico dello stato di ordine intero con dinamica d’errore convergente
a zero in tempo finito.
L’esistenza di un osservatore dello stato con dinamica d’errore assegnabile in modo arbitrario, e quindi, in
particolare, con dinamica convergente a zero in tempo finito, è garantita dalla proprietà di osservabilità del
sistema, già verificata in precedenza.
L’osservatore asintotico dello stato è descritto dall’equazione matriciale:
x̂(k + 1) = F x̂(k) + L(hx̂(k) − y(k)) + gu(k),
(9.14)
in cui la matrice L deve essere determinata in modo da assegnare il polinomio caratteristico della matrice F +Lh.
Infatti, introdotto l’errore di stima x̃ := x − x̂ e considerando la dinamica del sistema e la dinamica (9.14)
dell’osservatore, si trova:
x̃(k + 1) = (F + Lh)x̃(k).
(9.15)
La sintesi della matrice L può essere condotta utilizzando il sistema duale. Sia Σ∗ = (F̄ , ḡ, h̄) il sistema
duale, con F̄ = F T , ḡ = hT , h̄ = g T . La matrice che descrive la dinamica dell’errore di stima, riscritta per il
sistema duale, diviene:
(F + Lh)T = F T + hT LT = F̄ + ḡ k̄,
(9.16)
e quindi, per assegnare gli autovalori che governano l’evoluzione della dinamica di errore, si può procedere
assegnando gli autovalori della matrice F̄ + ḡk̄ per mezzo della matrice di guadagno k̄.
Procedendo in modo consueto, si tratta di determinare un vettore riga c̄ soluzione del sistema:

 

c̄ḡ
0
 c̄ F̄ ḡ  =  0 
(9.17)
c̄ F̄ 2 ḡ
1
ed ottenibile, ad esempio, scegliendo c̄ pari all’ultima riga dell’inversa della matrice di raggiungibilità del sistema
duale:




1 −1 5
0 1/4 1/4
R̄ =  3 1 −1  , R̄−1 =  1/4 1/4 −1  ,
(9.18)
1 −1 1
1/4 0 −1/4
da cui si ricava:
c̄ =
1/4 0
−1/4
e quindi, per la matrice che caratterizza le nuove coordinate:


1/4
0 −1/4
1/4 −3/4  ,
T̄ −1 =  0
−1/4 0
5/4
,
(9.19)

5
T̄ =  3
1

0 1
4 3 .
0 1
(9.20)
Sulla base della matrice di trasformazione si può determinare la forma canonica di controllo ad un ingresso per
il sistema duale, dalla quale si determina in modo immediato la matrice k̄ cercata. In queste nuove coordinate
il sistema duale è descritto da:




0 1
0
0
1  , ḡc =  0  ;
F̄c =  0 0
(9.21)
3 −1 −1
1
in effetti, tale forma per la matrice F̄c era prevedibile, perché questa matrice ha lo stesso polinomio caratteristico
della matrice Fc in (9.9) e del sistema originale. In particolare quindi, non è indispensabile calcolare la matrice
T̄ .
Volendo ottenere un osservatore asintotico dello stato con errore convergente a zero in un numero finito di
passi, si devono allocare tutti gli autovalori della matrice che governa l’evoluzione dell’errore in zero, e quindi,
per il sistema duale, si devono allocare in zero tutti gli autovalori della matrice F̄ + ḡ k̄f . La matrice k̄c,f che
consente di allocare in zero tutti gli autovalori del sistema duale è data da:
k̄c,f = (−3 − 0) (1 − 0) (1 − 0) = −3 1 1 ,
(9.22)
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-260
cui corrisponde, nelle coordinate duali originali, la matrice:
k̄f = k̄c,f T̄ −1 = −1 1/4 5/4 .
(9.23)
Per determinare la matrice Lf di guadagno dell’osservatore, si noti che, per il sistema duale, si ha:
F̄ + ḡ k̄f = F T + hT k̄f ,
(9.24)
e quindi la dinamica dell’errore di stima è descritta dalla matrice:
(F T + hT k̄f )T = F + k̄fT h,
(9.25)
e quindi la matrice Lf cercata è data da:


−1
Lf = k̄fT =  1/4  .
5/4
La dinamica di errore è quindi governata dalla matrice:


0
−1
0
F + Lf h =  5/4
3/4
1/4  ,
−15/4 11/4 −3/4
(9.26)
(9.27)
con autovalori tutti nulli, come desiderato.
Determinare, se esiste, un osservatore asintotico dello stato di ordine intero con dinamica d’errore asintoticamente stabile.
La sintesi di un osservatore di ordine pieno con dinamica d’errore asintoticamente stabile si ottiene, tenendo
conto di quanto già fatto al punto precedente, calcolando una matrice k̄c,a tale da rendere tutti gli autovalori della
matrice F̄c + ḡc k̄c,a minori di 1, in modulo e, ad esempio, uguali a {1/3, 1/3, 1/3}. Il polinomio corrispondente
è quindi (λ − 1/3)3 = λ3 − λ2 + 1/3λ − 1/27. Ovviamente, ogni altra scelta di autovalori con modulo minore di
uno sarebbe stata soddisfacente.
La matrice k̄c,a che consente di ottenere ciò è data da:
k̄c,a = (−3 + 1/27) (1 − 1/3) (1 + 1) = −80/27 2/3 2 ,
(9.28)
cui corrisponde, nelle coordinate duali originali, la matrice:
k̄ = k̄c T̄ −1 = −67/54 1/6 74/27 ,
ed infine, per la matrice La di guadagno dell’osservatore, si trova:


−67/54
L = k̄aT =  1/6  .
74/27
La dinamica di errore è quindi governata dalla matrice:


−13/54 −93/54 −13/54
1/2
1/6  ,
F + La h =  63/54
−122/54
65/9
20/27
(9.29)
(9.30)
(9.31)
con autovalori pari a {1/3, 1/3, 1/3}, come desiderato.
Determinare, se esiste, un regolatore in retroazione dall’uscita che garantisca tempo di risposta finito per il
sistema a ciclo chiuso e calcolare le matrici a ciclo chiuso ed i loro autovalori.
Il regolatore cercato si ottiene combinando in modo opportuno la matrice di retroazione progettata al punto
(b) e l’osservatore progettato al punto (d). Infatti in questo modo si ottiene un sistema dinamico di ordine 6
(pari cioè alla dimensione dello spazio di stato del sistema originale, 3 più quella dell’osservatore, ancora uguale
a 3), con tutti gli autovalori nulli, il cui stato, in evoluzione libera, converge a zero in un numero finito di passi.
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-261
In particolare, il regolatore (dinamico, per la presenza dell’osservatore) è descritto dalle equazioni:
x̂(k + 1) =
u(k) =
F x̂(k) + Lf (hx̂(k) − y(k)) + gu(k)
kf x̂(k) + v(k),
con le matrici F , g ed h del sistema e le matrici di guadagno kf e Lf date da:


−1
kf = 2 −1 1 , Lf =  1/4  .
5/4
(9.32a)
(9.32b)
(9.33)
Determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente
stabile e calcolare le matrici a ciclo chiuso ed i loro autovalori.
Il regolatore cercato si ottiene combinando in modo opportuno la matrice di retroazione progettata al punto
(c) e l’osservatore progettato al punto (e). In particolare, il regolatore (dinamico, per la presenza dell’osservatore)
è descritto dalle equazioni:
x̂(k + 1) =
u(k) =
F x̂(k) + La (hx̂(k) − y(k)) + gu(k)
ka x̂(k) + v(k),
con le matrici F , g ed h del sistema e le matrici di guadagno ka e La date da:


−67/54
kf = −1/4 −33/8 −1/2 , La =  1/6  .
74/27
(9.34a)
(9.34b)
(9.35)
Determinare la risposta forzata per ingresso a gradino unitario.
L’esercizio si risolve calcolando la funzione di trasferimento, di immediata determinazione a partire dalla
forma canonica di controllore, e poi espandendo in frazioni parziali la risposta nel dominio di Zeta ed antitrasformando.
Infine, si noti che le funzioni di trasferimento dei sistemi a ciclo chiuso determinati ai punti (c) ed (f)
coincidono, poichè la dinamica dell’errore di stima non è raggiungibile, e quindi non influenza la funzione di
trasferimento.
Capitolo 9: Esercizi riepilogo
9.2.2
[Ed. 2015, V 4.0 - PV - UniPG] - 9-262
Soluzione esercizio 9.2
Raggiungibilità per singoli ingressi e per entrambi gli ingressi.
Per valutare la raggiungibilità a partire dal primo ingresso si deve valutare il rango della matrice:
R1 = g1 F g1 F 2 g1
ottenendo:

0
R1 =  1
0

1 2
0 1 
1 −6
il cui rango è tre, e quindi il sistema è raggiungibile. Analogamente, la raggiungibilità a partire dal secondo
ingresso è valutabile dalla matrice:
R2 = g2 F g2 F 2 g2
ottenendo:

0 1
R2 =  0 0
1 −2

−1
1 
0
il cui rango è tre, e quindi il sistema è raggiungibile anche a partire dal solo secondo ingresso.
Per quanto riguarda infine la raggiungibilità da entrambi gli ingressi, questa è ovviamente implicata dalla
raggiungibilità da ciascun singolo ingresso.
T
Raggiungere, se possibile, lo stato x̄ = 1 2 1
utilizzando solo u1 , solo u2 , ed infine, con numero minimo
di passi, utilizzando entrambi gli ingressi.
Poiché il sistema è raggiungibile anche da ciascun singolo ingresso, è possibile determinare le sequenze
cercate.
La sequenza di valori del primo ingresso che consente di raggiungere il punto dato è soluzione del sistema
algebrico:


u1 (2)
x̄ = R1  u1 (1) 
(9.36)
u1 (0)
e cioè:
la cui soluzione è data da:

 
1
0
 2 = 1
1
0
u1 (0) = 0,


1 2
u1 (2)
0 1   u1 (1) 
1 −6
u1 (0)
u1 (1) = 1,
(9.37)
u1 (2) = 2,
e quindi il segnale di ingresso complessivo è dato da:
u(0) = (0, 0)T ,
u(1) = (1, 0)T ,
u(2) = (2, 0)T .
Per raggiungere lo stato desiderato solo tramite il secondo ingresso si deve invece considerare il sistema:


u2 (2)
x̄ = R2  u2 (1) 
(9.38)
u2 (0)
e cioè:
la cui soluzione è data da:

 
1
0
 2 = 0
1
1
u2 (0) = 2,


1 −1
u2 (2)
0
1   u2 (1) 
−2 0
u2 (0)
u2 (1) = 3,
u2 (2) = 7,
e quindi il segnale di ingresso complessivo è dato da:
u(0) = (0, 2)T ,
u(1) = (0, 3)T ,
u(2) = (0, 7)T .
(9.39)
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-263
Infine, per raggiungere il punto desiderato nel minor numero possibile di passi si devono considerare le prime
colonne linearmente indipendenti della matrice di raggiungibilià. Nel caso in esame la matrice di raggiungibilità
è data da:


0 0 1 1
2 −1
1
1 
R= 1 0 0 0
0 1 1 −2 −6 0
dalla cui analisi se vede facilmente che le prime due colonne, e cioè la matrice di ingresso G, non sono sufficienti
a generare uno spazio che contenga il punto desiderato, mentre le prime tre colonne generano uno spazio
sufficientemente ampio (anzi, generano l’intero spazio di stato). Il punto di interesse può quindi essere raggiunto
in due passi, e la sequenza di controllo che ottenere ciò è soluzione del sistema algebrico ottenuto combinando
le prime tre colonne della matrice di raggiungibilità:

 


1
0 0 1
u1 (1)
 2  =  1 0 0   u2 (1) 
(9.40)
1
0 1 1
u1 (0)
la cui soluzione è data da:
u1 (0) = 1,
u2 (1) = 0,
u1 (1) = 2,
e quindi il segnale di ingresso complessivo è dato da:
u(0) = (1, 0)T ,
u(1) = (2, 0)T .
T
T
.
a partire dallo stato x0 = 0 0 1
Se possibile, raggiungere in tre passi lo stato xf = 2 1 1
Per la linearità del sistema, il problema può essere risolto se esiste una sequenza di ingresso che consente
di raggiungere in tre passi il punto xf − F 3 x0 . Il problema ha sicuramente soluzione, poichè il sistema è
raggiungibile, e quindi un qualunque punto dello spazio di stato può essere raggiunto, anche il punto


2
xf − F 3 x0 =  2  .
−4
Per raggiungere tale punto in tre passi è possibile agire in diversi modi, corrispondenti a diverse scelte delle
colonne indipendenti della matrice di raggiungibilità. Una possibilità è quella di usare un solo ingresso, ad
esempio il primo. Il sistema di equazioni di interesse, tenendo conto della forma della matrice di raggiungibilità
da un solo ingresso R1 , è quindi:

 


2
0 1 2
u1 (2)
 2  =  1 0 1   u1 (1) 
(9.41)
−4
0 1 −6
u1 (0)
la cui soluzione è data da:
u1 (0) = 3/4,
u1 (1) = 1/2,
u1 (2) = 5/4,
e quindi il segnale di ingresso complessivo è dato da:
u(0) = (3/4, 0)T ,
u(1) = (1/2, 0)T ,
u(2) = (5/4, 0)T .
Scegliendo invece di usare solo il secondo ingresso si sarebbe trovato il segnale:
u(0) = (0, 2)T ,
u(1) = (0, 4)T ,
u(2) = (0, 4)T .
Infine, scegliendo entrambi gli ingressi, e considerando, ad esempio, le prime tre colonne della matrice di raggiungibilità, si avrebbe la sequenza:
u(0) = (0, 0)T ,
u(1) = (2, 0)T ,
u(2) = (2, −6)T .
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-264
Valutare l’osservabilità sulla base dell’uscita y1 , sulla base dell’uscita y2 , e per mezzo di entrambe le uscite.
Per quanto riguarda l’osservabilità per mezzo della sola prima uscita si deve valutare il rango della matrice


h1
O1 =  h1 F 
h1 F 2
ottenendo:

1
O1 =  −1
5

2
1
2 −1 
−2 1
il cui rango è tre, e quindi il sistema è osservabile. Analogamente, l’osservabilità per mezzo della seconda uscita
è valutabile dalla matrice:
 


h2
1 −1 0
1
1 
O2 =  h2 F  =  0
h2 F 2
−3 1 −2
il cui rango è due, e quindi il sistema, disponendo solo della seconda uscita, non è osservabile.
Ovviamente, poiché il sistema è osservabile dalla prima uscita, lo è anche da entrambe.
Data la sequenza di uscita y(0) = [4 0]T , y(1) = [0 2]T , y(2) = [4 − 4]T , ottenuta in evoluzione libera, osservare,
se possibile, lo stato iniziale sulla base della prima uscita, sulla base della seconda uscita e sulla base di entrambe
le uscite.
Per quanto riguarda la possibilità di osservare lo stato iniziale, ciò è possibile solo dalla prima uscita o da
entrambe, mentre non è possibile dalla sola seconda uscita.
Ciò significa che è del tutto inutile determinare lo stato iniziale, anche nella forma in cui compaiono una
o più indeterminate. Infatti, se un sistema non è osservabile, non è mai possibile “osservare” lo stato iniziale,
cioè, calcolarlo a partire da misure dell’uscita e dell’ingresso.
Per quanto riguarda la determinazione dello stato iniziale a partire dalla sequenza di uscita data, considerando la sola prima componente si ha il sistema:


y1 (0)
 y1 (1)  = O1 x(0)
(9.42)
y1 (2)
e cioè:
la cui soluzione è data da:

 


4
1
2
1
x1 (0)
 0  =  −1 2 −1   x2 (0)  ,
4
5 −2 1
x3 (0)

 
1
x1 (0)
 x2 (0)  =  1  .
1
x3 (0)
(9.43)

Volendo determinare lo stato iniziale sulla base di entrambe le uscite, si può procedere con la pseudoinversa
sinistra, e cioè, dato il sistema di equazioni algebriche:


y1 (0)
 y2 (0) 


 y1 (1) 

ȳ = 
(9.44)
 y2 (1)  = Θx(0),


 y1 (2) 
y2 (2)
la condizione iniziale è data da:
x(0) = (ΘT Θ)−1 ΘY ȳ,
ottenendo x(0) = [1 1 1]T , come in (9.2.2) (ovviamente!).
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-265
In alternativa, si può procedere selezionando tre righe indipendenti della matrice Θ e le rispettive uscite. nel
caso in esame, si potrebbe considerare il sistema:

 

y1 (0)
h1
 y2 (0)  =  h2  x(0),
(9.45)
y1 (1)
h1 F
e cioeè

 


4
1
2
1
x1 (0)
 0  =  1 −1 0   x2 (0)  ,
0
−1 2 −1
x3 (0)
(9.46)
la cui soluzione, ovviamente, è ancora x(0) = [1 1 1]T .
Determinare la decomposizione rispetto alla osservabilità, considerando solo la prima uscita e considerando solo
la seconda uscita.
Per ricostruire lo stato sulla base della prima uscita o di entrambe le uscite, si può partire dalla soluzione
del punto precedente. Poiché lo stato iniziale è x(0) = [1 1 1]T , e tenendo conto del fatto che le uscite misurate
rappresentano l’evoluzione libera nell’uscita, lo stato al passo k = 3 è semplicemente:


1
x(3) = F 3 x(0) =  −1  .
(9.47)
9
Nel caso in cui sia disponibile solo la misura della seconda uscita, si determinare l’insieme degli stati iniziali
soluzione dell’equazione:


y2 (0)
 y2 (1)  = Θ2 x(0),
(9.48)
y2 (2)
e cioè:
la cui soluzione è data da:


x1 (0) − x2 (0)
x2 (0) + x3 (0)

−3x1 (0) + x2 (0) − 2x3 (0)


x1 (0)
x(0) =  x1 (0)  .
2 − x1 (0)
= 0
= 2
= −4
(9.49)
(9.50)
A partire da tale stato iniziale, non completamente determinato, l’evoluzione libera del sistema è pari a:






x1 (0) + 2
x1 (0) − 2
x1 (0)
x(1) = F x(0) =  x1 (0)  , x(2) = F 2 x(0) =  x1 (0) + 2  , x(3) = F 3 x(0) =  x1 (0) − 2  ,
x1 (0) − 4
−x1 (0)
−x1 (0) + 10
(9.51)
da cui emerge chiaramente la non ricostruibilità, perché permane l’indeterminazione associata allo stato iniziale.
Del resto, la matrice F non ha autovalori nulli, e quindi la non osservabilità implica la non ricostruibilità.
Progettare una legge di controllo in retroazione dallo stato per assegnare tutti gli autovalori in zero, utilizzando
entrambi gli ingressi ed imponendo un solo miniblocco di Jordan per la matrice retroazionata.
La decomposizione del sistema rispetto alla osservabilità, sulla base della sola prima uscita, non è rilevante,
perché il sistema è completamente osservabile. La decomposizione sarebbe quindi solo un cambio di coordinate.
Viceversa, nel caso in cui sia disponibile solo la seconda uscita, la decomposizione è significativa. Un primo
modo di procedere è basato sull’uso del sistema duale. Il sistema di interesse è Σ2 (F, G, h2 ), con G = [g1 g2 ], il
cui duale è dato da: Σ∗2 (F T , hT2 , GT ) =: Σ∗ (F ∗ , g2∗ , H ∗ ). La matrice di raggiungibilità del duale è pari a:


1 0 −3
∗
g2 F ∗ g2∗ (F ∗ )2 g2∗ =  −1 1 1  ,
(9.52)
0 1 −2
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-266
ed una base per il sottospazio degli stai (duali) raggiungibili è data da:




1
0
v1 =  −1  , v2 =  1  .
0
1
Una possibile scelta per la nuova base è quindi:


1 0 0
T ∗ =  −1 1 1  ,
0 1 0
(T ∗ )−1
(9.53)

0
1 .
−1

1 0
= 0 0
1 1
(9.54)
La decomposizione rispetto alla raggiungibilità del sistema duale è quindi data da:




0 −3 1
1
−1 1
∗ −1 ∗ ∗
∗ −1 ∗
∗ ∗
∗
∗
∗
¯
¯
¯




F = (T ) F T = 1 −2 0 , g2 = (T ) g2 = 0 , H = H T =
0 1
0 0 1
0
1
0
,
(9.55)
e quindi, tornando al sistema originale, al decomposizione rispetto all’osservabilità, qualora sia disponibile solo
la seconda uscita, data da:




0
1 0
−1 0
F̂ = (F¯∗ )T =  −3 −2 0  , Ĝ = (H¯∗ )T =  1 1  , hˆ2 = (g¯2∗ )T = 1 0 0 .
(9.56)
1
0 1
1 0
Il sottosistema osservabile è dato da:
0
1
ˆ
F11 =
,
−3 −2
Ĝ1 =
−1 0
1 1
mentre il sottosistema non osservabile è dato da:
Fˆ22 = 1 , Ĝ2 = 1 0 ,
,
hˆ2,1 =
hˆ2,2 =
0
1 0
,
(9.57)
.
(9.58)
Si noti, come già verificato al punto precedente, che il sottosistema non osservabile ha, come unico autovalore,
λ = 1, che è non nullo, e quindi il sistema, complessivamente, non è osservabile.
Un secondo modo di procedere è il seguente. A partire dalla matrice di osservabilità Θ, si determinano due
righe indipendenti, che costituiscono un sottoinsieme delle nuove coordinate, e si determina poi un terzo vettore
riga che completi il nuovo sistema di coordinate (cioè, che sia indipendente dalle due righe già scelte). Nel caso
in esame si ha:
r1 = 1 −1 0 , r2 = 0 1 1 ,
(9.59)
ed una possibile scelta per il terzo vettore è:
r3 =
cui corrisponde la matrice di trasformazione

1
T −1 =  0
0
Il sistema, nelle nuove coordinate, è

0
1
hatF = T −1 F T =  −3 −2
1
0
0
1 0
di coordinate:


−1 0
1
1 1 , T =  0
1 0
0
(9.60)

0 1
0 1 .
1 −1
quindi:



0
−1 0
0  , Ĝ = T −1 G =  1 1  ,
1
1 0
hˆ2 = h2 T =
(9.61)
1 0
0
,
(9.62)
che coincide con quanto trovato prima.
Progettare una legge di controllo in retroazione dallo stato per assegnare tutti gli autovalori in zero, utilizzando
entrambi gli ingressi ed imponendo due miniblocchi di Jordan per la matrice retroazionata.
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-267
La raggiungiblità del sistema verificata in precedenza garantisce l’esistenza di una legge di controllo in
reazione dallo stato che consente di allocare arbitrariamente tutti gli autovalori. Per determinare tale retroazione,
si procede in modo classico: forma canonica di controllore a due ingressi e retroazione basata su entrambi gli
ingressi. Il calcolo della matrice K corrispondente è lasciato per esercizio.
Progettare un osservatore con dinamica d’errore convergente a zero in tempo finito, utilizzando entrambe le
uscite ed imponendo un solo miniblocco di Jordan per la matrice della dinamica d’errore.
Si procede come al punto precedente, salvo lavorare sul sistema duale. La legge di retroazione duale, cioè
l’iniezione dall’uscita, esiste perchè il sistema è osservabile se si dispone di entrambe le uscite.
Capitolo 9: Esercizi riepilogo
9.2.3
[Ed. 2015, V 4.0 - PV - UniPG] - 9-268
Esercizio 9.3: traccia della soluzione
a) Il minimo comune multiplo dei due denominatori è dato da: d(z) = (z + 1)(z + 2)2 = z 3 + 5z 2 + 8z + 4,
mentre la matrice polinomiale B(z) = d(z)W (z) è pari a:
B(z) = d(z)W (z) = z 2 + 2z z 2 + 2z + 1 = 1 1 z 2 + 2 2 z 0 1 .
(9.63)
Poiché il sistema ha una sola uscita, è conveniente utilizzare la estensione della forma canonica di osservatore, data da:




0 0 −4
0 1
Fo =  1 0 −8  , go =  2 2  , Ho = 1 0 0 .
(9.64)
0 1 −5
1 1
Si verifica facilmente che la matrice R = [go Fo go Fo2 go ] ha rango pieno, e quindi la realizzazione, che è
osservabile per costruzione, è anche raggiungibile e quindi minima.
b) Legge di controllo in retroazione statica dallo stato.
Una legge del tipo cercato esiste sicuramente, perché il sistema di interesse è una realizzazione minima, e
quindi è raggiungibile. La soluzione dell’esercizio è “classica”.
c) Valutare il numero di miniblocchi.
L’esercizio si risolve facilmente, ricordando che il numero di miniblocchi di una matrice F associati ad un
certo autovalore è pari alla nullità della matrice F − λI. In questa caso si tratta di studiare la nullità
della matrice F + GK − λI, per λ = 0, e quindi la nullità di F + GK. Lo specifico risultato ottenuto
dipende dal modo in cui è stata sintetizzata la matrice di retroazione K. Comunque, si avranno uno o
due miniblocchi, mentre non vi potranno mai essere tre miniblocchi.
d) Progettare un osservatore.
Un osservatore asintotico dello stato per la realizzazione minima determinata esiste sicuramente, perché
la realizzazione è osservabile (per costruzione). Il progetto dell’osservatore è “classico”.
e) Progettare un regolatore in reazione dinamica dall’uscita.
Un regolatore in reazione dinamica dall’uscita si ottiene semplicemente scegliendo come legge di retroazione
u = K x̂ + v, in cui K è, ad esempio, la matrice progettata al punto b) ed x̂ è lo stato dell’osservatore
progettato al punto d).
f) Calcolare la risposta al gradino unitario.
L’esercizio relativo ad un segnale a gradino unitario sul primo ingresso e nullo sul secondo si risolve
antitrasformando la funzione
z
z
;
(9.65)
w1 (z) = 2
z + 3z + 2 z − 1
il caso di gradino unitario sul secondo ingresso e primo ingresso nullo si risolve antitrasformando
w2 (z) =
z
z+1
,
z 2 + 4z + 4 z − 1
(9.66)
ed infine il caso di gradino unitario su entrambi gli ingressi si ottiene, tenendo conto del principio di
sovrapposizione degli effetti, sommando le due risposte forzate precedenti.
g) Risposta completa al gradino per il sistema a ciclo chiuso.
La risposta completa al gradino è limitata se il sistema è esternamente stabile. Poiché il sistema a ciclo è
internamente stabile, è anche esternamente stabile, e cioè stabile in senso BIBO. La risposta al gradino è
quindi limitata.
Inoltre, poiché il sistema a ciclo chiuso è asintoticamente stabile, nella risposta completa tutti i termini (cioè
tutti i modi) che dipendono dal sistema sono convergenti a zero, e quindi l’unico termine che contribuisce
la limite per t tendente ad infinito è quello legato all’ingresso, che è costante. Esiste quindi il limite in
oggetto, ed è pari alla risposta permanente del sistema a ciclo chiuso per ingresso a gradino unitario.
Capitolo 9: Esercizi riepilogo
9.2.4
[Ed. 2015, V 4.0 - PV - UniPG] - 9-269
Esercizio 9.4: traccia della soluzione
1. Osservabilità e ricostruibilità.
Si trova facilmente che il sistema non è osservabile né dalla prima uscita da sola né dalla seconda, mentre
è osservabile utilizzando entrambe le uscite. Infatti:
O1
=
O2
=
O
=

 

h1
1 0 1
 h1 F  =  1 0 1  ,
rango [O1 ] = 1,
h1 F 2
1 0 1

 

0 −1 1
h2
 h2 F  =  0 −2 0  ,
rango [O2 ] = 2,
0 0 0
h2 F 2


H
 HF  ,
rango [O] = 3.
HF 2
(9.67)
(9.68)
(9.69)
La ricostruibilità si può verificare con un criterio diretto, oppure analizzando la controllabilità del duale.
Un primo criterio diretto di ricostruibilità è dato, nei tre casi rispettivamente, da:
XN O,1
XN O,2
XN O
⊆
⊆
⊆
Ker F 3 ,
Ker F 3 ,
(9.70)
(9.71)
Ker F 3 ,
(9.72)
in cui XN O,i indica il sottospazio degli stati non osservabili a partire dalla misura della i-esima uscita,
i = 1, 2, e XN O indica il sottospazio degli stati non osservabili a partire dalla misura dell’intera uscita.
Per i vari sottospazi si trova facilmente:
F3
=
O1
=
O2
=

1
 0
0

1
 1
1

0
 0
0


1
1
0  , Ker F 3 = span  0
0
−1


0 1
1
0 1  , Ker O1 = span  0
0 1
−1


−1 1
1
−2 0  ,
Ker O2 = span  0
0 0
0
0
0
0
 

0
 ;  1  ,
0
  
0
 ;  1  ,
0

 .
(9.73)
(9.74)
(9.75)
Da quanto sopra si vede facilmente che la condizione (9.70) è verificata, e quindi il sistema è ricostruibile a
partire dalla misura della prima uscita; infatti i vettori che descrivono una base di XN O,1 sono combinazione
lineare dei vettori che descrivono una base di Ker F 3 . Viceversa, poichè il vettore che descrive una base
di XN O,2 non è combinazione lineare della base di Ker F 3 , la condizione (9.71) non è verificata e quindi
il sistema non è ricostruibile a partire dalla misura della seconda uscita.
Infine, poichè il sistema, a partire da entrambe le uscite, è osservabile, è anche ricostruibile, e quindi la
condizione (9.72) vale sicuramente.
Un secondo metodo per la verifica della ricostruibilità è il criterio PBH. Nel caso del sistema in esame
gli autovalori della matrice F sono λ = 0, molteplcità algebrica pari a 2, e λ = 1, molteplcità algebrica
pari ad 1, cioè sp {F } = {0, 0, 1}. Per verificare la ricostruibilità si deve quindi studiare il solo caso
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-270
dell’autovalore non nullo, λ = 1. I test di interesse sono quindi:


0 2
1
 0 −1 0 
F −I

rango
= rango 
 0 −2 −1  = 3,
h1
1 0
1


0 2
1
 0 −1 0 
F −I

rango
= rango 
 0 −2 −1  = 2,
h2
0 −1 1
(9.76)
(9.77)
e quindi il sistema è ricostruibile a partire da misure della prima uscita e non lo è a partire da misure
della seconda uscita (la matrice di interesse ha infatti una colonna nulla).
Un ulteriore test di ricostruibilità può essere condotto studiando la controllabilità del sistema duale. Nel
caso in esame, indicato con Σ(F ∗ , G∗ , h∗ ) il sistema duale, le condizioni da verificare sono:
Im [(F ∗ )3 ] ⊆ Im [R∗1 ],
Im [(F ∗ )3 ] ⊆ Im [R∗2 ],
con:

1
(F ∗ )3 = (F 3 )T =  0
0

0 1
0 0 ,
0 0

1 1
R∗1 = O1T =  0 0
1 1
da cui si ricavano facilmente le condizioni:
rango [R∗1 ] = rango [R∗1 |(F ∗ )3 ],

1
0 ,
1

0
0
R∗2 = O2T =  −1 −2
1
0
rango [R∗2 ] 6= rango [R∗2 |(F ∗ )3 ],

0
0 ,
0
(9.78)
e quindi il sistema duale è controllabile tramite il primo ingresso e non lo è tramite il secondo. Ne segue,
come già noto, che il sistema di partenza è ricostruibile sulla base della misura delle prima uscita, ma non
lo è se si dispone solo della misura della seconda uscita.
2. Uscita in evoluzione libera pari a y(0) = (2 0)T , y(1) = (2 − 2)T , y(2) = (2 0)T .
Poiché il sistema non è osservabile da una singola uscita, non è possibile valutare lo stato iniziale a partire
dalla misura di una sola uscita. Infatti, cercando di risolvere il sistema:

 

y1 (0)
h1
 y1 (1)  =  h1 F  x(0)
y1 (2)
h1 F 2
che corrisponde al caso in cui si possa misurare solo
  
2
1
 2 = 1
2
1
la cui soluzione in x(0) è data da:
la prima uscita, si trova:


0 1
α
0 1  β 
0 1
γ


2−γ
x(0) =  β 
γ
che, come previsto, non corrisponde ad un singolo punto. Si ha anzi dipendenza da due parametri, in
accordo con il fatto che la corrispondente matrice di osservabilità O1 ha nullità pari a due. Volendo poi
valutare la possibilità di ricostruire lo stato ai passi t = 1 e t = 2, si possono calcolare x(1) ed x(2). Si
trova:


 

1 2 1
2−γ
2 + 2β
,
0
x(1) = F x(0) =  0 0 0   β  = 
0 −2 0
γ
2β
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-271


 

1 2 1
2 + 2β
2
 =  0 ,
0
x(2) = F x(1) =  0 0 0  
0 −2 0
2β
0
da cui si vede che, se sono disponibili le misure della sola prima uscita, lo stato non è ricostruibile al primo
passo (t = 1), è invece ricostruibile al passo t = 2 (e successivi!).
Per quanto riguarda la possibilità di osservare e ricostruire lo stato sulla base di misure della sola seconda
uscita, si deve considerare il sistema:

 

y2 (0)
h2
 y2 (1)  =  h2 F  x(0).
y2 (2)
h2 F 2
Si trova:

 


0
0 −1 1
α
 −2  =  0 −2 0   β 
0
0 0 0
γ
cui corrisponde una soluzione in x(0) data da:


α
x(0) =  1  .
1
Ovviamente, per una opportuna scelta dei parametri liberi, la condizione iniziale trovata in questo caso
e quella trovata nel caso di misure della prima uscita coincidono. In particolare, si può scegliere α = 1,
β = 1, γ = 1.
Volendo poi valutare la possibilità di ricostruire lo stato al passo t = 1 e t = 2, si possono calcolare x(1)
ed x(2). Si trova:


 

1 2 1
α
α+3
x(1) = F x(0) =  0 0 0   1  =  0  ,
0 −2 0
1
−2


 

1 2 1
α+3
α+1
x(2) = F x(1) =  0 0 0   0  =  0  .
0 −2 0
−2
0
Calcolando anche lo stato al passo t = 3:

1
x(3) = F x(2) =  0
0

 

2 1
α+1
α+1
0 0  0  =  0 .
−2 0
0
0
Il sistema infatti non è ricostruibile solo sulla base della misura della seconda uscita. Si noti che, per il
valore α = 1 per cui le due condizioni iniziali coincidono, anche lo stato al passo t = 2 appena calcolato
coincide con quello ricostruito nel caso di misura di y1 (ovviamente).
Infine, volendo osservare lo stato iniziale

2
 0

 2

 −2

 2
0
a partire da entrambe le uscite, si trova il sistema:
 

1 0 1
  0 −1 1  

 

α
  1 0 1 
=
 β .
  0 −2 0 
 

γ
  1 0 1 
0 0 0
(9.79)
Un possibile modo per risolvere questo sistema, che ammette sempre almeno una soluzione, e ne ammette
solo una se il sistema è osservabile, come in questo caso, è quello di scegliere un insieme di 3 righe
indipendenti; ad esempio la prima, la seconda e la quarta, ottenendo:

 


2
1 0 1
α
 0  =  0 −1 1   β  .
(9.80)
−2
0 −2 0
γ
Capitolo 9: Esercizi riepilogo
[Ed. 2015, V 4.0 - PV - UniPG] - 9-272
La soluzione di tale sistema, e cioeè la condizione iniziale cercata, è:
 
1
x(0) =  1  .
1
(9.81)
Un altro metodo è basato sulla pseudo inversa sinistra:


1
x(0) = (OT O)−1 OT ȳ =  1  .
1
(9.82)
Ovviamente, la condizione iniziale appena trovata si ottiene da quelle determinate in precedenza scegliendo
opportunamente i parametri liberi. In particolare, nel primo caso β = 1, γ = 1, nel secondo caso α = 1.
3. Esistenza e sintesi dell’osservatore.
L’osservatore cercato esiste sicuramente se si dispone della misura di entrambe le uscite, perché in tal caso
il sistema è osservabile. L’osservatore con dinamica d’errore convergente in tempo finito esiste anche se si
dispone solo della misura della prima uscita, perché in questo caso il sistema è ricostruibile.
4. Esistenza e sintesi di un controllore in reazione statica dallo stato.
La matrice di raggiungibilità del sistema è data da:


1 −1 1
R =  −1 0 0 
0
2 0
(9.83)
il cui rango è pari a tre, e quindi il sistema è raggiungibile. È allora possibile calcolare una matrice di
retroazione dallo stato che renda il sistema a ciclo chiuso asintoticamente stabile. La procedura di sintesi
è “classica”.
5. Esistenza e calcolo di un controllore in reazione dinamica dall’uscita.
Per quanto visto in precedenza, un tale regolatore esiste, ed è ottenibile, ad esempio, tramite la legge di
controllo:
u = K x̂ + v,
(9.84)
in cui la matrice K è quella progettata al punto 4 e x̂ è la stima dello stato ottenuta tramite l’osservatore
asintotico:
x̂(k + 1) = F x̂(k) + gu(k) + L(H x̂(k) − y)
(9.85)
progettato al punto 3.
Appendice A
Strumenti geometrici per l’analisi di
sistemi dinamici lineari
A.1
Autovalori ed autovettori
Data una matrice A quadrata, ad elementi reali, di dimensione n × n (brevemente, A ∈ Rn×n ), dato uno scalare
λ ed un vettore v, si dice che λ è un autovalore di A associato all’autovettore v se vale la condizione:
Av = λv ⇔ (A − λI)v = 0.
(A.1)
Si noti che, pur essendo la matrice A ad elementi reali, i suoi autovalori ed autovettori possono essere complessi
coniugati.
Data una matrice A, la totalità dei suoi autovalori si determina risolvendo il suo polinomio caratteristico:
pA (λ) := det(λI − A),
(A.2)
le cui radici corrispondono ai valori di λ per i quali il nucleo della matrice (λI − A) è non banale. La molteplicità
di uno scalare λ come radice del polinomio caratteristico di una matrice è detta molteplicità algebrica di tale
autovalore.
Si noti che gli autovettori sono determinati a meno di una costante, e quindi: un autovettore individua
sempre un sottospazio vettoriale, i cui elementi sono tutti autovettori associati allo stesso autovalore. Tale
sottospazio V, detto anche autospazio, è quindi individuato da:
V = Im(v : (A − λI)v = 0),
(A.3)
V = ker(A − λI).
(A.4)
o, ancora più propriamente, da:
Si ricordi che una matrice quadrata, ad elementi reali, di dimensione n × n è interpretabile come rappresentazione di un operatore lineare, che quindi opera trasformazioni di roto-traslazione su vettori. Allora, un
autovettore individua una sorta di “direzione privilegiata” di tale operatore, lungo la quale non vi è rotazione,
ma solo variazione della lunghezza, e l’autovalore indica appunto l’entità di tale variazione di lunghezza e/o
verso.
Infine, si noti che, data una matrice A ed una autovalore λ, a tale autovalore possono essere associati
anche più autovettori indipendenti. In tal caso, l’autospazio relativo ha dimensione maggiore di uno, e pari
alla dimensione del nucleo della matrice (A − λI). Tale dimensione viene indicata con il termine molteplicità
geometrica dell’autovettore λ.
Dato un sistema dinamico a tempo continuo o a tempo discreto
∆x = Ax + Bu,
(A.5)
in cui l’operatore ∆ indica una derivata temporale (∆x(t) = ẋ(t)) nel caso di sistemi a tempo continuo o una
traslazione temporale (∆x(k) = x(k + 1)) nel caso di sistemi a tempo discreto, gli autovalori della matrice A
sono detti anche autovalori del sistema dinamico.
273
: Appendice: strumenti geometrici ed algebrici
[Ed. 2015, V 4.0 - PV - UniPG] -
A-274
Il polinomio caratteristico ha la importante proprietà di essere un polinomio annullatore della matrice stessa.
In altre parole, se si calcola una combinazione lineare delle potenze di una matrice con i coefficienti del suo
polinomio caratteristico, si ottiene una matrice nulla. Tale risultato, di uso molto frequente, va sotto il nome di
teorema di Cayley-Hamilton. Le potenze della matrice vanno intese nel senso dell’usuale prodotto righe-colonne.
Teorema A.1 (Cayley-Hamilton) Sia data una matrice A quadrata, ad elementi reali, di dimesione n × n,
e sia pA (λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 il suo polinomio caratteristico. Allora, il polinomio pA (λ) è
annullatore della matrice:
pA (A) = An + an−1 An−1 + · · · + a1 A + a0 I = 0,
(A.6)
e quindi:
An = −an−1 An−1 − · · · − a1 A − a0 I.
(A.7)
Il polinomio caratteristico non è l’unico polinomio annullatore. Data una matrice A quadrata, ad elementi
reali, di dimesione n × n, il polinomio di grado minore che annulla tale matrice è detto polinomio minimo della
stessa. Si noti che polinomio caratteristico e polinomio minimo hanno le stesse radici, e si differenziano solo per
la molteplicità delle stesse.
A.2
Trasformazioni di similarità algebrica
Nello studio dei sistemi dinamici, ed in generale nello studio di sistemi immersi in spazi vettoriali, è spesso utile,
per evidenziare proprietà di interesse o per rendere più agevole il calcolo di funzioni ed opearazioni specifiche,
cambiare il sistema di coordinate nelle quali si rappresentano lo spazio di stato e le matrici che descrivono un
assegnato sistema. Cambiare coordinate è del tutto equivalente a cambiare base nello spazio di stato sottostante
la specifica rappresentazione in uso per il sistema. Tale opearazione, nel contesto dei sistemi dinamici, viene detta
trasformazione di similarità od anche trasformazione di equivalenza algebrica, e due diverse rappresentazione
dello stesso sistema (o, in generale, due sistemi) legati da tali trasformazioni sono detti sistemi (algebricamente)
equivalenti od anche sistemi simili.
Si consideri quindi un sistema dinamico a tempo continuo o a tempo discreto, indifferentemente:
∆x =
y =
Ax + Bu,
Cx + Du.
(A.8)
(A.9)
Si consideri un nuovo sistema di coordinate:
z = T −1 x.
(A.10)
−1
dove T
indica una matrice quadrata, non singolare, di dimensione n. La relazione (A.10) definisce una
trasformazione di coordinate. Il vettore x indica le vecchie coordinate, il vettore z le nuove coordinate, la
matrice T −1 indica la trasformazione lineare tra i due sistemi di coordinate. Una trasformazione lineare di
coordinate è una buona trasformazione, o più rigorosamente, è una trasformazione ben definita, se e solo se la
matrice di trasformazione è non singolare, e quindi invertibile. In tal caso, è immediato tornare alle vecchie
coordinate:
x = T z.
(A.11)
La condizione di invertibilità della tasformazione, come è ben intuibile, è sempre richiesta. Si noti che la
trasformazione considerata è lineare. Benché il concetto di trasformazione di coordinate possa essere esteso
anche al caso dei sistemi nonlineari, in questa sede ci si limita al caso di trasformazioni lineari, dato il contesto.
Di norma, nel definire una trasformazione di coordinate si definisce direttamente la matrice T −1 nei casi in
cui siano note le nuove coordinate z, mentre si definisce la matrice di trasformazione T nel caso in cui sia noto
il nuovo insieme di vettori di base. Più precisamente,
per lo spazio vettoriale di interesse,
data una nuova base
descritta dagli n vettori linearmente indipendenti v1 v2 · · · vn , le matrice di trasformazione T e T −1
sono date da:
(A.12)
T = v1 v2 · · · vn , T −1 = Inv(T ).
Si consideri ora un sistema dinamico, a tempo continuo o a tempo discreto, indifferentemente:
∆x =
y =
Ax + Bu,
Cx + Du
(A.13)
(A.14)
: Appendice: strumenti geometrici ed algebrici
[Ed. 2015, V 4.0 - PV - UniPG] -
A-275
ed un cambio di coordinate z = T −1 x. Quale è la rappresentazione di tale sistema nelle nuove coordinate? Per
determinare tale rappresentazione, si può procedere molto semplicemente applicando la trasformazione ai due
lati delle equazioni che definiscono il modello. Poiché la matrice di trasformazione non dipende dal tempo, è
ovvio che ∆z = T −1 ∆x, e quindi:
∆z
y
=
=
T −1 ∆x = T −1 Ax + T −1 Bu,
Cx + Du.
(A.15)
(A.16)
Utilizzando poi il legame inverso x = T z, si trova:
∆z
y
T −1 AT z + T −1 Bu,
CT z + Du.
=
=
(A.17)
(A.18)
Il sistema descritto dalle (A.17), (A.18) è ancora un sistema lineare, con diverse rappresentazioni delle matrici
caratteristiche. In particolare, poste le condizioni:
Ā =
B̄ =
T −1 AT
T −1 B
(A.19)
(A.20)
C̄
D̄
CT
D
(A.21)
(A.22)
=
=
(A.23)
si ricava:
∆z
=
Āz + B̄u,
(A.24)
y
=
C̄z + D̄u.
(A.25)
Si sottolinea ancora il fatto che le equazioni (A.17), (A.18) e le equazioni (A.24), (A.25) sono due rappresentazioni simili, o equivalenti, dello stesso sistema dinamico. Sono, con linguaggio informale, “due punti di vista
diversi sullo stesso sistema”. Tali rappresentazioni devono quindi avere le stesse proprietà fondamentali.
In particolare, dati due sistemi algebricamente equivalenti Σ(A, B, C, D) e Σ(Ā, B̄, C̄, D̄), si hanno le seguenti
due proprietà fondamentali:
Proprietà A.1 Gli autovalori di un sistema dinamico sono invarianti rispetto a trasformazioni di similarità
algebrica, cioè:
pA (λ) = pĀ (λ)
(A.26)
Proprietà A.2 La matrice di trasferimento di un sistema dinamico è invariante rispetto a trasformazioni di
similarità algebrica, cioè:
W (s) = C(sI − A)−1 B + D = C̄(sI − Ā)−1 B̄ + D̄ = W̄ (s).
(A.27)
Entrambe le proprietà si dimostrano facilmente. Si ricordi che, date due matrici quadrate M ed N , delle
stesse dimensioni, si ha: det(M · N ) = det(M ) · det(N ), ed inoltre det(M −1 ) = 1/det(M ) (assumendo M
invertibile!). Ed ancora, dato il prodotto M · N , si ha: (M · N )−1 = N −1 · M −1 .
Per la prima proprietà si ottiene quindi:
pĀ (λ)
=
=
det(sI − Ā) = det(sT −1 T − T −1 AT ) = det[T −1 (sI − A)T ]
det(T −1 ) · det(sI − A) det(T ) = det(sI − A) = pA (λ).
(A.28)
(A.29)
Similmente, per la seconda proprietà si ottiene:
W̄ (s)
= C̄(sI − Ā)−1 B̄ + D̄
= CT (sT −1 T − T −1 AT )−1 T −1 B + D
−1 −1
= CT T −1 (sI − A)T
T B+D
−1
−1
−1
= CT T (sI − A) T T B + D
= C(sI − A)−1 B + D = W (s)
(A.30)
(A.31)
(A.32)
(A.33)
(A.34)
: Appendice: strumenti geometrici ed algebrici
A.3
A.3.1
[Ed. 2015, V 4.0 - PV - UniPG] -
A-276
Forme canoniche
Forma diagonale
Si consideri il caso di un sistema descritto da una matrice dinamica A non diagonale, ma diagonalizzabile.
Ciò implica l’esistenza di una matrice di trasformazione di coordinate T , non singolare, tale che, nelle nuove
coordinate, la matrice A diviene una matrice Λ con struttura diagonale:


λ1 0 · · · 0
 0 λ2 · · · 0 


Λ = T −1 AT,  .
(A.35)
..
..  ,
..
 ..
.
.
. 
0
0
···
λn
in cui gli elementi λi , i = 1, 2, . . . , n, sono gli autovalori della matrice A (si ricordi che gli autovalori sono
invarianti rispetto a trasformazioni di simularità algebrica).
In particolare, una matrice A, di dimensione n× n, è diagonalizzabile se ha n autovettori indipendenti. In tal
caso, la matrice di trasformazione T che consente la diagonalizzazione è la matrice costituita dagli n autovettori.
La matrice di cambio di coordinate che consente di diagonalizzare la matrice A è costituita dagli n autovettori
della matrice stessa (se tali autovettori non sono indipendenti, la matrice non è diagonalizzabile, come noto).
Cioè, detti vi , i = 1, 2, · · · , n, gli autovettori associati, rispettivamente, agli autovalori λi , i = 1, 2, · · · , n, la
matrice di trasformazione è data da:
(A.36)
T = v1 v2 · · · vn ,
come si deduce facilmente anche dalla relazione:



AT = T Λ = T 

A.3.2
λ1
0
..
.
0
λ2
..
.
···
···
..
.
0
0
..
.
0
0
···
λn



.

(A.37)
Forma canonica reale
La forma diagonale di una matrice con autovalori complessi non è idonea allo studio di sistemi dinamici, perchè
nel suo esponenziali compaiono funzioni complesse, che non sono ammissibili per rappresentare il comportamento
di sistemi reali. In tal caso si ricorre alla forma canonica reale, che consente di tenere conto in forma strutturale
di tale necessità. Data una matrice A di dimensione due, con autovalori complessi coniugati λ = σ + ω e
λ∗ = σ − ω, è facile vedere che gli autovettori relativi v = vR + vI e v ∗ = vR − vI sono anch’essi complessi
coniugati, ed inoltre il vettore parte reale vR ed il vettore parte immaginaria vI sono linearmente indipendenti.
Scelti come nuovi vettori di base vR e vI , la matrice A, nelle nuove coordinate, assume la forma seguente, detta
appunto forma canonica reale:
−1 σ ω
A vR vI =
Ā := T −1 AT = vR vI
.
(A.38)
−ω σ
Per dimostrare tale affermazione, si riscriva la relazione di similarità algebrica in termini della sola matrice T :
vR vI Ā = A vR vI .
(A.39)
Utilizzando la notazione [M ]i per indicare la colonna i-esima della matrice M , dalla relazione precedente segue:
vR vI Ā 1 = AvR
(A.40)
Per quanto riguarda il lato destro dell’uguaglianza precedente, tenendo conto della definizione di autovalore ed
autovettore, cioè Av = (σ + ω)v, si ha:
Real(Av) = AvR = Real(λv) = σvR − ωvI
(A.41)
mentre per il lato sinistro si ha:
vR
vI
Ā 1 = vR
vI
Ā 1 .
(A.42)
: Appendice: strumenti geometrici ed algebrici
[Ed. 2015, V 4.0 - PV - UniPG] -
Dalle due eguaglianze precedenti segue immediatamente:
σ
Ā 1 =
.
−ω
A-277
(A.43)
In modo simile, analizzando la seconda colonna dei lati destro e sinistro si trova, rispettivamente:
vR vI Ā 2 = vR vI
vR vI Ā 2 = AvI ,
Ā 2 ,
(A.44)
da cui segue
Ā 2 =
La forma canonica reale è quindi pari a:
Ā =
A.3.3
σ
−ω
ω
σ
ω
σ
.
(A.45)
.
(A.46)
Forma di Jordan
Il calcolo della forma di Jordan di un operatore A che mappa lo spazio vettoriale (Cn , C) in se stesso (si considera
il caso in cui di tale operatore sia data una rappresentazione reale, cioè sotto forma di una matrice A quadrata
ad elementi reali), è basato sul concetto di autovettore generalizzato.
Autovettori generalizzati
Nel seguito si elencano alcune definizioni fondamentali e vengono presentati, senza prova, alcuni risultati preliminari alla costruzione della forma di Jordan.
Definizione A.1 (Autovettore generalizzato) Un vettore v ∈ Rn è detto autovettore generalizzato di ordine k della matrice A (dell’operatore A) associato all’autovalore λ se e solo se valgono le relazioni:
(A − λI)k v = 0,
k−1
(A − λI)
(A.47)
v 6= 0.
(A.48)
Si noti che, per k = 1, si trova la classica definizione di autovettore. Si noti anche che un autovettore generalizzato
di ordine maggiore di uno non è un autovettore.
Dato un autovettore generalizzato v di ordine k, è naturale associare ad esso una catena di autovettori
generalizzati di lunghezza k , costruita nel modo seguente:
v (k)
:=
v,
(A.49a)
(k−1)
:=
v (k−2)
:=
..
.
(A − λI)v (k−1) ,
v (1)
:=
(A − λI)v (2) .
v
(A − λI)v
(k)
,
(A.49b)
(A.49c)
(A.49d)
(A.49e)
È immediato vedere che il generico vettore v (i) , i = 2, . . . , k − 1, è un autovettore generalizzato di ordine i, ed
inoltre che il vettore v (1) è un autovettore.
I vettori di una catena di autovettori generalizzati sono tra loro linearmente indipendenti, come meglio
precisato nei seguenti risultati, fondamentali per la costruzione della forma di Jordan.
Teorema A.2 I vettori v (1) , v (2) , . . ., v (k−1) , v (k) , di una catena di autovettori generalizzati di lunghezza k
sono tra loro linearmente indipendenti.
(1)
(2)
(k−1)
(k)
(1)
(2)
(ℓ−1)
(ℓ)
Teorema A.3 Date due catene {v1 , v1 , . . ., v1
, v1 } e {v2 , v2 , . . ., v2
, v2 }, di autovettori
generalizzati di lunghezza k ed ℓ, rispettivamente, associate ad uno stesso autovalore, se i due autovettori v1 e
v2 sono tra loro linearmente indipendenti, allora ogni vettore delle due catene è linearmente indipendente da
tutti gli altri k + ℓ − 1 vettori.
: Appendice: strumenti geometrici ed algebrici
[Ed. 2015, V 4.0 - PV - UniPG] -
A-278
Teorema A.4 Date due catene {v (1) , v (2) , . . ., v (k−1) , v (k) } e {u(1) , u(2) , . . ., u(ℓ−1) , u(ℓ) }, di autovettori
generalizzati di lunghezza k ed ℓ, rispettivamente, associate a due distinti autovalori, allora ogni vettore delle
due catene è linearmente indipendente da tutti gli altri.
I tre teoremi precedenti consentono di utilizzare i vettori di catene di autovettori generalizzati come nuovi
vettori di base. Per la costruzione della forma di Jordan, ed anche per la determinazione degli autospazi
generalizzati A-invarianti, è utile esprimere gli autovettori generalizzati nella seguente forma, dalla quale segue
in modo immediato sia la composizione dei sottospazi A-invarianti sia la forma dell’operatore A (di sue porzioni)
utilizzando catene di autovettori come nuova base. Dalle (A.49) si ha:
Av (1)
Av
Av
(2)
(k)
=
=
..
.
=
λv (1) ,
λv
(2)
λv
(k)
(A.50)
+v
(1)
+v
,
(A.51)
(k−1)
(A.52)
(A.53)
.
Nel calcolo e nello studio della forma di Jordan di un operatore (matrice) sono utili i due sottospazi seguenti,
detti, rispettivamente, autospazio associato all’autovalore λ ed autospazio generalizzato associato all’autovalore
λ):
Uλ := ker(A − λI),
Nλ := ker(A − λI)m ,
(A.54)
(A.55)
ove m indica il più piccolo intero per cui la seguente successione di sottospazi converge:
ker(A − λI) ⊂ ker (A − λI)2 ⊂ · · · ker (A − λI)m−1 ⊂ ker [(A − λI)m ] = ker (A − λI)m+1 .
(A.56)
Sulla base dei concetti e della notazione introdotta, si può ora dare una procedura per il calcolo della forma
di Jordan di un operatore A (ovvero, di una sua rappresentazione come matrice reale A).
Calcolo della forma di Jordan
Sulla base dei risultati della sezione precedente, si può ora descrivere una procedura per il calcolo della forma
di Jordan di una data matrice (od operatore).
Procedura A.1 (Calcolo della forma di Jordan.)
Passo 1. Calcolo del polinomio caratteristico della matrice A e dei suoi autovalori:
p(λ) = det(λI − A),
con
Pr
i=1
p(λ) =
r
Y
i=1
(λ − λi )ni ,
ni = n.
Passo 2. Se gli autovalori sono tutti distinti, allora la matrice è diagonalizzabile e si procede calcolando n
autovettori indipendenti v1 , v2 , . . ., vn e costruendo la matrice di trasformazione:
T = [ v1
v2
···
vn ]
in cui vi è l’autovettore (destro) di A associato all’autovalore λi . In tale caso, l’operatore, nelle nuove
coordinate, è rappresentato dalla matrice:


λ1 0 · · · 0
 0 λ2 · · · 0 


A = T −1 AT, A =  .
..  .
..
..
 ..
.
. 
.
0
0 · · · λn
Passo 3. Se gli autovalori non sono tutti distinti, si deve procedere al calcolo delle catene di autovettori
generalizzati.
: Appendice: strumenti geometrici ed algebrici
[Ed. 2015, V 4.0 - PV - UniPG] -
A-279
Passo 3.1. Si consideri il generico autovalore λi . La dipendenza esplicita da λi e dall’indice i verrà
spesso omessa, nel seguito del passo 3, per semplicità di notazione.
Si determini il più piccolo indice m per il quale la successione di sottospazi seguenti diviene stazionaria
(si noti che m, anche se non esplicitamente indicato, dipende da λi ):
ker(A − λI) ⊂ ker (A − λi I)2 ⊂ · · · ker (A − λi I)m−1 ⊂ ker [(A − λi I)m ] = ker (A − λi I)m+1
Passo 3.2.
Si determini
il numero e la lunghezza delle varie catene. Sia dj la dimensione del sottospazio
ker (A − λi I)j , j = 1, 2, . . . , mi , e sia δj l’incremento nella dimensioni di tali sottospazi, cioè δ1 = d1 ,
δj = dj − dj−1 , j = 2, 3, . . . , m. Allora, il numero complessivo di catene è pari a d1 . Inoltre, vi sono
δm catene di lunghezza m, δm−1 -δm catene di lunghezza pari ad m − 1, e cosı̀ via fino ad avere δ1 -δ2
catene lunghe esattamente uno.
Si noti che, complessivamente, le catene sono: δm + (δm−1 − δm ) + (δm−2 − δm−1 ) + · · · + (δ1 − δ2 ) =
δ1 = d1 = dim [ker(A − λi I)].
Le dimensioni dei vari sottospazi e le lunghezze delle catene corrispondenti sono sinteticamente indicate nella seguente tabella A.1 .
Autospazio
generalizzato
ker [(A − λI)m ] ker (A − λI)m−1
Dimensione
autospazio
dm
dm−1
Variazione
dimensione
δm = dm − dm−1
δm−1 = dm−1 − dm−2
ker (A − λI)m−2
dm−2
δm−2 = dm−2 − dm−3
..
.
ker (A − λI)2
..
.
d2
..
.
δ2 = d2 − d1
ker(A − λI)
d1
δ1 = d1
Numero
catene
δm
δm
δm−1 − δm
δm
δm−1 − δm
δm−2 − δm−1
..
.
δm
δm−1 − δm
..
.
Lunghezza
catene
m
m
m−1
m
m−1
m−2
..
.
m
m−1
..
.
δ2 − δ3
δm
δm−1 − δm
..
.
2
m
m−1
..
.
δ2 − δ3
δ1 − δ2
2
1
Tabella A.1: Autospazi generalizzati e catene di autovettori generalizzati
(m)
(m)
(m)
Passo 3.3. Si calcolino δm autovettori generalizzati di ordine m, indicati con {v1 , v2 , . . . , vδm },
cioè δm vettori appartenenti
a ker [(A − λI)m ], ed indipendenti da tutti i vettori del sottospazio
m−1
ker (A − λI)
, già determinato. Tali vettori sono gli elementi di partenza per il calcolo di
altrettante catene di lunghezza m.
(m−1)
Passo 3.4. Si calcolino δm autovettori generalizzati di ordine m − 1, indicati con {v1
(m−1)
vδm }, come ulteriori elementi delle δm catene di lunghezza m:
(m−1)
vj
(m)
:= (A − λi I)vj
,
(m−1)
, v2
, . . .,
j = 1, 2, . . . , δm .
(m−1)
Si calcolino infine altri δm−1 − δm autovettori generalizzati di ordine m − 1, indicati con {vδm +1 ,
(m−1)
(m−1)
vδm +2 , . . ., vδm−1 }, che siano indipendenti dai δm autovettori generalizzati di ordine m − 1 già
trovati in questo passo. Tali vettori sono gli elementi di partenza per il calcolo di altrettante catene
di lunghezza esattamente pari a m − 1.
Passo 3.5. In modo analogo a quanto fatto al passo precedente, si prolunghino le catene già iniziate, e si
inizino nuove catene, se del caso (cioè, se la differenza tra due valori consecutivi dei parametri δ è non
: Appendice: strumenti geometrici ed algebrici
[Ed. 2015, V 4.0 - PV - UniPG] -
A-280
nulla). Si prosegua fino ad arrivare alla costruzione di tutte le d1 catene di autovettori generalizzati
associate all’autovalore λi .
Passo 3.6. Si ripetano i passi da 3.1 a 3.5 per tutti gli autovalori della matrice.
Passo 3.7. Si raccolgano gli n vettori cosı̀ ottenuti (che risultano essere tutti tra loro linearmente
indipendenti) in una matrice T di cambiamento di base, ordinati per catene, ciascuna catena ordinata a partire dall’autovettore corrispondente fino all’autovettore generalizzato di ordine massimo.
(k)
Nell’equazione seguente, il vettore vλi ,j indica l’autovettore generalizzato di ordine k della j-esima
catena associata all’autovalore λi , e l’intero mi indica l’indice per il quale converge la sequenza
di autospazi generalizzati associati all’autovalore λi , e quindi anche la dimensione del più grande
miniblocco di Jordan associato a tale autovalore, nonché la lunghezza della catena più lunga. Infine,
ηi indica la lunghezza della catena più corta associata all’autovalore λi .
i
h
(η1 )
(ηr )
(2)
(2)
(2)
(m1 )
(1)
(1)
(A.57)
T = vλ(1)
·
·
·
v
·
·
·
v
v
v
v
·
·
·
v
·
·
·
v
·
·
·
v
λ1 ,d1
λr ,d1
λ1 ,d1
λr ,d1
λ1 ,1
λ1 ,1
λ1 ,d1
λr ,d1
1 ,1
Passo 3.8 La matrice T cosı̀ determinata costituisce il nuovo insieme di vettori di base, e la corrispondente
rappresentazione Ā dell’operatore A è la forma di Jordan cercata.
Tale forma si può ottenere per similarità algebrica:
Ā = T −1 AT
(A.58)
oppure la si può costruire direttamente, ricordando che ad una catena di autovettori generalizzati
di lunghezza k associata all’autovalore λ corrisponde un minibloccco di Jordan con autovalore λ, e
dimensione pari a k.
♦
Il legame tra le catene di autovettori generalizzati e gli autospazi del tipo ker[(A − λI)k ] è illustrato in modo
sintetico nella tabella seguente.
(1)
v1
ker[A − λI]
(2)
= (A − λI)v1
..
.
(1)
(2)
vδm = (A − λI)vδm
(1)
ker[(A − λI)2 ]
(3)
= (A − λI)v1
..
.
···
← ···
..
.
←
(3)
← ···
← vδm
←
(2)
v1
←
vδm = (A − λI)vδm
(2)
(2)
(2)
(3)
vδm +1 = (A − λI)vδm +1 ← vδm +1 = (A − λI)vδm +1 ← · · ·
..
..
..
.
.
.
(3)
(2)
(2)
(1)
vδm−1 = (A − λI)vδm−1 ← vδm−1 = (A − λI)vδm−1 ← · · ·
..
.
(1)
ker[(A − λI)m−1 ]
(m)
= (A − λI)v1
..
.
(m−1)
v1
(m−1)
←
←
(m−1)
= (A − λI)vδm
(m−1)
vδm +1
..
.
(m−1)
vδm−1
..
.
(2)
vδ3 +1 = (A − λI)vδ3 +1
..
.
(2)
(1)
vδ2 = (A − λI)vδ2
←
←
(2)
vδ3 +1
..
.
(2)
vδ2
(1)
vδ2 +1
..
.
(1)
vδ1
Tabella A.2: Determinazione delle catene di autovettori generalizzati
ker[(A − λI)m ]
(m)
←
v1
..
.
←
(m)
vδm
: Appendice: strumenti geometrici ed algebrici
A.4
A.4.1
[Ed. 2015, V 4.0 - PV - UniPG] -
A-281
Esponenziale di matrice
Forma canonica reale
Il calcolo dell’esponenziale di matrice per la forma canonica reale può essere condotto facilmente per diagonalizzazione. Data una matrice A:
σ ω
A=
,
(A.59)
−ω σ
con autovalori dati dai numeri complessi coniugati σ + ω e σ − ω, è facile vedere che gli autovettori associati
v e v ∗ sono pari a:
1
1
v=
, v∗ =
.
(A.60)

−
Scelti come nuovi vettori di base tali autovettori, utilizzando la trasformazione di equivalenza algebrica :
1 1
T =
,
(A.61)
 −
si ottiene la attesa forma diagonale:
Ā = T
−1
AT =
σ + ω
0
0
σ − ω
cui corrisponde l’esponenziale matriciale:
(σ+ω)t
σt
e
0
e (cos(ωt) +  sin(ωt))
e Āt =
=
0
0
e (σ−ω)t
,
0
e σt (cos(ωt) −  sin(ωt))
(A.62)
(A.63)
L’esponenziale nelle coordinate originali è quindi dato da:
e At
=
=
T e Āt T −1
σt
−1
1 1
e (cos(ωt) +  sin(ωt))
0
1 1
,
 −
0
e σt (cos(ωt) −  sin(ωt))
 −
(A.64)
(A.65)
da cui, con semplice algebra, si trova:
e At = e σt
A.5
cos(ωt)
− sin(ωt)
sin(ωt)
cos(ωt)
.
(A.66)
Forma di Jordan di sistemi in forma canonica di controllore
Nello studio, ed in particolare nel controllo, di sistemi dinamici è molto importante una particolare forma
delle matrici che descrivono un sistema dinamico, detta forma canonica di controllore. Per semplicità si considera
ora solo il caso di sistemi ad un ingresso, introducendo la forma canonica di controllore ad un ingresso (o forma
canonica di controllo ad un ingresso).
Un sistema dinamico descritto dalla terna di matrici (Ac , bc , cc ) è detto in forma canonica di controllo ad un
ingresso se le sue matrici Ac e bc hanno la forma:




0
1
0
0
···
0
0
 0

 0 
0
1
0
···
0




 0

 0 
0
0
1
···
0




(A.67)
Ac =  .
 , bc =  0  ,
..
..
..
..
..

 ..


.
.
.
.
.


 .. 
 0

 . 
0
0
0
···
1
1
−a0 −a1 −a2 −a3 · · · −an−1
in cui gli elementi dell’ultima riga della matrice Ac sono i coefficienti del polinomio caratteristico cambiato di
segno. È facile vedere che, se la matrice cc (assumendo un sistema con una sola uscita) ha la forma:
(A.68)
cc = c0 c1 c2 c3 · · · cn−1
: Appendice: strumenti geometrici ed algebrici
[Ed. 2015, V 4.0 - PV - UniPG] -
A-282
allora la funzione di trasferimento, nella generica variabile complessa λ, ha (a meno di semplificazioni numeratore/denominatore) la forma:
W (λ) = cc (λI − Ac )−1 bc =
cn−1 λn−1 + · · · + c3 λ3 + c2 λ2 + c1 λ + c0
,
λn + an−1 λn−1 + · · · + a3 λ3 + a2 λ2 + a1 λ + a0
(A.69)
e quindi si calcola in modo immediato a partire dalla conoscenza delle matrici Ac ed cc .
Dal punto di vista della forma di Jordan, un sistema in forma canonica di controllore ad un ingresso ha la
seguente proprietà:
Lemma A.1 (Forma di Jordan di una matrice in forma canonica di controllore ad un ingresso) Data
una matrice Ac , in forma canonica di controllore ad un ingresso, il polinomio caratteristico ed il polinomio minimo di Ac coincidono, e quindi la sua forma di Jordan ha un solo miniblocco per ogni autovalore di Ac .
Prova Il lemma si prova facilmente calcolando la dimensione del nucleo della matrice (Ac − λI), per un generico
T
, il nucleo di (Ac − λI) è determinabile
autovalore di Ac . Dato un generico vettore α = α1 α2 · · · αn
a partire dalle soluzioni non banali dell’equazione:



−λ
1
0
0
···
0
α1
 0
  α2 
−λ
1
0
···
0



 0
  α3 
0
−λ
1
···
0



(A.70)
(Ac − λI)α =  .
  α4  = 0,
..
..
..
..
..

 ..

.
.
.
.
.

  .. 
 0
 . 
0
0
0
···
1
−a0
−a1
−a2
−a3
···
−an−1 − λ
αn
che corrisponde al sistema algebrico:
−λα1 + α2 = 0
−λα2 + α3 = 0
−λα3 + α4 = 0
..
.
−λαn−1 + αn = 0
−a0 α1 − a1 α2 − · · · − (−an−1 − λ)αn = 0,
la cui soluzione è data da:
α2
α3
= λα1
= λ2 α1
(A.71a)
(A.71b)
α4
= λ3 α1
..
.
= λn−1 α1
(A.71c)
(A.71d)
= 0.
(A.71e)
αn
n
n−1
−α1 (λ + an−1 λ
2
+ · · · + a2 λ + a1 λ + a0 )
L’ultima equazione del sistema (A.71) mostra chiaramente che, se λ è autovalore del sistema, allora il
parametro α1 è libero (ricordando il significato dei parametri ai , i = 0, 1, . . . , n − 1), e quindi lo spazio in esame
ha dimensione pari ad uno, con autovettore, scegliendo α1 unitario, pari a:


1
 λ 


2


v= λ
(A.72)
,
 .. 
 . 
λn−1
mentre invece, se λ non è autovalore, deve essere α1 = 0, e quindi l’unica soluzione dell’equazione (A.70) è
quella banale.
Infine, poiché il sistema ha un solo autovettore, la sua forma di Jordan ha un solo miniblocco, e quindi il
suo polinomio caratteristico coincide con il polinomio minimo.
⊓
⊔
Appendice B
Riferimenti
B.1
Riferimenti bibliografici
[1] A.E. Fitzgerald, C. KingsleyJr, and S.D. Umans. Electric Machinery. Mc Graw-Hill, 1983.
[2] P.C. Krause. Analysis of Electric Machinery. Mc Graw-Hill, 1986.
[3] W. Leonhard. Control of Electrical Drives. Springer-Verlag, Berlin, 1985.
[4] J. Meisel. Principles of Electromechanical-Energy Conversion. Mc Graw-Hill, USA, 1966.
[5] L. Sciavicco and B. Siciliano, Robotica Industriale. McGraw-Hill Libri Italia, Milano, 1995.
[6] Fortunato Bianconi, Elisa Baldelli, Vienna Ludovini, Lucio Crin, Antonella Flacco, and Paolo Valigi.
Computational model of egfr and igf1r pathways in lung cancer: A systems biology approach for translational oncology. Biotechnology Advances, 30(1):142 – 153, 2012. ¡ce:title¿Systems Biology for Biomedical
Innovation¡/ce:title¿.
[7] Fortunato Bianconi. Dynamic modeling, parameter estimation and experiment design in Systems Biology
with applications to Oncology. PhD thesis, PhD Thesis, Perugia, 2010.
[8] Fred Brauer and John A Nohel. Proprietà strutturali dei Sistemi Lineari Stazionari. Pitagora Editrice,
Bologna, 1978.
[9] Fred Brauer and John A Nohel. The qualitative theory of ordinary differential equations: an introduction.
Dover Publications, 1989.
[10] E. Fornasini and G. Marchesini. Appunti di Teoria dei Sistemi. Edizioni Libreria Progetto, Padova, 1994.
[11] A. Isidori. Nonlinear Control Systems. Communications and Control Engineering Series. Springer Verlag,
Berlin, terza edizione, 1992.
[12] J.I. Neimark and N.A. Fufaev. Dynamics of Nonholonomic Systems. Translations of Mathematical Monographs. American Mathematical Society, Providence, Rhode Island, 1972.
[13] H. Goldstein. Classical Mechanics. Addison-Wesley, Reading, MA, 1980.
[14] C. Lanczos. The Variational Principles of Mechamics. U. of Toronto Press, Toronto, 1970.
[15] B.R. Barmish. New Tools for Robustness of Linear Systems. MacMillan Publishing Company, New York,
1990.
[16] S. Gabrieli. Identificazione delle caratteristiche di contrattilit di un ventricolo sinistro finalizzata al controllo di un dispositivo terapeutico di assistenza ventricolare. Tesi di Laurea, Facoltà di Ingegneria,
Università di Perugia , a.a. 1998/99.
[17] Yih-Choung Yu, J.R. Boston, M.A. Simaan, and J.F. Antaki. Estimation of systemic vascular bed parameters for artificial heart control. IEEE Trans. Automatic Control, AC-43(6):765–778, June 1998.
283
: Appendice: strumenti geometrici ed algebrici
[Ed. 2015, V 4.0 - PV - UniPG] -
B-284
[18] Antonio Tornambè. Discrete Event System Theory. An Introduction. World Scientific, Singapore, 1995.
[19] C.G. Cassandras. Discrete Event Systems: Modeling and Performance Analysis. Irwin & Aksen, Boston,
MA, 1993.
[20] Donato Carlucci and Giuseppe Menga. Teoria dei Sistemi ad Eventi Discreti. Utet, Torino, 1998.
[21] E. Cinlar. Introduction to Stochastic Processes. Englewood Cliffs, NJ: Prentice Hall, 1975.
[22] S.M. Ross. Stochastic Processes. Wiley, New York, 1983.
[23] M. Zhou and F. DiCesare. Petri Net Synthesis for Discrete Event Control Of Manufacturing Systems.
Kluwer Academic Publishers, 1993.
[24] J.O. Moody and P.J. Antsaklis. Supervisory Control of Discrete Event Systems Using Petri Nets. Kluwer
Academic Publishers, 1998.
[25] Shankar Sastry. Nonlinear Systems: analysis, stability and control. Springer-Verlag, 1999.
[26] Introduction to distillation. http://lorien.ncl.ac.uk/ming/distil/distil0.htm.
[27] Davison, E.J., Edt. Benchmark problems for control system design. Report of the IFAC theory committe.
IFAC (International Federation of Automation Control). May 1990.
[28] Davison, E.J. Control of a distillation column with pressure variation. Trans. Institute of Chemical
Engineers, vol. 45, pp. 229–250, 1967.
[29] S. Skogestad and M. Morari, Understanding the dynamic behavior of distillation columns. Ind. Eng.
Chem. Res., vol. 27, no. 10, pp. 1848-1862, 1988.
[30] S. Skogestad, M. Morari, and J. C. Doyle, Robust control of ill-conditioned plants: High-purity distillation.
IEEE Trans. Automat. Contr., vol. 33, pp. 1092-1105, 1988.
[31] P. Lundström, and S. Skogestad, Two-Degree-of-Freedom Controller Design for an Ill-Conditioned Distillation Process Using µ-Synthesis. IEEE Trans. Control Systems Technology, vol. 7, no. 1, pp. 12-13,
1999.
[32] Morari M. and Zafiriou E. Robust process control. Englewood Cliffs : Prentice Hall, 1989.
[33] Osvaldo Maria Grasselli Proprietà strutturali dei Sistemi Lineari Stazionari. Pitagora Editrice, Bologna,
1978.
[34] E. Fornasini and G. Marchesini. Appunti di Teoria dei Sistemi. Edizioni Libreria Progetto, 1994.
[35] Eduardo D. Sontag. MAthematical Control Theory. Springer, New York, 1998.
Indice analitico
Analisi modale, 43
Autospazio, 43
Autovalori, 43
Causalità, 40
Diagrammi di Bode, 98
Forma canonica di controllore, 222
Funzioni aperiodiche, 44, 148
Funzioni pseudoperiodiche, 44, 148
Integrale di convoluzione, 40
Matrice esponenziale a tempo continuo, 40
Molteplicità algebrica, 43
Molteplicità geometrica, 43
Polinomio caratteristico, 43
Risposta completa nello stato, 40
Risposta forzata, 41
Risposta libera, 41
Trasformata di Laplace, 60
285
Indice dei nomi
Bode H., 98
Dirac P., 81
Fibonacci L., 24
Fourier J.B., 60
Gauss J.C., 196
Laplace P., 60
Lyapunov A.M., 172
Nyquist H., 196
Poincaré J.H., 172
R.E. Kàlmàn, 213
286