Elementi di Teoria dei Sistemi Universit`a di Perugia Dipartimento di
Transcript
Elementi di Teoria dei Sistemi Universit`a di Perugia Dipartimento di
Elementi di Teoria dei Sistemi Università di Perugia Dipartimento di Ingegneria Paolo Valigi Versione del Febbraio 2015 SysDin [P. Valigi (UniPG), V 4.2, Ed. 2015] - 0-1 Copyright Questo testo è rilasciato nei termini della Licenza Creative Commons Attribuzione - Non Commerciale - Condividi allo stesso modo 3.0 versione italiana. L’autore si riserva il diritto di restringre i termini di licenza in future versione dell’opera. Ciò significa che tu, il lettore, puoi riprodurre, distribuire, comunicare al pubblico quest’opera, e puoi modificare quest’opera, alle seguenti condizioni: • Attribuzione Devi attribuire la paternità dell’opera nei modi indicati dall’autore o da chi ti ha dato l’opera in licenza e in modo tale da non suggerire che essi avallino te o il modo in cui tu usi l’opera. • Non commerciale Non puoi usare quest’opera per fini commerciali. • Condividi allo stesso modo Se alteri o trasformi quest’opera, o se la usi per crearne un’altra, puoi distribuire l’opera risultante solo con una licenza identica o equivalente a questa. Il riassunto dei termini di licenza (commons deed) è disponibile all’indirizzo: http://creativecommons.org/licenses/by-nc-sa/3.0/it/deed.it, mentre la formulazione completa (legal code) è disponibile all’indirizzo: http://creativecommons.org/licenses/by-nc-sa/3.0/it/legalcode. Indice 1 Modellazione di sistemi dinamici 1.1 I sistemi dinamici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Un semplice sistema meccanico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Un ulteriore sistema meccanico: oscillatore smorzato . . . . . . . . . . . . . . . . . 1.4 Un circuito elettrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Un motore in corrente continua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Il pendolo: un robot ad un grado di libertà . . . . . . . . . . . . . . . . . . . . . . 1.7 Un altro approccio alla modellazione di sistemi meccanici: le equazioni di Lagrange 1.8 Modelli decisionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.9 Dinamica di popolazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10 Successione di Fibonacci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.11 Un modello di magazzino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.12 Sistemi a segnali campionati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.13 Algoritmi per il calcolo numerico: la radice quadrata . . . . . . . . . . . . . . . . . 1.14 Il modello di un motore a combustione . . . . . . . . . . . . . . . . . . . . . . . . . 1.15 Un modello dell’apparato cardio-circolatorio umano . . . . . . . . . . . . . . . . . . 1.16 Un circuito elettrico nonlineare: l’oscillatore di Van der Pol . . . . . . . . . . . . . 1.17 Un sistema preda-predatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.18 Modellazione di fenomeni alla scala biomolecolare . . . . . . . . . . . . . . . . . . . 1.19 Un modello di sistema dinamico ad eventi discreti: un sistema soggetto a guasti . . 1.20 Un sistema soggetto a guasti: modello stocastico . . . . . . . . . . . . . . . . . . . 1.21 Un impianto di produzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.22 Modellazione della corsa agli armamenti . . . . . . . . . . . . . . . . . . . . . . . . 1.23 Colonna di distillazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.24 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 8 10 13 16 17 19 19 22 24 24 25 26 26 27 28 29 30 33 33 35 36 36 37 2 Analisi di sistemi lineari stazionari a tempo continuo 2.1 Rappresentazione esplicita per sistemi lineari, stazionari, a tempo continuo . 2.1.1 Matrice di transizione dello stato . . . . . . . . . . . . . . . . . . . . . 2.1.2 Risposta libera e risposta forzata per sistemi LSTC . . . . . . . . . . . 2.2 Analisi modale per sistemi LSTC: approccio nel dominio del tempo . . . . . . 2.2.1 Il caso di sistema diagonalizzabile, con autovalori reali . . . . . . . . . 2.2.2 Il caso di sistema diagonalizzabile, con autovalori complessi . . . . . . 2.2.3 Il caso di sistema non diagonalizzabile, con autovalori reali . . . . . . 2.2.4 Il caso di sistema non diagonalizzabile, con autovalori complessi . . . . 2.2.5 Il caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.6 Caratterizzazione di convergenza . . . . . . . . . . . . . . . . . . . . . 2.2.7 Riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.8 Il significato fisico del concetto di autovettore: eccitazione singoli modi 2.2.9 Decomposizione spettrale . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.10 Il piano delle fasi per sistemi planari . . . . . . . . . . . . . . . . . . . 2.2.11 Esercizi risolti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 La trasformata di Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Proprietà della trasformata di Laplace . . . . . . . . . . . . . . . . . . 2.3.2 Trasformata di Laplace di segnali notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 40 41 43 44 46 48 49 50 50 52 53 55 55 56 60 60 62 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . SysDin 2.4 2.5 2.6 2.7 2.8 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 0-3 2.3.3 Alcuni teoremi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.4 Esponenziale di matrice, forme esplicite e matrice di trasferimento per sistemi 2.3.5 Antitrasformata di funzioni razionali proprie . . . . . . . . . . . . . . . . . . 2.3.6 Esercizi svolti sulla trasformata di Laplace . . . . . . . . . . . . . . . . . . . . Analisi modale per sistemi LSTC: approccio nel dominio di Laplace . . . . . . . . . 2.4.1 Il caso di autovalori distinti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Il caso di autovalori qualsiasi . . . . . . . . . . . . . . . . . . . . . . . . . . . Analisi del comportamento ingresso-uscita per sistemi LSTC . . . . . . . . . . . . . 2.5.1 Risposta impulsiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Risposta indiciale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.3 Risposta ad ingresso sinusoidale . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.4 Il caso dei poli immaginari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.5 Risposta permanente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Risposta armonica e diagrammi di Bode . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Tracciamento dei diagrammi di Bode: esempio . . . . . . . . . . . . . . . . . 2.6.2 Tracciamento dei diagrammi di Bode . . . . . . . . . . . . . . . . . . . . . . . Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.1 Esempio: analisi di un circuito elettrico RLC . . . . . . . . . . . . . . . . . . 2.7.2 Analisi di un ulteriore circuito elettrico a componenti passivi . . . . . . . . . 2.7.3 Esempio: analisi circuito RLC [RLC100] . . . . . . . . . . . . . . . . . . . . . Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Analisi di sistemi lineari stazionari a tempo discreto 3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Rappresentazione esplicita per sistemi LTDS . . . . . . . . . . . . . . . . . 3.2.1 Risposta libera e risposta forzata . . . . . . . . . . . . . . . . . . . . 3.3 La trasformata Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Proprietà della trasformata Zeta . . . . . . . . . . . . . . . . . . . . 3.3.2 Trasformata Zeta di segnali notevoli . . . . . . . . . . . . . . . . . . 3.3.3 Alcuni teoremi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4 Esponenziale di matrice e matrice di trasferimento per sistemi LSTD 3.3.5 Antitrasformata di funzioni razionali proprie . . . . . . . . . . . . . 3.3.6 Esercizi risolti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Analisi modale per sistemi LSTD: approccio nel dominio del tempo . . . . . 3.4.1 Il caso di sistema diagonalizzabile, con autovalori reali . . . . . . . . 3.4.2 Il caso di sistema diagonalizzabile, con autovalori complessi . . . . . 3.4.3 Il caso di sistema non diagonalizzabile, con autovalori reali . . . . . 3.4.4 Il caso di sistema non diagonalizzabile, con autovalori complessi . . . 3.4.5 Il caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.6 Caratterizzazione dei modi naturali rispetto alla convergenza . . . . 3.4.7 Riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.8 Eccitazione di singoli modi . . . . . . . . . . . . . . . . . . . . . . . 3.5 Analisi modale per sistemi LSTD: approccio nel dominio Zeta . . . . . . . . 3.5.1 Il caso di autovalori distinti . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Il caso di autovalori qualsiasi . . . . . . . . . . . . . . . . . . . . . . 3.6 Analisi del comportamento ingresso-uscita per sistemi LSTD . . . . . . . . 3.6.1 Risposta impulsiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.2 Risposta indiciale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.3 Risposta ad ingresso sinusoidale . . . . . . . . . . . . . . . . . . . . . 3.6.4 Risposta permanente . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . LSTC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 64 65 68 74 74 77 80 81 86 90 91 93 98 100 103 114 114 119 122 125 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 131 131 133 134 134 136 137 137 138 141 147 148 149 150 151 151 152 153 153 155 155 157 161 162 163 164 166 168 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . SysDin [P. Valigi (UniPG), V 4.2, Ed. 2015] - 0-4 4 Stabilità 4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Definizione di stabilità . . . . . . . . . . . . . . . . . . 4.3 Stabilità di sistemi lineari . . . . . . . . . . . . . . . . 4.3.1 L’equazione di Lyapunov . . . . . . . . . . . . 4.4 Il criterio ridotto di Lyapunov per sistemi non lineari . 4.5 Il metodo diretto di Lyapunov per sistemi non lineari . 4.6 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Stabilità esterna . . . . . . . . . . . . . . . . . . . . . 4.8 Retroazione . . . . . . . . . . . . . . . . . . . . . . . . 4.9 Analisi di circuiti con OpAmp . . . . . . . . . . . . . . 4.9.1 Modelli ideali per un OpAmp . . . . . . . . . . 4.9.2 OpAmp in configurazione non invertente . . . . 4.9.3 OpAmp in configurazione invertente . . . . . . 4.9.4 Interconnesione di più OpAmp . . . . . . . . . 4.9.5 Convertitore tensione-corrente . . . . . . . . . 4.10 Criterio di Nyquist . . . . . . . . . . . . . . . . . . . . 4.10.1 Diagramma di Nyquist . . . . . . . . . . . . . . 4.10.2 Criterio di Nyquist . . . . . . . . . . . . . . . . 4.10.3 Stabilità e robustezza . . . . . . . . . . . . . . 4.11 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 172 172 175 178 178 180 183 186 186 187 187 188 190 192 194 196 196 201 205 208 5 Proprietà strutturali: 5.1 Introduzione . . . . 5.2 Definizioni . . . . . 5.3 Raggiungibilità per 5.4 Raggiungibilità per 5.5 Risultati notevoli . 5.6 Esercizi risolti . . . 5.7 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 210 210 211 212 213 215 217 6 Allocazione degli autovalori per sistemi scalari 6.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Regolazione e dinamica d’errore . . . . . . . . . . . . . . . 6.3 Allocazione degli autovalori: formulazione del problema . 6.4 Allocazione degli autovalori: soluzione . . . . . . . . . . . 6.4.1 Le funzioni di trasferimento a ciclo aperto e a ciclo 6.5 Il caso dei sistemi non completamente raggiungibili . . . . 6.6 Esercizi risolti . . . . . . . . . . . . . . . . . . . . . . . . . 6.7 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . chiuso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 220 220 221 221 223 224 225 227 7 Proprietà strutturali: Osservabilità 7.1 Introduzione . . . . . . . . . . . . . . . . . . . . 7.2 Osservabilità . . . . . . . . . . . . . . . . . . . 7.3 Dualità . . . . . . . . . . . . . . . . . . . . . . 7.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . 7.4.1 Sistemi a singola uscita, tempo discreto 7.4.2 Sistemi a due uscite, tempo discreto . . 7.4.3 Sistemi a singola uscita, tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 231 231 233 236 236 238 240 raggiungibilità . . . . . . . . . . . . . . . . . . . . sistemi LSTD . . sistemi LSTC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Osservatori asintotici dello stato e regolatori in retroazione dall’uscita per 8.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Osservatori asintotici dello stato . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Regolatori dinamici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Un esempio: regolazione di un motore a corrente continua . . . . . . . . . . . . 8.4.1 Le proprietà strutturali . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.2 Progetto del controllore in retroazione dinamica dall’uscita . . . . . . . sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . scalari 241 . . . . . 241 . . . . . 241 . . . . . 242 . . . . . 244 . . . . . 244 . . . . . 245 SysDin 8.5 8.6 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 0-5 Ulteriori problemi di controllo . . . . . . 8.5.1 Un problema di regolazione . . . 8.5.2 Inseguimento di traiettoria . . . 8.5.3 Sistemi a segnali campionati . . 8.5.4 Stima dei disturbi . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . 8.6.1 Osservatori asintotici e regolatori 9 Esercizi di riepilogo risolti 9.1 Esercizi di riepilogo . . . . . . . . 9.2 Soluzioni . . . . . . . . . . . . . . 9.2.1 Soluzione esercizio 9.1 . . 9.2.2 Soluzione esercizio 9.2 . . 9.2.3 Esercizio 9.3: traccia della 9.2.4 Esercizio 9.4: traccia della . . . . . . . . . . . . per . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . sistemi a singolo ingresso e singola . . . . . . . . . . . . . . . . . . . . . . . . uscita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 248 248 249 250 252 252 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 255 257 257 262 268 269 A Strumenti geometrici per l’analisi di sistemi dinamici lineari A.1 Autovalori ed autovettori . . . . . . . . . . . . . . . . . . . . . A.2 Trasformazioni di similarità algebrica . . . . . . . . . . . . . . . A.3 Forme canoniche . . . . . . . . . . . . . . . . . . . . . . . . . . A.3.1 Forma diagonale . . . . . . . . . . . . . . . . . . . . . . A.3.2 Forma canonica reale . . . . . . . . . . . . . . . . . . . . A.3.3 Forma di Jordan . . . . . . . . . . . . . . . . . . . . . . A.4 Esponenziale di matrice . . . . . . . . . . . . . . . . . . . . . . A.4.1 Forma canonica reale . . . . . . . . . . . . . . . . . . . . A.5 Forma di Jordan di sistemi in forma canonica di controllore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 273 274 276 276 276 277 281 281 281 . . . . . . . . . . . . . . . . . . . . . . . . soluzione soluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B Riferimenti 283 B.1 Riferimenti bibliografici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 Prefazione Il testo raccoglie materiale preparato per le lezioni del corso di Teoria dei Sistemi, Università degli Studi di Perugia, prima Facoltà di Ingegneria ed ora Dipartimento di Ingegneria, a partire dall’anno accademico 1998/99. Il testo è andato crescendo negli anni, anche sulla base delle variazioni al programma del corso indotte dalle numerose riforme dell’ordinamento didattico che si sono andate susseguendo e sovrapponendo negli anni. Ringrazio tutti gli studenti che nel corso degli anni hanno fornito preziosi commenti ed hanno evidenziato errori, inesattezze ed imprecisioni. Ringrazio inoltre i colleghi che hanno letto parti del testo, ed in particolare l’ing. Mauro Boccadoro, che nel frattempo ha lasciato il nostro gruppo e il nostro ateneo per seguire un diverso ed alto percorso di crescita personale, l’ing. Mario Luca Fravolini e il prof. Andrea Scorzoni. Ringrazio infine mia moglie e i nostri figli, per l’infinita pazienza mostrata nei miei riguardi durante le varie fasi di scrittura, nel corso degli anni. 6 Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-7 Capitolo 1 Modellazione di sistemi dinamici 1.1 I sistemi dinamici In questo capitolo verranno presentati alcuni modelli dinamici di sistemi reali, con lo scopo di illustrare sia i metodi e gli strumenti tipici della Teoria dei Sistemi sia i problemi di analisi e progetto che possono essere affrontati in tale contesto. Il concetto di sistema è ampio e generico, e viene utilizzato in molto contesti ed ambiti, con molteplici significati. Nel quadro di questo testo, ed in generale nel quadro dell’Automatica, il riferimento è ai sistemi dinamici, cioè a degli “enti” reali (nel senso di enti esistenti nella realtà), in grado di avere interazioni con l’ambiente esterno ed il cui comportamento dipende sia dalla storia passata del sistema stesso sia da tali interazioni. La dipendenza del comportamento del sistema dalla storia passata è una caratteristica fondamentale per la connotazione “dinamica”, anzi, è la caratteristica fondamentale di tale connotazione. L’approccio della Teoria dei Sistemi consiste nell’introdurre un modello astratto, matematico, dell’ente reale di interesse, che prescinda dalla specifica natura fisica sia del sistema stesso sia delle interazioni con l’ambiente esterno. Le proprietà del sistema reale vengono dedotte dalla proprietà del modello matematico astratto. Un modello matematico, nel senso di questo testo, è costituito da relazioni tra tre classi di segnali, cioè tre classi di funzioni del tempo: a) i segnali di ingresso, che descrivono le interazioni tra ambiente e sistema, b) le variabili di stato, che descrivono in modo completo il comportamento del sistema e che tengono conto della storia passata del sistema, e infine, c) i segnali di uscita, che descrivono in modo sintetico il comportamento del sistema (si noti che i segnali di uscita non descrivono entità o quantità che “escono” dal sistema, bensı̀ grandezze di specifico interesse nello studio del sistema). Tali relazioni tra gli ingressi, lo stato e le uscite possono essere molto diverse al variare della natura fisica del sistema. In questo testo l’attenzione verterà principalmente sui sistemi a variabile continua, sia a tempo discreto sia a tempo continuo, e cioè su sistemi il cui comportamento sia ben descritto da variabili di ingresso, stato e uscita definite nell’insieme dei reali o degli interi e a valori nell’insieme dei reali. Per completezza, verranno presentati anche alcuni esempi di sistemi ad eventi discreti, per i quali le grandezze che ne descrivono il comportamento assumono valori solo in un insieme discreto. Una ulteriore caratterizzazione molto importante riguarda la natura delle relazioni tra ingresso, stato ed uscita, che possono essere lineari o non lineari, ed essere indipendenti dal tempo o meno. Più esplicitamente, il testo tratta (quasi esclusivamente) sistemi lineari, a dimensione finita, stazionari, causali, con evoluzione guidata dal tempo, e descritti da equazioni differenziali, se il tempo è una grandezza reale: ẋ(t) = Ax(t) + Bu(t), y(t) = Cx(t) + Du(t), x ∈ Rn , y ∈ Rp , u ∈ Rm (1.1a) (1.1b) o da equazioni alle differenze finite, se il tempo è una quantità intera: x(t + 1) = y(t) = Ax(t) + Bu(t), Cx(t) + Du(t), x ∈ Rn , y ∈ Rp . u ∈ Rm (1.2a) (1.2b) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-8 In entrambe le classi di modelli, le quattro matrici A, B, C e D sono matrici ad elementi reali costanti, di dimensioni compatibili con le dimensioni del vettore di stato x, del vettore dei segnali di ingresso u e dl vettore delle funzioni di uscita y. La matrice A è detta anche matrice dinamica o matrice del sistema, la matrice B descrive le modalità con le quali l’ingresso influenza lo stato (sinteticamente, matrice di ingresso), la matrice C descrive le modalità con le quali lo stato determina l’uscita (sinteticamente, matrice di uscita), ed infine la matrice D descrive il legame diretto ingresso-uscita. La natura “stazionaria” corrisponde al fatto che le quattro matrici A, B, C e D sono matrici costanti, la natura “a dimensione finita” corrisponde al fatto che i vettori di ingresso, stato ed uscita hanno dimensione finita, la natura causale, e cioè il fatto che il futuro non inflenzi il passato e il presente corrisponde al fatto che le equazioni differenziali e alle differenze finite dipendono solo dal valore corrente del segnale di ingresso (non dipendono né da valori futuri, né da derivate temporali dell’ingresso). Alcuni risultati verranno presentati per la classe più ampia dei sistemi non lineari, sinteticamente descritti dai modelli: x ∈ Rn , y ∈ Rp , ẋ(t) = f (x(t), u(t)), y(t) = h(x(t), u(t)), u ∈ Rm (1.3a) (1.3b) nel caso di sistemi a tempo continuo e, nel caso dei sistemi a tempo discreto, dai modelli: x(t + 1) = y(t) = x ∈ Rn , y ∈ Rp . f (x(t), u(t)), h(x(t), u(t)), u ∈ Rm (1.4a) (1.4b) In alcune situazioni, in particolare nei sistemi del tipo (1.2) o (1.4), la variabile indipendente può anche essere diversa dal tempo. Tale variabile sarà comunque indicativa dell’evoluzione del sistema. Nelle sezioni seguenti vengono presentati esempi di calcolo di modelli dinamici, prevalentemente descritti da equazioni diffenziali e alle differenze finite, e con alcuni esempi di altra natura. 1.2 Un semplice sistema meccanico Il sistema meccanico rappresentato in Figura 1.1 è costituito da un corpo rigido di massa m che scorre lungo un binario poggiato su di un piano perfettamente liscio, senza attrito, collegato tramite una molla lineare ad una parete rigida e sottoposto all’azione di una forza esterna. Si vuole determinare un modello matematico che consenta di descrivere il moto del corpo, ed in particolare la traiettoria seguita dal centro di massa. Il comportamento del sistema può essere descritto a partire dall’equazione fondamentale del moto (secondo principio della dinamica): F = m a, tenendo conto di tutte le forze agenti sul sistema, e ricavando la corrispondente equazione del moto. m fa ke ℓ0 ℓ Figura 1.1: Sistema meccanico massa-molla Nel caso in esame, sulla massa agiscono la forza esterna fa (t), esercitata il tramite un opportuno attuatore, e la forza fe (t) esercitata dalla molla. Indicando con ℓ0 la posizione del centro di massa del corpo quando la molla è a riposo, con ℓ(t) la posizione del centro di massa all’istante t e con ke , ke > 0, la costante di elasticità, la forza esercitata dalla molla è pari a: fe (t) = −ke (ℓ(t) − ℓ0 ). (1.5) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-9 La risultate delle forze applicate al corpo è quindi: f (t) = fe (t) + fa (t) = −ke (ℓ(t) − ℓ0 ) + fa (t), (1.6) da cui, indicando con p(t) := ℓ(t) − ℓ0 la posizione della massa rispetto a quella di riposo, e ricordando che a = ṗ, il moto della massa è descritto dalla seguente equazione differenziale del secondo ordine: mp̈(t) + ke p(t) = fa (t), (1.7) La soluzione dell’equazione differenziale omogenea associata alla (1.7), data da: mp̈(t) + ke p(t) = 0, (1.8) è legata alle radici dell’equazione caratteristica: mλ2 + ke = 0, (1.9) che sono immaginarie pure. Ne segue, per noti risultati sulle equazioni differenziali, che la soluzione nella variabile p(t) è una sinusoide di pulsazione determinata dalle costanti m e ke e con fase ed ampiezza determinate dalle condizioni iniziali. Più precisamente, la pulsazione è data dalla parte immaginaria delle radici dell’equazione caratteristica, e quindi, in questo caso, vale: r ke . (1.10) ω= m Un tipico andamento della risposta libera in uscita, per ke = 1, m = 1, e per un vettore condizioni iniziali x1 (0) = 1, x2 (0) = 0 (cioè, massa inizialmente nella posizione p = 1, con velocità nulla) è riportato in figura 1.2. Risposta libera di un sistema massa−molla [m=1, ke=1] 1 Posizione p(t) del centro di massa (m) 0.8 0.6 0.4 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 0 2 4 6 8 10 12 Tempo (secs) 14 16 18 20 Figura 1.2: Risposta libera nella variabile p(t). L’equazione omogenea descrive il sistema in evoluzione libera, cioè nelle situazioni in cui la forza esterna è nulla. La soluzione sinusoidale individuata implica quindi che, se la forza esterna è nulla, una perturbazione della condizione di riposo induce un moto oscillatorio permanente della massa. L’equazione del moto può essere riscritta sotto forma di sistema di equazioni lineari del primo ordine introducendo le variabili x1 (t) := p(t), x2 (t) := ṗ(t) = v(t) e u(t) := fa (t): ẋ1 ẋ2 = x2 1 ke = − x1 + u(t). m m (1.11a) (1.11b) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-10 Il sistema di equazioni (1.11) viene detto modello dinamico nello spazio di stato. In particolare, le due variabili x1 ed x2 , cioè la posizione e la velocità della massa, costituiscono il vettore di stato del sistema, in quanto racchiudono tutte le informazioni sulla storia passata del sistema rilevanti per determinare l’evoluzione futura. La connotazione di modello dinamico deriva dal fatto che la storia passata del sistema, attraverso il vettore di stato, ne influenza il comportamento corrente e futuro. Viceversa, nel caso di un modello statico, il valore passato delle variabili non ha alcun ruolo nella determinazione dei rispettivi valori all’istante corrente, né tanto meno dei loro valori futuri. Un modello dinamico nello spazio di stato, di norma, è descritto in modo compatto, con una notazione matriciale. Si consideri il vettore di stato x = [x1 x2 ]T , e le matrici: A= " 0 ke − m 1 0 # , b= " 0 1 m # , c= 1 0 , (1.12) allora il modello (1.11), insieme all’equazione che descrive il comportamento della variabile di interesse (in questo caso la posizione della massa), può essere posto nella forma: ẋ = Ax + bu (1.13a) y = cx. (1.13b) La seconda equazione descrive il legame tra la variabile di interesse, detta funzione di uscita, e lo stato del sistema. Si noti infine che il polinomio caratteristico della matrice A, dato da p(λ) = det(λI − A), coincide con l’equazione caratteristica (1.9). Infatti, gli autovalori della matrice A determinano la forma della soluzione dell’equazione differenziale (1.11), cioè determinano i modi naturali del sistema. È bene precisare che la forma matriciale (1.13) è strettamente legata alla natura lineare dei fenomeni e delle corrispondenti equazioni. La disponibilità di un modello dinamico del sistema in esame consente di analizzarne in modo rigoroso il comportamento. Ad esempio, note le condizioni iniziali della massa (posizione e velocità) e nota la legge oraria della forza esterna applicata, si può determinare la posizione della massa e la sua velocità in qualunque istante futuro. Il modello dinamico ha insomma un ruolo predittivo, che risulta di fondamentale importanza nell’analisi del comportamento di un sistema. 1.3 Un ulteriore sistema meccanico: oscillatore smorzato Un modello più realistico per il sistema massa-molla considera anche la presenza di un termine di attrito viscoso fv , proporzionale alla velocità v(t) della massa tramite un coefficiente di attrito viscoso kv : fv (t) = −kv v(t). (1.14) Il sistema è illustrato in figura 1.3. m fa ke kv ℓ0 ℓ Figura 1.3: Sistema meccanico massa-molla-smorzamento Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-11 In questo caso, la risultante delle forze applicate alla massa è pari a: f (t) = fe (t) + fv (t) + fa (t) = −ke p(t) − kv v(t) + fa (t), (1.15) e quindi l’equazione che descrive il moto della massa rispetto alla posizione di riposo è: mp̈(t) + kv ṗ(t) + ke p(t) = u(t). (1.16) La soluzione dell’equazione omogenea associata alla (1.16) dipende dalle radici dell’equazione caratteristica associata: mλ2 + kv λ + ke = 0, (1.17) che in generale non sono immaginari pure. A seconda del valore della costante di smorzamento kv , tali soluzioni possono avere parte reale negativa, nulla o positiva. Nel caso in cui la parte reale sia nulla, che si verifica solo se ka = 0, si ricade nel sistema precedente. Se il parametro kv è positivo si hanno due zeri di (1.17) con parte reale negativa (e cioè due autovalori della matrice A con parte reale negativa), e quindi la soluzione nella variabile p(t) è una funzione decrescente in modo esponenziale (si veda la figura 1.4), eventualmente con un termine sinusoidale moltiplicativo se le radici dell’equazione caratteristica sono complesse coniugate. Risposta libera di un sistema massa−molla [m=1, k =20, k =1] e v 1 Posizione p(t) del centro di massa (m) 0.8 0.6 0.4 0.2 0 −0.2 −0.4 −0.6 −0.8 0 5 10 15 Tempo (secs) Figura 1.4: Risposta libera nella variabile p(t), con smorzamento positivo. Viceversa, se il parametro kv fosse negativo, le radici dell’equazione caratteristica avrebbero parte reale positiva (e cioè due autovalori della matrice A con parte reale positiva) e quindi la soluzione nella variabile p(t), cioè la posizione del centro di massa, sarebbe una funzione con crescita esponenziale (si veda la figura 1.5), anche in questo caso con un possibile fattore sinusoidale moltiplicativo. Da un punto di vista fisico, la massa tende a fermarsi nel caso di soluzione decrescente, mentre tende ad allontanarsi sempre di più dalla posizione di riposo nel caso di soluzione crescente: in questo ultimo caso (in cui gli autovalori hanno parte reale positiva) il sistema è instabile. L’equazione differenziale del secondo ordine (1.17) può essere riscritta nella forma matriciale: " # " # 0 1 0 1 ẋ = , kv x + ke − − m m m 1 0 x. y = (1.18a) (1.18b) e può essere utilizzato, tra l’altro, per studiare il comportamento di una sospensione attiva. In effetti, in tal caso il moto, di norma, avviene in un piano verticale, e quindi si deve tenere conto anche della forza di gravità. Ciò però avrebbe il solo effetto di modificare la posizione di riposo della molla, senza modificare il comportamento dinamico (più precisamente, il comportamento dinamico di interesse in queste note). La scelta di un opportuno segnale di ingresso, e cioè di una opportuna forza fa (t) applicata dall’esterno, dipendente dalla misura istantanea della posizione e dalla velocità della massa, consente di imporre un comportamento assegnato alla sospensione attiva. In altre parole, una scelta opportuna della forza esterna consente di controllare la sospensione attiva. Si veda, a titolo di esempio, quanto detto alla fine del prossimo esempio. Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-12 Risposta libera di un sistema massa−molla [m=1, ke=20, kv=−1] 1500 Posizione p(t) del centro di massa (m) 1000 500 0 −500 −1000 −1500 −2000 0 5 10 15 Tempo (secs) Figura 1.5: Risposta libera nella variabile p(t), con smorzamento negativo. Risposta libera di un sistema massa−molla controllato [m=1, k =15, k =8] 1 2 1 Posizione p(t) del centro di massa (m) 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.5 1 1.5 2 2.5 3 Tempo (secs) 3.5 4 4.5 5 Figura 1.6: Risposta libera “desiderata” nella variabile p(t) per il sistema controllato 1.17. Fino ad ora abbiamo utilizzato il modello dinamico per analizzare il comportamento di questo semplice sistema massa-molla, ed in particolare per studiare la sua risposta libera. In effetti, il modello è particolarmente utile anche per capire in che modo agire sul sistema qualora tale comportamento non risulti soddisfacente. Si supponga ad esempio che lo smorzamento non sia adeguato, perchè troppo basso (cioè, la massa torna alla posizione di riposo troppo lentamente). Se il sistema massa-molla è il modello di una sospensione di un autoveicolo, questo significa che, a seguito di una perturbazione nella posizione, il veicolo stesso continuerà ad oscillare, sia pure in modo smorzato, per troppo tempo e con oscillazioni troppo ampie. Si potrebbe cercare di utilizzare la forza esterna applicabile alla massa per modificare il suo comportamento naturale (sospensione attiva). Il modello dinamico introdotto consente di capire come scegliere questa azione da esercitare sulla massa. Si supponga di disporre di sensori per misurare in modo continuo la posizione della massa rispetto a quella di riposo e la sua velocità. Si supponga inoltre di avere determinato due valori k1 e k2 per i parametri che caratterizzano il modello, in corrispondenza dei quali il sistema avrebbe il comportamento desiderato, ad esempio quello riportato in figura 1.6. Allora, è facile vedere come una forza esterna del tipo: u(t) = kv v(t) + ke p(t) − k2 v(t) − k1 p(t), (1.19) applicata al corpo, dia luogo ad un modello “controllato” del tipo: mp̈(t) + k2 ṗ(t) + k1 p(t) = 0, che, per la scelta dei parametri k1 e k2 , ha il comportamento desiderato. (1.20) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-13 L’equazione (1.19) definisce una legge di controllo in reazione dallo stato, perchè, sulla base di misure dello stato, consente di modificare, cioè di controllare, il comportamento del sistema per renderlo conforme a delle assegnate specifiche di comportamento. La legge di controllo definita dalla (1.19) è detta statica, perchè la forza da applicare, in ogni istante di tempo, dipende solo dalla posizione e dalla velocità allo stesso istante. Nel seguito di questo corso, e nei corsi successivi, si vedranno anche leggi di controllo dinamiche, che determinano il valore istantaneo del segnale di controllo non solo sulla base di misure relative allo stesso istante, ma anche sulla base della storia passata, descritta dallo stato di un opportuno sistema aggiuntivo: il controllore o compensatore. 1.4 Un circuito elettrico In modo del tutto simile a quanto fatto per i sistemi meccanici precedenti, è possibile ricavare un modello dinamico nello spazio di stato per un circuito elettrico. Si consideri il semplice sistema illustrato in figura 1.4, costituito da un generatore di corrente e dal parallelo di un resistore R, un condensatore C ed un induttore L. Si indichi con iG (t) la corrente erogata dal generatore e con vR (t) la tensione ai capi della resistenza, e cioè la grandezza di interesse, detta funzione di uscita. iG C L R Figura 1.7: Circuito elettrico a componenti passivi. La tensione vL (t) ai capi di un induttore percorso da una corrente iL (t) è pari a: vL (t) = L d iL (t) . dt (1.21) La corrente iC (t) che fluisce in un condensatore ai cui capi sia applicata una differenza di potenziale vC (t) è data da: d vC (t) iC (t) = C . (1.22) dt L’applicazione della legge di Kirchhoff ai nodi permette di scrivere: iG (t) = iR (t) + iL (t) + iC (t) d vC (t) vR + iL (t) + C , = R dt (1.23a) (1.23b) dove vR e iR indicano, rispettivamente, la tensione ai capi del resistore R e la rispettiva corrente. Assumendo come grandezza di interesse, cioè come funzione di uscita vO (t), la tensione vR (t) ai capi del resistore, il modello del circuito può essere riscritto in forma di equazione differenziale del secondo ordine: C v¨O (t) + 1 1 iG (t) v˙O (t) + vO (t) = . R L dt (1.24) Se l’interesse è solo per il legame dinamico tra la grandezza di ingresso iG (t) e l’uscita vO (t), cioè per la mappa ingresso-uscita,il modello precedente è sufficiente. Lo studio del legame ingresso-uscita di norma è condotto utilizzando la trasformata di Laplace, che costituisce una diversa rappresentazione di una funzione del tempo. Sotto ipotesi abbastanza deboli, una data funzione del tempo può essere rappresentata, senza perdere alcuna informazione, in un dominio diverso da quello temporale: il dominio della variabile di Laplace s. L’interesse nell’uso di questa rappresentazione risiede principalmente nel fatto che in questo dominio l’operazione di differenziazione rispetto al tempo corrisponde semplicemente al prodotto per s, e quindi le equazioni differenziali vengono trasformate in equazioni algebriche. Se f (t) è una data Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-14 funzione del tempo, differenziabile, e F (s) indica la sua trasformata di Laplace, brevemente F (s) := L{f (t)}, allora la trasformata di Laplace della derivata rispetto al tempo di f (t) è pari a s · F (s) (assumendo f (0) = 0). Indicando allora con V (s) la trasformata di Laplace della tensione ai capi del resistore, ed utilizzando la regola di derivazione, l’equazione differenziale (1.24), nel dominio di Laplace, diviene: 1 1 2 VO (s) s C + s + = sIG (s), (1.25) R L che può essere riscritta nella seguente forma, di prodotto tra funzioni di s, ove la funzione razionale propria W (S) é detta funzione di trasferimento: VO (s) = W (s)IG (s), W (s) := s/C . 1 1 s2 + s+ RC LC (1.26) Ad esempio, volendo calcolare la risposta in uscita ad un ingresso sinusoidale del tipo iG (t) = sin(t), applicato a partire dall’istante t = 0 ed assumendo condizioni iniziali nulle, si ottiene in modo immediato, nel dominio di Laplace, la funzione di uscita: 1 s/C (1.27) VO (s) = 2+1 1 1 s s2 + s+ RC LC 1 rappresenta la trasformata di Laplace del segnale sinusoidale sin(t). L’andamento dove il fattore moltiplicativo 2 s +1 nel tempo della risposta si può ottenere con un’operazione di trasformazione inversa del segnale VO (s) trovato. Si noti comunque che l’uscita dipende sia dal segnale applicato, attraverso la trasformata del segnale di ingresso, che dalla caratteristiche del circuito, attraverso i termini che derivano dalla funzione di trasferimento. Un modello del circuito elettrico che tenga conto anche delle variabili di stato può essere ottenuto costruendo una realizzazione di tale funzione di trasferimento. Come si vedrà successivamente, il modello nello spazio di stato corrispondente alla funzione di trasferimento in esame ha due variabili di stato (poiché il denominatore è un polinomio di grado due). Siano z1 (t) e z2 (t) tali variabili di stato e si indichi con u(t) il segnale di ingresso: u(t) = iG (t). Una possibile realizzazione di tale funzione di trasferimento è data da: ż1 ż2 y = z2 (1.28a) 1 1 z1 − z2 (t) + u(t), = − LC RC 1 = z2 C (1.28b) (1.28c) ed in termini matriciali: ż y con il vettore di stato e le matrici date da: " 0 z1 1 , A= z= z2 − LC = Az + bu = cz. 1 1 − RC # , b= (1.29a) (1.29b) 0 1 , c= 0 1 C . (1.30) Il significato fisico delle variabili di stato, nel modello precedente, non è immediato. La particolare forma delle matrici A e c dipende solo dai coefficienti della matrice di trasferimento. La risposta libera del circuito è riportata in figura 1.8. Si noti come sia del tutto identica alla risposta libera dell’oscillatore meccanico smorzato analizzato nella precedente sezione. La risposta dello stesso sistema a fronte del segnale di ingresso u(t) = sin(2t), è riportato nella seguente figura 1.9. Commento 1.1 Val la pena sottolineare come il modello appena ricavato ed il modello dell’oscillatore meccanico smorzato abbiano esattamente la stessa struttura, e si differenzino solo per i valori dei parametri. Questa caratteristica è uno dei punti di forza della Teoria dei Sistemi. Attraverso l’uso di sistemi astratti orientati, cioè di modelli Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-15 Risposta libera di un circuito RLC [R=1, L=1/20, C=1] 1 0.8 Tensione ai capi di R (Volt) 0.6 0.4 0.2 0 −0.2 −0.4 −0.6 −0.8 0 5 10 15 Tempo (secs) Figura 1.8: Risposta libera del circuito nella variabile vR (t). Risposta alla funzione sin(2 t) di un circuito RLC [R=1, L=1/20, C=1] 0.15 Tensione ai capi di R (Volt) 0.1 0.05 0 −0.05 −0.1 −0.15 −0.2 0 5 10 15 Tempo (secs) Figura 1.9: Risposta forzata per ingresso u(t) = sin(2t), del circuito nella variabile vR (t). differenziali indipendenti dalla specifica natura fisica del sistema fisico (o processo) in esame, si possono introdurre strumenti di analisi e sintesi di validità generale. Nel seguito vedremo spesso come i risultati astratti ricavati in questo modo, quando vengono poi calati nello specifico ambito applicativo di interesse, hanno sempre interpretazioni fisiche evidenti e notevoli. Tornando al sistema in esame, le matrici A e b che caratterizzano il modello hanno una struttura particolare, detta forma canonica di controllo ad un ingresso. Quando le matrici che descrivono un sistema sono in questa forma, è possibile determinare in modo immediato una legge di controllo che consenta di modificare gli autovalori del sistema, e quindi i suoi modi naturali. Per ottenere un modello nello spazio di stato, si possono introdurre, in alternativa alla scelta precendente, le variabili x1 (t) = iL (t) e x2 (t) = vC (t), che hanno un significato fisico più immediato. In tal caso si ottiene il sistema di equazioni: ẋ1 ẋ2 y 1 x2 L 1 1 1 = − x1 − x2 + u(t) C RC C = x2 . = (1.31a) (1.31b) (1.31c) I due modelli nello spazio di stato del circuito elettrico, descritti dalle equazioni (1.29) e (1.31), sono detti simili o algebricamente equivalenti, ed hanno le stesse proprietà, e costituiscono due diverse rappresentazioni dello Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-16 stesso sistema, espresse tramite due insiemi distinti di variabili, o, meglio, tramite due diversi, ma equivalenti, sistemi di coordinate. A seconda del tipo di studio da condurre può essere utile esprimere un modello dinamico utilizzando diversi sistemi di coordinate. Il modello del circuito dipende, ovviamente, dai valori dei componenti passivi che lo costituiscono. Se tali componenti non cambiano valore nel corso del funzionamento, il sistema è detto stazionario, è cioè descritto da matrici i cui elementi sono costanti, non cambiano valore al trascorrere del tempo. Può accadere che, ad esempio per effetto di variazioni della temperatura ambiente, uno o più componenti cambiano valore. In tal caso, il sistema è detto non stazionario, o anche tempo variante. Tale considerazione può essere estesa a qualsiasi sistema dinamico. L’analisi dei sistemi non stazionari richiede strumenti sensibilmente più avanzati del caso stazionario. In vero, nel caso generale, non vi sono strumenti per il loro studio se non l’analisi simulativa al calcolatore. In questo testo verranno presi in considerazione solo sistemi stazionari. 1.5 Un motore in corrente continua Il modello dinamico di un motore in corrente continua, a magneti permanenti e con alimentazione d’armatura, può essere determinato a partire dalle equazioni che descrivono il comportamento della parte elettrica e di quella meccanica. Per una trattazione più dettagliata e precisa della modellazione delle macchine elettriche si rimanda a testi specifici, tra cui [1, 2, 3, 4]. Il diagramma1 in figura 1.10 illustra il principio di funzionamento del motore elettrico in corrente continua. Figura 1.10: Principio di funzionamento di un motore in corrente continua. Il circuito di armatura può essere descritto dalla seguente equazione differenziale: La d ia + Ra ia + Ke ω = va , dt (1.32) in cui ia indica la corrente nel circuito di armatura, La ed Ra sono l’induttanza e la resistenza equivalenti d’armatura, Ke è la costante di proporzionalità velocità/tensione relativa alla forza contro-elettromotrice ec = Ke ω, ed infine va indica la tensione di armatura, e rappresenta il segnale di ingresso. La sezione meccanica del motore può essere descritta tramite le due equazioni differenziali: J dω + kv ω + τd dt dθ dt = Km ia , (1.33a) = ω, (1.33b) in cui ω e θ indicano, rispettivamente, velocità e posizione angolari del rotore del motore, J indica il momento di inerzia del rotore e di un eventuale carico, kv indica il coefficiente di attrito viscoso (o smorzamento), km indica la costante di coppia ed infatti il termine km ia indica la coppia meccanica fornita dal campo magnetico, ed infine τd indica una eventuale coppia di disturbo. 1 Immagine elaborata da hyperphysics.phy-astr.gsu.edu Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-17 Si consideri il caso, di notevole interesse reale, in cui sia accessibile per la misura solo la posizione del rotore θ, che svolge quindi il ruolo di uscita (misurata). Introducendo, per semplicità di notazione, le variabili x1 = θ, x2 = ω, x3 = ia , x = [x1 x2 x3 ]T , u = ea , ed i parametri f22 = kv /J, f23 = km /J, f32 = ke /La , f33 = Ra /La e b3 = 1/La , d = τd m2 = 1/J, ed infine considerando come funzione di uscita la posizione del rotore, il modello dinamico del motore è dato da: ẋ1 ẋ2 ẋ3 y = x2 = −f22 x2 + f23 x3 − m2 d = −f32 x2 − f33 x3 + b3 u = x1 ed in termini matriciali: ẋ y con le matrici descritte da: 0 1 A = 0 −f22 0 −f32 0 f23 , −f33 = Ax + bu + mu = cx 0 b = 0 , b3 0 m = −m2 , 0 c= 1 0 0 . (1.35) Un insieme realistico di parametri è dato, ad esempio, da: Ra = 1Ω, La = 10−2 H, ke = 0.5volts/rps, km = 0.7N − m/A, J = 2 × 10−3 Kg − m3 , kv = 2 × 10−5 N − m/rps. 1.6 Il pendolo: un robot ad un grado di libertà Il sistema illustrato in figura 1.11 è un pendolo ideale, costituito da un braccio rigido di lunghezza ℓ, collegato ad un estremo ad un motore in grado di produrre una coppia τ (t), e con una massa puntiforme m fissata all’altro estremo. Il pendolo si muove in un piano verticale, ed è quindi soggetto alla forza di gravità. La configurazione del pendolo, ad un dato istante, è completamente caratterizzata dalla misura dell’angolo θ che il braccio forma con l’asse verticale del sistema di riferimento (x, y) (si noti che la configurazione del pendolo non coincide con il vettore di stato). Il sistema in esame è, ad esempio, il modello della parte meccanica di un robot ad un solo grado di libertà. Nella maggior parte dei casi, un robot industriale è costituito da una insieme di braccia (e quindi, di pendoli ad un grado di libertà), collegati tra loro in successione. Per una trattazione dettagliata del problema della modellazione di robot si veda, tra l’altro, [5]. Il sistema è detto anche pendolo semplice, e costituisce un ottimo modello per lo studio della stabilità di corpi rigidi sospesi tramite un vincolo, soggetti alla forza di gravità e, in taluni casi, anche all’azione di forze esterne ulteriori. In certe situazioni un quadricottero rientra uin questa classe di sistemi. x l θ m y Figura 1.11: Pendolo verticale Per determinare il moto del pendolo si può procedere applicando l’equazione di Newton per moti rotazionali: Jα = τR . Il contributo della forza di gravità è dato dalla componente perpendicolare al braccio (giacché quella allineata al braccio viene compensata dalla assunta non estendibilità del braccio stesso): τg = −mgℓ sin(θ(t)), (1.36) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-18 mentre il momento di inerzia J della massa è pari a mℓ2 , per cui il moto del pendolo è descritto dall’equazione: mℓ2 α(t) = −mgℓ sin(θ(t)) + τ (t), (1.37) dove α(t) = θ̈(t) indica l’accelerazione angolare del pendolo. Riordinando le equazioni e ricordando che ω = θ̇ e α = θ̈, si trova il seguente modello non lineare: g 1 θ̈(t) = − sin(θ(t)) + τ (t). ℓ mℓ2 (1.38) Lo studio di questo modello, ed il suo controllo, puà essere condotto con tecniche di controllo non lineare [11], oppure introducendo un modello lineare approssimato. Quest’ultimo può essere ottenuto linearizzando la funzione f (θ) = sin(θ) in un intorno dell’origine, che costituisce una posizione di equilibrio per il sistema autonomo, ottenendo: 1 g ¨ τ (t), θ̃(t) = − θ̃(t) + ℓ mℓ2 (1.39) dove θ̃ indica lo scostamento del pendolo rispetto alla posizione di equilibrio. Questo modello descrive con un’approssimazione lineare il pendolo, e quindi vale solo in un’intorno piccolo, di norma molto piccolo, dell’origine. Il vantaggio della linearità del modello è cosı̀ importante che assai spesso si utilizza tale approssimazione, detta anche approssimazione a piccoli segnali. Il modello completo, non lineare, può essere posto in forma di spazio di stato. Si scelgano come variabili di stato posizione e velocità angolari del pendolo, cioè x1 = θ ed x2 = θ̇ = ω, e si indichi con u(t) = τ (t) la coppia di ingresso. Si trova: ẋ1 = ẋ2 = x2 1 g u. − sin(x1 ) + ℓ mℓ2 (1.40) (1.41) Il modello dinamico in questo caso è non lineare, e quindi non può essere scritto in forma matriciale. La forma compatta abitualmente utilizzata (se il sistema conserva la linearità negli ingressi, come in questo caso) è del tipo: ẋ = y = f (x) + g(x)u h(x) (1.42) (1.43) con le funzioni f , g ed h date da: f (x) = " x2 g − sin(x1 ) ℓ # , g(x) = " 0 1 mℓ2 # , h(x) = x1 , (1.44) assumendo interesse per la posizione angolare del pendolo (funzione di uscita). Le tecniche di controllo non lineare (che esulano dagli scopi di questo testo), consentono di indurre un comportamento effettivamente lineare per il pendolo, in modo globale e non solo in un’intorno dell’origine, agendo tramite il segnale di controllo. Si supponga di poter misurare la posizione e la velocità del pendolo per mezzo di opportuni sensori. Allora, si può pensare di applicare al pendolo una coppia data da: i hg (1.45) sin(θ) − k1 θ − k2 θ̇ , τ = mℓ2 ℓ ottenendo, per il sistema controllato, il modello: θ̈(t) = −k1 θ − k2 θ̇, (1.46) e cioè un modello lineare, con parametri che possono essere scelti liberamente, e quindi con un comportamento a ciclo chiuso che può essere scelto a piacere. Insomma, in certi casi, è possibile utilizzare il segnale di controllo per compiere una operazione di linearizzazione esatta tramite retroazione. Capitolo 1: Modelli dinamici 1.7 [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-19 Un altro approccio alla modellazione di sistemi meccanici: le equazioni di Lagrange Nel caso particolare dei sistemi meccanici (ed anche per alcune classi di sistemi elettromeccanici [12]) un approccio alternativo a quello seguito nell’esempio precedente è basato sull’uso delle equazioni di Lagrange [13, 14]. Infatti l’approccio basato sull’equilibrio delle forze, nel caso di sistemi meccanici composti da più corpi rigidi interconnessi, richiede di tener conto di tutte le forze agenti sui vari corpi, comprese le forze di reazione vincolare. Ciò rende il metodo particolarmente complesso da un punto di vista computazionale. Viceversa, la determinazione del modello per mezzo delle equazioni di Lagrange richiede solo il calcolo dell’energia cinetica e potenziale dei vari corpi, e di norma tale calcolo è più semplice della determinazione di tutte le forze agenti. Più precisamente, la derivazione del modello è fatta a partire dalla funzione Lagrangiana L, definita da: L(q, q̇) := T (q, q̇) − V (q) (1.47) dove T (q, q̇) indica l’energia cinetica del sistema, V (q) l’energia potenziale e q indica il vettore ad n componenti delle coordinate generalizzate, cioè il vettore dell’insieme di grandezze che descrivono in modo completo la configurazione degli n corpi che compongono il sistema. Indicato con τ il vettore delle forze e coppie agenti sul sistema, le equazioni del moto sono date dalle seguenti equazioni di Lagrange: ∂L d ∂L − = τi , dt ∂ q̇i ∂qi i = 1, 2, . . . , n. (1.48) Nel caso particolare del pendolo, il vettore delle coordinate generalizzate è dato semplicemente da q = θ. L’energia cinetica del sistema, assumendo la massa del braccio nulla (perché concentrata nella masssa puntiforme), è data da: 1 (1.49) T (q, q̇) = mℓ2 θ̇2 , 2 mentre l’energia potenziale è data da: V (q) = −mgℓ cos(θ). (1.50) La funzione Lagrangiana è quindi: 1 2 2 mℓ θ̇ + mgℓ cos(θ). 2 da cui, sostituendo nelle equazioni di Lagrange, si ottiene: L(q, q̇) = d ∂L dt ∂ q̇ ∂L ∂q (1.51) = d (mℓ2 θ̇) = mℓ2 θ̈ dt (1.52a) = −mgℓ sin(θ) (1.52b) e quindi: mℓ2 θ̈ + mgℓ sin(θ) = τ. 1.8 (1.53) Modelli decisionali Una classe molto importante di sistemi dinamici è costituita dai modelli decisionali, cioè da modelli utilizzati per valutare l’effetto di possibili decisione alternative. Nel caso dei sistemi a tempo continuo tali modelli possono essere facilmente descritti in termini di modelli fluidi. Si consideri, a titolo di esempio, il caso di un’azienda di trasporti che gestisce un parco autoveicoli molto numeroso. L’azienda organizza gli autoveicoli in due insiemi: gli autoveicoli che hanno percorso meno di 15.000 Km, indicati come autoveicoli di classe A, e quelli che hanno percorso più di 15.000 Km, indicati come autoveicoli di classe B. Entrambe le classi di autoveicoli sono soggette a guasti e/o a manutenzioni periodiche. Ogni veicolo guasto, in funzione dell’entità del guasto stesso, verrà riparato o dismesso. Complessivamente quindi l’intero parco può essere diviso in quattro insiemi (o compartimenti): • compartimento (o insieme) 1: autoveicoli di classe A (meno di 15.000 Km) funzionanti; • compartimento (o insieme) 2: autoveicoli di classe A (meno di 15.000 Km) guasti/in manutenzione; Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-20 • compartimento (o insieme) 3: autoveicoli di classe B (più di 15.000 Km) funzionanti; • compartimento (o insieme) 4: autoveicoli di classe B (più di 15.000 Km) guasti/in manutenzione. Per costruire un modello decisionale, ad esempio finalizzato a studiare il numero previsto di veicoli in ogni classe, o il tasso al quale inserire nuovi veicoli, od altri elementi di interesse, è importante caratterizzare ulteriormente il modello. In particolare è importante conoscere il tasso di transizione tra i vari insiemi, e cioè quale frazione di autoveicoli di ogni insieme transita ad un insieme contiguo. In particolare, si assuma che ogni giorno: • lo 0.1 % dei veicoli della classe A si danneggi e/o debba essere sottoposto a manutenzione; • lo 0.15% dei veicoli della classe B si danneggi e/o debba essere sottoposto a manutenzione; • il 1% dei veicoli della classe A danneggiati venga rimesso in operazione; • lo 0.20% dei veicoli di classe A danneggiati venga dismesso; • il 1.5 % dei veicoli della classe B danneggiati venga rimesso in operazione; • lo 0.25% dei veicoli di classe B danneggiati venga dismesso. • il 0.10% dei veicoli funzionanti della classe B venga dismesso. È bene precisare che la scala temporale utilizzata per i precedenti parametri, il giorno, corrisponde all’unità di misura del tempo. Il sistema in esame può essere descritto tramite un modello fluido se il numero di elementi coinvolti è alto (in questo esempio il numero di veicoli), in modo tale da poter approssimare i valori interi con valori reali, e se i singoli eventi, cioè i “fatti” che influenzano il comportamento del sistema stesso, avvengono in modo indipendente. In tal caso, si può associare ad ogni compartimento una variabile di stato reale, e descrivere le transizioni degli autoveicoli tra i vari insiemi in termini di flussi (o velocità), assumendo che i passaggi tra due insiemi avvengano con continuità. Una rappresentazione grafica del sistema è riportata nella seguente figura 1.8. Si tratta di un grafo bipartito, in cui cioè i nodi sono di due classi distinte: nodi compartimento (indicati con un cerchio vuoto) e nodi sorgente/pozzo (indicati con un triangolo). I nodi sono collegati tra loro da archi pesati ed orientati. Il peso di ciascun arco indica la frazione di contenuto del nodo origine che fluisce nel nodo destinazione nell’unità di tempo. In assenza di etichetta di peso, si assume peso unitario. A ciascun nodo di tipo compartimento deve essere associata una variabile di stato, mentre i nodi sorgente/pozzo determinano variazioni nette di flusso nel sistema. In particolare, i nodi sorgente/pozzo autonomi sono indicati con un triangolo vuoto, caratterizzato da un parametro (u1 nell’esempio in figura 1.8) che indica il flusso indotto dal nodo. Per tali nodi, nel caso di un arco da una sorgente verso un nodo compartimento è positivo per il nodo compartimento, mentre nel caso di un arco da un compartimento ad un pozzo il flusso è negativo per il nodo di tipo compartimento. I nodi di tipo pozzo dipendenti dallo stato del sistema sono indicati con un triangolo nero, ed assorbono un flusso caratterizzato dall’arco in ingresso. Tale flusso è quindi un flusso negativo per il nodo origine dell’arco pesato con destinazione il pozzo. Nell’esempio in esame, si tratta dei nodi legati tra loro dagli archi con peso a2,0 , a3,0 e a4,0 . Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-21 a1,3 u1 1 x1 x3 a1,2 a2,1 a3,4 a4,3 x2 a3,0 x4 a2,0 a4,0 Per tali classi di modelli, le variabili di stato descrivono ciascun singolo insieme (o compartimento), e tipicamente denotano la quantità di beni (materiali, oggetti, liquidi, etc ...) contenuti nell’insieme. Nel caso del sistema in esame si può quindi porre: 1. x1 : numero di veicoli nel compartimento (o insieme) 1, cioè numero di veicoli di classe A (meno di 15.000 Km) funzionanti; 2. x2 : numero di veicoli nel compartimento (o insieme) 2, cioè numero di veicoli di classe A (meno di 15.000 Km) guasti/in manutenzione; 3. x3 : numero di veicoli nel compartimento (o insieme) 3, cioè numero di veicoli di classe B (più di 15.000 Km) funzionanti; 4. x4 : numero di veicoli nel compartimento (o insieme) 4, cioè numero di veicoli di classe B (più di 15.000 Km) guasti/in manutenzione. Si indichi con ai,j il flusso di veicoli dall’insieme i all’insieme j. Nel caso in esame si ha quindi: • a1,2 = 1 × 10−3 (% dei veicoli della classe A che si danneggia e/o debba essere sottoposto a manutenzione); • a1,3 = 1 × 10−3 (% dei veicoli della classe A che passano alla classe B); • a2,1 = 10 × 10−3 (% dei veicoli della classe A danneggiati e rimessi in operazione); • a2,0 = 2 × 10−3 (% dei veicoli di classe A danneggiati e dismessi); • a3,0 = 1.0 × 10−3 (% dei veicoli funzionanti della classe B dismessi); • a3,4 = 1.5×10−3 (% dei veicoli della classe B che si danneggia e/o debba essere sottoposto a manutenzione); • a4,3 = 15 × 10−3 (% dei veicoli della classe B danneggiati e rimessi in operazione); • a4,0 = 2.5 × 10−3 (% dei veicoli di classe B danneggiati e dismessi). Il comportamento dinamico del sistema è quindi descritto dalle seguenti equazioni ẋ1 = ẋ2 ẋ3 = = ẋ4 = −a1,2 x1 − a1,3 x1 + a2,1 x2 + u1 (1.54) −a4,3 x3 + a3,4 x3 2 − a4,0 x4 . (1.57) a1,2 x1 − a2,1 x2 − a2,0 x2 a1,3 x1 − a3,4 x3 + a4,3 x4 − a3,0 x3 (1.55) (1.56) Assumendo inoltre come grandezze di interesse il numero di veicoli di classe A operativi ed il numero totale di veicoli operativi, si hanno le due funzioni di uscita (cioè l’uscita vettoriale) y1 y2 = = x1 x1 + x3 . (1.58) (1.59) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-22 Si noti come i flussi verso un dato compartimento, ad esempio il flusso descritto dal parametro a1,2 , dia luogo ad un termine positivo nella seconda equazione, e ad un corrispondente termine negativo nella prima equazione. In termini matriciali il modello può quindi essere scritto nella forma seguente: ẋ = y = Ax + Bu Cx ove le matrici che descrivono il modello sono date da: −a1,2 − a1,3 a2,1 0 a −a − a 0 1,2 2,1 2,0 A = a1,3 0 −a3,4 − a3,0 0 0 −a4,3 1 0 0 0 C = 1 0 1 0 1.9 (1.60) (1.61) 0 0 , a4,3 +a3,4 − a4,0 1 0 B= 0 0 (1.62) (1.63) Dinamica di popolazioni I modelli matematici vengono utilizzati spesso anche per studiare dinamiche di popolazioni. Anche in questo caso si fa riferimento a modelli fluidi. A titolo di esempio, si consideri un corso di studio universitario di durata triennale. La popolazione di tale corso può essere organizzata in tre insiemi di studenti: • compartimento (o insieme) 1: studenti iscritti al primo anno di corso; • compartimento (o insieme) 2: studenti iscritti al secondo anno di corso; • compartimento (o insieme) 3: studenti iscritti al terzo anno di corso e studenti fuori corso (iscritti da più di tre anni). Anche per tali classi di modelli, le variabili di stato descrivono ciascun singolo insieme (o compartimento), ed in particolare misurano la popolazione in ogni compartimento. Nel caso del sistema in esame si può quindi porre: • x1 : numero di studenti iscritti al primo anno di corso; • x2 : numero di studenti iscritti al secondo anno di corso; • x3 : numero di studenti iscritti al terzo anno di corso e studenti fuori corso (iscritti da più di tre anni). Le variabili di stato, e cioè la popolazione che contraddistingue ciascun anno di corso, cambia con cadenza annuale, in corrispondenza del processo di iscrizione, ed è (sostanzialmente) costante nel corso di ciascun anno. I cambiamenti nelle variabili di stato possono quindi essere associati ad un indice intero che descriva il trascorrere degli anni accademici: la quantità reale x1 (k) indica il numero di studenti iscritti al primo anno nel corso del k-esimo anno accademico e la quantità reale x1 (k + 1) indica la popolazione iscritta al primo anno nel successivo anno accademico. Il modello è quindi a tempo discreto: la variabile indipendente “tempo” assume solo valori interi. Analogamente a quanto visto nel caso del modello decisionale, la derivazione delle equazioni che descrivono l’evoluzione della popolazione di interesse si basa sulla conoscenza delle caratteristiche del sistema, e nello specifico sia sulla conoscenza dei tassi di passaggio degli studenti da un anno al successivo, sia sulla conoscenza dei tassi di abbandono ai vari anni e del tasso di laurea. A titolo di esempio, si assuma che: • il 70 % degli studenti iscritti al primo anno passi, nel successivo anno accademico, al secondo; • il 5 % degli studenti iscritti al primo anno rimanga, nel successivo anno accademico, al primo; • il 25 % degli studenti iscritti al primo anno abbandoni gli studi nel corso dell’anno accademico; • il 90 % degli studenti iscritti al secondo anno passi, nel successivo anno accademico, al terzo; Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-23 • il 5 % degli studenti iscritti al secondo anno rimanga, nel successivo anno accademico, al secondo; • il 5 % degli studenti iscritti al secondo anno abbandoni gli studi nel corso dell’anno accademico; • il 50 % degli studenti iscritti al terzo anno o successivi, consegua la laurea nel corso dell’anno accademico; • il 5 % degli studenti iscritti al terzo anno abbandoni gli studi nel corso dell’anno accademico; • ogni anno si immatricoli un numero noto di studenti (al primo anno). Il sistema in esame, analogamente a quanto visto per il precedente modello decisionale, può essere descritto tramite un modello fluido. Una rappresentazione grafica del sistema è riportata nella seguente figura 1.9. A differenza del precedente modello, in questo caso (cioè nel caso dei modelli fluidi a tempo discreto) ciascun arco determina un flusso positivo per il nodo destinazione, ma non determina alcun flusso per il nodo origine. 7 10 u1 1 9 10 x1 25 100 x2 5 100 5 100 x3 5 100 5 100 45 100 Il comportamento dinamico del sistema è quindi descritto dalle seguenti equazioni, dette equazioni alle differenze finite x1 (k + 1) = x2 (k + 1) = x3 (k + 1) = 5 x1 (k) + u1 (k) 100 5 7 x1 (k) + x2 (k) 10 100 9 45 x2 (k) + x3 (k). 10 100 (1.64) (1.65) (1.66) Assumendo come grandezza di interesse il numero complessivo di studenti: y(k) = x1 (k) + x2 (k) + x3 (k) (1.67) (1.68) il modello può essere scritto nella seguente forma matriciale: x(k + 1) = y(k) = ove le matrici che descrivono il modello sono date da: 5 0 100 7 5 A = 10 100 9 0 10 1 0 0 C = Ax(k) + Bu(k) Cx(k) 0 0 , 45 100 (1.69) (1.70) 1 B= 0 0 (1.71) (1.72) Capitolo 1: Modelli dinamici 1.10 [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-24 Successione di Fibonacci La successione di Fibonacci 2 è una successione di numeri interi naturali, con la proprietà che ciascun numero della successione è il risultato della somma dei due precedenti. I numeri di tale successione, detti numeri di Fibonacci, trovano applicazione in molti contesti. Una delle caratteristiche di tali numeri è che il rapporto tra due valori consecutivi tende alla sezione aurea o numero di Fidia. Indicato con F (k) il generico numero di Fibonacci, si ha insomma: √ F (k) 1+ 5 lim = . (1.73) k→∞ F (k − 1) 2 Il calcolo di un assegnato numeri di elementi consecutivi della successione di Fibonacci può essere condotto utilizzando la definizione ricorsiva del generico termine: F (k) = F (k − 1) + F (k − 2), ∀k ≥ 2, (1.74) a partire dalle condizioni iniziali F (0) = 0 e F (1) = 1. Il calcolo della sequenza è frequentemente utilizzato nei corsi di programmazione come esempio di realizzazione ricorsiva o iterativa di algoritmi. La stessa sequenza può essere studiata introducendo un modello a tempo discreto nello spazio di stato. La soluzione di tale modello consente il calcolo, in forma chiusa, di un generico elemento, mentre la sua analisi consente di ricavare le proprietà di tale sequenza, ad esempio la proprietà sintetizzata dalla (1.73). Per costruire un modello nello spazio di stato che descriva la successione di Fibonacci si considerino le due variabili di stato: x1 (k) F (k) x1 (k) = , x := , x ∈ R2 . (1.75) x2 (k) F (k + 1) x2 (k) Dalla definizione di tali variabili e dei numeri di Fibonacci (1.74) segue facilmente che: x1 (k + 1) = F (k + 1) = x2 (k) (1.76a) x2 (k + 1) = y(k) = F (k + 2) = F (k + 1) + F (k) = x1 (k) + x2 (k) F (k) = x1 (k) (1.76b) (1.76c) da cui il modello matriciale: x(k + 1) = y(k) = Ax(k) Cx(k) (1.77) (1.78) con A = 0 1 1 1 , C= 1 0 . (1.79) Rispetto alla proprietà (1.73), ci si limita in questa sede a notare come la sezione aurea sia uno degli autovalori della matrice A. 1.11 Un modello di magazzino Un ulteriore tipico esempio di sistema a tempo discreto è costituito dal modello dinamico di un magazzino. Si indichi con y(k), k ∈ Z, il livello della merce presente nel magazzino all’inizio di un fissato intervallo di tempo, ad esempio all’inizio di ogni settimana, prima degli approvvigionamenti e delle consegne della settimana stessa. Si supponga che gli ordini per il rifornimento del magazzino vengano inviati al fornitore all’inizio della settimana, cioè all’inizio del k-esimo periodo di tempo, e che il fornitore consegni nell’arco di tempo tra l’inizio e la fine del periodo k-esimo la merce ordinata all’inizio del periodo k − 1; si indichi con u(k) tale quantità. Infine, si indichi con v(k) la merce consegnata ai clienti del magazzino durante il periodo k. Considerando le funzioni u(k) e v(k) come ingressi al sistema, ed assumendo che l’interesse è nello studio del livello della merce nel magazzino, indicato tramite la funzione di uscita y(k), il legame tra le varie grandezze è espresso dalla seguente equazione alle differenze finite del secondo ordine: y(k + 1) = y(k) + u(k − 1) − v(k). 2 Leonardo da Pisano, detto Leonardo Fibonacci, (Pisa, 1170 - Pisa, 1240 ca.) (1.80) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-25 Una possibile scelta delle variabili di stato è: x2 (k) = u(k − 1). (1.81) x1 (k) + x2 (k) − v(k) u(k) (1.82a) (1.82b) x1 (k) (1.82c) x1 (k) = y(k), Con tale scelta, il modello del magazzino diviene: x1 (k + 1) = x2 (k + 1) = y(k) = In forma matriciale il sistema può essere scritto come: x(k + 1) = y(k) = con A= 1.12 1 0 1 0 , B= Ax(k) + Bu(k) (1.83) Cx(k) (1.84) −1 0 0 1 , C= 1 0 . (1.85) Sistemi a segnali campionati Il controllo dei sistemi dinamici è ormai realizzato, salve rarissime eccezioni, esclusivamente tramite controllori digitali, e quindi con leggi di controllo a tempo discreto, per l’intrinseca natura discreta degli elaboratori digitali. In modo analogo, la quasi totalità degli apparati di elaborazione e trasmissione dei segnali è basata su tecnologie digitali. Viceversa, la maggior parte dei sistemi reali sono intrinsecamente a tempo continuo. Si pone quindi il problema di studiare sistemi di controllo a segnali campionati, in cui cioè siano presenti elementi a tempo discreto ed elementi a tempo continuo. Un primo approccio allo studio di tali sistemi è quello di condurre l’intero processo di analisi e sintesi del controllore a tempo continuo, e poi discretizzare il controllore cosı̀ ottenuto. In alternativa, si può discretizzare il modello del processo, e poi condurre l’analisi e la sintesi a tempo discreto. In entrambi i casi, si pone il problema di passare da un modello a tempo continuo ad un modello a tempo discreto. Un concetto fondamentale per trattare tali argomenti è quello di intervallo di campionamento: si assume che i seganli a tempo continuo di interesse, abitualmente detti segnali analogici, vengano acquisiti ad istanti di tempo regolari. La distanza di tempo tra due acquisizioni consecutive è detta periodo di campionamento. Se si dispone di un modello nello spazio di stato del sistema da discretizzare, si può procedere come segue. Per semplicità, si considera un sistema con una sola variabile di stato; l’approccio è comunque generale. Quello presentato è uno degli approcci possibili: in altri corsi verranno introdotte altre procedure. Dato il sistema: ẋ = ax + bu, y cx, = x ∈ R, u ∈ R, y ∈ R, (1.86) (1.87) la sua soluzione nella variabile x(t), a partire dalla condizione iniziale x(0) = x0 , è data da: at x(t) = e x0 + Z t e a(t−τ ) bu(τ )dτ. (1.88) 0 Nel caso di sistemi a segnali campionati, le grandezze di controllo sono costanti all’interno di un periodo di campionamento. Sia T la durata del periodo campionamento/controllo, e sia u(k) il valore assunto dal segnale di controllo durante il k-esimo periodo di controllo. Si ha: u(τ ) = u(k), ∀τ ∈ [kT, (k + 1)T ). (1.89) Si consideri ora la soluzione nella variabile di stato x(t) del sistema (1.88) all’interno del k-esimo intervallo di controllo: Z t x(t) = e a(t−kT ) x(kT ) + e a(t−τ ) bu(τ )dτ, t ∈ [kT, (k + 1)T ). (1.90) kT Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-26 Poiché il segnale di controllo è costante in tale intervallo, può essere portato fuori dall’integrale, ottenendo: ! Z x(t) = e a(t−kT ) x(kT ) + kT +t e a(t−τ ) dτ bu(k), kT t ∈ [kT, (k + 1)T ), (1.91) da cui, ponendo l’attenzione sull’istante di tempo t = (k + 1)T e cambiando variabile di integrazione, si trova: ! Z T x((k + 1)T ) = e aT x(kT ) + e aσ dσ bu(k). (1.92) 0 L’equazione precedente descrive la legge di aggiornamento dei valori dello stato in corrispondenza degli istanti di campionamento. Definite le costanti: "Z # aD := e aT , T bD := e aσ dσ b, (1.93) 0 lo stato del sistema, in corrispondenza degli istanti di campionamento e sotto l’ipotesi che il segnale di controllo sia costante tra due istanti di campionamento successivi, è descritto dall’equazione alle differenze finite: x(k + 1) = aD x(k) + bD u(k), y(k) = cx(k), (1.94a) (1.94b) dove l’equazione di uscita è ottenuta semplicemente ricordando che il legame stato-uscita è statico, e la durata del periodo di controllo è stata omessa dall’argomento dello stato e dell’ingresso (cioè, x(k + 1) indica in effetti x((k + 1)T )). Con procedimento del tutto analogo, salvo l’uso di operazioni matriciali, si può ricavare il modello a tempo discreto di un sistema continuo di dimensione maggiore di uno. Si noti che il modello a tempo discreto ricavato, sotto le ipotesi fatte, ed in particolare sotto l’ipotesi che il segnale di controllo sia costante in un periodo, non è una approssimazione del sistema a tempo continuo, ma invece è una descrizione esatta del comportamento dello stato in corrispondenza degli istanti di campionamento. 1.13 Algoritmi per il calcolo numerico: la radice quadrata Un’altra classe molto importante di sistemi dinamici a tempo discreto è costituita da algoritmi iterativi per il calcolo numerico. Un esempio di tale classe di sistemi è dato dal semplice algoritmo per il calcolo della radice quadrata del numero reale α, descritto dall’equazione: x(k + 1) = x(k) + α − x(k)2 . (1.95) È immediato verificare che il valore xe = +α è un punto di equilibrio del sistema, asintoticamente stabile (cioè, tale che l’evoluzione libera del sistema tende alla soluzione cercata) per α ∈ (0, 1) e per condizioni iniziali sufficientemente vicine alla soluzione cercata. Un altro algoritmo per il calcolo della radice quadrata, valido per un insieme più ampio di valori del parametro α3 , è dato dalla legge iterativa: x(k)2 − α x(k + 1) = x(k) − . (1.96) 2x(k) Si suggerisce di studiare gli algoritmi (1.95) e (1.96) per via simulativa, realizzando due semplici programmi in un qualsiasi linguaggio di programmazione. 1.14 Il modello di un motore a combustione L’approccio seguito finora per la determinazione di modelli dinamici di sistemi reali è basato principalmente sull’uso delle leggi fisiche che regolano il funzionamento del sistema stesso. 3 formalmente: xe = α. un insieme più ampio di valori del parametro α cui corrisponda la stabilità asintotica del punto di equilibrio Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-27 Nel caso di sistemi complessi si ricorre spesso a modelli approssimati costruiti sulla base di procedimenti di identificazione del legame ingresso-uscita che caratterizza il sistema. Tipicamente, si determina prima un modello parametrico del sistema o sulla base di alcune considerazioni fisiche, o sulla base di misure preliminari, e si procede poi all’identificazione del valore numerico dei parametri. Un approccio molto comune per risolvere tale problema è quello di immettere in ingresso al sistema segnali sinusoidali, misurare l’uscita corrispondente, in un intervallo di frequenze ritenuto di interesse, e risolvere poi un problema di minimizzazione, calcolando i valori numerici dei parametri che danno luogo allo scarto minimo tra le uscite misurate e quelle ottenute dal modello. Procedendo in questo modo è possibile costruire, ad esempio, il modello dinamico di un motore a combustione interna. L’esempio che segue descrive il modello del motore di una Lancia Dedra [15]. Si considerino come grandezze di ingresso l’anticipo di accensione, a(s), e l’apertura della valvola a farfalla, d(s). Le grandezze di uscita di interesse, di norma, sono la pressione nel collettore di aspirazione, p(s), e la velocità del motore, n(s). Sulla base di alcune considerazioni circa i principi di funzionamento del motore, si ritiene che i legami tra queste grandezze siano bene rappresentati dal seguente modello parametrico in forma di matrice di trasferimento: p(s) g1,1 (s) g1,2 (s) a(s) = , (1.97) n(s) g2,1 (s) g2,2 (s) d(s) in cui le quattro funzioni gi,j (s) sono descritte da: −q3 q6 , + q5 )s + (q3 q4 + q2 q5 ) q1 (q7 s + q5 , g1,2 (s) = 2 q7 s (q2 q7 + q5 )s + (q3 q4 + q2 q5 ) q6 (s + q2 ) , g2,1 (s) = q7 s2 (q2 q7 + q5 )s + (q3 q4 + q2 q5 ) q1 q4 g2,2 (s) = . 2 q7 s (q2 q7 + q5 )s + (q3 q4 + q2 q5 ) g1,1 (s) = q7 s2 (q2 q7 (1.98) (1.99) (1.100) (1.101) Per quanto riguarda il valore dei parametri q1 , . . ., q7 , si è visto che per ogni condizione di funzionamento è conveniente scegliere un insieme diverso di valori. Per una descrizione più accurata del modello, per i valori numerici dei parametri e per ulteriore bibliografia sull’argomento si veda [15, Cap. 3 e Cap. 10]. Il problema della stima dei parametri di un modello dinamico, ad esempio del tipo analizzato in questa sezione, sulla base di misure dei segnali di ingresso ed uscita è detto problema di identificazione. 1.15 Un modello dell’apparato cardio-circolatorio umano GLi strumenti di modellazione ed analisi tipici dell’ingegneria dell’informazione sono molto utili anche nel settore della medicina e della biologia. In tale contesto, un interessante esempio di sistema dinamico è costituito dall’apparato cardio-circolatorio umano. Per la realizzazione di efficienti sistemi di ausilio meccanico alla circolazione (cuore artificiale e ventricolo artificiale (VAD)), è necessario disporre di un accurato modello di tale apparato. Sono stati proposti vari modelli, di complessità ed accuratezza diversa. In quasi tutti i casi, la struttura del modello è definita a partire da considerazioni di meccanica dei fluidi, mentre la determinazione dei parametri numerici è fatta sulla base di opportune procedure di identificazione. Un problema assai rilevante, in questo caso, è legato al fatto che non si può ricorrere, se non in misura assai contenuta, alla stimolazione esterna del sistema con segnali sinusoidali di frequenza arbitraria! I modelli del sistema circolatorio sono di solito descritti facendo ricorso ad analogie elettriche. La determinazione del modello in spazio di stato del sistema è quindi possibile seguendo la traccia vista nella sezione 1.4. Un modello di uso molto frequente per la descrizione semplificata del sistema circolatorio, che tiene conto solo del ventricolo sinistro e del carico arterioso, è riportato in figura 1.12 [16]. Il sistema è non lineare, per la presenza dei diodi che modellano le valvole mitrale ed aortica. Il generatore controllato che appare nello schema descrive il funzionamento interno del ventricolo, secondo il modello più accreditato in questo momento, detto modello ad elastanza variabile. Secondo tale modello, il volume VLV e la pressione interna PLV del ventricolo sinistro (Left Ventricle) sono legati dalla relazione: PLV (t) = PL0 + (VLV (t) − VL0 )E(t) + RV̇LV (t), (1.102) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-28 in cui il parametro E(t), variabile nel tempo in modo periodico, con periodo pari a quello cardiaco, descrive le capacità elastiche del muscolo, e le costanti PL0 e VL0 sono invece parametri di traslazione. Rc R D QLV L E(t) = PLV Ca Rid Piso Figura 1.12: Sistema cardio-circolatorio (Interazione ventricolo-carico) Partendo dall’analogia elettrica, in base alla quale una pressione (differenza di pressione) corrisponde ad una tensione (differenza di potenziale) ed un flusso corrisponde ad una corrente (flusso di cariche), si ricava facilmente il vettore di stato del sistema, costituito dal flusso QL attraverso l’induttanza di carico Lc (inertanza del sangue in aorta), dalla tensione P1 ai capi del condensatore Ca (complianza arteriosa), ed infine dal volume del ventricolo VLV , che ne descrive lo stato interno. Le variabile di interesse, che possono essere scelte come funzioni di uscita del modello, sono invece la pressione in ventricolo, PLV , la pressione in aorta, PAo , ed il flusso in uscita dal ventricolo. Le grandezze esogene (cioè, i segnali esterni che influenzano il comportamento del sistema, ma che, in questo caso, non possono essere modificati dal “controllo”) sono invece dati dal parametro di traslazione PL0 (assumendo nullo il parametro VL0 ) e dalla pressione media nel ciclo in atrio Pmc . Con tale scelta delle variabili, il modello nello spazio di stato diviene: d P1 dt d QL dt d VLV dt = = = QLV = PAo PLV = = No Γ + 1 RT P No ΓRC No ΓE(t) No Γ P1 + QL + VLV + PL0 (1.103a) CA CA CA CA No ΓRC RC (No ΓRC − 1) No ΓRC E(t) No ΓRC − P1 + QL + VL + PL0 (1.103b) L L L L N1 RRC No Γ Ni RNo Γ Ni E(t) P1 − (1 − No ΓR) VLV(1.103c) No Γ − QL − No ΓE(t) − Rid Rid − RC No Γ Rid Ni (1 − No ΓR Ni PL0 (1.103d) Pmc − No Γ + + Rid Rid −No ΓP1 + No ΓRC QL + No ΓE(t)VLV + No ΓPLO (1.103e) − 2 (1 − RC No Γ)P1 + (No ΓRC − RC )QL + No ΓRC E(t)VLV + No ΓRC PLO No ΓRP1 − No ΓRRC QL − (No ΓR − 1)E(t)VLV + (1 − No ΓR)PLO (1.103f) (1.103g) (1.103h) Per una descrizione più dettagliata del modello e del corrispondente problema di identificazione, nonché per ulteriori riferimenti bibliografici, si può vedere [16, 17]. 1.16 Un circuito elettrico nonlineare: l’oscillatore di Van der Pol Un sistema nonlineare molto studiato è l’oscillatore armonico di van der Pol.4 Il sistema è costituito da un semplice circuito RLC con elementi in parallelo, con induttanza e capacità lineari e resistenza non lineare, con caratteristica corrente-tensione descritta da: 4 Balthasar 2 iR (vR ) = αvR (vR − 1), van der Pol (Utrecht, 1889 - Wassenaar, 1959). α > 0, (1.104) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-29 dove iR e vR indicano, rispettivamente, la corrente attraverso la resistenza e la corrente ai suoi capi. Si noti che per piccoli valori della tensione il componente ha un comportamento attivo. Il modello dinamico del sistema, ricordando che i tre elementi sono collegati in parallelo, indicando con vC la tensione ai capi del condensatore (e quindi di tutti gli elementi) e con iL la corrente nell’induttanza, ed assumendo parametri unitari, è dato da: diL dt dvC dt = vC (1.105a) = 2 −iL − vC (vC − 1). (1.105b) L’oscillatore di van der Pol può essere descritto anche nella seguente forma, diversa nel termine non lineare: x˙1 x˙2 = = x2 (1.106a) −x1 + x2 (1 − x21 ). (1.106b) Si noti che, per entrambe le formulazioni, l’origine è punto di equilibrio. Tuttavia, l’equilibrio è instabile. Il comportamento del sistema è caratterizzata da un ciclo limite stabile. In altri termini, traiettorie con origine al di fuori del ciclo limite convergono ad esso, mentre traiettorie con origine sul ciclo limite vi rimangono.In considerazione di tale comportamento, il sistema costituisce un oscillatore autosostenuto: il ciclo limite infatti non dipende dalle condizioni iniziali, ma solo dai parametri che caratterizzano il sistema. Il comportamento del sistema, nella variante (1.106), è illustrato dai due diagrammi in figura 1.13. Il diagramma a sinisra illustra l’evoluzione temporale delle due variabili di stato, quello a destra il piano delle fasi. La curva magenta rappresenta il ciclo limite, le frecce gialle l’andamento del flusso, la curva in colore verde l’evoluzione, nel piano delle fasi, di una traiettoria con punto di origine all’interno del ciclo limite, ed infine la curva in blu descrive l’evoluzione di una traiettoria con origine al di fuori del ciclo limite. Modello di van der Pol − Andamenti temporali Modello di van der Pol − Piano delle fasi 2.5 3 2 2 Ciclo limite 1 1 2 0.5 Coordinata x Variabili di stato x1 (blu) & x2 (verde) 1.5 0 −0.5 0 −1 −1 −1.5 −2 −2 −3 −2.5 0 5 10 tempo 15 20 −3 −2 −1 0 1 Coordinata x 2 3 1 Figura 1.13: Comportamento dell’oscillatore di van der Pol. 1.17 Un sistema preda-predatore Il comportamento di un sistema ecologico, con due specie diverse, una specie preda ed un specie predatore, può essere descritto tramite un sistema dinamico. Il modello, detto modello di Volterra-Lotka, ha origine dagli studi di Vito Volterra5 su alcune popolazioni ittiche dell’Adriatico. Indicando con x1 il livello di popolazione (numero 5 Vito Volterra, (Ancona, 1860 - Roma, 1940) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-30 di individui, assunto continuo) della specie preda e con x2 il livello della specie predatore, il modello è descritto dalla seguente coppia di equazioni: ẋ1 ẋ2 = ax1 − bx1 x2 = cx1 x2 − dx2 , dove i parametri a, b, c e d sono tutti positivi. L’equazione può essere giustificata sulla base di alcune considerazioni qualitative: • in assenza di predatori (cioè, x2 = 0) il livello delle prede cresce con tasso a, e ciò giustifica il termine ax1 nella prima equazione; • in assenza di predatori (cioè, x1 = 0) il livello dei predatori decresce con tasso d, e ciò giustifica il termine −dx2 nella seconda equazione; • se sono presenti entrambe le specie, il numero di prede decresce in funzione del numero di incontri predapredatore, e ciò giustifica il termine −bx1 x2 nella prima equazione; • se sono presenti entrambe le specie, il numero di predatori cresce in funzione del numero di incontri preda-predatore, e ciò giustifica il termine cx1 x2 nella seconda equazione. Il modello, pur estremamente semplice, riesce a riprodurre, per scelte opportune dei parametri, alcuni importanti fenomeni che si osservano nella realtà. La soluzione del modello descrive andamenti della popolazione oscillante: nei periodi in cui vi sono molti predatori il livello delle prede è basso, nei periodi con pochi predatori vi sono molte prede. Si noti come le popolazioni delle prede e dei predatori siano descritte tramite variabili reali: si tratta di un ulteriore esempio di modello fluido. Il comportamento del sistema è illustrato dai due diagrammi in figura 1.14. Il diagramma a sinisra illustra l’evoluzione temporale delle due variabili di stato, quello a destra il piano delle fasi. Modello di Volterra − Lotka − Andamenti temporali Modello di Volterra − Lotka − Piano delle fasi 2.2 2.5 1.8 2 Coordinata x 2 1.6 1.4 1 2 Variabili di stato x (blu) & x (verde) 2 1.2 1 1.5 1 0.8 0.5 0.6 0.4 0 0 5 10 15 tempo 20 25 0 0.5 1 1.5 Coordinata x1 2 2.5 Figura 1.14: Comportamento del modello di Volterra-Lotka. 1.18 Modellazione di fenomeni alla scala biomolecolare Gli strumenti di modellazione matematica possono essere utilizzati anche per descrivere il comportamento di reazioni biochimiche alla scala dei fenomeni genetici e di quelli interni ad una cellula. Si tratta di un approccio oramai comune nel campo della systems biology [7]). A titolo di esempio, si consideri la catena di reazioni biochimiche che si incontrano nel percorso cellulare dai recetottori EGFR and IGF1R, posti sulla membrana cellulare, fino alle proteine MAPK e PIK3, all’interno della Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-31 cellula e dello stesso nucleo cellulare. Il modello matematico che si può costruire descrive il comportamento complessivo del sistema e le interdipendenze funzionali e dinamiche tra i recettori, le proteine e le altre sostanze coinvole [6]). Lo schema di principio della rete biochimica è illustrato nella figura 1.15. Figura 1.15: Lo schema della rete EGFR e IGF1R. Per descrivere l’approccio modellativo, si consideri una singola reazione, quella che porta alla attivazione della proteina Ras da parte di SOS. La corrispondente reazione biochimica, di tipo enzimatico, è data da: a 1 k1 ⇀ SOS + Ras − ↽ − SOS − Ras −→ Ras∗ + SOS, d1 (1.107) dove Ras∗ rappresenta la forma attiva della proteina Ras e SOS − Ras il prodotto intermedio della reazione. In termini matematici, tale reazione pu ò essere descritta dalle sequenti equazioni differenziali, che conseguono da una semplice applicazione della legge di azione di massa: d[SOS] dt d[Ras] dt d[SOS − Ras] dt d[Ras∗ ] dt = −a1 [SOS][Ras] + d1 [SOS − Ras] + k1 [SOS − Ras] (1.108a) = −a1 [SOS][Ras] + d1 [SOS − Ras] (1.108b) = +a1 [SOS][Ras] − d1 [SOS − Ras] − k1 [SOS − Ras] (1.108c) = k1 [SOS − Ras]. (1.108d) Nelle equazioni precedenti, [S] indica la concentrazione della sostanza “S ′′ . In considerazione della specifica natura delle reazioni enzimatiche, viene abitualmente introdotta una forma approssimata di tali equazioni, basata sulla della cinetica di Michaelis-Menten. Nel caso della reazione in (1.107), si ha: k 1 Ras∗ + SOS, SOS + Ras −→ (1.109) cui corrisponde il sistema di equazioni differenziali: [Ras] d[Ras∗ ] = k1 [SOS] dt kM + [Ras] [Ras] d[Ras] = −k1 [SOS] , dt kM + [Ras] (1.110a) (1.110b) dove [SOS] indica la concentrazione di enzima e kM è la costante di Michaelis, legata alle costanti del modello completo (1.108) dalla relazione kM = (d1 + k1 )/a1 . Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-32 L’approccio descritto sopra può essere utilizzato per l’intera rete EGFR-IGF1R, ottenendo il modello completo riportato sotto, e composto da 18 variabili di stato, 3 segnali di ingresso e 39 parametri. d [EGF R∗ ] dt d [IGF 1R∗ ] dt d [SOS] dt = −γEGF R [EGF R∗ ] = −γIGF 1R [IGF 1R∗ ] = − d [DSOS] dt = − d [Ras∗ ] dt d [Ras] dt d [Raf ∗ ] dt = = = − d [Raf ] dt = + d [M EK] dt d [M EK ∗ ] dt d [Erk∗ ] dt d [Erk] dt d [p90Rsk∗ ] dt d [p90Rsk] dt d [P IK3∗ ] dt = = = = = = = + d [P IK3] dt = − d [Akt∗ ] dt d [Akt] dt = = [DSOS] [DSOS] + kSOS:I [IGF R∗ ] KMSOS:E + [DSOS] KMSOS:I + [DSOS] [SOS] kDSOS:p90Rsk[p90Rsk∗ ] KMDSOS:p90Rsk + [SOS] [SOS] kDSOS:p90Rsk[p90Rsk∗ ] KMDSOS:p90Rsk + [SOS] [DSOS] [DSOS] kSOS:E [EGF R∗ ] − kSOS:I [IGF R∗ ] KMSOS:E + [DSOS] KMSOS:I + [DSOS] [Ras] [Ras∗ ] kRas:SOS [SOS] − kRas:RasGab [RasGab] KMRas:SOS + [Ras] KMRas:RasGab + [Ras∗ ] [Ras] [Ras∗ ] −kRas:SOS [SOS] + kRas:RasGab [RasGab] KMRas:SOS + [Ras] KMRas:RasGab + [Ras∗ ] [Raf ] [Raf ∗ ] kRaf :Ras[Ras∗ ] − kRaf :Raf P P [Raf P P ] KMRaf :Ras + [Raf ] KMRaf :Raf P P + [Raf ∗ ] ∗ [Raf ] kRaf :Akt [Akt∗ ] KMRaf :Akt + [Raf ∗ ] [Raf ] [Raf ∗ ] −kRaf :Ras[Ras∗ ] + kRaf :Raf P P [Raf P P ] KMRaf :Ras + [Raf ] KMRaf :Raf P P + [Raf ∗ ] ∗ [Raf ] kRaf :Akt [Akt∗ ] KMRaf :Akt + [Raf ∗ ] [M EK] [M EK ∗ ] −kM EK:Raf [Raf ∗ ] + kM EK:P P 2A [P P 2A] KMM EK:Raf + [M EK] KMM EK:P P 2A + [M EK ∗ ] [M EK] [M EK ∗ ] +kM EK:Raf [Raf ∗ ] − kM EK:P P 2A [P P 2A] KMM EK:Raf + [M EK] KMM EK:P P 2A + [M EK ∗ ] [Erk] [Erk∗ ] kErk:M EK [M EK ∗ ] − kErk:P P 2A [P P 2A] KMErk:M EK + [Erk] KMErk:P P 2A + [Erk∗ ] [Erk] [Erk∗ ] −kErk:M EK [M EK ∗ ] + kErk:P P 2A [P P 2A] KMErk:M EK + [Erk] KMErk:P P 2A + [Erk∗ ] [p90Rsk] kp90Rsk:Erk [Erk∗ ] − kdp90Rsk [p90Rsk∗ ] KMp90Rsk:Erk + [p90Rsk] [p90Rsk] kdp90Rsk [p90Rsk∗ ] − kp90Rsk:Erk [Erk∗ ] KMp90Rsk:Erk + [p90Rsk] [P IK3] [P IK3] kP IK3:Ras [Ras∗ ] + kP IK3:IGF 1R [IGF 1R∗ ] KMP IK3:Ras + [P IK3] KMP IK3:IGF 1R + [P IK3] [P IK3] kP IK3:EGF R [EGF R∗ ] − kfP IK3 ∗ [P IK3∗ ] KMP IK3:EGF R + [P IK3] [P IK3] [P IK3] −kP IK3:Ras [Ras∗ ] − kP IK3:IGF 1R [IGF 1R∗ ] KMP IK3:Ras + [P IK3] KMP IK3:IGF 1R + [P IK3] [P IK3] kP IK3:EGF R [EGF R∗ ] + kfP IK3 ∗ [P IK3∗ ] KMP IK3:EGF R + [P IK3] [Akt] +kAkt:P IK3 [P IK3∗ ] − kdAkt [Akt∗ ] KMAkt:P IK3 + [Akt] [Akt] −kAkt:P IK3 [P IK3∗ ] + kdAkt [Akt∗ ] KMAkt:P IK3 + [Akt] kSOS:E [EGF R∗ ] Capitolo 1: Modelli dinamici 1.19 [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-33 Un modello di sistema dinamico ad eventi discreti: un sistema soggetto a guasti I modelli visti fino ad ora sono relativi a sistemi per i quali lo stato è costituito da un vettore di variabili continue. Un’altra classe molto importante è costituita dai sistemi dinamici ad eventi discreti, cioè sistemi dinamici per i quali lo stato può assumere valori in un insieme discreto, ad esempio l’insieme degli interi non negativi. Modelli di questo tipo sono utilizzati per studiare sistemi di produzione industriale, sistemi di comunicazione, reti di elaboratori, sistemi di traffico [18, 19, 20]. Un semplice sistema di questo tipo, molto utile nella modellazione degli impianti di produzione industriale, è costituito da un sistema con due soli stati, e transizioni descritte dal verificarsi di eventi (automa a stati finiti). Ad esempio, l’automa rappresentato in figura 1.16 può trovarsi in due soli stati, lo stato F e lo stato G, ed il passaggio da uno stato all’altro avviene solo in corrispondenza del verificarsi dell’evento g o dell’evento r. g F G r Figura 1.16: Un semplice automa a stati finiti Tale automa è utile, ad esempio, per descrivere il comportamento di dispositivi soggetti a guasti. Se il sistema si trova inizialmente nello stato F , cioè nello stato “funzionante”, può passare allo stato G (stato di guasto) in corrispondenza del verificarsi di un evento di guasto g. Similmente, se il sistema si trova nello stato G, tornerà allo stato di funzionamento F in corrispondenza del verificarsi di un evento di riparazione r. Si noti che nello stato F è considerato ammissibile solo l’evento g, mentre l’evento r non è ammissibile, come indica l’assenza di un arco con etichetta r in uscita da tale stato. In modo analogo, l’evento g non è ammissibile a partire dallo stato G. Per questo automa, lo stato può assumere quindi solo i due valori F o G. Un automa è spesso rappresentato, formalmente, tramite un grafo orientato o tramite una matrice di transizione [18, 19, 20]. Si noti che in questo caso lo stato non indica la misura di una grandezza fisica, come tipicamente avviene nel caso dei più comuni sistemi di variabile continua, ma piuttosto indica una configurazione del sistema, una situazione nella quale si trova il sistema: lo stato di un sistema ad eventi discreti ha spesso un significato simbolico, rappresentativo. 1.20 Un sistema soggetto a guasti: modello stocastico Un automa può essere anche non deterministico, e cioè l’evoluzione dello stato dipende anche da fenomeni descrivibili solo in termini probabilistici. Relativamente all’automa della sezione precedente, un caso molto importante da un punto di vista applicativo è quello in cui la transizione tra due stati sia descritta solo in termini stocastici, e vi sia interesse, ad esempio, a conoscere con quale probabilità la macchina sarà nello stato funzionante nel prossimo futuro. Nel caso in cui i tempi di permanenza in ciascuno stato sono descritti per mezzo di variabili aleatorie con distribuzione geometrica (esponenziale) l’intero sistema è descrivibile tramite una catena (processo) di Markov. In particolare, si consideri una catena con due stati F e G, sia g il parametro della distribuzione geometrica che descrive la transizione da F a G ed r il parametro della distribuzione geometrica che descrive la transizione da G ad F . Infine, sia σ(t), t ∈ Z, σ(·) ∈ {F, G}, lo stato della catena all’istante t. L’ipotesi che il sistema sia markoviano corrisponde allora alla condizione: Prob {σ(t + 1) = σ1 |σt = σ0 , σt−1 = σ−1 , σt−2 = σ−2 , . . .} = Prob {σ(t + 1) = σ1 |σt = σ0 } (1.112) Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-34 ove σi , i = 1, 0, −1, −2, . . ., ∈ {F, G}. Si definisca ora il vettore π(t) = [πF (t) πG (t)]T , πF (·), πG (·) ∈ R, come πF (t) = πG (t) = Prob {σ(t) = F }, (1.113a) Prob {σ(t) = G}, (1.113b) che rappresenta la probabilità che lo stato dell’automa, all’istante t, sia F o G. Si definisca inoltre la probabilità di transizione Pij = Prob {σ(t + 1) = i|σ(t) = j}, ∀t ≥ 0, (1.114) e si assuma che tale probabilità non dipenda dal tempo t (cioè, equivalentemente, si assuma che la catena di Markov corrispondente sia omogenea rispetto al tempo). Si ricordi inoltre il seguente teorema della probabilità totale. Teorema 1.1 Se E1 , E2 , E3 , . . ., ES n sono n eventi mutuamente esclusivi (cioè, Prob {Ei ∩ Ej } = 0, ∀ i 6= j) e complessivamente esaustivi (cioè, i Ei = Ω}, ove Ω indica lo spazio campione), ed A è un generico evento, allora: n X Prob {A|Ei } Prob {Ei }. (1.115) Prob {A} = i=1 Il teorema della probabilità totale ha un ruolo fondamentale nella costruzione di processi stocastici, ed in particolare di processi (e catene) di Markov. Si consideri infatti il caso E1 = Prob {σ(t) = F }, E2 = Prob {σ(t) = G}. È facile vedere che E1 ed E2 sono mutuamente esclusivi e completamente esaustivi. Si considerino ora gli eventi Prob {σ(t + 1) = F } e Prob {σ(t + 1) = G} e si ricordi che, secondo le notazioni introdotte, πj (t) = Prob {σ(t) = j}, j = F, G. Allora: πF (t + 1) = PF,F πF (t) + PF,G πG (t), (1.116a) πG (t + 1) = PG,F πF (t) + PG,G πG (t), (1.116b) e cioè: πF (t + 1) = (1 − g)πF (t) + rπG (t), (1.117a) πG (t + 1) = gπF (t) + (1 − r)πG (t), ed in forma matriciale: π(t + 1) = P π(t), P = 1−g g r 1−r (1.117b) . (1.118) Il sistema di equazioni alle differenze (1.118) descrive la dinamica della conoscenza dello stato della catena di Markov, e non, si badi bene, la dinamica della catena. In altre parole, il modello (1.118) non descrive l’evoluzione dello stato della catena, ma solo la conoscenza che si ha di tale evoluzione. È di interesse determinare la soluzione di regime dell’equazione (1.118), cioè π = limt→∞ π(t). Se tale soluzione esiste, deve soddisfare l’equazione π = P π, (1.119) πF + πG = 1. (1.120) insieme all’equazione di consistenza La soluzione di tale sistema è data da: πF = πG = r , r+g g . r+g (1.121a) (1.121b) Si noti che la catena di Markov in esame è ergodica, o che, e ciò è equivalente, la matrice di transizione dello stato P ha un, ed uno solo, autovalore pari ad uno. La soluzione del sistema di equazioni alle differenze (1.118) è data da: r πF (t) = (1 − r − g)t πF (0) + [1 − (1 − r − g)t ], (1.122a) r+g g [1 − (1 − r − g)t ], (1.122b) πG (t) = (1 − r − g)t πG (0) + r+g da cui si vede facilmente che lim π(t) = π. t→∞ Per una trattazione più approfondita del tema si può vedere, tra l’altro, [21, 22, 19]. (1.123) Capitolo 1: Modelli dinamici 1.21 [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-35 Un impianto di produzione Il modello stocastico della sezione precedente è particolarmente utile se si vuole studiare il comportamento di una macchina rispetto ai guasti. Se invece l’interesse è per il comportamento logico di un sistema, ad esempio se si è interessati a studiare la possibilità che il sistema finisca in una situazione di stallo, sono utili modelli di altro tipo. In particolare, il funzionamento logico di sistemi ad eventi discreti è descritto bene tramite l’uso di reti di Petri. Si consideri un semplice sistema di produzione, costituito da una macchina per l’assemblaggio automatico. La funzione della macchina è quella di prelevare, da appositi magazzini, una scocca e montare su di essa un componente. Ad esempio, una macchina di questo tipo è utilizzata nell’industria automobilistica per montare i cruscotti. La macchina può procedere al montaggio di una nuova parte solo se è disponibile almeno una scocca ed almeno un componente. Questo fenomeno di sincronizzazione è descritto in modo naturale dalla rete di Petri riportata in figura 1.17. T1 P1 T3 T2 P3 T4 P2 Figura 1.17: Una rete di Petri. Una rete di Petri è un grafo bipartito, cioè costituito da due tipi di nodi, detti posti e transizioni, collegati tra loro da archi orientati. I posti sono indicati con cerchi e le transizioni con barre. Ogni arco ha origine in un posto e termina in una transizione, o viceversa. Non sono ammessi archi con origine e destinazione in due posti o in due transizioni. All’interno dei posti vi possono essere dei gettoni, ed un posto che contiene almeno un gettone si dice marcato. Una transizione è abilitata a scattare quando tutti i posti a monte sono marcati. Quando una transizione scatta, preleva un gettone da ciascuno dei posti a monte ed aggiunge un gettone a ciascuno dei posti a valle (in effetti, gli archi possono essere pesati, ed il peso di un arco indica il numero di gettoni spostati dalla transizione collegata all’arco). Si consideri la rete in figura 1.17, in cui il posto P1 indica la disponibilità di scocche, il posto P2 la disponibilità di parti da montare, ed il posto P3 indica la macchina. Allora, è immediato vedere che la transizione T3 immette un nuovo gettone nella macchina (cioè, mette la macchina in condizioni di produrre una nuova parte) solo se è disponibile sia una scocca che un componente. Infatti, a monte di questa transizione vi sono i due posti P1 e P2 . Si consideri poi il caso in cui la macchina è in grado di produrre una sola parte alla volta. Questo fatto può tenuto in conto semplicemente aggiungendo un nuovo posto P4 , come in figura 1.18. T1 P1 T3 T2 P3 T4 P2 P4 Figura 1.18: Una rete di Petri. In questo modo la transizione T3 può scattare solo se, oltre alla disponibilità di una scocca ed un componente, la macchina è libera, cioè il posto P4 è marcato. Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-36 Da un punto di vista formale, una rete di Petri può essere descritta ed analizzata, a partire dalla matrice di incidenza, cioè una matrice n × m, con n pari al numero di posti ed m pari al numero di transizioni. Il generico elemento di posizione i, j della matrice di incidenza vale 1 se il posto i-esimo ha un arco che lo collega in uscita alla transizione j-esima, lo stesso elemento vale invece − se il posto ha tra i suoi archi di ingresso un arco proveniente dalla j-esima transizione. Se non vi sono archi dal posto i alla transizione j l’elemento corrispondente vale zero [19]. La letteratura sulle Reti di Petri è estremamente vasta. Per una trattazione più approfondita di questo strumento di modellazione dal punto di vista del controllo dei sistemi ad eventi discreti si possono consultare, tra l’altro, [23, 24]. 1.22 Modellazione della corsa agli armamenti Gli strumenti della modellazione matematica e della teoria dei sistemi sono stati utilizzati, ad esempio da Lewis Fry Richardson, anche per descrivere conflitti tra nazioni e corse agli armamenti. Si indichi con x1 ed x2 il livello di armamenti disponibili ad un certo tempo t a due distinte nazioni in competizione tra loro. Il tasso di variazione del livello di armamenti di ciascuna nazione è proporzionale al livello di armamenti dell’altra nazione, con un meccanismo di “corsa agli armamenti”. Al contempo, il livello di ciascun arsenale diminuisce per obsolescenza e viene modificato in base alle politiche militari specifiche di ciascuna nazione. In termini differenziali, questo comportamento può essere descritto dalle seguenti equazioni: x˙1 x˙2 = −o1 x1 + c1 x2 + u1 = +c2 x1 − o2 x2 + u2 . (1.124a) (1.124b) Nell’equazione precedente, i coefficienti oi descrivono il tasso di obsolescenza e in generale di disarmo, i coefficienti ci il tasso di corsa agli armamenti, ed i due segnali ui gli effetti ulteriori delle politiche militari dei due paesi. In forma matriciale il sistema è descritto da: ẋ = con A= −o1 c2 c1 −o2 Ax + Bu , B= (1.125) 1 0 0 1 . (1.126) Assumendo, per semplicità di analisi, che i tasso di obsolescenza siano unitari e i tassi di corsa uguali per i due paesi, la matrice A che descrive il sistema diviene: −1 c A= , (1.127) c −1 il cui polinomio caratteristico è pari a: det(λI − A) = λ2 + λ + 1 − 2c, le cui radici sono pari a: λ = −1 ± √ 2c, (1.128) (1.129) e quindi il sistema ammette un autovalore con parte reale positiva (il che implica che le variabili di stati crescono esponenzialmente!) se il tasso di “corsa” à maggiore di 1/2, e cioè se tale tasso è superiore alla metà del tasso di obsolescenza. 1.23 Colonna di distillazione Gli strumenti che verranno introdotti in questo testo, e più in generale gli strumenti della teoria del controllo trovano applicazione in moltissimi contesti industriali. Tra i processi di traasformazione, qui viene citato, a titolo di esempio, il modello di una colonna di distillazione. Nello specifico, una colonna binaria, cioè con fluido di ingresso a due sole componenti, del tipo a piatti. Il modello tiene esplicitamente conto delle variazioni nella pressione interna. Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-37 Figura 1.19: Schema di principio di una colonna di distillazione (tratto da [26]) La dinamica del sistema, di norma, è descritto da equazioni non lineari. Il modello proposto è una versione lineare, approssimata. Si tratta di un modello di dimensione undici (cioè, lo spazio di stato è costituito da R11 ), con tre ingressi di controllo u, un ingresso di disturbo d e tre uscite y. Il modello può quindi essere descritto, in forma matriciale, come segue: ẋ y = Ax + Bu(t) + M d(t), = Cx, y ∈ R 3 x ∈ R11 , u ∈ R3 , d ∈ R1 (1.130) (1.131) in cui le variabili di stato, i segnali di ingresso ed uscita ed il disturbo hanno il significato descritto nella tabella seguente. I valori numerici delle matrici che descrivono il sistema sono riportati nel file colonna.m, reperibile tramite le pagine web del corso. Per una descrizione più dettagliata degli aspetti di modellazione si può consultare [26, 27, 28, 29, 30], mentre per una descrizione di alcuni problemi di controllo per una torre di distillazione si può vedere, tra l’altro, [30, 31, 32]. 1.24 Esercizi proposti Esercizio 1.1 (Classificazione) Classificare i modelli descritti nel corso del capitolo rispetto alla natura del tempo (a tempo continuo o a tempo discreto), rispetto al tipo di legami funzionali tra i segnali (lineari o non lineari), rispetto alle caratteristiche del vettore di stato (variabile continua o sistema ad eventi), e rispetto alla dipendenza o meno dal tempo (sistemi stazionari o non stazionari). Esercizio 1.2 (Simulazione) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta di simulare il comportamento dei due algoritmi per il calcolo della radice quadrata introdotti nella sezione 1.13, verificandone e confrontando i risultati per α = 14 e per α = 4 Esercizio 1.3 (Successione di Fibonacci) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta di simulare il comportamento del sistema che descrive la successione di Fibonacci, descritto nella sezione 1.10 e verificare per via simulativa una delle caratteristiche√di tale successione: il rapporto tra due valori consecutivi tende alla sezione aurea o numero di Fidia, pari a 1+2 5 . Esercizio 1.4 (Autovalori) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta di visualizzare graficamente l’andamento degli autovalori del circuito RLC descritto nella sezione 1.4, al variare della Capitolo 1: Modelli dinamici [Ed. 2015, P. Valigi (UniPG), V 4.2] - 1-38 Variabili x1 x2 .. . Significato composizione del componente più volatile nel condensatore composizione del componente più volatile nel primo piatto .. . xi .. . composizione del componente più volatile nel piatto i − 1-esimo .. . x9 x10 x11 y1 y2 y3 u1 u2 u3 d composizione del componente più volatile composizione del componente più volatile pressione nella colonna composizione del componente più volatile composizione del componente più volatile pressione temperatura del vapore nel ribollitore temperatura del liquido nel condensatore livello di riflusso composizione del liquido in ingresso nel piatto n. otto nel ribollitore nel prodotto di coda (in basso) nel prodotto di testa (in alto) Tabella 1.1: Descrizione delle variabili di stato e dei segnali di ingresso-uscita per il modello di una colonna di distillazione (tratto da [27]) resistenza R nell’insieme dei reali strettamente positivi, per valori unitari della capacità, C = 1, e dell’induttanza, L = 1. Esercizio 1.5 (Simulazione tempo continuo) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta di simulare il comportamento del circuito RLC descritto nella sezione 1.4, per ingresso sinusoidale u(t) = sin(t) e assumendo condizione iniziale nulla e valori unitari di tutti i componenti. Esercizio 1.6 (Simulazione tempo continuo: linearità) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta di simulare il comportamento del circuito RLC descritto nella sezione 1.4, per valori unitari di tutti i componenti ed utilizzare tale codice per verificare la linearità del sistema. Esercizio 1.7 (Sospensione attiva) Determinare il modello dinamico semplificato di una sospensione attiva, costituita da un sistema massa-molla del tipo descritto nella sezione 1.3, ruotato in modo tale da muoversi lungo un binario verticale anziché orizzontale. Esercizio 1.8 (Simulazione tempo continuo: piano delle fasi) Scrivere, in un qualsiasi linguaggio di programmazione, del codice che consenta di simulare il comportamento dell’oscillatore di van der Pol descritto nella sezione 1.16, e tracciare il comportamento della soluzione nel piano delle fasi, riproducendo la figura 1.13. Esercizio 1.9 (Dimensioni fisiche delle grandezze fisiche) Discutere le dimensioni fisiche delle variabili di stato di un sistema dinamico. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-39 Capitolo 2 Analisi di sistemi lineari stazionari a tempo continuo In questo capitolo vengono presentati strumenti per l’analisi del comportamento nel tempo di sistemi dinamici lineari, stazionari, a tempo continuo (LSTC) Dopo aver introdotto la rappresentazione esplicita si affronta il tema dell’analisi modale (cioè, lo studio della risposta libera nello stato). Viene successiamente introdotta la trasformata di Laplace e lo studio della risposta forzata (cioè, lo studio del comportamento in uscita a fronte di segnali noti applicati in ingresso). Il capitolo prosegue con lo studio della risposta forzata per segnali notevoli e della risposta armonica. Segue poi uno degli argomenti più importanti dell’intero corso: i diagrammi di Bode. Vengono inoltre presentati esercizi risolti ed esempi, e vengono proposti esercizi di riepologo ed approfindimento. 2.1 Rappresentazione esplicita per sistemi lineari, stazionari, a tempo continuo La classe di sistemi dinamici considerata in questo capitolo è costituita dai sistemi lineari, a tempo continuo, stazionari, a dimensione finita e causali (brevemente Lineari Stazionari a Tempo Continuo, LSTC), rappresentabili per mezzo di equazioni differenziali della seguente forma: ẋ(t) = y(t) = Ax(t) + Bu(t), Cx(t) + Du(t), x ∈ Rn , u ∈ Rm , t ∈ R y∈R p (2.1a) (2.1b) in cui A, B, C e D sono matrici ad elementi reali di dimensioni compatibili con il vettore di stato x, il vettore dei segnali di ingresso u ed il vettore dei segnali di uscita y. Molti dei modelli visti nel precedente capitolo rientrano in tale categoria di sistemi. Nel seguito un sistema del tipo precedente verrà sinteticamente indicato con la notazione Σ(A, B, C, D), mentre la coppia di equazioni (2.1) verrà indica anche con il termine rappresentazione implicita del sistema. Lo studio del comportamento di un sistema dinamico a tempo continuo può essere condotto analizzando le proprietà della soluzione dell’equazione differenziale corrispondente. In particolare, il comportamento del vettore di stato x(t) e del vettore di uscita y(t) può essere descritto tramite la rappresentazione esplicita, cioè tramite la soluzione dell’equazione differenziale (2.1a) e della coppia di equazioni (2.1). Nel caso generale tale rappresentazione esplicita è data, formalmente, dalle due funzioni seguenti: x(t) y(t) = x(t, t0 , x0 , u[t0 ,t) ) = x(t, t0 , x0 , u(·)) = y(t, t0 , x0 , u[t0 ,t) ) = y(t, t0 , x0 , u(·)). (2.2a) (2.2b) La funzione x(t, t0 , x0 , u[t0 ,t) ), per semplicità indicata con la notazione x(t, t0 , x0 , u(·)), è la rappresentazione esplicita nello stato, e definisce il valore dello stato all’istante t, a partire dalla condizione iniziale x0 all’istante t0 , sotto l’effetto del segnale di ingresso u(·), applicato nell’intervallo [t0 , t)1 . La funzione y(t, t0 , x0 , u(·)) è la 1 La notazione s[t1 ,t2 ) si riferisce alla porzione del segnale s relativa all’intervallo temporale [t1 , t2 ). Se il segnale s è continuo in t = t2 , allora s[t1 ,t2 ) ed s[t1 ,t2 ] coincidono. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-40 rappresentazione esplicita in uscita, a partire dalla condizione iniziale x0 all’istante t0 , sotto l’effetto del segnale di ingresso u(·) , applicato nell’intervallo [t0 , t). Lo studio della risposta esplicita verrà condotto inizialmente per un sistema scalare, cioè per un sistema con matrice della dinamica A pari allo scalare reale a, e cioè con spazio di stato dato dalla retta reale. Si consideri inizialmente il caso di un sistema omogeneo, cioè senza segnale di ingresso; limitatamente all’equazione che descrive l’evoluzione dello stato, il modello di interesse è: ẋ = ax, (2.3) da cui, risolvendo l’equazione differenziale per separazione di variabili ed avendo indicato con x0 il valore dello stato all’istante iniziale t0 , si trova: x(t) = e a(t−t0 ) x0 . (2.4) La soluzione del sistema dinamico omogeneo (2.3), ovvero la risposta libera nello stato, a partire dalla condizione iniziale x0 all’instante iniziale t0 , assume quindi la forma: x(t, t0 , x0 , 0) = e a(t−t0 ) x0 . (2.5) Nel caso generale di un sistema con spazio di stato di dimensione n, la soluzione è esprimibile generalizzando la funzione esponenziale scalare al caso matriciale. Data una matrice quadrata ad elementi reali A, la matrice esponenziale a tempo continuo associata è definita dalla seguente serie esponenziale matriciale: e At := ∞ X Ai ti i=0 i! . (2.6) Sulla base di tale definizione, la risposta libera nello stato per un sistema a tempo continuo, omogeneo, del tipo: ẋ = Ax, (2.7) a partire dallo stato x(t0 ) = x0 all’instante t0 è data da: x(t) = x(t, t0 , x0 , 0) = e A(t−t0 ) x0 . (2.8) La forma (2.8) della soluzione dell’equazione differenziale omogenea (2.7) può essere dimostrata facilmente derivando l’esponenziale di matrice rispetto al tempo e ricordando il teorema di esistenza ed unicità della soluzione di una equazione differenziale. Nel caso generale in (2.1), e cioè nel caso di un sistema vettoriale sottoposto all’azione di un forzamento esterno, si trova: Z x(t) = x(t, t0 , x0 , u(·)) = e A(t−t0 ) x0 + t e A(t−τ ) Bu(τ )dτ, (2.9) t0 che costituisce la soluzione, nelle variabili di stato, del sistema dinamico (2.1), e cioè la risposta completa nello stato, a partire dalla condizione iniziale x0 all’instante iniziale t0 , sotto l’azione della funzione di ingresso u(·). La dimostrazione di tale risultato può essere condotta verificando che tale espressione determina un’identità se sostituita nella (2.1). Il fatto che la risposta completa nello stato all’istante t dipenda solo dal segmento del segnale di ingresso tra l’istante iniziale t0 e tale istante t costituisce la proprietà di causalità. Meglio, è l’evidenza del sussistere di tale proprietà. L’integrale che compare nell’equazione precedente descrive l’effetto del segnale di ingresso sullo stato del sistema ed è detto integrale di convoluzione. 2.1.1 Matrice di transizione dello stato L’esponenziale matriciale (2.6), quando riferita alla soluzione di un sistema dinamico, come in queste note, prende anche il nome di matrice di transizione dello stato (a tempo continuo). Posto: Φ(t, t0 ) = e A(t−t0 ) , (2.10) x(t, t0 , x0 , 0) = Φ(t, t0 )x0 . (2.11) si ha quindi: L’esponenziale di matrice gode di alcune importanti proprietà, generalizzazioni delle corrispondenti proprietà della funzione esponenziale scalare. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-41 Proprietà 2.1 (Derivata dell’esponenziale di matrice) d At e = Ae At . dt (2.12) Inoltre, vale la proprietà commutativa tra una matrice A ed il suo esponenziale, e quindi: d At e = Ae At = e At A dt (2.13) La dimostrazione segue facilmente dalla definizione (2.6) di esponenziale di matrice. Proprietà 2.2 (Composizione temporale tra esponenziali di matrice) e At1 · e At2 = e A(t1 +t2 ) . (2.14) La dimostrazione segue facilmente dalla definizione (2.6) di esponenziale di matrice. Proprietà 2.3 (Inversa di un esponenziale di matrice) At −1 e = e −At , e quindi: e At −1 (2.15) · e At = I. (2.16) Anche questa dimostrazione segue facilmente dalla definizione (2.6) di esponenziale di matrice. La proprietà appena descritta implica anche il fatto che l’esponenziale di matrice, o matrice di transizione dello stato a tempo continuo, sia sempre una matrice non singolare e quindi ammetta sempre inversa. Nello studio del comportamento di sistemi dinamici si fa largo uso dello strumento della trasformazione di similarità algebrica, o trasformazione di coordinate nello spazio di stato. Di fatto, si tratta di un cambio di base nello spazio vettoriale che descrive lo spazio di stato. L’argomento è trattato in dettaglio nella sezione A dell’Appendice. Qui si anticipa solo che, dato un sistema descritto da una matrice dinamica Ax , nelle nuove coordinate z = T −1 x la stessa matrice è rappresentata da: Az = T −1 Ax T. (2.17) Gli esponenziali delle due matrici algebricamente equivalenti Ax e Az sono legati tra loro da una analoga relazione di equivalenza, come sintetizzato nella seguente proprietà. Proprietà 2.4 (Esponenziali di matrici algebricamente equivalenti) Siano Ax e Az due matrici algebricamente equivalenti, cioè legate dalla relazione Az = T −1 Ax T . Allora e Az t = T −1 e Ax t T. (2.18) Ancora una volta, la dimostrazione segue facilmente dalle definizioni di sistemi algebricamente equivalenti e di esponenziale di matrice, notando che, per qualsiasi matrice quadrata ad elementi reali A, si ha: −1 i T A T = T −1 [A]i T, ∀i ∈ N. (2.19) 2.1.2 Risposta libera e risposta forzata per sistemi LSTC La risposta completa nello stato (2.9) risulti lineare sia rispetto alla condizione iniziale, sia rispetto alla funzione di ingresso. In virtù di questa linearità, si ha che la risposta completa alla condizione iniziale x0 ed alla funzione di ingresso u(·) può essere scomposta nel contributo della risposta libera xℓ (t), che dipende solo dalla condizione iniziale, e della risposta forzata xf (t), che dipende solo dal segnale di ingresso. In sintesi: Z t e A(t−τ ) Bu(τ )dτ (2.20a) x(t) = x(t, t0 , x0 , u(·)) = xf (t) + xℓ (t) = e A(t−t0 ) x0 + t0 xf (t) := x(t, t0 , 0, u(·)) = xℓ (t) := x(t, t0 , x0 , 0) = e Z t e A(t−τ ) Bu(τ )dτ t0 A(t−t0 ) x0 . (2.20b) (2.20c) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-42 La risposta libera nello stato xℓ (·) descrive solo l’effetto della condizione iniziale del sistema, in assenza di ingresso, mentre la risposta forzata nello stato xf (·) descrive solo l’effetto della funzione di ingresso, a partire da condizioni iniziali nulle. Le relazioni (2.20) costituiscono una applicazione del ben noto principio di sovrapposizione degli effetti. Le considerazione relative all’evoluzione dello stato possono essere estese facilmente al caso dell’uscita, tenendo conto del fatto che il legame uscita-stato è statico: y(t) = Cx(t) + Du(t). (2.21) La risposta completa in uscita è data quindi da: y(t) = y(t, t0 , x0 , u(·)) = Ce A(t−t0 ) x0 + Z t Ce A(t−τ ) Bu(τ )dτ + Du(t), (2.22) t0 ed analogamente per la risposta libera in uscita yℓ (·) e la risposta forzata in uscita yf (·) si trova: yℓ (t) := y(t, t0 , x0 , 0) = Ce A(t−t0 ) x0 Z t Ce A(t−τ ) Bu(τ )dτ + Du(t). yf (t) := y(t, t0 , 0, u(·)) = (2.23a) (2.23b) t0 La natura stazionaria dei sistemi in esame rende arbitraria la scelta dell’istante iniziale. Nel seguito del testo si assumerà quindi, come regola generale, nullo l’istante iniziale: t0 = 0. Capitolo 2: Analisi sistemi LSTC 2.2 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-43 Analisi modale per sistemi LSTC: approccio nel dominio del tempo In questa sezione verranno studiate le proprietà di maggiore interesse, dal punto di vista della Teoria dei Sistemi, della risposta libera nello stato per un sistema LSTC, e cioè dell’esponenziale matriciale a tempo continuo. Scopo di questa analisi è lo studio del comportamento temporale delle funzioni che compogono tale soluzione, funzioni (tutte a valori reali) che sono dette modi naturali del sistema dinamico. Tale studio costituisce l’analisi modale, che è di fondamentale importanza per valutare il comportamento di un sistema dinamico a fronte di variazioni, eventualmente improvvise, del suo stato interno. Più in generale, l’analisi modale di un sistema dinamico lineare e stazionario consente di studiare il comportamento dello stesso sistema rispetto ad ogni sollecitazione cui venga sottoposto il sistema, sia tramite il segnale di ingresso u, sia tramite altre azioni non meglio specificate e modellabili per mezzo di variazioni dello stato interno del sistema. L’analisi modale verrà presentata secondo un approccio classico, nel dominio del tempo. In una sezione successiva verrà presentato un approccio nel dominio di Laplace. L’approccio nel dominio del tempo presuppone l’uso di strumenti algebrici, ed in particolare di trasformazioni di similarità tra sistemi dinamici (strumenti descritti nel capitolo A dell’appendice). Poiché l’analisi riguarda la risposta libera nello stato, ci si limita alla sola equazione differenziale omogenea. Si consideri allora il sistema dinamico: ẋ = Ax, x(0) = x0 , x ∈ Rn . (2.24) Sia pA (λ) = det(λI − A) il polinomio caratteristico di tale sistema: pA (λ) = det(λI − A) = r Y i=1 (λ − λi )µi , (2.25) dove i numeri λi , i = 1, · · · , r, sono gli autovalori distinti del sistema, reali o complessi coniugati a coppie, ciascuno con molteplicità algebrica (cioè molteplicità come radice del polinomio caratteristico) pari a µi . Nel caso di un autovalore complesso, se ne indichi con σi e ωi la parte reale ed immaginaria, rispettivamente: λi = σi + ωi . A ciascun autovalore del sistema dinamico in esame (cioè, della matrice A di tale sistema) è associato un autospazio Vi , costituito da tutti gli autovettori del sistema legati a tale autovalore, cioè da tutti i vettori soluzione del sistema omogeneo: Avi = λi vi ⇔ (λi I − A)vi = 0, i = 1, · · · , r. (2.26) Il numero di vettori linearmente indipendenti che sono soluzione della precedente equazione omogenea, che corrisponde alla dimensione dell’autospazio Vi , è detto molteplicità geometrica del corrispondente autovalore e verrà indicato con il simbolo νi . Sulla base di risultati noti, la molteplicità geometrica è uguale alla dimensione del kernel, o nucleo, della matrice (λi I − A): νi := dim(Vi ) = dim [ker(λi I − A)] = n − rango (λi I − A). (2.27) Infine, si ricordi che la molteplicità algebrica è sempre maggiore od uguale alla molteplicità geometrica: µi ≥ νi , ∀i. Il risultato fondamentale della sezione è sintetizzato dal seguente teorema, che descrive la totalità dei modi naturali che compogono la risposta libera di un sistema LSTC. Teorema 2.1 (Modi naturali di un sistema LSTC) Sia dato il sistema lineare stazionario a tempo continuo, omogeneo: ẋ = Ax, x(0) = x0 , x ∈ Rn , (2.28) e siano λi , i = 1, · · · , r, i corrispondenti autovalori distinti, caratterizzati dalle molteplicità algebrica e geometrica µi e νi , rispettivamente. Allora si ha che: • ad ogni autovalore λi ∈ R sono associati i seguenti µi modi naturali: – λi ∈ R, µi = 1, ⇒ mi (t) = e λi t ; Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-44 – λi ∈ R, µi = νi , ⇒ mi,j (t) = e λi t , j = 1, · · · , µi ; – λi ∈ R, µi > νi , ⇒ mi,1 (t) = e λi t , mi,2 (t) = te λi t , mi,3 (t) = · · · ; • ad ogni coppia di autovalori complessi coniugati (λi , λ∗i ) = σi ± ωi sono associate le seguenti µi coppie di modi naturali: – λi ∈ C, µi = 1, ⇒ mi,c (t) = e σi t cos(ωi t), mi,s (t) = e σi t sin(ωi t) ; – λi ∈ C, µi = νi , ⇒ mi,c,j (t) = e σi t cos(ωi t), mi,s,j (t) = e σi t sin(ωi t), j = 1, · · · , µi ; – λi ∈ C, µi > νi , ⇒ mi,c,1 (t) = e σi t cos(ωi t), mi,s,1 (t) = e σi t sin(ωi t), mi,c,2 (t) = te σi t cos(ωi t), mi,s,2 (t) = te σi t sin(ωi t), mi,c,3 (t) = ..., mi,c,3 (t) = ..... ⊓ ⊔ Dal teorema precedente emergono alcune considerazioni. Commento 2.1 • Il modo naturale base per un sistema LSTC è una funzione esponenziale con parametro pari all’autovalore associato. Ciò vale sia per un autovalore reale semplice (cioè con molteplicità algebrica unitaria), sia per una coppia di autovalori complessi coniugati semplici. • Se tutti gli autovalori sono reali, ed inoltre semplici (cioè µi = 1, ∀i) o con molteplicità algebriche e geometriche uguali (cioè µi = νi , ∀i), i modi naturali sono costituiti solo da funzioni esponenziali reali. • Se tutti gli autovalori sono complessi ed inoltre semplici (cioè µi = 1, ∀i) o con molteplicità algebriche e geometriche uguali (cioè µi = νi , ∀i), i modi naturali sono costituiti solo da prodotti tra funzioni esponenziali reali e funzioni sinusoidali e cosinusoidali. • Se anche un solo autovalore ha molteplicitè algebrica strettamente maggiore della molteplicità geometrica, compaiono una o più funzioni polinomiali del tempo a moltiplicare i modi naturali base (il terzo caso di ciascuno dei due scenari citati nel teorema). In particolare, se le due molteplicità sono divese compare certamente il termine polinomiale di grado uno. • Nei casi in cui, per uno o più autovalori λi , si abbia µi > νi , il numero ed il grado delle corrispondenti funzioni polinomiali dipende da ulteriori considerazioni (sulla molteplicità del corrispondente autovalore come radice del polinomio minimo) che esulano dagli scopi di queste note. I modi naturali del tipo e λi t e del tipo te λi t , associate ad autvalori reali, sono dette funzioni aperiodiche. I modi naturali associati ad autovalori complessi coniugati, del tipo e σi t cos(ωi t), e σi t sin(ωi t), e le corrispondenti moltiplicate per polinoni del tempo, sono dette funzioni pseudoperiodiche. Nel caso particolare di autovalori immaginari puri e coniugati, con molteplicità uguali, i modi naturali diventano funzioni periodiche: cos(ωi t) e sin(ωi t). Il teorema 2.1 verrà discusso in dettaglio nelle successive sottosezioni, che ne costituiscono quindi traccia di dimostrazione. In particolare la sottosezione 2.2.1 discute il primo e secondo caso relativo ad un autovalore reale, la sottosezione 2.2.2 discute il primo e secondo caso relativo ad una coppia di autovalore complessi, la sottosezione 2.2.3 completa il caso di autovalore reale e la sottosezione 2.2.4 completa l’esame della coppia complessa. Infine, la sottosezione 2.2.5 trae delle conclusioni e completa la traccia di dimostrazione del teorema. 2.2.1 Il caso di sistema diagonalizzabile, con autovalori reali Si consideri inizialmente il caso di un sistema scalare, cioè con spazio di stato di dimensione unitaria. In tal caso la matrice A diviene uno scalare, A = a, a ∈ R, e quindi il sistema dinamico e la risposta libera nello stato sono descritti, rispettivamente, dall’equazione e dalla funzione seguenti: ẋ = ax(t) at x(t) = e x0 , (2.29a) t ≥ 0, x(0) = x0 . La funzione e at rappresenta il modo naturale del sistema in esame. (2.29b) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-45 La soluzione del caso vettoriale è immediata se la matrice dinamica A è diagonale: A = diag {λ1 , λ2 , · · · , λn } =: Λ. In questo caso il sistema dinamico è descritto dall’equazione: λ1 0 · · · 0 0 λ2 · · · 0 ẋ = . (2.30) .. .. x = Λx. .. .. . . . 0 0 · · · λn Si noti che, poiché la matrice è diagonale, gli elementi λi sono anche gli autovalori della matrice stessa. Per il calcolo della risposta libera nello stato si trova facilmente: λ1 t e 0 ··· 0 0 e λ2 t · · · 0 (2.31) x(t) = . . .. x0 , t ≥ 0, x(0) = x0 , . .. .. .. . 0 0 · · · e λn t e cioè la collezione di sistemi scalari x1 (t) = e λ1 t x1,0 x2 (t) = e .. . λ2 t (2.32a) x2,0 (2.32b) xn (t) = e λn t xn,0 (2.32c) ove xi,0 indica la i-esima componente della condizione iniziale x0 . Dalle considerazioni precedenti segue che l’esponenziale di matrice a tempo continuo del sistema (2.30), descritto da una matrice diagonale Λ, è dato da: λt e 1 0 ··· 0 0 e λ2 t · · · 0 (2.33) e Λt = . .. . . .. .. .. . . 0 0 ··· e λn t Le funzioni e λi t , i = 1, 2, . . . , n, che descrivono la soluzione del sistema, sono associate agli autovalori del sistema e sono i modi naturali del sistema Σ(Λ, ·, ·, ·), brevemente Σ(Λ) (si veda anche la figura 2.1). Si noti com non siano state poste ipotesi sulla molteplicità degli autovalori del sistema. In particolare, alcuni autovalori (anche tutti) possono essere tra loro coincidenti. La forma (2.31) della soluzione o, equivalentemente, la forma (2.33) dell’esponenziale di matrice, per un sistema diagonale deriva in modo immediato dalla constatazione che tale sistema sia riconducibile ad una collezione di sistemi scalari. In alternativa, la forma (2.33) dell’esponenziale di matrice può essere ricavata dalla definizione stessa di esponenziale di matrice, notando la seguente relazione generale: i λ1 0 · · · 0 0 λi2 · · · 0 i (2.34) Λ = . .. , ∀i ∈ N, .. .. .. . . . 0 0 · · · λin da cui segue: P∞ λi1 ti i=0 i! ∞ X Λ i ti 0 = = .. i! i=0 . 0 e Λt 0 P∞ λi2 ti i=0 .. . 0 i! ··· ··· .. . ··· 0 λ1 t e 0 0 = .. .. . . 0 P∞ λin ti i=0 i! 0 e λ2 t .. . 0 ··· ··· .. . 0 0 .. . ··· e λn t . (2.35) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-46 Si noti che la forma della risposta libera, per ciascuna componente, dipende dal modo naturale relativo, mentre l’ampiezza dipende dalla rispettiva condizione iniziale. Ad esempio, se la condizione iniziale è pari al vettore e1 (cioè, la prima colonna della matrice identità), la risposta libera nello stato sarà nulla per tutte le componenti dello stato, salvo la prima, il cui andamento sarà descritto dalla funzione x1 (t) = e λ1 t x1,0 = e λ1 t , t ≥ 0. Si consideri ora il caso di un sistema descritto da una matrice dinamica A non diagonale, ma diagonalizzabile. In merito è utile ricordare il seguente lemma, ben noto dagli insegnamenti di geometria. Lemma 2.1 (Matrice diagonalizzabile) Una matrice A, di dimensione n × n ad elementi reali, è diagonalizzabile se e solo se ha n autovettori linearmente indipendenti, e cioè se e solo se µi = νi , ∀i = 1, 2, · · · , r, ove r indica il numero di autovalori distinti della matrice. La diagonalizzabilità implica l’esistenza di una matrice di trasformazione di coordinate T , non singolare, tale che, nelle nuove coordinate, la matrice A diviene una matrice Λ con struttura diagonale: λ1 0 · · · 0 0 λ2 · · · 0 (2.36) T −1 AT = Λ, Λ= . .. , .. .. .. . . . 0 0 · · · λn in cui gli elementi λi , i = 1, 2, . . . , n, sono gli autovalori della matrice A (si ricordi che gli autovalori sono invarianti rispetto a trasformazioni di similarità algebrica). La matrice di trasformazione T che consente la diagonalizzazione è la matrice costituita da n autovettori indipendenti. Si ricordi che tale operazione (la trasformazione di coordinate) corrisponde ad un cambio di base nello spazio vettoriale utilizzato per rappresentare la matrice. Per quanto riguarda l’esponenziale di matrice nelle coordinate originali, cioè relativo alla matrice A, applicando la proprietà 2.4 si trova facilmente: λt e 1 0 ··· 0 0 e λ2 t · · · 0 e At = T e Λt T −1 = T . (2.37) . .. T −1 . . .. .. .. . 0 0 · · · e λn t L’esponenziale di matrice a tempo continuo è quindi composta da combinazioni lineari delle funzioni e λi t , i = 1, 2, · · · , n, associate ai rispettivi autovalori del sistema, cioè da combinazioni lineari dei modi naturali del sistema. Le considerazioni precedenti corrispondono alla dimostrazione qualitativa dei primi due punti del teorema relativi ad autovalori reali. 2.2.2 Il caso di sistema diagonalizzabile, con autovalori complessi L’analisi condotta finora, basata sull’uso di una matrice diagonale, non è utilizzabile se il sistema possiede autovalori complessi. In tal caso infatti, vi sarebbero un’infinità di condizioni iniziali cui corrisponderebbero risposte libere nello stato caratterizzate da funzioni a valori complessi. Ciò non è ammissibile, poiché i sistemi dinamici di interesse in queste note sono descrizioni di processi reali, e quindi tutti i segnali associati sono caratterizzati da valori reali. La necessità di ottenere solo comportamenti reali comporta l’introduzione di vincoli nella scelta delle possibili condizioni iniziali: tale approccio non è soddisfacente. Per ovviare a ciò, si introduce la cosiddetta forma canonica reale. Si consideri per semplicità un sistema planare, cioè un sistema con spazio di stato di dimensione due, descritto da una matrice dinamica Ap , con autovalori complessi coniugati λ e λ∗ , cioè: λ = σ + ω, λ∗ = σ − ω. (2.38) Gli autovettori associati ai due autovalori complessi coniugati sono anch’essi complessi coniugati, e quindi indipendenti. Indicati con v1 = vR + vI e v2 = v1∗ = vR − vI i due autovettori, tra loro indipendenti, è facile vedere che anche i due vettori vR e vI sono indipendenti, e quindi possono essere scelti come nuovi vettori di base. In tal caso, scelta la matrice di trasformazione come: (2.39) T = vR vI , Capitolo 2: Analisi sistemi LSTC la matrice dinamica, nelle nuove coordinate, assume la forma: σ −1 Λp = T Ap T = −ω [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-47 ω σ . (2.40) La forma Λp in (2.40) è detta forma canonica reale. L’esponenziale di matrice a tempo continuo in questo caso è dato da: cos(ωt) sin(ωt) = e σt Ω(t). (2.41) e Λp t = e σt − sin(ωt) cos(ωt) dove Ω(t) indica la matrice quadrata di dimesione due che descrive la componente periodica: cos(ωt) sin(ωt) Ω(t) := . − sin(ωt) cos(ωt) (2.42) Le funzioni e σt cos(ωt) e e σt sin(ωt) sono i modi naturali associati ad una coppia di autovalori complessi coniugati λ = σ + ω e λ∗ = σ − ω. La risposta libera nello stato del sistema planare in esame, nelle nuove coordinate z = T −1 x, è data da: cos(ωt) sin(ωt) z0 , (2.43) z(t) = e σt − sin(ωt) cos(ωt) ed è facile vedere come non sia possibile eccitare in modo indipendente i due modi: nel caso di un sistema planare con autovalori complessi coniugati, la risposta libera nello stato contiene sempre almeno due modi indipendenti. Ovviamente, la stessa considerazione può essere estesa anche al sistema planare nelle coordinate originali, poiché la matrice di trasformazione di coordinate è ad elementi reali. Si ottiene cos(ωt) sin(ωt) σt At Λp −1 T −1 x0 , (2.44) e = T e T , x(t) = T e − sin(ωt) cos(ωt) Si consideri ora il caso di un sistema dinamico di dimensione n, con matrice dinamica A diagonalizzabile. Si assuma, senza perdita di generalità, che i primi nr autovalori λi , i = 1, 2, · · · , nr , siano reali, ed i rimanenti n − nr autovalori siano costituiti da nc coppie complesse coniugate, n − nr = 2nc . Siano vi , i = 1, 2, · · · , nr , gli autovettori associati agli autovalori reali, e (wi , wi∗ ), wi = wR,i + wI,i , i = 1, 2, · · · , nc , le coppie di autovettori associati agli autovalori complessi. Scelti come nuovi vettori di base gli autovettori reali e le parti reali ed immaginarie degli autovettori complessi, la nuova matrice di cambio di coordinate è data da: (2.45) T = v1 v2 · · · vnr wR,1 wI,1 wR,2 wI,2 · · · wR,nc wI,nc . Nelle nuove coordinate la matrice dinamica è esprimibile nella seguente forma diagonale a blocchi: λ1 0 · · · 0 .. . 0 λ2 · · · 0 0 .. . .. . .. .. . . .. . 0 0 · · · λ nr , ΛR = Λ 0 · · · 0 p,1 .. . 0 Λ · · · 0 p,2 0 .. .. . . . . . . . . .. . 0 0 · · · Λp,nc in cui i termini Λp,i , i = 1, 2, · · · , nc rappresentano forme canoniche reali del tipo (2.40): σi ωi Λp,i = . −ωi σi (2.46) (2.47) Capitolo 2: Analisi sistemi LSTC Tenendo conto del fatto che la blocchi, è facile trovare la seguente e λ1 t 0 .. . 0 ΛR t e = [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-48 potenza k-esima di una matrice diagonale a blocchi è ancora diagonale a forma per la matrice esponenziale, nelle nuove coordinate: 0 ··· 0 .. . e λ2 t · · · 0 0 .. .. .. . . . .. . λnr t 0 ··· e , (2.48) Λp,1 t e 0 ··· 0 .. . 0 e Λp,2 t · · · 0 0 .. .. . .. .. . . . .. . 0 0 · · · e Λp,nc t ove e Λp,i t indica la matrice di risposta libera nello stato di un sistema planare con autovalori complessi del tipo descritta in (2.41): cos(ωi t) sin(ωi t) Λp,i t σi t e =e = e σi t Ωi (t). (2.49) − sin(ωi t) cos(ωi t) La risposta libera nello stato in coordinate originali è quindi: e At = T e ΛR t T −1 . (2.50) Poiché la matrice di cambio di coordinate è non singolare, l’esponenziale di matrice e ΛR t nelle coordinate diagonali e l’esponenziale di matrice e At nelle coordinate originali contengono esattamente le stesse funzioni del tempo. Più precisamente, ogni singolo elemento dell’esponenziale di matrice in coordinate originali sarà costituito dalla combinazione lineare di uno o più modi naturali del sistema. Il comportamento temporale dell’esponenziale di matrice, e quindi dell’intero sistema, è governato quindi esclusivamente dai modi naturali delsistema, dati dalle funzioni esponenziali e λi t , i = 1, 2, . . . , nr , e dalle funzioni esponenziali-sinusoidali e σi t cos(ωi t) ed e σi t sin(ωi t) i = 1, 2, . . . , nc . Ciò conclude la discussione dei primi due punti del teorema, sia nel caso di autovalori reali, sia nel caso di autovalori complessi. 2.2.3 Il caso di sistema non diagonalizzabile, con autovalori reali L’analisi dei modi naturali ed il calcolo della risposta nello stato per un sistema non diagonalizzabile è basata sulla forma canonica di Jordan, che costituisce la generalizzazione della forma diagonale esaminata in precedenza. Il blocco base per la costruzione di una forma canonica di Jordan è costituito dal miniblocco di Jordan Jλ , di dimensione r, associato all’autovalore reale λ, dato dalla matrice r × r della forma seguente: λ 1 0 ··· 0 0 0 λ 1 ··· 0 0 .. .. , Jλ = ... ... ... (2.51) . . 0 0 0 ··· λ 1 0 0 0 ··· 0 λ cui corrisponde una matrice esponenziale a tempo continuo della forma: tr−1 λt λt e te λt · · · e (r − 1)! tr−2 λt e e λt · · · e Jλ t = 0 (r − 2)! . .. .. .. .. . . . 0 0 ··· e λt . (2.52) Le funzioni e λt , te λt , · · · , tr−1 e λt sono i modi naturali generati da un miniblocco di Jordan di dimensione r associato all’autovalore reale λ (si veda la figura 2.3). Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-49 La forma canonica di Jordan JA di una matrice A è una struttura diagonale a blocchi, con blocchi sulla diagonale costituiti da miniblocchi di Jordan Jλ di dimensioni opportune: 0 ··· 0 Jλ1 0 Jλ2 · · · 0 (2.53) JA = . .. .. .. .. . . . 0 0 ··· Jλp ed ottenibile per similarità algebrica dalla matrice A tramite un’opportuna matrice di trasformazione T : JA = T −1 AT. (2.54) La costruzione della matrice T è basata su una generalizzazione del concetto di autovettore. L’esponenziale matriciale in coordinate di Jordan è ancora una matrice diagonale a blocchi, con blocchi del tipo riportato nella (2.52): Jλ t e 1 0 ··· 0 0 e J λ2 t · · · 0 e JA t = .. (2.55) .. .. . . . . . . 0 0 ··· e J λp t mentre l’esponenziale di matrice in coordinate originali è dato: e At = T e JA t T −1 (2.56) ed è quindi costituito da combinazioni lineari del vari modi naturali. Si noti che nella forma di Jordan di una matrice A assegnata possono essere presenti più miniblocchi Jλ relativi ad uno stesso autovalore λ. A riguardo, si hanno le seguenti proprietà e caratteristiche importanti. Commento 2.2 • La somma delle dimensioni di tutti i miniblocchi associati ad uno stesso autovalore λ è uguale alla molteplicità algebrica µ dello stesso autovalore, e cioè uguale alla molteplicità di tale autovalore come soluzione del polinomio caratteristico. • Il numero di miniblocchi associati ad uno stesso autovalore λ è uguale alla molteplicità geometrica ν dello stesso autovalore, e cioè uguale alla dimensione del sottospazio vettoriale ker(λI − A). • La dimensione del miniblocco più grande associato ad un dato autovalore λ è uguale alla molteplicità di tale autovalore come soluzione del polinomio minimo. L’andamento del modo naturale base e dei modi con termini polinomiali di ordine uno e di ordine due è illustrato nella seguente figura 2.3, più avanti nel capitolo. 2.2.4 Il caso di sistema non diagonalizzabile, con autovalori complessi Infine, per completare l’analisi dei possibili modi naturali di un sistema dinamico a tempo continuo, si deve analizzare il caso di matrice non diagonalizzabile con autovalori complessi di molteplicità maggiore di uno. La determinazione dei modi naturali passa per la generalizzazione della forma canonica reale. Indica con Ap una forma canonica reale planare, la sua generalizzazione al caso di una sola coppia di autovalori complessi di molteplicità pari ad r, r > 1, è una matrice con r × r blocchi, del tipo: .. 0 . 0 Λp I2 .. 0 Λp I2 . 0 , .. JR = (2.57) 0 0 Λp . 0 . .. .. .. .. .. . . . . 0 0 ··· ··· Λp Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-50 cui sono associati modi naturali del tipo tj e σt cos(ωt) e tj e σt sin(ωt), con j = 0, 1, . . . , r − 1. Nel caso particolare di un sistema con una coppia di autovalori complessi coniugati λ = σ + ω e λ∗ = σ − ω, ciascuno di molteplicità due, si trova la seguente forma di Jordan reale: σ ω 1 0 −ω σ 0 1 , (2.58) JR 2 = 0 0 σ ω 0 0 −ω σ cui corrisponde il seguente esponenziale matriciale: cos(ωt) sin(ωt) t cos(ωt) t sin(ωt) σt − sin(ωt) cos(ωt) −t sin(ωt) t cos(ωt) JR2 t =e e 0 0 cos(ωt) sin(ωt) 0 0 − sin(ωt) cos(ωt) . (2.59) Nel caso in cui il sistema abbia solo autovalori complessi, ma con molteplicità arbitraria, l’esponenziale di matrice, in coordinate reali, ricordando la notazione (2.42), assume la forma: tr−1 Ω(t) tΩ(t) · · · Ω(t) (r − 1)! r−2 t JR t σt Ω(t) 0 Ω(t) · · · e =e (2.60) . (r − 2)! .. .. . . .. .. . . 0 0 ··· Ω(t) 2.2.5 Il caso generale Si consideri ora il caso generale, di un sistema con nR autovalori reali, alcuni di loro eventualmente coincidenti, ed nC autovalori complessi coniugati, alcuni di loro eventualmente coincidenti, sia gli autovalori reali sia quelli complessi con molteplicità arbitraria. Per tale sistema, nelle coordinate di Jordan, si ha un’esponenziale di matrice della seguente forma, che contiene tutti i modi naturali del sistema stesso: e Jt = e J λ1 t 0 .. . 0 e J λ2 t .. . ··· ··· .. . 0 0 .. . J λn t 0 0 ··· 0 0 0 0 ··· ··· 0 0 0 0 0 0 ··· ··· 0 0 e R 0 0 0 0 ··· ··· 0 0 0 0 0 0 0 0 e JR1 t 0 .. . ··· ··· 0 e JR2 t .. . ··· ··· .. . 0 0 .. . 0 0 ··· e JRn C t . (2.61) in cui le sottomatrici e Jλi t , i = 1, 2, · · · , nR , sono matrici (di dimensione opportuna) del tipo in equazione (2.52), mentre le sottomatrici e JRi t , i = 1, 2, · · · , nC , sono matrici (di dimensione opportuna) del tipo in equazione (2.60). L’esponenziale di matrice nelle coordinate originali si ottiene per trasformazione di similarità di tale matrice, e contiene tutti e soli i modi naturali presenti nella (2.61). Ciò completa l’analisi del teorema 2.1 relativo ai modi naturali di un sistema lineare, stazionario, a tempo continuo. 2.2.6 Caratterizzazione di convergenza Al variare della posizione degli autovalori nel piano complesso, i modi naturali di un sistema sono caratterizzati da specifiche proprietà di convergenza, che costituiscono uno degli elementi fondamentali dell’analisi modale. Come si vedrà successivamente infatti, le proprietà più importanti dei sistemi dinamici sono determinate dai modi naturali, e in particolare dalle loro caratteristiche di convergenza. Tra le altre, la stabilità dei punti di equilibrio di un sistema LSTC e dello stesso sistema dipendono unicamente da tali proprietà di convergenza. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-51 In modo analogo, l’esistenza della risposta permamente per un sistema LSTC dipende esclusivamente dalle proprietà di convergenza dei modi naturali. La caratterizzazione di convergenza è sintetizzata dal seguente teorema. Teorema 2.2 (Caratterizzazione di converganza del modi naturali di un sistema LSTC) Sia dato il sistema lineare stazionario a tempo continuo, omogeneo: ẋ = Ax, x(0) = x0 , x ∈ Rn , (2.62) e siano λi , i = 1, · · · , r, i corrispondenti autovalori distinti, caratterizzati dalle molteplicità algebrica e geometrica µi e νi , rispettivamente. Allora, per ciascun autovalore λi ∈ R e per ciascuna coppia di autovalori complessi (λi , λ∗i ) ∈ C, si ha che i corrispondenti modi naturali sono: • convergenti se la parte reale dell’autovalore è negativa: Re(λi ) < 0, ∀µi ; • limitati se la parte reale dell’autovalore è nulla, Re(λi ) = 0, ed inoltre le molteplicità algebrica e geometrica sono uguali, µi = νi ; • divergenti se la parte reale dell’autovalore è nulla, Re(λi ) = 0, ed inoltre le molteplicità algebrica e geometrica sono diverse, µi > νi ; • divergenti se la parte reale dell’autovalore è positiva: Re(λi ) > 0, ∀µi . I vari casi vengono descritti nel seguito, con una traccia di dimostrazione. Autovalori reali semplici Nel caso di un autovalore reale semplice λ, il modo naturale associato è dato dalla funzione esponenziale e λt . È ben noto che in tal caso il comportamento asintotico dipende dal segno dell’autovalore. Nel caso di autovalore negativo, si ha un modo naturale convergente, mentre nel caso di autovalore positivo (cioè, se l’autovalore è alla destra dell’asse immaginario) il modo naturale è divergente. Infine, il modo naturale è detto limitato se l’autovalore corrispondente è nullo (cioè, se l’autovalore coincide con l’origine del piano complesso): in tal caso il modo naturale è infatti un segnale costante. La situazione è sintetizzata dalla figura 2.1. Autovalore reale negativo 1 Autovalore nullo 2 0.9 1.8 0.8 1.6 0.7 1.4 0.6 0.5 0.4 Modo naturale 100 Modo naturale Modo naturale Autovalore reale positivo 150 50 0.3 1 0.8 0.6 0.2 0.4 0.1 0 1.2 0.2 0 5 0 Tempo (secs) 0 5 0 0 Tempo (secs) 5 Tempo (secs) Figura 2.1: Modi naturali associati ad autovalori reali. Autovalori complessi coniugati semplici La caratterizzazione di convergenza è del tutto analoga nel caso di una coppia di autovalori complessi, i cui modi naturali sono dati dalle due funzioni e σt sin(ωt) e e σt cos(ωt). L’unica differenza è la presenza di un comportamento oscillatorio, dovuto ai termini sin(ωt) e cos(ωt). I modi naturali sono convergenti se gli autovalori hanno parte reale negativa; i modi naturali sono divergenti se gli autovalori hanno parte reale Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-52 maggiore di zero, i modi naturali sono limitati se gli autovalori hanno parte reale nulla. Si noti che, nel caso di autovalori complessi, parte reale nulla corrisponde a modi naturali oscillatori puri, cioè del tipo sin(ωt) e cos(ωt). La situazione è sintetizzata dalla figura 2.2. Autovalori parte reale negativa Autovalore parte reale positiva 1.5 Autovalore parte reale nulla 200 1 0.8 150 1 0.6 100 0.4 0 50 Modo naturale Modo naturale Modo naturale 0.5 0 −50 −0.5 0.2 0 −0.2 −0.4 −100 −0.6 −1 −150 −1.5 0 1 2 3 Tempo (secs) 4 5 −200 −0.8 0 1 2 3 Tempo (secs) 4 5 −1 0 1 2 3 Tempo (secs) 4 5 Figura 2.2: Modi naturali associati ad autovalori complessi. Autovalori reali non semplici La caratterizzazione rispetto alla convergenza dei modi naturali nel caso di autovalori con molteplicità algebrica e geometrica diverse è legata ancora al segno della parte reale dell’autovalore: si hanno modi convergenti nel caso di autovalori con parte reale negativa e modi divergenti nel caso di autovalori con parte reale positiva. Nel caso di autovalori a parte reale negativi e non semplici, con molteplicità algebrica e geometrica diverse, la presenza dei termini polinomiali determina un diverso andamento iniziale delle funzioni, ma ovviamente non ne risente la proprietà di convergenza (si veda la figura 2.3). Nel caso di un autovalore con parte reale nulla, la convergenza dei modi è legata alla molteplicità nel polinomio minimo2 . Ad esempio, il modo naturale te λt , per autovalore nullo, diviene la funzione t, e quindi è una funzione crescente del tempo. Analogamente per tutti i modi di ordine superiore, cioè del tipo tj e λt , con j > 0 ed autovalore nullo. In conclusione, per autovalori con parte reale nulla e con molteplicità algebrica e geometrica diverse 3 , i modi naturali sono divergenti, sia pure con tasso di crescita minore di quello associato ad autovalori a parte reale positiva (si veda la figura 2.4). Autovalori complessi coniugati non semplici Il caso di autovalori complessi coniugati con molteplicità algebrica e geometrica diverse è del tutto analogo al caso precedente: la presenza di termini polinomiali rende i modi naturali divergenti sia in caso di autovalori a parte reale positiva, sia a parte reale nulla. Sono invece convergenti i modi naturali associati ad autovalori con parte reale negativa. 2.2.7 Riepilogo Nel caso generale, una matrice dinamica A potrà avere autovalori sia reali sia complessi, ciascuno con molteplicità unitaria o maggiore. Nel calcolo della sua matrice esponenziale saranno quindi coinvolti alcuni, od al limite tutti, i casi particolari visti in precedenza. Tuttavia l’esponenziale di matrice sarà sempre basata su una combinazione lineare di modi naturali, per la cui determinazione è sufficiente un’analisi completa degli autovalori della matrice A. In altre parole, di norma (ad esempio, se l’interesse è limitato allo caratterizzazione dei modi rispetto alla convergenza), non è richiesto il calcolo esplicito dell’esponenziale matriciale e delle relative matrici 2 che coincide con la dimensione del miniblocco associato. per molteplicità non unitaria nel polinomio minimo, che corrisponde a miniblocchi di dimensione maggiore di uno associati ad autovalori (reali) nulli. 3 cioè Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-53 −t m1(t)=e Modo 1 0.5 0 0 0.5 1 1.5 2 2.5 Tempo (secs) −t m2(t)=t e 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 Tempo (secs) m3(t)=t2 e−t 3 3.5 4 4.5 5 0 0.5 1 1.5 2 2.5 Tempo (secs) 3 3.5 4 4.5 5 Modo 0.4 0.2 0 Modo 1 0.5 0 Figura 2.3: Modi naturali associati ad autovalori reali negativi e non semplici. di similarità, ma è invece sufficiente valutare in modo completo gli autovalori della matrice A, in coordinate originali. I possibili modi naturali di un sistema a tempo continuo sono riepilogati nella prima colonna della tabella 2.1, e le loro proprietà di convergenza sono riepilogate nelle successive colonne della stessa tabella. 2.2.8 Il significato fisico del concetto di autovettore: eccitazione singoli modi Per studiare la dipendenza della risposta libera nello stato dalle condizioni iniziali, ed in particolare per studiare la possibilità di eccitare singoli modi naturali con opportune condizioni iniziali, è utile approfondire il significato fisico del concetto di autovettore. Si consideri inizialmente il caso di un sistema diagonalizzabile, e si rappresenti il sistema nelle coordinate in cui la sua matrice dinamica è diagonale. Indicato con z = T −1 x il nuovo vettore di stato, la dinamica corrispondente è data da: ż = Λz, Λ = diag {λ1 , λ2 , . . . , λn } (2.63) Come visto in precedenza, in questo caso ciascun modo naturale può essere eccitato indipendentemente, scegliendo in modo opportuno il vettore delle condizioni iniziali. Analogamente, ciascuna condizione iniziale eccita solo i modi naturali lungo i quali la condizione stessa ha componenti non nulle. Ad esempio, la condizione iniziale z0 = e1 eccita solo il primo modo, descritto da e λ1 t . Viceversa, la condizione iniziale z0 = e2 + 3e4 eccita i due modi naturali e λ2 t e e λ4 t , e la corrispondente risposta libera nello stato è data da x(t) = e λ2 t + 3e λ4 t . (La notazione ei indica la i-esima colonna della matrice identità). Passando alle coordinate originali, si ricordi che la matrice di cambio di coordinate che consente di diagonalizzare la matrice A è costituita dagli n autovettori della matrice stessa (se tali autovettori non sono indipendenti, la matrice non è diagonalizzabile, come noto). Cioè, detti vi , i = 1, 2, · · · , n, gli autovettori associati agli autovalori λi , i = 1, 2, · · · , n, la matrice di trasformazione è data da: (2.64) T = v1 v2 · · · vn , come si deduce facilmente anche dalla relazione: AT = T Λ = T λ1 0 .. . 0 λ2 .. . ··· ··· .. . 0 0 .. . 0 0 ··· λn . (2.65) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-54 m (t)=δ 1 (t) −1 Modo 2 1 0 0 0.5 1 1.5 2 2.5 Tempo (secs) m (t)=t 3 3.5 4 4.5 5 2.5 Tempo (secs) 2 m (t)=t 3 3.5 4 4.5 5 2.5 Tempo (secs) 3 3.5 4 4.5 5 2 Modo 6 4 2 0 0 0.5 1 1.5 2 3 Modo 30 20 10 0 0 0.5 1 1.5 2 Figura 2.4: Modi naturali associati ad un autovalore nullo non semplice. Allora, è immediato vedere che una condizione iniziale x0 eccita un solo modo naturale se è allineata secondo il corrispondente autovettore e viceversa. Analogamente, una data condizione iniziale eccita tutti i modi naturali associati agli autovettori che concorrono alla rappresentazione della condizione iniziale stessa. Lo studio delle condizioni iniziali che consentono di eccitare singoli modi naturali, può essere condotto anche con un altro approccio, lavorando in coordinate originali e prescindendo dalla diagonalizzabilità. Si assuma una condizione iniziale allineata con un autovettore. Ad esempio, sia vj l’autovettore relativo all’autovalore λj , e sia x(0) = vj la condizione iniziale. La risposta libera nello stato è quindi: x(t) = e At x(0) = e At vj . (2.66) Ricordando le definizioni di autovettore e di matrice esponenziale: Av = λv, e At = ∞ X Ai ti i=0 i! , (2.67) e notando, ad esempio per induzione, che, dato un autovettore v ed un intero positivo qualsiasi ℓ, vale la relazione: Aℓ v = λℓ v, (2.68) la risposta libera nello stato diviene: x(t) = e At x(0) = e At vj ∞ X Ai ti vj = i! i=0 = ∞ X λij ti i=0 λj t =e i! vj , vj (2.69a) (2.69b) (2.69c) (2.69d) e quindi tale risposta libera contiene solo ed unicamente il modo naturale relativo all’autovettore che descrive la condizione iniziale. Si noti che le considerazioni svolte in questa ultima parte prescindono completamente dalla molteplicità algebrica e geometrica e sono quindi di validità generale. Capitolo 2: Analisi sistemi LSTC Modo [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-55 Caratterizzazione di convergenza naturale convergente limitato divergente e λt , λ ∈ R Re(λ) < 0 Re(λ) = 0 Re(λ) > 0 tj e λt , λ ∈ R Re(λ) < 0 Re(λ) = 0, j = 0 [Re(λ) = 0, j > 0], [Re(λ) > 0] e σt cos(ωt), λ ∈ C Re(λ) = σ < 0 Re(λ) = σ = 0 Re(λ) = σ > 0 e σt sin(ωt), λ ∈ C Re(λ) = σ < 0 Re(λ) = σ = 0 Re(λ) = σ > 0 tj e σt cos(ωt), λ ∈ C Re(λ) = σ < 0 Re(λ) = σ = 0, j = 0 [Re(λ) = σ = 0, j > 0], [Re(λ) = σ > 0] tj e σt sin(ωt), λ ∈ C Re(λ) = σ < 0 Re(λ) = σ = 0, j = 0 [Re(λ) = σ = 0, j > 0], [Re(λ) = σ > 0] Tabella 2.1: Modi naturali di un sistema a tempo continuo e condizioni di convergenza 2.2.9 Decomposizione spettrale La matrice dinamica A, rappresentativa del comportamento dinamico di un sistema, può essere rappresentata come combinazione lineare di opportune matrici quadrate, derivate dagli autovettori e pesate con gli autovalori del sistema stesso. Sia A una matrice diagonalizzabile, siano λi i suoi autovalori, vi i corrispondenti autovettori (destri), e wiT gli autovettori sinistri (cioè, vettori riga che soddisfano le equazioni wiT A = λi wiT ). Allora, la matrice A può essere riscritta secondo la seguente decomposizione spettrale: A= n X λi vi wiT . (2.70) i=1 Si noti che i termini vi wiT sono matrici quadrate. La decomposizione (2.70) può essere estesa anche alla corrispondente matrice esponenziale: n X At e = e λi t vi wiT . (2.71) i=1 2.2.10 Il piano delle fasi per sistemi planari Nel caso di sistemi planari, cioè con spazio di stato di dimensione due, è interessante studiare, in modo qualitativo, il comportamento delle traiettorie nel piano delle fasi (cioè, nel piano che rappresenta le due variabili di stato). In particolare, si consideri un sistema planare autonomo, con autovalori complessi, e con condizione iniziale pari a x0 = [1, 0]T : σ ω ẋ = x. (2.72) −ω σ Il comportamento nel piano delle fasi, per σ = ±0.2, ω=2, è riportato in figura (2.5), a sinistra nel caso di parte reale positiva e al centro nel caso di parte reale negativa. Il diagramma a destra è relativo a parte reale nulla. Il comportamento pseudo-periodico divergente dei due modi naturtali corrisponde ad una spirale crescente, quello dei due modi pseudo-periodici convegenti ad una spirale decrescente. Lo studio del comportamento nel piano delle fasi per sistemi planari con autovalori reali viene lasciato come esercizio. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-56 Modi pseudo−periodici divergenti 6 1 0 −2 −4 0.5 Coordinata x2 2 Coordinata x2 Coordinata x2 4 0 −0.5 −6 −8 −4 Modi periodici Modi pseudo−periodici convergenti 1 0.5 0 −0.5 −1 −2 0 2 Coordinata x 4 −1 −0.5 1 0 Coordinata x 0.5 1 −1 −0.5 0 0.5 Coordinata x 1 1 Figura 2.5: Comportamento nel piano delle fasi per un sistema con modi naturali pseudo-periodici divergenti. 2.2.11 Esercizi risolti Esercizio 2.1 Si consideri il sistema dinamico descritto dal −1 0 ẋ = 0 −2 0 0 modello: 0 0 x 3 (2.73) Il sistema è caratterizzato da una matrice A diagonale, e quindi i suoi autovalori sono semplicemente gli elementi sulla diagonale, e cioè: λ1 = −1; λ2 = −2; λ3 = 3, (2.74) cui corrispondono, rispettivamente, i modi naturali: m1 (t) = e −t ; m2 (t) = e −2t ; m3 (t) = e 3t . (2.75) I primi due modi naturali sono convergenti, il terzo modo naturale è divergente. L’esponenziale di matrice del sistema in esame è dato da: −t e 0 0 e −2t 0 . e At = 0 (2.76) 0 0 e 3t Esercizio 2.2 Si consideri il sistema dinamico descritto dal modello: 3 0 0 ẋ = 4 −2 −1 x −4 0 −1 (2.77) Il polinomio caratteristico del sistema è dato da: pA (λ) = = det(λI − A) λ−3 0 det −4 λ + 2 4 0 0 1 = λ3 − 7λ − 6, λ+1 che può essere fattorizzato nella forma pA (λ) = (λ + 1)(λ + 2)(λ − 3), e quindi i suoi autovalori sono: λ1 = −1; λ2 = −2; λ3 = 3, (2.78) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-57 cui corrispondono, rispettivamente, i modi naturali: m1 (t) = e −t ; m2 (t) = e −2t ; m3 (t) = e 3t . (2.79) I primi due modi naturali sono convergenti, il terzo modo naturale è divergente. Si noti che si tratta degli stessi modi naturali dell’esempio precedente. Infatti, presa come matrice di trasformazione (costruita utilizzando come nuova base i tre autovettori) la matrice 1 0 1 T −1 = 0 1 1 , (2.80) −1 0 0 ed indicate con A1 ed A2 le matrici, rispettivamente, dei due esempi 2.1 e 2.2, si trova: A2 = T −1 A1 T, da cui segue, per l’esponenziale di matrice dell’esempio corrente: e 3t 0 A2 t −1 A1 t −t e =T e T = −e + e 3t e −2t e −t − e 3t 0 (2.81) 0 −e −t + e −2t . e −t (2.82) Come atteso, tale esponenziale contiene solo combinazioni lineari dei modi naturali. Commento 2.3 A scanso di equivoci, è bene sottolineare come la coincidenza del polinomio caratteristico tra due sistemi non sia in alcun modo condizione sufficiente per la equivalenza algebrica degli stessi. Esercizio 2.3 Si consideri il sistema dinamico descritto dal modello: −1 1 0 ẋ = 0 −1 0 x 0 0 −1 (2.83) Il sistema è costituito da due miniblocchi di Jordan, il primo di dimensione due ed associato all’autovalore λ1 = −1, il secondo di dimensione uno ed associato allo stesso autovalore. Sulla base della teoria dell’analsi modale, è noto che a tale situazione corrispondono, rispettivamente, i seguenti modi naturali: m1 (t) = e −t ; m2 (t) = te −t ; m3 (t) = e −t . (2.84) In tal caso, tutti i modi naturali sono convergenti, poiché la parte reale dell’unico autovalore è negativa. L’esponenziale di matrice del sistema in esame è dato da: −t e te −t 0 e −t 0 . (2.85) e At = 0 0 0 e −t Esercizio 2.4 Si consideri il sistema dinamico descritto dal modello: −1 0 0 ẋ = 0 −2 −1 x 0 1 0 (2.86) Il polinomio caratteristico del sistema vale: pA (λ) = = det(λI − A) λ+1 0 λ+2 det 0 0 −1 0 1 = λ3 + 3λ2 + 3λ + 1 = (λ + 1)3 . λ Il sistema ha un solo autovalore con moltiplicità pari a tre: λ1 = −1; µ1 = 3. (2.87) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-58 Per valutare la forma dei modi naturali si deve studiare la molteplicità geometrica di tale autovalore. Si tratta quindi di valutare la dimensione del nucleo della matrice λI − A, per λ = −1, che corrisponde poi a valutare il numero di autovettori indipendenti associati all’autovalore λ = −1. Si trova: 0 0 0 1 . λI − A = −I − A = 0 1 0 −1 −1 Si vede facilmente che la matrice ha una riga nulla e due righe dipendenti, e quindi il suo nucleo ha dimensione 2 (in alternativa, la matrice ha rango uno, e quindi il nucleo ha dimensione n − 1 = 3 − 1 = 2). L’autovalore di interesse ha quindi molteplicitià geometrica pari a 2. Ne segue che il sistema ha due miniblocchi di Jordan, ed appare un termine polinomiale. I modi naturali sono quindi: m1 (t) = e −t ; m2 (t) = te −t ; m3 (t) = e −t . (2.88) In tal caso, tutti i modi naturali sono convergenti, poiché la parte reale dell’unico autovalore è negativa. Presa come matrice di trasformazione (calcolabile con procedura non parte del programma d’esame) la matrice 1 0 1 T −1 = 0 1 1 , (2.89) −1 0 0 ed indicate con A1 ed A2 le matrici, rispettivamente, dei due esempi 2.3 e 2.4, si trova: A2 = T −1 A1 T, da cui segue, per l’esponenziale di matrice dell’esempio corrente: −t e 0 −te −t + e −t e A2 t = T −1 e A1 t T = 0 0 te −t (2.90) 0 . −te −t −t e + te −t (2.91) Come atteso, tale esponenziale contiene solo combinazioni lineari dei modi naturali. Esercizio 2.5 Si consideri il sistema dinamico descritto dal modello: 0 0 0 ẋ = −1 −1 −1 x 0 1 1 (2.92) Il polinomio caratteristico del sistema vale pA (λ) = = det(λI − A) λ 0 0 1 = λ3 . det 1 λ + 1 0 −1 λ − 1 e quindi il sistema ha un solo autovalore λ = 0, con moltiplicità µ = 3. Per valutare la forma dei modi naturali si deve studiare la molteplicità geometrica di tale autovalore. Si tratta quindi di valutare la dimensione del nucleo della matrice λI − A, per λ = 0. Si trova: 0 0 0 1 . λI − A = −A = 1 1 0 −1 −1 Si vede facilmente che la matrice ha due righe indipendenti ed una riga nulla, e quindi il suo nucleo ha dimensione 1 (in alternativa, la matrice ha rango due, e quindi il nucleo ha dimensione n − 2 = 3 − 2 = 1). L’autovalore nullo ha quindi molteplicitià geometrica pari ad 1. Ne segue che il sistema ha un solo miniblocco di Jordan. Tra i suoi modi naturali vi saranno quindi un termine polinomiale di grado uno ed un ulteriore termine di grado due. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-59 I modi naturali sono quindi: m1 (t) = δ−1 (t); m2 (t) = tδ−1 (t) = t; m3 (t) = t2 δ−1 (t) = t2 . (2.93) In tal caso, il primo modo naturale è limitato, gli altri due crescono e sono quindi divergenti. Nel caso in esame, presa come matrice di trasformazione (calcolabile con procedura non parte del programma d’esame) la matrice 1 0 1 T −1 = 0 1 1 , (2.94) −1 0 0 si trova: 0 1 AJ = T −1 AT = 0 0 0 0 cui corrisponde l’esponenziale di matrice: δ−1 (t) tδ−1 (t) e AJ t = 0 δ−1 (t) 0 0 0 1 , 0 t2 δ−1 (t) δ−1 (t) t tδ−1 (t) = 0 δ−1 (t) δ−1 (t) 0 0 (2.95) t2 t δ−1 (t) da cui segue, per l’esponenziale di matrice in coordinate originali, la forma: δ−1 (t) 0 0 −tδ−1 (t) e At = T −1 e AJ t T = t2 δ−1 (t) − tδ−1 (t) −tδ−1 (t) + δ−1 (t) 2 −t δ−1 (t) tδ−1 (t) δ−1 (t) + tδ−1 (t) δ−1 (t) 0 0 . −t = t2 − t −t + δ−1 (t) 2 −t t δ−1 (t) + t Come atteso, tale esponenziale contiene solo combinazioni lineari dei modi naturali. (2.96) Capitolo 2: Analisi sistemi LSTC 2.3 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-60 La trasformata di Laplace Lo studio dei sistemi lineari stazionari a tempo continuo, ed in particolare lo studio dei legami ingresso-uscita di tali sistemi, è di solito condotto facendo uso delle strumento formale-simbolico della trasformata di Laplace4 . In queste note la trasformata di Laplace viene presentata in modo estremamente sintetico ed operativo. Per tutti gli aspetti formali, di esistenza della trasformata, e per i legami con altre trasformate ed integrali, ad esempio con la trasformata di Fourier5 , si rimanda a testi specifici e ad altri insegnamenti. Si consideri una funzione del tempo f (·), a valori complessi, nulla per t < 0, e maggiorata da M e γt , per qualche valore di M > 0 e γ > 0: f : R → C, f (t) = 0, t < 0, f (t) < M e γt , t > 0. La trasformata di Laplace della funzione f (·), indicata (sia pure impropriamente) con la notazione: F (s) := L[f (t)], (2.97) è una funzione F :→ C → C definita dal seguente integrale, supposto che converga: Z ∞ Z ∞ F (s) = L[f (t)] := lim f (t)e −st dt = f (t)e −st dt. − 0 ǫ → 0 −ǫ ǫ>0 (2.98) Se l’integrale (2.98) converge per un certo s0 = σ0 + ω0 , allora converge per tutti i valori s tali che Re(s) ≥ σ0 . Il più piccolo valore di σ0 tale che, per ogni s con Re(s) > σ0 l’integrale (2.98) converge, è detto ascissa di convergenza, e sarà indicato con α; la regione del piano complesso E := {s ∈ C : Re(s) > α} è detta regione di esistenza. La funzione F (s) ha lo stesso contenuto informativo del segnale di origine f (t); più precisamente, F (s) ed f (t) sono due diverse rappresentazioni dello stesso segnale: F (s) è la rappresentazione nel dominio della variable di Laplace, mentre f (t) è la rappresentazione dello stesso segnale nel dominio del tempo. Nota la trasformata di Laplace F (s) di un segnale, la sua rappresentazione nel dominio del tempo, f (t), può essere ricostruita a partire dalla trasformata inversa di Laplace o antitrasformata di Laplace, definita dall’integrale di linea: Z σ+∞ 1 −1 F (s)e st ds, t ≥ 0 (2.99) f (t) = L [F (s)] = 2π σ−∞ cioè: −1 f (t) = L 1 [F (s)] = 2π Z ∞ F (σ + ω)e (σ+ω)t dω, −∞ t≥0 (2.100) ove σ è un qualunque numero reale maggiore dell’ascissa di convergenza α. Si noti che l’integrale è calcolato lungo una retta del piano complesso parallela all’asse immaginario. Di norma, tale integrale si calcola tramite il teorema dei residui, considerando il percorso chiuso costituito dalla retta verticale s = σ + ω e da un arco di cerchio antiorario di raggio infinito. La trasformata di Laplace ha interesse perchè le due trasformazioni (2.98) e (2.99) rappresentano una relazione biunivoca tra funzioni del tempo e corrispondenti trasformate, nel senso meglio precisato dalla seguente proprietà di unicità. 2.3.1 Proprietà della trasformata di Laplace Le seguenti proprietà della trasformata di Laplace sono di fondamentale importanza. Proprietà 2.5 (Proprietà di unicità) Se L[x(t)] = L[y(t)] lungo una qualche linea s = σ + ω, con σ > max{αx , αy }, allora le due funzioni del tempo coincidono, cioè x(t) = y(t), t ≥ 0 (quasi ovunque). Proprietà 2.6 (Linearità) Siano u(t) e y(t) due funzioni del tempo, con trasformata U (s) ed Y (s), rispettivamente. Allora, vale la seguente proprietà di linearità: L[c1 u(t) + c2 y(t)] = c1 U (s) + c2 Y (s), 4 Pierre 5 Jean ∀c1 , c2 ∈ R. Simon Laplace (Beaumont-en-Auge, 1749 – Parigi, 5 marzo 1827). Baptiste Joseph Fourier (Auxerre, 21 marzo 1768 Parigi, 16 maggio 1830) (2.101) ⊓ ⊔ Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-61 Le due proprietà di unicità e linearità sono di fondamentale importanza concettuale: se non valessero, la trasformata di Laplace non sarebbe di alcun interesse pratico. Le sequenti proprietà hanno invece un significato operativo: descrivono situazioni specifiche nelle quali la trasformata riveste interesse e le corrispondenti forme di impiego. Proprietà 2.7 (Ritardo finito) Siano u(t) ed U (s) un segnale del tempo e la sua trasformata, con ascissa di convergenza αu . Allora, dato un reale T > 0, la funzione traslata nel tempo u(t − T ) ha trasformata ed ascissa di convergenza pari a: L[u(t − T )] = e −sT U (s), α = αu . (2.102) Dimostrazione L[u(t − T )] = = Z ∞ u(t − T )e −st dt = u(τ )e −s(τ +T ) dτ − 0 −T Z ∞ −sT −sτ e u(τ )e dτ = e −sT U (s), Re(s) > αu . Z ∞ 0− ⊓ ⊔ Proprietà 2.8 (Trasformata di una derivata) Siano u(t) ed U (s) un segnale del tempo e la sua trasformata. Allora, la derivata temporale u̇(t) della funzione u(t) ha trasformata pari a: d u(t) = sU (s) − u(0− ). (2.103) L dt Dimostrazione Integrando per parti si trova: Z ∞ Z ∞ ∞ d d u(t) = u(t)e −st dt = u(t)e −st 0 + s u(t)e −st dt = −u(0− ) + sU (s). L dt 0− dt 0− ⊓ ⊔ La dimostrazione assume, implicitamente, che valga il seguente limite: limt→∞ u(t)e −st = 0. Perché ciò è vero? Si veda anche l’esercizio proposto 2.14. Proprietà 2.9 (Trasformata di una derivata seconda) Siano u(t) ed U (s) un segnale del tempo e la sua d2 trasformata. Allora, la derivata temporale seconda 2 u(t) della funzione u(t) ha trasformata pari a: dt 2 d d 2 L u(t) = s U (s) − su(0) − u(t) |t=0 . (2.104) dt2 dt Proprietà 2.10 (Trasformata di un integrale) Siano u(t) ed U (s) un segnale del tempo e la sua trasforRt mata. Allora, l’integrale 0 u(τ )dτ ha trasformata pari a: L Z 0 t 1 u(τ )dτ = U (s). s (2.105) Dimostrazione. Integrando per parti si trova: ∞ Z t Z Z Z ∞ Z t 1 ∞ 1 1 t + u(τ )dτ e −st u(t)e −st dt = U (s). L u(τ )dτ = u(τ )dτ e −st dt = − s s s − − 0 0 0 0 0 0 ⊓ ⊔ Proprietà 2.11 (Traslazione nel dominio di s (traslazione complessa)) Siano u(t) ed U (s) un segnale del tempo e la sua trasformata. Allora, la funzione e at u(t) ha trasformata pari a: L[e at u(t)] = U (s − a). (2.106) ⊓ ⊔ Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-62 Proprietà 2.12 (Trasformata di un integrale di convoluzione) Siano u(t) ed y(t) due funzioni del tempo, U (s) ed Y (s) le loro trasformate. Allora, l’integrale di convoluzione delle due funzioni del tempo, se esiste, ha trasformata pari a: Z t L 0 u(t − τ )y(τ )dτ = U (s)Y (s). (2.107) ⊓ ⊔ Proprietà 2.13 (Antitrasformata della derivata rispetto ad s) Siano u(t) ed U (s) un segnale del tempo d U (s) ha antitrasformata pari a: e la sua trasformata. Allora, la funzione ds d −1 L U (s) = −tu(t). (2.108) ds ⊓ ⊔ 2.3.2 Trasformata di Laplace di segnali notevoli Si danno ora le trasformate di alcuni segnali elementari, di interesse nello studio di sistemi dinamici. Proprietà 2.14 (Gradino unitario) Sia δ−1 (t) la funzione gradino unitario: 0 t<0 , δ−1 (t) = 1 t≥0 (2.109) la sua trasformata di Laplace e la corrispondente ascissa di convergenza α sono date da: L[δ−1 (t)] = 1 , s α = 0. (2.110) Dimostrazione L [δ−1 (t)] = Z ∞ 0− e −st e −st dt = − s ∞ 0− =− 1 1 lim e −st − lim e −st = , t→0 s t→∞ s Re(s) > 0. ⊓ ⊔ Proprietà 2.15 (Rampa unitaria) Sia δ−2 (t) una rampa con pendenza unitaria: 0 t<0 δ−2 (t) = , t t≥0 (2.111) la sua trasformata di Laplace e la corrispondente ascissa di convergenza sono: L [δ−2 (t)] = 1 , s2 α = 0. (2.112) Dimostrazione Si ottiene facilmente a partire dalla trasformata di un gradino, applicando la proprietà (2.10) di trasformazione di un integrale. Si noti che δ−2 (t) = tδ−1 (t). Si noti inoltre che per il calcolo della trasformata (2.112) si potrebbe applicare anche la proprietà 2.13, riscritta come: L [tu(t)] = − d U (s). ds (2.113) ⊓ ⊔ Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-63 Proprietà 2.16 (Segnale esponenziale) Sia u(t) un segnale esponenziale con costante a positiva: 0 t<0 u(t) = , e at t ≥ 0 (2.114) la sua trasformata di Laplace ed ascissa di convergenza sono: L[e at δ−1 (t)] = 1 , s−a α = a. (2.115) Dimostrazione Innanzitutto, si noti che la funzione u(t) definita sopra coincide con la funzione e at δ−1 (t). Data una generica funzione del tempo f (t), la notazione f (t)δ−1 (t) è usata per indicare il fatto che la funzione in esame è nulla per tempi negativi. ∞ Z ∞ at e −(s−a)t at −st e e dt = − L e δ−1 (t) = = s − a 0− 0− 1 1 lim e −(s−a)t − lim e −(s−a)t = , Re(s) > a. = − t→0 s − a t→∞ s−a Si ponga attenzione alla affermazione, implicita nella dimostrazione precedente: ⊓ ⊔ lim e −(s−a)t = 0. t→∞ È importante capire se tale limite vale sempre, e in particolare se vale, o meno, per ogni valore della costante reale a e della variabile complesssa s. Proprietà 2.17 (Segnale sinusoidale) Sia u(t) un segnale sinusoidale con pulsazione ω: u(t) = sin(ωt). La sua trasformata di Laplace ed ascissa di convergenza sono: L[sin(ωt)δ−1 (t)] = s2 ω , + ω2 α = 0. (2.116) La dimostrazione di questa proprietà è lasciata per esercizio. A scopo esemplificativo, la tabella 2.2 raccoglie le trasformate dirette ed inverse di alcune funzioni di uso comune. Di norma, tali trasformate si ottengono facilmente a partire da quelle riportate sopra, tramite le proprietà descritte in precedenza. 2.3.3 Alcuni teoremi Nello studio dei sistemi dinamici sono utili alcuni teoremi sui legami tra i valori limite di un segnale del tempo e della corrispondente trasformata di Laplace. Teorema 2.3 (Valore finale) Sia u(t) una funzione del tempo, con trasformata U (s). Allora, il limite per t che tende ad infinito di tale funzione, se esiste ed è finito, è dato da: lim u(t) = lim sU (s). t→∞ s→0+ (2.117) Si noti che il teorema è applicabile solo se il punto s = 0 è interno alla regione di convergenza, cioè solo se l’ascissa di convergenza è nel semipiano complesso sinistro. In effetti, l’esistenza del limite di interesse, cioè limt→∞ u(t), garantisce tale posizione dell’ascissa di convergenza (e viceversa). A titolo di esempio, per sottolineare l’importanza del commento precedente, si consideri la funzione u(t) = sin(ωt). Ad una prima analisi superficiale potrebbe apparire: lim sin(ωt) = lim s t→∞ s→0+ ω = 0, s2 + ω 2 mentre, come ben noto, tale limite nel dominio del tempo non esiste. (2.118) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-64 Teorema 2.4 (Valore iniziale) Sia u(t) una funzione del tempo con trasformata U (s). Allora il valore iniziale per t che tende a zero da destra di tale funzione, se esiste ed è finito, è dato da: lim u(t) = lim sU (s). (2.119) s→∞ t→0+ Teorema R2.5 (Valore dell’integrale) Sia u(t) una funzione del tempo, con trasformata U (s). Allora, se ∞ l’integrale 0 u(t)dt esiste, il suo valore è dato da: Z ∞ u(t)dt = lim U (s). 2.3.4 (2.120) s→0 0 Esponenziale di matrice, forme esplicite e matrice di trasferimento per sistemi LSTC Si consideri il sistema dinamico: ẋ = Ax, x(0) = x0 . (2.121) È noto che la soluzione di tale equazione differenziale omogenea, cioè la risposta libera nello stato, è descritta dall’esponenziale di matrice: x(t) = e At x0 , t ∈ R+ . (2.122) Per il calcolo dell’esponenziale di matrice e At si può far uso alla trasformata di Laplace. Infatti, per la proprietà della trasformata di una funzione derivata, il sistema precedente, nel dominio di Laplace, può essere scritto come: sX(s) − x(0) = AX(s), (2.123) da cui segue facilmente: (sI − A)X(s) = x(0). (2.124) Nel campo delle funzioni razionali (e non, si badi bene, nel campo dei reali o dei complessi), la matrice (sI − A) è non singolare, infatti il suo determinante è il polinomio caratteristico del sistema, per cui l’equazione precedente può essere risolta rispetto alla trasformata dello stato, trovando: X(s) = (sI − A)−1 x(0), (2.125) x(t) = L−1 (sI − A)−1 x(0), (2.126) e At = L−1 (sI − A)−1 . (2.127) da cui, antitrasformando, segue: e quindi, dal confronto con (2.122), segue: Per quanto riguarda invece l’analisi di un sistema lineare a tempo continuo, il metodo della trasformata di Laplace consente di determinare in modo semplice il legame ingresso-uscita, e cioè la matrice di trasferimento, di tale sistema. Si consideri allora il sistema: ẋ = y = Ax + Bu, Cx + Du, x ∈ Rn , u ∈ Rm , y ∈ Rp . (2.128a) (2.128b) AX(s) + BU (s) CX(s) + DU (s), (2.129a) (2.129b) Nel dominio di Laplace il sistema è quindi descritto da: sX(s) − x(0) = Y (s) = e quindi, tenendo conto della non-singolarità della matrice (sI − A) nel campo delle funzioni razionali, si trova: X(s) = Y (s) = (sI − A)−1 BU (s) + (sI − A)−1 x(0), −1 C(sI − A) (2.130a) −1 BU (s) + DU (s) + C(sI − A) x(0). (2.130b) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-65 Le due equazioni (2.130) descrivono completamente il sistema: la (2.130a) la risposta completa nello stato, la (2.130b) la risposta completa in uscita. I termini delle (2.130) che descrivono l’effetto delle condizioni iniziali sullo stato e sull’uscita sono dette risposte libere, nello stato e nell’uscita, rispettivamente: Xℓ (s) = (sI − A)−1 x(0), Yℓ (s) = C(sI − A)−1 x(0) (2.131a) (2.131b) mentre i termini che descrivono l’effetto del segnale (vettoriale) di ingresso sullo stato e sull’uscita sono dette risposte forzate, nello stato e nell’uscita, rispettivamente: Xf (s) = (sI − A)−1 BU (s), Yf (s) = C(sI − A)−1 BU (s) + DU (s). (2.132a) (2.132b) Infine, la matrice di funzioni razionali W (s) = C(sI − A)−1 B + D, (2.133) che descrive completamente il legame tra il segnale di ingresso e quello di uscita (nel caso di condizioni iniziali nulle), è detta matrice di trasferimento del sistema. Nel caso in cui sia il segnale di ingresso che quello di uscita siano scalari, e cioè nel caso m = 1 e p = 1, si parla di funzione di trasferimento. 2.3.5 Antitrasformata di funzioni razionali proprie Il legame ingresso-uscita di un sistema lineare stazionario a tempo continuo è rappresentabile con una matrice di funzioni razionali proprie nella variabile s. Tenendo conto della forma della trasformata di segnali esponenziali e polinomiali, anche la corrispondente risposta forzata in uscita è descritta da una funzione razionale. È quindi di notevole importanza vedere come antitrasformare una funzione razionale. Si consideri allora la seguente funzione Y (s), propria e con denominatore monico: Y (s) = βn sn + βn−1 sn−1 + · · · + β1 s + β0 , sn + αn−1 sn−1 + · · · + α1 s + α0 (2.134) e si assuma, per semplicità, che le radici del denominatore siano tutte distinte (e complesse coniugate a coppia, se non reali), cioè: n Y (s − pi ), pi 6= pj , i 6= j. (2.135) sn + αn−1 sn−1 + · · · + α1 s + α0 = i=1 Per ben noti risultati sulle funzioni razionali, la funzione Y (s) può essere scomposta in frazioni parziali (detto anche sviluppo di Heaviside): Y (s) = R0 + R1 R2 Rn + + ··· + , s − p1 s − p2 s − pn (2.136) con R0 = lims→∞ Y (s) ed inoltre Ri = lims→pi (s − pi )Y (s), per il teorema dei residui. Il calcolo dei residui Ri , i = 1, 2, . . . , n, può essere verificato in modo immediato. Infatti dalla (2.135) si ha, per il generico residuo Ri : (s − pi )Y (s) = (s − pi )R0 + (s − pi ) n Y j=1 j 6= i Rj + Ri s − pj (2.137) A partire dalla scomposizione in frazioni parziali (2.136), tenendo conto della proprietà di linearità (2.12) e delle trasformate di segnali elementari, si vede immediatamente che il segnale y(t) è dato da: y(t) = R0 δ(t) + R1 e p1 t + R2 e p2 t + · · · + Rn e pn t . (2.138) Nel caso in cui alcuni degli zeri del denominatore della funzione razionale da anti-trasformare, (cioè alcuni poli della funzione), abbiano molteplicità maggiore di uno, il procedimento è analogo, salvo la forma della espansione in frazioni parziali ed il calcolo dei residui. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-66 Sia allora W (s) una generica funzione razionale propria, W (s) = βn sn + βn−1 sn−1 + · · · + β1 s + β0 . sn + αn−1 sn−1 + · · · + α1 s + α0 (2.139) W (s) può essere espansa in frazioni parziali nella forma: W (s) = R0 + qi r X X i=1 j=1 Ri,j , (s − pi )j (2.140) dove r indica il numero di zeri distinti del denominatore della W (s), qi indica la molteplicità di pi come zero di tale denominatore, R0 indica il legame diretto, cioè R0 = lims→∞ W (s), ed il generico residuo Ri,j è calcolato come: dqi −j 1 qi . (2.141) W (s)] [(s − p ) Ri,j = lim i s→pi (qi − j)! dsqi −j In tal caso, tenendo conto delle varie proprietà della trasformata di Laplace, si ha: −1 w(t) = L [W (s)] = R0 δ(t) + qi r X X i=1 j=1 Ri,j tj−1 e pi t . (j − 1)! (2.142) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-67 Funzione del tempo Trasformata di Laplace δ(t) (impulso di Dirac) 1 δ−1 (t) (gradino unitario) 1 s δ−2 (t) = tδ−1 (t) (rampa unitaria) 1 s2 δ−1 (t − a) (gradino unitario con inizio in t = a) 1 −as e s e at (esponenziale) 1 s−a tn−1 e at (esponenziale polinomiale) (n − 1)! 1 (s − a)n sin(ωt) (sinusoide) s2 ω + ω2 cos(ωt) (cosinusoide) s s2 + ω 2 p 1 p e −ζωn t sin(ωn 1 − ζ 2 t) 2 ωn 1 − ζ s2 e −at cos(ωt) s+a (s + a)2 + ω 2 e −at sin(ωt) ω (s + a)2 + ω 2 ẋ(t) s X(s) - x(0) Rt s−1 X(s) 0 x(τ )dτ 1 (fattore trinomio) + 2ζωn s + ωn2 x(t − T ), T > 0 e −sT X(s) e at x(t) X(s − a) Rt X1 (s)X2 (s) 0 x1 (t − τ )x2 (τ )dτ tx(t) − d X(s) (derivata nel dominio di s) ds Tabella 2.2: Trasformate ed antitrasformate di Laplace di uso comune Capitolo 2: Analisi sistemi LSTC 2.3.6 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-68 Esercizi svolti sulla trasformata di Laplace Esercizio 2.6 Si considerino le funzioni ξ1 (t) = e t x1 (0), ξ2 (t) = e −t x2 (0), con valore iniziale x1 (0) = x1,0 6= 0 e x2 (0) = x2,0 6= 0, e si definisca la seguente funzione: y(t) = (1 + t)ξ1 (t)δ−1 (t) + t2 ξ2 (t − 1)δ−1 (t − 1), t ∈ R, dove δ−1 (·) è la funzione gradino unitario. Calcolare la trasformata di Laplace della y(t). Soluzione La trasformata della funzione y(t) si può calcolare usando le proprietà enunciate in precedenza, e facendo uso delle trasformate notevoli riportate in tabella. Si introducano le funzioni y1 (t) = e t x1,0 δ−1 (t) e y2 (t) = e −t x2,0 δ−1 (t). Il termine (1 + t)ξ1 (t)δ−1 (t) può allora essere riscritto come: (1 + t)ξ1 (t)δ−1 (t) = (1 + t)y1 (t), mentre il secondo termine, tenendo conto che t2 = (t − 1)2 + 2(t − 1) + 1, può essere riscritto come: t2 ξ2 (t − 1)δ−1 (t − 1) = (t − 1)2 y2 (t − 1) + 2(t − 1)y2 (t − 1) + y2 (t − 1). La funzione di interesse è quindi: y(t) = (1 + t)y1 (t) + (t − 1)2 y2 (t − 1) + 2(t − 1)y2 (t − 1) + y2 (t − 1). Dalle trasformate notevoli segue facilmente che: Y1 (s) = Y2 (s) = x1,0 , s−1 x2,0 . L[y2 (t)] = s+1 L[y1 (t)] = Inoltre, tenendo conto della forma della trasformata della funzione esponenziale-polinomiale, si ha: x1,0 , L[ty1 (t)] = (s − 1)2 x2,0 L[ty2 (t)] = , (s + 1)2 2x1,0 L[t2 y1 (t)] = , (s + 1)3 ed infine, tenendo conto della trasformata di una funzione traslata, si trova: x2,0 L[y2 (t − 1)] = e −s , (s + 1) x2,0 , L[(t − 1)y2 (t − 1)] = e −s (s + 1)2 2x1,0 L[(t − 1)2 y1 (t − 1)] = e −s . (s + 1)3 Complessivamente quindi, per linearità, la trasformata di Laplace della funzione y(t) è pari a: L[y(t)] = x2,0 2x1,0 x1,0 x2,0 x1,0 + e −s + e −s . + + e −s s − 1 (s − 1)2 (s + 1) (s + 1)2 (s + 1)3 Esercizio 2.7 Calcolare le trasformate di Laplace delle seguenti tre funzioni del tempo: α(t+1) e t ≥ 0, x1 (t) = 0 t < 0, α(t−1) e t ≥ 1, x2 (t) = 0 t < 1, α(t−1) e t ≥ 0, x3 (t) = 0 t < 0. Discutere le differenze fra le varie trasformate. (2.143) ♦ Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-69 Soluzione. Ci si limita a calcolare la trasformata della funzione x1 (t). Il calcolo delle altre due trasformate viene lasciato per esercizio. Si noti che gli intervalli di tempo in cui le due funzioni x2 (t) ed x3 (t) sono non nulle non coincidono. Per quanto riguarda la funzione x1 (t) si trova facilmente: = L[e α(t+1) ] = L[e α e αt ] 1 = e α L[e αt ] = e α . s−α L[x1 (t)] ♦ Esercizio 2.8 Calcolare la trasformata di Laplace delle seguenti funzioni: t ∈ R, t < 0, 0, sin(2πt), t ∈ R, 1/2 ≥ t ≥ 0, y(t) = 0, t ∈ R, t > 1/2, e 0, |cos(2πt)|, x(t) = 0, t ∈ R, t < 0, t ∈ R, 1 ≥ t ≥ 0, t ∈ R, t > 1, dove | · | indica la funzione valore assoluto. Soluzione. In questo caso ci si limita a considerare la funzione y(t). La trasformata del segnale x(t) può essere calcolata in modo simile. Si noti che la funzione in esame, riportata in figura 2.6, è ottenibile combinando opportunamente funzione sinusoidali troncate (cioè, moltiplicate per un gradino) ed opportunamente traslate nel tempo. Grafico della funzione u(t) 1.2 1 0.8 0.6 0.4 0.2 0 −0.2 0 0.2 0.4 0.6 0.8 1 Tempo 1.2 1.4 1.6 1.8 2 Figura 2.6: Esercizio (2.8): funzione y(t) In particolare, la funzione è ottenibile sommando alla funzione seno (troncata) la stessa funzione traslata in avanti di un semiperiodo. Sia y1 (t) = sin(2πt)δ−1 (t) la funzione seno troncata, allora è facile vedere che y(t) = y1 (t) + y1 (t − 1/2). (2.144) Per quanto riguarda la trasformata di Laplace si ottiene allora, usando, nell’ordine, la proprietà di linearita, la regola per il calcolo della trasformata di una funzione traslata e la trasformata della funzione seno: L[y(t)] = = = L[y1 (t)] + L[y1 (t − 1/2)] (1 + e −s/2 )L[y1 (t)] 2π . (1 + e −s/2 ) 2 (s + 4π 2 ) ♦ Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-70 Esercizio 2.9 Calcolare la funzione antitrasformata di Laplace delle seguenti funzioni: X1 (s) = X2 (s) = X3 (s) = X4 (s) = 4 , (s − 2) 5 , (s − 2)(s + 3) 1 , (s − 2)2 1 , (s2 − 4)2 Soluzione. L’antitrasformata della funzione X1 (s) è immediata: 4 = 4e 2t , t ∈ R+ . L−1 (s − 2) Per antitrasformare la funzione X2 (s) conviene effettuare prima l’espansione in frazioni parziali: X2 (s) = 5 1 1 = − , (s − 2)(s + 3) (s − 2) (s + 3) tenendo conto che i residui sono R1 = lims→2 (s − 2)X2 (s) = lims→2 = lims→−3 5 = 1, ed R2 = lims→−3 (s + 3)X2 (s) (s + 3) 5 = −1. La funzione antitrasformata è quindi: (s − 2) 1 1 −1 −1 L [X2 (s)] = L − (s − 2) (s + 3) = e 2t − e −3t . L’antitrasformata della funzione X3 (s) è ancora immediata: 1 −1 −1 = te 2t , L [X3 (s)] = L (s − 2)2 t ∈ R+ . Infine, per antitrasformare la funzione X4 (s) conviene espandere in frazioni parziali, tenendo conto della presenza di poli con molteplicità maggiore di uno. Basandosi sulle relazioni (2.141) si trova: X4 (s) = con R1,2 R1,1 R2,2 R2,1 R1,1 R2,1 R1,2 R2,2 + , + + (s − 2) (s − 2)2 (s + 2) (s + 2)2 (2.145) 1 1 = , (s + 2)2 16 1 −2 1 d d 2 = lim (s − 2) X4 (s) = lim =− , = lim s→2 (s + 2)3 s→2 ds (s + 2)2 s→2 ds 32 1 1 = lim (s + 2)2 X4 (s) = lim = , s→−2 s→−2 (s − 2)2 16 d 1 1 −2 d = lim = lim (s + 2)2 X4 (s) = lim = . 2 3 s→−2 ds s→−2 (s − 2) s→−2 ds (s − 2) 32 = lim (s − 2)2 X4 (s) = lim s→2 s→2 Dalle relazioni precedenti segue quindi: X4 (s) = 1 1 1 1 1 1 1 1 − + + 16 (s − 2)2 32 (s − 2) 16 (s + 2)2 32 (s + 2) da cui segue immediatamente: x4 (t) = 1 1 1 1 2t te − e 2t + te −2t + e −2t , t ∈ R+ . 16 32 16 32 ♦ Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-71 Esercizio 2.10 Data la seguente matrice 4 1 B= 1 1 0 4 0 0 0 0 4 0 0 0 1 4 determinare, per mezzo della trasformazione di Laplace, la matrice eBt , t ∈ R+ . Soluzione. Il calcolo dell’esponenziale di matrice richiede l’inversione della matrice polinomiale: s−4 0 0 0 −1 s − 4 0 0 , (sI − B) = −1 0 s − 4 −1 −1 0 0 s−4 (2.146) che, per la struttura della B, è diagonale a blocchi. In tal caso, nel calcolo dell’inversa si può far uso della seguente relazione, di immediata dimostrazione: −1 M1,1 0 M1,1 0 , M −1 = M= , (2.147) −1 −1 −1 M2,1 M2,2 −M2,2 M2,1 M1,1 M2,2 in cui le matrici M1,1 , M1,2 e M2,2 sono generiche matrici, di dimensioni tra loro compatibili, ed inoltre le matrici M1,1 ed M2,2 sono nonsingolari. Facendo uso della regola precedente, l’inversa di interesse si può calcolare ponendo: s−4 0 0 −1 s − 4 −1 , M2,1 = −1 . M1,1 = (s − 4), M2,2 = 0 (2.148) 0 0 s−4 −1 La matrice M2,2 si può invertire precedente allo stesso modo, oppure utilizzando la relazione: M −1 = adj(M ) . det(M ) (2.149) In ogni caso si trova: −1 M1,1 1 , = (s − 4) ed inoltre: −1 M2,2 1 (s − 4) 0 = 0 −1 −1 M2,2 M2,1 M1,1 per cui la matrice (sI − B)−1 è data da: −1 (sI − B) 1 (s − 4) 1 (s − 4)2 = s−3 (s − 4)3 1 (s − 4)2 = 1 (s − 4) 1 (s − 4)2 1 (s − 4) 0 , 1 (s − 4)2 s−3 , − (s − 4)3 1 − (s − 4)2 1 (s − 4) 0 0 (2.150) − 0 0 0 0 (2.151) 0 0 0 1 (s − 4) 1 (s − 4)2 1 (s − 4) 0 . (2.152) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-72 Si tratta ora di calcolare la trasformata inversa dei vari elementi della matrice. Per il termine s−3 , ricor(s − 4)3 dando che moltiplicare per s corrisponde a derivare nel tempo, si trova: s−3 s −3 d t2 4t 3t2 4t 1 −1 −1 −1 L = L + L = − e e = te 4t + t2 e 4t . (s − 4)3 (s − 4)3 (s − 4)3 dt 2 2 2 (2.153) La trasformata inversa appena determinata può essere calcolata anche utilizzando il metodo dell’espansione in frazioni parziali. In questo caso si ha: F (s) := R1 R3 R2 s−3 = + , + 3 2 (s − 4) (s − 4) (s − 4) (s − 4)3 (2.154) con R3 R2 R1 = (s − 4)3 F (s)|s=4 = (s − 3)|s=4 = 1, d (s − 4)3 F (s) |s=4 = 1, = ds d2 (s − 4)3 F (s) |s=4 = 0, = 2 ds e quindi la trasformata inversa è semplicemente data da: 1 s−3 −1 = te 4t + t2 e 4t . L 3 (s − 4) 2 (2.155) La trasformata inversa degli altri elementi è invece immediata: 1 L−1 = e 4t , (s − 4) 1 L−1 = te 4t , (s − 4)2 e quindi: e 4t te 4t e Bt = te 4t + 1 t2 e 4t 2 te 4t 0 e 4t 0 0 0 0 0 e 4t te 4t 0 0 e 4t . (2.156) ♦ Esercizio 2.11 Calcolare l’uscita di un sistema dinamico caratterizzato dalla funzione di trasferimento: W (s) = 2s + 3 , s3 + 6s2 + 11s + 6 per un segnale di ingresso sinusoidale di pulsazione ω compresa tra 0.1 e 100 rad/sec, ed assumendo condizioni iniziali nulle. Soluzione. Il calcolo dell’uscita del sistema in esame si può determinare facilmente, considerando la trasformata della funzione seno, ed espandendo in frazioni parziali il prodotto della funzione di trasferimento per la trasformata della funzione seno. La funzione di uscita ha quindi una trasformata di Laplace data da: Y (s) = s3 ω 2s + 3 . 2 2 + 6s + 11s + 6 (s + ω 2 ) (2.157) Tale trasformata, notando che i poli del sistema sono pari a −1, −2 e −3, può essere riscritta nella forma: Y (s) = R1 R2 R3 G1 G2 + + + + . s + 1 s + 2 s + 3 (s − ω) (s + ω) (2.158) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-73 I due residui relativi alla coppia di poli immaginari complessi coniugati ±ω sono anch’essi complessi coniugati, e possono quindi essere scritti, in termini di modulo e fase, come G1 = G2 = − 1 Mω e ϕω 2 1 Mω e −ϕω . 2 Con questa notazione, i due termini dell’espansione in frazioni parziali relativi al segnale di ingresso divengono: G1 G2 Mω e ϕω Mω e −ϕω + = + (s − ω) (s + ω) 2(s − ω) 2(s + ω) (2.159) e quindi la loro trasformata inversa è data da: ricordando che 1 Mω e ωt e ϕω − e −ωt e −ϕω = Mω sin(ωt + ϕω ), 2 sin(α) = 1 e α − e −α . 2 (2.160) (2.161) Complessivamente quindi, il segnale di uscita è descritto dalla funzione: y(t) = R1 e −t + R2 e −2t + R3 e −3t + Mω sin(ωt + ϕω ). (2.162) Capitolo 2: Analisi sistemi LSTC 2.4 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-74 Analisi modale per sistemi LSTC: approccio nel dominio di Laplace In questa sezione viene presentato un approccio nel dominio di Laplace per l’analisi modale di un sistema lineare a tempo continuo. Si consideri il sistema dinamico: ẋ = Ax, x(0) = x0 . (2.163) È noto (si veda la sezione 2.3.4) che la soluzione di tale equazione differenziale omogenea, cioè la risposta libera nello stato, è descritta dall’esponenziale di matrice: x(t) = e At x0 , t ∈ R+ . (2.164) Per il calcolo dell’esponenziale di matrice e At si può ricorrere alla trasformata di Laplace. Infatti, per la proprietà della trasformata di una funzione derivata, il sistema precedente, nel dominio di Laplace, può essere scritto come: sX(s) − x(0) = AX(s), (2.165) da cui segue facilmente: (sI − A)X(s) = x(0), (2.166) X(s) = (sI − A)−1 x(0), (2.167) e quindi da cui, per confronto con l’equazione (2.164), segue immediatamente: e At = L−1 (sI − A)−1 (2.168) Per determinare la forma assunta nel dominio del tempo dall’esponenziale di matrice a partire dalla sua rappresentazione nel dominio di Laplace, conviene ricordare la seguente espressione per l’inversa di una matrice M data: adj (M ) M −1 = , (2.169) det(M ) da cui segue: (sI − A)−1 = adj (sI − A) . det(sI − A) (2.170) L’esponenziale di matrice nel dominio di Laplace ha alcune proprietà che saranno utili per trattare in modo completo l’analisi modale: Proprietà 2.18 Gli elementi della matrice (sI − A)−1 sono funzioni razionali strettamente proprie, poiché adj (sI − A) è una matrice polinomiale. Proprietà 2.19 Le radici del denominatore di ciascun elemento della matrice (sI − A) sono un sottoinsieme delle radici del polinomio det(sI − A), e quindi sono un sottoinsieme degli autovalori della matrice A. Proprietà 2.20 Ciascun autovalore della matrice A è radice del denominatore di almeno un elemento della matrice (sI − A)−1 . Per analizzare in dettaglio il comportamento della risposta libera di un sistema lineare a tempo continuo, è bene esaminare inizialmente alcuni casi particolari. 2.4.1 Il caso di autovalori distinti Si consideri inizialmente il caso di un sistema con tutti gli autovalori distinti, e quindi il caso in cui il denominatore della matrice esponenziale nel dominio di Laplace abbia tutte le radici del suo denominatore distinte. In tale caso si può porre: det(sI − A) = n Y i=1 (s − λi ), λi 6= λj , i 6= j, (2.171) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-75 ove n indica l’ordine del sistema, e quindi il numero dei suoi autovalori. n (s) Sia p(s) = dpp(s) un generico elemento della matrice (sI − A)−1 , dopo eventuali cancellazioni di termini comuni numeratore/denominatore. La corrispondente antitrasformata, e cioè il corrispondente elemento dell’esponenziale di matrice, si può ottenere facilmente tramite espansione in frazioni parziali. Qm Tenendo conto dell’ipotesi di autovalori distinti, si ha dp (s) = i=1 (s − λi ), (ove m ≤ n, perché possono esservi cancellazioni) e quindi la seguente espansione in frazioni parziali6 : R1 R2 Rm np (s) = + + ···+ s − λ1 s − λ2 s − λm i=1 (s − λi ) p(s) = Qm (2.172) cui corrisponde, nel dominio del tempo, la funzione: p(t) = R1 e λ1 t + R2 e λ2 t + · · · + Rm e λm t (2.173) La singola funzione esponenziale e λi t è detta modo naturale associato all’autovalore λi , e descrive appunto il comportamento naturale del sistema, cioè il comportamento proprio, specifico del sistema, indipendentemente dalla sollecitazione eventualmente esercitata dall’ambiente esterno tramite il segnale di ingresso. Gli elementi della matrice esponenziale sono quindi costituiti da combinazioni lineari di modi naturali, ciascun modo associato ad un diverso autovalore, ed i coefficienti della combinazioni lineare sono i residui dell’espansione in frazioni parziali dell’elemento stesso. È importante esaminare con maggior dettaglio il caso in cui tra i valori autovalori vi siano coppie complesse coniugate (è ben noto che non vi possono essere autovalori complessi non “accompagnati” dal corrispondente coniugato). Siano quindi λi = σ + ω e λj = λ∗i = σ − ω due autovalori complessi coniugati. I termini corrispondenti dell’espansione in frazioni parziali sono dati da: Rj Ri Ri∗ Ri + = + , s − λi s − λj s − λi s − λ∗i (2.174) poiché ad autovalori coniugati corrispondono residui coniugati. Nel dominio del tempo, indicando con Ri = 1 ϕi il residuo, il suo modulo e la sua fase, si ottiene quindi: 2 Mi e Ri Ri∗ 1 1 L−1 + = Mi e ϕi e σi t e ωt + Mi e −ϕi e σi t e −ωt (2.175) s − λi s − λ∗i 2 2 cui corrisponde la funzione reale Mi e σi t cos(ωt + ϕi ). (2.176) Ad una coppia di autovalori complessi coniugati è quindi associata una funzione pseudo-periodica esponenzialecosinusoidale, con pulsazione pari alla parte immaginaria dell’autovalore e parametro del termine esponenziale pari alla parte reale dell’autovalore. È ben noto che la funzione cos(ωt + ϕi ) può essere ottenuta per combinazione lineare delle funzioni di base cos(ωt) e sin(ωt), e è quindi evidente che sono sempre presenti, per ciascun coppia di autovalori complessi coniugati, sia la funzione cosinusoidale e σi t cos(ωt) che la sua ortogonale sinusoidale e σi t sin(ωt). In altre parole, alla coppia di autovalori complessi coniugati λi e λ∗i sono associati i due modi naturali reali e σi t sin(ωt) e e σi t sin(ωt). Esempio 2.1 (Sistema con autovalori reali) Si consideri il sistema dinamico planare 0 1 ẋ = x, 2 −1 (2.177) il cui polinomio caratteristico è dato da det(sI − A) = λ2 + λ − 2 = (λ + 2)(λ − 1), ed i cui autovalori sono quindi λ1 = 1 e λ2 = −2. I modi naturali associati sono quindi le due funzioni esponenziali pure e t ed e −2t . Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Laplace. Seguendo la traccia delineata sopra, e ricordando le regole per l’espansione in frazioni parziali, si ottiene: s −1 s+1 1 (sI − A) = , adj (sI − A) = , det(sI − A) = s2 + s − 2 (2.178) −2 s + 1 2 s 6 Si noti che il termine R non è presente, poiché tutti gli elementi della matrice sI − A sono funzioni razionali strettamente 0 proprie Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-76 e quindi (sI − A)−1 1 s2 + s − 2 . s s+1 s2 + s − 2 = 2 s2 + s − 2 (2.179) s2 + s − 2 Espandendo in frazioni parziali il primo elemento della matrice si trova: m1,1 (s) = 2 1 1 1 s+1 = + s2 + s − 2 3s−1 3s+2 (2.180) e quindi, per il corrispondente elemento dell’esponenziale di matrice, si ha: m1,1 (t) = 2 t 1 −2t e + e . 3 3 (2.181) Procedendo in modo analogo per gli altri elementi si trova la seguente matrice esponenziale a tempo continuo: e At 2 t 1 −2t e + e 3 3 = 2 t 2 −2t e − e 3 3 1 t 1 −2t e − e 3 3 , 1 t 2 −2t e + e 3 3 (2.182) che, come è immediato vedere, è costituita da combinazioni lineari dei due modi naturali già individuati sulla base della semplice analisi degli autovalori. ♦ Esempio 2.2 (Sistema con autovalori complessi) Si consideri il sistema dinamico planare ẋ = −1 2 −2 −1 x, (2.183) il cui polinomio caratteristico è dato da det(sI − A) = (λ + 1)2 + 4 = λ2 + 2λ + 5 = (λ + 1 − 2)(λ + 1 + 2), ed i cui autovalori sono quindi λ1 = −1 − 2 e λ2 = −1 + 2. I modi naturali associati sono quindi le due funzioni esponenziali-cosinusoiali e −t cos(2t) ed e −t sin(2t). Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Laplace. s + 1 −2 s+1 2 (sI − A) = , adj (sI − A) = , det(sI − A) = (s + 1)2 + 4 (2.184) 2 s+1 −2 s + 1 e quindi (sI − A)−1 s+1 (s + 1)2 + 4 = −2 (s + 1)2 + 4 2 2 (s + 1) + 4 . s (2.185) (s + 1)2 + 4 Ricordando le trasformate di segnali notevoli, per i vari elementi della matrice esponenziale si trova facilmente: s+1 2 −1 −t −1 L = e cos(2t), L = e −t sin(2t), (2.186) (s + 1)2 + 4 (s + 1)2 + 4 e quindi la matrice esponenziale, nel dominio del tempo, è data da: −t e cos(2t) e −t sin(2t) , e At = −t −t −e sin(2t) e cos(2t) (2.187) che, come è immediato vedere, è costituita da combinazioni lineari (in questo caso banali) dei due modi naturali già individuati sulla base della semplice analisi degli autovalori. ♦ Capitolo 2: Analisi sistemi LSTC 2.4.2 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-77 Il caso di autovalori qualsiasi Si passi ora ad esaminare il caso di un sistema dinamico con autovalori comunque piazzati nel piano complesso (salvo, ovviamente, il vincolo della chiusura rispetto alla coniugazione complessa). In tal caso il polinomio caratteristico può essere fattorizzato nella forma: det(sI − A) = r Y (s − λi )ni , i=1 r X ni = n (2.188) i=1 ove l’intero r indica il numero di autovalori distinti ed il generico intero ni indica la molteplicita dell’autovalore λi . La molteplicità di un autovalore come radice del polinomio caratteristico è detta molteplictà algebrica dell’autovalore. Nel caso generale quindi, in virtù della forma (2.188) del polinomio caratteristico, l’esponenziale di matrice nel dominio di Laplace è costituita da funzioni razionali che possono avere radici del denominatore di molteplicità maggiore di uno. Sia m(s) il minimo comune denominatore degli elementi di Exp(A, L), matrice di funzioni razionali. Esso può essere fattorizzato nella forma: m(s) = r Y i=1 (s − λi )mi , 1 ≤ mi ≤ n i . (2.189) In merito a tale fattorizzazione, è importante notare come 1) ogni autovalore (cioè, ogni radice di det(sI − A)) compare come radice di tale polinomio; 2) la molteplicità mi di ciascun autovalore come radice del polinomio in (2.189) può essere minore della molteplicità algebrica. Il polinomio m(s) è detto polinomio minimo del sistema, e la molteplicità mi dell’autovalore λi come radice di m(s) è detta molteplicità come radice del polinomio minimo. Si consideri ora la forma dell’esponenziale di matrice nel dominio del tempo, nel caso generale in esame. Sia p(s) = np (s)/dp (s) il generico elemento della matrice (sI − A)−1 . Ricordando la forma della trasformata inversa di una funzione razionale si ottiene, per un qualche intero q e per un opportuno ordinamento degli autovalori: Rq,mq R1,1 Rq,1 R1,m1 np (s) = + +···+ + ··· + + ··· + p(s) = Q m m i 1 (s − λi ) (s − λ1 ) (s − λ1 ) (s − λq ) (s − λq )mq (2.190) dove i q autovalori sono un sottoinsieme degli autovalori del sistema. Tenendo conto di tale forma dell’espansione in frazioni parziali ed antitrasformando nel dominio del tempo si trova il generico elemento dell’esponenziale di matrice: p(t) = R1,1 e λ1 t + · · · + Rq,mq mq −1 λq t R1,m1 m1 −1 λ1 t t e + · · · + Rq,1 e λq t + · · · + t e . (m1 − 1)! (mq − 1)! (2.191) Gli elementi della matrice esponenziale sono quindi composti da combinazioni lineari di funzioni polinomialeesponenziale del tipo: tµ e λt (2.192) in cui la potenza µ del termine polinomiale varia tra zero e la molteplicità meno uno del corrispondente autovalore come radice del polinomio minimo. Analogamente a quanto già visto nel caso di autovalori distinti, nel caso di coppie di autovalori complessi coniugati λ = σ + ω, di molteplicità arbitraria m, si ottengono modi naturali costituiti da funzioni del tipo: tµ e σt cos(ωt), tµ e σt sin(ωt), (2.193) con la potenza µ del termine polinomiale compresa tra zero ed m − 1. Le funzioni (2.192) sono i modi naturali associati ad autovalori reali di molteplicità maggiore di uno. Le funzioni (2.193) sono i modi naturali reali associati ad autovalori complessi coniugati di molteplicità maggiore di uno. Riepilogando, ad ogni autovalore, reale o complesso, semplice o con moltiplicità maggiore di uno, possono essere associati modi naturali di forma determinata solo dalla posizione dall’autovalore stesso nel piano complesso ed in numero pari alla molteplicità dell’autovalore come radice del polinomio minimo. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-78 Esempio 2.3 (Sistema planare con molteplicità non unitaria) Si consideri il sistema dinamico planare −1 1 ẋ = x. (2.194) 0 −1 il cui polinomio caratteristico è dato da det(sI−A) = (λ+1)2 , ed i cui autovalori sono quindi λ = −1, molteplicità algebrica pari a due. I modi naturali associati potrebbero essere quindi le due funzioni esponenziali-polinomiale e −t ed te −t , in dipendenza della molteplicità dell’autovalore nel polinomio minimo. Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Laplace. s + 1 −1 s+1 1 (sI − A) = , adj (sI − A) = , det(sI − A) = s2 + 2s + 1 (2.195) 0 s+1 0 s+1 e quindi (sI − A)−1 s+1 (s + 1)2 = 0 1 1 2 (s + 1) (s + 1) = s+1 0 (s + 1)2 1 (s + 1)2 . 1 (2.196) (s + 1) Come si vede, in questo caso nel calcolo dell’esponenziale nel dominio di Laplace vi sono delle cancellazioni polo/zero in alcuni termini. Il polinomio minimo, è immediato vedere, coincide con il polinomio caratteristico, e quindi i modi naturali sono dati sia dalla funzione esponenziale pura che dalla funzione esponenziale polinomiale. Ricordando le trasformate di segnali notevoli, per i vari elementi della matrice esponenziale si trova facilmente: 1 1 −1 −t −1 = e −t , (2.197) L = te , L (s + 1)2 (s + 1) e quindi la matrice esponenziale, nel dominio del tempo, è data da: −t e te −t , e At = 0 e −t (2.198) che, come è immediato vedere, è costituita da combinazioni lineari dei due modi naturali già individuati sulla base dell’analisi degli autovalori e del polinomio minimo. ♦ Esempio 2.4 Si consideri il sistema dinamico planare −1 0 ẋ = x, 0 −1 (2.199) il cui polinomio caratteristico è dato da det(sI − A) = (λ + 1)2 , ed i cui autovalori sono quindi λ = −1, molteplicità algebrica pari a due. Si noti come il polinomio caratteristico, e quindi gli autovalori e la loro molteplicità algebrica, siano del tutto identici all’esempio precedente. I modi naturali associati potrebbero quindi essere le due funzioni esponenziali-polinomiale e −t ed te −t , o la sola funzione esponenziale e −t . Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Laplace. s+1 0 s+1 0 (sI − A) = , adj (sI − A) = , det(sI − A) = s2 + 2s + 1 (2.200) 0 s+1 0 s+1 e quindi (sI − A)−1 s+1 (s + 1)2 = 0 0 s+1 (s + 1)2 1 (s + 1) = 0 0 1 (s + 1) . (2.201) Come si vede, in questo caso nel calcolo dell’esponenziale nel dominio di Laplace vi sono delle cancellazioni polo/zero in alcuni termini. Il polinomio minimo, è immediato vedere, in questo caso non coincide con il polinomio caratteristico, ed dato da: m(s) = (s + 1). L’autovalore ha quindi molteplicità unitaria nel polinomio minimo. Ciò implica che il sistema ha un solo modo naturale, dato dalla funzione esponenziale pura e −t . Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-79 Ricordando le trasformate di segnali notevoli, per l’elemento significativo della matrice esponenziale si trova facilmente: 1 −1 = e −t , L (2.202) (s + 1) e quindi la matrice esponenziale, nel dominio del tempo, è data da: −t e 0 , e At = −t 0 e (2.203) che, come è immediato vedere, contiene solo il modo naturale già individuato sulla base dell’analisi degli autovalori e del polinomio minimo. ♦ Si consiglia al lettore di svolgere i due esercizi seguenti, che saranno particolarmente utili nello studio di condizioni di stabilità, nel seguito. Esercizio 2.12 Si consideri il sistema dinamico planare 0 1 ẋ = x, 0 0 e si conduca l’analisi modale. Esercizio 2.13 Si consideri il sistema dinamico planare 0 0 ẋ = x, 0 0 e si conduca l’analisi modale. (2.204) ▽ (2.205) ▽ Capitolo 2: Analisi sistemi LSTC 2.5 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-80 Analisi del comportamento ingresso-uscita per sistemi LSTC In questa sezione si studierà il problema del calcolo della risposta in uscita di un sistema dinamico ad un segnale u(·) applicato in ingresso, secondo lo schema di principio in figura 2.7. Ingresso u(·) (noto) ✲ Uscita y(·) =? ✲ Sistema Figura 2.7: Analisi ingresso-uscita di un sistema dinamico Il sistema dinamico è descritto da un modello differenziale del tipo seguente ẋ = Ax + Bu, y Cx + Du, = x ∈ Rn , u ∈ Rm , y ∈ Rp , la cui rappresentazione nel dominio di Laplace, già determinata in precedenza, è data dalla risposta completa nello stato (comprendente sia la risposta libera Xℓ già studiata con l’analisi modale sia la risposta forzata Xf ): X(s) = (sI − A)−1 x(0) + (sI − A)−1 BU (s), X(s) = Xℓ (s) + Xf (s), Xℓ (s) := (sI − A)−1 x(0), Xf (s) := (sI − A)−1 BU (s), e dalla risposta completa in uscita, che può anch’essa essere decomposta nella risposta libera Yℓ ed in quella forzata Yf (si vedano anche la sezione 2.1 e la sezione 2.3.4) Y (s) = C(sI − A)−1 x(0) + [C(sI − A)−1 B + D]U (s), Y (s) = Yℓ (s) + Yf (s), Yℓ (s) = C(sI − A)−1 x(0), Yf (s) = C(sI − A)−1 BU (s) + DU (s). Si noti come, dalla linearità dell’operatore trasformata, discenda in modo immediato il principio di sovrapposizione degli effetti: dato un segnale u(·), combinazione lineare di segnali elementari u1 (·) ed u2 (·), la risposta complessiva in uscita è pari alla somma delle risposte ai singoli segnali elementari: U (s) = L {u(t)} = L {c1 u1 (·) + c2 u2 (·)} = c1 U1 (s) + c2 U2 (s) Y (s) = W (s)U (s) = W (s) · (c1 U1 (s) + c2 U2 (s)) = c1 Y1 (s) + c2 Y2 (s) (2.206a) (2.206b) In questa sezione l’interesse specifico è per l’analisi della risposta forzata, che è determinata in modo immediato (nel dominio di Laplace, si veda ancora la sezione 2.3.4) come prodotto tra la funzione di trasferimento e la trasformata del segnale di ingresso: Yf (s) = C(sI − A)−1 BU (s) + DU (s) = C(sI − A)−1 B + D U (s) = W (s)U (s) (2.207a) W (s) = C(sI − A)−1 B + D. (2.207b) Si noti come, in virtù delle proprietà dell’esponenziale di matrice nel dominio di Laplace, la funzione di trasferimento sia una matrice di funzioni razionali. È molto importante sottolineare le seguenti caratteristiche della risposta forzata (e quindi della matrice di trasferimento quale modello descrittivo): da un lato ne sottolineano l’estrema importanza, dall’altro evidenziano alcuni limiti ed elementi di attenzione. Commento 2.4 • La risposta forzata di un sistema dinamico descrive il legame ingresso-uscita del sistema stesso. • La risposta forzata di un sistema dinamico assume condizioni iniziali nulle. • La risposta forzata di un sistema dinamico può trascurare alcune componenti del comportamento dinamico interno (si veda, ad esempio il circuito elettrico riportato nell’esercizio 2.7.1 e la Fig. 2.40). Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-81 Si consideri ora, per semplicità e senza perdità di generalità, il caso di un sistema scalare (dal punto di vista ingresso-uscita, cioè con un solo ingresso ed una sola uscita). Sia W (s) = c(sI − A)−1 b + d = c · adj (sI − A) · b +d det(sI − A) (2.208) la sua funzione di trasferimento che, come già notato in precedenza, è una funzione razionale propria (se d 6= 0) o strettamente propria (se d = 0). Commento 2.5 Per semplicità notazionale, l’ordine del denominatore di una generica funzione di trasferimento (e quindi il numero di poli) verrà ancora indicato con la lettera n, analogamente alla notazione utilizzata per indicare la dimensione dello spazio di stato di un generico sistema (e quindi il numero di autovalori). Si ricordi tuttavia che, in generale, il numero di poli può essere minore del numero di autovalori. Si veda, a titolo di esempio, il già citato esercizio 2.7.1. 2.5.1 Risposta impulsiva L’analisi della risposta forzata di norma viene condotta considerando alcuni segnali notevoli. Tra le possibile risposte forzate, la più semplice è la risposta impulsiva, e cioè la risposta ad un segnale di ingresso dato da un impulso di Dirac7 δ(t), illustrato nella figura 2.8. La figura contiene anche una possibile sequenza di funzioni approssimanti, del tutto qualitativa e informale. Per una definizione rigorosa dell’impulso di Dirac si rimanda a testi di teoria dei segnali o ad altri testi di teoria dei sistemi. Qui, ci si limita a sottolineare che la trattazione formale di questo argomento richiede l’introduzione del concetto di distribuzione, che estende e generalizza la nozione classica di funzione. 15 10 5 0 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1 Figura 2.8: Impulso di Dirac. L’impulso di Dirac è un segnale di estrema importanza, benché non fisicamente realizzabile. Una delle sue caratteristiche principali consiste nel descrivere una variazione istantanea dell’energia interna del sistema. Una seconda caratteristica fondamentale è la sua proprietà campionatrice. Ricordando come la trasformata di Laplace di un impulso sia pari ad uno, si ricava la considerazione che la risposta impulsiva, e cioè la risposta del sistema ad una variazione istantanea e finita dell’energia interna, ha una forma (cioè un andamento nel tempo) che dipende solo dalle caratteristiche del sistema stesso. Esaminando in dettaglio tale uscita, si trova infatti: Y (s) = W (s)U (s) ⇒ Yimp (s) = W (s) · 1. (2.209) Assumendo, per semplicità, un sistema con funzione di trasferimento strettamente proprio e con tutti i poli distinti, si ha: n Yimp (s) = 7 Paul W (s) = X Ri βn−1 sn−1 + βn−2 sn−2 + · · · + β1 s + β0 = , sn + αn−1 sn−1 + · · · + α1 s + α0 (s − pi ) i=1 Adrien Maurice Dirac (Bristol, 8 agosto 1902 Tallahassee, 20 ottobre 1984) (2.210) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-82 da cui segue, per la risposta nel dominio del tempo: −1 yimp (t) = L [Yimp (s)] = n X Ri e pi t . (2.211) i=1 Poiché i poli sono un sottoinsieme degli autovalori, le funzioni che appaiono nella risposta impulsiva sono un sottoinsieme dei modi naturali del sistema: la risposta impulsiva contiene tutti, e soli, i modi naturali del sistema che influenzano il legame ingresso-uscita. Nel caso in cui alcuni poli siano complessi coniugati a coppie, i modi naturali relativi possono essere raccolti ed espressi in termini reali, sotto forma di funzioni di tipo esponenziale-sinusoidale e esponenziale-cosinusoidale, come già visto nell’analisi dei modi naturali. Il comportamento asintotico della risposta impulsiva si ricava immediatamente dalla caratterizzazione rispetto alla convergenza dei modi naturali che la compongono. Se tutti tali modi naturali sono convergenti, la risposta impulsiva tende asintoticamente a zero. Nel caso di poli qualsiasi, e quindi con molteplicità anche non unitaria, si trova facilmente8 : Yimp (s) = W (s) = qi r X X i=1 j=1 e quindi, nel dominio del tempo: yimp (t) = qi r X X Vi,j , (s − pi )j Vi,j i=1 j=1 r X qi = n, (2.212) i=1 tj−1 e pi t . (j − 1)! (2.213) La risposta è ancora una combinazione lineare di modi naturali, che possono essere di qualsiasi tipo, e quindi anche di tipo polinomiale-esponenziale. Considerazioni analoghe valgono anche nel caso di poli complessi coniugati non semplici. Anche in questo caso, il comportamento asintotico della risposta impulsiva si ricava immediatamente dalla caratterizzazione rispetto alla convergenza dei modi naturali che la compongono. Se tali modi sono tutti convergenti, la risposta impulsiva tende asintoticamente a zero. In tutti i casi, la presenza anche di un solo modo limitato o divergente, e cioè di un solo autovalore con parte reale non negativa, rende l’intera risposta impulsiva non convergente. Infine, è facile vedere, dal confronto tra la risposta impulsiva in uscita e la risposta libera in uscita, rispettivamente date da: Yimp (s) = c(sI − A)−1 b · 1, Yℓ (s) = c(sI − A)−1 x(0), (2.214) come la risposta impulsiva possa essere interpretata anche come una risposta libera a partire dalla condizione iniziale x(0) = b. In altre parolem, l’impulso di Dirac trasferisce istantaneamente al sistema una quantità di energia pari a quella descritta da una condizione iniziale x(0) = b. Esempio 2.5 (Circuito elettrico: modello I/O) Si consideri il circuito elettrico in figura 2.9, di cui si è già determinato il modello nello spazio di stato nel primo capitolo (sezione 1.4). iG C L R Figura 2.9: Circuito elettrico a componenti passivi. Procedendo al calcolo della funzione di trasferimento, a partire dal modello seguente, già determinato: 8 si ẋ = Ax + bu y = cx assume ancora una funzione di trasferimento strettamente propria Capitolo 2: Analisi sistemi LSTC A= si trova: [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-83 − 1 RC 1 L 1 C , 0 1 b = C , 0 − c= 1 0 , (2.215) s/C . (2.216) 1 1 s2 + s+ RC LC In modo dettagliato, i vari elementi che concorrono al calcolo della matrice di trasferimento sono l’aggiunta di (sI − A): 1 1 1 s+ s − RC C C , = adj (sI − A) = adj (2.217) 1 1 1 s s+ − L L RC il polinomio c adj (sI − A)b, che costituisce il numeratore 1 1 s − C C (2.218) c adj (sI − A)b = 1 0 = s/C 1 1 0 s+ L RC W (s) = W (s) = ed infine in denominatore: 1 1 s+ . (2.219) RC LC Assumendo i valori R = 0.1, C = 1 ed L = 1 per i parametri che caratterizzano il circuito, si ottiene: det(sI − A) = s2 + W (s) = s , s2 + 10s + 1 (2.220) i cui poli sono dati da: s2 + 10s + 1 = (s + 9.9)(s + 0.1); p1 = −9.9, p2 = −0.1. (2.221) Poiché i due poli (e quindi i due autovalori) sono reali e negativi, il sistema ha due modi convergenti. Procedendo al calcolo della risposta impulsiva si ottiene: Yimp (s) = W (s) · 1 = s2 s R1 R2 1.01 0.01 = + ≃ − , + 10s + 1 (s + 9.9) (s + 0.1) (s + 9.9) (s + 0.1) avendo calcolato i residui corrispondenti: s s = ≃ 1.01, R1 = (s + 9.9) (s + 9.9)(s + 0.1) s=−9.9 s + 0.1 s=−9.9 s s R2 = (s + 0.1) = ≃ −0.01. (s + 9.9)(s + 0.1) s=−0.1 s + 9.9 s=−0.1 (2.222) (2.223a) (2.223b) La risposta impulsiva nel dominio del tempo è quindi: yimp (t) = 1.01e −9.9t − 0.01e −0.1t , (2.224) ed il corrispondente andamento nel tempo è illustrato in figura 2.10. Nel caso in cui il sistema fosse caratterizzato dai seguenti diversi parametri R = 1, C = 1 ed L = 1, si otterrebbe la seguente funzione di trasferimento: W (s) = s , s2 + s + 1 (2.225) cui corrispondono poli complessi coniugati: (s2 + s + 1) = (s + 0.5 + 0.866)(s + 0.5 − 0.866), (2.226) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-84 Riposta impulsiva 1 0.9 0.8 0.7 Uscita 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.5 1 1.5 Tempo (secs) Figura 2.10: Risposta impulsiva per il circuito in figura 2.9 (R = 0.1, C = 1, L = 1). Risposta Impulsiva 1 0.8 Ampiezza 0.6 0.4 0.2 0 −0.2 −0.4 0 1 2 3 4 5 Tempo (sec) 6 7 8 9 10 Figura 2.11: Risposta impulsiva per il circuito in figura 2.9 (R = 1, C = 1, L = 1). e quindi modi naturali pseudo-periodici (cioè esponenziale-periodico), con termine reale e −0.5t e termini periodici di pulsazione ω = 0.866. In tal caso, la risposta impulsiva ha l’andamento illustrato nella figura 2.11. Per completezza, in figura 2.12 viene riportato l’andamento della risposta impulsiva nel caso di un circuito costituito dal solo palallelo L − C, senza resistenza eletttrica. Si noti il comportamento periodico della risposta impulsiva, dovuto all’assenza, in questo caso, di termini dissipativi, e quindi alla presenza di una coppia di autovalori immaginari puri. Esempio 2.6 (Circuito elettrico: modello diretto ingresso/uscita) Il modello dinamico, in termini di funzione di trasferimento, può essere determinato direttamente, introducendo modelli ad “impedenza” dei vari componenti elettrici. Tale approccio consente di giungere più velocemente alla determinazione della funzione di trasferimento, ma perde la completezza modellativa dello spazio di stato. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-85 Riposta impulsiva 1 0.8 0.6 0.4 Uscita 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 0 5 10 15 Tempo (sec) 20 25 30 Figura 2.12: Risposta impulsiva per il circuito in figura 2.9 (R = ∞, C = 1, L = 1). A titolo esemplificativo, si consideri il sistema inC figura 2.13, in cui i componenti vengono modellati come u R Figura 2.13: Circuito elettrico a componenti passivi: modello ingresso/uscita “impedenze”, introducendo un modello equivalente nel dominio di Laplace: Resistenza: vR (t) = RiR (t) → VR (s) = RIR (s), (2.227a) Induttanza: vL (t) = L (2.227b) d iL (t) → VL (s) = sLIL (s), dt d vC (t) → IC (s) = sCVC (s). iC (t) = C dt Capacità: (2.227c) Assumendo come grandezze di interesse le tensioni di ingresso ed uscita: • Tensione di ingresso u(t) → U (s) • Tensione di uscita y(t) = vR (t) → Y (s) = VR (s) l’uso delle leggi di Kirchoff U (s) = VC (s) + VR (s); IC (s) = IR (s) = I(s), (2.228) e delle relazioni (2.227) porta in modo immediato al seguente modello ingresso-uscita: I(s) + VR (s) sC sRC + 1 VR (s) 1 + VR (s) = VR (s) R sC sRC U (s) = VC (s) + VR (s) = = (2.229) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-86 cui corrisponde la seguente funzione di trasferimento VR (s) = 2.5.2 sRC U (s), sRC + 1 W (s) = sRC . sRC + 1 (2.230) Risposta indiciale Un secondo segnale notevole, molto importante per lo studio del comportamento dei sistemi dinamici, è il gradino unitario, già introdotto iun predenza e indicato con δ−1 (t). Tale segnale può essere interpretato anche come integrale dell’impulso di Dirac. In tal caso l’uscita forzata viene indicata con il termine risposta al gradino, o risposta indiciale. 1 La trasformata di Laplace del gradino è pari a , e quindi la risposta forzata è data da: s 1 Ygra (s) = W (s) . (2.231) s La risposta nel dominio del tempo di ottiene facilmente per espansione in frazioni parziali e trasformazione inversa. Si assuma inizialmente un sistema con funzione di trasferimento priva di poli nell’origine. In tal caso la risposta indiciale può essere espansa in frazioni parziali: Ygra (s) = qi r X X i=1 j=1 Ri,j G + j (s − pi ) s (2.232) dove r indica il numero di poli distinti del denominatore della W (s), qi indica la molteplicità del polo pi , ed il generico residuo Ri,j è calcolato come indicato nella condizione (2.141). La risposta indiciale nel dominio del tempo è quindi: ygra (t) = L−1 [Ygra (s)] = qi r X X Ri,j i=1 j=1 tj−1 e pi t + Gδ−1 (t). (j − 1)! (2.233) Si vede facilmente i termini che costituiscono la risposta indiciale possano essere organizzati in due gruppi. Il primo gruppo contiene tutti i termini che derivano dai poli della funzione di trasferimento e coincide, a meno dei coefficienti della combinazione lineare, con la risposta impulsiva: ygra,t (t) = qi r X X Ri,j i=1 j=1 tj−1 e pi t , (j − 1)! (2.234) mentre il secondo gruppo contiene solo un termine della stessa forma del segnale di ingresso ed ampiezza variata: ygra,p (t) = Gδ−1 (t). (2.235) L’ampiezza G con cui il segnale di ingresso appare in uscita è pari al guadagno in continua del sistema: G := s · Ygra (s)|s=0 = W (s)|s=0 = W (0). (2.236) Analogamente a quanto accade per la risposta impulsiva (e più in generale per l’antitrasformata di una generica funzione razionale), nel caso di coppie di poli complessi coniugati le corrispondenti funzioni esponenziale possono essere raccolte nella forma di funzioni reali di tipo esponenziale-sinusoidale, eventualmente con termini polinomiali se i poli non sono semplici. La risposta indiciale quindi può essere decomposta nella somma di termini che descrivono la risposta impulsiva, e cioè di modi naturali, e di un termine con la stessa forma dell’ingresso. Nel caso particolare in cui la risposta impulsiva sia convergente a zero, si ottiene una risposta che converge asintoticamente ad un gradino di ampiezza G = W (0). In tal caso, si suole indicare con la dizione di risposta transitoria la somma ygra,t (t) di tutti i termini che dipendono dai poli del sistema, mentre il termine derivante dall’ingresso viene indicato con la dizione di risposta permanente: Se ygra,t (t) = lim ygra,t (t) = 0 ⇒ t→∞ qi r X j−1 X Ri,j i=1 j=1 ygra,p (t) ygra (t) = ygra,t (t) + ygra,p (t), t e pi t risposta transitoria (j − 1)! = Gδ−1 (t) risposta permanente. (2.237) (2.238) (2.239) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-87 Risposta indiciale sistema del primo ordine (p=−1) 1 0.9 0.8 0.7 Uscita 0.6 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 Tempo (secs) 4 5 6 Figura 2.14: Risposta indiciale di un sistema del primo ordine Il caso di un sistema con un polo nullo viene lasciato per esercizio al lettore (una situazione simile verrà discussa nel paragrafo 2.5.4). Nello studio dei sistemi dinamici, e più in particolare nell’analisi e nel progetto di sistemi di controllo, è molto importante considerare la risposta al gradino per un sistema del primo e del secondo ordine. I comportamenti tipici sono descritti dalle seguenti figure. La risposta indiciale può essere influenzata in modo significativo anche dalla presenza di uno zero nella funzione di trasferimento, come descritto dalla figura 2.17. Risposta indiciale secondo ordine (p =−1, p =−2) Risposta indiciale secondo ordine (p =−1, p =−10) 2 1 1 0.9 0.9 0.8 0.8 0.7 0.7 0.6 0.6 Uscita Uscita 1 1 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 0.1 0 0 2 4 Tempo (secs) 6 2 0 0 2 4 Tempo (secs) 6 Figura 2.15: Risposta indiciale di un sistema del secondo ordine, con poli reali. Lo studio della risposta indiciale è importante anche per la possibilità di caratterizzare in modo quantitativo la velocità di riposta. Il parametro utilizzato è detto tempo di salita (della rispota indiciale). La definizione di tale indicate ha senso solo nei casi in cui le funzioni legate ai poli della funzione di trasferimento siano tutte convergenti. In tal caso, dopo un tempo sufficientemente lungo dall’istante di applicazione del segnale a gradino in ingresso, in uscita sarà presente, di fatto, solo il termine costante Gδ−1 (t). Si vedrà più avanti che, in generale, tale inicatore è significativo solo per i sistemi che ammettono risposta permamente in uscita. Il tempo di salita TS è definito come il tempo che intercorre tra l’istante in cui la risposta indiciale assume Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-88 Risposta indiciale secondo ordine (p1=−1+5j, p2=−1−5j) 1.6 1.4 1.2 Uscita 1 0.8 0.6 0.4 0.2 0 0 1 2 3 Tempo (secs) 4 5 6 Figura 2.16: Risposta indiciale di un sistema del secondo ordine, con poli complessi. un valore pari al 10% del valore di regime G, e l’istante in cui la stessa uscita assume un valore pari al 90% di G. Nel caso particolare di un sistema del primo ordine, cioè con un solo polo, il tempo di salita è legato in modo semplice a tale polo e alla corrispondente constante di tempo τ : TS = 2.2 = 2.2τ ≃ 2τ. |p| (2.240) La precedente condizione 2.240 è particolarmente utile in sede di progetto/sintesi di schemi di controllo in retroazione. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-89 Risposta indiciale (z1=−5 (r); z1=−3 (b); z1=−1 (v)) 1.4 1.2 1 Uscita 0.8 0.6 0.4 0.2 0 0 1 2 3 Tempo (secs) 4 5 6 Figura 2.17: Risposta indiciale di un sistema del secondo ordine, al variare della posizione dello zero (poli p1 = −2, p2 = −4). Capitolo 2: Analisi sistemi LSTC 2.5.3 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-90 Risposta ad ingresso sinusoidale Il segnale sinusoidale è uno dei più rilevanti, anche in considerazione del suo ruolo fondamentale come componente di base nella costruzione di segnali arbitrari, secondo quanto noto dalla teoria dell’analisi armonica dei segnali. Per lo studio della risposta forzata in uscita si consideri quindi un sistema dinamico descritto dalla seguente funzione di trasferimento: βn sn + βn−1 sn−1 + · · · + β1 s + β0 W (s) = n . (2.241) s + αn−1 sn−1 + · · · + α1 s + α0 Applicando in ingresso un segnale sinusoidale di ampiezza unitaria e pulsazione pari ad ω rad/s, con trasformata come sotto indicato: ω , (2.242) u(t) = sin(ωt), U (s) = 2 s + ω2 assumendo che il sistema non abbia poli immaginari coniugati posti in ±ω, si ottiene la seguente risposta forzata, nel dominio di Laplace: r Ysin (s) = qi X X Ri,j ω G1 G2 βn sn + βn−1 sn−1 + · · · + β1 s + β0 · 2 = + + (2.243) n n−1 2 j s + αn−1 s + · · · + α1 s + α0 s +ω (s − pi ) s − ω s + ω i=1 j=1 che, nel dominio del tempo, può essere scritta nella forma seguente, raggruppando9 insieme i termini che derivano dai poli del sistema e quelli che derivano dai poli della trasformata del segnale di ingresso: ysin (t) = qi r X X Ri,j i=1 j=1 tj−1 e pi t + G1 e ωt + G2 e −ωt , . (j − 1)! dove la somma qi r X X Ri,j i=1 j=1 tj−1 e pi t (j − 1)! raccoglie tutti i termini generati dal sistema (cioè tutti i modi naturali presenti nella risposta forzata in uscita), mentre la somma G1 e ωt + G2 e −ωt rappresenta il contributo dovuto al segnale di ingresso. Il calcolo dei residui procede come nel caso generale. In particolare i residui Ri,j , relativi ai poli del sistema, richiedono, nel caso generale, l’uso delle relazioni valide per punti singolari non semplici, mentre i residui G1 e G2 , relativi ai due termini caratterizzanti il segnale di ingresso, possono essere calcolati sulla base delle relazioni per i poli semplici, in considerazione dell’ipotesi precedente di non coincidenza tra i poli del segnale e quelli del sistema. Si ottiene quindi: 1 dqi −j qi Ri,j = lim Y (s)] , (2.244) [(s − p ) i s→pi (qi − j)! dsqi −j G1 = [(s − ω)Y (s)]s=ω = (s − ω) W (s) = ω W (s) (s + ω) dove G2 = W (ω) s=ω Mω := |W (ω)|, (2.245a) s=ω ω 1 1 = W (ω) = Mω e ϕω , 2ω 2 2 ϕω := ∠W (ω), ω (s − ω)(s + ω) s=−ω ω 1 1 = W (−ω) · − = − W (−ω) = − Mω e −ϕω , 2ω 2 2 = [(s + ω)Y (s)]s=−ω = (s + ω) W (s) = W (s) ω (s − ω) dove ancora 9 Il ω (s − ω)(s + ω) s=−ω Mω = |W (ω)|, ϕω = ∠W (ω). raggruppamento è reso possibile dall’ipotesi di assenza di poli del sistema coincidenti con quelli del segnale. (2.245b) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-91 La risposta forzata ad ingresso sinusoidale, nel dominio del tempo, vale quindi: ysin (t) ysin,t (t) = ysin,t (t) + ysin,p (t) = qi r X X Ri,j i=1 j=1 ysin,p (t) tj−1 e pi t (j − 1)! = G1 e ωt + G2 e −ωt = (2.246a) Modi del sistema (2.246b) Modi del segnale di ingresso (2.246c) 1 Mω e ωt+ϕω − e −ωt−ϕω = Mω sin(ωt + ϕω ), 2 in cui il termine ysin,t (t) raccoglie tutti i modi naturali del sistema e coincide, a meno dei coefficienti della combinazione lineari, cioè a meno dei residui, con la risposta impulsiva, mentre il termine ysin,p (t) contiene una replica del segnale di ingresso, modificato in ampiezza e fase in modo dipendente solo dal valore della funzione di trasferimento alla pulsazione del segnale stesso. Se il sistema ha tutti i poli con parte reale negativa (cioè, come vedremo in seguito, se il sistema è esternamente stabile), allora, e solo in questo caso, il termine ysin,t (t) può prendere il nome di risposta transitoria e converge a zero esponenzialmente (in modo del tutto analogo a quanto visto per il caso dell’ingresso a gradino). In tal caso, il termine ysin,p (t) è il solo segnale che “permane” dopo l’esaurimento del transitorio, ed è la risposta permanente per ingressi sinusoidali. Si noti come, sia nel caso di ingressi sinusoidali sia nel caso precedente di ingressi a gradino, la risposta transitoria esiste solo se la risposta impulsiva converge asintoticamente a zero. In tal caso, la risposta transitoria e la risposta impulsiva sono costruite dalle stesse funzioni elementari, i modi naturali associati ai poli del sistema, combinate linearmente con diversi coefficienti (i residui relativi). Il concetto di risposta permanente è più articolato di quanto detto sommariamente nelle righe precedenti, e verrà ripreso più estesamente nella sezione 2.5.5. 2.5.4 Il caso dei poli immaginari Infine, alcune considerazione circa l’ipotesi di poli della funzione di trasferimento non coincidenti con i poli del segnale. Nel seguito si considera il caso in cui il segnale di ingresso sia sinusoidale, rimandando ad approfondimenti personali il caso della risposta indiciale per un sistema con un polo nullo. Si consideri un sistema caratterizzato da due poli immaginari in ±ω. Nell’espansione in frazioni parziali della risposta forzata riportata in (2.243) non è più possibile separare tra loro i termini che derivano da tali poli e quelli che derivano dai poli del segnale. La risposta forzata, nel dominio di Laplace, deve quindi essere scritta nella forma seguente: Y (s) = = ω βn sn + βn−1 sn−1 + · · · + β1 s + β0 · 2 n n−1 s + αn−1 s + · · · + α1 s + α0 s + ω2 q r i X X Ri,j G1,1 G2,1 G1,2 G2,2 + + + + j 2 (s − p ) (s − ω) (s − ω) (s + ω) (s + ω)2 i i=3 j=1 (2.247a) (2.247b) avendo assunto, senza perdita di generalità, che i poli p1 e p2 siano i due poli immaginari in ±ω. La risposta forzata in uscita allora conterrà termini che derivano dai poli non immaginari del sistema, e termini che derivano dall’effetto congiunto dei poli in ±ω. Tali termini, nel dominio del tempo, danno luogo ad una funzione sinusoidale di fase ed ampiezza opportune (in corrispondenza delle frazioni parziali con poli semplici) ed una funzione rampa-sinusoidale (in corrispondenza delle frazioni parziali con poli multipli) del tipo: M2 t sin(ωt + ϕ2 ) (2.248) la cui ampiezza cresce al crescere del tempo secondo una rampa. In tal caso la risposta permanente non è ben definita, ed infatti la risposta impulsiva non è convergente a zero. La risposta impulsiva infatti, a motivo della coppia di poli immaginari, avrebbe una componente limitata di tipo sinusoidale. La coppia di poli immaginari nella funzione di trasferimento caratterizza la presenza di una frequenza di risonanza. Su tale concetto si tornerà anche nella sezione relativa ai diagrammi di Bode. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-92 Ovviamente, nel caso in cui il sistema avesse coppie di poli immaginari di molteplicità non unitaria, la risposta in uscita a segnali sinusoidali coincidenti con tali poli sarebbe caratterizzata da termini polinomiali di ordine pari alla molteplicità dei poli del sistema. Esempio 2.7 (Risposta forzata per ingressi sinusoidali) Si consideri un sistema dinamico descritto dalla seguente funzione di trasferimento: W (s) = 2s + 3 2s + 3 = , s3 + 6s2 + 11s + 6 (s + 1)(s + 2)(s + 3) (2.249) e sottoposto all’effetto di un segnale di ingresso sinusoidale di pulsazione ω = 1 rad/s: u(t) = sin(t), U (s) = (s2 1 . + 1) (2.250) Il sistema ha tre poli reali, rispettivamente in −1, −2 e −3, e quindi ammette risposta transitoria e risposta permanente in uscita (si veda la successiva sezione sulla risposta permamente). La risposta forzata in uscita è descritta dalla funzione razionale: Y (s) = s3 2s + 3 1 · 2 , 2 + 6s + 11s + 6 (s + 1) (2.251) che può essere espansa in frazioni parziali come segue: Y (s) = R1 R2 R3 G1 G2 + + + + . s + 1 s + 2 s + 3 (s + ) (s − ) (2.252) I residui relativi ai vari poli del sistema sono dati da: R1 = (s + 1)Y (s)|s=−1 = 1 1 (2s + 3) |s=−1 = (s + 2)(s + 3) (s2 + 1) 4 (2.253a) R2 = (s + 2)Y (s)|s=−2 = (2s + 3) 1 1 |s=−2 = (s + 1)(s + 3) (s2 + 1) 5 (2.253b) R3 = (s + 1)Y (s)|s=−3 = 1 3 (2s + 3) |s=−3 = − 2 (s + 1)(s + 2) (s + 1) 20 (2.253c) mentre quelli relativi al segnale sono: G1 = = G2 = = 1 (s − )(2s + 3) · (s − )Y (s)|s= = (s + 1)(s + 2)(s + 3) (s + )(s − ) s= (2s + 3) 1 1 = M e ϕ , · M = 0.36, ϕ = −0.98 (s + 1)(s + 2)(s + 3) (s + ) s= 2 1 (s + )(2s + 3) · (s + )Y (s)|s=− = (s + 1)(s + 2)(s + 3) (s + )(s − ) s=− (2s + 3) 1 1 = − M e −ϕ , · (s + 1)(s + 2)(s + 3) (s − ) s=− 2 (2.254a) (2.254b) Il termine relativo al segnale di ingresso, e cioè la risposta permanente, in Laplace è quindi pari a: G1 = 1 M e ϕ , 2 cui corrisponde, nel dominio del tempo: B1 B2 + L−1 (s − ) (s + ) B2 = − = = 1 M e −ϕ , 2 M = 0.36, ϕ = −0.98 1 1 M e ϕ e t − M e −ϕ e −t 2 2 1 M e (t+ϕ) − e −(t+ϕ) = M sin(t + ϕ) 2 B1 e t + G2 e −t = (2.255) (2.256) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-93 La risposta forzata infine è data da: y(t) = R1 e −t + R2 e −2t + R3 e −3t + M sin(ωt + ϕ), (2.257) mentre la sola risposta transitoria vale: y(t) = R1 e −t + R2 e −2t + R3 e −3t . (2.258) Gli andamenti delle risposte forzata, permanente e transitoria in uscita sono riportati nella figura 2.18, ove la curva verde indica la riposta forzata, la curva rossa la risposta transitoria e la curva ciano la risposta permanente. La figura 2.19 è invece relativa ad un sistema con la stessa funzione di trasferimento già studiata, salvo il primo polo posto in p = 1, e quindi instabile. La figura riporta la risposta forzata, nonchè i termini legati ai poli del sistema ed i termini legati al segnale di ingresso. Mentre tale ultimo contributo è identico nei due casi, il contributo legati ai poli del sistema è sostanzialmente diverso, e quindi le due risposte forzate sono del tutto diverse. Risposte dinamiche in uscite, per ingresso sinusoidale 0.4 0.3 0.2 0.1 0 −0.1 −0.2 −0.3 −0.4 0 2 4 6 8 10 tempo 12 14 16 18 20 Figura 2.18: Risposte forzata, permanente e transitoria per il sistema 2.249. 2.5.5 Risposta permanente La risposta permanente descrive il comportamento di un sistema dinamico, a fronte dell’applicazione di un segnale di ingresso e dopo molto tempo dall’istante di applicazione iniziale del segnale stesso. Più precisamente, descrive la risposta completa in uscita e nello stato, dopo molto tempo dall’istante iniziale di tale applicazione. In questa sezione il concetto, già introdotto informalmente in precedenza, verrà discusso in modo più approfondito, presentando anche le relative condizioni di esistenza. Affinché la riposta permanente sia ben definita, essa deve essere indipendente dalla condizione iniziale, cioè, dato un assegnato sistema dinamico e fissato il segnale di ingresso, si deve avere la stessa risposta permanente al variare della condizione iniziale. Ricordando le espressioni della risposta completa in uscita, nel dominio del tempo e di Laplace secondo comodità, è evidente come il concetto di risposta permanente in uscita sia ben posto solo se (condizione necessaria) tutti i poli del sistema sono a parte reale negativa, cosı̀ da dar luogo ad una risposta impulsiva convergente asintoticamente a zero. In aggiunta, per avere anche indipendenza dalla condizione iniziale, è sufficiente che tutti gli autovalori abbiano parte reale negativa. Tale condizione è più forte della convergenza a zero della risposta impulsiva, perché, in generale, non tutti gli autovalori compaiono tra i poli della funzione di trasferimento, e quindi tra i poli della risposta impulsiva. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-94 Risposte dinamiche in uscite, per ingresso sinusoidale 4 3.5 3 2.5 2 1.5 1 0.5 0 −0.5 −1 0 2 4 6 8 10 tempo 12 14 16 18 20 Figura 2.19: Risposta forzata per un sistema del primo ordine con polo positivo. Si vedano, a titolo di esempio, i grafici nelle due figure 2.18 e 2.19 ed il corrispondente sistema. Per discutere con maggior dettaglio la relazione tra le due condizioni citate (quella necessaria e quella sufficiente) sono richiesti concetti non ancora discussi. In particolare è richiesto il concetto di osservabilità dello stato e di sottosistema osservabile: verranno trattati in un capitolo successivo. In questa sede è sufficiente ricordare, come si è già visto in alcuni esempi, il fatto che la risposta completa in uscita, in generale, ha un contenuto di modi naturali più ricco rispetto alla corrispondente risposta forzata. Si consideri, a titolo di esempio, il seguente sistema dinamico: −p1 0 −p1 p2 x+ ẋ = u (2.259a) 1 1 p1 + p2 0 1 x y = (2.259b) 1 . Il sistema (2.259) ha polinomio caratteristico pari a (λ − p1 )(λ − p2 ) e funzione di trasferimento W (s) = s−p 2 Uno dei due autovalori non figura come polo, e quindi il corrispondente modo naturale non figura nella risposta impulsiva. Entrambi i modi naturali sono presenti nella risposta libera in uscita. Ciò implica che la risposta forzata in uscita del sistema contiene, rispetto ai modi naturali, solo la funzione e p2 t , mentre la risposta libera in uscita, data da yℓ (t, x0 ) = ce At x0 , contiene entrambe le funzioni e p1 t e e p2 t . La risposta impulsiva tende quindi a zero solo se (condizione necessaria) l’autovalore p2 è negativo, mentre la risposta libera tende a zero, per qualsiasi condizione iniziale, se (e solo se) entrambi gli autovalori sono negativi. Formalmente, la risposta permanente in uscita, yp (t), è il limite, se esiste, cui tende la risposta completa, per istante di applicazione t0 del segnale di ingresso tendente a meno infinito e indipendentemente dalla condizione iniziale x(t0 ): yp (t) := lim yc (t, t0 , x(t0 ), u(·)), ∀x(t0 ), (2.260) t0 →−∞ ove yc (t, t0 , x(t0 ), u(·)) indica la risposta completa in uscita, corrispondente all’applicazione del segnale u(·) a partire dall’istante t0 , con condizione iniziale in t0 pari a x(t0 ). In modo equivalente, si assuma l’esistenza di una funzione yp (t), dipendente dal sistema considerato e dal segnale di ingresso, ma indipendente dalla condizioni iniziali. Una tale funzione si chiama risposta permanente se e solo se vale il seguente limite: lim (yc (t, t0 , x(t0 ), u(·)) − yp (t)) = 0, t→∞ ∀ x(t0 ). (2.261) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-95 In tal caso, la funzione yp (t) viene detta risposta permanente e la funzione yt (t) := yc (t, t0 , x(t0 ), u(·)) − yp (t), (2.262) viene detta risposta transitoria. Si noti che la risposta permanente non corrisponde al limite della risposta forzata per tempi tendenti ad infinito (come talora si afferma, in modo qualitativo). Tale limite infatti, per molti segnali di interesse tra cui quelli sinusoidali, non è definito. È possibile dare una definizione analoga per la risposta permanente nello stato. Nel seguito si presterà maggiore attenzione al caso del segnale di uscita, riservando qualche commento conclusivo al caso della risposta nello stato. Il concetto di risposta permanente è di interesse per tutti i segnali con trasformata di Laplace razionale propria e con i corrispondenti poli a parte reale non negativa, e cioè per tutti i segnali con trasformata razionale propria che permangono nel tempo, cioè che non convergono asintoticamente a zero. È opportuno sottolineare il fatto che i segnali a trasformata razionale propria sono di interesse particolare perché sono “autofunzioni” (modi naturali, come vengono chiamati in questo corso), cioè possono essere generati come risposta libera in uscita di opportuni sistemi lineari a tempo continuo. Tali segnali quindi sono naturalmente associati ai sistemi dinamici che vengono studiati in questo capitolo. Si consideri quindi un segnale di ingresso u(t) la cui trasformata U (s) sia una funzione razionale: U (s) = γµ sµ + γµ−1 sγ−1 + · · · + γ1 s + γ0 γµ sµ + γµ−1 sγ−1 + · · · + γ1 s + γ0 Qρ = µ µ µ−1 s + ηµ−1 s + · · · + η1 s + η0 i=1 (s − πi )i (2.263) e tutti i poli πi , i = 1, . . . , ρ, abbiano parte reale non negativa (eventuali poli del segnale con parte reale negativa fornirebbero componenti che svanirebbero al crescere del tempo, e quindi irrilevanti rispetto alla risposta permanente). Si consideri un sistema dinamico ẋ y = Ax + bu, = cx + du, (2.264a) (2.264b) indicato per brevità con la notazione Σ(A, b, c, d), descritto da una funzione di trasferimento di forma generale: W (s) = βn sn + βn−1 sn−1 + · · · + β1 s + β0 βn sn + βn−1 sn−1 + · · · + β1 s + β0 Qr = q n n−1 s + αn−1 s + · · · + α1 s + α0 i=1 (s − pi )i (2.265) caratterizzata da poli arbitrari, salvo l’avere tutti parte reale negativa (per la condizione necessaria vista sopra). Ciò implica che la risposta impulsiva del sistema tende a zero. In tal caso, la risposta forzata in uscita può essere scritta, dopo l’espansione in frazioni parziali, nella forma: βn sn + βn−1 sn−1 + · · · + β1 s + β0 γµ sµ + γµ−1 sγ−1 + · · · + γ1 s + γ0 Qr Qρ · (2.266a) q µ i=1 (s − pi )i i=1 (s − πi )i µi ρ X qi r X X X Gi,j Ri,j + = YW (s) + Yu (s), j (s − pi ) (s − πi )j i=1 j=1 i=1 j=1 Yf (s) = W (s)U (s) = = YW (s) := qi r X X i=1 j=1 Ri,j , (s − pi )j Yu (s) := µi ρ X X i=1 j=1 Gi,j . (s − πi )j (2.266b) Antitrasformando nel domino del tempo si ottiene quindi: yf (t) yW (t) yu (t) = yW (t) + yu (t), (2.267a) = L−1 {YW (s)} = = L−1 {Yu (s)} = qi r X X i=1 j=1 µi ρ X X j−1 Gi,j i=1 j=1 t e pi t (j − 1)! (2.267b) tj−1 e πi t . (j − 1)! (2.267c) Ri,j Si notino alcuni fatti rilevanti per la forma della risposta forzata scritta sopra. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-96 Commento 2.6 • Innanzitutto, il fatto che i poli del sistema siano a parte reale negativa e quelli del segnale siano a parte reale nulla o positiva rende vuota l’intersezione dei rispettivi insiemi, e quindi rende possibile, nell’espansione in frazioni parziali operata nella (2.266b), separare i termini derivanti dai poli del sistema dai termini derivanti dai poli del segnale. • Ciò implica, come secondo fatto, che la funzione yW (t) definita sopra contenga solo i modi naturali associati ai poli della funzione di trasferimento W (s), e quindi il fatto che il comportamento asintotico di tale funzione sia lo stesso della risposta impulsiva. • Il terzo fatto importante è che la funzione yu (t) contiene solo le funzioni del tempo presenti nel segnale di ingresso, trasferite in uscita al sistema con la stessa forma e, in generale, con pesi relativi diversi. • Il quarto fatto importante è che, come visto in più esempi, l’insieme dei poli della funzione di trasferimento è, in generale, un sottoinsieme proprio dell’insieme degli autovalori del sistema. Se vale l’ipotesi, ricordata sopra, che tutti i poli del sistema sono a parte reale negativa, il termine yW (t) converge asintoticamente a zero ed allora la funzione yu (t) rappresenta ciò che “permane” in uscita dopo l’esaurimento a zero della risposta yW (t) (che, come detto sopra, ha lo stesso comportamento asintotico della risposta impulsiva). Tale analisi però è riferita alla sola risposta forzata, ed assume quindi condizioni iniziali nulle, cioè trascura la risposta libera in uscita. Come si è visto anche con il semplice esempio (2.259), la risposta libera in uscita può contenere modi naturali aggiuntivi rispetto a quelli presenti nella risposta forzata, e quindi la risposta completa in uscita può, in funzione delle condizioni iniziali e della caratterizzazione di convergenza di tali modi aggiuntivi, avere un comportamento asintotico diverso da quello che caratterizza la sola risposta forzata. È opportuno formalizzare tale concetto qualitativo. Si consideri un generico sistema dinamico Σ(A, b, c, d), con funzione di trasferimento del tipo (2.265), e con poli di tale funzione di trasferimento che possono anche essere un sottoinsieme proprio degli autovalori dello stesso sistema. Si assuma un segnale di ingresso u(t) con trasformata razionale del tipo in (2.263). La risposta completa in uscita, a partire da una generica condizione iniziale x0 all’istante t0 = 0 e sotto l’effetto del segnale di ingresso u(t), tenendo conto della scomposizione (2.267a) per la risposta forzata, assume la forma: yc (t, 0, x0 , u(·)) = yℓ (t, x0 ) + yW (t) + yu (t). (2.268) Se vale il seguente limite: lim yc (t, 0, x0 , u(·)) − yu (t) = 0, t→∞ ∀ x0 , (2.269) allora il termine yu () è la risposta permanente in uscita del sistema ed il termine yℓ (t, x0 ) + yW (t) è la risposta transitoria in uscita, cioè: yp (t) := yu (t) (2.270a) yt (t) := yℓ (t, x0 ) + yW (t). (2.270b) Il limite 2.269 vale se tutte le funzioni del tempo che compaiono in yℓ (t, x0 ) e in yW (t) convergono a zero, e quindi se tutti i poli della funzione di trasferimento hanno parte reale negativa (per il termine yW (t)) e se tutti gli autovalori che compaiono nella risposta libera in uscita (il termine yℓ (t, x0 )) hanno parte negativa. Si noti come questo secondo insieme contenga (in generale strettamente) tutti i poli della funzione di trasferimento. Complessivamente quindi, si può formulare il seguente teorema, che descrive il criterio di esistenza della risposta permanente in uscita. Teorema 2.6 (Criterio di esistenza della risposta permanente in uscita per sistemi LSTC) Un sistema dinamico Σ(A, b, c, d) ammette risposta permanente in uscita, indipendente dalla condizione iniziale, se e solo se tutti gli autovalori associati ai modi naturali presenti nella risposta libera in uscita hanno parte reale negativa. ⋄ Da un punto di vista pratico, la determinazione della risposta permanente, qualora esista, può essere condotta limitando il calcolo alla porzione di risposta forzata in uscita relativa ai soli termini che costituiscono il segnale di ingresso, e cioè ai soli termini Yu (s) nella relazione generale (2.266b). Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-97 Commento 2.7 La condizione citata nel criterio, e cioè la condizione “se e solo se tutti gli autovalori associati ai modi naturali presenti nella risposta libera in uscita hanno parte reale negativa” corrisponde, formalmente, alla condizione: “se e solo se tutti gli autovalori del sottosistema osservabile hanno parte reale negativa”. Ciò emergerà con maggior chiarezza nel capitolo dedicato alle proprietà strutturali dell’uscita. Si noti come la trattazione riportata sopra sia relativa al solo segnale di uscita, in analogia con il tipo di trattazione più comune per tale argomento. Ancora più precisamente: in molte discipline la trattazione della risposta permanente si limita alla sola risposta forzata, ed addirittura, spesso si trascura il contributo della risposta transitoria e si considera come risposta in uscita di un sistema dinamico il solo contributo che abbiamo qui chiamato “permanente”. Ciò deriva dal fatto che in tali discipline la stabilità interna del sistema, che implica l’esistenza della risposta permamente, viene data per valida in virtù di una adeguata progettazione e realizzazione del sistema stesso. In questo corso invece lo studio della stabilità è argomento centrale e quindi non può esser dato per certo: anzi, studiare la stabilità e, per quanto possibile, garantirla, è uno degli obiettivi principali degli strumenti che vengono proposti. Si richiama ancora una volta l’attenzione sulle figure 2.18 e 2.19 e sul corrispondente sistema per sottolineare come l’assumere come risposta in uscita il solo contributo “permanente” costituisca una approssimazione accettabile del comportamento effettivo solo in alcuni casi e non abbia validità generale. Come mostrato dall’esempio (2.259) all’inizio della sezione, il contributo della risposta libera a volte può essere determinante. Il prossimo esempio mostra come, nel caso generale, si debba estendere l’attenzione anche alla risposta nello stato, e non ci si possa limitare alla risposta in uscita, sia pure nella forma completa. Si consideri il seguente sistema dinamico: 0 0 1 x+ ẋ = u (2.271a) 1 −p1 p2 p1 + p2 −p1 1 x. y = (2.271b) caratterizzato da un polinomio caratteristico pari a (λ − p1 )(λ − p2 ) e da una funzione di trasferimento W (s) = 1 s−p2 . Uno dei due autovalori non figura come polo, e quindi il corrispondente modo naturale non figura nella risposta impulsiva. In questi termini, tale sistema ha le stesse caratteristiche del sistema (2.259). Una analisi della risposta libera in uscita consente di capire che il modo naturale e p1 t non figura neanche nella risposta libera in uscita. Ne segue che la risposta completa in uscita contiene, rispetto ai modi naturali, solo la funzione e p2 t . Per verificare tale forma per la risposta libera in uscita (non potendo ancora utilizzare il concetto di osservabilità) si considerino i due autovettori del sistema. Si trova facilmente, per i due autovalori λ1 = p1 e λ2 = p2 , la coppia di rispettivi autovettori: 1 1 . (2.272) , v2 = v1 = p2 p1 Poiché tali vettori sono linearmente indipendenti se gli autovalori sono distinti, possono essere scelti come nuova base nello spazio di stato. Ne consegue che una generica condizione iniziale x0 può essere espressa come combinazione lineare di questi due vettori: x0 = α1 v1 + α2 v2 , (2.273) per opportuni valori dei coefficienti reali α1 e α2 . La risposta libera in uscita, per una generica condizione iniziale, vale quindi: yℓ (t, x0 ) = ce At x0 = ce At (α1 v1 + α2 v2 ) = α1 cv1 e p1 t + α2 cv2 e p2 t , (2.274) in cui si è tenuto conto del fatto che una condizione iniziale allineata con un autovettore eccita solo il corrispondente modo naturale. Notando poi che, per il sistema in esame, la matrice di uscita c è ortogonale all’autovettore v1 , e quindi cv1 = 0, ne segue: yℓ (t, x0 ) = ce At x0 = α2 (p2 − p1 )e p2 t , (2.275) e quindi il modo naturale e p2 t appare in tale risposta, ma il modo naturale e p1 t non vi appare mai. La risposta libera nello stato invece, data da xℓ (t, x0 ) = e At x0 , contiene, ovviamente, entrambe le funzioni p1 t e ed e p2 t . Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-98 La risposta permanente in uscita quindi, in base al criterio visto in precedenza, esiste se e solo se l’autovalore p2 è negativo. La risposta libera nello stato, invece, tende a zero per qualsiasi condizione iniziale se, e solo se, entrambi gli autovalori sono negativi. Ne segue che, se il sistema ha autovalore p1 positivo, per un fissato ingresso si ha risposta completa in uscita tendente alla risposta permanente, e risposta completa nello stato divergente verso infinito. La formalizzazione della risposta permanente nello stato può essere fatta utilizzando lo stesso approccio seguito per l’uscita. La risposta completa nello stato, a partire da una generica condizione iniziale x0 all’istante t0 = 0 e sotto l’effetto del segnale di ingresso u(t), tenendo conto di una scomposizione della risposta forzata nello stato analoga alla (2.267a), assume la forma: xc (t, 0, x0 , u(·)) = xℓ (t, x0 ) + xH (t) + xu (t), (2.276) ove i termini xH (t) e xu (t) vanno intesi come i contributi nella risposta forzata nello stato derivanti dai poli legati alla relazioni ingresso-stato in Laplace10 e dai poli del segnale di ingresso, rispettivamente. Se il limite seguente vale: lim xc (t, 0, x0 , u(·)) − xu (t) = 0, ∀ x0 , (2.277) t→∞ allora il termine xu () è la risposta permanente nello stato del sistema ed il termine xℓ (t, x0 ) + xH (t)è la risposta transitoria nello stato. Il limite 2.277 vale se tutte le funzioni del tempo che compaiono in xℓ (t, x0 ) e in xH (t) convergono a zero, e quindi se tutti i poli del legame ingresso-stato hanno parte reale negativa (per il termine xH (t)) e se tutti gli autovalori (per il termine xℓ (t, x0 )) hanno parte negativa. Si noti come questo secondo insieme contenga (in generale strettamente) tutti i poli del legame ingresso-stato. Complessivamente quindi, si può formulare il seguente criterio di esistenza della risposta permanente nello stato, che garantisce anche l’esistenza della risposta permanente in uscita (come condizione sufficiente ma non necessaria). Teorema 2.7 (Criterio di esistenza della risposta permanente nello stato per sistemi LSTC) Un sistema dinamico Σ(A, b, c, d) ammette risposta permanente nello stato, indipendente dalla condizione iniziale, se e solo se tutti i suoi autovalori hanno parte reale negativa. ⋄ 2.6 Risposta armonica e diagrammi di Bode L’analisi della risposta permanente per segnali sinusoidali è di estrema importanza nello studio di un sistema dinamico. Si è visto che, se tale risposta permanente esiste, allora il segnale di ingresso è riportato in uscita, a regime (cioè, dopo l’esaurimento della risposta transitoria), con una ampiezza ed una fase dati dal modulo e dalla fase della funzione di trasferimento, rispettivamente, alla pulsazione del segnale di ingresso. Cioè, se la risposta transitoria esiste, allora la risposta completa in uscita, per ingresso u(t) = sin(ωt), tende asintoticamente alla risposta permanente: yp (t) = M (ω) sin(ωt + ϕ(ω)), M (ω) = |W (ω)|, ϕ(ω) = ∠W (ω). (2.278) È quindi utile studiare la risposta armonica, e cioè l’andamento della funzione di trasferimento, in modulo e fase, in funzione della pulsazione ω: insomma le due funzioni reali M (ω) e ϕ(ω). 1 , Considerando, a titolo di esempio, il sistema del primo ordine con funzione di trasferimento W (s) = s+1 per il modulo della risposta armonica si trova l’andamento nella seguente figura 2.20. Per consentire una migliore rappresentazione delle ascisse (per dilatare la zona di basse pulsazioni e contrarre quella della alte) e per rappresentare meglio la parte di bassi valori del modulo, di norma si utilizza una scala logaritmica per le pulsazioni, sia per il diagramma dei moduli sia per quello delle fasi. In aggiunta, il modulo è abitualmente espresso in decibel: MdB (ω) := 20 log10 (|W (ω)|). (2.279) I due andamenti, del modulo in decibel e della fase in gradi, sono dati in forma grafica in funzione della pulsazione. Tale coppia di diagrammi viene indicata con il termine diagrammi di Bode11 del sistema. A titolo 1 di esempio, i diagrammi di Bode del sistema con funzione di trasferimento W (s) = s+1 sono riportati nella seguente figura 2.21. 10 tale relazione è data da: H(s) = (sI − A)−1 b Wade Bode.(Madison, 1905 – Cambridge, 1982) 11 Hendrik Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-99 Risposta in frequenza (scala lineare) 1 Mudulo risposta armonica M(ω) 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0.5 1 1.5 2 2.5 ω rad/sec 3 3.5 4 4.5 Figura 2.20: Modulo della risposta armonica per W (s) = 5 1 s+1 . Diagrammi di Bode Magnitude (dB) 0 −10 −20 −30 Phase (deg) −40 0 −45 −90 −2 10 −1 10 0 10 Frequency (rad/sec) 1 10 Figura 2.21: Diagrammi di Bode per W (s) = 2 10 1 s+1 . L’analisi dei diagrammi di Bode consente quindi di determinare in modo immediato la risposta in frequenza di un sistema dinamico, e cioè il modo in cui un segnale con dato contenuto armonico transita attraverso un sistema. Si ricorda, ancora una volta, come i diagrammi di Bode descrivano in modo corretto la risposta permanente Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-100 in uscita solo per sistemi con autovalori del sottosistema osservabile a parte reale negativa (i poli rendono conto solo della risposta forzata e non della risposta libera in uscita). In caso contrario, il diagramma di Bode descrive solo una parte della risposta permamente, tralasciando termini legati ai modi naturali, che sono divergenti o tali da poter generare segnali con crescita lineare o polinomiale. 2.6.1 Tracciamento dei diagrammi di Bode: esempio I diagrammi di Bode si possono tracciare utilizzando semplici regole grafiche. Si consideri, a titolo di esempio 1 , con p numero reale. Per motivi che saranno chiari iniziale, il sistema con funzione di trasferimento W (s) = s+p nel seguito, conviene riscrivere la funzione di trasferimento nella forma di costanti di tempo: W (s) = 1 1/p . = s+p 1 + ps (2.280) Il diagramma dei moduli corrisponde quindi al grafico di12 : ! 1/2 ! ω2 |1/p| = −20 log(|p|) − 20 log MdB (ω) = 20 log 1+ 2 . |1 + ω p p | (2.281) Si noti come, grazie alla presenza della funzione logaritmo, i due contributi del numeratore e del denominatore – che sono moltiplicativi nella funzione di trasferimento – siano ora additivi: possono quindi essere analizzati separatamente e poi sommati. Il termine di “guadagno” 20 log(p) è una retta orizzontale, con ordinata positiva, nulla o negativa a seconda che il fattore moltiplicativo positivo |p| sia, rispettivamente, maggiore, uguale o minore di uno. Nel caso in esempio, fissato p = 2, si trova il diagramma riportato in figura 2.22. Diagramma asintotico di Bode (moduli) − Termine guadagno −5 MdB −5.5 −6 −6.5 −7 −7.5 −2 10 −1 10 0 10 ω (rad/sec) 1 10 2 10 Figura 2.22: Diagramma di Bode dei moduli, asintotico, per un guadagno p = 2. 2 Il termine −20 log((1 + ωp2 )1/2 ) può essere analizzato per valori della pulsazione ω molto piccoli o molto grandi, rispetto a p. Nel primo caso si ottiene una funzione nulla, nel secondo caso, trascurando il termine 1/2 ω2 ≃ −20 log( ωp ). Poiché l’asse delle ascisse è logaritmico, e quindi la variabile 1, si ha −20 log 1 + p2 indipendente ω aumenta esponenzialmente, la funzione −20 log( ωp ) risulta essere una retta con pendenza di −20dB per ogni decade di aumento della pulsazione. Tenendo conto che tale retta assume il valore zero (in decibel) per ω = p, si può tracciare un diagramma asintotico costituito da una spezzata: la semiretta con ordinata nulla fino al valore ω = p, detto punto di rottura o anche pulsazione di rottura, e la semiretta con pendenza pari a −20dB per decade da tale valore in avanti. Il diagramma asintotico relativo (assumendo p = 2) è riportato in figura 2.23. Il diagramma asintotico complessivo si ottiene sommando i due contributi, ottenendo il risultato riportato in figura 2.24. Si noti che il diagramma dei moduli, dipendendo dal modulo del polo p, è lo stesso sia per poli a parte negativa sia per poli a parte reale positiva. 12 Nel seguito si ometterà il pedice 10 nella indicazione del logaritmo Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-101 Diagramma asintotico di Bode (moduli) − Termine polo 0 −5 MdB −10 −15 −20 −25 −30 −35 −2 10 −1 10 0 10 ω (rad/sec) 1 10 Figura 2.23: Diagramma di Bode dei moduli, asintotico, per il polo 2 10 1 1+s/2 . Diagramma asintotico di Bode (moduli) −5 −10 MdB −15 −20 −25 −30 −35 −40 −2 10 −1 10 0 10 ω (rad/sec) 1 10 Figura 2.24: Diagramma di Bode dei moduli, asintotico, per W (s) = 2 10 2 1+s/2 . Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-102 Per valutare lo scostamento tra tale diagramma asintotico (e quindi approssimato) ed il diagramma corretto, 2 si consideri il punto di rottura ω = p. Qui il valore esatto del diagramma, per il termine −20 log((1 + ωp2 )1/2 ), √ 2 vale MdB (p) = −20 log((1 + pp2 )1/2 ) = −20 log( 2) ≃ −3. Il diagramma esatto del termine associato al polo nel punto di rottura vale −3dB. Tale valore è anche l’errore massimo che si commette nel considerare il diagramma asintotico in luogo di quello corretto. La figura 2.25 illustra l’andamento della differenza tra diagramma asintotico e diagramma corretto in un intervallo di quattro decadi a cavallo del punto di rottura ω = p. Come si vede, i due diagrammi hanno una differenza apprezzabile solo da una decade prima il punto di rottura ad una decade dopo, mentre sono del tutto identici fuori da tale intervallo. Diagramma asintotico di Bode (moduli) − Correzione binomio 0 −0.5 −1 −1.5 −2 −2.5 −3 −3.5 −2 10 −1 10 0 10 1 2 10 10 Figura 2.25: Diagramma di Bode dei moduli, asintotico, per W (s) = . 2 1+s/2 Ne segue che il diagramma esatto (corretto) può essere ottenuto da quello asintotico con una curva di raccordo che parte da ω = 0.1p, passa per il punto di quota −3dB in corrispondenza del punto di rottura ω = p e si raccorda nuovamente al diagramma asintotico in ω = 10p. La figura 2.26 illustra il diagramma asintotico e quello corretto per il sistema in esame. 0 −10 −20 −30 −40 −50 −2 10 −1 10 0 10 1 10 Figura 2.26: Diagrammi di Bode dei moduli, asintotico e corretto, per W (s) = . 2 10 2 1+s/2 Il diagramma delle fasi viene tracciato in modo analogo. La proprietà di additività vale ancora, e quindi i contributi dei singoli termini possono essere determinati separatamente e poi sommati. Il diagramma della fasi del termine di guadagno p vale 0 o, alternativamente, −180o, in funzione del segno di p. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-103 Per il termine associato al polo si procede con l’analisi del diagramma asintotico e poi si introducono le correzioni opportune. La fase, al contrario del modulo, dipende dal segno del polo. Si assume nel seguito un polo a parte reale negativa (e quindi un valore positivo per il parametro p). La fase del termine 1 + ω p vale zero per valori della pulsazione piccoli rispetto a p, e vale novanta gradi per valori grandi della pulsazione (rispetto a p). Poiché il termine in esame è a denominatore, il valore della fase deve essere cambiato di segno. Ne segue che la fase di tale termine parte da un valore nullo e diminuisce fino ad un valore di −90 gradi. La forma più semplice di diagramma asintotico per la fase è costituita da una funzione gradino, con valore nullo fino al punto di rottuta ω = p e con valore pari a −90o dopo tale punto, come riportato in figura 2.27. 0 −20 −40 −60 −80 −100 −2 10 −1 10 0 10 1 10 2 10 Figura 2.27: Diagramma di Bode delle fasi, asintotico a gradino, per W (s) = 1 s+2 . Una forma più accurata di diagramma asintotico si basa su una curva spezzata, ma continua, con fase nulla fino ad una decade prima del punto di rottura, fase pari a −90o a partire da una decade dopo il punto di rottura, e fase decrescente linearmente nelle due decadi a cavallo del punto di rottura, e con valore pari a −45o nel punto ω = p. L’andamento è illustrato in figura 2.28. 0 −20 −40 −60 −80 −100 −2 10 −1 10 0 10 1 10 Figura 2.28: Diagramma di Bode delle fasi, asintotico, per W (s) = 2 10 1 s+2 . L’andamento esatto della fase di un termine polo è riportato in figura 2.29: si noti che la fase corretta nel punto di rottura è −45 gradi13 . 2.6.2 Tracciamento dei diagrammi di Bode Le regole utilizzate nell’esempio precedente per la costruzione dei diagrammi di Bode possono essere estese allo studio di una generica funzione di trasferimento. In generale, un sistema dinamico espresso tramite funzione di trasferimento ha poli e zeri reali e non nulli, poli e zeri nulli, poli e zeri complessi coniugati, ed un numeratore che può essere non monico. Una tale funzione di trasferimento è rappresentabile nella seguente forma: Q Q 2 ) k i (s + zi ) i (s2 + 2ξ¯i ω̄n,i s + ω̄n,i Q 2 , (2.282) W (s) = q Q 2 s i (s + 2ξi ωn,i s + ωn,i ) i (s + pi ) 13 Infatti per ω = p parte reale e parte immaginaria del termine in esame, a denominatore, sono uguali a meno del segno. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-104 0 −20 −40 −60 −80 −100 −2 10 −1 0 10 1 10 10 2 10 Figura 2.29: Diagrammi di Bode delle fasi, asintotico e corretto, per W (s) = 1 s+2 . dove i parametri zi e pi indicano gli zeri ed i poli reali non nulli, l’intero q indica il numero netto di poli e zeri nulli, i parametri ξ¯i e ω̄n,i caratterizzano le coppie di zeri complessi coniugati, i parametri ξi e ωn,i caratterizzano le coppie di poli complessi coniugati, ed il termine costante k indica il coefficiente di grado massimo del polinomio a numeratore. Le produttorie a numeratore e denominatore si intendono estese ad un numero opportuno di termini, a seconda del sistema, che per semplicità di notazione non vengono indicati esplicitamente. Per la costruzione dei diagrammi di Bode conviene scrivere il sistema nella forma di costanti di tempo, detta anche forma di Bode: Q Q 2 ¯i s g i (1 + zsi ) i ( ω̄s2 + 2 ω̄ξn,i + 1) n,i W (s) = Q , (2.283) Q 2 ξ s i + 1) sq i (1 + psi ) i ( ωs2 + 2 ωn,i n,i ove il guadagno g, che nel caso di assenza di poli e zeri nulli coincide con il guadagno in continua, vale: Q Q 2 k i zi i ω̄n,i Q 2 . g= Q i pi i ωn,i (2.284) Con questa rappresentazione, i vari fattori che compongono la funzione di trasferimento (eccezion fatta per il guadagno g e per eventuali poli e zeri nulli) hanno contributo nullo a basse frequenze. Una generica funzione di trasferimento si ottiene quindi dalla combinazione moltiplicativa di quattro termini fondamentali, corrispondenti al guadagno g, ad un termine binomio per rappresentare poli e zeri reali, ad un termine s per rappresentare poli o zeri nulli (nell’origine del piano complesso), e ad un termine trinomio per rappresentare poli e zeri complessi coniugati. La conversione in decibel del modulo rende additiva tale combinazione di termini, inoltre anche la fase di tali termini è additiva. Ne consegue che il tracciamento dei diagrammi di Bode di una funzione di trasferimento assegnata corrispondente al tracciamento dei diagrammi dei singoli termini ed alla loro successiva somma, analogamente a quanto visto nell’esempio iniziale. I quattro termini da analizzare sono quindi: wg (s) = g, (2.285a) w0 (s) = s, (2.285b) wb (s) wt (s) s = 1+ , p s2 s = + 1, + 2ξ ωn2 ωn (2.285c) (2.285d) tenendo conto che, salvo il guadagno, tutti gli altri termini possono essere sia a numeratore sia a denominatore. Diagrammi di Bode del termine wg (s) = g Per tale termine sia il diagramma dei moduli sia il diagramma delle fasi sono costanti. Il diagramma dei moduli è una retta di ordinata pari a 20 log(|g|), mentre il diagramma delle fasi vale 0o se g è positivo e −180o se g è negativo. Si vedano le due coppie di diagrammi in figura 2.30. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-105 Diagramma di Bode termine w (s)=g, g=10 g 21 Magnitude (dB) 20.5 20 19.5 19 1 Phase (deg) 0.5 0 −0.5 −1 −1 10 0 10 ω (rad/sec) 1 10 Diagramma di Bode termine wg(s)=g, g=−4 13.5 Magnitude (dB) 13 12.5 12 11.5 11 181 Phase (deg) 180.5 180 179.5 179 −1 10 0 10 ω (rad/sec) 1 10 Figura 2.30: Diagrammi di Bode del termine wg (s) = g, per g = 10 (alto) e g = −4 (basso). Diagrammi di Bode del termine w0 (s) = s Il termine relativo ad un polo o uno zero nullo corrisponde ai diagrammi delle funzioni 20 log(ω) per il modulo e arg (ω) per la fase. In considerazione della scala logaritmica per le pulsazioni il diagramma dei moduli è quindi Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-106 una retta con pendenza costante e pari a +20 decibel per decade nel caso di uno zero (termine a numeratore e quindi crescente con ω) e pari invece a −20 dB/decade nel caso di un polo nell’origine. In entrambi i casi le rette passano per il punto di ordinata 0 db per pulsazione pari a ω = 1. Si vedano le due coppie di diagrammi in figura 2.31. Diagramma di Bode termine w (s)=s, (zero) 0 20 Magnitude (dB) 10 0 −10 Phase (deg) −20 91 90.5 90 89.5 89 −1 10 0 1 10 ω (rad/sec) 10 Diagramma di Bode termine w (s)=1/s, (polo) 0 20 15 Magnitude (dB) 10 5 0 −5 −10 −15 −20 −89 Phase (deg) −89.5 −90 −90.5 −91 −1 10 0 1 10 ω (rad/sec) Figura 2.31: Diagrammi di Bode del termine w0 (s) = s (alto) e w0 (s) = 10 1 s (basso) . Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-107 Diagrammi di Bode del termine binomio wb = 1 + s p I diagrammi di tale termine, nel caso di polo positivo, sono stati analizzati con cura nell’esempio precedente. In generale, si deve tener conto del fatto che tale termine può descrivere uno zero od un polo, e in entrambi i casi sia positivo sia negativo. La forma dei due diagrammi rimane invariata, salvo riflessioni rispetto all’asse delle ascisse. Nel caso di un polo p, il diagramma dei moduli ha valore iniziale nullo e decresce al crescere della pulsazione. Il diagramma delle fasi invece dipende dal segno del polo: la fase iniziale vale 0o mentre la fase finale vale −90o per poli negativi e +90o per poli positivi. Nel caso in cui il termine wb (s) faccia riferimento ad uno zero, e quindi sia un termine a numeratore, il diagramma dei moduli cresce al crescere della pulsazione, ed asintoticamente cresce con pendenza pari a +20 dB/decade a partire dal punto di rottura: si ottiene quindi per ribaltamento del corrispondente diagramma di un polo rispetto all’asse delle ascisse. Anche in questo caso la posizione nel piano complesso dello zero non è rilevante. Per quanto riguarda la fase, il diagramma parte da fase iniziale nulla e poi ci si muove verso una fase finale pari a −90o per zeri positivi e +90o per zeri negativi (anche in questo caso con ribaltamento rispetto alla ascisse del corrispondente diagramma dei poli). Le situazioni possibili sono illustrare nelle figure 2.32 e 2.33 per il caso di un polo reale ed nelle figure 2.34 e 2.35 per il caso di uno zero reale. In entrambe le figure, l’asse delle ascisse riporta le pulsazioni normalizzate al parametro p (cioè riporta la quantità ω/p, e quindi il punto di rottura vale ω/p = 1). I diagrammi dei moduli sono rappresentati nella forma asintotica e corretta. I diagrammi delle fasi sono rappresentati con due forme approssimate e nella forma corretta per le due varianti associate ai poli, mentre nel caso degli zeri (per semplicità) si riporta solo la forma asintotica a gradino e la forma corretta. Diagrammi di Bode termine w (s)=1+s/p, (polo positivo) b 0 Modulo (dB) −10 −20 −30 −40 −50 −2 10 −1 10 0 1 10 ω/|p| (rad/sec) 10 2 10 100 Fase (gradi) 80 60 40 20 0 −2 10 −1 10 0 Figura 2.32: Diagrammi di Bode del termine wb (s) = 1 + Diagrammi di Bode del termine trinomio wt = 2 1 10 ω/|p| (rad/sec) s2 2 ωn 10 s p 2 10 nel caso di un polo negativo. + 2 ωξ ns + 1, Il polinomio wt = ωs 2 +2 ωξ ns +1 descrive un termine trinomio ed è caratterizzato da due radici, la cui posizione n nel piano complesso, per un fissato valore del parametro ωn , detto frequenza naturale, dipende dal parametro ξ, detto smorzamento. Nelle applicazioni di interesse pratico lo smorzamento è un numero reale compreso tra zero Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-108 Diagrammi di Bode termine wb(s)=1+s/p, (polo negativo) Modulo (dB) 0 −10 −20 −30 −40 −50 −2 10 −1 10 0 1 10 ω/|p| (rad/sec) 10 2 10 0 Fase (gradi) −20 −40 −60 −80 −100 −2 10 −1 10 0 1 10 ω/|p| (rad/sec) Figura 2.33: Diagrammi di Bode del termine wb (s) = 1 + 10 s p 2 10 nel caso di un polo positivo. Diagrammi di Bode termine w (s)=1+s/p, (zero negativo) b 50 Modulo (dB) 40 30 20 10 0 −2 10 −1 10 0 1 10 ω/|p| (rad/sec) 10 2 10 100 Fase (gradi) 80 60 40 20 0 −2 10 −1 10 0 1 10 ω/|p| (rad/sec) Figura 2.34: Diagrammi di Bode del termine wb (s) = 1 + 10 s p 2 10 nel caso di un zero negativo. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-109 Diagrammi di Bode termine wb(s)=1+s/p, (zero positivo) 50 Modulo (dB) 40 30 20 10 0 −2 10 −1 10 0 1 10 ω/|p| (rad/sec) 10 2 10 0 Fase (gradi) −20 −40 −60 −80 −100 −2 10 −1 10 0 1 10 ω/|p| (rad/sec) Figura 2.35: Diagrammi di Bode del termine wb (s) = 1 + 10 s p 2 10 nel caso di un zero positivo. ed uno. Le due radici sono reali, coincidenti e pari a ωn per smorzamento di valore unitario, sono complesse coniugate e con parte reale negativa per tutti i valori ξ ∈ [0, 1). In particolare, al diminuire dello smorzamento da uno verso zero le due radici si muovono lungo la semicirconferenza centrata nell’origine, di raggio pari a ωn e posta a sinistra dell’asse immaginario. Per smorzamento nullo le due radici sono sull’asse immaginario nelle posizioni ±ωn . Per ξ = 1, il termine trinomio coincide con il quadrato di un termine binomio. I diagrammi di Bode si ottengono quindi sommando i diagrammi di due termini binomio identici. Se il termine descrive una coppia di poli, il diagramma asintotico dei moduli ha un valore nullo fino al punto di rottura ω = ωn e poi decresce linearmente con pendenza pari a −40 dB/decade. Il diagramma delle fasi invece parte da valori iniziali nulli e decresce fino al valore di −180o. I due diagrammi asintotici appena descritti vengono utilizzati come riferimento per il termine trinomio, indipendentemente dal valore dello smorzamento. La costruzione dei due diagrammi esatti si basa su una correzione che invece dipende in modo significativo dallo smorzamento. Per quanto riguarda i moduli, al ridursi dello smorzamento da uno verso zero il diagramma si riduce (rispetto a quello asintotico) via via più lentamente, fino allo smorzamento ξ = 0.707, a partire dal quale il diagramma corretto assume, per un certo intervallo di pulsazioni, valori maggiori di zero (in dB) per tendere poi ad assestarsi, una decade dopo la pulsazione naturale, al diagramma asintotico (si veda il diagramma in alto nella figura 2.36). In questo ultimo scenario il sistema è in grado di amplificare il segnale applicato in ingresso. Ciò è vero anche per sistemi a componenti passivi. In tal caso si parla di frequenza di risonanza 14 . Si noti come, nel caso di smorzamento nullo, in corrispondenza di ω = ωn il diagramma dei moduli abbia un asintoto verticale. Per completezza, il lettore è invitato a rivisitare le considerazioni fatte in precedenza nella sezione 2.5.4. In modo analogo, il diagramma asintotico della fase è via via più simile al diagramma asintotico a gradino, al ridursi dello smorzamento. La figura 2.36 illustra tale comportamento. In tale figura, l’asse delle ascisse riporta le pulsazioni normalizzate alla pulsazione naturale wn . Il caso in cui il termine trinomio si riferisca ad una coppia di zeri (ma sempre con smorzamento positivo) si ricava dai diagramma precedenti per ribaltamento rispetto all’asse delle ascisse, come indicato in figura 2.37. La correzione da applicare al diagramma asintotico dei moduli di un termine trinomio in funzione del 14 Alcuni testi parlano di frequenza di risonanza solo per smorzamento nullo, e quindi solo nel caso di asintoto verticale Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-110 Diagrammi di Bode moduli − wt(s)=s2/ω2n + 2 ζ s /ωn + 1, (coppia poli) 40 30 20 Modulo (dB) 10 0 −10 −20 −30 −40 ζ=0 ζ=0.1 ζ=0.2 ζ=0.4 ζ=0.5 ζ=0.6 ζ=0.707 ζ=0.8 ζ=1 −50 −1 10 0 10 ω/ωn (rad/sec) 1 10 Diagrammi di Bode fasi − wt(s)=s2/ω2n + 2 ζ s /ωn + 1, (coppia poli) 0 −20 −40 Fase (gradi) −60 −80 −100 −120 −140 −160 −180 −1 10 ζ=0 ζ=0.1 ζ=0.2 ζ=0.4 ζ=0.5 ζ=0.6 ζ=0.707 ζ=0.8 ζ=1 0 10 ω/ωn (rad/sec) Figura 2.36: Diagrammi di Bode del termine wt (s) = . s2 2 ωn 1 10 + 2 ωξ ns + 1 nel caso di una coppia di poli parametro di smorzamento è riportata in figura 2.38. Infine, i diagrammi relativi al caso di poli o zeri con parte reale positiva (cioè il caso di smorzamenti negativi) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-111 2 2 n Diagrammi di Bode moduli − w (s)=s /ω + 2 ζ s /ω + 1, (coppia zeri) t n 50 40 30 Modulo (dB) 20 10 0 ζ=0 ζ=0.1 ζ=0.2 ζ=0.4 ζ=0.5 ζ=0.6 ζ=0.707 ζ=0.8 ζ=1 −10 −20 −30 −40 −1 10 0 1 10 ω/ω (rad/sec) 10 n 2 Diagrammi di Bode fasi − wt(s)=s2/ωn + 2 ζ s /ωn + 1, (coppia zeri) 180 160 140 Fase (gradi) 120 100 80 ζ=0 ζ=0.1 ζ=0.2 ζ=0.4 ζ=0.5 ζ=0.6 ζ=0.707 ζ=0.8 ζ=1 60 40 20 0 −1 10 0 10 ω/ωn (rad/sec) Figura 2.37: Diagrammi di Bode del termine wt (s) = . s2 2 ωn 1 10 + 2 ωξ ns + 1 nel caso di una coppia di zeri si ottengono dai corrispondenti diagrammi a smorzamento positivo per ribaltamento del solo diagramma delle fasi. Non vengono riportati esplicitamente per il loro scarso uso. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-112 Diagramma di Bode (moduli) − Correzione per termine trinomio 25 ζ=0 ζ=0.1 ζ=0.2 ζ=0.4 ζ=0.5 ζ=0.6 ζ=0.77 ζ=0.8 ζ=1 20 15 MdB 10 5 0 −5 −10 −1 10 0 1 10 ω/ωn (rad/sec) Figura 2.38: Diagrammi di Bode - correzione di wt (s) = . 10 s2 2 ωn + 2 ωξ ns + 1 Il diagramma in figura 2.39 illustra il caso di un sistema con funzione di trasferimento data da: W (s) = 1 , (s2 + 1) (2.286) e quindi caratterizzato da una frequenza di risonanza in ωn = 1, con smorzamento nullo (insomma, due poli sull’asse immaginario). Come si vede, il diagramma di Bode dei moduli presenta un asintoto verticale in corrispondenza della frequenza di risonanza. Benchè in tal caso il diagramma di Bode non descriva correttamente la risposta armonica (in questa situazione il sistema non ammette risposta permanente), pur tuttavia l’asintoto verticale indica che un segnale sinusoidale in ingresso, con pulsazione ω = 1, sarebbe riportato in uscita con ampiezza infinita. Ciò è qualitativamente vicino al reale comportamento della risposta forzata, che in tal caso è caratterizzata dalla presenza di un termine seno con ampiezza a crescita lineare, a motivo della doppia coppia di poli immaginari nella espressione in Laplace della risposta forzata (si veda la relazione (2.248)). Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-113 Diagrammi di Bode sistema con smorzamento nullo Magnitude (dB) 40 20 0 −20 Modulo (dB) (deg) −40 0 −45 −90 −135 −180 −1 10 0 10 ω/ωn (rad/sec) (rad/sec) 1 10 Figura 2.39: Diagramma di Bode per un sistema con frequenza di risonanza in ω = 1 Capitolo 2: Analisi sistemi LSTC 2.7 2.7.1 [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-114 Esercizi di riepilogo Esempio: analisi di un circuito elettrico RLC Il modello dinamico di un circuito elettrico a componenti passivi può essere determinato facilmente seguendo l’approccio già visto nel primo capitolo. In questa sezione l’esercizio viene risolto in forma parametrica, fin quando possibile, per generalità. Di norma, salvo richiesta e/o necessità diversa, esercizi di questo tipo posso essere risolti più agevolmente sostituendo i valori numerici dei parametri. R1 R3 L R2 C2 Vin C1 R4 Figura 2.40: Circuito RLC1 . Si consideri il circuito elettrico illustrato in figura 2.40. In tal caso le equazioni costitutive dei componenti descrivono l’induttanza, le due capacità ed i vari resistori. Indicata con iL la corrente lungo l’induttanza, con vC1 e vC2 le tensioni ai capi della prima e della seconda capacità, ed utilizzando analoga notazione per le altre correnti e tensioni nel circuito, si ha: d iL dt d C1 vC dt 1 vRi L = vL (2.287a) = iC1 , d vC = iC2 , dt 2 i = 1, . . . , 4. C2 = Ri iRi , (2.287b) (2.287c) Le leggi di Kirchoof, per il sistema in esame, sono date da due equazioni sulle tensioni, relative a due maglie indipendenti, e da una equazione delle correnti, relativa alle correnti nell’induttanza, nel resistore R2 e nel resistore R3 . Le equazioni relative alle correnti in componenti in serie, ed in particolare R1 ed L, R2 e C1 , R3 , C2 ed R4 , sono omesse per semplicità. Le equazioni rilevanti, posto u = vin , sono quindi: vR2 + vC1 = = vR1 + vL + vR2 + vC1 , vR3 + vC2 + vR4 , (2.288a) (2.288b) iL = iC1 + iC2 . (2.288c) u Le variabili di stato, per un circuito elettrico a componenti passive, sono date dalle correnti lungo tutte le induttanze e dalle tensioni ai capi dei condensatori. Nel caso in esame si hanno quindi tre variabili di stato: x1 x2 = = iL vC1 (2.289a) (2.289b) x3 = vC2 (2.289c) Le equazioni costitutive dei componenti con memoria, riscritte in termini di equazioni differenziali del primo ordine, sono quindi: x˙1 = x˙2 = x˙3 = 1 vL L 1 iC C1 1 1 iC . C2 2 (2.290a) (2.290b) (2.290c) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-115 Per determinare il modello nello spazio di stato è quindi richiesta la conoscenza delle grandezze vL , iC1 ed iC2 rispetto alle variabili di stato ed al segnale di ingresso. Tali relazioni possono essere ricavate utilizzando le equazioni di equilibrio e le relazioni costitutive delle resistenze (cioè, le equazioni non ancora utilizzate). Dalle precedenti equazioni (2.288) si ricava il sistema algebrico: u = R1 x1 + vL + R2 iC1 + x2 , (2.291a) R2 iC1 + x2 iL = = R3 iC2 + x3 + R4 iC2 , iC1 + iC2 (2.291b) (2.291c) la cui soluzione, nelle variabili vL , iC1 ed iC2 rispetto alle variabili di stato ed ingresso è data da: vL = iC1 = iC2 = R1 (R2 + R3 + R4 ) + R2 (R3 + R4 ) R3 + R4 R2 x1 − x2 − x3 + u (2.292a) R2 + R3 + R4 R2 + R3 + R4 R2 + R3 + R4 1 1 R3 + R4 x1 − x2 + x3 (2.292b) R2 + R3 + R4 R2 + R3 + R4 R2 + R3 + R4 R2 1 1 x1 + x2 − x3 . (2.292c) R2 + R3 + R4 R2 + R3 + R4 R2 + R3 + R4 − Il modello dinamico del circuito elettrico in esame si ottiene combinando le equazioni (2.290) con le (2.292): R1 (R2 + R3 + R4 ) + R2 (R3 + R4 ) R3 + R4 R2 u x1− x2− x3+ (2.293a) L(R2 + R3 + R4 ) L(R2 + R3 + R4 ) L(R2 + R3 + R4 ) L 1 1 R3 + R4 x1 − x2 + x3 (2.293b) = C1 (R2 + R3 + R4 ) C1 (R2 + R3 + R4 ) C1 (R2 + R3 + R4 ) 1 1 R2 x1 + x2 − x3 . (2.293c) = C2 (R2 + R3 + R4 ) C2 (R2 + R3 + R4 ) C2 (R2 + R3 + R4 ) x˙1 = − x˙2 x˙3 Tali equazioni vanno completate con l’equazione di uscita. Se la grandezza di interesse (cioè, l’uscita), è la tensione vR4 ai capi della resistenza R4 , si ha: R2 1 1 yR4 = R4 iR4 = R4 (2.294) x1 + x2 − x3 . R2 + R3 + R4 R2 + R3 + R4 R2 + R3 + R4 In forma matriciale il modello dinamico, sulla base delle (2.293) e della (2.294), è quindi: ẋ = Ax + bu, (2.295a) y cx (2.295b) = con le matrici A, b e c pari a: R1 (R2 + R3 + R4 ) + R2 (R3 + R4 ) − L(R2 + R3 + R4 ) R3 + R4 A = C1 (R2 + R3 + R4 ) R2 C2 (R2 + R3 + R4 ) b 1 = L 0 , 0 c= R2 R4 (R2 + R3 + R4 ) R3 + R4 L(R2 + R3 + R4 ) 1 − C1 (R2 + R3 + R4 ) 1 C2 (R2 + R3 + R4 ) R2 x3 L(R2 + R3 + R4 ) 1 C1 (R2 + R3 + R4 ) 1 − C2 (R2 + R3 + R4 ) − R4 (R2 + R3 + R4 ) − R4 − (R2 + R3 + R4 ) . (2.296a) (2.296b) Per valori fissati dei componenti, ad esempio: R1 = 1, R2 = 2, R3 = 1, R4 = 1 L = si ottengono le seguenti matrici, −4 −1 −1 A = 2 −1 1 , 2 1 −1 2 b = 0 , 0 1 1 1 , C1 = , C2 = 2 4 4 c= 1 2 1 4 1 − 4 (2.297) . (2.298) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-116 Il calcolo della matrice di trasferimento può essere condotto in modo dettagliato, esaminando la forma della matrice c adj (sI − A) b e la forma del polinomio det(sI − A). Si trova: c adj (sI − A) b det(sI − A) = = s(s + 2), 3 (s + 2) (2.299) (2.300) e quindi, dopo aver operato la cancellazione polo-zero, si ottiene la seguente funzione di trasferimento: wR4 (s) = s . s2 + 4s + 4 (2.301) Si noti, infine, come uno degli autovalori del sistema, cancellandosi con uno zero, non appare nella funzione di trasferimento. Ciò implica una “perdita di informazione” sulla struttura interna del sistema nell’uso della funzione di trasferimento come modello. Si vedrà nel seguito che tale fenomeno è legato ad una carenza della proprietà strutturale di “raggiungibilità”. Approfondendo la cancellazione polo-zero, si può notare, dal calcolo dettagliato della matrice adj (sI − A) e del polinomio det(sI − A), che lo zero interessato alla cancellazione emerge dal prodotto adj (sI − A) b, e quindi tale cancellazione dipende dal modo in cui il segnale di ingresso (il cui effetto sullo stato è legato alla matrice b) interagisce con la dinamica. Tale interazione è estremamente importante, e sarà studiata in modo particolarmente approfondito in un capitolo successivo. In questo caso particolare (ma il fatto non ha assolutamente validità generale) vi è anche una perdita di osservabilità. Infatti, anche dal polinomio c adj (sI − A) emerge un termine comune con il denominatore che porta, per altra via, alla stessa cancellazione. Si noti infine, anche la presenza di uno zero nell’origine. È interessante studiare la risposta al gradino del circuito in esame. Il calcolo della risposta forzata, condotto nel dominio di Laplace, consente di ottenere: Y (s) = wR4 (s) 1 s 1 = 2 . s s + 4s + 4 s (2.302) Omettendo di semplificare il termine polo-zero comune (allo scopo di illustrare l’effetto dello zero), che deriva dall’interazione ingresso-sistema, si ottiene: Y (s) = G R2 R1 + , + s + 2 (s + 2)2 s (2.303) in cui i residui R1 ed R2 (da non confondere con le resistenze R1 e R2 ), legati ai modi naturali del sistema, sono dati da: R2 = R1 = lim (s + 2)2 Y (s) = 1, s→2 lim s→2 d [1] = 0 ds Il guadagno in continua del sistema, che descrive la variazione in ampiezza del gradino, vale: s = 0. G = lim sY (s) = 2 s→0 (s + 2) s=0 (2.304) (2.305) (2.306) Tale guadagno è nullo proprio per la presenza dello zero nell’origine, il cui significato è esattamente quello di bloccare la trasmissione attraverso il sistema di un segnale con polo nullo, e cioè un segnale a gradino. Ciò corrisponde ad una proprietà generale degli zeri di una funzione di trasferimento, che vengono anche detti zeri di blocco o zeri di trasmissione. Infine, l’analisi in frequenza del sistema consente di tracciare il diagramma dei moduli riportato nella seguente figura 2.41. Le risposte forzate in uscita per ingresso sinusoidale, di pulsazione ω1 = 1 e di pulsazione ω2 = 100, sono riportate nelle successive figure 2.42 e 2.43. Se, in alternativa alla tensione vR4 , si considera come funzione di uscita la tensione vC2 ai capi della seconda capacità, si ottiene la relazione: (2.307) yC2 = x2 , cui corrisponde la matrice di uscita: c= 0 0 1 , (2.308) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-117 Bode Diagram 0 −10 Magnitude (dB) −20 −30 −40 −50 −60 −70 −80 90 Phase (deg) 45 0 −45 −90 −2 −1 10 0 10 10 1 10 2 10 Frequency (rad/sec) Figura 2.41: Risposta in frequenza del circuito RLC1 . mentre le matrici A e b non vengono modificate. Procedendo come sopra per il calcolo della funzione di trasferimento si trova: c adj (sI − A)b det(sI − A) = 2(s + 2), = (s + 2)3 , (2.309) (2.310) e quindi, dopo aver operato la cancellazione polo-zero, si ottiene la seguente funzione di trasferimento: wC2 (s) = 2 . s2 + 4s + 4 (2.311) Si noti come sia ancora presente una cancellazione polo-zero, ma il sistema non abbia più uno zero nell’origine. L’assenza dello zero nell’origine porta ad una risposta al gradino non nulla a regime. Il modello dinamico del circuito elettrico può essere analizzato estesamente ricorrendo ad un semplice modello di simulazione in Matlab, utilizzando il codice riportato di seguito. R1=1; R2=2; R3=1; R4=1; R234=(R2+R3+R4); L=1/2; C1=1/4; C2=1/4; A=[-(R1*R234+R2*(R3+R4))/(R234*L), -(R3+R4)/(R234*L), -R2/(R234*L); (R3+R4)/(R234*C1), -1/(R234*C1), 1/(R234*C1); (R2)/(R234*C2), 1/(R234*C2), -1/(R234*C2)]; b=[1/L; 0; 0]; c=[R2*R4/R234, R4/R234, -R4/R234]; sys=ss(A,b,c,0); systf=tf(sys) zero(systf) pole(systf) bode(systf) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-118 0.2 0.15 0.1 0.05 0 −0.05 −0.1 −0.15 −0.2 −0.25 0 2 4 6 8 10 12 14 16 18 20 Figura 2.42: Risposte forzata, permamente e transitoria per ingresso sin(t) del circuito RLC1 . om1=1; W1=(i*om1/((i*om1+2)^2)); M1=abs(W1); phi1=angle(W1); t=0:0.1:20; s1=sin(om1*t); ys1=lsim(sys,s1,t); ys1=ys1’; yp1=M1*sin(om1*t+phi1); yt1=ys1-yp1; plot(t,ys1,t,yp1,t,yt1); om2=100; W2=((i*om2)/((i*om2+2)^2)); M2=abs(W2); phi2=angle(W2); figure(2) t2=0:0.001:0.8; s2=sin(om2*t2); ys2=lsim(sys,s2,t2); ys2=ys2’; yp2=M2*sin(om2*t2+phi2); yt2=ys2-yp2; plot(t2,ys2,t2,yp2,t2,yt2); Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-119 0.02 0.015 0.01 0.005 0 −0.005 −0.01 −0.015 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 Figura 2.43: Risposta forzata, permamente e transitoria per ingresso sin(100t) del circuito RLC1 . 2.7.2 Analisi di un ulteriore circuito elettrico a componenti passivi Si consideri il circuito elettrico illustrato in figura 2.44, il cui modello dinamico può essere ottenuto utilizzando le equazioni di Kirkoff, analogamente a quanto già visto in precedenti esempi. RG C2 R1 vin C1 C3 Figura 2.44: Circuito RLCN C . Indicate con vC1 , vC2 e vC3 le tensioni ai capi delle tre capacità, ed utilizzando analoga notazione per le altre correnti e tensioni nel circuito, si ottengono le seguenti equazioni dinamiche, costitutive dei componenti con memoria: d vC dt 1 d C2 vC2 dt d C3 vC3 dt C1 = iC1 , (2.312a) = iC2 , (2.312b) = iC3 , (2.312c) e le seguenti equazioni algebriche, costitutive delle resistenze: vRi = Ri iRi , i = 1, 2. (2.313) Le leggi di Kirchoof, per il sistema in esame, sono date da due equazioni sulle tensioni, relative a due maglie indipendenti, e da una equazione delle correnti. Le equazioni relative alle correnti in componenti in serie, ed in Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-120 particolare C2 R2 C3 , sono omesse per semplicità. Le equazioni rilevanti, posto u = vin , sono quindi: vC1 = vR1 + vC1 , = vC2 + vR2 + vC3 , (2.314a) (2.314b) i R1 = iC1 + iC2 . (2.314c) u Le variabili di stato, nel caso in esame, sono date dalle seguenti grandezze: x1 = vC1 , (2.315a) x2 x3 = = vC2 , vC3 . (2.315b) (2.315c) Le equazioni costitutive dei componenti con memoria, riscritte in termini di equazioni differenziali del primo ordine, sono quindi: x˙1 = x˙2 = x˙3 = 1 iC , C1 1 1 iC , C2 2 1 iC . C3 3 (2.316a) (2.316b) (2.316c) Per determinare il modello nello spazio di stato è quindi richiesta la conoscenza delle grandezze iC1 , iC2 ed iC3 rispetto alle variabili di stato ed al segnale di ingresso. Tali relazioni possono essere ricavate utilizzando le equazioni di equilibrio e le relazioni costitutive delle resistenze (cioè, le equazioni non ancora utilizzate). Dalle precedenti equazioni (2.314) si ricava il sistema algebrico: u x1 i R1 = R1 iR1 + x1 , (2.317a) = x2 + x3 + R2 iR2 , (2.317b) = iC1 + iC2 (2.317c) la cui soluzione, nelle variabili iC1 , iC2 ed iC3 rispetto alle variabili di stato ed ingresso, è data da (assumendo componenti di valore unitario): iC1 = iC2 iC3 = = u − 2x1 + x2 + x3 (2.318a) x1 − x2 − x3 x1 − x2 − x3 . (2.318b) (2.318c) Il modello dinamico del circuito elettrico in esame si ottiene combinando le equazioni (2.316) con le (2.318): x˙1 x˙2 x˙3 = −2x1 + x2 + x3 + u (2.319a) = x1 − x2 − x3 = x1 − x2 − x3 . (2.319b) (2.319c) Tali equazioni vanno completate con l’equazione di uscita. Se la grandezza di interesse (cioè, l’uscita), è la tensione vR2 + vC3 ai capi della serie resistenza R2 e capacità C3 , si ha: y = x1 − x2 (2.320) In forma matriciale il modello dinamico, sulla base delle (2.319) e della (2.320), è quindi: ẋ = Ax + bu, (2.321a) y cx (2.321b) = con le matrici A, b e c pari a: A = −2 1 1 1 −1 −1 , 1 −1 −1 1 b = 0 , 0 c= 1 −1 0 . (2.322a) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-121 Gli autovalori della matrice A risultano essere: λ1 = 0, λ2 = −0.58 e λ3 = −3.41, cui sono quindi associati i tre modi naturali reali: m1 (t) = m2 (t) m3 (t) = = e 0t = δ−1 (t), (2.323a) e −0.58t , e −3.41t . (2.323b) (2.323c) Il calcolo della matrice di trasferimento può essere condotto in modo dettagliato, esaminando la forma della matrice c adj (sI − A) b e la forma del polinomio det(sI − A). Si trova: c adj (sI − A) b det(sI − A) = = s(s + 1), (2.324) 2 s(s + 4s + 2) (2.325) e quindi, dopo aver operato la cancellazione polo-zero, si ottiene la seguente funzione di trasferimento: w(s) = s+1 . s2 + 4s + 2 (2.326) Da un punto di vista meramente algebrico, si noti come, in virtù della forma delle matrici b e c del sistema, sia sufficiente calcolare solo i primi due elementi della prima riga della matrice adj (sI − A) per determinare la funzione di trasferimento. Infatti, la forma della matrice b implica che la seconda e terza riga di adj (sI −A) non sono rilevanti (poiché vengono moltiplicate per zero), mentre la forma della matrice c implica la non rilevanza della terza colonna di tale matrice. Si noti come uno degli autovalori del sistema, quello nell’origine, cancellandosi con uno zero, non appare nella funzione di trasferimento. Ciò implica una “perdita di informazione” sulla struttura interna del sistema nell’uso della funzione di trasferimento come modello. Si vedrà nel seguito che tale fenomeno è legato, come nel caso del precedente esercizio, ad una carenza della proprietà strutturale di “raggiungibilità”. Approfondendo la cancellazione polo-zero, si può notare, dal calcolo dettagliato della matrice adj (sI − A) e del polinomio det(sI − A), che lo zero interessato alla cancellazione emerge dal prodotto adj (sI − A) b, e quindi tale cancellazione dipende dal modo in cui il segnale di ingresso (il cui effetto sullo stato è legata alla matrice b) interagisce con la dinamica. Ciò è del tutto analogo a quanto già visto nell’esempio riportato nella sezione precedente. Tale interazione è estremamente importante, e sarà studiata in modo particolarmente approfondito in un capitolo successivo. A titolo di esercizo, in questo caso si propone lo studio dell’intera matrice esponenziale. Lavorando nel dominio di Laplace, verrà studiata quindi l’intera matrice (sI − A)−1 : 2 s + 2s s s s s2 + 3s + 1 −s − 1 , adj (sI − A) = (2.327a) s −s − 1 s2 + 3s + 1 2 s + 2s s s 1 s s2 + 3s + 1 −s − 1 (sI − A)−1 = (2.327b) s(s2 + 4s + 2) 2 s −s − 1 s + 3s + 1 1 1 s+2 = s2 + 4s + 2 1 s2 + 4s + 2 1 2 s + 4s + 2 s2 + 4s + 2 s2 + 3s + 1 s(s2 + 4s + 2) −s − 1 2 s(s + 4s + 2) s2 + 4s + 2 −s − 1 2 s(s + 4s + 2) s2 + 3s + 1 s(s2 + 4s + 2) . (2.327c) Si noti come gli elementi relativi alla seconda e terza variabile di stato (cioè, gli elementi in posizione (2, 2), (2, 3), (3, 2) e (3, 3)) non presentino la cancellazione dell’autovalore nell’origine. Si noti che tali elementi (in base alla considerazione riportata poco sopra) non concorrono a determinare la funzione di trasferimento. È molto utile anche esaminare l’autovettore associato all’autovalore nullo, verificare la corrispondente soluzione nel dominio del tempo, ed utilizzare la forma di tale autovettore per dedurre indicazioni sul significato fisico del modo naturale costante e della sua mancata presenza nel legame ingresso/uscita. Per studiare meglio la cancellazione polo-zero (in attesa di approfondire il tema con lo studio delle proprietà strutturali) che porta alla “perdita di informazione”, per cui un autovalore non appare come polo, si può provare a studiare l’autovettore associato all’autovalore “perso”. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-122 Ricordando che la relazione tra una matrica A, un suo autovalore λ ed il corrispondente autovettore v è λv = Av, per il caso dell’autovalore nullo del modello in esame si trova: Av −2 1 = 1 −1 1 −1 1 v1 −1 v2 = 0, −1 v3 (2.328) la cui soluzione si trova facilmente essere v1 = 0, v2 = −v3 , e quindi l’autovettore cercato è: 0 v = 1 . −1 (2.329) Le condizioni iniziali che eccitano solo il modo naturale costante associato a tale autovalore sono quindi caratterizzate dal fatto che il condensatore C1 è scarico, mentre i condensatori C2 e C3 sono carichi con due tensioni uguali ed opposte. In tale situazione, la caduta di tensione ai capi della resistenza di uscita è nulla. Tale condizione iniziale, se osservata solo a partire dalla funzione di uscita, è quindi del tutto indistinguibile dalla condizione iniziale nulla. Su questo aspetto si tornerà con maggiore dettaglio in occasione dello studio della proprietà strutturale di osservabilità. Analogamente, un punto dello spazio di stato caraterizzato dalla prima componente dello stato nulla, come l’autovettore in esame, corrisponde ad un circuito equivalente del tipo in figura 2.45, da cui si evince facilmente l’ostruzione che trova il segnale di ingresso. Su questo aspetto si tornerà con maggiore dettaglio in occasione dello studio della proprietà strutturale di raggiungibilità. RG C2 R1 vin C3 Figura 2.45: Circuito RLCN C ridotto. 2.7.3 Esempio: analisi circuito RLC [RLC100] Dato il seguente circuito elettrico, con R1 = α, e tutti gli altri parametri di valore unitario, a) determinare il modello dinamico, parametricamente rispetto al reale α, e inoltre b), fissato α = 1, tracciare i diagrammi di Bode del sistema. Modello dinamico Il sistema, caratterizzato da tre componenti con memoria, può essere descritto da un modello dinamico con tre variabili di stato, ed in particolare dalla caduta di tensione ai capi del condensatore e dalla corrente lungo i due induttori: x1 = VC (2.330) x2 x3 = iL1 = iL2 . (2.331) (2.332) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-123 RG L2 C L1 vin Ro , vRo = vout R1 Figura 2.46: Schematico del circuito RLC100. Si ricava facilmente il modello differenziale: ẋ1 ẋ2 = x2 + x3 = −x1 − (1 + α)x2 − x3 + u (2.333a) (2.333b) = −x1 − x2 − 2x3 + u = x3 , ẋ3 y (2.333c) (2.333d) che in forma matriciale è descritto da: ẋ = y = 0 1 1 0 −1 −(1 + α) −1 x + 1 u, −1 −1 −2 1 0 0 1 x. (2.334a) (2.334b) Per il calcolo della funzione di trasferimento si può procedere con la formula classica: W (s) = c(sI − A)−1 b = c adj (sI − A) b . det(sI − A) (2.335) Per il numeratore si tratta di calcolare il prodotto: c adj (sI − A) b = trovando: 0 0 1 ∗ ∗ ∗ ∗ ∗ e3,2 ∗ ∗ e3,3 0 1 , 1 c adj (sI − A) b = s2 + s = s(s + 1). (2.336) (2.337) Per il denominatore si trova facilmente: det(sI − A) = s3 + 4s2 + 5s + 2 = (s + 1)2 (s + 2), (2.338) e quindi la funzione di trasferimento, operando la semplificazione numeratore/denominatore, è pari a: W (s) = s s(s + 1) = . (s + 1)2 (s + 2) (s + 1)(s + 2) (2.339) Tracciamento dei diagrammi di Bode Per il tracciamento dei diagrammi di Bode si parte dalla funzione di trasferimento, già calcolata al punto precedente, riscrivendola nella forma di costanti di tempo e guadagno: W (s) = s s 1 = . (s + 1)(s + 2) 2 (1 + s)(1 + s/2) (2.340) Si procede tracciando i diagrammi asintotici dei moduli per il termine di guadagno (pari a g = 1/2), per i termini associati ai due poli e per il termine associato allo zero nell’origine. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-124 Diagramma asintotico di Bode (moduli) 40 30 20 10 M dB 0 −10 −20 −30 −40 −50 −1 10 0 1 10 10 2 10 rad/sec Figura 2.47: Circuito RLC100: diagramma di Bode del termine di guadagno. Diagramma asintotico di Bode (moduli) 40 30 20 10 M dB 0 −10 −20 −30 −40 −50 −1 10 0 1 10 10 2 10 rad/sec Figura 2.48: Circuito RLC100: diagramma di Bode asintotico del polo p1 = −1. Il guadagno è un termine costante pari a 20 log10 (1/2) = −6dB: Il contributo del primo polo, p1 = −1, è nullo fino ad una pulsazione pari a 1 rad/s (Fig. 2.48). Il contributo del secondo polo, p2 = −2, è nullo fino ad una pulsazione pari a 2rad/s (Fig. 2.49). Infine, il contributo dello zero nell’origine è una retta con pendenza costante su tutto lo spettro e pari a 20dB/dec (figura 2.50). Sommando tutti i singoli diagrammi asintotici, si ottiene il diagramma asintotico complessivo (figura 2.51), che si trasforma facilmente nel diagramma esatto tenendo conto delle correzioni da apportare in corrispondenza dei punti di rottura associati a ciascun polo (figura 2.52). Per quanto riguarda il diagramma delle fasi, si riporta solo il diagramma corretto, ottenuto con l’utilizzo di Matlab (figura 2.53). ♦ Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-125 Diagramma asintotico di Bode (moduli) 40 30 20 10 M dB 0 −10 −20 −30 −40 −50 −1 10 0 1 10 10 2 10 rad/sec Figura 2.49: Circuito RLC100: diagramma di Bode asintotico del polo p2 = −2. Diagramma asintotico di Bode (moduli) 40 30 20 10 M dB 0 −10 −20 −30 −40 −50 −1 10 0 1 10 10 2 10 rad/sec Figura 2.50: Circuito RLC100: diagramma di Bode asintotico dello zero nell’origine z1 = 0. 2.8 Esercizi proposti Esercizio 2.14 Si dimostri, con riferimento sia alla proprietà 2.8 di trasformazione di una derivata sia alla notazione utilizzata in tale contesto e alle relative ipotesi, che: lim u(t)e −st = 0. t→∞ (2.341) Esercizio 2.15 Si dimostri, con riferimento alla proprietà 2.17, la trasformata di Laplace di una funzione sinusoidale. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-126 Diagramma asintotico di Bode (moduli) 40 30 20 10 M dB 0 −10 −20 −30 −40 −50 −1 10 0 1 10 10 2 10 rad/sec Figura 2.51: Circuito RLC100: diagramma di Bode asintotico (moduli) Diagramma asintotico e corretto di Bode (moduli) 40 30 20 10 M dB 0 −10 −20 −30 −40 −50 −1 10 0 1 10 10 2 10 rad/sec Figura 2.52: Circuito RLC100: diagramma di Bode dei moduli corretto Esercizio 2.16 Si consideri il sistema dinamico planare ẋ = 0 0 1 0 x, (2.342) Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-127 Diagramma corretto di Bode (fasi) 100 80 60 40 deg 20 0 −20 −40 −60 −80 −100 −2 10 −1 0 10 10 rad/sec 1 10 2 10 Figura 2.53: Circuito RLC100: diagramma di Bode delle fasi corretto e si conduca l’analisi modale. Esercizio 2.17 Si consideri il sistema dinamico planare 0 0 ẋ = x, 0 0 (2.343) e si conduca l’analisi modale. Esercizio 2.18 Calcolare la funzione trasformata di Laplace della funzione del tempo: x(t) = e3t (t + 1)2 (δ−1 (t − 2) − δ−1 (t − 5)), t ∈ R, dove δ−1 (·) è la funzione a gradino unitario. Esercizio 2.19 Data le seguenti matrici λ 1 0 A= 0 λ 1 0 0 λ λ 1 0 F = 0 λ 0 0 0 λ determinare, per mezzo della trasformazione di Laplace, gli esponenziali di matrice definiti da e At , t ∈ R+ e da e F t , t ∈ R+ . Discutere le due funzioni matriciali trovate. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-128 Esercizio 2.20 Data la seguente matrice λ1 A= 0 0 1 λ2 0 0 1 λ3 determinare, per mezzo della trasformazione di Laplace, la matrice e At , t ∈ R+ . Esercizio 2.21 Calcolare la trasformata di Laplace delle seguenti funzioni: Y1 (s) = Y2 (s) = Y3 (s) = Esercizio 2.22 Calcolare la trasformata di x(t) = e −2s , (s + 2)(s + 3) 2 , s2 (s + 1)(s − 1) s . (s + 6π)2 Laplace della seguente funzione: 0, t ∈ R, t < 0, 2πt sin( ) , t ∈ R, 6 ≥ t ≥ 0, 6 0, t ∈ R, t > 6, dove | · | indica la funzione valore assoluto. Si consiglia di disegnare la funzione, ed esprimerla poi come combinazione lineare di funzioni trasformabili in modo semplice. Esercizio 2.23 Per mezzo della trasformazione di Laplace, calcolare il valore numerico del seguente integrale: Z +∞ τ 4 e−3τ dτ. 0 Esercizio 2.24 Calcolare la funzione antitrasformata di Laplace della seguente funzione: X(s) = (s2 s . + 4)2 Esercizio 2.25 Calcolare la funzione antitrasformata di Laplace della seguente funzione: X(s) = s . (s2 − 4)(s2 − 9) Esercizio 2.26 Calcolare la funzione antitrasformata di Laplace della seguente funzione: X(s) = (s2 s . + 4)(s2 + 9) Esercizio 2.27 Calcolare la funzione antitrasformata di Laplace della seguente funzione: X(s) = 1 . (s2 + 1)(s2 − 1) Esercizio 2.28 Calcolare la funzione antitrasformata di Laplace della seguente funzione: X(s) = 1 . (s2 − 16)(s2 + 9) Esercizio 2.29 Calcolare la funzione trasformata di Laplace della seguente funzione: x(t) = e 2t (2t + 1)(δ−1 (t − 2) − δ−1 (t − 4)), dove δ−1 (t) è la funzione gradino unitario. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-129 Esercizio 2.30 Calcolare la funzione trasformata di Laplace della seguente funzione: x(t) = e 2t (t + 2)(δ−1 (t − 1) − δ−1 (t − 3)), dove δ−1 (t) è la funzione gradino unitario. Esercizio 2.31 Determinare la trasformata di Laplace della seguente funzione x(t) = |e 10 − e 2t |δ−1 (t), t ∈ R, dove δ−1 (·) è la funzione a gradino unitario. Esercizio 2.32 Data la seguente matrice 1 4 B= 1 1 0 0 0 4 0 0 0 0 0 0 4 4 determinare, per mezzo della trasformazione di Laplace, la matrice e Bt , t ∈ R+ . Esercizio 2.33 Si consideri il seguente sistema di due equazioni differenziali lineari e stazionarie: ẋ1 (t) = ẋ2 (t) = y(t) = −x2 (t) − et + 1, x2 (t) + et , x1 (t) + x2 (t). Si determini, per mezzo della trasformazione di Laplace, la soluzione di tale sistema (sia nelle variabili di stato che nella variabile di uscita) a partire da una condizione iniziale x(0) = (x1 (0), x2 (0))T nulla. Esercizio 2.34 Si consideri il seguente sistema di due equazioni differenziali lineari e stazionarie: ẋ1 (t) = ẋ2 (t) = y(t) = −x2 (t), x2 (t), x1 (t) + x2 (t). Si determini, per mezzo della trasformazione di Laplace, la soluzione di tale sistema (sia nelle variabili di stato che nella variabile di uscita) a partire da una condizione iniziale x1 (0) = 1, x2 (0) = 0 ed a partire da una condizioni iniziale x1 (0) = 0, x2 (0) = 1. Esercizio 2.35 Dato il sistema lineare a tempo continuo: ẋ1 ẋ2 y(t) = x2 = −p1 x1 − (p1 + 1)x2 + u(t), = 2x1 , se ne determini la funzione di trasferimento tra l’ingresso u(t) e l’uscita y(t), parametricamente rispetto al parametro p1 . Si studi poi la forma della risposta nelle variabili x1 (t) ed y(t) per ingresso forzante u(t) = u1 (t), u1 (t) = δ−1 (t) e per ingresso forzante u(t) = u2 (t), u2 (t) = sin(6πt), al variare del parametro p1 nell’insieme dei numeri reali. Esercizio 2.36 Dato il sistema lineare a tempo continuo: ẋ1 ẋ2 y(t) = x2 = −p1 x1 − (p1 + 1)x2 + u(t), = x1 + x2 , se ne determini la funzione di trasferimento tra l’ingresso u(t) e l’uscita y(t), al variare del parametro p1 nell’insieme dei reali. Capitolo 2: Analisi sistemi LSTC [P. Valigi (UniPG), V 4.2, Ed. 2015] - 2-130 Esercizio 2.37 Dato il sistema lineare a tempo continuo: ẋ1 = x2 ẋ2 = −6x1 − 5x2 + u(t), y(t) = x1 , si risolvano i seguenti problemi. 1. Determinare la funzione di trasferimento tra l’ingresso u(t) e l’uscita y(t). 2. Calcolare la risposta in uscita per i seguenti segnali di ingresso, assumendo condizioni iniziali nulle: u(t) = u(t) = sin(0.1t); sin(t); u(t) = u(t) = sin(10t); 2δ1 (t); u(t) = e 2t ; u(t) = t. 3. Valutare l’esistenza della risposta permanente del sistema. 4. Calcolare, se esiste, il vettore di condizioni iniziali x1 (0) = x1,0 , x2 (0) = x2,0 cui corrisponde una risposta completa coincidente con la risposta permanente, assumendo come segnale di ingresso un gradino unitario. Esercizio 2.38 Dato il sistema lineare a tempo continuo: ẋ1 = ẋ2 = y(t) = x2 −x1 − 2x2 + 2u(t), x1 , risolvere i seguenti problemi. 1. Determinare la funzione di trasferimento tra l’ingresso u(t) e l’uscita y(t). 2. Calcolare la risposta in uscita per i seguenti segnali di ingresso, assumendo condizioni iniziali nulle: u(t) = u(t) = sin(0.5t); sin(t); u(t) = u(t) = δ2 (t); e 4t . 3. Valutare l’esistenza della risposta permanente del sistema. 4. Calcolare, se esiste, il vettore di condizioni iniziali x1 (0) = x1,0 , x2 (0) = x2,0 cui corrisponde una risposta completa coincidente con la risposta permanente, assumendo come segnale di ingresso una rampa con pendenza unitaria. Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-131 Capitolo 3 Analisi di sistemi lineari stazionari a tempo discreto 3.1 Introduzione In questo capitolo vengono presentati strumenti per l’analisi del comportamento nel tempo di sistemi dinamici lineari, stazionari, a tempo discreto (LSTD). Dopo aver introdotto la rappresentazione esplicita e la trasformata Zeta, si affronta il tema dell’analisi modale, del comportamento ingresso-uscita e della risposta forzata. Il capitolo si conclude con lo studio della risposta permamente e con esempi ed esercizi. 3.2 Rappresentazione esplicita per sistemi LTDS La classe di sistemi a tempo discreto considerata in queste note è costituita dai sistemi lineari, stazionari, a dimensione finita e causali, rappresentabili per mezzo di equazioni alle differenze finite della seguente forma: x(k + 1) = y(k) = Ax(k) + Bu(k), Cx(k) + Du(k), x ∈ Rn , u ∈ Rm , k ∈ Z y ∈ Rp (3.1a) (3.1b) in cui A, B, C e D sono matrici ad elementi reali di dimensioni compatibili con il vettore di stato x, il vettore delle sequenze di ingresso u ed il vettore delle sequenze di uscita y. Nel seguito un sistema del tipo precedente verrà sinteticamente indicato con la notazione Σ(A, B, C, D), mentre le equazioni alle differenze finite verranno indicate anche con il termine rappresentazione implicita del sistema. Lo studio del comportamento dei sistemi dinamici a tempo discreto può essere condotto analizzando le proprietà della soluzione dell’equazione alle differenze finite corrispondente. In particolare, il comportamento del vettore di stato x(k) e del vettore di uscita y(k) può essere descritto tramite la rappresentazione esplicita, cioè tramite la soluzione dell’equazione alle differenze finite (3.1) e dell’equazione algebrica (3.1b). Nel caso generale tale rappresentazione esplicita è data, formalmente, dalle due funzioni seguenti: x(k) = x(k, k0 , x0 , u[k0 ,k] ) = x(k, k0 , x0 , u(·)) (3.2a) y(k) = y(k, k0 , x0 , u[k0 ,k] ) = y(k, k0 , x0 , u(·)). (3.2b) La funzione x(k, k0 , x0 , u[k0 ,k] ), per semplicità indicata con la notazione x(k, k0 , x0 , u(·)) è la rappresentazione esplicita nello stato, e definisce il valore dello stato all’istante k, a partire dalla condizione iniziale x0 all’istante k0 sotto l’effetto della sequenza di ingresso u(·), ristretta all’intervallo temporale [k0 , k]1 . La funzione y(k, k0 , x0 , u(·)) è la rappresentazione esplicita in uscita, a partire dalla condizione iniziale x0 all’istante k0 sotto l’effetto della sequenza di ingresso u[k0 ,k] . Nel caso dei sistemi a tempo discreto la forma della rappresentazione esplicita, cioè della soluzione dell’equazione alle differenze, può essere ricavata per semplice ragionamento induttivo. Si consideri inizialmente il caso di un 1 La notazione s[k1 ,k2 ] indica la porzione di seguenza s relativa all’intervallo [k1 , k2 ]. Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-132 sistema omogeneo, cioè senza segnale di ingresso, caratterizzato dalla condizione iniziale x(0) = x0 . In tal caso, limitatamente alla dinamica dello stato ed assumendo nullo l’istante iniziale, il sistema è descritto dall’equazione: x(k + 1) = Ax(k), (3.3) da cui, per induzione: x(1) x(2) = Ax(0) = Ax(1) = A2 x0 (3.4a) (3.4b) x(3) = Ax(2) = A3 x0 .. . = Ax(k − 1) = Ak x0 . (3.4c) x(k) (3.4d) La soluzione nelle variabili di stato del sistema dinamico omogeneo (3.3), ovvero la risposta libera nello stato, a partire dalla condizione iniziale x0 all’instante iniziale k0 = 0, assume quindi la forma: x(k, 0, x0 , 0) = Ak x0 . (3.5) La matrice Ak verrà detta nel seguito matrice esponenziale a tempo discreto, brevemente matrice esponenziale discreta. È detta anche matrice di transizione dello stato a tempo discreto. Nel caso generale di sistema forzato, descritto quindi dalla rappresentazione implicita: x(k + 1) = Ax(k) + Bu(k) (3.6) procedendo ancora per induzione si trova: x(1) = Ax0 + Bu(0) x(2) = = Ax(1) + Bu(1) A2 x0 + ABu(0) + Bu(1) = A2 x0 + 1 X (3.7a) A2−1−i Bu(i) (3.7b) i=0 x(3) = = = Ax(2) + Bu(2) A3 x0 + A2 Bu(0) + ABu(1) + Bu(2) 2 X A3−1−i Bu(i) A3 x0 + (3.7c) i=0 x(k) .. . = = = Ax(k − 1) + Bu(k − 1) Ak x0 + Ak−1 Bu(0) + · · · + ABu(k − 2) + Bu(k − 1) Ak x0 + k−1 X Ak−1−i Bu(i), (3.7d) i=0 e quindi la soluzione del sistema dinamico (3.6) nello stato, ovvero la risposta completa nello stato, a partire dalla condizione iniziale x0 all’instante iniziale k0 = 0, sotto l’azione della sequenza di ingresso u(·), assume la forma: k−1 X k Ak−1−i Bu(i). (3.8) x(k, 0, x0 , u(·)) = A x0 + i=0 Pk−1 k−1−i La sommatoria Bu(i) nell’equazione (3.8) è l’equivalente a tempo discreto dell’integrale di i=0 A convoluzione, ed è chiamata convoluzione discreta. Capitolo 3: Analisi sistemi LTDS 3.2.1 [Ed. 2015, V 4.0 - PV - UniPG] - 3-133 Risposta libera e risposta forzata Si noti che la risposta completa nello stato è lineare sia rispetto alla condizione iniziale, sia rispetto alla sequenza di ingresso. In virtù di questa linearità per la risposta completa vale il ben noto principio di sovrapposizione degli effetti: la risposta completa alla condizione iniziale x0 ed alla sequenza di ingresso u(·) può essere scomposta nel contributo della risposta libera xℓ )(·) e della risposta forzata xf (·): x(k) x(k) = = xf (k) + xℓ (k), (3.9a) x(k, 0, x0 , u(·)) = Ak x0 + k X Ak−1−i Bu(i) (3.9b) i=0 xf (k) = xℓ (k) = x(k, 0, 0, u(·)) = x(k, 0, x0 , 0) = k X Ak−1−i Bu(i) i=0 Ak x0 . (3.9c) (3.9d) Si noti come la risposta libera nello stato xℓ (·) descrive solo l’effetto della condizione iniziale del sistema, in assenza di ingresso, mentre la risposta forzata nello stato xf (·) descrive solo l’effetto della sequenza di ingresso, a partire da condizioni iniziali nulle. Le considerazione relative all’evoluzione dello stato possono essere estese facilmente al caso dell’uscita, tenendo conto del fatto che il legame uscita-stato è statico: y(k) = Cx(k) + Du(k). (3.10) La risposta completa in uscita è data quindi da: y(k) = y(k, 0, x0 , u(·)) = CAk x0 + k−1 X CAk−1−i Bu(i) + Du(k), (3.11) i=0 ed analogamente per la risposta libera in uscita yℓ (·) e la risposta forzata in uscita yf (·): yℓ (k) yf (k) = y(k, 0, x0 , 0) = CAk x0 = y(k, 0, 0, u(·)) = k−1 X i=0 CAk−1−i Bu(i) + Du(k). (3.12a) (3.12b) Capitolo 3: Analisi sistemi LTDS 3.3 [Ed. 2015, V 4.0 - PV - UniPG] - 3-134 La trasformata Z Lo studio dei sistemi lineari stazionari a tempo discreto, ed in particolare lo studio dei legami ingresso-uscita di tali sistemi, è di solito condotto facendo uso delle strumento formale-simbolico della trasformata Z. In queste note la trasformata Z viene presentata in modo estremamente sintetico ed operativo. Per tutti gli aspetti formali e di esistenza della trasformata si rimanda a testi specifici. Si consideri una sequenza f : Z+ → C, {f (k) = fk , k = 0, 1, 2, . . .}. La trasformata Z è un operatore dallo spazio di tali sequenze allo spazio di funzioni di variabile complessa, ed associa ad ogni sequenza f (·) una funzione, indicata (impropriamente) con F (z) = Z[f (k)], e definita dalla serie: F (z) := ∞ X f (k)z −k , (3.13) k=0 ammesso che tale serie converga. Tenendo conto del fatto che F (z) è definita a partire da una serie in z −1 , la convergenza sarà ottenuta all’esterno di un cerchio centrato nel’origine del piano complesso e di raggio R sufficientemente grande. Il valore di tale raggio è detto raggio di convergenza della trasformata U (z), e dipende dalla specifica sequenza considerata. La regione del piano complesso esterna al cerchio di raggio R centrato nell’origine è detta regione di convergenza o dominio di convergenza. Ad esempio, si consideri la funzione (a tempo discreto) impulso unitario, definito da: 1 k=0 δ(k) = (3.14) 0 k 6= 0 La trasformata Z di u(k) = δ(k) è data da: U (z) = Z[u(k)] = 1, (3.15) infatti, dalla definizione, segue immediatamente: U (z) = u(0) + u(1)z −1 + u(2)z −2 + · · · = u(0) = 1. (3.16) Da quanto precede, segue facilmente che il raggio di convergenza è R = 0. Nota la trasformata Z di una sequenza, sia essa X(z), la sua rappresentazione nel dominio del tempo può essere ottenuta tramite la anti-trasformata Z, o trasformata inversa, definita dal seguente integrale di inversione: Z 1 x(k) = Z −1 [X(z)] = z k−1 X(z)dz, ∀k ∈ Z+ , (3.17) 2π Γ dove l’integrale di linea è calcolato lungo una circonferenza Γ interna alla regione di convergenza e con centro nell’origine del piano z. L’uso della trasformata Z, analogamente a quanto visto per la trasformata di Laplace, è reso particolarmente agevole da alcune proprietà fondamentali, che consentono di ricavare la trasformata della maggior parte dei segnali di interesse a partire da quella di pochi segnali notevoli (si veda le seguente tabella 3.1). 3.3.1 Proprietà della trasformata Zeta Le seguenti proprietà della trasformata Zeta sono di fondamentale importanza. Proprietà 3.1 (Proprietà di unicità) Data una funzione olomorfa U (z), definita nella regione di piano complesso esterna ad un cerchio di raggio ρ, esiste ed è unica una funzione x(k), k ∈ Z+ , che soddisfa la condizione: U (z) = Z[x(k)], (3.18) e che può essere calcolata per mezzo dell’integrale (3.17), con Γ cerchio di raggio maggiore di ρ. Proprietà 3.2 (Linearità) Siano u(k) e y(k), k ∈ Z+ , due sequenze temporali, con trasformata Zeta U (z) ed Y (z), rispettivamente. Allora, vale la seguente proprietà di linearità: Z[c1 u(k) + c2 y(k)] = c1 U (z) + c2 Y (z), ∀c1 , c2 ∈ R. (3.19) ⊓ ⊔ Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-135 Analogamente a quanto già visto nel caso dei sistemi a tempo continuo, le due proprietà di unicità e linearità sono di fondamentale importanza concettuale, e senza di loro la trasformata Zeta non sarebbe di alcun interesse pratico. Le sequenti proprietà hanno invece un significato operativo: descrivono le situazioni specifiche nelle quali la trasformata riveste interesse e le corrispondenti forme di impiego. Proprietà 3.3 (Ritardo (Scorrimento a destra)) Siano u(k) ed U (z) una sequenza temporale e la sua trasformata. Allora, dato un intero h > 0, la funzione traslata nel tempo u(k − h) ha trasformata: Z[u(k − h)] = z −h U (z). (3.20) Dimostrazione. Z[u(k − h)] = ∞ X k=0 u(k − h)z −t = ∞ X u(k)z −(k+h) =z −h k=−h ∞ X u(k)z −k =z k=−h −h ∞ X u(k)z −k = z −h U (z). k=0 ⊓ ⊔ Proprietà 3.4 (Anticipo (Scorrimento a sinistra)) Siano u(k) ed U (z) una sequenza temporale e la sua trasformata. Allora, dato un intero h > 0, la funzione traslata nel tempo a sinistra (anticipata) u(k + h) ha trasformata: # " h−1 X −t h . (3.21) u(k)z Z[u(k + h)] = z U (z) − k=0 Nel caso particolarmente importante in cui lo scorrimento è di un solo passo, si ha: Z[x(k + 1)] = zU (z) − zu(0). (3.22) Dimostrazione. La trasformata di interesse è data da: Z [x(k + h)] = ∞ X x(k + h)z −t = t=0 = zh ∞ X k=h ∞ X x(k)z −(k−h) = z h k=h x(k)z −k ± z h ∞ X x(k)z −k k=h h−1 X x(k)z −k = z h k=0 ∞ X k=0 x(k)z −k − z h h−1 X k=0 x(k)z −k = z h X(z) − z h h−1 X x(k)z −k k=0 ⊓ ⊔ Proprietà 3.5 (Traslazione nel dominio di z (traslazione complessa)) Siano u(k), k ∈ Z+ , ed U (z) un segnale del tempo e la sua trasformata. Allora, la funzione ak u(k) ha trasformata pari a: z Z[ak u(k)] = U ( ). a (3.23) ⊓ ⊔ Proprietà 3.6 (Convoluzione) Siano u(k) ed y(k) due sequenze del tempo, k ∈ Z+ , U (z) ed Y (z) le loro trasformate. Allora, la convoluzione delle due sequenze, definita da: u(k) ∗ y(k) := k X τ =0 u(k − τ )y(τ ) = k X τ =0 u(τ )y(k − τ ) (3.24) ha trasformata pari a: Z [u(k) ∗ y(k)] = U (z)Y (z). (3.25) ⊓ ⊔ Proprietà 3.7 (Differenziazione rispetto a z) Siano u(k), k ∈ Z, ed U (z) un segnale del tempo e la sua trasformata. Allora, la funzione ku(k) ha trasformata Zeta pari a: Z [ku(k)] = −z d U (z). dz (3.26) ⊓ ⊔ Capitolo 3: Analisi sistemi LTDS 3.3.2 [Ed. 2015, V 4.0 - PV - UniPG] - 3-136 Trasformata Zeta di segnali notevoli Si danno ora le trasformate di alcuni segnali elementari, di interesse nello studio di sistemi dinamici. Proprietà 3.8 (Gradino unitario) Sia δ−1 (k), k ∈ Z la funzione gradino unitario: 0 ∈ Z, < 0 δ−1 (k) = , 1 k ∈ Z, k ≥ 0 la sua trasformata Zeta è data da: Z[δ−1 (k)] = z . (z − 1) (3.27) (3.28) Dimostrazione In questo caso la serie formale che definisce la trasformata Zeta diviene: ∞ X u(k)z −k = k=0 ∞ X z −k , (3.29) k=0 e tale serie converge, per tutti i valori z con |z| > 1, ed ha come somma: z 1 = . −1 1−z z−1 Proprietà 3.9 (Rampa unitaria) Sia δ−2 (k) una rampa con pendenza unitaria: 0 k ∈ Z, k < 0 δ−2 (k) = , k k ∈ Z, k ≥ 0 la sua trasformata Zeta è data da: Z [δ−2 (k)] = z . (z − 1)2 (3.30) ⊓ ⊔ (3.31) (3.32) Dimostrazione Si ottiene facilmente a partire dalla trasformata di un gradino, applicando la proprietà (3.7) di differenziazione rispetto a z. ⊓ ⊔ Proprietà 3.10 (Segnale esponenziale) Sia u(k) un segnale esponenziale (a tempo discreto) con costante a: 0 k ∈ Z, k < 0 u(k) = , (3.33) ak k ∈ Z, k ≥ 0 la sua trasformata Zeta è data da: Z[ak δ−1 (k)] = z . z−a (3.34) Dimostrazione Il risultato si può dimostrare a partire dalla trasformata di un gradino, tenendo conto della proprietà 3.5 di traslazione nel dominio di z. ⊓ ⊔ Proprietà 3.11 (Segnale esponenziale-rampa) Sia u(k) il prodotto di un esponenziale per una rampa: 0 k ∈ Z, k < 0 , (3.35) u(k) = kak k ∈ Z, k ≥ 0 la sua trasformata Zeta è data da: Z[kak ] = az . (z − a)2 (3.36) Dimostrazione Si ottiene facilmente a partire dalla trasformata di un gradino, applicando la proprietà (3.7) di differenziazione rispetto a z. ⊓ ⊔ A scopo esemplificativo, la tabella 3.1 raccoglie le trasformate dirette ed inverse di alcune funzioni di uso comune. Di norma, tali trasformate si ottengono facilmente a partire da quelle riportate sopra, tramite le proprietà descritte in precedenza. Capitolo 3: Analisi sistemi LTDS 3.3.3 [Ed. 2015, V 4.0 - PV - UniPG] - 3-137 Alcuni teoremi Nello studio dei sistemi dinamici sono utili alcuni teoremi sui legami tra i valori limite di un segnale del tempo e della corrispondente trasformata Zeta. Teorema 3.1 (Valore finale) Sia u(k), k ∈ Z+ , una funzione del tempo, con trasformata U (z). Allora, il limite per k che tende ad infinito di tale funzione, se esiste ed è finito, è dato da: lim u(k) = lim k→∞ z→1+ z−1 U (z). z (3.37) Si noti che il teorema è applicabile solo se il raggio di convergenza è minore di uno, cioè solo se il cerchio unitario è tutto interno alla regione di convergenza. Teorema 3.2 (Valore iniziale) Sia u(k), k ∈ Z+ , una funzione del tempo, con trasformata U (z). Allora il valore iniziale della sequenza, u(0), è dato da: u(0) = lim U (z). |z|→∞ (3.38) (3.39) 3.3.4 Esponenziale di matrice e matrice di trasferimento per sistemi LSTD Si consideri il sistema dinamico: x(k + 1) = Ax(k), x(0) = x0 , k ∈ Z+ (3.40) È noto che la soluzione di tale equazione omogenea alle differenze finite, cioè la risposta nello stato del sistema alla data condizione iniziale, la risposta libera nello stato, è descritta dall’esponenziale di matrice (a tempo discreto): x(k) = Ak x0 , k ∈ Z+ . (3.41) Per il calcolo di tale esponenziale di matrice si può far uso della trasformata Zeta. Infatti, per la proprietà della trasformata di una funzione traslata nel tempo, il sistema precedente, nel dominio della variabile z, può essere scritto come: zX(z) − zx0 = AX(z), (3.42) da cui segue facilmente: (zI − A)X(z) = zx0 . (3.43) Nel campo razionale (e non, si badi bene, nel campo dei reali o dei complessi), la matrice (zI − A) è non singolare, infatti il suo determinante è il polinomio caratteristico del sistema, per cui l’equazione precedente può essere risolta rispetto alla trasformata dello stato, trovando: X(z) = z(zI − A)−1 x0 , (3.44) x(k) = Z −1 z(zI − A)−1 x0 , (3.45) Ak = Z −1 z(zI − A)−1 . (3.46) da cui, antitrasformando, segue: e quindi, dal confronto con (3.41), segue: Per quanto riguarda invece l’analisi di un sistema lineare a tempo discreto, il metodo della trasformata Zeta consente di determinare in modo semplice il legame ingresso-uscita, e cioè la matrice di trasferimento, di tale sistema. Si consideri allora il sistema: x(k + 1) = Ax(k) + Bu(k), y(k) = Cx(k) + Du(k), x ∈ Rn , u ∈ Rm , k ∈ Z+ y ∈ Rp . (3.47) (3.48) Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-138 Nel dominio della variabile z il sistema è quindi descritto da: zX(z) − zx0 = Y (z) = AX(z) + BU (z) CX(z) + DU (z), (3.49) (3.50) e quindi, tenendo conto della non-singolarità della matrice (zI − A) nel campo delle funzioni razionali, si trova: X(z) = Y (z) = (zI − A)−1 BU (z) + z(zI − A)−1 x0 , −1 C(zI − A) (3.51a) −1 BU (z) + DU (z) + zC(zI − A) x0 . (3.51b) Le due equazioni (3.51) descrivono completamente il sistema. La (3.51a) descrive l’effetto delle condizioni iniziali e dell’ingresso sullo stato, mentre la seconda descrive il legame tra le stesse grandezze e la funzione di uscita. I termini delle (3.51) che descrivono l’effetto delle condizioni iniziali sullo stato e sull’uscita sono dette risposte libere, nello stato e nell’uscita, rispettivamente: Xℓ (z) = z(zI − A)−1 x0 , Yℓ (z) = zC(zI − A)−1 x0 (3.52) (3.53) mentre i termini che descrivono l’effetto del segnale (vettoriale) di ingresso sullo stato e sull’uscita sono dette risposte forzate, nello stato e nell’uscita, rispettivamente: Xf (z) = (zI − A)−1 BU (z), Yf (z) = C(zI − A)−1 BU (z) + DU (z). (3.54) (3.55) Infine, la matrice di funzioni razionali W (z) = C(zI − A)−1 B + D, (3.56) che descrive completamente il legame tra il segnale di ingresso e quello di uscita (nel caso di condizioni iniziali nulle), è detta matrice di trasferimento del sistema. Nel caso in cui sia il segnale di ingresso che quello di uscita siano scalari, e cioè nel caso m = 1 e p = 1, si parla di funzione di trasferimento. 3.3.5 Antitrasformata di funzioni razionali proprie Il legame ingresso-uscita di un sistema lineare stazionario a tempo discreto è rappresentabile con una matrice di funzioni razionali proprie nella variabile z. Tenendo conto della forma della trasformata di segnali esponenziali e polinomiali, anche l’uscita di un sistema lineare, in risposta a segnali di questo tipo, è descritta, nel dominio di z, da una funzione razionale. È quindi di notevole importanza vedere come calcolare la trasformata inversa di una data funzione razionale Y (z). Si procede esattamente come nel caso dei sistemi a tempo continuo, salvo 1 l’opportunità di lavorare con la funzione Y (z) := Y (z). Si noti che la funzione Y (z) è propria, o strettamente z propria, e quindi la funzione Y (z) è sempre strettamente propria. Si consideri allora la seguente funzione Y (z), propria e con denominatore monico: Y (z) = βn z n + βn−1 z n−1 + · · · + β1 z + β0 , z n + αn−1 z n−1 + · · · + α1 z + α0 (3.57) e si assuma, per semplicità, che le radici del denominatore siano tutte distinte (e complesse coniugate a coppia, se non reali), e non sia presente un polo nell’origine (perchè introdotto artificialmente nel seguito), cioè: z n + αn−1 z n−1 + · · · + α1 z + α0 = n Y (z − pi ), i=1 pi 6= pj , i 6= j, pi 6= 0. (3.58) 1 Per ben noti risultati sulle funzioni razionali, la funzione Y (z) = Y (z), che è sempre strettamente propria, z può essere scomposta in frazioni parziali: Y (z) = A0 A2 An A1 + + ··· + , + z z − p1 z − p2 z − pn (3.59) Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-139 (z − pi ) Y (z). z A partire dalla scomposizione in frazioni parziali (3.59), la funzione originale Y (z) può essere riscritta come: con A0 = limz→0 zY (z) = limz→0 Y (z) ed inoltre Ai = limz→pi (z − pi )Y (z) = limz→pi Y (z) = A0 + A1 z z z + A2 + · · · + An , z − p1 z − p2 z − pn (3.60) e quindi, tenendo conto della proprietà 3.2 di linearità e delle trasformate di segnali notevoli, si vede immediatamente che il segnale y(k) è dato da: y(k) = A0 δ(k) + A1 pk1 + A2 pk2 + · · · + An pkn . (3.61) Nel caso in cui alcuni poli del sistema abbiano molteplicità maggiore di uno, il procedimento è analogo, salvo la forma della espansione in frazioni parziali. In questo caso, possono essere presenti un numero qualsiasi di poli nell’origine. Sia allora Y (z) una generica funzione razionale propria, Y (z) = βn z n + βn−1 z n−1 + · · · + β1 z + β0 . z n + αn−1 z n−1 + · · · + α1 z + α0 (3.62) 1 e si consideri la funzione Y (z) = Y (z), che è strettamente propria. Tale funzione può essere espansa in frazioni z parziali nella forma: qi r X X Ai,j Y (z) = , (3.63) (z − pi )j i=1 j=1 dove r indica il numero di poli distinti della Y (z), compreso il polo nell’origine, sicuramente presente, qi indica la molteplicità del polo pi , ed il generico residuo Ai,j è calcolato come: 1 1 dqi −j dqi −j (z − pi )qi qi = lim Ai,j = lim W (z) (z − p ) W (z) . (3.64) i z→pi z→pi (qi − j)! dz qi −j (qi − j)! dz qi −j z In tal caso, tenendo conto delle varie proprietà della trasformata Zeta, ed assumendo che p1 indica il polo nell’origine (p1 = 0), si ha: y(k) = Z −1 [Y (z)] = q1 X j=1 A1,j δ(k − j) + qi r X X i=2 j=1 Ai,j k j pi k−j . (3.65) Un modo alternativo per tenere conto di possibili poli nell’origine nella funzione razionale da trattare consiste nel notare che un fattore z ν a denominatore corrisponde ad un ritardo di ν passi della corrispondente funzione del tempo. Si possono quindi trascurare tali poli nulli, calcolare la trasformata inversa della funzione Ŷ (z) = z ν Y (z), e poi traslare a destra (ritardare) di ν passi il segnale cosı̀ ottenuto. Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-140 Funzione del tempo (sequenza) Trasformata Zeta δ(k) (impulso unitario) 1 δ−1 (k) (gradino unitario) z (z − 1) kδ−1 (k) (rampa unitaria) z (z − 1)2 δ−1 (k − a) (gradino unitario con inizio in k = a) z −a ak (potenza) z z−a kak (potenza-polinomio) az (z − a)2 sin(kωT ) (sinusoide) z sin(ωT ) z 2 − 2z cos(ωT ) + 1 cos(kωT ) (cosinusoide) z[z − cos(ωT )] z 2 − 2z cos(ωT ) + 1 a k−h k h (esponenziale-fattore binomio) z (z − 1) z (z − a)h+1 u(k − h) z −h U (z) u(k + h) z h U (z) − z h ak u(k) U ( az ) u(k) ∗ y(k) U (z)Y (z) ku(k) −z Ph−1 t=0 u(k)z −k d U (z) dz Tabella 3.1: Trasformate ed antitrasformate Zeta di uso comune Capitolo 3: Analisi sistemi LTDS 3.3.6 [Ed. 2015, V 4.0 - PV - UniPG] - 3-141 Esercizi risolti Esercizio 3.1 Calcolare la trasformate z delle due funzioni seguenti: k+1 k (δ−1 (k − 2) − δ−1 (k − 5)), k ∈ Z x(k) = 3 2 k+2 (δ−1 (k − 1) − δ−1 (k − 3)), k ∈ Z, x(k) = 2k 3 k+h dove , con h e k positivi, k < t + h, è definito nel modo seguente: k 0, k ∈ Z, k < k − h, k+h (k + h)! = k , k ∈ Z, k ≥ k − h. (k + h − k)!k! ed inoltre δ−1 (·) è la funzione gradino unitario. Soluzione Per risolvere l’esercizio conviene scrivere le funzioni di interesse come somma di segnali con trasformata nota, eventualmente traslati nel tempo. In questo caso la presenza dei due gradini unitari traslati suggerisce di costruire opportune funzioni del tempo traslate allo stesso modo. Nel seguito si risolvere l’esercizio solo relativamente alla prima funzione, lasciando la seconda al “lettore”. Conviene cominciare scrivendo in modo esplicito il termine binomio: (k + 1)k(k − 1)! (k + 1)! k+1 = , k ≥ 1, = 2 (k − 1)! 2! (k − 1)! 2! (k + 1)t = . 2 La funzione di interesse può quindi essere riscritta, per la parte relativa a k ≥ 1, come: x(k) x2 (k) x5 (k) (k + 1)k (δ−1 (k − 2) − δ−1 (k − 5)) = x2 (k) − x5 (k), 2 (k + 1)k := 3k δ−1 (k − 2), 2 (k + 1)k δ−1 (k − 5). := 3k 2 = 3k Si scriva ora la funzione x2 (k) sotto forma di funzione del tempo traslata di due passi: x2 (k) [(k − 2) + 3][(k − 2) + 2] (k + 1)k δ−1 (k − 2) = 32 3(k−2) δ−1 (k − 2) 2 2 2 [(k − 2) + 5(k − 2) + 6] δ−1 (k − 2) = 32 3(k−2) 2 32 (k−2) = 3 [(k − 2)2 + 5(k − 2) + 6]δ−1 (k − 2) 2 = 3k e quindi tale funzione è interpretabile come combinazione lineare delle funzioni k 2 3k , k3k e 3k , traslate di due passi. Si devono quindi determinare le seguenti trasformate: Z k 2 3k = Z 3k = Z k3k = 3z(z + 3) , (z − 3)3 3z , (z − 3)2 z . (z − 3) La trasformata del termine k 2 3k si può ottenere dalla proprietà di differenziazione rispetto a z: 3z(z + 3) 3z d d = . Z k 2 3k = −z Z k3k = −z dz dz (z − 3)2 (z − 3)3 Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-142 Sulla base delle identità precedenti, la trasformata della funzione x2 (k), tenendo conto del ritardo di due passi che la caratterizza, è pari a: 32 −2 3z(z + 3) 3z z −2 −2 z , X2 (z) = + 5z + 6z 2 (z − 3)3 (z − 3)2 (z − 3) 32 3(z + 3) 15 6 = . + + 2 z(z − 3)3 z(z − 3)2 z(z − 3) Per determinare la trasformata della funzione x5 (k) si procede in modo analogo. Si scriva la funzione x5 (k) sotto forma di funzione del tempo traslata di cinque passi: x5 (k) = 3k = [(k − 5) + 6][(k − 5) + 5] (k + 1)k δ−1 (k − 5) = 35 3(k−5) δ−1 (k − 5) 2 2 35 (k−5) 3 [(k − 5)2 + 11(k − 5) + 30]δ−1 (k − 5) 2 e quindi anche questa funzione è interpretabile come combinazione lineare delle funzioni k 2 3k , k3k e 3k , traslate di cinque passi. Sulla base delle trasformate calcolate in precedenza, la funzione X5 (z) è pari a: 35 −5 3z(z + 3) 3z z −5 −5 X5 (z) = z , + 11z + 30z 2 (z − 3)3 (z − 3)2 (z − 3) 3(z + 3) 33 30 35 . + + = 2 z −4 (z − 3)3 z −4 (z − 3)2 z −4 (z − 3) Infine, la trasformata della funzione x(k) è data da: X(z) = = X2 (z) + X5 (z) 32 3(z + 3) 15 6 + + + 2 z(z − 3)3 z(z − 3)2 z(z − 3) 35 3(z + 3) 33 30 . + −4 + −4 2 z −4 (z − 3)3 z (z − 3)2 z (z − 3) ♦ Esercizio 3.2 Date le matrici: 2 1 A= 0 2 0 0 0 1 , 2 λ 1 B= 0 λ 0 0 0 1 , λ λ F = 0 0 1 0 λ 0 , 0 λ calcolare gli esponenziali di matrice (a tempo discreto) Ak , k ∈ Z+ , B k , k ∈ Z+ e F k , k ∈ Z+ , per mezzo della trasformata z. Commentare il risultato, in termini di presenza di termini polinomiale-esponenziale nel risultato. Soluzione Si tratta di determinare l’esponenziale (a tempo discreto) relativa alla matrice: 2 1 0 A = 0 2 1 . 0 0 2 utilizzando la relazione Ak = Z −1 [z(zI − A)−1 ]. Punto di partenza è quindi il calcolo della matrice (zI − A)−1 , data da: z − 2 −1 0 adj (zI − A) , (zI − A) = 0 z − 2 −1 . (zI − A)−1 = det(zI − A) 0 0 z−2 Per quanto riguarda il determinante, si trova facilmente: det(zI − A) = (z − 2)3 , Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-143 mentre per l’aggiunta: complementi algebrici = aggiunta = (z − 2)2 (z − 2) 1 2 (z − 2) 0 0 (z − 2) (z − 2)2 0 e quindi la trasformata zeta dell’esponenziale di matrice è pari a: z z (z − 2) (z − 2)2 z −1 0 z(zI − A) = (z − 2) 0 0 Ricordando che Z a matrice: (k−h) k h = 0 , 0 (z − 2)2 1 (z − 2) , (z − 2)2 0 (z − 2)2 (z − 2) z (z − 2)3 z (z − 2)2 z (z − 2) . z si trova facilmente, per la trasformata dei vari elementi della (z − a)h+1 z Z −1 z−2 z Z −1 (z − 2)2 z Z −1 (z − 2)3 = (2)k , = (2)(k−1) = (2)(k−2) k 1 k 2 , . Complessivamente quindi l’esponenziale di matrice a tempo discreto cercata è data da: k k (2)k (2)(k−1) (2)(k−2) 1 2 k . k A = k (k−1) 0 (2) (2) 1 k 0 0 (2) La soluzione relativamente alle matrici B ed F è lasciata per ulteriore esercizio, che non presenta difficoltà, alla luce di quanto già risolto. ♦ Esercizio 3.3 Dato il sistema dinamico a tempo discreto descritto dalle seguenti equazioni alle differenze finite: x1 (k + 1) = x2 (k + 1) = y(k) = x2 (k), 1 x1 (k) + u(k), 4 x1 (k), si determini: 1. la sua funzione di trasferimento; 2. l’esponenziale di matrice soluzione dell’equazione alle differenze; 3. la risposta libera nello stato e in uscita alle condizioni iniziali x1 (0) = 1, x2 (0) = 1; 4. la risposta forzata in uscita per un segnale di ingresso u(k) = 2δ−1 (k); 5. le condizioni iniziali a partire dalle quali la risposta completa nell’uscita per un ingresso a gradino unitario è costante per ogni istante di tempo (cioè, le condizioni iniziali per le quali la risposta completa al gradino coincide con la corrispondente risposta permanente). Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-144 Soluzione Ci si limita a risolvere esplicitamente solo il punto 5, relativo alla determinazione di opportune condizioni iniziali. Per ottenere questo risultato tuttavia sarà necessario risolvere, di fatto, anche alcuni degli altri punti. La risposta completa in uscita del sistema in esame, riscritto nella forma: x(k + 1) = Ax(k) + bu(k), y(k) = cx(k), con A= 0 1 1/4 0 , b= 0 1 , c= ha una trasformata zeta pari a: 1 0 , (3.66) Y (z) = c(zI − A)−1 bU (z) + zc(zI − A)−1 x0 , dove x0 = (x1,0 , x2,0 )T indica la generica condizione iniziale. Si vede facilmente che il determinante ∆ e l’inversa della matrice (zI − F )−1 sono pari a: 1 1 z 1 −1 2 . ∆ = z − , (zI − A) = 4 ∆ 14 z La funzione di trasferimento del sistema in esame è data da: −1 W (z) = c(zI − A) 1 1 b= ∆ 0 z 1 4 1 z 0 1 1 = z2 − 1 4 (si noti che il sistema di interesse è in forma canonica di controllore, e quindi la sua funzione di trasferimento si può calcolare in modo immediato senza passare per il prodotto c(zI − A)−1 b). z , la funzione Y (z) vale: Considerando un gradino in ingresso, con trasformata pari a z−1 Y (z) = z z 2 x1,0 + zx2,0 + . 1 (z − 1)(z 2 − 4 ) (z 2 − 41 ) Espandendo in frazioni parziali si trova: Y (z) = A z z z +B +C (z − 1) (z − 21 ) (z + 12 ) con i parametri A, B e C dati da: A = B = C = 4 z−1 1 Y (z)|z=1 = 2 1 |z=1 = , z 3 (z − 4 ) z − 21 1 1 + (z − 1)(zx1,0 + x2,0 ) |z=1/2 = −2 + x1,0 + x2,0 , Y (z)|z= 21 = 1 z 2 (z − 1)(z + 2 ) z + 21 1 + (z − 1)(zx1,0 + x2,0 ) 2 1 Y (z)|z=− 21 = |z=−1/2 = + x1,0 − x2,0 . 1 z 3 2 (z − 1)(z − 2 ) Ne segue quindi che la risposta completa, nel dominio del tempo, è data da: k k −1 1 y(k) = Aδ−1 (k) + B +C , k ≥ 0, 2 2 e quindi si ottiene una risposta costante per tutti gli istanti, cioè si ottiene fin dall’istante iniziale la risposta permanente, se le costanti B e C sono nulle, cioè se valgono le: 1 −2 + x1,0 + x2,0 2 2 1 + x1,0 − x2,0 3 2 = 0, = 0, Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-145 la cui soluzione è data da: 4 4 , x2,0 = . 3 3 Con queste condizioni iniziali la risposta completa del sistema nella funzione di uscita è quindi: x1,0 = y(k) = cioè: 4 δ−1 (k), 3 k ≥ 0, 4 4 4 4 (y(0), y(1), y(2), y(3), . . .) = ( , , , , . . .). 3 3 3 3 ♦ Esercizio 3.4 Trovare la soluzione, a partire della condizioni iniziali X(0) = 1, x(1) = e (e numero di Nepero), della seguente equazione non lineare alle differenze finite: x(n + 2) = x(n + 1)3 x(n)4 , n ∈ Z+ , utilizzando il metodo della trasformata z. Soluzione Per trovare la soluzione dell’equazione alle differenze finite x(n + 2) = x(n + 1)3 x(n)4 , n ∈ Z+ , conviene innanzitutto rimuove, attraverso un opportuno cambio di coordinate, i termini non lineari (qualora possibile). In questo caso, notando che i termini non lineari sono prodotto di potenze, si può provare applicando la funzione logaritmo ai due lati dell’equazione. Si trova: ln (x(n + 2)) = 3 ln (x(n + 1)) + 4 ln (x(n)) , da cui, operando il cambio di variabili y(n) = ln(x(n)), si trova: y(n + 2) = 3y(n + 1) + 4y(n). Insomma, il sistema “appariva” non lineare perchè descritto in un sistema di coordinate “non idoneo”. Si noti che, date le condizioni iniziali, la sequenza x(·) assume sempre valori positivi (e reali), e quindi la trasformazione proposta è biunivoca. Utilizzando la proprietà di anticipo nel tempo, l’equazione alle differenze finite di interesse può essere riscritta come: z 2 Y (z) − z 2 (y(0) + z −1 y(1)) = 3(zY (z) − zy(0)) + 4Y (z), da cui: Y (z) z 2 − 3z − 4 = (z 2 − 3z)y(0) + zy(1), e quindi: Y (z) = z 2 − 3z z y(0) + 2 y(1). − 3z − 4) (z − 3z − 4) (z 2 La trasformata inversa della Y (z) determinata sopra, per le condizioni iniziali date, risolve il problema nella variabile trasformata. Si tratta poi di utilizzare la funzione esponenziale per trovare la soluzione nella variabile x originale. Si noti ora che le condizioni iniziali date corrispondono, nella nuova variabile, a: y(0) = ln(x(0)) = ln(1) = 0, y(1) = ln(x(1)) = ln(e) = 1 e quindi è sufficiente determinare la trasformata inversa del solo secondo termine (diviso per z). Notando che i poli del sistema sono p1 = 4 e p2 = −1, si trova: z 1 A1 A2 = 2 = + , z(z 2 − 3z − 4) (z − 3z − 4) (z − 4) (z + 1) con A1 = (z − 4) 1 1 |z=4 = |z=4 = , (z 2 − 3z − 4) z+1 5 A2 = (z + 1) 1 1 |z=−1 = |z=−1 = − . (z 2 − 3z − 4) z−4 5 Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-146 La funzione del tempo y(k) si ottiene quindi calcolando la trasformata inversa della funzione: Y (z) = z z − , 5(z − 4) 5(z + 1) vale: 1 k 1 4 − (−1)k , 5 5 ed ovviamente soddisfa alle condizioni iniziali date. Infine, la soluzione nella variabile originale x(k) vale: y(k) = Z −1 [Y (z)] = x(k) = e y(k) (4k − (−1)k ) 5 =e . ♦ Capitolo 3: Analisi sistemi LTDS 3.4 [Ed. 2015, V 4.0 - PV - UniPG] - 3-147 Analisi modale per sistemi LSTD: approccio nel dominio del tempo In questa sezione verranno studiate le proprietà di maggiore interesse dell’esponenziale matriciale a tempo discreto, seguendo un approccio nel dominio del tempo, del tutto analogo a quanto visto per i sistemi a tempo continuo. Nella prossima sezione verrà presentato un approccio basato sulla trasformata Zeta. Il risultato fondamentale della sezione è sintetizzato dal seguente teorema, che descrive la totalità dei modi naturali che compogono la risposta libera di un sistema lineare, stazionario, a tempo discreto. A differenza di quanto visto nel caso dei sistemi LSTC2 , qui gli autovalori complessi verranno descritti con la notazione modulo (indicato con σ) e fase (indicata conω): λ ∈ C ⇒ λ = σe ω . Teorema 3.3 (Modi naturali di un sistema LSTD) Sia dato il sistema lineare stazionario a tempo discreto, omogeneo: x(k + 1) = Ax, x(0) = x0 , x ∈ Rn , k ∈ Z, (3.67) e siano λi , i = 1, · · · , r, i corrispondenti autovalori distinti, caratterizzati dalle molteplicità algebrica e geometrica µi e νi , rispettivamente. Allora si ha che: • ad ogni autovalore λi ∈ R sono associate le seguenti µi funzioni reali: – λi ∈ R, µi = 1, ⇒ mi (k) = λi k ; – λi ∈ R, µi = νi , ⇒ mi,j (k) = λi k , j = 1, · · · , µi ; – λi ∈ R, µi > νi , ⇒ mi,1 (k) = λi k−1 , mi,2 (k) = kλi k , mi,3 (k) = · · · ; • ad ogni coppia di autovalori complessi coniugati (λi , λ∗i ) = σi e ±ωi sono associate le seguenti µi coppie di funzioni reali: – λi ∈ C, µi = 1, ⇒ mi,c (k) = σ k cos(ωk), mi,s (k) = σ k sin(ωk) ; – λi ∈ C, µi = νi , ⇒ mi,c,j (k) = σ k cos(ωk), mi,s,j (k) = σ k sin(ωk), j = 1, · · · , µi ; – λi ∈ C, µi > νi , ⇒ mi,c,1 (k) = σ k sin(ωk), mi,s,1 (k) = σ k sin(ωk), mi,c,2 (k) = kσ k−1 sin(ωk), mi,s,2 (k) = kσ k−1 sin(ωk), mi,c,3 (k) = ..., mi,c,3 (k) = ..... Dal teorema precedente emergono alcune considerazioni, ancora del tutto analoghe alle corrispondenti a tempo continuo. Commento 3.1 • Il modo naturale base per un sistema LSTD è una funzione esponenziale a tempo discreto con parametro pari all’autovalore associato. Ciò vale sia per un autovalore reale semplice (cioè con molteplicità algebrica unitaria), sia per una coppia di autovalori complessi coniugati semplici. • Se tutti gli autovalori sono reali, ed inoltre semplici (cioè µi = 1, ∀i) o con molteplicità algebriche e geometriche uguali (cioè µi = νi , ∀i), i modi naturali sono costituiti solo da funzioni esponenziali reali. • Se tutti gli autovalori sono complessi ed inoltre semplici (cioè µi = 1, ∀i) o con molteplicità algebriche e geometriche uguali (cioè µi = νi , ∀i), i modi naturali sono costituiti solo da prodotti tra funzioni esponenziali reali e funzioni sinusoidali e cosinusoidali. • Se anche un solo autovalore ha molteplicitè algebrica strettamente maggiore della molteplicità geometrica, compaiono una o più funzioni polinomiali del tempo a moltiplicare i modi naturali base (il terzo caso di ciascuno dei due scenari citati nel teorema). In particolare, se le due molteplicità sono divese compare certamente il termine polinomiale di grado uno. 2 Si noti come nel caso dei sistemi a tempo discreto si sia scelto di indicare con il simbolo σ il modulo dell’autovalore complesso, e non la sua parte reale, come nel caso a tempo continuo. Analogamente, il simbolo ω indica ora la fase e non la parte immaginaria di un autovalore. Il motivo di questa diversa notazione apparirà chiaro dalla dipendenza dei modi dai parametri σ ed ω e dalla caratterizzazione di convergenza. Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-148 • Nei casi in cui, per uno o più autovalori λi , si abbia µi > νi , il numero ed il grado delle funzioni polinomiali che appaiono dipende da ulteriori considerazioni (sulla molteplicità del corrispondente autovalore come radice del polinomio minimo) che esulano dagli scopi di queste note. I modi naturali del tipo λi k e del tipo kλi k , associati ad autvalori reali, sono dette funzioni aperiodiche. I modi naturali associati ad autovalori complessi coniugati, del tipo σi k cos(ωi k), σi k sin(ωi k), e le corrispondenti moltiplicate per polinoni del tempo, sono dette funzioni pseudoperiodiche. Nel caso particolare di autovalori complessi e coniugati, con modulo unitario e con molteplicità algebriche e geometriche uguali (sia semplici sia multipli), i modi naturali diventano le funzioni periodiche: cos(ωi k) e sin(ωi k). Il teorema 3.3 verrà discusso in dettaglio nelle successive sottosezioni, con un approccio analogo a quello seguito nel caso dei sistemi LSTC. 3.4.1 Il caso di sistema diagonalizzabile, con autovalori reali Si consideri inizialmente il caso di un sistema scalare, cioè con spazio di stato di dimensione unitaria. In tal caso la matrice A diviene uno scalare, A = a, a ∈ R, e quindi il sistema dinamico e la risposta libera nello stato sono descritti, rispettivamente, dall’equazione e dalla successione seguenti: x(k + 1) = ax(k) x(k) = ak x0 , k ≥ 0, x(0) = x0 (3.68) (3.69) La successione ak rappresenta il modo naturale del sistema in esame. La soluzione del caso vettoriale è immediata se la matrice dinamica A è diagonale: A = diag {λ1 , λ2 , · · · , λn }. In questo caso il sistema dinamico è descritto dall’equazione: λ1 0 · · · 0 0 λ2 · · · 0 x(k + 1) = . (3.70) .. .. x(k). .. .. . . . 0 0 · · · λn Si noti che, poiché la matrice è diagonale, gli elementi λi sono calcolo della risposta libera nello stato si trova facilmente: k λ1 0 · · · 0 λk2 · · · x(k) = . .. .. .. . . 0 0 ··· anche gli autovalori della matrice stessa. Per il 0 0 .. . λkn e cioè la collezione di sistemi scalari x0 , (3.71) x1 (k) x2 (k) = λk1 x1,0 = λk2 x2,0 .. . (3.72) (3.73) xn (k) = λkn xn,0 . (3.74) Si noti che la forma della risposta libera, per ciascuna componente, dipende dal modo naturale relativo, mentre la corrispondente ampiezza dipende dalla rispettiva condizione iniziale. Ad esempio, se la condizione iniziale è pari al vettore e1 (cioè, la prima colonna della matrice identità), la risposta libera nello stato sarà nulla per tutte le componenti dello stato, salvo la prima, il cui andamento sarà descritto dalla sequenza x1 (k) = λk1 x1,0 = λk1 , k ≥ 0. L’esponenziale matriciale a tempo discreto del sistema in esame è dato da: k λ1 0 · · · 0 0 λk2 · · · 0 Ak = . (3.75) .. .. . .. .. . . . 0 0 · · · λkn Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-149 Le successioni temporali λki , i = 1, 2, . . . , n, che descrivono la soluzione del sistema, sono associate agli autovalori del sistema e sono dette modi naturali del sistema Σ(A). Si noti che non sono state poste ipotesi sugli autovalori del sistema. In particolare, alcuni autovalori (od anche tutti) possono essere coincidenti. Si consideri ora il caso di un sistema descritto da una matrice dinamica A non diagonale, ma diagonalizzabile. Ricordando le relazioni (2.36) e (2.19) (che, si noti bene, descrivono proprietà della matrice A e non del sistema dinamico associato), e ricordando l’invarianza degli autovalori rispetto a trasformazioni di similarità, si trova, per l’esponenziale di matrice nelle coordinate originali: Ak = (T ΛT −1 )k (3.76) = T Λk T −1 k λ1 0 0 λk2 = T . .. .. . 0 0 (3.77) ··· ··· .. . 0 0 .. . ··· λkn −1 T . (3.78) L’esponenziale di matrice a tempo discreto è quindi composto da combinazioni lineari delle sequenze λki , i = 1, 2, · · · , n, e cioè da combinazioni lineari dei modi naturali del sistema. 3.4.2 Il caso di sistema diagonalizzabile, con autovalori complessi L’analisi condotta finora, basata sull’uso di una matrice diagonale, non è utilizzabile se il sistema ammette autovalori complessi (ovviamente, complessi coniugati a coppie). In tal caso infatti vi sono un’infinità di condizioni iniziali cui corrispondono risposte libere nello stato caratterizzate da funzioni a valori complessi. Ciò non è ammissibile, poiché i sistemi dinamici di interesse in queste note sono descrizioni di processi reali, e quindi non rappresentabili con grandezze complesse. Per ovviare a ciò, si introduce la forma canonica reale. Si consideri per semplicità un sistema planare, cioè un sistema con spazio di stato di dimensione due, descritto da una matrice dinamica Ap , con autovalori complessi coniugati λ e λ∗ , cioè (λ, λ∗ ) = σe ±ω . In questo caso, con opportuan scelta dei nuovi vettori di base, si ottiene la matrice dinamica nella forma seguente: cos(ω) sin(ω) −1 Λp = T Ap T = σ , (3.79) − sin(ω) cos(ω) detta forma canonica reale a tempo discreto. È facile calcolare in forma chiusa l’esponenziale di matrice a tempo discreto in questo caso, trovando: cos(ωk) sin(ωk) k k = σ k Ω(k), (3.80) Λp = σ − sin(ωk) cos(ωk) ove Ω(k) indica la matrice delle componenti periodiche a tempo discreto: cos(ωk) sin(ωk) Ω(k) = . − sin(ωk) cos(ωk) (3.81) Le funzioni σ k cos(ωk) e σ k sin(ωk) sono i modi naturali (reali) del sistema con autovalori complessi coniugati λ = σe ω e λ∗ = σe −ω . La risposta libera nello stato del sistema planare in esame, nelle nuove coordinate e a partire dalla condizione iniziale x̄(0), è data da: cos(ωk) sin(ωk) k x̄(0) = σ k Ω(k)x̄(0), (3.82) x̄(k) = σ − sin(ωk) cos(ωk) ed è facile vedere come non sia possibile eccitare in modo indipendente i due modi: nel caso di sistema con autovalori complessi coniugati, la risposta libera nello stato contiene sempre almeno due modi distinti. Ovviamente, la stessa considerazione può essere estesa anche al sistema planare nelle coordinate originali, poiché la matrice di trasformazione di coordinate è ad elementi reali. Si consideri ora il caso di un sistema dinamico di dimensione n, con matrice dinamica A diagonalizzabile. Si assuma, senza perdita di generalità, che i primi nr autovalori λi , i = 1, 2, · · · , nr , siano reali, ed i rimanenti Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-150 n − nr autovalori siano costituiti da nc coppie complesse coniugate, n − nr = 2nc . Siano vi , i = 1, 2, · · · , nr , gli autovettori associati agli autovalori reali, e (wi , wi∗ ), wi = wR,i + wI,i , i = 1, 2, · · · , nc , le coppie di autovettori associati agli autovalori complessi. Scelte come nuove coordinate gli autovettori reali e le parti reali ed immaginarie degli autovettori complessi, la nuova matrice di cambio di coordinate è data da: (3.83) T = v1 v2 · · · vnr wR,1 wI,1 wR,2 wI,2 · · · wR,c wI,nc . Nelle nuove coordinate la matrice dinamica è esprimibile nella seguente forma diagonale a blocchi: λ1 0 · · · 0 .. . 0 λ2 · · · 0 0 .. .. . . . . . . . . .. . 0 0 · · · λnr , ΛR = Λp,1 0 ··· 0 .. . 0 Λp,2 · · · 0 0 .. .. . .. .. . . . .. . 0 0 · · · Λp,nc in cui i termini Λp,i , i = 1, 2, · · · , nc rappresentano matrici di dimensione due della forma: cos(ωi ) sin(ωi ) Λp,i = σi · . − sin(ωi ) cos(ωi ) (3.84) (3.85) Tenendo conto del fatto che la potenza k-esima di una matrice diagonale a blocchi è ancora diagonale a blocchi, è facile trovare la seguente forma per la matrice di transizione del sistema dinamico, nelle nuove coordinate: λk1 0 · · · 0 .. . 0 λk2 · · · 0 0 .. .. .. .. . . . . .. . k 0 0 · · · λnr , (3.86) ΛkR = k Λp,1 0 ··· 0 .. . 0 0 Λkp,2 · · · 0 . . . .. .. .. .. . .. . 0 0 · · · Λk p,nc ove Λkp,i indica la matrice di risposta libera nello stato di un sistema planare: cos(ωi k) sin(ωi k) = σik Ωi (k). Λkp,i = σik − sin(ωi k) cos(ωi k) (3.87) La risposta libera nello stato in coordinate originali è quindi: Ak = T ΛkR T −1 (3.88) e quindi è costituita da combinazioni lineari dei modi naturali del sistema, dati dalle successioni λk , σ cos(ωk) e σ sin(ωk). 3.4.3 Il caso di sistema non diagonalizzabile, con autovalori reali L’analisi dei modi naturali ed il calcolo della risposta nello stato per sistemi con matrice dinamica non diagonalizzabile è basata sulla forma canonica di Jordan, già introdotta nel caso di sistemi LSTC: una struttura diagonale a blocchi, con blocchi sulla diagonali costituiti da miniblocchi di Jordan. Un miniblocco di Jordan Jλ di dimensione r associato all’autovalore reale λ: λ 1 0 ··· 0 0 0 λ 1 ··· 0 0 .. .. , Jλ = ... ... ... (3.89) . . 0 0 0 ··· λ 1 0 0 0 ··· 0 λ Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-151 ha una matrice esponenziale a tempo discreto dato dalla seguente funzione matriciale del tempo: k k k k−1 k−(r−1) λ λ · · · λ 1 r−1 k k k−(r−2) λ ··· λ Jλk = 0 . r − 2 .. . .. . . . . . . . 0 0 ··· λk (3.90) k k k−1 Le successioni λ , λ , ···, λk−(r−1) sono i modi naturali generati da un miniblocco di 1 r−1 Jordan di dimensione r associato all’autovalore reale λ. La caratterizzazione dei modi naturali è legata ancora al modulo dell’autovalore: si hanno modi convergenti nel caso di autovalori con modulo minore di uno e modi divergenti nel caso di autovalori con modulo maggiore di uno. Nel caso di un autovalore reale di modulo unitario, si tratta da valutare la dimensione del miniblocco k associato. Il modo naturale λk−1 per autovalore di modulo unitario, diviene la successione k(sign(λ))k−1 , 1 e quindi è una funzione crescentedel tempo. Analogamente per tutti i modi di ordine superiore, cioè del tipo k (e tutti i modi del tipo λk−(r−j) , con 0 < j < r ed autovalore reale di modulo unitario. In tal caso, r−j e cioè per miniblocchi di dimensione maggiore di uno associati ad autovalori (reali) a modulo unitario, i modi naturali sono divergenti. k 3.4.4 Il caso di sistema non diagonalizzabile, con autovalori complessi Infine, per completare l’analisi dei possibili modi naturali di un sistema dinamico a tempo discreto, si deve analizzare il caso di matrice non diagonalizzabile con autovalori complessi di molteplicità maggiore di uno. La determinazione dei modi naturali passa per la generalizzazione della forma canonica reale, del tipo: Λp JR = 0 . .. 0 I2 Λp .. . 0 .. . .. . .. . ··· 0 0 , .. . (3.91) Λp k k k−(r−1) cui sono associati modi naturali del tipo σ cos(ωk) e σ k−(r−1) sin(ωk). Analogar−1 r−1 mente a quanto visto nel caso immediatamente precedente, questi modi sono: convergenti per autovalori con modulo minore di uno; divergenti per autovalori con modulo maggiore di uno; limitati per modulo unitario e dimensione del miniblocco più grande uguale ad uno; divergenti per modulo unitario e dimensione del miniblocco più grande maggiore di uno. Nel caso in cui il sistema abbia solo autovalori complessi, ma con molteplicità arbitraria, l’esponenziale di matrice a tempo discreto, in coordinate reali, assume quindi la forma: k k Ω(k) · · · Ω(k) Ω(k) 1 r−1 k k k Ω(k) ··· Ω(k) JR = σi 0 (3.92) . r − 2 .. .. .. .. . . . . 0 0 ··· Ω(k) 3.4.5 Il caso generale Si consideri ora il caso generale, di un sistema con nR autovalori reali, alcuni di loro eventualmente coincidenti, ed nC autovalori complessi coniugati, alcuni di loro eventualmente coincidenti, sia gli autovalori reali sia quelli Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-152 complessi con molteplicità arbitraria. Per tale sistema, nelle coordinate di Jordan, si ha un’esponenziale di matrice a tempo discreto della seguente forma, che contiene tutti i modi naturali del sistema stesso: 0 0 ··· 0 0 ··· 0 Jλ1 k 0 0 Jλ2 k · · · 0 0 ··· 0 . .. .. .. .. . . . 0 0 ··· 0 0 k 0 · · · JλnR 0 0 ··· 0 . (3.93) Jk = 0 0 ··· 0 0 ··· 0 JR 1 k 0 0 0 JR 2 k · · · 0 ··· 0 .. .. .. .. 0 . 0 ··· 0 . . . k 0 0 · · · JR n C 0 0 ··· 0 in cui le sottomatrici Jλi k , i = 1, 2, · · · , nR , sono matrici (di dimensione opportuna) del tipo in equazione (3.90), mentre le sottomatrici JRi k , i = 1, 2, · · · , nC , sono matrici (di dimensione opportuna) del tipo in equazione (3.92). L’esponenziale di matrice nelle coordinate originali si ottiene per trasformazione di similarità di tale matrice, e contiene tutti e soli i modi naturali presenti nella (3.93). 3.4.6 Caratterizzazione dei modi naturali rispetto alla convergenza Al variare della posizione degli autovalori nel piano complesso, i modi naturali di un sistema a tempo discreto, analogamente a quanto già visto per i sistemi a tempo continuo, sono caratterizzati da proprietà di convergenza di varia natura. Nel caso di un autovalore reale, cui corrisponde un modo naturale λk , il modo ha un comportamento decrescente al crescere del tempo, ed il modo è detto convergente, se l’autovalore ha modulo minore di uno (cioè, se l’autovalore è interno al cerchio unitario); il modo naturale è detto divergente se l’autovalore corrispondente ha modulo maggiore di uno (cioè, se l’autovalore è esterno al cerchio unitario); infine, il modo naturale è detto limitato se l’autovalore corrispondente ha modulo unitario (cioè, se l’autovalore è esattamente sul cerchio unitario). Si noti che nel caso di autovalore reale a modulo unitario, il modo naturale corrispondente può essere costante, pari ad 1, oppure oscillare tra 1 e −1. Modulo = 0.7 Modulo = 2 1 Modulo = 1 35 0.9 Modulo = −1 1 1 0.9 0.8 0.8 0.6 0.7 0.4 0.6 0.2 0.5 0 0.4 −0.2 0.3 −0.4 0.2 −0.6 0.1 −0.8 30 0.8 25 0.7 0.6 20 0.5 15 0.4 0.3 10 0.2 5 0.1 0 0 5 Tempo 0 0 5 Tempo 0 0 5 Tempo −1 0 5 Tempo Figura 3.1: Modi naturali associati ad autovalori reali per sistemi a tempo discreto La caratterizzazione dei modi naturali è del tutto analoga nel caso di autovalori complessi, con la sola differenza di un comportamento oscillatorio, dovuti ai termini sin(ωk) e cos(ωk) che compone i modi naturali: i modi naturali sono convergenti se gli autovalori hanno modulo minore di uno; i modi naturali sono divergenti se gli autovalori hanno modulo maggiore di uno, i modi naturali sono limitati se gli autovalori hanno modulo unitario. Si noti che, nel caso di autovalori complessi, modulo unitario corrisponde a modi naturali oscillatori puri, cioè del tipo sin(ωk) e cos(ωk). Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-153 Modulo = 0.7 Modulo = 2 1 Modulo = 1 200 1 0.8 0.8 150 0.6 0.6 0.4 100 0.2 0.4 50 0 0.2 −0.2 0 −0.4 0 −0.6 −50 −0.2 −0.8 −0.4 0 10 Tempo 20 −100 0 10 Tempo 20 −1 0 10 Tempo 20 Figura 3.2: Modi naturali associati ad autovalori complessi per sistemi a tempo discreto Analogamente, nel caso di autovalori non semplici, la caratterizzazione rispetto alla convergenza dei modi naturali è legata ancora al modulo dell’autovalore: si hanno modi convergenti nel caso di autovalori con modulo minore di uno e modi divergenti nel caso di autovalori con modulo maggiore di uno. Nel caso di un autovalori con modulo unitario, la convergenza dei modi è legata alla molteplicità nel polinomio minimo 3 . Ad esempio, il modo naturale k(1)k , per autovalore unitario, diviene la funzione k, e quindi è una funzione crescente del tempo. Analogamente per tutti i modi di ordine superiore, cioè del tipo k j (1)k , con 0 < j < r e modulo unitario. In tal caso, e cioè per autovalori con unitario di molteplicità non unitaria nel polinomio minimo4 , i modi naturali sono divergenti. 3.4.7 Riepilogo Analogamente a quanto già affermato per i sistemi lineari a tempo continuo, una matrice dinamica A potrà avere autovalori sia reali che complessi, ciascuno con molteplicità unitaria o maggiore. Nel calcolo della sua matrice esponenziale a tempo discreto saranno quindi coinvolti alcuni, od al limite tutti, i casi particolari visti in precedenza. Tuttavia l’esponenziale di matrice sarà sempre basata su una combinazione lineare di modi naturali, per la cui determinazione è sufficiente un’analisi completa degli autovalori della matrice A. Di norma insomma (ad esempio, se l’interesse è limitato allo caratterizzazione dei modi rispetto alla convergenza), non è richiesto il calcolo esplicito dell’esponenziale matriciale (e delle relative matrici di similarità nel caso geometrico o dell’esponenziale nelle coordinate Zeta nel secondo caso), ma è invece sufficiente valutare in modo completo gli autovalori della matrice A, in coordinate originali. Anche in ordine alla possibilità di eccitare modi naturali semplici (cioè, modi naturali esponenziali discreti puri), valgono considerazioni del tutte analoghe a quelle condotte nel caso dei sistemi a tempo continuo. In particolare, un modo naturale semplice viene eccitato come unico modo se e solo se lo stato iniziale del sistema è allineato con l’autovettore corrispondente. I possibili modi naturali di un sistema a tempo discreto sono riepilogati nella prima colonna della tabella 3.2, mentre le loro proprietà di convergenza sono riepilogate nelle successive colonne della stessa tabella. 3.4.8 Eccitazione di singoli modi Per studiare la dipendenza della risposta libera nello stato dalle condizioni iniziali, e per studiare la possibilità di eccitare singoli modi naturali con opportune condizioni iniziali, si può procedere esattamente come nel caso dei sistemi a tempo continuo. Anche in questo caso si giunge alla conclusione che una condizione iniziale x0 eccita un solo modo naturale se è allineata secondo il corrispondente autovettore e viceversa. Analogamente, una data condizione iniziale eccita 3 che 4 cioè coincide con la dimensione del miniblocco associato per miniblocchi di dimensione maggiore di uno associati ad autovalori (reali) nulli Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-154 Modo Caratterizzazione naturale convergente limitato divergente λk , λ ∈ R |λ| < 1 |λ| = 1 |λ| > 1 |λ| < 1 |λ| = 1 [|λ| = 1, j > 1], [|λ| > 1] σ k cos(ωk), λ ∈ C σ<1 σ=1 σ>1 σ k sin(ωk), λ ∈ C σ<1 σ=1 σ>1 k j λk−j , λ ∈ R k j σ k−j cos(ωk), λ ∈ C σ<1 σ=1 [σ = 1, j > 1], [σ > 1] k j σ k−j sin(ωk), λ ∈ C σ<1 σ=1 [σ = 1, j > 1], [σ > 1] Tabella 3.2: Modi naturali di un sistema a tempo discreto: condizioni di convergenza tutti i modi naturali associati agli autovettori che concorrono alla rappresentazione della condizione iniziale stessa. Capitolo 3: Analisi sistemi LTDS 3.5 [Ed. 2015, V 4.0 - PV - UniPG] - 3-155 Analisi modale per sistemi LSTD: approccio nel dominio Zeta In questa sezione viene presentato un approccio nel dominio Zeta per l’analisi modale di un sistema lineare a tempo discreto. La trattazione è del tutto parallela a quanto già proposto per i sistemi a tempo continuo. Si consideri il sistema dinamico: x(k + 1) = Ax(k), x(0) = x0 . (3.94) È noto (si veda la sezione 3.2) che la soluzione di tale equazione omogenea alle differenze finite, cioè la risposta libera nello stato, è descritta dall’esponenziale di matrice a tempo discreto: x(k) = Ak x0 , k ∈ Z+ . (3.95) Per il calcolo dell’esponenziale di matrice a tempo discreto Ak si può ricorrere alla trasformata Zeta. Infatti, per la proprietà della trasformata di una funzione traslata (anticipata) nel tempo, il sistema precedente, nel dominio Zeta, può essere scritto come: zX(z) − zx(0) = AX(z), (3.96) (zI − A)X(z) = zx(0), (3.97) X(z) = z(zI − A)−1 x(0), (3.98) da cui, per confronto con l’equazione (3.95), segue immediatamente: Ak = Z −1 z(zI − A)−1 (3.99) da cui segue facilmente: e quindi Per analizzare le proprietà dell’esponenziale di matrice tempo discreto, conviene ricordare la seguente espressione: adj (zI − A) . (3.100) z(zI − A)−1 = z det(zI − A) da cui seguono facilmente, come già visto anche per i sistemi a tempo continuo, le seguenti proprietà, che saranno utili per trattare in modo completo l’analisi modale: Proprietà 3.12 Gli elementi della matrice z(zI − A)−1 sono funzioni razionali proprie, poiché adj (zI − A) è una matrice polinomiale. Proprietà 3.13 Le radici del denominatore di ciascun elemento della matrice (zI − A)−1 sono un sottoinsieme delle radici del polinomio det(zI − A), e quindi sono un sottoinsieme degli autovalori della matrice A. Proprietà 3.14 Ciascun autovalore della matrice A è radice del denominatore di almeno un elemento della matrice (zI − A)−1 . Per analizzare in dettaglio il comportamento della risposta libera di un sistema lineare a tempo discreto, è bene esaminare inizialmente alcuni casi particolari. 3.5.1 Il caso di autovalori distinti Si consideri inizialmente il caso di un sistema con tutti gli autovalori distinti, e quindi il caso in cui il denominatore della matrice esponenziale nel dominio della variabile Zeta abbia tutte le radici. In tale caso si può porre: n Y (z − λi ), λi 6= λj , i 6= j, (3.101) det(zI − A) = i=1 ove n indica l’ordine del sistema, e quindi il numero dei suoi autovalori. Sia p(z) = np (z)/dp (z) un generico elemento della matrice z(zI − A)−1 , dopo eventuali cancellazioni di termini comuni numeratore/denominatore. La corrispondente antitrasformata, e cioè il corrispondente elemento dell’esponenziale di matrice a tempo discreto, si può ottenere facilmente tramite espansione in frazioni parziali. Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-156 Qm Tenendo conto dell’ipotesi di autovalori distinti, si ha dp (z) = i=1 (z − λi ), (ove m ≤ n, perché possono esservi cancellazioni) e quindi la seguente espansione in frazioni parziali: A1 z A2 z Am z np (z) = + + ···+ z − λ z − λ z − λm (z − λ ) 1 2 i i=1 p(z) = Qm (3.102) cui corrisponde, nel dominio del tempo, la funzione: p(k) = A1 λk1 + A2 λk2 + · · · + Am λkm (3.103) La singola funzione esponenziale λki è detta modo naturale associato all’autovalore λi , e descrive appunto il comportamento naturale del sistema, cioè il comportamento proprio, specifico del sistema, indipendentemente dalla sollecitazione eventualmente esercitata dall’ambiente esterno tramite il segnale di ingresso. Gli elementi della matrice esponenziale a tempo discreto sono quindi costituiti da combinazioni lineari di modi naturali, ciascun modo associato ad un diverso autovalore, ed i coefficienti della combinazioni lineare sono i residui dell’espansione in frazioni parziali dell’elemento stesso. È importante esaminare con maggior dettaglio il caso in cui tra i valori autovalori vi siano coppie complesse coniugate (è ben noto che non vi possono essere autovalori complessi non “accompagnati” dal corrispondente coniugato). Siano quindi λ = σe ω e λ∗ = σe −ω due autovalori complessi coniugati. Si noti che in questo caso σ indica il modulo dell’autovalore, e non la parte reale, come nel caso a tempo continuo, e ω indica invece la fase, e non la parte immaginaria, come nel caso a tempo continuo. I termini corrispondenti dell’espansione in frazioni parziali sono dati da: Az A∗ z + , (3.104) z − λ z − λ∗ poiché ad autovalori coniugati corrispondono residui coniugati. Nel dominio del tempo, indicando con A = 1 ϕ modulo e fase del residuo A, si ottiene quindi: 2Me Az 1 A∗ z 1 −1 Z = M e ϕ σ k e ωk + M e −ϕ σ k e −ωk + (3.105) ∗ z−λ z−λ 2 2 cui corrisponde la funzione reale M σ k cos(ωk + ϕ). (3.106) Ad una coppia di autovalori complessi coniugati è quindi associata una funzione pseudo-periodica esponenzialecosinusoidale, con pulsazione pari alla fase dell’autovalore e parametro del termine esponenziale pari al modulo dell’autovalore. È ben noto che la funzione cos(ωk + ϕ) può essere ottenuta per combinazione lineare delle funzioni di base cos(ωk) e sin(ωk), e quindi è evidente sono sempre presenti, per ciascun coppia di autovalori complessi coniugati, sia la funzione cosinusoidale σ k cos(ωk) che la sua ortogonale sinusoidale σ k sin(ωk). In altre parole, alla coppia di autovalori complessi coniugati λ e λ∗ sono associati i due modi naturali reali σ k sin(ωk) e σ k cos(ωk). Esempio 3.1 (Sistema con autovalori reali) Si consideri il sistema dinamico planare 0 1 x(k + 1) = x(k), 2 −1 (3.107) il cui polinomio caratteristico è dato da det(λI − A) = λ2 + λ − 2 = (λ + 2)(λ − 1), ed i cui autovalori sono quindi λ1 = 1 e λ2 = −2. I modi naturali associati sono quindi le due funzioni esponenziali pure 1k = 1 ed (−2)k . Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Zeta. Seguendo la traccia delineata sopra, e ricordando le regole per l’espansione in frazioni parziali, si ottiene: z −1 z+1 1 (zI − A) = , adj (zI − A) = , det(zI − A) = z 2 + z − 2 (3.108) −2 z + 1 2 z e quindi z(zI − A)−1 z(z + 1) z2 + z − 2 = 2z z2 + z − 2 z z2 + z − 2 . z2 z2 + z − 2 (3.109) Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-157 Espandendo in frazioni parziali il primo elemento della matrice si trova: m1,1 (z) = z(z + 1) 2 z 1 z = + z2 + z − 2 3z−1 3z+2 (3.110) e quindi, per il corrispondente elemento dell’esponenziale di matrice, si ha: m1,1 (k) = 2 1 2 k 1 1 + (−2)k = δ−1 (k) + (−2)k . 3 3 3 3 (3.111) Procedendo in modo analogo per gli altri elementi si trova la seguente matrice esponenziale a tempo discreto: 2 1 1 1 δ−1 (k) + (−2)k δ−1 (k) − (−2)k 3 3 3 3 , Ak = (3.112) 2 2 1 2 k k δ−1 (k) − (−2) δ−1 (k) − (−2) 3 3 3 3 che, come è immediato vedere, è costituita da combinazioni lineari dei due modi naturali già individuati sulla base della semplice analisi degli autovalori. ♦ Esempio 3.2 (Sistema con autovalori complessi) Si consideri il sistema dinamico planare 1 1 x(k + 1) = x(k), −1 1 (3.113) √ √ il cui polinomio caratteristico√è dato da det(λI√− A) = λ2 − 2λ + 2 = (λ − 2e π/4 )((λ − 2e −π/4 )), ed i cui autovalori sono quindi λ1 = 2e π/4 e λ2 = 2e −π/4 . I modi naturali associati sono quindi le due funzioni esponenziali-cosinusoiali (1.4124)−k cos(π/4k) ed (1.4142)−k sin(π/4k). Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Zeta. z − 1 −1 z−1 1 (zI − A) = , adj (zI − A) = , det(zI − A) = z 2 − 2z + 2 (3.114) 1 z−1 −1 z − 1 e quindi z(zI − A)−1 z(z − 1) z 2 − 2z + 2 = −z z 2 − 2z + 2 z z 2 − 2z + 2 . z(z − 1) z 2 − 2z + 2 Ricordando le trasformate di segnali notevoli, la matrice esponenziale a tempo discreto è data da: cos(π/4k) sin(π/4k) √ k , Ak = 2 − sin(π/4k) cos(π/4k) (3.115) (3.116) che, come è immediato vedere, è costituita da combinazioni lineari (in questo caso banali) dei due modi naturali già individuati sulla base della semplice analisi degli autovalori. ♦ 3.5.2 Il caso di autovalori qualsiasi Si passi ora ad esaminare il caso di un sistema dinamico con autovalori comunque piazzati nel piano complesso (salvo, ovviamente, il vincolo della chiusura rispetto alla coniugazione complessa). In tal caso il polinomio caratteristico può essere fattorizzato nella forma: det(zI − A) = r Y (z − λi )ni , i=1 r X ni = n (3.117) i=1 ove l’intero r indica il numero di autovalori distinti ed il generico intero ni indica la molteplicita dell’autovalore λi . La molteplicità di un autovalore come radice del polinomio caratteristico è detta molteplictà algebrica dell’autovalore. Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-158 Nel caso generale quindi, in virtù della forma (3.117) del polinomio caratteristico, l’esponenziale di matrice nel dominio Zeta è costituita da funzioni razionali che possono avere radici del denominatore di molteplicità maggiore di uno. Sia m(z) il minimo comune denominatore (cioè, il minimo comune multiplo dei polinomi a denominatore) degli elementi di Exp(A, Z). Esso può essere fattorizzato come: m(z) = r Y i=1 (z − λi )mi , 1 ≤ mi ≤ n i . (3.118) In merito a tale fattorizzazione, è importante notare come 1) ogni autovalore (cioè, ogni radice di det(zI − A)) compare come radice di tale polinomio; 2) la molteplicità mi di ciascun autovalore come radice del polinomio in (3.118) può essere minore della molteplicità algebrica. Il polinomio m(z) è detto polinomio minimo del sistema, e la molteplicità mi dell’autovalore λi come radice di m(z) è detta molteplicità come radice del polinomio minimo. Si consideri ora la forma generale dell’esponenziale di matrice nel dominio del tempo. Sia p(z) = np (z)/dp (z) il generico elemento della matrice z(zI − A)−1 . Ricordando la forma della trasformata inversa di una funzione razionale si ottiene, per un qualche intero q e per un opportuno ordinamento degli autovalori: p(z) = Q Aq,mq z Aq,1 z A1,m1 z np (z) A1,1 z + ···+ + ··· + + ···+ = (z − λ1 ) (z − λ1 )m1 (z − λq ) (z − λq )mq (z − λi )mi (3.119) dove i q autovalori λi , i = 1, . . . , q sono un sottoinsieme degli autovalori del sistema. Tenendo conto di tale forma dell’espansione in frazioni parziali, ed antitrasformando nel dominio del tempo, si trova il generico elemento dell’esponenziale di matrice: k k k−(m1 −1) p(k) = A1,1 λk1 + · · ·+ A1,m1 λ1 + · · ·+ Aq,1 λkq + · · ·+ Aq,mq λqk−(mq −1) . (3.120) m1 − 1 mq − 1 Gli elementi della matrice esponenziale sono quindi composti da combinazioni lineari di funzioni polinomialeesponenziale del tipo: k µ λk (3.121) in cui la potenza µ del termine polinomiale varia tra zero e la molteplicità meno uno del corrispondente autovalore come radice del polinomio minimo. Le funzioni (3.121) sono i modi naturali associati ad autovalori reali di molteplicità maggiore di uno. Analogamente a quanto già visto nel caso di autovalori distinti, nel caso di coppie di autovalori complessi coniugati λ = σe ω , di molteplicità arbitraria m, si ottengono modi naturali costituiti da funzioni del tipo: k µ σ k cos(ωk), k µ σ k sin(ωk), (3.122) con la potenza µ del termine polinomiale compresa tra zero ed m − 1. Le funzioni (3.122) sono i modi naturali reali associati ad autovalori complessi coniugati di molteplicità maggiore di uno. Esempio 3.3 (Sistema planare con molteplicità non unitaria) Si consideri il sistema dinamico planare −1 1 x(k + 1) = x(k). (3.123) 0 −1 il cui polinomio caratteristico è dato da det(zI − A) = (λ + 1)2 , ed i cui autovalori sono quindi λ = −1, molteplicità algebrica pari a due. I modi naturali associati potrebbe essere quindi le due funzioni esponenzialik k polinomiale (−1) ed k(−1) , in dipendenza della molteplicità dell’autovalore nel polinomio minimo. Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Zeta. z + 1 −1 z+1 1 (zI − A) = , adj (zI − A) = , det(zI − A) = z 2 + 2z + 1 (3.124) 0 z+1 0 z+1 e quindi z(zI − A)−1 z(z + 1) (z + 1)2 = 0 z z (z + 1)2 (z + 1) = z(z + 1) 0 (z + 1)2 z (z + 1)2 z (z + 1) . (3.125) Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-159 Come si vede, in questo caso nel calcolo dell’esponenziale nel dominio Zeta vi sono delle cancellazioni polo/zero in alcuni termini. Il polinomio minimo, è immediato vedere, coincide con il polinomio caratteristico, e quindi i modi naturali sono dati sia dalla funzione esponenziale pura che dalla funzione esponenziale polinomiale. Ricordando le trasformate di segnali notevoli, per i vari elementi della matrice esponenziale si trova facilmente: z z k −1 −1 Z = (−1)k , (3.126) = −k(−1) , Z (z + 1)2 (z + 1) e quindi la matrice esponenziale, nel dominio del tempo, è data da: k k (−1) −k(−1) , Ak = (3.127) k 0 (−1) che, come è immediato vedere, è costituita da combinazioni lineari dei due modi naturali già individuati sulla base dell’analisi degli autovalori e del polinomio minimo. ♦ Esempio 3.4 Si consideri il sistema dinamico planare −1 0 x(k + 1) = x(k), 0 −1 (3.128) il cui polinomio caratteristico è dato da det(λI − A) = (λ + 1)2 , ed i cui autovalori sono quindi λ = −1, molteplicità algebrica pari a due. Si noti come il polinomio caratteristico, e quindi gli autovalori e la loro molteplicità algebrica, siano del tutto identici all’esempio precedente. I modi naturali associati potrebbero k k k quindi essere le due funzioni esponenziali-polinomiale (−1) ed k(−1) , o la sola funzione esponenziale (−1) . Per verifica, si proceda al calcolo dell’esponenziale di matrice con il metodo della trasformata di Zeta. z+1 0 z+1 0 (zI − A) = , adj (zI − A) = , det(zI − A) = z 2 + 2z + 1 (3.129) 0 z+1 0 z+1 e quindi z(zI − A)−1 z(z + 1) (z + 1)2 = 0 z (z + 1) = z(z + 1) 0 (z + 1)2 0 0 z (z + 1) . (3.130) Come si vede, in questo caso nel calcolo dell’esponenziale nel dominio Zeta vi sono delle cancellazioni polo/zero in alcuni termini. Il polinomio minimo, è immediato vedere, in questo caso non coincide con il polinomio caratteristico, ed dato da: m(z) = (z + 1). L’autovalore ha quindi molteplicità unitaria nel polinomio minimo. k Ciò implica che il sistema ha un solo modo naturale, dato dalla funzione esponenziale pura (−1) . Ricordando le trasformate di segnali notevoli, per l’elemento significativo della matrice esponenziale si trova facilmente: z k = (−1) , (3.131) Z −1 (z + 1) e quindi la matrice esponenziale, nel dominio del tempo, è data da: k (−1) 0 , Ak = k 0 (−1) (3.132) che, come è immediato vedere, contiene solo il modo naturale già individuato sulla base dell’analisi degli autovalori e del polinomio minimo. ♦ Esempio 3.5 Si consideri il sistema dinamico di ordine tre 0 1 x(k + 1) = 0 0 0 0 0 1 x. 0 (3.133) Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-160 Il polinomio caratteristico di tale matrice è dato da: det(zI − A) = z 3 , cui corrisponde un autovalore nullo, di molteplicità tre. Si proceda al calcolo della matrice (zI − A)−1 , trovando: −1 z(zI − A) 1 = 0 0 1 z 1 0 1 z2 1 . z (3.134) 1 Il calcolo delle trasformate inverse è immediato, ricordando la trasformata del’impulso unitario ed il significato della moltiplicazione per z −1 (operatore di ritardo unitario). Si trova quindi che i vari termini della matrice esponenziale sono impulsi unitari, ritardi di zero, uno e due passi. L’esponenziale di matrice nel dominio del tempo è quindi: δ(k) δ(k − 1) δ(k − 2) δ(k) δ(k − 1) . Ak = 0 (3.135) 0 0 δ(k) Come si può notare, i modi naturali del sistema vanno a zero in tre passi, e cioè, a partire dal passo k = 3 tutti i modi naturali sono esattamente nulli. Ciò accade solo per autovalori nulli. Un sistema con tale caratteristica, e cioè con tutti i modi naturali che vanno a zero in un numero finito di passi (o, equivalentemente, con tutti gli autovalori nulli), si chiama a tempo di risposta finita od anche sistema a risposta piatta. Tali sistemi sono di estrema importanza nel settore dei filtri digitali, dove sono noti come filtri Finite Impulse Response (filtri FIR). ♦ Capitolo 3: Analisi sistemi LTDS 3.6 [Ed. 2015, V 4.0 - PV - UniPG] - 3-161 Analisi del comportamento ingresso-uscita per sistemi LSTD In questa sezione si studierà il problema del calcolo della risposta in uscita di un sistema dinamico ad una sequenza u(·) applicata in ingresso, secondo lo schema di principio in figura 3.3. Ingresso u(·) (noto) ✲ Uscita y(·) =? ✲ Sistema Figura 3.3: Analisi ingresso-uscita di un sistema dinamico Il sistema dinamico è descritto da un modello alle differenze finite del tipo seguente x(k + 1) = y = Ax(k) + Bu(k), Cx(k) + Du(k), x ∈ Rn , u ∈ R, y ∈ R, la cui rappresentazione nel dominio della variabile Zeta, già determinata in precedenza, è data dalla risposta completa nello stato (comprendente sia la risposta libera Xℓ già studiata con l’analisi modale sia la risposta forzata Xf ): X(z) = z(zI − A)−1 x(0) + (zI − A)−1 BU (z), X(z) = Xℓ (z) + Xf (z), Xℓ (z) = z(zI − A)−1 x(0), Xf (z) = (zI − A)−1 BU (z), e dalla risposta completa in uscita, che può anch’essa essere decomposta nella risposta libera Yℓ ed in quella forzata Yf (si vedano anche la sezione 3.2 e la sezione 3.3.4) Y (z) = zC(zI − A)−1 x(0) + [C(zI − A)−1 B + D]U (z), Y (z) = Yℓ (z) + Yf (z), Yℓ (z) = zC(zI − A)−1 x(0), Yf (z) = C(zI − A)−1 BU (z) + DU (z). Si noti come, dalla linearità dell’operatore trasformata, discenda in modo immediato il principio sovrapposizione degli effetti: dato un segnale u(k), combinazione lineare di segnali elementari u1 (k) ed u2 (k), la risposta complessiva in uscita è pari alla somma delle risposte ai singoli segnali elementari: U (z) = Y (z) = Z {u(k)} = Z {c1 u1 (k) + c2 u2 (l)} = c1 U1 (z) + c2 U2 (z) W (z)U (z) = W (z) · (c1 U1 (z) + c2 U2 (z)) = c1 Y1 (z) + c2 Y2 (z) (3.136) (3.137) In questa sezione l’interesse specifico è per l’analisi della risposta forzata, che è determinata in modo immediato (nel dominio della variabile Zeta, si veda ancora la sezione 3.3.4) come prodotto tra la funzione di trasferimento e la trasformata del segnale di ingresso: Yf (z) = C(zI − A)−1 BU (z) + DU (z) = C(zI − A)−1 B + D U (z) = W (z)U (z) (3.138) W (z) := C(zI − A)−1 B + D. (3.139) Si noti come, in virtù delle proprietà dell’esponenziale di matrice nel dominio Zeta, la funzione di trasferimento sia una matrice di funzioni razionali. È molto importante sottolineare le seguenti proprietà della risposta forzata (e quindi della matrice di trasferimento quale modello descrittivo), che ne caratterizzano l’estrema importanza, ma anche i limiti. Commento 3.2 • La risposta forzata di un sistema dinamico descrive il legame ingresso-uscita del sistema stesso. • La risposta forzata di un sistema dinamico assume condizioni iniziali nulle. • La risposta forzata di un sistema dinamico può trascurare alcune componenti del comportamento dinamico interno. Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-162 Si consideri ora, per semplicità e senza perdità di generalità, il caso di un sistema scalare (dal punto di vista ingresso-uscita). Sia c · adj (zI − A) · b W (z) = c(zI − A)−1 b + d = +d (3.140) det(zI − A) la sua funzione di trasferimento che, come già notato in precedenza, è una funzione razionale propria (se d 6= 0) o strettamente propria (se d = 0). Commento 3.3 Per semplicità notazionale, l’ordine del denominatore di una generica funzione di trasferimento (e quindi il numero di poli) verrà ancora indicato con la lettera n, analogamente alla notazione utilizzata per indicare la dimensione dello spazio di stato di un generico sistema (e quindi il numero di autovalori). Si ricordi tuttavia che, in generale, il numero di poli è minore del numero di autovalori. 3.6.1 Risposta impulsiva L’analisi della risposta forzata di norma viene condotta considerando alcuni segnali notevoli. Tra le possibile risposte forzate, la più semplice è la risposta impulsiva, e cioè la risposta ad un segnale di ingresso dato da un impulso a tempo discreto. Ricordando come la trasformata Zeta di un impulso sia pari ad uno, si ricava la considerazione che la risposta impulsiva descrive la reazione del sistema in esame ad una variazione finita di energia, e la forma di tale risposta dipende solo dalle caratteristiche del sistema stesso. Esaminando in dettaglio tale uscita, si trova infatti: Y (z) = W (z)U (z) ⇒ Y imp (z) = W (z) · 1. (3.141) Assumendo, per semplicità, un sistema con tutti i poli distinti e strettamente proprio, si ha: n Y imp (z) = βn−1 z n−1 + βn−2 z n−2 + · · · + β1 z + β0 X Ai z = , z n + αn−1 z n−1 + · · · + α1 z + α0 (z − pi ) i=1 (3.142) da cui segue, per la risposta nel dominio del tempo: n X Ai pki . y imp (k) = Z −1 Y imp (z) = (3.143) i=1 Poichè i poli sono un sottoinsieme degli autovalori, le funzioni che appaiono nella risposta impulsiva sono un sottoinsieme dei modi naturali del sistema. Poichè il segnale di ingresso, avendo trasformata pari ad uno, non contribuisce con specifiche funzioni del tempo, la risposta impulsiva contiene tutti, e soli, i modi naturali del sistema che influenzano il legame ingresso-uscita. Il comportamento asintotico della risposta impulsiva si ricava immediatamente dalla caratterizzazione rispetto alla convergenza dei modi naturali che la compongono. Se tutti tali modi naturali sono convergenti, la risposta impulsiva tende asintoticamente a zero. Nel caso di poli qualsiasi, e quindi con molteplicità anche non unitaria, si trova facilmente5 : Y imp (z) = W (z) = qi r X X i=1 j=1 Ai,j z , (z − pi )j r X qi = n, (3.144) λt−(j−1) pi k−(j−1) . (3.145) i=1 e quindi, nel dominio del tempo: y imp (k) = qi r X X i=1 j=1 Ai,j k j−1 La risposta è ancora una combinazione lineare di modi naturali, che possono essere di qualsiasi tipo, e quindi anche di tipo polinomiale-esponenziale. Nel caso in cui alcuni poli siano complessi coniugati a coppie, i modi naturali relativi possono essere raccolti ed espressi in termini reali, sotto forma di funzioni di tipo polinomialeesponenziale-sinusoidale e polinomiale-esponenziale-cosinusoidale. 5 si assume ancora una funzione di trasferimento strettamente propria Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-163 Anche in questo caso, il comportamento asintotico della risposta impulsiva si ricava immediatamente dalla caratterizzazione rispetto alla convergenza dei modi naturali che la compongono. Se tutti tali modi naturali sono convergenti, la risposta impulsiva tende asintoticamente a zero. Infine, è facile vedere, dal confronto tra la risposta impulsiva in uscita, data da: Y imp (z) = c(zI − A)b · 1 (3.146) Yℓ (z) = c(zI − A)x(0) (3.147) e la risposta libera in uscita, data da: come la risposta impulsiva possa essere interpretata anche come una risposta libera a partire dalla condizione iniziale x(0) = b. 3.6.2 Risposta indiciale Un secondo segnale di interesse per lo studio del comportamento di sistemi dinamici è il gradino unitario δ−1 (k). In tal caso l’uscita forzata viene indicata con il termine risposta al gradino, o risposta indiciale. z La trasformata di Zeta del gradino è pari a , e quindi la risposta forzata è data da: z−1 Y gra (z) = W (z) z . z−1 (3.148) La risposta nel dominio del tempo di ottiene facilmente per espansione in frazioni parziali e trasformazione inversa. Si assuma inizialmente un sistema con funzione di trasferimento priva di poli in uno. In tal caso la risposta indiciale può essere espansa in frazioni parziali: Y gra (z) = qi r X X i=1 j=1 Ai,j z Bz + j (z − pi ) z−1 (3.149) dove r indica il numero di poli distinti del denominatore della W (z), qi indica la molteplicità del polo pi , ed il generico residuo Ai,j è calcolato come indicato nella condizione (3.64). La risposta indiciale nel dominio del tempo è quindi: y gra (k) = Z −1 [Y gra (z)] = qi r X X Ai,j i=1 j=1 k j−1 pi k−(j−1) + Bδ−1 (k). (3.150) Si vede facilmente i termini che costituiscono la risposta indiciale possano essere organizzati in due gruppi. Il primo gruppo contiene tutti i termini che derivano dai poli della funzione di trasferimento e coincide, a meno dei coefficienti della combinazione lineare, con la risposta impulsiva: y gra,t (k) = qi r X X i=1 j=1 Ai,j k j−1 k−(j−1) pi , (3.151) mentre il secondo gruppo contiene semplicemente un termine della stessa forma del segnale di ingresso ed ampiezza variata: y gra,p (k) = Bδ−1 (k). (3.152) L’ampiezza B con cui il segnale di ingresso appare in uscita è pari al guadagno in continua del sistema: B = (z − 1) · Y gra (z)|z=1 = W (z)|z=1 = W (1). (3.153) Analogamente a quanto accade per la risposta impulsiva (e più in generale per l’antitrasformata di una generica funzione razionale), nel caso di coppie di poli complessi coniugati le corrispondenti funzioni esponenziale possono essere raccolte nella forma di funzioni reali di tipo esponenziale-sinusoidale, eventualmente con termini polinomiali se i poli non sono semplici. La risposta indiciale quindi può essere decomposta nella somma di termini che descrivono la risposta impulsiva (e che sono un sottoinsieme dei termini che compongono la risposta libera in uscita del sistema) e di un termine con la stessa forma dell’ingresso. Nel caso particolare in cui la risposta impulsiva sia convergente a zero, si ottiene una risposta che converge asintoticamente ad un gradino di ampiezza B = W (0). In tal caso, si Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-164 suole indicare con la dizione di risposta transitoria la somma ygra,t (k) di tutti i termini che dipendono dai poli del sistema, mentre il termine derivante dall’ingresso viene indicato con la dizione di risposta permanente: Se y gra,t (k) = lim y gra,t (k) = 0 ⇒ y gra (k) = y gra,t (k) + y gra,p (k), k pi k−(j−1) risposta transitoria Ai,j j−1 k→∞ qi r X X (3.154) (3.155) i=1 j=1 y gra,p (k) 3.6.3 = Bδ−1 (k) risposta permanente. (3.156) Risposta ad ingresso sinusoidale Si considerti ora il caso di una sequenza di ingresso sinusoidale, ad esempio ottenuta per campionamento di un segnale a tempo continuo. Per lo studio della risposta forzata in uscita si consideri quindi un sistema dinamico descritto dalla seguente funzione di trasferimento: W (z) = βn z n + βn−1 z n−1 + · · · + β1 z + β0 . z n + αn−1 z n−1 + · · · + α1 z + α0 (3.157) Applicando in ingresso un segnale sinusoidale di ampiezza unitaria e pulsazione pari ad ωT , con trasformata come sotto indicato: z sin(α) . (3.158) u(k) = sin(ωT k) = sin(αk), U (z) = 2 z − 2z cos(α) + 1 Si noti come, nel caso di sistema a tempo discreto ottenuto per campionamento di un sistema a tempo continuo, con periodo di campionamento T , allora la sequenza di ingresso sin(ωT k) rappresenta appunto il campionamento di un segnale a tempo continuo sin(ωt), di pulsazione pari ad ωrad/sec, mentre la pulsazione del segnale a tempo discreto dipende anche dal periodo di campionamento. Per semplicità, nel seguito il termine ωT varrà sinteticamente indicato con α: α = ωT . I poli del segnale (cioè, i poli della trasformata Zeta del segnale di ingresso) sono sul cerchio unitario nelle posizioni cos(α) + sin(α) = eα e cos(α) − sin(α) = e−α . Assumendo quindi che il sistema non abbia poli complessi coniugati posti in cos(α) ± sin(α), si ottiene la seguente risposta forzata, nel dominio Zeta: z sin(α) βn z n + βn−1 z n−1 + · · · + β1 z + β0 · 2 n n−1 z + αn−1 z + · · · + α1 z + α0 z − 2z cos(α) + 1 qi r X X Ai,j z B1 z B2 z = + + j (z − p ) z − cos(α) − sin(α) z − cos(α) + sin(α) i i=1 j=1 Y sin (z) = (3.159) (3.160) che, nel dominio del tempo, può essere scritta nella forma seguente, raggruppando insieme i termini che derivano dai poli del sistema e quelli che derivano da dai poli della sequenza di ingresso: y sin (k) = qi r X X i=1 j=1 + Ai,j k j−1 B1 e αk + B2 e −αk pi k−(j−1) Modi sistema Modi ingresso. Il calcolo dei residui procede come nel caso generale. In particolare i residui Ai , relativi ai poli del sistema, richiedono, nel caso generale, l’uso delle relazioni valide per punti singolari non semplici, mentre i residui B1 e B2 , relativi ai due termini caratterizzanti il segnale di ingresso, possono essere calcolati sulla base delle relazioni per i poli semplici, in considerazione dell’ipotesi precedente di non coincidenza tra i poli del segnale e quelli del sistema. Si ottiene quindi: Ai,j = lim z→pi 1 dqi −j (qi − j)! dz qi −j (z − pi )qi sin Y (z) , z (3.161) Capitolo 3: Analisi sistemi LTDS B1 = = = W (cos(α) + sin(α)) = = = = (3.162) (3.163) z=cos(α)+ sin(α) (3.164) sin(α) 1 = W (cos(α) + sin(α)) 2 sin(α) 2 1 Mα e ϕα , 2 dove Mα := |W (cos(α) + sin(α))| = |W (eα )|, = = (z − cos(α) − sin(α)) Y (z) z z=cos(α)+ sin(α) (z − cos(α) − sin(α)) z sin(α) W (z) z (z − cos(α) − sin(α))(z − cos(α) + sin(α)) sin(α) W (z) (z − cos(α) + sin(α)) z=cos(α)+ sin(α) = B2 [Ed. 2015, V 4.0 - PV - UniPG] - 3-165 (3.165) ϕα := ∠W (cos(α) + sin(α)) = ∠W (eα ), (z − cos(α) + sin(α)) Y (z) z z=cos(α)− sin(α) (3.166) (z − cos(α) + sin(α)) z sin(α) W (z) z (z − cos(α) − sin(α))(z − cos(α) + sin(α)) sin(α) W (z) (z − cos(α) − sin(α)) z=cos(α)− sin(α) W (cos(α) − sin(α)) − sin(α) − sin(α) 1 = − W (cos(α) − sin(α)) 2 sin(α) 2 1 Mα e ϕα , 2 dove Mα := |W (cos(α) − sin(α))| = |W (e−α )|, (3.167) z=cos(α)− sin(α) (3.168) (3.169) − ϕα := ∠W (cos(α) − sin(α)) = ∠W (e−α ), La risposta forzata ad ingresso sinusoidale, nel dominio del tempo, vale quindi: y sin (k) ytsin (k) = ytsin (k) + ypsin (k) = qi r X X i=1 j=1 ypsin (k) Ai,j k j−1 = B1 e αk + B2 e −αk = (3.170) pi k−(j−1) Modi sistema Modi ingresso (3.171) (3.172) 1 Mα e αk+ϕα − e −αk−ϕα = Mα sin(αk + ϕα ), 2 in cui il termine ytsin (k) raccoglie tutti i modi naturali del sistema e coincide, a meno dei coefficienti della combinazione lineari, cioè a meno dei residui, con la risposta impulsiva, mentre il termine ypsin (k) contiene una replica della sequenza di ingresso, modificato in ampiezza e fase in modo dipendente solo dal valore della funzione di trasferimento alla pulsazione del segnale stesso. Se il sistema ha tutti i poli con modulo minore di uno (cioè, come vedremo in seguito, se il sistema è esternamente stabile), allora, e solo in questo caso, il termine ytsin (k) prende il nome di risposta transitoria e converge a zero esponenzialmente (in modo del tutto analogo a quanto visto per il caso dell’ingresso a gradino). In tal caso, il termine ypsin (k) è il solo segnale che “permane” dopo l’esaurimento del transitorio, ed è la risposta permanente per ingressi sinusoidali. Si noti come, sia nel caso di ingressi sinusoidali sia nel caso precedente di ingressi a gradino, la risposta transitoria esiste solo se la risposta impulsiva converge asintoticamente a zero. In tal caso, la risposta transitoria e la risposta impulsiva sono costruite dalle stesse funzioni elementari, i modi naturali associati ai poli del sistema, combinate linearmente con diversi coefficienti (i residui relativi). Capitolo 3: Analisi sistemi LTDS 3.6.4 [Ed. 2015, V 4.0 - PV - UniPG] - 3-166 Risposta permanente La risposta permanente (in uscita) descrive il comportamento in uscita di un sistema dinamico, a fronte dell’applicazione di un segnale di ingresso e dopo molto tempo dall’istante di applicazione iniziale del segnale stesso. Analoghe considerazioni possono essere svolte per la risposta permamente nello stato. Si noti che la risposta permanente non corrisponde al limite, per tempi tendenti ad infinito, della risposta forzata. Tale limite infatti, per molti segnali di interesse tra cui quelli sinusoidali, non è definito. Formalmente, la risposta permanente è il limite cui tende la risposta forzata, per istante di applicazione k0 del segnale di ingresso tendente a meno infinito: yp (k) := lim y(k, k0 , 0, u(·)), (3.173) k0 →−∞ ove y(k, k0 , 0, u(·)) indica la risposta forzata in uscita, corrispondente all’applicazione del segnale u(·) a partire dall’istante k0 , con condizione iniziale in k0 pari a zero. La risposta permamente, per essere ben definita, non deve dipendere dalle condizioni iniziali. Condizione sufficiente per tale comportamento è che tutti gli autovalori del sistema abbiano modulo minore di uno, con assoluta analogia con quanto già discusso nel caso dei sistemi a tempo continuo. I criteri di esistenza sono analoghi a quelli visti per i sistemi a tempo continuo, e sono sintetizzati dai due seguenti teoremi. Teorema 3.4 (Criterio di esistenza della risposta permanente in uscita per sistemi LSTD) Un sistema dinamico Σ(A, b, c, d) ammette risposta permanente in uscita se e solo se tutti gli autovalori associati ai modi naturali presenti nella risposta libera in uscita hanno modulo minore di uno. ⋄ Teorema 3.5 (Criterio di esistenza della risposta permanente nello stato per sistemi LSTD) Un sistema dinamico Σ(A, b, c, d) ammette risposta permanente nello stato se e solo se tutti i suoi autovalori hanno modulo minore di uno. ⋄ Il concetto di risposta permanente, descritto finora per segnali a gradino e per segnali sinusoidali, può essere esteso a tutti i segnali con trasformata Zeta razionale e con poli a moduo maggiore od uguale ad uno. Ci si limita allo studio della sola risposta forzata in uscita, lasciando al lettore l’estensione al caso della risposta completa in uscita e nello stato. Nel caso generale quindi, sia dato un sistema con funzione di trasferimento: W (z) = βn z n + βn−1 z n−1 + · · · + β1 z + β0 βn z n + βn−1 z n−1 + · · · + β1 z + β0 Qr = q n n−1 z + αn−1 z + · · · + α1 z + α0 i=1 (z − pi )i (3.174) caratterizzata da poli arbitrari, ma tutti con modulo minore di uno, e si consideri un segnale U (z) con trasformata razionale: γµ z µ + γµ−1 z µ−1 + · · · + γ1 z + γ0 γµ z µ + γµ−1 z µ−1 + · · · + γ1 z + γ0 Qρ (3.175) = U (z) = µ µ z + ηµ−1 z µ−1 + · · · + η1 z + η0 i=1 (z − πi )i e tutti i poli πi , i = 1, . . . , ρ con modulo maggiore od uguale ad uno. In tal caso, la risposta forzata può essere scritta, dopo l’espansione in frazioni parziali, nella forma: Y (z) = Yt (z) := βn z n + βn−1 z n−1 + · · · + β1 z + β0 γµ z µ + γµ−1 z µ−1 + · · · + γ1 z + γ0 Qr Qρ · (3.176) q µ i=1 (z − pi )i i=1 (z − πi )i µi ρ X qi r X X X Bi,j z Ai,j z + = Yt (z) + Yp (z), j (z − p ) (z − πi )j i i=1 j=1 i=1 j=1 W (z)U (z) = qi r X X i=1 j=1 Ai,j z , (z − pi )j Yp (z) := µi ρ X X i=1 j=1 Bi,j z . (z − πi )j (3.177) Antitrasformando nel domino del tempo si ottiene quindi: y(k) = yt (k) + yp (k), yt (k) yp (k) = Z −1 {Yt (z)} = = Z −1 {Yp (z)} = (3.178) qi r X X i=1 j=1 µi ρ X X i=1 j=1 Ai,j Bi,j k j−1 pi k−(j−1) (3.179) k j−1 πi k−(j−1) . (3.180) Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-167 Se tutti i poli del sistema sono con modulo minore di uno, il termine yt (k) converge asintoticamente a zero, e costituisce la risposta transitoria: in tal caso, e solo in tal caso, il termine yp (k), che contiene gli stessi modi del segnale di ingresso (a meno dei coefficienti della combinazione lineare), indica la risposta permanente del sistema all’ingresso dato. Da un punto di vista pratico, la determinazione della risposta permanente, qualora esista, può quindi essere condotta limitando il calcolo alla porzione di risposta forzata in uscita relativa ai soli termini che costituiscono il segnale di ingresso, e cioè ai soli termini Yp (z) nella relazione generale (3.177). Come in tutti i casi precedenti, il caso in cui alcuni poli del segnale siano complessi coniugati si tratta, a partire dalla (3.177), raccogliendo i termini esponenziali relativi alle coppie complesse (tenendo conto della molteplicità) ed esprimendo le corrispondenti combinazioni in forma reale, utilizzando funzioni polinomialeesponenziale-sinusoidale e polinomiale-esponenziale-sinusoidale. Capitolo 3: Analisi sistemi LTDS 3.7 [Ed. 2015, V 4.0 - PV - UniPG] - 3-168 Esercizi proposti Esercizio 3.5 Si consideri il sistema dinamico planare x(k + 1) = 0 0 0 0 x, (3.181) ▽ e si conduca l’analisi modale. Esercizio 3.6 Determinare la trasformata z della sequenza temporale: π k−2 h π i π x(k) = k−1 1 − sin( k) − cos( k) δ−1 (k − 10), 2 2 2 k ∈ Z, con δ−1 (k) funzione gradino unitario. Esercizio 3.7 Calcolare la funzione antitrasformata z della seguente funzione: X(z) = 1 . (z 2 + 16)2 Esercizio 3.8 Calcolare le trasformate inverse delle seguenti funzioni razionali in z: 1 , + 2) 1 , (z 2 − 2) 1 , (z 2 + 2)2 z+4 . 2 (z + 2)(z + 1)(z + 3) X1 (z) = (z 2 X2 (z) = X3 (z) = X4 (z) = 2 Esercizio 3.9 La sequenza x(k), k ∈ Z+ , sia generata a partire da x(−1) = , x(0) = 1 per mezzo della 3 seguente regola induttiva sull’intero k ∈ N, k ≥ 1: k−1 X 2 x(k + 1) = x(τ ) − 2x(τ + 1) . 3 τ =−1 Dopo avere espresso x(k) come soluzione di un’equazione alle differenze finite, utilizzare il metodo della trasformazione z per calcolare l’espressione analitica di x(k) come funzione di k ∈ Z+ . Esercizio 3.10 Sia assegnata la seguente serie formale +∞ X h+3 ρh , 3 h=0 dove h+3 3 ρ ∈ R, è definito nel modo seguente: h+3 3 = ( 0, h ∈ Z, h < 0, (h + 3)! , h ∈ Z, h ≥ 0. h!3! Utilizzando il metodo della trasformazione z, determinare i valori di ρ per i quali la serie converge e (nel caso di convergenza) la somma di tale serie. Esercizio 3.11 Data la seguente matrice 4 1 B= 1 1 0 4 0 0 0 0 4 0 0 0 1 4 determinare, per mezzo della trasformazione z, la matrice B k , k ∈ Z+ . Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-169 Esercizio 3.12 Calcolare la funzione antitrasformata z della seguente funzione: X(z) = z . (z 2 + 4)2 Esercizio 3.13 Calcolare la funzione antitrasformata z della seguente funzione: X(z) = (z 2 z . − 4)(z 2 − 9) Esercizio 3.14 Calcolare la funzione antitrasformata z della seguente funzione: X(z) = z . (z 2 + 4)(z 2 + 9) Esercizio 3.15 Calcolare la funzione antitrasformata z della seguente funzione: X(z) = 1 . (z 2 − 4)(z 2 + 1) Esercizio 3.16 Calcolare la funzione antitrasformata z della seguente funzione: X(z) = (z 2 1 . + 1)(z 2 − 9) Esercizio 3.17 Date le matrici: A = F = λ1 0 0 λ1 0 0 1 λ2 0 0 λ2 0 0 1 , λ3 0 0 , λ3 con i tre parametri λ1 , λ2 e λ3 reali e distinti tra loro, calcolare gli esponenziali di matrice (a tempo discreto) Ak , k ∈ Z+ e F k , k ∈ Z+ , per mezzo della trasformata z. Commentare il risultato. Esercizio 3.18 Dato il sistema dinamico a tempo discreto: x1 (k + 1) = 1/2x1 (k) + 2x2 (k), x2 (k + 1) = y(k) = −1/2x2(k) + u(k), x1 1. determinare la funzione di trasferimento ingresso-uscita; 2. calcolare la risposta in uscita ad un gradino unitario (a partire da condizioni iniziali nulle); 3. determinare, se esistono, le condizioni iniziali che assicurano una risposta in uscita, per ingresso a gradino unitario, costante per tutti i tempi. Esercizio 3.19 Calcolare la funzione trasformata z della seguente funzione: k k (δ−1 (k − h) − δ−1 (k − k)), x(k) = 2 1 dove δ−1 (k) è la funzione gradino unitario, e h, k sono numeri interi positivi. Esercizio 3.20 Calcolare la funzione trasformata z della seguente funzione, parametrica in h e k: k+1 k (δ−1 (k − h) − δ−1 (k − k)), x(k) = 4 1 dove δ−1 (k) è la funzione gradino unitario, e h, k sono numeri interi positivi. Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-170 Esercizio 3.21 Calcolare la funzione trasformata z della seguente funzione, parametrica in h e k: k−1 k (δ−1 (k − h) − δ−1 (k − k)), x(k) = 6 1 dove δ−1 (k) è la funzione gradino unitario, e h, k sono numeri interi positivi. Esercizio 3.22 Utilizzando il metodo della trasformazione z, determinare la soluzione, a partire da condizioni iniziali nulle all’istante k = 0, della seguente equazione alle differenze finite: 1 = k + 3k , k ∈ Z+ . 16 Utilizzando il metodo della trasformazione z, determinare inoltre la soluzione a regime permanente e la soluzione transitoria a partire da condizioni iniziali nulle all’istante t = 0. x(k + 4) − Esercizio 3.23 Data la seguente matrice 2 0 F = 0 0 0 0 0 0 λ 0 0 λ∗ 1 2 0 0 ove λ è un numero complesso e λ∗ il suo coniugato, determinare, per mezzo della trasformazione z, la matrice F k , k ∈ Z+ ,. Esercizio 3.24 Data la seguente matrice 1 3 B= 1 1 0 0 0 3 0 0 0 0 0 0 3 3 determinare, per mezzo della trasformazione z, la matrice B k , k ∈ Z+ ,. Esercizio 3.25 Dato il sistema dinamico a tempo discreto descritto dalle seguenti equazioni alle differenze finite: x1 (k + 1) = x2 (k + 1) = x2 (k), x1 (k) + x2 (k), y(k) = x1 (k) + x2 (k), si determini, per mezzo della trasformazione Zeta, la soluzione di tale sistema (sia nelle variabili di stato che nella variabile di uscita) a partire da una condizione iniziale x1 (0) = 1, x2 (0) = 0 ed a partire da una condizioni iniziale x1 (0) = 0, x2 (0) = 1. Esercizio 3.26 Dato il sistema dinamico a tempo discreto descritto dalle seguenti equazioni alle differenze finite: x1 (k + 1) = −x2 (k), x2 (k + 1) = x1 (k), y(k) = x1 (k), si determini, per mezzo della trasformazione Zeta, la soluzione di tale sistema (sia nelle variabili di stato che nella variabile di uscita) a partire da una condizione iniziale x1 (0) = 1, x2 (0) = 0 ed a partire da una condizioni iniziale x1 (0) = 0, x2 (0) = 1. Esercizio 3.27 Dato il sistema lineare a tempo discreto: x1 (k + 1) = x2 (k) x2 (k + 1) = −p1 x1 (k) − (p1 + 1)x2 (k) + u(k), y(k) = x1 (k) + x2 (k), se ne determini la funzione di trasferimento tra l’ingresso u(k) e l’uscita y(k), al variare del parametro p1 nell’insieme dei reali. Capitolo 3: Analisi sistemi LTDS [Ed. 2015, V 4.0 - PV - UniPG] - 3-171 Esercizio 3.28 Dato il sistema lineare a tempo discreto: x1 (k + 1) = x2 1 x2 (k + 1) = (x1 − x2 ) + u(k), 6 y(k) = x1 , si risolvano i seguenti problemi. 1. Determinare la funzione di trasferimento tra l’ingresso u(k) e l’uscita y(k). 2. Determinare l’esponenziale di matrice soluzione dell’equazione omogenea associata. 3. Calcolare la risposta in uscita per i seguenti segnali di ingresso (nulli per k < 0), assumendo condizioni iniziali nulle: u(k) = 2δ−1 (k); u(k) = δ(k − 2); u(k) = 3k ; u(k) = (−1)k . 4. Valutare l’esistenza della risposta permanente del sistema. 5. Calcolare, se esiste, il vettore di condizioni iniziali x1 (0) = x1,0 , x2 (0) = x2,0 cui corrisponde una risposta completa coincidente con la risposta permanente, assumendo come segnale di ingresso un gradino unitario. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-172 Capitolo 4 Stabilità 4.1 Introduzione Una delle proprietà qualitative più importanti nello studio dei sistemi dinamici è quella di stabilità, che corrisponde alla discussione della seguente domanda: come reagisce un sistema dinamico che, trovandosi in uno stato di quiete (stato di equilibrio), viene sottoposto ad una perturbazione che lo sposta da tale stato? Lo studio della stabilità ha le sue origine nei lavori pionieristici, ed indipendenti, di A.M. Lyapunov1 e di J.H. Poincaré2, agli inizi del secolo scorso. L’idea principale dei due ricercatori è quella di studiare le proprietà qualitative di un insieme di soluzioni di un’equazione differenziale, senza procedere all’effettivo calcolo delle soluzioni stesse, sia in forma chiusa sia in forma numerica. 4.2 Definizione di stabilità Lo studio della stabilità è centrato intorno al concetto di punto di equilibrio. Un punto xe dello spazio di stato di un sistema dinamico è punto di equilibrio o stato di equilibrio se il sistema rimane in quiete nel punto indefinitamente, eventualmente sotto l’effetto di un segnale di ingresso costante. Si consideri il sistema dinamico non lineare: ẋ = f (x, u), x ∈ Rn , (4.1) e sia x(t) = x(t, t0 , x0 , u(·)) lo stato del sistema (cioè, la soluzione dell’equazione differenziale) all’istante t, a partire dallo stato x0 all’istante iniziale t0 , sotto l’effetto del segnale di ingresso u(·). Un punto xe è punto di equilibrio per il sistema dinamico (4.1), sotto l’effetto del segnale di ingresso costante u(t) = ue , ∀t ≥ t0 , se e solo se: xe = x(t, t0 , xe , ue ), ∀t ≥ t0 . (4.2) Se xe è punto di equilibrio, la condizione (4.2) implica, per un sistema dinamico a tempo continuo, ẋe = 0, e quindi i punti di equilibrio del sistema (4.1), per ingresso costante ue , sono tutte, e sole, le soluzione reali dell’equazione algebrica: f (xe , ue ) = 0. (4.3) Commento 4.1 Si noti che il caso di un sistema dinamico caratterizzato da un punto di equilibrio xe distinto dall’origine e relativo ad un segnale di ingresso costante non nullo ue , può sempre essere ricondotto al caso di un sistema dinamico autonomo (cioè, senza forzamento) con equilibrio nell’origine. Infatti, sia xe 6= 0 punto di equilibrio per il sistema (4.1) per ingresso ue 6= 0. Si consideri come nuovo vettore di stato z := x − xe e come nuovo ingresso il segnale v := u − ue . Il sistema dinamico ż = f¯(z, v), f¯(z, v) := f (z + xe , v + ue ) (4.4) ha quindi un punto di equilibrio nell’origine relativo ad ingresso nullo, poiché f¯(0, 0) = f (xe , ue ) = 0. Non è insomma restrittivo limitare l’analisi al caso di un sistema autonomo con equilibrio nell’origine. La precedente affermazione diviene particolarmente importante nei sistemi lineari, come si vedrà più avanti. 1 Aleksandr 2 Jules Michajlovič Ljapunov (Jaroslavl, 1857 - Odessa, 1918) Henry Poincaré (Nancy, 1854 - Parigi, 1912) Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-173 Analogamente a quanto visto nella condizione (4.3), i punti di equilibrio di un sistema dinamico a tempo discreto descritto dall’equazione alle differenze finite: x(t + 1) = f (x(t), u(t)), x ∈ Rn , t ∈ Z, (4.5) per i quali vale ancora la condizione di equilibrio (4.2), possono essere determinati sulla base delle soluzioni reali dell’equazione algebrica: xe = f (xe , ue ). (4.6) Anche in questo caso, l’analisi può essere limitata al caso di un equilibrio nell’origine per un sistema autonomo. Nel seguito, per semplicità di notazione, il generico sistema dinamico di interesse, sia a tempo continuo sia a tempo discreto, verrà indicato con la notazione unificata: ∆x(t) = f (x, u), x ∈ Rn , t ∈ T . (4.7) Nel caso di un sistema a tempo continuo l’operatore ∆ indica la derivata prima rispetto al tempo e T = R, nel caso di un sistema a tempo discreto l’operatore ∆ indica un anticipo temporale di un passo e T = Z. Con abuso di notazione, si scriverà anche f (xe , ue ) = ∆xe per indicare una condizione di equilibrio sia a tempo continuo sia a tempo discreto. La coppia di valori (xe , ue ) verrà indicata anche con il termine punto di lavoro del sistema. L’evoluzione del sistema (4.7) a partire da una generica condizione iniziale x0 6= xe , interpretata come una perturbazione, cioé uno scostamento, rispetto all’equilibrio, sotto l’effetto del segnale di ingresso costante ue tale che f (xe , ue ) = ∆xe , e descritta dalla relazione generale x(t) = x(t, t0 , x0 , ue ), verrà chiamata evoluzione perturbata o traiettoria perturbata ed indicata brevemente come xs (t), xs (t) := x(t, t0 , x0 , ue ). La stabilità di un punto di equilibrio di un sistema dinamico concerne il comportamento del sistema stesso se perturbato rispetto al suo stato di equilibrio. La domanda principale cui fornisce risposta la teoria della stabilità è: cosa accade al moto di un sistema dinamico, in quiete in un punto di equilibrio, se il sistema, per effetto di una piccola perturbazione, viene spostato dallo stato dall’equilibrio? Un esempio classico è quello di una massa puntiforme posta su di una superficie con minimi e massimi locali, come indicato in figura 4.1. Nel caso di una massa in quiete in corrispondenza di un minimo, una piccola perturbazione dello stato del sistema, ad esempio una lieve variazione della posizione o della velocità, porta ad un moto che non si allontanerà molto dalla posizione di equilibrio, e tale moto sarà tanto più prossimo all’equilibrio quanto minore sarà la perturbazione iniziale. Un comportamento di questo tipo corrisponde ad un equilibrio stabile. Se inoltre il moto del punto materiale tende a tornare, asintoticamente, sul punto di equilibrio, ad esempio perchè il sistema è caratterizzato anche da forze dissipative, come l’attrito, si parla di punto di equilibrio asintoticamente stabile. Figura 4.1: Punti di equilibrio Viceversa, una perturbazione, comunque piccola, allo stato di una massa puntiforme in equilibrio in corrispondenza di un massimo produrrà un moto che si allontanerà in modo definito dall’equilibrio stesso, senza alcuna possibilità di rimanere confinato in un intorno del punto di equilibrio. Un comportamento di questo tipo corrisponde ad un equilibrio non stabile, o instabile. Si noti che, nell’esempio citato, l’evoluzione perturbata relativa ad un equilibrio instabile potrebbe finire in prossimità di un equilibrio stabile: l’instabilità insomma non implica necessariamente comportamenti che tendono ad infinito. Le precedenti definizione informali di punti di equilibrio stabili, asintoticamente stabili ed instabili possono essere poste in termini formali, nel contesto della stabilità á la Lyapunov. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-174 Le definizioni che seguono in questa sezione sono applicabili sia al caso dei sistemi a tempo continuo che a quello dei sistemi a tempo discreto. La norma utilizzata nel seguito si può assumere essere la consueta norma L2 (Euclidea), sebbene tutte le norme siano equivalenti (in spazi finito dimensionali). Definizione 4.1 (Equilibrio stabile) Un punto di equilibrio xe di un sistema ∆x = f (x, u) è detto punto di equilibrio stabile se, per ogni ǫ > 0, esiste un δ > 0 tale che, per ogni condizione iniziale x0 : kx0 − xe k < δ, ne segue che kxs (t) − xe k < ǫ, ∀t > t0 , xs (t) := x(t, t0 , x0 , ue ). x(t) ǫ x0 xe δ Figura 4.2: Punto di equilibrio stabile Un secondo concetto importante è quello di convergenza. Definizione 4.2 (Equilibrio convergente) Un punto di equilibrio xe di un sistema ∆x = f (x, u) è detto punto di equilibrio convergente se esiste un δ > 0, tale che, per ogni condizione iniziale x0 : kx0 − xe k < δ, ne segue che limt→∞ kxs (t) − xe k = 0, xs (t) := x(t, t0 , x0 , ue ). x(t) δ x0 xe Figura 4.3: Punto di equilibrio convergente La proprietà di convergenza descrive un comportamento asintotico, senza fornire indicazioni sul comportamento transitorio: un punto convergente non è necessariamente stabile. Definizione 4.3 (Equilibrio asintoticamente stabile) Un punto di equilibrio xe di un sistema ∆x = f (x, u) è detto punto di equilibrio asintoticamente stabile se è sia stabile sia convergente. Definizione 4.4 (Equilibrio non stabile) Un punto di equilibrio xe di un sistema ∆x = f (x, u) è detto punto di equilibrio non stabile (o instabile) se non è stabile. Concetti di stabilità analoghi a quelli visti per punti di equilibrio possono essere introdotti anche per moti e traiettorie. In queste note ci si limita allo studio di punti, rimandando ad altri testi per tali estensioni. Sulla base delle definizioni di stabilità date, possono essere introdotti criteri di stabilità di diversa natura. Nel seguito verranno presentati criteri validi per sistemi dinamici lineari, e poi si passerà allo studio di sistemi non lineari. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-175 x(t) ǫ x0 xe δ Figura 4.4: Punto di equilibrio asintoticamente stabile 4.3 Stabilità di sistemi lineari Si consideri un sistema lineare a tempo continuo, stazionario: ẋ = Ax + Bu, x ∈ Rn , u ∈ Rm . (4.8) I punti di equilibrio di tale sistema sono dati dalla soluzione del sistema omogeneo algebrico: Axe + Bue = 0. (4.9) Nel caso particolare di un sistema omogeneo, e quindi descritto da ẋ = Ax, x ∈ Rn , (4.10) la totalità dei punti di equilibrio è data dalle soluzioni del sistema omogeneo: Axe = 0, (4.11) tra le quali è sempre presente la soluzione nulla, e quindi l’origine è sempre punto di equilibrio di un sistema lineare, a tempo continuo, omogeneo. L’esistenza di ulteriori punti di equilibrio è legata alla dimensione del nucleo della matrice A: se tale sottospazio ha dimensione non nulla, il sistema ha infiniti punti di equilibrio. Si noti che tale sottospazio coincide con l’autospazio associato all’autovalore nullo. Si può enunciare il seguente lemma: Lemma 4.1 In un sistema lineare, a tempo continuo, stazionario ed omogeneo, l’origine è sempre punto di equilibrio, ed è unico se il sistema non ha autovalori nulli. Se il sistema ha uno o più autovalori nell’origine, esso ammette infiniti punti di equilibrio, dati dall’intero autospazio associato all’autovalore nullo. Nel caso dei sistemi a tempo discreto si ha una situazione simile. Dato un sistema LSTD: x(t + 1) = Ax + Bu, x ∈ Rn , u ∈ Rm , t ∈ Z, (4.12) i sui punti di equilibrio sono dati dalla soluzione del sistema omogeneo algebrico: Axe + Bue = xe . (4.13) Nel caso particolare di un sistema omogeneo, e quindi descritto da x(t + 1) = Ax, x ∈ Rn , t ∈ Z, (4.14) la totalità dei punti di equilibrio è data dalle soluzioni del sistema omogeneo: Axe = xe ⇔ (I − A)xe = 0, (4.15) tra le quali è sempre presente la soluzione nulla, e quindi l’origine è sempre punto di equilibrio di un sistema lineare, a tempo discreto, omogeneo. L’esistenza di ulteriori punti di equilibrio è legata alla dimensione del nucleo della matrice (I − A): se tale sottospazio ha dimensione non nulla, il sistema ha infiniti punti di equilibrio. Si noti che tale sottospazio coincide con l’autospazio associato all’autovalore pari ad uno. Si può enunciare il seguente lemma: Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-176 Lemma 4.2 In un sistema lineare, a tempo discreto, stazionario ed omogeneo, l’origine è sempre punto di equilibrio, ed è unico se il sistema non ha autovalori unitari. Se il sistema ha uno o più autovalori unitari (λ = 1), esso ammette infiniti punti di equilibrio, dati dall’intero autospazio associato all’autovalore pari ad uno. Nel caso dei sistemi lineari, la forma della soluzione dell’equazione differenziale può essere determinata nel caso generale, ed è data dalla ben nota funzione esponenziale matriciale: x(t) = e At x0 , t ∈ R, (4.16) nel caso a tempo continuo e dalla forma “esponenziale” corrispondente: x(t) = At x0 , t ∈ Z, (4.17) nel caso dei sistemi a tempo discreto. In entrambi i casi, l’esponenziale di matrice contiene tutti i modi naturali del sistema. Il comportamento transitorio ed asintotico della soluzione dipende quindi, come già ben noto, dalle caratteristiche di convergenza dei modi naturali. Si ricordi che la condizione iniziale x0 , che descrive l’effetto della perturbazione iniziale, appare come termine moltiplicativo della risposta libera nello stato. La definizione (4.1) di stabilità di un punto di equilibrio, specializzata al caso dell’origine, diviene: Definizione 4.5 (Stabilità dell’origine per un sistema lineare omogeneo) L’origine xe = 0 è punto di equilibrio stabile per un sistema lineare omogeneo ∆x = Ax se per ogni ǫ > 0 esiste un δ > 0 tale che, per ogni condizione iniziale kx0 k < δ, si abbia kxs (t)k < ǫ, ∀t ≥ t0 . La traiettoria perturbata in questo caso corrisponde ad una risposta libera nello stato. Intuitivamente, si avrà il comportamento descritto nella definizione se, e solo se, tutti i modi naturali del sistema sono limitati o convergenti. Più precisamente, indicata con kM k la norma indotta3 sulla matrice M dalla norma vettoriale in uso, e ricordando che kM vk ≤ kM k · kvk, si può scrivere: kxs (t)k kxs (t)k = = k expAt x0 k ≤ k expAt kkx0 k, ∀t ≥ t0 , kAt x0 k ≤ kAt kkx0 k, ∀t ≥ t0 , t ∈ Z. t ∈ R, (4.18) (4.19) Sia nel caso dei sistemi a tempo continuo, sia nel caso dei sistemi a tempo discreto, ne segue che l’origine è un punto di equilibrio stabile se la norma dell’esponenziale di matrice è limitata per tutti i valori del tempo. Poichè tale matrice contiene tutti i modi naturali del sistema, la presenza anche di un solo modo divergente rende non limitata la norma, e quindi non stabile l’origine. Ne segue il seguente criterio: Lemma 4.3 (Criterio di stabilità dell’origine per un sistema lineare omogeneo) L’origine dello spazio di stato è punto di equilibrio stabile per un sistema lineare omogeneo ∆x = Ax se e solo se tutti i modi naturali del sistema sono limitati o convergenti. Il criterio può essere specializzato al caso dei sistemi a tempo continuo e di quelli a tempo discreto per il tramite delle seguenti formulazioni specifiche. Si ricorda che lo spettro di una matrice A, indicato con sp(A), costitutisce l’insieme di tutti i suoi autovalori, che la molteplicità algebrica di un autovalore è indicata con µ e la molteplicità geometrica con ν. Teorema 4.1 (Criterio di stabilità dell’origine per sistemi lineari omogenei a tempo continuo) L’origine dello spazio di stato è punto di equilibrio stabile per un sistema lineare omogeneo a tempo continuo ẋ = Ax se e solo se tutti i modi naturali del sistema sono limitati o convergenti, e cioè se e solo se valgono entrambe le condizioni: Re(λ) ≤ 0, ∀λ ∈ sp(A), ∀λ ∈ sp(A) : Re(λ) = 0, ⇒ µ = ν. 3 Assunta (4.20a) (4.20b) una norma kvk per i vettori di uno spazio Rn , si dice norma indotta di una matrice M ∈ Rn×n la quantità: kAvk = maxkvk=1 kAvk maxv kvk Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-177 Infatti, ad autovalori con parte reale negativa corrispondono modi naturali convergenti, per la presenza di un termine esponenziale reale con parametro pari proprio alla parte reale dell’autovalore, e ad autovalori con parte reale nulla e molteplicità algebrica e geometrica uguali corrispondono modi naturali limitati (funzioni a gradino o funzioni co/sinusoidali). In modo analogo, per i sistemi a tempo discreto. Teorema 4.2 (Criterio di stabilità dell’origine per sistemi lineari omogenei a tempo discreto) L’origine dello spazio di stato è punto di equilibrio stabile per un sistema lineare omogeneo a tempo discreto x(t+ 1) = Ax se e solo se tutti i modi naturali del sistema sono limitati o convergenti, e cioè se e solo se valgono entrambe le condizioni: |λ| ≤ 1, ∀λ ∈ sp(A), ∀λ ∈ sp(A) : |λ| = 1, ⇒ µ = ν. (4.21a) (4.21b) Infatti, ad autovalori con modulo minore di uno corrispondono modi naturali convergenti, per la presenza di un termine “esponenziale a tempo discreto” reale, del tipo σ t , con parametro pari proprio al modulo dell’autovalore, e ad autovalori con modulo unitario e molteplicità algebrica e geometrica uguali corrispondono modi naturali limitati (funzioni a gradino o funzioni periodiche). Si consideri ora la definizione di punto di equilibrio convergente, adattandola allo studio dell’origine di un sistema lineare. Definizione 4.6 (Convergenza dell’origine per un sistema lineare omogeneo) L’origine xe = 0 è punto di equilibrio convergente per un sistema lineare omogeneo ∆x = Ax se esiste un δ > 0 tale che, per ogni condizione iniziale kx0 k < δ, ne segue che limt→∞ kxs (t)k = 0. Intuitivamente, si avrà il comportamento descritto nella definizione se, e solo se, tutti i modi naturali del sistema sono convergenti. Ricordando le relazioni (4.18) e (4.19), si trova che, sia nel caso dei sistemi a tempo continuo, sia nel caso dei sistemi a tempo discreto, l’origine è un punto di equilibrio convergente se la norma dell’esponenziale di matrice è convergente a zero asintoticamente. Poichè tale matrice contiene tutti i modi naturali del sistema, la presenza anche di un solo modo divergente o limitato rende non convergente la norma, e quindi non convergente l’origine. Ne segue il seguente criterio: Lemma 4.4 (Criterio di convergenza dell’origine per un sistema lineare omogeneo) L’origine dello spazio di stato è punto di equilibrio convergente per un sistema lineare omogeneo ∆x = Ax se e solo se tutti i modi naturali del sistema sono convergenti. Si noti che la classe di sistemi per i quali l’origine è convergente è strettamente contenuta nella classe dei sistemi per i quali l’origine è punto di equilibrio stabile. Ne consegue che, limitatamente ai sistemi lineari, la convergenza implica la stabilità, e quindi la stabilità asintotica. Ciò è sintetizzato dal seguente risultato. Lemma 4.5 (Criterio di stabilità asintotica dell’origine per un sistema lineare omogeneo) L’origine dello spazio di stato è punto di equilibrio asintoticamente stabile per un sistema lineare omogeneo ∆x = Ax se e solo se tutti i modi naturali del sistema sono convergenti. Il criterio precedente può essere specializzato al caso dei sistemi stazionari a tempo continuo (TC) e di quelli a tempo discreto (TD) per il tramite delle seguenti formulazioni specifiche. Teorema 4.3 (Criterio di stabilità asintotica dell’origine per sistemi omogenei LSTC) L’origine dello spazio di stato è punto di equilibrio asintoticamente stabile per un sistema lineare stazionario omogeneo a tempo continuo ẋ = Ax se e solo se tutti i modi naturali del sistema sono convergenti, e cioè se e solo se vale la condizione: Re(λ) < 0, ∀λ ∈ sp(A). (4.22) In modo analogo, per i sistemi a tempo discreto. Teorema 4.4 (Criterio di stabilità asintotica dell’origine per sistemi omogenei LSTD) L’origine dello spazio di stato è punto di equilibrio asintoticamente stabile per un sistema lineare stazionario omogeneo a tempo discreto x(t + 1) = Ax se e solo se tutti i modi naturali del sistema sono convergenti, e cioè se e solo se vale la condizione: |λ| < 1, ∀λ ∈ sp(A). (4.23) Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-178 Commento 4.2 Si noti come, nel caso dei sistemi lineari, le proprietà di stabilità siano globali, e in particolare la perturbazione impressa allo stato iniziale, caratterizzata dal reale δ nelle definizioni, possa essere arbitrariamente grande. Nel caso dei sistemi lineari, specializzando il contenuto del commento 4.1, è facile vedere che se un sistema, anche non omogeneo, ammette molti (e quindi infiniti) punti di equilibrio, questi hanno tutti le stesse proprietà di stabilità dell’origine del sistema omogeneo associato. Ne segue che, limitatamente al caso lineare, le proprietà di stabilità dell’origine vengono attribuite anche all’intero sistema, e si parla quindi di sistemi stabili, sistemi asintoticamente stabili e sistemi instabili, in funzione della collocazione degli autovalori nel piano complesso definita nei criteri di stablità dell’origine riportati in precedenza. 4.3.1 L’equazione di Lyapunov Per lo studio della stabilità di sistemi lineari à disponibile anche un risultato che si rivela interessante in sede di progetto di controllori stabilizzanti, sia per sistemi lineari sia per sistemi non lineari: l’equazione di Lyapunov. Si ricorda la seguente definizione. Definizione 4.7 (Matrice definita positiva) Una matrice quadrata, reale e simmetrica M , di dimensioni n × n, è detta definita positiva se la forma quadratica xT M x, x ∈ Rn , è definita positiva. Si consideri il sistema LSTC omogeneo in (4.10). Si ha il seguente teorema. Teorema 4.5 (Equazione di Lyapunov per sistemi LSTC omogenei) Il sistema lineare, stazionario, a tempo continuo, omogeneo ẋ = Ax, x ∈ Rn , (4.24) è asintoticamente stabile se e solo se, per ogni matrice Q simmetrica e definita positiva, l’equazione matriciale lineare: AT P + P A = −Q (4.25) nella matrice incognita P , quadrata, reale, simmetrica e definita positiva, ammette una soluzione simmetrica e definita positiva. L’equazione (4.25) è detta appunto equazione di Lyapunov a tempo continuo. Per i sistemi a tempo discreto vale un risultato analogo. La corrispondente equazione è detta equazione di Lyapunov a tempo discreto. Teorema 4.6 (Equazione di Lyapunov per sistemi LSTD omogenei) Il sistema lineare, stazionario, a tempo discreto, omogeneo x(k + 1) = Ax, x ∈ Rn , (4.26) è asintoticamente stabile se e solo se, per ogni matrice Q simmetrica e definita positiva, l’equazione matriciale lineare: AT P A − P = −Q (4.27) nella matrice incognita P , quadrata, reale, simmetrica e definita positiva, ammette una soluzione simmetrica e definita positiva. 4.4 Il criterio ridotto di Lyapunov per sistemi non lineari Lo studio della stabilità di punti di equilibrio per sistemi non lineari può essere condotta, in prima approssimazione, studiando il comportamento, intorno al punto stesso, di una versione approssimata del sistema dinamico. Si consideri un sistema non lineare ∆x = f (x, u), x ∈ Rn , u ∈ Rm , (4.28) e sia xe un punto di equilibrio per tale sistema, cioè, tale che ∆xe = f (xe , ue ). Il punto di equilibrio xe può essere preso come punto iniziale per un’espansione in serie di Taylor della funzione f (x, u). Indicati con δx := x − xe Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-179 e δu = u − ue gli scostamenti rispetto all’equilibrio dello stato interno del sistema e del segnale di ingresso, lo sviluppo in serie di Taylor della funzione vettoriale f (x, u) è dato da: ∂f (x, u) ∂f (x, u) δx + δu + r(δx, δu, xe , ue ) (4.29) f (x, u) = f (xe , ue ) + ∂x x=xe ∂u x=xe u=ue u=ue dove r(δx, δu, xe , ue ) indica il resto dello sviluppo in serie. Poiché esso contiene solo termini di ordine superiore al primo in δx e δu, costituisce un infinitesimo di ordine superiore rispetto ai due incrementi, e cioè: lim δx→0 kr(δx, δu, xe , ue )k = 0, kδxk lim δu→0 kr(δx, δu, xe , ue )k = 0. kδuk (4.30) ∂f (x, u) , di dimensioni n×n, è detta matrice jacobiana della funzione vettoriale (più precisamente, ∂x ∂f (x, u) , di dimensioni n×m, è detta matrice jacobiana del campo vettoriale) f (x, u) rispetto ad x, ed il termine ∂u della funzione vettoriale f (x, u) rispetto ad u. Valutando le due matrici jacobiane in corrispondenza del punto di lavoro (xe , ue ) si ottengono due matrici ad elementi reali, indicate con A e B per analogia con il caso lineare: ∂f (x, u) ∂f (x, u) , B := . (4.31) A := ∂x x=xe ∂u x=xe Il termine u=ue u=ue Il campo vettoriale f (x, u), in un intorno del punto di lavoro, può quindi essere approssimato come: f (x, u) ≃ f (xe , ue ) + Aδx + Bδu. (4.32) Ne consegue che il sistema non lineare (4.28), in un intorno del punto di lavoro (xe , ue ), è descritto dal modello lineare approssimato: ∆δx = Aδx + Bδu, (4.33) ed i particolare ˙ = Aδx + Bδu, δx (4.34) δx(t + 1) = Aδx + Bδu, (4.35) per un sistema a tempo continuo e per un sistema a tempo discreto. Commento 4.3 Si precisa che i modelli lineari (4.34) e (4.35) descrivono l’evoluzione approssimata dello scostamento δx tra l’andamento effettivo dello stato x(t) del sistema nonlineare ed il corrispondente punto di equilibrio. Di per sé, quindi, l’utilizzo dello stesso simbolo δx nelle (4.34) e (4.35) e nella definizione δx := x − xe non è completamento corretto. Si procede nel modo proposto per semplicità di notazione. Le proprietà di stabilità dell’approssimazione lineare (più formalmente, della sua origine), possono essere utilizzate per caratterizzare, per piccole perturbazioni, le proprietà di stabilità del punto di equilibrio del sistema non lineare originale. L’idea alla base di tale risultato deriva dal fatto che, in un intorno sufficientemente piccolo dell’origine, un termine lineare non identicamente nullo cresce più velocemente di qualsiasi termine polinomiale di ordine superiore al primo. Purtroppo, se tale termine lineare è nullo (cioè, con coefficiente angolare nullo), la crescita è imposta dai termini di ordine superiore. Tali idee qualitative possono essere raccolte nel seguente teorema, detto criterio ridotto di Lyapunov, formulabile come segue per un generico sistema, e specializzato nel seguito tenendo conto della natura del tempo. Teorema 4.7 (Criterio ridotto di Lyapunov) Sia (xe , ue ) un punto di lavoro per un sistema non lineare ∆x = f (x, u), e sia ∆δx = Aδx l’approssimazione lineare di tale sistema intorno al punto di lavoro, calcolata secondo le relazioni (4.31). Allora, il punto xe è punto di equilibrio: 1. asintoticamente stabile, se tutti i modi naturali dell’approssimazione lineare sono convergenti (cioè, se l’approssimazione lineare è asintoticamente stabile); 2. instabile, se l’approssimazione lineare ha almeno un modo naturale divergente (cioè, se l’approssimazione lineare è instabile); Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-180 3. critico (caso critico) se l’approssimazione lineare ha uno o più modi naturali limitati e gli altri convergenti (cioè, se l’approssimazione lineare è semplicemente stabile). Si precisa che la dizione caso critico indica che il criterio ridotto non è in grado di fornire risposte significative, poiché il comportamento del sistema in un intorno del punto di lavoro è caratterizzato dai termini di ordine superiore al primo, che sono stati trascurati nella costruzione della approssimazione lineare. Si vedano, in proposito, i successivi esempi 4.1 ed 4.2. Il criterio ridotto può essere formulato in modo più specifico in funzione della natura dei sistemi. Per la classe dei sistemi non lineari a tempo continuo si ha il seguente teorema. Teorema 4.8 (Criterio ridotto di Lyapunov per sistema a tempo continuo) ˙ = Aδx l’approssimazione Sia (xe , ue ) un punto di lavoro per un sistema non lineare ẋ = f (x, u), e sia δx lineare di tale sistema intorno al punto di lavoro, calcolata secondo le relazioni (4.31). Allora, il punto xe è punto di equilibrio: 1. asintoticamente stabile, se tutti gli autovalori dell’approssimazione lineare hanno parte reale negativa (cioè, se l’approssimazione lineare è asintoticamente stabile); 2. instabile, se almeno un autovalore dell’approssimazione lineare ha parte reale positiva (cioè, se l’approssimazione lineare è instabile); 3. critico (caso critico) se l’approssimazione lineare ha uno o più autovalori con parte reale nulla e tutti gli altri con parte reale negativa (cioè, se l’approssimazione lineare è semplicemente stabile). Nel caso dei sistemi non lineari a tempo discreto si ha invece il seguente teorema. Teorema 4.9 (Criterio ridotto di Lyapunov per sistema a tempo discreto) Sia (xe , ue ) un punto di lavoro per un sistema non lineare x(t + 1) = f (x, u), e sia δx(t + 1) = Aδx l’approssimazione lineare di tale sistema intorno al punto di lavoro, calcolata secondo le relazioni (4.31). Allora, il punto xe è punto di equilibrio: 1. asintoticamente stabile, se tutti gli autovalori dell’approssimazione lineare hanno modulo minore di uno (cioè, se l’approssimazione lineare è asintoticamente stabile); 2. instabile, se almeno un autovalore dell’approssimazione lineare ha modulo maggiore di uno (cioè, se l’approssimazione lineare è instabile); 3. critico (caso critico) se l’approssimazione lineare ha uno o più autovalori con modulo unitario e tutti gli altri con modulo minore di uno (cioè, se l’approssimazione lineare è semplicemente stabile). 4.5 Il metodo diretto di Lyapunov per sistemi non lineari Lo studio delle proprietà di stabilità di punti di equilibrio può essere condotto anche utilizzando il metodo diretto di Lyapunov, o secondo metodo di Lyapunov, cosı̀ chiamato perché basato direttamente sulla equazione differenziale che regola il moto, e non sulla sua soluzione. L’idea del metodo deriva (probabilmente, [9]) da un risultato di Lagrange, intorno al 1800: se in una certa posizione di riposo un sistema meccanico conservativo ha un minimo di energia potenziale, allora l’equilibrio è stabile; se la posizione di equilibrio non corrisponde ad un minimo dell’energia potenziale, allora l’equilibrio è instabile (si veda la citata figura 4.1). Il criterio diretto di Lyapunov estende le considerazioni qualitative sulla energia potenziale di un sistema, introducendo una sorta di generalizzazione della funzione energia, detta funzione candidata di Lyapunov. Nel seguito, senza perdere di generalità in base a quanto già detto nel commento 4.1, si tratterà solo il caso di equilibrio nell’origine per sistemi non lineari omogenei. I teoremi di stabilità di Lyapunov sono basati su particolari classi di funzioni, ben definite in segno. Nel seguito, W indicherà un intorno dell’origine dello spazio vettoriale Rn . Di norma i risultati saranno locali, appunto validi solo in un intorno dell’origine. In alcuni casi, può accadere che l’intorno possa essere esteso all’intero spazio di stato: in tal caso i risultati sono detti globali. Definizione 4.8 (Funzione definita positiva) Una funzione continua V (x) : W → R è detta definita positiva (d.p.) nell’insieme W contenente l’origine, se: Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-181 1. V (0) = 0, 2. V (x) > 0, per tutti i punti x 6= 0, x ∈ W. Definizione 4.9 (Funzione semidefinita positiva) Una funzione continua V (x) : W → R è detta semidefinita positiva (s.d.p.) nell’insieme W contenente l’origine, se: 1. V (0) = 0, 2. V (x) ≥ 0, per tutti i punti x 6= 0, x ∈ W. Definizione 4.10 (Funzione definita negativa) Una funzione continua V (x) : W → R è detta definita negativa (d.n.) nell’insieme W contenente l’origine, se la funzione −V (x) è definita positiva, e quindi se: 1. V (0) = 0, 2. V (x) < 0, per tutti i punti x 6= 0, x ∈ W. Definizione 4.11 (Funzione semidefinita negativa) Una funzione continua V (x) : W → R è detta semidefinita negativa (s.d.n.) nell’insieme W contenente l’origine, se la funzione −V (x) è semidefinita positiva. Le considerazioni qualitative sulla variazione dell’energia generalizzata, a fronte di una perturbazione, implicano lo studio della variazione di tale funzione. Tale studio viene condotto utilizzando la conoscenza della derivata temporale, nel caso dei sistemi a tempo continuo, il calcolo diretto della variazione nei sistemi a tempo discreto. L’idea, nel caso dei sistemi a tempo continuo, viene concretizzata utilizzando lo strumento della derivata di una funzione scalare lungo una funzione vettoriale. Si consideri un sistema dinamico autonomo ẋ = f (x), x ∈ Rn . (4.36) Si consideri inoltre una funzione scalare V (x) : W → R, V (x) ∈ C 1 , cioè con derivate prime continue. Definizione 4.12 (Derivata rispetto ad un campo vettoriale) La derivata V̇ di una funzione V (x) : W → R rispetto al campo vettoriale f (x) è definita dal prodotto scalare: V̇ :=< grad V (x), f (x) >= ∂V (x) ∂V (x) f1 (x) + · · · + fn (x). ∂x1 ∂xn (4.37) Si noti che V̇ si calcola direttamente dalla conoscenza di V (x) e del campo vettoriale f (x), senza necessità di risolvere l’equazione differenziale relativa, cioè l’equazione ẋ = f (x). Come già accennato in precedenza, questo è uno dei principali punti di forza del metodo diretto. La notazione V̇ indica una derivata temporale. Infatti la derivata di V lungo f descrive la variazione temporale della funzione V (x) quando calcolata lungo una soluzione x(t) dell’equazione differenziale. Utilizzando la regola di derivazione di funzioni composte, se la funzione V (x) viene valutata lungo la traiettoria x(t) = x(t, t0 , x0 , u(·)), si trova: V̇ = ∂V (x) ∂V (x) ∂V (x) ∂V (x) ẋ1 + · · · + ẋn = f1 (x) + · · · + fn (x). ∂x1 ∂xn ∂x1 ∂xn (4.38) E’ ora possibile enunciare i principali teoremi di stabilità (ed instabilità) di Lyapunov per l’origine di sistemi non lineari, a tempo continuo, omogenei. Teorema 4.10 (Teorema di stabilità di Lyapunov) Sia l’origine, xe = 0, punto di equilibrio del sistema non lineare ẋ = f (x). Se esiste una funzione scalare definita positiva (d.p.) V (x) : W → R, V (x) ∈ C 1 , con W intorno dell’origine, tale che V̇ sia semidefinita negativa (s.d.n.) in W per il sistema ẋ = f (x), allora l’origine è punto di equilibrio stabile di tale sistema. Teorema 4.11 (Teorema di stabilità asintotica di Lyapunov) Sia l’origine, xe = 0, punto di equilibrio del sistema non lineare ẋ = f (x). Se esiste una funzione scalare definita positiva (d.p.) V (x) : W → R, V (x) ∈ C 1 , con W intorno dell’origine, tale che V̇ sia definita negativa (d.n.) in W per il sistema ẋ = f (x), allora l’origine è punto di equilibrio asintoticamente stabile di tale sistema. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-182 Vi è anche un teorema di instabilità. Teorema 4.12 (Teorema di instabilità di Lyapunov) Sia l’origine, xe = 0, punto di equilibrio del sistema non lineare ẋ = f (x). Se esiste una funzione scalare definita positiva V (x) : W → R, V (x) ∈ C 1 , con W intorno dell’origine, tale che V̇ sia definita positiva in W, allora l’origine dello spazio di stato è punto di equilibrio instabile di tale sistema. Una funzione scalare V (x) : W → R, che sia definitiva positiva ed abbia derivate prime continue, è detta funzione candidata di Lyapunov. Una funzione candidata di Lyapunov che soddisfi ad uno dei due teoremi 4.10 o 4.11 è detta funzione di Lyapunov per il sistema corrispondente. Lo studio della stabilità dell’origine per sistemi non lineari a tempo discreto può essere condotta in modo analogo, salvo utilizzare la variazione finita della funzione candidata di Lyapunov in luogo della sua derivata temporale. Sia quindi x(t + 1) = f (x), x ∈ Rn (4.39) un sistema non lineare a tempo discreto, omogeneo, con l’origine punto di equilibrio del sistema (xe = 0), e cioè f (0) = 04 . Sia V (x) : W → R una funzione definita positiva in un opportuno intorno W dell’origine. La variazione δV := V (x(t+ 1))− V (x(t)) di tale funzione lungo le traiettorie del sistema si può calcolare facilmente come: δV = V (x(t + 1)) − V (x(t)) = V (f (x) − V (x)) (4.40) Sulla base di tale variazione della funzione candidata, possono essere formulati tre teoremi, del tutto analoghi ai corrispondenti a tempo continuo. Teorema 4.13 (Teorema di stabilità di Lyapunov a tempo discreto) Sia l’origine, xe = 0, punto di equilibrio del sistema non lineare x(t + 1) = f (x). Se esiste una funzione scalare definita positiva (d.p.) V (x) : W → R, con W intorno dell’origine, tale che la sua variazione δV sia semidefinita negativa (s.d.n.) in W per il sistema x(t + 1) = f (x), allora l’origine è punto di equilibrio stabile di tale sistema. Teorema 4.14 (Teorema di stabilità asintotica di Lyapunov a tempo discreto) Sia l’origine, xe = 0, punto di equilibrio del sistema non lineare a tempo discreto x(t + 1) = f (x). Se esiste una funzione scalare definita positiva (d.p.) V (x) : W → R, con W intorno dell’origine, tale che la sua variazione δV sia definita negativa (d.n.) in W per il sistema x(t + 1) = f (x), allora l’origine è punto di equilibrio asintoticamente stabile di tale sistema. Vi è anche un teorema di instabilità. Teorema 4.15 (Teorema di instabilità di Lyapunov a tempo discreto) Sia xe = 0 punto di equilibrio del sistema non lineare a tempo discreto x(t + 1) = f (x). Se esiste una funzione scalare definita positiva V (x) : W → R, con W intorno dell’origine, tale che la sua variazione δV sia definita positiva in W, allora l’origine dello spazio di stato xe = 0è punto di equilibrio instabile di tale sistema. Alcuni commenti. Commento 4.4 Si noti che i teoremi non forniscono alcuna informazione circa la costruzione della funzione candidata di Lyapunov. Ciò costituisce la principale difficoltà nell’applicazione del criterio. Commento 4.5 I teoremi forniscono condizioni sufficienti di stabilità. Tali condizioni non sono necessarie. Esistono tuttavia dei teoremi inversi (converse Lyapunov theorems), che affermano l’esistenza di una funzione di Lyapunov per un punto di equilibrio (asintoticamente) stabile di un sistema non lineare. Commento 4.6 Le condizioni di stabilità sono locali. In alcuni casi, l’intorno dell’origine considerato potrebbe essere anche molto piccolo. In particolare nel teorema 4.11 l’intorno W, che descrive perturbazioni iniziali che danno luogo a moti convergenti, potrebbe essere anche molto piccolo. La seguente definizione è importante in molte applicazioni della teoria della stabilità á la Lyapunov alla teoria del controllo. 4 In questo caso, e solo in questo caso, le condizioni di equilibrio per sistemi a tempo continuo e a tempo discreto coincidono. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-183 Definizione 4.13 (Regione di convergenza (o Bacino di attrazione)) Sia xe un punto di equilibrio asintoticamente stabile per un sistema dinamico ∆x = f (x, u). La regione dello spazio di stato Bxe tale che: ∀x0 ∈ Bxe , lim x(t, t0 , x0 , ue ) = xe , t→∞ (4.41) è detta Regione di Convergenza o Bacino di Attrazione per il punto di equilibrio xe . Per completezza, si riporta il criterio di Lyapunov nella formulazione globale. Teorema 4.16 (Teorema di Lyapunov di stabilità globale asintotica) Sia xe = 0 punto di equilibrio del sistema non lineare ẋ = f (x). Se esiste una funzione scalare definita positiva (d.p.) V (x) : Rn → R, V (x) ∈ C 1 , tale che V̇ sia definita negativa (d.n.) in Rn per il sistema ẋ = f (x), allora l’origine è punto di equilibrio globalmente asintoticamente stabile di tale sistema. 4.6 Esempi Esempio 4.1 Si consideri il sistema dinamico: ẋ = −x3 , x ∈ R. (4.42) Il sistema ammette come unico punto di equilibrio l’origine. Applicando il criterio ridotto di Lyapunov per studiare la stabilità si trova: d 3 A= x |x=0 = (−3x2 )|x=0 = 0, (4.43) dx e quindi si ha un caso critico. 1 Si consideri la funzione candidata di Lyapunov V (x) = x2 . Si trova: 2 V̇ = xẋ = −x4 , d.n. (4.44) che è definita negativa, e quindi l’origine è punto di equilibrio asintoticamente stabile. ▽ Esempio 4.2 Si consideri il sistema dinamico: ẋ = +x3 , x ∈ R. (4.45) Il sistema ammette come unico punto di equilibrio l’origine. Applicando il criterio ridotto di Lyapunov per studiare la stabilità si trova: d 3 A= x |x=0 = (3x2 )|x=0 = 0, (4.46) dx e quindi si ha un caso critico. 1 Si consideri la funzione candidata di Lyapunov V (x) = x2 . Si trova: 2 V̇ = xẋ = +x4 , d.p. (4.47) che è definita positiva, e quindi l’origine è punto di equilibrio instabile. ▽ Esempio 4.3 Si consideri il modello dinamico di un pendolo, ricavato nella sezione 1.6 e sotto riportato nel caso particolare di parametri tutti unitari, salvo il coefficiente di attrito viscoso, indicato qui con α, α ≥ 0, in luogo di kv . θ x2 ẋ = f (x, u), x = , (4.48) , f (x, u) = − sin(x1 ) − αx2 + u ω dove x1 = θ indica la posizione angolare del pendolo, x2 = ω la corrispondente velocità angolare ed u il segnale esterno, cioè, la coppia motrice esercitata sul pendolo da un azionamento opportuno. Il sistema omogeneo, intuitivamente, ha molti punti di equilibrio, corrispondenti alla posizione con massa verso il basso, caratterizzata da x1,e = k2π, con k intero, ed alla posizione con massa verso l’alto, caratterizzata da x1,e = k3/2π, con k intero. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-184 Sempre da un punto di vista intuitivo, le posizioni con massa verso il basso sono punti di equilibrio stabili (ed asintoticamente stabili se α > 0), le posizioni con massa verso l’alto sono punti di equilibrio instabili. Si proceda con il calcolo dei punti di equilibrio. Dalla relazione f (xe , ue ) = 0, considerando il sistema omogeneo, si ha: kπ x2,e = 0 ⇒ xe = , ∀k ∈ Z, (4.49) f (xe , 0) = 0 − sin(x1,e ) − αx2,e come atteso dalla valutazione qualitativa. Per una analisi formale della stabilità, si consideri il criterio ridotto di Lyapunov. Si trova (per il sistema omogeneo): ∂f (x) 0 1 = (4.50) − cos(x1 ) −α ∂x e quindi, nel punto di equilibrio xe = 0, rappresentativo di tutti i punti di equilibrio “pendolo in basso”, si trova la matrice dell’approssimazione lineare: ∂f (x) 0 1 0 1 = = , (4.51) A0 = − cos(x1 ) −α x =0 −1 −α ∂x x =0 e e √ 2 il cui polinomio caratteristico vale: det(λI − A0 ) = λ2 + αλ + 1, le cui radici valgono λ1,2 = − α2 ± α2 −4 , e sono a parte reale positiva per tutti i valori strettamente positivi del parametro α. Se il sistema quindi dissipa energia, l’origine è punto di equilibrio asintoticamente stabile. Se invece il sistema non dissipa energia, e quindi α = 0, l’approssimazione lineare ha un polinomio caratteristico pari a λ2 + 1, e quindi ha due autovalori con parte reale nulla: si è nella situazione di caso critico, ed il criterio ridotto non è in grado di fornire indicazioni. Nel caso del punto di equilibrio xe = (π, 0)T , posizione in alto, si trova: ∂f (x) 0 1 0 1 = = , (4.52) Aπ = − cos(x1 ) −α x =(π,0)T +1 −α ∂x x =(π,0)T e e il cui polinomio caratteristico vale: det(λI − A0 ) = λ2 + αλ − 1, le cui radici valgono λ1,2 = − α2 ± sono di segno discorde. Il punto di equilibrio quindi è punto di equilibrio non stabile, o instabile. √ α2 +4 , 2 e ▽ Esempio 4.4 Si consideri ancora il modello dinamico di un pendolo: θ x2 ẋ = f (x, u), x = , , f (x, u) = − sin(x1 ) − αx2 + u ω (4.53) Si consideri la funzione: 1 (4.54) V (x) = (1 − cos(x1 )) + x22 . 2 La funzione ha derivate prime continue, è definita positiva nell’intorno dell’origine W = {(x1 , x2 ) : −π < x1 < π} e quindi è utilizzabile come funzione candidata di Lyapunov. Si noti come, in questo caso, l’intorno W determini una validità locale, ma in “grande”: il risultato cioè non vale solo per perturbazioni molto piccole, infinitesime, ma anche per perturbazioni finite. Applicando il teorema di stabilità di Lyapunov all’origine si trova, per il sistema omogeneo: V̇ (x) = x˙1 sin(x1 ) + x˙2 x2 = sin(x1 )x2 − (sin(x1 ) + αx2 )x2 = −αx22 (4.55) che è semi-definita negativa per ogni valore non negativo del parametro α (e quindi per ogni valore fisicamente possibile). Ne consegue che l’origine è punto di equilibrio (semplicemente) stabile per il sistema in esame. Si noti come il risultato appena derivato sia in apparente contraddizione con il precedente esempio 4.3, dal quale si ricava stabilità asintotica per valori strettamente positivi del parametro α. La inconsistenza in effetti non esiste, poiché, come detto nel commento 4.5, il metodo diretto di Lyapunov fornisce condizioni sufficienti: se una specifica funzione candidata fornisce un risultato di stabilità, si è certi del fatto che il punto di equilibrio non è instabile, ma rimane la possibilità che sia asintoticamente stabile. Una diversa funzione candidata potrebbe consentire di mostrare questa seconda proprietà, più forte. ▽ Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-185 Esempio 4.5 Si consideri ancora il modello dinamico di un pendolo, con valore unitario del parametro α: θ x2 ẋ = f (x, u), x = , f (x, u) = , (4.56) ω − sin(x1 ) − x2 + u e si consideri la funzione: 1 1 (4.57) V (x) = 2(1 − cos(x1 )) + x22 + (x1 + x2 )2 . 2 2 Analogamente al caso del precedente esempio, la funzione ha derivate prime continue, è definita positiva nell’intorno dell’origine W = {(x1 , x2 ) : −π < x1 < π} e quindi è utilizzabile come funzione candidata di Lyapunov. Applicando il teorema di stabilità di Lyapunov all’origine del sistema omogeneo, e quindi con u = 0, si trova: V̇ (x) = 2x˙1 sin(x1 ) + x˙2 x2 + (x˙1 + x˙2 )(x1 + x2 ) (4.58a) = 2 sin(x1 )x2 − (sin(x1 ) + x2 )x2 + (x2 − sin(x1 ) − x2 )(x1 + x2 ) == −x1 sin(x1 ) − x22 (4.58b) che è definita negativa, poiché per valori piccoli di x1 , si ha che sin(x1 ) ≃ x1 . Ne consegue che l’origine è punto di equilibrio asintoticamente stabile per il sistema in esame. Questo risultato illustra ulteriormente il commento alla fine del precedente esempio. ▽ Esempio 4.6 Si consideri il modello dinamico non lineare a tempo discreto: x(t + 1) = x(t) − x(t)2 + α, α ∈ R+ . (4.59) Il calcolo dei punti di equilibrio mostra che: xe = xe − x2e + α √ ⇒ xe = ± α (4.60) e quindi il sistema ha due punti di equilibrio, pari alle due √ radici quadrate del parametro reale positivo α. Le proprietà di stabilità, ad esempio del punto xe = + α, posso essere studiate tramite il criterio ridotto di Lyapunov per sistemi a tempo discreto. Per il gradiente del campo si trova: f (x) = x(t) − x(t)2 + α, ⇒ ∂f (x) = 1 − 2x, ∂x e quindi l’approssimazione lineare intorno al punto di equilibrio vale √ δx(t + 1) = aδx, a = 1 − 2 α. (4.61) (4.62) Il parametro a (e cioè l’autovalore) ha modulo minore di uno √ per tutti i valori di α minori di uno e positivi. Per tali valori del parametro quindi, il punto di equilibrio xe = α del sistema (4.59) è asintoticamente stabile. Tale sistema è quindi un possibile algoritmo per il calcolo della radice quadrata. ▽ Esempio 4.7 Si consideri il modello dinamico non lineare a tempo discreto: x(t + 1) = x(t) − x(t)2 − α , 2x(t) α ∈ R+ . (4.63) Il calcolo dei punti di equilibrio mostra che: xe = xe − x2e − α xe √ ⇒ xe = ± α (4.64) e quindi il sistema ha due punti di equilibrio, pari alle due radici quadrate del parametro reale positivo α, analogamente al sistema nel precedente esempio. √ Le proprietà di stabilità, ad esempio del punto xe = + α, posso essere studiate tramite il criterio ridotto di Lyapunov per sistemi a tempo discreto. Per il gradiente del campo si trova: f (x) = x(t) − x(t)2 − α , 2x(t) ⇒ x2 − α ∂f (x) 2x x2 − α = , =1− + 2 ∂x 2x x x2 (4.65) Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-186 e quindi l’approssimazione lineare intorno al punto di equilibrio vale δx(t + 1) = aδx, a = 0. (4.66) √ L’approssimazione lineare ha autovalore nullo, e quindi il punto di equilibrio xe = α del sistema (4.63) è asintoticamente stabile per tutti i valori del parametro, cioè del numero del quale si vuole calcolare la radice quadrata: anche il sistema (4.63) è un possibile algoritmo per il calcolo della radice quadrata. ▽ 4.7 Stabilità esterna Il tema della stabilità esterna è solo accennato. Per una trattazione completa si rimanda ad altri testi e alle lezioni in aula. Definizione 4.14 (Stabilità esterna) Un sistema dinamico LTCS o LTDS del tipo: ∆x = Ax + bu, y = Cx x ∈ Rn , (4.67a) (4.67b) è detto esternamente stabile o anche stabile in senso BIBO (BIBO: Bounded Input Bounded Output) se e solo se ad ogni segnale limitato applicato in ingresso corrisponde una rispota forzata limitata. La proprietà può essere verificata per mezzo di uno dei due criteri seguenti, in funzione del tipo di sistema in esame. Teorema 4.17 Un sistema dinamico stazionario a tempo continuo, è stabile esternamente, o in senso BIBO, se e solo se tutti i poli della funzione di trasferimento hanno parte reale negativa. Teorema 4.18 Un sistema dinamico stazionario a tempo discreto, è stabile esternamente, o in senso BIBO, se e solo se tutti i poli della funzione di trasferimento hanno modulo strettamente minore di uno. 4.8 Retroazione La sezione sulla retroazione non è ancora stata scritta. Si rimanda ad altri testi che verranno citati a lezione. Capitolo 4: Stabilità 4.9 [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-187 Analisi di circuiti con OpAmp Lo scopo di queste note è lo studio delle caratteristiche dinamiche di un amplificatore operazionale nelle tipiche configurazioni non invertente ed invertente. Ancor più precisamente, lo scopo è quello di esemplificare, per il tramite degli amplificatori operazionali, il comportamento di sistemi dinamici e gli effetti della retroazione su tali sistemi. I risultati che emergeranno dalle considerazioni seguenti possono infatti essere astratti ed applicati a qualsiasi sistema dinamico. Lo studio verrà condotto solo dal punto di vista del legame ingresso-uscita e delle corrispondenti caratteristiche dinamiche, senza alcun cenno né alla struttura interna di un OpAmp né alla maggior parte delle sue caratteristiche di non idealità. Per questi aspetti si rimanda agli specifici corsi di area elettronica. 4.9.1 Modelli ideali per un OpAmp I circuiti (i sistemi dinamici) basati su amplificatori operazionali vengono abitualmente analizzati facendo ricorso a modelli ideali, di accuratezza via via crescente. Il sistema illustrato in figura 4.5 è detto anche sistema in catena aperta. i+ vD i− + − vOUT Figura 4.5: Amplificatore operazionale: componente base Il modello più semplice per un amplificatore operazione è quello qui chiamato modello ideale: Modello Ideale Il guadagno ingresso-uscita dell’OpAmp è infinito, quindi, per tensioni di uscita finite, la tensione differenziale vD ai capi dei morsetti di ingresso è nulla. La corrente che scorre nella porta di ingresso è nulla, la corrispondente impedenza di ingresso è infinita. Poiché l’interesse di queste note è relativo agli effetti della retroazione, e quindi è relativo allo studio di particolari forme del segnale di ingresso, in luogo del precedente modello, estremamente ideale, verrà considerato il modello a guadagno costante: la tensione vOUT in uscita al componente è proporzionale alla tensione in ingresso vD tramite una costante di guadagno g molto grande (figura 4.5). Modello a Guadagno Costante La relazione ingresso-uscita dell’OpAmp è data da: vOUT = gvD . (4.68) La corrente che scorre nella porta di ingresso è nulla, la corrispondente impedenza di ingresso è infinita. Valori tipici per g sono nell’ordine di 105 ÷ 106 . La relazione (4.68) descrive bene il guadagno in continua (e alla “basse” frequenze), ma non descrive bene il comportamento per frequenze (sufficientemente) alte: come tutti i sistemi reali, anche un OpAmp ha un guadagno variabile con la frequenza. Si consideri quindi, in luogo del modello a guadagno costante (4.68), un modello a polo dominante, caratterizzato da una funzione di trasferimento del primo ordine: Modello a Polo Dominante Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-188 La relazione ingresso-uscita dell’OpAmp è dato da: W (s) = b , s+a (4.69) o dal corrispondente modello nello spazio di stato: ẋ y = −ax + bvD , = x, vOUT = y x∈R (4.70a) (4.70b) La corrente che scorre nella porta di ingresso è nulla, la corrispondente impedenza di ingresso è infinita. In merito al modello precedente, si noti che il guadagno in continua vale W (0) = b/a, e quindi il legame tra i due modelli con guadagno finito è dato da: g = b/a. Valori tipici per il parametro b del modello sono nell’intervallo 106 ÷ 107 s−1 e per a dell’ordine di 10 ÷ 20 Hz. Un tipico diagramma di Bode per un OpAmp a ciclo aperto (in altre discipline si usa la locuzione a “catena aperta”) è riportato nella figura seguente: OpAmp: diagramma di Bode dei moduli 95 90 Magnitude (dB) 85 80 75 70 65 60 0 10 1 10 2 10 3 10 Frequency (rad/sec) Figura 4.6: Diagramma di Bode dei moduli per un OpAmp a ciclo aperto . Sulla base dei due modelli con guadagno finito illustrati, è possibile analizzare semplici circuiti basati su amplificatori operazionali. 4.9.2 OpAmp in configurazione non invertente Il circuito riportato nella figura 4.7 è la ben nota configurazione non invertente per un amplificatore operazionale. Il partitore costituito dalle due resistenze R1 ed R2 costituisce la rete di retroazione, che fissa il guadagno in continua dell’intero circuito. Sulla base delle ipotesi di idealità che caratterizzano il modello a guadagno costante, per la maglia di ingresso del sistema in configurazione non invertente in fig. 4.7 si trova: vIN = vD + vR1 , (4.71) Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-189 + − vD vIN vOUT R2 R1 Figura 4.7: Amplificatore operazionale in configurazione non invertente mentre per la maglia di uscita si trova: vOUT = vR1 + vR2 . (4.72) Tenendo conto dell’ipotesi di idealità che implica corrente nulla nella porta di ingresso e della (4.72), la corrente iR che scorre nei due resistori R1 ed R2 risulta pari a: vOUT iR = , (4.73) R1 + R2 da cui, insieme alla (4.71), per la tensione differenziale vD in ingresso all’amplificatore operazionale si trova: vD = vIN − R1 vOUT . R1 + R2 (4.74) L’equazione (4.74) mostra chiaramente come il partitore resistivo R1 , R2 induca una retroazione: la tensione differenziale vD applicata in ingresso all’OpAmp dipende anche dal segnale di uscita vOUT allo stesso componente. Tenendo conto del modello in catena aperta a guadagno costante dato dalla (4.68), per il legame ingresso-uscita dell’intera rete si trova: 1 R1 vIN = + vOUT . (4.75) g R1 + R2 Poiché il guadagno in catena aperta g è molto grande, nell’equazione precedente il termine 1/g può essere 1 , ottenendo il legame ingresso uscita: trascurato rispetto al termine R1R+R 2 R2 vOUT = 1 + vIN . (4.76) R1 La precedente equazione è il più semplice modello di OpAmp in configurazione non invertente. Descrive bene il guadagno in continua (e alla “basse” frequenze), ma non descrive bene il comportamento per frequenze (sufficientemente) alte: come tutti i sistemi reali, anche un OpAmp ha un guadagno variabile in frequenza. Utilizzando il più accurato modello a polo dominante nella forma di spazio di stato (4.70), applicando il segnale di ingresso (4.74) calcolato sopra, e tenendo conto del fatto che il segnale di uscita vOUT coincide con il segnale y e quindi con lo stato interno x del modello in uso, si trova il sistema dinamico a ciclo chiuso: R1 R1 x + bvIN , (4.77) x + bvIN = − a + b ẋ = −ax − b R1 + R2 R1 + R2 y = x. (4.78) Poiché, come già notato in precedenza, il parametro a è molto piccolo, in particolare rispetto al parametro b, e supponendo che R1 e R2 non differiscano di molti ordini di grandezza, il modello precedente può essere approssimato come: ẋ = −b y = x, R1 x + bvIN , R1 + R2 (4.79) (4.80) Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-190 cui corrisponde il legame ingresso-uscita descritto dalla funzione di trasferimento Wni (s): Wni (s) = b R1 s+b R1 + R2 . (4.81) La conclusione più importante rispetto allo scopo di queste note consiste nel fatto che la retroazione applicata all’OpAmp e descritta dal segnale di ingresso (4.74) modifica le proprietà dinamiche del sistema, ed in particolare R1 modifica l’autovalore del sistema: a ciclo aperto l’autovalore vale a mentre a ciclo chiuso vale b . Si noti, R1 + R2 in aggiunta, come il valore dell’autovalore a ciclo chiuso possa essere scelto arbitrariamente fissando in modo opportuni i parametri di progetto R1 ed R2 . La modifica dell’autovalore implica, ovviamente, la modifica del polo della funzione di trasferimento e quindi R1 della banda passante: la banda passante diviene molto maggiore, passando da a al nuovo valore pari a b . R1 + R2 La retroazione modifica anche il guadagno in continua: il sistema retroazionato ha un guadagno in continua R2 pari a 1 + , molto più piccolo del corrispondente valore a ciclo aperto, pari a b/a. R2 La figura 4.8 riporta il diagramma di Bode dei moduli per un OpAmp in configurazione non invertente (curva continua). Per confronto, la curva tratteggiata rappresenta il diagramma a ciclo aperto. Infine, si noti come il prodotto guadagno/banda-passante rimanga invariato e pari a b: si tratta di un parametro caratteristico del componente. Ne segue che ad un aumento del guadagno in continua a ciclo chiuso corrisponde una diminuzione della banda passante, ed analogamente se viene aumentata la banda passante si riduce il guadagno. OpAmp: diagramma di Bode dei moduli (continuo: ciclo chiuso, tratto: ciclo aperto) 100 80 Magnitude (dB) 60 40 20 0 −20 0 10 2 10 4 10 Frequency (rad/sec) 6 10 Figura 4.8: Diagramma di Bode dei moduli per un OpAmp a ciclo aperto (linea tratteggiata) e ciclo chiuso (linea continua). 4.9.3 OpAmp in configurazione invertente Il circuito riportato nella figura 4.9 rappresenta la configurazione invertente per un amplificatore operazionale. Il partitore costituito dalle due resistenze R1 ed R2 costituisce la rete di retroazione. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-191 R2 vIN vD R1 − + vOUT Figura 4.9: Amplificatore operazionale in configurazione invertente Il calcolo della relazione ingresso-uscita per la configurazione invertente può essere condotto in modo analogo a quanto fatto nel caso della configurazione non invertente. Utilizzando il modello a guadagno costante, ed in particolare la relazione (4.68), per le connessioni di uscita si trova: vD + vR2 + vOUT = 0, da cui, utilizzando il modello a guadagno costante dell’OpAmp, vOUT = gvD , si trova: 1 vOUT 1 + = −vR2 , g (4.82) (4.83) da cui, trascurando il termine 1/g, si ottiene la corrente iR2 che scorre nel resistore R2 : i R2 = − VOUT . R2 (4.84) Per la porta di ingresso si trova invece: vIN − VR1 + vD = 0, (4.85) da cui, risolvendo rispetto alla tensione differenziale di ingresso all’OpAmp vD (utilizzando la (4.84) e l’ipotesi ideale che la corrente in ingresso al componente sia nulla), si trova: vD = − R1 vOUT − vIN . R2 (4.86) L’equazione precedente, analogamente a quanto visto per la (4.74) nel caso della configurazione non invertente, mostra come il partitore resistivo R1 , R2 induca una retroazione sul componente: il segnale differenziale di ingresso dipende dall’uscita dello stesso componente. Per determinare la relazione tra le tensioni di ingresso ed uscita all’intero circuito, cioè per determinare il legame ingresso-uscita, dalla relazione precedente, utilizzando il modello vOUT = gvD , si trova: R1 1 vOUT = −vIN , (4.87) + R2 g e quindi, trascurando il termine 1/g, molto piccolo, se R1 e R2 non differiscono di molti ordini di grandezza, si ha: R2 vOUT = − vIN , (4.88) R1 che costituisce il modello ideale dell’amplificatore operazionale in configurazione invertente. Un modello più accurato può essere ottenuto tenendo conto del comportamento in frequenza del componente OpAmp. Utilizzando ancora il modello del primo ordine, a polo dominante, descritto dalla funzione di trasferimento in (4.69) e dal corrispondente modello nello spazio di stato, applicando il segnale di retroazione (4.86) si trova: R1 R1 x − bvIN , (4.89) ẋ = −ax − b x − bvIN = − a + b R2 R2 y = x. (4.90) Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-192 Poiché, come già notato in precedenza, il parametro a è molto piccolo rispetto a b, e supponendo che R1 e R2 non differiscano di molti ordini di grandezza, il modello precedente può essere approssimato come: ẋ = −b y = x, R1 x − bvIN , R2 (4.91) (4.92) cui corrisponde il legame ingresso-uscita a ciclo chiuso descritto dalla funzione di trasferimento WIn (s): WIn (s) = − b s+b R1 R2 . (4.93) Anche in questo caso, l’effetto della retroazione è quello di modificare la banda passante del sistema, che R1 passa dal valore a, molto piccolo, al valore b , molto grande, e ridurre il guadagno in continua dal valore R2 R2 b/a, molto grande, al valore − , che può essere determinato dal progettista scegliendo opportunamente i due R1 resistori. 4.9.4 Interconnesione di più OpAmp L’approccio utilizzato nelle sezioni precedenti può essere esteso anche allo studio di circuiti con più OpAmp. A titolo di esempio si consideri il sistema riportato nella seguente figura 4.10. R3 R3 vD,1 vIN + − R2 vD,2 OA1 − + OA2 vOUT vOUT,1 vIN,2 R1 Figura 4.10: Interconnessione di due amplificatori operazionali Il circuito può essere analizzato, in prima approssimazione, utilizzando il modello a guadagno costante per i componenti OpAmp. Il secondo OpAmp, OA2 , è in configurazione invertente, il cui guadagno quindi vale R3 −R = −1. Detta vOUT la tensione in uscita all’intero circuito, e quindi ad OA2 , e vIN,2 la corrispondente 3 tensione in ingresso (si veda la figura 4.10), si ha quindi: vOUT = −vIN,2 , e quindi vOUT = −vOUT,1 . Il primo OpAmp invece, OA1 , ha la struttura in una configurazione non invertente, salvo il fatto che la retroazione è applicata dall’uscita del secondo operazionale e non del primo. Poiché il secondo OpAmp ha guadagno pari a −1 ed inoltre vOUT,1 = −vOUT , si può scrivere, ricordando la (4.74): vD,1 = vIN − R1 vOUT R1 + R2 (4.94) e quindi, trascurando il termine vD,1 = g1 vOUT,1 = − g1 vOUT , si trova: vOUT = R2 1+ vIN R1 (4.95) Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-193 R2 , cioè un guadagno della stessa e quindi l’intero circuito ha un guadagno ingresso-uscita pari a 1 + R1 ampiezza della configurazione non invertente. Commento 4.7 Si sottolinea con decisione che la affermazione vOUT,1 = vIN,2 implica, di fatto, che il comportamento dei due circuiti analizzati in forma isolata, come nelle due sezioni 4.9.2 e 4.9.3, ed in forma interconnessa, come in questa sezione, rimanga invariato. Ciò è vero con sufficiente grado di accuratezza solo se le impedenze di ingresso ed uscita dei due blocchi sono ben dimensionate. Si rimanda ad altri testi e ad altri corsi per un doveroso approfondimento su questo argomento. Per condurre una analisi più accurata, che tenga conto anche degli aspetti dinamici, si consideri il modello a polo dominante per il primo OpAmp ed il modello a guadagno costante per il secondo operazionale. Per OA2 valgono le considerazioni svolte sopra, e quindi: vOUT = − R3 vIN,2 = −vIN,2 , R3 (4.96) e quindi anche per la tensione in ingresso al primo operazionale si trova la stessa relazione (4.94) vista sopra: vD,1 = vIN + R1 vOUT,1 . R1 + R2 (4.97) Utilizzando, per OA1 , il sistema nello spazio di stato associato al modello a polo dominante: ẋ1 = y1 = −a1 x1 + b1 vD,1 , (4.98) x1 , vOUT,1 = y1 (4.99) ed applicando il segnale in retroazione (4.97) si trova: ẋ1 = −a1 x1 + b1 y1 = x1 , R1 x1 + b1 vIN , R1 + R2 (4.101) che può essere approssimata, trascurando il termine −a1 x1 rispetto a b1 ẋ1 y1 (4.100) R1 x1 + b1 vIN , R1 + R2 = x1 , = b1 R1 x1 , con: R1 + R2 (4.102) (4.103) cui corrisponde la funzione di trasferimento WOA1 (s) seguente: b1 WOA1 (s) = s − b1 R1 R1 + R2 . (4.104) Si noti che, in virtù della (4.96), la funzione di trasferimento Win,out tra il segnale vIN in ingresso all’intero circuito ed il segnale vOUT in uscita dallo stesso circuito vale: Win,out (s) = −WOA1 (s) = − b1 . (4.105) R1 R1 + R2 R2 , e quindi identico (ovviamente) a Il sistema complessivo ha quindi un guadagno in continua pari a 1 + R1 quanto trovato utilizzando il modello a guadagno costante. Si noti però che il sistema ha un autovalore, e quindi un polo, a parte reale positiva. Il corrispondente modo naturale è quindi divergente: ciò implica che il sistema non è stabile esternamente, o in senso BIBO, e che il sistema non ammette risposta permanente, né in uscita né nello stato. Ciò implica che il guadagno in continua non è definibile, ed inoltre il fattore costante W (0) non descrive, per segnali di ingresso a gradino o sinusoidali a bassa frequenza, l’ampiezza del segnale in uscita. Le considerazioni svolte in questa sezione vengono riprese ed approfondite in alcuni esercizi proposti alla fine del capitolo. Lo studente è invitato a lavorare in particolare sugli esercizi 4.2, 4.3 e 4.4. s − b1 Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-194 Ra Rb vD − + vIN vOUT Figura 4.11: Convertitore tensione-corrente 4.9.5 Convertitore tensione-corrente Poiché l’ingresso differenziale, in condizioni ideali, è un corto circuito, si ha: vI = vRa = Ra iR , e quindi iR = (4.106) vI Ra (4.107) e quindi, poiché la corrente nei due resistori è uguale, per l’ipotesi di corrente di ingresso nulla per l’OpAmp, la corrente in Rb è fissata ed indipendente dal valore di Rb stesso. Utilizzando il modello a polo dominante per l’OpAmp, si trova: = −av + bvD , = v b , = s+a v̇ vO w(s) (4.108a) (4.108b) (4.108c) ricordando che il guadagno in continua g dell’OpAmp e la corrispondente banda passante B sono legati dalla relazione: g = w(0) = b , a B = a. (4.109) Un modello alternativo, ma ovviamente equivalente, è dato da: ż vO = −az + gavD , (4.110a) = z (4.110b) con funzione di trasferimento: w(s) = g ga = . s+a s/a + 1 (4.111a) L’uso delle KVL consente di affermare: vI − vRa − vRb − vO vI − vRa + vD vD + vRb + vO dove solo due delle tre relazioni sono tra loro indipendenti. Dalla (4.112a) si ricava: vI − vO = vRa vRb = = 0 0 (4.112a) (4.112b) = 0 (4.112c) (4.113) Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-195 e quindi iR = σ(vI − vO ), σ := 1 . Ra + Rb (4.114) Utilizzando la relazione (4.112b) per la tensione differenziale in ingresso all’OpAmp si trova: vD = vRa − vI = Ra iR − vI = ρa (vI − vO ) − vI , ρa := Ra , Ra + Rb (4.115) da cui, in modo immediato: vD = −ρa vO − ρb vI , ρa := Rb Ra , ρb := . Ra + Rb Ra + Rb (4.116) Il sistema retroazionato quindi diviene: v̇ vO = −av + bvD , (4.117a) = v, (4.117b) = −ρa vO − ρb vI , (4.117c) = −av − bρa v − bρb vI , = v, (4.118a) (4.118b) = σ(vI − vO ). (4.118c) vD e quindi: v̇ vO iR Si noti come assumere vO come segnale di uscita corrisponde a studiare l’OpAmp in configurazione invertente, mentre assumere come segnale di uscita la corrente iR corrisponde a studiare il convertitore tensione-corrente. Il sistema è asintoticamente stabile, poiché, dopo la retroazione, l’autovalore vale −(a + bρa ), che è sempre negativo e può essere fissato scegliendo opportunamente il rapporto ρa . La funzione di trasferimento tra il segnale di ingresso vI ed il segnale di uscita vO , cioè per l’OpAmp in configurazione invertente, vale: −bρb , (4.119) WvO (s) = s + a + bρa cui corrisponde un guadagno in continua: BvO = WvO (0) = −bρb Rb =− a + bρa Ra (4.120) (assumendo a << bρa ) che è quanto atteso per la configurazione invertente. La funzione di trasferimento tra il segnale di ingresso vI ed il segnale di uscita iR , cioè per l’OpAmp in configurazione convertitore tensione-corrente, vale (notando che ρa + ρb = 1)): WiR (s) = σbρb σs + σ(a + b) +σ = , s + a + bρa s + a + bρa (4.121) cui corrisponde un guadagno in continua: BiR = WiR (0) = σ(a + b) 1 = a + bρa Ra (4.122) (assumendo sia a << b sia a << bρa ) che è quanto atteso per la configurazione convertitore tensione-corrente. Ovviamente, nulla cambia utilizzando la (4.112c) per calcolare il segnale in retroazione. Capitolo 4: Stabilità 4.10 [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-196 Criterio di Nyquist Lo scopo di questea sezione è lo studio del Criterio di Nyquist5 , che consente di analizzre la stabilità di sistemi lineari a tempo continuo retroazionati, utilizzando modelli di comportamento ingresso-uscita basati sulle funzioni di trasferimento. 4.10.1 Diagramma di Nyquist La rappresentazione del comportamento ingresso-uscita di un sistema dinamico, ed in particolare di una funzione di trasferimento, può essere data, oltre che in termini polari, come i diagrammi di Bode, anche sul piano di Gauss6 . Tale rappresentazione consente interessanti valutazioni sulla posizione dei poli e degli zeri della funzione di trasferimento stessa. Per analizzare questa possibilità, si consideri una funzione razionale F (s). Il Principio dell’argomento, basato sul teorema dei residui, afferma che: I F ′ (s) ds = 2π(Z − P ), (4.123) γ F (s) dove F ′ (s) indica la derivata di F (s), γ è una curva chiusa, senza mutue intersezioni, che non passa per poli e zeri della F (s), ed assunta percorsa in senso orario, ed i numeri interi Z e P indicano il numero di zeri e poli, rispettivamente, della funzione F (s) contenuti nell’area delimitata dalla curva γ, contati con la loro molteplicità. Una possibile interpretazione della relazione precedente (che deriva dal calcolo effettivo dell’integrale in 4.123) è che la curva descritta nel piano di Gauss dalla funzione F (s) quando la variabile indipendente s percorre la curva chiusa γ, compie un numero N di giri intorno all’origine pari a Z − P , contando come positivi i giri in senso orario (il verso di percorrenza della curva γ) e come negativi quelli in senso antiorario: N = Z − P. (4.124) Si noti che se la curva γ viene percorsa in senso antiorario, la relazione precedente rimane valida, a patto di considerare come positivi i giri intorno all’origine del vettore rappresentativo di F (s) compiuti in senso antiorario. Se invece il verso di percorrenza della curva γ ed il senso positivo lungo la corrispondente curva rappresentativa di F (s) sono discordi, la relazione (4.124) diviene: N =P −Z (4.125) che sarà utile nel successivo criterio di Nyquist. Nel resto del capitolo, la curva chiusa descritta dalla variabile indipendente s, qui chiamata curva γ, verrà assunta percorsa in senso orario. Si consideri, come esempio, la funzione razionale: F (s) = s+1 . (s − 1)(s + 2) (4.126) Scegliendo una curva γ1 pari ad un cerchio di raggio 1.5 centrato nel punto 1 + 0 del piano di Gauss7 , che quindi circonda solo il polo positivo p1 = 1, si trova, per la curva F (s), il diagramma nella seguente figura 4.12: che, come atteso, compie un giro antiorario intorno all’origine, e quindi N = 1, ed infatti in questo caso Z = 0 e P = 1. In questa figura e nelle successive, la freccia lungo la curva γ indica il punto iniziale della curva stessa ed il verso di percorrenza, la freccia nella curva descrittiva di F (s) indica il corrispondente punto di partenza ed il verso di percorrenza.8 Scegliendo una curva γ2 della stessa forma, ma con raggio maggiore, e tale da circondare anche lo zero negativo z1 = −1, si ottiene il diagramma riportato in figura 4.13 che, come atteso, non compie alcun un giro intorno all’origine, infatti in questo caso Z = 1, P = 1 e quindi Z − P = 0. Scegliendo una curva γ3 della stessa forma, ma con raggio maggiore, e tale da circondare entrambi i poli e lo zero, si ottiene il diagramma riportato in figura 4.14, che compie un solo giro intorno all’origine, in senso antiorario, ed infatti Z = 1, P = 2 e quindi Z − P = −1. Se si considera una curva γ4 tale da circondare solo lo zero, si ottiene il diagramma riportato in figura 4.15, che, come atteso, compie un solo un giro, questa volta in senso orario, intorno all’origine, infatti in questo caso 5 Harry Theodor Nyquist (Nilsby, 7 febbraio 1889 Harlingen, 4 aprile 1976) Carl Friedrich Gauss (Braunschweig, 30 aprile 1777 Gottinga, 23 febbraio 1855) 7 Si considera una circonferenza per semplicità di tracciamento, qualsiasi altra curva chiusa porta allo stesso risultato. Si vedano le figure 4.13 e 4.17. 8 Inoltre, nei diagrammi relativi alle curve chiuse, il simbolo “*” (asterisco) indica uno zero, il simbolo “⋄” (diamante) indica un polo, i simboli in colore rosso punti esterni alla curva, quelli in colore verde punti circondati dalla curva. 6 Johann Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-197 Curva chiusa γ1 Curva F(s) lungo γ1 0.5 1 Parte immaginaria ω Parte immaginaria ω 1.5 0.5 0 −0.5 0 −1 −1.5 −2 0 2 Parte reale σ 4 −0.5 −0.5 0 0.5 Parte reale σ Figura 4.12: Curva γ1 (a sinistra) e corrispondente curva F (s) = Curva chiusa γ s+1 (s−1)(s+2) . Curva F(s) lungo γ 2 2 3 0.4 2 Parte immaginaria ω Parte immaginaria ω 1 1 0 −1 0.2 0 −0.2 −2 −3 −2 0 2 Parte reale σ −0.4 −0.2 4 0 0.2 0.4 Parte reale σ Figura 4.13: Curva γ2 (a sinistra) e corrispondente curva F (s) = Curva chiusa γ 3 0.4 Parte immaginaria ω Parte immaginaria ω s+1 (s−1)(s+2) . Curva F(s) lungo γ 3 4 2 0 −2 −4 −5 0.6 0 Parte reale σ 5 0.2 0 −0.2 −0.4 −1 −0.5 0 Parte reale σ Figura 4.14: Curva γ3 (a sinistra) e corrispondente curva F (s) = 0.5 s+1 (s−1)(s+2) . Z = 1, P = 0 e quindi Z − P = 1. Infine il caso di una curva γ5 che non circondi alcuno zero o polo è illustrata nella figura 4.16: come atteso, non compie alcun giro intorno all’origine, infatti Z = 0 e P = 0. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-198 Curva chiusa γ Curva F(s) lungo γ 4 4 0.5 0.3 Parte immaginaria ω Parte immaginaria ω 0.2 0 0.1 0 −0.1 −0.2 −0.3 −0.5 −2 −1 0 Parte reale σ −0.4 −0.4 1 −0.2 0 0.2 Parte reale σ Figura 4.15: Curva γ4 (a sinistra) e corrispondente curva F (s) = 0.6 1 0.4 0.5 0 −0.5 −1 −1.5 −2 s+1 (s−1)(s+2) . Curva F(s) lungo γ5 1.5 Parte immaginaria ω Parte immaginaria ω Curva chiusa γ5 0.4 0.2 0 −0.2 −0.4 −0.6 0 2 4 Parte reale σ −0.8 6 0 0.5 1 Parte reale σ 1.5 Figura 4.16: Curva γ5 (a sinistra) e corrispondente curva F (s) = s+1 (s−1)(s+2) . La figura 4.17 illustra il caso di una curva chiusa, la curva γ6 , di forma diversa rispetto alla curva γ2 in figura 4.13, ma con analogo risultato in termini di giri intorno all’origine per il diagramma di F (s): nessun giro intorno all’origine, Z = 0, P = 0. Curva chiusa γ Curva F(s) lungo γ 6 6 1 2 Parte immaginaria ω Parte immaginaria ω 3 1 0 −1 0.5 0 −0.5 −2 −3 −2 0 2 Parte reale σ 4 −1 −0.2 0 0.2 0.4 Parte reale σ 0.6 Figura 4.17: Curva γ6 (a sinistra) e corrispondente curva della funzione F (s) = s+1 (s−1)(s+2) . Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-199 Per comprendere meglio il risultato descritto in precedenza, si consideri la figura 4.18. I tre vettori rappresentati descrivono altrettanti termini del tipo s − a, con a parametro caratterizzante uno zero o un polo s−1.5 . L’estremo libero (cioè sulla curva γ) di un vettore della funzione razionale F (s) = (s+0.1)(s−1+0.5)(s−1−0.5) con origine all’interno della curva compie un giro completo, in senso orario, quando la variabile indipendente s percorre la curva γ nello stesso verso, mentre l’estremo libero di un vettore con origine fuori dalla curva non compie un giro completo, ma solo un moto vario. Curva chiusa γ Curva F(s) 1 1 Parte immaginaria ω Parte immaginaria ω 1.5 0.5 0 −0.5 −1 −1.5 −0.5 0.5 0 −0.5 −1 0 0.5 1 1.5 Parte reale σ Figura 4.18: Curva chiusa γ e vettori per F (s) = (destra). 2 −2 −1 0 Parte reale σ s−1.5 (s+0.1)(s−1+0.5)(s−1−0.5) 1 (sinistra) e relativa curva F (s) Si considerino i vettori con origine all’interno della curva. Nel caso di uno zero in posizione z, si ha s − z = mz (s)e ϕz (s) , e la fase ha una variazione di −2π, e quindi si ha un contributo alla funzione complessiva di un 1 giro in senso orario. Nel caso di un polo in posizione p, si ha s−p = mp (s)e −ϕp (s) , la fase complessiva ha una variazione di +2π lungo γ, e quindi si ha un contributo al diagramma dell’intera funzione F (s) di un giro in senso antiorario (cioè “meno” un giro in senso orario). Analogamente, la variazione complessiva di fase per i vettori con origine al di fuori della curva γ vale zero, e quindi non vi sono contributi al numero di giri intorno all’origine. Sulla base di queste considerazione, la funzione dell’esempio descrive un percorso chiuso (diagramma a destra in figura 4.18) che compie un solo giro intorno all’origine, in senso antiorario, quando la variabile s percorre la curva chiusa γ in figura 4.18. Il Principio dell’argomento può essere utilizzato per contare il numero di poli e zeri contenuti in una assegnata regione di piano senza risolvere i rispettivi polinomi: se si ha a disposizione uno strumento per la costruzione del diagramma di una funzione F (s) al variare di s, scegliendo opportunamente la curva γ si riesce a determinare il numero di poli e zeri (in effetti, la differenza nel loro numero) all’interno della regione delimitata dalla curva. Il Diagramma di Nyquist di una funzione di trasferimento rappresenta il comportamento di tale funzione al variare della variabile indipendente s lungo un percorso (si veda il diagramma a sinistra in figura 4.19) che racchiude tutto il semipiano destro: la semiretta immaginaria da ω = 0+ ad ω = +∞, poi un cerchio di raggio infinito fino ad ω = −∞, e poi lungo il semiasse immaginario ω = −∞ fino ad ω = 0−9 . Tale percorso è detto percorso di Nyquist o cammino di Nyquist (diagramma a sinistra nella figura 4.19) e viene utilizzato come specifica curva γ. Si noti come il diagramma della funzione razionale consista, di fatto, solo delle parti relative ai due segmenti lungo l’asse immaginario, poiché la porzione di curva γ data dal semicerchio di raggio infinito (in colore rosso nella figura 4.19, a sinistra) si mappa nel punto origine (punto rosso nella figura 4.19, a destra). Per completezza, è bene precisare che se la funzione razionale è propria, ma non strettamente (e cioè, se il grado relativo è nullo), allora la il semicherchio di raggio infinito diviene un punto dell’asse reale diverso dall’origine. Si noti anche come la parte di diagramma relativa al semiasse negativo sia speculare (di fatto, complessa coniugata) rispetto alla porzione relativa al semiasse positivo. Volendo disegnare l’intero diagramma, è quindi 9 In modo equivalente, si può pensare di percorrere tutto il semiasse immaginario, dal punto 0 − ∞ fino all’estremo opposto 0 + ∞ e poi il cerchio di raggio infinito da 0 + ∞ fino al punto di partenza 0 − ∞ Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-200 Percorso di Nyquist Diagramma di Nyquist 100 0.2 50 Parte immaginaria ω Parte immaginaria ω 0.15 R=∞ 0 −50 0.1 0.05 0 −0.05 −0.1 −0.15 −0.2 −100 −50 0 50 Parte reale σ 100 −0.25 −0.1 0 0.1 0.2 Parte reale σ Figura 4.19: Diagramma di Nyquist della funzione F (s) = 0.3 0.4 s+2 . (s + 1)(s + 3) sufficiente disegnare la parte relativa al semiasse positivo e poi ribaltarla rispetto all’asse reale per ottenere la figura completa. Infine, si noti come il percorrere il semiasse immaginario positivo corrisponda a percorre l’intero asse delle ascisse in un diagramma di Bode. Se quindi si dispone già del diagramma di Bode di una funzione di trasferimento F (s), ed in generale di una funzione razionale, il corrispondente diagramma di Nyquist può essere costruito a partire dal diagramma di Bode. Il verso di percorrenza da considerare è quello associato al diagramma di Bode: dal punto relativo ad ω = 0 fino al punto relativo ad ω = +∞, proseguendo poi in modo speculare lungo la porzione speculare della curva. A titolo di esempio, nelle seguenti figure 4.20 e 4.21 si riportano, rispettivamente, i diagrammi della funzione 6 6 e della funzione F2 (s) = . F1 (s) = (s + 1)(s + 2)(s + 3) (s − 1)(s + 3) Diagramma di Bode di F1(s) Diagramma di Nyquist di F1(s) 1 0 Parte immaginaria ω 0 Fase (gradi) Modulo dB −20 −40 −60 −80 −100 −200 −100 −2 10 0 2 10 10 Pulsazione (rad/sec) −300 −2 10 0 0.5 0 −0.5 2 10 10 Pulsazione (rad/sec) Figura 4.20: Diagramma di Nyquist della funzione F (s) = −1 −1 0 Parte reale σ 1 6 . (s + 1)(s + 2)(s + 3) Il caso di cui la funzione di trasferimento abbia poli o zeri nell’origine, e più in generale sull’asse immaginario, merita una specifica attenzione. In tal caso infatti il cammino di Nyquist passerebbe sopra uno o più tra i poli e gli zeri, e quindi il Principio dell’argomento perderebbe validità. In questo caso si ovvia al problema scegliendo un cammino caratterizzato da piccoli scostamenti dall’asse immaginario in corrispondenza degli elementi a parte reale nulla. In particolare, si considera un cammino di Nyquist che in corrispondenza di un polo lungo l’asse si muove lungo una semicirconferenza di raggio ǫ molto piccolo, centrata nel polo stesso e contenuta nel semipiano destro, come illustrato in figura 4.22 per il caso di un polo nell’origine e di una coppia complessa coniugata in ±2. Poiché la presenza di poli lungo l’asse immaginario determina dei diagrammi di Bode dei moduli tendenti ad infinito, per ω = 0 nel caso di poli nulli, per ω = ±p nel caso di coppie immaginarie, si ha che il corrispondente diagramma di Nyquist tende anch’esso ad infinito. Per chiudere all’infinito il diagramma (con tratti di circonferenza di raggio infinito), si tenga presente la regola generale secondo la quale percorrendo il cammino Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-201 Diagramma di Bode di F2(s) Diagramma di Nyquist di F2(s) Parte immaginaria ω −140 Fase (gradi) Modulo dB 0 −20 −40 −150 −160 −170 −60 −2 10 0 2 10 10 Pulsazione (rad/sec) −180 −2 10 0 0.5 0 −0.5 2 −2 10 10 Pulsazione (rad/sec) Figura 4.21: Diagramma di Nyquist della funzione F (s) = −1 0 Parte reale σ 6 . (s − 1)(s + 3) Percorso di Nyquist 10 8 6 Parte immaginaria ω 4 R=ε 2 0 −2 −4 −6 −8 −10 −2 0 2 4 Parte reale σ 6 8 10 Figura 4.22: Cammino di Nyquist per poli sull’asse immaginario. di Nyquist lasciando i poli sull’asse alla propria sinistra (percorso del cammino di Nyquist in senso orario), si lascia alla propria sinistra il corrispondente punto immagine (cioè il punto improprio a +∞). Praticamente, si può utilizzare la seguente regola di chiusura all’infinito: 1. si determinano sul diagramma di Nyquist i punti all’infinito associati all’immagine di 0+ e di 0− ; 2. si unisce l’immagine del punto 0− a quella del punto 0+ con tanti mezzi giri, di raggio infinito, quanti sono i poli nell’origine, lasciando il punto improprio alla sinistra (ruotando in senso orario). 1 A titolo di esempio, le figure 4.23 e 4.24 illustrano i diagrammi di Bode e di Nyquist delle funzioni F3 (s) = s 1 e F4 (s) = 2 , rispettivamente. s 1 . La figura 4.25 riporta il caso della funzione di trasferimento F (s) = s2 (s+1) 4.10.2 Criterio di Nyquist L’idea alla base del criterio di Nyquist è quella di legare il numero di poli e zeri appartenenti al semipiano destro, e cioè a parte reale positiva, di una assegnata funzione razionale con la forma del grafico della stessa funzione, e più precisamente con il numero di giri che la stessa funzione compie intorno al punto (−1, 0) del piano complesso. Il diagramma di Nyquist viene utilizzato per studiare la stabilità di un sistema retroazionato, con retroazione unitaria dall’uscita, del tipo in figura 4.26. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-202 Diagramma di Nyquist di F(s)=1/s 10 Parte immaginaria ω 0 −10 −20 −1 10 0 −20 10 Fase (gradi) Modulo dB Diagramma di Bode di F(s)=1/s 20 −40 −60 −80 0 1 10 10 Pulsazione (rad/sec) −100 −1 10 0 1 5 R=∞ 0 −5 −10 10 10 Pulsazione (rad/sec) 0 5 Parte reale σ Figura 4.23: Diagramma di Nyquist della funzione F (s) = 10 1 . s 2 0 20 −50 Fase (gradi) Modulo dB Diagramma di Bode di F(s)=1/s 40 0 −20 −100 −150 −40 −1 10 0 10 Pulsazione (rad/sec) −200 −1 10 1 10 2 20 2 Parte immaginaria ω Parte immaginaria ω F(s)=1/s (dettaglio) 3 R=∞ 0 −10 −20 −30 1 10 2 Diagramma di Nyquist di F(s)=1/s 30 10 0 10 Pulsazione (rad/sec) 1 0 −1 −2 −20 0 Parte reale σ −3 −3 20 −2 −1 0 Parte reale σ Figura 4.24: Diagramma di Nyquist della funzione F (s) = 1 1 . s2 La funzione di trasferimento W (s) del sistema a ciclo chiuso (si veda la figura 4.26), cioè tra il segnale di riferimento r(t) ed il segnale di uscita y(t), è legata alla funzione di trasferimento del sistema in catena aperta A(s), cioè del sistema tra il segnale di ingresso u(t) ed il segnale di uscita y(t), dalla relazione: W (s) = A(s) , 1 + A(s) (4.127) e quindi, esplicitando il numeratore ed il denominatore di W (s) e A(s), si ha: W (s) = A(s) nA (s)/dA (s) nA (s) = = , 1 + A(s) 1 + nA (s)/dA (s) nA (s) + dA (s) (4.128) e quindi dA (s) descrive i poli del sistema a ciclo aperto, mentre il polinomio nA (s) + dA (s) descrive i poli del sistema a ciclo chiuso. In questo caso particolare, la funzione di trasferimento A(s) coincide con la funzione di Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-203 Diagramma di Bode di F(s)=1/s2(s+1) 100 −180 −200 Fase (gradi) Modulo dB 50 0 −50 −100 −150 −2 10 −220 −240 −260 0 10 Pulsazione (rad/sec) 2 10 −280 −2 10 20 R=∞ 10 0 −10 2 10 F(s)=1/s2(s+1) (dettaglio) 2 Parte immaginaria ω Parte immaginaria ω Diagramma di Nyquist di F(s)=1/s2(s+1) 30 0 10 Pulsazione (rad/sec) 1 0 −1 −20 −30 −40 −20 0 20 Parte reale σ 40 −2 −2 −1.5 −1 −0.5 Parte reale σ Figura 4.25: Diagramma di Nyquist della funzione F (s) = r(t) u(t) 0 0.5 1 . s2 (s + 1) y(t) A(s) W (s) Figura 4.26: Sistema a retroazione unitaria dall’uscita. trasferimento di anello. Nel seguito si assume che la funzione di trasferimento di anello A(s) non abbia parti in comune tra numeratore e denominatore, non sia cioè caratterizzata da cancellazioni tra poli e zeri. La presenza di tali cancellazioni, come si vedrà nel seguito, equivale alla presenza di porzioni di sistema non raggiungibile e/o non osservabile, la cui presenza richiede specifiche attenzioni dal punto di vista della stabilità. La funzione razionale C(s) = 1 + A(s) è espressa da: C(s) = 1 + A(s) = nA (s) + dA (s) , dA (s) (4.129) e quindi gli zeri della funzione C(s) coincidono con i poli del sistema a ciclo chiuso, mentre i poli della funzione C(s) coincidono con i poli del sistema a ciclo aperto. Tale funzione caratterizza quindi sia la stabilità del sistema a ciclo aperto, sia la stabilità del sistema a ciclo chiuso. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-204 Il diagramma di Nyquist di tale funzione, cioè il diagramma di C(s) lungo il percorso di Nyquist (che circonda tutto il semipiano destro), consente quindi di valutare la differenza tra il numero di poli del sistema a ciclo chiuso con parte reale positiva (gli zeri di C(s)) ed il numero di poli a ciclo aperto con parte reale positiva (i poli di C(s)). Poiché l’interesse è per lo studio della stabilità del sistema a ciclo chiuso, è evidente che si devono cercare condizioni sotto le quali la funzione di trasferimento C(s) non abbia zeri a parte reale positiva, cioè contenuti all’interno del cammino di Nyquist. Infine, si noti come il diagramma della funzione C(s) ed il diagramma della funzione di trasferimento di anello A(s) siano uguali, a meno di una traslazione nel piano di Gauss. Ne segue che i giri intorno all’origine della funzione C(s) coincidono con i giri di A(s) intorno al punto (−1, 0), detto punto critico. Si indichino con N il numero di giri intorno al punto (−1, 0), contati come positivi se in senso antiorario e negativi se in senso orario (e quindi, sostanzialmente, si utilizzi la relazione (4.125). Infine, il diagramma della funzione di trasferimento di anello è detto ben definito se non passa per il punto (−1, 0), cosı̀ che il numero di giri intorno a (−1, 0) di A(s), e quindi intorno all’origine per C(s), siano ben definiti. In tal caso, anche il numero N è detto ben definito. Sulla base di tutti questi elementi è possibile formulare il Criterio di Nyquist. Teorema 4.19 (Criterio di Nyquist) Il sistema con retroazione unitaria dall’uscita W (s) = A(s) , 1 + A(s) (4.130) rappresentato dallo schema in figura 4.26, è asintoticamente stabile se e solo se valgono entrambe le due condizioni seguenti: • il numero N di giri in senso antiorario della funzione di trasferimento di anello A(s) intorno al punto (−1, 0) è ben definito; • tale numero N ed il numero P di poli a parte reale positiva del sistema a ciclo aperto A(s) sono nella relazione: N = P. (4.131) Dimostrazione La dimostazione del teorema, di fatto, è data dai commenti che precedono e dalle considerazioni in merito al diagramma di Nyquist. Vengono richiamati gli elementi principali. • In base al principio dell’argomento, il numero di giri intorno all’origine, positivi se in senso antiorario, di una funzione razionale F (s) quando la variabile s percorre, in senso orario, una curva chiusa γ è pari alla differenza P − Z tra il numero Z di zeri ed il numero P di poli della funzione F (s) interni alla curva stessa (equazione (4.125)). • Il diagramma di Nyquist di una funzione di trasferimento è il diagramma della stessa nel piano di Gauss quando la variabile s percorre il cammino di Nyquist, corretto nel caso di poli sull’asse immaginario della stessa funzione di trasferimento. • In considerazione della forma del cammino di Nyquist, il numero di giri intorno all’origine, in senso antiorario, del diagramma di Nyquist di una funzione di trasferimento F (s) conta la differenza tra il numero P di poli a parte reale positiva ed il numero Z di zeri a parte reale positiva della funzione F (s). • Dato un sistema di controllo del tipo in figura 4.26, in retroazione unitaria dall’uscita, i poli del sistema a ciclo aperto coincidono con i poli della funzione di trasferimento C(s) = 1 + A(s), i poli del sistema a ciclo chiuso con gli zeri della funzione di trasferimento C(s) = 1 + A(s). • Il diagramma di Nyquist della funzione C(s) coincide con quello della funzione di trasferimento di anello A(s), a meno di una traslazione lungo la retta reale. Ciò implica che il numero N di giri del diagramma di Nyquist intorno all’origine di C(s) coincide con il numero N di giri intorno al punto (−1, 0) della funzione A(s). • Il sistema a ciclo chiuso è asintoticamente stabile se non ha poli a parte reale positiva (cioè interni al cammino di Nyquist) o a parte reale nulla (cioè, tali da rendere N non ben definito). Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-205 • Ne seguono le due condizioni del teorema. Commento 4.8 Dal Teorema di Nyquist discende che, nel caso in cui N sia diverso da P , la differenza N − P indica il numero di poli a parte reale positiva del sistema retroazionato. 4.10.3 Stabilità e robustezza Il Criterio di Nyquist è interessante anche perchè consente di valutare alcuni elementi di robustezza della stabilità a ciclo chiuso. Il Criterio di Nyquist appena presentato consente di studiare la stabilità a ciclo chiuso se il modello del sistema, la sua funzione di trasferimento, è nota in modo completo. Molto spesso, anzi, nella maggior parte dei casi di interesse reale, la conoscenza del modello è approssimata. Ad esempio, molti dei parametri che caratterizzano un modello di norma possono essere determinati solo con un certo grado di approssimazione. Ed inoltre, quasi sempre il modello trascura componenti ad alta frequenza, cioè poli lontani (e cioè, autovalori con parte reale grande). D’altro canto, la stabilità è una proprietà fondamentale, dalla quale non è possibile prescindere. Si pone quindi il problema di caratterizzare in che misura la stabilità venga preservata anche a fronte di incertezze nel modello nominale utilizzato per la verifica di stabilità, e che lo differenziano da quello reale. Si tratta insomma di studiare in che misura si abbia una stabilità robusta a fronte di incertezze nei parametri che caratterizzano il modello. Il criterio di Nyquist consente di determinare in modo immediato la variazione complessiva (l’incertezza complessiva) di guadagno tollerabile nella funzione di trasferimento di anello senza perdere stabilità a ciclo chiuso, e la variazione complessiva di fase. Margine di guadagno Il primo criterio di robustezza è chiamato margine di gudagno, ed indica di quanto possa essere aumentato il guadagno della funzione di anello senza perdere stabilità a ciclo chiuso. Si consideri la funzione di trasferimento di anello: g , (4.132) A(s) = (s + 1)(s + 2)(s + 3) in cui g indica un fattore di guadagno incerto, il cui valore nominale si assume essere g = 6. La figura 4.27 riporta i diagrammi di Bode di tale funzione e la figura 4.28 il corrispondente diagramma di Nyquist. Il sistema a ciclo aperto non ha poli a parte reale positiva, e quindi P = 0. Il diagramma di Nyquist non circonda il punto critico, né lo tocca, e quindi N è ben definito e vale zero. Ne segue che il sistema a ciclo chiuso è asintoticamente stabile. L’analisi del diagramma di Nyquist mostra che, se il guadagno aumenta di un fattore sufficiente a portare il punto A, che rappresenta l’intersezione tra il diagramma stesso e l’asse reale negativo, in corrispondenza del punto critico, si perde la stabilità a ciclo chiuso. Infatti, in tal caso il parametro N non sarebbe ben definito. Un ulteriore aumento, anche piccolissimo, del guadagno di anello porterebbe il diagramma a compiere due giri intorno al punto critico, e quindi porterebbe alla instabilità del sistema a ciclo chiuso. Il valore massimo di cui può essere aumentato il guadagno è quindi il reciproco della lunghezza di tale intervallo (dall’origine al punto A), lunghezza indicata con 1/mg nella figura 4.28. Esaminando il corrispondente diagramma di Bode, si vede che il margine di guadagno corrisponde, a parte il segno e la conversione in decibel, al valore del modulo in corrispondenza della pulsazione alla quale la fase vale −180◦. Infatti, l’intersezione con l’asse reale negativo corrisponde esattamente ad una fase di −180◦. Nel caso dell’esempio, il margine di guadagno (il segmento in rosso nella figura 4.27) vale 20dB, che in valori assoluti corrisponde ad un incremento possibile del guadagno (come fattore moltiplicativo) di 10. Una delle conseguenze del concetto stesso di margine di guadagno è che, in generale, al crescere del guadagno di anello, un sistema retroazionato tende alla instabilità. Commento 4.9 Dalla definizione di margine di guadagno ne consegue che, se un sistema ha un ritardo di fase (un diagramma di Bode delle fasi) sempre maggiore (in segno) di −180◦ , allora il suo margine di guadagno è infinito, cioè il sistema a ciclo chiuso è asintoticamente stabile per ogni guadagno di anello. Domanda 4.1 Il lettore/studente è invitato a valutare il commento precedente, sul margine di guadagno infinito, insieme alla affermazione che spesso, nella derivazione di modelli, vengono trascurati poli ad alta frequenza, perchè si lavora con approssimazioni ai poli dominanti. Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-206 Diagramma di Bode di F (s) 1 0 |mg|dB Modulo dB −20 −40 −60 −80 −100 −2 −1 10 0 10 1 10 Pulsazione (rad/sec) 2 10 10 0 Fase (gradi) −50 −100 −150 −200 −250 −2 −1 10 0 10 1 10 Pulsazione (rad/sec) 2 10 10 Figura 4.27: Margine di guadagno: diagramma di Bode di F (s) = Modulo di guadagno g , g = 6. (s + 1)(s + 2)(s + 3) Modulo di guadagno (dettaglio) 4 1 2 Parte immaginaria ω Parte immaginaria ω 3 1 0 −1 −2 0.5 1/mg 0 A −0.5 −3 −4 0 2 Parte reale σ 4 −1 −1.5 −1 −0.5 Parte reale σ Figura 4.28: Margine di guadagno: diagramma di Nyquist di F (s) = 0 0.5 g , g = 6. (s + 1)(s + 2)(s + 3) Margine di fase Considerazioni analoghe a quelle condotte per il modulo possono essere fatte per la fase. Si consideri la funzione di trasferimento di anello: g , (4.133) A(s) = (s + 1)(s + 2)(s + 3) in cui g indica un fattore di guadagno incerto, il cui valore nominale si assume essere g = 30. La figura 4.29 riporta i diagrammi di Bode di tale funzione e la figura 4.30 il corrispondente diagramma di Nyquist. In questo caso, si vede facilmente dal diagramma a destra in figura 4.30 che la fase, in corrispondenza della pulsazione con la quale si ha intersezione con il cerchio unitario (in nero nella figura) possa essere modificata fino a raggiungere il valore di −180◦. Oltre tale valore, il diagramma passa per il punto critico, o lo supera, e quindi non si ha più stabilità a ciclo chiuso. Il valore del quale può essere incrementato il ritardo di fase (algebricamente, del quale può essere diminuita la fase) è pari all’angolo tra il punto in esame e l’asse reale negativo: l’angolo indicato con mφ in figura. Osservando i diagrammi di Bode del sistema, ed interpretando il diagramma di Nyquist, si vede in modo immediato che il margine di fase corrisponde alla distanza dal valore −180◦ del diagramma delle fasi, in corrispondenza della pulsazione alla quale il modulo vale 0 dB (e cioè, alla quale il diagramma interseca il cerchio Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-207 Diagramma di Bode 20 Modulo dB 0 −20 −40 −60 −80 −100 −2 −1 10 0 10 1 10 Pulsazione (rad/sec) 2 10 10 0 mφ Fase (gradi) −50 −100 −150 −200 −250 −2 −1 10 0 10 1 10 Pulsazione (rad/sec) Figura 4.29: Margine di fase: diagramma di Bode di F (s) = Modulo di fase 2 10 10 g , g = 30. (s + 1)(s + 2)(s + 3) Modulo di fase (dettaglio) 4 1.5 1 2 Parte immaginaria ω Parte immaginaria ω 3 1 0 −1 −2 0 mφ −0.5 −1 −3 −4 0.5 −1.5 0 2 Parte reale σ 4 −1 0 Parte reale σ Figura 4.30: Margine di fase: diagramma di Nyquist di F (s) = 1 g , g = 30. (s + 1)(s + 2)(s + 3) unitario). Il margine di fase per l’esempio considerato, pari al segmento in rosso tratto continuo in figura 4.29, vale 25◦ . Commento 4.10 I concetti di margine di guadagno e margine di fase enunciati sopra sono ben definiti solo per i sistemi a stabilità regolare, cioè per i sistemi caratterizzati dal fatto che il diagramma di Bode dei moduli assume per una sola pulsazione il valore di 0dB, ed il diagramma delle fasi assume per una sola pulsazione il valore di −180◦ . Commento 4.11 Per completezza, si cita il caso dei sistemi a stabilità condizionata, in cui la stabilità a ciclo chiuso si ha solo per intervalli ben definiti del guadagno di anello, a motivo della forma assai intrecciata del diagramma di Nyquist intorno al semiasse reale negativo. Capitolo 4: Stabilità 4.11 [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-208 Esercizi proposti Esercizio 4.1 L’utilizzo di qualsiasi algoritmo di approssimazione numerica, ed in particolare quindi dell’algoritmo (4.63), richiede la definizione di un criterio di terminazione, per valutare il numero di iterazioni richieste. Il lettore/studente formuli un criterio di terminazione per tale algoritmo, ed implementi, in un linguaggio di programmazione qualsiasi, sia l’algoritmo sia il criterio di terminazione, valutando i risultati ottenuti. Esercizio 4.2 L’analisi degli amplificatori operazionali in sezione 4.9.4 è stata condotta assumendo un modello a guadagno costante per OA2 . Ciò, sebbene non dichiarato esplicitamente, implica una importante ipotesi sulla banda passante del sottosistema relativo ad OA2 . Quale è questa ipotesi? Esercizio 4.3 Con riferimento alla sezione 4.9.4 , il lettore/studente è invitato a condurre l’analisi del circuito in figura 4.10 utilizzando un modello a polo dominante anche per OA2 . Esercizio 4.4 . Con riferimento alla sezione 4.9.4 , il lettore/studente è invitato a condurre l’analisi del circuito in figura 4.10 utilizzando come modelli le due funzioni di trasferimento a ciclo aperto per OA1 ed OA2 , in luogo del modello nello spazio di stato suggerito nella precedente domanda e nella trattazione riportata sopra. Esercizio 4.5 Calcolare il guadagno ingresso-uscita del circuito riportato nella seguente figura 4.5, sia con riferimento ad un modello a guadagno costante per l’amplificatore operazionale, sia con riferimento ad un modello a polo dominante, e confrontare i due risultati. vD − + vIN vOUT R2 R1 Esercizio 4.6 Calcolare i punti di equilibrio e valutare le loro proprietà di stabilità, per il seguente sistema dinamico a tempo discreto: x1 (t + 1) = x1 + x1 (x21 − 1)(1 + x22 ) x2 (t + 1) = x21 . Esercizio 4.7 Dato il seguente sistema dinamico, valutare le proprietà di stabilità interna ed esterna al variare del parametro α nell’insieme dei reali: 0 1 0 0 1 x + 0 u, ẋ = 0 0 0 α 1−α 1 1 −1 0 x, y = Esercizio 4.8 Studiare la stabilità dell’origine per il seguente sistema a tempo continuo: ẋ1 = −αx31 − 2x32 ẋ2 = x1 − x2 , al variare del parametro α nell’insieme dei reali positivi (α ∈ R, α > 0). Capitolo 4: Stabilità [Ed. 2015, P. Valigi (UniPG), V 4.2] - 4-209 Esercizio 4.9 Studiare la stabilità dell’origine per il seguente sistema a tempo discreto, per β ∈ R: x1 (k + 1) = (β − 1)x1 (k) x2 (k + 1) = βx1 (k) − (β + 1)x2 (k). Esercizio 4.10 Studiare le proprietà di stabilità dell’origine per il seguente sistema dinamico a tempo continuo: ẋ1 = ẋ2 = x21 + 2x1 x2 − x32 x22 + x21 ex2 + x32 Capitolo 5: Raggiungibilità [Ed. 2015, V 4.0 - PV - UniPG] - 5-210 Capitolo 5 Proprietà strutturali: raggiungibilità 5.1 Introduzione Lo studio della proprietà strutturali del sistemi dinamici (nel nostro caso, limitatamente ai sistemi lineari) ha lo scopo di analizzare le implicazioni della struttura interna del sistema rispetto alla interazione con l’ambiente esterno. La prima proprietà, detta raggiungibilità, si preoccupa di caratterizzare il grado di influenza del segnale di ingresso rispetto allo stato interno. In altre parole, fino a che punto è possibile influenzare e governare lo stato interno agendo su segnale di ingresso. 5.2 Definizioni Si ricorda che, nel caso di un sistema lineare e stazionario a tempo discreto, la forma esplicita è data da: k x(k, x0 , u(·)) = A x0 + k−1 X Ak−i−1 Gu(i), i=0 mentre nel caso di un sistema a tempo continuo tale forma è data da: Z t x(t, x0 , u(·)) = e At x0 + e A(t−τ ) Gu(τ )dτ, 0 k ∈ Z, t ∈ R. (5.1) (5.2) Inoltre, un sistema dinamico, a tempo continuo o discreto, descritto da matrici A, B ed C, verrà sinteticamente indicato con Σ(A, B, C), o Σ(A, B) se la matrice di uscita C non è rilevante. Le proprietà strutturali di raggiungibilità e controllabilità descrivono la capacità del vettore dei segnali di ingresso di influenzare il comportamento del sistema dinamico. Nel seguito, per semplicità, la variabile indipendente tempo, sia per sistemi a tempo continuo che per sistemi a tempo discreto, verrà indicata con la lettera t. Definizione 5.1 (Stato raggiungibile) Uno stato x del sistema Σ = (A, B, C), a tempo continuo o a tempo discreto, si dice raggiungibile se esiste un istante finito di tempo t > 0 ed una funzione di ingresso u(·) tale che risulti: x(t, 0, u(·)) = x. (5.3) In altre parole, un punto x dello spazio di stato è raggiungibile se esiste un segnale di ingresso ed un istante di tempo t tale da portare lo stato del sistema in tale punto all’istante t, a partire da condizioni iniziali nulle. Definizione 5.2 (Sistema raggiungibile) Un sistema Σ = (A, B, C), a tempo continuo o a tempo discreto, si dice raggiungibile se tutti i punti del suo spazio di stato X sono raggiungibili. Una proprietà, in qualche modo complementare, rispetto alla raggiungibilità è quella della controllabilità. Definizione 5.3 (Stato controllabile) Uno stato x del sistema Σ = (A, B, C), a tempo continuo o a tempo discreto, si dice controllabile se esiste un istante finito di tempo t > 0 ed una funzione di ingresso u(·) tale che risulti: x(t, x, u(·)) = 0. (5.4) Capitolo 5: Raggiungibilità [Ed. 2015, V 4.0 - PV - UniPG] - 5-211 In altre parole, un punto x dello spazio di stato è controllabile se esiste un segnale di ingresso ed un istante di tempo t tale da portare lo stato del sistema nell’origine dello spazio di stato all’istante t, a partire dallo stato iniziale x. Definizione 5.4 (Sistema controllabile) Un sistema Σ = (A, B, C), a tempo continuo o a tempo discreto, si dice controllabile se tutti i punti del suo spazio di stato X sono controllabili. È facile dimostrare che l’insieme dei punti raggiungibili e quello dei punti controllabili formano un sottospazio dello spazio di stato. Lemma 5.1 ([8]) L’insieme X R degli stati raggiungibili è un sottospazio lineare dello spazio di stato X . Lemma 5.2 ([8]) L’insieme X C degli stati controllabili è un sottospazio lineare dello spazio di stato X . 5.3 Raggiungibilità per sistemi LSTD Lo studio della proprietà di raggiungibilità per un sistema lineare, a tempo discreto, stazionario può essere condotto a partire dalla rappresentazione esplicita 5.1, o, equivalentemente, a partire dalla rappresentazione implicita. Si analizzi in dettaglio la soluzione del sistema al crescere del tempo. Utilizzando una delle due rappresentazioni, e ricordando che la proprietà viene studiata assumendo condizione iniziale nulla, al primo passo si ha: x(1) = Bu(0). (5.5) Introdotta la matrice R1 := [B], detta matrice di raggiungibilità ad un passo, è immediato vedere che l’insieme X1R degli stati raggiungibili in un passo è dato da X1R := Im [R1 ] = Im [B]. (5.6) Similmente, analizzando la risposta forzata al passo k = 2, si trova: x(2) = = Ax(1) + Bu(1) (5.7) ABu(0) + Bu(1) = [ B AB ] u(1) u(0) . (5.8) e quindi, con ovvio significato dei simboli: X2R := Im [R2 ] = Im [ B AB ]. (5.9) Iterando il ragionamento, al passo k si ottiene: x(k) = Bu(k − 1) + ABu(k − 2) + · · · + Ak−1 Bu(0) = B AB ··· Ak−1 B u(k − 1) u(k − 2) .. . u(0) . La matrice Rk := B AB · · · Ak−1 B è detta matrice di raggiungibilità in k passi, mentre l’insieme XkR , sottospazio degli stati raggiungibili in k passi, è dato dall’immagine di tale matrice: XkR := Im [Rk ] = Im B AB · · · Ak−1 B . (5.10) E` facile vedere che i sottospazi di raggiungibilità sono ordinati secondo la seguente catena di inclusioni, poiché sono costruiti aggiungendo in successione nuove colonne alla matrice relativa al passo precedente: R X1R ⊆ X2R ⊆ · · · ⊆ XkR ⊆ XnR = Xn+1 . (5.11) Si noti che l’inclusione diviene sicuramente un’uguaglianza al passo n, in virtù del teorema di Cayley-Hamilton. Ovviamente l’inclusione può divenire un’uguaglianza anche prima del passo n. Capitolo 5: Raggiungibilità [Ed. 2015, V 4.0 - PV - UniPG] - 5-212 Il sottospazio X R , detto sottospazio degli stati raggiungibili, cioè il sottospazio che raccoglie la totalità degli stati raggiungibili, si ottiene quindi, al più, al passo n: X R := XnR ed è generato dalla matrice di raggiungibilità R: R := B AB · · · An−1 B . (5.12) Poichè X R contiene tutti i punti raggiungibili, un sistema dinamico Σ(A, B) è raggiungibile se e solo se tale spazio coincide con l’intero spazio di stato: XR ≡ X, (5.13) e quindi se e solo se la matrice di raggiungibilità ha rango pieno. Vale quindi il criterio di raggiungibilità enunciato nel seguente teorema di raggiungibilità: Teorema 5.1 (Criterio di raggiungibilità) Un sistema dinamico a tempo discreto Σ(A, B) è raggiungibile se e solo se rango B AB · · · An−1 B = n. (5.14) Si noti come la matrice di raggiungibilità sia una matrice con n righe e n × m colonne. Il più piccolo intero r per cui la matrice B AB · · · Ar−1 B (5.15) ha rango n è detto indice di raggiungibilità del sistema. Il calcolo dell’ingresso u(·) che consente di raggiungere lo stato assegnato, cosı̀ come precisato nella definizione 5.1, è possibile a partire dalla matrice di raggiungibilità del sistema, od anche dalla matrice di raggiungibilità in un numero fissato di passi. In particolare, la possibilità di raggiungere uno stato assegnato xf in k passi, con k ≥ 1, è legata alla possibilità di risolvere il seguente sistema algebrico: u(k − 1) u(k − 2) xf = B AB · · · Ak−1 B . .. . u(0) L’esistenza di una soluzione per tale sistema indica la raggiungibilità del punto in k passi, ed una sua soluzione (“la” soluzione, se unica), rispetto alle incognite u(k − 1), · · · , u(0), rappresenta una possibile sequenza (“la” sequenza, se unica) che consente di raggiungere tale punto dall’origine in k passi. Per quanto concerne l’esistenza della soluzione, è ben noto che cioè si verifica se, e solo se: rango B AB · · · Ak−1 B = rango xf | B AB · · · Ak−1 B (5.16) 5.4 Raggiungibilità per sistemi LSTC Lo studio del sottospazio degli stati raggiungibili per sistemi lineari a tempo continuo è basato sul concetto di gramiano di raggiungibiltà [8, 10]. L’introduzione di tale concetto esula dagli scopi di queste note. L’analisi porta a concludere, anche nel caso dei sistemi a tempo continuo, che il sottospazio degli stati raggiungibili è dato dall’immagine della matrice di raggiungibilità: X R = Im [R] = Im B AB ··· An−1 B . (5.17) Ne segue quindi un criterio di raggiungibilità a tempo continuo, raccolto nel seguente teorema, che è del tutto identico all’analogo teorema per i sistemi a tempo discreto: Teorema 5.2 (Criterio di raggiungibilità) Un sistema dinamico a tempo continuo Σ(A, B) è raggiungibile se e solo se rango B AB · · · An−1 B = n. (5.18) Il calcolo del segnale di ingresso che consente di raggiungere, se possibile, un assegnato punto dello spazio di stato richiede il calcolo del gramiano di raggiungibilità (si veda [8, 10]). Capitolo 5: Raggiungibilità 5.5 [Ed. 2015, V 4.0 - PV - UniPG] - 5-213 Risultati notevoli Poiché la matrice di raggiungibilità, il sottospazio degli stati raggiungibili ed il criterio di raggiungibilità possono essere formulati in modo identico per sistemi a tempo continuo e per sistemi a tempo discreto, tutte le proprietà che ne derivano valgono in modo del tutto identico/analogo per entrambe le classi di sistemi. Nei lemmi che seguono vengono riportate alcune proprietà, particolarmente rilevanti ai fini del corso. Lemma 5.3 Il sottospazio X R degli stati raggiungibili è invariante rispetto a trasformazioni di similarità. Si ricordi che un sottospazio vettoriale V è detto invariante rispetto ad un operatore A, e cioè V è A − invariante, se vale la relazione: AV ⊆ V ⇔ ∀v ∈ V, Av ∈ V. (5.19) Vale quindi il seguente lemma: Lemma 5.4 Il sottospazio X R degli stati raggiungibili è un sottospazio A-invariante. Se un sistema Σ(A, B), indifferentemente a tempo continuo o a tempo discreto, non è raggiungibile, è possibile analizzare in dettaglio la sua struttura interna, ed evidenziare la parte eventualmente raggiungibile, utilizzando la forma standard di raggiungibilità, o decomposizione di Kalman1 rispetto alla raggiungibilità. Tale decomposizione è descritta dal seguente teorema: Teorema 5.3 (Decomposizione di Kalman rispetto alla raggiungibilità) Se il sistema Σ = (A, B, C) non è raggiungibile, esiste una trasformazione di coordinate nello spazio di stato x̄ = T −1 x, tale che il sistema, nelle nuove coordinate, è descritto dalle matrici: B̄1 Ā1,1 Ā1,2 , B̄ = T −1 B = Ā = T −1 AT = (5.20) , C̄ = CT = C̄1 C̄2 , 0 0 Ā2,2 in cui i blocchi Ā1,1 e Ā2,2 sono matrici quadrate, di dimensione ρ × ρ e (n − ρ) × (n − ρ), rispettivamente, con ρ pari al rango della matrice di raggiungibilità, ed i blocchi Ā1,2 , B̄1 , C̄1 e C̄2 sono di dimensioni corrispondenti. Inoltre, il sottosistema Σ̄1,1 = (Ā1,1 , B̄1 , C̄1 ) è completamente raggiungibile. Il calcolo della matrice di trasformazione T −1 , o meglio la determinazione della nuova base T , è basato sulla determinazione di un numero opportuno di colonne indipendenti della matrice di raggiungibilità. Sia ρ < n il rango della matrice di raggiungibilità. La matrice di trasformazione può essere costruita selezionando ρ colonne indipendenti di R, ed utilizzando ulteriori n − ρ vettori indipendenti per completare la base. Si consideri il caso particolare di un sistema con un solo ingresso, per il quale quindi la matrice B è costituita da una sola colonna. In tal caso, se la matrice di raggiungibilità ha rango ρ, una possibile scelta di altrettante colonne indipendenti è data dalla prime ρ colonne. La matrice di trasformazione è allora: (5.21) T = b Ab · · · Aρ−1 b w1 · · · wn−ρ . con w1 , · · · , wn−ρ vettori tali da generare una nuova base (e quindi, tali da generare una matrice T non singolare). La forma standard di raggiungibilità è di estremo interesse, perché consente di evidenziare il sottosistema completamente raggiungibile e quello non raggiungibile. Una proprietà fondamentale del sottosistema raggiungibile è quella di essere il solo a caratterizzare la matrice di trasferimento dell’intero sistema, come affermato nel seguente teorema. Teorema 5.4 Sia Σ = (A, B, C) un sistema non completamente raggiungibile, e sia Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) il sottosistema raggiungibile ottenuto dalla decomposizione canonica di Kalman rispetto alla raggiungibilità. Allora, i due sistemi Σ e Σ̄1 hanno la stessa matrice di trasferimento: C(ηI − A)−1 B = C̄1 (ηI − Ā1,1 )−1 B̄1 (5.22) ▽ 1 Rudolf Emil Kàlmàn (Budapest, 19 maggio 1930) Capitolo 5: Raggiungibilità [Ed. 2015, V 4.0 - PV - UniPG] - 5-214 Il teorema precedente implica che gli autovalori della matrice Ā2,2 del sottosistema non raggiungibile non compaiono come poli della matrice di trasferimento del sistema Σ. Nella relazione (5.22), la variabile complessa η rappresenta la variabile s di Laplace nel caso dei sistemi LSTC e la variabile z nel caso dei sistemi LSTD. Infine, si riporta un ulteriore corollario, legato alla raggiungibilità (si veda [10][§5.7, corollario 2]): Corollario 5.1 Sia Σ = (A, B, C) un sistema non completamente raggiungibile. Gli autovalori della matrice Ā2,2 , che descrive il sottosistema non raggiungibile, sono tutti e soli i valori di λ in corrispondenza dei quali la matrice [A − λI|B] (5.23) non ha rango pieno. Capitolo 5: Raggiungibilità 5.6 [Ed. 2015, V 4.0 - PV - UniPG] - 5-215 Esercizi risolti Esercizio 5.1 Dato il sistema dinamico a tempo discreto −2 −1 −5 3 x(k + 1) = 0 1 0 x(k) + 1 u(k), 2 2 5 −2 a) studiare la raggiungibilità; b) determinare la decomposizione rispetto alla raggiungibilità. Soluzione esercizio 5.1. −5 3 0 x(k) + 1 u(k), 5 −2 −2 −1 1 x(k + 1) = 0 2 2 Raggiungibilità. La matrice di raggiungibilità di questo sistema è data da: 3 3 3 R= 1 1 1 , −2 −2 −2 e quindi il sistema non è raggiungibile. Il suo indice di raggiungibilià è r = 1. Decomposizione rispetto alla raggiungibilità. Per calcolare la decomposizione, si sceglie un insieme di r = 1 colonne indipendenti della matrice R, ad esempio e1 = b, e si completa tale insieme con 2 colonne linearmente indipendenti; ad esempio, si può scegliere: 1 0 e2 = 0 , e3 = 0 . 0 1 Ogni altra scelta di due colonne linearmente indipendenti rispetto alla matrice b è possibile. La base per la decomposizione rispetto alla raggiungibilità è quindi: 3 1 0 T = 1 0 0 , −2 0 1 con inversa: T −1 0 = 1 0 1 0 −3 0 . 2 1 Nelle nuove coordinate x̄ = T −1 x il sistema è descritto dalle matrici: 1 0 0 1 Ā = 0 −2 −5 , b̄ = 0 ; 0 2 5 0 con la notazione abitualmente utilizzata si ha: Ā11 = 1 Esercizio 5.2 Dato il sistema dinamico a tempo 1 −5 x(k + 1) = 2 0 0 y(k) = , Ā22 = −2 −5 2 5 . discreto 0 −3 1 1 1 1 −5 x(k) + −1 u(k), 2 0 x(k), Capitolo 5: Raggiungibilità [Ed. 2015, V 4.0 - PV - UniPG] - 5-216 1. valutare la raggiungibilità; 2. determinare, se possible, una sequenza di controllo per raggiungere lo stato x1 = (2 − 3 1)T ; 3. determinare una decomposizione rispetto alla raggiungibilità. Soluzione esercizio 5.2. Sistema dinamico a tempo discreto 1 0 1 1 x(k + 1) = −5 −3 −5 x(k) + −1 u(k), 2 1 2 0 0 0 1 x(k), y(k) = Valutare la raggiungibilità. Per valutare la raggiungibilità del sistema in esame, si deve valutare il rango della matrice di raggiungibilità: 1 1 2 R = b Ab A2 b = −1 −2 −4 0 1 2 il cui rango è due, e quindi il sistema non è raggiungibile. Infatti, la seconda e terza colonna della matrice di raggiungibilità sono linearmente dipendenti. Determinare, se possible, una sequenza di controllo per raggiungere lo stato x1 = (2 − 3 1)T . Lo stato x̄ è raggiungibile se appartiene all’immagine della matrice di raggiungibilità. In particolare, il punto di interesse è pari alla somma della prime due colonne di R. Procedendo in modo analitico, si deve verificare il rango della matrice: 1 1 2 b Ab x̄ = −1 −2 −3 0 1 1 che risulta essere pari a due, per cui il punto è raggiungibile in due passi. La sequenza di controllo che consente di raggiungere il punto x̄ in due passi si può ottenere dalla soluzione del sistema: 2 1 1 u(1) −1 −2 = −3 u(0) 1 0 1 che, per ispezione, è data da: u(0) = 1, u(1) = 1. Determinare una decomposizione rispetto alla raggiungibilità. Poiché il sistema non è raggiungibile, ha senso determinare la decomposizione rispetto alla raggiungibilità. Le prime due colonne della matrice di raggiungibilità sono linearmente indipendenti, ed un possibile vettore per completare la base è dato, ad esempio, dalla prima colonna della matrice identita, per cui la matrice di cambio di base e la sua inversa sono date da: 0 −1 −2 1 1 1 1 . T = −1 −2 0 , T −1 = 0 0 1 1 1 0 1 0 La decomposizione rispetta alla raggiungibilità è quindi descritta dalle matrici: 0 0 1 1 Ā = T −1 AT = 1 2 2 , b̄ = T −1 b = 0 , Ā = T −1 AT = 0 1 0 0 −2 0 0 . Capitolo 5: Raggiungibilità 5.7 [Ed. 2015, V 4.0 - PV - UniPG] - 5-217 Esercizi proposti Esercizio 5.3 Dato il sistema dinamico a tempo discreto x(k + 1) = Ax(k) + B1 u(k), a) studiare la raggiungibilità ; −1 1 0 2 0 , A= 2 2 −1 1 −1 B1 = −2 , 0 0 1 ]T e x̄2 = [ 2 1 b) verificare la raggiungibilità e degli stati x̄1 = [ 1 0 ]T ; c) se gli stati x̄1 e x̄2 sono raggiungibili, determinare due segnali di controllo per raggiungerli in un numero minimo di passi; d) determinare almeno due distinti segnali di controllo che consentano di raggiungere lo stato x̄1 in 11 passi. Esercizio 5.4 Dato il sistema dinamico a tempo discreto x(k + 1) = Ax(k) + B1 u(k), a) studiare la raggiungibilità; b) verificare la raggiungibilità dello stato x̄1 = [ 1 −1 1 A= 1 1 1 0 0 0 , 1 1 B1 = 0 , 0 2 1 ]T ; c) se lo stato x̄1 non è raggiungibile, determinare lo stato xo ∈ X R che rende minima la funzione kx̄1 − xk2 al variare di x nel sottospazio di raggiungibilità; d) determinare un segnale di controllo per raggiungere lo stato x̄1 o lo stato xo nel numero minimo di passi. Esercizio 5.5 Dato il sistema dinamico a tempo discreto x(k + 1) = Ax(k) + B1 u(k), a) studiare la raggiungibilità; b)verificare la raggiungibilità dello stato x̄ = [ 3 −1 1 A= 1 2 1 0 0 0 , 1 1 B1 = 0 , 0 1 2 ]T ; c) se lo stato x̄ è raggiungibile, determinare un segnale di controllo u(·) per raggiungerlo nel numero minore di passi. Esercizio 5.6 Dato il sistema dinamico a tempo discreto x(k + 1) = Ax(k) + Bu(k), a) studiarne la raggiungibilità; −1 1 A= 1 2 1 0 b) verificare la raggiungibilità dello stato x̄ = [ 3 1 0 0 , 1 1 B= 0 0 0 0 , 1 2 ]T ; c) se lo stato x̄ è raggiungibile, determinare un segnale di controllo u(·) per raggiungerlo nel numero minore di passi; utilizzando un solo segnale di controllo (si confronti questo esercizio con 5.5), ed utilizzando un segnale avente norma minima. d) confrontare i tre diversi segnali ottenuti al punti precedente. Capitolo 5: Raggiungibilità [Ed. 2015, V 4.0 - PV - UniPG] - 5-218 Esercizio 5.7 Dato il sistema dinamico a tempo continuo 1 1 ẋ(t) = Ax(t) + gu(t), A= 0 1 0 0 a) studiare la raggiungibilità; b)verificare la raggiungibilità dello stato x̄ = [ 0 0 0 , 1 0 B = 1 , 1 1 0 ]T ; c) qualora x̄ non sia raggiungibile, determinare lo stato xo ∈ X R che rende minima la funzione kx̄ − xk2 al variare di x nel sottospazio di raggiungibilità; d) determinare la decomposizione rispetto alla raggiungibilità; e) determinare il complemento all’intero spazio di stato del sottospazio di raggiungibilità, cioè il sottospazio X 1 tale che X =XR ⊕ X 1 ; f) determinare i modi non modificabili dall’ingresso (cioè associati ad autovalori invarianti); g) dato un generico stato x0 = [ x10 x20 x30 ]T , e un valore finito t̄, assegnato, verificare se lo stato xf = e At̄ x0 è raggiungibile a partire dallo stato iniziale x0 e, in caso affermativo, determinare un instante di tempo t al quale tale stato finale può essere raggiunto ed il corrispondente segnale di controllo u(·); h) calcolare il segnale di ingresso u(·) che consente di raggiungere lo stato x̄, o lo stato xo , definiti al punto c). Esercizio 5.8 Dato il sistema dinamico a tempo 1 x(k + 1) = 0 0 a) studiare la raggiungibilità; discreto 1 0 0 1 0 x(k) + 1 u(k), 0 1 1 b)verificare se lo stato x̄ = [ 0 −2 0 ]T è raggiungibile; c) qualora x̄ non sia raggiungibile, determinare lo stato xo ∈ X R che rende minima la funzione kx̄ − xk2 al variare di x nel sottospazio di raggiungibilità, e determinare la sequenza di ingressi che consente di raggiungere tale stato xo ; d) determinare la decomposizione rispetto alla raggiungibilità; e) determinare il complemento all’intero spazio di stato del sottospazio di raggiungibilità; f) determinare i modi non modificabili dall’ingresso (cioè invarianti); g)verificare se lo stato xf = [ 4 3 5 ]T è raggiungibile a partire dallo stato iniziale x0 = [ 1 1 0 ]T , calcolare il numero minimo di passi richiesti ed il segnale di controllo che consente di raggiungerlo. Esercizio 5.9 Dato il circuito elettrico in figura 5.1 (si veda il paragrafo 2.3), e determinato il suo modello dinamico a) studiare la raggiungibilità; b) determinare la decomposizione rispetto alla raggiungibilità. c) calcolare l’autovettore relativo al’autovalore non raggiungibile. Capitolo 5: Raggiungibilità [Ed. 2015, V 4.0 - PV - UniPG] - 5-219 R1 R3 L R2 C2 Vin C1 Figura 5.1: Circuito elettrico relativo all’esercizio 5.9 R4 Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-220 Capitolo 6 Allocazione degli autovalori per sistemi scalari 6.1 Introduzione Lo studio delle proprietà di stabilità dei sistemi lineari ha messo in chiara evidenza il ruolo fondamentale degli autovalori nella caratterizzaione di tale proprietà. In molte situazioni di interesse, ad esempio in tutti i casi in cui si ha un sistema instabile, oppure si ha un sistema i cui modi naturali, pur essendo convergenti, sono troppo “lenti”, sarebbe utile poter intervenire sul sistema e modificare i suoi autovalori. La modalità tipica di intervento è quella di applicare un opportuno segnale di ingresso, che sia calcolato sulla base di misure del comportamento attuale del sistema, cioè, un segnale in retroazione. Più in generale, l’utilizzo di un segnale di controllo in retroazione consente di risolvere problemi di regolazione. Nel seguito verrà presentata una possibile soluzione al problema della regolazione dello stato di un sistema dinamico intorno ad un punto di equilibrio. 6.2 Regolazione e dinamica d’errore Il problema della regolazione di un sistema dinamico intorno ad un punto di lavoro (punto di equilibrio) è un problema di estrema importanza applicativa. Si consideri un sistema dinamico a tempo continuo (il caso dei sistemi a tempo discreto è del tutto analogo), con un solo ingresso ed una sola uscita, descritto dalle equazioni: ẋ = Ax + bu y = cx, e sia xr un punto dello spazio di stato che si desidera rendere punto di lavoro per il sistema. Si desidera cioè agire in modo tale che il sistema si trovi, di norma, in tale punto dello spazio di stato, e che eventuali scostamenti da tale punto, a causa di disturbi e perturbazioni agenti dall’esterno, vengano recuperati con velocità assegnata. Tale problema va sotto il nome di problema di regolazione. Alla luce della teoria della stabilità il problema posto può essere risolto rendendo xr punto di equilibrio asintoticamente stabile per il sistema di interesse. Ciò può essere ottenuto suddividendo il problema di regolazione in due sottoproblemi: 1) rendere xr punto di equilibrio; 2) rendere tale punto, e quindi il sistema, asintoticamente stabile. Il primo sottoproblema è risolto facilmente determinando, se esiste, una soluzione al seguente sistema algebrico: Axr + bur = 0. (6.1) Se tale sistema ammette soluzione nell’incognita scalare ur , allora il segnale di ingresso ur (t) = ur δ−1 (t) rende il punto di interesse punto di equilibrio. Per valutare le proprietà di stabilità di tale punto, e per progettare possibili azioni di intervento sul sistema, è conveniente introdurre un sistema di errore, che descriva l’evoluzione temporale dello scostamento tra il Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-221 comportamento desiderato per il sistema ed il comportamento effettivo. Si introduca quindi un vettore x̃ : x−xr , che descrive lo scostamento tra il valore desiderato per lo stato ed il valore effettivo. Tale segnale è detto errore di regolazione nello stato. Si supponga inoltre che il segnale di ingresso u(·) applicato al sistema sia dato dalla somma del segnale costante utile a rendere xr punto di equilibrio e di un segnale aggiuntivo ũ, il cui scopo sarà chiaro nel seguito. La dinamica dell’errore di regolazione nello stato può essere determinata facilmente a partire dalla dinamica del sistema e dalla condizione di equilibrio. Si trova: x̃˙ = = = ẋ − x˙r = ẋ = Ax + bu = A(x̃ + xr ) + b(ũ + ur ) Ax̃ + bũ + Axr + bur Ax̃ + bũ. La dinamica di errore è quindi governata da un sistema descritto dalle stesse matrici A e b che descrivono il sistema da controllare (in virtù della linearità di quest’ultimo). Ne segue che il problema di regolazione sarà ben risolto se la matrice A ha tutti gli autovalori con parte reale negativa, per garantire stabilità asintotica, e con parte reale sufficientemente grande (in modulo), per garantire idonea velocità di convergenza. Se tale matrice non ha le proprietà richieste, si potrebbe cercare di utilizzare il segnale ũ per modificare il comportamento della dinamica di errore, e risolvere quindi in modo soddisfacente il problema di regolazione. Come già notato, la dinamica d’errore ed il sistema da controllare (il processo) sono descritti dalle stesse matrici. Ciò implica che regolare il sistema intorno ad un punto di equilibrio non nullo xr è del tutto equivalente a regolarlo intorno all’origine. Nel seguito quindi ci si limiterà a studiare e risolvere il problema della regolazione a zero di un sistema dinamico. Tale problema può essere risolto, ad esempio, utilizzando un segnale in retroazione che consenta, se possibile, di allocare in modo arbitrario tutti gli autovalori del sistema. 6.3 Allocazione degli autovalori: formulazione del problema Problema 6.1 (Allocazione degli autovalori tramite retroazione statica dallo stato) Dato il sistema dinamico Σ = (A, b, c) ed un insieme di n numeri complessi D = {λ1 , λ2 , . . . , λn }, con D arbitrario ma chiuso rispetto all’operazione di coniugazione complessa, trovare, se esiste, una legge in retroazione statica dallo stato u = kx + v, k ∈ R1×n , v ∈ R, (6.2) tale che gli elementi dell’insieme D siano gli autovalori del sistema a ciclo chiuso ΣK = (A + bk, b, c). Teorema 6.1 Il problema della allocazione degli autovalori tramite retroazione statica dallo stato per un sistema dinamico Σ = (A, b, c) ammette soluzione se e solo se il sistema è raggiungibile, cioè se e solo se sono soddisfatte le due condizioni equivalenti: i) rango [b Ab . . . An−1 b] = n; ii) rango [A − λI|b] = n, 6.4 ∀λ ∈ sp {A}. Allocazione degli autovalori: soluzione Dimostrazione del teorema. Sufficienza La sufficienza verrà mostrata dando una procedura per costruire una matrice k (k ∈ R1×n ) che risolve il problema, e poi mostrando che, sotto l’ipotesi di raggiungibilità, la procedura può effettivamente essere completata ed ottiene il risultato desiderato. La procedura consiste nel determinare un nuovo sistema di coordinate, nel quale sia poi immediato calcolare la matrice di retroazione cercata. Procedura 6.1 (Allocazione degli autovalori tramite retroazione statica, singolo ingresso.) Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-222 Passo 1. Determinare un vettore riga h ad n componenti ( hT ∈ Rn ), tale da soddisfare il seguente sistema algebrico: hb = hAb = .. . hAn−2 b hAn−1 b 0 0 (6.3) = = 0 1. Passo 2. Determinare le nuove coordinate xc secondo la trasformazione: xc = T −1 x, con T −1 T −1 ∈ Rn×n , h hA .. . := hAn−2 hAn−1 (6.4) . (6.5) Con queste nuove coordinate, che nel seguito verranno indicate come le coordinate di controllore, il sistema originale risulta descritto dalla forma canonica di controllore ad un ingresso: x˙c = Ac xc + bc u, ove Ac = T −1 AT = 0 0 .. . 1 0 .. . 0 1 .. . ··· ··· .. . 0 0 .. . 0 −a0 0 −a1 0 −a2 ··· ··· 1 −an−1 (6.6) , 0 0 .. . bc = T −1 b = 0 1 . (6.7) Passo 3. Dato l’insieme di autovalori desiderati D = {λ1 , λ2 , . . . , λn }, chiuso rispetto all’operazione di coniugazione complessa, determinare il polinomio caratteristico desiderato: p(λ) := n Y i=1 (λ − λi ) = λn + pn−1 λn−1 + · · · + p1 λ + p0 . Passo 4. Calcolare la matrice di retroazione dallo stato in coordinate di controllore kc , kc ∈ R1×n : kc = (a0 − p0 ) (a1 − p1 ) · · · (an−1 − pn−1 ) ; (6.8) (6.9) e calcolare la matrice di retroazione nelle coordinate originali, data da: k = kc T −1 . (6.10) ♦ Si tratta ora di mostrare che la procedura può essere completata e la sua efficacia. Per mostrare che la procedura può essere completata è sufficiente far vedere che è possibile calcolare la matrice T −1 e che tale matrice è effettivamente non singolare. La raggiungibilità del sistema Σ garantisce l’esistenza di un vettore riga h soluzione del sistema algebrico (6.3). Infatti, la raggiungibilità implica che la matrice R = b Ab · · · An−1 b è non singolare, e quindi esiste la sua inversa R−1 . Ora, il sistema di equazioni (6.3) può essere riscritto nella forma: hR = 0 0 · · · 1 , Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-223 la cui soluzione, in virtù dell’esistenza della matrice R−1, esiste ed è data da: h = 0 0 · · · 1 R−1 , e quindi h è ottenibile come ultima riga dell’inversa della matrice di raggiungibilità (per semplice ispezione visiva del prodotto righe-colonne). La possibilità di calcolare la matrice T −1 a partire dal vettore riga h non comporta problemi, deve invece essere mostrato che tale matrice è non singolare. Questo può essere fatto mostrando che le righe di T −1 sono tutte linearmente indipendenti. Per assurdo, si assuma che non lo siano; allora esiste una sequenza di n costanti η0 , η1 , . . . , ηn−1 , non tutte nulle, tali che la combinazione tramite tali coefficienti delle righe di T −1 è pari ad un vettore riga nullo: n−1 X ηi hAi = 0. (6.11) i=0 Moltiplicando a destra entrambi i membri dell’equazione per il vettore b e ricordando le condizioni imposte dal sistema (6.3), si trova che deve essere: ηn−1 h An−1 b = 0, (6.12) da cui, per l’ultima delle (6.3), segue ηn−1 = 0. Moltiplicando poi a destra entrambi i membri dell’equazione (6.11) per il vettore Ab e ricordando le condizioni imposte dal sistema (6.3), si trova che deve essere: ηn−2 h An−2 Ab = 0, (6.13) da cui, per l’ultima delle (6.3), segue ηn−2 = 0. Procedendo in modo simile, si arriva a mostrare che tutti i coefficienti η che consentono di ottenere una combinazione nulla devono essere necessariamente nulli, e quindi l’indipendenza delle righe e la non singolarità della matrice T −1 . Questo completa la dimostrazione che la procedura può essere completata. Per quanto riguarda la sua efficacia, il primo passo è quello di provare che, nelle coordinate xc = T −1 x, con −1 T data dalle (6.5), il sistema assume effettivamente la forma (6.6), (6.7), cioè mostrare che le coordinate xc sono effettivamente quelle che portano il sistema nella forma canonica di controllore ad un solo ingresso. Ciò può essere fatto facilmente per ispezione, a partire dalle relazioni: Ac T −1 = T −1 A, bc = T −1 b, (6.14) tenendo conto della trasformazione (6.5) e del teorema di Cayley-Hamilton. Infatti, la prima della riga del prodotto T −1 A, per la forma della T −1 , è pari alla seconda riga della T −1 stessa, da cui segue che la prima riga della matrice Ac deve avere un uno in seconda posizione, e tutti gli altri elementi nulli. Analogamente per tutte le altre righe della matrice Ac , salvo l’ultima che discende dall’applicazione di Cayley-Hamilton. In modo simile si può mostrare che il vettore bc assume la forma indicata nella (6.7), in virtù del sistema (6.3) e della trasformazione (6.5). Come secondo passo per mostrare l’efficacia, è immediato constatare che il polinomio caratteristico del sistema retro-azionato nelle coordinate di controllore xc (cioè del sistema Σc = (Ac + bc kc , bc , Cc )), coincide con il polinomio desiderato (6.8). Per le proprietà delle trasformazioni algebricamente equivalenti, del tipo della T −1 , il sistema retro-azionato nelle coordinate originali ha esattamente lo stesso polinomio caratteristico p(λ), e quindi il problema di assegnazione degli autovalori è risolto dalla matrice k = kc T −1 . ⊓ ⊔ 6.4.1 Le funzioni di trasferimento a ciclo aperto e a ciclo chiuso Il calcolo della funzione di trasferimento per un sistema in forma canonica di controllore è immediato. Con la notazione (6.7), ed indicando la matrice di uscita nella forma di controllore con la notazione: (6.15) cc = c0 c1 · · · cn−1 , si trova facilmente (assumendo assenza di legame diretto ingresso-uscita) la funzione di trasferimento Wca (s) del sistema a ciclo aperto: Wca (s) = cc (sI − Ac )−1 bc = sn cn−1 sn−1 + · · · c1 s + c0 . + an−1 sn−1 + · · · a1 a + a0 (6.16) Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-224 Poiché (sempre nel caso di legame ingresso-uscita nullo), la retroazione non modifica l’equazione di uscita, ma modifica il polinomio caratteristico, è immediato verificare che la funzione di trasferimento a ciclo chiuso, Wcc (s), risulta pari a: Wcc (s) = cc (sI − Ac )−1 bc = cn−1 sn−1 + · · · c1 s + c0 . sn + pn−1 sn−1 + · · · p1 a + p0 (6.17) Poiché la funzione di trasferimento è invariante rispetto a trasformazioni di similarità algebrica, le due funzioni di trasferimento Wca (s) e Wcc (s) descrivono i sistemi in catena aperta e in catena chiusa anche nelle coordinate orginali. 6.5 Il caso dei sistemi non completamente raggiungibili Il problema della allocazione degli autovalori può essere risolto, nella versione completa, solo se il sistema in esame è raggiungibile. Tuttavia, se il sistema non è raggiungibile, si può comunque valutare la possibilità di stabilizzarlo. Ciò è possibile se tutti gli autovalori della parte non raggiungibile sono già asintoticamente stabili, e cioè, se tutti gli autovalori della parte non raggiungibile sono a parte reale negativa, in caso di sistema a tempo continuo, oppure sono con modulo minore di uno, per sistemi a tempo discreto. In questo caso, la sintesi di un controllore in reazione statica dallo stato che modifichi gli autovalori della parte raggiungibile può essere progettato seguendo il diagramma commutativo riportato in figura 6.1. Cioè, si costruisce la forma standard di raggiungibilità Σ̄, con una prima trasformazione di coordinate descritta dai nuovi vettori di base T̄ , poi si estrae il sottosistema raggiungibile Σ̄11 riducendo il sistema di partenza. Su tale sistema si opera poi in modo classico, trasformando nelle coordinate di controllore con la matrice Tc ed operando poi la retroazione (su un sistema di dimensione minore) Kc . K Σ Σ k _ T _ T -1 _ _ Σ Σ k Espansione Riduzione _ _ Σ11 k Σ11 -1 T c _ Σ11,c T c K c _ k Σ11,c Figura 6.1: Stabilizzazione di sistemi non raggiungibili Dopo aver risolto il problema nelle coordinate di controllore per il sottosistema raggiungibile, si deve ricostruire la soluzione nelle coordinate originali, diverse per dimensione e vettori di base. Si tratti quindi di percorre i tre passi seguenti: a) tornare alle coordinate della decomposizione di Kalman per mezzo della trasformazione inversa Tc−1 , b) aumentare le dimensioni della matrice di retroazione, ad esempio aggiungendo un numero idoneo di elementi nulli, ed infine c), tornare alle coordinate originali tramite la trasformazione inversa T̄ −1 . Capitolo 6: Allocazione scalare 6.6 [Ed. 2015, V 4.0 - PV - UniPG] - 6-225 Esercizi risolti Esercizio 6.1 Dato il sistema dinamico a tempo continuo −2 1 −4 0 ẋ = 1 0 2 x + 1 u, 1 0 2 0 0 0 1 x, y = 1. valutare la raggiungibilità e la controllabilità; 2. calcolare, se esiste, una legge di controllo in retroazione statica dallo stato che renda il sistema a ciclo chiuso asintoticamente stabile; 3. determinare i poli della funzione di trasferimento del sistema a ciclo aperto e del sistema ottenuto al punto precedente. Soluzione. Sistema dinamico a tempo continuo ẋ = y = −2 1 1 0 1 0 0 0 1 1. valutare la raggiungibilità e la controllabilità. −4 0 2 x + 1 u, 2 0 x, Per valutare la raggiungibilità del sistema in esame, si deve valutare il rango della matrice di raggiungibilità: 0 1 −2 R = b Ab A2 g = 1 0 1 0 0 1 il cui rango è tre, e quindi il sistema è raggiungibile. Il sistema è a tempo continuo, e quindi la raggiungibilità implica la controllabilità. 2. calcolare, se esiste, una legge di controllo in retroazione statica dallo stato che garantisca stabilità asintotica per il sistema a ciclo chiuso. L’esistenza di una legge legge di controllo in retroazione dallo stato, cioè del tipo: u = Kx + v, che garantisca stabilità asintotica del sistema a ciclo chiuso è garantita dalla raggiungibilità. Per determinare la legge di controllo, si deve portare il sistema nella forma canonica di controllo ad un ingresso. Si deve quindi trovare un vettore riga h, con tre componenti, soluzione del sistema di equazioni: hb 0 h Ab = 0 h A2 b 1 ed ottenibile, ad esempio, scegliendo h pari all’ultima 0 R−1 = 1 0 da cui si ricava: h= riga dell’inversa della matrice di raggiungibilità: 1 −1 0 2 , 0 1 0 0 1 , Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-226 e quindi, per la matrice che caratterizza le nuove coordinate, si ottiene: h 0 0 1 −2 1 T −1 = hA 1 0 2 , T = 0 0 hA2 0 1 0 1 0 In queste nuove coordinate il sistema è descritto dalle matrici: 0 1 0 0 Ac = T −1 AT = 0 0 1 , gc = T −1 b = 0 , 0 1 0 1 0 1 . 0 hc = hT = 1 0 0 . A partire dalla forma canonica di controllore è immediato trovare la matrice di retroazione che consente di allocare tutti gli autovalori in modo che il sistema a ciclo chiuso sia asintoticamente stabile. Ad esempio, polinomio caratteristico desiderato può essere scelto pari a p(λ) = (λ + 1)3 = λ3 + 3λ2 + 3λ + 1. La matrice di retroazione, nelle coordinate di controllore, deve essere scelta pari a: kc = (0 − 1) (−1 − 3) (0 − 3) = −1 −4 −3 , cui corrisponde, nelle coordinate originali, la matrice: k = kc T −1 = −4 −3 −9 . La matrice che descrive la dinamica del sistema a ciclo chiuso è quindi (sebbene non richiesta): −2 1 −4 A + bkf = −3 −3 −7 1 0 2 i cui autovalori sono tutti in −1, come desiderato. 3. determinare la funzione di trasferimento del sistema a ciclo aperto e del sistema a ciclo chiuso. Le due funzioni di trasferimento possono essere determinate in modo immediato, ricordando che sistemi algebricamente equivalenti hanno la stessa funzione di trasferimento. Dalla forma canonica di controllore segue quindi, per il sistema a ciclo aperto: w(s) = 1 , s3 − s (6.18) mentre per il sistema a ciclo chiuso si trova: w(s) = s3 + 1 . + 3s + 1 3s2 (6.19) Esercizio 6.2 Dato il seguente sistema dinamico a tempo continuo: ẋ1 = x2 ẋ2 = x3 ẋ3 = x1 + x2 − x3 + u y = αx1 + x2 , 1. valutare la stabilità interna ed esterna, al variare del parametro reale α; 2. fissato α = 1, determinare, se possibile, un segnale di controllo in retroazione statica dallo stato tale che, per il sistema a ciclo chiuso, la risposta permanente in uscita per il segnale v(t) = δ−1 (t) + sin(20t) sia caratterizzata da una attenuazione del termine sinusoidale pari almeno ad un fattore 100. Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-227 Traccia della soluzione. Stabilità - la stabilità interna si valuta con il segno degli autovalori. Poiché il sistema ha un autovalore con parte reale positiva, è internamente instabile. - la stabilità esterna si valuta con il segno dei poli. Per α = −1 si ha cancellazione dell’autovalore a parte reale positiva, e quindi il sistema è esternamente stabile, per tutti gli altri valori di α si ha un polo pari a p = +1, e quindi il sistema non è stabile esternamente (non è stabile in senso BIBO). Sintesi Una attenuazione di almeno 100 volte corrisponde, nel diagramma di Bode, ad una attenuazione di almeno 40dB. Si può ottenere il comportamento desiderato (attenuazione di almeno 40dB) ponendo due poli coincidenti in p = −1. In tal modo il diagramma in corrispondenza di ω = 10 rad/sec è attenuato di 40dB, ed in corrispondenza di ω = 20rad/sec (come richiesto) è attenuato di una quantità maggiore. Per ottenere due poli in p = −1, dobbiamo allocare tre autovalori in λ = −1, per via dell’equazione di uscita, che introduce uno zero nella stessa posizione. Scelto il polinomio desiderato, la matrice K può essere progettata tramite la formula K = [a0 − p0 , a1 − p1 , a2 − p2 ]. 6.7 Esercizi proposti Esercizio 6.3 Dato il sistema dinamico a tempo continuo ẋ y −1 1 0 A = 1 2 0 , 1 0 1 a) determinare la forma canonica di controllore; = Ax + bu = cx, 1 b = 0 , 0 c= 1 0 1 , b) calcolare una retroazione dallo stato che assegni come nuovi autovalori i numeri {−1, −2, −3}; c) calcolare gli zeri della funzione di trasferimento. Esercizio 6.4 Dato il sistema a tempo continuo −1 5 27 −2 ẋ = −1 −5 −16 x + 1 u, 1 2 3 0 (6.20) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a ciclo chiuso in {−2, −2, −2}. Esercizio 6.5 Dato il sistema a tempo continuo −1 5 9 −4 ẋ = −1 −3 −4 x + 2 u, 1 2 1 0 (6.21) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a ciclo chiuso in {−1, −2, −2}. Esercizio 6.6 Dato il sistema a tempo continuo 2 13 26 −2 ẋ = −1 −7 −14 x + 1 u, 0 1 3 0 (6.22) Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-228 a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a ciclo chiuso in {−1, −1, −1}. Esercizio 6.7 Dato il sistema a tempo continuo 4 6 4 −1 ẋ = −4 −7 −4 x + 1 u, 0 1 1 0 (6.23) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a ciclo chiuso in {−1, −2, −3}. Esercizio 6.8 Dato il sistema a tempo discreto 8 23 21 −1 x(k + 1) = −4 −12 −11 x(k) + 1 u(k), −2 1 0 0 (6.24) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a ciclo chiuso in {1/2, 1/2, 1/2}. Esercizio 6.9 Dato il sistema a tempo discreto −3 −2 x(k + 1) = 3 3 −1 −1 a) studiare la raggiungibilità e la controllabilità; −2 3 4 x(k) + −3 u(k), −1 1 (6.25) b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a ciclo chiuso in {1/3, 1/3, 1/3}. Esercizio 6.10 Dato il sistema a tempo continuo 9 28 67 3 ẋ = −9 −27 −65 x + −3 u, 3 9 22 1 (6.26) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a ciclo chiuso in {−3, −3, −2}. Esercizio 6.11 Dato il sistema a tempo continuo 4 11 5 2 ẋ = −2 −5 −2 x + −1 u, 2 5 3 1 (6.27) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a ciclo chiuso in {−2, −2, −1}. Esercizio 6.12 Dato il sistema a tempo continuo 8 21 8 4 ẋ = −4 −10 −3 x + −2 u, 2 5 2 1 (6.28) Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-229 a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da allocare gli autovalori del sistema a ciclo chiuso in {−2, −1, −1}. Esercizio 6.13 Dato il sistema a tempo continuo 2 −1 2 1 ẋ = 1 −2 −2 x + 0 u, 0 1 2 0 (6.29) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale rendere il polinomio caratteristico del sistema a ciclo chiuso uguale a p(λ) = 2λ3 + 8λ2 + 10λ + 4. Stabilizzazione e tempo di risposta finito. Esercizio 6.14 Dato il sistema a tempo continuo −2 −2 1 ẋ = 0 0 1 a) studiare la raggiungibilità e la controllabilità; −8 0 3 x + 1 u, 2 0 (6.30) b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso. Esercizio 6.15 Dato il sistema a tempo discreto 0 −1 x(k + 1) = 0 −2 0 1 a) studiare la raggiungibilità; −3 0 −4 x(k) + 1 u(k), 3 0 (6.31) b) studiare la controllabilità con due diversi criteri; c) determinare, se esiste, un controllore a tempo di risposta finito. Esercizio 6.16 Dato il sistema a tempo discreto 0 1 −1 0 x(k + 1) = 0 4 −2 x(k) + 1 u(k), 0 1 −1 0 (6.32) a) studiare la raggiungibilità; b) studiare la controllabilità con due diversi criteri; c) determinare, se esiste, un controllore a tempo di risposta finito. Esercizio 6.17 Dato il sistema a tempo discreto 6 −11 8 2 x(k + 1) = 3 −6 3 x(k) + 1 u(k), 0 0 0 0 a) studiare la raggiungibilità; b) studiare la controllabilità con due diversi criteri; (6.33) Capitolo 6: Allocazione scalare [Ed. 2015, V 4.0 - PV - UniPG] - 6-230 c) determinare, se esiste, un controllore a tempo di risposta finito. Esercizio 6.18 Dato il sistema a tempo continuo 3 −1 1 1 ẋ = 3 −2 0 x + 1 u, 0 0 −2 0 (6.34) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso. Esercizio 6.19 Dato il sistema a tempo discreto 1 1 x(k + 1) = 1 0 0 0 a) studiare la raggiungibilità e la controllabilità; −1/2 1 0 x(k) + 1 u(k), −1/2 0 (6.35) b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso. Esercizio 6.20 Dato il sistema a tempo discreto −1/2 −3 x(k + 1) = 1/4 −1 3/4 3 a) studiare la raggiungibilità e la controllabilità; −9/2 −1 −3/4 x(k) + 0 u(k), 19/4 1 (6.36) b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso. Esercizio 6.21 Dato il sistema a tempo continuo 1 −6 −12 −3 ẋ = 0 −4 −9 x + −2 u, 0 2 5 1 (6.37) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso. Esercizio 6.22 Dato il sistema a tempo continuo −1 6 −21 −3 ẋ = 0 −4 11 x + 2 u, 0 −2 6 1 (6.38) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso. Esercizio 6.23 Dato il sistema a tempo discreto −5 −14 −52 −5 x(k + 1) = −3 −9 −33 x(k) + −3 u(k), 1 3 11 1 (6.39) a) studiare la raggiungibilità e la controllabilità; b) determinare, se esiste, un controllore in retroazione dallo stato tale da stabilizzare il sistema a ciclo chiuso. Capitolo 7: Osservabilità [Ed. 2015, V 4.0 - PV - UniPG] - 7-231 Capitolo 7 Proprietà strutturali: Osservabilità 7.1 Introduzione Il problema affrontato in questo capitolo è relativo alla determinazione dello stato interno di un sistema dinamico a partire dalla conoscenza dei segnali di ingresso ed uscita su un dato intervallo finito di tempo. Il problema riveste notevole importanza applicativa in tutte le situazioni in cui vi sia interesse a conoscere l’andamento di grandezze non accessibili per la misura, per ragioni fisiche, oggettive, o per scelte progettuali. La soluzione di tale problema richiede, preliminarmente, lo studio delle proprietà strutturali di osservabilità e ricostruibilità, che risultano essere duali rispetto alle proprietà di raggiungibilità e controllabilità, già viste in precedenza. Il problema di osservabilità può essere posto, formalmente, nel seguente modo. Problema 7.1 (Osservabilità) Dato un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto, e dato un istante di tempo T , determinare condizioni sotto le quali sia possibile calcolare lo stato iniziale del sistema x(0) sulla base della conoscenza del segnale di ingresso u(t), t ∈ [0, T ] e del segnale di uscita y(t), t ∈ [0, T ] sull’intervallo finito di tempo [0, T ]. Il concetto di ricostruibilità è relativo alla possibilità di determinare lo stato finale di un sistema, note le funzioni di ingresso ed uscita su un intervallo finito di tempo. Problema 7.2 (Ricostruibilità) Dato un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto, e dato un istante di tempo T , determinare condizioni sotto le quali sia possibile calcolare lo stato finale del sistema x(T ) sulla base della conoscenza del segnale di ingresso u(t), t ∈ [0, T ] e del segnale di uscita y(t), t ∈ [0, T ] sull’intervallo finito di tempo [0, T ]. 7.2 Osservabilità Lo studio della proprietà di osservabilità si basa sul concetto di indistinguibilità tra due stati. Sia η(t, x0 , u(·)) la risposta completa in uscita di un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto. La nozione di indistinguibilità è relativa alla possibilità di discriminare tra due stati distinti sulla base della risposta completa in uscita, per uno stesso segnale di ingresso (si veda, tra l’altro, [33, 34, 35]). Definizione 7.1 Due stati xa ed xb di un sistema dinamico Σ(A, B, C) (a tempo continuo o a tempo discreto), si dicono indistinguibili nell’intervallo [0, T ] se, per ogni funzione di ingresso u(·), le risposte complete in uscita coincidono: y(t, xa , u(·)) = y(t, xb , u(·)), ∀t ∈ [0, T ]. (7.1) Per estensione, due stati di dicono indistinguibili (senza riferimento specifico ad un intervallo temporale), se sono indistinguibili in qualsiasi intervallo di durata non nulla. Per quanto concerne l’intero sistema, si parla di sistema osservabile se, per tale sistema, non esistono coppie di stati indistinguibili. Definizione 7.2 (Sistema osservabile) Un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto, si dice osservabile se non esistono coppie di stati tra loro indistinguibili. Capitolo 7: Osservabilità [Ed. 2015, V 4.0 - PV - UniPG] - 7-232 Intuitivamente, se due stati non sono indistinguibili, dall’analisi della coppia di funzioni ingresso ed uscita potrebbe essere possibile calcolare lo stato iniziale, cioè, osservare lo stato iniziale. Si consideri ora il caso di un sistema a tempo continuo. La risposta completa in uscita è data da: Z t y(t, x0 , u(·)) = Ce At x0 + C e A(t−τ ) Bu(τ )d τ, (7.2) 0 e quindi la condizione di indistinguibilità tra due punti xa ed xb diviene: Z t Z t At A(t−τ ) At Ce xa + C e Bu(τ )d τ = Ce xb + C e A(t−τ ) Bu(τ )d τ, ∀t ∈ [0, T ]. 0 (7.3) 0 In virtù della linearità del sistema, i due termini che descrivono le risposte forzate in uscita coincidono. Inoltre, nei sistemi a tempo continuo (per l’analiticità delle funzioni coinvolte), se una uguaglianza del tipo precedente vale su un’intervallo finito di tempo [0, T ], allora vale per ogni valore non nullo di T . La condizione di indistinguibilità diviene quindi: Ce At xa = Ce At xb , ∀t ≥ 0, (7.4) e quindi: Ce At (xa − xb ) = 0, ∀t ≥ 0. (7.5) Una coppia di stati xa ed xb sono quindi stati indistinguibili per un sistema a tempo continuo se la loro differenza appartiene al kernel della matrice Ce At , matrice della risposta libera in uscita, per tutti i tempi. Si consideri ora il caso in cui uno dei punti, ad esempio xb , sia l’origine. In tal caso, il concetto di indistinguibilità dall’origine viene sinteticamente indicato con non osservabilità: uno stato xa è non osservabile se è indistinguibile dall’origine. In base alla relazione precedente lo stato xa è non osservabile se appartiene al kernel della matrice della risposta libera in uscita: Ce At xa = 0, ∀t ≥ 0. (7.6) Utilizzando la definizione di esponenziale di matrice, la condizione precedente diviene: C ∞ X Ai ti i=0 i! xa = 0, ∀t ≥ 0, (7.7) che corrisponde ad un polinomio di grado infinito nella variabile t, identicamente nullo: Cxa + CAxa t + CA2 xa tk t2 + · · · + CAk xa + · · · = 0, 2 k! ∀t ≥ 0. (7.8) Per il principio di identità dei polinomi (e cioè, per il concetto di indipendenza lineare in spazi vettoriali), tale polinomio può essere identicamente nullo se, e solo se, tutti i suoi coefficienti sono nulli: Cxa = 0 CAxa CA2 xa .. . = 0 = 0 CAk xa .. . = 0 In virtù del teorema di Cayley-Hamilton, la nullità dei primi n coefficienti implica la nullità di tutti gli altri. La condizione di non osservabilità del punto xa diviene quindi, in forma matriciale: C CA (7.9) xa = 0. .. . CAn−1 Capitolo 7: Osservabilità [Ed. 2015, V 4.0 - PV - UniPG] - 7-233 La matrice che compare nella relazione precedente è detta matrice di osservabilità, e sarà indicata con il simbolo O: C CA O= (7.10) . .. . CAn−1 Dato un sistema dinamico a tempo continuo Σ(A, B, C), il nucleo della matrice di osservabilità descrive il sottospazio degli stati non osservabili, X N O , cioè, il sottospazio di tutti gli stati che danno luogo ad una risposta libera in uscita identicamente nulla, e quindi indistinguibile da quella relativa alla condizione iniziale nulla: X N O = ker(O). (7.11) Si noti bene come ciò implichi il fatto importante che, se un sistema ammette un sottospazio di stati non osservabili non vuoto, non sarà mai possibile osservare lo stato iniziale, poiché esistono infiniti punti che danno luogo alla stessa risposta libera. In altri termini, per ogni stato iniziale, ne esistono infiniti altri, tutti quelli in X N O , che danno luogo alla stessa risposta libera. Di conseguenza, fissato un qualsiasi punto x̄ dello spazio di stato, tutti i punti del tipo x̄ + xno , xno ∈ X N O , sono indistinguibili da x̄. Da tali considerazioni emerge che un sistema dinamico è osservabile se e solo se il sottospazio degli stati non osservabili è vuoto. Ciò accade se la nullità della matrice di osservabilità è zero, e quindi se il suo rango è massimo, come sintetizzato nel criterio presentato nel seguente teorema: Teorema 7.1 (Criterio di osservabilità) Un sistema dinamico (lineare e stazionario) a tempo continuo Σ(A, B, C) è osservabile se e solo se C CA rango (7.12) = n. .. . CAn−1 Lo studio della proprietà di osservabilità e dell’associato concetto di indistinguibilità può essere condotto in modo del tutto analogo, e formalmente più agevole, per i sistemi a tempo discreto, giungendo al seguente criterio di osservabilità, identico a quello relativo ai sistemi a tempo continuo: Teorema 7.2 (Criterio di osservabilità) Un sistema dinamico (lineare e stazionario) a tempo discreto Σ(A, B, C) è osservabile se e solo se C CA rango (7.13) = n. .. . CAn−1 7.3 Dualità La proprietà strutturali relative al legame stato-uscita sono in relazione di dualità con le proprietà strutturali relative al legame ingresso-stato. In particolare, la proprietà di osservabilità è duale della proprietà di raggiungiblità. Si consideri un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto, e si definisca sistema duale il sistema dinamico ΣD (AD , B D , C D ) descritto dalle matrici: AD := AT , B D := C T , C D := B T , (7.14) ottenuto insomma “trasponendo” il sistema originale (“primale”). Si consideri ora la matrice di osservabilità del sistema primale e la matrice di raggiungibilità del sistema duale: C CA O= , RD = B D AD B D · · · (AD )n−1 B D = C T AT C T · · · (AT )n−1 C T .. . CAn−1 (7.15) Capitolo 7: Osservabilità [Ed. 2015, V 4.0 - PV - UniPG] - 7-234 È immediato vedere come la matrice di osservabilità del primale coincida con la trasposta della matrice di raggiungibilità del duale. Ne segue che il sistema primale è osservabile se e solo se il sistema duale è raggiungibile. In modo del tutto analogo si può affermare che il sistema primale è raggiungibile se e solo se il sistema duale è osservabile. La nozione di dualità consente di estendere il modo immediato risultati e tecniche utilizzate per lo studio della raggiungibilità allo studio dell’osservabilità. Un esempio è dato dalla forma standard di osservabilità, o decomposizione di Kalman rispetto alla osservabilità. Si consideri un sistema dinamico Σ(A, B, C), a tempo continuo o a tempo discreto, non osservabile. Per il sistema duale, non raggiungibile, può essere costruita la forma standard di raggiungibilità, che può essere utilizzata, per “trasposizione”, per determinare la forma standard di osservabilità del sistema primale. Indicato con ρ il rango della matrice di osservabilità, tale forma è descritta nel seguente teorema Teorema 7.3 (Decomposizione di Kalman rispetto alla osservabilità) Se il sistema Σ = (A, B, C) non è osservabile, esiste una trasformazione di coordinate nello spazio di stato x̄ = T −1 x, tale che il sistema, nelle nuove coordinate, è descritto dalle matrici: B̄1 Ā1,1 0 −1 −1 , C̄ = CT = C̄1 0 , (7.16) , B̄ = T B = Ā = T AT = B̄2 Ā2,1 Ā2,2 in cui i blocchi Ā1,1 e Ā2,2 sono matrici quadrate, di dimensione ρ × ρ e (n − ρ) × (n − ρ), rispettivamente, con ρ pari al rango della matrice di raggiungibilità, ed i blocchi Ā2,1 , B̄1 , B̄2 e C̄1 sono di dimensioni corrispondenti. Inoltre, il sottosistema Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) è osservabile. Il calcolo della matrice di trasformazione T −1 può essere condotto costruendo la decomposizione rispetto alla raggiungibilità del sistema duale. Una proprietà fondamentale del sottosistema osservabile è quella di essere il solo a caratterizzare la matrice di trasferimento dell’intero sistema, come affermato nel seguente teorema. Teorema 7.4 Sia Σ = (A, B, C) un sistema non osservabile, e sia Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) il sottosistema osservabile ottenuto dalla decomposizione canonica di Kalman rispetto alla osservabilità. Allora, i due sistemi Σ e Σ̄1 hanno la stessa matrice di trasferimento: C(sI − A)−1 B = C̄1 (sI − Ā1,1 )−1 B̄1 (7.17) ▽ Il teorema precedente implica che gli autovalori della matrice Ā2,2 non compaiono come poli della matrice di trasferimento del sistema Σ. Si noti come, nel caso generale, possa essere condotta una decomposizione rispetto ad entrambe le proprietà strutturali di raggiungibilità ed osservabilità; tale decomposizione è detta decomposizione di Kalman. Nel caso generale, quindi, il teorema precedente si estende, affermando che la matrice di trasferimento di un assegnato sistema dinamico dipende solo dal sottosistema raggiungibile ed osservabile. Tale sottosistema può essere ottenuto, ad esempio, costruendo in sequenza la forma di raggiungibilità e poi quella di osservabilità. Il seguente teorema sintetizza il risultato. Teorema 7.5 (Decomposizione di Kalman) Sia dato il sistema Σ = (A, B, C), non raggiungibile e non osservabile. Allora, esiste una trasformazione di coordinate nello spazio di stato x̄ = T −1 x, tale che il sistema, nelle nuove coordinate, risulta descritto dalle matrici: Ā1,3 0 B̄1 Ā1,1 0 Ā2,1 Ā2,2 Ā2,3 Ā2,4 , B̄ = T −1 B = B̄2 , C̄ = CT = C̄1 0 C̄3 0 , Ā = T −1 AT = 0 0 Ā3,3 0 0 0 0 Ā4,3 Ā4,4 0 (7.18) in cui i blocchi diagonali Āi,i sono matrici quadrate di dimensione opportune e gli altri blocchi non nulli Āi,j , i 6= j sono di dimensioni corrispondenti. Inoltre, il sottosistema Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) è il sottosistema sia raggiungibile sia osservabile. ▽ Capitolo 7: Osservabilità [Ed. 2015, V 4.0 - PV - UniPG] - 7-235 Analogamente ai casi particolari visti sopra, vale il seguente teorema sulla matrice di trasferimento. Teorema 7.6 Sia Σ = (A, B, C) un sistema non raggiungibile e non osservabile, e sia Σ̄1 = (Ā1,1 , B̄1 , C̄1 ) il sottosistema raggiungibile e osservabile ottenuto dalla decomposizione canonica di Kalman. Allora, i due sistemi Σ e Σ̄1 hanno la stessa matrice di trasferimento: C(sI − A)−1 B = C̄1 (sI − Ā1,1 )−1 B̄1 (7.19) ▽ Capitolo 7: Osservabilità 7.4 7.4.1 [Ed. 2015, V 4.0 - PV - UniPG] - 7-236 Esercizi Sistemi a singola uscita, tempo discreto Esercizio 7.1 Dato il sistema dinamico a tempo −1 x(k + 1) = −1 1 0 1 y(k) = a) valutare l’osservabilità e la ricostruibilità; discreto 5 27 −2 −5 −16 x(k) + 1 u(k) 2 3 0 5 , b) data la sequenza di uscita y(0) = 7, y(1) = 13, y(2) = 1 ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = 2 e quella di uscita y(0) = 7, y(1) = 14, y(2) = 0, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.2 Dato il sistema dinamico a tempo −1 x(k + 1) = −1 1 1 2 y(k) = a) valutare l’osservabilità e la ricostruibilità; discreto 5 27 −1 −5 −16 x(k) + 1 u(k) 2 3 0 4 , b) data la sequenza di uscita y(0) = 9, y(1) = 14, y(2) = 11 ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = 2 e quella di uscita y(0) = 4, y(1) = 6, y(2) = 14, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; d) verificare se la sequenza di uscita y(0) = −1, y(1) = 1, y(2) = −1, y(3) = 1, y(4) = −1 è ottenibile in evoluzione libera, ed in caso affermativo osservare lo stato iniziale che la produce. Esercizio 7.3 Dato il sistema dinamico a tempo discreto −5 −3 4 −1 x(k + 1) = 2 1 −2 x(k) + 1 u(k) 1 2 1 0 1 2 1 , y(k) = a) valutare l’osservabilità e la ricostruibilità; b) data la sequenza di uscita y(0) = 1, y(1) = −1, y(2) = 4 ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = 1, y(1) = 2, y(2) = 0, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.4 Dato il sistema dinamico a tempo discreto −2 1 −5 −2 x(k + 1) = 4 −3 10 x(k) + 2 u(k) 1 0 2 1 0 0 −1 , y(k) = a) valutare l’osservabilità e la ricostruibilità; Capitolo 7: Osservabilità [Ed. 2015, V 4.0 - PV - UniPG] - 7-237 b) data la sequenza di uscita y(0) = 1, y(1) = 1, y(2) = −2 ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = 1, y(1) = 2, y(2) = −1, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.5 Dato il sistema dinamico a tempo discreto −2 0 −4 1 x(k + 1) = −2 0 −6 x(k) + 1 u(k) 1 0 3 0 0 0 1 , y(k) = a) valutare l’osservabilità e la ricostruibilità; b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non osservabile; c) data la sequenza di uscita y(0) = −1, y(1) = −2, y(2) = −4 ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; d) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = −1, y(1) = −4, y(2) = −5, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.6 Dato il sistema dinamico a tempo discreto 0 0 −1 1 x(k + 1) = 0 −2 −5 x(k) + −2 u(k) 0 1 3 1 0 1 3 , y(k) = a) valutare l’osservabilità e la ricostruibilità; b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non osservabile; c) data la sequenza di uscita y(0) = −2, y(1) = −3, y(2) = −5 ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; d) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = −2, y(1) = −2, y(2) = −4, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.7 Dato il sistema dinamico a tempo discreto 3 6 6 −1 x(k + 1) = −1 −2 −2 x(k) + 1 u(k) 1 2 1 0 1 2 2 , y(k) = a) valutare l’osservabilità e la ricostruibilità; b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non osservabile; c) data la sequenza di uscita y(0) = 1, y(1) = 5, y(2) = 1 ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; d) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = −1, y(1) = 0, y(2) = −1, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Capitolo 7: Osservabilità [Ed. 2015, V 4.0 - PV - UniPG] - 7-238 Esercizio 7.8 Dato il sistema dinamico a tempo discreto x(k + 1) = y(k) = 001 − 11 − 11 − 11 0 a) valutare l’osservabilità e la ricostruibilità; 0 1 , 1 x(k) + 1 u(k) 0 b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non osservabile; c) data la sequenza di uscita y(0) = −1, y(1) = 0, y(2) = −1 ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; d) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = −1, y(1) = −2, y(2) = −5, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.9 Dato il sistema dinamico a tempo discreto 5 5 6 0 x(k + 1) = −5 −5 −5 x(k) + 1 u(k) 3 3 3 0 1 1 2 , y(k) = a) valutare l’osservabilità e la ricostruibilità; b) determinare la decomposizione rispetto alla osservabilità, e valutare gli autovalori del sottosistema non osservabile; c) data la sequenza di uscita y(0) = −1, y(1) = −1, y(2) = −6 ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; d) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = −3, y(1) = −12, y(2) = −42, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. 7.4.2 Sistemi a due uscite, tempo discreto Esercizio 7.10 Dato il sistema dinamico a tempo discreto 0 0 1 1 x(k + 1) = −1 1 −1 x(k) + 1 u(k) 1 −1 1 0 0 0 1 y(k) = , 1 0 3 a) valutare l’osservabilità e la ricostruibilità; b) data la sequenza di uscita y(0) = [−1 − 2]T , y(1) = [−1 − 4]T , y(2) = [−3 − 10]T ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = −1 e quella di uscita y(0) = [−1 − 4]T , y(1) = [−3 − 9]T , y(2) = [−7 − 25]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.11 Dato il sistema dinamico a tempo discreto 1 0 3 −1 x(k + 1) = 0 1 1 x(k) + 0 u(k) 1 −1 1 1 1 −1 2 y(k) = , 1 0 2 Capitolo 7: Osservabilità [Ed. 2015, V 4.0 - PV - UniPG] - 7-239 a) valutare l’osservabilità e la ricostruibilità; b) data la sequenza di uscita y(0) = [0 1]T , y(1) = [0 1]T , y(2) = [0 1]T ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [−3 − 3]T , y(1) = [−6 − 7]T , y(2) = [−16 − 18]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.12 Dato il sistema dinamico a tempo 1 x(k + 1) = 0 1 1 y(k) = 0 discreto 1 4 1 1 1 x(k) + 1 u(k) −1 1 0 −1 2 , 1 1 a) valutare l’osservabilità e la ricostruibilità; b) data la sequenza di uscita y(0) = [4 3]T , y(1) = [11 5]T , y(2) = [34 14]T ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [−3 − 1]T , y(1) = [−8 − 2]T , y(2) = [−2 − 8]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.13 Dato il sistema dinamico a tempo discreto 1 3 −4 −2 x(k + 1) = −1 −3 3 x(k) + 1 u(k) 0 −1 2 1 1 0 2 y(k) = , 0 0 1 a) valutare l’osservabilità e la ricostruibilità; b) data la sequenza di uscita y(0) = [1 0]T , y(1) = [2 − 1]T , y(2) = [0 2]T ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = 2 e quella di uscita y(0) = [−1 − 1]T , y(1) = [1 − 1]T , y(2) = [0 3]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.14 Dato il sistema dinamico a tempo discreto 2 5 0 1 x(k + 1) = −1 −1 −2 x(k) + 0 u(k) 0 −3 3 0 0 −1 2 y(k) = , 1 1 2 a) valutare l’osservabilità e la ricostruibilità; b) data la sequenza di uscita y(0) = [−3 − 1]T , y(1) = [−13 − 6]T , y(2) = [−48 − 21]T ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [−3 − 2]T , y(1) = [−14 − 6]T , y(2) = [−54 − 24]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.15 Dato il sistema dinamico a tempo discreto 0 3 0 0 3 0 x(k) + 0 u(k) x(k + 1) = 1 −1 −6 0 1 1 1 0 y(k) = , 1 0 0 Capitolo 7: Osservabilità [Ed. 2015, V 4.0 - PV - UniPG] - 7-240 a) valutare l’osservabilità e la ricostruibilità; b) data la sequenza di uscita y(0) = [1 0]T , y(1) = [6 3]T , y(2) = [21 9]T ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [0 − 1]T , y(1) = [5 3]T , y(2) = [15 6]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. Esercizio 7.16 Dato il sistema dinamico a tempo discreto −3 −11 2 −3 x(k + 1) = 2 6 0 x(k) + 1 u(k) 1 4 −1 1 1 3 0 y(k) = , 0 1 −1 a) valutare l’osservabilità e la ricostruibilità; b) data la sequenza di uscita y(0) = [3 2]T , y(1) = [5 1]T , y(2) = [13 4]T ed assumendo ingresso identicamente nullo, osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile; c) date la sequenza di ingresso u(0) = 1, u(1) = 0 e quella di uscita y(0) = [2 2]T , y(1) = [2 0]T , y(2) = [6 2]T , osservare lo stato iniziale e ricostruire lo stato al passo k = 2, se possibile. 7.4.3 Sistemi a singola uscita, tempo continuo Esercizio 7.17 Dato il sistema dinamico a tempo continuo 7 11 2 −3 ẋ = −2 −3 0 x + 1 u −3 −5 −1 1 1 1 2 , y = a) valutare l’osservabilità e la ricostruibilità; b) determinare la decomposizione rispetto alla osservabilità; c) valutare la funzione di trasferimento del sistema complessivo, quella del sottosistema osservabile, verificare i poli del sistema ed i suoi autovalori, confrontare poli, zeri ed autovalori. Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-241 Capitolo 8 Osservatori asintotici dello stato e regolatori in retroazione dall’uscita per sistemi scalari 8.1 Introduzione In questo capitolo viene trattato il tema del progetto di osservatori asintotici dello stato ed il loro uso per il progetto di regolatori in retroazione dall’uscita. Il tema viene affrontato solo per sistemi scalari (cioè sistemi con un solo ingresso ed una sola uscita), indifferentemente a tempo continuo o a tempo discreto. Il capitolo si conclude con un esercizio di riepilogo, con la discussione di alcuni problemi di controllo ed infine con esercizi proposti. 8.2 Osservatori asintotici dello stato In molte applicazioni di interesse ingegneristico è importante poter stimare il comportamento di grandezze fisiche non direttamente accessibili, a partire da altre grandezze, misurabili e funzionalmente correlate con quelle di interesse. Nel caso in cui il legame tra le grandezze misurabili e quelle di interesse possa essere descritto tramite un sistema dinamico, a tempo continuo o a tempo discreto, si può tentare di risolvere il problema della stima utilizzando un osservatore asintotico dello stato. Si consideri il seguente sistema dinamico: ∆x y = = Ax + bu, cx (8.1a) (8.1b) dx nel caso di sistemi a tempo continuo, ed dt indica invece l’operatore di anticipo temporale, cioè ∆x := x(t + 1) nel caso di sistemi a tempo discreto. Un osservatore asintotico dello stato è un dispositivo in grado di generale una stima x̂ dello stato del sistema, che converga asintoticamente allo stato stesso, sull base della conoscenza dell’ingresso u(·) e dell’uscita y(·) del sistema stesso, e delle matrici che lo descrivono. Formalmente, il problema può essere posto nel modo seguente: in cui l’operatore ∆ indica la derivata temporale, cioè ∆x := Problema 8.1 (Osservatore asintotico) Dato un sistema dinamico Σ(A, b, c), progettare un dispositivo che, sulla base della conoscenza delle matrici del sistema e dei segnali u(·) ed y(·), generi una stima x̂ dello stato asintoticamente convergente allo stato stesso, cioè: lim kx̂(t) − x(t)k = 0. t→∞ (8.2) L’idea alla base del progetto di un osservatore è quella di costruire, utilizzando la conoscenza delle matrici che descrivono il sistema, una replica del sistema di interesse, forzato dallo stesso segnale di ingresso u(·) che forza il sistema stesso; lo stato interno di tale replica costituisce la stima cercata dello stato. Un osservatore per il sistema (8.1) potrebbe essere quindi il sistema dinamico seguente: ∆x̂ = Ax̂ + bu. (8.3) Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-242 Per valutare il comportamento dello stimatore, si può studiare l’evoluzione dell’errore di stima x̃, definito come differenza tra il valore reale dello stato e la sua stima: x̃(t) := x̂(t) − x(t). (8.4) La dinamica dell’errore di stima, cioè le equazioni che governano il comportamento dell’errore, sono date da: ∆x̃ = ∆x̂ − ∆x = Ax̂ + bu − Ax − bu = Ax̃. (8.5) La dinamica di errore è quindi descritta da un sistema in evoluzione libera, con matrice dinamica data dalla stessa matrice dinamica A del sistema. Se il sistema è asintoticamente stabile, la dinamica d’errore sarà anch’essa asintoticamente stabile, e quindi (8.3) produce, asintoticamente, una stima corretta dello stato, altrimenti la stima non sarà corretta. Per ovviare a tale potenziale problema di stabilità, e per consentire di variare la velocità di convergenza dell’errore di stima, si ricorrere ad una versione estesa dello schema (8.3). In particolare, l’estensione principale consiste nell’utilizzare anche la misura dell’uscita, per correggere la stima dello stato sulla base dell’errore rilevabile in uscita. Lo schema precedente viene quindi integrato nella seguente forma: ∆x̂ = Ax̂ + bu + L(cx̂ − y), (8.6) in cui il termine aggiuntivo L(cx − y) prende il nome di iniezione dell’uscita. Lo schema (8.6) prende il nome di osservatore asintotico dello stato. Introdotto anche in questo caso l’errore di stima x̃ = x̂ − x, la sua dinamica è data da: ∆x̃ = ∆x̂ − ∆x = Ax̂ + bu + L(cx̂ − y) − Ax − bu = (A + Lc)x̃. (8.7) Si vede quindi come la convergenza dell’errore di stima dipenda ora dagli autovalori della matrice (A + Lc), in cui la matrice L è un parametro di progetto. Se tale matrice può essere scelta in modo da assegnare arbitrariamente gli autovalori di (A + Lc), si può imporre una dinamica arbitraria all’errore di stima. È facile vedere come la matrice (A + Lc) abbia, come duale, la matrice (AT + cT LT ) = (AD + bD k D ), che è del tutto analoga alla matrice di un sistema Σ(AD , bD ) retroazionato staticamente dallo stato con matrice di retroazione k D = LT : progettare un osservatore asintotico dello stato per un sistema equivale ad allocare gli autovalori per il sistema duale. Ciò implica che la matrice L può essere calcolata seguendo la procedura di allocazione degli autovalori, applicata al sistema duale. Il problema del progetto di un osservatore è quindi risolto dal seguente teorema. Teorema 8.1 (Osservatore asintotico) Dato un sistema dinamico Σ(A, b, c), esiste un osservatore asintotico dello stato con dinamica di errore arbitrariamente veloce se e solo se tale sistema è osservabile. L’osservatore asintotico è descritto dalle equazioni: ∆x̂ = Ax̂ + bu + L(cx̂ − y), (8.8) con L progettata opportunamente. Commento 8.1 Si noti che il teorema 8.1 richiede la proprietà di osservabilità per poter costruire un osservatore con dinamica d’errore arbitrariamente veloce. Viceversa, se si cerca una dinamica d’errore asintoticamente stabile, senza interesse per la velocità di convergenza, la proprietà di osservabilità non è necessaria. In tale caso è sufficiente che si possano rendere asintoticamente stabile gli autovalori non già tali. Tale proprietà è detta “ricostruibilità”. In particolare, si noti che un osservatore asintotico senza specifiche sulla velocità di convergenza (salvo, ovviamente, la convergenza stessa) per un sistema già asintoticamente stabile è semplicemente dato da un osservatore in catena aperta, cioè un osservatore con matrice di iniezione nulla. 8.3 Regolatori dinamici Una delle applicazioni rilevanti dell’osservatore asintotico è quella del progetto di regolatori in retroazione dinamica dall’uscita. L’idea base presentata in queste note per tali regolatori è quella di utilizzare, in luogo di una retroazione statica del tipo u = kx + v, una retroazione basata sulla stima x̂ dello stato fornito da un osservatore, e cioè u = kx̂ + v. Per quanto concerne il progetto della matrice k e dell’osservatore, si procede con gli algoritmi già visti. In particolare, la matrice k viene progettata come se fosse possibile utilizzare, Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-243 per la retroazione, l’intero vettore di stato. La retroazione viene invece applicata sulla base della stima dello stato fornita dall’osservatore. L’osservatore invece viene progettato sulla base dell’idea delineata nel precedente teorema 8.1, senza considerare il fatto che tale stima viene poi utilizzata per controllare il sistema. È possibile mostrare che il regolatore che ne risulta, purchè il sistema sia raggiungibile (per poter progettare la matrice k), ed osservabile (per poter progettare l’osservatore), risolve il problema. Vale infatti il seguente teorema di separazione. Teorema 8.2 (Teorema di separazione) Dato un sistema dinamico Σ(A, b, c), esiste un regolatore in retroazione dinamica dall’uscita ∆x̂ = u = Ax̂ + bu + L(cx̂ − y), kx̂ + v (8.9a) (8.9b) che consenta di allocare arbitrariamente tutti gli autovalori del sistema a ciclo chiuso se e solo se il sistema Σ(A, b, c) è raggiungibile e osservabile. Se tale regolatore esiste, il sistema a ciclo chiuso ha come autovalori quelli della matrice A + bk 0 . (8.10) 0 A + Lc Dimostrazione Il sistema a ciclo chiuso è descritto dalle seguenti equazioni: ∆x = Ax + bu, (8.11) y = ∆x̂ = cx, Ax̂ + bu + L(cx̂ − y), (8.12) (8.13) u = kx̂ + v. (8.14) Applicando il segnale di ingresso al sistema ed i segnali in ingresso al regolatore si ottiene: ∆x = Ax + bkx̂ + bv, (8.15) ∆x̂ y = Ax̂ + bkx̂ + bv + L(cx̂ − cx), = cx, (8.16) (8.17) che può essere espresso in forma matriciale come: ∆x A bk x x b = + + be v, v = Ae ∆x̂ −Lc A + bk + Lc x̂ x̂ b x c 0 . y = x̂ (8.18) (8.19) Poiché non appaiono in modo immediato gli autovalori della matrice dinamica del sistema a ciclo chiuso, si provi ad operare una trasformazione di coordinate. Si consideri come nuovo vettore di coordinate quello costituito dallo stato x del processo da controllare e dall’errore di stima x̃. Tale trasformazione può essere espressa in forma matriciale come: x I 0 x x x = , . (8.20) = T −1 x̃ I −I x̂ x̂ x̃ Il sistema algebricamente equivalente risulta descritto dalle matrici: A + bk bk b −1 −1 Āe = T Ae T = , b̄e = T be = . 0 A + Lc 0 (8.21) Come asserito, gli autovalori del sistema a ciclo chiuso sono quelli della matrice (A + bk), uniti a quelli della matrice (A + Lc). ⊓ ⊔ La dimostrazione del teorema di separazione consente di derivare il modo immediato il seguente corollario. Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-244 Corollario 8.1 In un sistema controllato tramite un regolatore in retroazione dinamica dall’uscita del tipo descritto dall’equazione (8.9), basato su osservatore, la dinamica d’errore è non raggiungibile, e la funzione di trasferimento del sistema a ciclo chiuso è data da: w(η) = c(ηI − (A + bk))−1 b (8.22) (ove η = s per sistemi a tempo continuo, ed η = z per sistemi a tempo discreto). 8.4 Un esempio: regolazione di un motore a corrente continua In questa sezione il problema del progetto di regolatori viene applicato al caso di un motore in corrente continua, analizzando le proprietà strutturali del sistema e trattando alcuni casi rilevanti. Viene inoltre descritta una modalità per la determinazione del modello a segnali campionati. Viene trattato anche il problema dell’inseguimento di traiettoria e della stima di un eventuale disturbo di coppia. Il modello dinamico di un motore in corrente continua, controllato tramite la tensione di armatura e con eccitazione costante, è stato derivato nel primo capitolo, sezione1.5, a cui si rimanda. In questa sezione ci si occupa dell’analisi delle sue proprietà strutturali e del progetto di regolatori in reazione dinamica dall’uscita, per la soluzione di semplici problemi di regolazione ed inseguimento. Il modello dinamico del motore considerato è descritto dalle equazioni: ẋ1 = x2 ẋ2 ẋ3 = −a22 x2 + a23 x3 = −a32 x2 − a33 x3 + b3 u y = x1 ed in termini matriciali: ẋ y con: 0 A= 0 0 1 −a22 −a32 = Ax + bu = cx 0 a23 , −a33 0 b = 0 , b3 c= 1 0 0 . (8.25) Volendo progettare un controllore per rendere asintoticamente stabile l’origine dello spazio di stato, basandosi solo sulla misura di posizione, si può ricorrere ad un osservatore asintotico dello stato, tramite il quale stimare le altre variabili di stato, e cioè velocità del rotore e corrente di armatura, e poter quindi realizzare un controllo in retroazione volto ad assegnare gli autovalori del sistema a ciclo chiuso. 8.4.1 Le proprietà strutturali Per poter progettare la legge di controllo in retroazione e l’osservatore asintotico dello stato si deve prima verificare la sussistenza delle proprietà di raggiungibilità e di osservabilità. Per quanto riguarda la raggiungibilità si ha: 0 0 b3 a23 b3 a23 b3 a23 (a22 + a33 ) , R = b Ab A2 b = 0 (8.26) b3 −b3 a23 b3 (a23 a32 + a233 ) da cui si vede che il modello del motore è raggiungibile se il parametro b3 della matrice di ingresso ed il parametro a23 della matrice dinamica sono entrambi non nulli. Per quanto riguarda l’osservabilità si ha invece: 1 0 0 c 1 0 , (8.27) O = cA = 0 0 −a22 a23 cA2 da cui si vede che il modello del motore è osservabile, purché il parametro a23 sia non nullo. Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-245 Il parametro b3 è sempre non nullo, il parametro a23 è non nullo per ogni caso di interesse reale, perché altrimenti il motore non sarebbe in grado di produrra alcuna coppia (infatti, a23 è nullo solo se Km è nullo). Se infatti Km fosse nullo, il sottosistema meccanico sarebbe in evoluzione libera, e quindi non sarebbe influenzabile dall’ingresso. Inoltre, il sottosistema meccanico non sarebbe influenzabile neanche dalla corrente d’armatura, cioè dalla terza componente dello stato, e quindi tale variabile non sarebbe osservabile dal segnale di uscita disponibile, la posizione del rotore, che corrisponde ad una variabile del sottosistema meccanico. Le proprietà strutturali di interesse sussistono quindi indipendentemente dal valore numerico dei parametri. 8.4.2 Progetto del controllore in retroazione dinamica dall’uscita Si assumano per i parametri elettrici e meccanici i seguenti valori: a22 = 3, a23 = 1, a32 = 1, a33 = 1, b3 = 1. I valori scelti non sono del tutto realistici, ma sono più agevoli rispetto alla finalità dell’esercizio ed inoltre, in virtù di quanto notato sopra, l’esatto valore dei parametri non modifica le proprietà strutturali di interesse. Un insieme più realistico di parametri è dato, ad esempio, da: Ra = 1Ω, La = 10−2 H, Ke = 0.5volts/rps, Km = 0.7N − m/A, J = 2 × 10−3 Kg − m3 , F = 2 × 10−5 N − m/rps. Con il valore proposto dei parametri le matrici che descrivono il motore a corrente continua sono date da: 0 1 0 0 A = 0 −3 1 , b = 0 , c = 1 0 0 . (8.28) 0 −1 −1 1 Per progettare il regolatore si può iniziare dalla determinazione di una matrice di retroazione k che consenta di allocare gli autovalori di A + bk in posizioni desiderate del semipiano sinistro. Per fare questo, si deve prima determinare la forma canonica di controllore ad un ingresso. Avendo già verificato la raggiungibilità, si tratta di determinare un vettore riga h soluzione del sistema: hb 0 h Ab = 0 (8.29) h A2 b 1 ed ottenibile, ad esempio, scegliendo h pari all’ultima riga dell’inversa 0 0 1 4 R = 0 1 −4 , R−1 = 4 1 −1 0 1 da cui si ricava: h= 1 0 0 della matrice di raggiungibilità: 1 1 1 0 , 0 0 , e quindi, per la matrice che caratterizza le nuove coordinate, si ottiene: h 1 0 0 1 0 T −1 = hA 0 1 0 , T = 0 1 hA2 0 −3 1 0 3 Le nuove coordinate sono quindi date da: xc = T −1 x, (8.30) (8.31) 0 0 . 1 (8.32) (8.33) e cioè, ricordando l’equazione (1.33a) ed l’ipotesi di coppia di disturbo nulla: xc,1 xc,2 = x1 = θ = x2 = ω (8.34a) (8.34b) xc,3 = −3x2 + x3 = ω̇. (8.34c) Come previsto, le tre nuove coordinate sono ciascuna la derivata della precedente; si noti che l’unica coordinata veramente nuova è data da ω̇, cioè dall’accelerazione angolare del rotore. In queste nuove coordinate il modello dinamico del motore è descritto da: ẋc,1 = xc,2 ẋc,2 = xc,3 ẋc,3 y = = −4xc,2 − 4xc,3 + u xc,1 , Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-246 e quindi le matrici Ac , bc ed cc sono date da: 0 1 0 1 , Ac = T −1 AT = 0 0 0 −4 −4 0 bc = T −1 b = 0 , 1 cc = cT = 1 0 0 . (8.35) In particolare, la forma canonica di controllore evidenzia il fatto che il sistema ha un autovalore nell’origine, e cioè un polo nell’origine(infatti, a0 = 0)). Questo deriva direttamente dalla equazione differenziale della parte meccanica θ̇ = ω. Con il sistema in forma canonica di controllore ad un ingresso è immediato calcolare la matrice di retroazione che consente di allocare il nuovo polinomio caratteristico. Se, non volendo alterare troppo la “velocità” del sistema controllato rispetto a quello reale, si desidera sistemare i nuovi autovalori in {−2, −2, −2}, cui corrisponde il polinomio p(λ) = λ3 + 6λ2 + 12λ + 8, la matrice di retroazione, nelle coordinate di controllore, deve essere scelta pari a: kc = (0 − 8) (4 − 12) (4 − 6) = −8 −8 −2 , (8.36) cui corrisponde, nelle coordinate originali, la matrice: k = kc T −1 = −8 −2 −2 . (8.37) Come anticipato, nel caso in esame è disponibile solo la misura della posizione del rotore del motore, e quindi, per poter effettivamente realizzare un’azione di controllo, si deve far uso di un osservatore asintotico che consenta di ricostruire le altre due variabili di stato, e cioè la velocità del rotore e la corrente di armatura. Si noti come la conoscenza del modello e la sua osservabilità, consentono di determinare, a partire da sole misure di posizione (e cioè relative al sottosistema meccanico), anche lo stato del sottosistema elettrico. L’osservatore asintotico dello stato è descritto dall’equazione matriciale: x̂˙ = Ax̂ + L(cx̂ − y) + bu, (8.38) in cui la matrice L deve essere determinata in modo da assegnare il polinomio caratteristico della matrice A+Lc. Infatti, introdotto l’errore di stima x̃ := x − x̂ e considerando la dinamica del sistema e la dinamica (8.38) dell’osservatore, si trova: x̃˙ = (A + Lc)x̃. (8.39) La sintesi della matrice L può essere condotta utilizzando il sistema duale. Sia Σ∗ = (Ā, b̄, c̄) il sistema duale, con Ā = AT , m̄b = mcT , c̄ = bT . La matrice che descrive la dinamica dell’errore di stima, riscritta per il sistema duale, diviene: (A + Lc)T = AT + cT LT = Ā + b̄k̄, (8.40) e quindi, per assegnare gli autovalori che governano l’evoluzione della dinamica di errore, si può procedere assegnando gli autovalori della matrice Ā + b̄k̄ per mezzo della matrice di guadagno k̄. Procedendo in modo consueto, si tratta di determinare un vettore riga h̄ soluzione del sistema: h̄b̄ 0 h̄ Āb̄ = 0 (8.41) h̄ Ā2 b̄ 1 ed ottenibile, ad esempio, scegliendo h̄ pari all’ultima riga dell’inversa della matrice di raggiungibilità del sistema duale: 1 0 0 1 0 0 R̄ = 0 1 −3 , R̄−1 = 0 1 3 , (8.42) 0 0 1 0 0 1 da cui si ricava: h̄ = 0 0 1 , e quindi, per la matrice che caratterizza le nuove coordinate: 0 0 1 4 4 T̄ −1 = 0 1 −1 , T̄ = 1 1 1 −4 0 1 0 (8.43) 1 0 . 0 (8.44) Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-247 Sulla base della matrice di trasformazione si può determinare la forma canonica di controllo ad un ingresso per il sistema duale, dalla quale si determina in modo immediato la matrice k̄ cercata. In queste nuove coordinate il sistema duale è descritto da: 0 1 0 0 1 , b̄c = 0 ; Āc = 0 0 (8.45) 0 −4 −4 1 in effetti, tale forma per la matrice Āc era prevedibile, perché questa matrice ha lo stesso polinomio caratteristico della matrice Ac in (8.35) e del sistema originale. In particolare quindi, non è indispensabile calcolare la matrice T̄ . Si assuma inoltre di voler assegnare, come autovalori della dinamica di errore, i valori {−3, −3, −3}, in modo da avere convergenza dell’errore di stima un poco più veloce della convergenza a zero dello stato. A tale scelta degli autovalori corrisponde il polinomio caratteristico po (λ) = λ3 + 9λ2 + 27λ + 27. La matrice k̄c che consente di ottenere questo polinomio per il sistema duale è quindi: k̄c = (0 − 27) (4 − 27) (4 − 9) = −27 −23 −5 , (8.46) cui corrisponde, nelle coordinate duali originali, la matrice: k̄ = k̄c T̄ −1 = −5 −3 −4 . (8.47) Per determinare la matrice L di guadagno dell’osservatore, si noti che, per il sistema duale, si ha: Ā + b̄k̄ = AT + cT k̄, (8.48) e quindi la dinamica dell’errore di stima è descritta dalla matrice: (AT + cT k̄)T = A + k̄ T c, (8.49) e quindi la matrice L cercata è data da: −5 L = k̄ T = −3 . −4 La dinamica di errore è quindi governata dalla matrice: −5 1 0 A + Lc = −3 −3 1 , −4 1 −1 (8.50) (8.51) con autovalori pari a {−3, −3, −3}, come progettato. Riepilogando, un regolatore (o, più precisamente, una legge di controllo o un controllore) in retroazione dinamica dall’uscita per stabilizzare asintoticamente un motore in corrente continua è dato da: x̂˙ = u = Ax̂ + L(cx̂ − y) + bu kx̂ + v, (8.52a) (8.52b) con le matrici A, b ed c date dal modello dinamico del motore e le matrici di guadagno k e L (dette anche matrice di retroazione e matrice di iniezione, rispettivamente) date da: −5 k = −8 −2 −2 , L = −3 . (8.53) −4 8.5 Ulteriori problemi di controllo Un tipico problema di controllo in realà difficilmente richiede di portare un sistema nell’origine dello spazio di stato, ma consiste piuttosto nel voler regolare la posizione del rotore ad un punto prefissato o nel voler inseguire una predefinita traiettoria nello spazio di stato. Tuttavia, gli strumenti di stabilizzazione in retroazione, opportunamente utilizzati, consentono di risolvere anche questi problemi, ed in generale costituiscono un mattone fondamentale ed imprenscindibile nella costruzione di sistemi di controllo complessi. Capitolo 8: Osservatori e regolatori 8.5.1 [Ed. 2015, V 4.0 - PV - UniPG] - 8-248 Un problema di regolazione Sotto l’ipotesi fatta in precedenza che la coppia di disturbo sia nulla (in mancanza della quale, oltre a quanto visto sopra si deve ricorrere anche ad ulteriori strumenti), se si desidera rendere asintoticamente stabile il punto (in coordinare originali): xd = θd 0 0 , e cioè si vuole posizionare il rotore con angolo pari a θd (ovviamente con velocità nulla), si può utilizzare la legge di controllo: x̂˙ = u = Ax̂ + L(cx̂ − y) + bu k(x̂ − xd ) + v, (8.54a) (8.54b) con le matrici k ed L progettate in precedenza (equazione (8.53)), la quale rende asintoticamente stabile il punto desiderato xd . 8.5.2 Inseguimento di traiettoria Nel caso in cui si voglia invece considerare un problema di inseguimento di traiettoria, descritta per mezzo di un vettore xd (t) che descrive il comportamento desiderato per lo stato, si tratta di determinare una legge di controllo in modo che l’errore di inseguimento e(t) := x(t) − xd (t) converga a zero asintoticamente, cioè: lim e(t) = 0. t→∞ (8.55) Si consideri per semplicità il caso in cui sia accessibile per la misura l’intero vettore di stato. Lo scopo di queste brevi note è solo quello di sottolineare come la soluzione del problema dell’assegnazione degli autovalori sia un elemento base per la soluzione di problemi più complessi. Si consideri quindi il caso in cui si debba inseguire una predeterminare traiettoria nello spazio di stato, ad esempio una traiettoria che specifica la posizione desiderata per il rotore nei vari istanti di tempo. Si assuma che la traiettoria desiderata, indicata con θd (t), sia nota in termini analitici e sia derivabile almeno tre volte. d Allora, il comportamento desiderato per la velocità del rotore sarà necessariamente dato da ωd (t) = dθ dt , ed dωd il comportamento desiderato per l’accelerazione angolare del rotore sarà dato da ad (t) = dt . Ricordando poi il significato delle variabili (8.34) si ha il seguente legame le variabili meccaniche velocità ω ed accelerazione a e la corrente di rotore ia = x3: x3 = a + 3ω, (8.56) e quindi si può porre, come traiettoria desiderata completa nello spazio di stato (cioè per tutte le variabili) la funzione vettoriale: xd,1 (t) xd,2 (t) = = θd (t) ωd (t) (8.57a) (8.57b) xd,3 (t) = ad (t) + 3ωd (t). (8.57c) Per ottenere che la posizione del rotore insegua asintoticamente la traiettoria data da θd (t), nel senso di ottenere il risultato indicato dalla (8.55), indicato con xd = xd,1 xd,2 xd,3 il vettore delle traiettorie desiderate date dalle (8.57), si può utilizzare la legge di controllo in retroazione statica dallo stato: u = k(x − xd ) + η, (8.58) η := xd,2 + xd,3 + ẋd,3 , (8.59) con e con la matrice k definita dalla (8.36). Infatti, dalle equazioni (8.57) e (8.59) e ricordando che ẋd,2 (t) = ad , la traiettoria desiderata soddisfa l’equazione differenziale: il sistema dinamico: ẋd,1 (t) = xd,2 (t) (8.60a) ẋd,2 (t) = ẋd,3 (t) = −3xd,2 (t) + xd,3 (t) xd,2 (t) + xd,3 (t) + η(t), (8.60b) (8.60c) Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-249 che, in forma matriciale, può essere riscritta come: ẋd (t) = Axd (t) + bη(t). (8.61) La dinamica dell’errore di inseguimento e(t) = x(t) − xd (t), dopo aver applicato la legge in retroazione dallo stato definita dalla (8.58), è governata quindi dalla equazione differenziale ẋ − ẋd ė = Ax + bk(x − xd ) + bη − Axd − bη A(x − xd ) + bk(x − xd ) = = = (A + bk)e e quindi, tenendo conto della scelta fatta per la matrice k, la dinamica dell’errore di inseguimento è asintoticamente stabile, e quindi l’errore converge asintoticamente a zero. Il segnale η(t) utilizzato nella legge di controllo (8.58) è un termine di controllo in avanti (feed-forward). 8.5.3 Sistemi a segnali campionati Per realizzare effettivamente una delle tre leggi di controllo presentate in precedenza, vi sono due classi di soluzioni. Una prima soluzione, utilizzata solo in casi particolari, è quella di realizzare un dispositivo analogico che implementa la legge stessa, ad esempio, nel caso delle leggi basate sull’osservatore, si tratta di utilizzare un gruppo di amplificatori operazionali opportunamente collegati. Una soluzione alternativa, assai più frequente, è quella di implementare l’algoritmo di controllo in modo digitale, e quindi tramite un elaboratore generico o un DSP. In questo secondo caso vi sono due approcci possibili: si può sintetizzare la legge di controllo partendo dal modello a tempo continuo del motore (ed in generale dell’impianto) e poi discretizzare il controllore (se vi è della dinamica), oppure si può discretizzare il modello e poi sintetizzare un controllore a tempo discreto. Indipendentemente dalla strada seguita per arrivare ad un controllore discreto, l’uso di un sistema digitale di controllo, oltre alla flessibilità legata al’uso di uno strumento facilmente programmabile invece che alla realizzazione di un circuito, ha un vantaggio anche in termini di prestazioni del sistema controllato: è possibile ottenere un controllore a tempo di risposta finita, anche se il processo controllato è in realtà un sistema a tempo continuo. Per determinare un modello a tempo discreto di un processo continuo o di un controllore dinamico, genericamente indicato con l’equazione: ẋ = Ax + Bu y Cx = si può partire dalla soluzione nelle variabili di stato ad un generico istante t + δt , noto il valore dello stato all’instante t, ed assumendo che il segnale di ingresso sia costante in tale intervallo (come accade, se il sistema è controllato in modo digitale e δt è il passo di campionamento): ! Z t+δt = e Aδt x(t) + x(t + δt ) e A(t+δt −τ ) Bdτ u(t), t y(t) = Cx(t) Allora, definite le matrici: AD := e Aδt , BD := Z δt e A(δt −τ ) Bdτ, CD := C, (8.62) 0 posto t + δt = (k + 1)δt , t = kδt , introducendo le variabili xD (k) = x(kδt ), la soluzione precedente può essere riscritta come: xD (k + 1) = AD xD (k) + BD u(k), y(k) = CD xD (k) Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-250 e quindi ci si è ricondotti ad un sistema a tempo discreto, il cui stato è dato dalle variabili xD . Si noti che, negli istanti di campionamento, cioè negli istanti del tipo t = kδt , lo stato del sistema a tempo continuo e quello del suo modello a tempo discreto sono esattamente identici. Cioè, l’approccio proposto non introduce alcuna approssimazione negli istanti di campionamento. Nel caso del motore, con i valori dei parametri considerati, la matrice esponenziale e Aδt è data da: e Aδt 8.5.4 1 = 0 0 0.25(1 − e −2δt + δt e −2δt ) e −2δt − δt e −2δt −δt e −2δt 0.25(1 − e −2δt − δt e −2δt ) . δt e −2δt −2δt −2δt + δt e e (8.63) Stima dei disturbi Nel trattare il problema del controllo del motore in corrente continua si è fatta l’ipotesi che la coppia di carico, indicata con TL nel capitolo 1, sia nulla. In effetti, tale segnale di disturbo, in generale non noto e non misurabile, non è nullo, anzi rappresenta proprio il lavoro che deve essere svolto dal motore. La soluzione del problema di regolazione o inseguimento nel caso in cui tale segnale sia presente è ottenibile facilmente con strumenti che saranno ampiamente discussi nel corso di Controlli Automatici. Nel seguito si indica, in modo sintetico, uno strumento alternativo per la stima di take segnale di disturbo. La stima cosı̀ottenuta può essere poi utilizzata all’interno di uno schema di controllo, più complesso di quelli visti in precedenza in questa sezione, per ottenere anche reiezione del disturbo, oltre alla regolazione e/o inseguimento. L’idea di base, descritta nel seguito solo per il caso di disturbi costanti (o comunque costanti a tratti), è quella di estendere la dinamica del sistema considerando il disturbo come un’ulteriore variabile di stato, con derivata nulla. Il modello del motore in corrente continua, con indicazione esplicata della coppia di carico, è dato da: ẋ1 = x2 (8.64) ẋ2 ẋ3 = −a22 x2 + a23 x3 + TL = −a32 x2 − a33 x3 + b3 u (8.65) (8.66) y = x1 (8.67) e quindi, assumendo il disturbo costante, e ponendo x4 = TL , il modello dinamico esteso del motore in corrente continua diviene: ẋ1 ẋ2 ẋ3 ẋ4 y = x2 = −a22 x2 + a23 x3 + x4 (8.68) (8.69) = −a32 x2 − a33 x3 + b3 u = 0 (8.70) (8.71) = x1 , (8.72) che, in forma matriciale, può essere scritto come: ẋe = Ae xe + be u (8.73a) y = ce xe (8.73b) con il vettore di stato esteso xe dato da: xe := [x1 x2 x3 x4 ]T , e le matrici che descrivono il sistema caratterizzate da: 0 1 0 0 0 0 −f22 f23 1 0 Ae = (8.74) 0 −f32 −f33 0 , be = b3 , ce = 1 0 0 0 . 0 0 0 0 0 Ora, una possibile soluzione per stimare il segnale di disturbo x4 = TL è quella di verificare l’osservabilità del sistema esteso (8.73), e poi, in caso positivo, costruire un osservatore asintotico dello stato. Poichè l’osservabilità implica la possibilità di ricostruire asintoticamente lo stato, la ricostruzione xˆ4 della nuova variabile di stato corrisponde alla stima asintotica del disturbo. Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-251 Per verificare l’osservabilità, e quindi la possibilità di stimare il disturbo, si deve studiare il rango della matrice: ce ce Ae Θe := (8.75) ce A2e , 3 ce Ae cioè della matrice: 1 0 Θe := 0 0 0 1 −a22 a222 + a23 a32 0 0 0 0 , −a23 1 a23 (a22 + a33 ) −a22 il cui rango è massimo, e quindi il sistema esteso è osservabile, se la matrice −a23 1 M= a23 (a22 + a33 ) −a22 (8.76) (8.77) ha determinante non nullo. Il determinante vale det(M ) = −a23 a33 , (8.78) e quindi il sistema esteso è osservabile se il motore è in grado di produrre coppia (cioè, il parametro a23 è non nullo), e la sua resistenza di armatura è non nulla (cioè, il parametro a33 non è nullo). Ciò si verifica per qualsiasi motore reale, e quindi il sistema esteso è osservabile, cioè, la misura di posizione, opportunamente utilizzata, consente di stimare anche la coppia di disturbo. Uno schema di osservatore asintotico che consente di raggiungere questo risultato è dato da: xˆe = Ae xˆe + Le (ce xˆe − y) + be u (8.79) con la matrice Le da scegliere, con tecniche oramai ben note, in modo da rendere asintoticamente stabile la dinamica dell’errore di stima: x˜e = (Ae − Le ce )x˜e . (8.80) La stima cosı̀ ottenuta della coppia di disturbo può essere poi usata per compensare gli effetti del disturbo reale sul sistema. Capitolo 8: Osservatori e regolatori 8.6 8.6.1 [Ed. 2015, V 4.0 - PV - UniPG] - 8-252 Esercizi Osservatori asintotici e regolatori per sistemi a singolo ingresso e singola uscita Esercizio 8.1 Dato il sistema a tempo continuo −1 5 27 −2 ẋ = −1 −5 −16 x + 1 u, 1 2 3 0 1 2 2 x, y = a) studiare l’osservabilità; b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile (si veda l’esercizio 6.4). Esercizio 8.2 Dato il sistema a tempo continuo −1 ẋ = −1 1 0 0 y = a) studiare l’osservabilità; 5 9 −4 −3 −4 x + 2 u, 2 1 0 1 x, b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile (si veda l’esercizio 6.5). Esercizio 8.3 Dato il sistema a tempo continuo 2 13 26 −2 ẋ = −1 −7 −14 x + 1 u, 0 1 3 0 1 3 4 x, y = a) studiare l’osservabilità; b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile, e con tutti gli autovalori con parte reale minore di -1 (si veda l’esercizio 6.6). Esercizio 8.4 Dato il sistema a tempo continuo 4 −4 ẋ = 0 1 2 y = a) studiare l’osservabilità; 6 4 −1 −7 −4 x + 1 u, 1 1 0 1 x, b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile, e con tutti gli autovalori con parte reale minore di -1 (si veda l’esercizio 6.7). Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-253 Esercizio 8.5 Dato il sistema a tempo discreto 8 23 21 −1 x(k + 1) = −4 −12 −11 x(k) + 1 u(k), −2 1 0 0 1 3 3 x, y = a) studiare l’osservabilità; b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile, e con tutti gli autovalori con modulo minore di 1 (si veda l’esercizio 6.8). Esercizio 8.6 Dato il sistema a tempo discreto −3 −2 −2 3 3 4 x(k) + −3 u(k), x(k + 1) = 3 −1 −1 −1 1 0 1 2 x, y = a) studiare l’osservabilità e la rilevabilità; b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso a tempo di risposta finito (si veda l’esercizio 6.9). Esercizio 8.7 Dato il sistema a tempo continuo 9 28 67 3 ẋ = −9 −27 −65 x + −3 u, 3 9 22 1 1 3 2 x, y = a) studiare l’osservabilità; b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile (si veda l’esercizio 6.10). Esercizio 8.8 Dato il sistema a tempo continuo 4 ẋ = −2 2 1 2 y = a) studiare l’osservabilità; 11 5 2 −5 −2 x + −1 u, 5 3 1 −2 x, b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile (si veda l’esercizio 6.11). Esercizio 8.9 Dato il sistema a tempo continuo 8 21 8 4 ẋ = −4 −10 −3 x + −2 u, 2 5 2 1 −1 −1 1 x, y = Capitolo 8: Osservatori e regolatori [Ed. 2015, V 4.0 - PV - UniPG] - 8-254 a) studiare l’osservabilità; b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile. Esercizio 8.10 Dato il sistema a tempo continuo 2 −1 2 1 ẋ = 1 −2 −2 x + 0 u, 0 1 2 0 1 −1 1 x, y = a) studiare l’osservabilità; b) determinare, se esiste, un osservatore asintotico dello stato di ordine pieno; c) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile, e con tutti gli autovalori con parte reale minore di -1. Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-255 Capitolo 9 Esercizi di riepilogo risolti In questo capitolo vengono presentati alcuni esercizio di riepilogo. Si precisa che molti dei quesiti proposti sono relativi al programma del corso Vecchio Ordinamento (corso quinquennale) o comunque di anni accademici passati. 9.1 Esercizi di riepilogo Esercizio 9.1 Dato il sistema a tempo discreto 1 2 1 0 0 0 x(k) + 0 u(k), x(k + 1) = 1 −5 −1 −2 1 1 3 1 x(k), y(k) = a) studiare la raggiungibilità e l’osservabilità; b) determinare, se esiste, una legge di controllo in retroazione dallo stato che garantisca tempo di risposta finito per il sistema a ciclo chiuso; c) determinare, se esiste, una legge di controllo in retroazione dallo stato che garantisca stabilità asintotica del punto x = 0 per il sistema a ciclo chiuso; d) determinare, se esiste, un osservatore asintotico dello stato di ordine intero con dinamica d’errore convergente a zero in tempo finito; e) determinare, se esiste, un osservatore asintotico dello stato di ordine intero con dinamica d’errore asintoticamente stabile; f) determinare, se esiste, un regolatore in retroazione dall’uscita che garantisca tempo di risposta finito per il sistema a ciclo chiuso e calcolare le matrici a ciclo chiuso ed i loro autovalori; g) determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile e calcolare le matrici a ciclo chiuso ed i loro autovalori; h) calcolare, per i sistemi a ciclo chiuso determinati ai punti (b), (c) ed (f), la risposta forzata per segnale di ingresso a gradino unitario. Esercizio 9.2 Dato il sistema a tempo discreto x(k + 1) = y1 (k) = y2 (k) F x(k) + g1 h1 x(k), h2 g2 u1 (k) u2 (k) , Capitolo 9: Esercizi riepilogo con 1 1 1 F = 1 0 0 , −4 1 −2 [Ed. 2015, V 4.0 - PV - UniPG] - 9-256 g1 g2 0 = 0 1 0 1 , 0 h1 h2 = 1 2 1 1 −1 0 , (9.1) a) studiare la raggiungibilità a partire dal solo ingresso u1 , e cioè usando la sola matrice di ingresso g1 , a partire dal solo ingresso u2 , e cioè usando la sola matrice di ingresso g2 , e per mezzo di entrambi i segnali di controllo; T b) raggiungere, se possibile, lo stato x̄ = 1 2 1 utilizzando solo il primo ingresso, solo il secondo ingresso, ed infine, con numero minimo di passi, utilizzando entrambi gli ingressi; T T c) se possibile, raggiungere in tre passi lo stato xf = 2 1 1 a partire dallo stato x0 = 0 0 1 (e cioè, ottenere x(3) = xf a partire da x(0) = x0 ); d) valutare l’osservabilità sulla base dell’uscita y1 , e cioè usando la sola matrice di uscita h1 , sulla base dell’uscita y2 , e cioè usando la sola matrice di uscita h2 , e per mezzo di entrambe le uscite; e) data la sequenza di uscita y(0) = [4 0]T , y(1) = [0 2]T , y(2) = [4 − 4]T , ottenuta in evoluzione libera, osservare, se possibile, lo stato iniziale sulla base della prima uscita, sulla base della seconda uscita e sulla base di entrambe le uscite; e) data la sequenza di uscita del punto precedente, ottenuta in evoluzione libera, ricostruire, se possibile, lo stato al passo k = 3 sulla base della prima uscita, sulla base della seconda uscita e sulla base di entrambe le uscite; f) determinare la decomposizione rispetto alla osservabilità, considerando solo la prima uscita e considerando solo la seconda uscita; g) progettare una legge di controllo in retroazione dallo stato per assegnare tutti gli autovalori in zero, utilizzando entrambi gli ingressi ed imponendo un solo miniblocco di Jordan per la matrice retroazionata; h) progettare una legge di controllo in retroazione dallo stato per assegnare tutti gli autovalori in zero, utilizzando entrambi gli ingressi ed imponendo due miniblocchi di Jordan per la matrice retroazionata; i) progettare un osservatore con dinamica d’errore convergente a zero in tempo finito, utilizzando entrambe le uscite ed imponendo un solo miniblocco di Jordan per la matrice della dinamica d’errore. Esercizio 9.3 Dato un processo descritto dalla matrice di trasferimento: z+1 z , W (z) = z 2 + 3z + 2 z 2 + 4z + 4 (9.2) a) determinare una realizzazione minima Σ(F, G, h); b) determinare, se esiste, una legge di controllo in retroazione statica dallo stato u = Kx + v per il sistema Σ, che consenta di ottenere un sistema a ciclo chiuso con tempo di risposta finito; c) valutare il numero di miniblocchi nella forma di Jordan della matrice F + GK, ove K è la matrice calcolata al passo precedente; d) progettare, se esiste, un osservatore asintotico dello stato con dinamica dell’errore di stima asintoticamente stabile; e) progettare, se esiste, un regolatore in reazione dinamica dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile; f) calcolare la risposta al gradino unitario per il sistema a ciclo aperto, assumendo un gradino unitario sul primo ingresso e secondo ingresso nullo, assumendo un gradino unitario sul secondo ingresso e primo ingresso nullo, ed infine assumendo un gradino unitario su entrambi gli ingressi [esame]; g) dire se la risposta completa al gradino per il sistema a ciclo chiuso ottenuto al punto e) è limitata, e dire se tale funzione ammette limite, per t tendente ad infinito. Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-257 Esercizio 9.4 Dato il sistema dinamico a tempo discreto 1 2 F = 0 0 0 −2 x(t + 1) = F x(t) + gu(t), (9.3) y(t) = Hx(t) 1 1 0 , g = −1 , 0 0 (9.4) H= 1 0 0 1 −1 1 . (9.5) 1. valutare la sua osservabilità e ricostruibilità, sulla base della sola prima uscita, della sola seconda uscita, o di entrambe le uscite; 2. se l’uscita in evoluzione libera, nei primi tre passi, è pari a y(0) = (2 0)T , y(1) = (2 − 2)T , y(2) = (2 0)T , osservare lo stato iniziale e ricostruire lo stato ai passi t = 1 e t = 2, se possibile, utilizzando solo la prima uscita, solo la seconda uscita ed entrambe le uscite; 3. progettare, se esiste, un osservatore asintotico dello stato con dinamica dell’errore di stima asintoticamente stabile; 4. progettare, se esiste, una legge di controllo in retroazione statica dallo stato che renda il sistema a ciclo chiuso asintoticamente stabile; 5. progettare, se esiste, una legge di controllo in retroazione dinamica dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile. 9.2 9.2.1 Soluzioni Soluzione esercizio 9.1 Raggiungibilità ed osservabilità. Per valutare la raggiungibilità e l’osservabilità del sistema, si può procedere calcolando le matrici di raggiungibiltà e di osservabilità. Per la raggiungibilità si ha: 0 1 −1 1 , R = g F g F 2g = 0 0 1 −2 −1 il cui determinante vale 1, e quindi il sistema è raggiungibile. Per l’osservabilità si ha: h 1 3 1 O = hF = −1 1 −1 , hF 2 5 −1 1 il cui determinante vale −16, e quindi il sistema è osservabile. Determinare, se esiste, una legge di controllo in retroazione dallo stato che garantisca tempo di risposta finito per il sistema a ciclo chiuso. Poiché il sistema è raggiungibile, è possibile allocare in modo arbitrario tutti gli autovalori. Inoltre, poiché è a tempo discreto, se gli autovalori vengono allocati tutti in zero, si ha convergenza a zero in un numero finito di passi. Per determinare una legge di controllo in retroazione dallo stato, cioè del tipo: u = Kx + v, che allochi tutti gli autovalori in posizioni arbitrarie, si procede calcolando la forma canonica di controllore a singolo ingresso. Si deve quindi trovare un vettore riga c, con tre componenti, soluzione del sistema di equazioni: cg 0 cFg = 0 c F 2g 1 Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-258 ed ottenibile, ad esempio, scegliendo c pari all’ultima riga dell’inversa 0 1 −1 2 1 , R−1 = 1 R= 0 0 1 −2 −1 0 da cui si ricava: c= e quindi, per la matrice che caratterizza le nuove c 0 −1 cF 1 T = cF 2 1 0 1 0 della matrice di raggiungibilità: 3 1 1 0 , 1 0 , (9.6) (9.7) coordinate, si ottiene: 1 0 0 1 0 0 0 , T = 1 0 0 . 2 1 −2 −1 1 In queste nuove coordinate il sistema è descritto dalle matrici: 0 1 0 0 1 , gc = T −1 g = 0 , Fc = T −1 F T = 0 0 3 −1 −1 1 hc = hT = (9.8) 1 0 1 . (9.9) A partire dalla forma canonica di controllore è immediato trovare la matrice di retroazione che consente di allocare tutti gli autovalori nell’origine, e quindi ottenere un sistema a tempo di risposta finito. Il polinomio caratteristico desiderato in questo caso è dato da p(λ) = λ3 . La matrice di retroazione, nelle coordinate di controllore, deve essere scelta pari a: kc,f = (−3 − 0) (1 − 0) (1 − 0) = −3 1 1 , (9.10) cui corrisponde, nelle coordinate originali, la matrice: kf = kc,f T −1 = 2 −1 1 La matrice che descrive la dinamica del sistema a ciclo 1 F + gkf = 1 −3 i cui autovalori sono tutti nulli, come desiderato! . (9.11) chiuso è quindi (sebbene non richiesta): 2 1 0 0 −2 −1 Determinare, se esiste, una legge di controllo in retroazione dallo stato che garantisca stabilità asintotica del punto x = 0 per il sistema a ciclo chiuso. Nel caso dei sistemi lineari autonomi, l’origine è sempre punto di equilibrio, e le sue proprietà di stabilità sono caratterizzate dagli autovalori del sistema, e cioè dagli autovalori della matrice F (con la descrizione abituale). Si tratta quindi di costruire una matrice di retroazione dallo stato tale da rendere tutti gli autovalori del sistema a ciclo chiuso asintoticamente stabili. Ovviamente, la matrice kf determinata al punto precedente è una possibile soluzione. Una soluzione diversa si può ottenere, ad esempio, cercando di assegnare come nuovo polinomio caratteristico il polinomio p(λ) = (λ + 1/2)3 = λ3 + 3/2λ2 + 3/4λ + 1/8, o un qualunque altro polinomio con zeri minori di 1, in modulo. Per ottenere questo risultato, a partire dalla forma canonica di controllore già calcolata in (9.9), si può porre: kc,a = (−3 − 1/8) (1 − 3/4) (1 − 3/2) = −25/8 1/4 −1/2 , (9.12) cui corrisponde, nelle coordinate originali, la matrice: kf = kc,f T −1 = −1/4 −33/8 −1/2 . La matrice che descrive la dinamica del sistema a ciclo chiuso è quindi (sebbene non richiesta): 1 2 1 1 0 0 F + gkf = −21/4 −41/8 −5/2 (9.13) Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-259 i cui autovalori sono tutti {−1/2, −1/2, −1/2}, come desiderato! Determinare, se esiste, un osservatore asintotico dello stato di ordine intero con dinamica d’errore convergente a zero in tempo finito. L’esistenza di un osservatore dello stato con dinamica d’errore assegnabile in modo arbitrario, e quindi, in particolare, con dinamica convergente a zero in tempo finito, è garantita dalla proprietà di osservabilità del sistema, già verificata in precedenza. L’osservatore asintotico dello stato è descritto dall’equazione matriciale: x̂(k + 1) = F x̂(k) + L(hx̂(k) − y(k)) + gu(k), (9.14) in cui la matrice L deve essere determinata in modo da assegnare il polinomio caratteristico della matrice F +Lh. Infatti, introdotto l’errore di stima x̃ := x − x̂ e considerando la dinamica del sistema e la dinamica (9.14) dell’osservatore, si trova: x̃(k + 1) = (F + Lh)x̃(k). (9.15) La sintesi della matrice L può essere condotta utilizzando il sistema duale. Sia Σ∗ = (F̄ , ḡ, h̄) il sistema duale, con F̄ = F T , ḡ = hT , h̄ = g T . La matrice che descrive la dinamica dell’errore di stima, riscritta per il sistema duale, diviene: (F + Lh)T = F T + hT LT = F̄ + ḡ k̄, (9.16) e quindi, per assegnare gli autovalori che governano l’evoluzione della dinamica di errore, si può procedere assegnando gli autovalori della matrice F̄ + ḡk̄ per mezzo della matrice di guadagno k̄. Procedendo in modo consueto, si tratta di determinare un vettore riga c̄ soluzione del sistema: c̄ḡ 0 c̄ F̄ ḡ = 0 (9.17) c̄ F̄ 2 ḡ 1 ed ottenibile, ad esempio, scegliendo c̄ pari all’ultima riga dell’inversa della matrice di raggiungibilità del sistema duale: 1 −1 5 0 1/4 1/4 R̄ = 3 1 −1 , R̄−1 = 1/4 1/4 −1 , (9.18) 1 −1 1 1/4 0 −1/4 da cui si ricava: c̄ = 1/4 0 −1/4 e quindi, per la matrice che caratterizza le nuove coordinate: 1/4 0 −1/4 1/4 −3/4 , T̄ −1 = 0 −1/4 0 5/4 , (9.19) 5 T̄ = 3 1 0 1 4 3 . 0 1 (9.20) Sulla base della matrice di trasformazione si può determinare la forma canonica di controllo ad un ingresso per il sistema duale, dalla quale si determina in modo immediato la matrice k̄ cercata. In queste nuove coordinate il sistema duale è descritto da: 0 1 0 0 1 , ḡc = 0 ; F̄c = 0 0 (9.21) 3 −1 −1 1 in effetti, tale forma per la matrice F̄c era prevedibile, perché questa matrice ha lo stesso polinomio caratteristico della matrice Fc in (9.9) e del sistema originale. In particolare quindi, non è indispensabile calcolare la matrice T̄ . Volendo ottenere un osservatore asintotico dello stato con errore convergente a zero in un numero finito di passi, si devono allocare tutti gli autovalori della matrice che governa l’evoluzione dell’errore in zero, e quindi, per il sistema duale, si devono allocare in zero tutti gli autovalori della matrice F̄ + ḡ k̄f . La matrice k̄c,f che consente di allocare in zero tutti gli autovalori del sistema duale è data da: k̄c,f = (−3 − 0) (1 − 0) (1 − 0) = −3 1 1 , (9.22) Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-260 cui corrisponde, nelle coordinate duali originali, la matrice: k̄f = k̄c,f T̄ −1 = −1 1/4 5/4 . (9.23) Per determinare la matrice Lf di guadagno dell’osservatore, si noti che, per il sistema duale, si ha: F̄ + ḡ k̄f = F T + hT k̄f , (9.24) e quindi la dinamica dell’errore di stima è descritta dalla matrice: (F T + hT k̄f )T = F + k̄fT h, (9.25) e quindi la matrice Lf cercata è data da: −1 Lf = k̄fT = 1/4 . 5/4 La dinamica di errore è quindi governata dalla matrice: 0 −1 0 F + Lf h = 5/4 3/4 1/4 , −15/4 11/4 −3/4 (9.26) (9.27) con autovalori tutti nulli, come desiderato. Determinare, se esiste, un osservatore asintotico dello stato di ordine intero con dinamica d’errore asintoticamente stabile. La sintesi di un osservatore di ordine pieno con dinamica d’errore asintoticamente stabile si ottiene, tenendo conto di quanto già fatto al punto precedente, calcolando una matrice k̄c,a tale da rendere tutti gli autovalori della matrice F̄c + ḡc k̄c,a minori di 1, in modulo e, ad esempio, uguali a {1/3, 1/3, 1/3}. Il polinomio corrispondente è quindi (λ − 1/3)3 = λ3 − λ2 + 1/3λ − 1/27. Ovviamente, ogni altra scelta di autovalori con modulo minore di uno sarebbe stata soddisfacente. La matrice k̄c,a che consente di ottenere ciò è data da: k̄c,a = (−3 + 1/27) (1 − 1/3) (1 + 1) = −80/27 2/3 2 , (9.28) cui corrisponde, nelle coordinate duali originali, la matrice: k̄ = k̄c T̄ −1 = −67/54 1/6 74/27 , ed infine, per la matrice La di guadagno dell’osservatore, si trova: −67/54 L = k̄aT = 1/6 . 74/27 La dinamica di errore è quindi governata dalla matrice: −13/54 −93/54 −13/54 1/2 1/6 , F + La h = 63/54 −122/54 65/9 20/27 (9.29) (9.30) (9.31) con autovalori pari a {1/3, 1/3, 1/3}, come desiderato. Determinare, se esiste, un regolatore in retroazione dall’uscita che garantisca tempo di risposta finito per il sistema a ciclo chiuso e calcolare le matrici a ciclo chiuso ed i loro autovalori. Il regolatore cercato si ottiene combinando in modo opportuno la matrice di retroazione progettata al punto (b) e l’osservatore progettato al punto (d). Infatti in questo modo si ottiene un sistema dinamico di ordine 6 (pari cioè alla dimensione dello spazio di stato del sistema originale, 3 più quella dell’osservatore, ancora uguale a 3), con tutti gli autovalori nulli, il cui stato, in evoluzione libera, converge a zero in un numero finito di passi. Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-261 In particolare, il regolatore (dinamico, per la presenza dell’osservatore) è descritto dalle equazioni: x̂(k + 1) = u(k) = F x̂(k) + Lf (hx̂(k) − y(k)) + gu(k) kf x̂(k) + v(k), con le matrici F , g ed h del sistema e le matrici di guadagno kf e Lf date da: −1 kf = 2 −1 1 , Lf = 1/4 . 5/4 (9.32a) (9.32b) (9.33) Determinare, se esiste, un regolatore in retroazione dall’uscita che renda il sistema a ciclo chiuso asintoticamente stabile e calcolare le matrici a ciclo chiuso ed i loro autovalori. Il regolatore cercato si ottiene combinando in modo opportuno la matrice di retroazione progettata al punto (c) e l’osservatore progettato al punto (e). In particolare, il regolatore (dinamico, per la presenza dell’osservatore) è descritto dalle equazioni: x̂(k + 1) = u(k) = F x̂(k) + La (hx̂(k) − y(k)) + gu(k) ka x̂(k) + v(k), con le matrici F , g ed h del sistema e le matrici di guadagno ka e La date da: −67/54 kf = −1/4 −33/8 −1/2 , La = 1/6 . 74/27 (9.34a) (9.34b) (9.35) Determinare la risposta forzata per ingresso a gradino unitario. L’esercizio si risolve calcolando la funzione di trasferimento, di immediata determinazione a partire dalla forma canonica di controllore, e poi espandendo in frazioni parziali la risposta nel dominio di Zeta ed antitrasformando. Infine, si noti che le funzioni di trasferimento dei sistemi a ciclo chiuso determinati ai punti (c) ed (f) coincidono, poichè la dinamica dell’errore di stima non è raggiungibile, e quindi non influenza la funzione di trasferimento. Capitolo 9: Esercizi riepilogo 9.2.2 [Ed. 2015, V 4.0 - PV - UniPG] - 9-262 Soluzione esercizio 9.2 Raggiungibilità per singoli ingressi e per entrambi gli ingressi. Per valutare la raggiungibilità a partire dal primo ingresso si deve valutare il rango della matrice: R1 = g1 F g1 F 2 g1 ottenendo: 0 R1 = 1 0 1 2 0 1 1 −6 il cui rango è tre, e quindi il sistema è raggiungibile. Analogamente, la raggiungibilità a partire dal secondo ingresso è valutabile dalla matrice: R2 = g2 F g2 F 2 g2 ottenendo: 0 1 R2 = 0 0 1 −2 −1 1 0 il cui rango è tre, e quindi il sistema è raggiungibile anche a partire dal solo secondo ingresso. Per quanto riguarda infine la raggiungibilità da entrambi gli ingressi, questa è ovviamente implicata dalla raggiungibilità da ciascun singolo ingresso. T Raggiungere, se possibile, lo stato x̄ = 1 2 1 utilizzando solo u1 , solo u2 , ed infine, con numero minimo di passi, utilizzando entrambi gli ingressi. Poiché il sistema è raggiungibile anche da ciascun singolo ingresso, è possibile determinare le sequenze cercate. La sequenza di valori del primo ingresso che consente di raggiungere il punto dato è soluzione del sistema algebrico: u1 (2) x̄ = R1 u1 (1) (9.36) u1 (0) e cioè: la cui soluzione è data da: 1 0 2 = 1 1 0 u1 (0) = 0, 1 2 u1 (2) 0 1 u1 (1) 1 −6 u1 (0) u1 (1) = 1, (9.37) u1 (2) = 2, e quindi il segnale di ingresso complessivo è dato da: u(0) = (0, 0)T , u(1) = (1, 0)T , u(2) = (2, 0)T . Per raggiungere lo stato desiderato solo tramite il secondo ingresso si deve invece considerare il sistema: u2 (2) x̄ = R2 u2 (1) (9.38) u2 (0) e cioè: la cui soluzione è data da: 1 0 2 = 0 1 1 u2 (0) = 2, 1 −1 u2 (2) 0 1 u2 (1) −2 0 u2 (0) u2 (1) = 3, u2 (2) = 7, e quindi il segnale di ingresso complessivo è dato da: u(0) = (0, 2)T , u(1) = (0, 3)T , u(2) = (0, 7)T . (9.39) Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-263 Infine, per raggiungere il punto desiderato nel minor numero possibile di passi si devono considerare le prime colonne linearmente indipendenti della matrice di raggiungibilià. Nel caso in esame la matrice di raggiungibilità è data da: 0 0 1 1 2 −1 1 1 R= 1 0 0 0 0 1 1 −2 −6 0 dalla cui analisi se vede facilmente che le prime due colonne, e cioè la matrice di ingresso G, non sono sufficienti a generare uno spazio che contenga il punto desiderato, mentre le prime tre colonne generano uno spazio sufficientemente ampio (anzi, generano l’intero spazio di stato). Il punto di interesse può quindi essere raggiunto in due passi, e la sequenza di controllo che ottenere ciò è soluzione del sistema algebrico ottenuto combinando le prime tre colonne della matrice di raggiungibilità: 1 0 0 1 u1 (1) 2 = 1 0 0 u2 (1) (9.40) 1 0 1 1 u1 (0) la cui soluzione è data da: u1 (0) = 1, u2 (1) = 0, u1 (1) = 2, e quindi il segnale di ingresso complessivo è dato da: u(0) = (1, 0)T , u(1) = (2, 0)T . T T . a partire dallo stato x0 = 0 0 1 Se possibile, raggiungere in tre passi lo stato xf = 2 1 1 Per la linearità del sistema, il problema può essere risolto se esiste una sequenza di ingresso che consente di raggiungere in tre passi il punto xf − F 3 x0 . Il problema ha sicuramente soluzione, poichè il sistema è raggiungibile, e quindi un qualunque punto dello spazio di stato può essere raggiunto, anche il punto 2 xf − F 3 x0 = 2 . −4 Per raggiungere tale punto in tre passi è possibile agire in diversi modi, corrispondenti a diverse scelte delle colonne indipendenti della matrice di raggiungibilità. Una possibilità è quella di usare un solo ingresso, ad esempio il primo. Il sistema di equazioni di interesse, tenendo conto della forma della matrice di raggiungibilità da un solo ingresso R1 , è quindi: 2 0 1 2 u1 (2) 2 = 1 0 1 u1 (1) (9.41) −4 0 1 −6 u1 (0) la cui soluzione è data da: u1 (0) = 3/4, u1 (1) = 1/2, u1 (2) = 5/4, e quindi il segnale di ingresso complessivo è dato da: u(0) = (3/4, 0)T , u(1) = (1/2, 0)T , u(2) = (5/4, 0)T . Scegliendo invece di usare solo il secondo ingresso si sarebbe trovato il segnale: u(0) = (0, 2)T , u(1) = (0, 4)T , u(2) = (0, 4)T . Infine, scegliendo entrambi gli ingressi, e considerando, ad esempio, le prime tre colonne della matrice di raggiungibilità, si avrebbe la sequenza: u(0) = (0, 0)T , u(1) = (2, 0)T , u(2) = (2, −6)T . Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-264 Valutare l’osservabilità sulla base dell’uscita y1 , sulla base dell’uscita y2 , e per mezzo di entrambe le uscite. Per quanto riguarda l’osservabilità per mezzo della sola prima uscita si deve valutare il rango della matrice h1 O1 = h1 F h1 F 2 ottenendo: 1 O1 = −1 5 2 1 2 −1 −2 1 il cui rango è tre, e quindi il sistema è osservabile. Analogamente, l’osservabilità per mezzo della seconda uscita è valutabile dalla matrice: h2 1 −1 0 1 1 O2 = h2 F = 0 h2 F 2 −3 1 −2 il cui rango è due, e quindi il sistema, disponendo solo della seconda uscita, non è osservabile. Ovviamente, poiché il sistema è osservabile dalla prima uscita, lo è anche da entrambe. Data la sequenza di uscita y(0) = [4 0]T , y(1) = [0 2]T , y(2) = [4 − 4]T , ottenuta in evoluzione libera, osservare, se possibile, lo stato iniziale sulla base della prima uscita, sulla base della seconda uscita e sulla base di entrambe le uscite. Per quanto riguarda la possibilità di osservare lo stato iniziale, ciò è possibile solo dalla prima uscita o da entrambe, mentre non è possibile dalla sola seconda uscita. Ciò significa che è del tutto inutile determinare lo stato iniziale, anche nella forma in cui compaiono una o più indeterminate. Infatti, se un sistema non è osservabile, non è mai possibile “osservare” lo stato iniziale, cioè, calcolarlo a partire da misure dell’uscita e dell’ingresso. Per quanto riguarda la determinazione dello stato iniziale a partire dalla sequenza di uscita data, considerando la sola prima componente si ha il sistema: y1 (0) y1 (1) = O1 x(0) (9.42) y1 (2) e cioè: la cui soluzione è data da: 4 1 2 1 x1 (0) 0 = −1 2 −1 x2 (0) , 4 5 −2 1 x3 (0) 1 x1 (0) x2 (0) = 1 . 1 x3 (0) (9.43) Volendo determinare lo stato iniziale sulla base di entrambe le uscite, si può procedere con la pseudoinversa sinistra, e cioè, dato il sistema di equazioni algebriche: y1 (0) y2 (0) y1 (1) ȳ = (9.44) y2 (1) = Θx(0), y1 (2) y2 (2) la condizione iniziale è data da: x(0) = (ΘT Θ)−1 ΘY ȳ, ottenendo x(0) = [1 1 1]T , come in (9.2.2) (ovviamente!). Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-265 In alternativa, si può procedere selezionando tre righe indipendenti della matrice Θ e le rispettive uscite. nel caso in esame, si potrebbe considerare il sistema: y1 (0) h1 y2 (0) = h2 x(0), (9.45) y1 (1) h1 F e cioeè 4 1 2 1 x1 (0) 0 = 1 −1 0 x2 (0) , 0 −1 2 −1 x3 (0) (9.46) la cui soluzione, ovviamente, è ancora x(0) = [1 1 1]T . Determinare la decomposizione rispetto alla osservabilità, considerando solo la prima uscita e considerando solo la seconda uscita. Per ricostruire lo stato sulla base della prima uscita o di entrambe le uscite, si può partire dalla soluzione del punto precedente. Poiché lo stato iniziale è x(0) = [1 1 1]T , e tenendo conto del fatto che le uscite misurate rappresentano l’evoluzione libera nell’uscita, lo stato al passo k = 3 è semplicemente: 1 x(3) = F 3 x(0) = −1 . (9.47) 9 Nel caso in cui sia disponibile solo la misura della seconda uscita, si determinare l’insieme degli stati iniziali soluzione dell’equazione: y2 (0) y2 (1) = Θ2 x(0), (9.48) y2 (2) e cioè: la cui soluzione è data da: x1 (0) − x2 (0) x2 (0) + x3 (0) −3x1 (0) + x2 (0) − 2x3 (0) x1 (0) x(0) = x1 (0) . 2 − x1 (0) = 0 = 2 = −4 (9.49) (9.50) A partire da tale stato iniziale, non completamente determinato, l’evoluzione libera del sistema è pari a: x1 (0) + 2 x1 (0) − 2 x1 (0) x(1) = F x(0) = x1 (0) , x(2) = F 2 x(0) = x1 (0) + 2 , x(3) = F 3 x(0) = x1 (0) − 2 , x1 (0) − 4 −x1 (0) −x1 (0) + 10 (9.51) da cui emerge chiaramente la non ricostruibilità, perché permane l’indeterminazione associata allo stato iniziale. Del resto, la matrice F non ha autovalori nulli, e quindi la non osservabilità implica la non ricostruibilità. Progettare una legge di controllo in retroazione dallo stato per assegnare tutti gli autovalori in zero, utilizzando entrambi gli ingressi ed imponendo un solo miniblocco di Jordan per la matrice retroazionata. La decomposizione del sistema rispetto alla osservabilità, sulla base della sola prima uscita, non è rilevante, perché il sistema è completamente osservabile. La decomposizione sarebbe quindi solo un cambio di coordinate. Viceversa, nel caso in cui sia disponibile solo la seconda uscita, la decomposizione è significativa. Un primo modo di procedere è basato sull’uso del sistema duale. Il sistema di interesse è Σ2 (F, G, h2 ), con G = [g1 g2 ], il cui duale è dato da: Σ∗2 (F T , hT2 , GT ) =: Σ∗ (F ∗ , g2∗ , H ∗ ). La matrice di raggiungibilità del duale è pari a: 1 0 −3 ∗ g2 F ∗ g2∗ (F ∗ )2 g2∗ = −1 1 1 , (9.52) 0 1 −2 Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-266 ed una base per il sottospazio degli stai (duali) raggiungibili è data da: 1 0 v1 = −1 , v2 = 1 . 0 1 Una possibile scelta per la nuova base è quindi: 1 0 0 T ∗ = −1 1 1 , 0 1 0 (T ∗ )−1 (9.53) 0 1 . −1 1 0 = 0 0 1 1 (9.54) La decomposizione rispetto alla raggiungibilità del sistema duale è quindi data da: 0 −3 1 1 −1 1 ∗ −1 ∗ ∗ ∗ −1 ∗ ∗ ∗ ∗ ∗ ∗ ¯ ¯ ¯ F = (T ) F T = 1 −2 0 , g2 = (T ) g2 = 0 , H = H T = 0 1 0 0 1 0 1 0 , (9.55) e quindi, tornando al sistema originale, al decomposizione rispetto all’osservabilità, qualora sia disponibile solo la seconda uscita, data da: 0 1 0 −1 0 F̂ = (F¯∗ )T = −3 −2 0 , Ĝ = (H¯∗ )T = 1 1 , hˆ2 = (g¯2∗ )T = 1 0 0 . (9.56) 1 0 1 1 0 Il sottosistema osservabile è dato da: 0 1 ˆ F11 = , −3 −2 Ĝ1 = −1 0 1 1 mentre il sottosistema non osservabile è dato da: Fˆ22 = 1 , Ĝ2 = 1 0 , , hˆ2,1 = hˆ2,2 = 0 1 0 , (9.57) . (9.58) Si noti, come già verificato al punto precedente, che il sottosistema non osservabile ha, come unico autovalore, λ = 1, che è non nullo, e quindi il sistema, complessivamente, non è osservabile. Un secondo modo di procedere è il seguente. A partire dalla matrice di osservabilità Θ, si determinano due righe indipendenti, che costituiscono un sottoinsieme delle nuove coordinate, e si determina poi un terzo vettore riga che completi il nuovo sistema di coordinate (cioè, che sia indipendente dalle due righe già scelte). Nel caso in esame si ha: r1 = 1 −1 0 , r2 = 0 1 1 , (9.59) ed una possibile scelta per il terzo vettore è: r3 = cui corrisponde la matrice di trasformazione 1 T −1 = 0 0 Il sistema, nelle nuove coordinate, è 0 1 hatF = T −1 F T = −3 −2 1 0 0 1 0 di coordinate: −1 0 1 1 1 , T = 0 1 0 0 (9.60) 0 1 0 1 . 1 −1 quindi: 0 −1 0 0 , Ĝ = T −1 G = 1 1 , 1 1 0 hˆ2 = h2 T = (9.61) 1 0 0 , (9.62) che coincide con quanto trovato prima. Progettare una legge di controllo in retroazione dallo stato per assegnare tutti gli autovalori in zero, utilizzando entrambi gli ingressi ed imponendo due miniblocchi di Jordan per la matrice retroazionata. Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-267 La raggiungiblità del sistema verificata in precedenza garantisce l’esistenza di una legge di controllo in reazione dallo stato che consente di allocare arbitrariamente tutti gli autovalori. Per determinare tale retroazione, si procede in modo classico: forma canonica di controllore a due ingressi e retroazione basata su entrambi gli ingressi. Il calcolo della matrice K corrispondente è lasciato per esercizio. Progettare un osservatore con dinamica d’errore convergente a zero in tempo finito, utilizzando entrambe le uscite ed imponendo un solo miniblocco di Jordan per la matrice della dinamica d’errore. Si procede come al punto precedente, salvo lavorare sul sistema duale. La legge di retroazione duale, cioè l’iniezione dall’uscita, esiste perchè il sistema è osservabile se si dispone di entrambe le uscite. Capitolo 9: Esercizi riepilogo 9.2.3 [Ed. 2015, V 4.0 - PV - UniPG] - 9-268 Esercizio 9.3: traccia della soluzione a) Il minimo comune multiplo dei due denominatori è dato da: d(z) = (z + 1)(z + 2)2 = z 3 + 5z 2 + 8z + 4, mentre la matrice polinomiale B(z) = d(z)W (z) è pari a: B(z) = d(z)W (z) = z 2 + 2z z 2 + 2z + 1 = 1 1 z 2 + 2 2 z 0 1 . (9.63) Poiché il sistema ha una sola uscita, è conveniente utilizzare la estensione della forma canonica di osservatore, data da: 0 0 −4 0 1 Fo = 1 0 −8 , go = 2 2 , Ho = 1 0 0 . (9.64) 0 1 −5 1 1 Si verifica facilmente che la matrice R = [go Fo go Fo2 go ] ha rango pieno, e quindi la realizzazione, che è osservabile per costruzione, è anche raggiungibile e quindi minima. b) Legge di controllo in retroazione statica dallo stato. Una legge del tipo cercato esiste sicuramente, perché il sistema di interesse è una realizzazione minima, e quindi è raggiungibile. La soluzione dell’esercizio è “classica”. c) Valutare il numero di miniblocchi. L’esercizio si risolve facilmente, ricordando che il numero di miniblocchi di una matrice F associati ad un certo autovalore è pari alla nullità della matrice F − λI. In questa caso si tratta di studiare la nullità della matrice F + GK − λI, per λ = 0, e quindi la nullità di F + GK. Lo specifico risultato ottenuto dipende dal modo in cui è stata sintetizzata la matrice di retroazione K. Comunque, si avranno uno o due miniblocchi, mentre non vi potranno mai essere tre miniblocchi. d) Progettare un osservatore. Un osservatore asintotico dello stato per la realizzazione minima determinata esiste sicuramente, perché la realizzazione è osservabile (per costruzione). Il progetto dell’osservatore è “classico”. e) Progettare un regolatore in reazione dinamica dall’uscita. Un regolatore in reazione dinamica dall’uscita si ottiene semplicemente scegliendo come legge di retroazione u = K x̂ + v, in cui K è, ad esempio, la matrice progettata al punto b) ed x̂ è lo stato dell’osservatore progettato al punto d). f) Calcolare la risposta al gradino unitario. L’esercizio relativo ad un segnale a gradino unitario sul primo ingresso e nullo sul secondo si risolve antitrasformando la funzione z z ; (9.65) w1 (z) = 2 z + 3z + 2 z − 1 il caso di gradino unitario sul secondo ingresso e primo ingresso nullo si risolve antitrasformando w2 (z) = z z+1 , z 2 + 4z + 4 z − 1 (9.66) ed infine il caso di gradino unitario su entrambi gli ingressi si ottiene, tenendo conto del principio di sovrapposizione degli effetti, sommando le due risposte forzate precedenti. g) Risposta completa al gradino per il sistema a ciclo chiuso. La risposta completa al gradino è limitata se il sistema è esternamente stabile. Poiché il sistema a ciclo è internamente stabile, è anche esternamente stabile, e cioè stabile in senso BIBO. La risposta al gradino è quindi limitata. Inoltre, poiché il sistema a ciclo chiuso è asintoticamente stabile, nella risposta completa tutti i termini (cioè tutti i modi) che dipendono dal sistema sono convergenti a zero, e quindi l’unico termine che contribuisce la limite per t tendente ad infinito è quello legato all’ingresso, che è costante. Esiste quindi il limite in oggetto, ed è pari alla risposta permanente del sistema a ciclo chiuso per ingresso a gradino unitario. Capitolo 9: Esercizi riepilogo 9.2.4 [Ed. 2015, V 4.0 - PV - UniPG] - 9-269 Esercizio 9.4: traccia della soluzione 1. Osservabilità e ricostruibilità. Si trova facilmente che il sistema non è osservabile né dalla prima uscita da sola né dalla seconda, mentre è osservabile utilizzando entrambe le uscite. Infatti: O1 = O2 = O = h1 1 0 1 h1 F = 1 0 1 , rango [O1 ] = 1, h1 F 2 1 0 1 0 −1 1 h2 h2 F = 0 −2 0 , rango [O2 ] = 2, 0 0 0 h2 F 2 H HF , rango [O] = 3. HF 2 (9.67) (9.68) (9.69) La ricostruibilità si può verificare con un criterio diretto, oppure analizzando la controllabilità del duale. Un primo criterio diretto di ricostruibilità è dato, nei tre casi rispettivamente, da: XN O,1 XN O,2 XN O ⊆ ⊆ ⊆ Ker F 3 , Ker F 3 , (9.70) (9.71) Ker F 3 , (9.72) in cui XN O,i indica il sottospazio degli stati non osservabili a partire dalla misura della i-esima uscita, i = 1, 2, e XN O indica il sottospazio degli stati non osservabili a partire dalla misura dell’intera uscita. Per i vari sottospazi si trova facilmente: F3 = O1 = O2 = 1 0 0 1 1 1 0 0 0 1 1 0 , Ker F 3 = span 0 0 −1 0 1 1 0 1 , Ker O1 = span 0 0 1 −1 −1 1 1 −2 0 , Ker O2 = span 0 0 0 0 0 0 0 0 ; 1 , 0 0 ; 1 , 0 . (9.73) (9.74) (9.75) Da quanto sopra si vede facilmente che la condizione (9.70) è verificata, e quindi il sistema è ricostruibile a partire dalla misura della prima uscita; infatti i vettori che descrivono una base di XN O,1 sono combinazione lineare dei vettori che descrivono una base di Ker F 3 . Viceversa, poichè il vettore che descrive una base di XN O,2 non è combinazione lineare della base di Ker F 3 , la condizione (9.71) non è verificata e quindi il sistema non è ricostruibile a partire dalla misura della seconda uscita. Infine, poichè il sistema, a partire da entrambe le uscite, è osservabile, è anche ricostruibile, e quindi la condizione (9.72) vale sicuramente. Un secondo metodo per la verifica della ricostruibilità è il criterio PBH. Nel caso del sistema in esame gli autovalori della matrice F sono λ = 0, molteplcità algebrica pari a 2, e λ = 1, molteplcità algebrica pari ad 1, cioè sp {F } = {0, 0, 1}. Per verificare la ricostruibilità si deve quindi studiare il solo caso Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-270 dell’autovalore non nullo, λ = 1. I test di interesse sono quindi: 0 2 1 0 −1 0 F −I rango = rango 0 −2 −1 = 3, h1 1 0 1 0 2 1 0 −1 0 F −I rango = rango 0 −2 −1 = 2, h2 0 −1 1 (9.76) (9.77) e quindi il sistema è ricostruibile a partire da misure della prima uscita e non lo è a partire da misure della seconda uscita (la matrice di interesse ha infatti una colonna nulla). Un ulteriore test di ricostruibilità può essere condotto studiando la controllabilità del sistema duale. Nel caso in esame, indicato con Σ(F ∗ , G∗ , h∗ ) il sistema duale, le condizioni da verificare sono: Im [(F ∗ )3 ] ⊆ Im [R∗1 ], Im [(F ∗ )3 ] ⊆ Im [R∗2 ], con: 1 (F ∗ )3 = (F 3 )T = 0 0 0 1 0 0 , 0 0 1 1 R∗1 = O1T = 0 0 1 1 da cui si ricavano facilmente le condizioni: rango [R∗1 ] = rango [R∗1 |(F ∗ )3 ], 1 0 , 1 0 0 R∗2 = O2T = −1 −2 1 0 rango [R∗2 ] 6= rango [R∗2 |(F ∗ )3 ], 0 0 , 0 (9.78) e quindi il sistema duale è controllabile tramite il primo ingresso e non lo è tramite il secondo. Ne segue, come già noto, che il sistema di partenza è ricostruibile sulla base della misura delle prima uscita, ma non lo è se si dispone solo della misura della seconda uscita. 2. Uscita in evoluzione libera pari a y(0) = (2 0)T , y(1) = (2 − 2)T , y(2) = (2 0)T . Poiché il sistema non è osservabile da una singola uscita, non è possibile valutare lo stato iniziale a partire dalla misura di una sola uscita. Infatti, cercando di risolvere il sistema: y1 (0) h1 y1 (1) = h1 F x(0) y1 (2) h1 F 2 che corrisponde al caso in cui si possa misurare solo 2 1 2 = 1 2 1 la cui soluzione in x(0) è data da: la prima uscita, si trova: 0 1 α 0 1 β 0 1 γ 2−γ x(0) = β γ che, come previsto, non corrisponde ad un singolo punto. Si ha anzi dipendenza da due parametri, in accordo con il fatto che la corrispondente matrice di osservabilità O1 ha nullità pari a due. Volendo poi valutare la possibilità di ricostruire lo stato ai passi t = 1 e t = 2, si possono calcolare x(1) ed x(2). Si trova: 1 2 1 2−γ 2 + 2β , 0 x(1) = F x(0) = 0 0 0 β = 0 −2 0 γ 2β Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-271 1 2 1 2 + 2β 2 = 0 , 0 x(2) = F x(1) = 0 0 0 0 −2 0 2β 0 da cui si vede che, se sono disponibili le misure della sola prima uscita, lo stato non è ricostruibile al primo passo (t = 1), è invece ricostruibile al passo t = 2 (e successivi!). Per quanto riguarda la possibilità di osservare e ricostruire lo stato sulla base di misure della sola seconda uscita, si deve considerare il sistema: y2 (0) h2 y2 (1) = h2 F x(0). y2 (2) h2 F 2 Si trova: 0 0 −1 1 α −2 = 0 −2 0 β 0 0 0 0 γ cui corrisponde una soluzione in x(0) data da: α x(0) = 1 . 1 Ovviamente, per una opportuna scelta dei parametri liberi, la condizione iniziale trovata in questo caso e quella trovata nel caso di misure della prima uscita coincidono. In particolare, si può scegliere α = 1, β = 1, γ = 1. Volendo poi valutare la possibilità di ricostruire lo stato al passo t = 1 e t = 2, si possono calcolare x(1) ed x(2). Si trova: 1 2 1 α α+3 x(1) = F x(0) = 0 0 0 1 = 0 , 0 −2 0 1 −2 1 2 1 α+3 α+1 x(2) = F x(1) = 0 0 0 0 = 0 . 0 −2 0 −2 0 Calcolando anche lo stato al passo t = 3: 1 x(3) = F x(2) = 0 0 2 1 α+1 α+1 0 0 0 = 0 . −2 0 0 0 Il sistema infatti non è ricostruibile solo sulla base della misura della seconda uscita. Si noti che, per il valore α = 1 per cui le due condizioni iniziali coincidono, anche lo stato al passo t = 2 appena calcolato coincide con quello ricostruito nel caso di misura di y1 (ovviamente). Infine, volendo osservare lo stato iniziale 2 0 2 −2 2 0 a partire da entrambe le uscite, si trova il sistema: 1 0 1 0 −1 1 α 1 0 1 = β . 0 −2 0 γ 1 0 1 0 0 0 (9.79) Un possibile modo per risolvere questo sistema, che ammette sempre almeno una soluzione, e ne ammette solo una se il sistema è osservabile, come in questo caso, è quello di scegliere un insieme di 3 righe indipendenti; ad esempio la prima, la seconda e la quarta, ottenendo: 2 1 0 1 α 0 = 0 −1 1 β . (9.80) −2 0 −2 0 γ Capitolo 9: Esercizi riepilogo [Ed. 2015, V 4.0 - PV - UniPG] - 9-272 La soluzione di tale sistema, e cioeè la condizione iniziale cercata, è: 1 x(0) = 1 . 1 (9.81) Un altro metodo è basato sulla pseudo inversa sinistra: 1 x(0) = (OT O)−1 OT ȳ = 1 . 1 (9.82) Ovviamente, la condizione iniziale appena trovata si ottiene da quelle determinate in precedenza scegliendo opportunamente i parametri liberi. In particolare, nel primo caso β = 1, γ = 1, nel secondo caso α = 1. 3. Esistenza e sintesi dell’osservatore. L’osservatore cercato esiste sicuramente se si dispone della misura di entrambe le uscite, perché in tal caso il sistema è osservabile. L’osservatore con dinamica d’errore convergente in tempo finito esiste anche se si dispone solo della misura della prima uscita, perché in questo caso il sistema è ricostruibile. 4. Esistenza e sintesi di un controllore in reazione statica dallo stato. La matrice di raggiungibilità del sistema è data da: 1 −1 1 R = −1 0 0 0 2 0 (9.83) il cui rango è pari a tre, e quindi il sistema è raggiungibile. È allora possibile calcolare una matrice di retroazione dallo stato che renda il sistema a ciclo chiuso asintoticamente stabile. La procedura di sintesi è “classica”. 5. Esistenza e calcolo di un controllore in reazione dinamica dall’uscita. Per quanto visto in precedenza, un tale regolatore esiste, ed è ottenibile, ad esempio, tramite la legge di controllo: u = K x̂ + v, (9.84) in cui la matrice K è quella progettata al punto 4 e x̂ è la stima dello stato ottenuta tramite l’osservatore asintotico: x̂(k + 1) = F x̂(k) + gu(k) + L(H x̂(k) − y) (9.85) progettato al punto 3. Appendice A Strumenti geometrici per l’analisi di sistemi dinamici lineari A.1 Autovalori ed autovettori Data una matrice A quadrata, ad elementi reali, di dimensione n × n (brevemente, A ∈ Rn×n ), dato uno scalare λ ed un vettore v, si dice che λ è un autovalore di A associato all’autovettore v se vale la condizione: Av = λv ⇔ (A − λI)v = 0. (A.1) Si noti che, pur essendo la matrice A ad elementi reali, i suoi autovalori ed autovettori possono essere complessi coniugati. Data una matrice A, la totalità dei suoi autovalori si determina risolvendo il suo polinomio caratteristico: pA (λ) := det(λI − A), (A.2) le cui radici corrispondono ai valori di λ per i quali il nucleo della matrice (λI − A) è non banale. La molteplicità di uno scalare λ come radice del polinomio caratteristico di una matrice è detta molteplicità algebrica di tale autovalore. Si noti che gli autovettori sono determinati a meno di una costante, e quindi: un autovettore individua sempre un sottospazio vettoriale, i cui elementi sono tutti autovettori associati allo stesso autovalore. Tale sottospazio V, detto anche autospazio, è quindi individuato da: V = Im(v : (A − λI)v = 0), (A.3) V = ker(A − λI). (A.4) o, ancora più propriamente, da: Si ricordi che una matrice quadrata, ad elementi reali, di dimensione n × n è interpretabile come rappresentazione di un operatore lineare, che quindi opera trasformazioni di roto-traslazione su vettori. Allora, un autovettore individua una sorta di “direzione privilegiata” di tale operatore, lungo la quale non vi è rotazione, ma solo variazione della lunghezza, e l’autovalore indica appunto l’entità di tale variazione di lunghezza e/o verso. Infine, si noti che, data una matrice A ed una autovalore λ, a tale autovalore possono essere associati anche più autovettori indipendenti. In tal caso, l’autospazio relativo ha dimensione maggiore di uno, e pari alla dimensione del nucleo della matrice (A − λI). Tale dimensione viene indicata con il termine molteplicità geometrica dell’autovettore λ. Dato un sistema dinamico a tempo continuo o a tempo discreto ∆x = Ax + Bu, (A.5) in cui l’operatore ∆ indica una derivata temporale (∆x(t) = ẋ(t)) nel caso di sistemi a tempo continuo o una traslazione temporale (∆x(k) = x(k + 1)) nel caso di sistemi a tempo discreto, gli autovalori della matrice A sono detti anche autovalori del sistema dinamico. 273 : Appendice: strumenti geometrici ed algebrici [Ed. 2015, V 4.0 - PV - UniPG] - A-274 Il polinomio caratteristico ha la importante proprietà di essere un polinomio annullatore della matrice stessa. In altre parole, se si calcola una combinazione lineare delle potenze di una matrice con i coefficienti del suo polinomio caratteristico, si ottiene una matrice nulla. Tale risultato, di uso molto frequente, va sotto il nome di teorema di Cayley-Hamilton. Le potenze della matrice vanno intese nel senso dell’usuale prodotto righe-colonne. Teorema A.1 (Cayley-Hamilton) Sia data una matrice A quadrata, ad elementi reali, di dimesione n × n, e sia pA (λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 il suo polinomio caratteristico. Allora, il polinomio pA (λ) è annullatore della matrice: pA (A) = An + an−1 An−1 + · · · + a1 A + a0 I = 0, (A.6) e quindi: An = −an−1 An−1 − · · · − a1 A − a0 I. (A.7) Il polinomio caratteristico non è l’unico polinomio annullatore. Data una matrice A quadrata, ad elementi reali, di dimesione n × n, il polinomio di grado minore che annulla tale matrice è detto polinomio minimo della stessa. Si noti che polinomio caratteristico e polinomio minimo hanno le stesse radici, e si differenziano solo per la molteplicità delle stesse. A.2 Trasformazioni di similarità algebrica Nello studio dei sistemi dinamici, ed in generale nello studio di sistemi immersi in spazi vettoriali, è spesso utile, per evidenziare proprietà di interesse o per rendere più agevole il calcolo di funzioni ed opearazioni specifiche, cambiare il sistema di coordinate nelle quali si rappresentano lo spazio di stato e le matrici che descrivono un assegnato sistema. Cambiare coordinate è del tutto equivalente a cambiare base nello spazio di stato sottostante la specifica rappresentazione in uso per il sistema. Tale opearazione, nel contesto dei sistemi dinamici, viene detta trasformazione di similarità od anche trasformazione di equivalenza algebrica, e due diverse rappresentazione dello stesso sistema (o, in generale, due sistemi) legati da tali trasformazioni sono detti sistemi (algebricamente) equivalenti od anche sistemi simili. Si consideri quindi un sistema dinamico a tempo continuo o a tempo discreto, indifferentemente: ∆x = y = Ax + Bu, Cx + Du. (A.8) (A.9) Si consideri un nuovo sistema di coordinate: z = T −1 x. (A.10) −1 dove T indica una matrice quadrata, non singolare, di dimensione n. La relazione (A.10) definisce una trasformazione di coordinate. Il vettore x indica le vecchie coordinate, il vettore z le nuove coordinate, la matrice T −1 indica la trasformazione lineare tra i due sistemi di coordinate. Una trasformazione lineare di coordinate è una buona trasformazione, o più rigorosamente, è una trasformazione ben definita, se e solo se la matrice di trasformazione è non singolare, e quindi invertibile. In tal caso, è immediato tornare alle vecchie coordinate: x = T z. (A.11) La condizione di invertibilità della tasformazione, come è ben intuibile, è sempre richiesta. Si noti che la trasformazione considerata è lineare. Benché il concetto di trasformazione di coordinate possa essere esteso anche al caso dei sistemi nonlineari, in questa sede ci si limita al caso di trasformazioni lineari, dato il contesto. Di norma, nel definire una trasformazione di coordinate si definisce direttamente la matrice T −1 nei casi in cui siano note le nuove coordinate z, mentre si definisce la matrice di trasformazione T nel caso in cui sia noto il nuovo insieme di vettori di base. Più precisamente, per lo spazio vettoriale di interesse, data una nuova base descritta dagli n vettori linearmente indipendenti v1 v2 · · · vn , le matrice di trasformazione T e T −1 sono date da: (A.12) T = v1 v2 · · · vn , T −1 = Inv(T ). Si consideri ora un sistema dinamico, a tempo continuo o a tempo discreto, indifferentemente: ∆x = y = Ax + Bu, Cx + Du (A.13) (A.14) : Appendice: strumenti geometrici ed algebrici [Ed. 2015, V 4.0 - PV - UniPG] - A-275 ed un cambio di coordinate z = T −1 x. Quale è la rappresentazione di tale sistema nelle nuove coordinate? Per determinare tale rappresentazione, si può procedere molto semplicemente applicando la trasformazione ai due lati delle equazioni che definiscono il modello. Poiché la matrice di trasformazione non dipende dal tempo, è ovvio che ∆z = T −1 ∆x, e quindi: ∆z y = = T −1 ∆x = T −1 Ax + T −1 Bu, Cx + Du. (A.15) (A.16) Utilizzando poi il legame inverso x = T z, si trova: ∆z y T −1 AT z + T −1 Bu, CT z + Du. = = (A.17) (A.18) Il sistema descritto dalle (A.17), (A.18) è ancora un sistema lineare, con diverse rappresentazioni delle matrici caratteristiche. In particolare, poste le condizioni: Ā = B̄ = T −1 AT T −1 B (A.19) (A.20) C̄ D̄ CT D (A.21) (A.22) = = (A.23) si ricava: ∆z = Āz + B̄u, (A.24) y = C̄z + D̄u. (A.25) Si sottolinea ancora il fatto che le equazioni (A.17), (A.18) e le equazioni (A.24), (A.25) sono due rappresentazioni simili, o equivalenti, dello stesso sistema dinamico. Sono, con linguaggio informale, “due punti di vista diversi sullo stesso sistema”. Tali rappresentazioni devono quindi avere le stesse proprietà fondamentali. In particolare, dati due sistemi algebricamente equivalenti Σ(A, B, C, D) e Σ(Ā, B̄, C̄, D̄), si hanno le seguenti due proprietà fondamentali: Proprietà A.1 Gli autovalori di un sistema dinamico sono invarianti rispetto a trasformazioni di similarità algebrica, cioè: pA (λ) = pĀ (λ) (A.26) Proprietà A.2 La matrice di trasferimento di un sistema dinamico è invariante rispetto a trasformazioni di similarità algebrica, cioè: W (s) = C(sI − A)−1 B + D = C̄(sI − Ā)−1 B̄ + D̄ = W̄ (s). (A.27) Entrambe le proprietà si dimostrano facilmente. Si ricordi che, date due matrici quadrate M ed N , delle stesse dimensioni, si ha: det(M · N ) = det(M ) · det(N ), ed inoltre det(M −1 ) = 1/det(M ) (assumendo M invertibile!). Ed ancora, dato il prodotto M · N , si ha: (M · N )−1 = N −1 · M −1 . Per la prima proprietà si ottiene quindi: pĀ (λ) = = det(sI − Ā) = det(sT −1 T − T −1 AT ) = det[T −1 (sI − A)T ] det(T −1 ) · det(sI − A) det(T ) = det(sI − A) = pA (λ). (A.28) (A.29) Similmente, per la seconda proprietà si ottiene: W̄ (s) = C̄(sI − Ā)−1 B̄ + D̄ = CT (sT −1 T − T −1 AT )−1 T −1 B + D −1 −1 = CT T −1 (sI − A)T T B+D −1 −1 −1 = CT T (sI − A) T T B + D = C(sI − A)−1 B + D = W (s) (A.30) (A.31) (A.32) (A.33) (A.34) : Appendice: strumenti geometrici ed algebrici A.3 A.3.1 [Ed. 2015, V 4.0 - PV - UniPG] - A-276 Forme canoniche Forma diagonale Si consideri il caso di un sistema descritto da una matrice dinamica A non diagonale, ma diagonalizzabile. Ciò implica l’esistenza di una matrice di trasformazione di coordinate T , non singolare, tale che, nelle nuove coordinate, la matrice A diviene una matrice Λ con struttura diagonale: λ1 0 · · · 0 0 λ2 · · · 0 Λ = T −1 AT, . (A.35) .. .. , .. .. . . . 0 0 ··· λn in cui gli elementi λi , i = 1, 2, . . . , n, sono gli autovalori della matrice A (si ricordi che gli autovalori sono invarianti rispetto a trasformazioni di simularità algebrica). In particolare, una matrice A, di dimensione n× n, è diagonalizzabile se ha n autovettori indipendenti. In tal caso, la matrice di trasformazione T che consente la diagonalizzazione è la matrice costituita dagli n autovettori. La matrice di cambio di coordinate che consente di diagonalizzare la matrice A è costituita dagli n autovettori della matrice stessa (se tali autovettori non sono indipendenti, la matrice non è diagonalizzabile, come noto). Cioè, detti vi , i = 1, 2, · · · , n, gli autovettori associati, rispettivamente, agli autovalori λi , i = 1, 2, · · · , n, la matrice di trasformazione è data da: (A.36) T = v1 v2 · · · vn , come si deduce facilmente anche dalla relazione: AT = T Λ = T A.3.2 λ1 0 .. . 0 λ2 .. . ··· ··· .. . 0 0 .. . 0 0 ··· λn . (A.37) Forma canonica reale La forma diagonale di una matrice con autovalori complessi non è idonea allo studio di sistemi dinamici, perchè nel suo esponenziali compaiono funzioni complesse, che non sono ammissibili per rappresentare il comportamento di sistemi reali. In tal caso si ricorre alla forma canonica reale, che consente di tenere conto in forma strutturale di tale necessità. Data una matrice A di dimensione due, con autovalori complessi coniugati λ = σ + ω e λ∗ = σ − ω, è facile vedere che gli autovettori relativi v = vR + vI e v ∗ = vR − vI sono anch’essi complessi coniugati, ed inoltre il vettore parte reale vR ed il vettore parte immaginaria vI sono linearmente indipendenti. Scelti come nuovi vettori di base vR e vI , la matrice A, nelle nuove coordinate, assume la forma seguente, detta appunto forma canonica reale: −1 σ ω A vR vI = Ā := T −1 AT = vR vI . (A.38) −ω σ Per dimostrare tale affermazione, si riscriva la relazione di similarità algebrica in termini della sola matrice T : vR vI Ā = A vR vI . (A.39) Utilizzando la notazione [M ]i per indicare la colonna i-esima della matrice M , dalla relazione precedente segue: vR vI Ā 1 = AvR (A.40) Per quanto riguarda il lato destro dell’uguaglianza precedente, tenendo conto della definizione di autovalore ed autovettore, cioè Av = (σ + ω)v, si ha: Real(Av) = AvR = Real(λv) = σvR − ωvI (A.41) mentre per il lato sinistro si ha: vR vI Ā 1 = vR vI Ā 1 . (A.42) : Appendice: strumenti geometrici ed algebrici [Ed. 2015, V 4.0 - PV - UniPG] - Dalle due eguaglianze precedenti segue immediatamente: σ Ā 1 = . −ω A-277 (A.43) In modo simile, analizzando la seconda colonna dei lati destro e sinistro si trova, rispettivamente: vR vI Ā 2 = vR vI vR vI Ā 2 = AvI , Ā 2 , (A.44) da cui segue Ā 2 = La forma canonica reale è quindi pari a: Ā = A.3.3 σ −ω ω σ ω σ . (A.45) . (A.46) Forma di Jordan Il calcolo della forma di Jordan di un operatore A che mappa lo spazio vettoriale (Cn , C) in se stesso (si considera il caso in cui di tale operatore sia data una rappresentazione reale, cioè sotto forma di una matrice A quadrata ad elementi reali), è basato sul concetto di autovettore generalizzato. Autovettori generalizzati Nel seguito si elencano alcune definizioni fondamentali e vengono presentati, senza prova, alcuni risultati preliminari alla costruzione della forma di Jordan. Definizione A.1 (Autovettore generalizzato) Un vettore v ∈ Rn è detto autovettore generalizzato di ordine k della matrice A (dell’operatore A) associato all’autovalore λ se e solo se valgono le relazioni: (A − λI)k v = 0, k−1 (A − λI) (A.47) v 6= 0. (A.48) Si noti che, per k = 1, si trova la classica definizione di autovettore. Si noti anche che un autovettore generalizzato di ordine maggiore di uno non è un autovettore. Dato un autovettore generalizzato v di ordine k, è naturale associare ad esso una catena di autovettori generalizzati di lunghezza k , costruita nel modo seguente: v (k) := v, (A.49a) (k−1) := v (k−2) := .. . (A − λI)v (k−1) , v (1) := (A − λI)v (2) . v (A − λI)v (k) , (A.49b) (A.49c) (A.49d) (A.49e) È immediato vedere che il generico vettore v (i) , i = 2, . . . , k − 1, è un autovettore generalizzato di ordine i, ed inoltre che il vettore v (1) è un autovettore. I vettori di una catena di autovettori generalizzati sono tra loro linearmente indipendenti, come meglio precisato nei seguenti risultati, fondamentali per la costruzione della forma di Jordan. Teorema A.2 I vettori v (1) , v (2) , . . ., v (k−1) , v (k) , di una catena di autovettori generalizzati di lunghezza k sono tra loro linearmente indipendenti. (1) (2) (k−1) (k) (1) (2) (ℓ−1) (ℓ) Teorema A.3 Date due catene {v1 , v1 , . . ., v1 , v1 } e {v2 , v2 , . . ., v2 , v2 }, di autovettori generalizzati di lunghezza k ed ℓ, rispettivamente, associate ad uno stesso autovalore, se i due autovettori v1 e v2 sono tra loro linearmente indipendenti, allora ogni vettore delle due catene è linearmente indipendente da tutti gli altri k + ℓ − 1 vettori. : Appendice: strumenti geometrici ed algebrici [Ed. 2015, V 4.0 - PV - UniPG] - A-278 Teorema A.4 Date due catene {v (1) , v (2) , . . ., v (k−1) , v (k) } e {u(1) , u(2) , . . ., u(ℓ−1) , u(ℓ) }, di autovettori generalizzati di lunghezza k ed ℓ, rispettivamente, associate a due distinti autovalori, allora ogni vettore delle due catene è linearmente indipendente da tutti gli altri. I tre teoremi precedenti consentono di utilizzare i vettori di catene di autovettori generalizzati come nuovi vettori di base. Per la costruzione della forma di Jordan, ed anche per la determinazione degli autospazi generalizzati A-invarianti, è utile esprimere gli autovettori generalizzati nella seguente forma, dalla quale segue in modo immediato sia la composizione dei sottospazi A-invarianti sia la forma dell’operatore A (di sue porzioni) utilizzando catene di autovettori come nuova base. Dalle (A.49) si ha: Av (1) Av Av (2) (k) = = .. . = λv (1) , λv (2) λv (k) (A.50) +v (1) +v , (A.51) (k−1) (A.52) (A.53) . Nel calcolo e nello studio della forma di Jordan di un operatore (matrice) sono utili i due sottospazi seguenti, detti, rispettivamente, autospazio associato all’autovalore λ ed autospazio generalizzato associato all’autovalore λ): Uλ := ker(A − λI), Nλ := ker(A − λI)m , (A.54) (A.55) ove m indica il più piccolo intero per cui la seguente successione di sottospazi converge: ker(A − λI) ⊂ ker (A − λI)2 ⊂ · · · ker (A − λI)m−1 ⊂ ker [(A − λI)m ] = ker (A − λI)m+1 . (A.56) Sulla base dei concetti e della notazione introdotta, si può ora dare una procedura per il calcolo della forma di Jordan di un operatore A (ovvero, di una sua rappresentazione come matrice reale A). Calcolo della forma di Jordan Sulla base dei risultati della sezione precedente, si può ora descrivere una procedura per il calcolo della forma di Jordan di una data matrice (od operatore). Procedura A.1 (Calcolo della forma di Jordan.) Passo 1. Calcolo del polinomio caratteristico della matrice A e dei suoi autovalori: p(λ) = det(λI − A), con Pr i=1 p(λ) = r Y i=1 (λ − λi )ni , ni = n. Passo 2. Se gli autovalori sono tutti distinti, allora la matrice è diagonalizzabile e si procede calcolando n autovettori indipendenti v1 , v2 , . . ., vn e costruendo la matrice di trasformazione: T = [ v1 v2 ··· vn ] in cui vi è l’autovettore (destro) di A associato all’autovalore λi . In tale caso, l’operatore, nelle nuove coordinate, è rappresentato dalla matrice: λ1 0 · · · 0 0 λ2 · · · 0 A = T −1 AT, A = . .. . .. .. .. . . . 0 0 · · · λn Passo 3. Se gli autovalori non sono tutti distinti, si deve procedere al calcolo delle catene di autovettori generalizzati. : Appendice: strumenti geometrici ed algebrici [Ed. 2015, V 4.0 - PV - UniPG] - A-279 Passo 3.1. Si consideri il generico autovalore λi . La dipendenza esplicita da λi e dall’indice i verrà spesso omessa, nel seguito del passo 3, per semplicità di notazione. Si determini il più piccolo indice m per il quale la successione di sottospazi seguenti diviene stazionaria (si noti che m, anche se non esplicitamente indicato, dipende da λi ): ker(A − λI) ⊂ ker (A − λi I)2 ⊂ · · · ker (A − λi I)m−1 ⊂ ker [(A − λi I)m ] = ker (A − λi I)m+1 Passo 3.2. Si determini il numero e la lunghezza delle varie catene. Sia dj la dimensione del sottospazio ker (A − λi I)j , j = 1, 2, . . . , mi , e sia δj l’incremento nella dimensioni di tali sottospazi, cioè δ1 = d1 , δj = dj − dj−1 , j = 2, 3, . . . , m. Allora, il numero complessivo di catene è pari a d1 . Inoltre, vi sono δm catene di lunghezza m, δm−1 -δm catene di lunghezza pari ad m − 1, e cosı̀ via fino ad avere δ1 -δ2 catene lunghe esattamente uno. Si noti che, complessivamente, le catene sono: δm + (δm−1 − δm ) + (δm−2 − δm−1 ) + · · · + (δ1 − δ2 ) = δ1 = d1 = dim [ker(A − λi I)]. Le dimensioni dei vari sottospazi e le lunghezze delle catene corrispondenti sono sinteticamente indicate nella seguente tabella A.1 . Autospazio generalizzato ker [(A − λI)m ] ker (A − λI)m−1 Dimensione autospazio dm dm−1 Variazione dimensione δm = dm − dm−1 δm−1 = dm−1 − dm−2 ker (A − λI)m−2 dm−2 δm−2 = dm−2 − dm−3 .. . ker (A − λI)2 .. . d2 .. . δ2 = d2 − d1 ker(A − λI) d1 δ1 = d1 Numero catene δm δm δm−1 − δm δm δm−1 − δm δm−2 − δm−1 .. . δm δm−1 − δm .. . Lunghezza catene m m m−1 m m−1 m−2 .. . m m−1 .. . δ2 − δ3 δm δm−1 − δm .. . 2 m m−1 .. . δ2 − δ3 δ1 − δ2 2 1 Tabella A.1: Autospazi generalizzati e catene di autovettori generalizzati (m) (m) (m) Passo 3.3. Si calcolino δm autovettori generalizzati di ordine m, indicati con {v1 , v2 , . . . , vδm }, cioè δm vettori appartenenti a ker [(A − λI)m ], ed indipendenti da tutti i vettori del sottospazio m−1 ker (A − λI) , già determinato. Tali vettori sono gli elementi di partenza per il calcolo di altrettante catene di lunghezza m. (m−1) Passo 3.4. Si calcolino δm autovettori generalizzati di ordine m − 1, indicati con {v1 (m−1) vδm }, come ulteriori elementi delle δm catene di lunghezza m: (m−1) vj (m) := (A − λi I)vj , (m−1) , v2 , . . ., j = 1, 2, . . . , δm . (m−1) Si calcolino infine altri δm−1 − δm autovettori generalizzati di ordine m − 1, indicati con {vδm +1 , (m−1) (m−1) vδm +2 , . . ., vδm−1 }, che siano indipendenti dai δm autovettori generalizzati di ordine m − 1 già trovati in questo passo. Tali vettori sono gli elementi di partenza per il calcolo di altrettante catene di lunghezza esattamente pari a m − 1. Passo 3.5. In modo analogo a quanto fatto al passo precedente, si prolunghino le catene già iniziate, e si inizino nuove catene, se del caso (cioè, se la differenza tra due valori consecutivi dei parametri δ è non : Appendice: strumenti geometrici ed algebrici [Ed. 2015, V 4.0 - PV - UniPG] - A-280 nulla). Si prosegua fino ad arrivare alla costruzione di tutte le d1 catene di autovettori generalizzati associate all’autovalore λi . Passo 3.6. Si ripetano i passi da 3.1 a 3.5 per tutti gli autovalori della matrice. Passo 3.7. Si raccolgano gli n vettori cosı̀ ottenuti (che risultano essere tutti tra loro linearmente indipendenti) in una matrice T di cambiamento di base, ordinati per catene, ciascuna catena ordinata a partire dall’autovettore corrispondente fino all’autovettore generalizzato di ordine massimo. (k) Nell’equazione seguente, il vettore vλi ,j indica l’autovettore generalizzato di ordine k della j-esima catena associata all’autovalore λi , e l’intero mi indica l’indice per il quale converge la sequenza di autospazi generalizzati associati all’autovalore λi , e quindi anche la dimensione del più grande miniblocco di Jordan associato a tale autovalore, nonché la lunghezza della catena più lunga. Infine, ηi indica la lunghezza della catena più corta associata all’autovalore λi . i h (η1 ) (ηr ) (2) (2) (2) (m1 ) (1) (1) (A.57) T = vλ(1) · · · v · · · v v v v · · · v · · · v · · · v λ1 ,d1 λr ,d1 λ1 ,d1 λr ,d1 λ1 ,1 λ1 ,1 λ1 ,d1 λr ,d1 1 ,1 Passo 3.8 La matrice T cosı̀ determinata costituisce il nuovo insieme di vettori di base, e la corrispondente rappresentazione Ā dell’operatore A è la forma di Jordan cercata. Tale forma si può ottenere per similarità algebrica: Ā = T −1 AT (A.58) oppure la si può costruire direttamente, ricordando che ad una catena di autovettori generalizzati di lunghezza k associata all’autovalore λ corrisponde un minibloccco di Jordan con autovalore λ, e dimensione pari a k. ♦ Il legame tra le catene di autovettori generalizzati e gli autospazi del tipo ker[(A − λI)k ] è illustrato in modo sintetico nella tabella seguente. (1) v1 ker[A − λI] (2) = (A − λI)v1 .. . (1) (2) vδm = (A − λI)vδm (1) ker[(A − λI)2 ] (3) = (A − λI)v1 .. . ··· ← ··· .. . ← (3) ← ··· ← vδm ← (2) v1 ← vδm = (A − λI)vδm (2) (2) (2) (3) vδm +1 = (A − λI)vδm +1 ← vδm +1 = (A − λI)vδm +1 ← · · · .. .. .. . . . (3) (2) (2) (1) vδm−1 = (A − λI)vδm−1 ← vδm−1 = (A − λI)vδm−1 ← · · · .. . (1) ker[(A − λI)m−1 ] (m) = (A − λI)v1 .. . (m−1) v1 (m−1) ← ← (m−1) = (A − λI)vδm (m−1) vδm +1 .. . (m−1) vδm−1 .. . (2) vδ3 +1 = (A − λI)vδ3 +1 .. . (2) (1) vδ2 = (A − λI)vδ2 ← ← (2) vδ3 +1 .. . (2) vδ2 (1) vδ2 +1 .. . (1) vδ1 Tabella A.2: Determinazione delle catene di autovettori generalizzati ker[(A − λI)m ] (m) ← v1 .. . ← (m) vδm : Appendice: strumenti geometrici ed algebrici A.4 A.4.1 [Ed. 2015, V 4.0 - PV - UniPG] - A-281 Esponenziale di matrice Forma canonica reale Il calcolo dell’esponenziale di matrice per la forma canonica reale può essere condotto facilmente per diagonalizzazione. Data una matrice A: σ ω A= , (A.59) −ω σ con autovalori dati dai numeri complessi coniugati σ + ω e σ − ω, è facile vedere che gli autovettori associati v e v ∗ sono pari a: 1 1 v= , v∗ = . (A.60) − Scelti come nuovi vettori di base tali autovettori, utilizzando la trasformazione di equivalenza algebrica : 1 1 T = , (A.61) − si ottiene la attesa forma diagonale: Ā = T −1 AT = σ + ω 0 0 σ − ω cui corrisponde l’esponenziale matriciale: (σ+ω)t σt e 0 e (cos(ωt) + sin(ωt)) e Āt = = 0 0 e (σ−ω)t , 0 e σt (cos(ωt) − sin(ωt)) (A.62) (A.63) L’esponenziale nelle coordinate originali è quindi dato da: e At = = T e Āt T −1 σt −1 1 1 e (cos(ωt) + sin(ωt)) 0 1 1 , − 0 e σt (cos(ωt) − sin(ωt)) − (A.64) (A.65) da cui, con semplice algebra, si trova: e At = e σt A.5 cos(ωt) − sin(ωt) sin(ωt) cos(ωt) . (A.66) Forma di Jordan di sistemi in forma canonica di controllore Nello studio, ed in particolare nel controllo, di sistemi dinamici è molto importante una particolare forma delle matrici che descrivono un sistema dinamico, detta forma canonica di controllore. Per semplicità si considera ora solo il caso di sistemi ad un ingresso, introducendo la forma canonica di controllore ad un ingresso (o forma canonica di controllo ad un ingresso). Un sistema dinamico descritto dalla terna di matrici (Ac , bc , cc ) è detto in forma canonica di controllo ad un ingresso se le sue matrici Ac e bc hanno la forma: 0 1 0 0 ··· 0 0 0 0 0 1 0 ··· 0 0 0 0 0 1 ··· 0 (A.67) Ac = . , bc = 0 , .. .. .. .. .. .. . . . . . .. 0 . 0 0 0 ··· 1 1 −a0 −a1 −a2 −a3 · · · −an−1 in cui gli elementi dell’ultima riga della matrice Ac sono i coefficienti del polinomio caratteristico cambiato di segno. È facile vedere che, se la matrice cc (assumendo un sistema con una sola uscita) ha la forma: (A.68) cc = c0 c1 c2 c3 · · · cn−1 : Appendice: strumenti geometrici ed algebrici [Ed. 2015, V 4.0 - PV - UniPG] - A-282 allora la funzione di trasferimento, nella generica variabile complessa λ, ha (a meno di semplificazioni numeratore/denominatore) la forma: W (λ) = cc (λI − Ac )−1 bc = cn−1 λn−1 + · · · + c3 λ3 + c2 λ2 + c1 λ + c0 , λn + an−1 λn−1 + · · · + a3 λ3 + a2 λ2 + a1 λ + a0 (A.69) e quindi si calcola in modo immediato a partire dalla conoscenza delle matrici Ac ed cc . Dal punto di vista della forma di Jordan, un sistema in forma canonica di controllore ad un ingresso ha la seguente proprietà: Lemma A.1 (Forma di Jordan di una matrice in forma canonica di controllore ad un ingresso) Data una matrice Ac , in forma canonica di controllore ad un ingresso, il polinomio caratteristico ed il polinomio minimo di Ac coincidono, e quindi la sua forma di Jordan ha un solo miniblocco per ogni autovalore di Ac . Prova Il lemma si prova facilmente calcolando la dimensione del nucleo della matrice (Ac − λI), per un generico T , il nucleo di (Ac − λI) è determinabile autovalore di Ac . Dato un generico vettore α = α1 α2 · · · αn a partire dalle soluzioni non banali dell’equazione: −λ 1 0 0 ··· 0 α1 0 α2 −λ 1 0 ··· 0 0 α3 0 −λ 1 ··· 0 (A.70) (Ac − λI)α = . α4 = 0, .. .. .. .. .. .. . . . . . .. 0 . 0 0 0 ··· 1 −a0 −a1 −a2 −a3 ··· −an−1 − λ αn che corrisponde al sistema algebrico: −λα1 + α2 = 0 −λα2 + α3 = 0 −λα3 + α4 = 0 .. . −λαn−1 + αn = 0 −a0 α1 − a1 α2 − · · · − (−an−1 − λ)αn = 0, la cui soluzione è data da: α2 α3 = λα1 = λ2 α1 (A.71a) (A.71b) α4 = λ3 α1 .. . = λn−1 α1 (A.71c) (A.71d) = 0. (A.71e) αn n n−1 −α1 (λ + an−1 λ 2 + · · · + a2 λ + a1 λ + a0 ) L’ultima equazione del sistema (A.71) mostra chiaramente che, se λ è autovalore del sistema, allora il parametro α1 è libero (ricordando il significato dei parametri ai , i = 0, 1, . . . , n − 1), e quindi lo spazio in esame ha dimensione pari ad uno, con autovettore, scegliendo α1 unitario, pari a: 1 λ 2 v= λ (A.72) , .. . λn−1 mentre invece, se λ non è autovalore, deve essere α1 = 0, e quindi l’unica soluzione dell’equazione (A.70) è quella banale. Infine, poiché il sistema ha un solo autovettore, la sua forma di Jordan ha un solo miniblocco, e quindi il suo polinomio caratteristico coincide con il polinomio minimo. ⊓ ⊔ Appendice B Riferimenti B.1 Riferimenti bibliografici [1] A.E. Fitzgerald, C. KingsleyJr, and S.D. Umans. Electric Machinery. Mc Graw-Hill, 1983. [2] P.C. Krause. Analysis of Electric Machinery. Mc Graw-Hill, 1986. [3] W. Leonhard. Control of Electrical Drives. Springer-Verlag, Berlin, 1985. [4] J. Meisel. Principles of Electromechanical-Energy Conversion. Mc Graw-Hill, USA, 1966. [5] L. Sciavicco and B. Siciliano, Robotica Industriale. McGraw-Hill Libri Italia, Milano, 1995. [6] Fortunato Bianconi, Elisa Baldelli, Vienna Ludovini, Lucio Crin, Antonella Flacco, and Paolo Valigi. Computational model of egfr and igf1r pathways in lung cancer: A systems biology approach for translational oncology. Biotechnology Advances, 30(1):142 – 153, 2012. ¡ce:title¿Systems Biology for Biomedical Innovation¡/ce:title¿. [7] Fortunato Bianconi. Dynamic modeling, parameter estimation and experiment design in Systems Biology with applications to Oncology. PhD thesis, PhD Thesis, Perugia, 2010. [8] Fred Brauer and John A Nohel. Proprietà strutturali dei Sistemi Lineari Stazionari. Pitagora Editrice, Bologna, 1978. [9] Fred Brauer and John A Nohel. The qualitative theory of ordinary differential equations: an introduction. Dover Publications, 1989. [10] E. Fornasini and G. Marchesini. Appunti di Teoria dei Sistemi. Edizioni Libreria Progetto, Padova, 1994. [11] A. Isidori. Nonlinear Control Systems. Communications and Control Engineering Series. Springer Verlag, Berlin, terza edizione, 1992. [12] J.I. Neimark and N.A. Fufaev. Dynamics of Nonholonomic Systems. Translations of Mathematical Monographs. American Mathematical Society, Providence, Rhode Island, 1972. [13] H. Goldstein. Classical Mechanics. Addison-Wesley, Reading, MA, 1980. [14] C. Lanczos. The Variational Principles of Mechamics. U. of Toronto Press, Toronto, 1970. [15] B.R. Barmish. New Tools for Robustness of Linear Systems. MacMillan Publishing Company, New York, 1990. [16] S. Gabrieli. Identificazione delle caratteristiche di contrattilit di un ventricolo sinistro finalizzata al controllo di un dispositivo terapeutico di assistenza ventricolare. Tesi di Laurea, Facoltà di Ingegneria, Università di Perugia , a.a. 1998/99. [17] Yih-Choung Yu, J.R. Boston, M.A. Simaan, and J.F. Antaki. Estimation of systemic vascular bed parameters for artificial heart control. IEEE Trans. Automatic Control, AC-43(6):765–778, June 1998. 283 : Appendice: strumenti geometrici ed algebrici [Ed. 2015, V 4.0 - PV - UniPG] - B-284 [18] Antonio Tornambè. Discrete Event System Theory. An Introduction. World Scientific, Singapore, 1995. [19] C.G. Cassandras. Discrete Event Systems: Modeling and Performance Analysis. Irwin & Aksen, Boston, MA, 1993. [20] Donato Carlucci and Giuseppe Menga. Teoria dei Sistemi ad Eventi Discreti. Utet, Torino, 1998. [21] E. Cinlar. Introduction to Stochastic Processes. Englewood Cliffs, NJ: Prentice Hall, 1975. [22] S.M. Ross. Stochastic Processes. Wiley, New York, 1983. [23] M. Zhou and F. DiCesare. Petri Net Synthesis for Discrete Event Control Of Manufacturing Systems. Kluwer Academic Publishers, 1993. [24] J.O. Moody and P.J. Antsaklis. Supervisory Control of Discrete Event Systems Using Petri Nets. Kluwer Academic Publishers, 1998. [25] Shankar Sastry. Nonlinear Systems: analysis, stability and control. Springer-Verlag, 1999. [26] Introduction to distillation. http://lorien.ncl.ac.uk/ming/distil/distil0.htm. [27] Davison, E.J., Edt. Benchmark problems for control system design. Report of the IFAC theory committe. IFAC (International Federation of Automation Control). May 1990. [28] Davison, E.J. Control of a distillation column with pressure variation. Trans. Institute of Chemical Engineers, vol. 45, pp. 229–250, 1967. [29] S. Skogestad and M. Morari, Understanding the dynamic behavior of distillation columns. Ind. Eng. Chem. Res., vol. 27, no. 10, pp. 1848-1862, 1988. [30] S. Skogestad, M. Morari, and J. C. Doyle, Robust control of ill-conditioned plants: High-purity distillation. IEEE Trans. Automat. Contr., vol. 33, pp. 1092-1105, 1988. [31] P. Lundström, and S. Skogestad, Two-Degree-of-Freedom Controller Design for an Ill-Conditioned Distillation Process Using µ-Synthesis. IEEE Trans. Control Systems Technology, vol. 7, no. 1, pp. 12-13, 1999. [32] Morari M. and Zafiriou E. Robust process control. Englewood Cliffs : Prentice Hall, 1989. [33] Osvaldo Maria Grasselli Proprietà strutturali dei Sistemi Lineari Stazionari. Pitagora Editrice, Bologna, 1978. [34] E. Fornasini and G. Marchesini. Appunti di Teoria dei Sistemi. Edizioni Libreria Progetto, 1994. [35] Eduardo D. Sontag. MAthematical Control Theory. Springer, New York, 1998. Indice analitico Analisi modale, 43 Autospazio, 43 Autovalori, 43 Causalità, 40 Diagrammi di Bode, 98 Forma canonica di controllore, 222 Funzioni aperiodiche, 44, 148 Funzioni pseudoperiodiche, 44, 148 Integrale di convoluzione, 40 Matrice esponenziale a tempo continuo, 40 Molteplicità algebrica, 43 Molteplicità geometrica, 43 Polinomio caratteristico, 43 Risposta completa nello stato, 40 Risposta forzata, 41 Risposta libera, 41 Trasformata di Laplace, 60 285 Indice dei nomi Bode H., 98 Dirac P., 81 Fibonacci L., 24 Fourier J.B., 60 Gauss J.C., 196 Laplace P., 60 Lyapunov A.M., 172 Nyquist H., 196 Poincaré J.H., 172 R.E. Kàlmàn, 213 286