sistemi di controllo
Transcript
sistemi di controllo
1 SISTEMI DI CONTROLLO OBIETTIVI Comprendere il concetto di controllo automatico Comprendere la differenza tra controllo ad anello aperto e ad anello chiuso Acquisire gli strumenti matematici per l’analisi di sistemi reali Saper ricavare la f.d.t. di un sistema INTRODUZIONE Quando parliamo di controllo automatico vogliamo intendere la resistenza di un sistema che compie un determinato lavoro, e il nostro obiettivo è quello di controllare il corretto funzionamento di questo sistema. Quando un sistema sottoposto a degli ingressi modifica il suo stato, compie un processo, pertanto noi dobbiamo controllare che l’evoluzione del processo avvenga rispettando tutte le condizioni da noi stabilite. Pertanto possiamo definire il controllo (che deriva dalla parola inglese to control) come l’insieme di azioni (ingressi) che vengono fatte sul sistema affinché l’uscita del sistema sia quella desiderata. Es. Do un ingresso per avere una determinata uscita e, se ci sono disturbi, il sistema di controllo deve intervenire e dare opportuni valori in modo tale da compensare i disturbi ed avere l’uscita desiderata. TIPI DI CONTROLLO Ci sono due tipi di controllo: Manuale: intendiamo un sistema in cui viene coinvolta la presenza umana. Es. Voglio riscaldare l’acqua a 30°. Imposto l’ingresso e dopo, tramite un termometro, misura la temperatura: se è quella che voglio tutto va bene, altrimenti modifico manualmente l’ingresso. Automatico: quando l’operazione di controllo del sistema è fatta senza l’intervento umano. Cioè ci sono meccanismi, dispositivi elettronici che controllano il corretto funzionamento del sistema. Quindi tale sistema deve essere in grado di leggere l’uscita e modificarla agendo sugli ingressi attraverso dei comparatori. Quindi il controllo automatico fa le stesse cose di quello manuale ma senza la presenza umana. Il vantaggio è che poiché il controllo viene fatto in maniera automatica non si lavora più come nelle catene di montaggio. 2 CONTROLLO A CATENA APERTA DISTURBI d(t) INGRESSO r(t) SISTEMA DI CONTROLLO COMANDO SISTEMA CONTROLLATO i(t) USCITA u(t) r(t) : è il valore di riferimento relativamente all’uscita che voglio (ciò che voglio che il sistema faccia). Sistema controllato: è il sistema da controllare. Sistema di controllo: è il dispositivo che controlla il funzionamento del secondo blocco (in base all’ingresso o in base all’uscita). Il controllo a catena aperta è basato su una tabella di associazioni tra ingressi e uscita. Es. I U X A Y B Guardando la tabella: se ho l’ingresso X avrò l’uscita Y. In questo sistema se l’uscita non è quella desiderata, il sistema di controllo no può accorgersi dell’errore, né modificare l’ingresso del sistema. Pertanto in tale sistema, per funzionare correttamente, non ci devono essere disturbi o devono essere trascurabili. I sistemi a catena aperta possono essere sia manuali che automatici. 3 CONTROLLO A CATENA CHIUSA d(t) r(t) NC e(t) C i(t) A S u(t) f(t) T Analizziamo il sistema r(t): è il valore di riferimento che vogliamo. Esso arriva al nodo NC e al blocco C. NC: è il nodo di confronto a cui arriva sia il segnale r(t) che il segnale f(t) che rappresenta il segnale di retroazione. NC fa il confronto, quindi la differenza, tra f(t) e r(t) e la sua uscita, e(t), è proprio il segnale differenza. e(t)= r(t)-f(t) Se è =0 il sistema funziona correttamente C: è il blocco controllo, cioè quel dispositivo che ,in funzione del segnale di riferimento r(t) e del segnale errore e(t), stabilisce il segnale di comando i(t) che deve dare al sistema. A: attuatore, è quel dispositivo che attua (mette in pratica) il comando i(t). S: è il sistema che vogliamo controllare e su esso agiscono i disturbi, che sono segnali probabilistici perché non sappiamo se e quando si verificano. u(t): rappresenta il comportamento che noi vogliamo dall’uscita. Esso deve essere riportato in ingresso e tradotto nella stessa grandezza fisica dl segnale di riferimento attraverso un trasduttore, altrimenti non si può fare il confronto. T: trasduttore, è un sistema che trasforma una grandezza fisica in ingresso in un’altra grandezza fisica in uscita, generalmente di tipo elettrico. I trasduttori precedono il nome della grandezza fisica in ingresso. 4 CLASSIFICAZIONE DEI SISTEMI DI CONTROLLO A CATENA CHIUSA I sistemi di controllo a catena chiusa si possono suddividere in: 1. REGOLATORI 2. SERVOMECCANISMI 3. SISTEMI A VALORE ASSERVITO 1.Regolatori I regolatori sono quei sistemi che cercano di mantenere l’uscita costante. Il valore dell’uscita a cui tende il regolatore si chiama set-point. In questo caso è importante la precisione. (Es. Forno-Scaldino, perché impostiamo la temperatura e vogliamo che resti quella ) 2.Servomeccanismi Si definisce servomeccanismo, quel sistema che cerca di seguire più fedelmente possibile le variazioni dell’ ingresso. Quindi nei servomeccanismi l’ingresso varia nel tempo. In questo caso è importante la velocità. (Es. Servo-sterzo, ruote variano a secondo di come giriamo lo sterzo) 3. Sistemi a valore asservito Sono quei sistemi in cui l’uscita varia in funzione di una sequenza prestabilita di ingressi. (Es.Lavatrice, perché noi impostiamo il programma e l’uscita cambia in funzione della sequenza di funzionamento del programma). 5 PROPRIETA’ DEI SISTEMI DI CONTROLLO 1. PRECISIONE: è la capacità del sistema di controllo di mantenere l’uscita del sistema controllato il più vicino possibile a quella “ideale”(set-point) Quindi questa caratteristica è importante per i regolatori. Per valutare la Precisione bisogna valutare l’ errore che il sistema commette istante per istante: Dipende dall’ingresso e(t)= ui(t) – ur(t) uscita ideale uscita reale 2. VELOCITA’: la velocità di risposta è la capacità del sistema di controllo di far si che le variazione dell’uscita del sistema controllato seguano il più fedelmente possibile le variazioni dell’ingresso. In questo caso il sistema di controllo ha un ingresso che varia nel tempo; infatti tale proprietà è importante per i Servomeccanismi. Per valutare la velocità di un sistema, bisogna valutare la costante di tempo (), che è il parametro del sistema che dipende dai componenti del sistema. Inoltre, la velocità dipende dal sistema e non dall’ingresso. 3. STABILITA’:è la proprietà primaria per qualsiasi tipo di sistema. Un sistema si dice stabile se, partendo da una condizione di equilibrio e sottoposto ad un ingresso finito (durata finita), cambia condizione per la durata dell’ingresso e ritorna alla vecchia condizione d’equilibrio al termine dell’ingresso. Se un sistema non rispetta tale caratteristica allora è Instabile. Es.Abbiamo un forno che funziona ad una certa temperatura(100°). Poi il forno è sottoposto ad un disturbo (apertura dello sportello); l’errore incomincia ad aumentare e il sistema di controllo, per correggerlo aumenta l’ingresso. Quando togliamo il disturbo (chiudiamo lo sportello), il sistema di Controllo se ne accorge e ritorna al vecchio valore d’ingresso. Quindi il sistema è stabile. 6 Un sistema può reagire in maniera stabile anche restando al nuovo valore d’equilibrio. Infatti, considerando l’esempio del forno che lavora 100°, è possibile stabilire un valore detto “instabilità limite” (ad es. ingresso a 90°). In questo modo il sistema riesce a raggiungere un’altra condizione d’equilibrio (anche se il forno da 100° scende a 90° e vi resta, il sistema è comunque stabile perché ha raggiunto il valore di instabilità limite). Nel caso peggiore, può capitare che dopo aver tolto il disturbo il sistema resta alla nuova condizione e tende ad autodistruggersi (non raggiunge una condizione d’equilibrio). N.B. Quindi la “stabilità” è la caratteristica primaria di un sistema. La precisione e la stabilità sono due caratteristiche che si contrappongono: se un sistema è preciso è anche meno stabile. Quindi il loro rapporto è un compromesso.