GAMP 4
Transcript
GAMP 4
GAMP 4 Guide Quick Reference Good Automated Manufacturing Practice (GAMP) è una normativa di validazione messa a punto dal GAMP Forum, un sottocomitato tecnico di ISPE (International Society of Pharmaceutical Engineering). E' 4 perché è la quarta versione (emessa nel 2001) di un documento il cui primo draft fu emesso nel 1994 per la industria UK. Tiene conto di raccomandazioni europee e nord-americane. E' conforme a GxP: GMP (Good Manufacturing Practice), GCP (Good Clinical Practice), GLP (Good Laboratory Practice), GDP (Good Distribution Practice). Non è una normativa adatta per la validazione retrospettiva di sistemi esistenti. E' applicabile ad un ampio spettro di sistemi (PCS (Process Control Systems) e IT Systems). E' parte della GAMP Guidance, che include la GAMP Guide, Good Practice Guides (da emettere) e Training Materials (materiale formativo della ISPE). Si compone di un corpo centrale (concettuale) e di Appendici su temi specifici: • Gestionali • Di sviluppo • Operative. Nel 2000 è stato costituito un GAMP America, che compendia il Forum europeo. La validazione di una nuova struttura deve seguire una struttura sequenziale: 1. Edifici e servizi principali 2. Apparati e sistemi automatizzati 3. Processi e normative igeniche. La validazione può essere vista come ripartita in 3 aree fondamentali: • IQ installation qualification: corretta installazione dei sistemi, • OQ operational qualification: corretta (vs. specifiche) funzionalità, • PQ performance qualification: corrette (vs. specifiche) prestazioni, • DQ design qualification: rispondenza del progetto (documentazione) agli obiettivi. Schema delle attività di validazione: Attività di validazione Planning Specification Test planning (IQ,OQ,PQ) Testing (IQ,OQ,PQ) Review e Report Prepara un piano di validazione scritto Specifica i design review di progetto e di realizzazione del sistema Preparazione della documentazione che descrive i test Esegue i test e raccoglie i risultati Revisione della documentazione per mostrare che il sistema è conforme alle specifiche E' essenziale per implementare le attività di validazione mantenere documenti di Specifica ben aggiornati (questo è un requisito GxP). Lo schema di corrispondenza fra specificazione e qualificazione è quello classico a V: Specifica URS User Requirements Spec. FS Functional Spec. DS Design Spec: Realizzazione Validazione PQ verifica URS OQ verifica FS e DS IQ verifica DS Sviluppo del sistema Più specificamente si ha la seguente corrispondenza: Attività di sviluppo URS FS (incluse le specifiche meccaniche ed elettriche per i sistemi embedded) Hw DS, Sw DS, Sw module DS, Mechanical and electrical Specs, Network DS, Package Configuration Specs Realizzazione e assemblaggio Hw, Codifica Sw, Realizzazione e assemblaggio apparati (sistemi embedded), Realizzazione e assemblaggio della rete Hw test, Sw module test, Sw integration test, Equipment tes (sistemi embedded), Package configuration test Hw inst., Sw inst., inst. apparati (sistemi embedded), inst. rete Hw acceptance testing Network acceptance testing System Acceptance testing Maintenance Change Control Fase Attività di validazione Planning & Specification Validation Plan, Supplier Assesments, Design Reviews Design Design Reviews Construction Testing Installation Acceptance testing Operation Construction Reviews//Code Reviews Monitor supplier (NB) Installation qualification Operational Qual., Performance Qual., Validation Report Validation Report, Manutenzione dello stato di validazione NB: test eseguiti presso il fornitore, se adeguatamente controllati e documentati, possono essere parte integrante di OQ e PQ, allo scopo di semplificarne la complessità. Vanno considerate le cose seguenti: • • IT Systems Il PQ va eseguito con dati realistici (rispondenti all'uso quotidiano). Dovrà esistere un piano di qualità per qualificare la infrastruttura informatica che ospita l'applicazione validata. Process Control Systems E' importante che aspetti meccanici, elettrici e sw vengano qualificati insieme (in assetto integrato) durante la OQ. Per mantenere lo stato di validazione del sistema sono essenziali: • • • Piani operativi e procedure Addestramento Gestione e risoluzione problemi • • • • • • • • • • • Contratti di manutenzione e servizio System Management Back-up e Recovery Configuration Management Controllo dei cambiamenti operativi Gestione sicurezza Monitoring delle prestazioni Mantenimento, archiviazione e recupero delle registrazioni rilevanti per la qualità Piano di Business Continuity Review periodiche e valutazioni Sostituzione sistemi 1 Ciclo di vita della validazione E' essenziale la cooperazione utente-fornitore. E' essenziale che il fornitore usi un sistema di gestione formale per controllare e documentare il processo di sviluppo. La responsabilità della validazione è dell'utente, sebbene il fornitore sia ampiamente coinvolto nel processo. L'utente deve avere quindi una policy per coprire le seguenti problematiche che sono a suo carico: 1. Identificazione dei sistemi 2. Produzione del USR 3. Definizione della strategia di validazione con: Assessment dei rischi Assessment dei componenti del sistema (con loro categorizzazione) Assessment del fornitore (può portare all'Audit del fornitore) 4. Produrre un Validation Plan 5. Revisionare e approvare le Specifiche, inclusa la System description 6. Fare il monitoring dello sviluppo del sistema 7. Review del codice sorgente (deve garantire che questa attività sia svolta) 8. Review e approvazione delle Test Specs 9. Eseguire il test (il coinvolgimento può essere come testimone del test o come auditor dei risultati) 10. Review ed approvazione dei risultati dei test 11. Produzione del Validation Report 12. Mantenimento del sistema con appropriate procedure operative e di gestione 13. Ritiro del sistema Per la identificazione dei sistemi dovrà come minimo essere gestita una lista di quelli rilevanti ai fini GxP. Gli URS debbono essere scritti dall'utente, che può delegare, ma deve mantenere almeno il reviewing e la approvazione (vedi Appendice D1). Per la determinazione della strategia di validazione, sono essenziali i seguenti passi: • Risk Assessment: identificazione dei sistemi e dei processi critici per il prodotto e/o il paziente e/o il business; la validazione va indirizzata verso le aree critiche (vedi Appendice M3). • Assessment of System Components: categorizzazione dei componenti per determinare il livello di validazione richiesto (vedi Appendice M4). • Supplier Assessment: (vedi Appendice M2). Devono esistere un Validation Plan, redatto dall'utente, e un Quality & Project Plan, concordato fra utente e fornitore, basato sul precedente. Il Validation Plan deve essere prodotto per tutti i sistemi regolati da GxP. Esso definisce: • Ruoli e responsabilità • Struttura organizzativa • Assessment delle criticità GxP • Strategia di validazione (tenendo conto del risk assessment) • Deliverables della validazione • Criteri di accettazione • Controllo delle modifiche • Procedure Operative Standard • Gestione della documentazione • Mantenimento dello stato di validazione (vedi Appendice M1). Alla fine della validazione l'utente deve produrre un Validation Report (vedi Appendice M7). Il Quality & Project Plan deve essere concordato col fornitore, deve soddisfare gli indirizzi del Validation Plan e deve deve definire in particolare il ruolo dell'utente nelle attività di quality assurance (vedi Appendice M6). Per le specifiche di sistema esistono le seguenti direttive: • Functional Specs (vedi Appendice D2), • Hardware Design Specs (vedi Appendice D3), • Software Design e Software Module Design Specs (vedi Appendice D4). Secondo l'Annex 11 del GMP deve esistere una system description che descrive per ogni sistema principi, obiettivi, misure di sicurezza, caratteristiche principali, interfacce verso altri sistemi e procedure: se queste informazioni sono incluse nelle Functional Specs, non è necessario produrre un documento separato. Lo sviluppo del software deve essere inquadrato dal fornitore in un quality management system atto a sviluppare e configurare il software in accordo ai requisiti. L'utente deve controllare il fornitore per quel che concerne: metodi e strumenti, politiche e procedure, regole di programmazione, metodi di review, testing e verifica, sicurezza e confidenzialità. L'utente deve anche verificare che il codice sorgente subisca reviewing formale (vedi Appendice D5). Le Test Specs devono essere prodotte per le seguenti attività: • Software module test • Software integration test • Hardware acceptance test • System acceptance test. Le direttive per test specs e documentazione dei risultati sono definite in Appendice D6. Per il mantenimento dello stato di validazione l'utente deve predisporre e mantenere procedure e piani per i seguenti aspetti. 1. Definizione di procedure operative per l'uso e la gestione del sistema. Esse debbono essere definite prima della messa in servizio. 2. Training per utenti e staff di supporto. 3. Politica per la gestione e risoluzione di problemi: come catturarli, valutarli, priorizzarli, controllarne l'evoluzione, scalarli e chiuderli. 4. Definizione dei contratti di assistenza e manutenzione (vedi Appendice O2). 5. Definizione di temi di system management come l'amministrazione, l'uso di tool, i test e le calibrazioni di routine, la gestione di parti di ricambio e materiale di consumo. 6. Debbono essere stabilite procedure di back-up e recovery (vedi Appendice O7). 7. Debbono essere stabilite procedure di gestione della configurazione (vedi Appendice M9). 8. Debbono essere stabilite procedure di gestione delle modifiche (vedi Appendice O4). 9. Debbono essere stabilite procedure di security management (vedi Appendice O3). 10. Esistono sistemi che potrebbero perdere la missione a fronte di degradi prestazionali, essi debbono essere posti sotto performance monitor periodico (vedi Appendice O5). 11. Debbono essere stabilite procedure per la gestione delle registrazioni relative alla qualità (vedi Appendice O6). 12. Debbono essere stabilite procedure per la continuità di esercizio: disaster recovery e rigenerazione del software e dei dati del sistema (vedi Appendice O8). 13. Debbono essere stabilite procedure per la revisione periodica del sistema e del mantenimento dello stato di validazione (vedi Appendice O1). 14. Debbono essere stabilite procedure per il decommissioning dei sistemi che tengano conto del fatto che essi gestiscono dati rilevanti per le GxP (per la gestione dati vedi Appendice O6). Schema riassuntivo della principale documentazione da produrre durante il progetto: Documento User Requirement Specification Validation Plan Quality & Project Plan Functional Specification Hw Design Specification Sw Design Specification Test Specification Validation Report Responsabilità U (utente) U E (entrambi) F (fornitore) F F F U Appendice D1 M1 M6 D2 D3 D4 D6 M7 2 Sistema di gestione per fornitori di IT Systems E' raccomandato che il fornitore segua un sistema formale di gestione, preferibilmente basato su ISO 9000. Questa parte si applica ai sistemi IT, i MES sono considerati tali, sebbene siano sull'area di confine con i sistemi di controllo processi. Oggi si impiegano sovente package commerciali per applicazioni IT; in questo caso la documentazione del prodotto deve essere usata intensamente per la validazione del sistema. Di seguito è riportato il ciclo di vita generico. Non tutti i sistemi richiedono tutta la documentazione elencata (il Quality and Project Plan deve identificare la documentazione richiesta). Il ciclo di vita deve evolvere in modo sequenziale (i deliverable debbono essere approvati in ordine logico). Ad esempio mentre il progetto può iniziare prima che URS e FS siano finite, il progetto completo non può ovviamente essere approvato prima di URS e FS. La tracciabilità deve essere mantenuta durante l'elaborazione dei documenti. Il planning può richiedere un risk assessment (vedi Appendice M3). Il prototyping è consentito come strumento per chiarire i requisiti di utente e per valutare le aree di rischio. Deve però essere eseguito un rigoroso controllo di versioni: prototipo e software finale debbono essere segregati. Planning and Specification SAMP??? (1) Validation Plan (M1) User Requirement Specification (D1) Supplier Assessment (M2) Quality and project plan (M6 + M3/M4) Functional Specification (D2) System Acceptance test Specification (D6) Design and Construction Hardware Design Specification (D3) Hardware Acceptance Test Specification (D6) Hardware Production Software Design Specification (D4) Software Integration Test Specification (D6) Software Module Software Module Design Test Specification Specification (D4) (D6) Software Production (D5) Package Configuration Specification Package Configuration Test Specification (D6????) Configure Package Installation and Testing Hardware Acceptance Test results (M7) Verify Configuration (M7???) Software Module Testing and Results (M7) Software integration Testing and Results (M/7) (2) Acceptance testing System Acceptance Tesing and Results (M7) Operation (mantaining the validated state) Change Control (M8) Maintenance (O2) Note: (1) In verde le attività a completo carico dell'utente (2) In alcuni sistemi l'integration testing non è necessario L'adozione di software package standard può richiedere una significativa reingegnerizzazione dei processi, in questo caso i processi debbono essere rivalidati. Il Quality and Project Plan è un documento contrattuale e quindi deve essere approvato sia dall'utente, sia dal fornitore. Per i software package standard i requisiti possono essere soddisfatti da una combinazione di: • funzioni standard • settaggi di configurazione • customizzazioni del prodotto base • nuovo software custom, come le specifiche evolvono, il Quality and Project Plan deve essere aggiornato per definire quali di questi approcci deve essere usato e come esso va documentato. Le Specifiche non debbono essere vaghe o ambigue: l'obiettivo è quello di usarle successivamente per il test. Un piccolo sistema può essere completamente definito da una Specifica, sistemi più grandi possono invece richiedere un insieme di specifiche funzionali, di progetto e di configurazione di package. Il processo di tracciabilità requisiti - specdifiche - progetto - test richiede l'uso di matrici di tracciabilità (vedi Appendice M5). La Functional Specification è un documento contrattuale e quindi deve essere approvato sia dall'utente, sia dal fornitore. Per sistemi piccoli si può omettere la produzione di documentazione di progetto e di package configuration, inserendo questi temi in appendice alla FS (questo deve però essere definito nel Quality and project plan). In compenso sistemi complessi possono essere necessarie più FS. Se si usano software package si deve dove possibile fare ricorso alla documentazione del fornitore. Le System Acceptance Test Specification è opportuno scriverle in parallelo alle FS. L'hardware va basato per quanto possibile su prodotti standard di fornitori qualificati. L' Hardware Design Specification e l'Hardware Acceptance Test Specification è opportuno scriverle in parallelo. Il Package Configuration Specification include: • settaggi di configurazione • motivi del settaggio con riferimento ai requisiti • strumenti o metodi da usare per impostare le opzioni richieste • dipendenze e impatti su altri moduli e sistemi • sicurezza dei settaggi. Per sistemi di piccole dimensioni è possibile mettere queste informazioni in appendice a FS (questo va precisato nel Quality & Project Plan). Le Software Design Specification sono la base per lo sviluppo. Se c'è un solo modulo da sviluppare non è necessario produrre la documentazione di design e test a livello di modulo e la Specifica di test di integrazione. Per sistemi di piccole dimensioni è possibile mettere queste informazioni in appendice a FS (questo va precisato nel Quality & Project Plan). Se si usa un approccio OOD/P il fornitore deve verificare che il metodo soddisfi le normative di settore e i requisiti di utente e documentare tale metodo nel Quality & Project Plan. Le design review dovranno tener conto di questo approccio e così il Configuration Management che dovrà fornire copertura anche per librerie e tool associati. Il Controllo di Configurazione deve essere regolato in conformità all'Appendice M9. Le Software Module Design Specification devono normalmente essere aggiornate dopo lo sviluppo per includere dettagli essenziali per la successiva manutenzione. Le Network Design Specification si rendono necessarie per sistemi in cui la rete è rilevante, esse includono descrizioni su: componenti fisici, protocolli di trasporto, sistemi operativi di rete, cablaggi, bridge, server, socket, etc. Per sistemi di piccole dimensioni è possibile mettere queste informazioni in appendice a FS (questo va precisato nel Quality & Project Plan). Le reti debbono essere realizzate per quanto possibile con prodotti standard di fornitori qualificati. E' opportuno produrre in parallelo una Network Acceptance Test Specification. Il codice deve essere sviluppato con metodi, strumenti, regole di programmazione e convenzioni sui nomi di variabili che debbono essere documentati. I sorgenti debbono essere sottoposti a code review. Le modalità e frequenza delle review debbono essere specificate nel Quality & Project Plan. Se si usano componenti software esistenti (i.e. OOP) si deve valutare se essi debbono essere sottopostia review e testing. Il Quality & Project Plan deve definire se il fornitore consegna i sorgenti all'utente, se no l'utente può richiedere il deposito dei sorgenti presso una terza parte. Le linee guida per la produzione di codice sono descritte in Appendice D5. Per Specifica prodotta deve essere prodotta un corrispondente insieme di Specifiche di Test, con un metodo di registrazione della tracciabilità. I test sulla configurazione dei software package possono avvenire per ispezione o per prova. Per le reti è importante eseguire soprattutto i test di componenti che potrebbero divenire inaccessibili come conseguenza della costruzione del sistema. Le System Acceptance Test Specification sono un documento contrattuale e quindi vanno accettate sia dall'utente, sia dal fornitore. Esse coprono varie aree: funzionalità, configurazione, performance, aspetti critici, procedure operative. I test debbono coprire le verifiche di allarmi, limiti, range di valori. Il testing è svolto a vari livelli di dettaglio, corrispondenti ai vari livelli di specificazione. Il fornitore è di solito coinvolto in tutti i livelli di test e le registrazioni di test del fornitore possono essere parte della documentazione di validazione, se è appropriatamente controllata. System Acceptance Testing (FAT+SAT) Hardware Acceptance Testing Software Integration Testing Software Module Testing Review & Test module Valida URS e FS Package Configuration Testing Valida HDS Valida SDS Valida SMDS e PCS Verifica la codifica La validazione è più pesante per sistemi custom, che per sistemi package based. L'utente ha un coinvolgimento primario sui livelli alti di testing. Nei sistemi gestionali spesso i test vengono svolti in tre aree: laboratorio software, laboratorio di test e ambiente target. Gli HAT e i SAT (a volte divisi in Factory Acceptance Test e Site Acceptance Test, nel qual caso l'utente deve essere presente in entrambi) devono essere prodotti in modo completamente documentato: moduli firmati. Deve esistere una procedura definita per eseguire i test e registrarne gli esiti. La fase di accettazione include la consegna della documentazione finale. Aspetti gestionali che coprono l'intero ciclo di sviluppo (conformi a ISO 9000) e che devono essere coperti durante il supplier assessment sono: 1. Review: La modalità deve essere definita nel Quality & Project Plan, le direttive sono in Appendice M5. 2. Configuration Management: Deve esistere un sistema per il CM e per la gestione delle change (cambiamenti a documentazione contrattuale o a deliverable approvati devono essere concordati con l'utente). La modalità deve essere definita nel Quality & Project Plan, le direttive sono in Appendici M8, M9, M10. 3. Controllo sub-fornitori: Debbono essere approvati dall'utente che si può riservare il diritto di farne audit. Le forniture debbono essere regolamentate da ordini ben definiti. Il fornitore si deve rendere garante di queste sub-forniture. Per l'hardware possono essere inclusi certificati di test e calibrazione. 4. Training: Il fornitore deve erogare adeguata formazione al suo personale e documentare la formazione eseguita nella documentazione di progetto. Una volta completato lo sviluppo si devono eseguire le operazioni atte a mantenere lo stato di validazione del sistema. Il fornitore può essere coinvolto in questo mediante servizi di supporto. Per i sistemi IT particolare considerazione deve essere rivolta a: • gestione delle modifiche • configuration management • gestione release software • planning del business continuity (i.e, disaster recovery, procedure di rigenerazione). 3 Validazione di Process Control System (PCS) I precedenti due paragrafi si riferivano soprattutto ai sistemi IT. Qui vengono trattati invece i sistemi che gestiscono processi di produzione o di laboratorio. La loro validazione è più complessa perché l'attività è più multi-disciplinare. I PCS sono a volta integrati con sistemi gestionali per formare una infrastruttura CIM. Per eseguire la validazione si deve tener conto anche della ISPE Baseline: Guide on commissioning and qualification, che fornisce indicazioni per qualificazioni con attività di commissioning. Lo schema di verifica è fatto col solito approccio a V. Retirement Operation & maintenance Performance Qualification Operational Qualification Installation Qualification Operational Check (FAT&SAT) Installation Check (FAT&SAT) Planning Process Requirement GxP and safety review Equipment FS Control System FS Mechanical and Operating Electrical Interface Design Design Design review and approval Control System Design Module integration and development testing Mechanical and Electrical Build Operating Interface Build Control System Programming I sistemi PCS possono appartenere a due categorie: • • embedded in macchinari standalone connessi a impianti (PLC, SCADA, DCS, BMS (Building Management System)). Normalmente la generazione della documentazione di sistemi embedded è a carico del fornitore. Per lo sviluppo di sistemi standalone, il coinvolgimento dell'utente è maggiore. Il fornitore deve comunque applicare un ciclo di vita atto a produrre la documentazione necessaria al successivo supporto della fase di qualificazione, con tracciabilità dai requisiti fino al testing. Di seguito si riporta il ciclo di vita e di documentazione per gli embedded system. Planning and Definition Vendor Assessment Validation Plan (M1) USR (D1) Critical Process Parameters Specification Approval Supplier Assessment (M2) Design Specification, Development and Construction Mechanical FS Electrical & Software FS Instrument FS Mechanical E&I Diagrams, HDS SDS Drawings Mechanical Cabling Code (D5) Construction Design Reviewing and Testing STS HATS Software testing and Results Electrical testing & Software release Instrumentation and installation Calibration and Results FATS Factory Acceptance Testing and Results Commissioning and Qualification Installation GEP Qualification Installation Operational Site Acceptance Test Qualification Commissioning Performance Qualification Ongoing Operation (Maintaining the validation state) Change Control Maintenance Periodic Review Decommissioning Retirement Location Responsability C C S C(S) S S(C) S (C) S FAT: S (C) D. Rev.: C (S) C Install: S(C) IQ: C(S) SAT: S(C) OQ: C(S) Comm.: S(C) PQ: C(S) C C (S) C C (S) Legenda: L'area in grigio è quella soggetta a design review; C è customer, S è supplier, () indica un possibile coinvolgimento Di seguito si riporta il ciclo di vita e di documentazione per gli standalone system. Planning and Definition Validation Plan (M1) USR (D1) Vendor Assessment Critical Process Parameters Specification Approval Supplier Assessment (M2) Location Responsability C C S C(S) S S (C) S S (C) S S (C) S FAT: S(C) Des. Re.: C (S) Design Agreement Process Contracto Design Data rs Quality Plan Functional Design Specs Acceptance Test Specs (1) System suppliers Quality Plan Design and Development Phase Cabling & Instrumentation Application Data Sheet (5) C&I Application Engineering & Drawings Computer Hardware HW Test Design Specs (2) Specs Computer HW Production Software Sw Design integrat. Specs Specs (3) Sw Sw module module Design Test Specs Specs (4) Sw module coding & configuration Development Testing & System Build C&I inspection and calibration (vs. 5) Computer Hw Testing (vs. 2) Sw module Tesing (vs. 4) Sw module integration testing (vs. 3) Supplier's system integration and testing (vs. 1, 2 e 3) Design Review & Acceptance Testing Factory Acceptance Test (vs. 1) Commissioning and Qualification Installation GEP Qualification Installation Operational Site Acceptance Test Qualification Commissioning Performance Qualification Ongoing Operation (Maintaining the validation state) Change Control Maintenance Periodic Review Decommissioning Retirement C Install: S(C) IQ: C(S) SAT: S(C) OQ: C(S) Comm.: S(C) PQ: C(S) C C (S) C C (S) Legenda: L'area in grigio è quella soggetta a design review; C è customer, S è supplier, () indica un possibile coinvolgimento Le norme concernenti i PCS mi sembrano meno dettagliate e coerenti di quelle relative agli IT system del paragrafo precedente (ndr). Durante la fase di planning l'utente esegue un assessment delle procedure di qualità del fornitore, per verificarne la congruità e valutare l'esigenza di azioni correttive. Il fornitore redige un Quality & Project Plan (vedi Appendice M6) e supporta l'utente nell'esecuzione del risk assessment (vedi Appendice M3). In questo caso l'attività riguarderà non solo hw e sw, ma anche strumentazione, aspetti elettrici e meccanici. Le USR (vedi Appendice D1) potranno essere più di una, in particolare ce ne potrà essere una focalizzata esclusivamente sulle funzionalità di controllo. Questo non è necessario in applicazioni di piccola dimensione ove i dati sul processo possono essere inclusi nella specifica della macchina o dell'apparato da controllare. Si deve porre particolare attenzione alla definizione dei parametri produttivi controllati e all'assessment della loro criticità. Per questo è importante gestire delle matrici di tracciabilità (vedi Appendice M5). La documentazione rilevante contrattualmente deve essere messa sotto change control una volta approvata. Le Functional Specs sono la base per l'OQ. Per sistemi standalone devono coprire tutti i temi, mentre per gli embedded le problematiche di controllo possono essere trattate nella documentazione del macchinario. La struttura della documentazione deve comunque essere definità nel Quality & Project Plan. Se il software include funzionalità non usate nella specifica applicazione, esse debbono essere elencate. Per piccoli sistemi è possibile che FS includano in appendice anche le specifiche di progetto. Questo tipo di sistemi richiedono una documentazione che correli il sistema di controllo all'impianto controllato, essa consta di: • layout degli impianti e degli apparati, • diagrammi di flusso del processo e localizzazione della strumentazione (P&IDs), • tabella degli anelli di regolazione e della strumentazione (con dati caratteristici dei segnali, soglie di allarme, etc.), • sequenze, logiche e interblocchi di processo (normalmente diagrammi o matrici), • schemi elettrici di cablaggio. L'HDS deve includere dati anche per la strumentazione e le interfacce. Per piccoli sistemi è possibile incorporare il tutto nelle FS. L'SDS definisce non solo la struttura del software, ma anche le norme di programmazione. Il software deve essere modulare, strutturato e commentato. Per piccoli sistemi è possibile incorporare il tutto nelle FS. L' Instrument Specification è derivata dai P&IDs e i parametri relativi sono ottenuti dalle URS. La specifica fornisce quindi i requisiti per ogni strumento necessario. La Realizzazione del sistema si compone di: • sviluppo software • costruzione sistema • realizzazione di disegni ingegneristici. Le Design Review permettono il tracciamento dei lavori dai requisiti (hw, sw, ambientali, performance, etc), fino alla fine dello sviluppo. Di nuovo è importante usare matrici di tracciabilità. Si noti che è ammesso che alcuni requisiti di sistema (layout di schermo, formato reports, etc.) non siano inizialmente ben definiti e vengano chiariti in corso d'opera: in questo caso si esegue una review 'ad interim'. Norme per le design review sono incluse anche in ISPE Baseline: Guide on Commissioning and Qualification. Lo Sviluppo software deve essere fatto con metodi, convenzioni e strumenti appropriati. Il codice sorgente deve essere commentato (vedi Appendice D5). La Costruzione del sistema può avvenire presso il fornitore (normale per gli embedded system) o presso il sito finale. Essa avviene in accordo ai disegni di assemblaggio dell'impianto e dell HDS. Le Software Review controllano il rispetto delle specifiche e delle metodologie di sviluppo. Esse debbono essere svolte da personale esperto e indipendente (vedi Appendice D5). Il Test di sviluppo è svolto dal fornitore e copre: • Software development test (funzionale e strutturale), • Hardware manufacturing test, • Sw/Hw integration test, • Instrumentation & electrical equipment manufacturing test. I Test di accettazione debbono essere formalmente documentati, rivisti e approvati. Essi debbono avere una severità basata su caratteristiche del sistema e criticità GxP. Normalmente sono divisi in FAT e SAT. Il FAT di standalone system può essere svolto con simulazione del processo. Il FAT è fonte preziosa di informazioni per la messa a punto finale del sistema. Il SAT controlla che il sistema non abbia subito danni nel trasporto e operi correttamente nel suo ambiente finale. Normalmente la procedura di accettazione SAT è identica a quella FAT, più alcuni test eseguibili solo nell'ambiente target. Se le modalità di test sono sufficientemente rigorose il SAT può fornire la base di IQ e OQ (vedi ISPE Baseline: Guide on Commissioning and Qualification). La strumentazione di campo va calibrata prima e dopo la consegna del sistema. La Qualificazione verifica che il PCS può essere usato presso la struttura dell'utente. La IQ controlla: • Il corretto caricamento del software • Il corretto assemblaggio e installazione dell'hardware • I cablaggi di alimentazione e di segnale • Il controllo della calibrazione e della installazione della strumentazione • Il corretto funzionamento di diagnostica di power-up e on-line. La OQ la PQ verificano che la funzionalità del sistema sia adeguata nelle condizioni operative reali, anche di stress e allarme. Alla fine della qualificazione viene redatto il Validation Report. Si consideri che normalmente la PQ va in parallelo al Process Qualification. Il Mantenimento dello stato di validazione implica la definizione di piani e procedure di assistenza e supporto, che possono coinvolgere il fornitore. In particolare deve essere definita la procedura per la ricalibrazione e il controllo periodici della strumentazione. I review periodici debbono essere focalizzati soprattutto alla verifica dei seguenti attributi di sistema: affidabilità, ripetibilità, prestazioni e diagnostica, salvaguarda di dati critici, etc. Tutte le modifiche debbono essere sottoposte a Change Control e Configuration Management. Il Decommissioning come al solito deve verificare la possibilità di archiviare e ritrovare dati contenuti nel sistema e rilevanti ai fini del tracciamento di qualità o del rispetto di specifiche normative.