il problema degli errori.

Transcript

il problema degli errori.
LA GESTIONE DEL RISCHIO IN
SANITA’: IL PROBLEMA DEGLI
ERRORI.
II Modulo
Manuela Brusoni
Copyright © 2007 SDA Bocconi, Milano
Nota
SDA Bocconi School of Management
Il problema del rischio in sanità: il problema degli errori
Manuela Brusoni
La gestione del rischio in sanità: il problema degli errori.
II Modulo
Introduzione
La letteratura sul tema degli errori in sanità si è arricchita di contributi in modo esponenziale a partire dal
1999 ad oggi. Essa ha come capisaldi alcuni autori che hanno posto le basi per una rilettura non strettamente
medica, ma organizzativa, del problema degli errori.
Tra questi il medico americano Lucian Leape, della Harvar School of Public Health, il britannico James Reason, professore di psicologia, e il pediatra americano Donald Berwick, dedicatosi fin dai primi anni ’80 al
Quality Management and Improvement nelle organizzazioni sanitarie. e attualmente leader dell’Institute of
Health Improvement1.
Vengono di seguito presentati i principi ed i concetti chiave su cui si sono sviluppate le ricerche sulla sicurezza e gli errori in sanità, che, a parere di chi scrive, costituiscono i fondamenti di ogni approccio alla gestione del rischio nelle organizzazioni sanitarie.
Comprendere la natura dell’errore
La produzione scientifica di L. Leape e quella di Reason si intrecciano nel tempo fin dai primi anni ’90,
quando Reason propone un framework unitario, sostenuto da evidenze empiriche, che cattura i temi centrali
della teoria cognitiva, e a cui Leape aderisce. Le ragioni del ricorso ad una teoria cognitiva risiedono nel fatto che, se gli errori derivano da distorsioni nel processo cognitivo, è necessario rifarsi ad esso per interpretare
gli errori stessi.
Reason suggerisce due tipici schemi mentali: uno “schematic control mode” ed un “attentional control mode”. Il primo regola la maggior parte delle nostre azioni, entra in funzione in modo automatico, rapido, in parallelo e senza sforzo ( tutte le attività di routine che giornalmente si ripetono: lasciare la casa per andare al
lavoro, guidare la macchina, attivare il computer…). Il secondo è chiamato in azione quando si affronta un
problema; di conseguenza il processo è lento , sequenziale, richiede sforzo, attenzione e concentrazione.
In questo caso si possono attivare tre possibili approcci:
a) il primo approccio, di livello 1, si basa sull'abilità e sull'abitudine (skill-based); queste sono parzialmente inconsce, si potrebbero definire alternative di azione pre-programmate,
b) un secondo approccio, di livello 2 si basa su un sistema di regole già assimilate, secondo il modello
"Se X, allora Y" (rule-based);
c) un terzo approccio, basato sulla conoscenza (o pensiero sintetico) si attiva per tutte le nuove situazioni che richiedono un cosciente processo analitico che si rifà a conoscenze già note (knowledgebased).
1
IHI individua nella sicurezza la dimensione e la priorità strategica di ogni approccio ed intervento al miglioramento della qualità dei
servizi sanitari.
Copyright © 2007 SDA Bocconi, Milano
2
SDA Bocconi School of Management
Il problema del rischio in sanità: il problema degli errori
Ogni allontanamento dalla routine attiva il livello 2 o il livello 3 di approccio.
Gli errori vengono classificati con riferimento a questi tre livelli.
Gli errori skill-based sono chiamati “slips”, gli errori rule-based e knowledge-based sono chiamati “mistakes”.
Le sviste (slips) sono tipicamente errori dovuti a disattenzione ed involontari ( rientrare alla vecchia abitazione, anziché nella nuova, dopo un recente trasloco, mettere il sale nel caffè, rispondere al cellulare quando
suona il telefono fisso, entrare in una stanza e non ricordare perché si è lì, etc, etc…). Sono causati da una
varietà di fattori (stanchezza, insonnia, preoccupazioni, sovraccarico di lavoro…)
Gli errori veri e propri (mistakes) possono essere:
† la conseguenza del fatto che durante la soluzione di un problema si applica la regola sbagliata
† la mancanza di conoscenze o la cattiva interpretazione di un problema, ad esempio distorsioni
della memoria o la tendenza ad usare la prima informazione che viene in mente.
Nella tabella seguente è riportata una sintesi delle tipologie di possibili errori.
Eventi avversi da cause attribuibili all'uomo.
• Errori involontari
† "slips", disattenzioni/sbagli involontari di esecuzione del piano di azione
† "lapsus" della memoria/dimenticanze
• Errori in seguito ad azione deliberata
† deviazioni da una pratica medica standard (ruled-based mistakes)
† mancanza di conoscenze in una situazione nuova ed applicazione di regole inadatte (knowledgebased mistakes)
• Violazioni della pratica codificata
† prendere una scorciatoia (routine violation)
† infrangere un protocollo
† inesperienza (spesso associata ad eccesso di fiducia)
† azione deliberata (esempio eutanasia)
† necessità (necessary or situational violation)
(Da G Neale, in Vincent C Ed: Clinical Risk Management, London 254, BMJ
Publications 1995, modificata).
Copyright © 2007 SDA Bocconi, Milano
3
SDA Bocconi School of Management
Il problema del rischio in sanità: il problema degli errori
Quando si verificano gli errori
Comunque sia, gli errori aumentano in condizioni di forte stress; le sviste sono più comuni, ma il tasso di
errore nei processi che richiedono attenzione e problem-solving è maggiore.
Le vicende relative a grandi disastri ( come ad esempio Chernobyl e Linate) a seguito di investigazioni approfondite hanno dimostrato che l’errore dell’operatore era solo parte della spiegazione del collasso nel funzionamento di sistemi complessi. In realtà le catastrofi erano riconducibili a gravi carenze nella progettazione e nella gestione dei relativi sistemi organizzativi, eventi avversi avvenuti magari tempo prima del verificarsi dell’incidente e tali per cui, al verificarsi dell’errore umano, causarono danni irreversibili. Reason li ha
chiamati errori latenti “accidents waiting to happen”, errori cioè che possono manifestare i propri effetti dopo
un certo intervallo di tempo, al contrario degli errori attivi, che hanno effetti immediati. In altre parole, nonostante l’esecutore di una certa azione che ha effetti negativi sia l’operatore, in un certo senso la causa profonda era “in attesa” di manifestarsi. Leape dice letteralmente : “the operator has, in a real sense, been “set
up” to fail by poor design, faulty maintenance, or erroneous management decisions.”.
Errori attivi ed errori latenti solitamente sono concause degli eventi avversi. Gli errori attivi sono commessi
dalle persone in contatto con il paziente ed impattano in modo diretto sulle difese del sistema. Di conseguenza, se ci si “accontenta” di identificare chi ha effettuato un atto dannoso, non si indagano ulteriormente le
cause di tale azione. Ma solitamente tali atti hanno un’origine a monte nel tempo e nel flusso del processo.
Gli errori latenti sono definiti da Reason come gli inevitabili “ resident pathogens” del sistema. Sono quindi
strutturati nel sistema e, a differenza degli errori attivi che sono difficili da prevedere, possono essere identificati e rimossi prima che un evento avverso abbia luogo.
Come affrontare gli errori
Ciò implica che la loro prevenzione deve concentrarsi sull’individuazione e la rimozione delle cause profonde, vale a dire degli errori di sistema nel design e nella implementazione dello stesso.
Reason usa l’analogia dei moscerini: gli errori attivi sono come moscerini, si possono scacciare ma continuano a infastidire. Più efficace sarebbe prosciugare lo stagno in cui prosperano (la causa latente), rimuovendone l’origine.
I mezzi da adottare per la prevenzione degli incidenti, data la molteplice origine di questi ultimi, non possono
essere nè semplici nè uguali per tutti i sistemi organizzativi. Tuttavia devono essere ispirati ad un comune
metodo, che consiste nell’analisi dei possibili interventi di riduzione degli errori ad ogni fase del processo:
progettazione, realizzazione, manutenzione, allocazione delle risorse, formazione del personale, definizione e
controllo delle procedure operative.
Questo implica la necessità di scoprire le deficienze del sistema per ridisegnare e riorganizzare i processi. Il
cambiamento dei processi deve essere orientato a ridurre la possibilità di commettere errori al momento
dell’interazione con l’utente finale.
Copyright © 2007 SDA Bocconi, Milano
4
SDA Bocconi School of Management
Il problema del rischio in sanità: il problema degli errori
Lo “sharp-end” del sistema
In questa direzione si inseriscono le riflessioni di Reason relativamente a chi sta a diretto contatto con il paziente ( lo “sharp-end” del sistema), che costituisce la difesa primaria del sistema, laddove sia in grado di attivare una sorta di “error wisdom”, cioè di avere competenze, ma anche spazi discrezionali di azione, per
compensare gli errori che si addensano nelle fasi finali del processo.
Infatti, quando si lavora “alla frontiera”, oltre a segnalare l’opportunità di avviare cambiamenti radicali nei
processi, bisognerebbe essere equipaggiati con alcune basilari abilità mentali per riconoscere e, se possibile,
evitare situazioni ad alto potenziale di errore. Reason utilizza il modello dei tre secchi: in una data situazione,
la probabilità di errori è funzione della robaccia (bad stuff) contenuta in ogni secchio, suddivisa in tre categorie: personale (mancanza di adeguate conoscenze, stanchezza, sovraffaticamento, inesperienza, preoccupazioni personali) del contesto (distrazioni, interruzioni, cambiamento nei turni, mancanza di tempo, mancanza
di materiali o tecnologie fuori uso) della fase del processo (le fasi finali, la mancanza di collegamento tra una
fase e l’altra).
Allenare chi sta a contatto con il paziente ad un apprezzamento veloce dell’ accumulo di tre tipi di robaccia
dovrebbe far suonare un campanello di allarme ed allertare le persone ad attivare una particolare attenzione.
Questa riflessione si inserisce nel filone di ricerca organizzativa a cui si fa riferimento per la gestione della
sicurezza in sanità ( le organizzazioni ad elevata affidabilità , High Reliability Organizations- Weick e Roberts).
Idealmente quindi un sistema dovrebbe avere meccanismi di salvaguardia e di intervento, vuoi automatici,
vuoi legati alla capacità di intervento proattivo delle persone, per affrontare gli errori. O almeno dovrebbero
essere applicati meccanismi atti a svelare gli errori in tempo utile perchè vengano corretti (sistemi "tampone", ridondanza o duplicazione di meccanismi critici, disegno di compiti predefiniti).
Gli approcci di sistema
Uno studioso di statistica, Nolan, (Nolan, BMJ, 2000) propone alcune strategie per cambiare i sistemi al fine
di migliorarne la sicurezza. Esse sono:
† prevenire gli errori ( lavorare a monte nell’impostazione del funzionamento del sistema, sia sui
fattori più evidenti, come le persone ed i compiti correlati ai pazienti, sia sui fattori meno ovvii,
come il contesto istituzionale, la gestione delle attività di supporto ed il complessivo ambiente di
lavoro)
† rendere visibili gli errori (attraverso procedure ed accorgimenti che rendano gli errori più evidenti a chi opera nel sistema, consentendo loro di correggerli prima che causino danni. I doppi controlli ne sono un esempio, o l’educazione dei pazienti, incoraggiati a porre domande ed a parlare
in caso di circostanze inusuali)
† mitigare gli effetti degli errori ( quando gli errori non vengono intercettati prima che raggiungano
il paziente, devono essere previsti contromisure per contenerne l’effetto o se possibile, annullarlo.
Gli antidoti per farmaci ad alto rischio, disponibili al punto di somministrazione ne sono un esempio).
Le tattiche per ridurre gli errori si possono riassumere in cinque categorie:
Ridurre la complessità- la complessità è fonte di errore, quindi il disegno e ridisegno dei processi la deve
ridurre al minimo, attraverso, ad esempio: la riduzione del numero di operazioni e fasi, il numero delle possibili opzioni, la durata di svolgimento, la dovizia di informazioni necessarie e di possibili modalità di azione,
l’insorgere di altri compiti che possono distrarre l’attenzione. L’obiettivo, per utilizzare una locuzione tipica
dell’operation management è quella di ottenere una lean and flawless production. Leape dà diversi esempi di
complessità foriera di errori: differenze nelle dosi e tempi di somministrazione, differente posizionamento
delle attrezzature di emergenza nelle diverse unità organizzative, differenti metodologie per gli stessi allestimenti chirurgici, senza contare i ritardi, le informazioni mancanti ed altri possibili difetti operativi, che devono essere indagati e rimossi.
Copyright © 2007 SDA Bocconi, Milano
5
SDA Bocconi School of Management
Il problema del rischio in sanità: il problema degli errori
Ottimizzare l’elaborazione di informazioni- ciò costituisce il cuore dell’assistenza sanitaria, quindi: migliorare la comprensione, ridurre l’affidamento alla memoria, riservando l’attenzione per i compiti più importanti. Quindi usare protocolli, memo, codici colore, differenziazione di dimensioni e forme, eliminazione di nomi e definizioni assonanti.
Automatizzare in modo saggio: l’automazione , perché sia un effettivo aiuto, deve sempre essere guidata dal
miglioramento del sistema. In altre parole non si automatizza un processo solo perché è possibile, si usa la
tecnologia per supportare, non sostituire l’operatore, si analizzano nuovi problemi che possono insorgere a
seguito dell’automazione, ad esempio spostando i punti di attenzione negli interventi umani- l’infusione automatizzata di medicinali sposta l’attenzione dell’operatore dalla concentrazione del farmaco alla corretta
impostazione del meccanismo
Utilizzare restrizioni e vincoli alle azioni- per impedire interventi scorretti. Di tipo fisico (una spina a tre
rebbi non può essere inserita in una presa a due), spesso usati nelle tecnologie; di tipo procedurale, per aumentare la difficoltà nell’esecuzione di certe azioni (moduli che predefiniscono solo alcune possibili scelte,
standardizzazione in alcuni set di strumenti, impossibilità di ordinare alte dosi di alcuni farmaci ad alto rischio). Un particolare tipo di vincoli sono quelli di tipo culturale (un esempio sono le convenzioni incorporate nelle culture nazionali), quali ad esempio un passaggio di consegne completo o l’utilizzo di abbreviazioni
codificate e quindi immediatamente comprensibili a tutti gli operatori, che sono parte di ogni sistema di sicurezza evoluto.
Mitigare gli effetti non voluti dei cambiamenti- anche delle innovazioni (nuove soluzioni terapeutiche, nuove tecnologie). L’introduzione di miglioramenti avviene secondo una curva di apprendimento, durante la
quale si possono manifestare possibilità di errore: è necessario avvertire di queste possibilità, testare prima i
cambiamenti su aree pilota, formare le persone, ridefinire i processi di lavoro, monitorare gli effetti.
Le logiche di fondo
Naturalmente i cambiamenti devono essere fortemente voluti e agganciati a obiettivi definiti. Misurare diventa quindi un passaggio chiave. Il monitoraggio, la concentrazione sui compiti essenziali (i vital few di Pareto)
in cui si concentra la variabilità ed il controllo statistico di processo (Deming) sono la basi anche nella ricerca di gradi più elevati di sicurezza.
Nel proporre possibili cambiamenti di sistema per ridurre gli errori in sanità, gli autori citati si rifanno nella
sostanza alle metodologie del quality improvement, laddove suggeriscono, in primo luogo, di definire il problema: la raccolta sistematica di dati ed informazioni, benché costosa, è l’unico modo per monitorare in tempo reale il verificarsi di situazioni negative. D’altra parte, come ben ha interiorizzato chi si occupa di qualità,
i costi del monitoraggio sono inferiori ai costi della non-qualità che devono scoprire (aumento di giornate di
degenza inappropriate, ripetizione di trattamenti, costi assicurativi…).
La prevenzione degli errori può avvalersi di alcuni meccanismi:
† va ridotto al minimo il ricorso a fattori umani come la memoria a breve termine e la vigilanza,
† va migliorato l'accesso alle informazioni attraverso l'uso del computer,
† vanno inseriti sistemi a "prova di errore",
† vanno standardizzati i processi ogni qual volta ciò sia possibile,
† va addestrato il personale.
Come già detto, molti dei principi chiamati in causa riportano agli insegnamenti del Total Quality Management: l'errore diventa opportunità per migliorare. Tuttavia, al contrario che in altri settori, ad esempio quello
del trasporto aereo, la sicurezza in medicina non è stata mai istituzionalizzata. Le indagini sugli incidenti sono spesso superficiali, a meno che non sia in atto un'azione legale per "malpractice". L'errore che non dà luogo a lesioni (near miss) raramente viene preso in esame.
L’incident reporting viene interpretato- o utilizzato- come strumento di punizione; di conseguenza, gli incidenti spesso non sono registrati e catalogati e, quando lo sono, l'accento è posto sulla cattiva condotta individuale.
Copyright © 2007 SDA Bocconi, Milano
6
SDA Bocconi School of Management
Il problema del rischio in sanità: il problema degli errori
Ciò che emerge con evidenza è che il cambiamento fondamentale per fare qualche progresso significativo
nella riduzione degli errori è di tipo culturale, a partire dal top management.
Il punto della situazione
Proprio su questi temi insistono Berwick e Leape nella loro verifica sui progressi fatti e sulle lezioni apprese
a cinque anni di distanza dal rapporto IOM “To Err is Human” ( “Five years after to err is human: what have
we learned?”, JAMA 2005). Essi infatti rilevano come si sia riorientato il tipo di riflessioni ed il livello di
attenzione e di coinvolgimento al problema. Tuttavia i progressi sembrano ancora molto lenti e le barriere a
sviluppare e radicare una cultura della sicurezza sembrano insormontabili.
Si sono ottenuti tuttavia diversi risultati:
a) si condivide la necessità di prevenire gli errori ( non ci si chiede più se davvero il problema esiste,
ma che cosa si può fare per contrastarlo)
b) si sono coinvolti i principali stakeholders ( governo, professionisti, pazienti)
c) si sono cambiate alcune prassi legate agli errori ( liste di prassi sicure, basate su evidenze, ad esempio la corretta identificazione del paziente, la verifica del sito chirurgico- l’inclusione di queste negli
standard di accreditamento)
Tuttavia le barriere sono ancora rilevanti. Tra queste:
† la complessità produttiva della sanità
† la cultura della performance individuale
† la paura a discutere degli errori
† la carenza di leadership per la sicurezza (Comitati di Direzione e top management)
† le misurazioni adatte (indicatori che misurino la sicurezza, non la cause di malpractice)
† il sistema dei rimborsi (curiosamente, si ricevono maggiori rimborsi per supplementi di
trattamenti indotti da processi non corretti).
Gli autori si chiedono che cosa si può allora fare, ed indicano :
† l’informatizzazione delle informazioni sui pazienti ( electronic health record)
† l’accelerazione nell’adozione di prassi sicure ( cose da fare e cose da non fare)
† la formazione a medici ed infermieri al lavoro in team ( da includere in un percorso formativo necessario, del tipo ECM)
† la disclosure dei danni ai pazienti ( a questo proposito gli autori affermano che si stanno accumulando evidenze che dimostrano come ciò non aumenti il rischio di essere citati)
† una forte pressione in questa direzione verso tutti coloro che operano nella sanità, ma con particolare forza verso i decisori, meglio se proveniente dalla società intera.
† La definizione di obiettivi di sicurezza a livello nazionale
Gli ostacoli non sono di tipo tecnico, ma di tipo culturale: non diventeremo sicuri finchè non decideremo di
diventare sicuri.
Copyright © 2007 SDA Bocconi, Milano
7