Gli Indicatori sono utili al Miglioramento della Qualità e della Sicurezza

Transcript

Gli Indicatori sono utili al Miglioramento della Qualità e della Sicurezza
Gli Indicatori sono utili al Miglioramento della Qualità e della Sicurezza ?
Vahè Kazandjian, Baltimore
Ulrich Wienand, Ferrara
Molte aziende sanitarie cercano di costruire dei propri sistemi per la valutazione della performance,
comprendendo sotto questo “termine-ombrello” l’uso di indicatori economici, organizzativi e
clinici. All’interno dei sistemi di governance aziendale e di verifica dei risultati, sovente è più
articolata la strumentazione per la valutazione economica ed organizzativa rispetto alla capacità di
produrre informazioni relative all’efficacia e all’appropriatezza delle prestazioni.
Sheldon1 già nel 1998 sottolinea che “gli indicatori di performance non sono delle semplici entità
tecniche, ma contengono elementi programmatici e normativi che si riferiscono ad idee e concetti
che influiscono sulla prassi”. Allo stesso tempo, vengono manifestate periodicamente
preoccupazioni rispetto all’uso di indicatori di performance, soprattutto da parte dei clinici 2.
Tutti i sistemi attuali di accreditamento richiedono alle strutture sanitarie l’uso di indicatori di
performance clinica, a volte integrati nei requisiti stessi a volte permettendo l’uso di sistemi esterni
o la creazione “ad hoc”.
I sistemi di misura della performance basati su indicatori sono pensati per individuare all’interno
delle organizzazioni sanitarie le aree che necessitano di miglioramento. Molti indicatori esplorano
universi parziali di performance (lavorando su porzioni dell’intero universo di eventi), ma, in fin dei
conti, tutti gli indicatori si concentrano su una domanda: “che cosa è successo ?” La domanda “che
cosa” dovrebbe permettere - a chi vi è preparato - di esaminare poi con cura la seconda domanda:
“perché è successo ?” La reciproca relazione fra le domande “che cosa” e “perché” stabilisce il
nesso fra outcome e processi.
Lo scopo del presente lavoro è quello di discutere l’utilità di una misurazione basata su indicatori
specifici per il tema del miglioramento della performance.
on si misura la qualità ma la performance
Recentemente si sta riscoprendo, con rinnovata attenzione, la questione degli errori in medicina,
proseguendo l’interesse – durato vent’anni – per la qualità dell’assistenza e per la misura
dell’appropriatezza. Partendo dai primi anni 80 3,4,5 , coloro che promuovono i sistemi di misura
della performance basati su indicatori hanno compiuto ragionevoli progressi nel dibattito su qualità
e appropriatezza. Ci si è allontanati da dichiarazioni soggettive sull’essenza della qualità e si è data
una spinta all’esame degli indicatori [rate based] e all’uso di affidabili misure della performance
delle organizzazioni sanitarie.
In primo luogo, sarà utile definire i termini “qualità” e “appropriatezza”. Appropriatezza è “fare la
cosa giusta per la persona giusta al momento giusto”, considerando anche problemi relativi alla
sicurezza ed al rischio. Pertanto, il concetto di appropriatezza non comprende solo “fare la cosa
giusta” ma lo colloca anche nella ponderazione dei “pro” e “contra” di diversi approcci 6, 7, 8, 9, 10 . A
livello clinico, ma anche nel contesto più ampio dell’organizzazione, la definizione di
appropriatezza può comprendere l’uso di risorse ed aspetti di effectivenessa. Efficienza, invece, è un
concetto legato alla produzione e non coincide con quello di appropriatezza, dato che è possibile
produrre servizi inappropriati in modo molto efficiente.
Qualità è un concetto per il quale non esiste una misura diretta. Molti sistemi di misura della
performance inizialmente hanno cercato - o promesso - di misurare la qualità, mentre sono andati a
finire a misurare esattamente ciò che è il loro descrittore ovvero “performance” 11.
Intendiamo per performance la capacità di un’organizzazione di avere le conoscenze necessarie per
applicare con successo le proprie competenze e per svolgere i processi decisionali al fine di
affrontare bisogni definiti dei propri fruitori. Per ora, il rapporto fra performance e qualità può
essere definito nella seguente maniera “Qualità è la valutazione della performance”12. Infatti, nel
presente lavoro il concetto di qualità viene trattato in relazione al processo della valutazione, non a
quello della misurazione. L’utilità di questo tipo di definizione sta nella sua praticità: mentre è
possibile misurare la performance tramite indicatori o altri strumenti quantitativi, la traduzione della
performance in qualità avviene tramite la valutazione. Da ciò consegue che non esiste una misura
diretta della qualità tramite indicatori, tassi, o altri indici basati su costrutti statistici.
on sono gli indicatori a misurare la qualità, ma le persone
E’ inconfutabile – e ciò fa parte della natura umana – che si ponesse molta speranza nelle
potenzialità degli indicatori di misurare direttamente la qualità o l’appropriatezza, attraverso
qualche operazione statistica. Effettivamente, sarebbe stata una cosa meravigliosa se gli indicatori
avessero potuto misurare la qualità e ci avessero permesso di dimostrare accountabilityb tramite
report o graduatorie13, 14, 15. Purtroppo, ci si è resi conto che gli indicatori di per sé non fanno altro
che puntare su aree o aspetti dell’assistenza che richiedono all’utilizzatore dell’informazione di
essere interpretati e valutati 16. Quindi, il successo di un sistema di indicatori di performance sta più
nella formazione e nell’aggiornamento continuo degli utilizzatori dei dati piuttosto che nelle
prodezze statistiche dei suoi indicatori. Infatti, un buon “puntatore” è capace di guidare
a
b
Nota sulla differenza fra “efficacy” e “effectiveness” ?
Nota sul termine “accountability”.
l’utilizzatore dell’informazione verso una specifica area di performance che ha bisogno di
miglioramenti o che deve essere messa in risalto per il suo livello di eccellenza.
Interpretazione non equivale a valutazione
Quando si progetta un sistema di misurazione della performance, ci sono degli orientamenti
filosofici che impongono l’assetto delle dimensioni quantitative.
La prima dimensione è quella di una raccolta affidabile dei dati, definita in maniera stringente e
revisionata periodicamente. Questa dimensione ha a che fare con la misurazione della performance
come uno schema statistico nel quale tutti i requisiti per la progettazione ed applicazione di un set
statistico di misure vengono affrontati e controllati periodicamente. Il sistema di misurazione è
generico, le singole misure sono prive di bias e prescindono da giudizi di valore. Con quest’ultimo
concetto intendiamo dire che le misure di per sé non indicano che cosa sia giusto o sbagliato, e
nemmeno possono suggerirci se una variazione numerica connoti un miglioramento della
performance o meno. Modelli centrati sulla statistica permettono una sistematica e continua
quantificazione di aspetti della performance fra diversi erogatori [performer].
La seconda dimensione riguarda l’attività della valutazione vera e propria. Il termine “valutazione”
può essere compreso meglio rifacendosi all’origine della parola che contiene l’etimo “valore” al
proprio interno. Quindi la attività di valutazione comprende il conferimento di un valore alla
performance osservata statisticamente. Una volta che i valori sono compresi e applicati,
l’interpretazione del messaggio che i dati statistici propongono, può avvenire responsabilmente.
Pertanto, noi riteniamo che la differenza fra interpretazione e valutazione imponga di comprendere
che cosa i sistemi di misurazione della performance possano dare a diversi gruppi di erogatori, ed
anche ai partecipanti ad un sistema di misura della performance, geograficamente lontani fra di loro.
Il fatto che l’interpretazione sia diversa dalla valutazione pone in primo piano il problema della
non-generalizzabilità dell’interpretazione di fronte ad una applicabilità generale della misurazione.
Il presente scritto propone l’assunto che la misurazione della performance è generale, mentre la
valutazione è locale; partendo dalla definizione di qualità data all’inizio, un corollario diventa “la
misurazione è generale, ma la decisione sulla qualità è sempre locale”. Questa distinzione
suggerisce a coloro che progettano sistemi di misurazione della performance di seguire una strategia
duplice,
•
costruendo da una parte un set di misure e metodi il più generico possibile, anche
prescindendo dai sistemi sanitari,
•
riconoscendo che il successo di tale approccio sarà raggiunto solo se viene data una
formazione specifica a coloro che applicano le misure nei diversi sistemi sanitari e in diversi
ambiti geografici.
Questa distinzione ci dà una definizione più esauriente di un sistema di misurazione, enfatizzando
non solo la bontà delle misure ma anche l’importanza di ciò che le persone fanno con quelle misure.
Di conseguenza, la interrelazione fra misurazione, interpretazione e valutazione mette sul tavolo la
questione “accountability”.
L’accountability segue la misurazione
Accountability è un contratto 10, 17. E’ un accordo fra almeno due parti, fra gli erogatori e coloro che
gli chiedono una performance pari o maggiore alle aspettative e promesse. In questo senso la
accountability in sanità richiede la dimostrazione che gli erogatori delle cure e dell’assistenza
possano giustificare l’autorizzazione all’esercizio, ma anche la rispettiva remunerazione. Sembra
pertanto abbastanza ragionevole affermare che non vi può essere accountability senza misurazione.
Inoltre, ci si può aspettare che la misurazione in sé avvenga in maniera conforme a norme accettate
dalle parti coinvolte nel contratto della accountability. In altre parole, l’erogatorec non può usare
una metodologia “a scatola chiusa”, che rimane sconosciuta nei suoi dettagli agli altri contraenti. La
sequenza logica verso la accountability va quindi dalla misurazione alla divulgazione dei dati e,
infine, verso un accordo congiunto sulla bontà di quanto era promesso/aspettato e di quanto è stato
fornito. [Fig. 1]
In questa sequenza, relativamente semplice, il pagatore dei servizi ha il diritto fondamentale di
rifiutare il pagamento se il risultato non giustifica la spesa o se l’erogatore non è disponibile a
rendere noti i dettagli dei processi che potrebbero spiegare la natura dei risultati. In molte industrie
il pagatore può esercitare il diritto descritto sopra e limitare la gamma delle attività che l’erogatore
può erogare venendo remunerato. Con tale potere il pagatore può togliere dal mercato un erogatore
irresponsabile e, addirittura, rifiutare la autorizzazione all’esercizio nel contesto sociale nel quale la
performance viene erogata.
In sanità, la situazione è abbastanza differente. Benchè la discussione sull’accountability stia
riscuotendo nuovo interesse, le modalità di divulgazione sono ancora poco chiare perché i metodi di
misurazione mostrano ancora notevole variabilità e mirano a focus diversi. Infatti, gli utenti ed i
pagatori dei servizi sanitari raramente hanno il diritto dichiarato – a volte nemmeno l’opportunità –
di interpretare appieno e valutare la bontà della performance che gli erogatori dimostrano.
Storicamente, l’erogatorec era implicitamente anche un giudice, dato che i medici sostenevano che
c
Nota su erogatore nella duplice accezione di performer e provider
la performance di un collega potesse essere valutata solo dai consimili. Ciò definiva in senso stretto
una professione valutata “tra pari” 18, 19. La definizione di accountability, come delineata sopra, non
è per ora applicata al comportamento tradizionale dei professionisti della sanità ed ai sistemi
sanitari.
Invece, l’accountability, per potersi realizzare, ha bisogno che le conoscenze sugli aspetti chiave
della performance siano condivise esplicitamente con le varie controparti e permettano una
valutazione congiunta della appropriatezza e del risultato 10. E’ qui che il tema della misurazione di
performance, specialmente nell’ambito della sicurezza dei pazienti, si pone all’ordine del giorno.
Il concetto di sicurezza e la sua operazionalizzazione
Chiunque pensi all’assistenza sanitaria, pensa alla sicurezza come prerequisito. (Infatti, sarà difficile
trovare una qualche industria dove la sicurezza non sia un prerequisito). Comunque, il concetto che
crea più confusione quando si parla di assistenza sicura è quello del rischio. Storicamente, e spesso
ancora oggi, gli erogatori di assistenza sanitaria hanno instillato nelle menti dei pazienti una
relazione diretta fra rischio e sicurezza. Anche se non esplicitamente, i fruitori dei servizi sembrano
convinti che errori e – di conseguenza – violazioni della sicurezza debbano essere attesi ad ogni
contatto con il sistema sanitario, data la natura “rischiosa” della professione. Questa aspettativa
sembra forse avere un fondamento ragionevole di facciata, ma viene messa sempre più in
discussione come atteggiamento difensivo e autoreferenziale, come se gli errori fossero fuori dalla
portata degli erogatori e perciò non ci fosse accountability sugli errori.
Rischio calcolato
Correre dei rischi fa parte della routine quotidiana in tutte le attività umane: alcuni rischi si corrono
consapevolmente ed altri con vari gradi di inconsapevolezza, di proposito o no. Responsabilità nel
proprio comportamento ed eventuale accountability verso altri sono ragionevolmente basati su
rischi calcolati. L’epidemiologia ha dimostrato in maniera convincente le correlazioni fra abitudini
alimentari, stili di vita, decisioni sui mezzi di trasporto, comportamenti preventivi, addirittura fra
l’equilibrio emotivo ed il nostro benessere complessivo. Queste correlazioni includono un concetto
di rischio basato sul rapporto fra esposizione ed esito e sono stratificate per gruppi demografici. Se
qualcuno decide di correre un rischio, ci si aspetta che le conoscenze disponibili servano come
guida per i processi decisionali e per ritenere responsabile la persona se l’esito riguarda la
popolazione generale direttamente o indirettamente.
Quando i rischi sono calcolati, ovviamente sono basati su informazioni quantitative provenienti da
stime precedenti sul rapporto fra atti e conseguenze, come anche sul rischio potenziale basandosi
sulla frequenza o intensità dell’esposizione. Per arrivare a ciò, rigorosissimi metodi statistici,
biologici ed epidemiologici hanno affinato gli strumenti di quantificazione ed interpretazione.
I rischi che l’assistenza sanitaria comporta, intesi come sistema e come tipi specifici di esposizione,
(infezioni ospedaliere, chirurgia invasiva, diagnostica invasiva, ma persino l’esposizione al
“secondo parere!”) 20 differiscono potenzialmente dai rischi epidemiologici, perché i fattori
molteplici che incidono sul risultato in sanità sono raramente conosciuti. Per esempio, è
praticamente impossibile accertare in modo inequivocabile il rischio di morire in ospedale, senza
dover raccogliere un numero astronomico di variabili per ogni paziente e ogni contatto con il
sistema. Anche in contesti e tipi di assistenza altamente specializzati, come nelle terapie intensive,
poche metodologie hanno avuto successo nel calcolo approssimativo dei rischi e degli esiti, persino
con l’aiuto delle più avanzate tecnologie informatiche e delle migliori conoscenze mediche. Se il
rischio della mortalità intraospedaliera (statisticamente un evento raro) è così complicato da
calcolare, allora gli effetti avversi, le co-morbidità, le conseguenze psicologiche sono veramente
sfidanti. Pertanto, ai fini pratici, il concetto di rischio è molto vago e nella maggior parte delle
situazioni non aiuta il paziente ad accertare a quali conseguenze va incontro nei contatti
apparentemente routinari con il sistema sanitario. Inoltre, il legame fra rischio e sicurezza è
veramente poco documentato, eccezion fatta per alcuni contributi recenti nei quali rischio e danno
sono indirettamente legati attraverso il concetto di errore. 21 L’analisi degli errori è ristretti
principalmente ai processi di prescrizione e somministrazione dei farmaci e certe stime di esiti
avversi sono estrapolate dalle poche scoperte di ricerca quantitativa.
22, 23, 24
Sicurezza ed errore
La relazione fra errore e sicurezza è complessa. Non tutte le organizzazioni dove avvengono errori
sono insicure, e non tutte le organizzazioni dove gli errori sembrano non accadere sono sicure.
Infatti, la sicurezza è un concetto relativo, come lo è quello di rischio. La posizione estrema che si
può assumere sarebbe quella di definire “sicurezza” come la totale assenza di errore e di rischio, ma
tale atteggiamento assolutistico può essere non giustificato e nemmeno giustificabile. Pertanto, tesi
del presente scritto è che rischio ed errore variano in maniera tale che un lettore dei dati di
performance può accertare gli effetti di tale variazione sulla sicurezza. La sicurezza deve quindi
includere il rapporto fra rischio e errore, ma può spingersi anche a descrivere l’impatto di rischio ed
errore e le loro variazioni relative al danno o al beneficio per il paziente. Nella testa dei pazienti,
alta sicurezza e bassi tassi di errore possono essere correlati con la “qualità”, ma la natura di questa
qualità può essere influenzata dalle aspettative dei pazienti. (Fig. 1). Non vogliamo affermare che
l’approccio assolutistico della “tolleranza zero per gli errori” sia inadatto e neppure rifiutare la
definizione della sicurezza come assenza di errori. Riteniamo che sia un modello per il quale tutti
quanti dovremmo batterci, ma forse non è quello che al momento può servire come parametro per il
progresso, quale è la sicurezza intesa come numero minimo di errori nell’erogazione di servizi
sanitari.
Il ruolo della leadership
In fin dei conti, non importa quanto siano buoni gli strumenti, poiché sulle spalle di coloro che li
usano rimane il compito di utilizzarli al meglio. Nel caso della misurazione della performance e del
miglioramento della sicurezza nei servizi sanitari, gli utilizzatori hanno bisogno di essere incentivati
all’uso di nuovi strumenti, a fare nuovi sforzi, o addirittura a cambiare il proprio paradigma di
pensiero. Gli incentivi non sono monetari, né comportano fama o visibilità. Il presente lavoro
ipotizza che lo stimolo maggiore sia quello di poter vedere i propri leader dedicarsi alla causa di
qualità e sicurezza. Se un leader carismatico di un’organizzazione dimostra, per esempio, quanto sia
importante un certo problema, molti collaboratori lo accetteranno come cosa giusta da fare senza
questionare troppo. Nel caso del miglioramento della performance e dell’aumento della sicurezza, le
pressioni esterne rendono quasi obbligatorie l’adozione di nuove strategie e la rivisitazione di
vecchie filosofie. Queste pressioni esterne assumono la forma di “pagelle” o graduatorie [league
tables] e fanno parte della accountability. Quindi, per ricollegare i vari concetti, possiamo dire che
un mandato esigente di accountability non solo promuoverà l’adozione di nuove strategie per
dimostrare la performance dell’organizzazione, ma indirizzerà in qualche modo la propria efficacia
ad aiutare la comunità ed i pazienti a comprendere meglio che cosa si possa attendere dal sistema
sanitario.
Indicatori e sistemi di valutazione esterna
Infine, sorge una questione interessante: ”un miglior sistema di misurazione della performance
potrebbe portare ad un miglioramento della sicurezza dei pazienti e ad una dimostrazione di
accountability più sensata, oppure, un mandato rigoroso di accountability porterebbe lentamente
verso l’adozione delle più idonee strategie di misurazione e dimostrazione della performance ?” Ci
sono degli esempi sul campo, per ora non conclusivi, che permettono di indirizzarsi verso la
direzione più efficace; in alcuni di essi, le organizzazioni hanno volontariamente unito i propri
sforzi nell’uso di un approccio uniforme per comprendere meglio la propria performance (per
esempio il Maryland Indicator Project), mentre in altri casi, gli organismi di accreditamento come la
Joint Commission, il progetto OCSE, l’Australian Council on Quality of Care 25, hanno aperto la
strada all’esplorazione di metodi di misurazione che potrebbero infine portare alla valutazione
esterna ed alla accountability.
IQIP
Negli USA l’attenzione nei confronti della tematica “performance clinica” risale ai primi anni ’80
ed è proprio in questo contesto che nel 1985, nello stato del Maryland, prese avvio un progetto
pilota denominato “Quality Indicator Project”, su iniziativa di alcune direzioni ospedaliere che
volevano integrare i propri dati economici con quelli di performance clinica. Successivamente il
progetto ha coinvolto istituzioni in tutti gli Stati Uniti e dal 1992 anche all'estero, per arrivare a
circa 600 ospedali, di cui 250 fuori dagli USA (Gran Bretagna, Taiwan, Portogallo, Austria,
Germania, Italia, Svizzera, Giappone, Singapore, Irlanda, Lussemburgo), diventando “International
Quality Indicator Project (IQIP)”.
La maggior parte degli indicatori è "hospital-wide", adatto quindi per un confronto fra interi
ospedali, non fra singole unità operative.
Rispetto ad altri sistemi di indicatori utilizzabili in ambito sanitario, il progetto IQIP consente ad
ogni ospedale, in virtù dell’alto numero di partecipanti in tutto il mondo, di valutare, per ciascun
indicatore scelto, il proprio posizionamento sia rispetto alla media nazionale, europea ed
internazionale, sia rispetto a gruppi di strutture, selezionate in base a caratteristiche analoghe alla
propria (“peer groups”).
Attualmente è possibile monitorare 22 indicatori, ciascuno suddiviso in più sottomisure specifiche
(344 “measures” in totale).
La partecipazione è volontaria e le strutture sanitarie di ogni nazione possono costituire centri
nazionali di coordinamento, purchè siano presenti nel progetto almeno 5 ospedali. Ogni ospedale
che aderisce al progetto può scegliere per quali e quanti indicatori vuole iniziare la raccolta dei dati;
tipicamente in fase iniziale ne vengono utilizzati dai 2 ai 4, aumentando progressivamente, in base
al proprio interesse ed alle proprie possibilità di raccolta del dato.
Attraverso un’interfaccia web ciascun partecipante, con accesso riservato, inserisce trimestralmente
i valori dei propri dati con dettaglio mensile. Questi vengono elaborati e validati dal sistema e
restituiti sotto forma di report a 20 giorni dall’immissione. Nella reportistica ciascuna struttura
viene indicata con un numero di identificazione anonimo al fine di garantire la riservatezza dei dati.
Questo rapido feedback costituisce un aspetto estremamente importante del progetto, in quanto
permette alla struttura sanitaria di comparare, in tempi brevi, i propri valori con la media europea ed
internazionale per quello specifico indicatore, e di restituire l’informazione ai propri professionisti.
Joint Commission (JCAHO, USA)
Benchè l'accreditamento Joint Commission (JCAHO) de jure non sia obbligatorio per le strutture
sanitarie, negli Stati Uniti de facto è quasi indispensabile per la sopravvivenza degli ospedali. Dal
1998 una parte dei requisiti per l'accreditamento riguarda la misurazione continuativa della qualità
tramite l'utilizzo di indicatori. La misurazione deve avvenire mediante un sistema di indicatori
approvato da JCAHO. Gli ospedali hanno quindi la possibilità di soddisfare i requisiti per
l'accreditamento con l'uso di sistemi interni precedentemente costruiti. La commissione “quasiindipendente” di JCAHO ha rivisto più di 400 sistemi per un totale di circa 15.000 indicatori
(measures). “Oggigiorno più di 100 sistemi di misura della performance che hanno soddisfatto i
criteri continuano ad essere inclusi nell'elenco JCAHO dei sistemi accettabili, di cui 50 sistemi
elencati come 'core measure systems'.”
Esempi di indicatori approvati sono:
•
il tasso dei parti cesarei
•
il tasso di ferite chirurgiche infette
•
il tempo di attesa in pronto soccorso
•
la percentuale di riammissioni non pianificate.
---------------------------------------------------------------
Ai fini dell'accreditamento JCAHO è rilevante come gli ospedali utilizzano al proprio interno i dati
ed indicatori per progetti di miglioramento.
Questa flessibilità concessa da JCAHO ai singoli ospedali presentava anche degli inconvenienti: i
dati, non essendo standardizzati (risk adjusted) non permettono un confronto esterno. “Anche se
molti indicatori ORYX sembrano essere simili, un valido confronto fra organizzazioni sanitarie può
essere fatto solo con l’uso di indicatori uguali, disegnati raccolti in base a specifiche
standardizzate.”
Nel 1999 JCAHO ha chiesto contributi ai professionisti, alle strutture sanitarie, alle associazioni di
ospedali, ai consumatori ed agli esperti di misurazione circa possibili aree su cui focalizzare misure
“core”. Dal 1.7.2004 gli ospedali devono raccogliere dati in maniera standardizzata sulle seguenti
aree:
- infarto miocardio acuto
- scompenso cardiaco
- polmonite
- gravidanza e parto
- infezioni chirurgiche.
Ora si stanno delineando alcuni problemi relativi alla metodologia della raccolta ed elaborazione dei
dati:
La raccolta dei dati sembra impegnativa e costosa perché molte informazioni non sono contenute
nei sistemi informativi correntemente usati e devono essere rilevate con procedure apposite, spesso
manualmente. Per esempio, l’indicatore “beta-bloccanti all’ingresso” conteggia al numeratore tutti i
pazienti cui è stato somministrato tale farmaco entro le 24 ore dall’ingresso in ospedale. Il
denominatore include tutti i pazienti che avevano controindicazioni all’uso di beta-bloccanti.
Questo tipo di rilevazioni presuppone un lavoro impegnativo sulla documentazione clinica.
Molte “core measures” riguardano gruppi specifici di pazienti (p.e. infarto miocardio acuto senza
controindicazioni per beta-bloccanti). Ospedali di grandi dimensioni avranno dei numeri
sufficientemente consistenti per calcolare i tassi su queste popolazioni; per ospedali piccoli i numeri
potrebbero assumere dimensioni esigue, tali da compromettere la confrontabilità.
Le reazioni degli ospedali a queste problematiche non sono univoche, non c’è ancora sufficiente
chiarezza né sul carico di lavoro né sull’impegno di risorse che l’introduzione delle “core measures”
comporterà.
ACHS Clinical Indicators (EquIP, Australia)
L’organismo di accreditamento australiano “Australian Council on Healthcare Standards” (ACHS)
istituì nel 1989 un programma denominato “Care Evaluation Program” (CEP) con lo scopo di
sviluppare misure della qualità delle cure nelle strutture per pazienti acuti. Queste misure che si
sarebbero chiamate “indicatori clinici”, dovevano essere relative alla gestione clinica del paziente
e/o all’esito delle cure e venivano sviluppate in collaborazione con le società scientifiche e le
associazioni professionali. Lo sviluppo degli indicatori cominciò con quelli “hospital-wide” e nel
corso di 10 anni si espanse fino a raggiungere 18 set di indicatori per tutte le maggiori specialità
cliniche.
L’utilizzo del primo set di indicatori (Hospital-wide) veniva introdotto nel programma di
accreditamento del 1993. “In base ai principi della ACHS, ad ogni organizzazione sanitaria che
aveva un contratto con ACHS veniva chiesto di orientarsi su questi indicatori e di fornire i dati dei
propri monitoraggi al CEP ed ai valutatori (per l’accreditamento)…. Nel caso di un confronto
sfavorevole con il peer group, dalle strutture sanitarie ci si aspettavano azioni correttive
appropriate”. (Collopy)
Nel 1997 veniva rivisto il processo di accreditamento e istituito l’“Evaluation and Quality
Improvement Program” (EquIP) che prevede contratti triennali fra strutture e ACHS, una
trasmissione semestrale dei dati, la restituzione di un report con i dati aggregati e con il confronto
rispetto al peer group (determinato in base a variabili organizzative come il numero dei posti letto, il
carattere pubblico o privato, le specialità presenti).
Dal 2000 anche le strutture sanitarie della Nuova Zelanda hanno adottato questi indicatori per il
proprio accreditamento e lo stesso “pacchetto” viene offerto anche in altri paesi asiatici ed europei. I
dati aggregati vengono pubblicati annualmente: dal 1993 al 1998 sono stati pubblicati cinque
volumi con il titolo “Measurement of Care in Australian Hospitals”; dal 2000 è cambiata
l’impostazione del reporting ed i volumi si chiamano ora “Determining the potential of care in
Australian Health Care Organisations”.
Uno dei punti di forza degli indicatori ACHS è costituito dal lungo e paziente lavoro metodologico
e statistico di messa a punto e revisione degli indicatori stessi. Per ogni indicatore lo sviluppo
implica ricerca nella letteratura, bozza a cura di una società scientifica o professionale, prova sul
campo, messa a punto, validazione da parte della società scientifica, pubblicazione e diffusione.
Ogni indicatore deve rispondere a tre principali requisiti:
►
deve essere clinicamente rilevante: deve riguardare patologie importanti, trattate
comunemente oppure una complicanza frequente di un intervento comune,
►
i dati devono essere disponibili all’interno della struttura,
►
i professionisti il cui operato viene sottoposto alla valutazione accettano l’indicatore.
L’ACHS tiene a sottolineare che i suoi indicatori sono “provider-developed” e “evidence-based”.
L’enorme numero attuale (290 indicatori) probabilmente si ridurrà in maniera graduale, per arrivare
ad un “core group”.
Solo per un numero esiguo di indicatori la fonte dei dati può essere il data-base delle schede di
dimissione, per la maggior parte deve essere rivista la cartella clinica. ACHS ha indagato, a più
riprese, anche la validità e la riproducibilità dei suoi indicatori.
L’aspetto più interessante, però, riguarda l’efficacia dell’uso di indicatori. Nel 1998 circa il 95%
delle strutture sanitarie hanno ricevuto l’‘advise’ da ACHS di intraprendere azioni correttive (per un
totale di 10.000 azioni raccomandate), per esempio nelle seguenti aree:
►
cambio di procedure nella profilassi antibiotica negli interventi di sostituzione dell’anca;
►
interventi formativi sulla prevenzione delle trombo-embolie;
►
cambio di tipo di dispositivi come cateteri.
La stessa ACHS ritiene che l’enorme quantità di dati possa essere letta a 3 livelli differenti:
1.
variazioni sistematiche che riguardano l’insieme delle strutture sanitarie;
2.
variazioni fra categorie di ospedali (pubblici, privati, grandi/piccoli..)
3.
scostamenti significativi di una singola struttura dalla media.
Un approccio innovativo e particolare riguarda ciò che ACHS chiama “gains” (guadagni). “Qualche
variabilità sui dati degli indicatori clinici fra strutture sanitarie è attesa. Però, il potenziale per il
miglioramento potrebbe esserci se la differenza fra i tassi delle strutture fosse sufficientemente
grande da far scaturire una ampia riduzione e se la media potesse spostarsi verso le strutture con
tassi inferiori. Per esempio, se l’indicatore clinico misura un outcome scadente (tasso di infezioni,
ritorno in sala operatoria, dimissione non riuscita) e le strutture in New South Wales hanno dei tassi
inferiori rispetto a quelle degli altri stati, possiamo stimare la riduzione degli outcome scadenti
assumendo che tutte le strutture abbiano una media come quella del New South Wales... Infine, le
strutture ‘outlier’ potrebbero calcolare la riduzione di outcome scadenti qualora riuscissero a
spostare il proprio tasso verso la media” (Australian Council on Healthcare Standards, 2001).
In conclusione, la politica “soft” finora condotta da ACHS volta a non esigere il raggiungimento di
determinati standard ha contribuito al mantenimento di un atteggiamento che punta sulla crescita
piuttosto che sulla punizione.
Probabilmente nessuno degli approcci si dimostrerà soddisfacente negli ambiti di tutti i sistemi
sanitari. In alcune situazioni le organizzazioni devono sapere qualcosa su se stesse prima di
discutere con altri circa il loro andamento; in altre situazioni queste attività vengono accelerate
pubblicando pagelle o tabelle di ranking per audit esterni. Quindi, l’approccio non importa e la
necessità di fondo rimane sempre la stessa: non ci può essere accountability senza misurazione, e la
sicurezza può essere migliorata anche in un servizio [sociale] tormentata dal rischio come la
medicina. Infine, tutti i sistemi sanitari avranno la accountability come prima priorità e
funzioneranno in ambienti disponibili ad accettare che gli errori possano accadere anche quando è
stato fatto lo sforzo maggiore, ma che desidererebbero anche sapere che il maggiore sforzo è stato
fatto.
Fig. 1
I passi verso l’accountability
Qualità
“assoluta”
Misurazione
Divulgazione
(disclosure)
Accountabilit
y
Qualità
“relativa”
alle aspettative
1
Sheldon T. Promoting health care quality: what role for performance indicators? Qual Health Care. 1998 Dec;7
Suppl:S45-50.
2
Werner RM, Asch DA. Clinical concerns about clinical performance measurement. Ann Fam Med. 2007 MarApr;5(2):159-63.
3
O'Leary DO. JCAHO, Agenda for Change ready to meet needs of reformed system. Mod Healthc. Apr 4
1994;24(14):54.
4
Doherty EC. The JCAHO Agenda for Change: what changes in pharmacy and P & T activities do you need to prepare
for in 1994? Hosp Formul. Jan 1994;29(1):54-56, 58-60, 64 passim.
5
O'Leary D. A silent majority backs JCAHO's change agenda. Mod Healthc. Jan 23 1995;25(4):27.
6
Donaldson MS, Nolan K. Measuring the quality of health care: state of the art. Jt Comm J Qual Improv. May
1997;23(5):283-292.
7
Brook RH, Park RE, Chassin MR, Kosecoff J,et al.. Carotid endarterectomy for elderly patients: predicting
complications. Ann Intern Med. Nov 15 1990;113(10):747-753.
8
Brook RH, Park RE, Chassi MR,et al.. Predicting the appropriate use of carotid endarterectomy, upper gastrointestinal
endoscopy, and coronary angiography. 5 Engl J Med. Oct 25 1990;323(17):1173-1177.
9
Brook RH, Kosecoff JB, Park RE,et al.. Diagnosis and treatment of coronary disease: comparison of doctors' attitudes
in the USA and the UK. Lancet. Apr 2 1988;1(8588):750-753.
10
Chassin MR, Kosecoff J, Park RE, et al. Does inappropriate use explain geographic variations in the use of health
care services? A study of three procedures. Jama. Nov 13 1987;258(18):2533-2537.
11
Kazandjian VA, Lied TR. Healthcare Performance Measurement: Systems Design and Evaluation. Milwaukee: ASQ
Quality Press; 1999.
12
Kazandjian VA. Accountability Through Measurement: A Global Healthcare Imperative. Milwaukee, Wisconsin:
ASQ Quality Press; 2002.
13
Nashef SA, Roques F. Risk assessment, league tables, and report cards: where is true quality monitoring? Ann Thorac
Surg. Nov 2002;74(5):1748-1749; author reply 1749.
14
Brown CB. NHS league tables are more spin than substance. Bmj. Sep 14 2002;325(7364):596.
15
Adab P, Rouse AM, Mohammed MA, et al.Performance league tables: the NHS deserves better. Bmj. Jan 12
2002;324(7329):95-98.
16
Kazandjian VA. Performance indicators: pointer dogs in disguise--a commentary. J Am Med Rec Assoc. Sep
1991;62(9):34-36.
17
Kazandjian VA. When you hear hoofs, think horses, not zebras: an evidence-based model of healthcare
accountability. J Eval Clin Pract. May 2002;8(2):205-213.
18
Relman AS. Education to defend professional values in the new corporate age. Acad Med. Dec 1998;73(12):12291233.
19
Tuohy CH. Dynamics of a changing health sphere: the United States, Britain, and Canada. Health Aff (Millwood).
May-Jun 1999;18(3):114-134.
20
Hospital changes procedures after lab mix-up that led to mistaken double mastectomy. Associated Press. January 22,
2003, 2003.
21
Kohn LT, Corrigan J, Donaldson MS. To err is human: building a safer health system. Washington, D.C.: National
Academy Press; 2000.
22
Gardner J, Hallam K. IOM report lit a fuse. Medical errors are not new, but the very public ruckus over them is; that
worries providers. Mod Healthc. Dec 20-27 1999;29(51):2-3, 12.
23
Jordan CB. To err is human: IOM report implications. Tex 5urs. Jan 2000;74(1):12, 13.
24
Pinkus RL. Mistakes as a social construct: an historical approach. Kennedy Inst Ethics J. Jun 2001;11(2):117-133.
25
Collopy BT. Clinical indicators in accreditation: an effective stimulus to improve patient care. Int J Qual Health
Care. Jun 2000;12(3):211-216