Plebani - E se toccasse a te?
Transcript
Plebani - E se toccasse a te?
MEDICINA DI LABORATORIO- BIOCHIMICA CLINICA Prof. Mario Plebani 02/03/09 Obiettivi del corso fornire gli elementi teorici per interpretare l‟esame di laboratorio (conoscere la variabilità biologica e analitica) fornire le basi teoriche per valutare l‟utilità clinica di un test di laboratorio (test sensibili o meno sensibili, valore predittivo, effetto della prevalenza della malattia…) fornire gli strumenti per comprendere la natura degli errori in medicina di laboratorio (come fare perché l‟ errore non provochi danno ai pazienti?) valutare l‟appropriatezza della richiesta degli esami e la conseguente interpretazione comprendere il valore clinico dei marcatori di malattia neoplastica comprendere il valore clinico dei marcatori nelle malattie cardiovascolari comprendere il significato dei radicali liberi. Testo consigliato: “Lezioni in medicina di laboratorio” di Mario Plebani, ed. Cortina. Il corso sarà poi integrato con la discussione di alcuni casi clinici. Inoltre ci saranno esercitazioni pratiche che consisteranno nella visione di preparati ematologici, urine, liquor, tessuti biologici... L‟esame sarà in parte a risposta multipla e in parte a domande aperte. Introduzione alla medicina di laboratorio (dato che l‟inizio della lezione è costituito da una introduzione molto generale alla materia e ad esempi per far capire la sua importanza ho riportato in modo molto sintetico i concetti principali: l‟inizio vero e proprio della lezione è dal titolo “biochimica clinica”) La medicina di laboratorio è stata definita come “una scienza nascosta che salva la vita”. Ciò può essere spiegato dai seguenti tre scenari clinici: 1. paziente che arriva al pronto soccorso presentando dolore toracico: il sospetto è di un infarto acuto del miocardio ( sindrome coronarica acuta). Il paziente viene immediatamente sottoposto a ECG, ma si fa anche un prelievo di sangue. Se l‟ECG mostra sopraslivellamento del tratto S-T siamo in presenza di infarto del miocardio, ma se l‟ECG è negativo, non si può comunque escludere la presenza dell‟IMA (infarto miocardico acuto). L‟analisi di laboratorio può confermare la presenza dello stesso grazie alla presenza di un marcatore biochimico, la troponina cardiaca. E‟ importante perché il 30% dei pazienti con IMA è ECG negativo, e quindi per la diagnosi serve necessariamente l‟indagine di laboratorio. Inoltre la gravita dell‟infarto è correlata alla quantità di troponina cardiaca riscontrata: più alta è la troponina, peggiore sarà la prognosi del paziente. 2. Bambino di 3 anni con improvvisa epistassi in assenza di traumi precedenti. L‟epistassi è così abbondante da dover ricorrere al pronto soccorso. Oltre alla visita viene effettuato un prelievo di sangue per ricavarne l‟emocromo citometrico, cioè la conta delle cellule ematiche (globuli rossi, piastrine, leucociti…). Il bambino mostra un aumento dei globuli bianchi e in particolare di una popolazione di linfociti. Procedendo nell‟indagine si diagnostica un tipo di leucemia. Oggi, anche grazie a una migliore diagnostica, la leucemia è curata e guarita nel 60% dei casi: ciò è più probabile tipizzando la leucemia grazie ad esami biochimici e molecolari. 3. Maschio di 45 anni, che nella storia clinica riferisce esclusivamente di un intervento chirurgico 10 anni prima, che si presenta al medico di base con disturbi vaghi (inappetenza, stanchezza, difficoltà a digerire…). Vengono richiesti esami di laboratorio, i quali mostrano un aumento degli enzimi epatici fra cui le transaminasi (AST, ALT…), e una positività ad anticorpi contro HCV. Le transaminasi indicano che c‟è stato insulto epatico (sono indicatori di necrosi dell‟organo), in questo caso da HCV. Il paziente è indirizzato a un epatologo, che richiederà degli accertamenti di laboratorio, per esempio biochimici, per conoscere il fenotipo e il genotipo dell‟ HCV (ve ne sono di 6 tipi, e in base al ceppo varia la reazione alla terapia, e quindi il trattamento da seguire). Per valutare il danno epatico viene effettuata biopsia epatica: il tessuto è portato all‟anatomopatologo che valuta il quadro istologico e si esprime su diagnosi e prognosi. Attualmente però esistono esami che riducono del 50% la necessita di biopsia epatica (la quale può comportare dei rischi per il paziente). Inoltre, negli anni successivi, per monitorare la risposta alla terapia e l‟eventuale progressione dell‟epatopatia, il paziente verrà sottoposto non a biopsie ma ad apposite analisi di laboratorio Nei tre casi il paziente non ha mai conosciuto il medico laboratorista che ha effettuato i test, fondamentali per la diagnosi e l‟approccio alla malattia. Studi hanno stabilito che se non ci fossero state le innovazioni nella medicina di laboratorio che si sono verificate tra gli anni ‟80 e il 1996, negli USA ci sarebbe il 26% in più (4400000 di persone) di disabili, cioè persone non in grado di condurre uno stile di vita normale. Inoltre c‟è stato un allungamento della vita media di 0,44 anni grazie ai suddetti miglioramenti, ai nuovi farmaci e a migliorie dello stile di vita. La medicina infatti ha fortemente cambiato la vita delle persone, anche negli ultimi decenni (vedi miglioramento della qualità di vita di anziani con cataratta o frattura del femore). Le basi della medicina di laboratorio moderna risalgono ai primi del „900. Nel corso del tempo l‟attrezzatura di laboratorio è fortemente cambiata grazie alla grande proliferazione di tecnologie. Dal 1960 al 2000 si è assistito ad una progressione logaritmica del numero di esami di laboratorio effettuati. È anche cambiata l‟interazione del laboratorio con la medicina clinica: un tempo era impossibile ottenere i risultati dei test in tempo reale e ci si basava esclusivamente sulla semeiotica. Grazie alle nuove tecnologie ciò è divenuto possibile, cambiando il management, la gestione del paziente. Ora gli esami sono anche più efficaci (ad es. la troponina cardiaca è diventata il gold standard, cioè lo standard di riferimento, per la diagnosi dell‟ IMA). Anche per la medicina di laboratorio c‟è stato uno spostamento dalla medicina curativa a quella preventiva (che è poi la tendenza dei sistemi sanitari). Essa concorre all‟identificazione di fattori di rischio, che, oltre a stili di vita, possono essere di tipo genetico o biochimico: ecco allora l‟ intervento dell‟analisi di laboratorio. Attualmente viviamo nell‟era delle OMICS: di conseguenza molti degli esami di laboratorio effettuati si basano su metodiche di biologia molecolare (es. la tecnologia affimetrix ), che sfruttano le scoperte nel campo della genomica, della proteomica, della trascrittomica, della metabolomica... Tali tecnologie però sono spesso ancora sperimentali perché la ricerca è ancora in corso. È stato stimato che il 60-70% delle decisioni riguardo ricoveri, dimissioni, tipologia di farmaci da utilizzare… si basano oggi su esami di laboratorio. BIOCHIMICA CLINICA Esempio: maschio di 53 anni che esegue due serie di esami di laboratorio a un anno di distanza l‟una dell‟altra. Si osservano alcune variazioni: 1. la creatinina plasmatica ( parametro di funzionalità renale) era 88μmol/L, quando l‟intervallo di riferimento è 64120μmol/L. Negli esami aggiornati il valore è salito a 97 μmol/L. 2. il PSA (antigene prostatico con cui si fa diagnosi di tumore alla prostata) è passato da 1,5μg/L a 2,5μg/L (valori sempre compresi nell‟intervallo di riferimento). Le oscillazioni di valore sono significative? La risposta si basa su alcuni presupposti teorici: la variabilità del risultato di un esame laboratorio comprende: variabilità preanalitica. variabilità analitica variabilità biologica individuale Comunque per essere schematici si può dire che la variabilità è essenzialmente analitica e biologica. La variabilità analitica è dovuta a errore del laboratorio nel fornire il risultato. Essa può essere: preanalitica analitica postanalitica si può sbagliare eseguendo l‟analisi, ma anche perché ci sono delle procedure di raccolta, conservazione e trasporto del campione che possono aumentare il rischio di errore. Ci può essere errore anche nella fase postanalitica, per es. nella refertazione. La variabilità analitica quindi dipende dal laboratorio: ci saranno laboratori che sbagliano di più e laboratori che sbagliano di meno. La variabilità biologica individuale può essere: intraindividuale: i parametri variano nell‟organismo del soggetto considerato in modo diverso da come variano nell‟organismo di altri soggetti. Ognuno di noi avrà un punto omeostatico e delle oscillazioni da questo. Solo se le oscillazioni vanno oltre certi livelli ci sarà patologia. Interindividuale: i parametri variano da un soggetto all‟altro. Ad esempio se vengono considerati 10 soggetti sani, di cui si fa la determinazione tramite prelievi ripetuti dello stesso parametro per più giorni, si noterà che la variabilità nei soggetti è diversa pur essendo questi tutti sani, e pur se sono mantenuti tutti nelle stesse condizioni. Ognuno pur essendo all‟interno dell‟intervallo di riferimento, esprime una sua variabilità nel corso del tempo. La variabilità interindividuale si esplica nel fatto che se consideriamo la media ottenuta dalle rilevazioni eseguite si nota che, pur essendo sani, i soggetti mostrano valori differenti dalla media. La variabilità biologica è dovuta a diversi fattori, fra cui: ritmi circadiani variazioni durante il ciclo mestruale tipi di dieta gravidanza sesso razza fumo variazioni stagionali (la luce cambia la produzione di vari ormoni fra cui per esempio la melatonina) localizzazione geografica…. Per esempio il valore del potassio fluttua normalmente molto durante la giornata, in base all‟assunzione di cibo, alternanza sonno-veglia… Tali oscillazioni possono essere sfruttate nell‟analisi di laboratorio a fini diagnostici: per esempio il tasso di cortisolo è molto più elevato al mattino. In base ai valori registrati nel primo mattino e nel pomeriggio si può valutare la funzionalità delle ghiandole secernenti cortisolo. Lo stesso viene fatto con la prolattina ( che è soggetta a secrezione pulsatile durante la giornata e quindi non può essere misurata una volta sola) nello studio della fertilità femminile, e per l‟ hGh (secreto durante la notte e quindi molto abbondante al mattino). Anche in gravidanza alcuni parametri (proteine, fosfatasi alcalina, albumina..) cambiano notevolmente col procedere delle settimane di gestazione: l‟hCG, ad esempio aumenta molto, ed aumenta già nelle primissime fasi della gestazione, e tale fenomeno è usato per i test di gravidanza. Ovviamente quindi in gravidanza cambiano gli intervalli di riferimento.Anche l‟estradiolo aumenta. Ci possono anche essere variazioni dei parametri dovute alle modalità di prelievo, come ad esempio la postura assunta dal paziente durante lo stesso (paziente supino,seduto..). Anche la stasi venosa influenza i valori (c‟è differenza se il laccio emostatico usato per mettere in evidenza le vene non viene rimosso subito ma è rimosso dopo alcuni minuti. Il limite critico per l‟alterazione sembra essere sei minuti): molti parametri aumentano. Altre variabili che influenzano i risultati sono anche il digiuno, il digiuno prolungato, l‟esercizio fisico… Le variabilità si possono ridurre: 1. raccogliendo i campioni sempre alla stessa ora, di solito nel primo mattino (è il motivo per cui di solito i prelievi vengono effettuati fra le 7.30 e le 10), perché sono note le oscillazioni circadiane in questo intervallo temporale e si sa che molti parametri sono abbastanza stabili . 2. raccogliendo i campioni con il paziente sempre nelle stesse condizioni (a riposo) 3. raccogliendo i campioni nel paziente seduto (da almeno 30 minuti) 4. standardizzando la tecnica di raccolta (es. tenendo il laccio sempre per stesso tempo) 5. eseguendo il trasporto dei campioni a temperatura controllata e nei tempi corretti 6. processando i campioni in modo standard Gli ultimi 2 punti sono a carico del personale che si occupa dell‟iter dei campioni Precisione o riproducibilità Per precisione o riproducibilità si intende la stima della concordanza tra i risultati indipendenti di misure ottenute in condizioni definite. Ad esempio possiamo supporre l‟analisi ripetuta più e più volte di uno stesso prelievo di sangue al fine di determinarne il livello di glucosio: se il laboratorio è preciso i dati ottenuti saranno sempre vicini tra loro (non ci saranno grandi oscillazioni) . Ciò è importante nel caso di determinate patologie per verificare l‟efficacia delle terapie (devo essere certo che la variazione del parametro di interesse in esami successivi dipenda dall‟azione del farmaco e non dalla scarsa precisione del laboratorio). La precisione viene misurata ripetendo l‟analisi di uno stesso campione. Ottenuti i risultati, si calcolano media e deviazione standard al fine di ricavarne il coefficiente di variazione percentuale: CV= (DS/media)x100 Più il coefficiente di variazione è basso, più è ridotta la possibilità di errore. Bias Per bias si intende la differenza tra i risultati attesi e il valore vero della quantità misurata. Può essere tradotto in italiano come “esattezza”. In pratica è la differenza tra i dati ottenuti sperimentalmente e la stima del valore reale. Tanto più un risultato è preciso ed esatto, tanto migliore è il lavoro del laboratorio che l‟ha ottenuto. 10-03-2009 Precisione ed accuratezza degli esami di laboratorio In laboratorio si dovrebbe tendere ad avere una performance analitica il più precisa possibile. Secondo il modello del bersaglio una situazione ideale si crea quando ripetute misurazioni hanno valori simili e sono vicine al valore vero (centro del bersaglio): Se la precisione è elevata si è a livello del centro del bersaglio o nelle vicinanze, altrimenti ci si allontana da esso. Bias: distanza tra il valore vero del dato ed il valore trovato del medesimo: Il bias è la fonte di inesattezza del dato trovato: se è bassa la precisione è alta e viceversa, anche se il valore della precisione può sempre variare un po‟ in misurazioni successive. La precisione è rappresentata da una curva gaussiana in cui più i valori trovati si avvicinano alla media degli stessi e più sono ripetibili i controlli. Più la gaussiana è stretta e maggiore è la precisione: nella curva si osserva la dispersione, rappresentata dalle code laterali destra e sinistra. La precisione dei dati raccolti in laboratorio analisi è importante per la prescrizione di un‟adeguata terapia successivamente. Esempi: In un paziente diabetico il trattamento con farmaci ipoglicemizzanti viene controllato periodicamente : è fondamentale che il laboratorio effettui le analisi nella maniera più precisa possibile in modo che un eventuale cambiamento nei dati sia dovuto all‟efficacia/inefficacia della terapia, ma non ad errori del laboratorio. La glicemia > 126 mg/dl per due volte consecutive, rilevata a digiuno, è indice di diabete. Se nel controllo della colesterolemia la rilevazione risulta un valore di 300 mg/dl in un primo prelievo e poi di 250 mg/dl in un secondo prelievo bisogna discriminare che la differenza sia dovuta all‟effetto della somministrazione della statina (farmaco che diminuisce la colesterolemia) e non ad errore del laboratorio. La presenza di una concentrazione < 100-75 mg/dl di LDL dopo somministrazione di statina è un buon risultato, secondo la linea guida dell‟abbassamento della colesterolemia. Le linee guida cliniche devono essere le stesse per qualsiasi laboratorio analisi per avere dei risultati precisi ed accurati. Quindi la precisione riguarda i dati raccolti relativi ai soggetti in analisi (più precisi sono, più omogenei sono e quindi ripetibili), mentre l‟accuratezza è nel confronto tra i dati raccolti per stabilire se vi è una situazione patologica (evitando di basarsi su singoli dati decontestualizzati: vedi esempio delle due misurazioni successive della glicemia). Per includere sia la precisione che l‟adeguatezza si calcola l‟errore totale: sommatoria di imprecisione e bias. L‟imprecisione è espressa tramite il coefficiente di variazione (CV) in percentuale, secondo la formula: ETA= Bias + 1.65 * CVA. ETA= errore totale (riguardo la variabilità analitica); CVA =coefficiente di variazione (analitica); 1.65= fattore statistico che consente di operare col 95% delle probabilità. L‟errore totale dipende dalla variabilità biologica del parametro e dalla variabilità analitica, legata al laboratorio (o al metodo di raccolta del valore dell‟analisi). Esempio di errore totale in dati d‟analisi: Valori: Errore totale (%): S-calcio 2.4 S-cloro 1.5 Colesterolo 2.0 CEA (antigene carcino-embrionale) 21.8 Ca19,9 (marker del carcinoma pancreatico) 44 Se in un paziente il potassio ha una concentrazione di 6 mmol/l e l‟errore totale è di 3.7% circa significa che la variabilità del valore oscilla tra 5.8 e 6.2 mmol/l: il soggetto interessato è iperpotassemico perché il valore trovato (6mmol/l) è nell‟intervallo della variabilità biologica (5.8-6.2 mmol/l). Linea guida: la variabilità analitica non deve aumentare la variabilità totale oltre quella biologica ossia: CVA ≤0. 5 CVI Dove: CVA: coefficiente di variabilità analitica; CVI: coefficiente di variabilità biologica. Se la variabilità analitica è inferiore o uguale alla metà di quella biologica quella totale risulta: CVT ≤ 1.12 CVI, ossia inferiore di 1.12 volte della variabilità biologica. Es.:se la variabilità biologica di creatinina è uguale a 10 la variabile analitica dovrebbe essere ≤ 5. Se la variabilità analitica supera il 10% la variabilità totale s‟impenna notevolmente: Il CVA / CVI è : Ottimale: se ≤ 0,25 CVI; Desiderabile se ≤ 0,50 CVI; Minimo se ≤ 0,75 CVI. Nel primo caso la variabilità analitica è pari al 25% della variabilità biologica; nel secondo caso al 50% e nel terzo caso al 75%. Valori superiori a quest‟ultimo rendono le analisi cliniche non accettabili. Questo viene esemplificato come segue: L‟aumento del rapporto CVA / CVI porta ad un aumento della percentuale della variabilità totale e quindi dell‟imprecisione: in questo caso le conclusioni che si traggono in clinica devono essere caute e non basate esclusivamente sui dati di laboratorio, in quanto imprecisi (oppure vanno rifatti). Un‟analisi di laboratorio, per avere rilevanza clinica, deve presentare un referto con: 1. risultato analitico; 2. unità di misura ( mg/dl; mmol/l); 3. intervallo di riferimento. Queste caratteristiche servono per migliorare la conoscenza della situazione clinica ed aiutare nelle decisioni terapeutiche. Es. risultato: glucosio-random glucosio-fasting cortisolo- h. 9.00 cortisolo- h. 24.00 intervallo di riferimento: 8,0mmol/l 8,0mmol/l 50,00nmol/l 50,00nmol/l classificazione: 4,0-11,0mmol/l 3,0-6,7mmol/l 140-6,90nmol/l <100nmol/l normale anormale anormale normale. Il glucosio-random ossia con paziente a digiuno o meno (casuale) pari a 8,00mmol/l è considerato normale, mentre lo stesso valore a digiuno (fasting) rilevato per due volte consecutive è considerato anormale e quindi il paziente è diabetico. In quest‟ultimo caso è importante verificare la possibilità della familiarità di diabete mellito. Secondo le linee guida un valore maggiore o uguale a 126mg/dl (= 7mmol/l ) è considerato indice di diabete (8,00mmol/dl = 135mg/dl). Nel primo caso l‟intervallo di riferimento è più ampio di quello del secondo caso: questo spiega la “normalità” del risultato. Nel caso del cortisolo il valore di 50,00nmol/l al mattino è considerato anormale ed indica un deficit nell‟assorbimento del cortisolo perché troppo alto rispetto al valore atteso: l‟assorbimento è maggiore al mattino rispetto alla sera, quando i suoi livelli ematici sono più elevati perché viene utilizzato in misura minore dalle cellule. Questo perché il minor utilizzo spezza i ritmi circadiani (sonno/veglia). L‟intervallo di riferimento sostituisce il vecchio concetto di “valore normale”: risulta difficoltoso definire a priori “normale” nella valutazione di un valore rilevato. Perciò ci si basa sui soggetti d‟interesse nel fissare un intervallo di riferimento adeguato (es. l‟intervallo di riferimento per la glicemia non si calcola in una popolazione di soggetti diabetici!!). L‟intervallo include il 95% dei valori sotto la curva a campana di una gaussiana, mentre il 2.5% è sopra e l‟altro 2.5 % è sotto l‟intervallo, considerando una distribuzione normale. Se si vogliono confrontare due o più risultati dello stesso tipo la probabilità che il valore sia considerato”fuori dall‟intervallo di riferimento” è data dalla moltiplicazione della probabilità di ciascun risultato di rientrare nell‟intervallo (95%). La probabilità complessiva aumenta al crescere del numero di analisi: 1° prelievo: prob. = 0.95 di essere nell‟intervallo; 2° prelievo: prob. = 0.95 *095 = 0.90; … 20° prelievo: prob. 0.95^ 20 = 0.36, ossia vi sono 2 probabilità su 3 di avere patologia. Dunque è importante osservare in quale punto dell‟intervallo di classificazione cadono i valori in più analisi, tenendo conto del 5% escluso, oltre ad una necessaria contestualizzazione dei risultati nell‟ambito clinico del paziente considerato: se in ripetute analisi un valore d‟interesse scaturisce fuori dall‟intervallo aumenta la probabilità della presenza di patologia (es. se un soggetto presenta glicemia ed emoglobina glicata fuori dall‟intervallo vi è alta probabilità di diabete). Esempi: o Su 6 soggetti sani si praticano delle misurazioni ripetute per la sideremia: In questo caso anche il valore medio è dentro i limiti dell‟intervallo, entro il quale sono coperti tutti i valori. o Le stesse misurazioni vengono fatte anche per la creatinemia: Alcuni soggetti hanno dei valori vicino al limite superiore ed altri vicino a quello inferiore: non tutti i valori sono coperti. In quest‟ultimo caso si è riscontrata una marcata individualità (=forti differenze tra le persone della popolazione di riferimento) nei risultati della creatinina, che ha un i.i. (indice d’individualità) pari a 0.33 e ciò rende i valori di riferimento poco confrontabili, mentre la sideremia (i.i.= 1.14) ha valori più facilmente comparabili: un i.i. più elevato permette di fare confronti validi tra i dati del singolo e quelli della popolazione di riferimento. Si definisce i.i. come segue: 2 2 CVA + CVI = CVINTRAINDIVIDUALE . CVG CVINTERINDIVIDUALE CVA = variabilità analitica; CVI = variabilità biologica; CVG = variabilità totale. La variabilità intraindividuale è la variazione di un parametro di un singolo individuo nel tempo, mentre la variabilità interindividuale è la variazione di un parametro tra gli individui della popolazione di riferimento (nello stesso periodo temporale). L‟indice d‟individualità è un indice di valutazione usato per confrontare un valore col suo intervallo di riferimento. E‟ stato introdotto perché un singolo valore (CVINTRAINDIVIDUALE) non è sufficiente per verificare se un suo aumento o una sua diminuzione siano significativi per indicare una patologia, mentre il suo raffronto con l‟intervallo di riferimento (costruito sulla base di calcoli statistici eseguiti sui dati rilevati dalla popolazione di riferimento, CVINTERINDIVIDUALE) rende più chiara la sua interpretazione clinica. Linea guida: 3. se i.i. < 0.6 i valori di riferimento (rilevati) sono di scarsa utilità: si richiede il confronto con valori precedenti; 4. se i.i. ≥1. 4 i valori di riferimento sono ben confrontabili con l‟intervallo di riferimento. Nell‟analisi di valori seriati (=controlli successivi) di parametri con marcata individualità (i.i. <0.6) si preferisce fare il confronto con valori precedenti ed il calcolo della RCV (reference change value o differenza critica), piuttosto che confrontarli con l‟intervallo di riferimento. Ad esempio: controllo dei valori di AST per verificare la tossicità della statina somministrata per diminuire il colesterolo: AST(Unità/l): Variazione(%): 1° controllo (inizio) 16 2° controllo (dopo 2 mesi) 24 33.3 3° controllo (dopo 4 mesi) 40 66.7 4° controllo (dopo 6 mesi) 54* 35.0 5° controllo (dopo 9 mesi) 69 27.8. RCV = 33.2%; valore inferiore dell‟intervallo di riferimento=5U/l; valore superiore dell‟intervallo di riferimento = 45U/l. Se la differenza critica è del 33.2% la tossicità epatica della statina è evidenziabile già al 2° controllo e da quel momento è preferibile interrompere la terapia. Dalla tabella si evince che il trattamento è stato bloccato solo dopo il 5° controllo causando danni epatici, che si sarebbero evitati col calcolo della RCV. DIFFERENZA CRITICA: indica, al livello prescelto di probabilità, la differenza massima tra due valori che può essere ancora attribuita all‟effetto della variabilità. La RCV si calcola come segue: 2 2 RCV = • 2Z*(CVA + CVI ), con Z = fattore probabilistico; CVA = coefficiente di variabilità analitica; CVI = coefficiente di variabilità biologica. Se la probabilità che la differenza critica sia dovuta alla variabilità biologica (e non alla differenza analitica = errore di laboratorio) è pari a: 95% → Z = 1.65, se unidirezionale o Z = 1.96, se bidirezionale; 99% → Z = 2.33, se unidirezionale o Z = 2.58, se bidirezionale. (Unidirezionale: se si considera solo l‟area superiore o inferiore all‟intervallo nella gaussiana, mentre bidirezionale: se si considerano sia l‟area superiore che quella inferiore rispetto all‟intervallo considerato). Esempio: in un controllo del colesterolo sierico: se VA = 10%, Z = 2.33 la probabilità che il colesterolo aumenti in due prelievi seriati è del 20%; se VA = 1%, Z = 2.33, la probabilità che il colesterolo aumenti in due prelievi successivi è del 98-99%. Ne consegue che minore è la VA e più i risultati delle analisi sono legati alla variabilità biologica e non ad errori del laboratorio (variabilità analitica). Nel caso di un marcatore per osteoporosi: l‟intervallo di riferimento della sua concentrazione è compreso tra 3.0 e 7.4, la differenza critica è del 40%, perciò: se il valore del marcatore aumenta l‟osteoporosi è in avanzamento; se il valore del marcatore diminuisce l‟osteoporosi è in regressione. Quest‟ultimo esempio vuole spiegare che la RCV viene impiegata nella pratica clinica per monitorare il follow up di una patologia (nel caso del precedente esempio la RCV si calcola sui risultati seriati derivanti da tecniche di imaging di densiomemtria ossea e di trattamento farmacologico). La differenza critica viene anche impiegata nelle analisi seriate di marcatori tumorali prima di un intervento chirurgico: si osservano i risultati del prelievo dopo un certo periodo di tempo per verificare se i marker sono diminuiti e se si può intervenire chirurgicamente sulla malattia oppure se non è il caso. Sono,dunque, importanti la precisione e l‟accuratezza di un laboratorio analisi per ottenere risultati delle analisi attendibili. 17/03/09 Riprendiamo quello che abbiamo visto l‟ultima volta ossia il concetto di valori di riferimento, come si usano, le situazioni in cui i valori di riferimento hanno scarso valore e allora si usa la differenza critica (avevamo fatto l‟esempio dei marcatori di riassorbimento osseo, ma potremmo farne molti altri, quando vedremo assieme i marcatori tumorali vedremo come questo riguardi anche i marcatori tumorali). Un altro concetto che è stato introdotto per aiutare il medico clinico a interpretare i valori di laboratorio è il concetto dei limiti decisionali. E‟ ovvio che per un medico, dato che l‟obiettivo è prendere decisioni in base ai risultati del laboratorio, alcune volte abbiamo visto che gli intervalli di riferimento non sono sufficienti allora è stato introdotto il concetto di valori decisionali o valori soglia. I valori decisionali sono valori al di sopra o al di sotto dei quali è raccomandabile un certo intervento e comportamento clinico. In pratica il livello decisionale è un valore che esprime l‟associazione tra il risultato di iun analisi e una specifica decisione o azione medica, ad esempio: Trattamento / Non trattamento Modifica del trattamento Necessità di eseguire ulteriori indagini Mentre finora abbiamo visto che osservando il risultato di un‟analisi in confronto a dei valori di riferimento facevamo dei ragionamenti, quando affrontiamo il problema dei livelli decisionali dovremmo sempre pensare a dei valori in rapporto ai quali il medico è costretto ad assumere una decisione immediata e importante. Prendiamo come esempio per fissare le idee il calcio ionizzato, sapete già dalla fisiologia e dalla fisiopatologia quanto è importante per la trasmissione dei messaggi a livello muscolare, il cui intervallo di riferimento va da 1,12 a 1,23 mmol/L. I livelli decisionali non si identificano con l‟intervallo di riferimento ma se andiamo a considerare una diminuzione il primo livello decisionale per una riduzione del calcio ionizzato si ha a 0,8 mmol/L mentre l‟estremo inferiore dell‟intervallo di riferimento si ha a 1,12 mmol/L. Quindi tra 1,12 e 0,8 abbiamo una specie di zona grigia in cui comunque dovremo fare dei ragionamenti ma al di sotto di 0,8 sappiamo da degli studi che sono stati fatti che il paziente viene esposto ad un pericolo perché vi è un allungamento del tratto Q-T nell‟elettrocardiogramma per cui la funzionalità del cuore è compromessa. In questi casi quindi l‟intervento è una strategia terapeutica per portare la concentrazione di calcio più vicina all‟intervallo di normalità perché sappiamo che se la calcemia scende ulteriormente sotto 0,7 mmol/L abbiamo grande probabilità che siano delle crisi tetaniche che espongono il paziente a gravi ripercussioni e al di sotto di 0,5 mmol/L c‟è il rischio di un vero e proprio arresto cardiaco. Quindi se nella fascia intermedia c‟è un ragionamento clinico da fare sulle cause che posso aver portato a questa riduzione se invece il risultato è di 0,5 o inferiore a 0,5 mmol/L ci sono poche cose da fare, se il risultato è giusto bisogna intervenire immediatamente per riequilibrare la situazione. Lo stesso vale per gli aumenti della concentrazione di calcio: l‟estremo superiore dell‟intervallo di riferimento è 1,23 ma se si supera il limite di 1,7 sappiamo che il rischio (per ragioni opposte a quelle provocate dalla diminuzione) è di aritmie (disturbi della ripolarizzazione a livello cardiaco) e disturbi di confusione mentale. Quindi i livelli di riferimento sono dei valori, dei limiti che hanno un valore pratico di richiamo immediato per il medico clinico per intervenire di fronte alla diminuzione o all‟aumento di alcuni parametri che posso avere un grave effetto sul paziente. Un altro esempio è quello della ciclosporina, un farmaco che viene somministrato ai pazienti che hanno subito un trapianto d‟organo (cuore, fegato, rene, ecc..) per evitare il rigetto dell‟organo trapiantato. Come ogni farmaco dovrà raggiungere delle concentrazioni che diano efficienza (ossia che prevengano il rigetto) ma non deve superare delle concentrazioni che espongono ilo paziente a degli effetti indesiderati tossici. Ecco allora che abbiamo degli intervalli, in questo caso degli intervalli terapeutici (sono l‟equivalente degli intervalli di riferimento ma si chiamano in altro modo perché nel soggetto sano che è il riferimento la ciclosporina non esiste, è un prodotto esogeno) sopra certi sappiamo che c‟è un rischio di alta tossicità e sotto certi livelli sappiamo che c‟è un rischio di rigetto perché la concentrazione di farmaco è insufficiente a mantenere la regolazione immunologia tale da impedire che si scateni il rigetto dell‟organo. Anche per un farmaco molto usato nella cura dell‟asma, la teofillina, possiamo descrivere i livelli decisionali. Infatti se i valori vengono descritti in μg/ml essi dovrebbero esser compresi in livelli inferiori a 10 ma se già con valori sopra 5 si manifestano sintomi come nausea, crampi, insonnia, cefalea bisogna intervenire diminuendo la dose del farmaco ed evitando la combinazione con altri farmaci. Se andiamo a valori superiori a 35 la somministrazione di teofillina espone il paziente a rischi di convulsioni, aritmie e arresto cardiocircolatorio tali che si prende la decisione di ricoverare il paziente in rianimazione o in terapia intensiva perché questa situazione espone il paziente ad un pericolo di vita. Vedete quindi che il livello decisionale ci dice che se pur superando la dose di 10 μg/ml ci troviamo tra 13 e 35 μg/ml basterà ridurre il trattamento per evitare complicazioni mentre se la dose è più elevata e supera i 35 la decisione è una ospedalizzazione immediata perché è necessario il trattamento con degli altri farmaci che blocchino l‟azione della teofillina e la possibilità di convulsioni o di poliaritmie, quindi in questo caso dovrò prendere decisioni importanti. VALORI (μg/ml) di teofillina SINTOMI DECISIONE 5-20 Nausea, crampi, insonnia, cefalea Rallentare la dose di attacco Evitare combinazioni con efedrina Tremori Evitare combinazioni con βbloccanti per via orale 13-35 Idem+tachicardia sinusale Ridurre la dose immediatamente >35 Convulsioni, aritmie, arresto Ricovero in rianimazione: cardiocircolatorio possono mancare sintomi prodromici Prendiamo come altro esempio la transaminasi che è un indicatore di necrosi epatica e i cui valori di riferimento vanno da 5 a 40. In questo caso se ci troviamo in valori superiori a 60 è utile studiare altri parametri come l‟elettroforesi (TFE) per capire cosa sta succedendo del fegato e a cosa è dovuta questa tossicità, ma se ci troviamo a valori superiori a 300 dobbiamo immediatamente studiare l‟eziologia dell‟epatite virale, ossia se in quel paziente è in corso un‟epatite dovuta a virus A, a virus B, o ad altre tipologie di virus che possono provocare il danno. Al di sotto di 20 possiamo escludere la patologia epatica. Quindi la modificazione dei livelli decisionali (che non sono i valori di riferimento ma spesso superano in alto o in basso, in aumento o in diminuzione di una certa quota questi valori) presuppone un intervento decisionale che può essere la richiesta di altri esami o una terapia. Come vengono scelti gli intervalli decisionali? Possono essere: 7. Casuali, ossia avendo avuto esperienza di paziente che hanno avuto certi effetti avversi o una certa sintomatologia e in cui è stata riscontrata una certa concentrazione di quell‟analita viene assunto che quel livello espone al rischio 8. Empirica (somiglia a quella di prima) 9. Col teorema di Bayes (col calcolo delle probabilità) 10. Coi metodi della ricerca operativa Ma nella pratica professionale mi troverò ad usare i livelli decisionali? Certamente vi troverete ad usare i livelli decisionali e per questo vi mostro l‟elenco dei cosiddetti valori di panico o critici che utilizza il laboratorio di analisi dell‟ospedale di Padova e che vengo comunicati immediatamente ai medici che lavorano all‟interno dell‟azienda ospedaliera ma anche ai medici del territorio quando avendo eseguito degli esami sui pazienti che ci inviano riscontriamo dei livelli che richiedono delle decisioni immediate. Ad esempio possiamo vedere che misurano la sodiemia per valori inferiori ai 110 mmol/L e per valori superiori a 170 mmol/L (di solito l‟intervallo di riferimento è tra 120 mmol/L e 145 mmol/L) i livelli vengono comunicati al medico perché il rischio per il paziente è o la paralisi bulbare (per valori inferiori a 110 mmol/L) o sintomi cardiovascolari (per valori superiori a 160 mmol/L). Un altro esempio è quello della glicemia: se ci troviamo di fronte ad un valore inferiore ad 1 mmol/L abbiamo un rischio di coma ipoglicemico che determina un rischio di sintomi neurologici maggiori, per valori invece molto alti, al di sopra di 55 mmol/L avremo un rischio di coma iperglicemico detto anche coma osmolare. Quindi questi dati verranno comunicati al paziente. Anche per il calcio ionizzato, che abbiamo già visto prima, vengono repertati come valori panico livelli inferiori a 0,8 o superiori a 1,5. Sodiemia (valori di riferimento 120-145 mmol/L) Glucosio Calcio ionizzato <110 mmol/L paralisi bulbare >160 mmol/L sintomi cardiovascolari <1 mmol/L sintomi neurologici maggiori, coma >55 mmol/L coma iperosmolare <0,8 mmol/L tetania >1,5 mmol/L coma Fino a poco tempo fa per comunicare questi risultati era disponibile solo il telefono, era necessario telefonare ai medici e comunicare i risultati; questo era più facile per i medici ospedalieri (nonostante l‟intasamento delle linee) ma era molto più difficile per i medici del territorio che oltre che in ambulatorio possono essere a far visite a domicilio, ecc… Capite bene che se questi sono valori panico uno dei requisiti è una comunicazione rapida. Per questo il laboratorio di analisi di padova si è dotato di un servizio che comunica questi valori via sms su un telefonino che i medici hanno e di cui sappiamo il numero. Il messaggio è prodotto da un sistema automatizzato computerizzato che fa due cose: dà un segnale attraverso il messaggio sms e per chi è all‟interno dell‟azienda ospedaliera dà un segnale anche sul computer tramite cui siamo collegati con il reparto. Poi il computer si attende una risposta che è un intervento del clinico o dell‟infermiere che va a visualizzare il valore critico. Tutto questo rimane tracciabile nella memoria del sistema informatico percui sappiamo se sia a livello ospedaliero che territoriale che è stato visto il messaggio, che è stato interpretato il valore critico (ovviamente non si entra nello specifico delle azioni intra prese dal clinico perché lì si entra nell‟ambito nel compito del clinico stesso). Questa cosa è piaciuta molto, è stato accettato un articolo a proposito e non è costa nulla. Normalmente i risultati che danno adito a valori critici sono circa 16 al giorno quando normalmente esaminiamo circa 2000 pazienti al giorno percui la numerosità non è elevatissimo ma questi 16 pazienti che ricevono la segnalazione di valore critico sono pazienti esposti a rischi molto alti. Ovviamente prima dell‟informatizzazione queste procedure dovevano essere fatte manualmente, il medico doveva accorgersi del risultato anomalo, prendere il telefono e cominciare a telefonare, tutte procedure che portare a spendere del tempo (e il tempo è denaro). Per questo negli Stati Uniti di fronte ad un calo dei soldi disponibili per le spese sanitarie è stata fatta un‟indagine per vedere quanto costava ad un laboratorio clinico questa procedura e si riscontrava un rapporto costo/beneficio basso per cui nell‟intervento ad un congresso al CDC di Atlanta è stato proposto di eliminare questa procedura. Ma subito dopo nello stesso congresso vi fu una relazione di un collega americano che descriveva un caso anedottico tipico. Una signora che assume il warfarin come terapia anticoagulativa (vi è un gran numero di pazienti che assume questi farmaci e che ha bisogno di un monitoraggio della capacità di coagulazione tramite il test sul tempo di protrombina) va a fare il test venerdì pomeriggio, il tecnico (unico presente nel laboratorio) esegue bene il test ed esso dà un risultato al di sopra del valore panico ma il tecnico non si accorge o ha troppe cose da fare e dimentica di chiamare. Il lunedì mattina arriva il supervisor (il primario o comunque il responsabile) che riguarda tutti i risultati a partire dal venerdì pomeriggio, del sabato e domenica per rilasciarli in maniera definitivo e si accorge del risultato. Chiama a casa e gli risponde la figlia che gli dice che la madre è in ospedale perché ha avuto un sanguinamento, una melena, e le hanno fatto due sacche di sangue; sta meglio ma starà ancora due giorni in ospedale. Al di là dei danni per il paziente se pensiamo semplicemente a quanto costa per il sistema sanitario l‟ospedalizzazione capiamo che anche se si tratta di sedici casi al giorni è fondamentale che vengano comunicati oltre al fatto che è giusto che il medico agisca per il meglio del paziente. Anche negli Stati Uniti questo ha chiuso la questione: i valori di rischio vanno comunicati e vanno comunicati anche usando le tecnologie. Entriamo ora nell‟ultima parte generale del mio insegnamento prima di entrare nell‟applicazione specifica. Andiamo a vedere come si valuta la capacità diagnostica, la performance diagnostica di un dato di laboratorio. Parleremo quindi di sensibilità e specificità clinica e dell‟efficienza clinica di un dato di laboratorio. Nella vostra vita professionale non dimenticatevi che è stata descritta un storia naturale dei nuovi test diagnostici. Se voi andate su un giornale (NEJM, Cell, Journal of Gastroenterology) in ogni numero troverete un nuovo test che magari non sembra risolva tutto ma comunque sembra essere molto rilevante nella diagnosi di una patologia importante e normalmente questo entusiasmo è legato al fatto che i ricercatori non è che barino ma si mettono nelle condizioni di studiare quel test studiando i veri malati e i veri sani. Quando poi il test viene applicato giorno per giorno nella clinica c‟è una fase in cui l‟entusiasmo diminuisce vistosamente perché trasferendo i risultati della ricerca nella pratica clinica ci si trova a fare i conti con i falsi positivi e i falsi negativi e quindi vi è una diminuzione dell‟efficienza che era stata descritta nei lavori iniziali. Poi come in tutti i casi il bilanciamento tra l‟entusiasmo iniziale e la fisiologica depressione per aver visto le cose non sono poi tutte come le avevano descritte porta ad un giudizio più meditato e a rendersi conto della reale utilità clinica di quel marcatore. Come si calcola l‟efficienza, il valore predittivo di qualsiasi test (noi ne parliamo per i test di laboratorio ma si può applicare a qualsiasi pratica clinica)? Prendiamo che uno di voi prenda la tesi e il tutore gli chieda di studiare un biomarcatore che sembra molto utile per identificare una certa malattia. Che numeri dobbiamo studiare per determinare l‟efficienza diagnostica di questo marcatore? Decidiamo che dobbiamo studiare 100000 soggetti, di cui 90000 sani (assenti da quel tipo di malattia) e 10000 effettivamente portatori di quella malattia. Numero test positivi 9500 (VP) 4500 (FP) 14000 Soggetti malati Soggetti sani Totali Numero test negativi 500 (FN) 85500 (VN) 86000 Totale 10000 90000 100000 Il test va molto bene perché vediamo che su 10000 malati su 9500 il test è giusto (positivo) che è quello che vorremo e ci saranno solo 500 falsi negativi. Questo ci porterà a dire che la sensibilità del test è del 95% perché la sensibilità si calcola come: SENSIBILITA‟ = v e r i p o s i t i v i 9 5 0 0 0 , 9 5 t o t a l e m a l a t i1 0 0 0 0 Quindi un primo concetto molto semplice è quello di sensibilità diagnostica che è dato dal rapporto tra i veri positivi ed il totale dei malati. Ma non è sufficiente studiare solo la sensibilità, ho anche un altro indice della performance diagnostica: studio la specificità andando a vedere in quanti soggetti sani il test risulta effettivamente negativo. Vedrò che in 85500 soggetti sani il test è effettivamente negativo ma nei restanti 4500 soggetti sani il test è positivo, saranno falsi positivi. La specificità del test (rapporto tra veri negativi e il totale dei sani ) sarà del 95%. Anche questo è un risultato molto buono. SPECIFICITA‟= v e r i n e g a t i v i 8 5 5 0 0 0 , 9 5 t o t a l e s a n i 9 0 0 0 0 Similarmente alla sensibilità la specificità è dato dal rapporto tra il numero dei veri negativi e il totale dei sani. Ma per il medico che deve usare i risultati per la clinica questo non basta, è necessario conoscere il valore predittivo di un test ossia se voi avete in mente che un paziente possa avere una certa malattia il test se negativo dovrebbe escludere quella possibilità, se positivo dovrebbe rinforzare l‟ipotesi. Nel caso di questo test, che ha sensibilità di 95% e specificità di 95%, qual è il valore predittivo negativo ossia la forza con cui un risultato negativo in questo test permette di escludere la malattia? Devo fare la divisione tra i veri negativi (85500) e il totale dei test negativi (86000) e percentualizziamo il risultato moltiplicandolo per 100. VPN (Valore Predittivo Negativo) = v e r i n e g a t i v i 8 5 5 0 0 1 0 0 9 9 , 4 % t o t a l e t e s t n e g a t i v i8 6 0 0 0 Vediamo che il valore predittivo negativo del test è molto alto, del 99,4%, per cui un risultato negativo del test nel 99,4% dei casi ci permette di escludere la malattia. Dal punto di vista invece della previsione della malattia, ossia della predizione positiva della malattia cosa ci dice questo test? Facciamo il rapporto tra il numero di veri positivi sul numero dei positivi totali (compresi anche i 4500 individui sani che sono risultati positivi al test. In questo caso il numero è di 67,9 ossia quasi 68%. VPP (Valore Predittivo Positivo) = v e r i p o s i t i v i 9 5 0 0 1 0 0 6 7 , 9 % t o t a l e t e s t p o s i t i v i1 4 0 0 0 Questo valore predittivo positivo è la forza con cui un risultato positivo mi permette di predire la malattia. Come mai questo valore è così basso? Dipende dal fatto che il numero dei soggetti sani rispetto ai malati è molto diverso quindi peserà di più. Oltre a questi 4 parametri se ne usa anche un quinto, l‟efficienza diagnostica, che risulta sommando i veri positivi e i veri negativi (le cose buone che ci dà il test) e dividendo per il totale della popolazione studiata. EFFICIENZA DIAGNOSTICA= v e r i p o s i t i v i v e r i n e g a t i v i 9 5 0 0 8 5 5 0 0 9 5 0 0 0 1 0 0 1 0 0 9 5 % t o t a l e s o g g e t t i s t u d i a t i 1 0 0 0 0 01 0 0 0 0 0 Ma anche se questo valore è alto il valore predittivo positivo è basso perché bisogna considerare la prevalenza della malattia. Prevalenza Malattia 0,1% 1% 2% 5% 50% Valore Predittivo Positivo 1,9% 16,1% 27,9% 50% 95% Possiamo vedere infatti che se andiamo ad applicare un test che ha sensibilità del 95% e specificità del 95% (come il nostro) esso funziona con predittività del 95% solo se la prevalenza è del 50%, che è una prevalenza assurda (neanche l‟influenza nel periodo massimo). Se la prevalenza della malattia è del 5% il valore predittivo dello stesso test scende al 50%. Vediamo quindi che il modello di studio con cui è stato validato quel test è affetto da uno spectrum bias in quanto non tiene conto dell‟effettiva prevalenza della patologia che noi andiamo a studiare. Se invece il test ha valori di specificità e sensibilità del 99% avremo con una prevalenza del 50% un valore predittivo positivo del 99% e con una prevalenza del 5% avremo un valore predittivo di 83,9%. Prevalenza Malattia Valore Predittivo Positivo 0,1% 9% 1% 50% 2% 66,9% 5% 83,9% 50% 99% Se la prevalenza scende ancora abbiamo comunque dei dati validi ma che non sono ottimale rispetto alle aspettative date dal protocollo di studio. Quindi la prevalenza incide molto sul valore concreto pratico del test di laboratorio nella pratica clinica. Come si traduce questo nella pratica clinica? Vedremo che una stesso test per l‟infarto del miocardio può avere valori predittivi diversi se è studiato dal punto di vista del medico del pronto soccorso rispetto al cardiologo. Questo perché al medico del pronto soccorso i pazienti arrivano non selezionati mentre al cardiologo arrivano pazienti già selezionati. Avviene quindi che quella zona grigia che non si riesce bene a classificare (il paziente che forse è sano ma forse è malato) è molto più ampia per il medico del pronto soccorso che non per il cardiologo. Quindi lo stesso test avrà valore predittivo positivo molto meno forte per il medico del pronto soccorso che non per il cardiologo. Concettualizzando, se abbiamo una malattia con una prevalenza dello 0,2% (significa una persona ogni 500 che non è una malattia rara ma ha comunque una prevalenza abbastanza interessante) e sottoponiamo 10000 persone al test troveremo che 20 persone hanno effettivamente la malattia e di queste 17 saranno positive al test mentre 3 risulteranno false negative; abbiamo quindi una sensibilità dell‟85%. Dall‟altra parte, delle 9980 persone sane 499 risulteranno positive al test, quindi la specificità sarà del 95%. Quindi di 10000 persone testate 516 saranno richiamate in quanto positive ma solo 17 hanno effettivamente la malattia. Il valore predittivo positivo è del 3%. Quindi siamo partiti dicendo che la sensibilità è del 85% e che la specificità è del 95% ma dal punto di vista della clinica il valore predittivo positivo è solo attorno a 3% perché la prevalenza è del 0,2%. Come posso migliorare la predittività di questo test? Se la malattia in questione è la malattia di rigor (significa rigore intellettuale) e prima di fare il test visito la paziente e rilevo sintomi che indirizzano verso la diagnosi di questa malattia (che indirizzano nel 50% dei casi) e sottopongo al test solo i pazienti che hanno sintomi della malattia (saranno circa 5000 pazienti su 10000 persone visitate) avrò che di questi 5000 pazienti 4250 risultano positive al test mentre degli altri 5000 che non hanno sintomi solo 250 risultano positive al test. Quindi non generalizzando la richiesta ma andando ad eseguire il test solo nelle persone che hanno dei sintomi io riduco le persone sane sottoposte al test quindi riduco il numero di falsi positivi e la sensibilità del test sale al 94% perché ho selezionato in base ai sintomi la popolazione che merita di essere sottoposta al test e quindi il test funziona molto meglio. Il concetto fondamentale è quindi che aumentando la prevalenza della malattia selezionando dalla popolazione generale attraverso la clinica quei soggetti che sono più a rischio di avere la malattia io aumento anche la forza della predittività del test. Un altro concetto che vorrei illustravi è quello del rapporto di verosimiglianza (detto dalla letteratura anglosassone likelihood ratio) che è un indicatore che tenta di mettere assieme la sensibilità e la specificità, in modo da avere un criterio unificante. Il rapporto di verosimiglianza è infatti il rapporto tra i veri positivi e i falsi positivi. Più correttamente esiste un likelihood ratio positivo che è dato dal rapporto tra veri positivi e i falsi positivi ossia dal rapporto tra sensibilità e 1-specificità, che è un indice della probabilità che un risultato positivo del test venga ritrovato in un paziente con la patologia considerata in rapporto alla probabilità che venga ritrovato un risultato positivo in un paziente senza la patologia considerata. E‟ cioè l‟uso di quel test per confermare la diagnosi di fronte ad un risultato positivo. LR test positivo = v e r i p o s i t i v i () V Ps e n s i b i l i t à f a l s i p o s i t i v i ( F P )1 s p e c i f i c i t à Ed esiste un rapporto di verosimiglianza negativo che è dato dai falsi negativi versus i veri positivi ossia dal rapporto fra 1-sensibilità e specificità. E‟ un indice della probabilità che un risultato negativo del test venga ritrovato in un paziente con la malattia rispetto alla probabilità che un risultato negativo venga ritrovato in un paziente senza la malattia. LR test negativo = f a l s i n e g a t i v i ( F N )1 s e n s i b i l i t à v e r i n e g a t i v i ( V N ) s p e c i f i c i t à Come si usa questo rapporto di verosimiglianza? Nella letteratura ma anche nella pratica si usa il nomogramma di Fagan. Di fronte abbiamo un paziente che in base a storia clinica, esame obiettivo ecc… ha una certa probabilità di avere la malattia (prima del test) esempio 30% e facciamo un test; dopo il test il paziente avrà una probabilità diversa, modificata di avere la malattia e di quanto la probabilità viene modificata dipende dal rapporto di verosimiglianza (se l‟ LR positivo è di 0,5-1 il test sarà inutile perché non mi cambia la probabilità di avere la malattia). Possiamo fare un esempio in cui il test ci permette di variare la probabilità post-test: il peptide natriuretico (BNP misurato in pg/ml) viene studiato per soggetti che potrebbero avere uno scompenso cardiaco. Il paziente presenta patologia dispnoica ma il medico non riesce a capire se questo è dovuto a patologia del cuore o a una patologia del polmone. Se l‟LR è di un certo tipo ci porta a dire che la probabilità post-test di avere la malattia è del 90%. Anche l‟ LR negativo viene utilizzato in caso di risultato negativo del test per negativizzare la possibilità che la malattia sia presente. Primo esempio: test inutile Secondo esempio: test utile Come viene interpretato il rapporto di verosimiglianza? Il rapporto predittivo migliore si ha se supera i 10 o è inferiore a 0,1: se supera i 10 l‟ LR è molto elevato mentre se è inferiore a 0,1 è l‟ LR negativo che è molto elevato, in ogni caso l‟impatto clinico è molto importante. Funziona bene anche se il rapporto è tra 5 e 10 o tra 0,1 e 0,2 e viceversa se LR positivo è tra 1e 2 e l‟LR negativo è 0,5 e 1 il test sarà assolutamente irrilevante. RAPPORTO DI VEROSIMIGLIANZA >10 (porta a confermare) <0,1 (porta a negativizzare) 5-10 0,1-0,2 2-5 0,5-0,2 1-2 0,5-1 Modifiche consistenti: impatto clinico importante Modifiche moderate: impatto clinico probabile Modifiche modeste: impatto clinico possibile Modifiche trascurabili: impatto clinico irrilevante Che vantaggi ha il rapporto di verosimiglianza rispetto a specificità e sensibilità? Rimane stabile anche se si modifica la prevalenza della malattia E‟ utile clinicamente anche se sensibilità e specificità sono sotto i valori ideali Può essere usato nella valutazione quantitativa del rischio (della probabilità) che vi sia la malattia dopo aver ottenuto i risultati del test, ossia mi modifica in maniera quantitativa la probabilità che io valutavo che il paziente avesse di avere la malattia dopo averlo visitato ma prima di avere il test (la definizione di questa “probabilità pretest” è appannaggio della pratica clinica, del fiuto del clinico) Questo concetto di come si modifichi la probabilità di malattia prima e dopo il test si riconduce al problema di Bayes e in un bellissimo lavoro si dice che i medici clinici sono dei bayesiani naturali perché voi nel vostro lavoro peserete con la vostra intelligenza e la vostra capacità i risultati che provengono da varie fonti di informazione per trarne il criterio più utile per identificare la patologia del paziente. In questa lezione abbiamo visto questi concetti (sensibilità, specificità, valore predittivo positivo e negativo) applicati ai test di laboratorio ma questi possono essere applicati ad altre pratiche, anche la misurazione della pressione sanguigna ha una propria sensibilità e specificità e anche raccogliere l‟anamnesi (magari varia anche a seconda di chi la raccoglie) ha una sua sensibilità e specificità, lo stesso vale per l‟elettrocardiogramma (ad esempio nel 30% dei pazienti con infarto l‟elettrocardiogramma è negativo). Quindi per tutte le pratiche della medicina bisogna usare questo concetto. Per concludere la lezione, posso privilegiare la sensibilità (ossia ordino un test volendo sapere soprattutto che ha elevata sensibilità) quando: La malattia è grave e non si può correre il rischio di non diagnosticarla La malattia è grave ed è curabile I falsi positivi non comportano gravi danni economici e psicologici per il paziente Un esempio può essere il feocromocitoma che è un tumore delle surrenali che determina sbalzi pressorii molto elevati per cui se non viene diagnosticato dato che la pressione cardiaca ha degli spikes molto elevati porta danni a cuore, rene e nel tempo anche al cervello. Ma se viene identificato e localizzato dato che è un tumore che non dà metastasi basta la resezione chirurgica per risolvere completamente la malattia. Capite allora che vorrò un test a sensibilità molto elevata che non ci faccia perdere nessuno dei potenziali pazienti affetti da malattia. Vorrò invece privilegiare la specificità quando: La malattia è grave ma non è del tutto curabile L‟esclusione della malattia ha un valore psicologico e sociale I falsi positivi comportano gravi danni economici e psicologici per il paziente Un esempio può essere la sclerosi multipla che con le conoscenze attuali non è curabile. Nella maggioranza dei casi invece vi troverete a bilanciare specificità e sensibilità utilizzando l‟efficienza o il valore predittivo positivo o negativo perché: La malattia è grave ma non è del tutto curabile I falsi positivi e i falsi negativi sono parimenti gravi e dannosi (ossia vi troverete con un test di laboratorio che vi porta a non curare dei pazienti che in realtà andrebbero curati o che vi porta a curare dei pazienti che in realtà non avrebbero bisogno della cura e che così verranno posti in condizioni psicologiche negative) Un esempio di questo può essere l‟uso del PSA per la diagnosi di tumore della prostata che ha dei falsi positivi e dei falsi negativi percui lo screening solo col PSA può esporre al rischio di falsi negativi (ossia soggetti che vedono il PSA normale ma in realtà hanno il carcinoma e che quindi hanno una falsa rassicurazione, tranquilizzazione) e di falsi positivi ( soggetti che hanno aumenti anche modesti di PSA e che pensano di avere un tumore della prostata mentre magari si tratta ad esempio di una banale ipertrofia legata all‟età). E‟ chiaro come in questi contesti il test deve essere parimenti sensibile e specifico. Con questo si conclude la parte introduttiva in cui mi ero proposto di dare degli strumenti per interpretare sia dal punto di vista della variabilità che da quello della capacità diagnostica gli esami di laboratorio. 24/03/09 Prof. Plebani PATOLOGIE CARDIACHE Si tratta di una della problematiche cui la diagnostica biochimica ha dato un contributo rilevante; ha, infatti, dato una svolta sostanziale in particolare per quanto riguarda l'Infarto Miocardico Acuto (IMA), ma non solo. L'attenzione si focalizza su queste patologie poichè Cardiopatia Ischemica e Malattie Cardiovascolari -non si tratta della stessa cosa, ma le problematiche diagnostiche d'identificazione e di stratificazione del rischio sono talvolta similicostituiscono insieme la principale causa di morte nei Paesi Industrializzati (42.5% dei decessi in Italia); ma sono anche una delle maggiori cause di malpractice cui viene accusata la Sanità; infatti spesso un paziente con dolore toracico non viene riconosciuto, lo si manda a casa, dopo qualche giorno si ripresenta in Pronto Soccorso e muore per IMA. Questo perchè il repertorio diagnostico finora usato s'è manifestato inadeguato per riconoscere una malattia che necessita di tempestività e nella diagnosi e nella terapia. Stato dell'arte Negli USA si presentano 4 milioni di soggetti all'anno in Pronto Soccorso dichiarando dolore toracico: è questo il tipico dolore suggestivo di una patologia cardiaca. Qui a Pd copre il 10% dei sintomi con cui i pazienti si presentano in Pronto Soccorso. Tuttavia nel 50% dei casi l'ECG -è la tecnica strumentale d'elezione- non è diagnostico o risulta addirittura essere negativo e nell'8% dei casi i soggetti con IMA non vengono correttamente classificati. Questi rappresentano il 20% delle cause di litigiosità -o meglio il 20% delle denunce- per malpractice. Con Malpracice si intende un'attività medica non sufficientemente accurata; il paziente non è stato trattato secondo lo stato dell'arte clinico noto in quel dato momento. Storia della Diagnosi Fino al 2000 ci si è attenuti a dei criteri diagnostici emanati nel 1975 dall'OMS e che prevedono: dolore cardiaco (toracico) di durata maggiore ai 30 min. modifiche dell'ECG tipiche e inequivocabili aumento o riduzione dei marcatori biochimici, a quel tempo enzimi sierici, indicatori di danno cardiaco La strategia diagnostica prevede la positività ad almeno 2 dei 3 criteri sopracitati. Tali criteri sono stati modificati nel 2000 prima e nel 2007 poi. Il repertorio strumentale che un medico di un qualsiasi Pronto Soccorso ha sicuramente a disposizione è l'ECG, che però, come abbiamo visto, può non essere significativo o addirittura risultare normale come nel caso di un paziente con blocco di branca. L'ECG ,infatti, presenta una sensibilità del 55% e una specificità dell'85%; il che significa che se l'ECG ha delle modificazioni tipiche, la diagnosi di infarto è sicura; ma se l'ECG non le presenta non si può escludere che quel paziente abbia un infarto. Una sensibilità del 55% mi sta ad indicare che ho una probabilità di ½ di sbagliare diagnosi. Le PATOLOGIE CARDIOVASCOLARI in realtà sono una famiglia di patologie molto complesse che passano attraverso una varietà di situazioni di cui la patologia coronarica è lo stato principale: può essere asintomatica o sintomatica, e in questo caso può tradursi come angina stabile o angina instabile.. Ci sono, cioè, una serie di gradazioni che interessano tutto l'apparato cardiovascolare e la cui gravità e stratificazione del rischio sono sostanzialmente diverse. E' importante perciò che nell'ambito di queste differenti patologie ogni paziente sia riconosciuto per capire quale sia la sua probabilità di rischio di sviluppare una patologia più grave, come ad esempio un Infarto. Oggigiorno non è più sufficiente definire un paziente con un angina, ma bisogna caratterizzarlo e, sulla base del tipo di angina, si devono introdurre dei trattamenti terapeutici adeguati. L'infarto del miocardio è evidenziabile con tecniche diverse che sono: ANATOMIA PATOLOGICA: va a vedere la morte del miocita. È una diagnosi definitiva e inequivocabile ma purtroppo tardiva BIOCHIMICA: in seguito alla morte del miocita vengono rilasciate in circolo particolari sostanze che possono essere rilevate e misurate. (Il processo che sta all'origine dell'infarto è la formazione di un trombo che occlude un vaso; ciò crea una necrosi in un area del cuore con rilascio di sostanze che,( se ricercate, ci danno modo di capire cosa sia successo al paziente.) ECG: manifesta segni tipici nelle onde: ischemia ST- T, perdita di funzionalità Q IMAGING: evidenzia una riduzione/perdita di perfusione tissutale ECOGRAFIA e SCINTIGRAFIA: fanno vedere la quantità di tessuto che è andata incontro a perdita. Domanda: Non si può fare una biopsia? Si può fare, ma è invasiva e piuttosto si compie in caso di una patologia cronica o infiammatoria, tipo la Miocardite, dove i segni clinici sono magari sfumati e la biopsia consente di evidenziare esattamente la situazione del tessuto. Ma a livello di una patologia acuta come può essere un infarto fare una biopsia è tardivo: con le nuove terapie per trattare gli infarti, la probabilità di sopravvivenza del paziente e di una sua conseguente buona qualità di vita è tanto maggiore quanto più rapido è il trattamento terapeutico. Se la diagnosi è fatta entro 4-6 h dall'inizio del dolore la probabilità di sopravvivenza e recupero è molto elevata; al contrario, più passa il tempo, maggiore è la quantità di tessuto cardiaco che va incontro a necrosi e maggiore sarà la probabilità del paziente di evolvere in una patologia più grave. Si tratta, dunque, di una diagnosi d'urgenza: le linee guida dichiarano debba essere svolta entro max 1h dalla comparsa del dolore toracico ( per questo sono sorte soprattutto in America delle unità specialistiche, le Chest Pain Units, in cui il paziente attraverso un'anamnesi che può essere realizzata direttamente nell'ambulanza, anziché passare per il Pronto Soccorso per nuove indagini, è già portato in Unità di Terapia Intensiva Cardiologica, dove è immediatamente sottoposto ad angioplastica o a trombolisi farmacologica). ECG e biochimica sono le tecniche diagnostiche maggiormente applicabili in situazioni d'urgenza. -Per 'sindrome coronarica acuta' si intende il complesso di manifestazioni imputabili generalmente alla rottura di una placca aterosclerotica a livello delle coronarie, con conseguente trombosi vascolare e riduzione del flusso sanguigno miocardico. L‟entità dell‟occlusione determina la gravità della manifestazione; in caso di occlusione completa si svilupperà necrosi del tessuto miocardico a valle dell'ostruzione. Nel 2000 i criteri dell'OMS sono stati riveduti ad opera delle Società Europea ed Americana di Cardiologia e dei Biochimici Clinici. Ciò che è cambiato è principalmente l'approccio al problema: la diagnosi non è più solo clinica, ma anche biochimica; ci sono degli indicatori biochimici consigliati per la diagnosi di infarto, in particolare le Troponine. Benchè l'ECG sia molto suggestivo di infarto del miocardio qualora si osservi un aumento del tratto ST, questa variazione risulta essere presente solo nel 50% dei casi e pertanto in queste situazioni dubbie è indispensabile il ruolo del laboratorio. A Padova c'è un laboratorio d'urgenza operativo 24h su 24, sito sopra il Pronto Soccorso e al quale è collegato tramite posta pneumatica e rete informatica. Il paziente che entra in PS con sospetto di Infarto Miocardico Acuto è sottoposto dal clinico a ECG e prelievo (non si inizia la terapia trombolitica a priori.. è dannosa in soggetti sani!). Al momento dell'accettazione attraverso il sistema informatico vengono preparate le etichette con codice a barre da applicare alla provetta del prelievo. Tramite posta pneumatica raggiunge il laboratorio d'urgenza in cui sono svolte le analisi e entro 30 min viene fornita la risposta da video. Il medico del PS può così vedere gli esiti degli esami richiesti. Nel tempo si è assistito a una progressiva variazione dei test biochimici proposti: dal 1975 in cui si ricercavano enzimi muscolari-cardiaci (CPK-creatinfosfochinasi-, LDH-lattico deidrogenasi-, AST -aspartato aminotransferasi-), si è passati a indicatori sempre maggiore sensibilità e specificità adatti a una diagnosi d'urgenza. Infatti CPK, LDH.. erano poco specifici da un punto di vista tissutale -non sono presenti solo nel miocardio, ma anche nella muscolatura scheletrica- e il marker che variava più rapidamente, il CPK, prevedeva sì un aumento di 5 volte nel siero, ma dopo 10 ore dall'insorgenza del dolore! Per cui si dimostravano clinicamente non rilevanti: allo stato dell'arte attuale chiedere una CPK è una pratica scorretta e obsoleta; è, infatti, inadeguato per prendere una decisione sulla terapia da seguire. Oggigiorno la strategia prevede l'utilizzo di 2 marcatori: uno per una diagnosi precoce entro 6 h dall'inizio del dolore; uno per una diagnosi definitiva con un alta specificità che mi dica se il paziente abbia avuto un infarto. Il marcatore precoce è la MIOGLOBINA: proteina ubiquitaria che lega un gruppo EME, la quale, essendo di piccole dimensioni e trovandosi nel citoplasma, in caso di danno esce subito. E' inoltre presente nel sangue normalmente in una concentrazione pari a 70 ng/mL. In realtà al momento della mission To, tempo di arrivo in PS, sono già trascorse da 1 a 3 h dall'inizio del dolore toracico. Bisogna infatti considerare problemi di tipo logistico-organizzativo per raggiungere il PS, ma anche le differenti soglie del dolore -un paziente diabetico presenta una soglia molto alta e attenderà delle ore prima di decidere di rivolgersi al medico. A To =3h la Mb presenta un valore di 450-480 ng/mL che raggiungerà un picco in 12h per poi calare progressivamente. É inoltre possibile evidenziare un secondo picco: dal 3al 5% dei pazienti con infarto vanno incontro a un reinfarto che può verificarsi entro 24-48h, e la Mb ne è un utile indicatore proprio in conseguenza al suo rapido ritorno a una concentrazione normale in seguito al primo picco. É, cioè, proprio la cinetica di dismissione della Mb (=tempistica di rilascio cui segue il picco massimo prima, e metabolizzazione e dismissione poi) a renderla utile ai fini diagnostici. In realtà è solo dagli anni '90 che si hanno dei metodi che consentono di dosare la Mb in tempi rapidi -15min-. Ma essendo la Mb ubiquitaria la sua presenza può conseguire a varie patologie, come insufficienza renale o poliomiosite. Per cui se in PS si presenta un paziente politraumatizzato che lamenta un dolore toracico, la Mb sarà sicuramente alta ma non necessariamente in conseguenza a un danno cardiaco: la patologia muscolare concomitante ne innalza il livello a prescindere. Per ovviare al problema si associa alla Mb una proteina assolutamente cardio-specifica: la TROPONINA. Il complesso delle Troponine -Tn- è coinvolto nel meccanismo contrattile e localizzato sia nelle fibre muscolari scheletriche che cardiache. È costituito da 3 Troponine: T, I, C; la TnT e la TnI presentano isoforme miocardio-specifiche che consentono l'identificazione della provenienza. Tra le caratteristiche biochimiche della Tn, oltre al fatto che si tratti di una proteina miofibrillare a basso PM e funzioni regolatorie, è importante ricordarne 2 in particolare che la rendono il marker di elezione: 11. è presente solo per il 3% del totale in forma libera sciolta nel citosol; il restante 97% è strutturale: il che indica che se si riscontra in circolo il danno cellulare deve essere profondo. 12. Tn cardiaca varia per il 40% della composizione aa e presenta 30 ulteriori residui all'N terminale rispetto alla Tn scheletrica. Le isoforme differiscono a tal punto che è possibile realizzare e utilizzare Ab specifici che permettano di evidenziare solo ed esclusivamente la Tn cardiaca. Per cui la Tn: è assente dal circolo dei soggetti sani ( diversamente dalla Mb, che c'è in conseguenza della normale permeabilità di membrana) e ha una cinetica di rilascio molto lenta, ciò significa che rimane in circolo per un lunghissimo periodo di tempo. Ciò permette il riconoscimento dei veri positivi anche dopo ore dall'insorgenza del dolore cardiaco e consente di fare diagnosi di infarto anche in pazienti che si presentano tardivamente -tipo il vecchino diabetico-. Con dolore toracico ci si riferisce a un dolore che va dallo sterno alla pelvi (spesso la sensazione di mal di stomaco, di non aver digerito è un sintomo di infarto), e per il clinico è sempre opportuno richiedere la Tn in caso di ECG silente. Anche nel caso del politraumatizzato si richiede la Tn per discriminare. Pertanto la strategia migliore è associare i 2 marcatori: ottengo il 100% della specificità -non perdo nemmeno un pazientee l'85% della sensibilità. La combinazione tra Mb e Tn è la migliore per quanto riguarda un marker precoce e uno specifico ed è il protocollo diagnostico attuato in tutto il mondo per fare diagnosi e stratificazione del rischio dal punto di vista biochimico (è utilizzabile anche CK-MB che è simile alla Mb). Al giorno d'oggi in strategia diagnostica nessuno prende una decisione sulla base di un solo prelievo: se risultano ECG -, Mb + e Tn -, si aspettano 4 h e si compie un secondo prelievo per vedere se c'è stato un aumento della Tn. Con i test tradizionali si rilevava solo l'infarto massivo, invece i nuovi criteri hanno permesso di evidenziare infarti non tradizionali con ECG non identificante o necrosi molto piccole, grazie all'impatto numerico fornito soprattutto dalle proteine strutturali (una variazione anche minima è subito notata in un soggetto in cui non dovrebbe esserci: se di solito è 0 e vedo 2 mi insospettisco..). In uno studio su come varia la mortalità a 42 giorni a seconda del livelli di Tn circolante, si è messo in risalto un rapporto quasi lineare: maggiore è la TnI in circolo, maggiore è il danno e maggiore è la probabilità di sviluppare eventi cardiaci gravi in caso di inadeguato trattamento. L'elevata specificità e sensibilità è dovuta proprio al fatto che nei soggetti sani Tn è 0: se c'è, allora c'è un danno! La presenza di Tn non ha solo significato diagnostico, ma anche prognostico e di quantificazione del rischio. Al giorno d'oggi un paziente con infarto e uno con angina instabile che abbiano entrambi Tn positiva ricevono lo stesso trattamento terapeutico: hanno, infatti, la stessa probabilità di andare incontro ad un evento sfavorevole. Non è la diagnosi principale a fare la differenza ma il fatto di avere la Tn elevata! “Qualsiasi estensione di danno di miocardico, rilevato mediante determinazione della Troponina cardiaca, comporta una evoluzione clinica ( =outcome ) sfavorevole per il paziente.” Concludendo: la Tn è un marker assolutamente cardio-specifico. A prescindere dalla diagnosi del paziente qualsiasi incremento della Tn identifica un paziente con un maggiore rischio di andare incontro a eventi cardiovascolari ed è pertanto un paziente che va monitorato più strettamente. 31-03-2009 Premessa: il prof fa un passo indietro rispetto alla precedente lezione tenuta dalla dottoressa Zaninotto in modo che ci siano più chiari il senso e le cose che gli interessa capiamo. Sindrome coronarica acuta Già durante la lezione precendente è stata introdotta la sindrome coronarica acuta, cioè quel continuum che porta a definire alcune patologie che vanno dall‟angina (angina instabile, che poi adesso non viene più definita così ma viene definita come un infarto che non esita in danni maggiori) al vero e proprio infarto miocardico. Il termite infarto designa la morte di miociti cardiaci dovuta a un‟ischemia prolungata. Quindi il concetto è che noi descriveremo ( ma che avete già visto con la dottoressa che via ha parlato di due marcatori di necrosi dei miociti, in particolare della troponina) dei marcatori biochimici che definiscano la necrosi dovuta non ad altri fattori, ma ad un‟ischemia prolungata, quindi ad una mancanza per qualche di tempo di O2 e di tutta quella serie di sostanze che sono necessarie per evitare la morte del miocita. Quello che è nuovo ed è un‟evidenza che si è venuta “raccogliendo” negli ultimi anni e ha portato a una ridefinizione dei criteri d‟infarto è che l‟infarto in realtà è un episodio della sindrome coronarica, che può aver luogo nel corso della storia naturale dell‟aterosclerosi delle coronarie. Mentre prima si pensava fossero molteplici le situazioni cliniche che portano all‟infarto, oggi si sa che il nesso che fa da filo unificante delle patologie che portano all‟infarto miocardico è la placca aterosclerotica, la quale interviene in un certo punto della malattia. (Figura 12.4, pag 167,1olibro di Plebani) Quindi si sa che l‟infarto deriva da una placca che in qualche modo limita o impedisce il passaggio del sangue attraverso le arterie coronariche. Fino a qualche tempo fa si aveva una visione quantitativa della placca, cioè si riteneva che la placca occludesse completamente il lume vascolare, bloccando il passaggio del sangue. Oggi sappiamo che è la qualità della placca che conta, cioè che placche, anche piccole ma destabilizzate, possono andar incontro alla formazione di un trombo e provocare ugualmente l‟infarto impedendo il passaggio del sangue. Quindi si ha il passaggio da una visione quantitativa della placca a una qualitativa, e si cercano dei marcatori dell‟instabilità della placca. Questo è il primo concetto che dovete capire. Il secondo concetto è l‟evoluzione. Mentre una volta, nei trattati che studiavano l‟infarto del miocardio, esisteva una rigida separazione tra l‟angina stabile (il concetto di angina è rappresentato dalla sofferenza di un soggetto che nello stato di riposo non ha sintomatologia ma quando comincia a muoversi inizia a sentir dolore) e angina instabile (che è un aggravamento perché lo stato anginoso si ha in condizioni di riposo) e l‟infarto, oggi c‟è un continuum per cui noi sappiamo che anche nei soggetti normali ci posson esser dei fattori di rischio che in alcuni casi portano a una reazione di sofferenza causata da una parziale ostruzione del lume vascolare e che dà esito all‟angina. (oggi è scomparso il concetto di angina instabile e si dice che quando c‟è un blocco totale, quindi un‟ischemia, può esitare in un vero infarto del miocardio.) Questo è il contesto fisiopatologico in cui operiamo. Facendo riferimento alla figura: la placca e la sua rottura possono portare a un‟ostruzione, anche se di per sé la placca non ostruisce il lume vascolare, ma poiché la placca si rompe ed è instabile, attiva la formazione di un trombo che a sua volta determina il danno. Quindi perché ci sia un vero e proprio danno irreversibile del miocardio,l‟ostruzione deve persistere per oltre 30 minuti: quindi non basta un‟ostruzione temporanea ma dev‟esserci un arco temporale di almeno 30 minuti e più contratta è l‟occlusione, maggiore sarà l‟estensione dell‟area infartuata. Questo concetto è importate perché di per sé l‟infarto non è una malattia mortale ma è una malattia fortemente invalidante tanto + si estende l‟area infartuale perché quella è un‟area di cuore che non riesce più ad avere una funzionalità. Oggi si sa inoltre che lo sviluppo,la progressione e la destabilizzazione delle lesioni (aterosclerotiche) riconoscono la protezione infiammatoria: cioè, mentre prima si pensava che l‟aterosclerosi fosse solo un fenomeno biochimico di deposizione di colesterolo e lipidi all‟interno dell‟endotelio e del lume vascolare, adesso si sa che una componente fondamentale dell‟aterosclerosi che dà poi esito alla sindrome coronarica acuta è una condizione infiammatoria cronica. Questa è sostenuta da vari elementi ma è caratterizzata da fattori di rischio, alcuni dei quali sono ben stabiliti sulla base di evidenze e sono da un lato dei fattori clinici (fumo, ipertensione, iperglicemia, aumento del colesterolo contenuto nelle LDL e una diminuzione del colesterolo HDL) e dei fattori emergenti. Questi da un lato sono dei fattori biochimici come la proteina C reattiva (CRP) la serum amyloid protein, fibrinogeno, omocisteina e da dall‟altro lato ci sono dei fattori genetici, per i quali non sono state raccolte delle evidenze assolute ( si pensa che polimorfismi dei geni per TNF TGF-, interleuchine abbiano un ruolo fondamentale ed esistono evidenze sull‟importanza marcatori di trombosi e dello stato protrombotico quali t-PA –attivatore tissutale del plasminogeno- e l‟inibitore dell‟attivatore del plasmnogeno). Questi sono fattori emergenti perché non sono ancora chiaramente delineati nei libri tradizionali ma si può ritenere che il rischio cardiovascolare vada visto come un mosaico composto da alcuni fattori definiti (il solito quartetto), fattori comportamentali (il prof fa accenno alle diverse attitudini alla rabbia), fattori genetici ma ciò che mi interessa mostravi è il ruolo sempre più importante dei fattori infiammatori. I nuovi marcatori biochimici di infiammazione sono molti perché recentemente è stata ricostruita la cascata che, a partire da alcuni stimoli, attraverso movimenti delle citochine e delle molecole di adesione, provoca un aumento di alcune sostanze quali il fibrinogeno, la serum amyloid e la proteina C reattiva. Le evidenze che si sono raccolte sono soprattutto per il ruolo della CRP. Ripetendo: si hanno dei fattori di rischio pro infiammatori che agiscono a livello cardiovascolare, provocano un aumento di citochine pro infiammatorie (quelle più attive sono IL-1 e TNF-) che agiscono anche tramite IL-6 (chiamata anche citochina messaggera nel senso che trasporta il messaggio al fegato che è l‟organo più strattamente correlato alla produzione di proteine della fase infiammatoria acuta). Il fegato è stimolato a produrre soprattutto CRP che viene ritrovata in circolo ed è un marcatore di infiammazione a livello cardiovascolare. Gli studi sul ruolo della CRP risalgono a dieci anni fa, sostanzialmente sono sue i gruppi al mondo che vi hanno lavorato e hanno dimostrato che c‟è un rischio relativo, una volta tolte le altre variabili, per la CRP che ha un rischio relativo simile se non superiore al rapporto LDL/HDL. Infatti sul New England Journal of Medicine è stata proposta la combinazione dei due marcatori. In riferimento al diagramma illustrato dal prof nelle slides, i soggetti che hanno valori più elevati di colesterolo hanno un rischio relativo maggiore ma anche nei soggetti con valori medio-bassi di CRP può esserci un rischio ma soprattutto nei soggetti in cui si hanno alti livelli di CRP e colesterolo, il rischio si assomma e diventa maggiore. Quindi i due fattori si integrano. Domanda: a livello dell’IL-6 c’è un rischio relativo minore di uno, che se non sbaglio indica un rischio quasi ininfluente ma è strano perché essa è induttore epatico della CRP. Risposta: il concetto è molto semplice perché Il-6 ha un’emivita bassissima, quindi quando si va a fare il prelievo e a “fotografare” la situazione non è quella che in quel momento riflette lo stato infiammatorio proprio perché è una citochina messaggera. Per questo risulta più efficace dal punto di vista clinico la determinazione della CRP rispetto ad alcune citochine. Le citochine in questa patologia non hanno alcun valore diagnostico. Successivamente fu fatto uno studio dove furono reclutate giovani donne con valori di colesterolo LDL inferiori a 130 mg/dl (che è il cut off sotto il qual non c‟è rischio di malattia cardiovascolare) ed è stato trovato che la CRP, proprio nei casi di livelli normali di colesterolo LDL, quando si va verso i quartili, ossia quei valori che configurano il quarto di popolazione arruolata con valori più elevati, questi espongono a un rischio relativo che è decisamente importante e significativo. (4 significa 4 volte il rischio relativo rispetto alle stesse donne della stessa età arruolate che invece hanno valori bassi o normali di CRP.) Negli stessi anni uno studio italiano dimostrò ancora una volta la stessa cosa. Un altro lavoro italiano interessante è quello che dimostra come la CRP misurata alla dimissione, più che al momento del ricovero, avesse un elevato valore predittivo negativo. Perché? Perché un paziente che è stato ricoverato per un episodio di sindrome coronarica acuta ed è stato trattato, se al momento della dimissione ha valori elevati della CRP, ciò significa che a livello cardiovascolare ha ancora un‟infiammazione che potrà ancora dare degli esiti (in termini di infarto e/o morte) a distanza di qualche tempo. Questo è ciò che si sapeva fino a poco tempo fa. Più recentemente è stato pubblicato su NEJM uno studio comlesso, denominato studio Jupiter in cui sono stati arruolati dei soggetti con valori del colesterolo LDL inferiori al cut off che definisce la soglia di rischio e con valori superiori a 2 mg/dl di CRP. Questi sono stati poi randomizzati in due gruppi: uno prendeva il placebo, l‟altro statina (che in generale viene data per ridurre i livelli di colesterolo ma in questo caso viene somministrato pur in assenza di livelli elevati di colesterolo per evidenze che c‟erano precedentemente di effetti di diminuzione dellla CRP). Quindi tutti hanno valori di colesterolo nella norma, valori di CRP superiori a 2 mg/dl (che è un cut off abbastanza basso) metà prende placebo, metà statina. Lo studio viene interrotto prima dei tempi canonici perché ci sono evidenze della superiorità assoluta nel gruppo trattato con la statina in senso di riduzione degli eventi coronarici e miocardici, come infarti o morti. Quindi questo studio dà maggior forza al concetto della CRP come marcatore aggiuntivo e rilevante. Come si interpreta la CRP? Fino a poco tempo fa i metodi di laboratori guardavano su aumentava sopra i 10 mg/l. Nel caso aumentasse, essa è una spia di risposta infiammatoria sistemica: solitamente, nel caso di qualsiasi infezione come una banale ferita, ci sono dei meccanismi che limitano l‟entità della risposta infiammatoria che è locale perché non si ritrova a livello circolatorio; nel momento in cui c‟è una risposta sistemica i meccanismi locali non sono sufficienti e l‟infiammazione si propaga all‟interno del sistema per cui, con un prelievo, si vedono degli indicatori di infiammazione a livello generale. Ciò avveniva quando si interpretava la CRP con un cut off superiore a 10 mg/l. Nel caso dell‟infiammazione cardiovascolare, sono stati messi appunto dei metodi che hanno una maggior sensibilità analitica e il rischio viene definito quando in un soggetto si superano 1 mg/l (o come nello studio Jupiter i 2 mg/l). Si distingue poi tra rischio intermedio e rischio elevato, nel caso si superino ancora di più i valori. La nuova utilizzazione della CRP è nel veder valori che sono compresi in un intervallo da 1 a 10 mg/l e non più sopra i 10 mg/l. Perciò questa determinazione della CRP si chiama CRP-Hs (ad elevata sensibilità). Che cosa è cambiato dal momento in cui è stata introdotta questa nuova definizione dei criteri di infarto? (Figura 12.5, pag 167, 1° libro di Plebani) Ciò che non è cambiato è che quando un paziente si presenta con dolore toracico acuto, gli viene fatto un elettrocardiogramma, che rivela un sopraslivellamento del tratto ST. in questi casi il medico di pronto soccorso o il cardiologo non aspetta l‟esito degli esami di laboratorio perché ogni minuto guadagnato significa tessuto cardiaco risparmiato alla necrosi e si cerca di riaprire le coronarie ostruite attraverso una terapia medica (iniettando trombolitico) o attraverso una terapia endoscopica con l‟angioplastica. In questi pazienti i markers biochimici servono per una conferma diagnostica a posteriori, per una valutazione prognostica, per il monitoraggio e per valutare il successo della terapia (nel senso che non sempre la terapia trombolitica o l‟angioplastica riescono bene e trovare una mantenimento di livelli elevati di marcatori può esser un‟indicazione per rimettere mani sul paziente o fare dei trattamenti differenziati). Ciò che è cambiato è (parte a destra della diapositiva) che, in presenza di un ECG normale, c‟è una fetta di pazienti in cui solo i marcatori biochimici possono essere utilizzati per diagnosticare effettivamente la presenza di infarto. Negli studi più rappresentativi questa percentuale oscilla intorno al 30% dei casi. Inoltre è cambiata la classificazione dei casi di infarto. Se ne distinguono due tipi: Infarto miocardico con sopraslivellamento del tratto ST (infarto classico); Infarto senza sopraslivellamento del tratto ST (infarto non-ST) che può esser definito solo dall‟aumento della troponina e confermato con risonanza magnetica, tecniche di immagine che visualizzino l‟estensione dell‟area necrotica o con l‟autopsia. I pazienti con ECG normali, ma troponina elevata, possono essere ancora classificati come anginosi, nel senso che evidentemente in alcuni di questi pazienti ci sono delle problematiche aterosclerotiche ma la placca non è di entità e non è stata destabilizzata per cui non ha provocato ischemia e necrosi cardiaca. Da un punto di vista della diagnostica e della classificazione la sindrome coronarica acuta si differenzia quindi in quelle due varianti sopra descritte. Ciò si può vedere da questa diapositiva che raccoglie la storia dell‟approccio biochimico alla sindrome coronarica acuta. (Figura 12.3, pag 165, 1° libro) Negli anni ‟70, quando si avevano dei parametri molto poco sensibili e specifici come la creatinina chinasi totale (poi fu introdotta la determinazione dell‟isoenzima MB, che è più cardio-specifico) c‟è stato un lieve miglioramento della diagnostica dei casi di infarto. Negli anni ‟90, con l‟introduzione della troponina, c‟è stato un balzo in avanti, cioè un recupero del 30% dei casi che prima non erano diagnosticati e oggi vengono classificati come infartuati grazie alla determinazione della troponina. La troponina ha poi un‟altra grande importanza: non è un marcatore “bianco o nero” (c‟è-/non c‟è, presenza/assenza della malattia) ma è “colorato” ossia l‟incremento dei valori in circolo della troponina cardiaca è correlato con l‟estensione e la gravità dell‟infarto e quindi con la mortalità dei pazienti. Guardando la slide (Figura 12.2,pag 165, 1° libro), il gruppo di pazienti con valori più elevati di troponina, ha un rischio di mortalità 7.5, nettamente superiore al gruppo che, pur avendo dei valori di troponina lievemente aumentati (tra 0.4 e 1), ha un rischio relativo di mortalità a 40 giorni che è 1.7. Ciò ci dice che la troponina non va interpretata solo come positiva o negativa, ma va vista anche nella sua quantità assoluta, perché la quantità di troponina rilasciata in circolo è una spia affidabile del danno subito dal miocita. Tuttavia ulteriori studi hanno dimostrato che il rischio cardiovascolare non può essere esemplificato da un solo marcatore, nemmeno la troponina. Possono esser presenti altri marcatori di danno cardiaco, come il peptide natriuretico, il quale è presente in una certa percentuale di casi e delinea un rischio che è 4 volte superiore al resto della popolazione, pur in pazienti troponina negativi. Questo mostra come, nonostante la troponina abbia consentito di fare progressi nella classificazione e nella prevenzione del rischio, un unico marcatore non è sufficiente. Uno dei problemi di questo insuccesso è dovuto al tipo di cut off che viene usato: a seconda dei criteri con cui si interpreta la troponina (-riferendosi alla diapositiva- in particolare il criterio sulla base delle curve ROC, questo è un criterio basato sull‟aumento oltre il 10% del coefficiente di variazione, questo è quello che si fa oggi, ossia gli aumenti della troponina in rapporto al 99esimo percentile dei valori riscontrati nella popolazione sana) c‟è un passaggio da una sensibilità del 65% a una dell‟88%, e una specificità che dal 53 arriva al 73%. Quindi il messaggio da portare a casa per gli studenti è che la modalità di interpretazione gioca un ruolo importante. Oggi, nel mondo, si ritiene che il limite superiore oltre il quale la troponina si dice aumentata sia il 99esimo percentile. Perché queste discussioni? Fino a poco tempo fa si pensava che la troponina non fosse presente in circolo nei pazienti che non hanno patologie cardiache. In realtà si è visto, con metodi che hanno una sensibilità analitica molto elevata, anche nei soggetti sani ci può esser la presenza di piccole quantità di troponina. (N.B.La sensibilità analitica di questi metodi è da 100 a 1000 volte superiore ai metodi tradizionali.) La troponina può esser rilasciata per fenomeni di apoptosi e rinnovamento dei miociti. Inoltre, mentre la maggior parte della troponina ritrovata in circolo è strettamente legata all‟interno della cellula, ce n‟è una parte libera nel citosol che può esser rilasciata anche per fenomeni di modesto danno cardiaco. Ciò ha ripercussione sulla diagnostica: oggi non tutte le troponine che vengono utilizzate sono uguali, ma ci sono delle troponine che si chiamano ad elevata sensibilità (credo che il prof si riferisse ai metodi per rilevare i valori di troponina). Queste troponine ad elevata sensibilità permettono di rilevare delle concentrazioni più piccole con maggior affidabilità: sono metodi più precisi e più esatti a valori di concentrazione della troponina bassi. A cosa serve questo clinicamente? Mediamente l‟aumento della troponina si osserva mediamente dalle 6 alle 12 ore dall‟inizio del danno miocardico; questo è quello che si sapeva utilizzando i metodi tradizionali. La figura vi mostra la cinetica della troponina in base al metodo tradizionale: la percentuale di positivi nelle prime ore è molto bassa, va poi aumentando arrivando a un plateau tra la sesta e la dodicesima ora. Negli stessi pazienti vengono eseguite anche le determinazioni della troponina con i metodi ad elevata sensibilità e si vede che già al tempo 0 (dopo un‟ora dal dolore toracico) il 60% dei pazienti aveva un aumento della troponina. Pertanto questi metodi ad elevata sensibilità ci portano a dire che quell‟assunto, cioè che la troponina aumenta tra le 6 e le 12 ore, vada visto solo se rapportato con metodi tradizionalmente in uso, ma con metodi a più elevata sensibilità si può veder un aumento della troponina anche a 1-2 ore dall‟evento infartuale. Il prof ora porta una loro esperienza: qui ci sono soggetti che erano entrati in pronto soccorso a tre ore dall‟inizio della sintomatologia; con il metodo tradizionalmente in uso nessuno risultava positivo per la troponina e in questi casi si cerva un marcatore precoce che è la mioglobina. Il 43% dei soggetti aveva la mioglobina positiva. Tuttavia la mioglobina non è specifica per danni cardiaci, ma può aumentare ad esempio a seguito di un insulto muscolare, un problema renale e pertanto aveva molti difetti. Quando furono usati i metodi ad alta sensibilità, il 70% di questi pazienti, che prima venivano classificati come negativi, sono diventati positivi. Quindi oggi si raccomanda di sostituire le determinazioni di troponina dei metodi tradizionali con quelli ad alta sensibilità e abolire la determinazione della mioglobina perché non è più utile. Il concetto da portare a casa è: la troponina è un parametro assolutamente specifico, fino a poco tempo fa i pensava che la sua sensibilità cominciasse dopo 6-12 ore, oggi si sa che coi metodi ad alta sensibilità già a 1-2 ore dal danno cardiaco molti pazienti possono esser diagnosticati. Il prof tiene a precisare che, prima dell’introduzione dei metodi ad alta sensibilità, i pazienti risultati negativi dopo 3 ore coi metodi tradizionali non venivano dimessi ma venivano fatte ulteriori analisi dopo 6 ore dal dolore, quando risultavano positivi e quindi si procedeva alla diagnosi e al trattamento. Tuttavia venivano perse 6 ore mentre oggi possono esser recuperate e si può evitare che altro tessuto cardiaco venga perso. Quindi si raccomanda di introdurre i metodi ad alta sensibilità, sia perché da un punto di vista laboratoristico migliorano l‟esattezza, ma soprattutto perché dal punto di vista cardiologico permettono una diagnosi più precoce. Infine, ci sono delle prove che dei modesti aumenti di troponina, anche al di sotto del cut off, rivelino la presenza di una patologia cronica e che a lungo termine questi pazienti hanno maggiore rischio di mortalità per eventi cardiaci. È importante comunque ricordare che la troponina è il marcatore di scelta (definito gold standard) nei criteri di classificazione dell‟infarto miocardico. Ci sono altri marcatori che si stanno affermando come markers biochimici di patologia cardiovascolare e questi rientrano nella famiglia dei peptidi natriuretici. Si conoscono 5 appartenenti a questa famiglia: Atrial natriuretic peptide Brain natriuretic peptide C natriuretic peptide Urodilatina DNP (o D-type natriuretic peptide) Dal punto di vista biochimico ciò che è importante per la loro attività biologica (e che serve anche per l‟identificazione come marcatori) è l‟anello con ponti disolfuro. (vedi figura 12.7 pag 175, 1° libro) A livello del miocita la produzione avviene come un pre-pro-ormone che ha 134 amminoacidi, che viene successivamente elaborato (c‟è un clivaggio del peptide segnale) e si forma un pro-BNP che ha 108 amminoacidi. Tutto questo avviene a livello intracellulare. In seguito c‟è un‟ulteriore elaborazione per cui nel sangue si ritrovano due molecole diverse derivate dal pro-BNP: Nt-pro-BNP (peptide N-terminale della molecola che ha 76 amminoacidi) e il BNP (che è l‟ormone attivo e ha 32 amminoacidi). BNP ha un‟emivita abbastanza breve, da 15 a 20 minuti, e nel sangue si trovano dei valori inferiori a 10 ng/L. Nt-pro-BNP non ha attività biologica, ha un‟emivita superiore (oltre 60 minuti) e per questo le concentrazioni sono attorno ai 40 ng/L (4 volte superiori a quelle del BNP). I peptidi natriuretici hanno degli effetti a livello circolatorio in termini di vasodilatazione, hanno un effetto anti ipertrofico a livello miocardico, aumentano la natriuresi e hanno un effetto anche a livello centrale (inibizione del sistema immunoneuro-vascolare). (Figura 12.8 pag 176, 1° libro) Domanda: ma in presenza di danno miocardico non dovrebbe esser utile ipertrofizzare per compensare il miocardio perso? Risposta: assolutamente no perché uno dei problemi nel corso del danno è il rimodellamento dei ventricoli che si ipertrofizzano e quindi c’è ancora più difficoltà nella funzione di pompa e questo provoca dei problemi. Noi abbiamo parlato soprattutto dell‟ANP e del BNP, che viene secreto dai miociti ventricolari. Quindi a livello atriale le patologie che colpiscono fondamentalmente l‟atrio, attraverso lo stiramento delle miocellule, danno prevalentemente un aumento dell‟ANP. Al contrario, le patologie che provocano lo stiramento delle miocellule ventricolari, danno prevalentemente secrezione del BNP. Si dice prevalentemente perché con danno a livello atriale non aumenta solo l‟ANP o con il ventricolare solo il BNP, ma generalmente l‟ANP è più rappresentato a livello atriale, il BNP a livello ventricolare. Insieme danno un‟attivazione dei sistemi neuroormonali ed immunologici. In termini relativi, di fronte a uno stimolo neuroormonale sul sistema cardiovascolare la risposta di alcuni ormoni, come potenza di risposta, ci dice che il cortisolo ha un effetto modestissimo, la noradrenalina ha un effetto abbastanza modesto, l‟IL-6 non più del 5%, la renina (che è un altro ormone secreto a livello renale e ???surrenale????) ha un effetto molto superiore, ma in termini relativi l‟effetto del BNP è quello più rappresentativo. Man mano che noi andiamo avanti con una patologia che poi porta allo scompenso, la secrezione di queste sostanze permette la miglior differenziazione tra soggetti che non patologie cardiovascolari. Nei vari stadi di patologia, anche a quelli iniziali, la differenziazione è maggiore con la determinazione con i peptidi natriuretrici rispetto a tutti gli altri ormoni. Ecco perché negli ultimi anni si è andati introducendoli nella clinica. L‟utilità della determinazione dei peptidi è in alcuni grandi settori: 13. Nella classificazione e nello screening dei pazienti con scompenso cardiaco. Oggi in termini relativi la causa più frequente di ammissione al pronto soccorso, più che nel pronto soccorso nel polo ospedaliero, è quella di pazienti con scompenso cardiaco, perché molte patologie, tra le quali l‟infarto del miocardio, che prima erano mortali, oggi vengono curate, ma nel lungo termine cronicizzano e portano ad una disfunzione del cuore che porta allo scompenso. Quindi abbiamo una fetta di popolazione che prima moriva, invece ora rimane in vita ma ha una patologia cronica. 14. Nel follow up dei pazienti con scompenso. Nel senso che è utilizzato specialmente nel prendere decisioni quando il paziente non è ospedalizzato e a livello ambulatoriale se il medico di famiglia vede crescere i livelli di peptidi natriuretici oltre una certa concentrazione ci sono indicazioni per ricoverarlo in ospedale perché lo scompenso si è aggravato. 15. Come indicatore prognostico 16. Consente risparmi rispetto a indagini più costose e invasive Già oggi nelle linee guida (che sono delle indicazioni cliniche raccolte attraverso il consenso tra esperti) del libro più utilizzato dai cardiologi, il Braunwald (il più grande cardiologo esistente, anche se è andato in pensione), già nella sua edizione del 2005, nell‟algoritmo per la diagnosi dello scompenso cardiaco viene introdotta la determinazione dei peptidi natriuretici come esame di primo livello, dopo la visita e la lastra del torace e prima di fare l‟ecocardiogramma (uno strumento molto importante e utile, ma che è anche costoso e deve essere fatto da un cardiologo esperto). Questo concetto è stato ripreso nelle linee guida della società europea di cardiologia che dice esattamente la stessa cosa. Quindi oggi la determinazione dei peptidi cardiaci ha un preciso ruolo nell‟algoritmo diagnostico prima dell‟effettuazione di indagini sofisticate. La determinazione dei peptidi cardiaci ci permette di differenziare le classi di soggetti che possono avere un sospetto, ma non hanno, uno scompenso cardiaco, rispetto alle classi di pazienti, anche all‟esordio che possono avere un iniziale scompenso cardiaco. La NYHA è un tipo di classificazione clinica utilizzata dai cardiologi; quello che è certo è che rispetto alla classificazione clinica il peptide natriuretico ci dice che, in molti casi alcuni pazienti, che possono essere nelle prime classi di scompenso ma che ancora clinicamente non vengono classificati (se non in classi modeste di patologia), in realtà attivano i meccanismi biochimici di scompenso e hanno una secrezione di peptidi natriuretici superiore. (Figura 12.9 pag 177, 1° libro) Quindi non è che il peptide natriuretico dia informazioni solo confermatorie rispetto alla diagnosi clinica, ma aggiunge anche delle informazioni sulla attività biochimica che è in corso. Per altro, come tutti i parametri, dobbiamo leggere i valori del peptide natriuretico sapendo che fattori diversi dallo scompenso cardiaco possono dare aumenti come nel corso di malattie polmonari, nell‟insufficienza renale, in alcune terapie antineoplastiche, nel diabete mellito, nelle amiloidosi, nello shock settico. In questi casi vediamo un aumento del peptide natriuretico, ma attenzione! Non sono falsi positivi, sono situazioni in cui comunque il cuore si trova bombardato da uno stress che colpisce il sistema neuro immuno ormonale e che quindi può esitare anche in un aggravamento della disfunzione cardiaca. Quindi il peptide natriuretico è correlato con le classi cliniche, ma non solo, può dare delle indicazioni che precedono e che sono pertanto aggiuntive perché mette in evidenza questo distress, questo stress del sistema neuro immuno vascolare. Questo ci spiega perché in questi pazienti che non hanno necrosi del miocardio, ma hanno un aumento del peptide natriuretico, ci può essere un rischio a distanza di una patologia cardiovascolare che può esitare in morte o in infarto del miocardio. Poiché nel primo momento in cui facciamo la determinazione della troponina non c‟erano segni di necrosi, ma ci sono segni che qualcosa in quel meccanismo di stress che determina un aumento del peptide natriuretico nel medio lungo termine può portare a danni a livello cardiovascolare. Quindi il significato di fattore di rischio deve essere chiaro: il fattore di rischio non è solo qualcosa che determina un rischio ben presente, ma può determinare anche un rischio a distanza di tempo. Quindi questi soggetti non sono falsi positivi, ma l‟esemplificazione di come i fattori di rischio possono delineare elementi diversi. Tant‟è che oggi si ritiene, ci sono già degli studi che dimostrano questo, che se vogliamo studiare il rischio cardiovascolare almeno tre sono i marcatori che dobbiamo determinare. Il primo è un marcatore di necrosi, non c‟è dubbio che la troponina è il marcatore di elezione. Il secondo è un marcatore di infiammazione, ci interessa sapere se, a prescindere dalla presenza di necrosi, vi è la presenza di infiammazione a livello cardiovascolare e per questo, come abbiamo già detto, quello che è più documentato, con più prove di efficacia e il livello di Proteina C Reattiva. (se è scritto HS significa che è determinata con metodi ad alta sensibilità Infine la determinazione dei peptidi natriuretici, perché questo è un segno di attivazione neuro ormonale che può aggiungersi integrando e completando il quadro per capire qual è il rischio cardiovascolare di un dato paziente. Quindi in poche parole, oggi non c‟è solo il problema della diagnosi(c‟è o no infarto, c‟è o meno sindrome coronarica acuta), quello che il cardiologo chiede è la stratificazione del rischio, che nella clinica oggi si ritiene debba essere fatta determinando questi tre parametri, un marcatore di necrosi (troponina), un marcatore di infiammazione (CRP) e un marcatore di attivazione neuro ormonale (il peptide natriuretico). Prof. Plebani Nota sulle abbreviazioni: Ag = antigene, Ab = anticorpo, K = carcinoma, mAb = Ab monoclonali, PSA = Ag specifico della prostata, CEA = Ag carcinoembrionario Biomarcatori tumorali Nell‟ultimo decennio si è assistito ad un‟esplosione dell‟attività di ricerca nell‟ambito dei biomarcatori che può essere spiegata dalla convergenza di vari fattori quali la scienza, (lo sviluppo della conoscenza sulla base molecolare delle neoplasie), la tecnologia (abbiamo a disposizione strumentazioni sempre più raffinate e sensibili e ad alta produttività), esigenze legate alla società (è più diffusa la coscienza della necessità della diagnosi precoce delle neoplasie). Il successo e l‟utilità clinica di biomarcatori come hCG, PSA o il picco monoclonale delle Ig hanno dimostrato un miglioramento della diagnosi e il monitoraggio di alcune malattie neoplastiche. Grazie all‟uso clinico del PSA, per esempio, si è avuto un crollo della mortalità del carcinoma alla prostata negli USA. Presupposti per lo sviluppo di un marcatore tumorale 17. Si deve definire la biologia del processo neoplastico (ogni neoplasia ha una sua biologia e un suo sviluppo) 18. Si deve definire la biologia del‟ospite: bisogna quindi studiare la risposta immune con cui l‟ospite antagonizza il tumore, la farmacogenomica e la farmacoproteomica (possono essere utili per individualizzare il trattamento) 19. Si deve definire il tipo di marcatore e gli endpoint surrogati (cioè lo scopo dell‟esame per cui il biomarcatore è utilizzato ad es.: risposta alla terapia, follow up, prognosi) Inizialmente vedremo l‟approccio tradizionale su cui si basa ancora oggi la pratica della medicina di laboratorio per quanto attiene ai marcatori ovverosia il concetto che di studiare una molecola alla volta, nell‟ipotesi di trovare una molecola che distingue il soggetto sano da un soggetto portatore di neoplasia. In pratica, è come cercare un ago nel pagliaio: noi cerchiamo, in un complesso ambiente quale è quello che media i vari scambi dell‟organismo umano, una molecola in grado di discriminare un soggetto sano da un portatore. Anzi, quando si cerca un marcatore per lo screening, si vorrebbe trovare una molecola che, in assenza di sintomatologia, riuscisse a discriminare un soggetto portatore di rischio dai soggetti non portatori di tale rischio. Questa metodica, detta hypothesis-driven, sta lasciando spazio ad approccio innovativo detto analisi multiparametrica, una via che non sarebbe stata percorribile senza l‟apporto della tecnologia ad alta produttività (es. array di DNA o di proteine). Mediante l‟analisi multiparametrica, si valuta l‟efficacia di molte molecole per volta, nell‟ipotesi che ogni carcinoma abbia un particolare pattern di espressione genica o un particolare pattern proteomico che differenzi l‟individuo affetto dall‟individuo sano. Questo è un approccio technologydriven. Pietre miliari nella storia dei marcatori circolanti Anno 1846 1930 1932 1963 1965 1969 1970s 1970s 1970s 1975 2002 Autore Bence-Jones Zondelek Cushing Abelev Gold – Freedman Heubner Kohler Petricoin - Liotta Marcatore LC delle Ig hCG ACTH AFP CEA Oncogeni CA 125 CA 19-9 CA 15-3 mAb proteomica Malattia Mieloma K Corion Polmone Epatoma Colon Retto Sangue K Ovaio K pancreas K mammella Sangue Ovaio Bence-Jones scoprì che i pazienti affetti ad mieloma potevano essere identificati portando ad ebollizione le loro urine per vedere se flocculavano. Il flocculato soprastante era composto nella fattispecie da catene leggere delle Ig denaturate. La vera svolta nello studio dei marcatori avvenne negli anni ‟60 con la scoperta della radioimmunologia e del RIA (radioimmunoassay) che permetteva identificare quantitativi molto bassi di proteina. Questa tecnica ha introdotto negli esami di routine dei laboratori di routine l‟ feto proteina (AFP), utilizzato nella diagnosi del‟epatocarcinoma, del CEA (usato per la diagnosi di K colon rettale) e di hCG (usato sia come marcatore di alcune neoplasie della donna e del maschio, come i seminomi). Negli anni ‟70 viene scoperta la tecnologia per creare mAb. I mAb hanno generato un nuovo tipo di biomarcatori identificati dalla sigla CA (C = cancer, A = Ag). Linee di mAb sviluppati contro tumori primitivi o metastatici reagiscono contro sostanze presenti nel siero di pazienti permettendo la loro identificazione. Quando sono stati sviluppati, l‟epitopo riconosciuto dai detti mAb – markers era sconosciuto. Oggi, la ricerca è indirizzata all‟individuazione di pattern proteomici. I biomarcatori circolanti possono essere classificati: Secondo al specificità tissutale Secondo caratteristiche biochimiche Secondo utilità clinica Markers con struttura chimica nota Ormoni (hCG, calcitonina, tireoglobulina, questi ultimi due usati nella diagnosi di tumori alla tiroide) Enzimi (PAP, NSE, PSA, PG) Molecole d‟adesione (CEA) Molecole di trasporto (AFP) Prodotti di differenziamento (acidi sialici, poliammine) Citocheratine (TPA, TPS) Da un punto di vista biochimico abbiamo una varietà di sostanze che possono essere utilizzate come marcatori. Sempre da un punto di vista biochimico, abbiamo una serie di glicoproteine identificate da epitopi caratterizzanti che sono identificati da mAb (A questo gruppo appartengono i marcatori della serie CA) Possiamo anche valutare l‟attività dei geni oncosoppressori (es. p53). Da un punto di vista biochimico, è possibile inoltre valutare l‟espressione dei mRNA in cellule circolanti (Si testa l‟espressione dei biomarcatori d‟interesse nei componenti nucleati del sangue ottenuti mediante un prelievo) Problemi legati ai biomarcatori Sarebbe bello cogliere, attraverso la misurazione di un marcatore nel sangue o nelle urine, l‟avvenuta trasformazione neoplastica di una cellula. Ciò è difficile per un problema di quantità: le sostanze secrete dalle cellule vengono infitte diluite nel volume ematico, quindi non si possono trovare differenze se la popolazione cellulare interessata dalla mutazione è molto ridotta. Quanto invece si ha una massa di cellule secernenti il biomarcatore, allora si ottiene una misura analiticamente rilevabile e clinicamente significativa. Questo è il motivo per cui è difficile individuare i casi asintomatici. Il secondo problema è dato dalla vascolarizzazione: (Si ricordino le ricerche di Folkmann e l‟importanza del processo nella “bussola” di Weinberg) se si preleva un campione di sangue, più il tumore è vascolarizzato più sarà facile rilevare il biomarcatore; il contrario se il tumore è scarsamente vascolarizzato. In terzo luogo, non dobbiamo dimenticare che bassi quantitativi di biomarcatori tumorali sono comunque presenti anche nelle persone sane e che, i marcatori, come tutte le sostanze, devono essere catabolizzate. Un aumento dei livelli di biomarcatori può essere dovuto non ad un‟aumentata produzione (quindi a tumore) ma ad una diminuita eliminazione. L‟escrezione avviene attraverso la via epatobiliare e attraverso l‟emuntorio renale: se uno di questi due meccanismi di escrezione, per motivi diversi e non correlati alla presenza di una tumore, dovesse andare in sofferenza, si avrebbe un aumento dei livelli di biomarcatore. Per ultimo, i biomarcatori possono trovare una diversa ubicazione a livello dell‟organismo, ad es. tutte la molecole identificate con CA ed in particolare CA 125 (tipico del K ovaio), quando vengono liberati vengono immesse nel liquido peritoneale perché sono delle mucine che sono secrete da cellule site a livello dell‟omento. Quindi c‟è anche un problema inerente la disposizione delle sostanze nell‟organismo: alcune si riversano nel torrente sanguigno, altre seguono la via linfatica, altre si riversano nei liquidi di versamento. La concentrazione dei biomarcatori circolanti subisce un oscillamento fisiologico, inoltre condizioni legate allo stile di vita (fumo, alcol…), eventi fisiologici (gravidanze) o patologici a carico del sistema o di un organo (colestasi, insufficienza renale, patologie infiammatorie croniche) ne possono influenzare la concentrazione indipendentemente dalla presenza di una neoplasia. Ci sono poi altre cause di oscillazione: se prima di effettuare un prelievo per la ricerca del PSA ad un paziente, eseguo su di esso un massaggio prostatico o una rettoscopia (causa iatrogena), se eseguo una broncoscopia (faccio aumentare le citocheratine) o un intervento chirurgico all‟addome (può causare il rilascio di markers del K colon rettale) Applicazione Screening Diagnosi Monitoraggio Recrudescenza Prognosi Specificità Non critica Molto desiderabile Non critica Importante Non critica Sensibilità Critica Molto desiderabile Desiderabile Molto desiderabile Non critica Precisione Non critica Non critica Critica Critica Non critica Range di concentrazione Non critica Non critica Desiderabile un range ampio Non critica Non critica Come si è detto prima, i biomarcatori devono possedere delle caratteristiche in funzione della loro utilità clinica e del loro scopo, ad es. se si desidera un marcatore di screening, sarà desiderabile avere un test molto sensibile (Il marcatore quindi non deve far perdere i soggetti che sono affetti da tumore); se questo test è poco specifico però ho molti falsi positivi e metto in allarme molti per nulla. Infatti, le pratiche di screening per le quali il rapporto costo/beneficio è utile sono il Pap test, la mammografia e la ricerca di sangue occulto Per la diagnosi è evidente che deve esserci un bilancio tra sensibilità e specificità, perché dobbiamo evitare il più possibile i falsi positivi ei falsi negativi e dare un indirizzo ben specifico sul trattamento al paziente Se invece vogliamo usare un marcatore per il monitoraggio, il parametro critico è la riproducibilità nel tempo: dobbiamo osservare le oscillazioni del marcatore in modo che non si confondano delle modifiche fisiologicamente accettabili con una ripresa della malattia. Se invece voglio dare un giudizio prognostico, nessuno dei parametri suddetti (Se, Sp, precisione e range) è utile: il parametro importante in questo caso è l‟esistenza di un rapporto il più possibile lineare tra la progressione della malattia e le concentrazioni del marcatore. A seconda degli obiettivi, possiamo avere marcatori con caratteristiche diverse tra di loro. Marcatore Ormoni Calcitonina Paraproteine CEA AFP AFP hCG hCG PSA Tumore Tumori endocrini K midollare tiroide Mieloma K colon retto Epatocarcinoma K germinali K Corion K germinali K prostata Utilizzo clinico D M F S D M D M F M F S D M F D P M F S D P M F D P M F (S) D P M F Legenda: S = screening, D = diagnosi, P = prognosi, M = monitoraggio, F = follow up Nella tabella in alto sono elencati i biomarcatori identificati, la loro associazione con uno specifico tipo di tumore, il loro uso. Possiamo vedere che sono pochissimi i biomarcatori che sono usabili per lo screening, anzi, al calcitonina, in realtà, non è usata per lo screening generalizzato ma è utile nello screening famigliare o una volta che si sia scoperto un tumore midollare tiroideo Per l‟epatocarcinoma, invece, le politiche di screening si sono dimostrate utili solo in regioni ove la prevalenza della malattia era molto elevata. Per quanto concerne il PSA, è ancora dubbioso una sua indicazione per lo screening. Molte di queste sostanze sono invece utili a livello diagnostico: si ponga però attenzione al fatto che la diagnosi non è fatta solo in base al biomarcatore ma l‟uso del marcatore sarà integrato dall‟uso delle diagnostica per immagine, dalla clinica, dall‟istologia patologica. Ci sono poi marcatori che hanno un valore prognostico come ad es. il PSA per il K alla prostata o hCG, utili per la prognosi dei seminomi. In sintesi, i biomarcatori sono utili nella diagnosi, nel monitoraggio mentre sono poco utili nelle altre applicazioni cliniche. Vediamo ora dei marcatori nel dettaglio CEA Appartiene alla famiglia delle Ig ed è una molecola di adesione con MW di 200 KD. Per sviluppare Ab contro il CEA si sono usate delle metastasi epatiche di carcinomi del colon e si è scoperto che ci sono numerosi epitopi che caratterizzano questa molecola. Biochimicamente, è una molecola molto studiata. Si usa come cut off il valore di 5 g/L e si vede che tale test ha Se = 37 %. Se andiamo maggiormente in dettaglio, si vede che, ad uno stadio di malattia IV secondo Dukes (tumore metastatizzante), Se = 72% mentre ad uno stadio I di Dukes (carcinoma in situ) Se = 14 %. La Se quindi è bassa proprio quando gli altri esami (diagnostica per immagini ecc) danno dei risultati incerti, quindi il CEA è inutile per la diagnosi precoce. Nel 1991 si è tenuta una consensus conference nella sede del NIH a Bethesda (USA) nella quale si è dimostrato che il CEA è la migliore tecnica non invasiva per il monitoraggio del carcinoma del colon retto, con Se = 80 % e Sp = 70 %e lead time di 5 mesi. Il lead time è il tempo che intercorre tra la positivizzazione del test e il rilevamento della recidiva del tumore mediante diagnostica per immagini. Nel 1994 Bruinvels et coll (Eur J surg) dimostrano che i pazienti con monitoraggio intensivo e determinazione del CEA hanno una sopravvivenza a 5 anni migliore del 9 % migliore rispetto ai pazienti con follow up minimale. Questo dato viene avvalorato dal lavoro di Rosen et coll che, con un lavoro di metanalisi, dimostra che la sopravvivenza a 5 anni è migliore nei pazienti che hanno avuto un follow up intensivo con la determinazione del CEA di 3.6 volte. Nel 2002 Renehan (BMJ) rivede 5 trials controllati e randomizzati e ne deduce che il follow up intensivo si associa ad una riduzione di tutte le cause di morte e la mortalità è inferiore nel gruppo con follow up che prevede dei controlli con ecotomografia e CEA (In questo modo si rivelano precocemente le recidive locali). Il CEA quindi è un marcatore da follow up. Vediamo qualche altra indicazione: semplicemente il fatto che, al momento della diagnosi, il valore del CEA sia sopra o sotto il cut off differenzia due popolazioni che hanno una minore sopravvivenza che hanno una minor sopravvivenza quando hanno un valore sopra il cut off rispetto alla popolazione con stessa malatia ma con valori sotto il cut off. Plebani et al hanno valutato se gli aumento del CEA devono essere valutati in base al valore assoluto (quindi il discrimine è se la concentrazione trovata è maggiore o minore del cut off) o se invece si debbano monitorare gli aumenti oltre la variabilità biologica che si riscontrano controllo dopo controllo. Escludendo quest‟‟ultimo concetto, hanno ottenuto i seguenti risultati: Marcatore Se Sp Efficienza CEA 76 % 95 % 91% CA 19-9 40 % 62 % 57 % TPA 40 % 79 % 71 % Combinazione dei 3 suddetti 92 % 45 % 55 % Nota: Lo studio ha coinvolto pazienti in RN0 e RN1 VPP 83 % 23 % 36 % 33 % VPN 93 % 78 % 62 % 95 % Secondo questo studio, i pazienti che non avevano un aumento oltre la differenza critica del CEA con grande probabilità non avevano recidive viceversa quelli che avevano un aumento oltre la differenza critica potevano una recidiva con una probabilità del 83 % ed erano avviati a studi con tecniche di diagnostica per immagini per localizzare la recidiva. Lo studio ha inoltre evidenziato un lead time di 5 mesi: si tenga conto però che questo è un tempo medio ed in alcuni pazienti può essere francamente anticipatorio e può esserlo meno in altri. Attualmente la raccomandazione prevede che i pazienti con carcinoma al colon retto negli stadi B e C secondo Dukes (o II e III) vengano sottoposti a follow up con CEA per almeno due anni. La prima determinazione del CEA deve essere eseguita dopo 2 mesi dall‟exeresi del tumore, altrimenti si avrà un falso positivo dovuto alla presenza in circolo di CEA, mobilizzato dall‟exeresi stessa. Attualmente si sta lavorando seguendo l‟ipotesi che le cellule ematiche normali non esprimano mRNA di CEA. Se invece troviamo mRNA di CEA nelle cellule circolanti, questo è segno della presenza di cellule neoplastiche potenzialmente metastatiche (in quanto sono in circolo). Si è dimostrato che non c‟è una qualche relazione tra positività per mRNA e il grading tumorale ma c‟è una correlazione con lo staging della malattia: la presenza di cellule esprimenti mRNA di CEA si trova solo nei tumori in C1 o in D, cioè tumori associati ad invasività delle membrane basali. Inoltre, si riscontra la presenza di mRNA per CEA quando vi è un interessamento di almeno 2 linfonodi mentre si ha negatività nel 90 % dei casi quando si ha interessamento di un solo linfonodo. Questo è molto utile perché, in presenza di CEA, si può avviare il paziente a cicli di chemioterapia precedenti all‟intervento. Questo metodo è diverso dal RIA per CEA in quanto il primo ha scopo progno0stico mentre il secondo è usato nel monitoraggio. 21 Aprile 2009 Abbiamo parlato della CEA e dei marcatori del colon-retto; oggi parliamo di un marcatore specifico CA125 (cancer antigen 125). In realtà questo antigene viene scoperto da Bast nel 1981 attraverso lo sviluppo di un anticorpo monoclonale OC125, da qui la derivazione della sigla CA, che deriva da linee cellulari NCA 433, una linea cellulare di carcinoma ovarico. Bast era un ginecologo che non conosceva le caratteristiche biochimiche dell‟antigene ma gli è venuto in mente di sviluppare un anticorpo monoclonale partendo da linea cellulare di carcinoma ovarico attraverso lo sviluppo di anticorpi monoclonali è riuscito ad identificare nel siero di donne con carcinoma, questo antigene è una glicoproteina molto simile classificata tra le mucine con un peso molecolare che varia da 200 a 2000 KDa a seconda della polimerizzazione dell‟assemblaggio di molecole diverse, come sempre si caratterizza la secrezione di mucina; in realtà questo antigene è legato alla via di trasduzione del segnale tirosin-chinasico del recettore del fattore di crescita epiteliale, quindi, c‟è una ragione fisiopatologica perché sia interessante determinare questo antigene. Questo antigene tumorale aumenta nel siero per effetto di invasione vascolare, distruzione tisutale e infiammazione che caratterizza il carcinoma delle ovaie, non è un marcatore di lesioni iniziale, è un marcatore di invasività , un marcatore prognostico di monitoraggio. Oltre che nel siero la sua presenza si osserva nel latte ,nelle ascite, quindi nei liquidi cavitari, nel liquido cistico, nelle secrezioni cervicali, uterine, liquido amniotico. Esistono varie patologie con alterazione di CA come si vede in questa diapositiva, nella letteratura, nella pratica si usano dei Cut-off, cioè dei punti di distinzione oltre il quale si configura un aumento di CA125. Il Cut-off è 35 unità per ml; lo troviamo nei reperti provenienti anche da laboratori diversi,quindi c‟è una omogeneità nel Cut-off. Quando è che si trova un aumento oppure una diminuzione di CA125, cioè il CA125 aumenta o diminuisce soltanto in patologie neoplastiche o ci sono altre situazioni fisiopatologiche in cui ci sono delle modifiche dei marcatori che noi troviamo nel siero. Le diminuzioni molti di voi diranno che non ci interessano, però per capire l‟uso clinico dobbiamo sapere in quali casi ci sono delle diminuzioni: nella menopausa In alcune fasi del ciclo mestruale possiamo avere degli andamenti con aumenti nella fase follicolare, ci sono delle diminuzione nella fase luteinica. Ad alcuni è venuto in mente di fare diagnosi del ciclo mestruale attraverso il CA. ci sono delle modifica nel corso del ciclo mestruale, la cosa che ci interessa di più sono gli aumenti. Quando aumenta il CA125? In patologie maligne, ovviamente nel carcinoma delle ovaie, cancro della cervice, cancro del pancreas, cancro della mammella, cancro dell‟endometrio, del polmone e del colon. In alcuni di questi carcinomi solo perché esiaste una forte similitudine antigenico tra CA125 e altre mucine che sono espresse nel carcinoma del pancreas oppure nel carcinoma della mammella dove c‟è una secrezione di CA15.3. Questa condivisione di antigeni o di epitopi antigenici tipici di glicoproteine che fanno parte delle mucine, in altri casi è dovuto ad una aumentata secrezione è vero che è specifico del carcinoma ovarico ma se gli aumenti non sono molto estesi può evidenziare altre patologie come pure aumenti modesti ma comunque superiori al Cut-off 35 si riscontrano in alcune patologie benigne quali: endometriosi, cisti ovariche e qua capite la differenza di aumenti modesti che indicano cisti benigne e aumenti che, pur essendo modesti, indicano l‟inizio del carcinoma dell‟ovaia; in alcune malattie infiammatorie della pelvi, nelle peritonite, nella cirrosi. Abbiamo visto che nei liquidi cavitari e in particolare nella ascite c‟è a presenza di concentrazioni molto elevate di CA125, la specificità e la sensibilità dei marcatori derivano da questi aumenti che non sono limitati alla patologia dell‟ovaia. In sostanza, Cut-off superiore a 35, in situazioni fisiopatologiche legate soprattutto al ciclo mestruale che possono dare delle diminuzioni o aumenti altro che nelle patologie neoplastiche delle ovaie, ci possono essere in patologie maligne o anche patologie benigne come l‟endometriosi e le cisti ovariche, che sono le prime situazioni di diagnosi differenziale ad escludere il carcinoma in presenza di piccoli aumenti di CA125. Quando è uscito questo marcatore si è fatta la domanda se questo marcatore potesse avere un utilizzo nello screening di popolazione ad es. in donne, di solito il carcinoma della ovaia colpisce più frequentemente la donna in età in post-menopausa e si è trovato che senza la presenza di sintomi ma sottoponendosi al test sierologico donne in quell‟età ci fosse un‟entità clinica. Si è visto che i dati erano negativi, venivano identificati solo il 65% dei casi con tumore perché come abbiamo detto nelle premesse, il CA125 non è in grado di visualizzare i primi stadi di malattia e solo nel 55% di quei tumori con anni di vita salvati, erano tumori ad uno stadio per cui era possibile un intervento terapeutico di tipo curativo, nel senso di liberare la paziente dalla malattia, quindi, si è calcolato un costo da 10000 a 30000 dollari per anno di vita salvati. Il problema di falsi positivi che avrebbe portato un enorme quantità di donne esami invasivi e costosi oltre che per avere delle ansie per un esame di laboratorio falsamente positivo, qui stiamo parlando di una malattia molto grava dove non è il caso di utilizzare il CA125 per lo screening. Quindi il CA125 non èun marcatore di screening. Qual è l‟atteggiamento corretto clinico nell‟utilizzo del marcatore? Quello che un buon medico e non necessariamente un ginecologo deve fare come con 3 esami uno dei quali il CA125 si possa tirar fuori dal marcatore il meglio del potere informativo. Ammettiamo che in laboratorio viene una paziente che ha una massa pelvica, voi mettete la mano sulla pancia e sentite che ha una massa palpabile, Il CA125 è superiore al Cut-off 35 unità per ml. Entrambi sono indicativa di carcinoma, ma dobbiamo fare una distinzione, qual è il terzo dato che dobbiamo avere: se la paziente è in età post-menopausale o meno perché, se la paziente è in età post-menopausale, qui la prevalenza del carcinoma ovarico è 63%, la prevalenza in questo caso è molto più elevato. Massa pelvica, età post-menopausale, elevata concentrazione di questo marcatore, abbiamo una probabilità di 99% che ci sia effettivamente un carcinoma dell‟ovaia. Il valore preditivo negativo è abbastanza elevato (72%) quindi, con tre dati mi dirigo con buona probabilità verso delle metodiche imaginiche per determinare la presenza del carcinoma delle ovaie e stadiarlo. Con i due dati precedenti: massa palpabile della pelvi, elevata quantità del marcatore ma età pre-menopausale in qui la prevalenza della malattia è molto più modesta, si stima 15% i dati cambiano, il valore predittivo per un valore positivo equivale al 49% per un valore di marcatore superiore al 35, mentre se il valore del marcatore è inferiore al 35, il valore negativo predittivo è molto elevato di 93%. In buona sostanza, l‟esatto uso del marcatore è nelle donna che per disturbi, per sintomi iniziali vanno dal medico, il quali sente una massa, richiede la determinazione di CA125 in base a questi 3 criteri: età della paziente, presenza della massa, valore del CA stesso, portano a dirigire l‟iter diagnostico fortemente suggestivo. La determinazione del CA125 è raccomandata in tutti i pazienti con carcinoma ovarico; esiste una stretta correlazione tra l‟andamento clinico e le variazioni di concentrazione del marcatore. Cosa vuol dire buona correlazione? Vuol dire che per effetto della terapia, chemio o altro tipo di terapia anche di tipo chirurgico o radioterapia associata, noi assistiamo ad una caduta dei livelli nel siero. Questo ci dà una buona risposta alla terapia e nel monitoraggio a lungo termine. Se i livelli di CA125 si mantengono al di sotto dei valori di Cut-off questo vuol dire che il paziente è libero dalla malattia stessa, è possibile stratificare la risposta perché l‟emivita del CA125 varia ed è legata alla prognosi in qualche modo, nel senso che nei pazienti che hanno emivita superiore a 20 gg, hanno una velocità di progressione della malattia, 3 volte superiore a quelli che hanno un emivita inferiore e un intervallo interrotto della malattia. Se io studio la velocità di scomparsa, se i valori iniziali del CA dopo la risposta alla terapia diminuiscono fortemente sotto il Cut-off velocemente, questo è un segno favorevole, mentre, pur rispondendo diminuiscono lentamente, questo è un segno di maggiore probabilità di recidiva della malattia; in ogni caso , il concetto fondamentale è che c‟è una buona correlazione tra la caduta dei livelli come l‟indice di risposta positiva alla terapia e l‟andamento clinico che viceversa se abbiamo la ripresa di malattia, l‟aumento di CA metterà in evidenza la recidiva della malattia e anche evidente che andando a vedere come si comporta il CA125 noi sappiamo che valori più elevati nettamente superiori al Cut-off predicono il rischio di recidiva e la diffusione preoperatoria. Non c‟è solo un valore assoluto sopra o sotto il Cut-off ma ovviamente, maggiormente elevati saranno i livelli sierici, maggiormente negativa sarà la prognosi per questi pazienti. Il CA125 è un marcatore molto studiato, abbiamo negato il suo uso allo scopo di screening per difetti della sensibilità e specificità, e abbiamo visto qual è l‟uso nella diagnosi differenziale di massa pelvica a seconda dell‟età pre o post menopausale e abbiamo visto come sia un marcatore molto utilizzato previsto in tutti i protocolli di monitoraggio del carcinoma dell‟ovaia. Il CA125 è marcamente utilizzato anche se non è un marcatore ideale e non è un marcatore precoce. L‟altra grande patologia che colpisce il sesso femminile è il carcinoma mammario. Come tutti voi sapete questa è una principale causa di morte per il sesso femminile, specialmente per donne che vivono in paesi industrializzati per il fatto che, oltre ai fattori genetici, incidono anche quelli legati con lo stile di vita: si stima oggi che ogni donna che vive in un paese avanzato abbia un 12% di rischio di sviluppare il cancro. Il 36% di andare in contro alla morte. Se andiamo a vedere le cause, sono multifattoriali; c‟è sicuramente un fattore genetico familiare, c‟è un fattore ormonale e ci sono dei fattori ambientali. Quello che è certo è che negli ultimi anni c‟è stato un miglioramento del rapporto tra incidenza della patologia mammaria che è ancora in aumento e la mortalità è diminuita fortemente grazie ai progressi della chirurgia e chemioterapia. Ci troviamo di fronte ad un carcinoma che non è del tutto chiarito nelle ragioni che sono comunque complesse. Sta aumentando l‟incidenza ma sta diminuendo la mortalità grazie ai progressi della medicina curativa. Per quanto riguarda il marcatore vi sono preposti una serie di biomarcatori circolandi: il MUC1 che è una mucina molto simile al CA15.3 , si utilizza anche la CEA che è un marcatore del carcinoma al colon retto, ma essendo una molecola che aumenta in tutti adenocarcinomi o in molti, viene utilizzato anche nell‟adenocarcinoma della mammella. La MCA non viene più utilizzata; era una molecola molto simile alla CA15.3, ci sono alcune oncoproteine come la C-erb2 e una serie di altre sostanze tra cui enzimi, citocheratine che sono state studiate cercando di trovare il marcatori più specifici e sensibili. Nonostante tutti questi dati e studi e il n° di marcatori, le evidenze ci dicono che nei primi stadi di malattia tutti i marcatori circolanti hanno una scarsa sensibilità, una sensibilità che non supera il 1535% quindi è chiaro che la sensibilità di questi stadi in cui ci sarebbe maggiormente necessità di un marcatore tumorale non invasivo e scadente, mentre migliora negli stadi più avanzati, dove abbiamo degli indicatori che ci dicono che i marcatori arrivano fino ad una sensibilità non assoluta ma del 75%. È chiaro che in questi stadi, dal punto di vista diagnostico esistono altri metodi per escludere o confermare la diagnosi di patologie neoplastiche della mammella. Se andiamo a vedere i marcatori più utilizzati, la sensibilità nei pazienti con carcinoma della mammella primitivo loco regionale cioè, un carcinoma che è confinato alla sede mammaria che non ha superato la membrana basale che non è esteso ai linfonodi, non ha dato metastasi a distanza. La sensibilità descritta nella letteratura, pur essendo delle differenze ci sono dei valori di sensibilità CEA12%, CA15.3 12.7% C-erb-2 7%. La sensibilità per dare un messaggio chiaro proprio per quei pazienti per cui abbiamo bisogno maggiormente di un marcatore non invasivo e del tutto scadente. In altri casi aumenta un po‟ la sensibilità ma non sufficientemente; diciamo che per la diagnosi questi marcatori lasciano a desiderare, e la conclusione che si evince da tutti questi studi e dalle analisi fatte in questi anni è che la sensibilità è insufficiente negli stadi iniziali della malattia. Domanda:”Perché i ginecologi piuttosto che altri medici comunque utilizzano alcuni di questi marcatori nel profilo diagnostico iniziale dei carcinomi?” Abbiamo visto che la sensibilità è bassa, la ragione per cui alcuni marcatori vanno richiesti è questo che valori normali o bassi in pazienti con sospetto di carcinoma non escludono la presenza di neoplasia mentre ritrovare dei valori elevati questi si aggiungono ad altri fattori prognostici ad indicare che la malattia è uno stadio avanzato, se non metastatico quindi, viene utilizzato come fattore indipendente aggiuntivo di stadi azione, non è il fattore di stadiazione, non è il fattore prognostico. Il marcatore negativo non esclude. Quando è elevato è aggiunto ad altri parametri che in quel momento il chirurgo che sta seguendo la donna aggiunge agli altri marcatori. I due marcatori sono: CEA e CA15.3 perché i livelli serici di questi due marcatori sono correlati con la massa tumorale e con la componente linfonodale che può accompagnare lo sviluppo di un carcinoma, quindi, un aumento del livello di questi due marcatori CEA e CA15.3 è un indicatore prognostico negativo di malattia. Diciamo che per completare l‟iter diagnostico il marcatore può essere un fattore aggiuntivo certamente non è il fattore diagnostico elettivo. Se andiamo a vedere i fattori prognostici, gli altri fattori prognostici che imparerete ad utilizzare sono: Il n° di linfonodi positivi soprattutto quelli ascellari. Grandezza del tumore evidenziato con tecniche dell‟immagine. Invasione linfatica e vascolare Il tipo istologico sulla biopsia o nel pezzo anatomico I recettori ormonali non sono solo dei fattori di gravità e di prognosi ma sono elementi fondamentali nell‟impostare la terapia. I recettori degli estrogeni e progesterone fanno parte dell‟iter diagnostico. Ci sono in discussione gli studi per oncogeni come: P53, erb2. L‟aploidia è indice proliferativo ma non entra nei fattori prognostici che necessariamente devono essere eseguiti in una donna con diagnosi o sospetto del carcinoma della mammella. Attualmente si ritiene appropriato solo la richiesta di CEA e CA15.3, non sono marcatori degli stadi iniziali di malattia quanto di fase avanzata e hanno un valore prognostico, infatti negli studi si è visto una correlazione fra valori di pre intervento e DFS (disease free survival) e il tempo di sopravvivenza libero da malattia e OS (overall survival) cioè la sopravvivenza media, complessiva nelle pazienti affetti da questo calcinoma. Esiste una buona correlazione, un buon rapporto tra i valori del marcatore e la sopravvivenza del paziente. Costi di questi marcatori non sono elevati, vale la pena per completare l‟iter diagnostico e di avere anche il valore, alcune indicazioni soprattutto a livello prognostico vengono alterate in particolare si è dimostrato quanto abbiamo detto quando nel momento della diagnosi, se il livello della CEA è inferiore al Cut-off che abbiamo visto per il carcinoma del colon retto essere 5ng/ml la sopravvivenza è 178 mesi, è più alta nel 40% dei pazienti. Mentre se il valore, pur essendo elevatissimo (il valore è superiore a 7,8ng/ml) non abbiamo nessuna paziente che è sopravvissuta oltre gli 80 mesi, è un indicatore grossolano, è un indicatore di sopravvivenza di prognosi, è un indicatore differenziato cioè di un uso più intenso della chemio e di altre terapie in pazienti che hanno indicatori prognostici più negativi, follow-up più intenso rispetto agli stessi pazienti con carcinoma della mammella che hanno indicatori prognostici che configurano una malattia meno invasiva. Con più probabilità di sopravvivenza questo è emblematico di come può essere utilizzato il valore iniziale. In effetti si è visto che l‟uso combinato di questi due marcatori ci dice c‟è un aumento di uno dei due nel 56% dei casi. L‟aumento dei due marcatori nel 56% dei casi rappresenta il primo segno di una recidiva con un anticipo circa 5 mesi rispetto ai segni clinici. Abbiamo visto la stessa cosa nell‟utilizza della CEA e nel carcinoma del colon. I due marcatori identificano con una percentuale che va dal 50% fino al 65% nelle metastasi a distanza, c‟è una buona sensibilità per le metastasi di tipo osseo e metastasi al fegato con sensibilità del 95%. Per quanto riguarda le metastasi cerebrali, il CA15.3 ha una sensibilità del 75% e una specificità del 96%, in questo caso c‟è una buona specificità per escludere quando si va a ricercare se il tumore è diffuso ad es. per escludere la diffusione cerebrale che è un incubo per gli oncologi oltre che per i pazienti. Abbiamo visto l‟utilizzo dei due marcatori come fattore prognostico aggiuntivo e come indicatore di monitoraggio per la recidiva o ripresa della malattia o per metastasi a distanza, quindi, nella vostra mente, un concetto fondamentale per questi marcatori il CA15.3 all‟inizio è elevato, fattore prognostico aggiuntivo. La paziente viene sottoposta all‟intervento chirurgico, c‟è una discesa di valori fino ad arrivare nei valori vicino al Cut-off, purtroppo nella storia della malattia di questa signora ricompare una recidiva che viene visualizzata da un aumento del CA15.3 nel siero, questo porta a cambiare l‟intervento terapeutico modificarlo e quindi, per fortuna in questa signora c‟è una ridiscesa dei valori, si accompagna ad uno stadio di libertà di malattia, quindi, come vedete il marcatore in questo caso non è un segno della presenza fin dall‟inizio della malattia, un segno precoce ma se noi attraverso dosaggi seriati andiamo a visualizzare il comportamento possiamo avere delle indicazioni aggiuntive per guidare le terapie. Negli studi che sono stati fatti fin‟ora, la correlazione tra l‟andamento del marcatore e l‟andamento clinica ci dice che c‟è una sensibilità che può arrivare fino al 95% nel segnalare la malattia progressiva, la non risposta alla terapia, è un efficienza nell‟identificare la progressione quindi una sensibilità di 94% durante la terapia e di 85% durante il follow-up. Quindi se questi marcatori non sono utili inizialmente per la diagnosi possono diventare utili nel monitoraggio e nel proseguo della malattia, storia di questi pazienti, l‟andamento del carcinoma della mammella ci dice che c‟è un miglioramento del rapporto tra incidenza che sta crescendo, riduzione della mortalità tanto più diventa utile il monitoraggio del marcatore perché aumenta il n° dei pazienti che sopravvivono, che devono essere seguiti nel tempo per scongiurare la ripresa. Nel carcinoma della mammella, oltre a questi due marcatori si sta sempre affermando un altro marcatore che ha un uso sempre più particolare che è l‟Erb-2neu che è conosciuto come c-erb2 perché significa human-epidermal-grow-factor-receptor-2 è il recettore 2 del fattore di crescita epidermico. Come vedete ERB2-neu è un proto oncogeno che codifica per una glicoproteina trans membrana P185. Nella prossima diapositiva appare come fatto, abbiamo un dominio intracellulare che ha attività tiosinchinasica e questo spiega il suo effetto nell‟interazione con il fattore di crescita, ha un dominio trans membrana, ha una parte extracellulare; a noi interessa molto la parte extracellulare perché questa parte può essere rilasciata in circolo e quindi può essere identificata con anticorpi specifici. In ogni caso questa è la struttura del recettore e il motivo per cui possiamo fare delle determinazioni nel siero ed identificarle dal fatto che c‟è questo dominio extracellulare che poi è il sito di legame con il fattore di crescita. Dal punto di vista dell‟azione l‟interazione tra recettore e fattore di crescita scatena una razione mediata da tirosinchinasi che porta alla trasduzione del segnale al nucleo con attivazione di numerosi geni che aumentano la divisione cellulare e quindi, aumentando la divisione cellulare aumentano la crescita e la proliferazione delle cellule neoplastiche, quindi, non c‟e dubbio che dal punto di visto fisiopatologico e del riconoscimento e azione nello sviluppo del carcinoma il recettore giochi un ruolo molto importante, infatti, se noi transfetiamo con questo gene delle cellule di carcinoma mammario, aumenta la sintesi del DNA, aumenta lo stato di crescita della cellula, aumenta il potere tumorogenico nei topi e aumenta anche il potenziale metastatico. Ci troviamo di fronte ad un fenotipo trasformato in senso di aggressività. Cosa possiamo fare delle conoscenze di questo fattore o meglio del recettore del fattore di crescita; possiamo selezionare all‟interno della popolazione delle pazienti che hanno un tumore della mammella quelle che esprimono o meno il recettore, un aumento relativo dell‟espressione del recettore perché queste pazienti con carcinoma della mammella non saranno rispondenti della terapia con Hercepting e altri farmaci che si sono sviluppati che sono degli inibitori del fattore di crescita o del suo recettore. È molto importante la conoscenza di altri fattori soprattutto dello stato ormonale, conoscere se il tumore esprime o non esprime questo recettore per il fattore di crescita epidermale. Come si può fare la determinazione? Ci sono 3 grandi metodologie: Metodologia immunoistochimica, quindi determinazione in fish che vengono eseguiti sul prelievo bioptico o anatomico, quindi determinazioni invasive che hanno necessità di prelievo di un pezzo istologico. C‟è una determinazione in Elisa che può essere fatta nel sangue, nel siero. È chiaro che l‟andamento della diagnosi si può fare sugli stessi pezzi anatomici dove si fanno le determinazione di recettori di estrogenei e progesterone e il recettore per l‟erb-2-neo. Come vedete che appare nella diapositiva successivamente ci può essere un interesse nel studiare l‟impresssione di questo fattore anche dopo l‟intervento chirurgico e nel momento della recidiva perché si è visto che nello studiare la risposta ad un intervento chirurgico piuttosto che nelle recidive la determinazione di erb-2 può dare delle indicazioni molto importanti tali da modificare la terapia. Qual è il valore nel momento della diagnosi, abbiamo capito che la determinazione di questi fattori di crescita non è utilizzata a scopo diagnostico ma è utilizzata per selezionare all‟interno di pazienti con carcinoma mammario quelli che esprimono questo fattore perché oggi esistono delle terapie per inibire il recettore stesso quindi le pazienti che hanno un valore superiore a questo cut-off di 15ng/nm hanno maggiore probabilità di micrometastati e di tumori più aggressivi; questo è l‟indicazione biologica della presenza di valori elevati del recettore del fattore di crescita. Si è vista che nella popolazione di pazienti con tumore della mammella, quel sottogruppo che esprime valori più elevati del recettore e anche il sottogruppo che ha più probabilità di sviluppare un tumore aggressivo che dà metastasi o micromestasi, ma la cosa più clamorosa è questa: se noi sappiamo che la somministrazione terapeutica dell‟inibitore che è l‟hercepting è legato oggi al sistema sanitario italiano dove non si può dare il farmaco se non dopo avere eseguito la determinazione di questo marcatore e dopo aver trovato una positività di valore sotto il cut-off perché la risposta quando il valore iniziale del marcatore è sopra il cut-off è molto buona all‟hercepting mentre la risposta è deludente quando l‟hercepting viene somministrata nelle donne che hanno o non hanno l‟espressione del recettore inferiore al cut-off. È come dire che non avendo il recettore anche per il farmaco, il farmaco non ha nessuna utilità. Infatti oggi la prescrizione del farmaco è fatta solo dopo avere eseguito la determinazione. È qui vedete una situazione paradigmatica, abbiamo l‟espressione di erb-eneu, il cut-off è sempre 15, vedete che questa è una situazione di carcinoma della mammella con forte espressione del marcatore; qui viene data una terapia che è un chemioterapico tradizione addizionati all‟hercepting. Abbiamo una buona rsposta, la paziente si mantiene libera dalla malattia per un certo numero di settimane dopodiché ricompare una progressione della malattia che viene visualizzata dalla determinazione nel siero di erb-2-neu; a questo punto viene cambiata la terapia; viene data sempre hercepting ma in associazione con genptamicina (non sono sicura se il nome è giusto) una chemioterapia e c‟è una risposta molto positiva e sicuramente continua ad essere monitorata in associazione dei due farmaci. In pratica erb-2-neu non è un fattore diagnostico ma un fattore che guida la terapia, terapia con inibitori del fattore stesso. Di sicuro si è visto che nel monitoraggio della malattia metastatica del cancro della mammella, quando abbiamo degli aumenti superiori al 15% abbiamo una forte probabilità di progressione della malattia, invece, quando c‟è un aumento solo nel follow-up inferiore al 15% dei livelli circolanti del fattore di crescita, questo mette in evidenza una marcata progressione della malattia e qui sono viste in termini di valori predittivi per la progressione della malattia che sono abbastanza soddisfacenti. Una domanda che potrebbe essere fatta:”se abbiamo visto che la determinazione può essere fatta su tessuti da pezzi di interventi chirurgici, qual è la concordanza tra valori nel tessuto e siero?”. La fish, che è considerata come metodo di riferimento ha una concordanza nella determinazione nel siero con test Elisa che è dell‟88%, una concordanza non al 100%, ma vicino al 90%. Mentre la concordanza tra la determinazione nel siero quindi Elisa è immunoistochimica, è minore, ha un valore dell‟ 81%. Peraltro la concordanza delle determinazioni nei tessuti tra fish e immunoistochimica è simile ma non arriva al 100%. La concordanza ad un altro lavoro è inferiore all‟80%, “cosa ci dice?”. Ci dicono che ognuna di queste metodologie ha i suoi pregi e i suoi difetti, chiaramente, in una fase iniziale, avendo a disposizione il pezzo anatomico, la biopsia è importante avere una determinazione in fish o immunoistochimica, qui è a seconda dei paesi. Negli Stati Uniti si usa l‟immunoistochimica e negli altri paesi come l‟Italia, più la fish che è un metodo più raffinato però i risultati sono buoni anche con Elisa, quindi, sostanzialmente abbiamo visto che nell‟approccio iniziale alla malattia del carcinoma mammario, non pre la diagnosi ma per la conferma diagnosi teca, e soprattutto per indicazioni terapeutiche prognostiche, le tre cose che possiamo fare sono: - la determinazione della CEA, del CA15.3. questo è oggetto di una discussione perché ci sono alcuni che preferiscono la CEA o CA 15.3 sempre di più in associazione con la determinazione di erb-2-neu soprattutto per dirigere la terapia con oppure in assenza dell‟inibitore dell‟hercepting. Nel monitoraggio la determinazione del CA 15.3 o CEA viene utilizzata per vedere la gravità della malattia oppure recidiva ma sempre di più vine utilizzata anche erb-2-neu perché si è visto che anche in popolazioni di donne che esprimevano o meno il marcatore inizialmente, dopo chemioterapia ci può essere una shift, per qui le cellule neoplastiche hanno un comportamento fenotipico diverso, quindi possono esprimere oppure non esprimere il recettore. Questo può essere indicatore per la terapia per raggiungere l‟hercepting oltre al chemioterapico, in questo sub gruppo di pazienti che esprimono il marcatore. Qui vedete la possibilità di risposta che si ha soprattutto nei carcinomi della mammella più metastatico, in cui più chiaramente ci sono le indicazioni per un monitoraggio molto stretto, e l‟indicazione per raggiungere ciò che si fa per seguire il paziente. Il buona sostanza, nei carcinomi della mammella, i marcatori circolanti non hanno un valore diagnostico ma hanno un valore prognostico, e per quanto rigurda erb2-neu possiamo selezionare tra le pazienti con carcinoma della mammella quella porzione in cui è più indicata la terapia aggiuntiva. Quasi mai l‟hercepting si dà da solo ma con terapia aggiuntiva. Abbiamo avuto degli esempi di come negli ultimi 4-5 anni questi marcatori circolanti si utilizzano per distinguere un soggetto sano da un portatore di patologia neoplastica. Nell‟ultimo tempo l‟approccio è di più di un marcatore nello studio di mappe proteiche o genomiche che distinguono il carcinoma da altre situazioni, studio di mappe di più componenti che si differenziano nel passaggio da una condizione di salute in una situazione dove invece si ha un atteggiamento neoplastico, questo viene ricercato con l‟uso di spettrometria di massa. Quando è stato applicato alo studio clinico di tumori, inizialmente c‟è stato un grande entusiasmo perché, come potete vedere, sono state trovate delle mappe di proteine che differenziano il 100% dei casi o l‟80%, nell‟insieme il 95% i carcinomi della prostata in uno stadio molto iniziale e sono pochissimi invece i casi dei falsi positivi. Visto che abbiamo parlato del carcinoma dell‟ovaia, soprattutto per gli stadi iniziali di malattia, non abbiamo dei marcatori potenti, sempre lo stesso gruppo ha pubblicato questo lavoro in cui, negli stadi iniziali di carcinomi delle ovaie sarebbe molto importante avere dei marcatori precoci, avrebbero dimostrato che il 100% dei casi fossero classificati da questo pattern di proteine viste con le tecniche di spettrometria di massa e negli stadi secondo, terzo e quarto ugualmente 100%. Questi dati pubblicati nel 2002 non sono mai stati confermati, è cambiato il tipo di tumore ma non la metodologia e non il significato. 3 laboratori, quello dello stato del Michgan, New York, Boston usavano la stessa metodologia come questa spettrometria di massa tutti e tre con la stesse tecnica sono andati a differenziare ed è stato visto un pattern che veniva classificato come correlabile al carcinoma della mammella. Sono stati classificati i pazienti, poi l‟insieme di questi pazienti sono stati mescolati, nel senso che sono statitmessi tuti insieme, non si sapeva quali fossero i sani e quali i malati e sono stati inviati ad un 4° centro dipendente che ha usato la stessa tecnologia di spettrometria di massa per differenziare con lo stesso pattern proteico, il problema era di differenziare il soggetto sano da quello con carcinoma. Ognuno nei 3 centri ha classificato cono gli stessi criteri i soggetti sani da quelli portatori di cancro, invio ad un 4° centro che, cono la stessa tecnica ha replicato lo studio non sapendo cosa era venuto fuori. Quale sarebbe stato il risultato del 4° centro? Il IV centro dipendente ha visto che la differenziazione non era una differenziazione tra sani e malati ma la d. era tra i cluster con cui erano stati lavorati i pazienti, nello stato del M., di NY, lab. Di Boston, la variabile preanalitica in modo in cui erano elaborati i pazienti condizionava fortemente la metodica. Questi studi hanno messo in evidenza di come per il momento questa tecnica multi market specialmente questa spettrometria di massa necessita, prima di essere porta nella clinica, una fase di valutazione molto attenta delle variabile preanalitiche, perché hanno scoperto che i pattern proteici nel siero rispetto agli spettri sono diversi. Questi esperimenti hanno messo in evidenza che ci sono forti differenziazioni per chi conosce questa tecnica di spettrometria, usa dei chip; ci sono delle differenze ne chip, si a livello della serie analitica che viene utilizzata giornalmente ma tra sedi diverse e protocolli di raccolta. In poche parole siamo in una fase dove questa linea di ricerca non è stata assolutamente abbandonata ma si va prima di proporla per l‟utilizzo clinico a rivedere tutte le variabili. Un lavoro come quello di Tricoid, dove si riteneva una sensibilità a l00% e specificità per un carcinoma delle ovaie anche nelle fasi iniziali ha suscitato grandi aspettative che sono rilevate non realistiche, in poche parole, le varibili che affliggono queste metodiche sono sempre più studiate, sono variabli preanalitiche analitiche per cui non mi permetto di predire se questo tipo di marcatore viene utilizzato nella clinica, per il momento non lo sono e quindi avete tempo di vedere… 28/04/2009 CARCINOMA DELLA PROSTATA E DETERMINAZIONE DEL PSA Verso la fine del 2008 apparve sul New England Journal of Medicine uno studio che rifletteva molte delle problematiche che attualmente riguardano la diagnosi del carcinoma alla prostata; più in particolare se uno strumento di laboratorio, cioè la determinazione del PSA (prostatic specific antigen), sia uno strumento da utilizzare come test di screening. Normalmente si ritiene che il cut off sia di 4 μg/l. Nello studio del New England Journal of Medicine un signore, consigliato dal medico di famiglia, ha effettuato il test di concentrazione del PSA nel 2006 all‟età di 63 anni, cioè oltre i 50 anni, indicata come l‟età oltre la quale è consigliato verificare la concentrazione di PSA anche in assenza di sintomi. Il risultato del test è una concentrazione di 1,5 μg/l. Nel 2007 questo signore ha ripetuto il test, con risultato di 3,1 μg/l. Questo valore è ancora sotto il cut off, ma c‟è stato comunque un raddoppio della concentrazione di PSA. Nel 2008 viene ancora ripetuto il test con un risultato di 3,8 μg/l; questo valore di concentrazione è ancora sotto il cut off di 4 μg/l, ma a questo punto il medico di famiglia consiglia una visita specifica. Il paziente va quindi dall‟urologo e si sottopone a esplorazione rettale che risulta negativa; l‟urologo però fa anche un‟ecografia dalla quale non ottiene dati indicativi essendo il volume della prostata di 22 cm3. Propone comunque al paziente la biopsia della prostata, un procedimento invasivo che viene fatta utilizzando 12 aghi: in 2 di questi 12 aghi viene riscontrata positività per un adenocarcinoma. Il dato significativo è che fra il 2006 e il 2007 l‟aumento della concentrazione di PSA è superiore al 100%. Fra il 2007 e il 2008 l‟aumento è solo del 22,5 %; questo però non è un dato molto indicativo in quanto non si conosce il mese del 2008 in cui è stato effettuato l‟esame, non si sa quindi se dal precedente esame del 2007 sia trascorso effettivamente un anno o solo qualche mese. Queste percentuali di aumento sono superiori, o comunque in linea, con la differenza critica fra due controlli a distanza di un anno, corrispondente ad un aumento della concentrazione di PSA del 24%. Appare evidente come l‟aumento fra il 2006 e il 2007 sia molto significativo, ma anche l‟aumento fra il 2007 e il 2008 sia abbastanza critico. Molti studi comunque suggeriscono che la velocità di crescita annuale della concentrazione di PSA sia da considerarsi sospetta se superiore al 20%. Riassumendo, questo signore non aveva valori di concentrazione di PSA superiori al cut off, però considerando il concetto della differenza critica della crescita annuale, si rileva un aumento significativo; inoltre 2 prelievi su 12 evidenziano positività per un adenocarcinoma. Al paziente vengono quindi offerte 3 opzioni: aspettare (il carcinoma alla prostata può essere indolente); prostatectomia radicale; radioterapia. Il New England Journal of Medicine effettua quindi un sondaggio presso medici in tutto il mondo su quale sarebbe l‟opzione migliore, con i seguenti risultati: negli USA: 37% a favore della prostatectomia 36% a favore della radioterapia 27% a favore dell‟attesa in Europa: 35% a favore dell‟attesa 26% a favore della radioterapia 39 % a favore della prostatectomia In paesi sudamericani e africani invece l‟opzione della prostatectomia radicale è molto più considerata. Da questi dati emerge come il problema del carcinoma della prostata e del PSA in genere sia ancora molto aperto. Il carcinoma della prostata, in termini di numerosià assoluta è il 6° tumore più comune nel mondo, il 3° se ci si limita al sesso maschile. Ha un‟incidenza bassa in Asia, soprattutto in Cina, ma molto alta in Scandinavia e in America del Nord. I fattori ereditari giocano un ruolo importante nell‟insorgenza di questa malattia, ma anche lo stile di vita incide molto. Ciò è documentato dall‟aumneto dell‟incidenza del cancro in soggetti giapponesi emigrati negli USA e costretti quindi ad un cambiamento delle abitudini alimentari, dell‟ambiente, ecc… L‟incidenza di questo tumore è tutt‟ora in crescita, ma dall‟anno di introduzione del test del PSA nella pratica clinica ad oggi, si assiste negli USA (dove si hanno più dati epidemiologici) ad una considerevole diminuzione della mortalità. Uno dei più grandi urologi, che molto ha lavorato sul PSA, ha messo in evidenza come questa grande diminuzione di mortalità sia dovuta al fatto che in paesi che hanno introdotto diffusamente la determinazione del PSA anche in soggetti asintomatici, sia diminuito il numero di diagnosi di tumori in stadi più avanzati, e quindi più difficilmente trattabili. I fattori di rischio geneticiv sono stati identificati in loci di suscettibilità nei cromosomi 1, 8, 17, 20, X, ma soprattutto sul locus HPC1 del braccio lungo del cromosoma 1, cui è dovuta parte dell‟ereditarietà genetica del carcinoma alla prostata. Altre interessanti evidenze sono dei polimorfismi del recettore androgenico del recettore della vitamina D, di CIP-17, 17αidrossilasi e di 5α-reduttasi, che sembrano contribuire all‟aumento del rischio e progressione del carcinoma. Ovviamnete oltre a fattori genetici, esistono fattori di rischio ambientali, per i quali ci sono evidenze riguardo alcune abitudini alimentari, come l‟elevato introito di grassi, carni, derivati del latte, calcio (oltre 600 mg/giorno), elementi tipici della dieta occidentale. Anche il tipo di cottura della carne (alla brace, barbecue,…) influisce sull‟insorgenza del carcinoma; questo giustifica in parte l‟alta incidenza del carcinoma della prostata nei paesi occidentali. Altrettanto noti sono comunque i fattori protettivi, come ad esempio il pomodoro e i suoi derivati, grazie forse alla ricchezza in licopene, un antiossidante; anche diete ricche in selenio e vitamine sono sicuramente fattori protettivi. Riassumendo: fattori di rischio: origine etnica, età (carcinoma alla prostata molto raro sotto i 50 anni), storia familiare, alcuni fattori di crescita come insulin growth factor; fattori protettivi: licopene, zinco, selenio; fattori di rischio esclusi: alcool, fumo, vasectomia, attività fisicà. Questi carcinomi, nel 98% dei casi sono adenocarcinomi; altre forme come carcinomi mucinici, neuroendocrini o adenocarcinomi duttali sono delle rarità. La funzionalità e la grandezza della prostata è strettamente sotto controllo ormonale, che avviene sostanzialmente attraverso la stimolazione pulsatile del DNRH che stimola l‟adenoipofisi a produrre FSH, LH, ACTH. Quindi ciò che interessa riguardo l‟insorgenza dell‟adenocarcinoma è la concentrazione degli estrogeni, ma soprattutto degli androgeni, in particolare il testosterone, che mantengono l‟attività e la funzionalità della prostata. Di conseguenza una delle opzioni terapeutiche è il blocco androgenico: molte tipologie di tumori alla prostata vengono infatti curati abolendo il sostentamento della funzionalità prostatica da parte degli androgeni. Chiaramente un deficit di androgeni induce atrofia nella prostata; al contrario un eccessiva concentrazione di androgeni o comunque un eccesso di interazione fra ormoni e recettori può portare ad un ipercrescita della prostata ed esposizione al rischio di insorgenza di carcinoma. Il primo strumento della biochimica per la diagnosi del carcinoma alla prostata è stato il marker fosfatasi acida totale, ormai in disuso da tempo. Fino a vent‟anni fa si utilizzava la fosfatasi acida prostatica (PAP); in seguito è stato quindi identificato l‟antigene prostatico specifico. La determinazione della concentrazione di PSA ha fatto compiere un notevole passo avanti nella diagnosi del carcinoma: ad esmpio già nello stadio A in cui il tumore non è palpabile ed è asintomatico, si passa da una sensibilità del 6-7%, con l‟utilizzo della fosfatasi acida prostatica, ad una sensibilità del 55-60% con il PSA. Nello stadio B analogamente, con l‟utilizzo del PSA si è passati da un 15-30% di casi di positività a circa 75%. Il PSA è un enzima serin-proteasi. Isolato per la prima volta da Hara nel 1971, codificato da un gene presente nel braccio lungo del cromosoma 19. In vivo il target di azione del PSA sono la seminogelina 1^ e 2^ e la ficronectina, per cui il PSA è un elemento essenziale per fluidificare il liquido seminale e rilasciare spermatozoi con buona continuità. In altre parole se non ci fosse la secrezione di PSA avremmo una più facile coagulazione di liquido seminale e quindi la messa in circolo di spermatozoi con motilità insufficiente. Il PSA viene misurato nel sangue perché, mentre la secrezione maggiore avviene nel liquido seminale, una parte passa nel sangue e può essere quindi determinata. Nel sangue il PSA viene legato ed inattivato da molti inibitori delle proteinasi, in particolare l‟α1-antichimotripsina, l‟inibitore delle proteasi, l‟inibitore della proteina C, l‟α2-macroglobulina. Alcuni di questi inibitori sono presenti nel sangue in una concentrazione molare che è da 100 a 1000 volte superiore rispetto al PSA; di conseguenza la frazione di PSA libero nel sangue è molto modesta. La determinazione del PSA viene fatta tramite metodi immunometrici: il PSA viene visto come un antigene contro il quale vengono sviluppati anticorpi che reagiscono specificatamente con esso in una reazione antigene-anticorpo. Per un buon metodo di determinazione del PSA sono necessarie 2 caratteristiche fondamentali: capacità di determinare in forma equimolare il PSA libero ed il PSA complessato; questi metodi devono avere una sensibilità analitica a concentrazioni molto basse di PSA, inferiori a 1; la sensibilità deve essere tale che l‟imprecisione sia fortemente contenuta, con il coefficiente di variazione inferiore al 5%. Il primo aspetto è fondamentale a livello diagnostico; il secondo aspetto è fondamentale per quanto riguarda il monitoraggio: infatti, sia che si effettui un trattamento di prostatectomia totale, sia che si effettui un trattamento di radioterapia, si deve monitorare il livello di PSA circolante che deve essere inferiore a 1 μg/l, ovvero praticamente assente. Per monitorare questo bassissimo livello di PSA, il metodo deve avere necessariamente una bassissima sensibilità analitica. Nel 1991 Catalona pubblica sul New England Journal of Medicine un lavoro effettuato su una casistica molto rappresentativa sui dati di tre indagini che si fanno nell‟approccio nel caso di sopsetto carcinoma alla prostata: l‟esplorazione rettale: sensibilità 86%, specificità 44%; l‟ecografia transrettale: sensibilità 92%, specificità 27% la determinazione del PSA: sensibilità 79%, specificità 59%. Si nota quindi che la determinazione del PSA ha una maggiore accuratezza delle altre due indagini diagnostiche. Per quanto riguarda invece il valore predittivo negativo, tutte e tre le indagini si aggirano intorno a valori del 90%, dando forza alla teoria dell‟utilizzo del PSA, essendo un‟indagine diagnostica non invasiva. Nonostante queste considerazioni probabilmente va prestata attenzione nell‟utilizzo del PSA, non essendo esso un antigene tumorale che viene sviluppato nel corso del carcinoma alla prostata, ma un antigene presente nelle ghiandola prostatica. Dalla detrminazione del PSA ci si possono aspettare falsi positivi a causa di: aumento dell‟età con la conseguente iperplasia della prostata; trauma o agenti microbici che possono causare prostatiti; attività fisica (è noto che chi va in bicicletta può riscontrare aumenti del PSA anche consistenti); biopsia. E‟ evidente quindi che il dato di laboratorio va interpretato conoscendo le condizioni del paziente al quale è stato fatto il prelievo. Ciò che è molto meno noto e che è venuto alla luce solo poco tempo fa, è l‟esistenza di falsi negativi. Per supplire a queste non perfette sensibilità e specificità del PSA, è stata adottata questa linea guida: 4. nel caso di concentrazioni di PSA totale inferiori a 4 μg/l si ha basso rischio di carcinoma alla prostata. Comunque dai dati emerge che il 19% dei pazienti può presentare un carcinoma alla prostata pur avendo livelli PSA inferiori a 4 μg/l. Quest‟evidenza ha portato Catalona a proporre 2,5 μg/l come valore di cut off. Da notare che la scelta del livello di cut off ha significato anche per quanto riguarda la rassicurazione del paziente; 5. nel caso di concentrazioni di PSA superiori 10 μg/l non ci sono dubbi sulla presenza di un carcinoma, soprattutto ovviamente se non ci sono chiari segni di un‟infiammazione alla prostata o di una biopsia effettuata precedentemente. A questo punto l‟urologo deve consigliare una biopsia; 6. nel caso di valori di PSA compresi fra 4 e 10 μg/l si è in una “zona grigia”: ci potrebbe essere infatti un cancro iniziale o più semplicemente un‟ipertrofia (propria del 10-12% dei maschi con età superiore ai 50 anni). Per ovviare a ciò sono state introdotte strategie diagnostiche per aumentare il significato della determinazione del PSA. Queste strategie sono la PSA density e la PSA velocity: 4. PSA density: è il rapporto fra la concentrazione plasmatica do PSA e il volume della prostata determinato con ecografia transrettale. Il significato di questo valore è che nel caso di un volume della prostata normale o comunque piccolo, e un livello di PSA elevato, ci saranno più probabilità che ci sia un cancro che nel caso di un volume aumentato per iperplasia benigna con concentrazione di PSA appena aumentato; 5. PSA velocity: aumenti nel tempo (oggi si considera 1 anno) della concentrazione di PSA superiori del 20% vengono considerati sospetti. Il limite nel PSA density è che le misure del volume della prostata fortemente esaminatore-dipendenti e strumentodipendenti, a seconda delle capacità di risoluzione dell‟ecografo. Inoltre il rapporto fra lo stroma della ghiandola e l‟epitelio è molto variabile, per cui varia anche la significatività del rapporto fra concentrazione del PSA e volume della prostata. Il limite più importante del PSA velocity è la possibilità di trovare un aumento della concentrazione di PSA dopo un anno dal precedente test non a causa della presenza di un carcinoma, ma per attività fisica, o prostatite, o biopsia, o massaggio prostatico precedentemente effettuati dal paziente. Si è già visto come la quota in circolo di PSA libero sia modesta, in quanto la maggior parte viene catturata da degli inibitori che sono inconcentrazione molare da 100 a 1000 volte superiori. La parte che appunto sfugge agli inibitori è determinabile; la determinazione del PSA libero da sola non è comunque molto indicativa, ma assume significato se posta in rapporto con la determinazione del PSA totale: PSAlibero PSAtotale . Nella fascia di incertezza (fra 4 e 10 μg/l), la crescita di questo rapporto oltre il 20-25% fa diminuire la probabilità che ci sia una patologia neoplastica della ghiandola; la diminuzione di questo rapporto al di sotto del 20% fra crescere la probabilità che ci sia un‟iperplasia. Il senso di questi valori è aggiungere un parametro biochimico che diminuisca il numero di pazienti che vengono avviati ad effettuare una biopsia prostatica: ad esempio, valori di concentrazione di PSA compresi fra 4 e 10 μg/l, con un rapporto molto basso fra PSA libero e PSA totale (5-10%) sono indicazioni assoluti per avviare un paziente alla biopsia. L‟importanza di questo valore si traduce quindi nella riduzione del 20-64% delle biopsie non necessarie, mentre viene mantenuta la sensibilità per diagnosticare il carcinoma. Negli ultimi anni si è capito che il cancro rilascia una forma intatta di PSA; è come se la secrezione fosse accellerata o i processi post-translazionali fossero in parte inibiti, per cui quella che trovano nel siero è una forma più intatta. Nel caso di ipertrofia benigna invece, si hanno dei fenomeni post-translazionali molto evidenti che provocano il clivaggio della molecola e quindi la formazione di un PSA diverso da quello che viene sintetizzato originariamente. Nel 2004 sempre sul New England Journal of Medicine esce uno studio che coinvolge un numero molto significativo di uomini fra i 62 e i 91 anni (2950 soggetti), il cui scopo è verificare la prevalenza del carcinoma alla prostata in soggetti con PSA inferiore a 4 μg/l. A questi uomini ogni anno vengono fatti un‟esplorazione rettale e la determinazione del PSA. E‟ stata trovata una prevalenza del carcinoma del 15,2%, cioè su 2950 soggetti sono stati identificati 449 cancri; 67 di questi avevano uno score di Gleason oltre 7, quindi un carcinoma che si può definire biologicamente pericoloso. Analizzando la correlazione che c‟è fra i valori del PSA e l‟assenza di cancro, carcinomi con score fra 2 e 4 (bassa attività evasiva), carcinomi con score intermedi e carcinomi con score elevati, si nota che tendenzialmente lo score più elevato si correla con valori di PSA un po‟ più elevati, ma comunque anche per carcinomi in uno stadio avanzato, una buona fetta di questi presentano valori di PSA addirittura inferiori a 1 μg/l. Volendo quindi ridiscutere il valore di 4 μg/l per il cut off, si devono osservare la specificità e la sensibilità che emergono da questo studio per i vari livelli possibili di cut off: 20. fra 3,1 e 4 μg/l: specificità 92%, sensibilità 12%; 21. fra 2,1 e 3 μg/l: specificità 73%, sensibilità 37%; 22. fra 1,1 e 2 μg/l: specificità ulteriormente diminuita, sensibilità ulteriormente aumentata. Alla luce di questi risultati si può pensare che abbassare il cut off da 4 a 2,5 μg/l possa consentire di vedere più carcinomi con una specificità ancora tollerabile; abbassarlo ulteriormente però causerebbe una drammatica diminuzione della specificità. Il PSA complessato, cioè legato agli inibitori, è l‟85% del totale, mentre quello libero rappresenta il 15%. All‟interno di questa quota libera si può distinguere una frazione (28%) definita bPSA, forma del PSA caratteristica dell‟ipertrofia benigna. Gli anticorpi monoclonali per questa forma di PSA già stati scoperti ed in questo periodo si sta lavorando per stabilizzarne il dosaggio; questi anticorpi permetteranno di valutare la quantità della bPSA, affiancandosi così alla determinazione del normale PSA, direttamente rapportabile all‟insorgenza dell‟iperplasia benigna ed escludere così un carcinoma. Questa determinazione non entra però nel problema di quella quota di pazienti che comunque hanno un valore di PSA basso, inferiore a 2,5 μg/l. Probabilmente per questi casi la migliore strategia è la ripetizione negli anni della determinazione del PSA, e la verifica quindi della velocità di incremento della concentrazione. Tutto ciò peraltro è legato ad un altro problema che attiene allo screening di questa malattia, cioè la valutazione dell‟opportunità di sottoporre un paziente (magari relativamente giovane) a prostatectomia radicale una volta accertata la presenza di un carcinoma, senza peraltro dati sicuri sulla sua capacità invasiva. Con la prostatectomia infatti si avrebbe il rischio per il paziente di portare per molti anni il pannolone, di essere incontinente, impotente. Non esiste ancora infatti un indicatore del potere invasivo o metastatizzante di un carcinoma; lo score di Gleason infatti viene utilizzato per indicare la gravità della malattia, non la capacità biologica del tumore di evolvere o rimanere latente. Rimane quindi il prblema di come trattare un tumore asintomatico: ciò dipende dall‟età del paziente in relazione alla qualità della vita che sarà costretto a condurre, e dall‟accettazione da parte sua dell‟opzione proposta. Il PSA comunque ha valore una volta accertata la presenza di carcinoma: gli studi dimostrano chiaramente che maggiore è la concentrazione di PSA alla diagnosi in fase pre-terapia, peggiore sarà la prognosi. Un‟altra “arma” che si sta aggiungendo al PSA nella diagnostica del carcinoma è il PCA3. Il PCA3 è una molecola che ha un chiaro rapporto con un polimorfismo legato allo sviluppo del carcinoma alla prostata; la sua determinazione è interessante perché non viene eseguito nel sangue ma nelle urine, dopo aver sottoposto il paziente ad almeno due spremiture della ghiandola prostatica. In poche parole con questo test si va a stimolare il rilascio nelle urine del PCA3 che poi si va a determinare; ciò che mette in rilievo un aumento del PCA3 è una maggiore specificità rispetto ad un aumento del PSA. Comunque anche questo non risolove il problema di quel 15% di persone con PSA basso e carcinoma, ma può dare indicazioni utili prima di attuare una manovra invasiva come la biopsia, per capire se un aumento del PSA sia dovuto più probabilisticamente ad un carcinoma o ad un‟ipertrofia benigna. In caso di prostatectomia radicale la concentrazione di PSA dovrebbe scendere drasticamente, ma questa non va effettuata subito, ma almeno dopo 3 mesi dall‟intervento, in quanto l‟emivita del marcatore è tale che si può avere un livello di PSA da raffrontare al valore basale solo dopo 3 mesi. In corso di monitoraggio post-intervento ci si può aspettare che se si trovano livelli di PSA non rilevabili (inferiori a 1 μg/l) si è in una condizione libera da malattia; se invece, pur essendo diminuito, si trovano livelli di PSA maggio a 1 μg/l, probabilmente la malattia sta persistendo. Si può quindi adottare una terapia aggiuntiva (radioterapia). Se invece l‟opzione terapeutica adottata è quella del blocco androgenico, si assiste ad una diminuzione del PSA, ma ovviamente non ad una sua totale scomparsa in quanto non si è eliminata la ghiandola ma semplicemente si è inibito un suo eccessivo tropismo e funzionalità attraverso l‟uso di anti-androgenici. In questi casi comunque, se si rilevano valori di PSA costantemente sotto i 4 μg/l, i pazienti hanno una migliore sopravvivenza. In caso di insensibilità ormonale, dopo un iniziale riduzione del tropismo, si ha un adattamento delle cellule neoplastiche all‟ambiente e un conseguente nuovo aumento dei valori del PSA. E‟ chiaro quindi che la determinazione del PSA è importante per monitorare questa situazione nella terapia ormonale. Se si adotta invece la radioterapia, si assiste ad una riduzione dei livelli del PSA, ma non ad una sua totale scomparsa; comunque livelli inferiori a 0,5 μg/l si asssociano con probabilità molto elevata ad una condizione libera da malattia. Se i livelli scendono fra 0,4 e 0,5 μg/l si può addirittura ffermare che la radioterapia è stata curativa. Al contrario due aumenti successivi di PSA superiori a 1 μg/l suggeriscono la ripresa della malattia. In conclusione un buon atteggiamento da parte del medico è consigliare a soggetti sopra i 50 anni di sottoporsi a questi esami, e quindi spiegare loro il valore e l‟interpretazione della determinazione del PSA, i suoi limiti, e gli eventuali iter terapeutici. Nell‟ambito c‟è comunque molta incertezza; la medicina deve consentire al paziente di poter scegliere fornendogli più informazioni possibili a riguardo. 05/05/09 MARCATORI TUMORALI Tumori delle cellule germinali in particolare del testicolo: In questa specifica tipologia tumorale i marcatori biochimici sono utilizzati in modo sicuro e affidabile in diagnosi e prognosi. Quando si trova alla palpazione una massa testicolare l‟iter diagnostico si compone di una TAC all‟addome, torace e pelvi insieme alla determinazione di marcatori circolanti quali: AFP: alfachetoproteina hCG: gonadotropina corionica umana LDH: lattato deidrogenasi Per comprendere il significato dei marcatori è necessario partire dall‟embriogenesi tumorale, la classificazione che ancora oggi si fa parte da una cellula detta Germinale primordiale che si differenzia in: Germinoma (stadio primario) che non esprime AFP e hCG. Carcinoma non seminomatoso esprime AFP e hCG Poi suddivisione in teratomi e in differenziazione extraembrionale. Cellula Germinale Primordiale Germinoma (seminoma o disgerminoma) AFP-, hCG- Carcinoma embrionale (non seminoma) AFP+, hCG+ Differenziazione Extraembrionale Trofoblasto AFP-, hCG+ Sacco vitellino AFP+, hCG- Differenziazione embrionale Teratoma Immaturo AFP-, hCG- Teratoma Maturo AFP-, hCG La cosa fondamentale da ricordare è che: AFP è prodotta in tumori di derivazione endodermica. hCG è prodotta dalle cellule del sincizio trofoblasto. PLAP (Placental alkaline phospatase) è un marcatore complementare ai precedenti, aumenta nei seminomi ( sensibilità 5190% ) mentre nei tumori non seminomiali NSGCT aumenta ma ha sensibilità molto ridotta (sensibilità 20-36% ). -caratterizzato da scarsa emivita 0,6-2,8 giorni -è aumentato di oltre l‟80% nei seminomi del testicolo nel I stadio -erano possibili in passato valori di falsi positivi in soggetti fumatori ma ormai il problema può dirsi risolto e il fumo non è più un elemento che interferisce nell‟esame Per determinare hCG il metodo deve riconoscere la molecola intatta (complesso alfa e beta ) e la catena beta che è quella che caratterizza l‟intera molecola, poichè la alfa è comune ad altre molecole ormonali es. FSH o LH. La combinazione dei valori pre-trattamento con parametri clinici ha portato a nuova classificazione prognostica dei tumori non seminomatosi, quindi si tiene espressamente conto dei valori dei marcatori circolanti. Già alla fine degli anni ‟90 è stata raccomandata la determinazione di AFP hCG e LDH per essere poi inseriti nelle linee guida di stadiazione tumorale. In uno studio promosso dall‟International Germinal Cancer Collaborative Group su 5000 pazienti i fattori prognostici indipendenti seguenti risultarono essere indicativi per la stadiazione tumorale. 23. livelli pretrattamento di hCG AFP e LDH 24. sede del tumore (mediastino vs testicolo) 25. presenza metastasi viscerali Valutazione Prognostica oggi utilizzata: AFP ng/ml HCG U/l Prognosi Buona S1 Minore 1000 Minore 5000 Prognosi Intermedia S2 Compreso fra 1000 e 10.000 Maggiore 10.000 Compreso fra 5000 e 50.000 Maggiore 50.000 Prognosi Negativa S3 LDH multipli limite superione valore di riferimento (RR) Minore 1,5 RR Compreso fra 1,5 e 10 Maggiore 10 La determinazione in serie dei marcatori tumorali è utile al monitoraggio della terapia: La normalizzazione dei marcatori ( AFP e hCG) dopo intervento chirurgico di orchiectomia nei 10 gg successivi indica una prognosi favorevole. In caso di chemioterapia i pz con marcatori caratterizzati da emivita superiore a 7 gg per AFP e 3 gg per hCG presentano una sopravvivenza significativamente inferiore a quella di pz con più breve emivita dei marcatori. Una mancata normalizzazione o emivita allungata dei marcatori dopo un intervento terapeutico sono predittivi di una recidiva della malattia anche se migliora l‟andamento clinico. Protocollo Raccomandato per tumori non seminomatosi il follow-up prevede: -esame obbiettivo RX torace, livelli AFP e hCG-ogni mese nel primo anno -ogni 2 mesi dnel secondo anno -ogni 3 mesi nel terzo anno -ogni 6 mesi nel quarto e quinto anno Il protocollo è complesso ma sulla base dell‟outcome clinico questo è quello che da i migliori risultati. La sierologia si è rivelata superiore dell‟istologia nella decisione terapeutica, se si riscontrano livelli elevati di AFP in pz che „istologicamente‟ erano stati identificati come portatori di seminoma (che per definizione precedente non può esprimere AFP) questo fatto induce a trattare il pz come non seminomatoso a dispetto della diagnosi istologica. Biomarcatori hanno valore clinico in quanto hanno: -importanza diagnostica -importanza prognostica -importanza nel monitoraggio (screening) Raccomandazioni da organismi internazionali: Determinare AFP, hCG e LDH per la valutazione di stadiazione dei tumori alle cellule germinali prima dell‟orchiectomia. Trattare pz con aumento di AFP (normalmente non presente nei tumori seminomatosi) come non seminomatosi anche se istologia ha indicato la natura seminomatosa. Effettuare test dei biomarcatori prima e dopo il trattamento. Velocità di diminuzione va confrontata con quella normale che è di 7 gg per AFP e 3gg per hCG Pazienti con tumore in stadio IIA E IIB che non ricevono chemioterapia dopo l‟intervento chirugico dovrebbero essere sottoposti al protocollo di follow up raccomandato. CARCINOMA DEL PANCREAS: CA19-9 (Carbohydrate Antigen) Antigene glicoproteico; identificazione è ottenibile con l‟utilizzo di anticorpi monoclonali ottenuti da topi immunizzati con una linea umana di carcinoma colonrettale (SW-1116). CA19-9 è un monosialoganglioside, attraverso la spettrometria di massa si è potuto scoprire che è una forma sialilata dell‟antigene Lewis A. Aumenta nei soggetti con tumore del pancreas. L‟espressione del CA 19-9 dipende dal tipo Lewis A (altra tipologia di determinazione gruppi sanguigni). Soggetti Lewis AB negativi non possiedono fucosil transferasi che attacca molecole di fucosio, non sono quindi in grado di sintetizzare la molecola CA19-9 (nella pop. Caucasica 8% individui sono Lewis neg, nella razza afroamericana il 20% della pop. è Lewis negativa) Quindi in questi soggetti livelli di CA19-9 sono negativi anche in presenza di neoplasie. Il CA19-9 è sintetizzato da: Cell. Duttali pancreatiche Cell. Duttali biliari Epitelio gastrico Epitelio colico Endometrio Salivare Tessuto pancreatico infiammato e neoplastico Sensibilità marcatore è tra 68% e 94% Questo a causa del fatto che una grossa fetta della popolazione sono Lewis negativi e quindi anche CA19-9 negativi quindi non sempre utile. Specificità è tra 76% e 100% Le performances della determinazione del CA19-9 migliorano quando vengono considerati pz affetti da neoplasia pancreatica in stadio avanzato mentre la sensibilità diminuisce significativamente nei tumori di diametro inferiore a 3 cm. Negli esperimenti eseguiti con linee cellulari es. carcinoma indifferenziato (MIAPaCa2) è capace di produrre e rilasciare CA19-9 in proporzione diretta al numero delle cellule coltivate, sicura è l‟attendibilità in vitro, nel vivente però altri fattori possono influenzare i livelli circolanti. Aumenti significativi del biomarcatore si possono avere in seguito ad altre neoplasie del tratto gastroenterico e a condizioni benigne: -ostruzione biliare (colelitiasi) -colecistite -colangite -cirrosi epatica -pancreatite acuta e cronica La colestasi molto spesso aumenta livelli circolanti di CA19-9 come di altri antigeni glicoproteici metabolizzati a livello epatico, una piccola quantità di CA19-9 è sintetizzata in soggetti Lewis positiva in seguito a flogosi. PROGNOSI: I livelli sierici del marcatore rappresentano una variabile predittiva indipendente per la determinazione della sopravvivenza del paziente. Il carcinoma pancreatico è ritenuto difficilmente curabile per vari motivi, i livelli sierici del biomarcatore sono utili a stabilire se il paziente sia responsivo o meno alla terapia. Una risposta dopo terapia, consistente in una diminuzione dei livelli sierici di CA19-9 dal 50% al 75% identifica responsività alla terapia. Studio comparato sulle tecniche di diagnosi: tecniche imaging/livelli CA19-9: Solo imaging Solo biomark Imaging e biomarcatore Sensibilità 82% 87% 97% Specificità 84% 86% 88% Il Profilo diagnostico migliore per il carcinoma pancreatico è quindi l‟utilizzo delle tecniche di imaging associate in correlazione stretta con le tecniche di medicina di laboratorio con determinazione del CA19-9. TUMORI NEUROENDOCRINI DEL PANCREAS: sono tumori non esprimenti CA19-9, a seconda del tipo istologico sono divisibili in 6 classi in base all‟ormone secreto: Tumore Distribuzione Probabilità sviluppo metastasi Insulinoma (cell beta, eccesso secrezione insulina) Somatostatinoma (cell D aumento glicemia e steatorrea) Glucagonoma (cell alfa, Diabete) VIPoma (aumentata secrezione glicopeptide vasoattivo) Gastrinoma (cellG) Non sindromici ( P cells ) 63% 1% 10% 5% 20% 1% 10% 50-70% 50-80% 40-70% 60% 50% In generale i tumori neuroendocrini più frequenti (insulinomi) sono quelli che danno metastasi in modo più infrequente. Per la diagnosi corretta ho bisogno di marcatori generici per capire se è presente tumore, poi devo vedere in sinergia con l‟istologia il tipo di tumore, utilizzando quindi marcatori specifici. Marcatori generici: -Cromogranine -Polipeptide pancreatico PP -subunità di HCG (Gonadotropina) -NSE (enolasi neurone specifica) Di questi oltre alla cromogranina viene utilizzato solo il PP. Cromogranine: Famiglia di glicoproteine che include: CgA, CgB, Secretogranina II, III, IV, V Test viene fatto su campione di siero ed è utilizzata come metodo iniziale su sospetto tumore del pancreas. Sensibilità 93% Specificità 88% A seconda del sospetto vedo quali sono test consigliati: INSULINOMA: Glicemia: Bassa Insulinemia: Altissima Peptidde C Proinsulina Rapporto insulina/glucosio superiore a 0,3 è diagnostico GASTRINOMA: determina aumento di gastrina nel siero è indicativo di positività il risultato 10 volte superiore al livello normale di riferimento. Test con stimolazione di secretina: nei pz con gastronoma c‟è un aumento importante nei 10 minuti seguenti alla stimolazione. Diagnosi tumori neuroendocrini pancreatici si fa con screening biochimico: Cromogranina A e ormoni specifici Normale Aumentato Follow-up Imaging Positivo Istopatologia e biologia molecolare Negativo 12-05-„09 GLI ERRORI IN MEDICINA DI LABORATORIO Una delle cose che ha più impressionato qualche anno fa l‟opinione pubblica, soprattutto quella americana, è stata la pubblicazione di quello che è il documento forse più letto, degli ultimi anni, sulla medicina: il famoso rapporto dell‟Institute of Medicine “TO ERR IS HUMAN”. In questo rapporto gli autori affermano, sulla base di dati raccolti attraverso studi fatti a partire dagli anni ‟90 negli USA, che muoiono, per scelte mediche errate, dai 40000 agli 80000 pazienti all‟anno. Ora, questo dato risulta ancor più impressionante, per l‟opinione pubblica statunitense, se confrontato con quello riguardante il numero di vittime durante la guerra del Vietnam (60000). “TO ERR IS HUMAN” è un documento che ha trasformato il tema della patient safety e delle strategie per minimizzare gli errori in medicina, da elitario e limitato ad un numero ristretto di persone, che ha dedicato anche tutta la propria vita per studiarlo ad oggetto di dibattito pubblico. Nel 2004 l‟Organizzazione Mondiale della Sanità ha lanciato un programma che si chiama “ ALLIANCE FOR PATIENT SAFETY” (alleanza per la sicurezza del paziente). [Il prof. consiglia di andare nel sito della World Health Organization (WHO), dove si trovano alcuni documenti importanti, il primo dei quali è un documento che riguarda la pratica del lavaggio delle mani: ancora oggi negli ospedali si muore perché il personale non applica adeguatamente questa semplice prassi] Quello che ha molto colpito, per quanto riguarda gli errori in medicina di laboratorio, è stato il caso emblematico di una giovane donna di 32 anni. Questa paziente, in realtà perfettamente sana, è stata sottoposta ad isterectomia e trattata con la chemioterapia perché per due volte consecutive il test di gravidanza, cioè la determinazione dell‟hCG nel siero, era risultato positivo; non era stata effettuata nessuna ecografia, né tanto meno ulteriori accertamenti, ma il medico curante aveva ritenuto si trattasse di un tumore a livello ginecologico secernente hCG, che la rendeva positiva al test. Quando è stata fatta l‟analisi delle cause prime (root cause analysis), che hanno portato a questo intervento errato, sono state attribuite le seguenti responsabilità: La ditta che ha prodotto il kit diagnostico: questa ha ricevuto una sanzione non tanto perché il test ha fornito un falso positivo (ciò è avvenuto in quanto nel siero della donna erano presenti anticorpi eterofili che hanno mimato la presenza dell‟hCG), ma perché nel foglietto illustrativo, che accompagna il reagente, non era mai stata dichiarata la possibilità di falsi positivi. Il laboratorio: esso, anche se si è basato su un prodotto autorizzato dalla Food and Drug Administration (citata anch‟essa in causa in quanto ha autorizzato la messa in circolazione di quel prodotto, che presentava delle notevoli problematiche), non ha verificato se quel risultato potesse essere dovuto ad interferenze. Il medico che ha gestito la donna: nel 1993, quand‟è avvenuto il fatto, era del tutto inimmaginabile che una donna fosse portata sul tavolo operatorio per un‟isterectomia sulla base semplicemente di un test di laboratorio, senza un‟ecografia e senza ulteriori riscontri diagnostici. La paziente: si ritiene che oggi, con le fonti di informazione a disposizione di un paziente, in un caso come questo, dovesse essere richiesto un secondo parere, cioè non ci si fa sottoporre ad un‟isterectomia e alla conseguente chemioterapia sentendo il solo parere di un medico che si avvale semplicemente di un test di laboratorio, due volte positivo per hCG, senza ulteriori prove a supporto della sua diagnosi. Fortunatamente, casi come questo si contano sulle dita di una mano, ma una cosa che bisogna sottolineare è che circa il 70% delle decisioni cliniche viene adesso preso in base ai risultati delle analisi di laboratorio. È evidente, quindi, che anche una piccola incidenza (stimata attorno allo o,5%) di errori di laboratorio, rispetto ai miliardi di test fatti in tutto il mondo ogni giorno, potrebbe avere delle forti implicazioni per la salute pubblica e per la sicurezza dei pazienti. Ma dove può avvenire l‟errore di laboratorio? Intuitivamente si risponde che la fase più soggetta ad errore è quella analitica, cioè la fase laboratoristica durante la quale viene materialmente eseguito il test. In realtà non è così. Il primo studio, a nostra disposizione, riguardante il tasso d‟errore durante la fase analitica è quello del 1947, quando i due ricercatori statunitensi, Belk e Sunderman, presero un campione abbondante di materiale biologico (siero), ottenuto da un paziente, lo divisero in tante aliquote e lo spedirono in molti laboratori degli Stati Uniti per vedere che corrispondenza, che congruità e che conformità ci fossero tra i diversi risultati ottenuti. Il risultato dello studio fu abbastanza drammatico (gli errori in questi studi vengono espressi in parti per milione, ppm): su un milione di analisi effettuate si verificarono 162000 errori, cioè il 16% dei risultati ottenuti era errato. Nel 1947 la medicina di laboratorio era ancora piuttosto rudimentale. Nel 1969 due studiosi inglesi, McSwiney e Woodrow, trovarono un tasso di errore di molto inferiore, circa del 3%. Nel 1996 il College of American Pathologists ottenne un tasso d‟errore dell‟1,2%. Nel 1997 due ricercatori padovani, Plebani e Carraro, registrarono un dato dello 0,47%. A distanza di dieci anni, nel 2007, ripeterono il medesimo studio ottenendo un tasso d‟errore dello 0,3%. Possiamo, quindi, dire che in questi anni, a partire dal 1950 fino ai giorni nostri, c‟è stata una drammatica e molto significativa caduta dell‟errore di laboratorio, ma in particolare dell‟errore nella fase analitica. Se nella parte analitica non si sbaglia poi tanto, ora vedremo quali sono le altre fonti di errore. A partire dagli anni ‟90 c‟è stata un‟evoluzione, una trasformazione, in quanto si sono cominciati a studiare tutti i possibili tipi di errore che avvengono all‟interno del laboratorio, dal momento in cui la provetta entra al momento in cui il risultato viene trasmesso ai clinici; quindi, non solo l‟errore analitico, ma anche tutta una serie di altri errori. Fas e Pr e-Analitica 4 5 ,5 % 4 7 ,2 % Fas e Analitica Fas e Pos t-Analitica 7 ,3 % Nel 1991, Ross e Boone hanno condotto uno studio in un ospedale in cui c‟erano pochi posti letto, ma in cui erano presenti tutte le specialità e che, quindi, dava la possibilità di capire tutti i tipi di errore che potevano avvenire. Come si può notare dal grafico a lato, l‟errore analitico è marginale nella sua incidenza (7,3%) rispetto all‟errore che avviene nella fase preanalitica (45,5%) e quello nella fase post-analitica (47,2%). Nel 1996 Plebani e Carraro, a Padova, hanno ripetuto lo studio sfruttando circa la stessa strategia: i risultati sono stati quasi sovrapponibili. A Padova, in particolare nel laboratorio di urgenza, il 68% degli errori avvenivano nella fase pre-analitica, il 18% nella fase post-analitica e solo il 13% nella fase analitica. In questo studio si è visto che, tra gli errori pre-analitici, il più comune riguarda il raccoglimento del campione (20%, ovvero 39 casi in quattro mesi di osservazione); ad esempio, il campione ematico, su cui si richiede il dosaggio del potassio, viene raccolto dallo stesso braccio in cui è inserita una flebo di elettroliti, in questo caso il campione è costituito da una miscela e i risultati vengono evidentemente falsati. Altri possibili errori durante la fase pre-analitica sono: errata identificazione del paziente, specificazione errata del reparto di provenienza del campione, mancanza della richiesta del medico, errore nell‟interpretazione della richiesta del medico da parte del laboratorio, uso inappropriato dei contenitori, non corretta raccolta del campione, etc. Dopo dieci anni, nel 2006, è stato ripetuto lo studio sempre a Padova. Quello che si è visto, confrontando le due serie di dati, è che l‟errore totale è passato dallo 0,4% del 1996 allo 0,3% del 2006, quindi c‟è stata una diminuzione significativa, anche se non ampia come ci si aspettava. Ciò che ha sorpreso è che la stratificazione dell‟errore è rimasta all‟incirca quella di dieci anni prima. Nel secondo studio l‟errore di raccolta del campione fortunatamente è stato ridimensionato. Ad oggi l‟errore più frequente è quello di identificazione del paziente: i campioni biologici 1 8 ,5 % 2 3 ,1 % o i risultati ottenuti vengono scambiati tra pazienti diversi; ad esempio 1 3 ,3 % Fas e Pos t-Analitica 1 5 ,0 % è avvenuto che un paziente che doveva andare in un reparto di terapia intensiva è stato mandato a casa, mentre il paziente che doveva andare Fas e Analitica a casa è stato mandato in terapia intensiva; questo è successo perché 6 8 ,2 % 6 1 ,9 % Fas e Pr e-Analitica l‟infermiere che ha raccolto i campioni li ha accidentalmente invertiti. La procedura dice che l‟infermiere che fa il triage deve andare al computer e identificare il paziente; vengono, quindi, stampate delle 1996 2006 etichette con un codice a barre, che identifica in modo assoluto il paziente e solo dopo si va a fare il prelievo. Siccome molto spesso manca il personale, o il pronto soccorso è intasato, a volte succede che l‟infermiere va a fare un primo prelievo e mette il campione in una tasca, esegue quindi un secondo prelievo, da un paziente diverso, riponendo le provette nell‟altra tasca; nel momento in cui va ad etichettare i campioni, li inverte. L‟errore di laboratorio si traduce nella somministrazione di una cura inappropriata in una percentuale dei casi che va dal 2,7%, rilevato durante lo studio padovano del 2006, precedentemente citato (percentuale sufficientemente bassa, ma non irrilevante), fino al 12%, ottenuto in uno studio americano condotto su pazienti ambulatoriali. Invece, in una percentuale molto più elevata, che va dal 24% dello studio di Padova al 30% dello studio di Ross e Boone (dati abbastanza simili), si ha comunque un effetto nella cura del paziente, il quale può subirne i disagi. Esempi di cure inappropriate sono: trasfusioni errate, interruzioni di terapie in atto (ad esempio terapie con diossina in caso di insufficienza cardiaca, che in realtà dovrebbero essere mantenute), cambiamenti nelle terapie con farmaci anticoagulanti, etc. L‟errore di laboratorio può comportare una serie di disagi per il paziente: da minimi, come nel caso della ripetizione dell‟esame, a più importanti, in quanto molto spesso vengono richiesti accertamenti più invasivi (risonanze magnetiche, TAC o altre analisi di imaging, ma anche biopsie). Il primo obbiettivo per quanto riguarda la diagnostica in generale della Joint Commission International Centre for Patient Safety è quello di migliorare l‟accuratezza nell‟identificazione del paziente. Il punto è che in tutti gli ospedali dovrebbe esserci un sistema di riconoscimento univoco e non ambiguo del soggetto, ovvero un braccialetto identificativo che abbia tutta una serie di informazioni che non permettano l‟errore di identificazione. A livello di pazienti ambulatoriali quello che viene ora adottato è, al posto dell‟indicazione di nome e cognome, il codice fiscale (prima di questo si usava la tessera sanitaria), perché questo è un sistema che consente di evitare ogni ambiguità (ad esempio, stesso nome, stesso cognome e stessa data di nascita). In una ricerca condotta dall‟Università di Padova in collaborazione con l‟Università di Verona è stata descritta la variabilità analitica come “la parte oscura della luna”, perché, andando a lavorare su tre laboratori di grandi ospedali italiani (Milano, Padova e Bari), si è visto che il tasso d‟errore che si commette nella fase pre-analitica, è molto maggiore nei pazienti ricoverati in ospedale rispetto ai pazienti ambulatoriali; questi sono errori dovuti, principalmente, a procedure sbagliate durante il prelievo, come l‟arrivo in laboratorio di un campione emolizzato (eseguendo il prelievo si è procurata la rottura delle emazie, ad esempio eccedendo nella forza di aspirazione del sangue). Da un lato si può dire che i pazienti ricoverati possono avere patologie più complesse, dall‟altro è importante sottolineare il fatto che a livello ambulatoriale chi fa i prelievi è gestito direttamente dal laboratorio e, quindi, si tratta di personale che viene formato e viene responsabilizzato ad una maggior attenzione ed accuratezza; mentre a livello dei reparti, dal momento che i prelievi vengono effettuati da figure professionali con competenze diverse, molto spesso le procedure non sono così rigorose. Questo si osserva soprattutto nel caso di campioni insufficienti, scorretti o coagulati per i quali c‟è sempre un rapporto molto a sfavore dei pazienti ricoverati rispetto ai pazienti ambulatoriali. È importante, quindi, migliorare la qualità del prelievo e delle procedure prima di avviare l‟esame. Poi ci sono altre cose su cui si sta lavorando per minimizzare gli eventuali errori: 26. È stata migliorata molto la gestione degli errori che avvengono quando, prima dell‟analisi, vengono fatti dei trattamenti per rendere il campione disponibile all‟esame, come la centrifugazione e la creazione di provette figlie (aliquotazione); 27. Sono state sostituite le provette in vetro con quelle in plastica per evitare danni durante il trasporto; 28. Sono stati introdotti criteri di accettazione o rifiuto del campione biologico al fine di evitare l‟analisi di campioni inappropriati; 29. Soprattutto negli ultimi anni, sono state introdotte stazioni automatiche, impiegate nella fase pre-analitica, che rendono possibile la gestione del campione: l‟identificazione del paziente attraverso la lettura di un codice a barre, la centrifugazione, l‟apertura del campione ed eventualmente la creazione di provette figlie a partire da una provetta madre, per rendere disponibile lo stesso campione per diverse analisi. Questi sistemi automatizzati operano con un tasso di errore molto inferiore a quello che si ottiene se le stesse operazioni sono eseguite manualmente dai tecnici del laboratorio (si passa da un tasso di 8000ppm ad uno di 400ppm). Interessante è anche il dato riguardante l‟esposizione a danni biologici che da 2600ppm circa, quasi si annulla. L‟introduzione di sistemi automatici, oltre a ciò, è servita a migliorare la sicurezza del personale che lavora nei laboratori. Nella fase post-analitica, normalmente, si effettuano una serie di comunicazioni attraverso sistemi informatici, i quali riescono a diminuire gli errori; quello che ancora permane, rilevabile dai dati che emergono dalla letteratura più recente e sul quale il laboratorio non può fare molto, è il fatto che gli errori più frequenti avvengono nelle fasi ancora precedenti a quelle che abbiamo discusso finora. Si vede in pratica, in uno studio eseguito in materia di medicina ambulatoriale negli Stati Uniti, che il tasso d‟errore più elevato riguarda: da un lato l‟incapacità di richiedere un esame diagnostico appropriato, cioè di fronte ad un quesito clinico non si sceglie l‟esame giusto (fase pre-pre-analitica); dall‟altro, nella fase post-analitica, si osserva l‟incapacità di interpretare adeguatamente il test diagnostico. In questo studio si nota che la gran parte degli errori riguarda le tecniche di imaging, quindi la diagnostica radiologica, al secondo posto si collocano i banali esami di chimica clinica. Il dato spaventa ancora di più se si va ad osservare ciò che succede nei reparti d‟emergenza: ancora una volta gli errori più clamorosi e frequenti sono l‟incapacità e la mancanza di richiesta di un esame adeguato e di nuovo l‟elevata frequenza di scorretta interpretazione del risultato dell‟esame. Stilando una graduatoria degli ambiti maggiormente soggetti ad errore: Radiografie; Tomografie computerizzate; Test enzimatici dei cosiddetti enzimi cardiaci (troponina, che non è un enzima); Ecografie; Esami di laboratorio dell‟area ematologia. Quindi, ancora una volta, ci sono molte evidenze che dimostrano come l‟errore sia un errore diagnostico, che per la maggior parte non dipende dall‟attività del laboratorio. Si deve svolgere, quindi, un lavoro su due diversi piani al fine di prevenire l‟errore diagnostico: Migliorare le procedure laboratoristiche per ridurre l‟errore analitico; Migliorare l‟accuratezza della richiesta e la concretezza nell‟interpretazione dei dati. Negli errori di laboratorio possiamo individuare: Il BUONO: negli ultimi anni c‟è stata una significativa e forte diminuzione del tasso di errore, soprattutto nella sfera analitica; Il BRUTTO: si è capito che le fasi più soggette ad errore sono quelle pre- e post-analitica; il CATTIVO: fino a poco tempo fa non si dava importanza all‟errore di laboratorio, pensando che esistesse e non si potesse evitare. CONCETTO FONDAMENTALE DELLA LEZIONE: non banalizzare, nel momento della prescrizione di un test e nel momento dell‟interpretazione del suo risultato, la possibilità di eventuali errori. Inoltre, sarebbe importante, nel caso si riscontrasse un errore in un esame diagnostico, segnalarlo al laboratorio che ha eseguito il test stesso. 26.05.09 IL PRELIEVO VENOSO: Che cos‟è la “flebotomia”? Qual è la differenza fondamentale tra la realtà di paesi come l‟Italia e gli Stati Uniti nel campo del prelievo ematico? La realtà è molto diversa perché negli Stati Uniti esiste una figura professionale detta “Phlebotomist”. La mancanza del phlebotomist, nel nostro paese, fa si che il prelievo ematico sia delegato sostanzialmente al medico e all‟infermiere. (ciò però ha degli svantaggi: succede, infatti, che i pazienti vengono svegliati all‟alba e restano a digiuno per ore, a causa del fatto che alcune pratiche di prelievo vengono fatte dai medici quando montano in turno. Ciò, oltre a creare disagio nel paziente, porta anche a ritardi nella consegna dei campioni). Chi è il “Phlebotomist”? Il Phlebotomist è una figura professionale, presente negli ospedali americani, ma anche nelle realtà territoriali, che non ha nulla a che vedere con il tecnico di laboratorio, né con l‟infermiere, ma è una persona che si prende cura di tutto ciò che riguarda il prelievo venoso. Quindi entra dentro il laboratorio e si occupa della preparazione del campione, cioè di tutte quelle procedure che precedono l‟analisi vera e propria e poi raccoglie il campione (che può essere sangue o altri campioni biologici). Interagisce poi con i pazienti e con gli altri professionisti, quindi è lui che si prende carico, per esempio, di avvisare nelle corsie il personale infermieristico e i medici che è cambiata la procedura di raccolta del sangue, (ad esempio che la provetta per l‟esame del glucosio è cambiata). Opera, quindi, come intermediario tra le procedure che il laboratorio mette in piedi e quella che è la pratica assistenziale. (Qui nella diapositiva si dice che il phlebotomist gioca un ruolo vitale in ogni sistema sanitario, ma non è vero perché è riferito solo a quei paesi dove questa figura esiste. Nella tradizione italiana manca completamente, ma manca anche in altre realtà europee.) Comunque sia, esistono problemi nelle procedure di prelievo del sangue e questi riguardano entrambe le parti in gioco e cioè, da un lato, chi è adibito alla mansione del prelievo, nel senso che il prelievo comporta alcuni rischi di contagio biologico da parte dell‟operatore, e dall‟altro il paziente, il quale rischia che la procedura venga eseguita malamente o che si verifichino una serie di eventi avversi durante il prelievo (eventualità che non è da minimizzare). Sostanzialmente al mondo esistono due sistemi per eseguire un prelievo di sangue, che si configurano come: “sistemi aperti” e “Sistemi chiusi” SISTEMA APERTO Procedura esistita fino a qualche anno fa e presente ancora in alcune realtà. Si basa sull‟utilizzo di una siringa con cui si aspira il sangue, il quale, una volta raccolto, viene versato nella provetta adibita all‟esame. Sistema aperto significa che ci sono dei passaggi tra la siringa e la provetta che possono esporre a rischi sia il prelevatore (sempre riferendosi al contagio biologico), che il paziente (per quanto riguarda la qualità dell‟esame). Quindi la “Occupational safety and health administration (OSHA), organismo americano che si occupa di sicurezza, ha condotto delle indagini in questo campo, e ha concluso dicendo che la miglior pratica per la prevenzione di ingiurie da puntura di ago, dopo “flebotomia” (cioè la raccolta di sangue), è quella di buttare tutto quello che si è utilizzato per il prelievo (ago e camicia soprattutto) in appositi contenitori. Questo perché la maggior parte degli incidenti occupazionali accaduti in questi anni, si sono verificati durante la procedura di re-incappucciamento dell‟ago. In sostanza quello che si verificava era questo: il medico o l‟infermiere (o il phlebotomist), faceva il prelievo, dopo di che, per buttare via la siringa nell‟apposito contenitore, doveva re incappucciare l‟ago e in quel momento c‟èra un calo di attenzione e l‟operatore si bucava. Tutto ciò, soprattutto se il paziente era affetto da patologie trasmissibili, ha comportato molti incidenti occupazionali. La misura adottata è quindi quella di buttare tutto e ciò significa andare verso i sistemi chiusi. SISTEMI CHIUSI Nella letteratura hanno vari nomi, molto spesso, però, troverete il nome del sistema che è stato brevettato per primo e che è il più usato: il “sistema vacutainer”. Il sistema vacutainer (è un nome commerciale), consiste di più parti: un ago, avvitato ad una camicia all‟interno della quale si introduce una provetta. Provetta Camicia Ago La provetta possiede una pressione negativa che consente una aspirazione tale da riempirla fino al livello necessario. Questo sistema è particolarmente importante per esami della coagulazione, dove la pressione negativa è tale da assicurare il corretto rapporto tra il volume dell‟anticoagulante e il volume di sangue prelevato. Quindi il sistema chiuso si identifica come un sistema automatico in cui, una volta che l‟ago viene inserito nella vena e dopo aver inserito la provetta, c‟e un‟aspirazione automatica tale da riempire totalmente la provetta fino al livello desiderato. Uno dei vantaggi rappresentato dal fatto che l‟ago possiede una guaina di gomma, la quale consente di riempire più provette e non una soltanto (come invece avveniva con il sistema aperto). Infatti nel momento in cui si toglie la prima provetta e si mette la seconda, non esce sangue, perché la guaina si ritrae e chiude temporaneamente l‟ago e si riapre solo quando si reinserisce la provetta successiva. Il sistema chiuso si riconosce perché prevede un flusso di sangue dall‟ago alla provetta, ma nel momento in cui la provetta viene ritratta, il sangue non fluisce più all‟esterno, quindi non imbratta la camicia e l‟operatore e fluirà di nuovo solo quando verrà reinserita una nuova provetta vuota. Si chiama sistema chiuso perché, al contrario del sistema siringa-provetta, non prevede nessuna apertura o stappatura delle provette, ma è totalmente chiuso e permette la raccolta del sangue ed eventualmente di altri liquidi biologici, senza che ci sia nessun contatto del campione con il paziente o con l‟operatore. Vantaggi del sistema chiuso: Il primo vantaggio è pratico ed è per l‟operatore: infatti si toglie la possibilità di contaminazione con il sangue del paziente. Il secondo vantaggio è per il paziente, perché, con questi sistemi si è ridotta moltissimo la quantità di sangue prelevato, grazie alla eliminazione degli sprechi. Prima, invece, molto spesso succedeva che, non avendo la misura di quanto era necessario versare nelle provette, si toglievano, per esempio, 40 cc, quando nelle provette bastava versarne la metà; il sistema chiuso, invece, si autolimita, nel senso che le provette si riempiono esattamente di quello che è necessario per analizzare il campione. 10 COMANDAMENTI PER LA CORRETTA “FLEBOTOMIA” (prelievo di sangue) Identificare il paziente (sembra una cosa ridicola e invece ancora oggi negli ospedali si sbaglia nella identificazione del paziente. La ricetta è che: “più è lontano nel tempo il momento in cui si prepara il materiale per il prelievo, (le provette le etichette e tutto quanto), rispetto al momento in cui si fa il prelievo, più aumentano gli errori di identificazione”. Teoricamente la cosa migliore sarebbe andare con un palmare di fronte al paziente, identificarlo, mediante un codice a barre o un braccialetto, stampare le etichette e in modo immediato raccogliere il sangue. Ovviamente non sempre si possono fare queste cose, ma ci sono soluzioni intermedie. Il medico o l’infermiere (o il phlebotomist) dovrebbe chiedere al paziente se ha mantenuto lo stato digiuno, se ha sostenuto un esercizio fisico molto intenso, se è stressato (se è incazzato), perché queste cose influiscono sulla qualità dei risultati. Il digiuno, piuttosto che aver fatto una corsa in bicicletta di 2 ore prima del prelievo o aver fatto jogging la mattina, sono cose che dovrebbero essere non raccomandate e quindi evitate. Controllare la richiesta degli esami. Cioè, se nell‟impegnativa o nella richiesta del medico ci sono 8 esami, questo deve tradursi in un numero di etichette tali che gli 8 esami vengano eseguiti. Selezionare un sito che sia disponibile per la puntura venosa. Tradizionalmente il prelievo venoso si fa al braccio (si ricorre ad altri siti solo se le braccia presentano dei problemi tali per cui non si può per motivi di privacy e altro tipo) Preparazione del materiale per il prelievo. Prelievo Parlare con il paziente durante il prelievo. Pùò succedere, infatti, (e vi capiterà nel corso della vostra carriera medica) che, durante il prelievo, una giovane donna o un anziano, che non manifestano apparentemente nessuna emozione, vadano incontro ad una lieve lipotimia, una cosa banale, ma che richiede una minima conoscenza del trattamento, perché dietro una lipotimia possono nascondersi delle problematiche misconosciute che possono portare a riconoscere un‟epilessia mai documentata o problemi cardiovascolari. (Parlando con il paziente durante l‟esame si possono evitare alcuni casi di lipotimia.) ringraziare il paziente per la pazienza (Gli altri due punti non sono stati citati) LACCIO EMOSTATICO La sua funzione è quella rendere più visibili le vene, provocando una stasi. Il problema è che l‟applicazione del laccio, che sembra una cretinata, in realtà può provocare delle grosse alterazioni della qualità dell‟esame. Si possono osservare, infatti, differenze statisticamente significative delle concentrazioni di alcuni parametri come: transaminasi (ALT), albumina, calcio, colesterolo, ferro, dopo meno di 1 min di stasi venosa (cioè l‟applicazione del laccio per 1 min, altera questi parametri). Altre misure che presentano variazioni importanti tra 1 e tre minuti sono: tempo di protrombina, fibrinogeno, D-dimero . Le variazioni diventano ancora più significative se l‟applicazione del laccio supera i tre min. Di norma l‟applicazione del laccio dovrebbe avvenire solo per identificare la vena e dovrebbe essere rilasciato nel momento in cui si introduce l‟ago. Cos‟è allora che ti porta a tenere il laccio emostatico applicato per troppo tempo? È il fatto che i pazienti non sono tutti uguali. Può capitare il paziente che, dopo aver messo il laccio e aver cominciato a palpare per sentire dov‟è la vena, questa non si senta. E allora si incomincia ad andargli attorno, a ricontrollare e intanto il tempo passa. In questi casi il trucco più efficace è “non intestardirsi”: la prima cosa da fare è cambiare braccio e andare sul sinistro. Se anche sul sinistro si fa fatica allora o si ricorre ad altre manovre o si torna indietro. Ma ricordate che prolungare il trattamento con il laccio porta ad una riduzione della qualità analitica. LINEE GUIDA PER L’APPLICAZIONE DEL LACCIO: 30. Applicare il laccio circa 10 cm sopra l‟area dove si intende fare il prelievo: (tendenzialmente il prelievo viene eseguito a livello del braccio). 31. Dovrebbe essere stretto abbastanza da rendere visibili le vene, ma non così tanto da ostruire la circolazione arteriosa. (perché questo crea dei problemi). 32. Non mantenere in laccio in situ per più di 1 min. 33. Appena la vena viene selezionata e viene introdotto l‟ago, il laccio deve essere rilasciato. Infine, ricordate, che se applicando il laccio il paziente si lamenta, dovete stare attenti a distinguere il dolore dovuto ad una maggiore sensibilità, (paziente più “delicato”), dal dolore serio e importante, che può nascondere una situazione di flebite misconosciuta o altre patologie. L‟occhio clinico deve saper riconoscere queste situazioni; in questi casi si cambia braccio o si fanno altre manovre. Attenzione: non è detto che si debba sempre applicare il laccio; quando uno acquisisce una certa manualità può anche farne a meno, l‟importante è sentire la vena. IMPORTANTE: Quando fate un prelievo dovete mettervi i guanti. Questo punto è molto importante perché, nonostante tutte le precauzioni, l‟esposizione ai liquidi biologici può determinare infezione (c‟è qualcuno che si lamenta che con il guanto ci sia una perdita di sensibilità. La realtà è questa: al personale medico e paramedico si raccomanda sempre di usare i guanti, se poi uno non li usa, si prende le sue responsabilità!) (se io vi vedo fare un prelievo senza guanti vi “cazzio”!!). TIPI DI AGHI Esistono vari tipi di aghi, che si distinguono in base ad un indicatore detto “gauge”(G), che indica la “grossezza” (diametro interno del foro dell‟ago). Sostanzialmente, nella pratica medica vengono usati gli aghi da 23 G e 25G, che sono rispettivamente “ago giallo” (Più grosso) e “ago verde” (Più fino). Tutti pensano che sia meno doloroso fare il prelievo con un ago più fino. Sbagliatissimo! L‟ago giallo (più grosso del verde) da meno dolore, e, tra l‟altro, presenta una serie di vantaggi perché consente una fluidità migliore del sangue, quindi evita o riduce il rischio di emolisi o di alterazione dei G.R che passano attraverso l‟ago. Teoricamente l‟uso dell‟ago verde dovrebbe essere limitato agli interventi sulle vene più piccole, che hanno bisogno di aghi non molto grossi. Ago butterfly (farfallina): L‟Italia è il più grande consumatore di butterfly al mondo!! Questo perché nelle nostre corsie, gli infermieri soprattutto, pensano che il butterfly faccia meno male, ma non è così. Per due motivi: prima di tutto espone maggiormente al rischio di ripetere il prelievo e secondo non è affatto vero che faccia meno male. Il vantaggio del butterfly è che rende possibile una manualità migliore rispetto al sistema siringa + provetta. Tuttavia non è affatto raccomandabile né a livello generalizzato né per ridurre il dolore ai pazienti. (non ci sono regole, è la pratica che vi darà gli strumenti adatti per decidere, di fronte ad un certo tipo di vene, cosa usare). Naturalmente se i prelievi vengono fatti a livello della mano, del polso, se il paziente è oncologico, o un bambinetto, allora il butterfly è molto utile, (soprattutto a livello del polso e delle mani perché la sua grande maneggevolezza consente di posizionare meglio l‟ago e di essere meno invasivi lì dove con la siringa si potrebbero creare dei danni). ALTRE REGOLE: Raccogliere il campione nella provetta adibita per quel tipo di esame. Per rendere meno difficile il riconoscimento della provetta corretta, si utilizza un sistema che si basa sul “colore dei tappi”, dove ad ogni colore corrisponde uno specifico esame: qui a Padova si utilizzano: tappo verde per esami di biochimica; tappo lilla per esami ematologici; tappo Azzurro per esami della coagulazione. (il colore è standardizzato, cioè è uguale tra i vari ospedali). SITI PER IL PRELIEVO VENOSO Le vene più importanti del braccio, dove viene fatto più comunemente il prelievo sono: vena cefalica, vena basilica, (è la più usata in assoluto). vena basilica mediana, vena cefalica mediana, vena radiale, vena ulnare. Una volta individuata la vena, non fidatevi dell‟occhio, ma andate a palparla, per sentire se è elastica, in particolare nei pazienti in terapia. Se si sentono delle vene molto dure vuol dire che ci sono delle ostruzioni e che quindi e meglio cambiare sito. Ovviamente si può anche girare il braccio dalla parte dorsale, se non si trovano vene nella parte normale, ma è una manovra limitata solo ad alcuni casi di difficoltà nel prelevare dalle vene più comuni. Per i neonati si ricorre alla tecnica del “prelievo capillare”, per vari motivi: per non prelevare grandi quantità di sangue, per essere meno invasivi e per la difficoltà nel riconoscimento delle vene. La tecnica capillare, consiste in una puntura tramite “lancetta” sostanzialmente a livello del tallone (vedi figura) e poi si fa fluire il sangue in apposite provette (che, naturalmente, sono più piccole di quelle utilizzate per il prelievo dell‟adulto). Stessa tecnica può essere utilizzata a livello del polpastrello delle dita per prelievi ripetuti, per esempio per lo studio del glucosio nei diabetici, (anche per lo studio del tempo di protrombina in pazienti sotto cura anticoagulante orale). Nella maggior parte dei casi viene più utilizzato il prelievo venoso, mentre il prelievo capillare viene usato solo per pazienti in età neonatale o in casi particolari. COSA EVITARE: Mai fare prelievi in aree affette da ustioni estensive o che sono state oggetto di chirurgia. Notoriamente nelle donne soggette a mastectomia laterale con asportazione di linfonodi, si evita di fare il prelievo dallo stesso braccio per non produrre delle infiammazioni, soprattutto al livello linfonodale, nell‟arto omologo dove sono stati tolti i linfonodi. Non eseguire prelievi in aree in cui sia evidente un ematoma. (se qualche giorno prima è stato fatto un prelievo che ha provocato un ematoma, non andate di nuovo a fare il prelievo in quel sito perché, 1- fate male al paziente, 2- si possono ottenere risultati inattendibili a causa della stasi. Non fate mai il prelievo nel braccio dove è applicata una via infusiva intravenosa (“fleboclisi”) (per esempio esame della potassiemia tramite prelievo in un braccio dov‟è applicata una via infusiva intravenosa per somministrazione di elettroliti). Nel caso fosse impossibile fare il prelievo in un‟altra zona bisogna: 1- togliere la via infusiva, 2-stoppare la fleboclisi, 3- attendere almeno due minuti, 4- applicare il laccio “sotto” la zona dove prima c‟era la via infusiva, 5- selezionare una vena che non era stata coinvolta nella via infusiva, 6- raccogliere 5 ml di sangue a perdere, cioè buttare via i primi 5 ml perché potrebbero ancora essere inquinati da liquido infusivo. (Ci sono poi dei trucchi che imparerete se andrete a lavorare nei reparti di chirurgia e di rianimazione, per quando ci sono delle cannule, delle fistole o delle applicazioni di eparina.) COME SI SELEZIONA LA VENA: Una volta scelta, bisogna palpare e tracciare, se possibile, il cammino della vena, cioè non fermarsi alla palpazione in situ, ma verificare se nel decorso della vena sia presente la stessa durezza, o la stessa elasticità. (il vostro dito è un indicatore prezioso per stabilire lo stato della vena). Per esempio le vene trombizzate mancano di “resilienza” (elasticità), molto spesso si sentono come dei cordoni duri che sfuggono sotto il dito. Quindi palpazione + esame visivo sono indispensabili per selezionare la vena. TECNICA DI APPLICAZIONE DELL’AGO L‟operatore inesperto buca la vena e va troppo in profondità, oppure rimane troppo in superficie senza nemmeno raggiungere il vaso. E‟ una cosa difficile da spiegare e che si acquisisce con l‟esperienza. L‟esatta procedura consiste nell‟entrare nel vaso con la giusta profondità senza romperlo. La rottura della vena produce un ematoma. Se si verifica un ematoma non si dev insistere con il prelievo, ma bisogna ritirare l‟ago, procedere con una medicazione di tenuta, quindi compressiva, e riprovare in un‟altra sede. EVENTI AVVERSI DEL PRELIEVO: Il prelievo è un esame abbastanza banale, ma si possono avere casi di fastidio, ematomi, dolorabilità, lipotimie, sincope, sincope convulsiva, fino a tachicardie ventricolari (non sono molti casi, ma sono importanti). Quindi, cosa può accadere durante il prelievo? La cosa più semplice è che tutto vada dritto e il paziente vi ringrazi (o siate voi a ringraziarlo per la sua pazienza). Qualche volta può capitare che il paziente si lamenti per il dolore, ma dovete stare attenti a distinguere le situazioni; in altri casi può capitare un ematoma, (tutti hanno fatto un ematoma nella loro vita perché non tutte le vene sono uguali e non tutti i tessuti hanno la stessa tenuta e la stessa elasticità. Quindi non preoccupatevi se vi capita); in caso di shock e lipotimia è importante conoscere le manovre da fare (riportare a norma la pressione, soprattutto mantenendo una perfusione al cervello, alzare le gambe e altre manovre). Nel caso in cui vi accorgiate che il paziente sta andando incontro a svenimento, non insistete a finire il prelievo, ma rilasciate il laccio, cominciate a parlare al paziente, se è seduto mettetelo disteso, toglietegli ogni compressione (ad esempio slacciategli la camicia) e, prima che lasci il luogo del prelievo, assicuratevi che si sia totalmente ripreso (misurategli la pressione), anche se vi dice che si sente bene, (mandate a prendergli una bevanda calda con un po‟ di zucchero e, se la lipotimia è stata causata dal digiuno, dovrebbe riprendersi in fretta). Se nel corso dello svenimento cominciano ad esserci delle convulsioni, la cosa si fa più complicata perché bisogna distinguere le convulsioni tetaniche, che possono identificare alcune patologie, da altre situazioni. E‟ noto, infatti, che le crisi isteriche possono manifestarsi con convulsioni simili a quelle del paziente epilettico, quindi in questi casi ci vuole la consulenza di qualcuno che sappia gestire queste situazioni. (un consiglio per approfondire: il sito www.specimencare.com, contiene informazioni sulle modalità di prelievo e raccolta dei campioni ed eventualmente c‟è anche un link ai documenti emanati da organismi internazionali. Se qualcuno vuole intraprendere la carriera deve conoscere come esattamente si fa il prelievo, la conservazione dei campioni e altre cose. Il sito è libero e ve lo consiglio se vi interessa). Questa lezione non sarà argomento di esame. Con questo ho finito, spero che le mie lezioni siano state apprezzate, io ci ho messo il mio impegno. Altrimenti avrei piacere che mi scriveste (la mail è [email protected]) e mi diceste, anche in anonimo, “professore io se fossi in lei farei così o farei colà”, io accetto molto volentieri le critiche, e soprattutto i consigli perché è l’occhio di chi sta dall’altra parte che vede le cose che non vanno. Vi auguro che nella vostra carriera professionale facciate sempre un po’ di attenzione perché le indagini di laboratorio faranno sempre parte del ragionamento clinico con cui arriverete a fare diagnosi, consigliare la terapia, quindi sappiate maneggiarle, e per maneggiarle basta l’intelligenza e la conoscenza clinica di quello che c’è scritto. Io vi auguro una buona carriera e una buona estate sperando di vederci all’esame, sperando che non sia per voi solo un momento di tensione!!