Plebani - E se toccasse a te?

Transcript

Plebani - E se toccasse a te?
MEDICINA DI LABORATORIO- BIOCHIMICA CLINICA
Prof. Mario Plebani
02/03/09
Obiettivi del corso
 fornire gli elementi teorici per interpretare l‟esame di laboratorio (conoscere la variabilità biologica e
analitica)
 fornire le basi teoriche per valutare l‟utilità clinica di un test di laboratorio (test sensibili o meno sensibili,
valore predittivo, effetto della prevalenza della malattia…)
 fornire gli strumenti per comprendere la natura degli errori in medicina di laboratorio (come fare perché l‟
errore non provochi danno ai pazienti?)
 valutare l‟appropriatezza della richiesta degli esami e la conseguente interpretazione
 comprendere il valore clinico dei marcatori di malattia neoplastica
 comprendere il valore clinico dei marcatori nelle malattie cardiovascolari
 comprendere il significato dei radicali liberi.
Testo consigliato: “Lezioni in medicina di laboratorio” di Mario Plebani, ed. Cortina.
Il corso sarà poi integrato con la discussione di alcuni casi clinici. Inoltre ci saranno esercitazioni pratiche che
consisteranno nella visione di preparati ematologici, urine, liquor, tessuti biologici...
L‟esame sarà in parte a risposta multipla e in parte a domande aperte.
Introduzione alla medicina di laboratorio
(dato che l‟inizio della lezione è costituito da una introduzione molto generale alla materia e ad esempi per far capire la
sua importanza ho riportato in modo molto sintetico i concetti principali: l‟inizio vero e proprio della lezione è dal titolo
“biochimica clinica”)
La medicina di laboratorio è stata definita come “una scienza nascosta che salva la vita”. Ciò può essere spiegato dai
seguenti tre scenari clinici:
1. paziente che arriva al pronto soccorso presentando dolore toracico: il sospetto è di un infarto acuto del miocardio (
sindrome coronarica acuta). Il paziente viene immediatamente sottoposto a ECG, ma si fa anche un prelievo di
sangue. Se l‟ECG mostra sopraslivellamento del tratto S-T siamo in presenza di infarto del miocardio, ma se
l‟ECG è negativo, non si può comunque escludere la presenza dell‟IMA (infarto miocardico acuto).
L‟analisi di laboratorio può confermare la presenza dello stesso grazie alla presenza di un marcatore biochimico,
la troponina cardiaca. E‟ importante perché il 30% dei pazienti con IMA è ECG negativo, e quindi per la diagnosi
serve necessariamente l‟indagine di laboratorio. Inoltre la gravita dell‟infarto è correlata alla quantità di troponina
cardiaca riscontrata: più alta è la troponina, peggiore sarà la prognosi del paziente.
2. Bambino di 3 anni con improvvisa epistassi in assenza di traumi precedenti. L‟epistassi è così abbondante da
dover ricorrere al pronto soccorso. Oltre alla visita viene effettuato un prelievo di sangue per ricavarne
l‟emocromo citometrico, cioè la conta delle cellule ematiche (globuli rossi, piastrine, leucociti…). Il bambino
mostra un aumento dei globuli bianchi e in particolare di una popolazione di linfociti. Procedendo nell‟indagine si
diagnostica un tipo di leucemia. Oggi, anche grazie a una migliore diagnostica, la leucemia è curata e guarita nel
60% dei casi: ciò è più probabile tipizzando la leucemia grazie ad esami biochimici e molecolari.
3. Maschio di 45 anni, che nella storia clinica riferisce esclusivamente di un intervento chirurgico 10 anni prima, che
si presenta al medico di base con disturbi vaghi (inappetenza, stanchezza, difficoltà a digerire…). Vengono
richiesti esami di laboratorio, i quali mostrano un aumento degli enzimi epatici fra cui le transaminasi (AST,
ALT…), e una positività ad anticorpi contro HCV. Le transaminasi indicano che c‟è stato insulto epatico (sono
indicatori di necrosi dell‟organo), in questo caso da HCV. Il paziente è indirizzato a un epatologo, che richiederà
degli accertamenti di laboratorio, per esempio biochimici, per conoscere il fenotipo e il genotipo dell‟ HCV (ve ne
sono di 6 tipi, e in base al ceppo varia la reazione alla terapia, e quindi il trattamento da seguire). Per valutare il
danno epatico viene effettuata biopsia epatica: il tessuto è portato all‟anatomopatologo che valuta il quadro
istologico e si esprime su diagnosi e prognosi. Attualmente però esistono esami che riducono del 50% la necessita
di biopsia epatica (la quale può comportare dei rischi per il paziente). Inoltre, negli anni successivi, per monitorare
la risposta alla terapia e l‟eventuale progressione dell‟epatopatia, il paziente verrà sottoposto non a biopsie ma ad
apposite analisi di laboratorio
Nei tre casi il paziente non ha mai conosciuto il medico laboratorista che ha effettuato i test, fondamentali per la diagnosi e
l‟approccio alla malattia.
Studi hanno stabilito che se non ci fossero state le innovazioni nella medicina di laboratorio che si sono verificate tra gli
anni ‟80 e il 1996, negli USA ci sarebbe il 26% in più (4400000 di persone) di disabili, cioè persone non in grado di
condurre uno stile di vita normale. Inoltre c‟è stato un allungamento della vita media di 0,44 anni grazie ai suddetti
miglioramenti, ai nuovi farmaci e a migliorie dello stile di vita. La medicina infatti ha fortemente cambiato la vita delle
persone, anche negli ultimi decenni (vedi miglioramento della qualità di vita di anziani con cataratta o frattura del femore).
Le basi della medicina di laboratorio moderna risalgono ai primi del „900. Nel corso del tempo l‟attrezzatura di laboratorio
è fortemente cambiata grazie alla grande proliferazione di tecnologie. Dal 1960 al 2000 si è assistito ad una progressione
logaritmica del numero di esami di laboratorio effettuati.
È anche cambiata l‟interazione del laboratorio con la medicina clinica: un tempo era impossibile ottenere i risultati dei test
in tempo reale e ci si basava esclusivamente sulla semeiotica. Grazie alle nuove tecnologie ciò è divenuto possibile,
cambiando il management, la gestione del paziente. Ora gli esami sono anche più efficaci (ad es. la troponina cardiaca è
diventata il gold standard, cioè lo standard di riferimento, per la diagnosi dell‟ IMA).
Anche per la medicina di laboratorio c‟è stato uno spostamento dalla medicina curativa a quella preventiva (che è poi la
tendenza dei sistemi sanitari). Essa concorre all‟identificazione di fattori di rischio, che, oltre a stili di vita, possono essere
di tipo genetico o biochimico: ecco allora l‟ intervento dell‟analisi di laboratorio.
Attualmente viviamo nell‟era delle OMICS: di conseguenza molti degli esami di laboratorio effettuati si basano su
metodiche di biologia molecolare (es. la tecnologia affimetrix ), che sfruttano le scoperte nel campo della genomica, della
proteomica, della trascrittomica, della metabolomica... Tali tecnologie però sono spesso ancora sperimentali perché la
ricerca è ancora in corso.
È stato stimato che il 60-70% delle decisioni riguardo ricoveri, dimissioni, tipologia di farmaci da utilizzare… si basano
oggi su esami di laboratorio.
BIOCHIMICA CLINICA
Esempio: maschio di 53 anni che esegue due serie di esami di laboratorio a un anno di distanza l‟una dell‟altra. Si
osservano alcune variazioni:
1. la creatinina plasmatica ( parametro di funzionalità renale) era 88μmol/L, quando l‟intervallo di riferimento è 64120μmol/L. Negli esami aggiornati il valore è salito a 97 μmol/L.
2. il PSA (antigene prostatico con cui si fa diagnosi di tumore alla prostata) è passato da 1,5μg/L a 2,5μg/L (valori
sempre compresi nell‟intervallo di riferimento).
Le oscillazioni di valore sono significative? La risposta si basa su alcuni presupposti teorici: la variabilità del risultato di
un esame laboratorio comprende:
 variabilità preanalitica.
 variabilità analitica
 variabilità biologica individuale
Comunque per essere schematici si può dire che la variabilità è essenzialmente analitica e biologica.
La variabilità analitica è dovuta a errore del laboratorio nel fornire il risultato. Essa può essere:
 preanalitica
 analitica
 postanalitica
si può sbagliare eseguendo l‟analisi, ma anche perché ci sono delle procedure di raccolta, conservazione e trasporto del
campione che possono aumentare il rischio di errore. Ci può essere errore anche nella fase postanalitica, per es. nella
refertazione. La variabilità analitica quindi dipende dal laboratorio: ci saranno laboratori che sbagliano di più e laboratori
che sbagliano di meno.
La variabilità biologica individuale può essere:
 intraindividuale: i parametri variano nell‟organismo del soggetto considerato in modo
diverso da come
variano nell‟organismo di altri soggetti. Ognuno di noi avrà un punto omeostatico e delle oscillazioni da questo.
Solo se le oscillazioni vanno oltre certi livelli ci sarà patologia.
 Interindividuale: i parametri variano da un soggetto all‟altro.
Ad esempio se vengono considerati 10 soggetti sani, di cui si fa la determinazione tramite prelievi ripetuti dello stesso
parametro per più giorni, si noterà che la variabilità nei soggetti è diversa pur essendo questi tutti sani, e pur se sono
mantenuti tutti nelle stesse condizioni.
Ognuno pur essendo all‟interno dell‟intervallo di riferimento, esprime una sua variabilità nel corso del tempo.
La variabilità interindividuale si esplica nel fatto che se consideriamo la media ottenuta dalle rilevazioni eseguite si nota
che, pur essendo sani, i soggetti mostrano valori differenti dalla media.
La variabilità biologica è dovuta a diversi fattori, fra cui:
 ritmi circadiani
 variazioni durante il ciclo mestruale
 tipi di dieta
 gravidanza
 sesso
 razza
 fumo
 variazioni stagionali (la luce cambia la produzione di vari ormoni fra cui per esempio la melatonina)
 localizzazione geografica….
Per esempio il valore del potassio fluttua normalmente molto durante la giornata, in base all‟assunzione di cibo, alternanza
sonno-veglia…
Tali oscillazioni possono essere sfruttate nell‟analisi di laboratorio a fini diagnostici: per esempio il tasso di cortisolo è
molto più elevato al mattino. In base ai valori registrati nel primo mattino e nel pomeriggio si può valutare la funzionalità
delle ghiandole secernenti cortisolo.
Lo stesso viene fatto con la prolattina ( che è soggetta a secrezione pulsatile durante la giornata e quindi non può essere
misurata una volta sola) nello studio della fertilità femminile, e per l‟ hGh (secreto durante la notte e quindi molto
abbondante al mattino).
Anche in gravidanza alcuni parametri (proteine, fosfatasi alcalina, albumina..) cambiano notevolmente col procedere delle
settimane di gestazione: l‟hCG, ad esempio aumenta molto, ed aumenta già nelle primissime fasi della gestazione, e tale
fenomeno è usato per i test di gravidanza. Ovviamente quindi in gravidanza cambiano gli intervalli di riferimento.Anche
l‟estradiolo aumenta.
Ci possono anche essere variazioni dei parametri dovute alle modalità di prelievo, come ad esempio la postura assunta dal
paziente durante lo stesso (paziente supino,seduto..). Anche la stasi venosa influenza i valori (c‟è differenza se il laccio
emostatico usato per mettere in evidenza le vene non viene rimosso subito ma è rimosso dopo alcuni minuti. Il limite
critico per l‟alterazione sembra essere sei minuti): molti parametri aumentano.
Altre variabili che influenzano i risultati sono anche il digiuno, il digiuno prolungato, l‟esercizio fisico…
Le variabilità si possono ridurre:
1. raccogliendo i campioni sempre alla stessa ora, di solito nel primo mattino (è il motivo per cui di solito i prelievi
vengono effettuati fra le 7.30 e le 10), perché sono note le oscillazioni circadiane in questo intervallo temporale e
si sa che molti parametri sono abbastanza stabili .
2. raccogliendo i campioni con il paziente sempre nelle stesse condizioni (a riposo)
3. raccogliendo i campioni nel paziente seduto (da almeno 30 minuti)
4. standardizzando la tecnica di raccolta (es. tenendo il laccio sempre per stesso tempo)
5. eseguendo il trasporto dei campioni a temperatura controllata e nei tempi corretti
6. processando i campioni in modo standard
Gli ultimi 2 punti sono a carico del personale che si occupa dell‟iter dei campioni
Precisione o riproducibilità
Per precisione o riproducibilità si intende la stima della concordanza tra i risultati indipendenti di misure ottenute in
condizioni definite. Ad esempio possiamo supporre l‟analisi ripetuta più e più volte di uno stesso prelievo di sangue al fine
di determinarne il livello di glucosio: se il laboratorio è preciso i dati ottenuti saranno sempre vicini tra loro (non ci
saranno grandi oscillazioni) . Ciò è importante nel caso di determinate patologie per verificare l‟efficacia delle terapie
(devo essere certo che la variazione del parametro di interesse in esami successivi dipenda dall‟azione del farmaco e non
dalla scarsa precisione del laboratorio).
La precisione viene misurata ripetendo l‟analisi di uno stesso campione. Ottenuti i risultati, si calcolano media e
deviazione standard al fine di ricavarne il coefficiente di variazione percentuale:
CV= (DS/media)x100
Più il coefficiente di variazione è basso, più è ridotta la possibilità di errore.
Bias
Per bias si intende la differenza tra i risultati attesi e il valore vero della quantità misurata. Può essere tradotto in italiano
come “esattezza”. In pratica è la differenza tra i dati ottenuti sperimentalmente e la stima del valore reale.
Tanto più un risultato è preciso ed esatto, tanto migliore è il lavoro del laboratorio che l‟ha ottenuto.
10-03-2009
Precisione ed accuratezza degli esami di laboratorio
In laboratorio si dovrebbe tendere ad avere una performance analitica il più precisa possibile. Secondo il modello del
bersaglio una situazione ideale si crea quando ripetute misurazioni hanno valori simili e sono vicine al valore vero (centro
del bersaglio):
Se la precisione è elevata si è a livello del centro del bersaglio o nelle vicinanze, altrimenti ci si allontana da esso.
Bias: distanza tra il valore vero del dato ed il valore trovato del medesimo:
Il bias è la fonte di inesattezza del dato trovato: se è bassa la precisione è alta e viceversa, anche se il valore della
precisione può sempre variare un po‟ in misurazioni successive.
La precisione è rappresentata da una curva gaussiana in cui più i valori trovati si avvicinano alla media degli stessi e più
sono ripetibili i controlli.
Più la gaussiana è stretta e maggiore è la precisione: nella curva si osserva la dispersione, rappresentata dalle code laterali
destra e sinistra. La precisione dei dati raccolti in laboratorio analisi è importante per la prescrizione di un‟adeguata
terapia successivamente.
Esempi:
 In un paziente diabetico il trattamento con farmaci ipoglicemizzanti viene controllato periodicamente : è
fondamentale che il laboratorio effettui le analisi nella maniera più precisa possibile in modo che un eventuale
cambiamento nei dati sia dovuto all‟efficacia/inefficacia della terapia, ma non ad errori del laboratorio. La
glicemia > 126 mg/dl per due volte consecutive, rilevata a digiuno, è indice di diabete.
 Se nel controllo della colesterolemia la rilevazione risulta un valore di 300 mg/dl in un primo prelievo e poi di
250 mg/dl in un secondo prelievo bisogna discriminare che la differenza sia dovuta all‟effetto della
somministrazione della statina (farmaco che diminuisce la colesterolemia) e non ad errore del laboratorio. La
presenza di una concentrazione < 100-75 mg/dl di LDL dopo somministrazione di statina è un buon risultato,
secondo la linea guida dell‟abbassamento della colesterolemia.
Le linee guida cliniche devono essere le stesse per qualsiasi laboratorio analisi per avere dei risultati precisi ed accurati.
Quindi la precisione riguarda i dati raccolti relativi ai soggetti in analisi (più precisi sono, più omogenei sono e quindi
ripetibili), mentre l‟accuratezza è nel confronto tra i dati raccolti per stabilire se vi è una situazione patologica (evitando di
basarsi su singoli dati decontestualizzati: vedi esempio delle due misurazioni successive della glicemia).
Per includere sia la precisione che l‟adeguatezza si calcola l‟errore totale: sommatoria di imprecisione e bias.
L‟imprecisione è espressa tramite il coefficiente di variazione (CV) in percentuale, secondo la formula:
ETA= Bias + 1.65 * CVA.
ETA= errore totale (riguardo la variabilità analitica); CVA =coefficiente di variazione (analitica); 1.65= fattore statistico
che consente di operare col 95% delle probabilità.
L‟errore totale dipende dalla variabilità biologica del parametro e dalla variabilità analitica, legata al laboratorio (o al
metodo di raccolta del valore dell‟analisi).
Esempio di errore totale in dati d‟analisi:
Valori:
Errore totale (%):
S-calcio
2.4
S-cloro
1.5
Colesterolo
2.0
CEA (antigene carcino-embrionale)
21.8
Ca19,9 (marker del carcinoma pancreatico)
44
Se in un paziente il potassio ha una concentrazione di 6 mmol/l e l‟errore totale è di 3.7% circa significa che la variabilità
del valore oscilla tra 5.8 e 6.2 mmol/l: il soggetto interessato è iperpotassemico perché il valore trovato (6mmol/l) è
nell‟intervallo della variabilità biologica (5.8-6.2 mmol/l).
Linea guida: la variabilità analitica non deve aumentare la variabilità totale oltre quella biologica ossia:
CVA ≤0. 5 CVI
Dove: CVA: coefficiente di variabilità analitica;
CVI: coefficiente di variabilità biologica.
Se la variabilità analitica è inferiore o uguale alla metà di quella biologica quella totale risulta:
CVT ≤ 1.12 CVI,
ossia inferiore di 1.12 volte della variabilità biologica. Es.:se la variabilità biologica di creatinina è uguale a 10 la variabile
analitica dovrebbe essere ≤ 5.
Se la variabilità analitica supera il 10% la variabilità totale s‟impenna notevolmente:
Il CVA / CVI è :
 Ottimale: se ≤ 0,25 CVI;
 Desiderabile se ≤ 0,50 CVI;
 Minimo se ≤ 0,75 CVI.
Nel primo caso la variabilità analitica è pari al 25% della variabilità biologica; nel secondo caso al 50% e nel terzo caso al
75%. Valori superiori a quest‟ultimo rendono le analisi cliniche non accettabili. Questo viene esemplificato come segue:
L‟aumento del rapporto CVA / CVI porta ad un aumento della percentuale della variabilità totale e quindi
dell‟imprecisione: in questo caso le conclusioni che si traggono in clinica devono essere caute e non basate esclusivamente
sui dati di laboratorio, in quanto imprecisi (oppure vanno rifatti).
Un‟analisi di laboratorio, per avere rilevanza clinica, deve presentare un referto con:
1. risultato analitico;
2. unità di misura ( mg/dl; mmol/l);
3. intervallo di riferimento.
Queste caratteristiche servono per migliorare la conoscenza della situazione clinica ed aiutare nelle decisioni terapeutiche.
Es.
risultato:




glucosio-random
glucosio-fasting
cortisolo- h. 9.00
cortisolo- h. 24.00
intervallo di riferimento:
8,0mmol/l
8,0mmol/l
50,00nmol/l
50,00nmol/l
classificazione:
4,0-11,0mmol/l
3,0-6,7mmol/l
140-6,90nmol/l
<100nmol/l
normale
anormale
anormale
normale.
Il glucosio-random ossia con paziente a digiuno o meno (casuale) pari a 8,00mmol/l è considerato normale, mentre lo
stesso valore a digiuno (fasting) rilevato per due volte consecutive è considerato anormale e quindi il paziente è diabetico.
In quest‟ultimo caso è importante verificare la possibilità della familiarità di diabete mellito. Secondo le linee guida un
valore maggiore o uguale a 126mg/dl (= 7mmol/l ) è considerato indice di diabete (8,00mmol/dl = 135mg/dl). Nel primo
caso l‟intervallo di riferimento è più ampio di quello del secondo caso: questo spiega la “normalità” del risultato.
Nel caso del cortisolo il valore di 50,00nmol/l al mattino è considerato anormale ed indica un deficit nell‟assorbimento del
cortisolo perché troppo alto rispetto al valore atteso: l‟assorbimento è maggiore al mattino rispetto alla sera, quando i suoi
livelli ematici sono più elevati perché viene utilizzato in misura minore dalle cellule. Questo perché il minor utilizzo
spezza i ritmi circadiani (sonno/veglia).
L‟intervallo di riferimento sostituisce il vecchio concetto di “valore normale”: risulta difficoltoso definire a priori
“normale” nella valutazione di un valore rilevato. Perciò ci si basa sui soggetti d‟interesse nel fissare un intervallo di
riferimento adeguato (es. l‟intervallo di riferimento per la glicemia non si calcola in una popolazione di soggetti
diabetici!!).
L‟intervallo include il 95% dei valori sotto la curva a campana di una gaussiana, mentre il 2.5% è sopra e l‟altro 2.5 % è
sotto l‟intervallo, considerando una distribuzione normale.
Se si vogliono confrontare due o più risultati dello stesso tipo la probabilità che il valore sia considerato”fuori
dall‟intervallo di riferimento” è data dalla moltiplicazione della probabilità di ciascun risultato di rientrare nell‟intervallo
(95%). La probabilità complessiva aumenta al crescere del numero di analisi:
 1° prelievo: prob. = 0.95 di essere nell‟intervallo;
 2° prelievo: prob. = 0.95 *095 = 0.90;
 …
 20° prelievo: prob. 0.95^ 20 = 0.36, ossia vi sono 2 probabilità su 3 di avere patologia.
Dunque è importante osservare in quale punto dell‟intervallo di classificazione cadono i valori in più analisi, tenendo
conto del 5% escluso, oltre ad una necessaria contestualizzazione dei risultati nell‟ambito clinico del paziente
considerato: se in ripetute analisi un valore d‟interesse scaturisce fuori dall‟intervallo aumenta la probabilità della
presenza di patologia (es. se un soggetto presenta glicemia ed emoglobina glicata fuori dall‟intervallo vi è alta
probabilità di diabete).
Esempi:
o Su 6 soggetti sani si praticano delle misurazioni ripetute per la sideremia:
In questo caso anche il valore medio è dentro i limiti dell‟intervallo, entro il quale sono coperti tutti i valori.
o
Le stesse misurazioni vengono fatte anche per la creatinemia:
Alcuni soggetti hanno dei valori vicino al limite superiore ed altri vicino a quello inferiore: non tutti i valori sono coperti.
In quest‟ultimo caso si è riscontrata una marcata individualità (=forti differenze tra le persone della popolazione di
riferimento) nei risultati della creatinina, che ha un i.i. (indice d’individualità) pari a 0.33 e ciò rende i valori di
riferimento poco confrontabili, mentre la sideremia (i.i.= 1.14) ha valori più facilmente comparabili: un i.i. più elevato
permette di fare confronti validi tra i dati del singolo e quelli della popolazione di riferimento.
Si definisce i.i. come segue:
2
2
CVA + CVI = CVINTRAINDIVIDUALE .
CVG
CVINTERINDIVIDUALE
CVA = variabilità analitica;
CVI = variabilità biologica;
CVG = variabilità totale.
La variabilità intraindividuale è la variazione di un parametro di un singolo individuo nel tempo, mentre la variabilità
interindividuale è la variazione di un parametro tra gli individui della popolazione di riferimento (nello stesso periodo
temporale).
L‟indice d‟individualità è un indice di valutazione usato per confrontare un valore col suo intervallo di riferimento. E‟
stato introdotto perché un singolo valore (CVINTRAINDIVIDUALE) non è sufficiente per verificare se un suo aumento o
una sua diminuzione siano significativi per indicare una patologia, mentre il suo raffronto con l‟intervallo di riferimento
(costruito sulla base di calcoli statistici eseguiti sui dati rilevati dalla popolazione di riferimento,
CVINTERINDIVIDUALE) rende più chiara la sua interpretazione clinica.
Linea guida:
3. se i.i. < 0.6 i valori di riferimento (rilevati) sono di scarsa utilità: si richiede il confronto con valori precedenti;
4. se i.i. ≥1. 4 i valori di riferimento sono ben confrontabili con l‟intervallo di riferimento.
Nell‟analisi di valori seriati (=controlli successivi) di parametri con marcata individualità (i.i. <0.6) si preferisce fare il
confronto con valori precedenti ed il calcolo della RCV (reference change value o differenza critica), piuttosto che
confrontarli con l‟intervallo di riferimento.
Ad esempio:
controllo dei valori di AST per verificare la tossicità della statina somministrata per diminuire il colesterolo:
AST(Unità/l):
Variazione(%):
1° controllo (inizio)
16
2° controllo (dopo 2 mesi)
24
33.3
3° controllo (dopo 4 mesi)
40
66.7
4° controllo (dopo 6 mesi)
54*
35.0
5° controllo (dopo 9 mesi)
69
27.8.
RCV = 33.2%; valore inferiore dell‟intervallo di riferimento=5U/l; valore superiore dell‟intervallo di riferimento = 45U/l.
Se la differenza critica è del 33.2% la tossicità epatica della statina è evidenziabile già al 2° controllo e da quel momento è
preferibile interrompere la terapia. Dalla tabella si evince che il trattamento è stato bloccato solo dopo il 5° controllo
causando danni epatici, che si sarebbero evitati col calcolo della RCV.
DIFFERENZA CRITICA: indica, al livello prescelto di probabilità, la differenza massima tra due valori che può essere
ancora attribuita all‟effetto della variabilità.
La RCV si calcola come segue:
2
2
RCV = • 2Z*(CVA + CVI ), con
Z = fattore probabilistico;
CVA = coefficiente di variabilità analitica;
CVI = coefficiente di variabilità biologica.
Se la probabilità che la differenza critica sia dovuta alla variabilità biologica (e non alla differenza analitica = errore di
laboratorio) è pari a:
 95% → Z = 1.65, se unidirezionale o Z = 1.96, se bidirezionale;
 99% → Z = 2.33, se unidirezionale o Z = 2.58, se bidirezionale.
(Unidirezionale: se si considera solo l‟area superiore o inferiore all‟intervallo nella gaussiana, mentre bidirezionale: se si
considerano sia l‟area superiore che quella inferiore rispetto all‟intervallo considerato).
Esempio: in un controllo del colesterolo sierico:
 se VA = 10%, Z = 2.33 la probabilità che il colesterolo aumenti in due prelievi seriati è del 20%;
 se VA = 1%, Z = 2.33, la probabilità che il colesterolo aumenti in due prelievi successivi è del 98-99%.
Ne consegue che minore è la VA e più i risultati delle analisi sono legati alla variabilità biologica e non ad errori del
laboratorio (variabilità analitica).
Nel caso di un marcatore per osteoporosi: l‟intervallo di riferimento della sua concentrazione è compreso tra 3.0 e 7.4, la
differenza critica è del 40%, perciò: se il valore del marcatore aumenta l‟osteoporosi è in avanzamento;
se il valore del marcatore diminuisce l‟osteoporosi è in regressione.
Quest‟ultimo esempio vuole spiegare che la RCV viene impiegata nella pratica clinica per monitorare il follow up di una
patologia (nel caso del precedente esempio la RCV si calcola sui risultati seriati derivanti da tecniche di imaging di
densiomemtria ossea e di trattamento farmacologico).
La differenza critica viene anche impiegata nelle analisi seriate di marcatori tumorali prima di un intervento chirurgico: si
osservano i risultati del prelievo dopo un certo periodo di tempo per verificare se i marker sono diminuiti e se si può
intervenire chirurgicamente sulla malattia oppure se non è il caso.
Sono,dunque, importanti la precisione e l‟accuratezza di un laboratorio analisi per ottenere risultati delle analisi attendibili.
17/03/09
Riprendiamo quello che abbiamo visto l‟ultima volta ossia il concetto di valori di riferimento, come si usano, le situazioni
in cui i valori di riferimento hanno scarso valore e allora si usa la differenza critica (avevamo fatto l‟esempio dei marcatori
di riassorbimento osseo, ma potremmo farne molti altri, quando vedremo assieme i marcatori tumorali vedremo come
questo riguardi anche i marcatori tumorali).
Un altro concetto che è stato introdotto per aiutare il medico clinico a interpretare i valori di laboratorio è il concetto dei
limiti decisionali. E‟ ovvio che per un medico, dato che l‟obiettivo è prendere decisioni in base ai risultati del laboratorio,
alcune volte abbiamo visto che gli intervalli di riferimento non sono sufficienti allora è stato introdotto il concetto di valori
decisionali o valori soglia.
I valori decisionali sono valori al di sopra o al di sotto dei quali è raccomandabile un certo intervento e comportamento
clinico.
In pratica il livello decisionale è un valore che esprime l‟associazione tra il risultato di iun analisi e una specifica decisione
o azione medica, ad esempio:
 Trattamento / Non trattamento
 Modifica del trattamento
 Necessità di eseguire ulteriori indagini
Mentre finora abbiamo visto che osservando il risultato di un‟analisi in confronto a dei valori di riferimento facevamo dei
ragionamenti, quando affrontiamo il problema dei livelli decisionali dovremmo sempre pensare a dei valori in rapporto ai
quali il medico è costretto ad assumere una decisione immediata e importante.
Prendiamo come esempio per fissare le idee il calcio ionizzato, sapete già dalla fisiologia e dalla fisiopatologia quanto è
importante per la trasmissione dei messaggi a livello muscolare, il cui intervallo di riferimento va da 1,12 a 1,23 mmol/L.
I livelli decisionali non si identificano con l‟intervallo di riferimento ma se andiamo a considerare una diminuzione il
primo livello decisionale per una riduzione del calcio ionizzato si ha a 0,8 mmol/L mentre l‟estremo inferiore
dell‟intervallo di riferimento si ha a 1,12 mmol/L. Quindi tra 1,12 e 0,8 abbiamo una specie di zona grigia in cui
comunque dovremo fare dei ragionamenti ma al di sotto di 0,8 sappiamo da degli studi che sono stati fatti che il paziente
viene esposto ad un pericolo perché vi è un allungamento del tratto Q-T nell‟elettrocardiogramma per cui la funzionalità
del cuore è compromessa.
In questi casi quindi l‟intervento è una strategia terapeutica per portare la concentrazione di calcio più vicina all‟intervallo
di normalità perché sappiamo che se la calcemia scende ulteriormente sotto 0,7 mmol/L abbiamo grande probabilità che
siano delle crisi tetaniche che espongono il paziente a gravi ripercussioni e al di sotto di 0,5 mmol/L c‟è il rischio di un
vero e proprio arresto cardiaco.
Quindi se nella fascia intermedia c‟è un ragionamento clinico da fare sulle cause che posso aver portato a questa riduzione
se invece il risultato è di 0,5 o inferiore a 0,5 mmol/L ci sono poche cose da fare, se il risultato è giusto bisogna intervenire
immediatamente per riequilibrare la situazione.
Lo stesso vale per gli aumenti della concentrazione di calcio: l‟estremo superiore dell‟intervallo di riferimento è 1,23 ma
se si supera il limite di 1,7 sappiamo che il rischio (per ragioni opposte a quelle provocate dalla diminuzione) è di aritmie
(disturbi della ripolarizzazione a livello cardiaco) e disturbi di confusione mentale.
Quindi i livelli di riferimento sono dei valori, dei limiti che hanno un valore pratico di richiamo immediato per il medico
clinico per intervenire di fronte alla diminuzione o all‟aumento di alcuni parametri che posso avere un grave effetto sul
paziente.
Un altro esempio è quello della ciclosporina, un farmaco che viene somministrato ai pazienti che hanno subito un
trapianto d‟organo (cuore, fegato, rene, ecc..) per evitare il rigetto dell‟organo trapiantato. Come ogni farmaco dovrà
raggiungere delle concentrazioni che diano efficienza (ossia che prevengano il rigetto) ma non deve superare delle
concentrazioni che espongono ilo paziente a degli effetti indesiderati tossici. Ecco allora che abbiamo degli intervalli, in
questo caso degli intervalli terapeutici (sono l‟equivalente degli intervalli di riferimento ma si chiamano in altro modo
perché nel soggetto sano che è il riferimento la ciclosporina non esiste, è un prodotto esogeno) sopra certi sappiamo che
c‟è un rischio di alta tossicità e sotto certi livelli sappiamo che c‟è un rischio di rigetto perché la concentrazione di
farmaco è insufficiente a mantenere la regolazione immunologia tale da impedire che si scateni il rigetto dell‟organo.
Anche per un farmaco molto usato nella cura dell‟asma, la teofillina, possiamo descrivere i livelli decisionali. Infatti se i
valori vengono descritti in μg/ml essi dovrebbero esser compresi in livelli inferiori a 10 ma se già con valori sopra 5 si
manifestano sintomi come nausea, crampi, insonnia, cefalea bisogna intervenire diminuendo la dose del farmaco ed
evitando la combinazione con altri farmaci. Se andiamo a valori superiori a 35 la somministrazione di teofillina espone il
paziente a rischi di convulsioni, aritmie e arresto cardiocircolatorio tali che si prende la decisione di ricoverare il paziente
in rianimazione o in terapia intensiva perché questa situazione espone il paziente ad un pericolo di vita. Vedete quindi che
il livello decisionale ci dice che se pur superando la dose di 10 μg/ml ci troviamo tra 13 e 35 μg/ml basterà ridurre il
trattamento per evitare complicazioni mentre se la dose è più elevata e supera i 35 la decisione è una ospedalizzazione
immediata perché è necessario il trattamento con degli altri farmaci che blocchino l‟azione della teofillina e la possibilità
di convulsioni o di poliaritmie, quindi in questo caso dovrò prendere decisioni importanti.
VALORI (μg/ml) di teofillina
SINTOMI
DECISIONE
5-20
Nausea, crampi, insonnia, cefalea
Rallentare la dose di attacco
Evitare combinazioni con efedrina
Tremori
Evitare combinazioni con
βbloccanti per via orale
13-35
Idem+tachicardia sinusale
Ridurre la dose immediatamente
>35
Convulsioni, aritmie, arresto
Ricovero in rianimazione:
cardiocircolatorio
possono mancare sintomi
prodromici
Prendiamo come altro esempio la transaminasi che è un indicatore di necrosi epatica e i cui valori di riferimento vanno da
5 a 40. In questo caso se ci troviamo in valori superiori a 60 è utile studiare altri parametri come l‟elettroforesi (TFE) per
capire cosa sta succedendo del fegato e a cosa è dovuta questa tossicità, ma se ci troviamo a valori superiori a 300
dobbiamo immediatamente studiare l‟eziologia dell‟epatite virale, ossia se in quel paziente è in corso un‟epatite dovuta a
virus A, a virus B, o ad altre tipologie di virus che possono provocare il danno. Al di sotto di 20 possiamo escludere la
patologia epatica.
Quindi la modificazione dei livelli decisionali (che non sono i valori di riferimento ma spesso superano in alto o in basso,
in aumento o in diminuzione di una certa quota questi valori) presuppone un intervento decisionale che può essere la
richiesta di altri esami o una terapia.
Come vengono scelti gli intervalli decisionali? Possono essere:
7. Casuali, ossia avendo avuto esperienza di paziente che hanno avuto certi effetti avversi o una certa sintomatologia
e in cui è stata riscontrata una certa concentrazione di quell‟analita viene assunto che quel livello espone al rischio
8. Empirica (somiglia a quella di prima)
9. Col teorema di Bayes (col calcolo delle probabilità)
10. Coi metodi della ricerca operativa
Ma nella pratica professionale mi troverò ad usare i livelli decisionali?
Certamente vi troverete ad usare i livelli decisionali e per questo vi mostro l‟elenco dei cosiddetti valori di panico o critici
che utilizza il laboratorio di analisi dell‟ospedale di Padova e che vengo comunicati immediatamente ai medici che
lavorano all‟interno dell‟azienda ospedaliera ma anche ai medici del territorio quando avendo eseguito degli esami sui
pazienti che ci inviano riscontriamo dei livelli che richiedono delle decisioni immediate.
Ad esempio possiamo vedere che misurano la sodiemia per valori inferiori ai 110 mmol/L e per valori superiori a 170
mmol/L (di solito l‟intervallo di riferimento è tra 120 mmol/L e 145 mmol/L) i livelli vengono comunicati al medico
perché il rischio per il paziente è o la paralisi bulbare (per valori inferiori a 110 mmol/L) o sintomi cardiovascolari (per
valori superiori a 160 mmol/L).
Un altro esempio è quello della glicemia: se ci troviamo di fronte ad un valore inferiore ad 1 mmol/L abbiamo un rischio
di coma ipoglicemico che determina un rischio di sintomi neurologici maggiori, per valori invece molto alti, al di sopra di
55 mmol/L avremo un rischio di coma iperglicemico detto anche coma osmolare. Quindi questi dati verranno comunicati
al paziente.
Anche per il calcio ionizzato, che abbiamo già visto prima, vengono repertati come valori panico livelli inferiori a 0,8 o
superiori a 1,5.
Sodiemia (valori di riferimento 120-145 mmol/L)
Glucosio
Calcio ionizzato
<110 mmol/L paralisi bulbare
>160 mmol/L sintomi cardiovascolari
<1 mmol/L sintomi neurologici maggiori, coma
>55 mmol/L coma iperosmolare
<0,8 mmol/L tetania
>1,5 mmol/L coma
Fino a poco tempo fa per comunicare questi risultati era disponibile solo il telefono, era necessario telefonare ai medici e
comunicare i risultati; questo era più facile per i medici ospedalieri (nonostante l‟intasamento delle linee) ma era molto più
difficile per i medici del territorio che oltre che in ambulatorio possono essere a far visite a domicilio, ecc…
Capite bene che se questi sono valori panico uno dei requisiti è una comunicazione rapida. Per questo il laboratorio di
analisi di padova si è dotato di un servizio che comunica questi valori via sms su un telefonino che i medici hanno e di cui
sappiamo il numero.
Il messaggio è prodotto da un sistema automatizzato computerizzato che fa due cose: dà un segnale attraverso il
messaggio sms e per chi è all‟interno dell‟azienda ospedaliera dà un segnale anche sul computer tramite cui siamo
collegati con il reparto. Poi il computer si attende una risposta che è un intervento del clinico o dell‟infermiere che va a
visualizzare il valore critico. Tutto questo rimane tracciabile nella memoria del sistema informatico percui sappiamo se sia
a livello ospedaliero che territoriale che è stato visto il messaggio, che è stato interpretato il valore critico (ovviamente non
si entra nello specifico delle azioni intra prese dal clinico perché lì si entra nell‟ambito nel compito del clinico stesso).
Questa cosa è piaciuta molto, è stato accettato un articolo a proposito e non è costa nulla.
Normalmente i risultati che danno adito a valori critici sono circa 16 al giorno quando normalmente esaminiamo circa
2000 pazienti al giorno percui la numerosità non è elevatissimo ma questi 16 pazienti che ricevono la segnalazione di
valore critico sono pazienti esposti a rischi molto alti.
Ovviamente prima dell‟informatizzazione queste procedure dovevano essere fatte manualmente, il medico doveva
accorgersi del risultato anomalo, prendere il telefono e cominciare a telefonare, tutte procedure che portare a spendere del
tempo (e il tempo è denaro). Per questo negli Stati Uniti di fronte ad un calo dei soldi disponibili per le spese sanitarie è
stata fatta un‟indagine per vedere quanto costava ad un laboratorio clinico questa procedura e si riscontrava un rapporto
costo/beneficio basso per cui nell‟intervento ad un congresso al CDC di Atlanta è stato proposto di eliminare questa
procedura. Ma subito dopo nello stesso congresso vi fu una relazione di un collega americano che descriveva un caso
anedottico tipico. Una signora che assume il warfarin come terapia anticoagulativa (vi è un gran numero di pazienti che
assume questi farmaci e che ha bisogno di un monitoraggio della capacità di coagulazione tramite il test sul tempo di
protrombina) va a fare il test venerdì pomeriggio, il tecnico (unico presente nel laboratorio) esegue bene il test ed esso dà
un risultato al di sopra del valore panico ma il tecnico non si accorge o ha troppe cose da fare e dimentica di chiamare. Il
lunedì mattina arriva il supervisor (il primario o comunque il responsabile) che riguarda tutti i risultati a partire dal venerdì
pomeriggio, del sabato e domenica per rilasciarli in maniera definitivo e si accorge del risultato. Chiama a casa e gli
risponde la figlia che gli dice che la madre è in ospedale perché ha avuto un sanguinamento, una melena, e le hanno fatto
due sacche di sangue; sta meglio ma starà ancora due giorni in ospedale. Al di là dei danni per il paziente se pensiamo
semplicemente a quanto costa per il sistema sanitario l‟ospedalizzazione capiamo che anche se si tratta di sedici casi al
giorni è fondamentale che vengano comunicati oltre al fatto che è giusto che il medico agisca per il meglio del paziente.
Anche negli Stati Uniti questo ha chiuso la questione: i valori di rischio vanno comunicati e vanno comunicati anche
usando le tecnologie.
Entriamo ora nell‟ultima parte generale del mio insegnamento prima di entrare nell‟applicazione specifica.
Andiamo a vedere come si valuta la capacità diagnostica, la performance diagnostica di un dato di laboratorio. Parleremo
quindi di sensibilità e specificità clinica e dell‟efficienza clinica di un dato di laboratorio.
Nella vostra vita professionale non dimenticatevi che è stata descritta un storia naturale dei nuovi test diagnostici. Se voi
andate su un giornale (NEJM, Cell, Journal of Gastroenterology) in ogni numero troverete un nuovo test che magari non
sembra risolva tutto ma comunque sembra essere molto rilevante nella diagnosi di una patologia importante e
normalmente questo entusiasmo è legato al fatto che i ricercatori non è che barino ma si mettono nelle condizioni di
studiare quel test studiando i veri malati e i veri sani. Quando poi il test viene applicato giorno per giorno nella clinica c‟è
una fase in cui l‟entusiasmo diminuisce vistosamente perché trasferendo i risultati della ricerca nella pratica clinica ci si
trova a fare i conti con i falsi positivi e i falsi negativi e quindi vi è una diminuzione dell‟efficienza che era stata descritta
nei lavori iniziali.
Poi come in tutti i casi il bilanciamento tra l‟entusiasmo iniziale e la fisiologica depressione per aver visto le cose non
sono poi tutte come le avevano descritte porta ad un giudizio più meditato e a rendersi conto della reale utilità clinica di
quel marcatore.
Come si calcola l‟efficienza, il valore predittivo di qualsiasi test (noi ne parliamo per i test di laboratorio ma si può
applicare a qualsiasi pratica clinica)?
Prendiamo che uno di voi prenda la tesi e il tutore gli chieda di studiare un biomarcatore che sembra molto utile per
identificare una certa malattia. Che numeri dobbiamo studiare per determinare l‟efficienza diagnostica di questo
marcatore? Decidiamo che dobbiamo studiare 100000 soggetti, di cui 90000 sani (assenti da quel tipo di malattia) e 10000
effettivamente portatori di quella malattia.
Numero test positivi
9500 (VP)
4500 (FP)
14000
Soggetti malati
Soggetti sani
Totali
Numero test negativi
500 (FN)
85500 (VN)
86000
Totale
10000
90000
100000
Il test va molto bene perché vediamo che su 10000 malati su 9500 il test è giusto (positivo) che è quello che vorremo e ci
saranno solo 500 falsi negativi.
Questo ci porterà a dire che la sensibilità del test è del 95% perché la sensibilità si calcola come:
SENSIBILITA‟ =
v
e
r
i
p
o
s
i
t
i
v
i 9
5
0
0


0
,
9
5
t
o
t
a
l
e
m
a
l
a
t
i1
0
0
0
0
Quindi un primo concetto molto semplice è quello di sensibilità diagnostica che è dato dal rapporto tra i veri positivi ed il
totale dei malati.
Ma non è sufficiente studiare solo la sensibilità, ho anche un altro indice della performance diagnostica: studio la
specificità andando a vedere in quanti soggetti sani il test risulta effettivamente negativo. Vedrò che in 85500 soggetti sani
il test è effettivamente negativo ma nei restanti 4500 soggetti sani il test è positivo, saranno falsi positivi. La specificità del
test (rapporto tra veri negativi e il totale dei sani ) sarà del 95%. Anche questo è un risultato molto buono.
SPECIFICITA‟=
v
e
r
i
n
e
g
a
t
i
v
i 8
5
5
0
0


0
,
9
5
t
o
t
a
l
e
s
a
n
i 9
0
0
0
0
Similarmente alla sensibilità la specificità è dato dal rapporto tra il numero dei veri negativi e il totale dei sani.
Ma per il medico che deve usare i risultati per la clinica questo non basta, è necessario conoscere il valore predittivo di un
test ossia se voi avete in mente che un paziente possa avere una certa malattia il test se negativo dovrebbe escludere quella
possibilità, se positivo dovrebbe rinforzare l‟ipotesi.
Nel caso di questo test, che ha sensibilità di 95% e specificità di 95%, qual è il valore predittivo negativo ossia la forza
con cui un risultato negativo in questo test permette di escludere la malattia?
Devo fare la divisione tra i veri negativi (85500) e il totale dei test negativi (86000) e percentualizziamo il risultato
moltiplicandolo per 100.
VPN (Valore Predittivo Negativo) =
v
e
r
i
n
e
g
a
t
i
v
i 8
5
5
0
0
 1
0
0

9
9
,
4
%
t
o
t
a
l
e
t
e
s
t
n
e
g
a
t
i
v
i8
6
0
0
0
Vediamo che il valore predittivo negativo del test è molto alto, del 99,4%, per cui un risultato negativo del test nel 99,4%
dei casi ci permette di escludere la malattia.
Dal punto di vista invece della previsione della malattia, ossia della predizione positiva della malattia cosa ci dice questo
test?
Facciamo il rapporto tra il numero di veri positivi sul numero dei positivi totali (compresi anche i 4500 individui sani che
sono risultati positivi al test. In questo caso il numero è di 67,9 ossia quasi 68%.
VPP (Valore Predittivo Positivo) =
v
e
r
i
p
o
s
i
t
i
v
i 9
5
0
0
 1
0
0

6
7
,
9
%
t
o
t
a
l
e
t
e
s
t
p
o
s
i
t
i
v
i1
4
0
0
0
Questo valore predittivo positivo è la forza con cui un risultato positivo mi permette di predire la malattia.
Come mai questo valore è così basso? Dipende dal fatto che il numero dei soggetti sani rispetto ai malati è molto diverso
quindi peserà di più.
Oltre a questi 4 parametri se ne usa anche un quinto, l‟efficienza diagnostica, che risulta sommando i veri positivi e i veri
negativi (le cose buone che ci dà il test) e dividendo per il totale della popolazione studiata.
EFFICIENZA DIAGNOSTICA=
v
e
r
i
p
o
s
i
t
i
v
i

v
e
r
i
n
e
g
a
t
i
v
i
9
5
0
0

8
5
5
0
0
9
5
0
0
0

1
0
0

1
0
0

9
5
%
t
o
t
a
l
e
s
o
g
g
e
t
t
i
s
t
u
d
i
a
t
i 1
0
0
0
0
01
0
0
0
0
0
Ma anche se questo valore è alto il valore predittivo positivo è basso perché bisogna considerare la prevalenza della
malattia.
Prevalenza Malattia
0,1%
1%
2%
5%
50%
Valore Predittivo Positivo
1,9%
16,1%
27,9%
50%
95%
Possiamo vedere infatti che se andiamo ad applicare un test che ha sensibilità del 95% e specificità del 95% (come il
nostro) esso funziona con predittività del 95% solo se la prevalenza è del 50%, che è una prevalenza assurda (neanche
l‟influenza nel periodo massimo).
Se la prevalenza della malattia è del 5% il valore predittivo dello stesso test scende al 50%.
Vediamo quindi che il modello di studio con cui è stato validato quel test è affetto da uno spectrum bias in quanto non
tiene conto dell‟effettiva prevalenza della patologia che noi andiamo a studiare.
Se invece il test ha valori di specificità e sensibilità del 99% avremo con una prevalenza del 50% un valore predittivo
positivo del 99% e con una prevalenza del 5% avremo un valore predittivo di 83,9%.
Prevalenza Malattia
Valore Predittivo Positivo
0,1%
9%
1%
50%
2%
66,9%
5%
83,9%
50%
99%
Se la prevalenza scende ancora abbiamo comunque dei dati validi ma che non sono ottimale rispetto alle aspettative date
dal protocollo di studio. Quindi la prevalenza incide molto sul valore concreto pratico del test di laboratorio nella pratica
clinica.
Come si traduce questo nella pratica clinica? Vedremo che una stesso test per l‟infarto del miocardio può avere valori
predittivi diversi se è studiato dal punto di vista del medico del pronto soccorso rispetto al cardiologo. Questo perché al
medico del pronto soccorso i pazienti arrivano non selezionati mentre al cardiologo arrivano pazienti già selezionati.
Avviene quindi che quella zona grigia che non si riesce bene a classificare (il paziente che forse è sano ma forse è malato)
è molto più ampia per il medico del pronto soccorso che non per il cardiologo. Quindi lo stesso test avrà valore predittivo
positivo molto meno forte per il medico del pronto soccorso che non per il cardiologo.
Concettualizzando, se abbiamo una malattia con una prevalenza dello 0,2% (significa una persona ogni 500 che non è una
malattia rara ma ha comunque una prevalenza abbastanza interessante) e sottoponiamo 10000 persone al test troveremo
che 20 persone hanno effettivamente la malattia e di queste 17 saranno positive al test mentre 3 risulteranno false
negative; abbiamo quindi una sensibilità dell‟85%.
Dall‟altra parte, delle 9980 persone sane 499 risulteranno positive al test, quindi la specificità sarà del 95%. Quindi di
10000 persone testate 516 saranno richiamate in quanto positive ma solo 17 hanno effettivamente la malattia. Il valore
predittivo positivo è del 3%. Quindi siamo partiti dicendo che la sensibilità è del 85% e che la specificità è del 95% ma dal
punto di vista della clinica il valore predittivo positivo è solo attorno a 3% perché la prevalenza è del 0,2%.
Come posso migliorare la predittività di questo test? Se la malattia in questione è la malattia di rigor (significa rigore
intellettuale) e prima di fare il test visito la paziente e rilevo sintomi che indirizzano verso la diagnosi di questa malattia
(che indirizzano nel 50% dei casi) e sottopongo al test solo i pazienti che hanno sintomi della malattia (saranno circa 5000
pazienti su 10000 persone visitate) avrò che di questi 5000 pazienti 4250 risultano positive al test mentre degli altri 5000
che non hanno sintomi solo 250 risultano positive al test. Quindi non generalizzando la richiesta ma andando ad eseguire il
test solo nelle persone che hanno dei sintomi io riduco le persone sane sottoposte al test quindi riduco il numero di falsi
positivi e la sensibilità del test sale al 94% perché ho selezionato in base ai sintomi la popolazione che merita di essere
sottoposta al test e quindi il test funziona molto meglio.
Il concetto fondamentale è quindi che aumentando la prevalenza della malattia selezionando dalla popolazione generale
attraverso la clinica quei soggetti che sono più a rischio di avere la malattia io aumento anche la forza della predittività del
test.
Un altro concetto che vorrei illustravi è quello del rapporto di verosimiglianza (detto dalla letteratura anglosassone
likelihood ratio) che è un indicatore che tenta di mettere assieme la sensibilità e la specificità, in modo da avere un criterio
unificante.
Il rapporto di verosimiglianza è infatti il rapporto tra i veri positivi e i falsi positivi.
Più correttamente esiste un likelihood ratio positivo che è dato dal rapporto tra veri positivi e i falsi positivi ossia dal
rapporto tra sensibilità e 1-specificità, che è un indice della probabilità che un risultato positivo del test venga ritrovato in
un paziente con la patologia considerata in rapporto alla probabilità che venga ritrovato un risultato positivo in un paziente
senza la patologia considerata. E‟ cioè l‟uso di quel test per confermare la diagnosi di fronte ad un risultato positivo.
LR test positivo =
v
e
r
i
p
o
s
i
t
i
v
i
()
V
Ps
e
n
s
i
b
i
l
i
t
à

f
a
l
s
i
p
o
s
i
t
i
v
i
(
F
P
)1

s
p
e
c
i
f
i
c
i
t
à
Ed esiste un rapporto di verosimiglianza negativo che è dato dai falsi negativi versus i veri positivi ossia dal rapporto fra
1-sensibilità e specificità. E‟ un indice della probabilità che un risultato negativo del test venga ritrovato in un paziente
con la malattia rispetto alla probabilità che un risultato negativo venga ritrovato in un paziente senza la malattia.
LR test negativo =
f
a
l
s
i
n
e
g
a
t
i
v
i
(
F
N
)1

s
e
n
s
i
b
i
l
i
t
à

v
e
r
i
n
e
g
a
t
i
v
i
(
V
N
) s
p
e
c
i
f
i
c
i
t
à
Come si usa questo rapporto di verosimiglianza? Nella letteratura ma anche nella pratica si usa il nomogramma di Fagan.
Di fronte abbiamo un paziente che in base a storia clinica, esame obiettivo ecc… ha una certa probabilità di avere la
malattia (prima del test) esempio 30% e facciamo un test; dopo il test il paziente avrà una probabilità diversa, modificata
di avere la malattia e di quanto la probabilità viene modificata dipende dal rapporto di verosimiglianza (se l‟ LR positivo è
di 0,5-1 il test sarà inutile perché non mi cambia la probabilità di avere la malattia).
Possiamo fare un esempio in cui il test ci permette di variare la probabilità post-test: il peptide natriuretico (BNP misurato
in pg/ml) viene studiato per soggetti che potrebbero avere uno scompenso cardiaco. Il paziente presenta patologia
dispnoica ma il medico non riesce a capire se questo è dovuto a patologia del cuore o a una patologia del polmone. Se
l‟LR è di un certo tipo ci porta a dire che la probabilità post-test di avere la malattia è del 90%.
Anche l‟ LR negativo viene utilizzato in caso di risultato negativo del test per negativizzare la possibilità che la malattia
sia presente.
Primo esempio: test inutile
Secondo esempio: test utile
Come viene interpretato il rapporto di verosimiglianza? Il rapporto predittivo migliore si ha se supera i 10 o è inferiore a
0,1: se supera i 10 l‟ LR è molto elevato mentre se è inferiore a 0,1 è l‟ LR negativo che è molto elevato, in ogni caso
l‟impatto clinico è molto importante.
Funziona bene anche se il rapporto è tra 5 e 10 o tra 0,1 e 0,2 e viceversa se LR positivo è tra 1e 2 e l‟LR negativo è 0,5 e
1 il test sarà assolutamente irrilevante.
RAPPORTO DI VEROSIMIGLIANZA
>10 (porta a confermare)
<0,1 (porta a negativizzare)
5-10
0,1-0,2
2-5
0,5-0,2
1-2
0,5-1
Modifiche consistenti: impatto clinico importante
Modifiche moderate: impatto clinico probabile
Modifiche modeste: impatto clinico possibile
Modifiche trascurabili: impatto clinico irrilevante
Che vantaggi ha il rapporto di verosimiglianza rispetto a specificità e sensibilità?
 Rimane stabile anche se si modifica la prevalenza della malattia
 E‟ utile clinicamente anche se sensibilità e specificità sono sotto i valori ideali
 Può essere usato nella valutazione quantitativa del rischio (della probabilità) che vi sia la malattia dopo aver
ottenuto i risultati del test, ossia mi modifica in maniera quantitativa la probabilità che io valutavo che il
paziente avesse di avere la malattia dopo averlo visitato ma prima di avere il test (la definizione di questa
“probabilità pretest” è appannaggio della pratica clinica, del fiuto del clinico)
Questo concetto di come si modifichi la probabilità di malattia prima e dopo il test si riconduce al problema di Bayes e in
un bellissimo lavoro si dice che i medici clinici sono dei bayesiani naturali perché voi nel vostro lavoro peserete con la
vostra intelligenza e la vostra capacità i risultati che provengono da varie fonti di informazione per trarne il criterio più
utile per identificare la patologia del paziente.
In questa lezione abbiamo visto questi concetti (sensibilità, specificità, valore predittivo positivo e negativo) applicati ai
test di laboratorio ma questi possono essere applicati ad altre pratiche, anche la misurazione della pressione sanguigna ha
una propria sensibilità e specificità e anche raccogliere l‟anamnesi (magari varia anche a seconda di chi la raccoglie) ha
una sua sensibilità e specificità, lo stesso vale per l‟elettrocardiogramma (ad esempio nel 30% dei pazienti con infarto
l‟elettrocardiogramma è negativo). Quindi per tutte le pratiche della medicina bisogna usare questo concetto.
Per concludere la lezione, posso privilegiare la sensibilità (ossia ordino un test volendo sapere soprattutto che ha elevata
sensibilità) quando:
 La malattia è grave e non si può correre il rischio di non diagnosticarla
 La malattia è grave ed è curabile
 I falsi positivi non comportano gravi danni economici e psicologici per il paziente
Un esempio può essere il feocromocitoma che è un tumore delle surrenali che determina sbalzi pressorii molto elevati per
cui se non viene diagnosticato dato che la pressione cardiaca ha degli spikes molto elevati porta danni a cuore, rene e nel
tempo anche al cervello. Ma se viene identificato e localizzato dato che è un tumore che non dà metastasi basta la
resezione chirurgica per risolvere completamente la malattia. Capite allora che vorrò un test a sensibilità molto elevata che
non ci faccia perdere nessuno dei potenziali pazienti affetti da malattia.
Vorrò invece privilegiare la specificità quando:
 La malattia è grave ma non è del tutto curabile
 L‟esclusione della malattia ha un valore psicologico e sociale
 I falsi positivi comportano gravi danni economici e psicologici per il paziente
Un esempio può essere la sclerosi multipla che con le conoscenze attuali non è curabile.
Nella maggioranza dei casi invece vi troverete a bilanciare specificità e sensibilità utilizzando l‟efficienza o il valore
predittivo positivo o negativo perché:
 La malattia è grave ma non è del tutto curabile
 I falsi positivi e i falsi negativi sono parimenti gravi e dannosi (ossia vi troverete con un test di laboratorio che vi
porta a non curare dei pazienti che in realtà andrebbero curati o che vi porta a curare dei pazienti che in realtà non
avrebbero bisogno della cura e che così verranno posti in condizioni psicologiche negative)
Un esempio di questo può essere l‟uso del PSA per la diagnosi di tumore della prostata che ha dei falsi positivi e dei falsi
negativi percui lo screening solo col PSA può esporre al rischio di falsi negativi (ossia soggetti che vedono il PSA normale
ma in realtà hanno il carcinoma e che quindi hanno una falsa rassicurazione, tranquilizzazione) e di falsi positivi ( soggetti
che hanno aumenti anche modesti di PSA e che pensano di avere un tumore della prostata mentre magari si tratta ad
esempio di una banale ipertrofia legata all‟età). E‟ chiaro come in questi contesti il test deve essere parimenti sensibile e
specifico.
Con questo si conclude la parte introduttiva in cui mi ero proposto di dare degli strumenti per interpretare sia dal punto di
vista della variabilità che da quello della capacità diagnostica gli esami di laboratorio.
24/03/09
Prof. Plebani
PATOLOGIE CARDIACHE
Si tratta di una della problematiche cui la diagnostica biochimica ha dato un contributo rilevante; ha, infatti, dato una
svolta sostanziale in particolare per quanto riguarda l'Infarto Miocardico Acuto (IMA), ma non solo.
L'attenzione si focalizza su queste patologie poichè Cardiopatia Ischemica e Malattie Cardiovascolari -non si tratta della
stessa cosa, ma le problematiche diagnostiche d'identificazione e di stratificazione del rischio sono talvolta similicostituiscono insieme la principale causa di morte nei Paesi Industrializzati (42.5% dei decessi in Italia); ma sono anche
una delle maggiori cause di malpractice cui viene accusata la Sanità; infatti spesso un paziente con dolore toracico non
viene riconosciuto, lo si manda a casa, dopo qualche giorno si ripresenta in Pronto Soccorso e muore per IMA.
Questo perchè il repertorio diagnostico finora usato s'è manifestato inadeguato per riconoscere una malattia che necessita
di tempestività e nella diagnosi e nella terapia.
Stato dell'arte
Negli USA si presentano 4 milioni di soggetti all'anno in Pronto Soccorso dichiarando dolore toracico: è questo il tipico
dolore suggestivo di una patologia cardiaca.
Qui a Pd copre il 10% dei sintomi con cui i pazienti si presentano in Pronto Soccorso.
Tuttavia nel 50% dei casi l'ECG -è la tecnica strumentale d'elezione- non è diagnostico o risulta addirittura essere negativo
e nell'8% dei casi i soggetti con IMA non vengono correttamente classificati. Questi rappresentano il 20% delle cause di
litigiosità -o meglio il 20% delle denunce- per malpractice.
Con Malpracice si intende un'attività medica non sufficientemente accurata; il paziente non è stato trattato secondo lo stato
dell'arte clinico noto in quel dato momento.
Storia della Diagnosi
Fino al 2000 ci si è attenuti a dei criteri diagnostici emanati nel 1975 dall'OMS e che prevedono:
 dolore cardiaco (toracico) di durata maggiore ai 30 min.
 modifiche dell'ECG tipiche e inequivocabili
 aumento o riduzione dei marcatori biochimici, a quel tempo enzimi sierici, indicatori di danno cardiaco
La strategia diagnostica prevede la positività ad almeno 2 dei 3 criteri sopracitati.
Tali criteri sono stati modificati nel 2000 prima e nel 2007 poi.
Il repertorio strumentale che un medico di un qualsiasi Pronto Soccorso ha sicuramente a disposizione è l'ECG, che però,
come abbiamo visto, può non essere significativo o addirittura risultare normale come nel caso di un paziente con blocco
di branca.
L'ECG ,infatti, presenta una sensibilità del 55% e una specificità dell'85%; il che significa che se l'ECG ha delle
modificazioni tipiche, la diagnosi di infarto è sicura; ma se l'ECG non le presenta non si può escludere che quel paziente
abbia un infarto.
Una sensibilità del 55% mi sta ad indicare che ho una probabilità di ½ di sbagliare diagnosi.
Le PATOLOGIE CARDIOVASCOLARI in realtà sono una famiglia di patologie molto complesse che passano attraverso
una varietà di situazioni di cui la patologia coronarica è lo stato principale: può essere asintomatica o sintomatica, e in
questo caso può tradursi come angina stabile o angina instabile.. Ci sono, cioè, una serie di gradazioni che interessano
tutto l'apparato cardiovascolare e la cui gravità e stratificazione del rischio sono sostanzialmente diverse. E' importante
perciò che nell'ambito di queste differenti patologie ogni paziente sia riconosciuto per capire quale sia la sua probabilità di
rischio di sviluppare una patologia più grave, come ad esempio un Infarto. Oggigiorno non è più sufficiente definire un
paziente con un angina, ma bisogna caratterizzarlo e, sulla base del tipo di angina, si devono introdurre dei trattamenti
terapeutici adeguati.
L'infarto del miocardio è evidenziabile con tecniche diverse che sono:
 ANATOMIA PATOLOGICA: va a vedere la morte del miocita. È una diagnosi definitiva e inequivocabile ma
purtroppo tardiva
 BIOCHIMICA: in seguito alla morte del miocita vengono rilasciate in circolo particolari sostanze che possono
essere rilevate e misurate.
(Il processo che sta all'origine dell'infarto è la formazione di un trombo che occlude un vaso; ciò crea una necrosi in un
area del cuore con rilascio di sostanze che,( se ricercate, ci danno modo di capire cosa sia successo al paziente.)
 ECG: manifesta segni tipici nelle onde: ischemia ST- T, perdita di funzionalità Q
 IMAGING: evidenzia una riduzione/perdita di perfusione tissutale
 ECOGRAFIA e SCINTIGRAFIA: fanno vedere la quantità di tessuto che è andata incontro a perdita.
Domanda: Non si può fare una biopsia?
Si può fare, ma è invasiva e piuttosto si compie in caso di una patologia cronica o infiammatoria, tipo la Miocardite, dove
i segni clinici sono magari sfumati e la biopsia consente di evidenziare esattamente la situazione del tessuto. Ma a livello
di una patologia acuta come può essere un infarto fare una biopsia è tardivo: con le nuove terapie per trattare gli infarti, la
probabilità di sopravvivenza del paziente e di una sua conseguente buona qualità di vita è tanto maggiore quanto più
rapido è il trattamento terapeutico. Se la diagnosi è fatta entro 4-6 h dall'inizio del dolore la probabilità di sopravvivenza e
recupero è molto elevata; al contrario, più passa il tempo, maggiore è la quantità di tessuto cardiaco che va incontro a
necrosi e maggiore sarà la probabilità del paziente di evolvere in una patologia più grave.
Si tratta, dunque, di una diagnosi d'urgenza: le linee guida dichiarano debba essere svolta entro max 1h dalla comparsa del
dolore toracico ( per questo sono sorte soprattutto in America delle unità specialistiche, le Chest Pain Units, in cui il
paziente attraverso un'anamnesi che può essere realizzata direttamente nell'ambulanza, anziché passare per il Pronto
Soccorso per nuove indagini, è già portato in Unità di Terapia Intensiva Cardiologica, dove è immediatamente sottoposto
ad angioplastica o a trombolisi farmacologica).
ECG e biochimica sono le tecniche diagnostiche maggiormente applicabili in situazioni d'urgenza.
-Per 'sindrome coronarica acuta' si intende il complesso di manifestazioni imputabili generalmente alla rottura di una
placca aterosclerotica a livello delle coronarie, con conseguente trombosi vascolare e riduzione del flusso sanguigno
miocardico. L‟entità dell‟occlusione determina la gravità della manifestazione; in caso di occlusione completa si
svilupperà necrosi del tessuto miocardico a valle dell'ostruzione. Nel 2000 i criteri dell'OMS sono stati riveduti ad opera delle Società Europea ed Americana di Cardiologia e dei
Biochimici Clinici. Ciò che è cambiato è principalmente l'approccio al problema: la diagnosi non è più solo clinica, ma
anche biochimica; ci sono degli indicatori biochimici consigliati per la diagnosi di infarto, in particolare le Troponine.
Benchè l'ECG sia molto suggestivo di infarto del miocardio qualora si osservi un aumento del tratto ST, questa variazione
risulta essere presente solo nel 50% dei casi e pertanto in queste situazioni dubbie è indispensabile il ruolo del laboratorio.
A Padova c'è un laboratorio d'urgenza operativo 24h su 24, sito sopra il Pronto Soccorso e al quale è collegato tramite
posta pneumatica e rete informatica. Il paziente che entra in PS con sospetto di Infarto Miocardico Acuto è sottoposto dal
clinico a ECG e prelievo (non si inizia la terapia trombolitica a priori.. è dannosa in soggetti sani!). Al momento
dell'accettazione attraverso il sistema informatico vengono preparate le etichette con codice a barre da applicare alla
provetta del prelievo. Tramite posta pneumatica raggiunge il laboratorio d'urgenza in cui sono svolte le analisi e entro 30
min viene fornita la risposta da video. Il medico del PS può così vedere gli esiti degli esami richiesti.
Nel tempo si è assistito a una progressiva variazione dei test biochimici proposti: dal 1975 in cui si ricercavano enzimi
muscolari-cardiaci (CPK-creatinfosfochinasi-, LDH-lattico deidrogenasi-, AST -aspartato aminotransferasi-), si è passati a
indicatori sempre maggiore sensibilità e specificità adatti a una diagnosi d'urgenza. Infatti CPK, LDH.. erano poco
specifici da un punto di vista tissutale -non sono presenti solo nel miocardio, ma anche nella muscolatura scheletrica- e il
marker che variava più rapidamente, il CPK, prevedeva sì un aumento di 5 volte nel siero, ma dopo 10 ore dall'insorgenza
del dolore! Per cui si dimostravano clinicamente non rilevanti: allo stato dell'arte attuale chiedere una CPK è una pratica
scorretta e obsoleta; è, infatti, inadeguato per prendere una decisione sulla terapia da seguire.
Oggigiorno la strategia prevede l'utilizzo di 2 marcatori: uno per una diagnosi precoce entro 6 h dall'inizio del dolore; uno
per una diagnosi definitiva con un alta specificità che mi dica se il paziente abbia avuto un infarto.
Il marcatore precoce è la MIOGLOBINA: proteina ubiquitaria che lega un gruppo EME, la quale, essendo di piccole
dimensioni e trovandosi nel citoplasma, in caso di danno esce subito. E' inoltre presente nel sangue normalmente in una
concentrazione pari a 70 ng/mL.
In realtà al momento della mission To, tempo di arrivo in PS, sono già trascorse da 1 a 3 h dall'inizio del dolore toracico.
Bisogna infatti considerare problemi di tipo logistico-organizzativo per raggiungere il PS, ma anche le differenti soglie del
dolore -un paziente diabetico presenta una soglia molto alta e attenderà delle ore prima di decidere di rivolgersi al medico.
A To =3h la Mb presenta un valore di 450-480 ng/mL che raggiungerà un picco in 12h per poi calare progressivamente. É
inoltre possibile evidenziare un secondo picco: dal 3al 5% dei pazienti con infarto vanno incontro a un reinfarto che può
verificarsi entro 24-48h, e la Mb ne è un utile indicatore proprio in conseguenza al suo rapido ritorno a una concentrazione
normale in seguito al primo picco. É, cioè, proprio la cinetica di dismissione della Mb (=tempistica di rilascio cui segue il
picco massimo prima, e metabolizzazione e dismissione poi) a renderla utile ai fini diagnostici. In realtà è solo dagli anni
'90 che si hanno dei metodi che consentono di dosare la Mb in tempi rapidi -15min-.
Ma essendo la Mb ubiquitaria la sua presenza può conseguire a varie patologie, come insufficienza renale o poliomiosite.
Per cui se in PS si presenta un paziente politraumatizzato che lamenta un dolore toracico, la Mb sarà sicuramente alta ma
non necessariamente in conseguenza a un danno cardiaco: la patologia muscolare concomitante ne innalza il livello a
prescindere.
Per ovviare al problema si associa alla Mb una proteina assolutamente cardio-specifica: la TROPONINA. Il complesso
delle Troponine -Tn- è coinvolto nel meccanismo contrattile e localizzato sia nelle fibre muscolari scheletriche che
cardiache. È costituito da 3 Troponine: T, I, C; la TnT e la TnI presentano isoforme miocardio-specifiche che consentono
l'identificazione della provenienza.
Tra le caratteristiche biochimiche della Tn, oltre al fatto che si tratti di una proteina miofibrillare a basso PM e funzioni
regolatorie, è importante ricordarne 2 in particolare che la rendono il marker di elezione:
11. è presente solo per il 3% del totale in forma libera sciolta nel citosol; il restante 97% è strutturale: il che indica che
se si riscontra in circolo il danno cellulare deve essere profondo.
12. Tn cardiaca varia per il 40% della composizione aa e presenta 30 ulteriori residui all'N terminale rispetto alla Tn
scheletrica. Le isoforme differiscono a tal punto che è possibile realizzare e utilizzare Ab specifici che permettano
di evidenziare solo ed esclusivamente la Tn cardiaca.
Per cui la Tn: è assente dal circolo dei soggetti sani ( diversamente dalla Mb, che c'è in conseguenza della normale
permeabilità di membrana) e ha una cinetica di rilascio molto lenta, ciò significa che rimane in circolo per un lunghissimo
periodo di tempo. Ciò permette il riconoscimento dei veri positivi anche dopo ore dall'insorgenza del dolore cardiaco e
consente di fare diagnosi di infarto anche in pazienti che si presentano tardivamente -tipo il vecchino diabetico-.
Con dolore toracico ci si riferisce a un dolore che va dallo sterno alla pelvi (spesso la sensazione di mal di stomaco, di non
aver digerito è un sintomo di infarto), e per il clinico è sempre opportuno richiedere la Tn in caso di ECG silente.
Anche nel caso del politraumatizzato si richiede la Tn per discriminare.
Pertanto la strategia migliore è associare i 2 marcatori: ottengo il 100% della specificità -non perdo nemmeno un pazientee l'85% della sensibilità. La combinazione tra Mb e Tn è la migliore per quanto riguarda un marker precoce e uno
specifico ed è il protocollo diagnostico attuato in tutto il mondo per fare diagnosi e stratificazione del rischio dal punto di
vista biochimico (è utilizzabile anche CK-MB che è simile alla Mb).
Al giorno d'oggi in strategia diagnostica nessuno prende una decisione sulla base di un solo prelievo: se risultano ECG -,
Mb + e Tn -, si aspettano 4 h e si compie un secondo prelievo per vedere se c'è stato un aumento della Tn.
Con i test tradizionali si rilevava solo l'infarto massivo, invece i nuovi criteri hanno permesso di evidenziare infarti non
tradizionali con ECG non identificante o necrosi molto piccole, grazie all'impatto numerico fornito soprattutto dalle
proteine strutturali (una variazione anche minima è subito notata in un soggetto in cui non dovrebbe esserci: se di solito è
0 e vedo 2 mi insospettisco..).
In uno studio su come varia la mortalità a 42 giorni a seconda del livelli di Tn circolante, si è messo in risalto un rapporto
quasi lineare: maggiore è la TnI in circolo, maggiore è il danno e maggiore è la probabilità di sviluppare eventi cardiaci
gravi in caso di inadeguato trattamento. L'elevata specificità e sensibilità è dovuta proprio al fatto che nei soggetti sani Tn
è 0: se c'è, allora c'è un danno!
La presenza di Tn non ha solo significato diagnostico, ma anche prognostico e di quantificazione del rischio. Al giorno
d'oggi un paziente con infarto e uno con angina instabile che abbiano entrambi Tn positiva ricevono lo stesso trattamento
terapeutico: hanno, infatti, la stessa probabilità di andare incontro ad un evento sfavorevole. Non è la diagnosi principale a
fare la differenza ma il fatto di avere la Tn elevata!
“Qualsiasi estensione di danno di miocardico, rilevato mediante determinazione della Troponina cardiaca, comporta una
evoluzione clinica ( =outcome ) sfavorevole per il paziente.”
Concludendo: la Tn è un marker assolutamente cardio-specifico. A prescindere dalla diagnosi del paziente qualsiasi
incremento della Tn identifica un paziente con un maggiore rischio di andare incontro a eventi cardiovascolari ed è
pertanto un paziente che va monitorato più strettamente.
31-03-2009
Premessa: il prof fa un passo indietro rispetto alla precedente lezione tenuta dalla dottoressa Zaninotto in modo che ci
siano più chiari il senso e le cose che gli interessa capiamo.
Sindrome coronarica acuta
Già durante la lezione precendente è stata introdotta la sindrome coronarica acuta, cioè quel continuum che porta a
definire alcune patologie che vanno dall‟angina (angina instabile, che poi adesso non viene più definita così ma viene
definita come un infarto che non esita in danni maggiori) al vero e proprio infarto miocardico.
Il termite infarto designa la morte di miociti cardiaci dovuta a un‟ischemia prolungata. Quindi il concetto è che noi
descriveremo ( ma che avete già visto con la dottoressa che via ha parlato di due marcatori di necrosi dei miociti, in
particolare della troponina) dei marcatori biochimici che definiscano la necrosi dovuta non ad altri fattori, ma ad
un‟ischemia prolungata, quindi ad una mancanza per qualche di tempo di O2 e di tutta quella serie di sostanze che sono
necessarie per evitare la morte del miocita.
Quello che è nuovo ed è un‟evidenza che si è venuta “raccogliendo” negli ultimi anni e ha portato a una ridefinizione dei
criteri d‟infarto è che l‟infarto in realtà è un episodio della sindrome coronarica, che può aver luogo nel corso della storia
naturale dell‟aterosclerosi delle coronarie.
Mentre prima si pensava fossero molteplici le situazioni cliniche che portano all‟infarto, oggi si sa che il nesso che fa da
filo unificante delle patologie che portano all‟infarto miocardico è la placca aterosclerotica, la quale interviene in un certo
punto della malattia. (Figura 12.4, pag 167,1olibro di Plebani)
Quindi si sa che l‟infarto deriva da una placca che in qualche modo limita o impedisce il passaggio del sangue attraverso
le arterie coronariche. Fino a qualche tempo fa si aveva una visione quantitativa della placca, cioè si riteneva che la placca
occludesse completamente il lume vascolare, bloccando il passaggio del sangue.
Oggi sappiamo che è la qualità della placca che conta, cioè che placche, anche piccole ma destabilizzate, possono andar
incontro alla formazione di un trombo e provocare ugualmente l‟infarto impedendo il passaggio del sangue.
Quindi si ha il passaggio da una visione quantitativa della placca a una qualitativa, e si cercano dei marcatori
dell‟instabilità della placca. Questo è il primo concetto che dovete capire.
Il secondo concetto è l‟evoluzione. Mentre una volta, nei trattati che studiavano l‟infarto del miocardio, esisteva una rigida
separazione tra l‟angina stabile (il concetto di angina è rappresentato dalla sofferenza di un soggetto che nello stato di
riposo non ha sintomatologia ma quando comincia a muoversi inizia a sentir dolore) e angina instabile (che è un
aggravamento perché lo stato anginoso si ha in condizioni di riposo) e l‟infarto, oggi c‟è un continuum per cui noi
sappiamo che anche nei soggetti normali ci posson esser dei fattori di rischio che in alcuni casi portano a una reazione di
sofferenza causata da una parziale ostruzione del lume vascolare e che dà esito all‟angina.
(oggi è scomparso il concetto di angina instabile e si dice che quando c‟è un blocco totale, quindi un‟ischemia, può esitare
in un vero infarto del miocardio.)
Questo è il contesto fisiopatologico in cui operiamo.
Facendo riferimento alla figura: la placca e la sua rottura possono portare a un‟ostruzione, anche se di per sé la placca non
ostruisce il lume vascolare, ma poiché la placca si rompe ed è instabile, attiva la formazione di un trombo che a sua volta
determina il danno.
Quindi perché ci sia un vero e proprio danno irreversibile del miocardio,l‟ostruzione deve persistere per oltre 30 minuti:
quindi non basta un‟ostruzione temporanea ma dev‟esserci un arco temporale di almeno 30 minuti e più contratta è
l‟occlusione, maggiore sarà l‟estensione dell‟area infartuata.
Questo concetto è importate perché di per sé l‟infarto non è una malattia mortale ma è una malattia fortemente invalidante
tanto + si estende l‟area infartuale perché quella è un‟area di cuore che non riesce più ad avere una funzionalità.
Oggi si sa inoltre che lo sviluppo,la progressione e la destabilizzazione delle lesioni (aterosclerotiche) riconoscono la
protezione infiammatoria: cioè, mentre prima si pensava che l‟aterosclerosi fosse solo un fenomeno biochimico di
deposizione di colesterolo e lipidi all‟interno dell‟endotelio e del lume vascolare, adesso si sa che una componente
fondamentale dell‟aterosclerosi che dà poi esito alla sindrome coronarica acuta è una condizione infiammatoria cronica.
Questa è sostenuta da vari elementi ma è caratterizzata da fattori di rischio, alcuni dei quali sono ben stabiliti sulla base di
evidenze e sono da un lato dei fattori clinici (fumo, ipertensione, iperglicemia, aumento del colesterolo contenuto nelle
LDL e una diminuzione del colesterolo HDL) e dei fattori emergenti.
Questi da un lato sono dei fattori biochimici come la proteina C reattiva (CRP) la serum amyloid protein, fibrinogeno,
omocisteina e da dall‟altro lato ci sono dei fattori genetici, per i quali non sono state raccolte delle evidenze assolute ( si
pensa che polimorfismi dei geni per TNF TGF-, interleuchine abbiano un ruolo fondamentale ed esistono evidenze
sull‟importanza marcatori di trombosi e dello stato protrombotico quali t-PA –attivatore tissutale del plasminogeno- e
l‟inibitore dell‟attivatore del plasmnogeno).
Questi sono fattori emergenti perché non sono ancora chiaramente delineati nei libri tradizionali ma si può ritenere che il
rischio cardiovascolare vada visto come un mosaico composto da alcuni fattori definiti (il solito quartetto), fattori
comportamentali (il prof fa accenno alle diverse attitudini alla rabbia), fattori genetici ma ciò che mi interessa mostravi è il
ruolo sempre più importante dei fattori infiammatori.
I nuovi marcatori biochimici di infiammazione sono molti perché recentemente è stata ricostruita la cascata che, a partire
da alcuni stimoli, attraverso movimenti delle citochine e delle molecole di adesione, provoca un aumento di alcune
sostanze quali il fibrinogeno, la serum amyloid e la proteina C reattiva.
Le evidenze che si sono raccolte sono soprattutto per il ruolo della CRP.
Ripetendo: si hanno dei fattori di rischio pro infiammatori che agiscono a livello cardiovascolare, provocano un aumento
di citochine pro infiammatorie (quelle più attive sono IL-1 e TNF-) che agiscono anche tramite IL-6 (chiamata anche
citochina messaggera nel senso che trasporta il messaggio al fegato che è l‟organo più strattamente correlato alla
produzione di proteine della fase infiammatoria acuta). Il fegato è stimolato a produrre soprattutto CRP che viene ritrovata
in circolo ed è un marcatore di infiammazione a livello cardiovascolare.
Gli studi sul ruolo della CRP risalgono a dieci anni fa, sostanzialmente sono sue i gruppi al mondo che vi hanno lavorato e
hanno dimostrato che c‟è un rischio relativo, una volta tolte le altre variabili, per la CRP che ha un rischio relativo simile
se non superiore al rapporto LDL/HDL.
Infatti sul New England Journal of Medicine è stata proposta la combinazione dei due marcatori.
In riferimento al diagramma illustrato dal prof nelle slides, i soggetti che hanno valori più elevati di colesterolo hanno un
rischio relativo maggiore ma anche nei soggetti con valori medio-bassi di CRP può esserci un rischio ma soprattutto nei
soggetti in cui si hanno alti livelli di CRP e colesterolo, il rischio si assomma e diventa maggiore. Quindi i due fattori si
integrano.
Domanda: a livello dell’IL-6 c’è un rischio relativo minore di uno, che se non sbaglio indica un rischio quasi ininfluente
ma è strano perché essa è induttore epatico della CRP.
Risposta: il concetto è molto semplice perché Il-6 ha un’emivita bassissima, quindi quando si va a fare il prelievo e a
“fotografare” la situazione non è quella che in quel momento riflette lo stato infiammatorio proprio perché è una
citochina messaggera. Per questo risulta più efficace dal punto di vista clinico la determinazione della CRP rispetto ad
alcune citochine. Le citochine in questa patologia non hanno alcun valore diagnostico.
Successivamente fu fatto uno studio dove furono reclutate giovani donne con valori di colesterolo LDL inferiori a 130
mg/dl (che è il cut off sotto il qual non c‟è rischio di malattia cardiovascolare) ed è stato trovato che la CRP, proprio nei
casi di livelli normali di colesterolo LDL, quando si va verso i quartili, ossia quei valori che configurano il quarto di
popolazione arruolata con valori più elevati, questi espongono a un rischio relativo che è decisamente importante e
significativo. (4 significa 4 volte il rischio relativo rispetto alle stesse donne della stessa età arruolate che invece hanno
valori bassi o normali di CRP.)
Negli stessi anni uno studio italiano dimostrò ancora una volta la stessa cosa.
Un altro lavoro italiano interessante è quello che dimostra come la CRP misurata alla dimissione, più che al momento del
ricovero, avesse un elevato valore predittivo negativo. Perché?
Perché un paziente che è stato ricoverato per un episodio di sindrome coronarica acuta ed è stato trattato, se al momento
della dimissione ha valori elevati della CRP, ciò significa che a livello cardiovascolare ha ancora un‟infiammazione che
potrà ancora dare degli esiti (in termini di infarto e/o morte) a distanza di qualche tempo.
Questo è ciò che si sapeva fino a poco tempo fa. Più recentemente è stato pubblicato su NEJM uno studio comlesso,
denominato studio Jupiter in cui sono stati arruolati dei soggetti con valori del colesterolo LDL inferiori al cut off che
definisce la soglia di rischio e con valori superiori a 2 mg/dl di CRP.
Questi sono stati poi randomizzati in due gruppi: uno prendeva il placebo, l‟altro statina (che in generale viene data per
ridurre i livelli di colesterolo ma in questo caso viene somministrato pur in assenza di livelli elevati di colesterolo per
evidenze che c‟erano precedentemente di effetti di diminuzione dellla CRP).
Quindi tutti hanno valori di colesterolo nella norma, valori di CRP superiori a 2 mg/dl (che è un cut off abbastanza basso)
metà prende placebo, metà statina.
Lo studio viene interrotto prima dei tempi canonici perché ci sono evidenze della superiorità assoluta nel gruppo trattato
con la statina in senso di riduzione degli eventi coronarici e miocardici, come infarti o morti.
Quindi questo studio dà maggior forza al concetto della CRP come marcatore aggiuntivo e rilevante.
Come si interpreta la CRP?
Fino a poco tempo fa i metodi di laboratori guardavano su aumentava sopra i 10 mg/l. Nel caso aumentasse, essa è una
spia di risposta infiammatoria sistemica: solitamente, nel caso di qualsiasi infezione come una banale ferita, ci sono dei
meccanismi che limitano l‟entità della risposta infiammatoria che è locale perché non si ritrova a livello circolatorio; nel
momento in cui c‟è una risposta sistemica i meccanismi locali non sono sufficienti e l‟infiammazione si propaga
all‟interno del sistema per cui, con un prelievo, si vedono degli indicatori di infiammazione a livello generale. Ciò
avveniva quando si interpretava la CRP con un cut off superiore a 10 mg/l.
Nel caso dell‟infiammazione cardiovascolare, sono stati messi appunto dei metodi che hanno una maggior sensibilità
analitica e il rischio viene definito quando in un soggetto si superano 1 mg/l (o come nello studio Jupiter i 2 mg/l).
Si distingue poi tra rischio intermedio e rischio elevato, nel caso si superino ancora di più i valori.
La nuova utilizzazione della CRP è nel veder valori che sono compresi in un intervallo da 1 a 10 mg/l e non più sopra i 10
mg/l. Perciò questa determinazione della CRP si chiama CRP-Hs (ad elevata sensibilità).
Che cosa è cambiato dal momento in cui è stata introdotta questa nuova definizione dei criteri di infarto?
(Figura 12.5, pag 167, 1° libro di Plebani)
Ciò che non è cambiato è che quando un paziente si presenta con dolore toracico acuto, gli viene fatto un
elettrocardiogramma, che rivela un sopraslivellamento del tratto ST. in questi casi il medico di pronto soccorso o il
cardiologo non aspetta l‟esito degli esami di laboratorio perché ogni minuto guadagnato significa tessuto cardiaco
risparmiato alla necrosi e si cerca di riaprire le coronarie ostruite attraverso una terapia medica (iniettando trombolitico) o
attraverso una terapia endoscopica con l‟angioplastica.
In questi pazienti i markers biochimici servono per una conferma diagnostica a posteriori, per una valutazione prognostica,
per il monitoraggio e per valutare il successo della terapia (nel senso che non sempre la terapia trombolitica o
l‟angioplastica riescono bene e trovare una mantenimento di livelli elevati di marcatori può esser un‟indicazione per
rimettere mani sul paziente o fare dei trattamenti differenziati).
Ciò che è cambiato è (parte a destra della diapositiva) che, in presenza di un ECG normale, c‟è una fetta di pazienti in cui
solo i marcatori biochimici possono essere utilizzati per diagnosticare effettivamente la presenza di infarto. Negli studi più
rappresentativi questa percentuale oscilla intorno al 30% dei casi.
Inoltre è cambiata la classificazione dei casi di infarto. Se ne distinguono due tipi:
 Infarto miocardico con sopraslivellamento del tratto ST (infarto classico);
 Infarto senza sopraslivellamento del tratto ST (infarto non-ST) che può esser definito solo dall‟aumento della
troponina e confermato con risonanza magnetica, tecniche di immagine che visualizzino l‟estensione dell‟area
necrotica o con l‟autopsia.
I pazienti con ECG normali, ma troponina elevata, possono essere ancora classificati come anginosi, nel senso che
evidentemente in alcuni di questi pazienti ci sono delle problematiche aterosclerotiche ma la placca non è di entità e non è
stata destabilizzata per cui non ha provocato ischemia e necrosi cardiaca.
Da un punto di vista della diagnostica e della classificazione la sindrome coronarica acuta si differenzia quindi in quelle
due varianti sopra descritte.
Ciò si può vedere da questa diapositiva che raccoglie la storia dell‟approccio biochimico alla sindrome coronarica acuta.
(Figura 12.3, pag 165, 1° libro)
Negli anni ‟70, quando si avevano dei parametri molto poco sensibili e specifici come la creatinina chinasi totale (poi fu
introdotta la determinazione dell‟isoenzima MB, che è più cardio-specifico) c‟è stato un lieve miglioramento della
diagnostica dei casi di infarto.
Negli anni ‟90, con l‟introduzione della troponina, c‟è stato un balzo in avanti, cioè un recupero del 30% dei casi che
prima non erano diagnosticati e oggi vengono classificati come infartuati grazie alla determinazione della troponina.
La troponina ha poi un‟altra grande importanza: non è un marcatore “bianco o nero” (c‟è-/non c‟è, presenza/assenza della
malattia) ma è “colorato” ossia l‟incremento dei valori in circolo della troponina cardiaca è correlato con l‟estensione e la
gravità dell‟infarto e quindi con la mortalità dei pazienti.
Guardando la slide (Figura 12.2,pag 165, 1° libro), il gruppo di pazienti con valori più elevati di troponina, ha un rischio
di mortalità 7.5, nettamente superiore al gruppo che, pur avendo dei valori di troponina lievemente aumentati (tra 0.4 e 1),
ha un rischio relativo di mortalità a 40 giorni che è 1.7. Ciò ci dice che la troponina non va interpretata solo come positiva
o negativa, ma va vista anche nella sua quantità assoluta, perché la quantità di troponina rilasciata in circolo è una spia
affidabile del danno subito dal miocita.
Tuttavia ulteriori studi hanno dimostrato che il rischio cardiovascolare non può essere esemplificato da un solo marcatore,
nemmeno la troponina.
Possono esser presenti altri marcatori di danno cardiaco, come il peptide natriuretico, il quale è presente in una certa
percentuale di casi e delinea un rischio che è 4 volte superiore al resto della popolazione, pur in pazienti troponina
negativi.
Questo mostra come, nonostante la troponina abbia consentito di fare progressi nella classificazione e nella prevenzione
del rischio, un unico marcatore non è sufficiente.
Uno dei problemi di questo insuccesso è dovuto al tipo di cut off che viene usato: a seconda dei criteri con cui si interpreta
la troponina (-riferendosi alla diapositiva- in particolare il criterio sulla base delle curve ROC, questo è un criterio basato
sull‟aumento oltre il 10% del coefficiente di variazione, questo è quello che si fa oggi, ossia gli aumenti della troponina in
rapporto al 99esimo percentile dei valori riscontrati nella popolazione sana) c‟è un passaggio da una sensibilità del 65% a
una dell‟88%, e una specificità che dal 53 arriva al 73%.
Quindi il messaggio da portare a casa per gli studenti è che la modalità di interpretazione gioca un ruolo importante. Oggi,
nel mondo, si ritiene che il limite superiore oltre il quale la troponina si dice aumentata sia il 99esimo percentile.
Perché queste discussioni?
Fino a poco tempo fa si pensava che la troponina non fosse presente in circolo nei pazienti che non hanno patologie
cardiache.
In realtà si è visto, con metodi che hanno una sensibilità analitica molto elevata, anche nei soggetti sani ci può esser la
presenza di piccole quantità di troponina.
(N.B.La sensibilità analitica di questi metodi è da 100 a 1000 volte superiore ai metodi tradizionali.)
La troponina può esser rilasciata per fenomeni di apoptosi e rinnovamento dei miociti. Inoltre, mentre la maggior parte
della troponina ritrovata in circolo è strettamente legata all‟interno della cellula, ce n‟è una parte libera nel citosol che può
esser rilasciata anche per fenomeni di modesto danno cardiaco.
Ciò ha ripercussione sulla diagnostica: oggi non tutte le troponine che vengono utilizzate sono uguali, ma ci sono delle
troponine che si chiamano ad elevata sensibilità (credo che il prof si riferisse ai metodi per rilevare i valori di troponina).
Queste troponine ad elevata sensibilità permettono di rilevare delle concentrazioni più piccole con maggior affidabilità:
sono metodi più precisi e più esatti a valori di concentrazione della troponina bassi.
A cosa serve questo clinicamente?
Mediamente l‟aumento della troponina si osserva mediamente dalle 6 alle 12 ore dall‟inizio del danno miocardico; questo
è quello che si sapeva utilizzando i metodi tradizionali.
La figura vi mostra la cinetica della troponina in base al metodo tradizionale: la percentuale di positivi nelle prime ore è
molto bassa, va poi aumentando arrivando a un plateau tra la sesta e la dodicesima ora.
Negli stessi pazienti vengono eseguite anche le determinazioni della troponina con i metodi ad elevata sensibilità e si vede
che già al tempo 0 (dopo un‟ora dal dolore toracico) il 60% dei pazienti aveva un aumento della troponina.
Pertanto questi metodi ad elevata sensibilità ci portano a dire che quell‟assunto, cioè che la troponina aumenta tra le 6 e le
12 ore, vada visto solo se rapportato con metodi tradizionalmente in uso, ma con metodi a più elevata sensibilità si può
veder un aumento della troponina anche a 1-2 ore dall‟evento infartuale.
Il prof ora porta una loro esperienza:
qui ci sono soggetti che erano entrati in pronto soccorso a tre ore dall‟inizio della sintomatologia; con il metodo
tradizionalmente in uso nessuno risultava positivo per la troponina e in questi casi si cerva un marcatore precoce che è la
mioglobina. Il 43% dei soggetti aveva la mioglobina positiva. Tuttavia la mioglobina non è specifica per danni cardiaci,
ma può aumentare ad esempio a seguito di un insulto muscolare, un problema renale e pertanto aveva molti difetti.
Quando furono usati i metodi ad alta sensibilità, il 70% di questi pazienti, che prima venivano classificati come negativi,
sono diventati positivi.
Quindi oggi si raccomanda di sostituire le determinazioni di troponina dei metodi tradizionali con quelli ad alta sensibilità
e abolire la determinazione della mioglobina perché non è più utile.
Il concetto da portare a casa è: la troponina è un parametro assolutamente specifico, fino a poco tempo fa i pensava che la
sua sensibilità cominciasse dopo 6-12 ore, oggi si sa che coi metodi ad alta sensibilità già a 1-2 ore dal danno cardiaco
molti pazienti possono esser diagnosticati.
Il prof tiene a precisare che, prima dell’introduzione dei metodi ad alta sensibilità, i pazienti risultati negativi dopo 3 ore
coi metodi tradizionali non venivano dimessi ma venivano fatte ulteriori analisi dopo 6 ore dal dolore, quando
risultavano positivi e quindi si procedeva alla diagnosi e al trattamento.
Tuttavia venivano perse 6 ore mentre oggi possono esser recuperate e si può evitare che altro tessuto cardiaco venga perso.
Quindi si raccomanda di introdurre i metodi ad alta sensibilità, sia perché da un punto di vista laboratoristico migliorano
l‟esattezza, ma soprattutto perché dal punto di vista cardiologico permettono una diagnosi più precoce.
Infine, ci sono delle prove che dei modesti aumenti di troponina, anche al di sotto del cut off, rivelino la presenza di una
patologia cronica e che a lungo termine questi pazienti hanno maggiore rischio di mortalità per eventi cardiaci.
È importante comunque ricordare che la troponina è il marcatore di scelta (definito gold standard) nei criteri di
classificazione dell‟infarto miocardico.
Ci sono altri marcatori che si stanno affermando come markers biochimici di patologia cardiovascolare e questi rientrano
nella famiglia dei peptidi natriuretici.
Si conoscono 5 appartenenti a questa famiglia:
 Atrial natriuretic peptide
 Brain natriuretic peptide
 C natriuretic peptide
 Urodilatina
 DNP (o D-type natriuretic peptide)
Dal punto di vista biochimico ciò che è importante per la loro attività biologica (e che serve anche per l‟identificazione
come marcatori) è l‟anello con ponti disolfuro. (vedi figura 12.7 pag 175, 1° libro)
A livello del miocita la produzione avviene come un pre-pro-ormone che ha 134 amminoacidi, che viene successivamente
elaborato (c‟è un clivaggio del peptide segnale) e si forma un pro-BNP che ha 108 amminoacidi. Tutto questo avviene a
livello intracellulare. In seguito c‟è un‟ulteriore elaborazione per cui nel sangue si ritrovano due molecole diverse derivate
dal pro-BNP: Nt-pro-BNP (peptide N-terminale della molecola che ha 76 amminoacidi) e il BNP (che è l‟ormone attivo e
ha 32 amminoacidi).
BNP ha un‟emivita abbastanza breve, da 15 a 20 minuti, e nel sangue si trovano dei valori inferiori a 10 ng/L.
Nt-pro-BNP non ha attività biologica, ha un‟emivita superiore (oltre 60 minuti) e per questo le concentrazioni sono attorno
ai 40 ng/L (4 volte superiori a quelle del BNP).
I peptidi natriuretici hanno degli effetti a livello circolatorio in termini di vasodilatazione, hanno un effetto anti ipertrofico
a livello miocardico, aumentano la natriuresi e hanno un effetto anche a livello centrale (inibizione del sistema immunoneuro-vascolare). (Figura 12.8 pag 176, 1° libro)
Domanda: ma in presenza di danno miocardico non dovrebbe esser utile ipertrofizzare per compensare il miocardio
perso?
Risposta: assolutamente no perché uno dei problemi nel corso del danno è il rimodellamento dei ventricoli che si
ipertrofizzano e quindi c’è ancora più difficoltà nella funzione di pompa e questo provoca dei problemi.
Noi abbiamo parlato soprattutto dell‟ANP e del BNP, che viene secreto dai miociti ventricolari.
Quindi a livello atriale le patologie che colpiscono fondamentalmente l‟atrio, attraverso lo stiramento delle miocellule,
danno prevalentemente un aumento dell‟ANP.
Al contrario, le patologie che provocano lo stiramento delle miocellule ventricolari, danno prevalentemente secrezione del
BNP. Si dice prevalentemente perché con danno a livello atriale non aumenta solo l‟ANP o con il ventricolare solo il
BNP, ma generalmente l‟ANP è più rappresentato a livello atriale, il BNP a livello ventricolare. Insieme danno
un‟attivazione dei sistemi neuroormonali ed immunologici.
In termini relativi, di fronte a uno stimolo neuroormonale sul sistema cardiovascolare la risposta di alcuni ormoni, come
potenza di risposta, ci dice che il cortisolo ha un effetto modestissimo, la noradrenalina ha un effetto abbastanza modesto,
l‟IL-6 non più del 5%, la renina (che è un altro ormone secreto a livello renale e ???surrenale????) ha un effetto molto
superiore, ma in termini relativi l‟effetto del BNP è quello più rappresentativo.
Man mano che noi andiamo avanti con una patologia che poi porta allo scompenso, la secrezione di queste sostanze
permette la miglior differenziazione tra soggetti che non patologie cardiovascolari.
Nei vari stadi di patologia, anche a quelli iniziali, la differenziazione è maggiore con la determinazione con i peptidi
natriuretrici rispetto a tutti gli altri ormoni. Ecco perché negli ultimi anni si è andati introducendoli nella clinica.
L‟utilità della determinazione dei peptidi è in alcuni grandi settori:
13. Nella classificazione e nello screening dei pazienti con scompenso cardiaco. Oggi in termini relativi la causa più
frequente di ammissione al pronto soccorso, più che nel pronto soccorso nel polo ospedaliero, è quella di pazienti
con scompenso cardiaco, perché molte patologie, tra le quali l‟infarto del miocardio, che prima erano mortali, oggi
vengono curate, ma nel lungo termine cronicizzano e portano ad una disfunzione del cuore che porta allo
scompenso. Quindi abbiamo una fetta di popolazione che prima moriva, invece ora rimane in vita ma ha una
patologia cronica.
14. Nel follow up dei pazienti con scompenso. Nel senso che è utilizzato specialmente nel prendere decisioni quando
il paziente non è ospedalizzato e a livello ambulatoriale se il medico di famiglia vede crescere i livelli di peptidi
natriuretici oltre una certa concentrazione ci sono indicazioni per ricoverarlo in ospedale perché lo scompenso si è
aggravato.
15. Come indicatore prognostico
16. Consente risparmi rispetto a indagini più costose e invasive
Già oggi nelle linee guida (che sono delle indicazioni cliniche raccolte attraverso il consenso tra esperti) del libro più
utilizzato dai cardiologi, il Braunwald (il più grande cardiologo esistente, anche se è andato in pensione), già nella sua
edizione del 2005, nell‟algoritmo per la diagnosi dello scompenso cardiaco viene introdotta la determinazione dei peptidi
natriuretici come esame di primo livello, dopo la visita e la lastra del torace e prima di fare l‟ecocardiogramma (uno
strumento molto importante e utile, ma che è anche costoso e deve essere fatto da un cardiologo esperto). Questo concetto
è stato ripreso nelle linee guida della società europea di cardiologia che dice esattamente la stessa cosa. Quindi oggi la
determinazione dei peptidi cardiaci ha un preciso ruolo nell‟algoritmo diagnostico prima dell‟effettuazione di indagini
sofisticate.
La determinazione dei peptidi cardiaci ci permette di differenziare le classi di soggetti che possono avere un sospetto, ma
non hanno, uno scompenso cardiaco, rispetto alle classi di pazienti, anche all‟esordio che possono avere un iniziale
scompenso cardiaco.
La NYHA è un tipo di classificazione clinica utilizzata dai cardiologi; quello che è certo è che rispetto alla classificazione
clinica il peptide natriuretico ci dice che, in molti casi alcuni pazienti, che possono essere nelle prime classi di scompenso
ma che ancora clinicamente non vengono classificati (se non in classi modeste di patologia), in realtà attivano i
meccanismi biochimici di scompenso e hanno una secrezione di peptidi natriuretici superiore. (Figura 12.9 pag 177, 1°
libro)
Quindi non è che il peptide natriuretico dia informazioni solo confermatorie rispetto alla diagnosi clinica, ma aggiunge
anche delle informazioni sulla attività biochimica che è in corso.
Per altro, come tutti i parametri, dobbiamo leggere i valori del peptide natriuretico sapendo che fattori diversi dallo
scompenso cardiaco possono dare aumenti come nel corso di malattie polmonari, nell‟insufficienza renale, in alcune
terapie antineoplastiche, nel diabete mellito, nelle amiloidosi, nello shock settico.
In questi casi vediamo un aumento del peptide natriuretico, ma attenzione!
Non sono falsi positivi, sono situazioni in cui comunque il cuore si trova bombardato da uno stress che colpisce il sistema
neuro immuno ormonale e che quindi può esitare anche in un aggravamento della disfunzione cardiaca.
Quindi il peptide natriuretico è correlato con le classi cliniche, ma non solo, può dare delle indicazioni che precedono e
che sono pertanto aggiuntive perché mette in evidenza questo distress, questo stress del sistema neuro immuno vascolare.
Questo ci spiega perché in questi pazienti che non hanno necrosi del miocardio, ma hanno un aumento del peptide
natriuretico, ci può essere un rischio a distanza di una patologia cardiovascolare che può esitare in morte o in infarto del
miocardio.
Poiché nel primo momento in cui facciamo la determinazione della troponina non c‟erano segni di necrosi, ma ci sono
segni che qualcosa in quel meccanismo di stress che determina un aumento del peptide natriuretico nel medio lungo
termine può portare a danni a livello cardiovascolare.
Quindi il significato di fattore di rischio deve essere chiaro: il fattore di rischio non è solo qualcosa che determina un
rischio ben presente, ma può determinare anche un rischio a distanza di tempo. Quindi questi soggetti non sono falsi
positivi, ma l‟esemplificazione di come i fattori di rischio possono delineare elementi diversi.
Tant‟è che oggi si ritiene, ci sono già degli studi che dimostrano questo, che se vogliamo studiare il rischio
cardiovascolare almeno tre sono i marcatori che dobbiamo determinare.
 Il primo è un marcatore di necrosi, non c‟è dubbio che la troponina è il marcatore di elezione.
 Il secondo è un marcatore di infiammazione, ci interessa sapere se, a prescindere dalla presenza di necrosi, vi è
la presenza di infiammazione a livello cardiovascolare e per questo, come abbiamo già detto, quello che è più
documentato, con più prove di efficacia e il livello di Proteina C Reattiva. (se è scritto HS significa che è
determinata con metodi ad alta sensibilità
 Infine la determinazione dei peptidi natriuretici, perché questo è un segno di attivazione neuro ormonale che
può aggiungersi integrando e completando il quadro per capire qual è il rischio cardiovascolare di un dato
paziente.
Quindi in poche parole, oggi non c‟è solo il problema della diagnosi(c‟è o no infarto, c‟è o meno sindrome coronarica
acuta), quello che il cardiologo chiede è la stratificazione del rischio, che nella clinica oggi si ritiene debba essere fatta
determinando questi tre parametri, un marcatore di necrosi (troponina), un marcatore di infiammazione (CRP) e un
marcatore di attivazione neuro ormonale (il peptide natriuretico).
Prof. Plebani
Nota sulle abbreviazioni: Ag = antigene, Ab = anticorpo, K = carcinoma, mAb = Ab monoclonali, PSA = Ag specifico
della prostata, CEA = Ag carcinoembrionario
Biomarcatori tumorali
Nell‟ultimo decennio si è assistito ad un‟esplosione dell‟attività di ricerca nell‟ambito dei biomarcatori che può essere
spiegata dalla convergenza di vari fattori quali la scienza, (lo sviluppo della conoscenza sulla base molecolare delle
neoplasie), la tecnologia (abbiamo a disposizione strumentazioni sempre più raffinate e sensibili e ad alta produttività),
esigenze legate alla società (è più diffusa la coscienza della necessità della diagnosi precoce delle neoplasie).
Il successo e l‟utilità clinica di biomarcatori come hCG, PSA o il picco monoclonale delle Ig hanno dimostrato un
miglioramento della diagnosi e il monitoraggio di alcune malattie neoplastiche. Grazie all‟uso clinico del PSA, per
esempio, si è avuto un crollo della mortalità del carcinoma alla prostata negli USA.
Presupposti per lo sviluppo di un marcatore tumorale
17. Si deve definire la biologia del processo neoplastico (ogni neoplasia ha una sua biologia e un suo sviluppo)
18. Si deve definire la biologia del‟ospite: bisogna quindi studiare la risposta immune con cui l‟ospite antagonizza il
tumore, la farmacogenomica e la farmacoproteomica (possono essere utili per individualizzare il trattamento)
19. Si deve definire il tipo di marcatore e gli endpoint surrogati (cioè lo scopo dell‟esame per cui il biomarcatore è
utilizzato ad es.: risposta alla terapia, follow up, prognosi)
Inizialmente vedremo l‟approccio tradizionale su cui si basa ancora oggi la pratica della medicina di laboratorio per
quanto attiene ai marcatori ovverosia il concetto che di studiare una molecola alla volta, nell‟ipotesi di trovare una
molecola che distingue il soggetto sano da un soggetto portatore di neoplasia. In pratica, è come cercare un ago nel
pagliaio: noi cerchiamo, in un complesso ambiente quale è quello che media i vari scambi dell‟organismo umano, una
molecola in grado di discriminare un soggetto sano da un portatore. Anzi, quando si cerca un marcatore per lo screening,
si vorrebbe trovare una molecola che, in assenza di sintomatologia, riuscisse a discriminare un soggetto portatore di
rischio dai soggetti non portatori di tale rischio. Questa metodica, detta hypothesis-driven, sta lasciando spazio ad
approccio innovativo detto analisi multiparametrica, una via che non sarebbe stata percorribile senza l‟apporto della
tecnologia ad alta produttività (es. array di DNA o di proteine). Mediante l‟analisi multiparametrica, si valuta l‟efficacia di
molte molecole per volta, nell‟ipotesi che ogni carcinoma abbia un particolare pattern di espressione genica o un
particolare pattern proteomico che differenzi l‟individuo affetto dall‟individuo sano. Questo è un approccio technologydriven.
Pietre miliari nella storia dei marcatori circolanti
Anno
1846
1930
1932
1963
1965
1969
1970s
1970s
1970s
1975
2002
Autore
Bence-Jones
Zondelek
Cushing
Abelev
Gold – Freedman
Heubner
Kohler
Petricoin - Liotta
Marcatore
LC delle Ig
hCG
ACTH
AFP
CEA
Oncogeni
CA 125
CA 19-9
CA 15-3
mAb
proteomica
Malattia
Mieloma
K Corion
Polmone
Epatoma
Colon Retto
Sangue
K Ovaio
K pancreas
K mammella
Sangue
Ovaio
Bence-Jones scoprì che i pazienti affetti ad mieloma potevano essere identificati portando ad ebollizione le loro urine per
vedere se flocculavano. Il flocculato soprastante era composto nella fattispecie da catene leggere delle Ig denaturate. La
vera svolta nello studio dei marcatori avvenne negli anni ‟60 con la scoperta della radioimmunologia e del RIA
(radioimmunoassay) che permetteva identificare quantitativi molto bassi di proteina. Questa tecnica ha introdotto negli
esami di routine dei laboratori di routine l‟ feto proteina (AFP), utilizzato nella diagnosi del‟epatocarcinoma, del CEA
(usato per la diagnosi di K colon rettale) e di hCG (usato sia come marcatore di alcune neoplasie della donna e del
maschio, come i seminomi). Negli anni ‟70 viene scoperta la tecnologia per creare mAb. I mAb hanno generato un nuovo
tipo di biomarcatori identificati dalla sigla CA (C = cancer, A = Ag). Linee di mAb sviluppati contro tumori primitivi o
metastatici reagiscono contro sostanze presenti nel siero di pazienti permettendo la loro identificazione. Quando sono stati
sviluppati, l‟epitopo riconosciuto dai detti mAb – markers era sconosciuto. Oggi, la ricerca è indirizzata all‟individuazione
di pattern proteomici.
I biomarcatori circolanti possono essere classificati:
 Secondo al specificità tissutale
 Secondo caratteristiche biochimiche
 Secondo utilità clinica
Markers con struttura chimica nota






Ormoni (hCG, calcitonina, tireoglobulina, questi ultimi due usati nella diagnosi di tumori alla tiroide)
Enzimi (PAP, NSE, PSA, PG)
Molecole d‟adesione (CEA)
Molecole di trasporto (AFP)
Prodotti di differenziamento (acidi sialici, poliammine)
Citocheratine (TPA, TPS)
Da un punto di vista biochimico abbiamo una varietà di sostanze che possono essere utilizzate come marcatori. Sempre da
un punto di vista biochimico, abbiamo una serie di glicoproteine identificate da epitopi caratterizzanti che sono identificati
da mAb (A questo gruppo appartengono i marcatori della serie CA)
Possiamo anche valutare l‟attività dei geni oncosoppressori (es. p53). Da un punto di vista biochimico, è possibile inoltre
valutare l‟espressione dei mRNA in cellule circolanti (Si testa l‟espressione dei biomarcatori d‟interesse nei componenti
nucleati del sangue ottenuti mediante un prelievo)
Problemi legati ai biomarcatori
Sarebbe bello cogliere, attraverso la misurazione di un marcatore nel sangue o nelle urine, l‟avvenuta trasformazione
neoplastica di una cellula. Ciò è difficile per un problema di quantità: le sostanze secrete dalle cellule vengono infitte
diluite nel volume ematico, quindi non si possono trovare differenze se la popolazione cellulare interessata dalla
mutazione è molto ridotta. Quanto invece si ha una massa di cellule secernenti il biomarcatore, allora si ottiene una misura
analiticamente rilevabile e clinicamente significativa. Questo è il motivo per cui è difficile individuare i casi asintomatici.
Il secondo problema è dato dalla vascolarizzazione: (Si ricordino le ricerche di Folkmann e l‟importanza del processo
nella “bussola” di Weinberg) se si preleva un campione di sangue, più il tumore è vascolarizzato più sarà facile rilevare il
biomarcatore; il contrario se il tumore è scarsamente vascolarizzato.
In terzo luogo, non dobbiamo dimenticare che bassi quantitativi di biomarcatori tumorali sono comunque presenti anche
nelle persone sane e che, i marcatori, come tutte le sostanze, devono essere catabolizzate. Un aumento dei livelli di
biomarcatori può essere dovuto non ad un‟aumentata produzione (quindi a tumore) ma ad una diminuita eliminazione.
L‟escrezione avviene attraverso la via epatobiliare e attraverso l‟emuntorio renale: se uno di questi due meccanismi di
escrezione, per motivi diversi e non correlati alla presenza di una tumore, dovesse andare in sofferenza, si avrebbe un
aumento dei livelli di biomarcatore. Per ultimo, i biomarcatori possono trovare una diversa ubicazione a livello
dell‟organismo, ad es. tutte la molecole identificate con CA ed in particolare CA 125 (tipico del K ovaio), quando
vengono liberati vengono immesse nel liquido peritoneale perché sono delle mucine che sono secrete da cellule site a
livello dell‟omento. Quindi c‟è anche un problema inerente la disposizione delle sostanze nell‟organismo: alcune si
riversano nel torrente sanguigno, altre seguono la via linfatica, altre si riversano nei liquidi di versamento. La
concentrazione dei biomarcatori circolanti subisce un oscillamento fisiologico, inoltre condizioni legate allo stile di vita
(fumo, alcol…), eventi fisiologici (gravidanze) o patologici a carico del sistema o di un organo (colestasi, insufficienza
renale, patologie infiammatorie croniche) ne possono influenzare la concentrazione indipendentemente dalla presenza di
una neoplasia. Ci sono poi altre cause di oscillazione: se prima di effettuare un prelievo per la ricerca del PSA ad un
paziente, eseguo su di esso un massaggio prostatico o una rettoscopia (causa iatrogena), se eseguo una broncoscopia
(faccio aumentare le citocheratine) o un intervento chirurgico all‟addome (può causare il rilascio di markers del K colon
rettale)
Applicazione
Screening
Diagnosi
Monitoraggio
Recrudescenza
Prognosi
Specificità
Non critica
Molto desiderabile
Non critica
Importante
Non critica
Sensibilità
Critica
Molto desiderabile
Desiderabile
Molto desiderabile
Non critica
Precisione
Non critica
Non critica
Critica
Critica
Non critica
Range di concentrazione
Non critica
Non critica
Desiderabile un range ampio
Non critica
Non critica
Come si è detto prima, i biomarcatori devono possedere delle caratteristiche in funzione della loro utilità clinica e del loro
scopo, ad es. se si desidera un marcatore di screening, sarà desiderabile avere un test molto sensibile (Il marcatore quindi
non deve far perdere i soggetti che sono affetti da tumore); se questo test è poco specifico però ho molti falsi positivi e
metto in allarme molti per nulla. Infatti, le pratiche di screening per le quali il rapporto costo/beneficio è utile sono il Pap
test, la mammografia e la ricerca di sangue occulto
Per la diagnosi è evidente che deve esserci un bilancio tra sensibilità e specificità, perché dobbiamo evitare il più possibile
i falsi positivi ei falsi negativi e dare un indirizzo ben specifico sul trattamento al paziente
Se invece vogliamo usare un marcatore per il monitoraggio, il parametro critico è la riproducibilità nel tempo: dobbiamo
osservare le oscillazioni del marcatore in modo che non si confondano delle modifiche fisiologicamente accettabili con
una ripresa della malattia.
Se invece voglio dare un giudizio prognostico, nessuno dei parametri suddetti (Se, Sp, precisione e range) è utile: il
parametro importante in questo caso è l‟esistenza di un rapporto il più possibile lineare tra la progressione della malattia e
le concentrazioni del marcatore.
A seconda degli obiettivi, possiamo avere marcatori con caratteristiche diverse tra di loro.
Marcatore
Ormoni
Calcitonina
Paraproteine
CEA
AFP
AFP
hCG
hCG
PSA
Tumore
Tumori endocrini
K midollare tiroide
Mieloma
K colon retto
Epatocarcinoma
K germinali
K Corion
K germinali
K prostata
Utilizzo clinico
D
M F
S
D
M
D
M F
M F
S
D
M F
D P M F
S
D P M F
D P M F
(S) D P M F
Legenda: S = screening, D = diagnosi, P = prognosi, M = monitoraggio, F = follow up
Nella tabella in alto sono elencati i biomarcatori identificati, la loro associazione con uno specifico tipo di tumore, il loro
uso.
Possiamo vedere che sono pochissimi i biomarcatori che sono usabili per lo screening, anzi, al calcitonina, in realtà, non è
usata per lo screening generalizzato ma è utile nello screening famigliare o una volta che si sia scoperto un tumore
midollare tiroideo Per l‟epatocarcinoma, invece, le politiche di screening si sono dimostrate utili solo in regioni ove la
prevalenza della malattia era molto elevata. Per quanto concerne il PSA, è ancora dubbioso una sua indicazione per lo
screening.
Molte di queste sostanze sono invece utili a livello diagnostico: si ponga però attenzione al fatto che la diagnosi non è fatta
solo in base al biomarcatore ma l‟uso del marcatore sarà integrato dall‟uso delle diagnostica per immagine, dalla clinica,
dall‟istologia patologica.
Ci sono poi marcatori che hanno un valore prognostico come ad es. il PSA per il K alla prostata o hCG, utili per la
prognosi dei seminomi.
In sintesi, i biomarcatori sono utili nella diagnosi, nel monitoraggio mentre sono poco utili nelle altre applicazioni
cliniche.
Vediamo ora dei marcatori nel dettaglio
CEA
Appartiene alla famiglia delle Ig ed è una molecola di adesione con MW di 200 KD. Per sviluppare Ab contro il CEA si
sono usate delle metastasi epatiche di carcinomi del colon e si è scoperto che ci sono numerosi epitopi che caratterizzano
questa molecola. Biochimicamente, è una molecola molto studiata.
Si usa come cut off il valore di 5 g/L e si vede che tale test ha Se = 37 %. Se andiamo maggiormente in dettaglio, si vede
che, ad uno stadio di malattia IV secondo Dukes (tumore metastatizzante), Se = 72% mentre ad uno stadio I di Dukes
(carcinoma in situ) Se = 14 %. La Se quindi è bassa proprio quando gli altri esami (diagnostica per immagini ecc) danno
dei risultati incerti, quindi il CEA è inutile per la diagnosi precoce. Nel 1991 si è tenuta una consensus conference nella
sede del NIH a Bethesda (USA) nella quale si è dimostrato che il CEA è la migliore tecnica non invasiva per il
monitoraggio del carcinoma del colon retto, con Se = 80 % e Sp = 70 %e lead time di 5 mesi. Il lead time è il tempo che
intercorre tra la positivizzazione del test e il rilevamento della recidiva del tumore mediante diagnostica per immagini. Nel
1994 Bruinvels et coll (Eur J surg) dimostrano che i pazienti con monitoraggio intensivo e determinazione del CEA hanno
una sopravvivenza a 5 anni migliore del 9 % migliore rispetto ai pazienti con follow up minimale. Questo dato viene
avvalorato dal lavoro di Rosen et coll che, con un lavoro di metanalisi, dimostra che la sopravvivenza a 5 anni è migliore
nei pazienti che hanno avuto un follow up intensivo con la determinazione del CEA di 3.6 volte. Nel 2002 Renehan (BMJ)
rivede 5 trials controllati e randomizzati e ne deduce che il follow up intensivo si associa ad una riduzione di tutte le cause
di morte e la mortalità è inferiore nel gruppo con follow up che prevede dei controlli con ecotomografia e CEA (In questo
modo si rivelano precocemente le recidive locali). Il CEA quindi è un marcatore da follow up. Vediamo qualche altra
indicazione: semplicemente il fatto che, al momento della diagnosi, il valore del CEA sia sopra o sotto il cut off
differenzia due popolazioni che hanno una minore sopravvivenza che hanno una minor sopravvivenza quando hanno un
valore sopra il cut off rispetto alla popolazione con stessa malatia ma con valori sotto il cut off.
Plebani et al hanno valutato se gli aumento del CEA devono essere valutati in base al valore assoluto (quindi il discrimine
è se la concentrazione trovata è maggiore o minore del cut off) o se invece si debbano monitorare gli aumenti oltre la
variabilità biologica che si riscontrano controllo dopo controllo. Escludendo quest‟‟ultimo concetto, hanno ottenuto i
seguenti risultati:
Marcatore
Se
Sp
Efficienza
CEA
76 % 95 % 91%
CA 19-9
40 % 62 % 57 %
TPA
40 % 79 % 71 %
Combinazione dei 3 suddetti 92 % 45 % 55 %
Nota: Lo studio ha coinvolto pazienti in RN0 e RN1
VPP
83 %
23 %
36 %
33 %
VPN
93 %
78 %
62 %
95 %
Secondo questo studio, i pazienti che non avevano un aumento oltre la differenza critica del CEA con grande probabilità
non avevano recidive viceversa quelli che avevano un aumento oltre la differenza critica potevano una recidiva con una
probabilità del 83 % ed erano avviati a studi con tecniche di diagnostica per immagini per localizzare la recidiva. Lo
studio ha inoltre evidenziato un lead time di 5 mesi: si tenga conto però che questo è un tempo medio ed in alcuni pazienti
può essere francamente anticipatorio e può esserlo meno in altri.
Attualmente la raccomandazione prevede che i pazienti con carcinoma al colon retto negli stadi B e C secondo Dukes (o II
e III) vengano sottoposti a follow up con CEA per almeno due anni. La prima determinazione del CEA deve essere
eseguita dopo 2 mesi dall‟exeresi del tumore, altrimenti si avrà un falso positivo dovuto alla presenza in circolo di CEA,
mobilizzato dall‟exeresi stessa.
Attualmente si sta lavorando seguendo l‟ipotesi che le cellule ematiche normali non esprimano mRNA di CEA. Se invece
troviamo mRNA di CEA nelle cellule circolanti, questo è segno della presenza di cellule neoplastiche potenzialmente
metastatiche (in quanto sono in circolo). Si è dimostrato che non c‟è una qualche relazione tra positività per mRNA e il
grading tumorale ma c‟è una correlazione con lo staging della malattia: la presenza di cellule esprimenti mRNA di CEA si
trova solo nei tumori in C1 o in D, cioè tumori associati ad invasività delle membrane basali. Inoltre, si riscontra la
presenza di mRNA per CEA quando vi è un interessamento di almeno 2 linfonodi mentre si ha negatività nel 90 % dei casi
quando si ha interessamento di un solo linfonodo. Questo è molto utile perché, in presenza di CEA, si può avviare il
paziente a cicli di chemioterapia precedenti all‟intervento.
Questo metodo è diverso dal RIA per CEA in quanto il primo ha scopo progno0stico mentre il secondo è usato nel
monitoraggio.
21 Aprile 2009
Abbiamo parlato della CEA e dei marcatori del colon-retto; oggi parliamo di un marcatore specifico CA125 (cancer
antigen 125). In realtà questo antigene viene scoperto da Bast nel 1981 attraverso lo sviluppo di un anticorpo
monoclonale OC125, da qui la derivazione della sigla CA, che deriva da linee cellulari NCA 433, una linea cellulare di
carcinoma ovarico. Bast era un ginecologo che non conosceva le caratteristiche biochimiche dell‟antigene ma gli è venuto
in mente di sviluppare un anticorpo monoclonale partendo da linea cellulare di carcinoma ovarico attraverso lo sviluppo di
anticorpi monoclonali è riuscito ad identificare nel siero di donne con carcinoma, questo antigene è una glicoproteina
molto simile classificata tra le mucine con un peso molecolare che varia da 200 a 2000 KDa a seconda della
polimerizzazione dell‟assemblaggio di molecole diverse, come sempre si caratterizza la secrezione di mucina; in realtà
questo antigene è legato alla via di trasduzione del segnale tirosin-chinasico del recettore del fattore di crescita epiteliale,
quindi, c‟è una ragione fisiopatologica perché sia interessante determinare questo antigene. Questo antigene tumorale
aumenta nel siero per effetto di invasione vascolare, distruzione tisutale e infiammazione che caratterizza il carcinoma
delle ovaie, non è un marcatore di lesioni iniziale, è un marcatore di invasività , un marcatore prognostico di
monitoraggio. Oltre che nel siero la sua presenza si osserva nel latte ,nelle ascite, quindi nei liquidi cavitari, nel liquido
cistico, nelle secrezioni cervicali, uterine, liquido amniotico. Esistono varie patologie con alterazione di CA come si vede
in questa diapositiva, nella letteratura, nella pratica si usano dei Cut-off, cioè dei punti di distinzione oltre il quale si
configura un aumento di CA125. Il Cut-off è 35 unità per ml; lo troviamo nei reperti provenienti anche da laboratori
diversi,quindi c‟è una omogeneità nel Cut-off. Quando è che si trova un aumento oppure una diminuzione di CA125, cioè
il CA125 aumenta o diminuisce soltanto in patologie neoplastiche o ci sono altre situazioni fisiopatologiche in cui ci sono
delle modifiche dei marcatori che noi troviamo nel siero. Le diminuzioni molti di voi diranno che non ci interessano, però
per capire l‟uso clinico dobbiamo sapere in quali casi ci sono delle diminuzioni:
 nella menopausa
 In alcune fasi del ciclo mestruale possiamo avere degli andamenti con aumenti nella fase follicolare, ci sono delle
diminuzione nella fase luteinica.
Ad alcuni è venuto in mente di fare diagnosi del ciclo mestruale attraverso il CA. ci sono delle modifica nel corso del ciclo
mestruale, la cosa che ci interessa di più sono gli aumenti.
Quando aumenta il CA125? In patologie maligne, ovviamente nel carcinoma delle ovaie, cancro della cervice, cancro del
pancreas, cancro della mammella, cancro dell‟endometrio, del polmone e del colon. In alcuni di questi carcinomi solo
perché esiaste una forte similitudine antigenico tra CA125 e altre mucine che sono espresse nel carcinoma del pancreas
oppure nel carcinoma della mammella dove c‟è una secrezione di CA15.3. Questa condivisione di antigeni o di epitopi
antigenici tipici di glicoproteine che fanno parte delle mucine, in altri casi è dovuto ad una aumentata secrezione è vero
che è specifico del carcinoma ovarico ma se gli aumenti non sono molto estesi può evidenziare altre patologie come pure
aumenti modesti ma comunque superiori al Cut-off 35 si riscontrano in alcune patologie benigne quali: endometriosi, cisti
ovariche e qua capite la differenza di aumenti modesti che indicano cisti benigne e aumenti che, pur essendo modesti,
indicano l‟inizio del carcinoma dell‟ovaia; in alcune malattie infiammatorie della pelvi, nelle peritonite, nella cirrosi.
Abbiamo visto che nei liquidi cavitari e in particolare nella ascite c‟è a presenza di concentrazioni molto elevate di
CA125, la specificità e la sensibilità dei marcatori derivano da questi aumenti che non sono limitati alla patologia
dell‟ovaia. In sostanza, Cut-off superiore a 35, in situazioni fisiopatologiche legate soprattutto al ciclo mestruale che
possono dare delle diminuzioni o aumenti altro che nelle patologie neoplastiche delle ovaie, ci possono essere in patologie
maligne o anche patologie benigne come l‟endometriosi e le cisti ovariche, che sono le prime situazioni di diagnosi
differenziale ad escludere il carcinoma in presenza di piccoli aumenti di CA125. Quando è uscito questo marcatore si è
fatta la domanda se questo marcatore potesse avere un utilizzo nello screening di popolazione ad es. in donne, di solito il
carcinoma della ovaia colpisce più frequentemente la donna in età in post-menopausa e si è trovato che senza la presenza
di sintomi ma sottoponendosi al test sierologico donne in quell‟età ci fosse un‟entità clinica. Si è visto che i dati erano
negativi, venivano identificati solo il 65% dei casi con tumore perché come abbiamo detto nelle premesse, il CA125 non è
in grado di visualizzare i primi stadi di malattia e solo nel 55% di quei tumori con anni di vita salvati, erano tumori ad uno
stadio per cui era possibile un intervento terapeutico di tipo curativo, nel senso di liberare la paziente dalla malattia,
quindi, si è calcolato un costo da 10000 a 30000 dollari per anno di vita salvati. Il problema di falsi positivi che avrebbe
portato un enorme quantità di donne esami invasivi e costosi oltre che per avere delle ansie per un esame di laboratorio
falsamente positivo, qui stiamo parlando di una malattia molto grava dove non è il caso di utilizzare il CA125 per lo
screening. Quindi il CA125 non èun marcatore di screening.
Qual è l‟atteggiamento corretto clinico nell‟utilizzo del marcatore?
Quello che un buon medico e non necessariamente un ginecologo deve fare come con 3 esami uno dei quali il CA125 si
possa tirar fuori dal marcatore il meglio del potere informativo.
Ammettiamo che in laboratorio viene una paziente che ha una massa pelvica, voi mettete la mano sulla pancia e sentite
che ha una massa palpabile, Il CA125 è superiore al Cut-off 35 unità per ml. Entrambi sono indicativa di carcinoma, ma
dobbiamo fare una distinzione, qual è il terzo dato che dobbiamo avere: se la paziente è in età post-menopausale o meno
perché, se la paziente è in età post-menopausale, qui la prevalenza del carcinoma ovarico è 63%, la prevalenza in questo
caso è molto più elevato.
Massa pelvica, età post-menopausale, elevata concentrazione di questo marcatore, abbiamo una probabilità di 99% che ci
sia effettivamente un carcinoma dell‟ovaia. Il valore preditivo negativo è abbastanza elevato (72%) quindi, con tre dati mi
dirigo con buona probabilità verso delle metodiche imaginiche per determinare la presenza del carcinoma delle ovaie e
stadiarlo. Con i due dati precedenti: massa palpabile della pelvi, elevata quantità del marcatore ma età pre-menopausale in
qui la prevalenza della malattia è molto più modesta, si stima 15% i dati cambiano, il valore predittivo per un valore
positivo equivale al 49% per un valore di marcatore superiore al 35, mentre se il valore del marcatore è inferiore al 35, il
valore negativo predittivo è molto elevato di 93%. In buona sostanza, l‟esatto uso del marcatore è nelle donna che per
disturbi, per sintomi iniziali vanno dal medico, il quali sente una massa, richiede la determinazione di CA125 in base a
questi 3 criteri: età della paziente, presenza della massa, valore del CA stesso, portano a dirigire l‟iter diagnostico
fortemente suggestivo. La determinazione del CA125 è raccomandata in tutti i pazienti con carcinoma ovarico; esiste una
stretta correlazione tra l‟andamento clinico e le variazioni di concentrazione del marcatore. Cosa vuol dire buona
correlazione? Vuol dire che per effetto della terapia, chemio o altro tipo di terapia anche di tipo chirurgico o radioterapia
associata, noi assistiamo ad una caduta dei livelli nel siero. Questo ci dà una buona risposta alla terapia e nel monitoraggio
a lungo termine.
Se i livelli di CA125 si mantengono al di sotto dei valori di Cut-off questo vuol dire che il paziente è libero dalla malattia
stessa, è possibile stratificare la risposta perché l‟emivita del CA125 varia ed è legata alla prognosi in qualche modo, nel
senso che nei pazienti che hanno emivita superiore a 20 gg, hanno una velocità di progressione della malattia, 3 volte
superiore a quelli che hanno un emivita inferiore e un intervallo interrotto della malattia. Se io studio la velocità di
scomparsa, se i valori iniziali del CA dopo la risposta alla terapia diminuiscono fortemente sotto il Cut-off velocemente,
questo è un segno favorevole, mentre, pur rispondendo diminuiscono lentamente, questo è un segno di maggiore
probabilità di recidiva della malattia; in ogni caso , il concetto fondamentale è che c‟è una buona correlazione tra la caduta
dei livelli come l‟indice di risposta positiva alla terapia e l‟andamento clinico che viceversa se abbiamo la ripresa di
malattia, l‟aumento di CA metterà in evidenza la recidiva della malattia e anche evidente che andando a vedere come si
comporta il CA125 noi sappiamo che valori più elevati nettamente superiori al Cut-off predicono il rischio di recidiva e la
diffusione preoperatoria. Non c‟è solo un valore assoluto sopra o sotto il Cut-off ma ovviamente, maggiormente elevati
saranno i livelli sierici, maggiormente negativa sarà la prognosi per questi pazienti. Il CA125 è un marcatore molto
studiato, abbiamo negato il suo uso allo scopo di screening per difetti della sensibilità e specificità, e abbiamo visto qual è
l‟uso nella diagnosi differenziale di massa pelvica a seconda dell‟età pre o post menopausale e abbiamo visto come sia un
marcatore molto utilizzato previsto in tutti i protocolli di monitoraggio del carcinoma dell‟ovaia. Il CA125 è marcamente
utilizzato anche se non è un marcatore ideale e non è un marcatore precoce.
L‟altra grande patologia che colpisce il sesso femminile è il carcinoma mammario. Come tutti voi sapete questa è una
principale causa di morte per il sesso femminile, specialmente per donne che vivono in paesi industrializzati per il fatto
che, oltre ai fattori genetici, incidono anche quelli legati con lo stile di vita: si stima oggi che ogni donna che vive in un
paese avanzato abbia un 12% di rischio di sviluppare il cancro. Il 36% di andare in contro alla morte. Se andiamo a vedere
le cause, sono multifattoriali; c‟è sicuramente un fattore genetico familiare, c‟è un fattore ormonale e ci sono dei fattori
ambientali. Quello che è certo è che negli ultimi anni c‟è stato un miglioramento del rapporto tra incidenza della patologia
mammaria che è ancora in aumento e la mortalità è diminuita fortemente grazie ai progressi della chirurgia e
chemioterapia.
Ci troviamo di fronte ad un carcinoma che non è del tutto chiarito nelle ragioni che sono comunque complesse. Sta
aumentando l‟incidenza ma sta diminuendo la mortalità grazie ai progressi della medicina curativa. Per quanto riguarda il
marcatore vi sono preposti una serie di biomarcatori circolandi: il
MUC1 che è una mucina molto simile al CA15.3 , si utilizza anche la CEA che è un marcatore del carcinoma al colon
retto, ma essendo una molecola che aumenta in tutti adenocarcinomi o in molti, viene utilizzato anche
nell‟adenocarcinoma della mammella.
La MCA non viene più utilizzata; era una molecola molto simile alla CA15.3, ci sono alcune oncoproteine come la C-erb2 e una serie di altre sostanze tra cui enzimi, citocheratine che sono state studiate cercando di trovare il marcatori più
specifici e sensibili. Nonostante tutti questi dati e studi e il n° di marcatori, le evidenze ci dicono che nei primi stadi di
malattia tutti i marcatori circolanti hanno una scarsa sensibilità, una sensibilità che non supera il 1535% quindi è chiaro
che la sensibilità di questi stadi in cui ci sarebbe maggiormente necessità di un marcatore tumorale non invasivo e
scadente, mentre migliora negli stadi più avanzati, dove abbiamo degli indicatori che ci dicono che i marcatori arrivano
fino ad una sensibilità non assoluta ma del 75%. È chiaro che in questi stadi, dal punto di vista diagnostico esistono altri
metodi per escludere o confermare la diagnosi di patologie neoplastiche della mammella. Se andiamo a vedere i marcatori
più utilizzati, la sensibilità nei pazienti con carcinoma della mammella primitivo loco regionale cioè, un carcinoma che è
confinato alla sede mammaria che non ha superato la membrana basale che non è esteso ai linfonodi, non ha dato
metastasi a distanza.
La sensibilità descritta nella letteratura, pur essendo delle differenze ci sono dei valori di sensibilità CEA12%, CA15.3
12.7% C-erb-2 7%.
La sensibilità per dare un messaggio chiaro proprio per quei pazienti per cui abbiamo bisogno maggiormente di un
marcatore non invasivo e del tutto scadente. In altri casi aumenta un po‟ la sensibilità ma non sufficientemente; diciamo
che per la diagnosi questi marcatori lasciano a desiderare, e la conclusione che si evince da tutti questi studi e dalle analisi
fatte in questi anni è che la sensibilità è insufficiente negli stadi iniziali della malattia.
Domanda:”Perché i ginecologi piuttosto che altri medici comunque utilizzano alcuni di questi marcatori nel profilo
diagnostico iniziale dei carcinomi?”
Abbiamo visto che la sensibilità è bassa, la ragione per cui alcuni marcatori vanno richiesti è questo che valori normali o
bassi in pazienti con sospetto di carcinoma non escludono la presenza di neoplasia mentre ritrovare dei valori elevati
questi si aggiungono ad altri fattori prognostici ad indicare che la malattia è uno stadio avanzato, se non metastatico
quindi, viene utilizzato come fattore indipendente aggiuntivo di stadi azione, non è il fattore di stadiazione, non è il fattore
prognostico. Il marcatore negativo non esclude. Quando è elevato è aggiunto ad altri parametri che in quel momento il
chirurgo che sta seguendo la donna aggiunge agli altri marcatori. I due marcatori sono: CEA e CA15.3 perché i livelli
serici di questi due marcatori sono correlati con la massa tumorale e con la componente linfonodale che può
accompagnare lo sviluppo di un carcinoma, quindi, un aumento del livello di questi due marcatori CEA e CA15.3 è un
indicatore prognostico negativo di malattia. Diciamo che per completare l‟iter diagnostico il marcatore può essere un
fattore aggiuntivo certamente non è il fattore diagnostico elettivo. Se andiamo a vedere i fattori prognostici, gli altri fattori
prognostici che imparerete ad utilizzare sono:
 Il n° di linfonodi positivi soprattutto quelli ascellari.
 Grandezza del tumore evidenziato con tecniche dell‟immagine.
 Invasione linfatica e vascolare
 Il tipo istologico sulla biopsia o nel pezzo anatomico
 I recettori ormonali non sono solo dei fattori di gravità e di prognosi ma sono elementi fondamentali
nell‟impostare la terapia.
I recettori degli estrogeni e progesterone fanno parte dell‟iter diagnostico. Ci sono in discussione gli studi per oncogeni
come: P53, erb2. L‟aploidia è indice proliferativo ma non entra nei fattori prognostici che necessariamente devono essere
eseguiti in una donna con diagnosi o sospetto del carcinoma della mammella. Attualmente si ritiene appropriato solo la
richiesta di CEA e CA15.3, non sono marcatori degli stadi iniziali di malattia quanto di fase avanzata e hanno un valore
prognostico, infatti negli studi si è visto una correlazione fra valori di pre intervento e DFS (disease free survival) e il
tempo di sopravvivenza libero da malattia e OS (overall survival) cioè la sopravvivenza media, complessiva nelle pazienti
affetti da questo calcinoma. Esiste una buona correlazione, un buon rapporto tra i valori del marcatore e la sopravvivenza
del paziente. Costi di questi marcatori non sono elevati, vale la pena per completare l‟iter diagnostico e di avere anche il
valore, alcune indicazioni soprattutto a livello prognostico vengono alterate in particolare si è dimostrato quanto abbiamo
detto quando nel momento della diagnosi, se il livello della CEA è inferiore al Cut-off che abbiamo visto per il carcinoma
del colon retto essere 5ng/ml la sopravvivenza è 178 mesi, è più alta nel 40% dei pazienti. Mentre se il valore, pur
essendo elevatissimo (il valore è superiore a 7,8ng/ml) non abbiamo nessuna paziente che è sopravvissuta oltre gli 80
mesi, è un indicatore grossolano, è un indicatore di sopravvivenza di prognosi, è un indicatore differenziato cioè di un uso
più intenso della chemio e di altre terapie in pazienti che hanno indicatori prognostici più negativi, follow-up più intenso
rispetto agli stessi pazienti con carcinoma della mammella che hanno indicatori prognostici che configurano una malattia
meno invasiva. Con più probabilità di sopravvivenza questo è emblematico di come può essere utilizzato il valore iniziale.
In effetti si è visto che l‟uso combinato di questi due marcatori ci dice c‟è un aumento di uno dei due nel 56% dei casi.
L‟aumento dei due marcatori nel 56% dei casi rappresenta il primo segno di una recidiva con un anticipo circa 5 mesi
rispetto ai segni clinici. Abbiamo visto la stessa cosa nell‟utilizza della CEA e nel carcinoma del colon. I due marcatori
identificano con una percentuale che va dal 50% fino al 65% nelle metastasi a distanza, c‟è una buona sensibilità per le
metastasi di tipo osseo e metastasi al fegato con sensibilità del 95%. Per quanto riguarda le metastasi cerebrali, il CA15.3
ha una sensibilità del 75% e una specificità del 96%, in questo caso c‟è una buona specificità per escludere quando si va a
ricercare se il tumore è diffuso ad es. per escludere la diffusione cerebrale che è un incubo per gli oncologi oltre che per i
pazienti. Abbiamo visto l‟utilizzo dei due marcatori come fattore prognostico aggiuntivo e come indicatore di
monitoraggio per la recidiva o ripresa della malattia o per metastasi a distanza, quindi, nella vostra mente, un concetto
fondamentale per questi marcatori il CA15.3 all‟inizio è elevato, fattore prognostico aggiuntivo. La paziente viene
sottoposta all‟intervento chirurgico, c‟è una discesa di valori fino ad arrivare nei valori vicino al Cut-off, purtroppo nella
storia della malattia di questa signora ricompare una recidiva che viene visualizzata da un aumento del CA15.3 nel siero,
questo porta a cambiare l‟intervento terapeutico modificarlo e quindi, per fortuna in questa signora c‟è una ridiscesa dei
valori, si accompagna ad uno stadio di libertà di malattia, quindi, come vedete il marcatore in questo caso non è un segno
della presenza fin dall‟inizio della malattia, un segno precoce ma se noi attraverso dosaggi seriati andiamo a visualizzare il
comportamento possiamo avere delle indicazioni aggiuntive per guidare le terapie. Negli studi che sono stati fatti fin‟ora,
la correlazione tra l‟andamento del marcatore e l‟andamento clinica ci dice che c‟è una sensibilità che può arrivare fino al
95% nel segnalare la malattia progressiva, la non risposta alla terapia, è un efficienza nell‟identificare la progressione
quindi una sensibilità di 94% durante la terapia e di 85% durante il follow-up. Quindi se questi marcatori non sono utili
inizialmente per la diagnosi possono diventare utili nel monitoraggio e nel proseguo della malattia, storia di questi
pazienti, l‟andamento del carcinoma della mammella ci dice che c‟è un miglioramento del rapporto tra incidenza che sta
crescendo, riduzione della mortalità tanto più diventa utile il monitoraggio del marcatore perché aumenta il n° dei pazienti
che sopravvivono, che devono essere seguiti nel tempo per scongiurare la ripresa. Nel carcinoma della mammella, oltre a
questi due marcatori si sta sempre affermando un altro marcatore che ha un uso sempre più particolare che è l‟Erb-2neu
che è conosciuto come c-erb2 perché significa human-epidermal-grow-factor-receptor-2 è il recettore 2 del fattore di
crescita epidermico. Come vedete ERB2-neu è un proto oncogeno che codifica per una glicoproteina trans membrana
P185. Nella prossima diapositiva appare come fatto, abbiamo un dominio intracellulare che ha attività tiosinchinasica e
questo spiega il suo effetto nell‟interazione con il fattore di crescita, ha un dominio trans membrana, ha una parte
extracellulare; a noi interessa molto la parte extracellulare perché questa parte può essere rilasciata in circolo e quindi può
essere identificata con anticorpi specifici. In ogni caso questa è la struttura del recettore e il motivo per cui possiamo fare
delle determinazioni nel siero ed identificarle dal fatto che c‟è questo dominio extracellulare che poi è il sito di legame con
il fattore di crescita. Dal punto di vista dell‟azione l‟interazione tra recettore e fattore di crescita scatena una razione
mediata da tirosinchinasi che porta alla trasduzione del segnale al nucleo con attivazione di numerosi geni che aumentano
la divisione cellulare e quindi, aumentando la divisione cellulare aumentano la crescita e la proliferazione delle cellule
neoplastiche, quindi, non c‟e dubbio che dal punto di visto fisiopatologico e del riconoscimento e azione nello sviluppo
del carcinoma il recettore giochi un ruolo molto importante, infatti, se noi transfetiamo con questo gene delle cellule di
carcinoma mammario, aumenta la sintesi del DNA, aumenta lo stato di crescita della cellula, aumenta il potere
tumorogenico nei topi e aumenta anche il potenziale metastatico. Ci troviamo di fronte ad un fenotipo trasformato in senso
di aggressività. Cosa possiamo fare delle conoscenze di questo fattore o meglio del recettore del fattore di crescita;
possiamo selezionare all‟interno della popolazione delle pazienti che hanno un tumore della mammella quelle che
esprimono o meno il recettore, un aumento relativo dell‟espressione del recettore perché queste pazienti con carcinoma
della mammella non saranno rispondenti della terapia con Hercepting e altri farmaci che si sono sviluppati che sono degli
inibitori del fattore di crescita o del suo recettore. È molto importante la conoscenza di altri fattori soprattutto dello stato
ormonale, conoscere se il tumore esprime o non esprime questo recettore per il fattore di crescita epidermale. Come si può
fare la determinazione? Ci sono 3 grandi metodologie:
 Metodologia immunoistochimica, quindi determinazione in fish che vengono eseguiti sul prelievo bioptico o
anatomico, quindi determinazioni invasive che hanno necessità di prelievo di un pezzo istologico.
 C‟è una determinazione in Elisa che può essere fatta nel sangue, nel siero.
È chiaro che l‟andamento della diagnosi si può fare sugli stessi pezzi anatomici dove si fanno le determinazione di
recettori di estrogenei e progesterone e il recettore per l‟erb-2-neo. Come vedete che appare nella diapositiva
successivamente ci può essere un interesse nel studiare l‟impresssione di questo fattore anche dopo l‟intervento chirurgico
e nel momento della recidiva perché si è visto che nello studiare la risposta ad un intervento chirurgico piuttosto che nelle
recidive la determinazione di erb-2 può dare delle indicazioni molto importanti tali da modificare la terapia. Qual è il
valore nel momento della diagnosi, abbiamo capito che la determinazione di questi fattori di crescita non è utilizzata a
scopo diagnostico ma è utilizzata per selezionare all‟interno di pazienti con carcinoma mammario quelli che esprimono
questo fattore perché oggi esistono delle terapie per inibire il recettore stesso quindi le pazienti che hanno un valore
superiore a questo cut-off di 15ng/nm hanno maggiore probabilità di micrometastati e di tumori più aggressivi; questo è
l‟indicazione biologica della presenza di valori elevati del recettore del fattore di crescita. Si è vista che nella popolazione
di pazienti con tumore della mammella, quel sottogruppo che esprime valori più elevati del recettore e anche il
sottogruppo che ha più probabilità di sviluppare un tumore aggressivo che dà metastasi o micromestasi, ma la cosa più
clamorosa è questa: se noi sappiamo che la somministrazione terapeutica dell‟inibitore che è l‟hercepting è legato oggi al
sistema sanitario italiano dove non si può dare il farmaco se non dopo avere eseguito la determinazione di questo
marcatore e dopo aver trovato una positività di valore sotto il cut-off perché la risposta quando il valore iniziale del
marcatore è sopra il cut-off è molto buona all‟hercepting mentre la risposta è deludente quando l‟hercepting viene
somministrata nelle donne che hanno o non hanno l‟espressione del recettore inferiore al cut-off. È come dire che non
avendo il recettore anche per il farmaco, il farmaco non ha nessuna utilità. Infatti oggi la prescrizione del farmaco è fatta
solo dopo avere eseguito la determinazione. È qui vedete una situazione paradigmatica, abbiamo l‟espressione di erb-eneu, il cut-off è sempre 15, vedete che questa è una situazione di carcinoma della mammella con forte espressione del
marcatore; qui viene data una terapia che è un chemioterapico tradizione addizionati all‟hercepting. Abbiamo una buona
rsposta, la paziente si mantiene libera dalla malattia per un certo numero di settimane dopodiché ricompare una
progressione della malattia che viene visualizzata dalla determinazione nel siero di erb-2-neu; a questo punto viene
cambiata la terapia; viene data sempre hercepting ma in associazione con genptamicina (non sono sicura se il nome è
giusto) una chemioterapia e c‟è una risposta molto positiva e sicuramente continua ad essere monitorata in associazione
dei due farmaci. In pratica erb-2-neu non è un fattore diagnostico ma un fattore che guida la terapia, terapia con inibitori
del fattore stesso. Di sicuro si è visto che nel monitoraggio della malattia metastatica del cancro della mammella, quando
abbiamo degli aumenti superiori al 15% abbiamo una forte probabilità di progressione della malattia, invece, quando c‟è
un aumento solo nel follow-up inferiore al 15% dei livelli circolanti del fattore di crescita, questo mette in evidenza una
marcata progressione della malattia e qui sono viste in termini di valori predittivi per la progressione della malattia che
sono abbastanza soddisfacenti. Una domanda che potrebbe essere fatta:”se abbiamo visto che la determinazione può essere
fatta su tessuti da pezzi di interventi chirurgici, qual è la concordanza tra valori nel tessuto e siero?”.
La fish, che è considerata come metodo di riferimento ha una concordanza nella determinazione nel siero con test Elisa
che è dell‟88%, una concordanza non al 100%, ma vicino al 90%. Mentre la concordanza tra la determinazione nel siero
quindi Elisa è immunoistochimica, è minore, ha un valore dell‟ 81%. Peraltro la concordanza delle determinazioni nei
tessuti tra fish e immunoistochimica è simile ma non arriva al 100%. La concordanza ad un altro lavoro è inferiore
all‟80%, “cosa ci dice?”. Ci dicono che ognuna di queste metodologie ha i suoi pregi e i suoi difetti, chiaramente, in una
fase iniziale, avendo a disposizione il pezzo anatomico, la biopsia è importante avere una determinazione in fish o
immunoistochimica, qui è a seconda dei paesi. Negli Stati Uniti si usa l‟immunoistochimica e negli altri paesi come
l‟Italia, più la fish che è un metodo più raffinato però i risultati sono buoni anche con Elisa, quindi, sostanzialmente
abbiamo visto che nell‟approccio iniziale alla malattia del carcinoma mammario, non pre la diagnosi ma per la conferma
diagnosi teca, e soprattutto per indicazioni terapeutiche prognostiche, le tre cose che possiamo fare sono:
- la determinazione della CEA, del CA15.3. questo è oggetto di una discussione perché ci sono alcuni che preferiscono la
CEA o CA 15.3 sempre di più in associazione con la determinazione di erb-2-neu soprattutto per dirigere la terapia con
oppure in assenza dell‟inibitore dell‟hercepting. Nel monitoraggio la determinazione del CA 15.3 o CEA viene utilizzata
per vedere la gravità della malattia oppure recidiva ma sempre di più vine utilizzata anche erb-2-neu perché si è visto che
anche in popolazioni di donne che esprimevano o meno il marcatore inizialmente, dopo chemioterapia ci può essere una
shift, per qui le cellule neoplastiche hanno un comportamento fenotipico diverso, quindi possono esprimere oppure non
esprimere il recettore. Questo può essere indicatore per la terapia per raggiungere l‟hercepting oltre al chemioterapico, in
questo sub gruppo di pazienti che esprimono il marcatore. Qui vedete la possibilità di risposta che si ha soprattutto nei
carcinomi della mammella più metastatico, in cui più chiaramente ci sono le indicazioni per un monitoraggio molto
stretto, e l‟indicazione per raggiungere ciò che si fa per seguire il paziente. Il buona sostanza, nei carcinomi della
mammella, i marcatori circolanti non hanno un valore diagnostico ma hanno un valore prognostico, e per quanto rigurda
erb2-neu possiamo selezionare tra le pazienti con carcinoma della mammella quella porzione in cui è più indicata la
terapia aggiuntiva. Quasi mai l‟hercepting si dà da solo ma con terapia aggiuntiva. Abbiamo avuto degli esempi di come
negli ultimi 4-5 anni questi marcatori circolanti si utilizzano per distinguere un soggetto sano da un portatore di patologia
neoplastica. Nell‟ultimo tempo l‟approccio è di più di un marcatore nello studio di mappe proteiche o genomiche che
distinguono il carcinoma da altre situazioni, studio di mappe di più componenti che si differenziano nel passaggio da una
condizione di salute in una situazione dove invece si ha un atteggiamento neoplastico, questo viene ricercato con l‟uso di
spettrometria di massa. Quando è stato applicato alo studio clinico di tumori, inizialmente c‟è stato un grande entusiasmo
perché, come potete vedere, sono state trovate delle mappe di proteine che differenziano il 100% dei casi o l‟80%,
nell‟insieme il 95% i carcinomi della prostata in uno stadio molto iniziale e sono pochissimi invece i casi dei falsi positivi.
Visto che abbiamo parlato del carcinoma dell‟ovaia, soprattutto per gli stadi iniziali di malattia, non abbiamo dei
marcatori potenti, sempre lo stesso gruppo ha pubblicato questo lavoro in cui, negli stadi iniziali di carcinomi delle ovaie
sarebbe molto importante avere dei marcatori precoci, avrebbero dimostrato che il 100% dei casi fossero classificati da
questo pattern di proteine viste con le tecniche di spettrometria di massa e negli stadi secondo, terzo e quarto ugualmente
100%. Questi dati pubblicati nel 2002 non sono mai stati confermati, è cambiato il tipo di tumore ma non la metodologia e
non il significato. 3 laboratori, quello dello stato del Michgan, New York, Boston usavano la stessa metodologia come
questa spettrometria di massa tutti e tre con la stesse tecnica sono andati a differenziare ed è stato visto un pattern che
veniva classificato come correlabile al carcinoma della mammella. Sono stati classificati i pazienti, poi l‟insieme di questi
pazienti sono stati mescolati, nel senso che sono statitmessi tuti insieme, non si sapeva quali fossero i sani e quali i malati
e sono stati inviati ad un 4° centro dipendente che ha usato la stessa tecnologia di spettrometria di massa per differenziare
con lo stesso pattern proteico, il problema era di differenziare il soggetto sano da quello con carcinoma. Ognuno nei 3
centri ha classificato cono gli stessi criteri i soggetti sani da quelli portatori di cancro, invio ad un 4° centro che, cono la
stessa tecnica ha replicato lo studio non sapendo cosa era venuto fuori. Quale sarebbe stato il risultato del 4° centro? Il IV
centro dipendente ha visto che la differenziazione non era una differenziazione tra sani e malati ma la d. era tra i cluster
con cui erano stati lavorati i pazienti, nello stato del M., di NY, lab. Di Boston, la variabile preanalitica in modo in cui
erano elaborati i pazienti condizionava fortemente la metodica. Questi studi hanno messo in evidenza di come per il
momento questa tecnica multi market specialmente questa spettrometria di massa necessita, prima di essere porta nella
clinica, una fase di valutazione molto attenta delle variabile preanalitiche, perché hanno scoperto che i pattern proteici nel
siero rispetto agli spettri sono diversi. Questi esperimenti hanno messo in evidenza che ci sono forti differenziazioni per
chi conosce questa tecnica di spettrometria, usa dei chip; ci sono delle differenze ne chip, si a livello della serie analitica
che viene utilizzata giornalmente ma tra sedi diverse e protocolli di raccolta. In poche parole siamo in una fase dove
questa linea di ricerca non è stata assolutamente abbandonata ma si va prima di proporla per l‟utilizzo clinico a rivedere
tutte le variabili. Un lavoro come quello di Tricoid, dove si riteneva una sensibilità a l00% e specificità per un carcinoma
delle ovaie anche nelle fasi iniziali ha suscitato grandi aspettative che sono rilevate non realistiche, in poche parole, le
varibili che affliggono queste metodiche sono sempre più studiate, sono variabli preanalitiche analitiche per cui non mi
permetto di predire se questo tipo di marcatore viene utilizzato nella clinica, per il momento non lo sono e quindi avete
tempo di vedere…
28/04/2009
CARCINOMA DELLA PROSTATA E DETERMINAZIONE DEL PSA
Verso la fine del 2008 apparve sul New England Journal of Medicine uno studio che rifletteva molte delle problematiche
che attualmente riguardano la diagnosi del carcinoma alla prostata; più in particolare se uno strumento di laboratorio, cioè
la determinazione del PSA (prostatic specific antigen), sia uno strumento da utilizzare come test di screening.
Normalmente si ritiene che il cut off sia di 4 μg/l.
Nello studio del New England Journal of Medicine un signore, consigliato dal medico di famiglia, ha effettuato il test di
concentrazione del PSA nel 2006 all‟età di 63 anni, cioè oltre i 50 anni, indicata come l‟età oltre la quale è consigliato
verificare la concentrazione di PSA anche in assenza di sintomi. Il risultato del test è una concentrazione di 1,5 μg/l. Nel
2007 questo signore ha ripetuto il test, con risultato di 3,1 μg/l. Questo valore è ancora sotto il cut off, ma c‟è stato
comunque un raddoppio della concentrazione di PSA. Nel 2008 viene ancora ripetuto il test con un risultato di 3,8 μg/l;
questo valore di concentrazione è ancora sotto il cut off di 4 μg/l, ma a questo punto il medico di famiglia consiglia una
visita specifica.
Il paziente va quindi dall‟urologo e si sottopone a esplorazione rettale che risulta negativa; l‟urologo però fa anche
un‟ecografia dalla quale non ottiene dati indicativi essendo il volume della prostata di 22 cm3. Propone comunque al
paziente la biopsia della prostata, un procedimento invasivo che viene fatta utilizzando 12 aghi: in 2 di questi 12 aghi
viene riscontrata positività per un adenocarcinoma.
Il dato significativo è che fra il 2006 e il 2007 l‟aumento della concentrazione di PSA è superiore al 100%. Fra il 2007 e il
2008 l‟aumento è solo del 22,5 %; questo però non è un dato molto indicativo in quanto non si conosce il mese del 2008 in
cui è stato effettuato l‟esame, non si sa quindi se dal precedente esame del 2007 sia trascorso effettivamente un anno o
solo qualche mese. Queste percentuali di aumento sono superiori, o comunque in linea, con la differenza critica fra due
controlli a distanza di un anno, corrispondente ad un aumento della concentrazione di PSA del 24%. Appare evidente
come l‟aumento fra il 2006 e il 2007 sia molto significativo, ma anche l‟aumento fra il 2007 e il 2008 sia abbastanza
critico. Molti studi comunque suggeriscono che la velocità di crescita annuale della concentrazione di PSA sia da
considerarsi sospetta se superiore al 20%.
Riassumendo, questo signore non aveva valori di concentrazione di PSA superiori al cut off, però considerando il concetto
della differenza critica della crescita annuale, si rileva un aumento significativo; inoltre 2 prelievi su 12 evidenziano
positività per un adenocarcinoma.
Al paziente vengono quindi offerte 3 opzioni:
 aspettare (il carcinoma alla prostata può essere indolente);
 prostatectomia radicale;
 radioterapia.
Il New England Journal of Medicine effettua quindi un sondaggio presso medici in tutto il mondo su quale sarebbe
l‟opzione migliore, con i seguenti risultati:
 negli USA: 37% a favore della prostatectomia
36% a favore della radioterapia
27% a favore dell‟attesa
 in Europa: 35% a favore dell‟attesa
26% a favore della radioterapia
39 % a favore della prostatectomia
In paesi sudamericani e africani invece l‟opzione della prostatectomia radicale è molto più considerata.
Da questi dati emerge come il problema del carcinoma della prostata e del PSA in genere sia ancora molto aperto.
Il carcinoma della prostata, in termini di numerosià assoluta è il 6° tumore più comune nel mondo, il 3° se ci si limita al
sesso maschile.
Ha un‟incidenza bassa in Asia, soprattutto in Cina, ma molto alta in Scandinavia e in America del Nord.
I fattori ereditari giocano un ruolo importante nell‟insorgenza di questa malattia, ma anche lo stile di vita incide molto.
Ciò è documentato dall‟aumneto dell‟incidenza del cancro in soggetti giapponesi emigrati negli USA e costretti quindi ad
un cambiamento delle abitudini alimentari, dell‟ambiente, ecc…
L‟incidenza di questo tumore è tutt‟ora in crescita, ma dall‟anno di introduzione del test del PSA nella pratica clinica ad
oggi, si assiste negli USA (dove si hanno più dati epidemiologici) ad una considerevole diminuzione della mortalità. Uno
dei più grandi urologi, che molto ha lavorato sul PSA, ha messo in evidenza come questa grande diminuzione di mortalità
sia dovuta al fatto che in paesi che hanno introdotto diffusamente la determinazione del PSA anche in soggetti
asintomatici, sia diminuito il numero di diagnosi di tumori in stadi più avanzati, e quindi più difficilmente trattabili.
I fattori di rischio geneticiv sono stati identificati in loci di suscettibilità nei cromosomi 1, 8, 17, 20, X, ma soprattutto sul
locus HPC1 del braccio lungo del cromosoma 1, cui è dovuta parte dell‟ereditarietà genetica del carcinoma alla prostata.
Altre interessanti evidenze sono dei polimorfismi del recettore androgenico del recettore della vitamina D, di CIP-17, 17αidrossilasi e di 5α-reduttasi, che sembrano contribuire all‟aumento del rischio e progressione del carcinoma.
Ovviamnete oltre a fattori genetici, esistono fattori di rischio ambientali, per i quali ci sono evidenze riguardo alcune
abitudini alimentari, come l‟elevato introito di grassi, carni, derivati del latte, calcio (oltre 600 mg/giorno), elementi tipici
della dieta occidentale. Anche il tipo di cottura della carne (alla brace, barbecue,…) influisce sull‟insorgenza del
carcinoma; questo giustifica in parte l‟alta incidenza del carcinoma della prostata nei paesi occidentali.
Altrettanto noti sono comunque i fattori protettivi, come ad esempio il pomodoro e i suoi derivati, grazie forse alla
ricchezza in licopene, un antiossidante; anche diete ricche in selenio e vitamine sono sicuramente fattori protettivi.
Riassumendo:
 fattori di rischio: origine etnica, età (carcinoma alla prostata molto raro sotto i 50 anni), storia familiare, alcuni
fattori di crescita come insulin growth factor;
 fattori protettivi: licopene, zinco, selenio;
 fattori di rischio esclusi: alcool, fumo, vasectomia, attività fisicà.
Questi carcinomi, nel 98% dei casi sono adenocarcinomi; altre forme come carcinomi mucinici, neuroendocrini o
adenocarcinomi duttali sono delle rarità.
La funzionalità e la grandezza della prostata è strettamente sotto controllo ormonale, che avviene sostanzialmente
attraverso la stimolazione pulsatile del DNRH che stimola l‟adenoipofisi a produrre FSH, LH, ACTH. Quindi ciò che
interessa riguardo l‟insorgenza dell‟adenocarcinoma è la concentrazione degli estrogeni, ma soprattutto degli androgeni, in
particolare il testosterone, che mantengono l‟attività e la funzionalità della prostata. Di conseguenza una delle opzioni
terapeutiche è il blocco androgenico: molte tipologie di tumori alla prostata vengono infatti curati abolendo il
sostentamento della funzionalità prostatica da parte degli androgeni. Chiaramente un deficit di androgeni induce atrofia
nella prostata; al contrario un eccessiva concentrazione di androgeni o comunque un eccesso di interazione fra ormoni e
recettori può portare ad un ipercrescita della prostata ed esposizione al rischio di insorgenza di carcinoma.
Il primo strumento della biochimica per la diagnosi del carcinoma alla prostata è stato il marker fosfatasi acida totale,
ormai in disuso da tempo. Fino a vent‟anni fa si utilizzava la fosfatasi acida prostatica (PAP); in seguito è stato quindi
identificato l‟antigene prostatico specifico.
La determinazione della concentrazione di PSA ha fatto compiere un notevole passo avanti nella diagnosi del carcinoma:
ad esmpio già nello stadio A in cui il tumore non è palpabile ed è asintomatico, si passa da una sensibilità del 6-7%, con
l‟utilizzo della fosfatasi acida prostatica, ad una sensibilità del 55-60% con il PSA. Nello stadio B analogamente, con
l‟utilizzo del PSA si è passati da un 15-30% di casi di positività a circa 75%.
Il PSA è un enzima serin-proteasi. Isolato per la prima volta da Hara nel 1971, codificato da un gene presente nel braccio
lungo del cromosoma 19. In vivo il target di azione del PSA sono la seminogelina 1^ e 2^ e la ficronectina, per cui il PSA
è un elemento essenziale per fluidificare il liquido seminale e rilasciare spermatozoi con buona continuità. In altre parole
se non ci fosse la secrezione di PSA avremmo una più facile coagulazione di liquido seminale e quindi la messa in circolo
di spermatozoi con motilità insufficiente.
Il PSA viene misurato nel sangue perché, mentre la secrezione maggiore avviene nel liquido seminale, una parte passa nel
sangue e può essere quindi determinata. Nel sangue il PSA viene legato ed inattivato da molti inibitori delle proteinasi, in
particolare l‟α1-antichimotripsina, l‟inibitore delle proteasi, l‟inibitore della proteina C, l‟α2-macroglobulina.
Alcuni di questi inibitori sono presenti nel sangue in una concentrazione molare che è da 100 a 1000 volte superiore
rispetto al PSA; di conseguenza la frazione di PSA libero nel sangue è molto modesta.
La determinazione del PSA viene fatta tramite metodi immunometrici: il PSA viene visto come un antigene contro il quale
vengono sviluppati anticorpi che reagiscono specificatamente con esso in una reazione antigene-anticorpo. Per un buon
metodo di determinazione del PSA sono necessarie 2 caratteristiche fondamentali:
 capacità di determinare in forma equimolare il PSA libero ed il PSA complessato;
 questi metodi devono avere una sensibilità analitica a concentrazioni molto basse di PSA, inferiori a 1; la sensibilità
deve essere tale che l‟imprecisione sia fortemente contenuta, con il coefficiente di variazione inferiore al 5%.
Il primo aspetto è fondamentale a livello diagnostico; il secondo aspetto è fondamentale per quanto riguarda il
monitoraggio: infatti, sia che si effettui un trattamento di prostatectomia totale, sia che si effettui un trattamento di
radioterapia, si deve monitorare il livello di PSA circolante che deve essere inferiore a 1 μg/l, ovvero praticamente assente.
Per monitorare questo bassissimo livello di PSA, il metodo deve avere necessariamente una bassissima sensibilità
analitica.
Nel 1991 Catalona pubblica sul New England Journal of Medicine un lavoro effettuato su una casistica molto
rappresentativa sui dati di tre indagini che si fanno nell‟approccio nel caso di sopsetto carcinoma alla prostata:
 l‟esplorazione rettale: sensibilità 86%, specificità 44%;
 l‟ecografia transrettale: sensibilità 92%, specificità 27%
 la determinazione del PSA: sensibilità 79%, specificità 59%.
Si nota quindi che la determinazione del PSA ha una maggiore accuratezza delle altre due indagini diagnostiche.
Per quanto riguarda invece il valore predittivo negativo, tutte e tre le indagini si aggirano intorno a valori del 90%, dando
forza alla teoria dell‟utilizzo del PSA, essendo un‟indagine diagnostica non invasiva.
Nonostante queste considerazioni probabilmente va prestata attenzione nell‟utilizzo del PSA, non essendo esso un
antigene tumorale che viene sviluppato nel corso del carcinoma alla prostata, ma un antigene presente nelle ghiandola
prostatica.
Dalla detrminazione del PSA ci si possono aspettare falsi positivi a causa di:
 aumento dell‟età con la conseguente iperplasia della prostata;
 trauma o agenti microbici che possono causare prostatiti;
 attività fisica (è noto che chi va in bicicletta può riscontrare aumenti del PSA anche consistenti);
 biopsia.
E‟ evidente quindi che il dato di laboratorio va interpretato conoscendo le condizioni del paziente al quale è stato fatto il
prelievo.
Ciò che è molto meno noto e che è venuto alla luce solo poco tempo fa, è l‟esistenza di falsi negativi.
Per supplire a queste non perfette sensibilità e specificità del PSA, è stata adottata questa linea guida:
4. nel caso di concentrazioni di PSA totale inferiori a 4 μg/l si ha basso rischio di carcinoma alla prostata.
Comunque dai dati emerge che il 19% dei pazienti può presentare un carcinoma alla prostata pur avendo livelli
PSA inferiori a 4 μg/l. Quest‟evidenza ha portato Catalona a proporre 2,5 μg/l come valore di cut off. Da notare
che la scelta del livello di cut off ha significato anche per quanto riguarda la rassicurazione del paziente;
5. nel caso di concentrazioni di PSA superiori 10 μg/l non ci sono dubbi sulla presenza di un carcinoma, soprattutto
ovviamente se non ci sono chiari segni di un‟infiammazione alla prostata o di una biopsia effettuata
precedentemente. A questo punto l‟urologo deve consigliare una biopsia;
6. nel caso di valori di PSA compresi fra 4 e 10 μg/l si è in una “zona grigia”: ci potrebbe essere infatti un cancro
iniziale o più semplicemente un‟ipertrofia (propria del 10-12% dei maschi con età superiore ai 50 anni).
Per ovviare a ciò sono state introdotte strategie diagnostiche per aumentare il significato della determinazione del PSA.
Queste strategie sono la PSA density e la PSA velocity:
4. PSA density: è il rapporto fra la concentrazione plasmatica do PSA e il volume della prostata determinato con
ecografia transrettale. Il significato di questo valore è che nel caso di un volume della prostata normale o
comunque piccolo, e un livello di PSA elevato, ci saranno più probabilità che ci sia un cancro che nel caso di un
volume aumentato per iperplasia benigna con concentrazione di PSA appena aumentato;
5. PSA velocity: aumenti nel tempo (oggi si considera 1 anno) della concentrazione di PSA superiori del 20%
vengono considerati sospetti.
Il limite nel PSA density è che le misure del volume della prostata fortemente esaminatore-dipendenti e strumentodipendenti, a seconda delle capacità di risoluzione dell‟ecografo. Inoltre il rapporto fra lo stroma della ghiandola e
l‟epitelio è molto variabile, per cui varia anche la significatività del rapporto fra concentrazione del PSA e volume della
prostata.
Il limite più importante del PSA velocity è la possibilità di trovare un aumento della concentrazione di PSA dopo un anno
dal precedente test non a causa della presenza di un carcinoma, ma per attività fisica, o prostatite, o biopsia, o massaggio
prostatico precedentemente effettuati dal paziente.
Si è già visto come la quota in circolo di PSA libero sia modesta, in quanto la maggior parte viene catturata da degli
inibitori che sono inconcentrazione molare da 100 a 1000 volte superiori. La parte che appunto sfugge agli inibitori è
determinabile; la determinazione del PSA libero da sola non è comunque molto indicativa, ma assume significato se posta
in rapporto con la determinazione del PSA totale:
PSAlibero
PSAtotale .
Nella fascia di incertezza (fra 4 e 10 μg/l), la crescita di questo rapporto oltre il 20-25% fa diminuire la probabilità che ci
sia una patologia neoplastica della ghiandola; la diminuzione di questo rapporto al di sotto del 20% fra crescere la
probabilità che ci sia un‟iperplasia.
Il senso di questi valori è aggiungere un parametro biochimico che diminuisca il numero di pazienti che vengono avviati
ad effettuare una biopsia prostatica: ad esempio, valori di concentrazione di PSA compresi fra 4 e 10 μg/l, con un rapporto
molto basso fra PSA libero e PSA totale (5-10%) sono indicazioni assoluti per avviare un paziente alla biopsia.
L‟importanza di questo valore si traduce quindi nella riduzione del 20-64% delle biopsie non necessarie, mentre viene
mantenuta la sensibilità per diagnosticare il carcinoma.
Negli ultimi anni si è capito che il cancro rilascia una forma intatta di PSA; è come se la secrezione fosse accellerata o i
processi post-translazionali fossero in parte inibiti, per cui quella che trovano nel siero è una forma più intatta. Nel caso di
ipertrofia benigna invece, si hanno dei fenomeni post-translazionali molto evidenti che provocano il clivaggio della
molecola e quindi la formazione di un PSA diverso da quello che viene sintetizzato originariamente.
Nel 2004 sempre sul New England Journal of Medicine esce uno studio che coinvolge un numero molto significativo di
uomini fra i 62 e i 91 anni (2950 soggetti), il cui scopo è verificare la prevalenza del carcinoma alla prostata in soggetti
con PSA inferiore a 4 μg/l. A questi uomini ogni anno vengono fatti un‟esplorazione rettale e la determinazione del PSA.
E‟ stata trovata una prevalenza del carcinoma del 15,2%, cioè su 2950 soggetti sono stati identificati 449 cancri; 67 di
questi avevano uno score di Gleason oltre 7, quindi un carcinoma che si può definire biologicamente pericoloso.
Analizzando la correlazione che c‟è fra i valori del PSA e l‟assenza di cancro, carcinomi con score fra 2 e 4 (bassa attività
evasiva), carcinomi con score intermedi e carcinomi con score elevati, si nota che tendenzialmente lo score più elevato si
correla con valori di PSA un po‟ più elevati, ma comunque anche per carcinomi in uno stadio avanzato, una buona fetta di
questi presentano valori di PSA addirittura inferiori a 1 μg/l.
Volendo quindi ridiscutere il valore di 4 μg/l per il cut off, si devono osservare la specificità e la sensibilità che emergono
da questo studio per i vari livelli possibili di cut off:
20. fra 3,1 e 4 μg/l: specificità 92%, sensibilità 12%;
21. fra 2,1 e 3 μg/l: specificità 73%, sensibilità 37%;
22. fra 1,1 e 2 μg/l: specificità ulteriormente diminuita, sensibilità ulteriormente aumentata.
Alla luce di questi risultati si può pensare che abbassare il cut off da 4 a 2,5 μg/l possa consentire di vedere più carcinomi
con una specificità ancora tollerabile; abbassarlo ulteriormente però causerebbe una drammatica diminuzione della
specificità.
Il PSA complessato, cioè legato agli inibitori, è l‟85% del totale, mentre quello libero rappresenta il 15%. All‟interno di
questa quota libera si può distinguere una frazione (28%) definita bPSA, forma del PSA caratteristica dell‟ipertrofia
benigna. Gli anticorpi monoclonali per questa forma di PSA già stati scoperti ed in questo periodo si sta lavorando per
stabilizzarne il dosaggio; questi anticorpi permetteranno di valutare la quantità della bPSA, affiancandosi così alla
determinazione del normale PSA, direttamente rapportabile all‟insorgenza dell‟iperplasia benigna ed escludere così un
carcinoma.
Questa determinazione non entra però nel problema di quella quota di pazienti che comunque hanno un valore di PSA
basso, inferiore a 2,5 μg/l. Probabilmente per questi casi la migliore strategia è la ripetizione negli anni della
determinazione del PSA, e la verifica quindi della velocità di incremento della concentrazione.
Tutto ciò peraltro è legato ad un altro problema che attiene allo screening di questa malattia, cioè la valutazione
dell‟opportunità di sottoporre un paziente (magari relativamente giovane) a prostatectomia radicale una volta accertata la
presenza di un carcinoma, senza peraltro dati sicuri sulla sua capacità invasiva.
Con la prostatectomia infatti si avrebbe il rischio per il paziente di portare per molti anni il pannolone, di essere
incontinente, impotente. Non esiste ancora infatti un indicatore del potere invasivo o metastatizzante di un carcinoma; lo
score di Gleason infatti viene utilizzato per indicare la gravità della malattia, non la capacità biologica del tumore di
evolvere o rimanere latente.
Rimane quindi il prblema di come trattare un tumore asintomatico: ciò dipende dall‟età del paziente in relazione alla
qualità della vita che sarà costretto a condurre, e dall‟accettazione da parte sua dell‟opzione proposta.
Il PSA comunque ha valore una volta accertata la presenza di carcinoma: gli studi dimostrano chiaramente che maggiore è
la concentrazione di PSA alla diagnosi in fase pre-terapia, peggiore sarà la prognosi.
Un‟altra “arma” che si sta aggiungendo al PSA nella diagnostica del carcinoma è il PCA3. Il PCA3 è una molecola che ha
un chiaro rapporto con un polimorfismo legato allo sviluppo del carcinoma alla prostata; la sua determinazione è
interessante perché non viene eseguito nel sangue ma nelle urine, dopo aver sottoposto il paziente ad almeno due
spremiture della ghiandola prostatica.
In poche parole con questo test si va a stimolare il rilascio nelle urine del PCA3 che poi si va a determinare; ciò che mette
in rilievo un aumento del PCA3 è una maggiore specificità rispetto ad un aumento del PSA.
Comunque anche questo non risolove il problema di quel 15% di persone con PSA basso e carcinoma, ma può dare
indicazioni utili prima di attuare una manovra invasiva come la biopsia, per capire se un aumento del PSA sia dovuto più
probabilisticamente ad un carcinoma o ad un‟ipertrofia benigna.
In caso di prostatectomia radicale la concentrazione di PSA dovrebbe scendere drasticamente, ma questa non va effettuata
subito, ma almeno dopo 3 mesi dall‟intervento, in quanto l‟emivita del marcatore è tale che si può avere un livello di PSA
da raffrontare al valore basale solo dopo 3 mesi.
In corso di monitoraggio post-intervento ci si può aspettare che se si trovano livelli di PSA non rilevabili (inferiori a 1
μg/l) si è in una condizione libera da malattia; se invece, pur essendo diminuito, si trovano livelli di PSA maggio a 1 μg/l,
probabilmente la malattia sta persistendo. Si può quindi adottare una terapia aggiuntiva (radioterapia).
Se invece l‟opzione terapeutica adottata è quella del blocco androgenico, si assiste ad una diminuzione del PSA, ma
ovviamente non ad una sua totale scomparsa in quanto non si è eliminata la ghiandola ma semplicemente si è inibito un
suo eccessivo tropismo e funzionalità attraverso l‟uso di anti-androgenici.
In questi casi comunque, se si rilevano valori di PSA costantemente sotto i 4 μg/l, i pazienti hanno una migliore
sopravvivenza.
In caso di insensibilità ormonale, dopo un iniziale riduzione del tropismo, si ha un adattamento delle cellule neoplastiche
all‟ambiente e un conseguente nuovo aumento dei valori del PSA. E‟ chiaro quindi che la determinazione del PSA è
importante per monitorare questa situazione nella terapia ormonale.
Se si adotta invece la radioterapia, si assiste ad una riduzione dei livelli del PSA, ma non ad una sua totale scomparsa;
comunque livelli inferiori a 0,5 μg/l si asssociano con probabilità molto elevata ad una condizione libera da malattia. Se i
livelli scendono fra 0,4 e 0,5 μg/l si può addirittura ffermare che la radioterapia è stata curativa. Al contrario due aumenti
successivi di PSA superiori a 1 μg/l suggeriscono la ripresa della malattia.
In conclusione un buon atteggiamento da parte del medico è consigliare a soggetti sopra i 50 anni di sottoporsi a questi
esami, e quindi spiegare loro il valore e l‟interpretazione della determinazione del PSA, i suoi limiti, e gli eventuali iter
terapeutici.
Nell‟ambito c‟è comunque molta incertezza; la medicina deve consentire al paziente di poter scegliere fornendogli più
informazioni possibili a riguardo.
05/05/09
MARCATORI TUMORALI
Tumori delle cellule germinali in particolare del testicolo:
In questa specifica tipologia tumorale i marcatori biochimici sono utilizzati in modo sicuro e affidabile in diagnosi e
prognosi.
Quando si trova alla palpazione una massa testicolare l‟iter diagnostico si compone di una TAC all‟addome, torace e pelvi
insieme alla determinazione di marcatori circolanti quali:



AFP: alfachetoproteina
hCG: gonadotropina corionica umana
LDH: lattato deidrogenasi
Per comprendere il significato dei marcatori è necessario partire dall‟embriogenesi tumorale,
la classificazione che ancora oggi si fa parte da una cellula detta Germinale primordiale che si differenzia in: Germinoma
(stadio primario) che non esprime AFP e hCG.
Carcinoma non seminomatoso esprime AFP e hCG
Poi suddivisione in teratomi e in differenziazione extraembrionale.
Cellula Germinale Primordiale
Germinoma
(seminoma o disgerminoma)
AFP-, hCG-
Carcinoma embrionale
(non seminoma)
AFP+, hCG+
Differenziazione
Extraembrionale
Trofoblasto
AFP-, hCG+
Sacco vitellino
AFP+, hCG-
Differenziazione
embrionale
Teratoma
Immaturo
AFP-, hCG-
Teratoma
Maturo
AFP-, hCG
La cosa fondamentale da ricordare è che:
AFP è prodotta in tumori di derivazione endodermica.
hCG è prodotta dalle cellule del sincizio trofoblasto.
PLAP (Placental alkaline phospatase) è un marcatore complementare ai precedenti, aumenta nei seminomi ( sensibilità 5190% ) mentre nei tumori non seminomiali NSGCT aumenta ma ha sensibilità molto ridotta (sensibilità 20-36% ).
 -caratterizzato da scarsa emivita 0,6-2,8 giorni
 -è aumentato di oltre l‟80% nei seminomi del testicolo nel I stadio
 -erano possibili in passato valori di falsi positivi in soggetti fumatori ma ormai il problema può dirsi risolto e il
fumo non è più un elemento che interferisce nell‟esame
Per determinare hCG il metodo deve riconoscere la molecola intatta (complesso alfa e beta ) e la catena beta che è quella
che caratterizza l‟intera molecola, poichè la alfa è comune ad altre molecole ormonali es. FSH o LH.
La combinazione dei valori pre-trattamento con parametri clinici ha portato a nuova classificazione prognostica dei tumori
non seminomatosi, quindi si tiene espressamente conto dei valori dei marcatori circolanti. Già alla fine degli anni ‟90 è
stata raccomandata la determinazione di AFP hCG e LDH per essere poi inseriti nelle linee guida di stadiazione tumorale.
In uno studio promosso dall‟International Germinal Cancer Collaborative Group su 5000 pazienti i fattori prognostici
indipendenti seguenti risultarono essere indicativi per la stadiazione tumorale.
23. livelli pretrattamento di hCG AFP e LDH
24. sede del tumore (mediastino vs testicolo)
25. presenza metastasi viscerali
Valutazione Prognostica oggi utilizzata:
AFP ng/ml
HCG U/l
Prognosi Buona S1
Minore 1000
Minore 5000
Prognosi Intermedia S2
Compreso fra 1000 e
10.000
Maggiore 10.000
Compreso fra 5000 e
50.000
Maggiore 50.000
Prognosi Negativa S3
LDH multipli limite
superione valore di
riferimento (RR)
Minore 1,5 RR
Compreso fra 1,5 e 10
Maggiore 10
La determinazione in serie dei marcatori tumorali è utile al monitoraggio della terapia:
La normalizzazione dei marcatori ( AFP e hCG) dopo intervento chirurgico di orchiectomia nei 10 gg successivi indica
una prognosi favorevole.
In caso di chemioterapia i pz con marcatori caratterizzati da emivita superiore a 7 gg per AFP e 3 gg per hCG presentano
una sopravvivenza significativamente inferiore a quella di pz con più breve emivita dei marcatori.
Una mancata normalizzazione o emivita allungata dei marcatori dopo un intervento terapeutico sono predittivi di una
recidiva della malattia anche se migliora l‟andamento clinico.
Protocollo Raccomandato per tumori non seminomatosi il follow-up prevede:
-esame obbiettivo RX torace, livelli AFP e hCG-ogni mese nel primo anno
-ogni 2 mesi dnel secondo anno
-ogni 3 mesi nel terzo anno
-ogni 6 mesi nel quarto e quinto anno
Il protocollo è complesso ma sulla base dell‟outcome clinico questo è quello che da i migliori risultati.
La sierologia si è rivelata superiore dell‟istologia nella decisione terapeutica, se si riscontrano livelli elevati di AFP in pz
che „istologicamente‟ erano stati identificati come portatori di seminoma (che per definizione precedente non può
esprimere AFP) questo fatto induce a trattare il pz come non seminomatoso a dispetto della diagnosi istologica.
Biomarcatori hanno valore clinico in quanto hanno:
-importanza diagnostica
-importanza prognostica
-importanza nel monitoraggio (screening)
Raccomandazioni da organismi internazionali:
Determinare AFP, hCG e LDH per la valutazione di stadiazione dei tumori alle cellule germinali prima dell‟orchiectomia.
Trattare pz con aumento di AFP (normalmente non presente nei tumori seminomatosi) come non seminomatosi anche se
istologia ha indicato la natura seminomatosa.
Effettuare test dei biomarcatori prima e dopo il trattamento.
Velocità di diminuzione va confrontata con quella normale che è di 7 gg per AFP e 3gg per hCG
Pazienti con tumore in stadio IIA E IIB che non ricevono chemioterapia dopo l‟intervento chirugico dovrebbero essere
sottoposti al protocollo di follow up raccomandato.
CARCINOMA DEL PANCREAS:
CA19-9 (Carbohydrate Antigen)
Antigene glicoproteico; identificazione è ottenibile con l‟utilizzo di anticorpi monoclonali ottenuti da topi immunizzati
con una linea umana di carcinoma colonrettale (SW-1116).
CA19-9 è un monosialoganglioside, attraverso la spettrometria di massa si è potuto scoprire che è una forma sialilata
dell‟antigene Lewis A. Aumenta nei soggetti con tumore del pancreas.
L‟espressione del CA 19-9 dipende dal tipo Lewis A (altra tipologia di determinazione gruppi sanguigni).
Soggetti Lewis AB negativi non possiedono fucosil transferasi che attacca molecole di fucosio, non sono quindi in grado
di sintetizzare la molecola CA19-9 (nella pop. Caucasica 8% individui sono Lewis neg, nella razza afroamericana il 20%
della pop. è Lewis negativa) Quindi in questi soggetti livelli di CA19-9 sono negativi anche in presenza di neoplasie.
Il CA19-9 è sintetizzato da:
 Cell. Duttali pancreatiche
 Cell. Duttali biliari
 Epitelio gastrico
 Epitelio colico
 Endometrio
 Salivare
 Tessuto pancreatico infiammato e neoplastico
Sensibilità marcatore è tra 68% e 94%
Questo a causa del fatto che una grossa fetta della popolazione sono Lewis negativi e quindi anche CA19-9 negativi
quindi non sempre utile.
Specificità è tra 76% e 100%
Le performances della determinazione del CA19-9 migliorano quando vengono considerati pz affetti da neoplasia
pancreatica in stadio avanzato mentre la sensibilità diminuisce significativamente nei tumori di diametro inferiore a 3 cm.
Negli esperimenti eseguiti con linee cellulari es. carcinoma indifferenziato (MIAPaCa2) è capace di produrre e rilasciare
CA19-9 in proporzione diretta al numero delle cellule coltivate, sicura è l‟attendibilità in vitro, nel vivente però altri fattori
possono influenzare i livelli circolanti.
Aumenti significativi del biomarcatore si possono avere in seguito ad altre neoplasie del tratto gastroenterico e a
condizioni benigne:
-ostruzione biliare (colelitiasi)
-colecistite
-colangite
-cirrosi epatica
-pancreatite acuta e cronica
La colestasi molto spesso aumenta livelli circolanti di CA19-9 come di altri antigeni glicoproteici metabolizzati a livello
epatico, una piccola quantità di CA19-9 è sintetizzata in soggetti Lewis positiva in seguito a flogosi.
PROGNOSI:
I livelli sierici del marcatore rappresentano una variabile predittiva indipendente per la determinazione della
sopravvivenza del paziente.
Il carcinoma pancreatico è ritenuto difficilmente curabile per vari motivi, i livelli sierici del biomarcatore sono utili a
stabilire se il paziente sia responsivo o meno alla terapia. Una risposta dopo terapia, consistente in una diminuzione dei
livelli sierici di CA19-9 dal 50% al 75% identifica responsività alla terapia.
Studio comparato sulle tecniche di diagnosi: tecniche imaging/livelli CA19-9:
Solo imaging
Solo biomark
Imaging e biomarcatore
Sensibilità
82%
87%
97%
Specificità
84%
86%
88%
Il Profilo diagnostico migliore per il carcinoma pancreatico è quindi l‟utilizzo delle tecniche di imaging associate in
correlazione stretta con le tecniche di medicina di laboratorio con determinazione del CA19-9.
TUMORI NEUROENDOCRINI DEL PANCREAS:
sono tumori non esprimenti CA19-9, a seconda del tipo istologico sono divisibili in 6 classi in base all‟ormone secreto:
Tumore
Distribuzione
Probabilità sviluppo metastasi
Insulinoma (cell beta, eccesso secrezione insulina)
Somatostatinoma (cell D aumento glicemia e steatorrea)
Glucagonoma (cell alfa, Diabete)
VIPoma (aumentata secrezione glicopeptide vasoattivo)
Gastrinoma (cellG)
Non sindromici ( P cells )
63%
1%
10%
5%
20%
1%
10%
50-70%
50-80%
40-70%
60%
50%
In generale i tumori neuroendocrini più frequenti (insulinomi) sono quelli che danno metastasi in modo più infrequente.
Per la diagnosi corretta ho bisogno di marcatori generici per capire se è presente tumore, poi devo vedere in sinergia con
l‟istologia il tipo di tumore, utilizzando quindi marcatori specifici.
Marcatori generici:
-Cromogranine
-Polipeptide pancreatico PP
-subunità di HCG (Gonadotropina)
-NSE (enolasi neurone specifica)
Di questi oltre alla cromogranina viene utilizzato solo il PP.
Cromogranine:
Famiglia di glicoproteine che include: CgA, CgB, Secretogranina II, III, IV, V
Test viene fatto su campione di siero ed è utilizzata come metodo iniziale su sospetto tumore del pancreas.
Sensibilità 93% Specificità 88%
A seconda del sospetto vedo quali sono test consigliati:
INSULINOMA:
 Glicemia: Bassa
 Insulinemia: Altissima
 Peptidde C
 Proinsulina
 Rapporto insulina/glucosio superiore a 0,3 è diagnostico
GASTRINOMA: determina aumento di gastrina nel siero è indicativo di positività il risultato 10 volte superiore al livello
normale di riferimento.
Test con stimolazione di secretina: nei pz con gastronoma c‟è un aumento importante nei 10 minuti seguenti alla
stimolazione.
Diagnosi tumori neuroendocrini pancreatici si fa con screening biochimico:
Cromogranina A e ormoni specifici
Normale
Aumentato
Follow-up
Imaging
Positivo
Istopatologia e biologia molecolare
Negativo
12-05-„09
GLI ERRORI IN MEDICINA DI LABORATORIO
Una delle cose che ha più impressionato qualche anno fa l‟opinione pubblica, soprattutto quella americana, è stata la
pubblicazione di quello che è il documento forse più letto, degli ultimi anni, sulla medicina: il famoso rapporto
dell‟Institute of Medicine “TO ERR IS HUMAN”. In questo rapporto gli autori affermano, sulla base di dati raccolti attraverso
studi fatti a partire dagli anni ‟90 negli USA, che muoiono, per scelte mediche errate, dai 40000 agli 80000 pazienti
all‟anno. Ora, questo dato risulta ancor più impressionante, per l‟opinione pubblica statunitense, se confrontato con quello
riguardante il numero di vittime durante la guerra del Vietnam (60000).
“TO ERR IS HUMAN” è un documento che ha trasformato il tema della patient safety e delle strategie per minimizzare gli
errori in medicina, da elitario e limitato ad un numero ristretto di persone, che ha dedicato anche tutta la propria vita per
studiarlo ad oggetto di dibattito pubblico.
Nel 2004 l‟Organizzazione Mondiale della Sanità ha lanciato un programma che si chiama “ ALLIANCE FOR PATIENT
SAFETY” (alleanza per la sicurezza del paziente).
[Il prof. consiglia di andare nel sito della World Health Organization (WHO), dove si trovano alcuni documenti
importanti, il primo dei quali è un documento che riguarda la pratica del lavaggio delle mani: ancora oggi negli ospedali si
muore perché il personale non applica adeguatamente questa semplice prassi]
Quello che ha molto colpito, per quanto riguarda gli errori in medicina di laboratorio, è stato il caso emblematico di una
giovane donna di 32 anni. Questa paziente, in realtà perfettamente sana, è stata sottoposta ad isterectomia e trattata con la
chemioterapia perché per due volte consecutive il test di gravidanza, cioè la determinazione dell‟hCG nel siero, era
risultato positivo; non era stata effettuata nessuna ecografia, né tanto meno ulteriori accertamenti, ma il medico curante
aveva ritenuto si trattasse di un tumore a livello ginecologico secernente hCG, che la rendeva positiva al test. Quando è
stata fatta l‟analisi delle cause prime (root cause analysis), che hanno portato a questo intervento errato, sono state
attribuite le seguenti responsabilità:
 La ditta che ha prodotto il kit diagnostico: questa ha ricevuto una sanzione non tanto perché il test ha fornito un
falso positivo (ciò è avvenuto in quanto nel siero della donna erano presenti anticorpi eterofili che hanno mimato
la presenza dell‟hCG), ma perché nel foglietto illustrativo, che accompagna il reagente, non era mai stata
dichiarata la possibilità di falsi positivi.
 Il laboratorio: esso, anche se si è basato su un prodotto autorizzato dalla Food and Drug Administration (citata
anch‟essa in causa in quanto ha autorizzato la messa in circolazione di quel prodotto, che presentava delle notevoli
problematiche), non ha verificato se quel risultato potesse essere dovuto ad interferenze.
 Il medico che ha gestito la donna: nel 1993, quand‟è avvenuto il fatto, era del tutto inimmaginabile che una donna
fosse portata sul tavolo operatorio per un‟isterectomia sulla base semplicemente di un test di laboratorio, senza
un‟ecografia e senza ulteriori riscontri diagnostici.
 La paziente: si ritiene che oggi, con le fonti di informazione a disposizione di un paziente, in un caso come questo,
dovesse essere richiesto un secondo parere, cioè non ci si fa sottoporre ad un‟isterectomia e alla conseguente
chemioterapia sentendo il solo parere di un medico che si avvale semplicemente di un test di laboratorio, due volte
positivo per hCG, senza ulteriori prove a supporto della sua diagnosi.
Fortunatamente, casi come questo si contano sulle dita di una mano, ma una cosa che bisogna sottolineare è che circa il
70% delle decisioni cliniche viene adesso preso in base ai risultati delle analisi di laboratorio. È evidente, quindi, che
anche una piccola incidenza (stimata attorno allo o,5%) di errori di laboratorio, rispetto ai miliardi di test fatti in tutto il
mondo ogni giorno, potrebbe avere delle forti implicazioni per la salute pubblica e per la sicurezza dei pazienti.
Ma dove può avvenire l‟errore di laboratorio?
Intuitivamente si risponde che la fase più soggetta ad errore è quella analitica, cioè la fase laboratoristica durante la quale
viene materialmente eseguito il test. In realtà non è così.
Il primo studio, a nostra disposizione, riguardante il tasso d‟errore durante la fase analitica è quello del 1947, quando i due
ricercatori statunitensi, Belk e Sunderman, presero un campione abbondante di materiale biologico (siero), ottenuto da un
paziente, lo divisero in tante aliquote e lo spedirono in molti laboratori degli Stati Uniti per vedere che corrispondenza,
che congruità e che conformità ci fossero tra i diversi risultati ottenuti. Il risultato dello studio fu abbastanza drammatico
(gli errori in questi studi vengono espressi in parti per milione, ppm): su un milione di analisi effettuate si verificarono
162000 errori, cioè il 16% dei risultati ottenuti era errato. Nel 1947 la medicina di laboratorio era ancora piuttosto
rudimentale.
Nel 1969 due studiosi inglesi, McSwiney e Woodrow, trovarono un tasso di errore di molto inferiore, circa del 3%.
Nel 1996 il College of American Pathologists ottenne un tasso d‟errore dell‟1,2%.
Nel 1997 due ricercatori padovani, Plebani e Carraro, registrarono un dato dello 0,47%. A distanza di dieci anni, nel
2007, ripeterono il medesimo studio ottenendo un tasso d‟errore dello 0,3%.
Possiamo, quindi, dire che in questi anni, a partire dal 1950 fino ai giorni nostri, c‟è stata una drammatica e molto
significativa caduta dell‟errore di laboratorio, ma in particolare dell‟errore nella fase analitica.
Se nella parte analitica non si sbaglia poi tanto, ora vedremo quali sono le altre fonti di errore.
A partire dagli anni ‟90 c‟è stata un‟evoluzione, una trasformazione, in quanto si sono cominciati a studiare tutti i possibili
tipi di errore che avvengono all‟interno del laboratorio, dal momento in cui la provetta entra al momento in cui il risultato
viene trasmesso ai clinici; quindi, non solo l‟errore analitico, ma anche tutta una serie di altri errori.
Fas e Pr e-Analitica
4 5 ,5 %
4 7 ,2 %
Fas e Analitica
Fas e Pos t-Analitica
7 ,3 %
Nel 1991, Ross e Boone hanno condotto uno studio in
un ospedale in cui c‟erano pochi posti letto, ma in cui
erano presenti tutte le specialità e che, quindi, dava la
possibilità di capire tutti i tipi di errore che potevano
avvenire. Come si può notare dal grafico a lato,
l‟errore analitico è marginale nella sua incidenza
(7,3%) rispetto all‟errore che avviene nella fase preanalitica (45,5%) e quello nella fase post-analitica
(47,2%).
Nel 1996 Plebani e Carraro, a Padova, hanno ripetuto
lo studio sfruttando circa la stessa strategia: i risultati sono stati quasi sovrapponibili. A Padova, in particolare nel
laboratorio di urgenza, il 68% degli errori avvenivano nella fase pre-analitica, il 18% nella fase post-analitica e solo il
13% nella fase analitica.
In questo studio si è visto che, tra gli errori pre-analitici, il più comune riguarda il raccoglimento del campione (20%,
ovvero 39 casi in quattro mesi di osservazione); ad esempio, il campione ematico, su cui si richiede il dosaggio del
potassio, viene raccolto dallo stesso braccio in cui è inserita una flebo di elettroliti, in questo caso il campione è costituito
da una miscela e i risultati vengono evidentemente falsati. Altri possibili errori durante la fase pre-analitica sono: errata
identificazione del paziente, specificazione errata del reparto di provenienza del campione, mancanza della richiesta del
medico, errore nell‟interpretazione della richiesta del medico da parte del laboratorio, uso inappropriato dei contenitori,
non corretta raccolta del campione, etc.
Dopo dieci anni, nel 2006, è stato ripetuto lo studio sempre a Padova. Quello che si è visto, confrontando le due serie di
dati, è che l‟errore totale è passato dallo 0,4% del 1996 allo 0,3% del 2006, quindi c‟è stata una diminuzione significativa,
anche se non ampia come ci si aspettava. Ciò che ha sorpreso è che la stratificazione dell‟errore è rimasta all‟incirca quella
di dieci anni prima. Nel secondo studio l‟errore di raccolta del
campione fortunatamente è stato ridimensionato. Ad oggi l‟errore più
frequente è quello di identificazione del paziente: i campioni biologici
1 8 ,5 %
2 3 ,1 %
o i risultati ottenuti vengono scambiati tra pazienti diversi; ad esempio
1 3 ,3 %
Fas e Pos t-Analitica
1 5 ,0 %
è avvenuto che un paziente che doveva andare in un reparto di terapia
intensiva è stato mandato a casa, mentre il paziente che doveva andare
Fas e Analitica
a casa è stato mandato in terapia intensiva; questo è successo perché
6 8 ,2 %
6 1 ,9 %
Fas e Pr e-Analitica l‟infermiere che ha raccolto i campioni li ha accidentalmente invertiti.
La procedura dice che l‟infermiere che fa il triage deve andare al
computer e identificare il paziente; vengono, quindi, stampate delle
1996
2006
etichette con un codice a barre, che identifica in modo assoluto il
paziente e solo dopo si va a fare il prelievo. Siccome molto spesso
manca il personale, o il pronto soccorso è intasato, a volte succede che l‟infermiere va a fare un primo prelievo e mette il
campione in una tasca, esegue quindi un secondo prelievo, da un paziente diverso, riponendo le provette nell‟altra tasca;
nel momento in cui va ad etichettare i campioni, li inverte.
L‟errore di laboratorio si traduce nella somministrazione di una cura inappropriata in una percentuale dei casi che va dal
2,7%, rilevato durante lo studio padovano del 2006, precedentemente citato (percentuale sufficientemente bassa, ma non
irrilevante), fino al 12%, ottenuto in uno studio americano condotto su pazienti ambulatoriali. Invece, in una percentuale
molto più elevata, che va dal 24% dello studio di Padova al 30% dello studio di Ross e Boone (dati abbastanza simili), si
ha comunque un effetto nella cura del paziente, il quale può subirne i disagi.
Esempi di cure inappropriate sono: trasfusioni errate, interruzioni di terapie in atto (ad esempio terapie con diossina in
caso di insufficienza cardiaca, che in realtà dovrebbero essere mantenute), cambiamenti nelle terapie con farmaci
anticoagulanti, etc.
L‟errore di laboratorio può comportare una serie di disagi per il paziente: da minimi, come nel caso della ripetizione
dell‟esame, a più importanti, in quanto molto spesso vengono richiesti accertamenti più invasivi (risonanze magnetiche,
TAC o altre analisi di imaging, ma anche biopsie).
Il primo obbiettivo per quanto riguarda la diagnostica in generale della Joint Commission International Centre for Patient
Safety è quello di migliorare l‟accuratezza nell‟identificazione del paziente. Il punto è che in tutti gli ospedali dovrebbe
esserci un sistema di riconoscimento univoco e non ambiguo del soggetto, ovvero un braccialetto identificativo che abbia
tutta una serie di informazioni che non permettano l‟errore di identificazione. A livello di pazienti ambulatoriali quello che
viene ora adottato è, al posto dell‟indicazione di nome e cognome, il codice fiscale (prima di questo si usava la tessera
sanitaria), perché questo è un sistema che consente di evitare ogni ambiguità (ad esempio, stesso nome, stesso cognome e
stessa data di nascita).
In una ricerca condotta dall‟Università di Padova in collaborazione con l‟Università di Verona è stata descritta la
variabilità analitica come “la parte oscura della luna”, perché, andando a lavorare su tre laboratori di grandi ospedali
italiani (Milano, Padova e Bari), si è visto che il tasso d‟errore che si commette nella fase pre-analitica, è molto maggiore
nei pazienti ricoverati in ospedale rispetto ai pazienti ambulatoriali; questi sono errori dovuti, principalmente, a procedure
sbagliate durante il prelievo, come l‟arrivo in laboratorio di un campione emolizzato (eseguendo il prelievo si è procurata
la rottura delle emazie, ad esempio eccedendo nella forza di aspirazione del sangue).
Da un lato si può dire che i pazienti ricoverati possono avere patologie più complesse, dall‟altro è importante sottolineare
il fatto che a livello ambulatoriale chi fa i prelievi è gestito direttamente dal laboratorio e, quindi, si tratta di personale che
viene formato e viene responsabilizzato ad una maggior attenzione ed accuratezza; mentre a livello dei reparti, dal
momento che i prelievi vengono effettuati da figure professionali con competenze diverse, molto spesso le procedure non
sono così rigorose. Questo si osserva soprattutto nel caso di campioni insufficienti, scorretti o coagulati per i quali c‟è
sempre un rapporto molto a sfavore dei pazienti ricoverati rispetto ai pazienti ambulatoriali. È importante, quindi,
migliorare la qualità del prelievo e delle procedure prima di avviare l‟esame.
Poi ci sono altre cose su cui si sta lavorando per minimizzare gli eventuali errori:
26. È stata migliorata molto la gestione degli errori che avvengono quando, prima dell‟analisi, vengono fatti dei
trattamenti per rendere il campione disponibile all‟esame, come la centrifugazione e la creazione di provette figlie
(aliquotazione);
27. Sono state sostituite le provette in vetro con quelle in plastica per evitare danni durante il trasporto;
28. Sono stati introdotti criteri di accettazione o rifiuto del campione biologico al fine di evitare l‟analisi di campioni
inappropriati;
29. Soprattutto negli ultimi anni, sono state introdotte stazioni automatiche, impiegate nella fase pre-analitica, che
rendono possibile la gestione del campione: l‟identificazione del paziente attraverso la lettura di un codice a barre,
la centrifugazione, l‟apertura del campione ed eventualmente la creazione di provette figlie a partire da una
provetta madre, per rendere disponibile lo stesso campione per diverse analisi. Questi sistemi automatizzati
operano con un tasso di errore molto inferiore a quello che si ottiene se le stesse operazioni sono eseguite
manualmente dai tecnici del laboratorio (si passa da un tasso di 8000ppm ad uno di 400ppm). Interessante è anche
il dato riguardante l‟esposizione a danni biologici che da 2600ppm circa, quasi si annulla. L‟introduzione di
sistemi automatici, oltre a ciò, è servita a migliorare la sicurezza del personale che lavora nei laboratori.
Nella fase post-analitica, normalmente, si effettuano una serie di comunicazioni attraverso sistemi informatici, i quali
riescono a diminuire gli errori; quello che ancora permane, rilevabile dai dati che emergono dalla letteratura più recente e
sul quale il laboratorio non può fare molto, è il fatto che gli errori più frequenti avvengono nelle fasi ancora precedenti a
quelle che abbiamo discusso finora. Si vede in pratica, in uno studio eseguito in materia di medicina ambulatoriale negli
Stati Uniti, che il tasso d‟errore più elevato riguarda:
 da un lato l‟incapacità di richiedere un esame diagnostico appropriato, cioè di fronte ad un quesito clinico non si
sceglie l‟esame giusto (fase pre-pre-analitica);
 dall‟altro, nella fase post-analitica, si osserva l‟incapacità di interpretare adeguatamente il test diagnostico.
In questo studio si nota che la gran parte degli errori riguarda le tecniche di imaging, quindi la diagnostica radiologica, al
secondo posto si collocano i banali esami di chimica clinica. Il dato spaventa ancora di più se si va ad osservare ciò che
succede nei reparti d‟emergenza: ancora una volta gli errori più clamorosi e frequenti sono l‟incapacità e la mancanza di
richiesta di un esame adeguato e di nuovo l‟elevata frequenza di scorretta interpretazione del risultato dell‟esame. Stilando
una graduatoria degli ambiti maggiormente soggetti ad errore:
 Radiografie;
 Tomografie computerizzate;
 Test enzimatici dei cosiddetti enzimi cardiaci (troponina, che non è un enzima);
 Ecografie;
 Esami di laboratorio dell‟area ematologia.
Quindi, ancora una volta, ci sono molte evidenze che dimostrano come l‟errore sia un errore diagnostico, che per la
maggior parte non dipende dall‟attività del laboratorio.
Si deve svolgere, quindi, un lavoro su due diversi piani al fine di prevenire l‟errore diagnostico:
 Migliorare le procedure laboratoristiche per ridurre l‟errore analitico;
 Migliorare l‟accuratezza della richiesta e la concretezza nell‟interpretazione dei dati.
Negli errori di laboratorio possiamo individuare:
 Il BUONO: negli ultimi anni c‟è stata una significativa e forte diminuzione del tasso di errore, soprattutto
nella sfera analitica;
 Il BRUTTO: si è capito che le fasi più soggette ad errore sono quelle pre- e post-analitica;
 il CATTIVO: fino a poco tempo fa non si dava importanza all‟errore di laboratorio, pensando che
esistesse e non si potesse evitare.
CONCETTO FONDAMENTALE DELLA LEZIONE: non banalizzare, nel momento della prescrizione di un test e nel momento
dell‟interpretazione del suo risultato, la possibilità di eventuali errori. Inoltre, sarebbe importante, nel caso si riscontrasse
un errore in un esame diagnostico, segnalarlo al laboratorio che ha eseguito il test stesso.
26.05.09
IL PRELIEVO VENOSO:
Che cos‟è la “flebotomia”?
Qual è la differenza fondamentale tra la realtà di paesi come l‟Italia e gli Stati Uniti nel campo del prelievo ematico?
La realtà è molto diversa perché negli Stati Uniti esiste una figura professionale detta “Phlebotomist”.
La mancanza del phlebotomist, nel nostro paese, fa si che il prelievo ematico sia delegato sostanzialmente al medico e
all‟infermiere.
(ciò però ha degli svantaggi: succede, infatti, che i pazienti vengono svegliati all‟alba e restano a digiuno per ore, a causa
del fatto che alcune pratiche di prelievo vengono fatte dai medici quando montano in turno. Ciò, oltre a creare disagio nel
paziente, porta anche a ritardi nella consegna dei campioni).
Chi è il “Phlebotomist”?
Il Phlebotomist è una figura professionale, presente negli ospedali americani, ma anche nelle realtà territoriali, che non ha
nulla a che vedere con il tecnico di laboratorio, né con l‟infermiere, ma è una persona che si prende cura di tutto ciò che
riguarda il prelievo venoso.
Quindi entra dentro il laboratorio e si occupa della preparazione del campione, cioè di tutte quelle procedure che
precedono l‟analisi vera e propria e poi raccoglie il campione (che può essere sangue o altri campioni biologici).
Interagisce poi con i pazienti e con gli altri professionisti, quindi è lui che si prende carico, per esempio, di avvisare nelle
corsie il personale infermieristico e i medici che è cambiata la procedura di raccolta del sangue, (ad esempio che la
provetta per l‟esame del glucosio è cambiata).
Opera, quindi, come intermediario tra le procedure che il laboratorio mette in piedi e quella che è la pratica assistenziale.
(Qui nella diapositiva si dice che il phlebotomist gioca un ruolo vitale in ogni sistema sanitario, ma non è vero perché è
riferito solo a quei paesi dove questa figura esiste. Nella tradizione italiana manca completamente, ma manca anche in
altre realtà europee.)
Comunque sia, esistono problemi nelle procedure di prelievo del sangue e questi riguardano entrambe le parti in gioco
e cioè, da un lato, chi è adibito alla mansione del prelievo, nel senso che il prelievo comporta alcuni rischi di contagio
biologico da parte dell‟operatore, e dall‟altro il paziente, il quale rischia che la procedura venga eseguita malamente o che
si verifichino una serie di eventi avversi durante il prelievo (eventualità che non è da minimizzare).
Sostanzialmente al mondo esistono due sistemi per eseguire un prelievo di sangue, che si configurano come: “sistemi
aperti” e “Sistemi chiusi”
SISTEMA APERTO
Procedura esistita fino a qualche anno fa e presente ancora in alcune realtà. Si basa sull‟utilizzo di una siringa con cui si
aspira il sangue, il quale, una volta raccolto, viene versato nella provetta adibita all‟esame. Sistema aperto significa che ci
sono dei passaggi tra la siringa e la provetta che possono esporre a rischi sia il prelevatore (sempre riferendosi al contagio
biologico), che il paziente (per quanto riguarda la qualità dell‟esame).
Quindi la “Occupational safety and health administration (OSHA), organismo americano che si occupa di sicurezza, ha
condotto delle indagini in questo campo, e ha concluso dicendo che la miglior pratica per la prevenzione di ingiurie da
puntura di ago, dopo “flebotomia” (cioè la raccolta di sangue), è quella di buttare tutto quello che si è utilizzato per il
prelievo (ago e camicia soprattutto) in appositi contenitori. Questo perché la maggior parte degli incidenti occupazionali
accaduti in questi anni, si sono verificati durante la procedura di re-incappucciamento dell‟ago.
In sostanza quello che si verificava era questo: il medico o l‟infermiere (o il phlebotomist), faceva il prelievo, dopo di
che, per buttare via la siringa nell‟apposito contenitore, doveva re incappucciare l‟ago e in quel momento c‟èra un calo di
attenzione e l‟operatore si bucava. Tutto ciò, soprattutto se il paziente era affetto da patologie trasmissibili, ha comportato
molti incidenti occupazionali. La misura adottata è quindi quella di buttare tutto e ciò significa andare verso i sistemi
chiusi.
SISTEMI CHIUSI
Nella letteratura hanno vari nomi, molto spesso, però, troverete il nome del sistema che è stato brevettato per primo e che
è il più usato: il “sistema vacutainer”.
Il sistema vacutainer (è un nome commerciale), consiste di più parti: un ago, avvitato ad una camicia all‟interno della
quale si
introduce una provetta.
Provetta
Camicia
Ago
La provetta possiede una pressione negativa che consente una aspirazione tale da riempirla fino al livello necessario.
Questo sistema è particolarmente importante per esami della coagulazione, dove la pressione negativa è tale da assicurare
il corretto rapporto tra il volume dell‟anticoagulante e il volume di sangue prelevato.
Quindi il sistema chiuso si identifica come un sistema automatico in cui, una volta che l‟ago viene inserito nella vena e
dopo aver inserito la provetta, c‟e un‟aspirazione automatica tale da riempire totalmente la provetta fino al livello
desiderato.
Uno dei vantaggi rappresentato dal fatto che l‟ago possiede una guaina di gomma, la quale consente di riempire più
provette e non una soltanto (come invece avveniva con il sistema aperto). Infatti nel momento in cui si toglie la prima
provetta e si mette la seconda, non esce sangue, perché la guaina si ritrae e chiude temporaneamente l‟ago e si riapre solo
quando si reinserisce la provetta successiva.
Il sistema chiuso si riconosce perché prevede un flusso di sangue dall‟ago alla provetta, ma nel momento in cui la provetta
viene ritratta, il sangue non fluisce più all‟esterno, quindi non imbratta la camicia e l‟operatore e fluirà di nuovo solo
quando verrà reinserita una nuova provetta vuota.
Si chiama sistema chiuso perché, al contrario del sistema siringa-provetta, non prevede nessuna apertura o stappatura delle
provette, ma è totalmente chiuso e permette la raccolta del sangue ed eventualmente di altri liquidi biologici, senza che ci
sia nessun contatto del campione con il paziente o con l‟operatore.
Vantaggi del sistema chiuso:
Il primo vantaggio è pratico ed è per l‟operatore: infatti si toglie la possibilità di contaminazione con il sangue del
paziente. Il secondo vantaggio è per il paziente, perché, con questi sistemi si è ridotta moltissimo la quantità di sangue
prelevato, grazie alla eliminazione degli sprechi. Prima, invece, molto spesso succedeva che, non avendo la misura di
quanto era necessario versare nelle provette, si toglievano, per esempio, 40 cc, quando nelle provette bastava versarne la
metà; il sistema chiuso, invece, si autolimita, nel senso che le provette si riempiono esattamente di quello che è necessario
per analizzare il campione.
10 COMANDAMENTI PER LA CORRETTA “FLEBOTOMIA” (prelievo di sangue)
 Identificare il paziente (sembra una cosa ridicola e invece ancora oggi negli ospedali si sbaglia nella
identificazione del paziente. La ricetta è che: “più è lontano nel tempo il momento in cui si prepara il materiale per
il prelievo, (le provette le etichette e tutto quanto), rispetto al momento in cui si fa il prelievo, più aumentano gli
errori di identificazione”. Teoricamente la cosa migliore sarebbe andare con un palmare di fronte al paziente,
identificarlo, mediante un codice a barre o un braccialetto, stampare le etichette e in modo immediato raccogliere
il sangue. Ovviamente non sempre si possono fare queste cose, ma ci sono soluzioni intermedie.
 Il medico o l’infermiere (o il phlebotomist) dovrebbe chiedere al paziente se ha mantenuto lo stato digiuno, se ha
sostenuto un esercizio fisico molto intenso, se è stressato (se è incazzato), perché queste cose influiscono sulla
qualità dei risultati. Il digiuno, piuttosto che aver fatto una corsa in bicicletta di 2 ore prima del prelievo o aver
fatto jogging la mattina, sono cose che dovrebbero essere non raccomandate e quindi evitate.
 Controllare la richiesta degli esami. Cioè, se nell‟impegnativa o nella richiesta del medico ci sono 8 esami, questo
deve tradursi in un numero di etichette tali che gli 8 esami vengano eseguiti.
 Selezionare un sito che sia disponibile per la puntura venosa. Tradizionalmente il prelievo venoso si fa al braccio
(si ricorre ad altri siti solo se le braccia presentano dei problemi tali per cui non si può per motivi di privacy e altro
tipo)
 Preparazione del materiale per il prelievo.
 Prelievo
 Parlare con il paziente durante il prelievo. Pùò succedere, infatti, (e vi capiterà nel corso della vostra carriera
medica) che, durante il prelievo, una giovane donna o un anziano, che non manifestano apparentemente nessuna
emozione, vadano incontro ad una lieve lipotimia, una cosa banale, ma che richiede una minima conoscenza del
trattamento, perché dietro una lipotimia possono nascondersi delle problematiche misconosciute che possono
portare a riconoscere un‟epilessia mai documentata o problemi cardiovascolari. (Parlando con il paziente durante
l‟esame si possono evitare alcuni casi di lipotimia.)
 ringraziare il paziente per la pazienza
(Gli altri due punti non sono stati citati)
LACCIO EMOSTATICO
La sua funzione è quella rendere più visibili le vene, provocando una stasi. Il problema è che l‟applicazione del laccio, che
sembra una cretinata, in realtà può provocare delle grosse alterazioni della qualità dell‟esame.
Si possono osservare, infatti, differenze statisticamente significative delle concentrazioni di alcuni parametri come:
transaminasi (ALT), albumina, calcio, colesterolo, ferro, dopo meno di 1 min di stasi venosa (cioè l‟applicazione del
laccio per 1 min, altera questi parametri).
Altre misure che presentano variazioni importanti tra 1 e tre minuti sono: tempo di protrombina, fibrinogeno, D-dimero .
Le variazioni diventano ancora più significative se l‟applicazione del laccio supera i tre min.
Di norma l‟applicazione del laccio dovrebbe avvenire solo per identificare la vena e dovrebbe essere rilasciato nel
momento in cui si introduce l‟ago.
Cos‟è allora che ti porta a tenere il laccio emostatico applicato per troppo tempo? È il fatto che i pazienti non sono tutti
uguali. Può capitare il paziente che, dopo aver messo il laccio e aver cominciato a palpare per sentire dov‟è la vena, questa
non si senta. E allora si incomincia ad andargli attorno, a ricontrollare e intanto il tempo passa. In questi casi il trucco più
efficace è “non intestardirsi”: la prima cosa da fare è cambiare braccio e andare sul sinistro. Se anche sul sinistro si fa
fatica allora o si ricorre ad altre manovre o si torna indietro. Ma ricordate che prolungare il trattamento con il laccio porta
ad una riduzione della qualità analitica.
LINEE GUIDA PER L’APPLICAZIONE DEL LACCIO:
30. Applicare il laccio circa 10 cm sopra l‟area dove si intende fare il prelievo: (tendenzialmente il prelievo viene
eseguito a livello del braccio).
31. Dovrebbe essere stretto abbastanza da rendere visibili le vene, ma non così tanto da ostruire la circolazione
arteriosa. (perché questo crea dei problemi).
32. Non mantenere in laccio in situ per più di 1 min.
33. Appena la vena viene selezionata e viene introdotto l‟ago, il laccio deve essere rilasciato.
Infine, ricordate, che se applicando il laccio il paziente si lamenta, dovete stare attenti a distinguere il dolore dovuto ad
una maggiore sensibilità, (paziente più “delicato”), dal dolore serio e importante, che può nascondere una situazione di
flebite misconosciuta o altre patologie. L‟occhio clinico deve saper riconoscere queste situazioni; in questi casi si cambia
braccio o si fanno altre manovre.
Attenzione: non è detto che si debba sempre applicare il laccio; quando uno acquisisce una certa manualità può anche
farne a meno, l‟importante è sentire la vena.
IMPORTANTE: Quando fate un prelievo dovete mettervi i guanti. Questo punto è molto importante perché, nonostante
tutte le precauzioni, l‟esposizione ai liquidi biologici può determinare infezione (c‟è qualcuno che si lamenta che con il
guanto ci sia una perdita di sensibilità. La realtà è questa: al personale medico e paramedico si raccomanda sempre di
usare i guanti, se poi uno non li usa, si prende le sue responsabilità!)
(se io vi vedo fare un prelievo senza guanti vi “cazzio”!!).
TIPI DI AGHI
Esistono vari tipi di aghi, che si distinguono in base ad un indicatore detto “gauge”(G), che indica la “grossezza”
(diametro interno del foro dell‟ago).
Sostanzialmente, nella pratica medica vengono usati gli aghi da 23 G e 25G, che sono rispettivamente “ago giallo” (Più
grosso) e “ago verde” (Più fino).
Tutti pensano che sia meno doloroso fare il prelievo con un ago più fino. Sbagliatissimo! L‟ago giallo (più grosso del
verde) da meno dolore, e, tra l‟altro, presenta una serie di vantaggi perché consente una fluidità migliore del sangue,
quindi evita o riduce il rischio di emolisi o di alterazione dei G.R che passano attraverso l‟ago.
Teoricamente l‟uso dell‟ago verde dovrebbe essere limitato agli interventi sulle vene più piccole, che hanno bisogno di
aghi non molto grossi.
Ago butterfly (farfallina):
L‟Italia è il più grande consumatore di butterfly al mondo!! Questo perché nelle nostre corsie,
gli infermieri soprattutto, pensano che il butterfly faccia meno male, ma non è così. Per due
motivi: prima di tutto espone maggiormente al rischio di ripetere il prelievo e secondo non è
affatto vero che faccia meno male.
Il vantaggio del butterfly è che rende possibile una manualità migliore rispetto al sistema
siringa + provetta. Tuttavia non è affatto raccomandabile né a livello generalizzato né per
ridurre il dolore ai pazienti. (non ci sono regole, è la pratica che vi darà gli strumenti adatti per
decidere, di fronte ad un certo tipo di vene, cosa usare).
Naturalmente se i prelievi vengono fatti a livello della mano, del polso, se il paziente è oncologico, o un bambinetto, allora
il butterfly è molto utile, (soprattutto a livello del polso e delle mani perché la sua grande maneggevolezza consente di
posizionare meglio l‟ago e di essere meno invasivi lì dove con la siringa si potrebbero creare dei danni).
ALTRE REGOLE:
 Raccogliere il campione nella provetta adibita per quel tipo di esame.
Per rendere meno difficile il riconoscimento della provetta corretta, si utilizza un sistema che si basa sul “colore dei
tappi”, dove ad ogni colore corrisponde uno specifico esame: qui a Padova si utilizzano: tappo verde per esami di
biochimica; tappo lilla per esami ematologici; tappo Azzurro per esami della coagulazione. (il colore è standardizzato,
cioè è uguale tra i vari ospedali).
SITI PER IL PRELIEVO VENOSO
Le vene più importanti del braccio, dove
viene fatto più comunemente il prelievo sono:



vena cefalica,
vena basilica, (è la più usata in assoluto).
vena basilica mediana,
vena cefalica mediana,
vena radiale,
vena ulnare.
Una volta individuata la vena, non fidatevi dell‟occhio, ma andate a palparla, per sentire se è elastica, in particolare nei
pazienti in terapia. Se si sentono delle vene molto dure vuol dire che ci sono delle ostruzioni e che quindi e meglio
cambiare sito.
Ovviamente si può anche girare il braccio dalla parte dorsale, se non si trovano vene nella parte normale, ma è una
manovra limitata solo ad alcuni casi di difficoltà nel prelevare dalle vene più comuni.
Per i neonati si ricorre alla tecnica del “prelievo capillare”, per vari motivi: per non
prelevare grandi quantità di sangue, per essere meno invasivi e per la difficoltà nel
riconoscimento delle vene. La tecnica capillare, consiste in una puntura tramite “lancetta”
sostanzialmente a livello del tallone (vedi figura) e poi si fa fluire il sangue in apposite
provette (che, naturalmente, sono più piccole di quelle utilizzate per il prelievo dell‟adulto).
Stessa tecnica può essere utilizzata a livello del polpastrello delle dita per prelievi ripetuti, per
esempio per lo studio del glucosio nei diabetici, (anche per lo studio del tempo di protrombina
in pazienti sotto cura anticoagulante orale). Nella maggior parte dei casi viene più utilizzato il
prelievo venoso, mentre il prelievo capillare viene usato solo per pazienti in età neonatale o in
casi particolari.
COSA EVITARE:
Mai fare prelievi in aree affette da ustioni estensive o che sono state oggetto di chirurgia. Notoriamente nelle donne soggette
a mastectomia laterale con asportazione di linfonodi, si evita di fare il prelievo dallo stesso braccio per non produrre delle
infiammazioni, soprattutto al livello linfonodale, nell‟arto omologo dove sono stati tolti i linfonodi.
Non eseguire prelievi in aree in cui sia evidente un ematoma. (se qualche giorno prima è stato fatto un prelievo che ha
provocato un ematoma, non andate di nuovo a fare il prelievo in quel sito perché, 1- fate male al paziente, 2- si possono
ottenere risultati inattendibili a causa della stasi.
Non fate mai il prelievo nel braccio dove è applicata una via infusiva intravenosa (“fleboclisi”) (per esempio esame della
potassiemia tramite prelievo in un braccio dov‟è applicata una via infusiva intravenosa per somministrazione di elettroliti).
Nel caso fosse impossibile fare il prelievo in un‟altra zona bisogna: 1- togliere la via infusiva, 2-stoppare la fleboclisi,
3- attendere almeno due minuti, 4- applicare il laccio “sotto” la zona dove prima c‟era la via infusiva, 5- selezionare
una vena che non era stata coinvolta nella via infusiva, 6- raccogliere 5 ml di sangue a perdere, cioè buttare via i primi
5 ml perché potrebbero ancora essere inquinati da liquido infusivo.
(Ci sono poi dei trucchi che imparerete se andrete a lavorare nei reparti di chirurgia e di rianimazione, per quando ci sono
delle cannule, delle fistole o delle applicazioni di eparina.)
COME SI SELEZIONA LA VENA:
Una volta scelta, bisogna palpare e tracciare, se possibile, il cammino della vena, cioè non fermarsi alla palpazione in situ,
ma verificare se nel decorso della vena sia presente la stessa durezza, o la stessa elasticità. (il vostro dito è un indicatore
prezioso per stabilire lo stato della vena).
Per esempio le vene trombizzate mancano di “resilienza” (elasticità), molto spesso si sentono come dei cordoni duri che
sfuggono sotto il dito. Quindi palpazione + esame visivo sono indispensabili per selezionare la vena.
TECNICA DI APPLICAZIONE DELL’AGO
L‟operatore inesperto buca la vena e va troppo in profondità, oppure rimane troppo in superficie senza nemmeno
raggiungere il vaso. E‟ una cosa difficile da spiegare e che si acquisisce con l‟esperienza.
L‟esatta procedura consiste nell‟entrare nel vaso con la giusta profondità senza romperlo.
La rottura della vena produce un ematoma. Se si verifica un ematoma non si dev insistere con il prelievo, ma bisogna
ritirare l‟ago, procedere con una medicazione di tenuta, quindi compressiva, e riprovare in un‟altra sede.
EVENTI AVVERSI DEL PRELIEVO:
Il prelievo è un esame abbastanza banale, ma si possono avere casi di fastidio, ematomi, dolorabilità, lipotimie, sincope,
sincope convulsiva, fino a tachicardie ventricolari (non sono molti casi, ma sono importanti).
Quindi, cosa può accadere durante il prelievo? La cosa più semplice è che tutto vada dritto e il paziente vi ringrazi (o siate
voi a ringraziarlo per la sua pazienza).
Qualche volta può capitare che il paziente si lamenti per il dolore, ma dovete stare attenti a distinguere le situazioni; in
altri casi può capitare un ematoma, (tutti hanno fatto un ematoma nella loro vita perché non tutte le vene sono uguali e non
tutti i tessuti hanno la stessa tenuta e la stessa elasticità. Quindi non preoccupatevi se vi capita); in caso di shock e
lipotimia è importante conoscere le manovre da fare (riportare a norma la pressione, soprattutto mantenendo una
perfusione al cervello, alzare le gambe e altre manovre).
Nel caso in cui vi accorgiate che il paziente sta andando incontro a svenimento, non insistete a finire il prelievo, ma
rilasciate il laccio, cominciate a parlare al paziente, se è seduto mettetelo disteso, toglietegli ogni compressione (ad
esempio slacciategli la camicia) e, prima che lasci il luogo del prelievo, assicuratevi che si sia totalmente ripreso
(misurategli la pressione), anche se vi dice che si sente bene, (mandate a prendergli una bevanda calda con un po‟ di
zucchero e, se la lipotimia è stata causata dal digiuno, dovrebbe riprendersi in fretta).
Se nel corso dello svenimento cominciano ad esserci delle convulsioni, la cosa si fa più complicata perché bisogna
distinguere le convulsioni tetaniche, che possono identificare alcune patologie, da altre situazioni. E‟ noto, infatti, che le
crisi isteriche possono manifestarsi con convulsioni simili a quelle del paziente epilettico, quindi in questi casi ci vuole la
consulenza di qualcuno che sappia gestire queste situazioni.
(un consiglio per approfondire: il sito www.specimencare.com, contiene informazioni sulle modalità di prelievo e raccolta
dei campioni ed eventualmente c‟è anche un link ai documenti emanati da organismi internazionali. Se qualcuno vuole
intraprendere la carriera deve conoscere come esattamente si fa il prelievo, la conservazione dei campioni e altre cose. Il
sito è libero e ve lo consiglio se vi interessa).
Questa lezione non sarà argomento di esame. Con questo ho finito, spero che le mie lezioni siano state apprezzate, io ci
ho messo il mio impegno. Altrimenti avrei piacere che mi scriveste (la mail è [email protected]) e mi diceste,
anche in anonimo, “professore io se fossi in lei farei così o farei colà”, io accetto molto volentieri le critiche, e soprattutto
i consigli perché è l’occhio di chi sta dall’altra parte che vede le cose che non vanno. Vi auguro che nella vostra carriera
professionale facciate sempre un po’ di attenzione perché le indagini di laboratorio faranno sempre parte del
ragionamento clinico con cui arriverete a fare diagnosi, consigliare la terapia, quindi sappiate maneggiarle, e per
maneggiarle basta l’intelligenza e la conoscenza clinica di quello che c’è scritto. Io vi auguro una buona carriera e una
buona estate sperando di vederci all’esame, sperando che non sia per voi solo un momento di tensione!! 