attenti alle bufale - Fondazione Diritti Genetici

Transcript

attenti alle bufale - Fondazione Diritti Genetici
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 49
LA QUALITÀ DELLE INFORMAZIONI
SCIENTIFICHE IN BIOMEDICINA
OVVERO: «ATTENTI ALLE BUFALE»
di
Tom Jefferson*
Le prove disturbano,
sono radicali, dissacranti.
Le opinioni, specie se di cattivi maestri,
ti fanno dormire sonni tranquilli
(Generale Sun Tzu, Cina, VI sec. a.C.)
La conduzione e la comunicazione della ricerca biomedica dovrebbero essere un’attività caratterizzata da altissimo rigore scientifico ed etico. Sono sempre più numerose, invece, le prove che gli
studi di parte o di dubbia qualità metodologica o francamente fraudolenti rappresentano la maggioranza di ciò che viene pubblicato e
comunicato. La ricerca biomedica e la sua comunicazione al pubblico «laico» e professionale devono essere viste con un occhio più vigile di quello al quale siamo oggi abituati. Le insidie sono numerose e
le possibilità di difesa, da parte sia dei cittadini sia degli operatori
sanitari, sono quasi sempre inadeguate per far fronte alle pressioni di
una ricerca biomedica sempre più condizionata dal mercato. In altre
parole, è necessario fare molta attenzione alle «bufale».
La maggior parte dei filosofi è d’accordo nel ritenere che lo
scopo della scienza sia di migliorare le condizioni di vita dell’uomo.
In campo sanitario, ciò viene attuato con programmi di prevenzione, diagnosi e trattamento delle malattie. La scienza è quindi la base
essenziale per l’impianto di qualsiasi attività sanitaria e le prestazioni erogate dai sistemi sanitari dovrebbero essere basate su saldi principi scientifici.
È possibile distinguere due fasi nella «costruzione» di una scien-
*
Epidemiologo, Cochrane Collaboration, Roma
49
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 50
Tom Jefferson
za, nel nostro caso particolare quella sanitaria. Il retroterra è costituito dall’attività scientifica vera e propria, atta a svolgere studi o
ricerche che rispondano in maniera empirica a quesiti specifici
come, per esempio: questo nuovo apparato diagnostico è migliore di
quello esistente nel diagnosticare la tale condizione? Allo studio fa
seguito la comunicazione dei risultati a terzi. Oggigiorno la comunicazione è diventata una componente fondamentale della scienza,
poiché la mancata comunicazione dei risultati di una ricerca, di
fatto, implica che quella ricerca non esiste. Su un piano più strategico, se la scienza è concepita come un lento evolversi e progredire
delle nostre conoscenze, la comunicazione e il dibattito sono elementi essenziali per la crescita della scienza stessa e il miglioramento delle nostre condizioni.
Sia l’attività scientifica in senso stretto, sia la comunicazione
devono però avvenire entro binari ben precisi, devono cioè obbedire a delle leggi scritte e non: prima fra tutte quella che impone l’onestà e la trasparenza. Ciò perché in biomedicina non vengono trattati oggetti inanimati, bensì persone singole o famiglie con sentimenti e aspirazioni. Tutte le religioni al mondo impongono il rispetto del singolo. Anche una concezione atea della vita e del mondo
impone il rispetto dell’etica e della personalità umana. Storicamente,
delle due componenti della scienza (la ricerca e la sua comunicazione) quella a cui è stata prestata minore attenzione è la seconda. Ciò
è probabilmente errato perché nel mondo d’oggi è quella di gran
lunga più importante per uno scienziato.
Il sistema della ricerca moderna
Nella sua moderna configurazione, la ricerca scientifica è gestita
da numerosi gruppi di ricercatori più o meno folti e di solito affiliati ad istituzioni private o pubbliche. Questi gruppi dipendono, per i
loro finanziamenti, dalla capacità di convincere coloro che manovrano i cordoni della borsa che un investimento iniziale o rinnovato
nel loro gruppo è giustificato e desiderabile. In altre parole, i «buoni» risultati scientifici sono quelli che permettono a questi gruppi di
sopravvivere o di ampliarsi. In campo biomedico, questi «buoni»
risultati sono quelli che permettono ai gruppi di raggiungere gli
50
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 51
La qualità delle informazioni scientifiche in biomedicina
obiettivi scientifici prefissi, ma anche quelli che mettono in grado i
ricercatori di disseminare i risultati della loro ricerca e influenzare la
maniera in cui vengono governati e programmati i sistemi sanitari. È
per questa ultima esigenza, che non è certamente secondaria, che si
è creata ed evoluta l’industria delle pubblicazioni scientifiche.
Si tratta di un business così fiorente che ogni anno si assiste ad un
aumento delle pubblicazioni scientifiche cartacee ed elettroniche,
con un numero sempre maggiore di riviste e siti pronti ad offrire
accesso e possibilità di pubblicazione.
Tale moltiplicazione di disponibilità e trasmissione di dati, ossia
questo vero e proprio fervore produttivo, non è regolato nella sua
creatività da nessun organismo, ma solo dalla presenza di carta, penna e francobolli o, molto più realisticamente, di un computer collegato alla rete telefonica, e dalla fertilità dell’ingegno umano.
Se si accetta una tale giustificazione, c’è il pericolo che la visione
idilliaca ed altruistica delle scienza biomedica (e soprattutto della
sua comunicazione) si cominci ad incrinare. Si rischia che la motivazione etica della scienza si trasformi in una motivazione di mercato,
soprattutto di quantità, piuttosto che di qualità.
Le prove
Che prove ci sono che queste attività simili ad imprese commerciali inquinino la nostra attività etica di ricercatori biomedici? Le
prove sono fornite soprattutto da coloro che hanno effettuato delle
revisioni minuziose di branche dello scibile biomedico, analizzando
criticamente e sintetizzando informazioni provenienti da studi formali spesso pubblicati su riviste prestigiose. Questa attività è nota
come «revisione sistematica delle prove» (dette anche «evidenze»,
da una discutibile traduzione dall’inglese evidence). Eccone alcune.
L’esperto di revisioni sistematiche greco-statunitense John
Ioannidis ha preso in esame 49 studi (per lo più trial clinici) pubblicati su riviste molto prestigiose, con tassi di citazione astronomici.
La stragrande maggioranza di questi studi riportava risultati molto
positivi per gli interventi esaminati (prescrizione di farmaci ACE-inibitori e di statine, stent cardiovascolari) o annunciava novità che in
oltre un terzo dei casi venivano successivamente smentite o ridi51
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 52
Tom Jefferson
mensionate nella loro portata. Ancor più di recente, Ioannidis è tornato sull’argomento rincarando la dose rispetto alle conclusioni
dello studio prima citato; gran parte dei risultati pubblicati sulle riviste biomediche – egli sostiene – è falsa, e la probabilità di bufale
aumenta in presenza di una serie di fattori: più piccoli sono gli studi
scientifici, più alte le probabilità che i risultati non siano validi; più
limitati in dimensione sono gli effetti misurati, più alte le probabilità
che i risultati non siano validi; più alto è il numero delle relazioni
testate, più alte le probabilità che i risultati non siano validi; più elevata è la flessibilità nel disegno degli studi, nelle definizioni e nei
metodi analitici, più alte le probabilità che i risultati non siano validi; più rilevanti sono gli interessi (economici o di natura ideologica)
in gioco, più alte le probabilità che i risultati non siano validi; più
intensa è la competizione tra i gruppi di ricercatori in una determinata disciplina «sensibile», più alte le probabilità che i risultati non
siano validi (2,3).
I ricercatori inglesi Chen e Altman, in una disamina di centinaia
di studi clinici pubblicati, hanno concluso che, nella pubblicazione
dei manoscritti, ciò che viene omesso e ciò che viene pubblicato
influenzano fortemente le conclusioni degli studi. Cioè, gli studi esaminati venivano elaborati in modo da sostenere interessi poco chiari,
che spesso non rispecchiavano i dati presentati negli studi stessi (4,5).
La consultazione del database delle revisioni sistematiche della
Collaborazione Cochrane (una Onlus internazionale che effettua
revisioni sistematiche in tutti i campi della biomedicina) rivela che
una quota sostanziale di studi (per lo più clinici) compresi nelle revisioni è di qualità metodologica modesta, con una minoranza che
sono copie carbone di altri studi plagiati, ricopiati o addirittura falsi.
Questa situazione sembra preoccupare solo alcuni ricercatori e
direttori di riviste scientifiche. A tale proposito, può essere utile leggere il parere di Richard Smith, carismatico ex direttore della prestigiosa rivista di biomedicina British Medical Journal (Attenti alle
Bufale News, newsletter del sito web www.attentiallebufale.it): «Le
riviste mediche hanno molti problemi ed hanno bisogno di essere
riformate. Vengono influenzate in maniera sproporzionata dalle case
farmaceutiche, sono troppo invaghite dei mass media e non si curano abbastanza dei pazienti. La ricerca che pubblicano è di difficile
interpretazione e piena di bias, e la peer review, il meccanismo che
52
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 53
La qualità delle informazioni scientifiche in biomedicina
sta alla base delle riviste e di tutta la scienza, non funziona bene. Sta
diventando sempre più evidente che molti degli studi pubblicati
sulle riviste sono fraudolenti […]». Coloro a cui dovrebbe stare più
a cuore una comunicazione etica (cioè i cittadini) non sono al corrente di quanto sta avvenendo. Pubblico e larga parte dell’opinione
pubblica scientifica ritengono probabilmente che i meccanismi
etico-editoriali a nostra disposizione siano una difesa sufficiente
contro le bufale pseudo-scientifiche.
Come difendersi
I meccanismi di difesa sono soprattutto imperniati sull’esame
individuale della qualità metodologica delle singole ricerche o sul
risultato di studi compiuti da colleghi «alla pari». A questo riguardo
le righe seguenti mettono in luce la gravità della situazione: «Per
pubblicare in una rivista scientifica che molti ritengono degna di
questo nome, bisogna sottoporsi al giudizio dei colleghi durante il
processo detto della peer review (o revisione critica o revisione dei
pari o revisione fra pari). La peer review è il meccanismo internazionale usato da riviste ed enti erogatori di fondi per valutare la qualità
scientifica dell’offerta. Per offerta si intende uno studio o un pezzo
inviato ad una rivista con preghiera di pubblicazione o il protocollo
di una ricerca da finanziare. L’espressione peer review ha un significato etimologicamente ambiguo in inglese. Mentre review significa
revisione, che in questo contesto implica una revisione critica, il termine peer ha tre possibili significati. Peer significa pari, cioè un collega o persona dello stesso livello o rango dell’autore dell’offerta. Un
peer è però anche un membro della camera dei pari inglese, cioè
della camera dei Lord. Ciò è in certo senso profetico e suggestivo,
nel nostro caso, poiché la camera dei Lord è dove finiscono gli scienziati più affermati del Regno Unito. Figuratevi che qualche anno fa
qualche sfrontato umorista sulle colonne del BMJ ha paragonato l’ascesa alla camera dei Lord per merito scientifico a un gioco dell’oca,
in cui tutto è lecito pur di arrivare» (1).
A questo riguardo non è irrilevante sottolineare l’importanza
della vendita di ristampa nel bilancio delle case editrici delle riviste
internazionali di biomedicina. Non esiste editore che si rispetti che
53
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 54
Tom Jefferson
non si sia dotato di un servizio espressamente dedicato alle relazioni con le industrie farmaceutiche interessate ad acquisire le ristampe
degli articoli che presentano i risultati delle sperimentazioni condotte utilizzando i propri prodotti. Stampati in diverse decine di
migliaia di copie, questi esili fascicoli in bianco e nero transitano
dalle borse degli informatori scientifici del farmaco alla scrivania del
medico e del farmacista con frequenza crescente. L’articolo viene
consegnato al medico, ovviamente «svincolato» dal resto del fascicolo in cui quello stesso lavoro è stato pubblicato; quindi, slegato
dall’editoriale di commento che – se non scritto da «cattivi maestri»
– ha spesso la funzione di contestualizzare i risultati della ricerca o
di metterne prudentemente in rilievo alcuni limiti metodologici. Lo
stesso va detto della corrispondenza, una tribuna spesso utile a
«smascherare» trappole e pecche del lavoro originale. Ma to peer
significa pure «scrutare intensamente». Anche questa interpretazione ha un significato rivelatore per una revisione critica. In realtà,
tutte queste accezioni sono a nostro giudizio fuorvianti, in quanto
non riflettono l’essenza del processo che è invece di natura altamente competitiva, specie quando la posta in palio è lo spazio all’interno di una rivista prestigiosa.
Dunque, lungi dall’essere un «pari», il revisore è un concorrente
incaricato dallo staff editoriale di dare un giudizio franco (spesso
impietoso) sul lavoro sottoposto e di elencarne le pecche metodologiche e stilistiche. L’elemento competitivo è un altro ingrediente
molto importante di quel cocktail che abbiamo già menzionato.
L’appoggio di industria e governo è spesso determinante per permettere la pubblicazione e la diffusione di uno studio, specie se si
tratta di un trial clinico. Per i cattivi maestri ambiziosi questo appoggio è essenziale.
La peer review editoriale ha lo scopo di identificare offerte di
pubblicazione, i cosiddetti manuscript, di «buona qualità» (6,7). In
modo analogo, la peer review relativa alle domande di fondi ha lo
scopo di identificare le domande «buone» per ottenere finanziamenti. Entrambe le famiglie di «buone» vengono quindi premiate,
rispettivamente, con la pubblicazione e l’elargizione di fondi.
Sulla definizione di «buono», però, si rischia una vertiginosa
caduta libera. Cinque congressi internazionali sulla peer review non
sono stati in grado di definire né i suoi scopi, né gli strumenti utili a
54
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 55
La qualità delle informazioni scientifiche in biomedicina
esprimerne la qualità nelle riviste e negli articoli scientifici (8). La
peer review rimane quindi un’arte, una scienza inesatta e qualitativa,
riconosciuta come tale solo dai pionieri che popolano i convegni sull’argomento, ma osannata come un metodo infallibile di screening
dal resto della comunità scientifica biomedica. In questo contesto è
sufficiente avere presenti i limiti del sistema e la sua vera essenza:
quella di una lotteria con in palio la pubblicazione o l’elargizione di
fondi. Come in tutte le lotterie, vincono i più fortunati, oppure coloro che hanno comprato una montagna di biglietti, ossia coloro che
hanno risorse in più, metaforicamente equivalenti all’acquisto di un
maggior numero di tagliandi per partecipare all’estrazione.
Esistono diversi tipi di peer review e diverse maniere per attuarla.
Inoltre, esistono numerose modalità per evaderla e prendersi gioco
degli editors, dei referees, delle riviste, dell’establishment scientifico e
soprattutto dei lettori. Questi sono infatti penalizzati dalla mancanza
di uno spirito critico, che non viene insegnato né favorito nella formazione scolastica e universitaria, e dalla totale incompetenza in
ambito epidemiologico di base, oltre che dalla penuria di tempo.
È per questo che in letteratura sono stati proposti degli strumenti assai complessi per l’individuazione sia delle bufale sia degli studi
di buona qualità. Gli strumenti richiedono un minimo di formazione epidemiologica, sono per lo più in inglese (e non tradotti in italiano) e, nella loro applicazione a singoli studi, necessitano di molto
tempo, specie se l’operatore ha scarsa dimestichezza con la materia
e usa tali strumenti per la prima volta.
Proprio per questa ragione, ho proposto alcuni strumenti più
rapidi e facili da usare, scaricabili direttamente dal sito web www.
attentiallebufale.it.
Conclusione
La ricerca biomedica e la sua comunicazione devono essere viste
in un’ottica ben più critica di quella comunemente accordata,
memori che le bufale abbondano e che le nostre difese sono completamente inadeguate per far fronte alle offerte del mercato della
ricerca. Questa «pressione» per riformare il mercato della scienza e
della sua comunicazione deve provenire in primo luogo dai cittadi55
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 56
Tom Jefferson
ni, ai quali vengono spesso venduti interventi inefficaci o dannosi.
Ma affinché il pubblico possa rendersi conto di ciò che realmente sta
accadendo, i professionisti del settore sanitario e tutti coloro che
producono e comunicano ricerca scientifica in buona fede dovrebbero mettere in evidenza i problemi qui evidenziati. Per concludere,
può essere interessante sollecitare un interrogativo e una riflessione
molto seri. Un anno fa i media del mondo occidentale erano colmi
di fosche previsioni relative a catastrofi pandemiche; quest’anno,
invece, pare che negli Stati Uniti le colonne dei giornali siano molto
più impegnate a dare conto di un dibattito sulle virtù degli spinaci.
Perché questa variabilità?
BIBLIOGRAFIA
(1) Jefferson T., Attenti alle bufale, 2a ed., Pensiero Scientifico Editore,
Roma 2006.
(2) Ioannidis J.P.A., «Contradicted and initially stronger effects in highly
cited clinical research», JAMA, 294, 2005, pp. 218-228.
(3) Ioannidis J.P.A., «Why most published research findings are false»,
Plos Med, 2, 2005, p. 124.
(4) Chen A.-W., Altman D.G., «Epidemiology and reporting of randomised
trials published in PubMed journals», Lancet, 365, 2005, pp. 1159-62.
(5) Chen A.-W., Altman D.G., «Identifying outcome reporting bias in
randomised trials on PubMed: review of publications and survey of
authors», BMJ, 330, 2005, pp. 753-6.
(6) Jefferson T.O., Alderson P., Davidoff F., Wager E., «Editorial peer
review for improving the quality of reports of biomedical studies
(Cochrane Methodology Review)», in The Cochrane Library, Issue 1,
John Wiley & Sons Ltd, Chichester, UK 2004.
(7) Demicheli V., Di Pietrantonj C., «Peer review for improving the quality of grant applications (Cochrane Methodology Review)», in The
Cochrane Library, Issue 1, John Wiley & Sons Ltd, Chichester, UK 2004.
(8) Jefferson T.O., Wager E., Davidoff F., «Measuring the quality of editorial peer review», JAMA, 287, 2002, pp. 2786-90; Godlee F., Jefferson
T.O. (ed.), Peer review in health sciences, second edition, BMJ Books,
London 2003.
56
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 57
MODELLI DI SCIENZA E POLITICA:
DALLA DIMOSTRAZIONE COMPETENTE
ALLA PARTECIPAZIONE ESTESA
di
Silvio Funtowicz*
Questo saggio è incentrato sul ruolo della scienza nello sviluppo
e nell’attuazione delle decisioni di policy. Esso prende in esame un
certo numero di modelli concettuali che descrivono la relazione e
l’interrelazione tra scienza e politica. Tali modelli vengono valutati
nel quadro dei presupposti su cui si basano, nonché dei punti di
forza e dei limiti intrinseci di ciascuno di essi. Deve essere chiaro che
nessuno dei modelli presentati offre la soluzione universale ai problemi più importanti. Ritengo ormai necessario, tuttavia, anche in
considerazione della letteratura sempre più ricca che viene prodotta
in materia (1,2,3), un ripensamento della relazione tra scienza e politica.
Nella tradizione moderna dell’Illuminismo europeo, questa relazione veniva considerata semplice in termini teorici ma assai complicata in termini pratici: secondo la tradizione, la scienza ha la funzione di trasmettere alla politica una conoscenza obiettiva, valida e
affidabile. Per elaborare una policy, quindi, occorre ricevere informazioni da parte della scienza e, in un secondo momento, valutare
preferenze e opzioni diverse. Di seguito definiremo questo «il mo-
*
Filosofo della scienza, Joint Research Centre of the European Commission,
ISPRA
Le opinioni e i punti di vista espressi in questo testo sono riferibili unicamente
all’autore, e non riflettono necessariamente quelli della Commissione europea.
57
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 58
Silvio Funtowicz
dello moderno», fra le cui caratteristiche più importanti c’è quella di
comprendere la nozione moderna di razionalità. Semplificando,
potremmo dire che nell’ambito della tradizione illuminista gli attori
razionali agiscono all’interno del modello moderno e scelgono le
opzioni politiche che, conformemente alla prova scientifica, meglio
si adattano alle loro preferenze.
In linea di principio, il modello moderno è facilmente giustificabile, al punto che spesso viene dato per certo. Tuttavia, la sua giustificazione presuppone un certo numero di assunti che solo di rado
sono totalmente espressi. Il primo presupposto è che l’informazione
scientifica disponibile sia oggettivamente valida e affidabile. In presenza di una considerevole incertezza scientifica, però, come nel
caso in cui i fatti siano molto incerti o gli esperti nutrano dubbi
significativi, il modello moderno non rappresenta più l’unica possibilità di relazione tra scienza e politica. Lo stesso vale nel caso in cui
sussistano conflitti d’interesse da parte degli attori coinvolti, come
avviene quando gli stessi esperti sono stakeholders (ossia «portatori
di interessi»).
Il secondo presupposto che caratterizza il modello moderno prevede non solo che l’incertezza possa essere eliminata o controllata,
ma anche che l’informazione scientifica possa essere completa, ossia
che informi il decisore politico riguardo a tutto ciò che è necessario
sapere per prendere decisioni volte all’interesse pubblico: in pratica,
esiste una sola descrizione corretta del sistema e tale descrizione
deve essere fornita dalla scienza. In presenza di più descrizioni, queste possono essere combinate e ricondotte a un’unica descrizione
scientifica che le comprenda tutte. In altre parole, il modello moderno assume che il sistema e il problema di cui ci si occupa non siano
realtà complesse. Ritengo che in molte questioni politiche, per riconoscere l’irriducibilità dell’incertezza e della complessità scientifica
occorra una sostanziale revisione del modello moderno, ossia una
riformulazione della sua definizione di conoscenza e di governance.
La conoscenza non è prodotta solo dalla scienza, e la governabilità
implica molto più che la semplice deduzione dell’azione dai fatti e
dalle preferenze.
58
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 59
Modelli di scienza e politica
La relazione dinamica tra scienza e politica
Qual è il ruolo della scienza nella governance? E quale dovrebbe
essere la relazione tra scienza e politica?
Anzitutto dovrei chiarire che esistono due tipologie molto differenti di relazione tra scienza e politica. Quello fin qui discusso riguarda la scienza nel suo ruolo di informatrice della politica. Tuttavia, la scienza è anche l’oggetto della politica, nel senso che la pratica scientifica è regolata da un certo numero di decisioni politiche.
In modo analogo, si deve osservare che se da un lato la scienza che
informa la politica può eliminare o ridurre l’incertezza, dall’altro le
pratiche scientifiche e tecnologiche sono tra le principali responsabili d’incertezza al mondo, essendo esse stesse produttrici di innovazioni, come per esempio nuovi organismi e nuove forme di vita. Ed
è proprio a questo potenziale innovativo che è attualmente rivolta
l’attenzione delle politiche di ricerca in numerosi paesi. Senza più
territori fisici da colonizzare sul pianeta, la scienza (insieme allo spazio) fornisce la «frontiera infinita» da conquistare e su cui investire
(4,5).
D’altra parte, il potenziale verificarsi di effetti collaterali inattesi
o negativi è oggetto di un interesse crescente. E la minaccia è rappresentata dal fatto che le nostre società non hanno ancora creato le
istituzioni necessarie per gestire la situazione. Di fatto, le risposte
principali al verificarsi di eventi incerti si identificano con i «regolamenti etici», nel caso della scienza medica, e con la «valutazione/
gestione del rischio», nel caso delle tecnologie basate sulla scienza,
mentre si tende a rimuovere dalla discussione l’assunto implicito
della desiderabilità e della necessità di accelerare la ricerca e l’innovazione.
Esaminando il contesto in cui la scienza informa la politica, non
è possibile separare completamente i due tipi distinti di relazione
che vengono a instaurarsi. Dal punto di vista sociologico, è possibile che vi siano legami o addirittura sovrapposizioni tra gli esperti che
informano e gli scienziati sui cui interessi influiscono le decisioni
politiche (6). Dal punto di vista epistemologico, esistono certamente connessioni, nel senso che le pratiche da regolamentare sono basate su un insieme di conoscenze che, a loro volta, giocano un ruolo
importante per quanto riguarda il parere politico.
59
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 60
Silvio Funtowicz
Alvin Weinberg (7) ha coniato il termine trans-scientific (transscientifico) per le «domande che possono essere rivolte alla scienza
e a cui la scienza non è però in grado di rispondere [corsivo originale]» . Weinberg ha fornito l’esempio dei rischi sanitari derivanti dall’esposizione a una bassa dose di radiazioni ionizzanti, ma ha anche
discusso il problema relativo alla valutazione dei rischi e dei benefici delle nuove tecnologie decenni prima dei dibattiti su clonazione,
cellule staminali embrionali, nanotecnologia e cambiamento del
clima.
Che cosa fare? Le soluzioni sono state inserite in cinque tipi ideali o modelli (8).
Il modello moderno
Non è questa la sede per discutere tutte le caratteristiche importanti del modello moderno. Tuttavia, la difesa di questo modello è
andata oltre il semplice bisogno di definire una strategia utile a formulare linee politiche efficaci; essa ha avuto un ruolo cruciale anche
nella legittimazione e nel consolidamento della scienza, della governance e delle istituzioni politiche nelle società odierne. Nell’ambito
dello Stato moderno, questo modello funziona anche a un livello culturale più profondo, garantendo la fiducia nel progresso, inteso in
senso illuminista, e nella superiorità della secolare razionalità scientifico-economica dell’Occidente espressa secondo criteri quantitativi.
Sul piano aneddotico e biografico, ho sperimentato spesso che gli
interlocutori difendono il modello moderno in maniera convinta e
non solo per ragioni pragmatiche: per alcuni sembra rappresentare
persino una questione d’identità e di speranza. Il problema sorge
quando: la complessità aumenta; le incertezze non possono essere
ridotte a rischi probabilistici; gli esperti non sono d’accordo, vengono percepiti come portatori di interessi o, più semplicemente, non
hanno una conoscenza del problema.
I tre modelli che seguono possono essere considerati tentativi di
rimediare a queste anomalie (9), come sforzi tendenti a salvaguardare il modello moderno dai pericoli derivanti rispettivamente dall’incertezza, dall’indeterminazione e dal conflitto d’interesse.
60
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 61
Modelli di scienza e politica
Il modello basato sulla precauzione:
liberare il modello moderno
dall’incertezza tecnica e metodologica
Nei processi politici reali si scopre che i fatti scientifici non sono
di per sé totalmente certi né conclusivi per la pianificazione delle
scelte di intervento. Il progresso non può essere ritenuto un fatto
automatico e i tentativi di controllare i processi sociali, i sistemi economici e l’ambiente possono fallire, determinando talvolta situazioni patologiche. Negli ultimi decenni l’«incertezza» è stata gradualmente riconosciuta, in particolare per quanto concerne i problemi
ambientali. Questa incompletezza della scienza lascia emergere un
elemento aggiuntivo nelle decisioni politiche, vale a dire la precauzione, che svolge la funzione sia di proteggere sia di legittimare quelle stesse decisioni che, altrimenti, ricadrebbero nel dominio del modello moderno.
Il modello qui discusso, dunque, introduce nel modello moderno
il principio, o approccio, precauzionale, con particolare riferimento
all’accezione in cui esso viene inteso nel contesto europeo.
Principi o approcci di precauzione sono stati adottati da un certo
numero di convenzioni, leggi e disposizioni, in particolare nella
Dichiarazione di Rio sull’ambiente e lo sviluppo (10). La descrizione di tali principi e approcci è molto variabile, tuttavia è tipica e
interessante quella che è stata data nella Dichiarazione di Rio, basata su una doppia negazione: «Laddove vi siano minacce di danni seri
o irreversibili, la mancanza di un’assoluta certezza scientifica non
dovrà essere usata come motivo per ritardare il ricorso a misure economicamente efficaci per la prevenzione del deterioramento ambientale» (da Principio 15).
Nella Comunicazione della Commissione europea (11) sul principio di precauzione si fa riferimento all’incertezza scientifica, ma si
pone l’accento sul fatto che il principio di precauzione è «particolarmente rilevante per la gestione del rischio» e che «il principio di
precauzione, cui fanno ricorso essenzialmente i decision-makers che
operano nella gestione del rischio, non dovrebbe essere confuso con
l’elemento di cautela che gli scienziati applicano nella loro valutazione dei dati scientifici».
Nella stessa Comunicazione, la Commissione sottolinea il fatto
61
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 62
Silvio Funtowicz
che le richieste arbitrarie di misure di precauzione non possono
essere basate sul principio omonimo. Esso può essere invocato solo
qualora una valutazione scientifica offra una prova del rischio, e solo
nel caso in cui le misure di precauzione siano in linea con il principio della proporzionalità (tra costi e benefici). Questo ha spinto
alcuni critici ad argomentare che il principio di precauzione non è
altro che un’estensione dell’analisi costi-benefici.
Il principio normativo della precauzione è inquadrato di conseguenza ed espresso in termini di scienza quantitativa. Ci si potrebbe
chiedere qual è la differenza, in pratica, tra il modello di precauzione e il modello moderno, dato che la prova scientifica non è mai
«certa». La risposta sembra risiedere nel fatto che esistono situazioni in cui la comunità scientifica crede ampiamente all’esistenza di un
certo danno o rischio, sebbene la prova scientifica non sia del tutto
conclusiva sulla base dei normali standard scientifici. In altre parole, l’evidenza concreta e specifica del danno esiste, ma l’incertezza
tecnica e metodologica è leggermente maggiore di quanto viene stabilito dalle convenzioni standard ammesse dalla letteratura scientifica: convenzionalmente il 95% di confidenza nel caso di incertezza
statistica1 (13). L’incertezza epistemologica – del tipo: «Non sappiamo che tipo di sorprese potrebbe riservarci questa tecnologia» –
sarebbe resa antiscientifica e inappropriata proprio dal modello di
precauzione. Tale limite è così rigido che, per ottemperare all’incertezza epistemologica, è necessaria una radicale riformulazione del
principio: un principio di precauzione «reale» non dovrebbe dipendere da ciò che accadrà in futuro (questa conoscenza infatti è impossibile), ma dovrebbe essere adattato a ciò che è rischioso oggi.
1
Si dovrebbe tenere presente che il 95% è dovuto alla convenzione, ma è anche
il risultato dell’esperienza storica. Ronald A. Fisher, insigne statistico che ha guidato lo sviluppo di test statistici e del concetto di significatività, ha scritto: «Colui
che sperimenta ha la possibilità di essere più o meno esigente riguardo al basso
valore di probabilità che intende richiedere prima di essere disposto ad ammettere
che le sue osservazioni hanno prodotto un risultato positivo. […] Di solito è conveniente, per gli sperimentatori, prendere il 5% come livello standard di significatività» (12).
62
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 63
Modelli di scienza e politica
Il modello mirato: liberare il modello moderno
dall’indeterminazione
Un certo numero di decisioni mirate può avere conseguenze
importantissime sui risultati del parere scientifico e sulla scelte di
policy che ne derivano. Le decisioni mirate includono le scelte sulle
tipologie di effetto, sulle misure di sicurezza, sul periodo, sul luogo,
sulle comunità di esperti e perfino sulle discipline scientifiche di cui
avvalersi. Il numero virtualmente infinito di alternative è collegato a
quella che Wynne (1) chiama «indeterminazione» e, dal momento
che non esistono algoritmi semplici per prevederle tutte, ecco l’esigenza di circoscrivere il problema da investigare e di individuare
l’ambito scientifico entro il quale si deve muovere la decisione politica. Le diverse discipline scientifiche infatti competono come veri e
propri stakeholders, e quella che riuscirà ad «appropriarsi» del problema scientifico darà il principale contributo alla sua soluzione,
godendo dei conseguenti benefici.
Le istituzioni sono ben consapevoli del problema dell’indeterminazione e delle possibili divergenze tra le comunità di esperti. In un
tentativo di stabilire alcune linee guida per il ricorso agli esperti (14),
la Commissione europea dichiara: «La Commissione potrebbe trovarsi di fronte a numerosi pareri contrastanti da parte di esperti di
varia estrazione accademica: sia da parte di coloro che possono vantare conoscenze sulla base di un’esperienza specifica, sia da parte di
coloro che hanno interessi di natura politica. Questi pareri possono
essere basati su presupposti diversi e su obiettivi assolutamente differenti. […] Pertanto l’interazione tra decisori politici, esperti, portatori di interessi e pubblico (in senso ampio) è un momento cruciale della pianificazione politica, e deve concentrarsi non solo sul risultato politico ma anche sul procedimento seguito» (p. 2).
I vari tentativi di adeguare il modello moderno a questo obiettivo possono essere sintetizzati in un «modello mirato». Le linee guida
menzionate prevedono in primo luogo un dibattito avanzato all’interno dell’amministrazione sui modi di configurare il problema e
scegliere gli esperti; altri sviluppi che attengono all’importante ambito della governance, inoltre, prevedono la partecipazione dei cittadini e degli stakeholders al processo che precede l’indagine scientifica,
il cosiddetto upstream engagement (impegno preliminare).
63
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 64
Silvio Funtowicz
In ogni caso, una designazione scorretta del problema (per errori, ignoranza, valutazioni inadeguate, ecc.) può comportare un impiego fuorviante dello strumento dell’indagine scientifica. Resta il
fatto che, non sussistendo alcuna base scientifica esaustiva nella scelta dell’impianto nel suo complesso, tale scelta resta in una certa
misura arbitraria (o di carattere sociale): in altri termini, non si può
parlare di «scienza oggettiva».
L’accettazione del modello mirato comporta l’accettazione di un
certo grado di arbitrarietà di scelta (ambiguità), da cui deriva un
possibile abuso della scienza nel contesto della politica, aspetto,
quest’ultimo, non sempre facile da verificare. Quello che è certo è
che il giudizio stesso sarà influenzato dal modello.
Il modello mirato è interessante per diverse ragioni. Può essere
visto come un tentativo di riconoscere e, in qualche modo, ridistribuire gli equilibri e i poteri tra esperti e persone comuni: l’applicazione non scientifica del modello che gli scienziati spesso compiono
implicitamente (e inconsapevolmente) viene infatti sottratta al loro
controllo esclusivo e democratizzata. Non vengono affrontati i limiti metodologici dell’indagine scientifica, né l’appropriazione della
conoscenza da parte della scienza. Al fine di conoscere e specificare
tutti i criteri fondamentali affinché la qualità della prova eviti qualsiasi indeterminazione, i non esperti dovrebbero diventare esperti
per poter realizzare autonomamente le ricerche.
Le linee guida della Commissione europea sopra menzionate (14)
richiedono una pluralità di prospettive per risolvere il problema dell’indeterminazione nel modello: «Il fattore determinante della qualità è, in assoluto, il pluralismo. Ogni qualvolta fosse possibile, si
dovrebbe raccogliere una varietà di punti di vista. Questa varietà
dovrebbe essere il risultato di differenze di approccio scientifico,
competenze diverse, affiliazioni istituzionali differenti e opinioni
contrapposte relativamente ai presupposti fondamentali del problema». «In base al problema e alla fase del ciclo decisionale, pluralismo significa anche tenere conto di competenze multidisciplinari e
multisettoriali, e di punti di vista minoritari e non omologati. Possono essere importanti anche altri fattori, come le prospettive geografiche, culturali e di genere» (p. 9).
Questo potrebbe funzionare soltanto se il problema del modello
mirato fosse un problema di distorsione (bias) o di prospettiva limi64
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 65
Modelli di scienza e politica
tata riguardo a ogni tipo di competenza: in questo caso, il pluralismo
potrebbe tradursi in solidità, cancellare le distorsioni e avvicinarsi
alla conoscenza intersoggettiva. Ma purtroppo il problema è più
profondo: in altri termini, è una questione di scelte necessarie e non
di distorsioni superflue. E questo non può essere risolto dal modello mirato, perché esso mantiene come fondamento l’ideale di una
conoscenza scientifica certa.
Il modello di demarcazione: liberare il modello moderno
dal conflitto d’interesse
L’ultimo adeguamento del modello moderno che esamineremo è
il modello di demarcazione. Questo modello richiama il modello
mirato nel senso che riconosce la possibilità di distorsione e di disaccordo tra esperti. Tuttavia, diagnosi e prescrizione sono termini
distinti. Laddove il modello mirato vede la necessità di specificare
meglio i valori da inserire nel sistema degli esperti, il modello di
demarcazione si occupa maggiormente di supervisionare i valori in
gioco nel processo di definizione del parere scientifico: «Le informazioni e le indicazioni di carattere scientifico utilizzate nella pianificazione politica sono formulate da persone che operano in istituzioni che perseguono agende proprie. L’esperienza insegna che un
contesto simile può influenzare i contenuti di ciò che viene proposto, attraverso la selezione e l’impostazione di dati e conclusioni particolari. Nonostante vengano usati termini scientifici, la neutralità e
l’oggettività dei dati non sono garantite. Inoltre, i professionisti della
scienza e i loro finanziatori hanno interessi e valori propri. In questi
casi può verificarsi (e probabilmente si verifica) un abuso della
scienza che corrobora il processo di pianificazione politica. Come
risposta a questo problema, è dunque necessario che le istituzioni (e
gli individui) che forniscono il sostegno scientifico siano tenuti rigorosamente separati dagli organi ove tali contenuti vengono impiegati, onde evitare che la politica interferisca con la scienza mettendone a repentaglio l’integrità. Tale demarcazione ha il significato di
garantire che la responsabilità delle decisioni politiche resti a carico
dei decisori politici e non venga inopportunamente spostata sugli
scienziati» (8).
65
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 66
Silvio Funtowicz
Un esempio di modello di demarcazione è dato dalla necessità di
una separazione chiara tra «valutazione» del rischio e «gestione» del
rischio. Un altro esempio è l’esigenza di studi e gruppi di ricerca «indipendenti» e, in una certa misura, anche il perseguire una «scienza
sicura».
Il problema principale del modello di demarcazione è che esso
non è più funzionale se non nei casi di corruzione. La filosofia della
scienza post-empirista ha dimostrato che, in generale, è impossibile
avere una separazione netta tra fatti e valori, proprio a causa delle
proprietà emergenti dei sistemi, come la complessità e l’indeterminazione. In concreto, quando la situazione presenta un alto livello di
polarizzazione e il conflitto è evidente, è molto difficile ottenere una
separazione chiara tra valutazione e gestione del rischio.
Dunque, come si decide (e chi decide) che cosa rientra nel dominio dei fatti e che cosa nel dominio dei valori? Gli stakeholders possono essere esperti (per esempio gli agricoltori o i pescatori) e gli esperti possono essere stakeholders (per esempio gli scienziati imprenditori). Ciò non implica ovviamente che gli esperti siano sempre
condizionati, corrotti o soggettivi; implica soltanto che l’ideale degli
scienziati isolati che hanno accesso alla «visione divina» non è realistico e, probabilmente, neppure desiderabile.
Il modello di partecipazione estesa: operare deliberatamente
dentro l’imperfezione
I modelli alternativi sopra descritti possono essere considerati
un’evoluzione del modello moderno iniziale, che assume la perfetta
efficacia della scienza nei processi decisionali. Per quanto riguarda i
modelli di precauzione, mirato e di demarcazione, le imperfezioni
possono essere viste in una progressione che via via comprende l’incompletezza, l’uso sbagliato e l’abuso (della scienza). Resta comunque invariato il desiderio che tra scienza e politica venga mantenuto
un legame diretto e non mediato.
Rispettivamente, i tre modelli affrontano le sfide lanciate dall’incertezza e dalla complessità, lasciando aperta la possibilità che il
principio di precauzione modifichi la strategia politica, prevedendo
l’inclusione degli stakeholders nella definizione dei fattori che entra66
*02.Biotecnocrazia
28-06-2007
9:02
Pagina 67
Modelli di scienza e politica
no nei processi decisionali e proteggendo gli scienziati dalle interferenze politiche.
Tuttavia, la sostanza del modello moderno – la (il desiderio di)
verità degli esperti che parla al (bisogno di) potere dei politici – non
cambia. Nel seguito vengono dunque discussi la legittimità di questa
«sostanza» e il modello alternativo che nasce da tale critica: il modello di partecipazione estesa.
Le idee alla base del modello sono quelle sviluppate in precedenza da Funtowicz e Ravetz (2) nei loro scritti sulla scienza postnormale. Quando un problema di policy è complesso, i rischi legati
alle decisioni sono alti e i fatti sono incerti e/o controversi, gli scienziati possono ancora sforzarsi di raggiungere la verità, ma le molte
«verità» dei sistemi su cui bisogna decidere sono semplicemente sconosciute e, in ogni caso, non disponibili nei tempi canonici richiesti
dalle decisioni. Ciò non implica che la conoscenza scientifica sia irrilevante, significa tuttavia che la verità non è mai un aspetto cruciale
della questione: «Per essere sicuro, il buon lavoro scientifico ha un
prodotto che nelle intenzioni dei suoi autori dovrebbe corrispondere il più possibile alla natura ed essere di conoscenza pubblica. Ma i
giudizi operanti sul prodotto riguardano la sua qualità e non la sua
verità logica» (15).
L’enfatizzare o meno una certa affermazione di un esperto è un
modo di valutare e assicurare la sua qualità. In alcuni casi, e in una
certa misura, è ammissibile semplificare le cose dividendo questo
problema di «certificazione di qualità» in due parti: una componente interna e una componente esterna. La componente interna corrisponde al sistema di valutazione tra pari (peer review) della scienza
accademica: uno scienziato valuta fino a che punto il lavoro scientifico di un collega sia stato condotto secondo gli standard metodologici della disciplina. La componente esterna corrisponde invece a
una valutazione della rilevanza politica. In questo modo la questione della qualità dell’affermazione verrebbe ripartita tra componenti
che ne considerano i fatti e componenti che ne considerano i valori.
Tuttavia, come è stato detto sopra (con riferimento ai limiti dei modelli mirato e di demarcazione), tale semplificazione sarebbe spesso
inammissibile. Dal punto di vista epistemologico, una tale divisione
rende invisibile la rilevanza del valore politico di una miriade di scelte metodologiche operate nel lavoro scientifico (svuotare di valore i
67
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 68
Silvio Funtowicz
fatti), come pure la rilevanza dell’informazione scientifica nei processi di governance.
Dal punto di vista sociologico, la semplificazione presuppone
una chiara divisione tra scienziati – disinteressati e disposti all’autocritica all’interno di un sistema accademico mertoniano – e la società
civile cui, implicitamente, non possono essere riconosciute competenze critiche.
La ricerca spinta dalla curiosità, economicamente disinteressata,
sta diventando l’eccezione anziché la regola in un numero crescente
di campi di ricerca. L’espansione del mondo della ricerca ha creato
preoccupazioni sulla qualità delle sue istituzioni interne preposte a
verificare la qualità dell’informazione (ossia il sistema della peer review). D’altra parte, la conoscenza e le capacità critiche della società
civile aumentano via via che l’ideologia scientista segna il passo.
Inoltre, con lo sviluppo delle Information and communication technologies (ICT), diventa sempre più difficile monopolizzare l’accesso
all’informazione tecnica (nonostante i tentativi, da parte del mondo
della ricerca più corporativo, di chiudere la propria «società aperta»
e trasformarla in un sistema che produce capitale attraverso la proprietà intellettuale).
L’implicazione logica di questa situazione è l’estensione della
«comunità dei pari» e il definitivo riconoscimento che chiunque può
contribuire al processo di certificazione di qualità della scienza: per
dirla in altro modo, consentire agli stakeholders di scrutinare con
attenzione le metodologie, e agli scienziati di esprimere le loro valutazioni. La concezione del modello di partecipazione estesa è pertanto una concezione fondata sulla democratizzazione, e non solo
per «ragioni di democrazia», ma anche per migliorare la certificazione di qualità.
Stando a questo modello, i cittadini rivestono il doppio ruolo di
critici e creatori nella produzione di nuova conoscenza. Il loro contributo non deve essere trattato con condiscendenza, o bollato con
etichette negative, come conoscenza «locale», «empirica», «etica» o
«spirituale». Viene accettata una pluralità di prospettive legittime e
coordinate (ciascuna con i propri interessi e valori di riferimento).
La forza e la rilevanza delle prove scientifiche sono sottoposte alla
valutazione dei cittadini.
68
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 69
Modelli di scienza e politica
Conclusione
La certificazione di qualità può dunque essere vista come un
requisito essenziale della scienza post-normale. Definite le incertezze e i rischi legati alle decisioni, assicurare la qualità della scienza
significa includere nel processo l’interesse pubblico, i cittadini e le
conoscenze vernacolari. In un’epoca in cui la scienza globalizzata
domina, questo impegno a rendere gli scienziati affidabili nei confronti dei gruppi interessati costituisce un’alternativa concettuale
coerente. La peer review collegiale è dunque trasformata in un processo di valutazione che riguarda una comunità più estesa.
Esistono oggi molte iniziative per coinvolgere comunità di persone più ampie nei processi decisionali e nell’implementazione degli
obiettivi politici (ambientali, sanitari, ecc.). Per queste nuove tipologie di problemi, la garanzia della qualità scientifica dipende dal dialogo aperto tra tutte le parti in causa. Questo è ciò che definiamo
una comunità estesa di pari: non soltanto persone con una qualsivoglia forma di accreditamento istituzionale, ma tutti gli individui che
desiderano partecipare alla soluzione di un problema. Poiché questo
nuovo contesto della scienza coinvolge la policy, potremmo equiparare questa estensione di diritti ad altre estensioni di diritti del passato, come l’allargamento del voto alle donne o i diritti sindacali.
Già oggi vengono create comunità di pari estese, per esempio
quando le istituzioni non vedono soluzioni politiche, oppure quando comprendono che senza una larga base di consenso non esiste
alcuna possibilità di riuscita. Queste comunità vengono chiamate
giurie popolari, focus group, consensus conference o in altri modi; e la
loro forma e i loro poteri variano di conseguenza.
La caratteristica comune, in ogni caso, è il compito di valutare la
qualità delle proposte politiche, compreso il dato scientifico, sulla
base della competenza scientifica di cui sono capaci e della loro
visione del mondo. Tutti i loro responsi hanno un alto grado di forza
morale e costituiscono un significativo contributo alla governance.
Queste comunità estese, quindi, non sono necessariamente recettori passivi dei materiali prodotti dagli esperti, ma possiedono o
creano esse stesse le loro realtà. Queste possono comprendere la
sapienza e le conoscenze della comunità in relazione ai suoi luoghi e
alla sua storia, alle testimonianze aneddotiche, alle inchieste locali, al
69
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 70
Silvio Funtowicz
giornalismo investigativo e ad altra documentazione. Tali comunità
hanno raggiunto nuovi ambiti e conquistato un enorme potere attraverso l’uso di Internet. Gli attivisti disseminati nelle grandi città o
nelle foreste pluviali possono usare i loro blog per partecipare ad
attività educative reciproche e coordinate, procurandosi autonomamente i mezzi necessari per fare fronte agli interessi globali acquisiti, in forme meno inique rispetto al passato.
Questo viene spesso definito un «approccio allargato alla governance»: una missione ormai irrinunciabile nella dinamica relazione tra
scienza e società.
BIBLIOGRAFIA
(1) Wynne B., «Uncertainty and environmental learning: reconcieving
science and policy in the preventive paradigm», Global Environmental
Change, 2, 1992, pp. 111-127.
(2) Funtowicz S.O., Ravetz J.R., «Science for the post normal age»,
Futures, 25, 1993, pp. 739-755.
(3) Nowotny H., Scott P., Gibbons M., Re-thinking science: knowledge
and the public in an age of uncertainty, Polity Press, Cambridge 2001.
(4) Bush V., Science – The Endless Frontier, Rapporto al Presidente di
Vannevar Bush, Direttore del Gabinetto di Ricerca Scientifica e
Sviluppo, luglio 1945 (United States Government Printing Office,
Washington), http://www.nsf.gov/od/lpa/nsf50/vbush1945.htm.
(5) Rees M., Our Final Hour, Basic Books 2003.
(6) De Marchi B., «Public participation and risk governance», Science and
Public Policy, 30, 3, giugno 2003, pp. 171-176.
(7) Weinberg A., «Science and tran-science», Minerva, 10, 1972, pp. 209222.
(8) Funtowicz S.O., «Why Knowledge Assessment?», in Vaz S., Pereira A.
(eds), Interfaces between Science and Society, EC Joint Research Centre,
2006.
(9) Kuhn T., La struttura delle rivoluzioni scientifiche, Einaudi, Torino
1999.
(10) UNEP, Rio Declaration on Environment and Development (Dichiarazione di Rio sull’ambiente e lo sviluppo), http://www.unep.org/
Documents.multilingual/Default.asp?DocumentID=78&ArticleID=1
163, 1992.
70
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 71
Modelli di scienza e politica
(11)
(12)
(13)
(14)
(15)
UE, Comunicazione della Commissione sul principio di precauzione
(COM 2000, p. 1), Bruxelles 2001.
Fisher R.A., The Design of Experiments, 6th edition, Oliver & Boyd,
Edinburgh 1951.
Gigerenzer G., «Mindless Statistics», The Journal of Socio-Economics,
33, 2004, pp. 587-606.
UE, Comunicazione delle Comunità sulla raccolta e l’utilizzazione dei
pareri degli esperti da parte della commissione: principio e linee guida
(COM 2002, p. 713), Bruxelles 2002.
Funtowicz S.O., Ravetz J.R., Uncertainty and Quality in Science for
Policy, Kluwer, Dordrecht 1990, pp. 7-16.
71
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 72
L’INEDITO CONFLITTO FRA BIOLOGIA
REALE E BIOLOGIA COMUNICATA
di
Marcello Buiatti*
In questo contributo voglio proporre un esame del rapporto tra
scienza e verità in biologia, con il proposito di mettere a fuoco le
interazioni fra le comunità scientifiche e la società. Il contesto di riferimento è il nostro sistema socio-economico, considerato alla luce
dei suoi effetti sulla ricerca, sul senso comune e sul cosiddetto «spirito del tempo» (1). Partirò da una citazione del grande naturalista
Charles Darwin, che sembra quanto mai pertinente con il tema centrale di questo testo.
Nella sua autobiografia Darwin afferma (2): «Per quanto posso
giudicarmi […] sono sempre riuscito a mantenere la mia mente libera in modo da poter abbandonare qualsiasi ipotesi per quanto amata
[…]. Non mi ricordo di avere formulato mai una ipotesi che poi non
abbia abbandonata o profondamente modificata».
Questa affermazione permette di introdurre un concetto molto
importante, che merita di essere sottolineato anche per lanciare alle
giovani generazioni un messaggio molto chiaro ed educativo sul
reale significato della scienza. Dal pensiero di Darwin si ricava infatti che nella scienza, e in particolare nelle scienze della vita, non esiste una verità universale. La prova è che in biologia i concetti mutano continuamente e ciò avviene perché la vita è «multiversa». I con-
*
Genetista, Università degli Studi di Firenze
72
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 73
L’inedito conflitto fra biologia reale e biologia comunicata
cetti che si ricavano dalle bioscienze cambiano continuamente in
relazione a quale delle molteplici facce della vita stiamo osservando,
ed è il clima culturale a indicarci quale. In altre parole, ciò che noi
scopriamo dipende in qualche modo dallo «spirito del tempo», vale
a dire dal comune sentire della collettività. Questo fatto produce un
effetto singolare, che spesso non viene percepito e dunque nemmeno accettato da una parte significativa della comunità scientifica, nel
senso che relativizza le singole verità. Le bioscienze producono
verità locali e non universali, ma è bene comprendere che in nessun
modo questo toglie loro valore. Naturalmente è necessario usare il
metodo critico per distinguere le verità dalle falsità, anche se è sempre possibile che una verità appaia sicura (o falsa) in un momento
della nostra storia e non in un altro.
Lo spirito del tempo, chiaramente, è cambiato parallelamente
alla trasformazione della nostra specie, che è avvenuta più su base
culturale che genetica. Questo è dimostrato dal fatto che la variabilità genetica fra gli individui di Homo sapiens è estremamente ristretta se confrontata, per esempio, con quella dei nostri cugini filogenetici bonobo, scimpanzé e gorilla (si noti che questi altri primati sono
molto meno numerosi di noi e, anche se avessero una frequenza di
variazione uguale alla nostra, dovrebbero possedere meno variabilità). Se da un lato la variabilità genetica umana è bassa, dall’altro
quella culturale è altissima, come testimoniato dal fatto che, nonostante i molti linguaggi estinti o in pericolo di estinzione, stime recenti (3) confermano che al mondo si parlano ancora quasi 7.000 lingue. Quindi l’evoluzione e gli adattamenti dell’uomo sono essenzialmente dovuti alla presenza nella nostra specie di un «serbatoio» formidabile di informazione. Un serbatoio ben più «capiente» del DNA,
che si identifica con il cervello.
Tanto per fornire qualche dato, mentre nel nostro genoma vi sono solo 23.000 geni, la nostra corteccia cerebrale contiene 100 miliardi di neuroni, che a loro volta possono organizzarsi in un milione di miliardi di sinapsi. Alla nascita le sinapsi sono dotate di un’architettura pressoché casuale, ma si organizzano durante la vita sulla
base dei segnali che provengono dall’ambiente esterno, modificando
continuamente anche l’organizzazione del cervello. Per questa ragione il cervello umano può essere considerato il più efficiente «generatore di variabilità» che sia mai esistito, dal momento che offre infi73
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 74
Marcello Buiatti
nite possibilità di pensiero, di elaborazione e di invenzione individuali e collettive, senza contare che nel corso della storia ha prodotto uno spettro infinito di culture.
L’evoluzione culturale di Homo sapiens dura da molto tempo, e
almeno per un certo periodo è proceduta in parallelo a quella dell’ominide probabilmente più vicino alla nostra specie, l’uomo di
Neanderthal. Molto presto (circa 200.000 anni fa) il genere umano
ha cominciato a creare strumenti, sia pur molto rozzi, quando ancora il sistema di vita era fondato sul nomadismo e l’approvvigionamento alimentare si limitava alla raccolta e alla caccia, mentre l’esigenza ecologica principale era la ricerca di un habitat favorevole
(come d’altra parte accade nel resto del mondo animale). Con il
tempo la capacità umana di modificare il mondo naturale è aumentata, e con essa anche la creatività e la capacità di astrazione, che
hanno indotto passi importantissimi dell’evoluzione culturale, come
per esempio le prime pitture e sculture. Del resto un artista che cosa
fa? Un artista vede un oggetto, lo elabora attraverso le strutture cerebrali e ne modifica l’immagine per poi proiettarla su materia inerte
(pietra, tela o altri materiali). Questo processo è, se si vuole, molto
simile alla progettazione di una macchina e alla sua costruzione.
Anche in questo caso, finché il progetto resta nel cervello è «vivo»,
nel senso che può cambiare; dopodiché, una volta proiettato e reificato sulla materia esterna, quello stesso progetto «muore». Nel caso
della pittura preistorica, per esempio, l’oggetto poteva essere un
bufalo o un mammuth, ossia un animale la cui immagine nel cervello umano era ancora viva e variabile, mentre quella proiettata all’esterno attraverso la pittura diventava un’immagine morta, vale a dire
non più modificabile se non mediante ulteriori interventi umani.
Dipingere dunque è già una modificazione di qualcosa secondo un
progetto, ossia una caratteristica tipicamente umana. Va precisato
che in realtà esistono anche altri animali in grado di costruire utensili rudimentali, tuttavia i loro manufatti denotano una creatività stereotipata, in cui cioè i margini dell’inventiva sono visibilmente più
rigidi e limitati rispetto alla creatività umana.
Alla fine del lungo processo storico che ha portato la nostra specie a manipolare la materia inerte assecondando progetti creativi via
via più elaborati, gli uomini hanno cominciato a scambiarsi i prodotti e a venderli, usando la moneta per rendere più facili gli scam74
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 75
L’inedito conflitto fra biologia reale e biologia comunicata
bi di materia. E oggi il nostro modo di agire è ulteriormente cambiato, perché oltre a scambiare moneta con oggetti tendiamo sempre
più a scambiare moneta con moneta, come avviene nelle transazioni
finanziarie, in borsa, ecc. Tanto che, com’è noto, solo il 10-12%
degli scambi in moneta sono coperti da materia, ovvero da materiale da vendere e comprare (4). In altre parole, siamo passati dalla produzione degli oggetti alla loro adorazione, per poi arrivare a idolatrare la stessa moneta. In questo processo, gli oggetti sono lentamente scomparsi, e anche la materia è via via scomparsa dalla nostra
prospettiva. Persino noi stessi cominciamo ad avere forti dubbi sulla
nostra materialità. Il risultato è che la nostra vita sta diventando sempre più virtuale, il che ci spinge a cercare sempre meno di capire la
vita vera, fatta di materia viva, di carne, di sangue.
Una parte molto importante di tutti questi processi, e della nostra
evoluzione culturale in genere, è stata ed è tuttora giocata dall’acquisizione di conoscenze costruite dapprima con la sola osservazione, e in una fase successiva con il modo di procedere tipico della
scienza. Questo modo di procedere prevede, oltre all’osservazione,
anche il ragionamento deduttivo, che nella ricerca delle spiegazioni
dei fenomeni naturali consta della formulazione di ipotesi che devono essere verificate (nel gergo di Karl Popper «falsificate») con esperimenti appositi, per poter essere tradotte in conclusioni, eventualmente in teorie, e in conoscenze diffuse.
Quest’ultima fase è la più importante, perché è quella che, grazie
ai processi di socializzazione e diffusione delle conoscenze, consente la formazione di una cultura, nonché la progettazione e la costruzione di nuovi oggetti e strumenti. La storia e l’evoluzione delle
scienze infatti sono parte dell’evoluzione culturale umana, inoltre
mantengono con essa un rapporto di reciprocità, nel senso che si
influenzano l’una con l’altra.
Questo vale per tutte le discipline scientifiche ma in particolare
per la biologia, che per molte ragioni è una scienza un po’ singolare.
Infatti noi siamo esseri viventi, e gli esseri viventi rappresentano l’interesse centrale della biologia, il che significa che di fatto noi biologi studiamo noi stessi. Siamo insieme osservatori e osservati, e quindi ciò che scopriamo sulla vita ha immediatamente un riflesso non
solo sulla concezione collettiva della vita ma anche sulla concezione
collettiva dell’umanità. A ben vedere, si tratta di un meccanismo
75
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 76
Marcello Buiatti
ovvio, dal momento che noi biologi da un lato contribuiamo (soprattutto in quest’epoca) a plasmare il pensiero della società, e dall’altro
siamo influenzati da ciò che la società ci chiede di studiare e scoprire. Qui occorre un chiarimento che sgomberi il campo dagli equivoci: non è che la società – che in media è costituita da persone che
hanno scarsa familiarità con le bioscienze – fornisca indicazioni sui
fenomeni specifici da indagare attraverso la ricerca scientifica. La
società in realtà produce un condizionamento più sottile, ma al
tempo stesso molto efficace, per il quale gli scienziati si sentono più
o meno consciamente sollecitati a studiare alcuni aspetti della vita
piuttosto che altri, e a produrre alcune conoscenze piuttosto che
altre. Personalmente, per esempio, avverto in maniera molto nitida
la pressione che la società odierna esercita indirettamente su tutti gli
studiosi di genetica affinché si scopra il gene di questa o di quella
malattia, il gene dell’intelligenza, o magari il gene dell’immortalità, e
via di questo passo. E i genetisti, che come tutti gli esseri umani sono
gratificati dai riconoscimenti e dalle approvazioni provenienti dalla
società, sono sempre più portati a cercare il «gene per», ammettendo implicitamente che in biologia debba esistere un gene per qualsiasi cosa. In altri termini, si accetta che la ricerca scientifica sia guidata da presupposti che non discendono dalle conoscenze scientifiche disponibili ma da speranze collettive che non hanno riscontro
scientifico. Inevitabilmente, quindi, la ricerca diventa una ricerca
mirata e chiusa alle altre possibilità di scoperta e alle linee di indagine alternative a quelle sul «gene per». In questo modo si andrà alla
ricerca di singoli «geni per» e si avallerà il disinteresse per altre strade esplorative, per esempio il comprendere come i geni funzionano,
come interagiscono con i fattori ambientali, che ruolo svolgono nelle
reti di regolazione genica, che tipo di interazioni li legano (per es.,
additive o non additive), ecc.
Questo modo di concepire la biologia è abbastanza recente, e
senza dubbio posteriore a Darwin. Del resto Darwin era un naturalista vero e non un biologo, e come tale poteva vantare una grande
capacità di osservare gli esseri viventi «completi», dei quali scrutava
i diversi piani organizzativi che in ogni organismo coesistono e interagiscono. Egli non era interessato, come i fisici e i chimici del suo
tempo, alla conoscenza degli esseri viventi ottenuta attraverso l’analisi frammentaria della loro struttura, procedendo cioè per scompo76
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 77
L’inedito conflitto fra biologia reale e biologia comunicata
sizione progressiva delle singole parti, con l’obiettivo di ricomporre
una conoscenza unitaria per semplice somma di nozioni parziali. In
questo Darwin, da grande innovatore qual era, aveva una visione
molto lontana da quella di Gregorio Mendel, fondatore della genetica e padre della «riduzione» moderna dell’unità degli esseri viventi. Mendel era un fisico che viveva a Brno (in Moravia), una delle
prime città a sperimentare la Rivoluzione industriale. Egli aveva studiato a Vienna e conosceva bene la matematica, in particolare il calcolo delle probabilità. I suoi amici, buona parte dei quali lavorava
nel settore dell’allevamento ovino, erano interessati a trovare un
modo per selezionare pecore che producessero più lana. Da buon
fisico, dunque, egli si sentì investito dell’impegno di trovare le
«leggi» dell’ereditarietà su cui impostare un programma che oggi
definiremmo di «miglioramento zootecnico», basato su leggi matematiche, usando il cosiddetto principio del «rasoio di Occam» (assunto secondo il quale, nella scienza, la soluzione di un problema
che ha la massima probabilità di essere vera è quella più semplice).
Questo principio però, come si è visto, in biologia non funziona,
perché con la materia vivente le soluzioni alle nostre domande sono
complesse. Nei suoi esperimenti Mendel interpretò alla lettera il
principio di Occam, in accordo con la visione industrialista e meccanicista dell’epoca, e per semplificare il modello biologico che
aveva deciso di studiare (la pianta di pisello) lo assimilò di fatto a
una macchina vera e propria. In sostanza, usò il cosiddetto metodo
riduzionista, che consiste appunto nel ridurre un intero sistema alle
caratteristiche dei suoi componenti.
Fu così che Mendel, per scoprire le leggi matematiche dell’ereditarietà e svelarne i misteri, scelse di analizzare, dei suoi modelli biologici, singoli tratti discontinui e alternativi, vale a dire caratteri facilmente distinguibili come i colori bianco e nero, o bianco e rosso,
ecc. In questo modo si propose di calcolare i rapporti numerici relativi in cui compaiono le diverse forme di ciascun carattere a ogni
nuova generazione, per estrapolarne infine una legge matematica.
Compiuta la scelta dei caratteri e calcolati i rapporti relativi, Mendel
elaborò effettivamente alcune semplici leggi probabilistiche di cui
tuttavia non poté dimostrare l’universalità (come avrebbe voluto),
perché sviato dal noto botanico Carl von Nägeli che, nella scelta di
un altro modello vegetale, gli propose di utilizzare una specie priva
77
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 78
Marcello Buiatti
di meccanismi sessuali di riproduzione. Tuttavia, in una fase molto
successiva, le leggi di Mendel che per lungo tempo erano state dimenticate dai naturalisti furono riscoperte all’improvviso e in modo
indipendente da tre ricercatori che ne decretarono di fatto l’universalità. Dei tre riscopritori fu soprattutto Hugo de Vries a trarre dalle
leggi mendeliane una serie di concetti che in seguito furono considerati tra i principi basilari della genetica.
Come si è detto, Mendel aveva studiato di proposito singoli geni
rappresentati da alleli «discontinui» che assortivano a caso nelle
diverse generazioni. Dunque, discontinuità, indipendenza e casualità di assortimento sono stati assunti come comportamenti generali
di tutti i geni; in modo analogo, l’idea che a ogni allele corrispondesse sempre una stessa versione del carattere è stata elevata a legge
universale. Così, anche dopo de Vries, la concezione dell’ereditarietà
è stata subordinata al «determinismo stocastico», e cioè a una visione dei geni intesi come fattori condizionati dall’assortimento casuale e al tempo stesso operanti in modo assolutamente deterministico.
Risulta chiaro che la scelta del metodo riduzionista da parte di
Mendel, coerente con lo spirito del suo tempo, ha portato a scoprire un lato apparentemente «meccanico» della vita, le cui caratteristiche hanno continuato a dominare lo scenario concettuale fino a
oggi, benché si sappia da lungo tempo che il comportamento «mendeliano» dei geni è in realtà caratteristico soltanto di una quota
minoritaria e non della maggioranza dei geni.
È possibile che il disinteresse per le leggi di Mendel nel 1865,
epoca della loro pubblicazione, fosse dovuto allo spirito del tempo
di quegli anni, ossia a una cultura non ancora matura per una concezione della vita improntata al determinismo stocastico, e che invece la loro riscoperta all’inizio del Novecento derivasse dal sentire
comune prevalente in tempi in cui la «macchinizzazione» della vita
era in piena evoluzione. Ciò è dimostrato dal fatto che improvvisamente, nella scienza ma anche nelle arti, ha preso piede la ricerca sui
fenomeni discreti. A tale riguardo si possono citare gli studi di Max
Planck e della teoria dei quanti in fisica, di Henri Lebesgue in matematica, di Arnold Schönberg nella musica, con la sua rottura delle
regole tradizionali dell’armonia, di Georges Seurat (e della sua scuola) con la suddivisione dell’immagine in elementi discreti, fino ad
arrivare ai futuristi italiani con la scomposizione del movimento, la
78
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 79
L’inedito conflitto fra biologia reale e biologia comunicata
rottura dell’armonia poetica e la teorizzazione e l’apologia della
civiltà delle macchine.
Evidentemente all’inizio del secolo scorso lo spirito del tempo
era assolutamente maturo per i concetti mendeliani, che infatti furono poi applicati all’evoluzione biologica semplicemente estendendo
le leggi elaborate dal monaco moravo a tutti i geni presenti in popolazioni di individui della stessa specie. Nacque così la genetica di
popolazioni, vale a dire quella commistione di concetti biologici che
portò al cosiddetto «neodarwinismo» o, secondo la definizione più
corretta fornita da Julian Huxley, alla «sintesi moderna dell’evoluzione», che non andrebbe mai confusa con il pensiero originale di
Charles Darwin.
Secondo questo «corpus teorico», l’evoluzione avviene: per selezione naturale (la necessità, ovvero l’effetto deterministico dell’ambiente), o per mutazione e deriva genetica (il caso, ovvero l’errore di
campionamento degli alleli), con una dicotomia totale fra il primo e
il secondo fattore. È lecito parlare di «corpus teorico» e non di teoria vera e propria perché il neodarwinismo ha avuto diramazioni
concettuali molto diversificate, e al suo interno si sono scontrate
quelle che un tempo venivano considerate posizioni eretiche – per
esempio la teoria di Richard Lewontin, che considerava importante
l’interazione non additiva degli alleli – e posizioni tradizionaliste –
come quella di Ronald Aylmer Fisher, che era un forte sostenitore
del determinismo genetico, anche perché gli permetteva di giustificare il razzismo. È evidente che se le nostre vite e i nostri comportamenti fossero del tutto determinati dai geni, e se il termine razza
avesse un significato genetico – entrambe credenze tanto diffuse
quanto scientificamente infondate –, l’essere ebreo, o nero africano,
o bianco ariano sarebbero tutte caratteristiche determinate geneticamente. Procedendo di qualche passo con questa visione, se qualcuno decidesse che i geni buoni sono quelli degli ariani e quelli cattivi sono quelli degli ebrei, degli africani, ecc., il «miglioramento»
della specie umana sarebbe facilmente ottenibile eliminando i portatori di geni cattivi e privilegiando i portatori di geni buoni: tentativi che nella storia umana sono stati messi in atto svariate volte, e
che anche oggi purtroppo sono tutt’altro che rari.
In precedenza si è detto dell’importanza della diffusione sociale
delle conoscenze scientifiche per ribadire quanto sia reciproca l’in79
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 80
Marcello Buiatti
terazione fra società e bioscienze. Questo aspetto è davvero essenziale, non solo per capire come lo spirito del tempo influisca sulle
scelte della scienza («quale faccia della realtà guardare»), ma anche
per cogliere il processo inverso, ovvero per comprendere come i
concetti della scienza esercitino un forte impatto sul comune sentire. Il coronamento del modello concettuale della sintesi moderna è
certamente incarnato dal «dogma centrale» della genetica molecolare, che fu enunciato da Francis Crick, uno dei due scopritori della
struttura del DNA. Si noti che il termine «dogma» è tutt’altro che casuale, perché afferma in modo apodittico che le nostre storie di vita
sono interamente «scritte» nel DNA. Per la maggioranza della comunità scientifica, il dogma centrale è rimasto tale fino a pochissimo
tempo fa, nonostante i dati scientifici «eretici» si stessero accumulando da molti anni. Con l’inizio del terzo millennio, tuttavia, ha
preso piede una vera e propria rivoluzione scientifica che sta cambiando radicalmente la nostra visione degli esseri viventi. Per la
prima volta nella storia delle scienze della vita, tuttavia, i nuovi concetti non sono coerenti con lo spirito del tempo, che è invece rimasto ancorato al vecchio dogma centrale. E il paradosso sta nel fatto
che le evidenze biologiche più avanzate sono figlie proprio dell’uso
delle potenti macchine che vengono impiegate per l’analisi dei genomi. Negli ultimi anni si è scoperto non solo che il DNA del genoma
umano è costituito solo per l’1,5% di geni, ma anche che gran parte
del DNA rimanente svolge un ruolo attivo nella regolazione del funzionamento di questi geni. A cadenza pressoché quotidiana, le riviste scientifiche pubblicano articoli che svelano le importanti funzioni proprio di quella parte del DNA, che gli scienziati chiamavano
«DNA spazzatura». Si è anche visto che l’informazione necessaria alla
sintesi delle oltre 100.000 proteine del nostro organismo risiede in
soli 23.000 geni. Questo concetto è molto importante, perché evidenzia il ruolo delle proteine come strumenti di «costruzione biologica», e perché indica che i geni sono dotati di ambiguità, cioè hanno
più di un «senso» e quindi permettono la sintesi di più di una proteina. Alcuni geni presiedono addirittura alla produzione di 30.00040.000 diverse proteine, naturalmente non tutte insieme ma in tempi
e tessuti diversi. Ci si potrebbe allora domandare: perché le cose
funzionano in questo modo?
La risposta sta nel nostro ormai accertato bisogno di cambiare
80
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 81
L’inedito conflitto fra biologia reale e biologia comunicata
continuamente nel corso della vita, concetto inverso a quello contenuto nel dogma centrale. Il dogma infatti ci diceva che siamo dotati
di un solo programma non modificabile. E sull’onda di quella credenza ancora oggi i mezzi dell’informazione affermano che «ciò che
siamo e che saremo è nel nostro programma», senza purtroppo
cogliere il senso fuorviante dell’affermazione. Se le cose stessero in
questo modo, infatti, tutti gli organismi (uomo compreso) sarebbero macchine, perché soltanto le macchine possiedono un unico vero
programma (sviluppato da chi le ha costruite). E le macchine non
sono vive. Noi invece viviamo perché cambiamo continuamente. Lo
stesso cervello così complesso di cui disponiamo si modifica mentre
comunichiamo l’uno con l’altro, perché la comunicazione cambia
l’organizzazione delle sinapsi. Tale possibilità di cambiamento è
legata alla nostra dotazione di una grande quantità di strumenti biologici che l’organismo può usare differentemente a seconda delle esigenze. La scelta degli strumenti da usare dipende dai segnali che
arrivano all’organismo, sicché il «programma» cambia per interazione fra il suo ambiente interno e il suo ambiente esterno. Per questa
ragione ognuno di noi ha un suo personale e imprevedibile percorso di vita, che viene determinato dai segnali che riceve – ovviamente nell’ambito della gamma dei percorsi potenziali che possiede – e
limitato dal numero di strumenti che ha a disposizione. Il risultato è
che con pochi geni si possono fare molte cose diverse, e ciò non solo
perché i geni sono ambigui. Singole proteine, infatti, pur mantenendo la stessa composizione e sequenza, possono assolvere varie funzioni assumendo conformazioni differenti: in biologia forma diversa
vuol dire funzione diversa. Uno degli innumerevoli esempi di questo
fenomeno è dato dalla proteina che provoca la sindrome della
mucca pazza. Quando questa proteina ha una conformazione normale svolge una funzione essenziale per i neuroni, mentre quando ne
ha un’altra diventa dannosa.
Ciò dimostra che gli esseri viventi sono in realtà dotati di una
forte versatilità di strumenti biologici, anche se i diversi gruppi tassonomici hanno diverse strategie adattative. Per esempio, i batteri
sfruttano la loro spiccata capacità di cambiare il proprio genoma;
animali e piante dispongono degli strumenti già citati, ma possiedono anche la capacità di modulare finemente l’espressione genica e il
funzionamento delle proteine dal punto di vista quantitativo. Quan81
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 82
Marcello Buiatti
to all’uomo, oltre a possedere gli stessi generatori di variabilità presenti nel mondo animale, egli usa anche il cervello che, come si è detto all’inizio di questo intervento, è capace di immagazzinare una
quantità di informazione infinitamente superiore a quella posseduta
dal DNA. Il principale substrato biologico del nostro adattamento è
quindi il cervello, e i suoi prodotti sono le culture che costituiscono
la nostra vera ricchezza.
Un grande problema di oggi è proprio che stiamo distruggendo
queste culture. A tale proposito è interessante notare che la distribuzione planetaria della diversità linguistica e culturale ricalca fedelmente la distribuzione della diversità dell’agricoltura, intesa
come variabilità genetica delle piante coltivate e degli animali allevati. Questo si verifica perché l’uomo ha selezionato, ambiente per
ambiente, piante diverse. La variabilità genetica delle piante quindi
non è altro che un sottoprodotto della variabilità delle nostre culture. Purtroppo la nostra smania di «ottimizzare» il mondo in cui
viviamo si traduce in un’azione di omogenizzazione: in un colpo solo
stiamo distruggendo culture, colture e razze, senza renderci conto
che così distruggiamo la nostra ricchezza più autentica e rinunciamo
alla nostra maggiore fonte di adattamento.
Crediamo ancora che il nostro obiettivo sia la produzione di una
macchina gigantesca, ossia un mondo tutto uguale. Questi, tra l’altro, sono gli stereotipi sociali, il modo di pensare e la cultura scientifica che vengono cavalcati dai mass media, ma sarebbe sbagliato
attribuirne tutta la colpa ai giornalisti. Il punto è che la comunità
scientifica e la società nel suo complesso si rifiutano di entrare nella
nuova concezione della vita. Le informazioni e le testimonianze della
rivoluzione biologica in atto, e ovviamente le loro conseguenze, non
vengono diffuse nella cultura di massa. Gli stessi biologi impegnati
nelle attività di ricerca spesso lavorano ciascuno guardando a una
porzione infinitesimale del mondo naturale (spesso seguendo il metodo di Mendel), nell’illusione di trovare leggi universali. Essi non
riescono a mettere insieme i dati e i concetti innovativi che provengono dalla ricerca biologica più avanzata, e in questo si comportano
in modo coerente con il resto della società: una società sempre più
impedita nel tracciare i collegamenti necessari a modificare la sua
prospettiva culturale. In altre parole una società la cui rigidità «mentale» fa il paio con il rigidissimo spirito del tempo di quest’epoca.
82
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 83
L’inedito conflitto fra biologia reale e biologia comunicata
Naturalmente, dietro a tutto questo non si nasconde il disegno malvagio di un essere invisibile, ma una forma di inerzia collettiva che
da un lato ostacola il cambiamento e dall’altro è perfettamente funzionale alla realizzazione di interessi molto concreti.
Sul tipo di informazione scientifica che passa attraverso i mass
media, si potrebbero elencare infiniti esempi di notizie sbagliate o
distorte che certamente non contribuiscono a migliorare la conoscenza scientifica all’interno della società. Per necessità di sintesi, si
considerino qui i seguenti titoli pubblicati dai principali quotidiani
nazionali in materia di ricerca sui tumori:
«Scoperto da un italiano in USA il fattore scatenante dei tumori».
«Tumori, ecco la proteina Pokemon, chiave per lo sviluppo del
cancro».
«Due italiani svelano i segreti del gene che blocca il cancro».
«Gli scienziati italiani scoprono ‘Sumo’, la proteina anticancro
che vigila sul DNA».
Ora, tutti i biologi e i medici avveduti sanno bene due cose:
primo, che la cancerogenesi è controllata da un numero importante
di geni; secondo, che lo sviluppo dei tumori dipende dalla storia di
vita degli individui. Sui giornali, però, il fattore che scatena il tumore (o che ci protegge da esso) è sempre uno soltanto, anche se sempre diverso. Il linguaggio è regolarmente dominato da toni sensazionalistici e l’immagine che viene proposta è quella di una scienza che
sta per fare la scoperta definitiva, o che l’ha già fatta. Il concetto di
base è comunque sempre il solito: sarà la scienza di per se stessa che
salverà il mondo dalla malattia. Gli scienziati vengono presentati a
volte come maghi buoni, altre volte come maghi perfidi, ma sempre
come esseri onnipotenti e autosufficienti, mai come esseri umani che
nel loro mestiere sbagliano continuamente perché è proprio sbagliando che si impara (come sosteneva il buon Darwin nella citazione riportata all’inizio di questo scritto).
Ma le cose rasentano il ridicolo quando si entra nel merito dei
comportamenti umani. Si veda la spiegazione biologica dell’infedeltà coniugale fornita dall’antropologo Desmond Morris: «La
donna che ha sposato un uomo brillante si rassegni. Probabilmente
verrà tradita. La colpa non è sua ma del DNA». L’infedeltà del maschio, si intenda bene, è nei suoi geni, che hanno mantenuto le tracce di quel cacciatore-raccoglitore preistorico che ha assicurato la
83
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 84
Marcello Buiatti
sopravvivenza alla specie. Non ci si deve sorprendere del fatto che
Albert Einstein abbia avuto molte amanti nel corso della sua vita,
scrive Morris. «La verità è che lui, come tanti uomini estremamente
creativi, era dotato di una generosa dose di una delle qualità più
caratteristiche del maschio: l’amore per il rischio. È questa passione
che porta all’innovazione, alla scoperta, all’invenzione. È l’ingrediente base della genialità».
Un altro articolo, però, capovolge la situazione dipinta da Morris,
grazie ai risultati di uno studio realizzato in Gran Bretagna, secondo
cui la tendenza di alcune donne all’infedeltà sarebbe ereditaria, con
circa un quarto delle donne britanniche dotate di una caratteristica
genetica responsabile del tradimento. Lo studio, purtroppo, non
avrebbe consentito di identificare il gene responsabile del comportamento sotto esame… ma tant’è!
Apprezzabile, se non altro, l’equanimità di queste «genetiche dell’adulterio», indicanti che l’infedeltà sarebbe equamente ripartita fra
uomini (purché geniali) e donne.
Ma il supposto strapotere dei geni viene esteso anche al senso di
giustizia, con un titolo inequivocabile: «Il senso della giustizia è nel
DNA, lo possiedono anche le scimmie». Grazie ai geni, dunque, le
scimmie possiedono un senso innato per la giustizia, tanto che un
trattamento iniquo può spingerle nientemeno che a «scioperare».
In questa rassegna non poteva mancare naturalmente un accenno all’ereditarietà «razziale» di una caratteristica negativa: l’aggressività. E se il titolo dell’articolo recita «I Maori hanno il gene da
guerrieri», l’approfondimento non è da meno, sostenendo che i geni
stabiliscono «la tendenza ad essere più aggressivi e violenti e più
inclini a comportamenti a rischio, come per esempio il gioco d’azzardo». Sul piano biochimico, il fattore scatenante sarebbe un enzima, la monoammino ossidasi, evidentemente un fattore decisivo
nello stabilire il livello di aggressività degli individui.
Questi esempi di informazione scientifica italiana (si tratta di casi
tratti dai quotidiani più diffusi) lasciano attoniti. Ma l’aspetto che fa
maggiormente riflettere è che la concezione che essi esprimono coincide con le convinzioni di molti ingegneri genetici, quando essi affermano che animali e piante possono essere modificati per inserimento nel loro genoma di un gene estraneo, eventualmente proveniente
da un organismo anche molto lontano biologicamente, senza alcuna
84
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 85
L’inedito conflitto fra biologia reale e biologia comunicata
possibilità di effetti imprevisti. Questa stravagante convinzione è
ben testimoniata da quanto si legge in una presentazione reperibile
in rete ad opera di un noto genetista italiano (Prof. F. Sala): «Un
frammento di DNA può essere trasferito da qualsiasi organismo a
qualsiasi altro organismo. Il gene si integra nel DNA dell’organismo
ricevente e diviene parte integrante di questo. Perché è possibile?
Perché il codice genetico è universale».
La biologia di oggi in realtà ci permette di dire che le cose vanno
molto diversamente, come documentato da un’ampia letteratura
scientifica. Uno dei tanti esperimenti che hanno dimostrato la presenza di modificazioni imprevedibili a seguito di trasformazione
genetica è stato compiuto proprio nel nostro laboratorio all’Università di Firenze. Nel nostro studio abbiamo provato a inserire nelle
piante un gene che opera all’interno del sistema ormonale di ratto,
ipotizzando che non avrebbe provocato effetti collaterali (data la
diversa organizzazione metabolica dei due organismi). Il risultato è
stato invece che tutta la morfo-fisiologia delle piante geneticamente
modificate che abbiamo ottenuto ne è stata alterata. Un effetto talmente drastico da rendere le piante trasformate irriconoscibili rispetto alle piante di controllo.
Ebbene, fra le tante conclusioni che il nostro esperimento ha permesso di formulare, c’è la conferma dell’importanza del principio di
precauzione che deve accompagnare qualsiasi decisione relativa
all’impiego di piante transgeniche. L’autore della citazione riportata
poco sopra, invece, sostiene: «Smettiamo di pretendere che le piante geneticamente modificate siano assolutamente esenti da rischi e
accettiamole se il rapporto rischi/benefici va bene». Purtroppo si
tratta di una mentalità alquanto diffusa anche in seno all’Agenzia
europea per la sicurezza alimentare, che dovrebbe farsi carico di
valutare in modo rigoroso i rischi derivanti dall’uso di piante geneticamente modificate in agricoltura. In un certo senso, anche questa
istituzione risente dello «spirito del tempo» e in genere non tiene
conto di tutti i possibili rischi connessi con le innovazioni tecnologiche verso cui è chiamata ad esercitare un rigido controllo.
Si aggiunga che gli OGM, oltre a essere sostenuti con politiche di
dumping, comportano anche un pesante rischio sociale perché sono
spesso associati all’imposizione di pratiche agricole insostenibili e di
varietà vegetali non adatte agli ambienti in cui saranno coltivate, con
85
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 86
Marcello Buiatti
conseguente riduzione della biodiversità e danni per le agricolture
locali. Un esempio è rappresentato dalla distruzione della foresta
amazzonica in Brasile a causa della coltivazione di soia transgenica,
prodotto che non è destinato al consumo da parte dei brasiliani e
che viene ottenuto grazie allo sfruttamento di manodopera a basso
costo, per poi essere esportato come mangime per gli allevamenti del
Nord del mondo. Gli OGM possono essere considerati un simbolo
del processo di virtualizzazione della realtà che è in corso in questi
anni. La realtà virtuale degli OGM è infatti quella presentata quando
lo «stato vivente della materia» viene paragonato in tutto e per tutto
a quello non vivente, e in particolare alle macchine prodotte dagli
esseri umani. Gli OGM vengono dipinti come macchine perfette e dal
comportamento prevedibile mentre sono quanto di più rozzo e
imprevedibile si possa concepire nella scienza, propagandati come il
prodotto della conoscenza più avanzata mentre sono il retaggio di
nozioni e concetti di vent’anni fa, e infine commercializzati con la
promessa che sfameranno il mondo mentre sono strumenti in mano
a chi crea squilibri sociali e contribuisce ad esacerbare la piaga della
fame. Il marketing fa pensare che queste «fantastiche macchine
viventi» siano numerosissime e abbiano un futuro splendente, mentre in commercio esistono sostanzialmente piante modificate per
due soli caratteri: un fallimento totale sia dal punto di vista scientifico sia dal punto di vista dello sviluppo tecnologico. Se si paragonano le rese unitarie di soia e mais negli Stati Uniti prima del 1996,
quando gli OGM ancora non si utilizzavano, con le rese degli ultimi
anni, in cui gran parte di queste due colture è stata geneticamente
modificata, si nota che la soia produce meno di prima, mentre il mais
mostra un lieve aumento ma non così rapido come quello che si è
verificato in passato con le tecniche di miglioramento tradizionale.
Lo spirito del tempo fa sì che ancora oggi, nonostante le denunce e le obiezioni provenienti dalla parte più illuminata del mondo
scientifico, gli OGM siano visti come il ritrovato tecnologico del futuro. La scienza si allontana sempre più dalla realtà e, cavalcando i miti
del controllo e dell’ottimizzazione, si porta su una china pericolosa
per il nostro futuro e per il futuro del pianeta. Si tende a credere, e
a far credere, che il denaro serva ancora a produrre beni materiali
utili (nel senso che aumentano il benessere), ma la verità è che solo
il 12% del flusso monetario è coperto da merci. L’unico vero indi86
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 87
L’inedito conflitto fra biologia reale e biologia comunicata
catore di benessere è il PIL, un parametro che misura l’entità della
circolazione monetaria e aumenta all’aumentare degli investimenti,
che però comprendono anche le risorse utilizzate per rimediare alle
catastrofi. Così è stato per lo tsunami, per i casi in cui i sistemi sanitari pubblici non funzionano e finanche per le guerre, da sempre
poderosissimo motore dell’economia.
L’umanità è giunta a una svolta molto critica, e il segnale più forte
di tale criticità sembra essere proprio la dicotomia fra scienza e spirito del tempo. Occorre ricomporre questa dicotomia, collegando i
nuovi dati della scienza allo spirito del tempo, tornare a pensare che
siamo vivi, riprendere la strategia adattativa dell’uomo legata ai problemi reali e basata sulla diversità, abbandonare la difesa perdente
della vecchia concezione, comprendere di nuovo il grande valore
delle diversità biologiche e culturali. È necessario che da un lato si
torni a pensare, e dall’altro si restituisca il giusto peso alla «materia».
La ricchezza vera sta nella nostra vita, che non è ripetibile né clonabile, ma da vivere.
BIBLIOGRAFIA
(1) Cini M., Il Paradiso perduto: dall’universo delle leggi naturali al mondo
dei processi evolutivi, Feltrinelli, Milano 1994.
(2) Darwin Ch., Autobiography and selected letters, Appleton & Co., New
York 1892.
(3) www.terralingua.org, 2005.
(4) Sachs W., Ambiente e giustizia sociale: i limiti della globalizzazione,
Editori Riuniti, Roma 2002.
87
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 88
UNIONE EUROPEA E OGM: DEMOCRAZIA,
PARTECIPAZIONE E INFORMAZIONE
NEI PROCESSI DECISIONALI
di
Matteo Lener*
Gli ultimi vent’anni sono stati caratterizzati da nuovi scenari e
nuove prospettive applicative dovute all’introduzione di innovazioni tecnico-scientifiche nel campo delle biotecnologie e della genetica, con particolare riferimento allo sviluppo degli Organismi geneticamente modificati (OGM).
Le enormi potenzialità offerte hanno portato grandi investimenti pubblici e privati per lo sviluppo della ricerca applicata, determinando un’accelerazione nei risultati delle ricerche così come nelle
applicazioni. Questo sviluppo così significativo ha evidenziato, sebbene con un certo ritardo, la necessità di creare a livello internazionale e locale un sistema di gestione di queste innovazioni e dei loro
potenziali impatti in campo ambientale, sanitario, sociale ed economico.
Diversi accordi internazionali intervengono nella gestione degli
OGM, puntando a garantire da un lato i liberi scambi commerciali, e
dall’altro un adeguato sistema di valutazione dei rischi connessi
all’impiego di questi ritrovati tecnologici (CBD, 2000, Protocollo sulla Biosicurezza; OMC, 1994, Accordo sulle misure sanitarie e fitosanitarie).
*
Biologo, Fondazione Diritti Genetici
88
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 89
Unione Europea e OGM
L’analisi del rischio
In generale, a livello mondiale l’approvazione commerciale degli
OGM è conseguente a un’analisi del rischio più o meno definita e
stringente. I principi per questa analisi, sviluppati primariamente
per la valutazione dei rischi da agenti tossici chimici, sono stati definiti in diversi documenti prodotti da organismi internazionali quali
FAO, WHO, OECD (1,2,3,4). Gli elementi essenziali dell’analisi dei
rischi sono: la valutazione, la gestione e la comunicazione del rischio.
Tuttavia, l’applicazione a livello normativo dei principi generali
presenta dei problemi, poiché rispecchia da un lato le differenze culturali e dall’altro i diversi interessi in campo che sono in grado di
influenzare tanto la politica quanto il sistema produttivo: da una
parte i realizzatori e gli utilizzatori dell’innovazione (enti di ricerca,
industrie biotech e dell’agroalimentare), che prediligono una liberalizzazione dei processi autorizzativi, e dall’altra i consumatori, che
richiedono un elevato livello di garanzie di sicurezza.
Queste differenze sono particolarmente evidenti per quanto
riguarda il sistema di valutazione dei rischi associati agli OGM, dove
si sono creati a livello mondiale due blocchi separati e distinti.
Il primo, con gli USA come capofila, si sviluppa intorno ai concetti di familiarità e sostanziale equivalenza: considerando l’OGM
uguale all’organismo che è stato trasformato, ad eccezione del carattere modificato, la valutazione dei rischi si limita all’analisi degli
effetti del nuovo carattere. A livello normativo, questa impostazione
si è tradotta in una separazione dell’iter autorizzativo degli OGM
sulla base della loro destinazione d’uso e della funzione dei nuovi
caratteri introdotti: il Dipartimento dell’agricoltura (USDA), con il
compito di verificare che l’OGM non sia nocivo per l’agricoltura,
l’Agenzia per la protezione dell’ambiente (EPA), che valuta i pesticidi prodotti dagli OGM (per es., tossine Bt) e il Dipartimento della
salute che attraverso la FDA si occupa di alimenti. Tuttavia la FDA,
l’Agenzia che controlla la salubrità dei cibi e dei farmaci, nel 1992
ha stabilito che gli alimenti GM non comportano rischi peculiari per
la salute umana e animale, e pertanto non necessitano di un’analisi
preventiva dei rischi.
Il secondo blocco, rappresentato principalmente dall’Europa, si
sviluppa intorno a una visione più prudente rispetto alle innovazio89
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 90
Matteo Lener
ni nel settore agroalimentare, che tende a mettere in evidenza i
potenziali effetti non desiderati derivanti dalla trasformazione genetica. La valutazione viene quindi compiuta caso per caso sul singolo
OGM, tenendo conto di come esso è stato realizzato, di quali sono i
risultati della modificazione a livello genomico e delle possibili conseguenze derivanti da tale modificazione. Tale visione, anche a seguito degli scandali e degli allarmi in campo alimentare, si è tradotta in
una attenta revisione della legislazione europea negli ultimi quindici
anni.
La normativa europea
Alla fine degli anni ’90, la Commissione europea, per ristabilire
un clima di fiducia nei confronti del settore, delle istituzioni e dei
loro organi tecnici di controllo, ha attivato un processo di revisione
della normativa sugli alimenti in generale e sugli OGM in particolare.
Nel Libro bianco per la sicurezza alimentare, la Commissione ha
indicato quali dovevano essere le principali azioni da intraprendere
in merito alla questione. L’attenzione si è pertanto concentrata sulla
revisione della normativa di riferimento, con l’esplicita applicazione
dell’approccio precauzionale nell’analisi dei rischi, e sulla trasparenza dei processi decisionali, garantita attraverso l’informazione e la
consultazione del pubblico.
Il regolamento 178/2002/CE ha recepito buona parte delle indicazioni contenute nel Libro bianco, stabilendo i principi e i requisiti generali della legislazione alimentare e istituendo l’Autorità europea per la sicurezza alimentare (EFSA).
Direttiva 2001/18/CE
La direttiva 2001/18/CE sull’emissione deliberata nell’ambiente
di organismi geneticamente modificati (che abroga la direttiva
90/220/CEE), entrata in vigore il 17 ottobre 2002, è la norma di riferimento che regolamenta i rilasci di OGM nell’ambiente a scopo sia
sperimentale sia commerciale. Le principali novità introdotte dalla
direttiva sono:
– orientamenti per la valutazione del rischio ambientale;
90
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 91
Unione Europea e OGM
– monitoraggio post-rilascio degli effetti sulla salute e sull’ambiente;
– informazione e partecipazione del pubblico ai processi decisionali;
– limite temporale di 10 anni per l’autorizzazione;
– impegno ad assicurare l’etichettatura e la tracciabilità degli
OGM;
– obbligo a fornire metodi per l’identificazione degli OGM.
Secondo la direttiva 2001/18/CE, qualsiasi soggetto che intenda
commercializzare un OGM dovrà presentare all’Autorità competente
di uno Stato membro una domanda (notifica) contenente tutte le
informazioni necessarie per una corretta valutazione del rischio,
nonché la valutazione del rischio redatta dal notificante. Una sintesi
della notifica (Snif) viene trasmessa immediatamente alla Commissione europea che la pubblica on line1.
L’Autorità competente provvede a valutare i dati contenuti nella
notifica ed elabora una relazione di valutazione (assessment report)
che viene trasmessa alla Commissione e pubblicata anch’essa on line
sul sito del Joint Research Center (JRC), il Centro comune di ricerca
dell’Unione Europea.
Salvo obiezioni da parte di altri Stati, lo Stato ricevente può autorizzare l’immissione in commercio dell’OGM sul proprio territorio,
ma tale autorizzazione si intende valida per tutta l’Unione Europea.
Nel caso di presentazione di obiezioni motivate, si apre un meccanismo complesso (procedura di comitatologia) che vede coinvolti
Stati membri, Commissione UE e Consiglio UE2.
L’articolo 24 della direttiva prevede la possibilità per il pubblico
di partecipare attivamente ai processi decisionali, inviando alla
Commissione osservazioni sulle notifiche. Il pubblico può esercitare
questo diritto in due fasi distinte del processo decisionale: dopo la
pubblicazione dello Snif, dopo la pubblicazione dell’assessment
1
Sito europeo del Joint Research Centre (JRC) http://gmoinfo.jrc.it/gmc_browse.asp.
2
Decisione del Consiglio del 28 giugno 1999 recante modalità per l’esercizio
delle competenze di esecuzione conferite alla Commissione (1999/468/CE).
91
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 92
Matteo Lener
report. In entrambi i casi, il tempo limite di presentazione è di 30
giorni.
Le osservazioni del pubblico vengono raccolte tramite il sito web
del JRC.
Regolamento 1829/2003/CE
Il regolamento 1829/2003/CE, entrato in vigore nell’aprile del
2004, si applica agli OGM destinati all’alimentazione umana e animale e agli alimenti e ai mangimi che contengono OGM o ne sono costituiti.
Le principali novità introdotte sono:
– obbligo di autorizzazione alla commercializzazione anche per i
mangimi;
– valutazione centralizzata demandata all’EFSA;
– applicazione, per la valutazione del rischio ambientale e il monitoraggio, delle stesse misure previste dalla direttiva 2001/
18/CE;
– principio one door, one key, ovvero la possibilità, in caso di OGM
destinato all’alimentazione, di presentare una richiesta unica
per tutti gli usi (coltivazione, importazione, alimentazione).
La procedura di autorizzazione risulta più snella e centralizzata
rispetto a quella della direttiva: infatti il notificante presenta la notifica a uno Stato membro, che la trasmette direttamente all’EFSA, la
quale ha il compito di valutare la richiesta tramite un comitato scientifico appositamente istituto, il «GMO panel». La domanda deve contenere tutte le informazioni necessarie alla valutazione della sicurezza dell’alimento, rispetto sia all’ambiente sia alla salute umana e animale. Successivamente all’introduzione del regolamento, l’EFSA ha
redatto un documento guida che potesse assistere il notificante nella
redazione delle notifiche di piante GM destinate all’alimentazione
(5).
Per quanto concerne la partecipazione del pubblico, l’articolo 6
del regolamento prevede la possibilità di inviare alla Commissione le
proprie osservazioni sul parere espresso dall’EFSA.
Inoltre, strettamente connesso all’applicazione del regolamento
1829/2003/CE è il regolamento 1830/2003/CE sull’etichettatura e la
tracciabilità degli alimenti GM.
92
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 93
Unione Europea e OGM
Richieste di commercializzazione
In Europa, a partire dal 2003, dopo l’entrata in vigore della
nuova direttiva, si è riaperto il processo di autorizzazione di prodotti GM. Complessivamente, sono state presentate 28 notifiche ai sensi
della direttiva e 35 e ai sensi del regolamento.
Per quanto concerne la direttiva 2001/18/CE, tutte le notifiche
presentate riguardano piante GM, 14 delle quali includono la richiesta di coltivazione: nel dettaglio si tratta di 3 eventi di barbabietola,
6 di colza, 5 di cotone, 10 di mais, 1 di patata, 1 di riso, 1 di soia e 1
di geranio. Tutte le piante sono state modificate per la tolleranza agli
erbicidi e/o per la resistenza a insetti fitofagi, ad esclusione della
patata (modificata nel contenuto di amidi) e del geranio (modificato
per la colorazione del fiore). Al momento attuale 4 notifiche sono state autorizzate, 7 hanno ottenuto il parere favorevole dello Stato membro ricevente, mentre le rimanenti sono state ritirate o convertite.
Anche tutte le notifiche presentate ai sensi del regolamento sono
di piante GM (nella maggior parte dei casi si tratta delle stesse piante GM presentate ai sensi della direttiva), 8 delle quali includono la
coltivazione. In particolare, si tratta di: 1 evento di barbabietola (tollerante gli erbicidi), 1 di colza (tollerante gli erbicidi), 5 di cotone
(tolleranti gli erbicidi e/o resistenti agli insetti), 24 di mais (tolleranti gli erbicidi e/o resistenti agli insetti, e con modifiche composizionali), molti dei quali costituiti da incroci multipli di singoli eventi, 1
di riso (tollerante gli erbicidi), 2 di soia (tolleranti gli erbicidi) e 1 di
patata (modificato il contenuto di amilosio). Al momento, è stata
autorizzata un’unica notifica riguardante il mais 1507, destinato
all’alimentazione umana e animale, mentre 6 hanno ricevuto il parere scientifico favorevole da parte dell’EFSA.
Osservatorio agrobiotecnologie
Il Consiglio dei diritti genetici (CDG), oggi Fondazione, attraverso la realizzazione dell’Osservatorio agrobiotecnologie (OA) ha avviato, a partire dal 2004, il monitoraggio delle attività istituzionali
relative alle nuove richieste di commercializzazione di piante GM,
con due obiettivi specifici: da un lato quello di analizzare la qualità
93
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 94
Matteo Lener
dei dati forniti a supporto delle notifiche e la valutazione condotta
dalle istituzioni preposte alla verifica, dall’altro quello di promuovere la partecipazione del pubblico ai processi decisionali, sia attraverso la verifica concreta dell’adeguatezza degli strumenti messi a
disposizione dalla pubblica amministrazione, sia attraverso l’implementazione di strategie e strumenti volti a coinvolgere attivamente il
pubblico.
Analisi delle richieste di commercializzazione
Dalla sua attivazione, l’OA ha cominciato ad analizzare tutte le
nuove notifiche presentate, nonché tutte le notifiche che avevano
ottenuto un parere favorevole dallo Stato membro ricevente e per le
quali si apriva la finestra per l’invio delle osservazioni previsto dall’art. 24 della direttiva.
Nel 2004 sono state presentate 5 notifiche (mais NK603 x MON810
coltivazione, cotone LLCotton25, colza T45, cotone 281-24-236 e
3006-210-23, garofano Moonshade), mentre 6 hanno ricevuto il
parere favorevole dallo Stato ricevente (colza Ms8 x Rf3, mais NK603,
MON810 alimentazione, riso LLRICE62, patata EH92-527-1, cotone
281-24-236 e 3006-210-23, garofano Moonshade).
A partire dal 2005, non sono state presentate nuove richieste ai
sensi della direttiva, né sono stati emessi nuovi pareri favorevoli. In
effetti, tutte le notifiche ancora in sospeso che riguardavano prodotti destinati all’alimentazione sono state ripresentate in base al nuovo
regolamento, e di conseguenza anche le nostre analisi si sono orientate verso l’applicazione del nuovo regolamento. In base a esso, per
il momento solo 7 (mais 1507, NK603 x MON810, MON863 x MON810,
1507 x NK603, MON863 x NK603, MON863 x MON810 x NK603 e patata EH92-527-1) delle 35 notifiche presentate hanno avuto il parere
conclusivo dell’EFSA, e pertanto è stato possibile inviare delle osservazioni.
Per quanto riguarda le notifiche sopraindicate l’OA ha effettuato
un’analisi critica dei documenti prodotti dal notificante e dalle istituzioni, e contestualmente ha redatto rapporti che in seguito sono
stati pubblicati sul sito web del CDG. Conformemente alle risultanze
del lavoro svolto, l’OA ha inviato le proprie osservazioni alle notifiche
in accordo con quanto previsto dalla normativa. I rapporti sono stati
94
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 95
Unione Europea e OGM
realizzati dal gruppo di esperti del CDG che hanno analizzato nel dettaglio la documentazione raccolta relativa alle singole notifiche, ossia:
– quella direttamente messa a disposizione on line nei siti specificamente allestiti su mandato della Commissione3, Snif (informazioni sintetiche sulla notifica) e assessment reports degli
Stati membri o dell’EFSA;
– quella da richiedere alle Amministrazioni competenti4, cioè le
notifiche complete, ad esclusione dei documenti ritenuti confidenziali;
– quella da reperire, vale a dire dossier di autorizzazione di Stati
non UE, brevetti, bibliografia scientifica, dossier scientifici di
gruppi indipendenti.
Al fine di promuovere in Italia la più ampia partecipazione del
pubblico, l’OA ha reso disponibili on line (sito web CDG) le informazioni raccolte e ordinate all’interno di una banca dati dedicata all’argomento; inoltre ha realizzato una specifica mailing list di persone
interessate a tenersi aggiornate sulle occasioni di partecipazione del
pubblico, oltre che sui rapporti e sulle osservazioni elaborati in seno
all’Osservatorio.
Caso studio: mais 1507
A titolo esemplificativo, per meglio illustrare i risultati delle
nostre analisi e le nostre conclusioni in merito alle notifiche, abbiamo scelto di presentare un caso studio relativo all’unica notifica che
sia stata autorizzata ai sensi del regolamento: la notifica EFSA-GMONL-2004-02.
Si tratta di una richiesta per commercializzare a uso alimentare il
mais 1507, modificato per l’espressione della proteina Cry1F, che
conferisce resistenza ai lepidotteri, e della proteina Pat, che conferisce resistenza agli erbicidi a base di glufosinato d’ammonio.
L’OA ha esaminato la documentazione raccolta tra cui la valutazione condotta dall’EFSA (6), elaborando, in sintesi, quanto segue:
Analisi molecolare: dalla caratterizzazione molecolare dell’evento
3
per la direttiva ed EFSA per il regolamento.
Direttiva: Autorità competente italiana dopo la pubblicazione del parere favorevole dello Stato membro ricevente; regolamento: EFSA.
JRC
4
95
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 96
Matteo Lener
1507 risulta evidente che il materiale effettivamente inserito non si
limita ai geni di interesse, poiché si sono cointegrati frammenti di
DNA di diversa origine, in misura quasi equivalente al DNA di interesse. Inoltre, come conclude lo stesso GMO panel dell’EFSA, non è
possibile escludere che a livello del genoma della pianta ospite non
si siano verificate delezioni e/o riarrangiamenti. Gli effetti non desiderati determinati dall’introduzione di sequenze impreviste e indesiderate non sono dunque prevedibili in anticipo. A nostro avviso, per
ridurre i potenziali rischi derivanti dall’inserzione di DNA di funzione non nota, sarebbe opportuno migliorare la selezione delle piante
trasformate, scegliendo quelle con il minor numero di elementi di
DNA non necessari, prima di arrivare alla fase di commercializzazione del prodotto.
Analisi composizionale, tossicologica e allergologica: l’analisi composizionale della granella del mais 1507 confrontata con quella degli
ibridi di controllo non GM evidenzia differenze statisticamente significative che coinvolgono una parte dei parametri misurati. Questi
risultati dimostrano che il quadro delle vie metaboliche del mais
1507 è stato in qualche modo alterato. Ciò potrebbe avere conseguenze sulla salute indotte da variazioni delle concentrazioni di
metaboliti al momento non adeguatamente valutati.
Gli esperimenti condotti sui ratti alimentati con il mais GM sembrano dimostrare l’inadeguatezza del modello utilizzato: infatti sono
riscontrabili diverse anomalie anche nel gruppo di controllo, che
rendono difficile l’interpretazione dell’intero esperimento.
Inoltre, gli studi di alimentazione sugli animali sono stati condotti per un periodo troppo breve per poter trarre conclusioni attendibili sull’equivalenza nutrizionale del prodotto.
Analisi dei rischi ambientali: i rischi potenziali sull’ambiente derivanti dall’importazione del mais 1507 sono limitati, dato che lo scopo della notifica non include la coltivazione. Tuttavia, la disseminazione involontaria e il cattivo uso dei semi importati potrebbero
condurre a effetti che non sono stati tenuti in debito conto nella
valutazione del rischio ambientale. Inoltre, i piani di sorveglianza e
monitoraggio dovrebbero prevedere disposizioni particolari per
quanto riguarda i metodi di importazione, trasporto e stoccaggio del
materiale grezzo importato da destinare agli operatori del settore.
È bene tenere presente che molte delle conclusioni circa le lacu96
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 97
Unione Europea e OGM
ne rilevate nella notifica relativa al mais 1507 sono generalizzabili
alle altre notifiche analizzate. In particolare:
– sequenze di DNA non desiderate e non previste nel sito di inserzione, rilevabili in modo particolare negli eventi ottenuti tramite il metodo biolistico (soia RR40-3-2, mais MON863, MON810,
NK603, Bt11), influendo sul metabolismo delle piante potrebbero determinare effetti indesiderati non intenzionali;
– a livello dell’analisi composizionale si riscontrano molto spesso variazioni statisticamente significative di diversi parametri
analizzati tra la pianta GM e la controparte non modificata; sebbene molto spesso rientrino nel range specie-specifico riportato in letteratura, queste variazioni potrebbero essere un indizio
di lievi alterazioni delle vie metaboliche che meriterebbero analisi più approfondite;
– gli studi di alimentazione animale con alimenti contenenti le
piante GM spesso hanno mostrato lievi alterazioni di carattere
istopatologico o nella composizione del sangue, anche nei
gruppi di controllo, che quantomeno indicano l’inadeguatezza
dei modelli di analisi adottati;
– i piani di monitoraggio si limitano alla sorveglianza generale,
non sono previsti piani di monitoraggio specifici, e non esistono ancora linee guida adeguate per la realizzazione e l’applicazione di tali piani.
Partecipazione del pubblico nei processi decisionali
Analisi delle osservazioni inviate in accordo con la direttiva
Per avere maggiori informazioni sui livelli della partecipazione
del pubblico, il CDG ha analizzato la documentazione relativa alle
osservazioni del pubblico inviate negli anni 2003 e 20045.
Nel 2003 sono stati pubblicati 23 Snif e 6 assessment reports, di
cui 2 presentati contestualmente allo Snif, per un totale di 27 occasioni di partecipazione pubblica.
5
Successivamente alla nostra richiesta presentata alla Commissione UE DG Ambiente, i file relativi alle osservazioni del pubblico sono stati resi disponibili on line
sul sito del JRC.
97
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 98
Matteo Lener
Nel 2004 sono stati pubblicati 5 Snif e 5 assessment reports, per
un totale di 10 occasioni di partecipazione pubblica.
Nel corso della nostra analisi abbiamo classificato le osservazioni
secondo due criteri principali, ossia l’eventuale giudizio espresso,
positivo o critico, e la tipologia delle osservazioni, secondo lo schema che segue:
– commento generico (commenti non tecnicamente o scientificamente supportati);
– commento intermedio (commenti tecnicamente e/o scientificamente supportati ma non connessi con la notifica in oggetto,
ovvero senza commenti specificamente riferiti ai documenti
relativi alla notifica);
– commento tecnico (commenti tecnicamente e/o scientificamente supportati e specificamente riferiti alla notifica in oggetto).
Sorprendentemente, da tale analisi abbiamo potuto concludere
che le osservazioni sono in larga misura (82%) di carattere tecnicoscientifico e caratterizzate da buona competenza in materia. Inoltre,
la grande maggioranza (90%) delle osservazioni esprime critiche
negative alle notifiche cui si riferisce.
Dal confronto dei due anni analizzati risulta che la partecipazione del pubblico si è ridotta di oltre il 30%, con un numero di interventi medio del 15,22% nel 2003 e del 9,50% nel 2004.
Come precedentemente descritto, con l’entrata in vigore del
regolamento l’attività istruttoria relativa alla direttiva si è arrestata e
tutte le nuove richieste di commercializzazione, come pure quelle
ancora inevase, sono state presentate come nuove richieste ai sensi
del regolamento. Pertanto, in considerazione del fatto che secondo
il regolamento (e a differenza della direttiva) il pubblico ha la facoltà
di inviare le proprie osservazioni alla Commissione europea solo al
termine del processo di valutazione scientifica condotto dall’EFSA,
nel 2005 si è presentata una sola occasione di partecipazione, quella
relativa alla notifica EFSA-GMO-NL-2004-02. In tale occasione sono
stati inviati soltanto 4 commenti, compreso il commento del CDG,
tutti pubblicati sul sito della Commissione (DG Sanco)6.
6
http://ec.europa.eu/food/food/biotechnology/authorisation/public_comments_en.htm.
98
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 99
Unione Europea e OGM
Nel 2006, invece, sempre in base al regolamento si sono verificate solo 5 occasioni di partecipazione, che hanno ricevuto in totale 57
osservazioni. Un’ultima opportunità, relativa alla patata EH92-527-1,
si è conclusa nel dicembre 2006.
Conclusione
L’attività dell’OA ha permesso di evidenziare come – per quanto
le nuove normative stabiliscano regole più stringenti sia per la valutazione del rischio sia per la sua gestione (piani di monitoraggio
post-rilascio, tracciabilità ed etichettatura, durata di autorizzazione
definita), e definiscano con maggior chiarezza i momenti in cui il
pubblico può intervenire – le nuove regole introdotte dal legislatore
europeo presentino ancora, nella loro applicazione concreta, alcune
considerevoli lacune. In effetti, l’applicazione della normativa non
risponde adeguatamente ai suoi principi fondanti, quali il principio
di precauzione7, la trasparenza e la partecipazione: di fatto, le incertezze che emergono nella valutazione dei rischi sono sottovalutate
dagli esperti scientifici. Accade inoltre che non sia sufficientemente
garantito l’accesso alle informazioni, che spesso risulta particolarmente complesso e difficoltoso. Infine, le osservazioni del pubblico,
anche se caratterizzate da evidente competenza tecnico-scientifica,
non vengono prese in considerazione durante il processo decisionale.
Il sistema di consultazione del pubblico applicato in base alla
normativa vigente risulta totalmente sbilanciato a favore del richiedente, sia rispetto alla conoscenza dei dati che sono alla base della
richiesta, sia rispetto ai tempi previsti dalla normativa nell’ambito
del procedimento. In ordine al primo punto, infatti, il richiedente è
l’unico soggetto a fornire i dati, oltre ad avere il potere di indicare
quali sono accessibili e quali no. Rispetto al secondo punto, invece,
si deve rilevare che mentre per il richiedente non sono previsti termini perentori per replicare alle richieste, il pubblico che intenda
7
Anche nella sua interpretazione abbastanza restrittiva (7) e non generalmente
condivisa a livello europeo (8).
99
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 100
Matteo Lener
partecipare al processo decisionale dispone di tempi strettamente
contingentati. Inoltre, la documentazione messa a disposizione è
insufficiente e non supportata da adeguata bibliografia scientifica,
mentre le modalità di valutazione delle osservazioni utilizzate dalla
Commissione e degli Stati membri non vengono chiarite.
Detto ciò, si evince che l’introduzione del regolamento ha diminuito ulteriormente l’efficacia della consultazione del cittadino.
Infatti, come già illustrato nel caso della direttiva, il pubblico ha la
possibilità di intervenire in due momenti distinti: al momento della
presentazione della domanda e al momento della pubblicazione del
parere dello Stato ricevente, mentre con il regolamento il pubblico
interviene soltanto dopo la formalizzazione del parere da parte dell’EFSA. Questo gap nella tempistica diventa essenziale se si pensa
che, nel caso della direttiva, il commento del pubblico arriva a processo di valutazione tecnica ancora aperto, mentre nel caso del regolamento esso arriva a valutazione conclusa, quindi senza alcuna possibilità di essere preso in considerazione.
Il regolamento, peraltro, istituendo un processo di valutazione
centralizzato ha comportato paradossalmente che gli stessi Stati
membri dispongano, come unica forma garantita di intervento nel
processo di valutazione, dell’invio di osservazioni all’EFSA, che funge
al tempo stesso da collettore e arbitro. Il risultato è che gli Stati vengono a trovarsi di fatto nella stessa situazione di subordinazione
nella quale si trova il singolo cittadino e/o la singola associazione.
In effetti, l’introduzione del regolamento e l’istituzione dell’EFSA
hanno determinato nuovi conflitti tra le diverse istituzioni nazionali
ed europee coinvolte nella gestione degli OGM, tanto è vero che la
Commissione ha recentemente preso atto delle difficoltà intervenute e ha avviato una serie di iniziative volte a migliorare i rapporti tra
le diverse istituzioni8.
Un caso particolarmente emblematico è quello rappresentato
dalle clausole di salvaguardia applicate dall’Ungheria nei confronti
dell’autorizzazione alla coltivazione del mais MON810 (autorizzato
con la decisione 98/294/CE). L’Ungheria, tenendo conto del fatto
8
Commission Press Release IP/06/498. Commission proposes practical improvements to the way the European GMO legislative framework is implemented.
Brussels 12, April 2006.
100
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 101
Unione Europea e OGM
che il mais era stato autorizzato nell’Europa a 15, ossia in base alla
vecchia direttiva 90/220/CE, ha ritenuto che la valutazione di impatto ambientale non considerasse le peculiarità della propria area biogeografica. Le autorità nazionali hanno dunque attivato specifiche
sperimentazioni di campo realizzate da enti di ricerca pubblici i cui
risultati preliminari indicavano impatti su organismi non target e sul
suolo. Sulla base di tali considerazioni, l’Ungheria ha immediatamente sospeso la commercializzazione del mais MON810 sul proprio
territorio in accordo con l’art. 23 della direttiva. L’EFSA, consultata
dalla Commissione, senza richiedere ulteriori informazioni all’Ungheria, ha ritenuto non motivata la valutazione dello Stato membro
in quanto i dati forniti non erano verificabili o pubblicati su riviste
scientifiche (9).
La Commissione europea sostiene che «è di fondamentale importanza favorire l’informazione e il dialogo in modo che il pubblico e
i soggetti in causa capiscano e possano valutare meglio queste tematiche complesse e mettano a punto metodi e criteri in grado di valutare il rapporto vantaggi/rischi, ivi compresa la distribuzione dei
relativi impatti fra le varie parti della società» (10). Ma per il raggiungimento di tale obiettivo occorre che la componente tecnicoscientifica delle istituzioni europee abbia il coraggio e l’obiettività
necessari per evidenziare le incertezze scientifiche che emergono
dalla valutazione del rischio. La componente politica invece è chiamata a scegliere con obiettività le misure da adottare, considerando
l’impatto socio-economico di tutte le diverse opzioni che possono
venire a configurarsi nel processo decisionale e tenendo conto di
tutti gli elementi che concorrono alla formazione di una partecipazione diffusa.
BIBLIOGRAFIA
(1)
FAO/WHO, Strategies for assessing the safety of foods produced by biotechnology, a joint FAO/WHO consultation, Geneva, Switzerland, 5-10
November 1990, 1991.
(2) FAO/WHO, Safety aspects of genetically modified foods of plant origin,
Report of a joint FAO/WHO Expert Consultation on foods derived
from biotechnology, FAO Food and Nutrition Paper 29, 2000.
101
*02.Biotecnocrazia
28-06-2007
9:03
Pagina 102
Matteo Lener
(3)
(4)
(5)
(6)
(7)
(8)
(9)
(10)
OECD, Safety evaluation of foods derived by modern biotechnology: concepts and principles, Paris 1993.
Codex Alimentarius, Codex principles and guidelines on foods derived
from biotechnology, Codex Alimentarius Commission, Joint FAO/WHO
Food Standards Programme, Food and Agriculture Organisation,
Rome 2003.
EFSA, «Guidance document of the Scientific Panel on Genetically
Modified Organisms for the risk assessment of genetically modified
plants and derived food and feed», The EFSA Journal, 99, 2006, pp. 1100.
EFSA, «Opinion of the Scientific Panel on Genetically Modified
Organisms on an application for the placing on the market of insecttolerant genetically modified maize 1507, for food use, under
Regulation (EC) No 1829/2003 from Pioneer Hi-Bred International/
Mycogen Seeds», The EFSA Journal, 182, 2005, pp. 1-22.
Commissione UE, Comunicazione della Commissione sul principio di
precauzione COM (2000) 1, 2000.
Levidow L., Carr S., Wield D., «European Union regulation of agribiotechnology: precautionary links between science, expertise and
policy», Science and Public Policy, 32, 2005, pp. 261-276.
EFSA, «Opinion of the Scientific Panel on Genetically Modified
Organisms on a request from the Commission related to the safeguard
clause invoked by Hungary according to Article 23 of Directive 2001/
18/EC», The EFSA Journal, 228, 2005, pp. 1-14.
Commissione UE, Scienze della vita e biotecnologia. Una strategia per
l’Europa, Comunicazione della Commissione al Parlamento europeo,
al Consiglio, al Comitato economico e sociale e al Comitato delle
regioni COM (2002) 27, 2002.
102