attenti alle bufale - Fondazione Diritti Genetici
Transcript
attenti alle bufale - Fondazione Diritti Genetici
*02.Biotecnocrazia 28-06-2007 9:02 Pagina 49 LA QUALITÀ DELLE INFORMAZIONI SCIENTIFICHE IN BIOMEDICINA OVVERO: «ATTENTI ALLE BUFALE» di Tom Jefferson* Le prove disturbano, sono radicali, dissacranti. Le opinioni, specie se di cattivi maestri, ti fanno dormire sonni tranquilli (Generale Sun Tzu, Cina, VI sec. a.C.) La conduzione e la comunicazione della ricerca biomedica dovrebbero essere un’attività caratterizzata da altissimo rigore scientifico ed etico. Sono sempre più numerose, invece, le prove che gli studi di parte o di dubbia qualità metodologica o francamente fraudolenti rappresentano la maggioranza di ciò che viene pubblicato e comunicato. La ricerca biomedica e la sua comunicazione al pubblico «laico» e professionale devono essere viste con un occhio più vigile di quello al quale siamo oggi abituati. Le insidie sono numerose e le possibilità di difesa, da parte sia dei cittadini sia degli operatori sanitari, sono quasi sempre inadeguate per far fronte alle pressioni di una ricerca biomedica sempre più condizionata dal mercato. In altre parole, è necessario fare molta attenzione alle «bufale». La maggior parte dei filosofi è d’accordo nel ritenere che lo scopo della scienza sia di migliorare le condizioni di vita dell’uomo. In campo sanitario, ciò viene attuato con programmi di prevenzione, diagnosi e trattamento delle malattie. La scienza è quindi la base essenziale per l’impianto di qualsiasi attività sanitaria e le prestazioni erogate dai sistemi sanitari dovrebbero essere basate su saldi principi scientifici. È possibile distinguere due fasi nella «costruzione» di una scien- * Epidemiologo, Cochrane Collaboration, Roma 49 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 50 Tom Jefferson za, nel nostro caso particolare quella sanitaria. Il retroterra è costituito dall’attività scientifica vera e propria, atta a svolgere studi o ricerche che rispondano in maniera empirica a quesiti specifici come, per esempio: questo nuovo apparato diagnostico è migliore di quello esistente nel diagnosticare la tale condizione? Allo studio fa seguito la comunicazione dei risultati a terzi. Oggigiorno la comunicazione è diventata una componente fondamentale della scienza, poiché la mancata comunicazione dei risultati di una ricerca, di fatto, implica che quella ricerca non esiste. Su un piano più strategico, se la scienza è concepita come un lento evolversi e progredire delle nostre conoscenze, la comunicazione e il dibattito sono elementi essenziali per la crescita della scienza stessa e il miglioramento delle nostre condizioni. Sia l’attività scientifica in senso stretto, sia la comunicazione devono però avvenire entro binari ben precisi, devono cioè obbedire a delle leggi scritte e non: prima fra tutte quella che impone l’onestà e la trasparenza. Ciò perché in biomedicina non vengono trattati oggetti inanimati, bensì persone singole o famiglie con sentimenti e aspirazioni. Tutte le religioni al mondo impongono il rispetto del singolo. Anche una concezione atea della vita e del mondo impone il rispetto dell’etica e della personalità umana. Storicamente, delle due componenti della scienza (la ricerca e la sua comunicazione) quella a cui è stata prestata minore attenzione è la seconda. Ciò è probabilmente errato perché nel mondo d’oggi è quella di gran lunga più importante per uno scienziato. Il sistema della ricerca moderna Nella sua moderna configurazione, la ricerca scientifica è gestita da numerosi gruppi di ricercatori più o meno folti e di solito affiliati ad istituzioni private o pubbliche. Questi gruppi dipendono, per i loro finanziamenti, dalla capacità di convincere coloro che manovrano i cordoni della borsa che un investimento iniziale o rinnovato nel loro gruppo è giustificato e desiderabile. In altre parole, i «buoni» risultati scientifici sono quelli che permettono a questi gruppi di sopravvivere o di ampliarsi. In campo biomedico, questi «buoni» risultati sono quelli che permettono ai gruppi di raggiungere gli 50 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 51 La qualità delle informazioni scientifiche in biomedicina obiettivi scientifici prefissi, ma anche quelli che mettono in grado i ricercatori di disseminare i risultati della loro ricerca e influenzare la maniera in cui vengono governati e programmati i sistemi sanitari. È per questa ultima esigenza, che non è certamente secondaria, che si è creata ed evoluta l’industria delle pubblicazioni scientifiche. Si tratta di un business così fiorente che ogni anno si assiste ad un aumento delle pubblicazioni scientifiche cartacee ed elettroniche, con un numero sempre maggiore di riviste e siti pronti ad offrire accesso e possibilità di pubblicazione. Tale moltiplicazione di disponibilità e trasmissione di dati, ossia questo vero e proprio fervore produttivo, non è regolato nella sua creatività da nessun organismo, ma solo dalla presenza di carta, penna e francobolli o, molto più realisticamente, di un computer collegato alla rete telefonica, e dalla fertilità dell’ingegno umano. Se si accetta una tale giustificazione, c’è il pericolo che la visione idilliaca ed altruistica delle scienza biomedica (e soprattutto della sua comunicazione) si cominci ad incrinare. Si rischia che la motivazione etica della scienza si trasformi in una motivazione di mercato, soprattutto di quantità, piuttosto che di qualità. Le prove Che prove ci sono che queste attività simili ad imprese commerciali inquinino la nostra attività etica di ricercatori biomedici? Le prove sono fornite soprattutto da coloro che hanno effettuato delle revisioni minuziose di branche dello scibile biomedico, analizzando criticamente e sintetizzando informazioni provenienti da studi formali spesso pubblicati su riviste prestigiose. Questa attività è nota come «revisione sistematica delle prove» (dette anche «evidenze», da una discutibile traduzione dall’inglese evidence). Eccone alcune. L’esperto di revisioni sistematiche greco-statunitense John Ioannidis ha preso in esame 49 studi (per lo più trial clinici) pubblicati su riviste molto prestigiose, con tassi di citazione astronomici. La stragrande maggioranza di questi studi riportava risultati molto positivi per gli interventi esaminati (prescrizione di farmaci ACE-inibitori e di statine, stent cardiovascolari) o annunciava novità che in oltre un terzo dei casi venivano successivamente smentite o ridi51 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 52 Tom Jefferson mensionate nella loro portata. Ancor più di recente, Ioannidis è tornato sull’argomento rincarando la dose rispetto alle conclusioni dello studio prima citato; gran parte dei risultati pubblicati sulle riviste biomediche – egli sostiene – è falsa, e la probabilità di bufale aumenta in presenza di una serie di fattori: più piccoli sono gli studi scientifici, più alte le probabilità che i risultati non siano validi; più limitati in dimensione sono gli effetti misurati, più alte le probabilità che i risultati non siano validi; più alto è il numero delle relazioni testate, più alte le probabilità che i risultati non siano validi; più elevata è la flessibilità nel disegno degli studi, nelle definizioni e nei metodi analitici, più alte le probabilità che i risultati non siano validi; più rilevanti sono gli interessi (economici o di natura ideologica) in gioco, più alte le probabilità che i risultati non siano validi; più intensa è la competizione tra i gruppi di ricercatori in una determinata disciplina «sensibile», più alte le probabilità che i risultati non siano validi (2,3). I ricercatori inglesi Chen e Altman, in una disamina di centinaia di studi clinici pubblicati, hanno concluso che, nella pubblicazione dei manoscritti, ciò che viene omesso e ciò che viene pubblicato influenzano fortemente le conclusioni degli studi. Cioè, gli studi esaminati venivano elaborati in modo da sostenere interessi poco chiari, che spesso non rispecchiavano i dati presentati negli studi stessi (4,5). La consultazione del database delle revisioni sistematiche della Collaborazione Cochrane (una Onlus internazionale che effettua revisioni sistematiche in tutti i campi della biomedicina) rivela che una quota sostanziale di studi (per lo più clinici) compresi nelle revisioni è di qualità metodologica modesta, con una minoranza che sono copie carbone di altri studi plagiati, ricopiati o addirittura falsi. Questa situazione sembra preoccupare solo alcuni ricercatori e direttori di riviste scientifiche. A tale proposito, può essere utile leggere il parere di Richard Smith, carismatico ex direttore della prestigiosa rivista di biomedicina British Medical Journal (Attenti alle Bufale News, newsletter del sito web www.attentiallebufale.it): «Le riviste mediche hanno molti problemi ed hanno bisogno di essere riformate. Vengono influenzate in maniera sproporzionata dalle case farmaceutiche, sono troppo invaghite dei mass media e non si curano abbastanza dei pazienti. La ricerca che pubblicano è di difficile interpretazione e piena di bias, e la peer review, il meccanismo che 52 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 53 La qualità delle informazioni scientifiche in biomedicina sta alla base delle riviste e di tutta la scienza, non funziona bene. Sta diventando sempre più evidente che molti degli studi pubblicati sulle riviste sono fraudolenti […]». Coloro a cui dovrebbe stare più a cuore una comunicazione etica (cioè i cittadini) non sono al corrente di quanto sta avvenendo. Pubblico e larga parte dell’opinione pubblica scientifica ritengono probabilmente che i meccanismi etico-editoriali a nostra disposizione siano una difesa sufficiente contro le bufale pseudo-scientifiche. Come difendersi I meccanismi di difesa sono soprattutto imperniati sull’esame individuale della qualità metodologica delle singole ricerche o sul risultato di studi compiuti da colleghi «alla pari». A questo riguardo le righe seguenti mettono in luce la gravità della situazione: «Per pubblicare in una rivista scientifica che molti ritengono degna di questo nome, bisogna sottoporsi al giudizio dei colleghi durante il processo detto della peer review (o revisione critica o revisione dei pari o revisione fra pari). La peer review è il meccanismo internazionale usato da riviste ed enti erogatori di fondi per valutare la qualità scientifica dell’offerta. Per offerta si intende uno studio o un pezzo inviato ad una rivista con preghiera di pubblicazione o il protocollo di una ricerca da finanziare. L’espressione peer review ha un significato etimologicamente ambiguo in inglese. Mentre review significa revisione, che in questo contesto implica una revisione critica, il termine peer ha tre possibili significati. Peer significa pari, cioè un collega o persona dello stesso livello o rango dell’autore dell’offerta. Un peer è però anche un membro della camera dei pari inglese, cioè della camera dei Lord. Ciò è in certo senso profetico e suggestivo, nel nostro caso, poiché la camera dei Lord è dove finiscono gli scienziati più affermati del Regno Unito. Figuratevi che qualche anno fa qualche sfrontato umorista sulle colonne del BMJ ha paragonato l’ascesa alla camera dei Lord per merito scientifico a un gioco dell’oca, in cui tutto è lecito pur di arrivare» (1). A questo riguardo non è irrilevante sottolineare l’importanza della vendita di ristampa nel bilancio delle case editrici delle riviste internazionali di biomedicina. Non esiste editore che si rispetti che 53 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 54 Tom Jefferson non si sia dotato di un servizio espressamente dedicato alle relazioni con le industrie farmaceutiche interessate ad acquisire le ristampe degli articoli che presentano i risultati delle sperimentazioni condotte utilizzando i propri prodotti. Stampati in diverse decine di migliaia di copie, questi esili fascicoli in bianco e nero transitano dalle borse degli informatori scientifici del farmaco alla scrivania del medico e del farmacista con frequenza crescente. L’articolo viene consegnato al medico, ovviamente «svincolato» dal resto del fascicolo in cui quello stesso lavoro è stato pubblicato; quindi, slegato dall’editoriale di commento che – se non scritto da «cattivi maestri» – ha spesso la funzione di contestualizzare i risultati della ricerca o di metterne prudentemente in rilievo alcuni limiti metodologici. Lo stesso va detto della corrispondenza, una tribuna spesso utile a «smascherare» trappole e pecche del lavoro originale. Ma to peer significa pure «scrutare intensamente». Anche questa interpretazione ha un significato rivelatore per una revisione critica. In realtà, tutte queste accezioni sono a nostro giudizio fuorvianti, in quanto non riflettono l’essenza del processo che è invece di natura altamente competitiva, specie quando la posta in palio è lo spazio all’interno di una rivista prestigiosa. Dunque, lungi dall’essere un «pari», il revisore è un concorrente incaricato dallo staff editoriale di dare un giudizio franco (spesso impietoso) sul lavoro sottoposto e di elencarne le pecche metodologiche e stilistiche. L’elemento competitivo è un altro ingrediente molto importante di quel cocktail che abbiamo già menzionato. L’appoggio di industria e governo è spesso determinante per permettere la pubblicazione e la diffusione di uno studio, specie se si tratta di un trial clinico. Per i cattivi maestri ambiziosi questo appoggio è essenziale. La peer review editoriale ha lo scopo di identificare offerte di pubblicazione, i cosiddetti manuscript, di «buona qualità» (6,7). In modo analogo, la peer review relativa alle domande di fondi ha lo scopo di identificare le domande «buone» per ottenere finanziamenti. Entrambe le famiglie di «buone» vengono quindi premiate, rispettivamente, con la pubblicazione e l’elargizione di fondi. Sulla definizione di «buono», però, si rischia una vertiginosa caduta libera. Cinque congressi internazionali sulla peer review non sono stati in grado di definire né i suoi scopi, né gli strumenti utili a 54 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 55 La qualità delle informazioni scientifiche in biomedicina esprimerne la qualità nelle riviste e negli articoli scientifici (8). La peer review rimane quindi un’arte, una scienza inesatta e qualitativa, riconosciuta come tale solo dai pionieri che popolano i convegni sull’argomento, ma osannata come un metodo infallibile di screening dal resto della comunità scientifica biomedica. In questo contesto è sufficiente avere presenti i limiti del sistema e la sua vera essenza: quella di una lotteria con in palio la pubblicazione o l’elargizione di fondi. Come in tutte le lotterie, vincono i più fortunati, oppure coloro che hanno comprato una montagna di biglietti, ossia coloro che hanno risorse in più, metaforicamente equivalenti all’acquisto di un maggior numero di tagliandi per partecipare all’estrazione. Esistono diversi tipi di peer review e diverse maniere per attuarla. Inoltre, esistono numerose modalità per evaderla e prendersi gioco degli editors, dei referees, delle riviste, dell’establishment scientifico e soprattutto dei lettori. Questi sono infatti penalizzati dalla mancanza di uno spirito critico, che non viene insegnato né favorito nella formazione scolastica e universitaria, e dalla totale incompetenza in ambito epidemiologico di base, oltre che dalla penuria di tempo. È per questo che in letteratura sono stati proposti degli strumenti assai complessi per l’individuazione sia delle bufale sia degli studi di buona qualità. Gli strumenti richiedono un minimo di formazione epidemiologica, sono per lo più in inglese (e non tradotti in italiano) e, nella loro applicazione a singoli studi, necessitano di molto tempo, specie se l’operatore ha scarsa dimestichezza con la materia e usa tali strumenti per la prima volta. Proprio per questa ragione, ho proposto alcuni strumenti più rapidi e facili da usare, scaricabili direttamente dal sito web www. attentiallebufale.it. Conclusione La ricerca biomedica e la sua comunicazione devono essere viste in un’ottica ben più critica di quella comunemente accordata, memori che le bufale abbondano e che le nostre difese sono completamente inadeguate per far fronte alle offerte del mercato della ricerca. Questa «pressione» per riformare il mercato della scienza e della sua comunicazione deve provenire in primo luogo dai cittadi55 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 56 Tom Jefferson ni, ai quali vengono spesso venduti interventi inefficaci o dannosi. Ma affinché il pubblico possa rendersi conto di ciò che realmente sta accadendo, i professionisti del settore sanitario e tutti coloro che producono e comunicano ricerca scientifica in buona fede dovrebbero mettere in evidenza i problemi qui evidenziati. Per concludere, può essere interessante sollecitare un interrogativo e una riflessione molto seri. Un anno fa i media del mondo occidentale erano colmi di fosche previsioni relative a catastrofi pandemiche; quest’anno, invece, pare che negli Stati Uniti le colonne dei giornali siano molto più impegnate a dare conto di un dibattito sulle virtù degli spinaci. Perché questa variabilità? BIBLIOGRAFIA (1) Jefferson T., Attenti alle bufale, 2a ed., Pensiero Scientifico Editore, Roma 2006. (2) Ioannidis J.P.A., «Contradicted and initially stronger effects in highly cited clinical research», JAMA, 294, 2005, pp. 218-228. (3) Ioannidis J.P.A., «Why most published research findings are false», Plos Med, 2, 2005, p. 124. (4) Chen A.-W., Altman D.G., «Epidemiology and reporting of randomised trials published in PubMed journals», Lancet, 365, 2005, pp. 1159-62. (5) Chen A.-W., Altman D.G., «Identifying outcome reporting bias in randomised trials on PubMed: review of publications and survey of authors», BMJ, 330, 2005, pp. 753-6. (6) Jefferson T.O., Alderson P., Davidoff F., Wager E., «Editorial peer review for improving the quality of reports of biomedical studies (Cochrane Methodology Review)», in The Cochrane Library, Issue 1, John Wiley & Sons Ltd, Chichester, UK 2004. (7) Demicheli V., Di Pietrantonj C., «Peer review for improving the quality of grant applications (Cochrane Methodology Review)», in The Cochrane Library, Issue 1, John Wiley & Sons Ltd, Chichester, UK 2004. (8) Jefferson T.O., Wager E., Davidoff F., «Measuring the quality of editorial peer review», JAMA, 287, 2002, pp. 2786-90; Godlee F., Jefferson T.O. (ed.), Peer review in health sciences, second edition, BMJ Books, London 2003. 56 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 57 MODELLI DI SCIENZA E POLITICA: DALLA DIMOSTRAZIONE COMPETENTE ALLA PARTECIPAZIONE ESTESA di Silvio Funtowicz* Questo saggio è incentrato sul ruolo della scienza nello sviluppo e nell’attuazione delle decisioni di policy. Esso prende in esame un certo numero di modelli concettuali che descrivono la relazione e l’interrelazione tra scienza e politica. Tali modelli vengono valutati nel quadro dei presupposti su cui si basano, nonché dei punti di forza e dei limiti intrinseci di ciascuno di essi. Deve essere chiaro che nessuno dei modelli presentati offre la soluzione universale ai problemi più importanti. Ritengo ormai necessario, tuttavia, anche in considerazione della letteratura sempre più ricca che viene prodotta in materia (1,2,3), un ripensamento della relazione tra scienza e politica. Nella tradizione moderna dell’Illuminismo europeo, questa relazione veniva considerata semplice in termini teorici ma assai complicata in termini pratici: secondo la tradizione, la scienza ha la funzione di trasmettere alla politica una conoscenza obiettiva, valida e affidabile. Per elaborare una policy, quindi, occorre ricevere informazioni da parte della scienza e, in un secondo momento, valutare preferenze e opzioni diverse. Di seguito definiremo questo «il mo- * Filosofo della scienza, Joint Research Centre of the European Commission, ISPRA Le opinioni e i punti di vista espressi in questo testo sono riferibili unicamente all’autore, e non riflettono necessariamente quelli della Commissione europea. 57 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 58 Silvio Funtowicz dello moderno», fra le cui caratteristiche più importanti c’è quella di comprendere la nozione moderna di razionalità. Semplificando, potremmo dire che nell’ambito della tradizione illuminista gli attori razionali agiscono all’interno del modello moderno e scelgono le opzioni politiche che, conformemente alla prova scientifica, meglio si adattano alle loro preferenze. In linea di principio, il modello moderno è facilmente giustificabile, al punto che spesso viene dato per certo. Tuttavia, la sua giustificazione presuppone un certo numero di assunti che solo di rado sono totalmente espressi. Il primo presupposto è che l’informazione scientifica disponibile sia oggettivamente valida e affidabile. In presenza di una considerevole incertezza scientifica, però, come nel caso in cui i fatti siano molto incerti o gli esperti nutrano dubbi significativi, il modello moderno non rappresenta più l’unica possibilità di relazione tra scienza e politica. Lo stesso vale nel caso in cui sussistano conflitti d’interesse da parte degli attori coinvolti, come avviene quando gli stessi esperti sono stakeholders (ossia «portatori di interessi»). Il secondo presupposto che caratterizza il modello moderno prevede non solo che l’incertezza possa essere eliminata o controllata, ma anche che l’informazione scientifica possa essere completa, ossia che informi il decisore politico riguardo a tutto ciò che è necessario sapere per prendere decisioni volte all’interesse pubblico: in pratica, esiste una sola descrizione corretta del sistema e tale descrizione deve essere fornita dalla scienza. In presenza di più descrizioni, queste possono essere combinate e ricondotte a un’unica descrizione scientifica che le comprenda tutte. In altre parole, il modello moderno assume che il sistema e il problema di cui ci si occupa non siano realtà complesse. Ritengo che in molte questioni politiche, per riconoscere l’irriducibilità dell’incertezza e della complessità scientifica occorra una sostanziale revisione del modello moderno, ossia una riformulazione della sua definizione di conoscenza e di governance. La conoscenza non è prodotta solo dalla scienza, e la governabilità implica molto più che la semplice deduzione dell’azione dai fatti e dalle preferenze. 58 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 59 Modelli di scienza e politica La relazione dinamica tra scienza e politica Qual è il ruolo della scienza nella governance? E quale dovrebbe essere la relazione tra scienza e politica? Anzitutto dovrei chiarire che esistono due tipologie molto differenti di relazione tra scienza e politica. Quello fin qui discusso riguarda la scienza nel suo ruolo di informatrice della politica. Tuttavia, la scienza è anche l’oggetto della politica, nel senso che la pratica scientifica è regolata da un certo numero di decisioni politiche. In modo analogo, si deve osservare che se da un lato la scienza che informa la politica può eliminare o ridurre l’incertezza, dall’altro le pratiche scientifiche e tecnologiche sono tra le principali responsabili d’incertezza al mondo, essendo esse stesse produttrici di innovazioni, come per esempio nuovi organismi e nuove forme di vita. Ed è proprio a questo potenziale innovativo che è attualmente rivolta l’attenzione delle politiche di ricerca in numerosi paesi. Senza più territori fisici da colonizzare sul pianeta, la scienza (insieme allo spazio) fornisce la «frontiera infinita» da conquistare e su cui investire (4,5). D’altra parte, il potenziale verificarsi di effetti collaterali inattesi o negativi è oggetto di un interesse crescente. E la minaccia è rappresentata dal fatto che le nostre società non hanno ancora creato le istituzioni necessarie per gestire la situazione. Di fatto, le risposte principali al verificarsi di eventi incerti si identificano con i «regolamenti etici», nel caso della scienza medica, e con la «valutazione/ gestione del rischio», nel caso delle tecnologie basate sulla scienza, mentre si tende a rimuovere dalla discussione l’assunto implicito della desiderabilità e della necessità di accelerare la ricerca e l’innovazione. Esaminando il contesto in cui la scienza informa la politica, non è possibile separare completamente i due tipi distinti di relazione che vengono a instaurarsi. Dal punto di vista sociologico, è possibile che vi siano legami o addirittura sovrapposizioni tra gli esperti che informano e gli scienziati sui cui interessi influiscono le decisioni politiche (6). Dal punto di vista epistemologico, esistono certamente connessioni, nel senso che le pratiche da regolamentare sono basate su un insieme di conoscenze che, a loro volta, giocano un ruolo importante per quanto riguarda il parere politico. 59 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 60 Silvio Funtowicz Alvin Weinberg (7) ha coniato il termine trans-scientific (transscientifico) per le «domande che possono essere rivolte alla scienza e a cui la scienza non è però in grado di rispondere [corsivo originale]» . Weinberg ha fornito l’esempio dei rischi sanitari derivanti dall’esposizione a una bassa dose di radiazioni ionizzanti, ma ha anche discusso il problema relativo alla valutazione dei rischi e dei benefici delle nuove tecnologie decenni prima dei dibattiti su clonazione, cellule staminali embrionali, nanotecnologia e cambiamento del clima. Che cosa fare? Le soluzioni sono state inserite in cinque tipi ideali o modelli (8). Il modello moderno Non è questa la sede per discutere tutte le caratteristiche importanti del modello moderno. Tuttavia, la difesa di questo modello è andata oltre il semplice bisogno di definire una strategia utile a formulare linee politiche efficaci; essa ha avuto un ruolo cruciale anche nella legittimazione e nel consolidamento della scienza, della governance e delle istituzioni politiche nelle società odierne. Nell’ambito dello Stato moderno, questo modello funziona anche a un livello culturale più profondo, garantendo la fiducia nel progresso, inteso in senso illuminista, e nella superiorità della secolare razionalità scientifico-economica dell’Occidente espressa secondo criteri quantitativi. Sul piano aneddotico e biografico, ho sperimentato spesso che gli interlocutori difendono il modello moderno in maniera convinta e non solo per ragioni pragmatiche: per alcuni sembra rappresentare persino una questione d’identità e di speranza. Il problema sorge quando: la complessità aumenta; le incertezze non possono essere ridotte a rischi probabilistici; gli esperti non sono d’accordo, vengono percepiti come portatori di interessi o, più semplicemente, non hanno una conoscenza del problema. I tre modelli che seguono possono essere considerati tentativi di rimediare a queste anomalie (9), come sforzi tendenti a salvaguardare il modello moderno dai pericoli derivanti rispettivamente dall’incertezza, dall’indeterminazione e dal conflitto d’interesse. 60 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 61 Modelli di scienza e politica Il modello basato sulla precauzione: liberare il modello moderno dall’incertezza tecnica e metodologica Nei processi politici reali si scopre che i fatti scientifici non sono di per sé totalmente certi né conclusivi per la pianificazione delle scelte di intervento. Il progresso non può essere ritenuto un fatto automatico e i tentativi di controllare i processi sociali, i sistemi economici e l’ambiente possono fallire, determinando talvolta situazioni patologiche. Negli ultimi decenni l’«incertezza» è stata gradualmente riconosciuta, in particolare per quanto concerne i problemi ambientali. Questa incompletezza della scienza lascia emergere un elemento aggiuntivo nelle decisioni politiche, vale a dire la precauzione, che svolge la funzione sia di proteggere sia di legittimare quelle stesse decisioni che, altrimenti, ricadrebbero nel dominio del modello moderno. Il modello qui discusso, dunque, introduce nel modello moderno il principio, o approccio, precauzionale, con particolare riferimento all’accezione in cui esso viene inteso nel contesto europeo. Principi o approcci di precauzione sono stati adottati da un certo numero di convenzioni, leggi e disposizioni, in particolare nella Dichiarazione di Rio sull’ambiente e lo sviluppo (10). La descrizione di tali principi e approcci è molto variabile, tuttavia è tipica e interessante quella che è stata data nella Dichiarazione di Rio, basata su una doppia negazione: «Laddove vi siano minacce di danni seri o irreversibili, la mancanza di un’assoluta certezza scientifica non dovrà essere usata come motivo per ritardare il ricorso a misure economicamente efficaci per la prevenzione del deterioramento ambientale» (da Principio 15). Nella Comunicazione della Commissione europea (11) sul principio di precauzione si fa riferimento all’incertezza scientifica, ma si pone l’accento sul fatto che il principio di precauzione è «particolarmente rilevante per la gestione del rischio» e che «il principio di precauzione, cui fanno ricorso essenzialmente i decision-makers che operano nella gestione del rischio, non dovrebbe essere confuso con l’elemento di cautela che gli scienziati applicano nella loro valutazione dei dati scientifici». Nella stessa Comunicazione, la Commissione sottolinea il fatto 61 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 62 Silvio Funtowicz che le richieste arbitrarie di misure di precauzione non possono essere basate sul principio omonimo. Esso può essere invocato solo qualora una valutazione scientifica offra una prova del rischio, e solo nel caso in cui le misure di precauzione siano in linea con il principio della proporzionalità (tra costi e benefici). Questo ha spinto alcuni critici ad argomentare che il principio di precauzione non è altro che un’estensione dell’analisi costi-benefici. Il principio normativo della precauzione è inquadrato di conseguenza ed espresso in termini di scienza quantitativa. Ci si potrebbe chiedere qual è la differenza, in pratica, tra il modello di precauzione e il modello moderno, dato che la prova scientifica non è mai «certa». La risposta sembra risiedere nel fatto che esistono situazioni in cui la comunità scientifica crede ampiamente all’esistenza di un certo danno o rischio, sebbene la prova scientifica non sia del tutto conclusiva sulla base dei normali standard scientifici. In altre parole, l’evidenza concreta e specifica del danno esiste, ma l’incertezza tecnica e metodologica è leggermente maggiore di quanto viene stabilito dalle convenzioni standard ammesse dalla letteratura scientifica: convenzionalmente il 95% di confidenza nel caso di incertezza statistica1 (13). L’incertezza epistemologica – del tipo: «Non sappiamo che tipo di sorprese potrebbe riservarci questa tecnologia» – sarebbe resa antiscientifica e inappropriata proprio dal modello di precauzione. Tale limite è così rigido che, per ottemperare all’incertezza epistemologica, è necessaria una radicale riformulazione del principio: un principio di precauzione «reale» non dovrebbe dipendere da ciò che accadrà in futuro (questa conoscenza infatti è impossibile), ma dovrebbe essere adattato a ciò che è rischioso oggi. 1 Si dovrebbe tenere presente che il 95% è dovuto alla convenzione, ma è anche il risultato dell’esperienza storica. Ronald A. Fisher, insigne statistico che ha guidato lo sviluppo di test statistici e del concetto di significatività, ha scritto: «Colui che sperimenta ha la possibilità di essere più o meno esigente riguardo al basso valore di probabilità che intende richiedere prima di essere disposto ad ammettere che le sue osservazioni hanno prodotto un risultato positivo. […] Di solito è conveniente, per gli sperimentatori, prendere il 5% come livello standard di significatività» (12). 62 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 63 Modelli di scienza e politica Il modello mirato: liberare il modello moderno dall’indeterminazione Un certo numero di decisioni mirate può avere conseguenze importantissime sui risultati del parere scientifico e sulla scelte di policy che ne derivano. Le decisioni mirate includono le scelte sulle tipologie di effetto, sulle misure di sicurezza, sul periodo, sul luogo, sulle comunità di esperti e perfino sulle discipline scientifiche di cui avvalersi. Il numero virtualmente infinito di alternative è collegato a quella che Wynne (1) chiama «indeterminazione» e, dal momento che non esistono algoritmi semplici per prevederle tutte, ecco l’esigenza di circoscrivere il problema da investigare e di individuare l’ambito scientifico entro il quale si deve muovere la decisione politica. Le diverse discipline scientifiche infatti competono come veri e propri stakeholders, e quella che riuscirà ad «appropriarsi» del problema scientifico darà il principale contributo alla sua soluzione, godendo dei conseguenti benefici. Le istituzioni sono ben consapevoli del problema dell’indeterminazione e delle possibili divergenze tra le comunità di esperti. In un tentativo di stabilire alcune linee guida per il ricorso agli esperti (14), la Commissione europea dichiara: «La Commissione potrebbe trovarsi di fronte a numerosi pareri contrastanti da parte di esperti di varia estrazione accademica: sia da parte di coloro che possono vantare conoscenze sulla base di un’esperienza specifica, sia da parte di coloro che hanno interessi di natura politica. Questi pareri possono essere basati su presupposti diversi e su obiettivi assolutamente differenti. […] Pertanto l’interazione tra decisori politici, esperti, portatori di interessi e pubblico (in senso ampio) è un momento cruciale della pianificazione politica, e deve concentrarsi non solo sul risultato politico ma anche sul procedimento seguito» (p. 2). I vari tentativi di adeguare il modello moderno a questo obiettivo possono essere sintetizzati in un «modello mirato». Le linee guida menzionate prevedono in primo luogo un dibattito avanzato all’interno dell’amministrazione sui modi di configurare il problema e scegliere gli esperti; altri sviluppi che attengono all’importante ambito della governance, inoltre, prevedono la partecipazione dei cittadini e degli stakeholders al processo che precede l’indagine scientifica, il cosiddetto upstream engagement (impegno preliminare). 63 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 64 Silvio Funtowicz In ogni caso, una designazione scorretta del problema (per errori, ignoranza, valutazioni inadeguate, ecc.) può comportare un impiego fuorviante dello strumento dell’indagine scientifica. Resta il fatto che, non sussistendo alcuna base scientifica esaustiva nella scelta dell’impianto nel suo complesso, tale scelta resta in una certa misura arbitraria (o di carattere sociale): in altri termini, non si può parlare di «scienza oggettiva». L’accettazione del modello mirato comporta l’accettazione di un certo grado di arbitrarietà di scelta (ambiguità), da cui deriva un possibile abuso della scienza nel contesto della politica, aspetto, quest’ultimo, non sempre facile da verificare. Quello che è certo è che il giudizio stesso sarà influenzato dal modello. Il modello mirato è interessante per diverse ragioni. Può essere visto come un tentativo di riconoscere e, in qualche modo, ridistribuire gli equilibri e i poteri tra esperti e persone comuni: l’applicazione non scientifica del modello che gli scienziati spesso compiono implicitamente (e inconsapevolmente) viene infatti sottratta al loro controllo esclusivo e democratizzata. Non vengono affrontati i limiti metodologici dell’indagine scientifica, né l’appropriazione della conoscenza da parte della scienza. Al fine di conoscere e specificare tutti i criteri fondamentali affinché la qualità della prova eviti qualsiasi indeterminazione, i non esperti dovrebbero diventare esperti per poter realizzare autonomamente le ricerche. Le linee guida della Commissione europea sopra menzionate (14) richiedono una pluralità di prospettive per risolvere il problema dell’indeterminazione nel modello: «Il fattore determinante della qualità è, in assoluto, il pluralismo. Ogni qualvolta fosse possibile, si dovrebbe raccogliere una varietà di punti di vista. Questa varietà dovrebbe essere il risultato di differenze di approccio scientifico, competenze diverse, affiliazioni istituzionali differenti e opinioni contrapposte relativamente ai presupposti fondamentali del problema». «In base al problema e alla fase del ciclo decisionale, pluralismo significa anche tenere conto di competenze multidisciplinari e multisettoriali, e di punti di vista minoritari e non omologati. Possono essere importanti anche altri fattori, come le prospettive geografiche, culturali e di genere» (p. 9). Questo potrebbe funzionare soltanto se il problema del modello mirato fosse un problema di distorsione (bias) o di prospettiva limi64 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 65 Modelli di scienza e politica tata riguardo a ogni tipo di competenza: in questo caso, il pluralismo potrebbe tradursi in solidità, cancellare le distorsioni e avvicinarsi alla conoscenza intersoggettiva. Ma purtroppo il problema è più profondo: in altri termini, è una questione di scelte necessarie e non di distorsioni superflue. E questo non può essere risolto dal modello mirato, perché esso mantiene come fondamento l’ideale di una conoscenza scientifica certa. Il modello di demarcazione: liberare il modello moderno dal conflitto d’interesse L’ultimo adeguamento del modello moderno che esamineremo è il modello di demarcazione. Questo modello richiama il modello mirato nel senso che riconosce la possibilità di distorsione e di disaccordo tra esperti. Tuttavia, diagnosi e prescrizione sono termini distinti. Laddove il modello mirato vede la necessità di specificare meglio i valori da inserire nel sistema degli esperti, il modello di demarcazione si occupa maggiormente di supervisionare i valori in gioco nel processo di definizione del parere scientifico: «Le informazioni e le indicazioni di carattere scientifico utilizzate nella pianificazione politica sono formulate da persone che operano in istituzioni che perseguono agende proprie. L’esperienza insegna che un contesto simile può influenzare i contenuti di ciò che viene proposto, attraverso la selezione e l’impostazione di dati e conclusioni particolari. Nonostante vengano usati termini scientifici, la neutralità e l’oggettività dei dati non sono garantite. Inoltre, i professionisti della scienza e i loro finanziatori hanno interessi e valori propri. In questi casi può verificarsi (e probabilmente si verifica) un abuso della scienza che corrobora il processo di pianificazione politica. Come risposta a questo problema, è dunque necessario che le istituzioni (e gli individui) che forniscono il sostegno scientifico siano tenuti rigorosamente separati dagli organi ove tali contenuti vengono impiegati, onde evitare che la politica interferisca con la scienza mettendone a repentaglio l’integrità. Tale demarcazione ha il significato di garantire che la responsabilità delle decisioni politiche resti a carico dei decisori politici e non venga inopportunamente spostata sugli scienziati» (8). 65 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 66 Silvio Funtowicz Un esempio di modello di demarcazione è dato dalla necessità di una separazione chiara tra «valutazione» del rischio e «gestione» del rischio. Un altro esempio è l’esigenza di studi e gruppi di ricerca «indipendenti» e, in una certa misura, anche il perseguire una «scienza sicura». Il problema principale del modello di demarcazione è che esso non è più funzionale se non nei casi di corruzione. La filosofia della scienza post-empirista ha dimostrato che, in generale, è impossibile avere una separazione netta tra fatti e valori, proprio a causa delle proprietà emergenti dei sistemi, come la complessità e l’indeterminazione. In concreto, quando la situazione presenta un alto livello di polarizzazione e il conflitto è evidente, è molto difficile ottenere una separazione chiara tra valutazione e gestione del rischio. Dunque, come si decide (e chi decide) che cosa rientra nel dominio dei fatti e che cosa nel dominio dei valori? Gli stakeholders possono essere esperti (per esempio gli agricoltori o i pescatori) e gli esperti possono essere stakeholders (per esempio gli scienziati imprenditori). Ciò non implica ovviamente che gli esperti siano sempre condizionati, corrotti o soggettivi; implica soltanto che l’ideale degli scienziati isolati che hanno accesso alla «visione divina» non è realistico e, probabilmente, neppure desiderabile. Il modello di partecipazione estesa: operare deliberatamente dentro l’imperfezione I modelli alternativi sopra descritti possono essere considerati un’evoluzione del modello moderno iniziale, che assume la perfetta efficacia della scienza nei processi decisionali. Per quanto riguarda i modelli di precauzione, mirato e di demarcazione, le imperfezioni possono essere viste in una progressione che via via comprende l’incompletezza, l’uso sbagliato e l’abuso (della scienza). Resta comunque invariato il desiderio che tra scienza e politica venga mantenuto un legame diretto e non mediato. Rispettivamente, i tre modelli affrontano le sfide lanciate dall’incertezza e dalla complessità, lasciando aperta la possibilità che il principio di precauzione modifichi la strategia politica, prevedendo l’inclusione degli stakeholders nella definizione dei fattori che entra66 *02.Biotecnocrazia 28-06-2007 9:02 Pagina 67 Modelli di scienza e politica no nei processi decisionali e proteggendo gli scienziati dalle interferenze politiche. Tuttavia, la sostanza del modello moderno – la (il desiderio di) verità degli esperti che parla al (bisogno di) potere dei politici – non cambia. Nel seguito vengono dunque discussi la legittimità di questa «sostanza» e il modello alternativo che nasce da tale critica: il modello di partecipazione estesa. Le idee alla base del modello sono quelle sviluppate in precedenza da Funtowicz e Ravetz (2) nei loro scritti sulla scienza postnormale. Quando un problema di policy è complesso, i rischi legati alle decisioni sono alti e i fatti sono incerti e/o controversi, gli scienziati possono ancora sforzarsi di raggiungere la verità, ma le molte «verità» dei sistemi su cui bisogna decidere sono semplicemente sconosciute e, in ogni caso, non disponibili nei tempi canonici richiesti dalle decisioni. Ciò non implica che la conoscenza scientifica sia irrilevante, significa tuttavia che la verità non è mai un aspetto cruciale della questione: «Per essere sicuro, il buon lavoro scientifico ha un prodotto che nelle intenzioni dei suoi autori dovrebbe corrispondere il più possibile alla natura ed essere di conoscenza pubblica. Ma i giudizi operanti sul prodotto riguardano la sua qualità e non la sua verità logica» (15). L’enfatizzare o meno una certa affermazione di un esperto è un modo di valutare e assicurare la sua qualità. In alcuni casi, e in una certa misura, è ammissibile semplificare le cose dividendo questo problema di «certificazione di qualità» in due parti: una componente interna e una componente esterna. La componente interna corrisponde al sistema di valutazione tra pari (peer review) della scienza accademica: uno scienziato valuta fino a che punto il lavoro scientifico di un collega sia stato condotto secondo gli standard metodologici della disciplina. La componente esterna corrisponde invece a una valutazione della rilevanza politica. In questo modo la questione della qualità dell’affermazione verrebbe ripartita tra componenti che ne considerano i fatti e componenti che ne considerano i valori. Tuttavia, come è stato detto sopra (con riferimento ai limiti dei modelli mirato e di demarcazione), tale semplificazione sarebbe spesso inammissibile. Dal punto di vista epistemologico, una tale divisione rende invisibile la rilevanza del valore politico di una miriade di scelte metodologiche operate nel lavoro scientifico (svuotare di valore i 67 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 68 Silvio Funtowicz fatti), come pure la rilevanza dell’informazione scientifica nei processi di governance. Dal punto di vista sociologico, la semplificazione presuppone una chiara divisione tra scienziati – disinteressati e disposti all’autocritica all’interno di un sistema accademico mertoniano – e la società civile cui, implicitamente, non possono essere riconosciute competenze critiche. La ricerca spinta dalla curiosità, economicamente disinteressata, sta diventando l’eccezione anziché la regola in un numero crescente di campi di ricerca. L’espansione del mondo della ricerca ha creato preoccupazioni sulla qualità delle sue istituzioni interne preposte a verificare la qualità dell’informazione (ossia il sistema della peer review). D’altra parte, la conoscenza e le capacità critiche della società civile aumentano via via che l’ideologia scientista segna il passo. Inoltre, con lo sviluppo delle Information and communication technologies (ICT), diventa sempre più difficile monopolizzare l’accesso all’informazione tecnica (nonostante i tentativi, da parte del mondo della ricerca più corporativo, di chiudere la propria «società aperta» e trasformarla in un sistema che produce capitale attraverso la proprietà intellettuale). L’implicazione logica di questa situazione è l’estensione della «comunità dei pari» e il definitivo riconoscimento che chiunque può contribuire al processo di certificazione di qualità della scienza: per dirla in altro modo, consentire agli stakeholders di scrutinare con attenzione le metodologie, e agli scienziati di esprimere le loro valutazioni. La concezione del modello di partecipazione estesa è pertanto una concezione fondata sulla democratizzazione, e non solo per «ragioni di democrazia», ma anche per migliorare la certificazione di qualità. Stando a questo modello, i cittadini rivestono il doppio ruolo di critici e creatori nella produzione di nuova conoscenza. Il loro contributo non deve essere trattato con condiscendenza, o bollato con etichette negative, come conoscenza «locale», «empirica», «etica» o «spirituale». Viene accettata una pluralità di prospettive legittime e coordinate (ciascuna con i propri interessi e valori di riferimento). La forza e la rilevanza delle prove scientifiche sono sottoposte alla valutazione dei cittadini. 68 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 69 Modelli di scienza e politica Conclusione La certificazione di qualità può dunque essere vista come un requisito essenziale della scienza post-normale. Definite le incertezze e i rischi legati alle decisioni, assicurare la qualità della scienza significa includere nel processo l’interesse pubblico, i cittadini e le conoscenze vernacolari. In un’epoca in cui la scienza globalizzata domina, questo impegno a rendere gli scienziati affidabili nei confronti dei gruppi interessati costituisce un’alternativa concettuale coerente. La peer review collegiale è dunque trasformata in un processo di valutazione che riguarda una comunità più estesa. Esistono oggi molte iniziative per coinvolgere comunità di persone più ampie nei processi decisionali e nell’implementazione degli obiettivi politici (ambientali, sanitari, ecc.). Per queste nuove tipologie di problemi, la garanzia della qualità scientifica dipende dal dialogo aperto tra tutte le parti in causa. Questo è ciò che definiamo una comunità estesa di pari: non soltanto persone con una qualsivoglia forma di accreditamento istituzionale, ma tutti gli individui che desiderano partecipare alla soluzione di un problema. Poiché questo nuovo contesto della scienza coinvolge la policy, potremmo equiparare questa estensione di diritti ad altre estensioni di diritti del passato, come l’allargamento del voto alle donne o i diritti sindacali. Già oggi vengono create comunità di pari estese, per esempio quando le istituzioni non vedono soluzioni politiche, oppure quando comprendono che senza una larga base di consenso non esiste alcuna possibilità di riuscita. Queste comunità vengono chiamate giurie popolari, focus group, consensus conference o in altri modi; e la loro forma e i loro poteri variano di conseguenza. La caratteristica comune, in ogni caso, è il compito di valutare la qualità delle proposte politiche, compreso il dato scientifico, sulla base della competenza scientifica di cui sono capaci e della loro visione del mondo. Tutti i loro responsi hanno un alto grado di forza morale e costituiscono un significativo contributo alla governance. Queste comunità estese, quindi, non sono necessariamente recettori passivi dei materiali prodotti dagli esperti, ma possiedono o creano esse stesse le loro realtà. Queste possono comprendere la sapienza e le conoscenze della comunità in relazione ai suoi luoghi e alla sua storia, alle testimonianze aneddotiche, alle inchieste locali, al 69 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 70 Silvio Funtowicz giornalismo investigativo e ad altra documentazione. Tali comunità hanno raggiunto nuovi ambiti e conquistato un enorme potere attraverso l’uso di Internet. Gli attivisti disseminati nelle grandi città o nelle foreste pluviali possono usare i loro blog per partecipare ad attività educative reciproche e coordinate, procurandosi autonomamente i mezzi necessari per fare fronte agli interessi globali acquisiti, in forme meno inique rispetto al passato. Questo viene spesso definito un «approccio allargato alla governance»: una missione ormai irrinunciabile nella dinamica relazione tra scienza e società. BIBLIOGRAFIA (1) Wynne B., «Uncertainty and environmental learning: reconcieving science and policy in the preventive paradigm», Global Environmental Change, 2, 1992, pp. 111-127. (2) Funtowicz S.O., Ravetz J.R., «Science for the post normal age», Futures, 25, 1993, pp. 739-755. (3) Nowotny H., Scott P., Gibbons M., Re-thinking science: knowledge and the public in an age of uncertainty, Polity Press, Cambridge 2001. (4) Bush V., Science – The Endless Frontier, Rapporto al Presidente di Vannevar Bush, Direttore del Gabinetto di Ricerca Scientifica e Sviluppo, luglio 1945 (United States Government Printing Office, Washington), http://www.nsf.gov/od/lpa/nsf50/vbush1945.htm. (5) Rees M., Our Final Hour, Basic Books 2003. (6) De Marchi B., «Public participation and risk governance», Science and Public Policy, 30, 3, giugno 2003, pp. 171-176. (7) Weinberg A., «Science and tran-science», Minerva, 10, 1972, pp. 209222. (8) Funtowicz S.O., «Why Knowledge Assessment?», in Vaz S., Pereira A. (eds), Interfaces between Science and Society, EC Joint Research Centre, 2006. (9) Kuhn T., La struttura delle rivoluzioni scientifiche, Einaudi, Torino 1999. (10) UNEP, Rio Declaration on Environment and Development (Dichiarazione di Rio sull’ambiente e lo sviluppo), http://www.unep.org/ Documents.multilingual/Default.asp?DocumentID=78&ArticleID=1 163, 1992. 70 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 71 Modelli di scienza e politica (11) (12) (13) (14) (15) UE, Comunicazione della Commissione sul principio di precauzione (COM 2000, p. 1), Bruxelles 2001. Fisher R.A., The Design of Experiments, 6th edition, Oliver & Boyd, Edinburgh 1951. Gigerenzer G., «Mindless Statistics», The Journal of Socio-Economics, 33, 2004, pp. 587-606. UE, Comunicazione delle Comunità sulla raccolta e l’utilizzazione dei pareri degli esperti da parte della commissione: principio e linee guida (COM 2002, p. 713), Bruxelles 2002. Funtowicz S.O., Ravetz J.R., Uncertainty and Quality in Science for Policy, Kluwer, Dordrecht 1990, pp. 7-16. 71 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 72 L’INEDITO CONFLITTO FRA BIOLOGIA REALE E BIOLOGIA COMUNICATA di Marcello Buiatti* In questo contributo voglio proporre un esame del rapporto tra scienza e verità in biologia, con il proposito di mettere a fuoco le interazioni fra le comunità scientifiche e la società. Il contesto di riferimento è il nostro sistema socio-economico, considerato alla luce dei suoi effetti sulla ricerca, sul senso comune e sul cosiddetto «spirito del tempo» (1). Partirò da una citazione del grande naturalista Charles Darwin, che sembra quanto mai pertinente con il tema centrale di questo testo. Nella sua autobiografia Darwin afferma (2): «Per quanto posso giudicarmi […] sono sempre riuscito a mantenere la mia mente libera in modo da poter abbandonare qualsiasi ipotesi per quanto amata […]. Non mi ricordo di avere formulato mai una ipotesi che poi non abbia abbandonata o profondamente modificata». Questa affermazione permette di introdurre un concetto molto importante, che merita di essere sottolineato anche per lanciare alle giovani generazioni un messaggio molto chiaro ed educativo sul reale significato della scienza. Dal pensiero di Darwin si ricava infatti che nella scienza, e in particolare nelle scienze della vita, non esiste una verità universale. La prova è che in biologia i concetti mutano continuamente e ciò avviene perché la vita è «multiversa». I con- * Genetista, Università degli Studi di Firenze 72 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 73 L’inedito conflitto fra biologia reale e biologia comunicata cetti che si ricavano dalle bioscienze cambiano continuamente in relazione a quale delle molteplici facce della vita stiamo osservando, ed è il clima culturale a indicarci quale. In altre parole, ciò che noi scopriamo dipende in qualche modo dallo «spirito del tempo», vale a dire dal comune sentire della collettività. Questo fatto produce un effetto singolare, che spesso non viene percepito e dunque nemmeno accettato da una parte significativa della comunità scientifica, nel senso che relativizza le singole verità. Le bioscienze producono verità locali e non universali, ma è bene comprendere che in nessun modo questo toglie loro valore. Naturalmente è necessario usare il metodo critico per distinguere le verità dalle falsità, anche se è sempre possibile che una verità appaia sicura (o falsa) in un momento della nostra storia e non in un altro. Lo spirito del tempo, chiaramente, è cambiato parallelamente alla trasformazione della nostra specie, che è avvenuta più su base culturale che genetica. Questo è dimostrato dal fatto che la variabilità genetica fra gli individui di Homo sapiens è estremamente ristretta se confrontata, per esempio, con quella dei nostri cugini filogenetici bonobo, scimpanzé e gorilla (si noti che questi altri primati sono molto meno numerosi di noi e, anche se avessero una frequenza di variazione uguale alla nostra, dovrebbero possedere meno variabilità). Se da un lato la variabilità genetica umana è bassa, dall’altro quella culturale è altissima, come testimoniato dal fatto che, nonostante i molti linguaggi estinti o in pericolo di estinzione, stime recenti (3) confermano che al mondo si parlano ancora quasi 7.000 lingue. Quindi l’evoluzione e gli adattamenti dell’uomo sono essenzialmente dovuti alla presenza nella nostra specie di un «serbatoio» formidabile di informazione. Un serbatoio ben più «capiente» del DNA, che si identifica con il cervello. Tanto per fornire qualche dato, mentre nel nostro genoma vi sono solo 23.000 geni, la nostra corteccia cerebrale contiene 100 miliardi di neuroni, che a loro volta possono organizzarsi in un milione di miliardi di sinapsi. Alla nascita le sinapsi sono dotate di un’architettura pressoché casuale, ma si organizzano durante la vita sulla base dei segnali che provengono dall’ambiente esterno, modificando continuamente anche l’organizzazione del cervello. Per questa ragione il cervello umano può essere considerato il più efficiente «generatore di variabilità» che sia mai esistito, dal momento che offre infi73 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 74 Marcello Buiatti nite possibilità di pensiero, di elaborazione e di invenzione individuali e collettive, senza contare che nel corso della storia ha prodotto uno spettro infinito di culture. L’evoluzione culturale di Homo sapiens dura da molto tempo, e almeno per un certo periodo è proceduta in parallelo a quella dell’ominide probabilmente più vicino alla nostra specie, l’uomo di Neanderthal. Molto presto (circa 200.000 anni fa) il genere umano ha cominciato a creare strumenti, sia pur molto rozzi, quando ancora il sistema di vita era fondato sul nomadismo e l’approvvigionamento alimentare si limitava alla raccolta e alla caccia, mentre l’esigenza ecologica principale era la ricerca di un habitat favorevole (come d’altra parte accade nel resto del mondo animale). Con il tempo la capacità umana di modificare il mondo naturale è aumentata, e con essa anche la creatività e la capacità di astrazione, che hanno indotto passi importantissimi dell’evoluzione culturale, come per esempio le prime pitture e sculture. Del resto un artista che cosa fa? Un artista vede un oggetto, lo elabora attraverso le strutture cerebrali e ne modifica l’immagine per poi proiettarla su materia inerte (pietra, tela o altri materiali). Questo processo è, se si vuole, molto simile alla progettazione di una macchina e alla sua costruzione. Anche in questo caso, finché il progetto resta nel cervello è «vivo», nel senso che può cambiare; dopodiché, una volta proiettato e reificato sulla materia esterna, quello stesso progetto «muore». Nel caso della pittura preistorica, per esempio, l’oggetto poteva essere un bufalo o un mammuth, ossia un animale la cui immagine nel cervello umano era ancora viva e variabile, mentre quella proiettata all’esterno attraverso la pittura diventava un’immagine morta, vale a dire non più modificabile se non mediante ulteriori interventi umani. Dipingere dunque è già una modificazione di qualcosa secondo un progetto, ossia una caratteristica tipicamente umana. Va precisato che in realtà esistono anche altri animali in grado di costruire utensili rudimentali, tuttavia i loro manufatti denotano una creatività stereotipata, in cui cioè i margini dell’inventiva sono visibilmente più rigidi e limitati rispetto alla creatività umana. Alla fine del lungo processo storico che ha portato la nostra specie a manipolare la materia inerte assecondando progetti creativi via via più elaborati, gli uomini hanno cominciato a scambiarsi i prodotti e a venderli, usando la moneta per rendere più facili gli scam74 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 75 L’inedito conflitto fra biologia reale e biologia comunicata bi di materia. E oggi il nostro modo di agire è ulteriormente cambiato, perché oltre a scambiare moneta con oggetti tendiamo sempre più a scambiare moneta con moneta, come avviene nelle transazioni finanziarie, in borsa, ecc. Tanto che, com’è noto, solo il 10-12% degli scambi in moneta sono coperti da materia, ovvero da materiale da vendere e comprare (4). In altre parole, siamo passati dalla produzione degli oggetti alla loro adorazione, per poi arrivare a idolatrare la stessa moneta. In questo processo, gli oggetti sono lentamente scomparsi, e anche la materia è via via scomparsa dalla nostra prospettiva. Persino noi stessi cominciamo ad avere forti dubbi sulla nostra materialità. Il risultato è che la nostra vita sta diventando sempre più virtuale, il che ci spinge a cercare sempre meno di capire la vita vera, fatta di materia viva, di carne, di sangue. Una parte molto importante di tutti questi processi, e della nostra evoluzione culturale in genere, è stata ed è tuttora giocata dall’acquisizione di conoscenze costruite dapprima con la sola osservazione, e in una fase successiva con il modo di procedere tipico della scienza. Questo modo di procedere prevede, oltre all’osservazione, anche il ragionamento deduttivo, che nella ricerca delle spiegazioni dei fenomeni naturali consta della formulazione di ipotesi che devono essere verificate (nel gergo di Karl Popper «falsificate») con esperimenti appositi, per poter essere tradotte in conclusioni, eventualmente in teorie, e in conoscenze diffuse. Quest’ultima fase è la più importante, perché è quella che, grazie ai processi di socializzazione e diffusione delle conoscenze, consente la formazione di una cultura, nonché la progettazione e la costruzione di nuovi oggetti e strumenti. La storia e l’evoluzione delle scienze infatti sono parte dell’evoluzione culturale umana, inoltre mantengono con essa un rapporto di reciprocità, nel senso che si influenzano l’una con l’altra. Questo vale per tutte le discipline scientifiche ma in particolare per la biologia, che per molte ragioni è una scienza un po’ singolare. Infatti noi siamo esseri viventi, e gli esseri viventi rappresentano l’interesse centrale della biologia, il che significa che di fatto noi biologi studiamo noi stessi. Siamo insieme osservatori e osservati, e quindi ciò che scopriamo sulla vita ha immediatamente un riflesso non solo sulla concezione collettiva della vita ma anche sulla concezione collettiva dell’umanità. A ben vedere, si tratta di un meccanismo 75 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 76 Marcello Buiatti ovvio, dal momento che noi biologi da un lato contribuiamo (soprattutto in quest’epoca) a plasmare il pensiero della società, e dall’altro siamo influenzati da ciò che la società ci chiede di studiare e scoprire. Qui occorre un chiarimento che sgomberi il campo dagli equivoci: non è che la società – che in media è costituita da persone che hanno scarsa familiarità con le bioscienze – fornisca indicazioni sui fenomeni specifici da indagare attraverso la ricerca scientifica. La società in realtà produce un condizionamento più sottile, ma al tempo stesso molto efficace, per il quale gli scienziati si sentono più o meno consciamente sollecitati a studiare alcuni aspetti della vita piuttosto che altri, e a produrre alcune conoscenze piuttosto che altre. Personalmente, per esempio, avverto in maniera molto nitida la pressione che la società odierna esercita indirettamente su tutti gli studiosi di genetica affinché si scopra il gene di questa o di quella malattia, il gene dell’intelligenza, o magari il gene dell’immortalità, e via di questo passo. E i genetisti, che come tutti gli esseri umani sono gratificati dai riconoscimenti e dalle approvazioni provenienti dalla società, sono sempre più portati a cercare il «gene per», ammettendo implicitamente che in biologia debba esistere un gene per qualsiasi cosa. In altri termini, si accetta che la ricerca scientifica sia guidata da presupposti che non discendono dalle conoscenze scientifiche disponibili ma da speranze collettive che non hanno riscontro scientifico. Inevitabilmente, quindi, la ricerca diventa una ricerca mirata e chiusa alle altre possibilità di scoperta e alle linee di indagine alternative a quelle sul «gene per». In questo modo si andrà alla ricerca di singoli «geni per» e si avallerà il disinteresse per altre strade esplorative, per esempio il comprendere come i geni funzionano, come interagiscono con i fattori ambientali, che ruolo svolgono nelle reti di regolazione genica, che tipo di interazioni li legano (per es., additive o non additive), ecc. Questo modo di concepire la biologia è abbastanza recente, e senza dubbio posteriore a Darwin. Del resto Darwin era un naturalista vero e non un biologo, e come tale poteva vantare una grande capacità di osservare gli esseri viventi «completi», dei quali scrutava i diversi piani organizzativi che in ogni organismo coesistono e interagiscono. Egli non era interessato, come i fisici e i chimici del suo tempo, alla conoscenza degli esseri viventi ottenuta attraverso l’analisi frammentaria della loro struttura, procedendo cioè per scompo76 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 77 L’inedito conflitto fra biologia reale e biologia comunicata sizione progressiva delle singole parti, con l’obiettivo di ricomporre una conoscenza unitaria per semplice somma di nozioni parziali. In questo Darwin, da grande innovatore qual era, aveva una visione molto lontana da quella di Gregorio Mendel, fondatore della genetica e padre della «riduzione» moderna dell’unità degli esseri viventi. Mendel era un fisico che viveva a Brno (in Moravia), una delle prime città a sperimentare la Rivoluzione industriale. Egli aveva studiato a Vienna e conosceva bene la matematica, in particolare il calcolo delle probabilità. I suoi amici, buona parte dei quali lavorava nel settore dell’allevamento ovino, erano interessati a trovare un modo per selezionare pecore che producessero più lana. Da buon fisico, dunque, egli si sentì investito dell’impegno di trovare le «leggi» dell’ereditarietà su cui impostare un programma che oggi definiremmo di «miglioramento zootecnico», basato su leggi matematiche, usando il cosiddetto principio del «rasoio di Occam» (assunto secondo il quale, nella scienza, la soluzione di un problema che ha la massima probabilità di essere vera è quella più semplice). Questo principio però, come si è visto, in biologia non funziona, perché con la materia vivente le soluzioni alle nostre domande sono complesse. Nei suoi esperimenti Mendel interpretò alla lettera il principio di Occam, in accordo con la visione industrialista e meccanicista dell’epoca, e per semplificare il modello biologico che aveva deciso di studiare (la pianta di pisello) lo assimilò di fatto a una macchina vera e propria. In sostanza, usò il cosiddetto metodo riduzionista, che consiste appunto nel ridurre un intero sistema alle caratteristiche dei suoi componenti. Fu così che Mendel, per scoprire le leggi matematiche dell’ereditarietà e svelarne i misteri, scelse di analizzare, dei suoi modelli biologici, singoli tratti discontinui e alternativi, vale a dire caratteri facilmente distinguibili come i colori bianco e nero, o bianco e rosso, ecc. In questo modo si propose di calcolare i rapporti numerici relativi in cui compaiono le diverse forme di ciascun carattere a ogni nuova generazione, per estrapolarne infine una legge matematica. Compiuta la scelta dei caratteri e calcolati i rapporti relativi, Mendel elaborò effettivamente alcune semplici leggi probabilistiche di cui tuttavia non poté dimostrare l’universalità (come avrebbe voluto), perché sviato dal noto botanico Carl von Nägeli che, nella scelta di un altro modello vegetale, gli propose di utilizzare una specie priva 77 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 78 Marcello Buiatti di meccanismi sessuali di riproduzione. Tuttavia, in una fase molto successiva, le leggi di Mendel che per lungo tempo erano state dimenticate dai naturalisti furono riscoperte all’improvviso e in modo indipendente da tre ricercatori che ne decretarono di fatto l’universalità. Dei tre riscopritori fu soprattutto Hugo de Vries a trarre dalle leggi mendeliane una serie di concetti che in seguito furono considerati tra i principi basilari della genetica. Come si è detto, Mendel aveva studiato di proposito singoli geni rappresentati da alleli «discontinui» che assortivano a caso nelle diverse generazioni. Dunque, discontinuità, indipendenza e casualità di assortimento sono stati assunti come comportamenti generali di tutti i geni; in modo analogo, l’idea che a ogni allele corrispondesse sempre una stessa versione del carattere è stata elevata a legge universale. Così, anche dopo de Vries, la concezione dell’ereditarietà è stata subordinata al «determinismo stocastico», e cioè a una visione dei geni intesi come fattori condizionati dall’assortimento casuale e al tempo stesso operanti in modo assolutamente deterministico. Risulta chiaro che la scelta del metodo riduzionista da parte di Mendel, coerente con lo spirito del suo tempo, ha portato a scoprire un lato apparentemente «meccanico» della vita, le cui caratteristiche hanno continuato a dominare lo scenario concettuale fino a oggi, benché si sappia da lungo tempo che il comportamento «mendeliano» dei geni è in realtà caratteristico soltanto di una quota minoritaria e non della maggioranza dei geni. È possibile che il disinteresse per le leggi di Mendel nel 1865, epoca della loro pubblicazione, fosse dovuto allo spirito del tempo di quegli anni, ossia a una cultura non ancora matura per una concezione della vita improntata al determinismo stocastico, e che invece la loro riscoperta all’inizio del Novecento derivasse dal sentire comune prevalente in tempi in cui la «macchinizzazione» della vita era in piena evoluzione. Ciò è dimostrato dal fatto che improvvisamente, nella scienza ma anche nelle arti, ha preso piede la ricerca sui fenomeni discreti. A tale riguardo si possono citare gli studi di Max Planck e della teoria dei quanti in fisica, di Henri Lebesgue in matematica, di Arnold Schönberg nella musica, con la sua rottura delle regole tradizionali dell’armonia, di Georges Seurat (e della sua scuola) con la suddivisione dell’immagine in elementi discreti, fino ad arrivare ai futuristi italiani con la scomposizione del movimento, la 78 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 79 L’inedito conflitto fra biologia reale e biologia comunicata rottura dell’armonia poetica e la teorizzazione e l’apologia della civiltà delle macchine. Evidentemente all’inizio del secolo scorso lo spirito del tempo era assolutamente maturo per i concetti mendeliani, che infatti furono poi applicati all’evoluzione biologica semplicemente estendendo le leggi elaborate dal monaco moravo a tutti i geni presenti in popolazioni di individui della stessa specie. Nacque così la genetica di popolazioni, vale a dire quella commistione di concetti biologici che portò al cosiddetto «neodarwinismo» o, secondo la definizione più corretta fornita da Julian Huxley, alla «sintesi moderna dell’evoluzione», che non andrebbe mai confusa con il pensiero originale di Charles Darwin. Secondo questo «corpus teorico», l’evoluzione avviene: per selezione naturale (la necessità, ovvero l’effetto deterministico dell’ambiente), o per mutazione e deriva genetica (il caso, ovvero l’errore di campionamento degli alleli), con una dicotomia totale fra il primo e il secondo fattore. È lecito parlare di «corpus teorico» e non di teoria vera e propria perché il neodarwinismo ha avuto diramazioni concettuali molto diversificate, e al suo interno si sono scontrate quelle che un tempo venivano considerate posizioni eretiche – per esempio la teoria di Richard Lewontin, che considerava importante l’interazione non additiva degli alleli – e posizioni tradizionaliste – come quella di Ronald Aylmer Fisher, che era un forte sostenitore del determinismo genetico, anche perché gli permetteva di giustificare il razzismo. È evidente che se le nostre vite e i nostri comportamenti fossero del tutto determinati dai geni, e se il termine razza avesse un significato genetico – entrambe credenze tanto diffuse quanto scientificamente infondate –, l’essere ebreo, o nero africano, o bianco ariano sarebbero tutte caratteristiche determinate geneticamente. Procedendo di qualche passo con questa visione, se qualcuno decidesse che i geni buoni sono quelli degli ariani e quelli cattivi sono quelli degli ebrei, degli africani, ecc., il «miglioramento» della specie umana sarebbe facilmente ottenibile eliminando i portatori di geni cattivi e privilegiando i portatori di geni buoni: tentativi che nella storia umana sono stati messi in atto svariate volte, e che anche oggi purtroppo sono tutt’altro che rari. In precedenza si è detto dell’importanza della diffusione sociale delle conoscenze scientifiche per ribadire quanto sia reciproca l’in79 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 80 Marcello Buiatti terazione fra società e bioscienze. Questo aspetto è davvero essenziale, non solo per capire come lo spirito del tempo influisca sulle scelte della scienza («quale faccia della realtà guardare»), ma anche per cogliere il processo inverso, ovvero per comprendere come i concetti della scienza esercitino un forte impatto sul comune sentire. Il coronamento del modello concettuale della sintesi moderna è certamente incarnato dal «dogma centrale» della genetica molecolare, che fu enunciato da Francis Crick, uno dei due scopritori della struttura del DNA. Si noti che il termine «dogma» è tutt’altro che casuale, perché afferma in modo apodittico che le nostre storie di vita sono interamente «scritte» nel DNA. Per la maggioranza della comunità scientifica, il dogma centrale è rimasto tale fino a pochissimo tempo fa, nonostante i dati scientifici «eretici» si stessero accumulando da molti anni. Con l’inizio del terzo millennio, tuttavia, ha preso piede una vera e propria rivoluzione scientifica che sta cambiando radicalmente la nostra visione degli esseri viventi. Per la prima volta nella storia delle scienze della vita, tuttavia, i nuovi concetti non sono coerenti con lo spirito del tempo, che è invece rimasto ancorato al vecchio dogma centrale. E il paradosso sta nel fatto che le evidenze biologiche più avanzate sono figlie proprio dell’uso delle potenti macchine che vengono impiegate per l’analisi dei genomi. Negli ultimi anni si è scoperto non solo che il DNA del genoma umano è costituito solo per l’1,5% di geni, ma anche che gran parte del DNA rimanente svolge un ruolo attivo nella regolazione del funzionamento di questi geni. A cadenza pressoché quotidiana, le riviste scientifiche pubblicano articoli che svelano le importanti funzioni proprio di quella parte del DNA, che gli scienziati chiamavano «DNA spazzatura». Si è anche visto che l’informazione necessaria alla sintesi delle oltre 100.000 proteine del nostro organismo risiede in soli 23.000 geni. Questo concetto è molto importante, perché evidenzia il ruolo delle proteine come strumenti di «costruzione biologica», e perché indica che i geni sono dotati di ambiguità, cioè hanno più di un «senso» e quindi permettono la sintesi di più di una proteina. Alcuni geni presiedono addirittura alla produzione di 30.00040.000 diverse proteine, naturalmente non tutte insieme ma in tempi e tessuti diversi. Ci si potrebbe allora domandare: perché le cose funzionano in questo modo? La risposta sta nel nostro ormai accertato bisogno di cambiare 80 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 81 L’inedito conflitto fra biologia reale e biologia comunicata continuamente nel corso della vita, concetto inverso a quello contenuto nel dogma centrale. Il dogma infatti ci diceva che siamo dotati di un solo programma non modificabile. E sull’onda di quella credenza ancora oggi i mezzi dell’informazione affermano che «ciò che siamo e che saremo è nel nostro programma», senza purtroppo cogliere il senso fuorviante dell’affermazione. Se le cose stessero in questo modo, infatti, tutti gli organismi (uomo compreso) sarebbero macchine, perché soltanto le macchine possiedono un unico vero programma (sviluppato da chi le ha costruite). E le macchine non sono vive. Noi invece viviamo perché cambiamo continuamente. Lo stesso cervello così complesso di cui disponiamo si modifica mentre comunichiamo l’uno con l’altro, perché la comunicazione cambia l’organizzazione delle sinapsi. Tale possibilità di cambiamento è legata alla nostra dotazione di una grande quantità di strumenti biologici che l’organismo può usare differentemente a seconda delle esigenze. La scelta degli strumenti da usare dipende dai segnali che arrivano all’organismo, sicché il «programma» cambia per interazione fra il suo ambiente interno e il suo ambiente esterno. Per questa ragione ognuno di noi ha un suo personale e imprevedibile percorso di vita, che viene determinato dai segnali che riceve – ovviamente nell’ambito della gamma dei percorsi potenziali che possiede – e limitato dal numero di strumenti che ha a disposizione. Il risultato è che con pochi geni si possono fare molte cose diverse, e ciò non solo perché i geni sono ambigui. Singole proteine, infatti, pur mantenendo la stessa composizione e sequenza, possono assolvere varie funzioni assumendo conformazioni differenti: in biologia forma diversa vuol dire funzione diversa. Uno degli innumerevoli esempi di questo fenomeno è dato dalla proteina che provoca la sindrome della mucca pazza. Quando questa proteina ha una conformazione normale svolge una funzione essenziale per i neuroni, mentre quando ne ha un’altra diventa dannosa. Ciò dimostra che gli esseri viventi sono in realtà dotati di una forte versatilità di strumenti biologici, anche se i diversi gruppi tassonomici hanno diverse strategie adattative. Per esempio, i batteri sfruttano la loro spiccata capacità di cambiare il proprio genoma; animali e piante dispongono degli strumenti già citati, ma possiedono anche la capacità di modulare finemente l’espressione genica e il funzionamento delle proteine dal punto di vista quantitativo. Quan81 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 82 Marcello Buiatti to all’uomo, oltre a possedere gli stessi generatori di variabilità presenti nel mondo animale, egli usa anche il cervello che, come si è detto all’inizio di questo intervento, è capace di immagazzinare una quantità di informazione infinitamente superiore a quella posseduta dal DNA. Il principale substrato biologico del nostro adattamento è quindi il cervello, e i suoi prodotti sono le culture che costituiscono la nostra vera ricchezza. Un grande problema di oggi è proprio che stiamo distruggendo queste culture. A tale proposito è interessante notare che la distribuzione planetaria della diversità linguistica e culturale ricalca fedelmente la distribuzione della diversità dell’agricoltura, intesa come variabilità genetica delle piante coltivate e degli animali allevati. Questo si verifica perché l’uomo ha selezionato, ambiente per ambiente, piante diverse. La variabilità genetica delle piante quindi non è altro che un sottoprodotto della variabilità delle nostre culture. Purtroppo la nostra smania di «ottimizzare» il mondo in cui viviamo si traduce in un’azione di omogenizzazione: in un colpo solo stiamo distruggendo culture, colture e razze, senza renderci conto che così distruggiamo la nostra ricchezza più autentica e rinunciamo alla nostra maggiore fonte di adattamento. Crediamo ancora che il nostro obiettivo sia la produzione di una macchina gigantesca, ossia un mondo tutto uguale. Questi, tra l’altro, sono gli stereotipi sociali, il modo di pensare e la cultura scientifica che vengono cavalcati dai mass media, ma sarebbe sbagliato attribuirne tutta la colpa ai giornalisti. Il punto è che la comunità scientifica e la società nel suo complesso si rifiutano di entrare nella nuova concezione della vita. Le informazioni e le testimonianze della rivoluzione biologica in atto, e ovviamente le loro conseguenze, non vengono diffuse nella cultura di massa. Gli stessi biologi impegnati nelle attività di ricerca spesso lavorano ciascuno guardando a una porzione infinitesimale del mondo naturale (spesso seguendo il metodo di Mendel), nell’illusione di trovare leggi universali. Essi non riescono a mettere insieme i dati e i concetti innovativi che provengono dalla ricerca biologica più avanzata, e in questo si comportano in modo coerente con il resto della società: una società sempre più impedita nel tracciare i collegamenti necessari a modificare la sua prospettiva culturale. In altre parole una società la cui rigidità «mentale» fa il paio con il rigidissimo spirito del tempo di quest’epoca. 82 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 83 L’inedito conflitto fra biologia reale e biologia comunicata Naturalmente, dietro a tutto questo non si nasconde il disegno malvagio di un essere invisibile, ma una forma di inerzia collettiva che da un lato ostacola il cambiamento e dall’altro è perfettamente funzionale alla realizzazione di interessi molto concreti. Sul tipo di informazione scientifica che passa attraverso i mass media, si potrebbero elencare infiniti esempi di notizie sbagliate o distorte che certamente non contribuiscono a migliorare la conoscenza scientifica all’interno della società. Per necessità di sintesi, si considerino qui i seguenti titoli pubblicati dai principali quotidiani nazionali in materia di ricerca sui tumori: «Scoperto da un italiano in USA il fattore scatenante dei tumori». «Tumori, ecco la proteina Pokemon, chiave per lo sviluppo del cancro». «Due italiani svelano i segreti del gene che blocca il cancro». «Gli scienziati italiani scoprono ‘Sumo’, la proteina anticancro che vigila sul DNA». Ora, tutti i biologi e i medici avveduti sanno bene due cose: primo, che la cancerogenesi è controllata da un numero importante di geni; secondo, che lo sviluppo dei tumori dipende dalla storia di vita degli individui. Sui giornali, però, il fattore che scatena il tumore (o che ci protegge da esso) è sempre uno soltanto, anche se sempre diverso. Il linguaggio è regolarmente dominato da toni sensazionalistici e l’immagine che viene proposta è quella di una scienza che sta per fare la scoperta definitiva, o che l’ha già fatta. Il concetto di base è comunque sempre il solito: sarà la scienza di per se stessa che salverà il mondo dalla malattia. Gli scienziati vengono presentati a volte come maghi buoni, altre volte come maghi perfidi, ma sempre come esseri onnipotenti e autosufficienti, mai come esseri umani che nel loro mestiere sbagliano continuamente perché è proprio sbagliando che si impara (come sosteneva il buon Darwin nella citazione riportata all’inizio di questo scritto). Ma le cose rasentano il ridicolo quando si entra nel merito dei comportamenti umani. Si veda la spiegazione biologica dell’infedeltà coniugale fornita dall’antropologo Desmond Morris: «La donna che ha sposato un uomo brillante si rassegni. Probabilmente verrà tradita. La colpa non è sua ma del DNA». L’infedeltà del maschio, si intenda bene, è nei suoi geni, che hanno mantenuto le tracce di quel cacciatore-raccoglitore preistorico che ha assicurato la 83 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 84 Marcello Buiatti sopravvivenza alla specie. Non ci si deve sorprendere del fatto che Albert Einstein abbia avuto molte amanti nel corso della sua vita, scrive Morris. «La verità è che lui, come tanti uomini estremamente creativi, era dotato di una generosa dose di una delle qualità più caratteristiche del maschio: l’amore per il rischio. È questa passione che porta all’innovazione, alla scoperta, all’invenzione. È l’ingrediente base della genialità». Un altro articolo, però, capovolge la situazione dipinta da Morris, grazie ai risultati di uno studio realizzato in Gran Bretagna, secondo cui la tendenza di alcune donne all’infedeltà sarebbe ereditaria, con circa un quarto delle donne britanniche dotate di una caratteristica genetica responsabile del tradimento. Lo studio, purtroppo, non avrebbe consentito di identificare il gene responsabile del comportamento sotto esame… ma tant’è! Apprezzabile, se non altro, l’equanimità di queste «genetiche dell’adulterio», indicanti che l’infedeltà sarebbe equamente ripartita fra uomini (purché geniali) e donne. Ma il supposto strapotere dei geni viene esteso anche al senso di giustizia, con un titolo inequivocabile: «Il senso della giustizia è nel DNA, lo possiedono anche le scimmie». Grazie ai geni, dunque, le scimmie possiedono un senso innato per la giustizia, tanto che un trattamento iniquo può spingerle nientemeno che a «scioperare». In questa rassegna non poteva mancare naturalmente un accenno all’ereditarietà «razziale» di una caratteristica negativa: l’aggressività. E se il titolo dell’articolo recita «I Maori hanno il gene da guerrieri», l’approfondimento non è da meno, sostenendo che i geni stabiliscono «la tendenza ad essere più aggressivi e violenti e più inclini a comportamenti a rischio, come per esempio il gioco d’azzardo». Sul piano biochimico, il fattore scatenante sarebbe un enzima, la monoammino ossidasi, evidentemente un fattore decisivo nello stabilire il livello di aggressività degli individui. Questi esempi di informazione scientifica italiana (si tratta di casi tratti dai quotidiani più diffusi) lasciano attoniti. Ma l’aspetto che fa maggiormente riflettere è che la concezione che essi esprimono coincide con le convinzioni di molti ingegneri genetici, quando essi affermano che animali e piante possono essere modificati per inserimento nel loro genoma di un gene estraneo, eventualmente proveniente da un organismo anche molto lontano biologicamente, senza alcuna 84 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 85 L’inedito conflitto fra biologia reale e biologia comunicata possibilità di effetti imprevisti. Questa stravagante convinzione è ben testimoniata da quanto si legge in una presentazione reperibile in rete ad opera di un noto genetista italiano (Prof. F. Sala): «Un frammento di DNA può essere trasferito da qualsiasi organismo a qualsiasi altro organismo. Il gene si integra nel DNA dell’organismo ricevente e diviene parte integrante di questo. Perché è possibile? Perché il codice genetico è universale». La biologia di oggi in realtà ci permette di dire che le cose vanno molto diversamente, come documentato da un’ampia letteratura scientifica. Uno dei tanti esperimenti che hanno dimostrato la presenza di modificazioni imprevedibili a seguito di trasformazione genetica è stato compiuto proprio nel nostro laboratorio all’Università di Firenze. Nel nostro studio abbiamo provato a inserire nelle piante un gene che opera all’interno del sistema ormonale di ratto, ipotizzando che non avrebbe provocato effetti collaterali (data la diversa organizzazione metabolica dei due organismi). Il risultato è stato invece che tutta la morfo-fisiologia delle piante geneticamente modificate che abbiamo ottenuto ne è stata alterata. Un effetto talmente drastico da rendere le piante trasformate irriconoscibili rispetto alle piante di controllo. Ebbene, fra le tante conclusioni che il nostro esperimento ha permesso di formulare, c’è la conferma dell’importanza del principio di precauzione che deve accompagnare qualsiasi decisione relativa all’impiego di piante transgeniche. L’autore della citazione riportata poco sopra, invece, sostiene: «Smettiamo di pretendere che le piante geneticamente modificate siano assolutamente esenti da rischi e accettiamole se il rapporto rischi/benefici va bene». Purtroppo si tratta di una mentalità alquanto diffusa anche in seno all’Agenzia europea per la sicurezza alimentare, che dovrebbe farsi carico di valutare in modo rigoroso i rischi derivanti dall’uso di piante geneticamente modificate in agricoltura. In un certo senso, anche questa istituzione risente dello «spirito del tempo» e in genere non tiene conto di tutti i possibili rischi connessi con le innovazioni tecnologiche verso cui è chiamata ad esercitare un rigido controllo. Si aggiunga che gli OGM, oltre a essere sostenuti con politiche di dumping, comportano anche un pesante rischio sociale perché sono spesso associati all’imposizione di pratiche agricole insostenibili e di varietà vegetali non adatte agli ambienti in cui saranno coltivate, con 85 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 86 Marcello Buiatti conseguente riduzione della biodiversità e danni per le agricolture locali. Un esempio è rappresentato dalla distruzione della foresta amazzonica in Brasile a causa della coltivazione di soia transgenica, prodotto che non è destinato al consumo da parte dei brasiliani e che viene ottenuto grazie allo sfruttamento di manodopera a basso costo, per poi essere esportato come mangime per gli allevamenti del Nord del mondo. Gli OGM possono essere considerati un simbolo del processo di virtualizzazione della realtà che è in corso in questi anni. La realtà virtuale degli OGM è infatti quella presentata quando lo «stato vivente della materia» viene paragonato in tutto e per tutto a quello non vivente, e in particolare alle macchine prodotte dagli esseri umani. Gli OGM vengono dipinti come macchine perfette e dal comportamento prevedibile mentre sono quanto di più rozzo e imprevedibile si possa concepire nella scienza, propagandati come il prodotto della conoscenza più avanzata mentre sono il retaggio di nozioni e concetti di vent’anni fa, e infine commercializzati con la promessa che sfameranno il mondo mentre sono strumenti in mano a chi crea squilibri sociali e contribuisce ad esacerbare la piaga della fame. Il marketing fa pensare che queste «fantastiche macchine viventi» siano numerosissime e abbiano un futuro splendente, mentre in commercio esistono sostanzialmente piante modificate per due soli caratteri: un fallimento totale sia dal punto di vista scientifico sia dal punto di vista dello sviluppo tecnologico. Se si paragonano le rese unitarie di soia e mais negli Stati Uniti prima del 1996, quando gli OGM ancora non si utilizzavano, con le rese degli ultimi anni, in cui gran parte di queste due colture è stata geneticamente modificata, si nota che la soia produce meno di prima, mentre il mais mostra un lieve aumento ma non così rapido come quello che si è verificato in passato con le tecniche di miglioramento tradizionale. Lo spirito del tempo fa sì che ancora oggi, nonostante le denunce e le obiezioni provenienti dalla parte più illuminata del mondo scientifico, gli OGM siano visti come il ritrovato tecnologico del futuro. La scienza si allontana sempre più dalla realtà e, cavalcando i miti del controllo e dell’ottimizzazione, si porta su una china pericolosa per il nostro futuro e per il futuro del pianeta. Si tende a credere, e a far credere, che il denaro serva ancora a produrre beni materiali utili (nel senso che aumentano il benessere), ma la verità è che solo il 12% del flusso monetario è coperto da merci. L’unico vero indi86 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 87 L’inedito conflitto fra biologia reale e biologia comunicata catore di benessere è il PIL, un parametro che misura l’entità della circolazione monetaria e aumenta all’aumentare degli investimenti, che però comprendono anche le risorse utilizzate per rimediare alle catastrofi. Così è stato per lo tsunami, per i casi in cui i sistemi sanitari pubblici non funzionano e finanche per le guerre, da sempre poderosissimo motore dell’economia. L’umanità è giunta a una svolta molto critica, e il segnale più forte di tale criticità sembra essere proprio la dicotomia fra scienza e spirito del tempo. Occorre ricomporre questa dicotomia, collegando i nuovi dati della scienza allo spirito del tempo, tornare a pensare che siamo vivi, riprendere la strategia adattativa dell’uomo legata ai problemi reali e basata sulla diversità, abbandonare la difesa perdente della vecchia concezione, comprendere di nuovo il grande valore delle diversità biologiche e culturali. È necessario che da un lato si torni a pensare, e dall’altro si restituisca il giusto peso alla «materia». La ricchezza vera sta nella nostra vita, che non è ripetibile né clonabile, ma da vivere. BIBLIOGRAFIA (1) Cini M., Il Paradiso perduto: dall’universo delle leggi naturali al mondo dei processi evolutivi, Feltrinelli, Milano 1994. (2) Darwin Ch., Autobiography and selected letters, Appleton & Co., New York 1892. (3) www.terralingua.org, 2005. (4) Sachs W., Ambiente e giustizia sociale: i limiti della globalizzazione, Editori Riuniti, Roma 2002. 87 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 88 UNIONE EUROPEA E OGM: DEMOCRAZIA, PARTECIPAZIONE E INFORMAZIONE NEI PROCESSI DECISIONALI di Matteo Lener* Gli ultimi vent’anni sono stati caratterizzati da nuovi scenari e nuove prospettive applicative dovute all’introduzione di innovazioni tecnico-scientifiche nel campo delle biotecnologie e della genetica, con particolare riferimento allo sviluppo degli Organismi geneticamente modificati (OGM). Le enormi potenzialità offerte hanno portato grandi investimenti pubblici e privati per lo sviluppo della ricerca applicata, determinando un’accelerazione nei risultati delle ricerche così come nelle applicazioni. Questo sviluppo così significativo ha evidenziato, sebbene con un certo ritardo, la necessità di creare a livello internazionale e locale un sistema di gestione di queste innovazioni e dei loro potenziali impatti in campo ambientale, sanitario, sociale ed economico. Diversi accordi internazionali intervengono nella gestione degli OGM, puntando a garantire da un lato i liberi scambi commerciali, e dall’altro un adeguato sistema di valutazione dei rischi connessi all’impiego di questi ritrovati tecnologici (CBD, 2000, Protocollo sulla Biosicurezza; OMC, 1994, Accordo sulle misure sanitarie e fitosanitarie). * Biologo, Fondazione Diritti Genetici 88 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 89 Unione Europea e OGM L’analisi del rischio In generale, a livello mondiale l’approvazione commerciale degli OGM è conseguente a un’analisi del rischio più o meno definita e stringente. I principi per questa analisi, sviluppati primariamente per la valutazione dei rischi da agenti tossici chimici, sono stati definiti in diversi documenti prodotti da organismi internazionali quali FAO, WHO, OECD (1,2,3,4). Gli elementi essenziali dell’analisi dei rischi sono: la valutazione, la gestione e la comunicazione del rischio. Tuttavia, l’applicazione a livello normativo dei principi generali presenta dei problemi, poiché rispecchia da un lato le differenze culturali e dall’altro i diversi interessi in campo che sono in grado di influenzare tanto la politica quanto il sistema produttivo: da una parte i realizzatori e gli utilizzatori dell’innovazione (enti di ricerca, industrie biotech e dell’agroalimentare), che prediligono una liberalizzazione dei processi autorizzativi, e dall’altra i consumatori, che richiedono un elevato livello di garanzie di sicurezza. Queste differenze sono particolarmente evidenti per quanto riguarda il sistema di valutazione dei rischi associati agli OGM, dove si sono creati a livello mondiale due blocchi separati e distinti. Il primo, con gli USA come capofila, si sviluppa intorno ai concetti di familiarità e sostanziale equivalenza: considerando l’OGM uguale all’organismo che è stato trasformato, ad eccezione del carattere modificato, la valutazione dei rischi si limita all’analisi degli effetti del nuovo carattere. A livello normativo, questa impostazione si è tradotta in una separazione dell’iter autorizzativo degli OGM sulla base della loro destinazione d’uso e della funzione dei nuovi caratteri introdotti: il Dipartimento dell’agricoltura (USDA), con il compito di verificare che l’OGM non sia nocivo per l’agricoltura, l’Agenzia per la protezione dell’ambiente (EPA), che valuta i pesticidi prodotti dagli OGM (per es., tossine Bt) e il Dipartimento della salute che attraverso la FDA si occupa di alimenti. Tuttavia la FDA, l’Agenzia che controlla la salubrità dei cibi e dei farmaci, nel 1992 ha stabilito che gli alimenti GM non comportano rischi peculiari per la salute umana e animale, e pertanto non necessitano di un’analisi preventiva dei rischi. Il secondo blocco, rappresentato principalmente dall’Europa, si sviluppa intorno a una visione più prudente rispetto alle innovazio89 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 90 Matteo Lener ni nel settore agroalimentare, che tende a mettere in evidenza i potenziali effetti non desiderati derivanti dalla trasformazione genetica. La valutazione viene quindi compiuta caso per caso sul singolo OGM, tenendo conto di come esso è stato realizzato, di quali sono i risultati della modificazione a livello genomico e delle possibili conseguenze derivanti da tale modificazione. Tale visione, anche a seguito degli scandali e degli allarmi in campo alimentare, si è tradotta in una attenta revisione della legislazione europea negli ultimi quindici anni. La normativa europea Alla fine degli anni ’90, la Commissione europea, per ristabilire un clima di fiducia nei confronti del settore, delle istituzioni e dei loro organi tecnici di controllo, ha attivato un processo di revisione della normativa sugli alimenti in generale e sugli OGM in particolare. Nel Libro bianco per la sicurezza alimentare, la Commissione ha indicato quali dovevano essere le principali azioni da intraprendere in merito alla questione. L’attenzione si è pertanto concentrata sulla revisione della normativa di riferimento, con l’esplicita applicazione dell’approccio precauzionale nell’analisi dei rischi, e sulla trasparenza dei processi decisionali, garantita attraverso l’informazione e la consultazione del pubblico. Il regolamento 178/2002/CE ha recepito buona parte delle indicazioni contenute nel Libro bianco, stabilendo i principi e i requisiti generali della legislazione alimentare e istituendo l’Autorità europea per la sicurezza alimentare (EFSA). Direttiva 2001/18/CE La direttiva 2001/18/CE sull’emissione deliberata nell’ambiente di organismi geneticamente modificati (che abroga la direttiva 90/220/CEE), entrata in vigore il 17 ottobre 2002, è la norma di riferimento che regolamenta i rilasci di OGM nell’ambiente a scopo sia sperimentale sia commerciale. Le principali novità introdotte dalla direttiva sono: – orientamenti per la valutazione del rischio ambientale; 90 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 91 Unione Europea e OGM – monitoraggio post-rilascio degli effetti sulla salute e sull’ambiente; – informazione e partecipazione del pubblico ai processi decisionali; – limite temporale di 10 anni per l’autorizzazione; – impegno ad assicurare l’etichettatura e la tracciabilità degli OGM; – obbligo a fornire metodi per l’identificazione degli OGM. Secondo la direttiva 2001/18/CE, qualsiasi soggetto che intenda commercializzare un OGM dovrà presentare all’Autorità competente di uno Stato membro una domanda (notifica) contenente tutte le informazioni necessarie per una corretta valutazione del rischio, nonché la valutazione del rischio redatta dal notificante. Una sintesi della notifica (Snif) viene trasmessa immediatamente alla Commissione europea che la pubblica on line1. L’Autorità competente provvede a valutare i dati contenuti nella notifica ed elabora una relazione di valutazione (assessment report) che viene trasmessa alla Commissione e pubblicata anch’essa on line sul sito del Joint Research Center (JRC), il Centro comune di ricerca dell’Unione Europea. Salvo obiezioni da parte di altri Stati, lo Stato ricevente può autorizzare l’immissione in commercio dell’OGM sul proprio territorio, ma tale autorizzazione si intende valida per tutta l’Unione Europea. Nel caso di presentazione di obiezioni motivate, si apre un meccanismo complesso (procedura di comitatologia) che vede coinvolti Stati membri, Commissione UE e Consiglio UE2. L’articolo 24 della direttiva prevede la possibilità per il pubblico di partecipare attivamente ai processi decisionali, inviando alla Commissione osservazioni sulle notifiche. Il pubblico può esercitare questo diritto in due fasi distinte del processo decisionale: dopo la pubblicazione dello Snif, dopo la pubblicazione dell’assessment 1 Sito europeo del Joint Research Centre (JRC) http://gmoinfo.jrc.it/gmc_browse.asp. 2 Decisione del Consiglio del 28 giugno 1999 recante modalità per l’esercizio delle competenze di esecuzione conferite alla Commissione (1999/468/CE). 91 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 92 Matteo Lener report. In entrambi i casi, il tempo limite di presentazione è di 30 giorni. Le osservazioni del pubblico vengono raccolte tramite il sito web del JRC. Regolamento 1829/2003/CE Il regolamento 1829/2003/CE, entrato in vigore nell’aprile del 2004, si applica agli OGM destinati all’alimentazione umana e animale e agli alimenti e ai mangimi che contengono OGM o ne sono costituiti. Le principali novità introdotte sono: – obbligo di autorizzazione alla commercializzazione anche per i mangimi; – valutazione centralizzata demandata all’EFSA; – applicazione, per la valutazione del rischio ambientale e il monitoraggio, delle stesse misure previste dalla direttiva 2001/ 18/CE; – principio one door, one key, ovvero la possibilità, in caso di OGM destinato all’alimentazione, di presentare una richiesta unica per tutti gli usi (coltivazione, importazione, alimentazione). La procedura di autorizzazione risulta più snella e centralizzata rispetto a quella della direttiva: infatti il notificante presenta la notifica a uno Stato membro, che la trasmette direttamente all’EFSA, la quale ha il compito di valutare la richiesta tramite un comitato scientifico appositamente istituto, il «GMO panel». La domanda deve contenere tutte le informazioni necessarie alla valutazione della sicurezza dell’alimento, rispetto sia all’ambiente sia alla salute umana e animale. Successivamente all’introduzione del regolamento, l’EFSA ha redatto un documento guida che potesse assistere il notificante nella redazione delle notifiche di piante GM destinate all’alimentazione (5). Per quanto concerne la partecipazione del pubblico, l’articolo 6 del regolamento prevede la possibilità di inviare alla Commissione le proprie osservazioni sul parere espresso dall’EFSA. Inoltre, strettamente connesso all’applicazione del regolamento 1829/2003/CE è il regolamento 1830/2003/CE sull’etichettatura e la tracciabilità degli alimenti GM. 92 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 93 Unione Europea e OGM Richieste di commercializzazione In Europa, a partire dal 2003, dopo l’entrata in vigore della nuova direttiva, si è riaperto il processo di autorizzazione di prodotti GM. Complessivamente, sono state presentate 28 notifiche ai sensi della direttiva e 35 e ai sensi del regolamento. Per quanto concerne la direttiva 2001/18/CE, tutte le notifiche presentate riguardano piante GM, 14 delle quali includono la richiesta di coltivazione: nel dettaglio si tratta di 3 eventi di barbabietola, 6 di colza, 5 di cotone, 10 di mais, 1 di patata, 1 di riso, 1 di soia e 1 di geranio. Tutte le piante sono state modificate per la tolleranza agli erbicidi e/o per la resistenza a insetti fitofagi, ad esclusione della patata (modificata nel contenuto di amidi) e del geranio (modificato per la colorazione del fiore). Al momento attuale 4 notifiche sono state autorizzate, 7 hanno ottenuto il parere favorevole dello Stato membro ricevente, mentre le rimanenti sono state ritirate o convertite. Anche tutte le notifiche presentate ai sensi del regolamento sono di piante GM (nella maggior parte dei casi si tratta delle stesse piante GM presentate ai sensi della direttiva), 8 delle quali includono la coltivazione. In particolare, si tratta di: 1 evento di barbabietola (tollerante gli erbicidi), 1 di colza (tollerante gli erbicidi), 5 di cotone (tolleranti gli erbicidi e/o resistenti agli insetti), 24 di mais (tolleranti gli erbicidi e/o resistenti agli insetti, e con modifiche composizionali), molti dei quali costituiti da incroci multipli di singoli eventi, 1 di riso (tollerante gli erbicidi), 2 di soia (tolleranti gli erbicidi) e 1 di patata (modificato il contenuto di amilosio). Al momento, è stata autorizzata un’unica notifica riguardante il mais 1507, destinato all’alimentazione umana e animale, mentre 6 hanno ricevuto il parere scientifico favorevole da parte dell’EFSA. Osservatorio agrobiotecnologie Il Consiglio dei diritti genetici (CDG), oggi Fondazione, attraverso la realizzazione dell’Osservatorio agrobiotecnologie (OA) ha avviato, a partire dal 2004, il monitoraggio delle attività istituzionali relative alle nuove richieste di commercializzazione di piante GM, con due obiettivi specifici: da un lato quello di analizzare la qualità 93 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 94 Matteo Lener dei dati forniti a supporto delle notifiche e la valutazione condotta dalle istituzioni preposte alla verifica, dall’altro quello di promuovere la partecipazione del pubblico ai processi decisionali, sia attraverso la verifica concreta dell’adeguatezza degli strumenti messi a disposizione dalla pubblica amministrazione, sia attraverso l’implementazione di strategie e strumenti volti a coinvolgere attivamente il pubblico. Analisi delle richieste di commercializzazione Dalla sua attivazione, l’OA ha cominciato ad analizzare tutte le nuove notifiche presentate, nonché tutte le notifiche che avevano ottenuto un parere favorevole dallo Stato membro ricevente e per le quali si apriva la finestra per l’invio delle osservazioni previsto dall’art. 24 della direttiva. Nel 2004 sono state presentate 5 notifiche (mais NK603 x MON810 coltivazione, cotone LLCotton25, colza T45, cotone 281-24-236 e 3006-210-23, garofano Moonshade), mentre 6 hanno ricevuto il parere favorevole dallo Stato ricevente (colza Ms8 x Rf3, mais NK603, MON810 alimentazione, riso LLRICE62, patata EH92-527-1, cotone 281-24-236 e 3006-210-23, garofano Moonshade). A partire dal 2005, non sono state presentate nuove richieste ai sensi della direttiva, né sono stati emessi nuovi pareri favorevoli. In effetti, tutte le notifiche ancora in sospeso che riguardavano prodotti destinati all’alimentazione sono state ripresentate in base al nuovo regolamento, e di conseguenza anche le nostre analisi si sono orientate verso l’applicazione del nuovo regolamento. In base a esso, per il momento solo 7 (mais 1507, NK603 x MON810, MON863 x MON810, 1507 x NK603, MON863 x NK603, MON863 x MON810 x NK603 e patata EH92-527-1) delle 35 notifiche presentate hanno avuto il parere conclusivo dell’EFSA, e pertanto è stato possibile inviare delle osservazioni. Per quanto riguarda le notifiche sopraindicate l’OA ha effettuato un’analisi critica dei documenti prodotti dal notificante e dalle istituzioni, e contestualmente ha redatto rapporti che in seguito sono stati pubblicati sul sito web del CDG. Conformemente alle risultanze del lavoro svolto, l’OA ha inviato le proprie osservazioni alle notifiche in accordo con quanto previsto dalla normativa. I rapporti sono stati 94 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 95 Unione Europea e OGM realizzati dal gruppo di esperti del CDG che hanno analizzato nel dettaglio la documentazione raccolta relativa alle singole notifiche, ossia: – quella direttamente messa a disposizione on line nei siti specificamente allestiti su mandato della Commissione3, Snif (informazioni sintetiche sulla notifica) e assessment reports degli Stati membri o dell’EFSA; – quella da richiedere alle Amministrazioni competenti4, cioè le notifiche complete, ad esclusione dei documenti ritenuti confidenziali; – quella da reperire, vale a dire dossier di autorizzazione di Stati non UE, brevetti, bibliografia scientifica, dossier scientifici di gruppi indipendenti. Al fine di promuovere in Italia la più ampia partecipazione del pubblico, l’OA ha reso disponibili on line (sito web CDG) le informazioni raccolte e ordinate all’interno di una banca dati dedicata all’argomento; inoltre ha realizzato una specifica mailing list di persone interessate a tenersi aggiornate sulle occasioni di partecipazione del pubblico, oltre che sui rapporti e sulle osservazioni elaborati in seno all’Osservatorio. Caso studio: mais 1507 A titolo esemplificativo, per meglio illustrare i risultati delle nostre analisi e le nostre conclusioni in merito alle notifiche, abbiamo scelto di presentare un caso studio relativo all’unica notifica che sia stata autorizzata ai sensi del regolamento: la notifica EFSA-GMONL-2004-02. Si tratta di una richiesta per commercializzare a uso alimentare il mais 1507, modificato per l’espressione della proteina Cry1F, che conferisce resistenza ai lepidotteri, e della proteina Pat, che conferisce resistenza agli erbicidi a base di glufosinato d’ammonio. L’OA ha esaminato la documentazione raccolta tra cui la valutazione condotta dall’EFSA (6), elaborando, in sintesi, quanto segue: Analisi molecolare: dalla caratterizzazione molecolare dell’evento 3 per la direttiva ed EFSA per il regolamento. Direttiva: Autorità competente italiana dopo la pubblicazione del parere favorevole dello Stato membro ricevente; regolamento: EFSA. JRC 4 95 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 96 Matteo Lener 1507 risulta evidente che il materiale effettivamente inserito non si limita ai geni di interesse, poiché si sono cointegrati frammenti di DNA di diversa origine, in misura quasi equivalente al DNA di interesse. Inoltre, come conclude lo stesso GMO panel dell’EFSA, non è possibile escludere che a livello del genoma della pianta ospite non si siano verificate delezioni e/o riarrangiamenti. Gli effetti non desiderati determinati dall’introduzione di sequenze impreviste e indesiderate non sono dunque prevedibili in anticipo. A nostro avviso, per ridurre i potenziali rischi derivanti dall’inserzione di DNA di funzione non nota, sarebbe opportuno migliorare la selezione delle piante trasformate, scegliendo quelle con il minor numero di elementi di DNA non necessari, prima di arrivare alla fase di commercializzazione del prodotto. Analisi composizionale, tossicologica e allergologica: l’analisi composizionale della granella del mais 1507 confrontata con quella degli ibridi di controllo non GM evidenzia differenze statisticamente significative che coinvolgono una parte dei parametri misurati. Questi risultati dimostrano che il quadro delle vie metaboliche del mais 1507 è stato in qualche modo alterato. Ciò potrebbe avere conseguenze sulla salute indotte da variazioni delle concentrazioni di metaboliti al momento non adeguatamente valutati. Gli esperimenti condotti sui ratti alimentati con il mais GM sembrano dimostrare l’inadeguatezza del modello utilizzato: infatti sono riscontrabili diverse anomalie anche nel gruppo di controllo, che rendono difficile l’interpretazione dell’intero esperimento. Inoltre, gli studi di alimentazione sugli animali sono stati condotti per un periodo troppo breve per poter trarre conclusioni attendibili sull’equivalenza nutrizionale del prodotto. Analisi dei rischi ambientali: i rischi potenziali sull’ambiente derivanti dall’importazione del mais 1507 sono limitati, dato che lo scopo della notifica non include la coltivazione. Tuttavia, la disseminazione involontaria e il cattivo uso dei semi importati potrebbero condurre a effetti che non sono stati tenuti in debito conto nella valutazione del rischio ambientale. Inoltre, i piani di sorveglianza e monitoraggio dovrebbero prevedere disposizioni particolari per quanto riguarda i metodi di importazione, trasporto e stoccaggio del materiale grezzo importato da destinare agli operatori del settore. È bene tenere presente che molte delle conclusioni circa le lacu96 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 97 Unione Europea e OGM ne rilevate nella notifica relativa al mais 1507 sono generalizzabili alle altre notifiche analizzate. In particolare: – sequenze di DNA non desiderate e non previste nel sito di inserzione, rilevabili in modo particolare negli eventi ottenuti tramite il metodo biolistico (soia RR40-3-2, mais MON863, MON810, NK603, Bt11), influendo sul metabolismo delle piante potrebbero determinare effetti indesiderati non intenzionali; – a livello dell’analisi composizionale si riscontrano molto spesso variazioni statisticamente significative di diversi parametri analizzati tra la pianta GM e la controparte non modificata; sebbene molto spesso rientrino nel range specie-specifico riportato in letteratura, queste variazioni potrebbero essere un indizio di lievi alterazioni delle vie metaboliche che meriterebbero analisi più approfondite; – gli studi di alimentazione animale con alimenti contenenti le piante GM spesso hanno mostrato lievi alterazioni di carattere istopatologico o nella composizione del sangue, anche nei gruppi di controllo, che quantomeno indicano l’inadeguatezza dei modelli di analisi adottati; – i piani di monitoraggio si limitano alla sorveglianza generale, non sono previsti piani di monitoraggio specifici, e non esistono ancora linee guida adeguate per la realizzazione e l’applicazione di tali piani. Partecipazione del pubblico nei processi decisionali Analisi delle osservazioni inviate in accordo con la direttiva Per avere maggiori informazioni sui livelli della partecipazione del pubblico, il CDG ha analizzato la documentazione relativa alle osservazioni del pubblico inviate negli anni 2003 e 20045. Nel 2003 sono stati pubblicati 23 Snif e 6 assessment reports, di cui 2 presentati contestualmente allo Snif, per un totale di 27 occasioni di partecipazione pubblica. 5 Successivamente alla nostra richiesta presentata alla Commissione UE DG Ambiente, i file relativi alle osservazioni del pubblico sono stati resi disponibili on line sul sito del JRC. 97 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 98 Matteo Lener Nel 2004 sono stati pubblicati 5 Snif e 5 assessment reports, per un totale di 10 occasioni di partecipazione pubblica. Nel corso della nostra analisi abbiamo classificato le osservazioni secondo due criteri principali, ossia l’eventuale giudizio espresso, positivo o critico, e la tipologia delle osservazioni, secondo lo schema che segue: – commento generico (commenti non tecnicamente o scientificamente supportati); – commento intermedio (commenti tecnicamente e/o scientificamente supportati ma non connessi con la notifica in oggetto, ovvero senza commenti specificamente riferiti ai documenti relativi alla notifica); – commento tecnico (commenti tecnicamente e/o scientificamente supportati e specificamente riferiti alla notifica in oggetto). Sorprendentemente, da tale analisi abbiamo potuto concludere che le osservazioni sono in larga misura (82%) di carattere tecnicoscientifico e caratterizzate da buona competenza in materia. Inoltre, la grande maggioranza (90%) delle osservazioni esprime critiche negative alle notifiche cui si riferisce. Dal confronto dei due anni analizzati risulta che la partecipazione del pubblico si è ridotta di oltre il 30%, con un numero di interventi medio del 15,22% nel 2003 e del 9,50% nel 2004. Come precedentemente descritto, con l’entrata in vigore del regolamento l’attività istruttoria relativa alla direttiva si è arrestata e tutte le nuove richieste di commercializzazione, come pure quelle ancora inevase, sono state presentate come nuove richieste ai sensi del regolamento. Pertanto, in considerazione del fatto che secondo il regolamento (e a differenza della direttiva) il pubblico ha la facoltà di inviare le proprie osservazioni alla Commissione europea solo al termine del processo di valutazione scientifica condotto dall’EFSA, nel 2005 si è presentata una sola occasione di partecipazione, quella relativa alla notifica EFSA-GMO-NL-2004-02. In tale occasione sono stati inviati soltanto 4 commenti, compreso il commento del CDG, tutti pubblicati sul sito della Commissione (DG Sanco)6. 6 http://ec.europa.eu/food/food/biotechnology/authorisation/public_comments_en.htm. 98 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 99 Unione Europea e OGM Nel 2006, invece, sempre in base al regolamento si sono verificate solo 5 occasioni di partecipazione, che hanno ricevuto in totale 57 osservazioni. Un’ultima opportunità, relativa alla patata EH92-527-1, si è conclusa nel dicembre 2006. Conclusione L’attività dell’OA ha permesso di evidenziare come – per quanto le nuove normative stabiliscano regole più stringenti sia per la valutazione del rischio sia per la sua gestione (piani di monitoraggio post-rilascio, tracciabilità ed etichettatura, durata di autorizzazione definita), e definiscano con maggior chiarezza i momenti in cui il pubblico può intervenire – le nuove regole introdotte dal legislatore europeo presentino ancora, nella loro applicazione concreta, alcune considerevoli lacune. In effetti, l’applicazione della normativa non risponde adeguatamente ai suoi principi fondanti, quali il principio di precauzione7, la trasparenza e la partecipazione: di fatto, le incertezze che emergono nella valutazione dei rischi sono sottovalutate dagli esperti scientifici. Accade inoltre che non sia sufficientemente garantito l’accesso alle informazioni, che spesso risulta particolarmente complesso e difficoltoso. Infine, le osservazioni del pubblico, anche se caratterizzate da evidente competenza tecnico-scientifica, non vengono prese in considerazione durante il processo decisionale. Il sistema di consultazione del pubblico applicato in base alla normativa vigente risulta totalmente sbilanciato a favore del richiedente, sia rispetto alla conoscenza dei dati che sono alla base della richiesta, sia rispetto ai tempi previsti dalla normativa nell’ambito del procedimento. In ordine al primo punto, infatti, il richiedente è l’unico soggetto a fornire i dati, oltre ad avere il potere di indicare quali sono accessibili e quali no. Rispetto al secondo punto, invece, si deve rilevare che mentre per il richiedente non sono previsti termini perentori per replicare alle richieste, il pubblico che intenda 7 Anche nella sua interpretazione abbastanza restrittiva (7) e non generalmente condivisa a livello europeo (8). 99 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 100 Matteo Lener partecipare al processo decisionale dispone di tempi strettamente contingentati. Inoltre, la documentazione messa a disposizione è insufficiente e non supportata da adeguata bibliografia scientifica, mentre le modalità di valutazione delle osservazioni utilizzate dalla Commissione e degli Stati membri non vengono chiarite. Detto ciò, si evince che l’introduzione del regolamento ha diminuito ulteriormente l’efficacia della consultazione del cittadino. Infatti, come già illustrato nel caso della direttiva, il pubblico ha la possibilità di intervenire in due momenti distinti: al momento della presentazione della domanda e al momento della pubblicazione del parere dello Stato ricevente, mentre con il regolamento il pubblico interviene soltanto dopo la formalizzazione del parere da parte dell’EFSA. Questo gap nella tempistica diventa essenziale se si pensa che, nel caso della direttiva, il commento del pubblico arriva a processo di valutazione tecnica ancora aperto, mentre nel caso del regolamento esso arriva a valutazione conclusa, quindi senza alcuna possibilità di essere preso in considerazione. Il regolamento, peraltro, istituendo un processo di valutazione centralizzato ha comportato paradossalmente che gli stessi Stati membri dispongano, come unica forma garantita di intervento nel processo di valutazione, dell’invio di osservazioni all’EFSA, che funge al tempo stesso da collettore e arbitro. Il risultato è che gli Stati vengono a trovarsi di fatto nella stessa situazione di subordinazione nella quale si trova il singolo cittadino e/o la singola associazione. In effetti, l’introduzione del regolamento e l’istituzione dell’EFSA hanno determinato nuovi conflitti tra le diverse istituzioni nazionali ed europee coinvolte nella gestione degli OGM, tanto è vero che la Commissione ha recentemente preso atto delle difficoltà intervenute e ha avviato una serie di iniziative volte a migliorare i rapporti tra le diverse istituzioni8. Un caso particolarmente emblematico è quello rappresentato dalle clausole di salvaguardia applicate dall’Ungheria nei confronti dell’autorizzazione alla coltivazione del mais MON810 (autorizzato con la decisione 98/294/CE). L’Ungheria, tenendo conto del fatto 8 Commission Press Release IP/06/498. Commission proposes practical improvements to the way the European GMO legislative framework is implemented. Brussels 12, April 2006. 100 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 101 Unione Europea e OGM che il mais era stato autorizzato nell’Europa a 15, ossia in base alla vecchia direttiva 90/220/CE, ha ritenuto che la valutazione di impatto ambientale non considerasse le peculiarità della propria area biogeografica. Le autorità nazionali hanno dunque attivato specifiche sperimentazioni di campo realizzate da enti di ricerca pubblici i cui risultati preliminari indicavano impatti su organismi non target e sul suolo. Sulla base di tali considerazioni, l’Ungheria ha immediatamente sospeso la commercializzazione del mais MON810 sul proprio territorio in accordo con l’art. 23 della direttiva. L’EFSA, consultata dalla Commissione, senza richiedere ulteriori informazioni all’Ungheria, ha ritenuto non motivata la valutazione dello Stato membro in quanto i dati forniti non erano verificabili o pubblicati su riviste scientifiche (9). La Commissione europea sostiene che «è di fondamentale importanza favorire l’informazione e il dialogo in modo che il pubblico e i soggetti in causa capiscano e possano valutare meglio queste tematiche complesse e mettano a punto metodi e criteri in grado di valutare il rapporto vantaggi/rischi, ivi compresa la distribuzione dei relativi impatti fra le varie parti della società» (10). Ma per il raggiungimento di tale obiettivo occorre che la componente tecnicoscientifica delle istituzioni europee abbia il coraggio e l’obiettività necessari per evidenziare le incertezze scientifiche che emergono dalla valutazione del rischio. La componente politica invece è chiamata a scegliere con obiettività le misure da adottare, considerando l’impatto socio-economico di tutte le diverse opzioni che possono venire a configurarsi nel processo decisionale e tenendo conto di tutti gli elementi che concorrono alla formazione di una partecipazione diffusa. BIBLIOGRAFIA (1) FAO/WHO, Strategies for assessing the safety of foods produced by biotechnology, a joint FAO/WHO consultation, Geneva, Switzerland, 5-10 November 1990, 1991. (2) FAO/WHO, Safety aspects of genetically modified foods of plant origin, Report of a joint FAO/WHO Expert Consultation on foods derived from biotechnology, FAO Food and Nutrition Paper 29, 2000. 101 *02.Biotecnocrazia 28-06-2007 9:03 Pagina 102 Matteo Lener (3) (4) (5) (6) (7) (8) (9) (10) OECD, Safety evaluation of foods derived by modern biotechnology: concepts and principles, Paris 1993. Codex Alimentarius, Codex principles and guidelines on foods derived from biotechnology, Codex Alimentarius Commission, Joint FAO/WHO Food Standards Programme, Food and Agriculture Organisation, Rome 2003. EFSA, «Guidance document of the Scientific Panel on Genetically Modified Organisms for the risk assessment of genetically modified plants and derived food and feed», The EFSA Journal, 99, 2006, pp. 1100. EFSA, «Opinion of the Scientific Panel on Genetically Modified Organisms on an application for the placing on the market of insecttolerant genetically modified maize 1507, for food use, under Regulation (EC) No 1829/2003 from Pioneer Hi-Bred International/ Mycogen Seeds», The EFSA Journal, 182, 2005, pp. 1-22. Commissione UE, Comunicazione della Commissione sul principio di precauzione COM (2000) 1, 2000. Levidow L., Carr S., Wield D., «European Union regulation of agribiotechnology: precautionary links between science, expertise and policy», Science and Public Policy, 32, 2005, pp. 261-276. EFSA, «Opinion of the Scientific Panel on Genetically Modified Organisms on a request from the Commission related to the safeguard clause invoked by Hungary according to Article 23 of Directive 2001/ 18/EC», The EFSA Journal, 228, 2005, pp. 1-14. Commissione UE, Scienze della vita e biotecnologia. Una strategia per l’Europa, Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale e al Comitato delle regioni COM (2002) 27, 2002. 102