La fine del petrolio

Transcript

La fine del petrolio
Saggi/Scienze
2
Ugo Bardi
La fine del petrolio
Combustibili fossili e fonti energetiche
nel ventunesimo secolo
Editori Riuniti
3
I edizione: settembre 2003
© Copyright Editori Riuniti, 2003
via Alberico II, 33 - 00193 Roma
www.editoririuniti.it
fax verde: 800 677822
ISBN 88-359-5425-8
4
Indice
7
00
Introduzione
Energia
L’energia, p. - Conservazione dell’energia ed efficienza energetica,
Immagazzinamento dell’energia.
00
Il petrolio e i combustibili fossili
Gli idrocarburi, Idrocarburi fossili, Usi degli idrocarburi fossili
Inquinamento ed effetto serra
L’inquinamento della biosfera, L’effetto serra e il surriscaldamento
planetario, Economia dell’inquinamento da idrocarburi
L’economia minerale
Prevedere il futuro, Modelli per l’economia minerale, Il modello di
Hubbert
Risorse petrolifere: quanto dureranno?
La curva delle scoperte, La stima delle riserve, La durata delle riserve
Economia e geopolitica del petrolio
Economia e mercato del petrolio, Guerre per il petrolio,
Si può vivere senza petrolio?
L’energia da sostituire, Risparmio energetico, La rinascita del nucleare?, Le energie rinnovabili, Transizioni tecnologiche
Conclusione
1. Le riunioni
2. Gli obiettivi delle riunioni
3. Attivare la partecipazione
4. Formare un gruppo dirigente
5. Costituire un’associazione
1. Prima assemblea
5
2. Come si fa uno statuto
Nona storia: E se ci ricasco?
CAP. 10 Di questa storia non bisogna perdere la memoria
1. Per leggere la storia
2. Il mondo greco classico
3. Gli asili
4. La nascita della psichiatria e del manicomio
5. I manicomi: si annuncia la chiusura
6. Trieste: storia di un cambiamento
1. Il Civico manicomio di Trieste
2. Il superamento dell’ospedale psichiatrico
3. Il cambiamento dell’organizzazione interna
4
6
Introduzione
Pochi anni fa il mondo si trovava al culmine della bolla di
ottimismo della «new economy» con le borse occidentali in
crescita di un ritmo medio del 18% all’anno da 10 anni. La
storia, secondo Francis Fukuyama, era finita con il crollo dell’Unione Sovietica. Ora non ci restava che godere i frutti della
superiorità tecnologica occidentale. Nessuno si preoccupava
del fatto che questa ricchezza era basata su risorse non rinnovabili, e chi se ne occupava lo faceva per dire che queste erano
abbondanti e costavano sempre meno. Nel marzo 1999, il prezzo del petrolio era sceso a un minimo record di soli 10 dollari
al barile e la prestigiosa rivista The Economist pubblicava un
editoriale intitolato «Il petrolio a 5 dollari al barile potrebbe
essere dietro l’angolo».
Esattamente a un anno di distanza, nel marzo del 2000, il
prezzo del petrolio era saltato a 34 dollari al barile, il doppio
del valore medio degli ultimi 15 anni, un valore che si è mantenuto a quei livelli da allora. Iniziava nel 2000 lo scoppio della
«bolla» della nuova economia e l’inizio della caduta delle borse che dura ormai da piú di tre anni e di cui non si vede la fine.
Poco dopo, nel 2001, l’attacco alle torri gemelle di New York
dava inizio a un nuovo ciclo di guerre: l’attacco all’Afghanistan
nel 2002 e l’invasione dell’Iraq nel 2003 che potrebbero essere
solo l’inizio di una lunga serie di «guerre per il petrolio» che
non si sa dove ci porteranno.
7
Forse non tutto quello che sta succedendo è direttamente
dovuto al petrolio, ma la correlazione è stata notata da molti e
questo ha dato origine a un rinnovato interesse sulla situazione
dei combustibili fossili, sulla loro abbondanza (o scarsità che
dir si voglia) su come e perché li stiamo usando, e su cosa li
potrebbe sostituire nel futuro. Il petrolio e gli altri combustibili fossili (gas naturale e carbone) sono la base della nostra civiltà e del nostro modo di vivere. Sappiamo che circa il 90%
dell’energia primaria prodotta oggi in tutto il mondo (escludendo il legno) viene dai combustibili fossili, di questa la singola fonte piú importante è il petrolio greggio (circa il 40%),
seguito poi dal gas naturale, dal carbone e poi a distanza dalle
altre fonti1. Utilizziamo questa energia primaria per scaldarci,
per i trasporti e per ottenere energia elettrica. Non solo, ma i
combustibili fossili sono anche indispensabili per l’industria
chimica e per produrre fertilizzanti, senza i quali difficilmente
6 miliardi di persone potrebbero vivere sulla Terra. Sappiamo
anche, però, che il petrolio e gli altri combustibili fossili sono
risorse limitate e non rinnovabili. Prima o poi dovranno finire.
La questione della durata delle riserve planetarie e della «fine del petrolio» è stata posta piú di una volta negli ultimi 50
anni, ma fino ad oggi non era mai parso un problema pressante. Le grandi crisi petrolifere della decade del 1970 avevano
preoccupato tutti, ma a quell’epoca si sapeva bene che si era
davanti a una crisi di tipo politico e non di esaurimento delle
riserve. Dal 1985 in poi, i prezzi si erano abbassati intorno ai
15 dollari al barile e di problemi non se ne parlava piú.
Cosa è successo invece con l’aumento dei prezzi dal 2000 in
poi? Al momento attuale è difficile dire esattamente se stiamo
cadendo a capofitto dentro una nuova profonda crisi del petrolio oppure se siamo di fronte a uno scossone temporaneo.
Quello che è certo è che le risorse planetarie di combustibili
fossili non sono illimitate. Non solo, ma ben prima che l’ultima goccia di petrolio sia estratta dall’ultimo pozzo ancora attivo, il petrolio non sarà piú la risorsa abbondante e a buon mercato che è stata fino ad oggi, ma sarà diventato una risorsa rara
e costosa. Sappiamo anche che gli stessi combustibili stanno
8
facendo enormi danni all’atmosfera generando gas serra che
producono il riscaldamento globale. Quali e quanti danni questo riscaldamento farà nel futuro è tuttora difficile dire, ma potrebbe forzarci a dover diminuire la quantità di fossili che possiamo bruciare.
È certo, dunque, che prima o poi dovremo imparare a fare
a meno del petrolio e degli altri combustibili fossili. Su questo
punto siamo tutti d’accordo, il problema è stabilire «quando».
Se fino a oggi non sembrava che questi fossero problemi pressanti, gli ultimi eventi sembrano indicare che le cose sono cambiate. Può darsi, in effetti, che il «punto di crisi» in cui la produzione di petrolio non ce la farà piú a tenere il passo con la
domanda sia molto piú vicino di quanto non ci si potrebbe
aspettare, e addirittura che ci potremmo essere già sopra. Questa potrebbe essere la causa delle guerre attuali.
Parlare di «fine del petrolio», e parlarne esplicitamente, è
qualcosa che scatena reazioni emotive alle volte incontrollabili.
Ovviamente, chi si azzarda ad affrontare il problema viene spesso tacciato di «pessimista», di «profeta di sventura», di «quello
che grida al lupo!» e altri epiteti anche meno lusinghieri. Il petrolio in particolare è qualcosa di speciale, qualcosa di cosí basilare alla nostra società e al nostro mondo che il pensare che
si possa esaurire in tempi inferiori alla nostra aspettativa di vita scatena la preoccupazione, se non addirittura il terrore. Eppure bisogna parlarne, non ci si può certamente limitare a tapparsi le orecchie o infilare la testa nella sabbia. Bisogna parlarne seriamente; senza inutili allarmismi ma nemmeno senza raccontare le cose come stanno.
Il principale problema di cui questo libro si occupa è quello del possibile esaurimento a scadenza non lontana delle nostre risorse primarie, ovvero di combustibili fossili. Ma come
mai dobbiamo preoccuparci tanto? In fondo, si sono verificati
casi di altre risorse progressivamente esaurite che non hanno
dato luogo a fenomeni drammatici. Sono esaurite da secoli le
antiche miniere di rame dell’isola di Cipro, come pure le miniere di ferro degli etruschi in Toscana. Eppure non è che ci
manchi né ferro né rame, anzi ne abbiamo quantità sempre
9
maggiori che otteniamo riciclando gli scarti. Ma il problema
con il petrolio sta nel concetto di risorsa primaria. «Primaria»
vuol dire che da questa risorsa dipendono tutte le altre. Il petrolio, a differenza di altre risorse, non si può riciclare, ovvero
per farlo ci vorrebbe piú energia di quanta se ne può ottenere
dal petrolio e di conseguenza l’intero processo non avrebbe
senso.
Ci si può anche domandare come mai preoccuparsi tanto se
ci sono, sempre in teoria, altri metodi possibili per ottenere
energia. Solare o nucleare che sia l’alternativa, non è la prima
volta che l’umanità passa da una sorgente energetica a un’altra.
È avvenuto per il legno che ha lasciato il passo al carbone, è
avvenuto per il carbone che ha lasciato il passo al petrolio, sta
tuttora avvenendo per il petrolio che sta progressivamente lasciando il passo al gas naturale che poi, si ritiene, lascerà il passo all’idrogeno. La risposta a questa domanda può essere condensata in una singola frase: L’età della pietra non finí perché si
esaurirono le pietre.
Questa frase, il cui autore non ci è noto, riassume in un nocciolo i termini della questione. In effetti, quando siamo passati
dal legno al carbone non è stato perché il legno era esaurito.
Quando siamo passati dal carbone al petrolio, non è stato perché il carbone era esaurito. In entrambi i casi, il passaggio è
avvenuto perché si erano rese disponibili soluzioni tecnologiche piú pratiche e meno costose di quelle esistenti. Il caso dell’esaurimento del petrolio è diverso: se veramente le previsioni
piú recenti si rivelassero valide ci troveremmo di fronte a una
sostanziale scarsità di petrolio e combustibili fossili in assenza
di alternative «mature» per sostituirli.
Il secondo problema correlato al petrolio e ai combustibili
fossili è quello del surriscaldamento dell’atmosfera per via dell’immissione nella stessa di «gas serra» (principalmente biossido di carbonio, CO2) dovuti alla combustione. Qui i termini
della questione sono opposti, ovvero il petrolio potrebbe essere troppo. Troppa grazia: a furia di bruciare combustibili fossili stiamo danneggiando il pianeta. L’aumento della concentrazione di CO2 nell’atmosfera come risultato della combustione
10
degli idrocarburi è un fatto assodato da molti anni. Il riscaldamento progressivo del pianeta è, anch’esso, un fatto assodato.
Recentemente, i meteorologi hanno raggiunto un sostanziale
accordo sul fatto che i due fenomeni sono correlati, ovvero si
ritiene provata la catena di cause e effetti che parte dalla combustione degli idrocarburi e finisce con il riscaldamento planetario. Anche qui, sono il petrolio e gli altri combustibili fossili
che causano i danni. Possiamo fare le stesse considerazioni fatte prima ma in questo caso il paragone con l’età della pietra si
legge: «l’età della pietra non finí perché c’erano troppe schegge
per terra».
Paradossalmente, i due problemi, esaurimento e surriscaldamento, sono complementari e opposti: uno dei due potrebbe risolvere l’altro. Al momento in cui ci trovassimo di fronte a
una crisi di disponibilità di combustibili fossili otterremmo automaticamente una riduzione delle emissioni e probabilmente
non dovremmo piú preoccuparci dell’effetto serra. Al contrario, se l’effetto serra portasse a danni evidenti a breve scadenza, può darsi che ci decideremmo finalmente a fare qualcosa di
serio per ridurre i consumi di idrocarburi e questo renderebbe
meno pressante il problema dell’esaurimento delle risorse.
Ci troviamo dunque di fronte a problemi nuovi, problemi
per i quali la storia recente, ovvero degli ultimi secoli, non ci
dà nessun «modello» di predizione. Questo libro è un tentativo di rivedere la situazione attuale alla luce dei dati esistenti. È
un libro che cerca di raccontare le cose come stanno basandosi su stime e dati tecnici. Tuttavia, problemi come quelli del
surriscaldamento globale o dell’esaurimento del petrolio hanno una valenza politica profonda, e non potrebbe essere altrimenti quando si parla di cose che hanno un effetto sul modo
di vivere (e anche sulla possibilità di sopravvivere) degli abitanti di un intero pianeta. In particolare, la questione dell’effetto serra ha assunto un robusto valore ideologico, con la destra politica (e in particolare la destra fondamentalista americana) che nega persino l’esistenza del problema e con la sinistra che a volte ha fatto del catastrofismo una bandiera. Per il
problema dell’esaurimento delle risorse, invece, la situazione è
11
ancora molto fluida. Parlare di queste cose è considerato di solito poco corretto dal punto di vista politico. Se se ne parla, la
destra tende a sfruttare il concetto per riproporre l’energia nucleare. La sinistra, invece, lo usa per enfatizzare la necessità del
risparmio energetico.
Come queste posizioni si possano far risalire alle origini storiche di quello che chiamiamo «destra» e «sinistra» è qualcosa
che va al di là delle facoltà di analisi dell’autore che qui si limiterà a dire di aver fatto un onesto sforzo per rimanere neutrale, ma che non pretende di esserci riuscito sempre. Cosí, lasciando il giudizio politico per quanto possibile al lettore, questo libro vi dice che le nostre risorse petrolifere sono state
profondamente intaccate negli ultimi decenni di uso sconsiderato e che i tempi di risorse abbondanti che ci rimangono sono
molto limitati, in effetti potrebbero essere di soli pochi anni.
Può darsi che nei prossimi decenni dovremo passare tempi un
po’ meno allegri degli ultimi vent’anni (perlomeno in occidente). Anzi, diciamo francamente che può darsi che dovremo passare tempi duri («vacche magre» come si dice nella Bibbia).
Per questa ragione dobbiamo preoccuparci della possibilità
che ci si trovi davanti a degli «scossoni» economici o politici
dovuti alla variabilità dei costi del petrolio, scossoni di cui forse proprio in questi anni stiamo avendo un assaggio con la guerra nelle regioni petrolifere, prima in Afghanistan, poi in Iraq e
forse nel futuro in Iran.
Nonostante tutto, comunque, questo è un libro profondamente ottimista. Intendiamoci, non è l’ottimismo idiota di chi
si tappa occhi e orecchie e spera che se non si parla di un problema, chissà come, questo sparirà da sé. Non è nemmeno l’ottimismo interessato di chi è pagato per raccontarvi che non c’è
niente di cui preoccuparsi. È l’ottimismo ragionato di chi si
rende conto che i problemi esistono a che si possono anche risolvere con intelligenza e buona volontà, l’ottimismo di chi non
crede alle profezie di sventura. È l’ottimismo dei pompieri, i
quali non sono accusati di essere pessimisti perché ritengono
che ci sia un problema, ovvero che da qualche parte, prima o
poi, ci sarà un incendio. Sono degli ottimisti perché pensano
12
che il problema si possa risolvere, ovvero pensano di riuscire a
spegnerlo. Esistono delle soluzioni alla crisi che ci troviamo a
fronteggiare, principalmente mediante energie rinnovabili, soluzioni che ci porteranno alla fine verso un mondo migliore e
meno conflittuale. Può anche darsi che tutto questo non sia affatto negativo: la possibile penuria di petrolio che ci aspetta
potrebbe darci la spinta necessaria per smettere di inquinare e
surriscaldare il pianeta con l’effetto serra.
In sostanza, abbiamo buone speranze di arrivare in tempi
ragionevoli a liberarci per sempre di questo liquido nerastro
che sta distruggendo il pianeta rovinandoci l’esistenza. Leggete, e vedrete come.
13
Energia
L’energia che otteniamo dal petrolio è fondamentale per la
nostra civiltà e per la nostra sopravvivenza. Cominceremo ora a
discutere questo argomento piú in dettaglio, dando per prima
cosa una definizione del concetto di energia e dei modi nei quali viene prodotta, utilizzata e immagazzinata.
L’energia????????(titoletto come capitolo?)
L’energia è una grandezza fisica e come tale sembrerebbe
non diversa da tante altre grandezze fisiche che troviamo descritte nei libri e che i nostri ragazzi studiano a scuola: peso,
temperatura, carica elettrica e tutto il resto. L’energia, però, è
anche qualcosa di diverso, è la base di tutta la nostra vita, e piú
ne abbiamo piú stiamo meglio. Non per nulla, abbiamo avuto
negli anni settanta quelle che abbiamo chiamato «crisi energetiche» che sono state tempi duri per tutti. Con quelle crisi ci
siamo accorti che l’energia è direttamente correlata a ciò che
chiamiamo «benessere», un termine forse un po’ fuori moda,
ma che tornerebbe subito popolare se per caso dovessimo trovarci ad averne di meno.
Come tutte le grandezze fisiche, l’energia è definita in modo rigoroso: l’energia è data da una forza che sposta il suo punto di applicazione. Si misura in termini di una forza moltiplica15
ta per una distanza. L’unità di misura piú corretta per l’energia
è il «Joule» definito come lo spostamento di un metro di una
forza di un Newton. Vedremo poi come l’energia nella pratica
si misura piú comunemente in «kilowattora», abbreviato in
kWh. In fisica si dice anche che i concetti di «lavoro» e di
«energia» sono la stessa cosa. Si dice inoltre che si compie lavoro «contro» una forza. Come si vede, le definizioni non sono
complesse ma possono essere un po’ ostiche per chi non è familiare con queste cose. Tuttavia diventano facili da capire se
pensiamo a degli esempi pratici.
Forse il lavoro piú comune che facciamo (o l’energia che
spendiamo) è di sollevare oggetti, agendo contro la forza di
gravità. Il camminare è un continuo sollevare il peso del corpo, un passo dopo l’altro, ogni passo ci costa una piccola quantità di energia. Per millenni l’energia umana è servita principalmente a questo, a spostarsi camminando, e non solo. Ci voleva energia per lanciare un giavellotto, in questo caso si lavorava contro la forza d’inerzia. Ci voleva energia per tirare la
corda di un arco. L’energia dei muscoli era trasferita all’arco
stesso e poi alla freccia. E poi, ancora per migliaia di anni, l’energia di sollevare e abbassare zappe e vanghe, l’energia per
sollevare zolle di terra nell’aratura, per portare in alto grandi
pietre per costruire case, piramidi e cattedrali. Per quasi tutta
la storia della nostra specie sulla Terra, l’unica energia usata
era quella che l’uomo stesso riusciva a produrre con il suo corpo. Era energia chimica trasformata in energia meccanica, energia che veniva dall’ossidazione dei carboidrati che l’uomo prendeva dal suo nutrimento. In questo, gli esseri umani non erano
e non sono differenti dalle altre creature viventi sul pianeta. Le
piante prendono la loro energia dal sole, attraverso quel processo che chiamiamo fotosintesi. Gli animali, invece, prendono
la loro energia dalle piante. Oggi le cose sono molto cambiate,
come vedremo piú avanti, ma il concetto di energia rimane lo
stesso.
Tuttavia, parliamo di energia anche quando siamo di fronte
a casi dove non sembrerebbe che sia implicato lo spostamento
di pesi o masse macroscopici. Quando parliamo di «energia
16
elettrica» o «energia termica» che cosa intendiamo esattamente? La definizione enunciata prima vale anche in questo caso,
ma deve essere applicata in modo diverso. Per l’energia elettrica, la forza che sposta il suo punto di applicazione è una forza
associata a un campo elettrico, ciò che si sposta sono cariche
elettriche. Per quanto riguarda il calore («energia termica»)
l’applicazione del concetto è piuttosto sottile, ma rimane sempre entro la definizione generale. Per mettere in moto una certa massa occorre agire con una forza contro l’inerzia della massa stessa (questo tipo di energia si chiama «energia cinetica»).
Nel caso del calore, l’energia cinetica è associata a delle masse
molto piccole: quelle degli atomi o delle molecole che compongono un corpo. Le direzioni del moto di questi atomi o
molecole sono disposte casualmente, per cui nella media il corpo rimane fermo ma l’energia è presente lo stesso.
Il lavoro, o energia che dir si voglia, è già un concetto molto utile, ma c’è bisogno di un’ulteriore specificazione per utilizzarlo in pratica. Questa specifica è il flusso dell’energia, ovvero quanta energia si usa o si produce in un certo tempo. In
fisica, questo si chiama «potenza», nella vita di tutti i giorni
corrisponde a quello che chiamiamo a volte «fatica». Spendere
piú energia nello stesso tempo richiede piú potenza, correre
costa piú fatica di camminare. L’energia elettrica che arriva nelle nostre case si paga per unità di energia, ma il massimo di
energia che il nostro impianto può erogare in un certo momento è una potenza.
La potenza è la grandezza che viene comunemente misurata in «Watt» (W) o «kilowatt» (kW), ovvero 1.000 Watt. Il Watt
è una grandezza fisica definita come l’energia di un Joule (l’unità fisica per l’energia) per un secondo, ma questa è una definizione che si trova quasi soltanto nei libri di fisica. Nella pratica si fa il contrario e si definisce l’energia partendo dalla potenza. Un «kilowattora» (kWh) di energia è quello che si ottiene da una potenza costante di un kilowatt in azione per un’ora. Usare il kilowattora come unità di misura non è corretto secondo quanto dicono i libri di fisica, ma comunque è uno dei
tanti modi di misurare energia: si possono usare anche «ton17
nellate equivalenti di petrolio» (TEP), «elettron-volt» (eV),
«cavalli vapore» (CV o HP), «unità termiche britanniche»
(BTU), «piede per libbra» (FP) e altri.
Il fatto che esistano tante unità di misura è un’indicazione
sia dell’importanza dell’energia come grandezza fisica, sia della
pigrizia della mente umana. Le varie unità di misura danno valori numericamente diversi per la stessa cosa. Passare da un’unità all’altra richiede semplicemente di moltiplicare per un
coefficiente numerico, ma richiede anche una certa fatica mentale che per noi umani sembra essere alle volte insormontabile.
Non per nulla c’è ancora tantissima gente al mondo che misura le distanze in yarde, pollici, piedi, miglia e cosí via.
Comunque, il fatto di poter misurare, in un modo o nell’altro, energie e potenze è qualcosa che ci permette soprattutto
di fare delle comparazioni. Cosí, quanta energia consumiamo
tutti i giorni? Di quanta ne abbiamo bisogno per vivere? Se
sappiamo come misurare l’energia, queste sono domande a cui
possiamo rispondere. Per prima cosa possiamo considerare l’energia generata dal corpo umano che, abbiamo detto, è stata la
sola disponibile per compiere lavoro per decine di migliaia di
anni. Quanti kilowatt, esattamente, possiamo produrre?
Un modo semplice per dare dei valori quantitativi all’energia generata dal corpo umano è di considerare la lampadina di
una bicicletta. Questa lampadina riceve energia elettrica da una
piccola dinamo azionata direttamente dalla ruota, ovvero dall’energia della pedalata. Piú si pedala forte, piú la lampadina
brilla, è il flusso di energia (ovvero la potenza) che varia. Una
lampadina da faro di bicicletta può avere una potenza di 5-10
Watt. Per azionarla non si fa molta fatica, avere la dinamo innestata oppure no non fa una grande differenza, anche se facendoci caso la si nota. Evidentemente le nostre gambe possono azionare ben piú di 5 Watt. Quanto di piú esattamente?
Questa misura non si può fare normalmente con una bicicletta, ma qualcosa di simile con lampadine piú potenti si fa alle
volte nei corsi di fisica all’università o alle scuole superiori. Si
collegano i pedali di una bicicletta a un alternatore, e con quello si dà potenza a delle normali lampadine a incandescenza, da
18
40, 60 e 100 Watt. Una persona normale in buona forma accende abbastanza facilmente una lampadina da 40 Watt, ci vuole un po’ di fatica per una da 60 Watt ma non è molto difficile,
100 Watt richiedono una fatica intensa. Arrivare a tenere accesa per qualche tempo una lampadina da 100 Watt richiede un
atleta ben allenato. Possiamo concludere che nella media un
essere umano può produrre circa 100 Watt al massimo. Lavorando con impegno tutto il giorno una persona potrebbe arrivare a produrre un po’ meno di 1 kWh al giorno (100 Watt per
8 ore fanno 800 Watt, ovvero un po’ meno di un kW che corrisponde a 1.000 Watt). In un anno una persona potrebbe produrre circa 300 kWh. Se confrontate con la bolletta dell’elettricità di casa vostra, che può corrispondere a circa 3.000 kWh
all’anno (per una famiglia media italiana), vedete subito come
ognuno di noi consuma ben piú energia elettrica di quanta ne
potrebbe produrre con il suo corpo.
E questo vale solo per l’energia elettrica. Se consideriamo
l’energia dei trasporti possiamo considerare che un’utilitaria
media può avere un motore di 50 kW di potenza, ovvero l’energia fornita da circa 500 persone, niente male. Se ammettiamo che in città si usi solo un decimo di questa potenza, questo
equivale comunque a farsi trainare da un «giogo» di 50 schiavi, un po’ come forse potevano fare i faraoni d’Egitto o gli imperatori romani. L’energia che ci viene dal petrolio ci ha reso
tutti ricchi. Vedremo però che, purtroppo, questa ricchezza è
effimera.
In termini piú generali possiamo fare una lista delle energie
e potenze associate con i vari aspetti della nostra vita. Una tabella del genere ci dà un’idea di come sia «energivoro» il nostro mondo e come tutte le nostre attività siano basate sul consumo di energia che, per il momento, ci viene quasi tutta dai
combustibili fossili. In queste tabelle, usiamo le convenzioni
dei fisici per «prefissi» alle unità di misura, convenzioni che
del resto sono abbastanza comuni anche nell’uso corrente.
Questi prefissi sono dei fattori moltiplicativi: tutti sappiamo
che un «kilowatt» (kW) equivale a 1.000 Watt (1.000 W). Un
po’ meno comune nella vita di tutti i giorni è l’uso del «me19
gawatt» (MW) per indicare 1.000.000 (un milione) di Watt,
ovvero 1.000 kW. Esiste poi una serie di prefissi comunemente
usati dagli specialisti, tutti multipli di un fattore 1.000 che elenchiamo qui di seguito per chi non li avesse troppo familiari.
Notate che tutti questi prefissi si scrivono con la lettera maiuscola, escluso il «kilo» che si scrive minuscolo per evitare confusioni con il simbolo di «grado di temperatura assoluta» («kelvin», K):
«kilo» (k)
«Mega» (M)
«Giga» (G)
«Tera» (T)
«Esa» (E)
x 1.000
x 1.000.000
x 1.000.000.000
x 1.000.000.000.000
x 1.000.000.000.000.000
(mille)
(un milione)
(un miliardo)
(mille miliardi)
(un milione di miliardi)
(1 kW= 1.000 W)
(1 MW = 1.000 kW)
(1 GW = 1.000 MW)
(1 TW =1.000 GW)
(1 EW =1.000 TW)
Questi prefissi sono molto utili per essere concisi. Cosí invece di dire «mille miliardi di Watt», possiamo semplicemente
dire «un terawatt». Ciò detto, possiamo provare a elencare alcuni valori di energie e potenze.
Potenze
1-10 W – Lampadine di torcia elettrica portatile o bicicletta
10-100 W – Lampadina casalinga. Potenza muscolare di un essere umano
100-1000 W, (0.1-1) kW – Elettrodomestici; piccoli motori a scoppio (tagliaerba)
10-100 kW – Motori di automobili
100 kW – Motori per trasporti macchinari pesanti (bulldozer, scavatrici, ecc.)
1000 kW = 1 MW – Motore a turbina aeronautico, aerogeneratore
10 MW – Piccola centrale elettrica (turbina o idroelettrica)
100 MW – Centrale elettrica media (turbina a ciclo combinato)
1000 MW = 1 GW – Centrale elettrica grande (reattore nucleare)
300 GW – Totale potenza di tutte le centrali atomiche mondiali
8000 GW = 8 TW – Totale potenza mondiale media ottenuta dai combustibili fossili
10.7 TW – Totale potenza media mondiale da tutte le sorgenti di energia
umane
Energie
300 kWh – Energia generata dall’apparato muscolare umano in un anno
8 kWh – Energia chimica ottenibile da un kg di carbone
1.5 MWh – Energia chimica ottenibile da un barile di petrolio (159 litri)
20
2 MWh – Consumo elettrico casalingo annuale
10 MWh – Energia chimica ottenibile da una tonnellata di petrolio
24 GWh – Energia ottenibile dalla fissione di 1 kg di Uranio 235
310 GWh – Energia ottenibile dalla fusione di un kg di deuterio
2x106 GWh (2 Ewh) – Totale energia prodotta in Italia in un anno
108 GWh (100 Ewh) – Totale energia prodotta al mondo in un anno
Conservazione dell’energia ed efficienza energetica
Come abbiamo visto, l’energia è qualcosa che possiamo misurare. Nella pratica di tutti i giorni è anche qualcosa che prendiamo come, piú o meno, parte della nostra esistenza, qualcosa
che ci sembra garantito. Ben pochi di noi si preoccupano di
sapere, per esempio, da dove viene l’energia elettrica che appare alla presa di corrente quando attacchiamo un televisore o
un aspirapolvere. Ben pochi di noi sanno che strada ha fatto la
benzina erogata dalla pompa del distributore. Tuttavia, queste
sono domande fondamentali. In sostanza: come si produce l’energia? Da dove viene e dove va a finire?
Produrre e gestire energia in grandi quantità è qualcosa che
l’umanità ha imparato a fare in tempi recenti, da non piú di un
paio di secoli. Non che prima non si usasse energia, ma se ne
usava molto poca, principalmente nella forma di energia umana e del focolare domestico. Muscoli e legna da ardere sono
sempre stati in relativa abbondanza, per cui non c’era neanche
il concetto di «energia» come grandezza fisica e sicuramente
nessuno si preoccupava di possibili «crisi energetiche».
Il concetto di energia come grandezza fisica nasce nell’Ottocento con la macchina a vapore. Il primo sistema meccanico
che produceva energia, il primo sistema in grado, in linea di
principio, di sostituire i muscoli umani nel lavoro. Possiamo
immaginare quanto i nostri antenati del tempo ne furono impressionati. È con la macchina a vapore che è nata quella «rivoluzione tecnologica» che continua ancora oggi e che non cessa di stupirci.
Gli scienziati di quei tempi arrivarono a conclusioni che sono valide ancora oggi e che formano quella parte della fisica
21
che chiamiamo «termodinamica», che si occupa di energia e
calore. Per quello che ci interessa qui, ci sono due «leggi» o
«principi» di base che furono trovati a quel tempo: uno è che
l’energia si conserva, l’altro che l’energia si degrada. Questi sono chiamati, rispettivamente, il primo e il secondo principio
della termodinamica.
Il primo principio, quello della conservazione, dice che l’energia, come la materia, non sparisce mai, si trasforma. Fu scoperto da Lord Kelvin, l’idea gli venne in mente osservando la
fabbricazione di un cannone. Per fare i cannoni, a quel tempo
si partiva da un cilindro di bronzo dove l’interno della canna
veniva scavato con un trapano meccanico. Ma tutta l’energia
meccanica del trapano, dove andava a finire? Kelvin fece un
po’ di conti e si accorse che andava a finire tutta in calore. Piú
tardi fu trovato da Botzmann e altri che il calore, come abbiamo detto prima, è una forma di energia che non differisce sostanzialmente dalla definizione di base: forza e spostamento.
Le «trasformazioni» energetiche sono in effetti il concetto
di base dell’uso dell’energia. A volte ci serve un tipo di energia, a volte un altro. Per muoversi e trasportare oggetti ci serve
energia meccanica. Per scaldarci ci serve energia termica. Per
illuminare ci serve energia luminosa. Per trasmettere segnali e
per molte altre cose, ci serve energia elettrica. Trasformare un
tipo di energia in un altro è la base della nostra attività quotidiana: del resto, come dice il principio, l’energia possiamo solo
trasformarla. Cosí una stufetta trasforma l’energia elettrica in
calore, una lampadina la trasforma in energia luminosa. Il motore di un’automobile trasforma l’energia chimica della benzina in energia meccanica per la locomozione. I nostri stessi corpi trasformano l’energia chimica del cibo che mangiamo in
energia meccanica per mezzo dei muscoli.
Il fatto che l’energia si conservi sempre ci potrebbe anche
tranquillizzare. Se l’energia si conserva e, di conseguenza, non
la si può distruggere, non dovremmo preoccuparci di crisi energetiche o cose del genere. Purtroppo però le cose non sono cosí semplici e quando trasformiamo un tipo di energia in un altro dobbiamo tener conto anche di quella seconda legge che
22
abbiamo menzionato prima, ovvero che l’energia si degrada
nelle trasformazioni.
Questo della degradazione dell’energia, che chiamiamo il
secondo principio della termodinamica, fu espresso da vari
scienziati (Carnot, Clausius e altri) nel secolo XIX. Il principio
viene di frequente espresso in termini di una grandezza che si
chiama «entropia». Nei testi divulgativi l’entropia viene spesso
definita come «disordine», il che è solo parzialmente esatto.
L’entropia è un concetto piuttosto complesso e sottile. Per quello che ci serve qui, ci basta largamente l’idea fondamentale del
concetto, che è intuitiva: tutto nell’universo tende a una certa
uniformità, che possiamo chiamare anche degrado.
Il concetto di uniformità e di degrado dell’energia deriva
dall’osservazione che il principio fondamentale sul quale si basava il funzionamento di una macchina a vapore era quello dell’esistenza di una differenza di temperatura. Carnot trovò che
l’efficienza della macchina dipendeva, in linea di principio, soltanto dalla differenza di temperatura che c’era fra la caldaia e
l’ambiente dove si scaricava il vapore. Per una macchina a vapore classica questa differenza è di un centinaio di gradi, il che
rendeva queste prime macchine molto poco efficienti. Oggi abbiamo motori termici molto piú evoluti, per esempio turbine a
gas, dove la differenza può essere anche di un migliaio di gradi. Secondo Carnot, l’entità di questa differenza di temperatura definisce in modo quantitativo l’efficienza di un motore termico. Nessun motore termico, per quanto evoluto, potrà mai
arrivare al 100% di efficienza.
I due principi della termodinamica non sono in contrasto
fra di loro. Come abbiamo detto, l’energia non si perde mai
ma si degrada trasformandosi in forme sempre meno utili a
produrre lavoro meccanico. Si parla a volte di energie «nobili»
per definire quelle che sono le piú adatte a produrre lavoro e
che quindi sono le piú utili nella vita quotidiana. Grandi differenze di temperatura sono forme di energia nobile in quanto,
come ha insegnato Carnot, possiamo usarle per costruire una
macchina termica efficiente. Altre forme di energia nobile sono per esempio i potenziali elettrici, e come sappiamo l’ener23
gia elettrica è molto versatile e utile per una quantità di scopi
pratici. L’energia piú degradata è quella delle piccole differenze di temperature, dalle quali diventa praticamente impossibile
ottenere lavoro utile. Una delle conseguenze del principio di
Carnot, che si ritiene abbia valore universale, è che a lungo andare tutte le differenze di temperatura nell’universo tenderanno ad annullarsi. A quel punto nessun cambiamento sarà piú
possibile, l’universo sarà effettivamente «morto». Questa sarà
la crisi energetica finale e irrimediabile; ma avverrà su scale di
tempo di molti miliardi di anni per cui non è cosa di cui preoccuparsi adesso.
La tecnologia moderna è molto migliorata in termini di efficienza di trasformazione rispetto a quella dei tempi di Carnot.
Il principio rimane però lo stesso. Questo vuol dire che ogni
volta che eseguiamo una di queste trasformazioni perdiamo
qualcosa. Non che questa energia «perduta» scompaia dall’universo, come abbiamo detto l’energia si conserva. Questa
energia però va a finire in calore a bassa temperatura, calore
dal quale non riusciamo piú ad estrarre energia utile, per esempio meccanica o elettrica.
Un buon esempio di questa situazione, che chiamiamo a
volte «irreversibilità dei processi termodinamici» sta nei meccanismi che regolano il moto di un’automobile, ovvero che sono usati per accelerarla (motore) e per decelerarla (freni). In
entrambi i casi, dobbiamo fare agire una forza contro l’inerzia
della massa della vettura, ovvero ci vuole energia. Per accelerare, però, abbiamo bisogno di un sistema complicato di pistoni, valvole, candele, carburatore, radiatore, e tutto il resto
che sta nel motore e nella trasmissione. Viceversa, tutto quello
che ci serve per decelerare è una semplice pinza che stringe
un disco metallico: un freno. La differenza nei due casi sta tutta nel concetto del degrado energetico. Nel primo caso (accelerazione) dobbiamo trasformare il calore (fornito dal carburante) in energia meccanica che va alle ruote. Trasformare
energia «degradata» (calore) in energia «nobile» (moto meccanico) è difficile, per questo abbiamo bisogno di un motore
complesso la cui efficienza, tipicamente, non va oltre il 20%24
30%. Il contrario, trasformare moto in calore, è enormemente
piú semplice e ha un’efficienza che è, in pratica, del 100%. Se
trovassimo un modo di aggirare la seconda legge della termodinamica forse ci sarebbero dei modi molto meno costosi e
complessi per far camminare un’automobile. Purtroppo, per
quanto ne sappiamo, questo non è possibile con buona pace
di tutti quelli che hanno tentato (e tentano tuttora) di inventare il moto perpetuo.
Immagazzinamento dell’energia
Abbiamo visto che l’energia non si crea e non si distrugge.
Possiamo solo trasformarla e la trasformazione avviene con
un’efficienza che non è mai completa. Questa ultima caratteristica è uno svantaggio ma alla fine dei conti non è il punto fondamentale. Il problema è che abbiamo bisogno di diversi tipi
di energia: elettrica, chimica, termica e meccanica. Trasformare un tipo di energia in un’altra può essere piú o meno difficile, ma per poterla trasformare occorre averla immagazzinata
da qualche parte, in qualche forma. Siccome l’energia, come
abbiamo visto, si degrada, non è cosa ovvia tenerla ferma da
qualche parte. Per esempio, un oggetto piú caldo dell’ambiente che lo circondatende a raffreddarsi progressivamente equilibrandosi con l’ambiente stesso. È difficile immagazzinare energia termica per molto tempo. Un buon termos può servire a tenere il caffè caldo per parecchie ore, ma non in eterno. Il problema dell’immagazzinamento, o stoccaggio, dell’energia è forse il problema tecnologico piú importante da risolvere, e che
non abbiamo ancora completamente risolto.
In effetti, abbiamo detto che l’energia è movimento, quindi
come immagazzinare il movimento? Niente affatto ovvio. Possiamo usare diverse strategie, alcune delle quali migliori di altre. Comunque, immagazzinare energia significa, tanto per
cambiare, ancora trasformarla. Trasformarla da un tipo di energia difficilmente immagazzinabile a uno che invece lo sia.
Facciamo un esempio, prendiamo una ruota che gira: ab25
biamo bisogno di far girare ruote per moltissime ragioni, per
far muovere veicoli, per azionare macchine, pulegge, alberi motore, trivelle, ogni sorta di arnesi. Una ruota che gira non gira
in eterno, però mantiene il suo movimento, ovvero la sua energia, per un certo tempo. Se utilizziamo una ruota per immagazzinare energia la chiamiamo col nome di «volano». Un volano immagazzina energia cinetica, ovvero movimento, come
abbiamo detto. Tipicamente viene usato per immagazzinare
l’energia meccanica fornita dal pistone di un motore termico.
L’energia cinetica del pistone varia a seconda della posizione
del pistone stesso; ai cosiddetti «punti morti», ovvero al massimo dalla corsa nelle due direzioni, l’energia cinetica del pistone è zero. Senza un volano, un albero motore collegato direttamente ai pistoni non sarebbe una cosa molto pratica.
D’altra parte il volano è pur sempre una ruota che gira, e può
immagazzinare energia soltanto per un certo tempo. A lungo
andare, gli attriti inevitabili ai cuscinetti causano un’altra di quelle degradazioni energetiche di cui si parlava prima. L’energia cinetica del volano viene gradualmente trasformata in energia termica a bassa temperatura (energia poco utile) e il volano stesso
si ferma. Per rimediare, potremmo usare dei cuscinetti particolarmente efficienti, ovvero a bassissimo attrito. Potremmo fare a
meno del tutto dei cuscinetti e tenere il volano sospeso su un
campo magnetico, cosa perfettamente possibile. In questo caso,
rimangono tuttavia gli attriti viscosi con l’aria che circonda il
volano. In questo tipo di attrito il volano trasferisce la sua energia cinetica all’aria come energia termica. Anche per questo possiamo far qualcosa: far girare il volano sotto vuoto oppure in
un’atmosfera di elio che è un gas a basso attrito. Neanche in
questo modo il volano girerà in eterno, ma potrà immagazzinare
una grande quantità di energia per lungo tempo. I volani che
sfruttano questi principi sono detti «supervolani» e hanno prestazioni enormemente superiori a quelle dei volani usati nei motori a combustione interna (alcuni dei lettori si ricorderanno del
volano nel motore della vecchia motocicletta Guzzi 500 degli
anni sessanta – detto dai proprietari «l’affettasalame». Era un
volano molto appariscente ma non molto efficiente).
26
I «supervolani» sono una tecnologia di cui si parla dagli anni settanta. In teoria, un’automobile equipaggiata con un supervolano non avrebbe bisogno di un motore: una volta caricato il volano stesso prenderebbe energia da quello e avrebbe
un’autonomia pari o superiore a quella di una macchina tradizionale. In pratica, la tecnologia dei supervolani non è entrata
nell’uso comune principalmente per motivi di costo, ma anche
di sicurezza. In caso di incidente, non si sa bene cosa potrebbe
accadere se un volano che gira a 20.000 o 30.000 giri al minuto
se ne andasse a spasso da solo...
Il caso dei volani e dei supervolani è solo un esempio della
varietà dei metodi usati e usabili per immagazzinare energia.
In quasi tutti i casi si tratta di trasformare un tipo di energia in
un altro. Sono rare le condizioni in cui si trasforma e si ritrasforma lo stesso tipo di energia. Uno è, come abbiamo detto, il
volano (da meccanica a meccanica). Un altro caso potrebbe essere quello di una centrale idroelettrica, dove l’energia (energia potenziale gravitazionale, in questo caso) potrebbe essere
immagazzinata pompando acqua da valle a monte. Sarebbe anche possibile immagazzinare energia elettrica accumulando carica elettrica in quello che si chiama «condensatore», ma non è
una cosa molto pratica dato che la capacità dei condensatori di
accumulare carica è limitata.
Nella maggior parte dei casi, nella pratica, i modi piú efficienti per immagazzinare l’energia sono quelli dove la si gestisce sotto forma di energia chimica. Un esempio è rappresentato dalle batterie (il tipo piú comune è quello al piombo) note
da oltre un secolo e a tutt’oggi l’unico modo pratico per il sistema di potenza ausiliaria negli autoveicoli. Le batterie sono
basate sulla capacità che hanno certi elementi metallici di rilasciare o acquistare elettroni, processi che i chimici chiamano,
rispettivamente, «ossidazione» o «riduzione». Il fatto che il sistema funzioni in questo modo lo rende evidentemente molto
adatto a immagazzinare energia elettrica, che può essere riottenuta quando necessario. Nella pratica, tutti i tipi di batterie sono poco efficienti. Per esempio, un atomo di piombo ha nel
suo stato naturale 82 elettroni, di questi ne usa soltanto due
27
per quegli scambi che avvengono all’interno di una batteria.
Tutti gli altri sono inutilizzati nel processo, e siccome per compensare la loro carica negativa occorre un nucleo atomico positivo di pari carica (e peso quasi duemila volte maggiore), ne
consegue che le batterie al piombo sono molto pesanti in relazione all’energia che possono immagazzinare. In aggiunta, esiste un’altra serie di problemi che rendono poco affidabili queste batterie, il progressivo degrado degli elettrodi è il principale. Le batterie al piombo rimangono l’elemento piú delicato di
un autoveicolo stradale, quello per colpa del quale è piú probabile doversi fermare. Le stesse considerazioni valgono per
altri tipi di batterie, per esempio quelle al litio usate per orologi e computer portatili. Queste batterie sono piú efficienti, ma
anche piú costose.
Nella pratica delle cose, il modo migliore per immagazzinare energia chimica rimane sempre quello dei combustibili fossili. Un litro di petrolio (o di benzina, il che è piú o meno lo
stesso) pesa un po’ meno di un chilogrammo e immagazzina
circa 10.000 kilocalorie (kcal). Il petrolio e i combustibili derivati si possono tenere in recipienti metallici o in plastica con
minime precauzioni. Si possono trasportare in questi recipienti, oppure pompare dentro tubi. Messi dentro delle petroliere
si possono trasportare a bassissimo costo per distanze planetarie. Non c’è assolutamente niente che possa reggere il confronto. Anche i gas fossili (metano, detto anche gas naturale) sono
sistemi abbastanza pratici per trasportare e immagazzinare
energia, anche se qui i costi sono maggiori dato che occorrono
recipienti a pressione.
Il grosso problema con il petrolio e gli altri combustibili
fossili, come vedremo poi, è che non si tratta di veri e propri
metodi di «immagazzinamento» di energia nel senso che immagazzinare qualcosa dovrebbe implicare nel comune senso
del termine un certo livello di reversibilità. Ovvero, dovrei essere in grado di spostare quello che ho immagazzinato dentro
e fuori dal «magazzino» a seconda delle esigenze. Viceversa, il
petrolio e gli altri combustibili fossili li possiamo trasformare
in energia termica bruciandoli, ma non esiste un metodo sem28
plice o pratico per trasformare l’energia termica in petrolio e
simili. Questo è uno dei grossi problemi relativi al petrolio, il
fatto appunto che il suo uso sia completamente irreversibile,
ovvero secondo alcuni totalmente «insostenibile». Su questo
punto discuteremo in dettaglio piú avanti.
In tempi recenti si è parlato molto di «economia basata sull’idrogeno». In effetti, l’idrogeno non è una fonte di energia ma
quello che si chiama un «vettore energetico», ovvero un mezzo
per immagazzinare e trasportare energia. Basare il sistema energetico sull’idrogeno vuol dire basarsi su due trasformazioni chimiche: una è quella che combina l’idrogeno con l’ossigeno a
formare acqua (producendo energia), l’altra, opposta, è quella
che separa l’idrogeno dall’ossigeno dell’acqua (accumulando
energia). Le due trasformazioni non sono reversibili al 100%
(abbiamo detto che nessuna trasformazione energetica lo è), ma
possono essere condotte con una discreta efficienza. Combinare idrogeno con ossigeno in una cella a combustibile produce
energia elettrica con un’efficienza che può essere anche del 60%
o superiore. Separare l’idrogeno dall’ossigeno mediante energia
elettrica nel processo che si chiama «elettrolisi» si può fare con
un efficienza del 70% o superiore. Entrambi i processi sono
completamente puliti, non rilasciano gas, solo acqua liquida e
una piccola quantità di calore.
Quindi, l’idrogeno si presenta come il piú ovvio, e forse l’unico concepibile in pratica, mezzo di immagazzinamento dell’energia. Rimane il problema della produzione di questa energia,
ovvero il problema dell’energia primaria che al giorno d’oggi è
fornita per circa il 90% dagli idrocarburi. Il fatto che, come abbiamo detto, la produzione di energia primaria sia insostenibile
è il problema principale cui ci troviamo di fronte oggi.
29
Il petrolio e i combustibili fossili
Il petrolio è un membro di quella famiglia di composti che
chiamiamo «idrocarburi», che include quasi tutte le sostanze
comunemente usate per ottenere energia dalla combustione.
La descrizione delle proprietà degli idrocarburi è tradizionalmente materia riservata ai chimici. La chimica, poi, è la tipica
«bestia nera» di quasi tutti coloro che non sono chimici ma
che l’hanno incontrata nel corso dei loro studi. Il fatto che non
tutti amano la chimica sembrerebbe essere la causa di molti
svarioni e fesserie sulla benzina e in generale sui combustibili
che si leggono a volte sui giornali e che si sentono dire in giro.
Abbiamo detto, tuttavia, che gli idrocarburi sono la nostra principale fonte di energia e se vogliamo capire qualcosa di questo
argomento non sarebbe male farsi perlomeno un’idea generale
di come sono fatti e come funzionano. Questo è quello che cercheremo di fare adesso.
Gli idrocarburi
Il nome «idrocarburi» deriva dal fatto che si tratta di composti fra carbonio e idrogeno. Potremmo definire anche il
carbone comune un idrocarburo, dato che contiene carbonio
(ovviamente) ma anche idrogeno in quantità variabili. Tuttavia il carbone non si classifica normalmente fra gli idrocar31
buri, sia perché contiene poco idrogeno, sia per ragioni storiche.
Di tutti gli elementi, il carbonio è quello che piú facilmente
forma lunghe molecole, aggregati di atomi, dove gli atomi di
carbonio si legano l’uno all’altro. Siccome ogni atomo di carbonio può formare (e di solito forma) quattro legami chimici con
altri atomi, il numero delle possibilità di combinazioni per varietà di lunghezza e ramificazione è molto grande. Questa proprietà è quella che rende il carbonio l’elemento fondamentale
della vita terrestre. Tutte le molecole che formano gli organismi
viventi sono basate su lunghe catene di carbonio. Per questo si
dice a volte che la vita terrestre è «basata sul carbonio» anche
se, ovviamente, il carbonio da solo non basterebbe. Un argomento esplorato in alcune storie di fantascienza e in alcune speculazioni scientifiche è la possibilità di trovare nell’universo forme di vita basate su elementi che non siano il carbonio. Si è
parlato, per esempio, di vita basata sul silicio, che può anch’esso formare catene ramificate. Queste catene, però, non sono
neanche lontanamente stabili quanto quelle del carbonio.
Le molecole biologiche sono quasi tutte basate su uno
«scheletro» di carbonio ma possono contenere praticamente
tutti gli elementi della tavola periodica, da questo viene la loro
grandissima complessità e varietà. Per quanto riguarda gli idrocarburi, anche con due soli tipi di atomi, carbonio e idrogeno,
è possibile una notevole varietà molecolare. L’idrocarburo piú
semplice di tutti è quello dove un solo atomo di carbonio è legato a quattro atomi di idrogeno. Lo chiamiamo metano e la
sua formula chimica è CH4 (figura 1).
Legando insieme due atomi di carbonio e lasciando atomi
di idrogeno ai legami liberi, otteniamo la molecola dell’etano:
C2H6, che possiamo scrivere come CH3CH3 per evidenziarne
la struttura molecolare. Si tratta di due molecole di metano
«gemellate», ovvero che hanno perso un atomo di idrogeno
ciascuna per legarsi fra di loro.
Una volta capito il trucco di come si formano questi legami
fra atomi di carbonio, si possono creare molecole sempre piú
complesse semplicemente addizionando atomi di carbonio per
32
Figura 1. La molecola del metano (CH4), il piú semplice degli idrocarburi.
L’atomo di carbonio (al centro) è circondato dai quattro atomi di idrogeno.
formare catene piú lunghe. L’idrocarburo con tre atomi di carbonio in fila si chiama propano, quello con quattro butano. Catene piú lunghe hanno nomi abbastanza ovvi: pentano, esano,
eptano, ottano, eccetera. Le catene possono essere lineari: in
questo caso i chimici parlano, per esempio, di «normal-ottano»,
scritto anche a volte «n-ottano». Questa molecola lineare va distinta dalle varie altre possibilità di legare otto atomi di carbonio fra loro a formare molecole ramificate. Tutti gli idrocarburi
con piú di tre atomi di carbonio possono essere catene lineari o
ramificate in vari modi diversi, ovviamente piú sono lunghe piú
il numero di possibilità di ramificazione aumenta.
Via via che il numero di atomi aumenta, la sostanza formata
da queste molecole diventa piú viscosa. Metano, propano e butano sono tutti gassosi a temperatura e pressione ambiente. Gli
idrocarburi liquidi sono formati da molecole piú lunghe; la
benzina è formata in buona parte da molecole con una catena
di otto atomi (ottani). Da questa molecola è venuta la famosa
classificazione delle benzine in base al «numero di ottani» che
è strettamente legato alla ramificazione delle catene. Catene
piú lunghe formano liquidi piú viscosi, per esempio un tipico
olio lubrificante di sintesi può avere 15 atomi nella catena. Per
valori piú grandi le sostanze che si formano sono dette «paraf33
fine» che sono solide. Anche le normali borse di plastica del
supermercato sono idrocarburi quasi puri: sono formati da catene molto lunghe che comprendono migliaia di atomi. Per
queste lunghezze, le molecole sono dette «polimeri». Il piú
semplice dei polimeri è un idrocarburo formato solo da idrogeno e carbonio e viene detto polietilene.
Negli idrocarburi, e in generale in tutti i composti del carbonio, è anche possibile che alcuni degli atomi di carbonio si
leghino fra loro due volte, o anche tre volte, invece di legarsi
ad atomi di idrogeno. Questa faccenda del «doppio» e «triplo» legame è una cosa piuttosto complessa che ha a che fare
con la meccanica quantistica. Limitiamoci qui a dire che è una
proprietà molto importante del carbonio che aumenta ulteriormente, e di parecchio, il numero possibile di molecole basate
sul carbonio. Nel caso degli idrocarburi, una classe di queste
molecole a legami multipli fra atomi di carbonio è quella dei
composti detti «aromatici» dove la catena si richiude su se stessa a formare un anello. Fra gli aromatici il piú semplice è detto
«benzene», che si usa come solvente. Il benzene è un anello di
sei atomi di carbonio legati fra di loro e che sono anche legati
a un atomo di idrogeno ciascuno. Un altro composto aromatico comune è la naftalina che si usa contro le tarme. La naftalina (che dovrebbe essere chiamata, piú correttamente, naftalene) è formata da due anelli benzenici appiccicati fra loro come
due gemelli siamesi. I composti aromatici hanno di solito un
odore molto forte, una cosa direttamente correlata alla presenza di legami multipli negli anelli. Non hanno necessariamente
un buon odore, anzi sono di solito molto puzzolenti. Sono anche quasi sempre velenosi e spesso cancerogeni.
Per finire, possiamo menzionare quella categoria di composti del carbonio che contengono quasi soltanto carbonio e poco idrogeno, anche se questi non vengono di solito classificati
come idrocarburi. Al limite, se l’idrogeno è scomparso del tutto, abbiamo puro carbonio che in natura esiste in due forme:
grafite e diamante. Due solidi con proprietà molto diverse ma
formati dallo stesso elemento sono definiti con il termine tecnico di «allotropici». Il fatto che esistano queste due forme è
34
un’ulteriore indicazione della versatilità e della varietà della
chimica del carbonio. Incidentalmente, sia la grafite che il diamante bruciano in aria e, in teoria, si potrebbero usare come
combustibili. Ovviamente, questo non si fa, specialmente nel
caso del diamante! Può essere interessante, comunque, ricordare che fu il chimico francese Lavoisier a scoprire per primo
che il diamante era carbonio puro: per arrivare a questa conclusione dovette bruciarne uno che lui e altri chimici si erano
tassati per comprare.
Se diamante e grafite sono carbonio puro, la sostanza che da
nome all’elemento è, ovviamente, il carbone. Il carbone è composto in gran parte di carbonio, ma contiene anche idrogeno.
Esistono, come è ben noto, varie forme di carbone, ma tutte
sono accomunate da questa generale proprietà: sono formate
da un reticolo complesso di grosse molecole ramificate di carbonio e idrogeno. Per via della presenza di queste grosse molecole, il carbone è quel solido polveroso che tutti conosciamo.
La chimica del carbonio non finisce di stupirci. In tempi recentissimi, per esempio, i chimici hanno scoperto una nuova
classe completa di composti del carbonio detti «fullereni». Si
tratta di molecole dove le catene degli atomi di carbonio si richiudono fra loro a formare dei solidi tridimensionali. Il capostipite del gruppo è detto appunto «fullerene» ed è una sfera di
60 atomi di carbonio. Una variazione sul tema dei fullereni si
ha quando il solido tridimensionale forma un tubo che di solito
è molto lungo rispetto alla larghezza, queste molecole sono dette «nanotubi». Nanotubi e fullereni non esistono sulla Terra,
mentre se ne sono trovate tracce nella polvere interstellare. Per
ora rimangono una curiosità per i chimici, ma si presume che
possano avere importanti applicazioni tecnologiche nel futuro.
Idrocarburi fossili
Se vogliamo qualche dato quantitativo, possiamo dire che il
carbonio presente nella crosta terrestre si presenta per la maggior parte sotto forma di minerali detti carbonati (82% circa)
35
il resto (18%) sotto forma di idrocarburi e carbone fossile. Di
questo carbonio, possiamo usare come fonte di energia solo la
seconda categoria: gli idrocarburi e il carbone fossile.
Gli idrocarburi sono, come abbiamo visto, una vasta classe
di composti. Molti esistono in natura come parte o prodotto
degli esseri viventi, altri soltanto come composti sintetizzati in
laboratorio. Altri cadono nella categoria degli «idrocarburi fossili». Se vogliamo essere esatti, la parola «fossile» dovrebbe essere riservata ai resti animali e vegetali racchiusi nella roccia, a
quel campo chiamato paleobiologia che comprende, per esempio, le ossa dei dinosauri. Tuttavia, si tende a estendere il concetto e a chiamare «fossile» qualsiasi cosa che è stata sotto terra e che ha richiesto per formarsi un tempo molto piú lungo di
quello necessario per estrarla o utilizzarla. Cosí si parla, per
esempio, di «acqua fossile» (piú propriamente «acquifero»)
per indicare acqua accumulata sotto terra in tempi geologici.
L’acqua fossile si può utilizzare benissimo per l’irrigazione, ma
a differenza di quella dei pozzi comuni non si rinnova e quando è finita si ritorna alla siccità iniziale.
La parola «fossile» si applica anche agli idrocarburi che
usiamo come combustibili e che si sono formati parecchi milioni di anni fa, principalmente nell’era mesozoica, dalla decomposizione di organismi viventi. Siccome gli idrocarburi si
sono formati principalmente al tempo dei dinosauri, qualcuno
ha chiamato il petrolio «succo di dinosauri», un termine poetico ma sostanzialmente non sbagliato. Per completezza va detto
che fra i geologi c’è anche qualcuno che sostiene che il petrolio
ha, o può avere, un’origine inorganica. È un’idea che circola
da quando si è cominciato a studiare il petrolio, almeno un secolo fa. Secondo alcuni studi è possibile che petrolio «abiotico» si formi a grandi profondità nella crosta terrestre, ma l’opinione comune è che quasi tutto il petrolio che estraiamo abbia origine dalla decomposizione di sostanze viventi.
La Terra ha una storia di qualche miliardo di anni di vita
organica sulla superficie. Per la grande maggioranza di questo
periodo gli esseri viventi terrestri sono stati microscopiche creature unicellulari: alghe e batteri. Le creature multicellulari e i
36
vertebrati hanno solo qualche centinaio di milioni di anni di
storia. Multicellulare o no, la vita organica è basata in gran parte su poche specie atomiche: principalmente carbonio, idrogeno, ossigeno e azoto, ma quasi tutti gli elementi della tavola
periodica sono presenti, perlomeno in tracce, negli organismi.
Originariamente, questi elementi erano presenti solo in
composti inorganici, minerali se cosí li vogliamo chiamare. Le
creature viventi sono state in grado di trasformare questi elementi in materiale vivente, un processo che le piante continuano a fare ancora oggi. Siccome l’elemento di base della materia
vivente è il carbonio, la specie chimica che forma lo scheletro
delle molecole che a loro volta formano gli organismi, tendiamo a dire che la vita sulla Terra è basata sul carbonio e che esiste un «ciclo del carbonio» che dà vita a tutto quell’insieme di
creature viventi che chiamiamo «biosfera».
In questo ciclo, le piante metabolizzano elementi minerali e
li trasformano in materiale biologico, il processo inverso ha a
che fare con tessuto organico morto che decade e si ritrasforma in materiale inorganico. La trasformazione a materiale inorganico può avvenire per effetto di altre creature viventi (principalmente batteri e funghi che sono gli «spazzini» della biosfera) oppure per processi piú brutali, per esempio il fuoco.
Quando bruciamo un pezzo di legno trasformiamo complesse
molecole organiche di cellulosa e di lignina in composti inorganici piú semplici: acqua e biossido di carbonio. Questi composti finiscono nell’atmosfera, dove sono assorbiti dalle piante
che li trasformano di nuovo in lignina e cellulosa (e molte altre
sostanze). Se il legno non lo bruciassimo noi, finirebbe comunque trasformato (o, con termine piú tecnico, «metabolizzato»)
da funghi e batteri in biossido di carbonio e acqua.
Il ciclo del carbonio sembra perfettamente completo, ma in
realtà non lo è. Non tutti i residui organici vengono metabolizzati e distrutti completamente. Se i materiali organici si accumulano in qualche zona priva di ossigeno, per esempio sul fondo di un lago o dell’oceano, è impossibile per i batteri ossidarli
completamente. Se tali composti rimangono in queste condizioni per un tempo molto lungo la sedimentazione naturale può
37
ricoprirli rimuovendoli dalla biosfera. I normali movimenti della crosta terrestre (processi che chiamiamo «tettonica») possono trasportare i sedimenti organici a grande profondità sottoterra, in aree dove esistono alte pressioni e alte temperature.
Quasi tutte le rocce sedimentarie contengono tracce di materiale organico al loro interno. In alcuni casi sono stati trovati
granelli di polline ancora perfettamente conservati in rocce
vecchie 100 milioni di anni (chi è allergico al polline troverà
questo dato piuttosto sconfortante). I metodi di indagine moderni, e in particolare la spettrometria di massa, sono in grado
di trovare e identificare tracce di materia organica anche infinitesimali, ma semplici tracce e granelli di polline non sono e
non possono essere, ovviamente, una sorgente di energia. Alcune rocce, tuttavia, contengono grandi quantità di materiale
di origine organica, «fossile», appunto. In certi casi, all’interno
di rocce porose si trovano grandi quantità di quel materiale liquido che chiamiamo petrolio, in altre di quello gassoso che
chiamiamo gas naturale. Altre rocce contengono quel materiale solido che chiamiamo carbone.
Petrolio, gas e carbone mantengono in parte le componenti
atomiche del materiale organico originario, ma sono materiali
che non hanno piú quasi niente a che vedere con gli organismi
che li hanno generati. Hanno subito una serie di processi chimici che hanno spezzato e trasformato le complesse molecole
organiche che formano gli organismi viventi. Sotto l’effetto delle alte temperature e pressioni della crosta terrestre, a un estremo, si può rimuovere quasi completamente sia l’ossigeno che
l’idrogeno. Al limite, sotto pressioni e temperature altissime il
carbone si può trasformare in diamante oppure grafite, due
forme dette «allotropiche» del carbonio puro. Se però il processo di rimozione dell’ossigeno e dell’idrogeno non è stato
completo si formano vari tipi di carbone. Il piú pregiato in termini di potere calorifico, quasi tutto carbonio puro, è quello
detto «antracite» che è formato di sedimenti precipitati circa
300 milioni di anni fa. Un’altra forma si chiama «litantrace» e
ha avuto origine nel carbonifero superiore, circa 250 milioni di
anni fa. Forme di carbone meno pregiate sono le ligniti, che si
38
sono formate al tempo dei dinosauri, circa 60 milioni di anni
fa. Le torbe sono ancora piú recenti e possono risalire a meno
di un milione di anni. Il carbone si è formato principalmente
in depositi terrestri, a differenza del petrolio che è di solito il
prodotto della sedimentazione organica sul fondo degli antichi
oceani.
In condizioni piú moderate di quelle in cui si forma il carbone, l’idrogeno rimane in quantità maggiore nel residuo che a
questo punto forma molecole piú semplici e piú piccole di quelle del carbone. Nel caso piú semplice, si forma metano (CH4)
che è il componente principale del gas naturale. Il metano si trova quasi sempre associato al petrolio: quasi tutti i pozzi di petrolio contengono anche una certa quantità di metano. In certi
casi, il metano si trova anche da solo, in assenza di petrolio.
Il metano esiste anche in una forma che viene detta «idrato» o «clatrato» associata a depositi di ghiaccio a grande
profondità. Anche questo metano idrato è il risultato della decomposizione di materiale organico sedimentato, in questo caso però, piuttosto che in una roccia lo si trova intrappolato nel
reticolo dell’acqua ghiacciata ad alta pressione. Si ritiene che
grandi quantità di clatrati esistano sotto gli oceani, ma non si
sa esattamente in che quantità, né se sia possibile estrarlo. Pare
anche che i tempi di formazione degli idrati siano enormemente inferiori a quelli degli idrocarburi fossili comuni. Se per formare metano ad alta profondità occorrono perlomeno diversi
milioni di anni, pare che occorra soltanto qualche secolo per
formare gli idrati. Questo pone il problema se dobbiamo considerare gli idrati come una vera e propria risorsa «fossile». Dal
punto di vista formale, è difficile dire. Tuttavia è certo che se
andremo ad estrarre gli idrati li consumeremo a una velocità
ben piú alta di quella alla quale si formano normalmente.
In condizioni ancora piú moderate di pressione e temperatura all’interno delle rocce, le lunghe catene di carbonio delle
molecole organiche non vengono completamente spezzate. Si
crea quella miscela di idrocarburi che formano il liquido che
chiamiamo petrolio e che contiene una grande varietà di molecole che contengono un numero molto variabile di atomi (quel39
lo che i chimici chiamano il «peso molecolare»). I processi che
portano alla formazione del petrolio sono vari e complessi e il
petrolio può avere una composizione chimica molto diversa a
seconda delle sue origini. I petroli, come i vini, sono uguali ma
diversi, alcuni piú pregiati e altri meno. Nel caso dei vini sono
gli enologi a dibattere sulle qualità e caratteristiche, nel caso
del petrolio sono i geologi specializzati a esaminarle. Per i petroli, uno degli elementi variabili è la viscosità ovvero la capacità del liquido di fluire facilmente. Se il petrolio è molto viscoso diventa difficile estrarlo, pomparlo e maneggiarlo.
I tempi necessari per queste trasformazioni da sostanze organiche a idrocarburi fossili sono dell’ordine delle decine di
milioni di anni. I combustibili fossili sono veramente risorse
«non rinnovabili», può darsi che la sedimentazione nel fondo
degli oceani attuali stia lentamente producendo nuove quantità di idrocarburi, ma il processo è talmente lento da non essere neanche percepibile dagli esseri umani. Comunque vada,
stiamo bruciando gli idrocarburi a un ritmo circa un milione
di volte piú rapido di quello al quale si sono formati.
Tutti sanno che il petrolio si trova principalmente nel Medio Oriente, e questo è abbastanza vero in prima approssimazione. Si dice normalmente, infatti, che circa il 67% delle risorse estraibili si trovano nel Medio Oriente, fra Arabia Saudita, Stati del Golfo, Iraq e Iran. Di questi paesi l’Arabia Saudita
è quella con le riserve accertate piú ampie, forse il 15% del totale estraibile che rimane sul pianeta. Da quello che potremmo
dedurre da un’occhiata rapida alla carta geografica, sembrerebbe che petrolio e deserti siano legati fra di loro, ma in realtà
non c’è nessuna ragione specifica per la quale il petrolio dovrebbe trovarsi principalmente in aree desertiche, e in effetti
lo si trova in moltissime tipologie di area, come pure sotto i
mari.
Sostanzialmente, per avere petrolio (o gas) estraibile, è necessario che si formi una «trappola» che lo tenga e lo accumuli in una zona ben precisa. In pratica occorre che il petrolio sia
intrappolato in una roccia porosa, la quale a sua volta deve trovarsi intrappolata da uno strato di roccia non porosa. Solo cosí
40
si può formare una «riserva» o un «pozzo» di petrolio estraibile. Un’analogia potrebbe essere quella di un gavettone, un palloncino di gomma riempito d’acqua. Meglio ancora, potremmo pensare a spugna bagnata pigiata a forza dentro un palloncino di gomma. Finché il palloncino rimane integro, possiamo
deformare e comprimere il tutto senza che l’acqua fuoriesca.
Se però facciamo un buco nel palloncino, l’acqua potrà uscire
dal buco con una certa forza.
Per il petrolio, esistono diverse configurazioni possibili per
intrappolare il liquido in rocce porose (o spugnose, se preferiamo questo termine). In questo caso la forza di gravità gioca
un ruolo importante, occorre che la roccia non porosa (la gomma del palloncino) faccia da «tappo» e blocchi il movimento
del petrolio verso l’alto. Una di queste possibili strutture ha
una forma a cupola detta «anticlinale», ma ci sono altre possibilità. Come è ovvio, comunque, queste formazioni sono l’eccezione e non la regola nella crosta terrestre. Questo è abbastanza ovvio e tutti sappiamo bene che il petrolio si trova solo
in zone molto particolari.
Si sa che il petrolio può formarsi normalmente in quella regione di profondità che viene detta «finestra del petrolio» e
che va da un massimo di circa 5 km a un minimo di circa 2,5
km. A profondità piú elevate, le temperature e le pressioni sono troppo alte e si può formare solo metano. A profondità minori, temperature e pressioni sono troppo basse e la materia
organica non si decompone a un punto tale da formare un liquido. Questo non vuol dire che il petrolio si trovi unicamente
a quelle profondità, al contrario lo si trova spesso a profondità
molto minori a causa dei movimenti tettonici terrestri che spingono le masse rocciose su e giú nella crosta terrestre. Per esempio, il primo pozzo scoperto negli Stati Uniti nel 1859 era a
una profondità di soli 25 metri. Nella pratica, i pozzi a piccola
profondità sono stati i primi a essere scoperti in quanto danno
spesso evidenti segni della loro esistenza, per esempio piccole
quantità che filtrano alla superficie. Oggi è necessario di norma trivellare a profondità ben piú grandi: una trivellazione
esplorativa di solito va giú per almeno tre chilometri. Tuttavia,
41
il fatto che il petrolio si possa formare soltanto in una «finestra» ben definita è un’utile indicazione che permette di scartare molte aree dove si può ritenere che le rocce non abbiano
viaggiato alle profondità giuste. Il fatto che ci siano delle rocce
«giuste», tuttavia, non significa affatto che il petrolio ci sia.
Potrà sembrare strano in un’epoca come la nostra di incredibile tecnologia, ma tutt’ora l’unico modo per verificare l’esistenza del petrolio in un determinato sito è la trivellazione. Ovviamente, fare una trivellazione profonda diversi chilometri non
è impresa da poco ed è inoltre assai costosa. Come ordine di
grandezza si parla oggi di circa 80-100 Euro al metro, ma il costo varia a seconda della profondità: piú profondo è lo scavo,
maggiore è il costo al metro. Dato che si parla di scavare qualche migliaio di metri almeno, una trivellazione esplorativa è
molto costosa, che si trovi petrolio o no. Ai prezzi attuali (2003),
una trivellazione esplorativa «offshore» costa circa un milione
di dollari, un po’ meno se fatta sulla terraferma.
L’attività del cercatore di petrolio rimane qualcosa di avventuroso che porta a esplorare aree remote e inospitali per
poi trovare a volte che nessuna delle trivellazioni fatte porta a
qualcosa. È una specie di gioco della roulette che qualche volta porta a grosse vincite e qualche volta a grosse delusioni. Per
esempio, negli ultimi dieci anni si sono fatte 140 trivellazioni
profonde al largo della costa dell’Irlanda. Di queste solo due
hanno portato a scoprire delle piccole riserve di gas. Una vera
delusione, soldi buttati ma, come abbiamo detto, se non si scava un buco non si può sapere esattamente cosa c’è sotto.
Una volta che in una trivellazione si sono trovate tracce di
petrolio o di gas (spesso si trovano entrambe le cose) si tratta
poi di estrarlo. La visione della colonna di petrolio che schizza
fuori dalla terra non è sbagliata, certi pozzi sono sotto pressione e trivellare attraverso gli strati di roccia compatta che li tengono compressi porta effettivamente il petrolio a muoversi verso l’alto con grande forza. Nella maggior parte dei casi, tuttavia, l’estrazione del petrolio è un processo complicato che richiede, come minimo, un pompaggio. I bilancieri che si vedono oscillare lentamente sui pozzi di petrolio sono lí per solle42
vare e abbassare delle sbarre d’acciaio che operano delle pompe situate in profondità. Comunque vada, le pompe possono
riportare in superficie solo una frazione del petrolio contenuto
in un giacimento. Questa frazione si può aumentare con vari
trucchi, tipicamente pompando qualche sostanza, acqua, vapore, biossido di carbonio, o altre che, per esempio, fluidificano meglio il petrolio oppure causano un’espansione che spinge
il petrolio fuori dalla roccia.
In generale, si parla di recupero «primario» nel caso in cui
il petrolio esce da solo dal giacimento, di recupero «secondario» quando viene pompato, e di recupero «terziario» quando
si iniettano nel pozzo altre sostanze per spingere fuori il petrolio. Anche con tutti questi trucchi, tuttavia, in nessun caso si
può tirar fuori il 100% del petrolio da un pozzo. Tipicamente,
i processi primari e secondari riportano in superficie un 30%
del petrolio presente nel pozzo, con i metodi terziari si arriva
al 50%. Questo vuol dire che normalmente una buona metà
del petrolio rimane sottoterra. Non che sarebbe totalmente impossibile estrarne ancora di piú, ma i costi sarebbero spaventosi e ci sono dei limiti a quello che si può fare a una profondità
di migliaia di metri sottoterra.
Tutto questo vale nel caso dei giacimenti di petrolio detti
«convenzionali», ovvero dove si ha petrolio liquido intrappolato in rocce porose. In altri casi, dove si parla di petrolio «non
convenzionale» abbiamo petrolio intrappolato in piccole quantità in rocce superficiali, petrolio che non si può semplicemente pompare fuori. È il caso delle sabbie bituminose (tar sands)
e degli scisti bituminosi (oil shales). In un caso si tratta di petrolio ancora non completamente formato (scisti) e nell’altro
di petrolio affiorato in superficie per l’effetto di movimenti tettonici che si è parzialmente degradato sotto l’effetto degli agenti atmosferici e dei microrganismi (sabbie bituminose). In entrambi i casi abbiamo un solido che contiene una certa quantità di petrolio, petrolio però che non fluisce allo stato liquido
come nei pozzi convenzionali.
Per estrarre petrolio dalle sabbie o dagli scisti, occorrono
procedimenti chimici piuttosto complessi. Nel caso delle tar
43
sands, l’estrazione si fa commercialmente da molti anni, sia pure ad alti costi. Un grosso giacimento di sabbie bituminose si
trova nella zona di Athabasca, vicino ad Alberta, in Canada.
Mediante grossi investimenti, sembra che si riesca a rendere
questo giacimento economicamente sfruttabile, d’altra parte
dobbiamo pensare anche alle immense difficoltà associate allo
scavare e trasportare enormi quantità di sabbia fino agli impianti di processo. È una cosa costosa, complicata, e rovinosa
per l’ambiente. Per quanto riguarda gli scisti bituminosi, i trattamenti sono ancora piú complessi e per ora lo sfruttamento
commerciale è molto limitato.
Per quanto riguarda il gas naturale (metano) valgono le
stesse considerazioni fatte per il petrolio. Ovvero, per avere
metano estraibile occorre una formazione geologica particolare dove una roccia non porosa intrappola il metano all’interno di uno strato di roccia porosa sottostante. Di solito il
metano si trova associato al petrolio nelle stesse formazioni:
petrolio e metano sono il risultato degli stessi processi geologici, li distinguiamo solo perché uno è gassoso l’altro è liquido.
L’altro caso è quello del carbone, anche questo un combustibile fossile risultante da processi di degradazione simili a
quelli che formano petrolio e gas naturali. Tuttavia, a differenza del petrolio e del gas, il carbone è solido. Occorrono lo stesso particolari condizioni per le quali si formi in quantità e concentrazione tali da rendere conveniente estrarlo, tuttavia non
c’è bisogno di una particolare formazione geologica per tenerlo intrappolato. Probabilmente per questa ragione il carbone è
piú abbondante sia del petrolio sia del gas naturale, almeno di
un fattore 10.
Nella pratica delle cose, le ragioni per le quali molto del petrolio planetario è venuto a trovarsi nella regione che oggi chiamiamo «Medio Oriente» sono del tutto casuali. Sfortunatamente questa distribuzione disomogenea del petrolio ci sta causando un sacco di problemi politici e purtroppo gli eventi del
periodo giurassico che hanno causato questa distribuzione non
sono influenzabili politicamente oggi.
44
Usi degli idrocarburi fossili
L’uso piú comune del petrolio, quello che viene in mente
per primo, è come combustibile per ottenere energia elettrica
o per la locomozione dei veicoli. Nella reazione degli idrocarburi con l’ossigeno dell’aria si formano due prodotti: il carbonio si combina a formare biossido di carbonio (CO2) e l’idrogeno si combina a formare acqua (H2O). I chimici misurano di
solito il calore di reazione usando unità di misura piuttosto arcane per il non specialista, ovvero in termini del calore sviluppato da una «grammomolecola» (o «mole») di sostanza. Questa «grammomolecola» corrisponde per convenzione a un numero di molecole (o di atomi) corrispondente al «numero di
Avogadro» ovvero 6,22x1023.
I dettagli di queste convenzioni ci interessano abbastanza
poco, l’importante è rendersi conto che le reazioni di ossidazione del carbonio e dell’idrogeno producono entrambe una
grande quantità di calore. In termini piú tecnici possiamo dire che entrambe sono fortemente esotermiche. Per la prima si
ottengono 395 kilojoule (kJ) calorie per ogni mole di carbonio (circa 12 grammi) che si combina con l’ossigeno. Per la
seconda si ottengono 285,8 kJ per ogni mole di idrogeno (circa 2 grammi) che si combina con l’ossigeno. A parità di peso,
la combustione dell’idrogeno fornisce molta piú energia di
quella del carbonio, questa è la ragione per la quale c’è tanto
entusiasmo per l’idrogeno come combustibile e molto meno
per il carbone. Abbiamo visto come il rapporto fra idrogeno
e ossigeno è variabile nei vari idrocarburi, per cui il potere
calorifico varia a seconda del combustibile. Nella pratica, il
rapporto carbonio/idrogeno non è molto diverso per la maggior parte dei combustibili liquidi attuali (benzina, gasolio,
cherosene, ecc.) pertanto i poteri calorifici relativi sono abbastanza simili.
La combustione, ovvero la combinazione con l’ossigeno è
l’uso principale dei combustibili fossili, ma non il solo. In pratica, solo un 50% del petrolio estratto viene bruciato per ricavarne energia. Il restante 50% viene utilizzato in vari modi,
45
per esempio per produrre materie plastiche, fertilizzanti, o materie prime per l’industria chimica. Questi usi sono altrettanto
importanti di quelli finalizzati alla produzione di energia.
Fra petrolio, gas e carbone, non c’è dubbio che il piú importante, per lo meno al momento attuale, è il petrolio, ma tutti e tre sono oggi utilizzati comunemente per scopi diversi. Per
quanto riguarda il carbone, raramente lo si usa come tale appena estratto. Di solito viene trattato in un forno in assenza di
ossigeno per rimuovere tutta l’umidità residua e le sostanze volatili. Il risultato è quello che si chiama «carbone coke» che è il
classico carbone nero e polveroso che si metteva una volta nelle stufe di casa e che si usava anche nelle caldaie delle locomotive. Tuttavia, sparite da un pezzo le vecchie locomotive, quasi
piú nessuno lo usa per il riscaldamento domestico. Rimane però
l’uso del carbone coke in molti processi, per esempio come riducente nella metallurgia dell’acciaio.
Il carbone viene anche comunemente usato come sorgente
di calore per le centrali elettriche. In questo campo, anzi, il
carbone ha avuto una netta rinascita a partire dagli anni ottanta. I motivi di questa rinascita sono molteplici: come succede
spesso sono il risultato di una miscela di fattori politici ed economici. In primo luogo, le grandi crisi petrolifere degli anni
1970 e 1980 hanno spinto molti governi a favorire la costruzione di centrali elettriche indipendenti dai pozzi di petrolio medio-orientali, e il carbone è stata una scelta ovvia. In secondo
luogo, alcuni sviluppi tecnologici hanno permesso di migliorare quello che è sempre stato il limite del carbone: il trasporto.
Su strada, su binario, o per mare, maneggiare grandi masse di
carbone polveroso è sempre stato problematico e fortemente
inquinante. Oggi si tende a pompare il petrolio in tubazioni, di
solito in forma di «sospensione»; particelle di polvere di carbone sospese in acqua. Si parla molto oggi di una rinascita del
carbone per nuove applicazioni e in particolare di liquefarlo
per ricavarne combustibili per autoveicoli. Questo è sicuramente possibile: durante la seconda guerra mondiale, per esempio, l’esercito tedesco marciava tutto a benzina artificiale ottenuta, appunto, dal carbone. Tuttavia, come abbiamo detto, al
46
momento attuale il carbone viene usato quasi esclusivamente
come combustibile per le centrali elettriche.
Per quanto riguarda il petrolio vero e proprio, il vantaggio
principale è la praticità di trasporto: essendo liquido lo si può
pompare in oleodotti, immagazzinare in recipienti di forma
qualsiasi e, soprattutto, lo si può dosare con grande precisione
anche in piccole quantità. Questa ultima caratteristica è quella
che ha reso vincente il petrolio non appena si cominciarono a
sviluppare, nel secolo XIX, dei metodi di estrazione efficienti.
Oggi, passate di moda le lampade a petrolio, quest’ultimo non
si usa quasi piú cosí come esce dal pozzo. In certi casi lo si brucia ancora come combustibile primario nelle centrali elettriche,
ma in questo caso, come abbiamo detto, è stato sostituito quasi
completamente dal carbone. Nella maggior parte dei casi, il petrolio viene raffinato prima di essere messo in commercio nei
vari prodotti che ne derivano: benzina, gasolio, nafta eccetera.
Abbiamo detto che sotto certi aspetti il petrolio è un po’
come il vino per il fatto di essere un liquido di composizione
variabile e complessa. In effetti, il processo di raffinazione è
basato in gran parte su una «distillazione frazionata» che è un
processo simile, anche se piú complesso, alla distillazione del
vino per fare la grappa. Nel caso del petrolio, il prodotto della
distillazione non è uno solo ma parecchi. Come si diceva, il petrolio contiene una grande varietà di molecole organiche, tutte
a base principalmente di carbonio e idrogeno, ma molto diverse come forma e dimensione. La distillazione ha lo scopo di separare queste molecole in funzione delle loro dimensioni e della loro struttura. Le molecole piú piccole e piú leggere formano liquidi che evaporano facilmente (come si dice hanno «alta
tensione di vapore», per esempio la benzina), quelle piú pesanti e complesse formano liquidi piú viscosi e a piú bassa tensione di vapore come la nafta e il gasolio. La parte piú pesante
può essere anche solida e viene detta paraffina, qualcosa che
viene anche chiamata «cera artificiale».
Dopo la distillazione, i prodotti ottenuti dal petrolio possono essere usati cosí come sono come combustibili, oppure trattati ulteriormente per ottenere molteplici varietà e composizio47
ni. Le benzine che escono dalle raffinerie non sono tutte uguali: differiscono per vari fattori, per esempio il «numero di ottani» che è un valore convenzionale che indica il «potere antidetonante», ovvero la capacità della miscela aria-benzina di resistere alla compressione rapida in un motore a scoppio senza
incendiarsi prima che scocchi la scintilla alla candela. Questo
numero di ottani dipende da vari fattori che hanno a che vedere con la forma e le dimensioni delle catene di carbonio che
formano le molecole presenti nella benzina. Un altro fattore
che influenza il potere antidetonante è la quantità di idrocarburi aromatici nella benzina. Sono molecole che normalmente
non si trovano nella benzina cosí come esce dal processo di distillazione ma che vengono aggiunte in seguito per migliorare
il potere antidetonante, al costo di peggiorare di parecchio le
emissioni nocive. Un’altra caratteristica variabile (e disgraziata) delle benzine era, fino a non molto tempo fa, quello di contenere piombo: era la famosa benzina «rossa», ovvero la «super». Il piombo, non c’è bisogno di dirlo, non è un componente naturale del petrolio. Nella forma di «piombo tetraetile» èun
composto chimico di colore rosso, un additivo che aumenta il
potere anti-detonante della benzina ed è anche un potente veleno sistemico per gli esseri viventi.
La polemica fra benzina «verde» e «rossa» negli anni novanta è stato uno dei piú squallidi e disinformati dibattiti della
storia dell’umanità. Non ci dovrebbe essere bisogno di dire
che, piombo o non piombo, il potere calorifico di tutte le benzine in commercio è sostanzialmente lo stesso. Questo vuol dire che se un motore è nato per viaggiare a benzina senza piombo (o «verde», anche questo un discreto ossimoro) alimentandolo con benzina rossa non si guadagna niente, si sprecano solo soldi per il solo gusto di sparpagliare in giro un veleno. Solo
certi vecchi motori, progettati per la benzina al piombo, non
vanno bene con la benzina verde. Tant’è, comunque, il fatto
che con la benzina al piombo la macchina «va piú forte» aveva
assunto un valore quasi di fede religiosa negli anni novanta, e
questo ha causato polemiche a non finire, specialmente in Italia. Per fortuna l’Europa ci ha liberati per decreto dalla benzi48
na al piombo e non pare che la velocità delle macchine ne sia
stata diminuita. Ci vorranno comunque decenni prima che il
piombo che abbiamo sparpagliato finora sparisca dall’ambiente e i suoi effetti sulla specie umana non sono ben noti, speriamo bene...
Dal petrolio non si ricavano solo combustibili. La ricchezza
e la varietà delle molecole che il petrolio contiene lo rende una
sorgente fondamentale di composti per l’industria chimica. L’industria dei polimeri (materie plastiche), per esempio, è basata
quasi interamente sul petrolio. Dai tessuti artificiali ai vasetti dello yogurt, la plastica che utilizziamo tutti i giorni ha avuto origine, sostanzialmente, da un pozzo di petrolio.
L’ultimo dei tre combustibili fossili principali è, come si diceva, il gas naturale, principalmente metano ma contenente anche varie frazioni di idrocarburi piú pesanti come etano, butano e propano. Mettiamo subito in chiaro la differenza fra gas
liquido e gas naturale. Nel primo caso (gas liquido) abbiamo a
che fare con un gas che può essere liquefatto a temperatura
ambiente comprimendolo ad alte pressioni; da questo deriva il
nome «gas liquido» che in effetti potrebbe sembrare una contraddizione in termini. Nel caso del metano, invece, la liquefazione a temperatura ambiente non è possibile, indipendentemente dalle pressioni a cui lo possiamo comprimere. La differenza in praticità è ovvia: il gas liquido occupa molto meno
spazio del metano per lo stesso peso e lo si può conservare in
bombole relativamente piccole. Da queste bombole esce gas,
ma quello che c’è dentro è un liquido. Il metano, invece, richiede bombole piuttosto ingombranti, come ben sa chi ha trasformato la propria auto per alimentarla a metano.
L’uso del metano è abbastanza recente nella storia energetica dell’umanità. Agli albori dell’«era fossile» lo si considerava
semplicemente un sottoprodotto dell’estrazione del petrolio e
lo si bruciava sul posto, o semplicemente lo si lasciava sfuggire
nell’aria. La ragione principale era, ed è, ovviamente, la difficoltà di immagazzinare e trasportare il metano che richiede complessi sistemi di tubazioni (metanodotti) oppure ingombranti
bombole per il trasporto. A tutt’oggi, non è sempre convenien49
te conservare il metano estratto. In certi casi lo si continua a
bruciare appena uscito dal pozzo. Questo avviene soprattutto
per i pozzi medio-orientali, dove il trasporto del metano a grande distanza sarebbe troppo costoso per giustificarne l’immagazzinamento.
Questo inconveniente ha finora limitato la diffusione del
metano, per esempio come combustibile per autoveicoli. Tuttavia il metano ha grossi vantaggi rispetto al petrolio. I principali sono il costo piú basso e il fatto che il metano brucia in
modo piú pulito e lascia meno residui. Che il metano sia un
combustibile veramente pulito è un’altra delle tante leggende
che circolano intorno ai combustibili. La combustione del metano rilascia gli stessi veleni (monossido di carbonio, particolato, e altro) degli altri combustibili, ma indubbiamente in quantità minori.
Per tutti questi motivi, l’uso del metano ha conosciuto una
grande espansione negli ultimi anni, soprattutto per applicazioni nella generazione di energia elettrica. Le turbine a gas
(«turbogas») sono motori termici che bruciano metano per
produrre energia elettrica e sono fra i generatori piú efficienti
esistenti al momento attuale. La grande efficienza delle turbine
a gas deriva dalla loro capacità di lavorare a temperature altissime; la temperatura del gas raggiunge i 1.200 gradi nelle turbine dell’ultima generazione. Siccome, come si era detto, l’efficienza di un motore termico è direttamente proporzionale alla
differenza di temperatura che si può ottenere, il risultato è che
una turbina moderna può avere da sola un’efficienza di generazione dell’ordine del 40% o anche superiore per macchine
molto grandi, nella regione delle decine, o anche delle centinaia di megawatt. Accoppiata con una turbina a vapore che
sfrutta i gas caldi residui della turbina a gas, il sistema che si ricava (detto «ciclo combinato») può avere efficienze vicine al
60% e rappresenta al momento attuale quanto di piú efficiente esiste per produrre energia elettrica. Efficienze dello stesso
ordine di grandezza, ovvero intorno al 60% si possono ottenere, sempre col metano, usando un tipo di combustione completamente diverso, ovvero le pile a combustibile ad ossidi so50
lidi (Solid Oxide Fuel Cell, SOFC). Queste ultime sono tuttavia
ancora in corso di sviluppo e sperimentazione.
Il metano, come il petrolio, non si usa soltanto come combustibile. È anche uno dei principali precursori (feedstock) dell’industria chimica. Dal metano si possono produrre alcune sostanze basilari, come l’idrogeno e l’ammoniaca per mezzo di
un processo che si chiama «reforming». Facendo reagire metano con acqua ad alta temperatura, il metano cede i suoi atomi
di idrogeno formando biossido di carbonio come sottoprodotto. Il concetto di «economia all’idrogeno» è molto di moda in
questi ultimi tempi. In attesa di sviluppare fonti rinnovabili,
per ora la produzione dell’idrogeno è in gran parte basata sul
reforming del metano. E non solo: tutta l’industria dei fertilizzanti è basata sul metano. Il processo di reforming può essere
esteso a una reazione con l’azoto atmosferico per produrre ammoniaca (NH3) che è il precursore per la sintesi dei nitrati. I
nitrati sono i fertilizzanti fondamentali per la moderna produzione agricola: la «rivoluzione verde» e il fatto che bene o male si riesce a dar da mangiare a sei miliardi di persone sul pianeta è criticamente dipendente alla capacità che abbiamo di
fissare l’azoto atmosferico, il processo detto «Haber». Fra le
altre cose, i nitrati sono anche un componente essenziale degli
esplosivi, quindi anche l’industria delle armi da fuoco difficilmente potrebbe esistere senza petrolio. Un tempo i nitrati si
ottenevano da sorgenti naturali, per esempio dal guano degli
uccelli. Queste fonti erano comunque insufficienti e fu durante la prima guerra mondiale che la Germania, tagliata fuori dalle miniere di guano dell’America del sud, sviluppò un nuovo
processo per ottenere ammoniaca dall’aria: si trattava appunto
del processo «Haber» che faceva reagire idrogeno direttamente con l’azoto atmosferico. A quel tempo si partiva dal carbone
invece che dal metano come si fa oggi. Cambia poco: senza
combustibili fossili non avremmo né esplosivi né fertilizzanti,
la seconda cosa assai piú preoccupante della prima.
51
Inquinamento ed effetto serra
La tesi del primo film Jurassic Park, esposta piú esplicitamente nel libro di Crichton da cui il film è tratto, era che riportare in vita antiche forme di vita poteva avere terribili
conseguenze. L’idea sia del film che del libro era che il sistema biologico attuale si è evoluto per un certo tipo di creature e che metterlo in contatto con creature scomparse da decine di milioni di anni poteva condurre a un conflitto disastroso.
Qualcosa di simile potrebbe star succedendo con il petrolio e gli altri idrocarburi fossili. Sono sostanze che non fanno
parte del ciclo biologico. Sono tutte cose che esistono quasi
soltanto sottoterra e a grandi profondità. Tirarli fuori e sparpagliarli nell’ambiente crea problemi per il semplice fatto
che la biosfera non è in grado di metabolizzarli e smaltirli a
un ritmo sufficientemente rapido.
A lungo termine, il petrolio che abbiamo estratto come
pure i prodotti della sua combustione saranno metabolizzati
e sedimentati in profondità, ma per questo ci vorranno milioni di anni. Nel frattempo, abbiamo immesso e stiamo immettendo nell’atmosfera, nei mari e nel suolo sostanze che
sono estranee al normale ciclo biologico. Questa è la causa
di quello che chiamiamo «inquinamento».
53
L’inquinamento della biosfera
Il primo problema che ci troviamo di fronte è l’inquinamento causato dai combustibili fossili in quanto tali, ovvero
sparpagliati nell’ambiente, il secondo quello delle sostanze velenose per gli esseri umani generate dalla combustione, il terzo
quello del surriscaldamento planetario causato dall’immissione
nell’atmosfera dei prodotti della combustione, anche se questi
prodotti non sono velenosi di per sé. Descriveremo i primi due
problemi in questa sezione, lasciando quello piú vasto dell’effetto serra alla sezione successiva.
Inquinamento da fossili in quanto tali
Il maggior responsabile di questo tipo di inquinamento è
attualmente il petrolio. Un tempo la polvere del carbone estratto o trasportato per mare o per ferrovia causava malattie agli
addetti in grado e gravità che oggi considereremmo inaccettabili, ma apparentemente cento o duecento anni fa queste cose
non venivano considerate un problema. Oggi, per nostra buona fortuna, non vediamo piú nei porti le polverose navi «carboniere» di una volta. Come abbiamo già accennato nel capitolo precedente, si tende a estrarre e trasportare il carbone in
forma di sospensione di polveri in acqua (slurry), il che è un
modo molto piú pratico e, di solito, molto meno inquinante.
Ma se è vero che le vecchie navi carboniere erano polverose e inquinanti, perlomeno se una di esse affondava non faceva grossi danni. Al giorno d’oggi, invece, le perdite di petrolio
causate dal trasporto sono un grave problema, come tutti sappiamo. La produzione di petrolio mondiale è di circa 25 gigabarili (4.000 miliardi di litri) all’anno. Gran parte di questo
petrolio viene trasportato a grandi distanze, in parte mediante
oleodotti, in parte mediante petroliere. In entrambi i casi ci
sono delle perdite, cosa del resto inevitabile. Sono tristemente
noti gli episodi di petroliere che si incagliano sugli scogli lasciando fuoriuscire tutto il loro carico, inquinando intere coste. Sono incidenti spettacolari che vanno a finire in televisio54
ne. La tabella qui sotto riporta i dati relativi alle perdite di petrolio nel mondo considerando soltanto le perdite superiori
alle 7 tonnellate (quelle piú piccole sono molto piú difficili da
quantificare). È evidente la tendenza alla diminuzione della
quantità di petrolio dispersa. Tuttavia i dati sono molto variabili per l’influenza dei grandi naufragi. Per esempio, il valore
per il 2002 è particolarmente alto anche a causa del disastro
della «Prestige» al largo della Galizia che ha rilasciato qualcosa come 60.000 tonnellate di petrolio. Nel passato, un naufragio come quello dell’«Atlantic Express» del 1979 ne scaricò a
mare da solo circa 287.000.
Anno
Tonnellate di petrolio
disperse in mare x 1.000
(dati International Tank Owner
Pollution Federation, ITOPF)
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
61
435
162
144
105
9
79
67
10
29
12
8
81
Ma è comunque evidente dai dati che i naufragi di petroliere non sono la causa principale delle perdite di petrolio. La
quantità di gran lunga maggiore di idrocarburi che finisce in
mare è attraverso usi domestici e perdite varie. In valore assoluto, le perdite di petrolio in mare mondiali (circa due miliardi
e mezzo di litri all’anno) sembrano un grossa quantità, ma in
realtà sono ben poca cosa rispetto alle quantità estratte, che
equivalgono a circa 4.000 miliardi di litri all’anno!
Il fatto stesso, comunque, che i grandi incidenti siano cosí
spettacolari ha un forte impatto sull’opinione pubblica. Le im55
magini delle chiazze nere sulle spiagge e degli uccelli marini
affogati nella marea nera sono decisamente impressionanti. La
spinta dell’opinione pubblica indignata muove i governi e le
amministrazioni locali a prendere dei provvedimenti per ridurre le perdite. Pur con tutta la buona volontà, non è possibile e
non sarà mai possibile eliminare tutte le perdite; le si possono
però ridurre considerevolmente.
Tuttavia, il petrolio in mare fa danni nel complesso ancora
limitati rispetto ad altri inquinanti. Non è direttamente velenoso per gli esseri umani, si raccoglie in grumi, non si espande oltre certi limiti e, soprattutto, viene lentamente metabolizzato e
distrutto dai batteri. La degradazione batterica, per nostra buona fortuna, distrugge quasi tutte le schifezze che troviamo il modo di spargere in giro. È un fenomeno naturale, non dobbiamo
stupirci che esistano batteri che si nutrono di petrolio. Cosí come noi otteniamo energia dal petrolio bruciandolo, anche i batteri fanno piú o meno la stessa cosa, solo con un processo piú
lento che avviene a bassa temperatura. Nella pratica, però, non
dobbiamo aspettarci miracoli dai batteri. Ci vuole tempo per
far sparire i grumi di catrame che troviamo sulle spiagge. Ma
possiamo star sicuri che nel giro di qualche anno anche il peggior disastro petrolifero finirà per essere riassorbito e che le
spiagge ritorneranno come prima. La natura ha enormi possibilità di recupero, il problema è che l’azione umana è troppo rapida e distruttiva anche per gli ecosistemi piú resilienti.
Inquinamento da combustione dei fossili
Danni ben peggiori di quelli causati dalle perdite marine
vengono agli esseri umani dal fatto di bruciare il petrolio, cosa
che, del resto è il suo destino principale. Come dicevamo, tutti i
combustibili fossili sono principalmente formati da carbonio e
idrogeno. Bruciare questi composti vuol dire combinare il carbonio e l’idrogeno con l’ossigeno dell’aria. Questa è la reazione
che produce il calore che vogliamo ottenere. Nella combinazione con l’ossigeno il carbonio forma biossido di carbonio, CO2
56
(che si diceva una volta anche «anidride carbonica») e acqua
(H2O). Né il biossido di carbonio né, ovviamente, l’acqua sono
tossici o dannosi per gli esseri umani per cui, se tutto fosse cosí
semplice, l’inquinamento non esisterebbe. Il problema è, come
ben sappiamo, che le cose non sono affatto cosí semplici e che
la combustione degli idrocarburi è un fenomeno molto complesso, difficile da controllare e da gestire, e che in condizioni
normali genera una discreta quantità di composti tossici.
La questione dell’inquinamento dell’atmosfera, e in particolare dei centri urbani, è materia complessa e sulla quale esiste una vasta letteratura. Sarebbe fuori dallo scopo di questo
libro trattare tutto questo in dettaglio. Va detto comunque che
il fatto che ci siamo piú o meno abituati all’inquinamento non
modifica una situazione piuttosto grave. Quelli di noi che vivono in città si trovano spesso a vivere in un ambiente altamente dannoso per la salute, le cui conseguenze in termini di
riduzione dell’aspettativa di vita media sono state ampiamente
dimostrate. Nella grande confusione di quello che possiamo
leggere sulla stampa, è facile che molti di noi non abbiano le
idee completamente chiare sulle varie sostanze tossiche con le
quali abbiamo a che fare, per cui è forse il caso di accennare
quelle principali. Nella lista che segue cerchiamo di procedere,
molto approssimativamente, dalla sostanza meno pericolosa a
quella piú pericolosa.
– Monossido di carbonio (CO). Il monossido di carbonio si
forma per la combustione incompleta del carbonio specialmente nei motori a benzina. È un veleno metabolico che sostituisce l’ossigeno nelle molecole di emoglobina e può causare la morte per asfissia. Lo si può eliminare quasi completamente con l’uso della marmitta catalitica. Non è un veleno sistemico e non è oggi un problema dei piú gravi eccetto
che in zone urbane a forte concentrazione di traffico.
– Ossidi di azoto (N2O, NO e NO2, spesso indicati con NOx).
Alle alte temperature alle quali si fa avvenire la combustione degli idrocarburi nei motori, si ha anche la reazione indesiderata dell’ossigeno e dell’azoto dell’aria a formare os57
–
–
–
–
–
58
sidi di azoto. Questa reazione è tanto piú importante quanto piú alta è la temperatura di combustione, ovvero è una
diretta conseguenza dell’alta efficienza di un motore termico. Le molecole di NOx sono irritanti, formano acidi a contatto con l’acqua e possono causare danni irreversibili alla
salute. Anche l’NOx si può eliminare quasi completamente
con la marmitta catalitica.
Ossidi di Zolfo (SOx). Si formano per combustione dello
zolfo contenuto come impurezza nei carburanti. A contatto
con l’acqua, questi ossidi formano acido solforico e solforoso e sono corrosivi e irritanti. Normalmente, i carburanti
usati nei veicoli stradali contengono pochissimo zolfo, ma
una certa minima quantità è inevitabile. Gli ossidi di zolfo
non vengono eliminati dalla marmitta catalitica, anzi la presenza di zolfo nel combustibile può danneggiare irreversibilmente il catalizzatore.
Idrocarburi incombusti. Si tratta di una miscela di vari idrocarburi che non hanno completamente reagito con l’ossigeno se la combustione del motore non è ben regolata e se la
marmitta catalitica non è efficiente. La miscela è di solito
altamente cancerogena, per fortuna la marmitta catalitica li
elimina quasi completamente.
Piombo (Pb). Per fortuna sparito oggi dalle benzine, è comunque un potente veleno sistemico che si accumula nelle
ossa e causa danni al sistema nervoso. Tutti noi ne abbiamo
assorbito una certa quantità durante il periodo in cui veniva comunemente usato.
Radicali liberi. Sono molecole che hanno reagito parzialmente durante la combustione e sono rimaste in uno stato
che si dice «eccitato». Sono estremamente reattivi e possono causare enormi danni alle cellule viventi. Per fortuna, la
loro stessa altissima reattività li porta ad avere una vita breve una volta liberati nell’atmosfera.
Particolato. È formato da particelle microscopiche, tipicamente di carbonio, che tuttavia sono enormemente piú grandi delle molecole. A tutt’oggi i meccanismi che portano alla
formazione del particolato sono poco noti. Si ritiene co-
munque che sia almeno in parte dovuto a una polimerizzazione (combinazione di frammenti molecolari) che avviene
a temperature relativamente basse durante la combustione.
I danni del particolato dipendono criticamente dalle dimensioni delle particelle. Particelle molto grosse, oltre i 100 micron (un decimo di millimetro) non sono dannose, cadono
a terra rapidamente e anche se respirate vengono eliminate
dai polmoni da normali meccanismi biologici. Molto diverso è il caso del particolato «fine», in particolare delle particelle sotto i 10 micron (un centesimo di millimetro) che sono quelle chiamate in termini tecnici «PM10», un termine
diventato famoso di recente. Queste particelle, se respirate,
tendono ad accumularsi nei polmoni e a provocare gravi
malattie. Non ci sono per ora metodi per eliminare il particolato fine dallo scarico dei motori, anche se lo si può ridurre con vari accorgimenti.
– Pioggia acida. La pioggia naturale è leggermente acida per
via della presenza di biossido di carbonio (CO2), che reagisce con l’acqua formando acido carbonico (H2CO3). Tuttavia alcuni dei residui della combustione degli idrocarburi
possono far diventare la pioggia molto piú acida. Si tratta
degli ossidi di zolfo e di azoto che formano acido solforico
e acido nitrico in contatto con l’acqua. L’acidità delle soluzioni acquose si misura con un numero detto «pH», che misura il logaritmo della concentrazione dello ione idrogeno e
che va da 0 a 14. L’acqua neutra (né acida né basica) ha un
pH di 7,0. Valori piú bassi di 7 indicano maggiore acidità.
L’acqua con CO2 disciolto ha un pH di circa 5,6. La presenza degli acidi nitrico e solforico abbassano il pH portandolo comunemente a valori di 3,0 e anche piú bassi (si sono
misurati valori del pH = 1 della pioggia). A pH = 1 abbiamo un liquido molto corrosivo, ma anche a pH = 3 la pioggia acida fa grossi danni all’ambiente, uccidendo la fauna
(specialmente la fauna ittica) e danneggiando le foreste. Per
ridurre i danni della pioggia acida si cerca di bruciare carburanti il piú possibile puliti e in particolare esenti da zolfo.
Si cerca anche di eliminare la formazione di ossidi di azoto,
59
cosa che si può fare usando marmitte catalitiche che hanno
molto ridotto il problema della pioggia acida.
I tipi di inquinamento che abbiamo descritto sono inevitabili con tutti i sistemi che bruciano idrocarburi. Principalmente sono dovuti al sistema dei trasporti su strada e ai motori che
bruciano benzina, gas o gasolio. L’entità dei danni dipende dalla qualità dei carburanti, dal tipo di motori, e dalle misure anti-inquinamento in opera nei motori stessi. In generale, i carburanti piú pesanti, come il gasolio, tendono a inquinare di
piú. D’altra parte, il fatto che il motore diesel, che usa gasolio,
ha un rapporto di compressione piú alto di quello a benzina,
causa una temperatura piú alta nella camera di scoppio e una
combustione piú completa del carburante. In pratica il diesel
non ha bisogno di marmitta catalitica, però in compenso emette piú ossidi di azoto e – se non è regolato bene – grandi quantità di particolato. Il metano, da tutti lodato come carburante
«ecologico», è in effetti meno inquinante sia delle benzine sia
del gasolio. Questo non vuol dire che il metano sia «blu» come
la pubblicità ce lo vorrebbe far vedere. Emette anch’esso particolato, radicali liberi e ossidi di azoto anche se, per fortuna,
non emette aromatici cancerogeni incombusti.
Adottando alcuni trucchi nella composizione è possibile ridurre le emissioni nocive. Per esempio il cosiddetto «gasolio
bianco» o «Gecam» contiene acqua in forma di minuscole goccioline (in termini tecnici si tratta di un’emulsione). L’espansione dell’acqua al momento della combustione aumenta la
pressione e favorisce la combustione completa del carburante.
Anche qui, chiamare «bianco» il gasolio suggerisce un livello
di pulizia degno delle pubblicità dei detersivi, ma è in effetti
un’esagerazione. Il gecam non fa miracoli, anche se migliora
un po’ le cose. Recentemente è stato osservato che l’aggiunta
di idrogeno ai carburanti, sia al gasolio nei motori diesel sia al
metano, riduce di molto le emissioni nocive. Anche in questo
caso non possiamo aspettarci miracoli, ma è una strada che può
portare a notevoli miglioramenti.
Conviviamo da almeno cinquant’anni con l’inquinamento
60
causato dalla combustione degli idrocarburi, e in questo periodo abbiamo imparato molto su come ridurne gli effetti mortali
sulla salute. Tuttavia, il problema è lontano dall’essere completamente risolto. Anche se si sono avuti dei grossi miglioramenti
con l’introduzione della marmitta catalitica e con l’eliminazione
del piombo, l’aumento del traffico urbano li ha in parte vanificati. Le nostre città rimangono delle camere a gas nelle ore di
punta e tutt’ora non disponiamo di metodi efficaci contro il
particolato fine. Soltanto l’eliminazione completa dei combustibili fossili potrà eliminare completamente l’inquinamento.
L’effetto serra e il surriscaldamento planetario
Per un perverso effetto del modo in cui l’universo funziona i
danni dovuti ai combustibili fossili sono tanto piú gravi quanto
meno sono evidenti nell’immediato. Abbiamo visto come le perdite di petrolio in mare sono spettacolari ma nel complesso non
terribilmente dannose. Abbiamo anche visto come l’inquinamento urbano sia molto peggiore ma meno visibile. Per questa
ragione i provvedimenti delle autorità per limitare il traffico in
caso di inquinamento oltre la soglia di rischio sono a volte sopportati con fastidio dai residenti, che sono proprio coloro che si
intende proteggere. Comunque, anche gli effetti dell’inquinamento urbano sono, nel complesso, abbastanza evidenti a tutti.
L’effetto serra è probabilmente il piú grave rischio mai fronteggiato dalla nostra civiltà e forse da tutto il pianeta. È un rischio, tuttavia, non immediatamente visibile che molti non riescono a comprendere e ciò spiega come mai i provvedimenti
per combatterlo rimangono cosí tardivi e inadeguati.
Il concetto di effetto serra è abbastanza semplice da spiegare ma richiede un po’ di attenzione. È ovvio che il nostro pianeta viene scaldato dal sole. Meno ovvio è il meccanismo con
cui questo riscaldamento avviene: per esempio, perché in cima
alle montagne fa piú freddo che in pianura? Una domanda semplice alla quale, tuttavia, una buona frazione di persone anche
di buona cultura non sa rispondere.
61
Il fatto è che il riscaldamento solare della Terra dipende fortemente dalla presenza dell’atmosfera che ci fa da «coperta».
L’atmosfera è in gran parte trasparente alla radiazione solare visibile, che quindi arriva quasi tutta sulla superficie. La crosta
terrestre riemette questa radiazione in una forma non visibile
(infrarossa) che viene invece in gran parte trattenuta dall’atmosfera. Il concetto è in realtà piú complicato, e i vari flussi di energia incidente e uscente sono mostrati nella figura qui sotto.
In sostanza, se non ci fosse l’atmosfera, la Terra sarebbe molto piú fredda. Il meccanismo si chiama «effetto serra» ed è, in
effetti, lo stesso meccanismo che porta le serre a riscaldarsi sotto
il sole. La luce del sole entra attraverso i vetri, ma il calore non
esce, viene riflesso di nuovo all’interno. Cosí la serra si riscalda.
L’atmosfera terrestre si comporta come il vetro di una serra:
lascia passare la luce visibile e trattiene il calore. Questo comportamento dipende però, fortemente, dalla composizione dell’atmosfera stessa. Alcune molecole gassose presenti nell’atmosfera hanno la caratteristica di assorbire e riemettere il calore
molto piú di altre. Per esempio, l’azoto e l’ossigeno sono scarsi
assorbitori di calore e producono poco effetto serra anche se
Figura 2 - Flussi di radiazione solare ricevuta e riemessa dal pianeta terra. Il
bilancio di questi flussi determina la temperatura del pianeta. Fonte: International Panel for Climate Change (IPCC).
62
sono i componenti principali dell’atmosfera. Viceversa, molecole piú complesse come l’acqua, il biossido di carbonio, e il
metano, sono buoni assorbitori e per questo sono chiamati «gas
serra». Tutti questi gas sono presenti naturalmente nell’atmosfera e quindi la temperatura del pianeta dipende dalla loro
concentrazione. Piú ci sono gas serra, piú la temperatura aumenta e viceversa. La concentrazione di questi gas dipende a
sua volta da complessi fattori sia geologici che biologici.
A questo proposito, James Lovelock ha formulato la sua famosa «ipotesi Gaia» in cui sosteneva che la temperatura del
pianeta Terra è finemente regolata dalle creature viventi sulla
superficie attraverso l’effetto serra. Lovelock ha dato alla biosfera il nome «Gaia», la divinità classica per la Terra. Secondo
Lovelock, la concentrazione di biossido di carbonio nell’atmosfera è dovuta quasi esclusivamente all’equilibrio fra il processo di fotosintesi (che trasforma il biossido di carbonio in ossigeno e idrocarburi facendolo reagire con l’acqua) e il metabolismo generale delle creature viventi che ossidano gli idrocarburi di nuovo ad acqua e biossido di carbonio. Un aumento
della concentrazione del biossido di carbonio causa un aumento del ritmo del processo fotosintetico che riporta il sistema in
equilibrio, a sua volta, riducendo la concentrazione del biossido di carbonio. Questo equilibrio stabilizza la temperatura del
pianeta ai valori cui siamo abituati.
La visione di James Lovelock è stata criticata e osannata allo stesso tempo. Dopo piú di un decennio di dibattito possiamo concludere che l’«ipotesi Gaia» ha parecchio di vero anche
se, cosí come è stata espressa, era quasi certamente troppo semplificata. Il meccanismo di «regolazione fine» che Lovelock invoca, se esiste, non è certamente cosí semplice come poteva
sembrare. Comunque sia, è vero che il clima e la temperatura
della Terra sono regolate in modo abbastanza critico dalla concentrazione di gas serra, in particolare CO2.
Per quello che ne sappiamo, la temperatura della Terra è rimasta approssimativamente costante negli ultimi 500 milioni
di anni o giú di lí, ma questo non vuol dire che non ci siano
state oscillazioni, anche notevoli, in questa temperatura. Sap63
piamo per esempio che i nostri remoti antenati sono vissuti in
un pianeta molto piú freddo durante le ere glaciali, quando le
calotte polari si estendevano ben piú di quanto non siano estese oggi. Attualmente viviamo in quello che viene chiamato a
volte «periodo interglaciale». Le temperature alle quali siamo
abituati sono in effetti assai piú calde della temperatura media
del pianeta durante l’ultimo milione di anni o giú di lí. A noi
sembrano normali, ma quello che potremmo chiamare «normalità» è piuttosto la condizione in cui la Terra si trovava durante l’ultima era glaciale, ovvero con estese calotte di ghiaccio
che ricoprivano vaste zone dell’Europa e dell’America del nord.
I meccanismi che hanno causato queste oscillazioni non sono ben noti, anche se esistono delle buone teorie che li fanno
risalire, almeno in parte, a oscillazioni nell’orientazione dell’asse terrestre. Comunque sia, la temperatura del nostro pianeta
può variare, e anche di molto. Negli ultimi decenni, è stata osservata una decisa tendenza all’aumento delle temperature come mostrato nella Figura 3.
Figura 3 - Deviazione rispetto alla media delle temperature medie planetarie
al suolo dal 1964 a oggi. Da J.K. Angell, Air Resources Laboratory, National
Oceanic and Atmospheric Administration.
64
Ora, l’incremento delle temperature può essere correlato a
qualcosa che ha cominciato a verificarsi negli ultimi decenni,
ovvero al fatto che gli esseri umani hanno cominciato a deforestare estesamente il pianeta e a bruciare idrocarburi fossili. Entrambe le attività hanno l’effetto di immettere gas serra nell’atmosfera. Il principale di questi gas è il biossido di carbonio che,
come abbiamo detto, è il risultato della combustione degli idrocarburi fossili. Altri composti gassosi sono responsabili dell’effetto serra, come si può vedere dalla tabella seguente adattata
dal rapporto EEA (European Energy Agency) del dicembre 2002.
Gas
Aumento di
concentrazione
dal 1750
Contributo al
riscaldamento
globale
Sorgente
CO2
(biossido di
carbonio)
CH4
(metano)
N2O
(protossido
di azoto)
30%
64%
145%
20%
15%
6%
Combustione degli
idrocarburi e del carbone,
deforestazione
Perdite da gasdotti,
allevamento, rifiuti
Fertilizzanti, industria
chimica, combustione
degli idrocarburi
La somma dei contributi al riscaldamento globale di questi
tre gas è meno del 100% dato che anche altri gas originati dall’attività umana hanno un effetto sul riscaldamento, per esempio i «clorofluorocarburi» usati come liquido refrigerante nei
frigoriferi e responsabili anche del famoso «buco dell’ozono».
Questi ultimi sono stati tuttavia largamente eliminati per cui
rappresentano oggi un problema minore. Quello che emerge
dalla tabella è che il 90% dell’effetto serra è dovuto, direttamente o indirettamente, alle due cause menzionate prima: deforestazione e uso degli idrocarburi fossili. Per esempio, il metano che deriva dagli allevamenti non esisterebbe se gli allevamenti stessi non fossero resi possibili dalla disponibilità di foraggio a basso costo, a sua volta reso possibile dall’industria
dei fertilizzanti, a sua volta resa possibile dalla disponibilità di
metano e altri combustibili.
Comunque sia, per il momento, la maggiore preoccupazio65
ne riguarda il biossido di carbonio, CO2, e in particolare il biossido di carbonio generato dalla combustione degli idrocarburi.
Mentre per la deforestazione possiamo fare molto ripiantando
gli alberi tagliati, per la combustione non c’è modo di evadere
la questione e non c’è marmitta catalitica che tenga. Se bruciamo idrocarburi produciamo biossido di carbonio. Il biossido
di carbonio è un gas che si libera nell’atmosfera: non lo si può
eliminare a meno che non si usino tecniche dette di «sequestrazione» che sono molto costose e tutt’ora in corso di studio.
La concentrazione di CO2 è gradualmente aumentata negli anni di un fattore uguale a circa il 30% da quando abbiamo cominciato a bruciare idrocarburi.
Ora, quando si ragiona su questo tipo di cose, bisogna stare
molto attenti a considerare i rapporti di causa ed effetto. Abbiamo visto che negli ultimi cento anni o giú di lí le concentrazioni di CO2 e degli altri gas serra sono aumentate, di questo
siamo sicuri. Siamo anche sicuri dell’incremento medio delle
temperature, che dal 1850 la temperatura media di tutto il pianeta è aumentata di circa 0,8°C. Un valore analogo si è registrato nella regione europea. Il clima terrestre rimane variabile
e complesso e può darsi che in certi posti le temperature siano
diminuite ma nel complesso il riscaldamento planetario è evidente.
Da qui a dire che c’è un rapporto di causa ed effetto fra le
due cose ce ne passa, e la questione non è facile da risolvere.
Invero, molte correlazioni che sembrerebbero ovvie non lo sono se esaminate in dettaglio. In filosofia questo si chiama la
«fallacia del post hoc», ovvero il fatto che un evento che ne
preceda un altro è una condizione necessaria ma non sufficiente per definire un rapporto di causa ed effetto. Per esempio, se
tutte le mattine prendo l’autobus il fatto che un autobus arrivi
sempre dopo che io sono arrivato alla fermata non mi autorizza a dire che il fatto di camminare fino alla fermata sia la causa
dell’arrivo dell’autobus!
Molto spesso le correlazioni fra causa ed effetto sono decise
su basi emotive piuttosto che su basi razionali. Per esempio,
correlazioni di tipo «politico» sono comuni, come quella che
66
gli immigranti causino disoccupazione. Un’idea che molta gente sembra trovare attrattiva e accettare anche senza prove. Al
contrario, nel caso dell’aumento della concentrazione della
CO2 e temperatura planetaria, molta gente sembra trovare cosí
terribile l’idea di dovere, per esempio, fare meno chilometri in
macchina, o farne altrettanti con una macchina piú piccola, da
rifiutarsi persino di considerare la possibilità che ci sia qualcosa di vero nella faccenda. Per qualche motivo questo atteggiamento sembrerebbe attrattivo soprattutto per la destra politica, sia negli Stati Uniti che in Europa e in Italia. Vedere la questione del «Global Warming» come un complotto internazionale comunista o magari un trucco di Al Qaeda o qualcosa del
genere è diventato quasi obbligatorio in certi ambienti.
Il pubblico in generale non ha la capacità di giudicare in
modo critico questioni cosí complesse, tende a giudicare su basi emotive e ad essere facilmente influenzabile da atteggiamenti «catastrofisti» da parte di certi settori oppure, all’opposto,
da atteggiamenti di scetticismo totale. Lo scetticismo, in effetti, è stato incoraggiato dalle compagnie petrolifere e altre lobby
che, operando su basi niente affatto emotive ma razionali secondo il loro particolare punto di vista, hanno pagato scienziati compiacenti per negare la realtà dell’effetto serra, come pure
hanno sponsorizzato campagne stampa contro i tentativi di ridurre le emissioni. In alcuni casi, la propaganda ha cercato anche di negare il fatto stesso del riscaldamento planetario. Negli
Stati Uniti si sono visti annunci a tutta pagina pagati da sospette «associazioni di consumatori» pubblicati in pieno inverno
con il titolo: «Se è vera questa cosa del riscaldamento globale,
come mai oggi fa cosí freddo?». In un mondo dove la competizione economica si basa sul principio di tagliare la gola al concorrente questo tipo di propaganda ha avuto un buon effetto e
ha giocato un certo ruolo nel determinare l’uscita degli Stati
Uniti dal gruppo dei firmatari del protocollo di Kyoto nel 2001.
A parte i lobbisti pagati dalle compagnie petrolifere, ci sono scienziati che ritengono in perfetta buona fede che il riscaldamento planetario (che non si può negare) non sia causato
dalla combustione degli idrocarburi. È vero in effetti che ci
67
troviamo di fronte a un sistema, quello dell’intera crosta terrestre, che è di una complessità spaventosa. C’è chi dice che se il
pianeta si sta riscaldando si sta riscaldando per motivi suoi e
per conto suo e che tutto quello che possiamo fare noi per riscaldarlo o raffreddarlo non ha che un effetto infinitesimale.
Posizione nel complesso ragionevole. Come per tante cose che
hanno a che vedere con sistemi complessi che si evolvono è
molto difficile prendere posizioni nette con sicurezza.
Tuttavia rimane il fatto che se il riscaldamento planetario
che osserviamo è dovuto all’attività degli esseri umani (posizione altrettanto ragionevole di quella che nega questo dato), non
ci troviamo davanti a una questione accademica: se il pianeta si
riscalda troppo rischiamo di avere dei grossi guai (se non di finire tutti bolliti) e a quel punto sarà poca gioia per qualcuno
poter dire «avevo ragione io».
Cosa possiamo dire o fare per ragionare su questo punto?
Per «provare» la correlazione fra attività umana ed effetto serra non si possono fare evidentemente prove sperimentali a livello planetario. Se potessimo avere un pianeta intero in laboratorio, potremmo provare ad aumentare la concentrazione di
CO2 nella sua atmosfera e vedere che succede, ma questo non
lo possiamo fare, ovviamente. Abbiamo solo un paio di pianeti
vicini da osservare: Marte e Venere. Di questi, Marte ha poco
effetto serra, per cui è molto freddo, almeno dal punto di vista
degli esseri umani, mentre Venere ne ha troppo ed è troppo
caldo, sempre dal punto di vista degli esseri umani. In entrambi i casi, c’è stato chi ha fatto delle speculazioni su come l’effetto serra potrebbe essere regolato per cambiare le temperature e rendere entrambi i pianeti abitabili per gli umani. L’astronomo americano Carl Sagan, per esempio, aveva proposto
di scaricare microrganismi fotosintetici negli strati superiori
dell’atmosfera di Venere. Questi microrganismi potrebbero
gradualmente ridurre la concentrazione di CO2 e abbassare la
temperatura di Venere a un livello sufficiente da avere acqua
liquida e oceani. In questo modo Venere potrebbe finire per
somigliare alle descrizioni della fantascienza degli anni cinquanta, un pianeta caldo e paludoso, magari anche pieno di
68
animali simili ai dinosauri terrestri. Qualcosa di analogo, ma
opposto, si potrebbe fare per Marte. Se si trovasse il modo di
aumentare la quantità di CO2 nell’atmosfera si potrebbe aumentare la temperatura del pianeta e renderlo forse abitabile.
Per il momento questi rimangono, ovviamente, sogni tecnologici ed è probabilmente piú facile per gli esseri umani rovinare
il pianeta dove già vivono che cambiare in meglio altri pianeti.
Non potendo giocherellare con altri pianeti come se fossero
cavie da laboratorio quello che possiamo fare sono «esperimenti virtuali». Si tratta di costruire dei modelli dell’atmosfera, un’atmosfera che esiste solo all’interno di un computer ma
della quale possiamo cambiare i parametri e vedere l’effetto,
per esempio, di un aumento della concentrazione dei gas serra.
L’atmosfera reale è qualcosa di molto complesso e i modelli ne
sono sempre solo un’approssimazione, ciò nonostante l’ultima
generazione di modelli ha acquisito una complessità notevole,
arrivando a tener conto non soltanto dei flussi di calore ma anche di parametri quali gli aerosol atmosferici, le attività biologiche, l’attività vulcanica e tanti altri fattori. Per quanto ne possiamo dire, i modelli provano la correlazione fra aumento di
concentrazione della CO2 e riscaldamento planetario. Su questo punto gli scienziati sono ormai d’accordo.
A parte provare la correlazione, i modelli ci servono anche
per estrapolare il comportamento del pianeta nel futuro e cercare di capire che cosa possiamo aspettarci. Anche qui, l’esperimento non lo possiamo fare, e quando l’avessimo fatto sarebbe troppo tardi. Possiamo invece far girare i modelli sui computer quante volte ci pare e arrivare a vedere che cosa succederà fra dieci anni o fra cent’anni, magari anche fra diecimila o
un milione di anni, ma questo è molto piú incerto e, ovviamente, ci interessa meno.
Cosa ci dicono i modelli allora? Ci dicono, ovviamente, che
se continuiamo a immettere gas serra nell’atmosfera, aumenteremo sempre di piú la temperatura del pianeta. Il problema è
stabilire di quanto, cosa che a sua volta dipende da ipotesi relative alla quantità di gas serra che immetteremo, ovvero a
quanto petrolio e combustibili fossili bruceremo. La tempera69
tura che l’atmosfera raggiungerà dipende anche dai fattori di
incertezza dei modelli stessi.
La previsione stessa è difficile e complessa e il meglio che si
può fare è stabilire dei valori probabili entro un dominio di
massimo e di minimo. Nel complesso possiamo prevedere che
da qui a un secolo la temperatura media del pianeta potrebbe
aumentare da meno di un grado (ipotesi piú ottimistica) a forse anche piú di cinque gradi (ipotesi piú pessimistica).
I dati dell’International Panel for Climate Change (IPCC)
si possono riassumere come segue (previsioni per l’anno 2100):
Aumento minimo 1,4 °C
Aumento massimo 5,8 °C
Secondo altri dati riportati dall’IPCC possiamo dare un certo «grado di confidenza» alle ipotesi fatte e i risultati sono, come ci aspetteremmo, che l’aumento piú probabile è intermedio. Secondo questi dati (sempre riportati al 2100) esiste il 95%
di probabilità che l’aumento di temperatura sia superiore a
0,9°C e il 95% che l’aumento sia inferiore a 5,2 °C. Il valore
«mediano» calcolato, e che sembrerebbe piú probabile, è un
aumento di 2,3 °C.
C’è una differenza abissale nelle conseguenze che deriverebbero dal verificarsi delle ipotesi estreme. Per un aumento
delle temperature medie di meno di un grado o giú di lí siamo
entro i limiti di variabilità osservati storicamente e non ci aspettiamo grossi danni. I calcoli, tuttavia, non possono escludere la
possibilità di aumenti ben piú massicci, per esempio di oltre 5
gradi. In questo caso, la situazione cambia, e cambia di parecchio. Se un effetto del genere si verificasse ci troveremmo di
fronte a una catastrofe spaventosa, con la necessità probabile
di evacuare la fascia equatoriale del pianeta e anche quelle superiori. Pensate per esempio a cosa succederebbe alla Sicilia
per un aumento della temperatura media di 5 gradi. Sperabilmente, questo tipo di effetto non dovrebbe verificarsi, ma i dati che abbiamo non ci permettono di escluderlo completamente. In ogni caso, anche un aumento delle temperature di «sol70
tanto» un paio di gradi potrebbe avere effetti devastanti su
molte zone del pianeta.
Per rimanere in ambito «catastrofico» vale la pena di citare
alcuni aspetti decisamente preoccupanti del fenomeno dell’effetto serra, ovvero la possibile non linearità nell’interazione fra
concentrazione e temperatura, addirittura la possibilità di un
fenomeno esplosivo. Ovvero, è possibile che il riscaldamento
causi fenomeni secondari che rilasciano ulteriore biossido di
carbonio, quindi ulteriore riscaldamento e cosí via. Sappiamo,
per esempio, che una grande quantità di biossido di carbonio
si trova disciolta nell’acqua degli oceani. Entro certi limiti, il
biossido che produciamo in eccedenza finisce disciolto anch’esso nell’acqua. Ma se la temperatura degli oceani aumenta,
il biossido di carbonio tende a essere rilasciato nell’atmosfera,
un fenomeno che si auto-rinforza. Questo potrebbe portare a
quell’effetto che alcuni hanno chiamato «runaway greenhouse» (serra incontrollata) che causerebbe a un aumento rapido e
catastrofico delle temperature.
Il risultato finale potrebbe essere qualcosa di simile a quello che si osserva oggi sul pianeta Venere: una coltre di nubi
caldissime che racchiude una superficie planetaria bollente a
parecchie centinaia di gradi. È possibile che un effetto serra
rovinoso sia accaduto già sulla Terra, sia pure in epoche remote. Una delle teorie per l’estinzione dei dinosauri alla fine del
Giurassico (60 milioni di anni fa) si basa appunto sull’effetto
serra. Questa teoria è alternativa a quella, piú nota, dell’asteroide proposta da Luis Alvarez. Secondo il promotore della
teoria vulcanica, il paleontologo americano Dewey McLean,
alla fine del Giurassico una serie di eruzioni particolarmente
intense avevano riversato grandi quantità di biossido di carbonio nell’atmosfera. Il conseguente surriscaldamento del pianeta aveva spazzato via la maggior parte delle forme di vita dell’epoca inclusi, appunto, i dinosauri.
Non sappiamo esattamente cosa sia successo al tempo della
grande estinzione, e in generale si ritiene oggi che la teoria dell’asteroide sia piú valida di quella dei vulcani. Probabilmente
sarà sempre difficile saperlo con certezza, tuttavia la teoria ef71
fetto serra è perlomeno plausibile e ci dà un’idea di quello che
potrebbe essere il risultato di un effetto serra incontrollato.
Altri fattori preoccupanti correlati all’effetto serra sono effetti fortemente non lineari e locali piuttosto che globali. Torniamo a una questione cui abbiamo accennato poco fa, quella
delle ere glaciali. A cosa sono dovute le ere glaciali? Difficile
dirlo con sicurezza, ma da quello che sappiamo esiste una correlazione abbastanza precisa con le correnti oceaniche, in particolare con quella che viene chiamata la «circolazione termoalina». Spiegare l’origine del termine «termoalina» richiede
chiamare in causa una certa concatenazione di fatti, ma proviamoci: la parte «termo» non pone problemi ed è ovviamente
correlata con la temperatura. La parte «alina» invece, deriva
da «alcalino» è ha a che fare con i sali disciolti nelle acque degli oceani. Questi sali sono detti di metalli «alcalini», appunto,
un termine che, volendo risalire alle origini, deriva da una parola araba che significa «cenere». In buona sostanza, «circolazione termoalina» vuol dire «circolazione termica delle acque
salate».
Per spiegarsi meglio, probabilmente abbiamo maggiore familiarità con il concetto di «corrente del golfo», che porta acqua calda dal golfo del Messico verso il nord dell’Europa. La
corrente del golfo è una parte del piú vasto sistema di correnti
termoaline che esistono negli oceani del nostro pianeta. Come
sappiamo, il fatto che il clima dell’Europa del nord sia relativamente mite è dovuto, appunto, all’esistenza della corrente termoalina detta «corrente del golfo».
Ora, sappiamo con buona sicurezza che la corrente del golfo
durante le ere glaciali non esisteva. In effetti un parametro fondamentale che definisce ere glaciali/interglaciali è l’inesistenza/esistenza della corrente del golfo, anche se quale sia esattamente il rapporto di causa ed effetto fra le due cose non è molto chiaro. Lo «stacco» netto fra periodi glaciali e interglaciali
ci suggerisce tuttavia che il nostro clima può essere instabile e
che gli effetti di una perturbazione anche piccola potrebbero
essere molto importanti. Anche in questo caso, è ovvio che ne
sappiamo poco, ma nonostante possa sembrare improbabile
72
che riscaldare l’atmosfera potrebbe portarci verso una nuova
era glaciale, questo è quello che alcuni calcoli suggeriscono.
Questo tipo di affermazioni possono far paura ma va detto
anche che tutto questo è molto incerto. Lanciarsi in speculazioni su quelle che potrebbero essere le catastrofi derivanti dall’effetto serra è cosa pericolosa quantomeno dal punto di vista
intellettuale, se non addirittura morbosa, per cui è meglio fermarsi qui. Per approfondire, lasciamo al lettore il compito di
esaminare il sito dell’Istituto per il Cambiamento Climatico
(IPCC)2 che è aggiornato e completo riguardo a tutto ciò che è
noto sulla questione del cambiamento del clima.
Ritornando a una visione un po’ piú tranquilla delle cose,
possiamo dire che la probabilità di catastrofi planetarie come
quelle che abbiamo accennato è molto bassa a breve scadenza,
diciamo entro i prossimi cinquant’anni. O perlomeno cosí ci
sembra di capire da quello che sappiamo e da quelli che sono i
risultati delle simulazioni.
Tuttavia, anche se questo ci può tranquillizzare, è buona
norma tener conto anche del peggio. In ogni caso, anche se in
assenza di catastrofi, il surriscaldamento planetario potrebbe
portarci dei grossi danni, se non altro economici. Per esempio,
negli ultimi anni il numero di disastri ambientali su scala regionale è aumentato in modo significativo. Ogni anno, qualche pezzo d’Italia va sott’acqua per nubifragi e inondazioni. E non è un
problema solo italiano, in tutto il mondo i disastri ambientali
sono in aumento e fanno sempre piú danni, come mostrato nella Figura 4.
In parte, questi disastri, principalmente inondazioni, sono
dovuti a una politica dissennata di cementificazione e di riduzione delle dimensioni degli alvei dei torrenti, ma in parte sono dovuti anche a una «tropicalizzazione» del clima e al relativo incremento delle precipitazioni. I puristi diranno che non
c’è prova che questa tropicalizzazione sia causata dai gas serra
risultanti dalla combustione degli idrocarburi. Se da un punto di vista strettamente formale non esiste una prova rigorosa
di questo fatto, pur tuttavia ci troviamo davanti a un problema serio, per il quale è doveroso prendere delle precauzioni
73
sulla base di ipotesi ragionevoli senza aspettare che i danni si
facciano ancora piú gravi.
Per queste ragioni un accordo globale è stato stilato circa la
necessità di ridurre la quantità di gas serra immessi nell’atmosfera. Questa è l’origine del protocollo di Kyoto del 1993. L’obiettivo del protocollo è di limitare o bloccare la crescita delle
emissioni dannose stabilendo dei limiti per ciascun paese firmatario. Per quanto riguarda l’Unione Europea, si era impegnata a stabilizzare le emissioni del 2000 al livello del 1990 e di
ridurle dell’8% in media al 2008. Si tratta di un obiettivo molto ambizioso, e il solo fatto che sia stato possibile arrivare a un
accordo su una questione tanto complessa dà un’idea di quanto il problema del riscaldamento globale sia preso seriamente.
Il concetto stesso che i governi si intromettano nella produzione di energia, col rischio di rallentare la crescita economica,
Figura 4 - Danni da disastri naturali, probabile conseguenza dei cambiamenti climatici. Fonte: T. Muneer, M. Asif, J. Kubie, Energy Conversion and Management, vol. 44, issue 1, January 2003, pp. 35-52.
74
sacra icona in molti ambienti, è qualcosa che dovrebbe far riflettere. Non si tratta qui di costringere la gente a mettere un
filtro, come nel caso delle marmitte catalitiche, che riduce un
po’ i danni ma lascia le cose piú o meno come stanno. Si tratta
di andare a pasticciare nei meccanismi stessi dell’economia, un
approccio che piú d’uno ha considerato improponibile, specialmente negli Stati Uniti.
In mezzo a difficoltà di ogni genere, comunque, l’Europa
ha fatto un notevole sforzo per ridurre le emissioni di gas serra. Secondo i dati piú recenti disponibili3, l’Unione Europea
ha ridotto le proprie emissioni in media dell’1% al 1996 rispetto al 1993 mentre le ha leggermente incrementate al 2000,
dello 0,5%. Non è un risultato particolarmente entusiasmante
se comparato all’obiettivo finale di una riduzione dell’8% ma
è comunque qualcosa. Nella pratica, tuttavia, il risultato europeo è la media di risultati assai disomogenei tra i diversi membri dell’Unione. Al 2002, alcuni stati hanno ottenuto riduzioni
in alcuni casi anche forti, come la Germania (–19,1%), la Gran
Bretagna (–12,6%) e la Finlandia (–4,1%). Altri paesi hanno
visto riduzioni di piccola entità, ma pur sempre delle riduzioni: la Svezia (–1,9) e la Francia (–1,7%). A rovinare la media è
stato un gruppo di paesi che hanno incrementato notevolmente le loro emissioni. Fra di essi fanno spicco quelli che hanno
incrementi a due cifre: la Spagna (+27,2%), l’Irlanda
(+17,6%), il Portogallo (+16%) e il Belgio (+10%). Anche l’Italia non ha fatto molto bene, attestandosi sul +7,2% mentre
si era impegnata a una riduzione del 6,5% al 2008, un obiettivo che appare oggi molto lontano.
Secondo il rapporto della EEA pubblicato nel dicembre
2002, l’aspetto piú preoccupante sono le proiezioni. Allo stato
attuale delle cose, se non cambiano le tendenze in atto, non c’è
modo per l’Unione Europea di raggiungere gli obiettivi del
protocollo del trattato di Kyoto, ovvero una diminuzione
dell’8% in media al 2010. Le proiezioni parlano della possibilità di arrivare al massimo a una riduzione del 4,7%, il che non
è male ma non arriva all’obiettivo. C’è un dibattito in corso su
quali misure prendere e cosa fare esattamente per migliorare.
75
Certamente l’atteggiamento di alcuni stati non aiuta molto.
Per esempio, l’Italia si trova a essere uno dei paesi piú deficitari in termini di rispetto del protocollo. Se niente cambia, l’Italia si troverà nel 2010 con un aumento delle emissioni di oltre
l’8% rispetto ai valori del 1990, invece del valore del –6,5% al
quale si era impegnata. Ci sono varie ragioni per questo disastro e diciamo subito che non sembra sia una questione di
schieramenti politici. L’impegno era stato preso da un governo
di centro-sinistra che ha fatto ben poco per mantenerlo, altrettanto poco ha fatto il governo successivo di centro-destra. L’errore è stato sostanzialmente di tipo strategico: l’Italia si è affidata principalmente all’opzione fotovoltaica con il piano dei
«10.000 tetti fotovoltaici». Secondo l’idea, il sostegno finanziario del governo al fotovoltaico in una fase iniziale avrebbe dovuto favorire l’abbassamento dei costi attraverso l’aumento dei
volumi di produzione. In realtà, nella pratica la contrazione
economica e le difficoltà finanziarie degli anni che hanno seguito la ratifica del protocollo hanno permesso di dedicare solo risorse molto limitate al piano. In ogni caso è dubbio che l’idea avrebbe funzionato, le celle fotovoltaiche per il momento
rimangono troppo costose per un uso generalizzato che abbia
un impatto significativo sui consumi energetici. Molto meglio
sarebbe stato invece fare come ha fatto la Germania, ovvero
incoraggiare il risparmio energetico negli edifici, cosa che fra
l’altro avrebbe creato un’industria locale e parecchi posti di lavoro, ma questo concetto evidentemente non era (e non è) comprensibile o appetibile al nostro apparato governativo, indipendentemente dal fatto che al potere sia la destra o la sinistra.
Peggio dell’Italia, comunque, hanno fatto gli Stati Uniti che,
con il governo Bush nel 2000, si sono ritirati unilateralmente dal
protocollo. Gli Stati Uniti non ritengono, almeno a livello governativo, che l’immissione di gas serra nell’atmosfera sia un problema degno di attenzione. D’altra parte, il protocollo stesso ha
degli enormi «buchi» nel senso che non pretende che sforzi molto modesti da paesi in via di sviluppo, quali Cina e India, che attualmente sono fra i maggiori inquinatori e anche in prospettiva
fra i maggiori contributori all’incremento di CO2 nell’atmosfera.
76
Nonostante la mancata adesione di alcuni stati al protocollo di Kyoto, gli scarsi risultati ottenuti da alcuni dei paesi firmatari e nonostante il fatto che i paesi in via di sviluppo non
siano forzati a ridurre le emissioni, tuttavia un certo ottimismo riguado al riscaldamento planetario è lecito. In primo luogo, sia per motivi economici che per motivi legislativi, il sistema industriale e dei trasporti occidentale si sta «decarburizzando» a un buon ritmo. La sostituzione del petrolio con gas
naturale sta procedendo speditamente, e il gas naturale ha un
rapporto idrogeno/carbone molto superiore a quello dei combustibili liquidi derivati dal petrolio. Se il processo continua al
ritmo attuale, il risultato finale sarà quell’«economia all’idrogeno» che molti hanno preconizzato come lo stato finale del nostro sistema energetico. La combustione dell’idrogeno a bassa
temperatura nelle pile a combustibile, come è noto, non produce gas serra, per cui il problema a quel punto potrà dirsi
completamente risolto.
In ogni caso, prima che si arrivi a un’economia completamente basata sull’idrogeno dovranno passare diversi decenni.
Il punto cruciale per il futuro dell’atmosfera terrestre (e, per
naturale estensione, dei terrestri) è dunque come utilizzeremo
i combustibili fossili che ci rimangono. Se le riserve estraibili
fossero ancora abbondanti per secoli (come si diceva talvolta
fino a qualche anno fa), è evidente che continuando a estrarre
petrolio e a bruciarlo a ritmi sempre piú elevati potremmo trovarci da qui a 50-100 anni di fronte a seri problemi dovuti all’aumento della concentrazione di CO2 nell’atmosfera. D’altra
parte se, come vedremo piú in dettaglio nel seguito, ci stiamo
avvicinando a una situazione di penuria delle risorse, allora potremmo essere forzati a una rapida (1-2 decenni) sostituzione
dei combustibili fossili con fonti rinnovabili o energia nucleare. In questo caso, il problema del riscaldamento globale cesserebbe di porsi molto prima che si possano causare danni irreversibili all’ecosistema planetario. È anche vero, tuttavia, che
la penuria dei fossili che stiamo utilizzando attualmente (idrocarburi) ci potrebbe forzare a ricorrere ad altri tipi di combustibile, primariamente il carbon fossile, che producono piú gas
77
serra degli idrocarburi. In questo caso la penuria di risorse petrolifere porterebbe a esacerbare il problema del riscaldamento globale.
La questione dell’effetto serra e del riscaldamento globale
dipende dunque criticamente dalla dinamica di estrazione e di
uso delle risorse di idrocarburi nei prossimi anni. Questa dinamica sarà l’oggetto dei prossimi capitoli.
Economia dell’inquinamento da idrocarburi
Concludiamo questo capitolo sull’inquinamento e il riscaldamento globale cercando di delineare i meccanismi economici dell’inquinamento e le possibili strategie per affrontare il
problema.
È comune parlare di «danni» a proposito dell’inquinamento. Danni che sono, ovviamente, difficili da quantificare. Quanto vale la morte di un gabbiano soffocato dal petrolio? Quanti
soldi bisogna dare a un malato di cancro ai polmoni per ripagarlo di quello che subisce? Possiamo comprarci un pianeta
nuovo dopo che abbiamo distrutto quello che abbiamo? Domande, ovviamente, alle quali è impossibile dare una risposta.
Tuttavia la nostra epoca tende a mettere un’etichetta col prezzo su qualsiasi cosa, compreso l’inquinamento.
Alcuni ritengono che quantificare i danni dell’inquinamento sia l’unico modo efficace per combatterlo. Questo porta alla
posizione secondo cui esistono dei limiti accettabili per le sostanze inquinanti e che entro certi limiti con l’inquinamento
possiamo convivere. Una posizione che contrasta con quella,
piú drastica, di alcuni settori del movimento ambientalista che
vorrebbero zero inquinamento. In sostanza, si può pagare per
avere il privilegio di inquinare? Alcuni dicono sí, altri no, è un
dibattito in corso.
Senza addentrarci nella questione, diciamo che è perlomeno concepibile che un’arma efficace dei governi contro chi inquina potrebbe essere «fargliela pagare». Questo vuol dire rendere l’inquinamento poco conveniente dal punto di vista eco78
nomico, piuttosto che renderlo un crimine o semplicemente
proibirlo. Questo tipo di approccio ha portato alla definizione
del concetto di «costo esterno» o «esternalità». Il concetto è
molto semplice. Quando qualcuno brucia degli idrocarburi paga il costo di quello che brucia ma normalmente non paga i costi che produce in termini di inquinamento. Questi costi «esterni» sono pagati dalla comunità. In pratica, se il singolo utente
non paga i costi esterni, si trova nella condizione di vedere come vantaggioso inquinare il piú possibile, da qui l’idea di «internalizzare» i costi esterni. Si ragiona che se questi costi possono essere quantificati e caricati sui singoli utenti, i normali
meccanismi economici (la «mano invisibile dell’economia») rimetteranno tutto, piú o meno, a posto.
Il concetto di costi esterni si può mettere in relazione con
quello di «tragedia dei pascoli comuni» che Garrett Hardin
aveva enfatizzato nel suo libro The Tragedy of the Commons
del 1968. La questione è sempre la stessa: il contrasto fra guadagno economico individuale e danno all’ambiente, che poi
nella pratica si riversa sulla comunità. Hardin descrive la tragedia dei pascoli inglesi dell’Ottocento, quando l’eccessivo numero di pecore li ridusse quasi a un deserto e mandò in rovina
i pastori.
Tradizionalmente, i pascoli erano terreno comune (commons) dove ogni pastore aveva diritto di portare le sue pecore.
Ovviamente, ogni pecora portava un certo guadagno economico e ogni pastore tendeva a portare al pascolo quante piú pecore possibile. Il guadagno economico di una pecora in piú per
ogni individuo, però, produceva un danno ai pascoli dove, oltre certi limiti, non riusciva a ricrescere l’erba brucata (overgrazing). Questo danno era un tipico costo esterno che si riversava su tutti i pastori. Nella pratica, il meccanismo perverso dei
commons portava ogni individuo a massimizzare i propri profitti facendo il massimo danno possibile all’ambiente. A lungo
andare, i pascoli si sono desertificati, portando appunto alla
«tragedia dei commons», che del resto non è limitata ai soli pascoli dell’Inghilterra nel XIX secolo, ma la vediamo tuttora in
opera in tantissimi posti del mondo e non solo per pascoli e
79
pecore. La tragedia dei commons è la stessa cosa, semplicemente su scala diversa, di ciò che sta accadendo all’intero pianeta Terra.
Quella tragedia si sarebbe potuta evitare se solo fosse esistito un proprietario, o un governo, che avesse fatto pagare ai
pastori una tassa o un affitto proporzionale al numero di pecore portate al pascolo. Se calibrata bene, questa tassa avrebbe eliminato l’overgrazing e ottimizzato la resa dei pascoli.
Questa è l’idea di base che ha guidato l’Unione Europea alla
ricerca di una quantificazione del danno economico dell’inquinamento, quantificazione che avrebbe dovuto poi (dovrebbe) trasformarsi in leggi e regole tali da scoraggiare gli
individui a inquinare. Era ed è il concetto della «carbon tax»
che tuttavia finora ha portato solo ad alte grida di orrore da
parte dei cittadini, terrorizzati all’idea di dover pagare una
nuova tassa e dei politici, terrorizzati all’idea di perdere voti.
È possibile che molti dei problemi attuali si potrebbero risolvere se sostituissimo l’attuale meccanismo di tassazione, basato sul reddito e sul valore aggiunto, con un meccanismo di
«tasse sui beni comuni». Ovvero, se uno utilizza dei beni comuni (principalmente acqua, aria e spazio), deve pagare una
compensazione alla comunità, appunto una tassa. Un meccanismo del genere avrebbe salvato i pastori inglesi dalla tragedia dei commons, ma visto l’attuale livello del dibattito politico è utopico che si arrivi anche solo a parlarne.
Comunque sia, se volessimo cercare di far pagare chi inquina per i danni che produce, dovremmo cercare di quantificare
questi danni, ovvero i costi esterni. Questo è di per sé una cosa non ovvia. La quantificazione dei danni causati dai combustibili fossili è stata tentata in una serie di studi che hanno avuto il supporto della Commissione Europea nel programma detto «ExternE». I dati numerici finali si possono trovare per
esempio in un articolo di Krewitt4. Per dare un esempio di
quello che è stato fatto, citiamo dal rapporto EV5V-CT94-0375
«Greenhouse Gas Abatement through Fiscal Policy in the European Union»:
80
La comparazione dei dati sui benefici secondari nella letteratura
ha portato a un dominio di benefici marginali (valutando le riduzioni nelle emissioni sulla base del loro costo marginale) di
$1990250-400/tonnellate di carbonio (C), un dominio sorprendentemente ristretto considerando le grandi incertezze nei calcoli.
Anche il valore inferiore di questo dominio è sostanzialmente piú
elevato delle stime esistenti dei costi risultanti dalle emissioni di
CO2, sebbene le incertezze in queste stime dei danni primari sono addirittura piú grandi di quelle associate con il calcolo dei benefici secondari. Piú significativamente, forse, usando i calcoli di
Nordhaus per la stima dei costi marginali dell’abbattimento delle
emissioni, è stato trovato che un beneficio secondario di $250/tC
giustificherebbe da solo una riduzione del 70% delle emissioni di
base di CO2. Una tale conclusione è in stridente contrasto con
quelle che prendono in considerazione soltanto danni primari e
che indicano che solo un basso livello di abbattimento di CO2 sarebbe economicamente giustificato.
Questo è un buon esempio del «burocratese scientifico»
dell’Unione Europea. «Costi marginali», benefici «primari» e
«secondari», oscuri ragionamenti che alla fine dei conti portano comunque a dei numeri. Per esempio nel rapporto EV5VCT94-0365 «The External Costs of Transport and Their Internalisation», si arriva alle stime seguenti per il valore dei danni
dovuti all’inquinamento da idrocarburi utilizzati nel trasporto
su strada (PIL: prodotto interno lordo)
Inquinamento dell’aria:
Emissioni di CO2:
0,4% – 0,9% del PIL
0,2% – 0,5% del PIL
Da questi dati è evidente come la montagna ha partorito un
topolino. Dopo tanto discutere sul surriscaldamento atmosferico, danni globali, disastri planetari, tutto il danno si riduce,
secondo questo rapporto all’1% del PIL o giú di lí. Se cosí fosse, sarebbe poco danno, forse non varrebbe neanche la pena
di preoccuparsene troppo (anche se probabilmente un malato
di cancro ai polmoni non sarebbe troppo d’accordo...).
Comunque sia, anche se l’1% del PIL può sembrare poco, se
lo riportiamo al valore del prodotto interno lordo di tutta l’Eu81
ropa si arriva a qualcosa dell’ordine dei 30-50 miliardi di Euro
all’anno. In valore assoluto non è poco. Rapportato al numero
di cittadini europei si trasforma in circa 100 euro a persona all’anno, qualche centinaio di euro all’anno per famiglia.
Possiamo anche trasformare i valori dei costi esterni alla
produzione di energia elettrica e troviamo qualcosa come 1-4
eurocent per kWh. Secondo questi dati, per tener conto dei
danni causati dai combustibili fossili bisognerebbe all’incirca
raddoppiare i costi dell’elettricità. Facendo un conto molto in
soldoni, il risultato finale è che la «carbon tax» che dovrebbe
tener conto di queste cifre dovrebbe essere tale da raddoppiare, centesimo piú, centesimo meno, i costi dell’energia al consumatore. L’idea è che se riuscissimo ad aumentare i prezzi dei
combustibili a questo livello, ovvero a far pagare agli utenti i
costi esterni (automobilisti, proprietari di case ecc.), allora l’inquinamento e tutti i problemi relativi sparirebbero. Forse. E
comunque finora non ci siamo riusciti. Ci pensate? Quale politico si lancerebbe in una campagna del genere: «votate per me
che vi raddoppio il prezzo della benzina»?
I pastori inglesi che hanno desertificato i loro pascoli sicuramente non erano stupidi, e di certo erano in grado di capire
che cosa stava succedendo. Tuttavia non sono riusciti a mettersi d’accordo per assicurarsi la loro stessa sopravvivenza. Riguardo a un sistema economico molto piú complesso come il
nostro, dove ogni tentativo di introdurre anche una modestissima carbon tax si è scontrato finora con difficoltà insuperabili, è difficile pensare che si possa far meglio dei pastori inglesi.
Una modesta carbon tax è stata introdotta finora solo dall’Austria, dalla Finlandia e dall’Olanda. È già qualcosa, ma una carbon tax efficace a livello europeo resta un sogno dei burocrati
di Bruxelles. Se anche si riuscisse a metterla in atto, sicuramente lo si potrebbe fare soltanto a valori troppo bassi per avere
un vero effetto sui comportamenti degli utenti.
Ci troviamo di fronte a un’altra delle tante difficoltà che
hanno a che vedere con il raddrizzare i comportamenti sbagliati ai quali ci siamo ormai abituati. Finché i cittadini non
riusciranno a visualizzare i danni di certi comportamenti è qua82
si impossibile imporre loro di smettere. Nel momento in cui i
danni sono ben visibili, ci troviamo già in una situazione compromessa. È la tragedia dei commons su scala planetaria. I nostri pascoli petroliferi, sembra, sono sovrasfruttati come l’erba
inglese. A quando la desertificazione?
83
L’economia minerale
Siamo arrivati ora al nocciolo della questione. Abbiamo visto come gli idrocarburi fossili stiano facendo enormi danni al
pianeta in termini di inquinamento. Abbiamo anche visto come gli idrocarburi siano risorse strettamente non rinnovabili.
Il petrolio estratto e bruciato non si può riutilizzare o riciclare,
è perso per sempre: vanitas vanitatis, un vapore di biossido di
carbonio che si disperde nell’atmosfera causando un effetto
serra. Il nostro futuro dipende, evidentemente, da quanto petrolio bruceremo, da quanto ne vorremo bruciare e da quanto
ne potremo bruciare. Fattori che dipendono in parte dalla nostra volontà e in parte dalle riserve di petrolio disponibili sottoterra. Cercheremo ora di esaminare questi fattori per tentare
di costruire dei modelli che ci possano aiutare a prevedere ciò
che succederà.
Prevedere il futuro
Molto di quello che si fa nella vita (specialmente nella scienza e nella politica) è cercare di prevedere il futuro. Se ci riuscissimo, molte delle scemenze che la gente comunemente fa potrebbero essere evitate, ma evidentemente non è cosí semplice.
Fin dai tempi degli oracoli che esaminavano fegati di pecora e
degli sciamani che lanciavano ossi per aria, prevedere il futuro
85
è stata un’arte difficile, forse impossibile. Ma il fatto che questi
tentativi di predizione siano una costante nella storia umana ci
dice che hanno qualche importanza e anche un certo valore.
Se non siamo troppo ambiziosi, se ci limitiamo a cercare di prevedere un futuro non troppo lontano e di prevederlo non troppo in dettaglio, allora forse qualcosa di utile lo possiamo dire.
Tralasciamo qui sistemi basati su elementi soprannaturali
(carte dei tarocchi, fondi del tè o simili). Non è detto dopotutto che funzionino tanto peggio di altri metodi «scientifici» forse sopravvalutati oggi, ma vediamo piuttosto di ragionare sul
concetto di previsione in generale. In sostanza, l’approccio
scientifico a prevedere il futuro consiste nell’estrapolare una
tendenza in atto. In fondo, quando parliamo di «leggi fisiche»
ci riferiamo a dei sistemi tanto semplici al punto che possiamo
estrapolare con buona sicurezza il loro comportamento. Per
esempio, sappiamo che applicando un certo voltaggio a una
resistenza la corrente che la attraverserà è inversamente proporzionale alla resistenza stessa. Una volta che abbiamo determinato il coefficiente di proporzionalità misurando almeno
qualche valore del voltaggio e della corrente, possiamo andare
tranquilli e usarlo per determinare il valore della corrente per
qualsiasi altro valore del voltaggio applicato (almeno entro certi limiti ed entro certi intervalli di altri parametri, per esempio
la temperatura della resistenza). Tutto questo ci può sembrare
forse non troppo eccitante, ma è una cosa sperimentata, che
sappiamo che funziona, e che è molto utile. La fisica si è occupata fino ad oggi, principalmente, di questo tipo di sistemi. Sistemi che obbediscono a certe «leggi» e che possiamo definire
«prevedibili».
Certo, la prevedibilità di questi sistemi non è mai perfetta,
al contrario è sempre approssimata e il grado di approssimazione dipende da vari fattori quali, per esempio, la precisione
delle misure con le quali il sistema è stato caratterizzato. Tuttavia questo tipo di previsioni tende a convergere verso valori
che sono spesso piuttosto buoni: via via che facciamo misure,
la nostra predizione diventa sempre migliore anche se sappiamo che non potrà mai essere perfetta. Sappiamo che molto del
86
valore della fisica di Newton e di Leibniz è derivato nel passato dalla possibilità di usarla per prevedere le traiettorie dei
proiettili di artiglieria. La precisione con la quale si può sparare un proiettile a lunga distanza può essere buona, ma è probabilmente meno buona di quella dell’esempio della resistenza elettrica. Nel caso della traiettoria del proiettile ci sono sempre dei fattori che possiamo definire «imponderabili», per
esempio la forza del vento, che non esistono nel caso di una
resistenza elettrica. Però è possibile aggiustare la traiettoria di
un proiettile anche a lunga distanza con una serie di correzioni graduali. È questo il caso delle bombe cosiddette «intelligenti» che bussano alla porta, si fanno aprire, e vanno a esplodere in salotto, ma lasciamo perdere questo argomento.
Non tutti i sistemi fisici sono cosí semplici come il caso di
una resistenza elettrica a temperatura costante e nemmeno prevedibili approssimativamente come la traiettoria di un proiettile. Certi sistemi sono prevedibili solo in termini statistici. Per
esempio, in una bombola di gas esiste un numero immenso di
molecole, ognuna delle quali con la propria traiettoria e la propria velocità. Cosí come possiamo descrivere la traiettoria di
una singola palla di cannone, potremmo anche descrivere quella di ciascuna molecola, ma nella pratica sarebbe impossibile e
comunque non servirebbe a niente. Ci sono talmente tante molecole in un recipiente di gas macroscopico che il comportamento del gas (per esempio la pressione sulle pareti interne
della bombola) non può essere previsto tenendo conto di quello che fa ciascuna molecola. Può essere previsto, però, mediante leggi molto semplici che possono essere derivate sia da osservazioni empiriche sia da modelli teorici. In ogni caso, il comportamento del gas è definito dal comportamento medio delle
molecole. Per questo tali sistemi si chiamano «statistici».
A dispetto dell’esistenza di un certo fattore di casualità, tuttavia, la prevedibilità dei sistemi statistici comuni (come appunto i gas) non è meno buona, anzi sotto certi aspetti è migliore, di quella dei sistemi dove si prende in considerazione,
per esempio, un singolo corpo in movimento (per esempio la
mela di Newton). Piú in generale, i modelli statistici possono
87
essere usati per una varietà di sistemi dove il comportamento
apparentemente casuale di ciascun elemento può essere ricondotto a un comportamento medio. Per questa ragione, tali modelli sono validi, per esempio, anche in biologia o per descrivere il comportamento umano in tante situazioni, con buona
pace del concetto di «libero arbitrio».
Tuttavia, esistono dei sistemi fisici di cui si può dimostrare
l’impossibilità di predizione. È questa la cosiddetta «nuova fisica» che comprende i sistemi cosiddetti «caotici» e quelli detti «criticamente auto-organizzati». Sono classi piuttosto vaste
di sistemi che si incontrano molto spesso nella vita reale. Per
esempio l’atmosfera terrestre sembra che sia in gran parte un
sistema caotico. Strettamente parlando, questi sistemi non sono completamente imprevedibili. In effetti anche un sistema
complesso, com’è appunto l’atmosfera terrestre, ha delle regolarità evidenti: già il fatto che in inverno sia piú freddo che in
estate (nell’emisfero nord) è una di queste regolarità. Tuttavia,
anche se sappiamo bene che in inverno fa piú freddo che in
estate le temperature invernali non si ripetono mai esattamente. Con un linguaggio piú tecnico si dice che un sistema caotico mantiene i suoi parametri nelle vicinanze di certi insiemi di
parametri che sono detti «attrattori strani» (come ci hanno insegnato nel film Jurassic Park). Tuttavia, le traiettorie che il sistema descrive intorno all’attrattore (o agli attrattori) non si ripetono mai esattamente.
Un altro modo di descrivere un sistema caotico è di notare
che gli effetti di una piccola perturbazione possono avere enormi effetti sulla configurazione finale. Evidentemente, se questo
è il caso, diventa impossibile prevedere il comportamento del
sistema se non a brevissima scadenza. Anche un minuscolo errore nella determinazione dei parametri iniziali viene amplificato a valori imprevedibili. Per fare un esempio basterà citare
la storia della farfalla che sbatte le ali in Cina e causa una tempesta in California, una descrizione forse un po’ esagerata ma
che comunque serve a descrivere la difficoltà ben nota di fare
delle previsioni meteorologiche a lunga scadenza.
Un altro tipo di sistemi che non è prevedibile, anche se non
88
è caotico, è quello definito, come si accennava prima, «criticamente auto-organizzato», che viene a volte indicato con le iniziali SOC (self-organized criticality). Questi sistemi sono stati
studiati, fra gli altri, dal fisico danese Per Bak lavorando sul
comportamento delle pile di sabbia, del tipo che si formano
nelle clessidre. Poteva sembrare una bella perdita di tempo
mettersi a studiare pile di sabbia e clessidre e invece, come succede spesso in fisica, studiando un sistema apparentemente di
nessuna utilità (come la mela di Newton che cadeva dall’albero) si riesce a determinare delle leggi universali. È uno degli
aspetti affascinanti della fisica.
I sistemi critici tipo SOC studiati da Per Bak obbediscono a
leggi ben precise (leggi di potenza) che descrivono la probabilità di un certo evento. Per esempio, nel caso dei terremoti si
trova che la probabilità di una scossa è inversamente proporzionale all’intensità della scossa stessa secondo una legge che si
determina osservando i terremoti avvenuti nel passato. Questa
è una legge della fisica, cosí come è una legge della fisica la legge di Ohm che lega la corrente alla tensione applicata. Il problema è che mentre dalla legge di Ohm possiamo prevedere i
valori esatti della corrente data una certa tensione, da una legge di potenza sappiamo solamente che i terremoti molto intensi sono molto meno frequenti di quelli deboli. Possiamo anche
calcolare quale sarà la frazione di terremoti di una certa intensità rispetto a terremoti di intensità diversa. Ma la legge non ci
dice niente su dove e quando esattamente un certo terremoto
si verificherà.
Ci sono molti casi di fenomeni dove si è visto che vale una
legge di potenza, ovvero che si tratta di sistemi criticamente
auto-organizzati. Gli esempi includono, fra gli altri, gli ingorghi del traffico, l’andamento a breve termine dei titoli di borsa
come pure le guerre. Quest’ultima osservazione ci dice che la
gestione del pianeta sarà sempre un’impresa molto difficile, se
non impossibile, con buona pace di quelli che parlano del
«nuovo ordine internazionale». Per esempio, la decisione di
attaccare l’Iraq nel 2003 sembra sia dipesa principalmente da
certi processi che si sono svolti all’interno del cervello di una
89
singola persona, il signor George W. Bush. Questi processi vanno al di là del controllo da parte di modelli fisici e, probabilmente, anche al di là del controllo da parte del possessore del
cervello in questione.
In certi casi, predire il comportamento futuro di un sistema
fisico è difficile, se non impossibile, anche se non si tratta di
un sistema caotico o critico di tipo SOC. È il caso delle grandezze fisiche che sono rapidamente divergenti, ovvero che aumentano in modo esponenziale. È abbastanza ovvio che quando abbiamo una grandezza che aumenta in modo esponenziale
anche l’errore iniziale sulle misure della stessa viene amplificato in modo esponenziale per cui qualsiasi tentativo di previsione a lungo termine diventa privo di significato. Il punto è, tuttavia, che l’aumento esponenziale di una grandezza fisica non
può continuare all’infinito, prima o poi deve fermarsi è qui sta
la differenza sostanziale fra sistemi determinati e sistemi caotici o SOC. Un esempio può essere l’incremento di una popolazione in biologia. Questo incremento è normalmente esponenziale nelle prime fasi di crescita, ma prima o poi la popolazione
si scontra con i limiti fisici del sistema e deve stabilizzarsi o
collassare. Lo stesso caso si verifica nello sfruttamento di una
risorsa minerale, come vedremo piú in dettaglio nel seguito. In
questo caso, la quantità di risorsa estratta può aumentare esponenzialmente nelle prime fasi del processo, ma siccome la quantità di risorsa disponibile è comunque finita, a un certo punto
il sistema deve convergere, in questo caso su un valore di zero
risorsa estratta. Qui la predizione è difficile nei primi tempi in
cui l’andamento esponenziale è prevalente, ma una volta che il
sistema comincia a stabilizzarsi su una «curva a campana» la
predizione diventa possibile e via via che il sistema evolve diventa sempre piú precisa. Anche questo è un punto che vedremo piú in dettaglio nella discussione dell’estrazione delle risorse petrolifere.
Certi andamenti commerciali o il traffico lungo una certa
strada possono essere definiti con buona approssimazione mediante metodi statistici. Sappiamo per esempio che la penetrazione di mercato di un nuovo prodotto (per esempio una lava90
trice) segue una legge statistica ben nota che viene definita
«curva logistica», in cui le vendite iniziano a un ritmo abbastanza lento, poi aumentano, passando per un massimo via via
che il mercato si satura. Nessuno di noi compra una lavatrice
pensando che questo acquisto deve obbedire a una curva logistica, ma quasi sempre viene fuori che le nostre scelte «libere»
seguono curve del genere; con buona pace appunto del libero
arbitrio. La scienza che si occupa di questo tipo di sistemi si
chiama, appropriatamente, «dinamica dei sistemi» e ne vedremo poi l’applicazione dettagliata al sistema che ci interessa, ovvero l’estrazione del petrolio e dei combustibili fossili.
Modelli per l’economia minerale
Abbiamo visto nella sezione precedente come la comprensione dei parametri fisici di un sistema ci possa aiutare a prevedere il futuro, almeno entro certi limiti. Abbiamo anche visto
come, tuttavia, certi sistemi siano intrinsecamente imprevedibili perché caotici o «critici». A proposito dell’argomento che
ci interessa, ovvero l’estrazione e la durata delle risorse di combustibili fossili, a che tipo di sistema siamo di fronte? Se fossimo davanti a un sistema caotico o critico non avremmo speranza di prevedere niente, ma ovviamente non è cosí. Per essere precisi, a breve termine può darsi che alcuni elementi del sistema abbiano comportamenti critici, per esempio la probabilità di scoprire un nuovo pozzo di una certa dimensione. Sappiamo anche che l’andamento del sistema può essere influenzato da fenomeni esterni che sono critici. Per esempio, l’andamento della produzione del petrolio negli anni settanta e ottanta è stato fortemente influenzato dalla guerra dei sei giorni,
dalla guerra del Kippur e da altri conflitti che, come abbiamo
detto, sono imprevedibili nei dettagli.
Tuttavia, l’andamento del «sistema petrolio» non è, e non
potrebbe essere, critico nel suo comportamento globale e a
lungo termine. I parametri del sistema sono, certamente, statistici per certi aspetti (distribuzione geografica dei pozzi, quan91
tità di petrolio in ogni pozzo ecc.). Però ci sono dei parametri
fisici di base che bloccano il sistema entro un quadro deterministico. Riducendo tutto al nocciolo della questione, la quantità di petrolio esistente sul pianeta è finita quindi a un certo
punto il sistema deve convergere a un valore finito e stabile: la
produzione deve andare a zero (ovvero, piú esattamente, potrà
ricominciare fra qualche decina di milioni di anni, quando i
processi geologici terrestri avranno ricreato nuovo petrolio).
Questo rende il sistema prevedibile seppure, ovviamente, in
modo piú o meno approssimato secondo la bontà dei modelli
che usiamo e la precisione dei dati da cui partiamo. In sostanza, l’estrazione del petrolio (e in generale delle risorse minerali) se vista a livello globale è trattabile per mezzo dei modelli
sviluppati dalla «dinamica dei sistemi».
Entriamo ora nei dettagli e vediamo quali modelli dinamici
potremmo utilizzare per descrivere l’estrazione di risorse minerali. In generale, quando applicata al comportamento degli
esseri umani, la dinamica dei sistemi si basa su certe assunzioni
elaborate a proposito dell’esistenza di «agenti» (appunto gli
esseri umani) che agiscono sul sistema secondo, di solito, il loro interesse. In questo caso abbiamo delle risorse (il petrolio) e
degli esseri umani che vogliono estrarlo. Come possiamo descrivere questa situazione?
Il modello piú semplice, persino banale, è quello che possiamo definire della «birra nel frigorifero». Il frigorifero contiene una quantità finita di risorse (lattine di birra) gli agenti le
consumano a un ritmo costante (bevono un certo numero di
lattine al giorno). La «produzione» di birra da parte del frigorifero è costante finché c’è birra poi piomba a zero quando non
ce n’è piú. È una descrizione banale, ma illustra un primo esempio dell’approccio della dinamica dei sistemi. Il modello, tuttavia, si applica male, anzi non si applica affatto, al caso dell’estrazione del petrolio.
Se sapessimo esattamente dove sono localizzati tutti i pozzi
di petrolio, se questi fossero tutti piú o meno uguali, e se la nostra economia non si espandesse, probabilmente il ritmo di
estrazione sarebbe costante per poi andare bruscamente a zero
92
al momento in cui i pozzi sono esauriti. Ovviamente, nella pratica le cose non stanno cosí, e tuttavia è sorprendente come in
moltissimi casi nella letteratura specializzata la durata delle risorse petrolifere venga stimata proprio mediante questo modello. Nella letteratura «seria», quando si fanno questi conti
ovviamente non si parla di modello «birra nel frigorifero», si
usa piuttosto il nome «stima R/P» ossia la stima del rapporto
tra risorse e produzione. Il principio è identico alla stima della
durata delle riserve di birra: se ho 10 lattine nel frigo (riserve)
e ne bevo due al giorno (produzione) mi dureranno cinque
giorni. Per il petrolio si dice che abbiamo un certo numero di
gigabarili, ne consumiamo un certo numero all’anno, il rapporto mi dà un numero di anni. Queste stime però sono non
solo approssimate ma anche fuorvianti perché non tengono
conto del progressivo aumento del consumo e della produzione.
Un altro modello, piú evoluto e piú realistico, è quello che
possiamo chiamare del «coniglio pasquale». Negli Stati Uniti
c’è l’usanza per Pasqua di nascondere uova, a volte di cioccolata a volte di gallina, nel giardino di casa invitando i bambini
a cercare le uova che, vien detto loro, il coniglio pasquale ha
nascosto. Un’usanza ancora poco nota da noi ma che, come
tante cose che ci vengono dall’America, probabilmente si
diffonderà rapidamente (anche questo potrebbe essere descritto secondo modelli di dinamica dei sistemi, ma non divaghiamo). Allora, dato che le uova sono nascoste, questo sistema somiglia molto di piú al caso dell’estrazione del petrolio a livello
planetario, dove non si sa esattamente dove siano i pozzi. Come possiamo descrivere la ricerca (ovvero la «produzione») di
uova da parte dei bambini? Anche questo è un problema ben
noto nel campo della dinamica dei sistemi. Si parte dall’assunzione che la probabilità per ogni bambino di trovare un uovo
sia semplicemente proporzionale al numero di uova nascoste,
un numero che diminuisce via via che le uova vengono trovate.
Tralasciamo di descrivere la matematica della cosa e diamo
semplicemente il risultato finale: secondo questo modello la
produzione di uova pasquali diminuisce esponenzialmente con
93
il tempo. Ovvero, via via che la ricerca va avanti i bambini trovano sempre meno uova, oppure – il che è un altro modo per
dire la stessa cosa – devono cercare per piú tempo per trovare
un altro uovo. La pura matematica del decadimento esponenziale ci dice che il numero di uova trovate per unità di tempo
non andrà mai esattamente a zero; nella pratica, tuttavia, siccome le uova sono in numero finito a un certo punto o i bambini
le troveranno tutte oppure si stuferanno di cercare le ultime rimaste. In entrambi i casi, la produzione arriva a zero. Come
abbiamo detto, questi sistemi sono convergenti e deterministici.
Il modello «coniglio pasquale» è già nettamente piú complesso del modello «birra nel frigo» e potrebbe applicarsi a
qualche caso di estrazione di risorse minerarie. Incidentalmente, corrisponde esattamente a quello che in scienze economiche viene detto il «modello di Hotelling», che era stato proposto già negli anni trenta per descrivere l’andamento della produzione di una risorsa minerale. Nella pratica, però, è evidente
che questo modello non si applica in nessun modo al petrolio.
Sappiamo bene che la produzione di petrolio è andata continuamente aumentando negli ultimi 100 anni, sia pure con alcune oscillazioni passeggere. Chiaramente questo non è in accordo con il modello che abbiamo appena descritto. Abbiamo,
evidentemente, trascurato qualche fattore. Ragionandoci sopra, è abbastanza evidente quale è il fattore che abbiamo trascurato: nel caso del petrolio il numero degli «agenti» che cercano e sfruttano la risorsa non è costante come nel caso dei
bambini nel giardino. La produzione mondiale di petrolio è
aumentata nel tempo a causa sia dell’espansione dell’economia
mondiale sia dell’aumento della popolazione.
Per adattare il modello «coniglio pasquale» all’estrazione
del petrolio potremmo pensare che i bambini del villaggio si
passano la voce che il coniglio ha sparpagliato le sue uova in
un certo giardino. Di conseguenza, sempre piú bambini si presentano alla festa, questo almeno finché ci sono uova da trovare. Questo tipo di assunzione del modello può essere utile, fra
le altre cose, per illustrare alcune delle caratteristiche della teo94
ria dei sistemi, la quale comincia a essere veramente rilevante
per sistemi complessi quando si comincia ad assumere che gli
agenti comunicano o comunque interagiscono fra di loro. Su
questa base si può cominciare a descrivere fenomeni abbastanza complicati come i sistemi economici o la crescita delle popolazioni in biologia.
Dato che siamo arrivati a citare la biologia, a questo punto
possiamo lasciar perdere il coniglio pasquale e descrivere quello che è stato il capostipite dei tutti i sistemi in cui si descrive
lo sfruttamento di risorse finite: quello delle «volpi e dei conigli» (qui si parla conigli veri, non conigli pasquali) sviluppato
dai matematici Lotka e Volterra, e detto, appunto, modello di
«Lotka-Volterra». In questo modello si immagina un’isola popolata da volpi e conigli e si tiene conto del fatto che sia i conigli che le volpi si riproducono. Come ben si sa in biologia, in
presenza di risorse di cibo una popolazione tende a crescere
esponenzialmente con il tempo. La crescita esponenziale (da
non confondere con il decadimento esponenziale di cui parlavamo prima) ha diverse caratteristiche interessanti. La prima
di queste è di cogliere alla sprovvista gli esseri umani la cui
mente, sembra, non è fatta per valutare le conseguenze di una
rapida crescita di questo genere. L’esempio classico di una di
queste sorprese è la famosa leggenda di quel matematico che
aveva inventato il gioco degli scacchi per il re di Persia e che
come ricompensa chiese dei chicchi di riso: uno sulla prima
casella, due sulla seconda, quattro sulla terza e cosí via fino alla sessantaquattresima.
Si tratta appunto di una crescita esponenziale che colse di
sorpresa il re di Persia, il quale ben prima di arrivare alla sessantaquattresima casella aveva esaurito tutto il grano del paese.
Le crescite esponenziali hanno, appunto, questa caratteristica:
di raddoppiare in tempi costanti. Per questa ragione sono
esplosive, imprevedibili, e spesso causano disastri (nel caso della leggenda, è probabile che il disastro sia capitato al matematico del re). Un altro classico esempio di crescita esponenziale
che potrebbe causare qualche disastro immane è la crescita della popolazione umana sulla Terra, ma per fortuna secondo gli
95
ultimi dati questa crescita sta rallentando. Comunque, non dilunghiamoci ora su questo argomento.
Tornando al modello di Lotka-Volterra, quello dell’isola delle volpi e dei conigli, abbiamo che entrambe le popolazioni
tendono a crescere esponenzialmente. I conigli si nutrono di
erba (che nel modello si assume essere sempre abbondante,
ovvero infinita) mentre le volpi si nutrono di conigli. La crescita del numero delle volpi dipende, ovviamente, dalla presenza
dei conigli. Non diamo qui i dettagli del modello matematico,
che è di solito basato su due equazioni differenziali accoppiate. In ogni caso, se assumiamo che le volpi crescano piú rapidamente dei conigli ci troviamo di fronte a un’altra caratteristica delle crescite esponenziali, ovvero il fatto che quando ci
sono due esponenziali in «competizione», uno dei due la vince
schiacciando l’altro. Allora, via via che le volpi crescono di numero, i conigli non ce la fanno a riprodursi al punto da compensare il numero di quelli mangiati. La popolazione dei conigli cessa di crescere mentre le volpi continuano ad aumentare.
A un certo punto, ci sono talmente tante volpi rispetto ai conigli che la popolazione di questi ultimi crolla. A questo punto le
volpi cominciano a morire di fame, la loro popolazione smette
di crescere e crolla anch’essa. Col crollo delle volpi, i conigli
superstiti possono di nuovo riprodursi liberamente e la loro
popolazione ricomincia a crescere. Ne segue una serie di cicli,
oscillazioni di popolazione in cui le volpi si trovano periodicamente a fronteggiare periodi di carestia e di abbondanza, mentre i conigli vivono in un mondo dove la vita oscilla fra periodi
di pace e serenità ad altri in cui le volpi la fanno da padrone.
Il modello dell’isola delle volpi e dei conigli è un modello
molto semplificato. Tuttavia descrive abbastanza bene certe caratteristiche degli ecosistemi e in certi casi in natura si sono osservate delle oscillazioni periodiche non dissimili da quelle previste dal modello. Nella pratica, ovviamente, gli ecosistemi sono ben piú complessi del semplice modello di Lotka e Volterra. Le specie in competizione sono molteplici e le loro interazioni complesse. Comunque può succedere, e succede, che una
specie si trovi a essere oggetto di predazione da parte di un’al96
tra specie al punto che il numero di individui si riduce enormemente. Nel modello come lo si trova descritto di solito nei
libri, ovvero un modello «continuo» basato su equazioni, i conigli non spariranno mai del tutto per quanto severa possa essere la loro diminuzione. Nella realtà capita a volte che il numero di individui di una specie si riduca al punto tale che la
specie non si riprende piú: è quello che chiamiamo estinzione.
Il modello di Lotka-Volterra è di tipo discontinuo, ovvero
tiene conto del numero finito delle volpi e dei conigli (si parla
allora di modello «stocastico»). In questi modelli può succedere che le volpi mangino l’ultimo dei conigli (per l’esattezza, basta che mangino il penultimo) cosí come gli esseri umani hanno ammazzato l’ultimo esemplare del dodo e di tante altre specie. Ma con il loro comportamento le volpi si auto-condannano all’estinzione. Per ora agli esseri umani non è andata cosí
male, ma non è detto che le conseguenze dell’estinzione di cosí tante specie non siano altrettanto pesanti nel futuro. Ma, al
solito, non è questo l’argomento di questa discussione.
Il modello di Lotka-Volterra si presta molto bene ad essere
applicato alla questione dell’estrazione del petrolio. Qui, gli
esseri umani giocano il ruolo delle volpi e il petrolio il ruolo
dei conigli. La differenza è che, come è ovvio, il petrolio non si
riproduce, ma è un ammontare fisso che si è accumulato in milioni di anni. Per modellizzare l’estrazione del petrolio basta
dunque settare a zero il coefficiente che descrive la rapidità di
riproduzione dei conigli. Ciò fatto, ci possiamo aspettare un
unico ciclo di crescita e declino delle volpi, mentre i conigli
non potranno fare altro che diminuire in numero fin dal primo
momento. Questo è esattamente il risultato delle simulazioni.
La popolazione delle volpi segue una «curva a campana» che
passa per un massimo e poi va a zero. Il numero di conigli, invece, declina secondo una curva di tipo esponenziale. Se consideriamo però il numero di conigli catturati per unità di tempo, per esempio ogni giorno (invece che il numero totale), e
che corrisponde alla «produzione» dei conigli dal punto di vista delle volpi, anche questa curva è una curva a campana che
passa per un massimo. Applicato al caso del petrolio e degli
97
Figura 5 - Modelli di consumo semplificati di una risorsa non rinnovabile.
esseri umani sull’«isola terra» questo vuol dire che secondo il
modello c’è da aspettarsi che la produzione di petrolio passi
per un massimo e poi declini secondo una curva a campana.
Il modello di Hubbert
Il modello sviluppato per il caso delle volpi e conigli (sterili) è fondamentale per quello che stiamo cercando di capire. Ci
aspettiamo che, se il modello è valido, la produzione di qualunque risorsa minerale non rinnovabile dovrebbe seguire, per
lo meno approssimativamente, una curva a campana. Se questo è vero, lo possiamo verificare sperimentalmente dai dati
che abbiamo. Si vede che, in effetti, le curve a campana sono
una costante di questo tipo di sistemi. Ce ne sono molti esempi in campo minerario, uno è per esempio l’esaurimento progressivo delle miniere di carbone in Pennsylvania, come mostrato nella Figura 6.
Anche nel campo specifico di quello che stiamo conside98
Figura 6. Produzione di carbone dalle miniere della Pennsylvania (fonte:
University of Minnesota).
rando, il petrolio, la produzione in certe specifiche aree segue
in effetti delle curve a campana. Nella Figura 7 è mostrato l’andamento della produzione di petrolio negli Stati Uniti, anche
questa è passata per un massimo nel 1970 circa per poi declinare secondo quello che finora è stata una curva a campana.
Abbiamo dunque trovato un modello che funziona, o perlomeno che descrive bene certi eventi del passato. A questo
punto, se abbiamo fiducia in questo approccio possiamo utilizzarlo non solo per interpretare eventi del passato ma per fare
delle previsioni, il che è il punto fondamentale. Una volta che
abbiamo deciso che la curva a campana è l’andamento che ci
aspettiamo, possiamo anche fare a meno delle equazioni differenziali di Lotka e di Volterra, come pure delle simulazioni stocastiche possibili. Possiamo anche fare a meno di andare troppo nei dettagli per stabilire esattamente quale tipo di curva a
campana abbiamo di fronte: ce ne sono diverse definite in ma99
Figura 7. Andamento della produzione di petrolio negli Stati Uniti estrapolato fino all’esaurimento completo previsto per il 2040-2050 (fonte: ASPO;
www.asponews.org).
tematica, ma le differenze sono piccole, trascurabili per quello
che ci interessa. Ci basta lavorare sui dati disponibili ed estrapolarli.
Sappiamo che l’estrazione seguirà un certo andamento e
possiamo calcolare a che punto aspettarci il «picco» nella produzione, il punto a partire dal quale la produzione dovrà cominciare a declinare. L’estrapolazione avrà comunque bisogno
di una certa base di dati per dare dei risultati affidabili. In principio, potrebbero bastare solo dei dati relativi alla produzione
passata per estrapolare tutta la curva. Nella pratica, di solito si
cercano dei dati il piú completi possibile e si ritiene che il miglior modo di estrapolare (forse l’unico possibile) sia di tener
conto anche del totale delle risorse che si stanno estraendo, ovvero della somma di quelle già estratte e di quelle estraibili.
Questa somma determina l’area sotto la curva a campana. Ovviamente esistono delle incertezze sul valore esatto di questa
100
somma, in particolare a proposito delle risorse ancora da estrarre che sono, ovviamente, poco note. Questa è in effetti una delle difficoltà principali di questo tipo di analisi, come vedremo
in dettaglio piú avanti.
Il primo che usò curve a campana per prevedere l’andamento della produzione petrolifera fu il geologo americano M. King
Hubbert a partire dagli anni sessanta. Non si sa se nell’elaborazione del suo modello abbia ragionato in termini di dinamica
dei sistemi oppure abbia semplicemente adottato un approccio
empirico. Fatto sta che negli anni sessanta fece la sua, oggi famosa, predizione secondo cui la produzione di petrolio negli
Stati Uniti sarebbe passata per un massimo nel 1970 per poi cominciare un declino irreversibile. A quei tempi tutti gli dettero
del pazzo, salvo poi ricredersi quando, in effetti, si vide che la
produzione di petrolio in America aveva raggiunto il massimo
nel 1970. Sulla base dei dati che aveva, negli anni ottanta Hubbert fece anche una predizione dell’andamento globale della
produzione petrolifera. Il risultato fu che la produzione doveva
passare per un massimo verso il 2000. In questo caso la predizione di Hubbert si è rivelata inesatta. Il 2000 è passato e la produzione di petrolio continua ad aumentare, sia pure in modo
debole e incerto. Ci sono diversi fattori all’origine di questo errore, il principale dei quali è che le predizioni a lungo termine
sono sempre piú incerte di quelle a breve termine. In secondo
luogo, Hubbert non aveva previsto, e non poteva prevedere, la
guerra del Kippur o la guerra Iraq-Iran che hanno causato discontinuità e una momentanea riduzione nella produzione del
petrolio. Guerre e crisi geopolitiche sono, come abbiamo detto,
fenomeni caotici o auto-organizzati che sono imprevedibili per
definizione. Del resto, tutte queste previsioni sono, come sempre, approssimate. Tuttavia, Hubbert non era molto lontano dal
vero. Mentre a un certo punto, negli anni novanta, era sembrato che la previsione globale di Hubbert fosse stata totalmente
sbagliata, ovvero che il picco sarebbe arrivato solo fra qualche
secolo, le ultime previsioni lo danno entro il primo decennio
del presente secolo, come vedremo poi piú in dettaglio. Se Hubbert si era sbagliato, sembra che si sia sbagliato solo di poco.
101
Quasi tutte le predizioni attuali sull’andamento della produzione petrolifera globale sono basate sul modello di Hubbert o su modelli simili. C’è chi non si fida, tuttavia, e preferisce limitarsi al modello «birra nel frigo», o rapporto risorse/produzione, anche se è ovvio che è un modello troppo limitato per ottenere delle predizioni utili. C’è gente, sembra, che
è visceralmente contraria a modelli che implicano un arresto e
un’inversione nella crescita e nello sviluppo economico umano. I motivi sembrano essere principalmente emotivi, e tuttavia sembra che ci siano anche dei buoni argomenti per dubitare del valore dell’approccio «curva a campana» secondo Hubbert. Uno di questi è che secondo alcuni tentare di prevedere
il futuro sia sostanzialmente un’impresa impossibile, quasi sacrilega. Il futuro, ci dicono, è oscuro per definizione. Tante
predizioni si sono rivelate sbagliate in passato per cui nessuna
previsione può essere attendibile. Ma se è vero che ci sono stati errori di valutazione nel passato è anche vero che ci sono state anche ottime predizioni per cui negare a priori la possibilità
di elaborarle significa tagliarsi da sé con le forbici certe parti
del corpo dei maschi dei mammiferi che non nomineremo esplicitamente.
Un’altra argomentazione, questa piú fondata, che si potrebbe muovere contro il modello di Hubbert è che, sí, è vero che
«curve a campana» tipo Hubbert sono state osservate nel passato per certi casi a livello locale di estrazione di minerali, ma
questo non vuol dire che lo stesso tipo di curva sarà osservato
nel caso dell’estrazione di una risorsa a livello globale. In particolare, viene detto, la concentrazione di miglioramenti tecnologici nella ricerca e nell’estrazione del petrolio rende il modello di Hubbert inadatto a descrivere il caso globale.
Consideriamo la produzione di petrolio negli Stati Uniti,
un esempio di produzione locale. La produzione segue una
curva a campana, ma questo è dovuto a un effetto che non si
verificherebbe a livello globale. Quello che è successo negli
Usa è che il progressivo esaurimento dei pozzi ha causato un
aumento dei costi di estrazione. A quel punto è risultato piú
conveniente importare petrolio dai pozzi medio-orientali, piú
102
abbondante e perciò meno costoso. L’andamento che osserviamo, dunque, non è semplicemente dovuto all’esaurimento delle risorse ma è piuttosto l’effetto di uno spostamento della produzione da un posto all’altro. Che cosa sarebbe successo se i
pozzi medio-orientali non fossero esistiti e gli americani avessero dovuto concentrare tutte le loro risorse sull’estrazione del
petrolio locale?
La domanda è legittima, la risposta difficile come in tutti i
casi in cui ci si chiede «cosa sarebbe successo se...?». Nella pratica, il mercato del petrolio, come dell’energia in generale, è un
mercato globale e per ora non si è mai verificato il caso in cui
una particolare regione si sia trovata a dipendere esclusivamente da risorse locali in via di esaurimento. Viceversa, questo è il
caso, evidentemente, della «regione mondo», ovvero il caso
che ci interessa. Sembrerebbe, in effetti, che il modello di Hubbert, che prevede una curva a campana simmetrica per la produzione di petrolio, potrebbe dover essere modificato per il
caso planetario.
Come è ovvio, non possiamo avere dati sperimentali per il
caso dell’esaurimento del petrolio a livello planetario. Possiamo però raffinare i nostri modelli e cercare di adattarli al caso
specifico. Come abbiamo detto, il modello di Hubbert era un
modello puramente empirico. Quello di Lotka-Volterra ha delle basi teoriche, ma è molto semplificato. Dobbiamo dunque
aumentare il dettaglio della simulazione per tener conto, per
esempio, di fattori quali i miglioramenti tecnologici nella ricerca come pure delle differenti strategie di ricerca.
Il modello che sarà descritto di seguito5 è stato sviluppato
dall’autore del presente libro ispirandosi a un lavoro dell’economista Reynolds pubblicato nel 1999 (D.B. Reynolds, Ecological Economics, 31, 1999, p. 155). Il modello di Reynolds era
molto semplice ed era una semplice versione di quello che abbiamo chiamato «coniglio pasquale» con alcune modifiche per
tener conto dei miglioramenti tecnologici nella ricerca delle risorse. Possiamo comunque mantenere alcune delle assunzioni
fondamentali. Reynolds immagina per il suo modello che il naufrago Robinson Crusoe sopravviva sulla sua isola deserta nu103
trendosi di gallette trovate tra i resti di naufragi precedenti.
Ogni giorno Crusoe esplora un pezzetto di isola cercando relitti di naufragi. A seconda del numero dei relitti sull’isola e
della sua abilità nel trovarli, può vivere fino a tarda età nell’abbondanza, oppure morire di fame dopo breve tempo.
La simulazione di Reynolds può essere migliorata e generalizzata assumendo che non ci sia solo Robinson Crusoe sull’isola, ma che esista un’intera popolazione di isolani che si riproducono in relazione alla disponibilità di gallette (assumiamo che il compagno di Robinson, Venerdí, fosse una bella ragazza). In questo caso abbiamo di nuovo il modello di LotkaVolterra con un solo ciclo di crescita degli isolani (assumiamo
che il numero di relitti presenti sia fisso e che non aumenti per
nuovi naufragi). A questo punto possiamo mettere insieme un
modello stocastico dove il computer tiene conto di un certo
numero iniziale di risorse, per esempio 30.000 scatole di gallette, e di un numero iniziale, diciamo, di 10 isolani. Con il procedere della simulazione, gli isolani si riproducono e aumentano di numero mentre le gallette diminuiscono. Arriva un punto in cui gli isolani si trovano a non avere abbastanza cibo e
cominciano a morire di fame. Alla fine della simulazione, gli
isolani devono per forza morire tutti, ma quello che ci interessa è l’andamento della «produzione» di gallette.
Il modello stocastico ci permette di definire certi dettagli
che altri metodi continui non permetterebbero di gestire. Per
esempio, possiamo andare a definire in un certo dettaglio quale è la strategia di ricerca degli isolani. In un primo modello, il
piú semplice, possiamo assumere che gli isolani non cambiano
mai la loro strategia, sia che trovino le gallette sia che non le
trovino. Girano a caso per l’isola raccogliendo quello che trovano e dopo un certo tempo se ne tornano a casa, oppure vanno a pescare per vedere se hanno miglior fortuna. Un modello
un po’ piú sofisticato implica degli isolani piú dipendenti dai
relitti, diciamo che non sanno pescare per cui devono sforzarsi
in tutti i modi di trovare almeno qualche scatola di gallette ogni
giorno. Qui possiamo assumere che il loro obbiettivo sia di raccogliere, diciamo, quattro scatole al giorno. Se le hanno trova104
te, interrompono la ricerca e tornano a casa, altrimenti continuano a cercare, ovviamente a un certo punto devono smettere: la simulazione è divisa in cicli e ogni ciclo ha una durata limitata. Quindi può darsi che anche cercando tutto il giorno gli
isolani non riescano a trovare abbastanza gallette, una cosa che
si verifica necessariamente negli ultimi stadi della simulazione
quando rimangono pochi relitti inesplorati sull’isola.
Un altro parametro importante che può essere variato nel
modello dell’«isola delle gallette» è il miglioramento tecnologico delle capacità di ricerca degli isolani. In altre parole, possiamo assumere che gli isolani imparino dall’esperienza come trovare i relitti e le scatole delle gallette. Si possono fare diverse
ipotesi e diverse assunzioni in questo caso, ma una delle piú
semplici è assumere che la probabilità di ciascun isolano di trovare una scatola di gallette è proporzionale al numero di scatole che ha trovato nel passato.
Possiamo divertirci a far girare la simulazione quante volte
vogliamo. È un piacere un po’ perverso pensare che ogni simulazione descrive il dramma di un’intera popolazione che
muore di fame. Dal punto di vista del programmatore, verrebbe quasi voglia di dirgli: «Lasciate perdere le gallette e imparate a pescare, imbecilli!», ma questa ovviamente sarebbe una simulazione diversa. Il destino degli isolani virtuali generati dal
computer, purtroppo per loro, è segnato. Ma per fortuna sono
solo creature virtuali. Quello che a noi interessa sono creature
reali, gli abitanti di questo pianeta, ovvero noi. Speriamo di
non fare la fine degli isolani, ma ricordiamo che la produzione
alimentare planetaria dipende dai fertilizzanti, e questi a loro
volta dipendono dal petrolio... ma lasciamo perdere.
Allora cosa possiamo imparare da queste simulazioni? Per
prima cosa che il modello di curva a campana (quello di Hubbert) rimane sempre sostanzialmente valido qualunque siano
le assunzioni. Osserviamo sempre un aumento rapido sia della
popolazione che della produzione. A un certo punto la produzione raggiunge un massimo e comincia a declinare, seguita a
ruota dalla popolazione che segue la stessa tendenza. Quello
che cambia con le differenti strategie e il progresso tecnologi105
co è la simmetria della curva. Mentre per il modello piú semplice (tempo di ricerca costante) la curva a campana è quasi
perfettamente simmetrica, le cose cambiano se ammettiamo
che gli isolani intensifichino progressivamente i loro sforzi di
ricerca con il declinare delle risorse. Cercando per piú tempo,
o migliorando la capacità di trovare relitti, gli isolani riescono
a trovarne di piú, l’area sotto la curva aumenta e cosí la popolazione. Il picco comunque prima o poi arriva lo stesso e l’aumento si paga con una caduta piú rapida dopo. In altre parole,
la curva diventa asimmetrica, sbilanciata in avanti. Provando
vari valori per i parametri, se i fattori tecnologici della ricerca
Figura 8 - Andamento di produzione, popolazione e costi di estrazione per
il modello «isola delle gallette» sviluppato dall’autore.
106
diventano molto importanti si può arrivare a delle curve che
ricordano la forma dei «denti di sega», dove la caduta dopo il
massimo è quasi verticale.
Il modello stocastico non può prevedere quantitativamente
l’andamento della produzione di petrolio mondiale. Ci dice
però una cosa di importanza fondamentale a proposito di quello che succederebbe se trascurassimo lo sviluppo di energie alternative concentrando tutti i nostri sforzi nella ricerca e nello
sfruttamento dei combustibili fossili. In questo caso potremmo
allontanare il picco di produzione, ma la caduta sarebbe poi
tremendamente brusca, forse irreversibile per la nostra intera
civiltà che rischierebbe di rimanere a secco senza le risorse necessarie, costrette a cercare soluzioni alternative al petrolio.
Un ulteriore insegnamento che ci viene da questi modelli è
la possibilità di calcolare i costi della produzione, definiti qui
come il tempo medio necessario agli isolani. Emerge un dato
piuttosto interessante, ovvero che i costi rimangono bassi e
possono diminuire fino a che non si arriva al picco. Dopo, aumentano rapidamente. In altre parole, finché non arriviamo al
picco i costi non ci dicono niente di quante riserve rimangono.
In effetti, il costo del petrolio è rimasto sostanzialmente costante intorno ai 15-16 dollari al barile dai primi anni ottanta
fino a circa il 2000, dandoci quell’illusione di «abbondanza»
nella quale ci siamo cullati per tutto quel tempo. Dal 2000 in
poi i prezzi hanno cominciato ad aumentare, sia pure con grandi oscillazioni. Vuol dire che siamo vicini, o che siamo arrivati,
al temuto «picco»? Non si può dire ancora, ma è un’ipotesi da
considerare.
107
Risorse petrolifere: quanto dureranno?
Nella sezione precedente abbiamo descritto diversi modelli
che descrivevano qualitativamente l’andamento della produzione di una risorsa mineraria, ovvero di una risorsa non rinnovabile. Abbiamo visto come il modello piú semplice rimane
quello della «curva a campana», reso incerto da alcuni fattori,
per esempio la possibilità di una certa asimmetria della curva,
ma che nel complesso rimane sempre il piú attendibile. Si tratta ora di vedere come applicarlo al caso reale basandosi su dati reali per ottenere una predizione quantitativa di come si svilupperà la produzione di petrolio mondiale nel futuro.
La curva delle scoperte
Attualmente stiamo assistendo a un netto calo nelle scoperte petrolifere. Diversi autori hanno pubblicato curve circa l’andamento delle quantità di petrolio scoperto negli ultimi 100
anni circa. Quella che mostriamo qui è dell’associazione ASPO
(Associazione per lo studio del picco del petrolio).
Dati molto simili sono stati pubblicati di recente da
Longwell, dirigente della Exxon-Mobil6, come riportato nella
newsletter ASPO (gennaio 2003, n. 25). Come si vede, ci sono
state notevoli oscillazioni nell’ammontare di petrolio trovato,
in corrispondenza di diversi «cicli» economici di investimento
109
Figura 9 - Andamento delle scoperte e della produzione di petrolio negli ultimi anni con estrapolazione per il futuro (fonte: ASPO; www.asponews.org).
e probabilmente altri fattori caotici (guerre e simili) che abbiamo detto sono imprevedibili. Vediamo tuttavia che, comunque, la tendenza generale delle scoperte è chiara e che la curva
in media segue approssimativamente una «curva a campana»
di tipo Hubbert, esattamente come ci aspetteremmo dai nostri
modelli teorici.
Nella curva delle scoperte, siamo passati da un massimo nei
primi anni sessanta, dopo di che è iniziato il declino. Verso il
1980 siamo passati da quel preoccupante «punto di incrocio»
in cui la quantità di petrolio scoperto in un anno è scesa per la
prima volta sotto la quantità di petrolio consumato. Da quel
punto in poi è iniziato quel «deficit di scoperta» che ci potrebbe portare a una situazione di penuria in tempi relativamente
brevi. La conclusione che è stata derivata da queste curve da
molti esperti del settore è che, essenzialmente, la maggior parte del petrolio che poteva essere trovato è stato trovato. Questa affermazione è, come è ovvio, controversa, ma i dati sono
davanti a tutti ed è difficile negare la validità di principio di
questa affermazione.
110
Prima di poterlo produrre, è ovvio che il petrolio deve essere scoperto e si è visto in molti casi particolari di singoli paesi
come la curva di produzione rispecchi fedelmente la curva delle scoperte, solo spostata in avanti di un certo numero di anni.
La figura ci illustra anche un altro punto interessante: quello
di come i bassi prezzi non siano assolutamente un’indicazione
dell’abbondanza delle riserve. Questo aspetto è già emerso a
proposito del modello dell’isola delle gallette. Confrontiamo la
figura che mostra la curva delle scoperte con l’andamento dei
prezzi del petrolio (Figura 10).
In questo caso possiamo avere una verifica sperimentale dato che abbiamo di fronte dati reali per un’«isola planetaria»
reale. Notiamo come le grandi «crisi petrolifere», indicate da
forti aumenti di prezzo, siano avvenute proprio in corrispondenza di uno dei momenti di maggiori scoperte di nuovi pozzi.
L’aumento dei costi ci aveva dato l’impressione di essere di
fronte a una penuria di petrolio proprio quando, invece, eravamo in uno dei momenti di maggiore abbondanza. Viceversa,
il periodo di prezzi bassi e stabili è iniziato proprio quando le
scoperte hanno cominciato a declinare sotto il livello di consumo. È curioso come molta gente abbia associato la fine delle
Figura 10. Costi del petrolio greggio dal 1970 a oggi (fonte: Green Paper on
Energy Security, European Commission, 2001)
111
crisi petrolifere con il fatto che «abbiamo scoperto nuovi pozzi». Vediamo chiaramente che non è cosí, un altro dei tanti casi in cui un’osservazione superficiale può portare a considerazioni completamente sbagliate. La curva delle scoperte è, in effetti, uno degli indicatori piú ovvi e piú preoccupanti del fatto
che la produzione sta raggiungendo il suo limite massimo.
C’è chi ha criticato questo approccio osservando che il fatto che la curva delle scoperte abbia avuto un declino dopo il
massimo verso il 1960 non vuol dire che il declino non possa
essere invertito. Detto in un altro modo, il fatto che osserviamo un declino nella quantità di petrolio scoperto ogni anno
non vuol dire, di per sé, che ci sia meno petrolio da scoprire.
Potrebbe semplicemente voler dire che le compagnie petrolifere non cercano il petrolio con la stessa intensità di prima o che,
magari, la situazione geopolitica, instabile com’è, non permette di esplorare e trivellare con la stessa facilità di prima. Questo ragionamento è poco consistente se riferito ad altre osservazioni e dati di fatto. Per esempio è ben noto che con gli alti
prezzi attuali del petrolio trovare un nuovo pozzo è diventato
un affare ancora migliore di quanto non lo sia mai stato prima.
Per questa ragione le industrie petrolifere stanno tutt’ora facendo il massimo sforzo possibile per trovare petrolio. Tuttavia, non è neanche un ragionamento che possiamo negare «a
priori». Per questa ragione, l’esame della curva delle scoperte
non è sufficiente, da sola, per modellizzare il futuro dell’estrazione del petrolio.
La stima delle riserve
L’analisi della curva delle scoperte ci ha già dato indicazioni
molto interessanti su quello che potrebbe essere l’andamento
della produzione nei prossimi anni. Tuttavia c’è un approccio
piú diretto per esaminare la questione, ovvero partire da una
stima delle riserve esistenti. Se possiamo stimare a quanto ammontano le riserve di petrolio, ovvero la somma di quello già
estratto e di quello da estrarre, possiamo stimare l’andamento
112
della futura produzione utilizzando l’approccio di Hubbert
che aveva funzionato cosí bene nel caso del petrolio degli Stati
Uniti.
La stima delle risorse di petrolio esistenti è, dunque, il punto fondamentale. Quanto petrolio rimane nelle viscere del pianeta? Si dice a volte «domanda da un milione di dollari» per
una domanda che coglie qualche aspetto importante di un problema. Questa domanda, «quanto petrolio ci resta», vale ben
piú di un milione di dollari, ben piú anche di un miliardo. Il
«giro d’affari» mondiale di petrolio vale circa 700-800 miliardi
di dollari all’anno ai prezzi del 2003 (circa 30 dollari al barile).
La domanda che ci stiamo facendo vale quella cifra moltiplicata per il numero di anni per i quali potremo ancora bruciare
petrolio. Settantamila miliardi di dollari se potremo continuare
per un secolo. Settemila miliardi se possiamo ancora durare
dieci anni. Ma abbiamo ancora petrolio per un secolo? Ne abbiamo ancora per dieci anni? La risposta è che nessuno lo sa
esattamente. Ci può stupire questa incertezza su un punto cosí
fondamentale, ma i problemi connessi alla valutazione delle riserve petrolifere sono enormi, e non sono solo di tipo tecnico.
Possiamo comunque provare a elencare i termini del problema.
In primo luogo siamo di fronte a un problema tecnico. Ancor oggi, trovare il petrolio è un’impresa complessa e costosa.
I geologi hanno a disposizione dei modelli abbastanza buoni
che permettono, se non altro, di escludere certe zone. Sappiamo che il petrolio ha avuto origine in certe ere geologiche e
questo vuol dire, fra le altre cose, che certe aree sono troppo
giovani geologicamente per avere petrolio. Sappiamo anche
che sono necessarie particolari condizioni perché il petrolio si
accumuli in punti particolari della crosta terrestre, e vi si accumuli in quantità tali da rendere conveniente estrarlo. Tutto questo permette di individuare particolari zone dove si sa che ci
potrebbe essere il petrolio.
Ci potrebbe essere, non è detto che ci sia. Pur con tutti i
sofisticati metodi di analisi a disposizione, l’unico modo sicuro
per vedere se il petrolio c’è veramente è fare un buco, e un bu113
co ben profondo. Questo costa caro, e molte volte dal buco
non viene fuori niente. L’esplorazione continua ancora oggi e
si continua a trovare petrolio. Tuttavia, nei cento anni circa in
cui si è cercato petrolio, tutte le zone promettenti del pianeta
sono state esplorate. A questo punto, stime abbastanza attendibili sono possibili, anche se molto difficili e soggette a grandi
incertezze dovute alla natura stessa delle riserve petrolifere,
che sono disperse sottoterra, sotto il mare e in zone spesso remote e inaccessibili. Ma l’esplorazione sistematica del pianeta
e l’aumento delle conoscenze in geologia aveva permesso di arrivare a delle stime globali già fin dagli anni settanta.
Nel suo rapporto del 2001, la USGS (United States Geological Survey) riporta una completa discussione delle stime dell’abbondanza del petrolio dal 1950 a oggi, riassunta nella figura che segue.
La figura ci mostra chiaramente due cose. La prima è l’ovvia incertezza di queste stime che variano anche di alcune centinaia di gigabarili: non sono quantità trascurabili! La seconda
è la generale consistenza di queste stime che a partire dal 1960
circa si attestano tutte intorno a una media di circa duemila gigabarili. Potrebbero essere di piú o di meno, ma non enorme-
Figura 11 - Stime storiche delle risorse petrolifere globali dal 1942 a oggi
(fonte: dati United States Geological Survey, USGS).
114
mente di piú e neanche enormemente di meno. Fa eccezione
l’ultimo dato, quello della USGS, che è nettamente piú ottimista, ma vedremo poi come questa stima potrebbe essere influenzata da considerazioni politiche.
La figura fa anche giustizia di alcune convinzioni radicate ma
infondate: si dice spesso che la «fine del petrolio» era stata data
per imminente al tempo delle grandi crisi petrolifera degli anni
settanta. Se gli scienziati si erano sbagliati cosí di grosso allora,
si dice, è probabile (e sperabile) che si sbaglino anche adesso a
prevedere difficoltà imminenti. Niente di tutto questo. La figura ci mostra chiaramente che al tempo delle crisi petrolifere si
sapeva benissimo che le riserve erano ancora abbondanti. Nessuno scienziato aveva previsto a quel tempo, e neppure avrebbe
potuto prevedere, una imminente «fine del petrolio». Che questo sia accaduto era solo una percezione del pubblico basata sull’improvvisa impennata dei prezzi di quel tempo. Un’ulteriore
prova di come i prezzi non siano un’indicazione della consistenza delle riserve, o perlomeno che non lo sono stati finora.
Possiamo partire da questa figura anche per fare giustizia di
un ultimo pervicace mito: quello che le «riserve» di petrolio
siano in continuo aumento. Un errore in cui sono caduti anche
alcuni esperti che si sono fatti ingannare dalla terminologia in
uso. Le compagnie petrolifere distinguono fra «riserve» e «risorse», queste ultime sono ulteriormente divise in «accertate»
e «stimate». Le prime (riserve) sono la somma di tutto il petrolio estraibile dai pozzi in esercizio. Le seconde (risorse) sono
formate dal petrolio estraibile da pozzi non ancora sfruttati,
ovvero da pozzi che si sa che esistono (accertate) o che si presume esistano (stimate). Via via che i vecchi pozzi si esauriscono se ne mettono in esercizio di nuovi. Questo vuol dire che
pozzi prima classificati fra le «risorse» vengono passati a contare come «riserve». Questo può dare l’impressione che le riserve non diminuiscono, anzi che aumentano, un ovvio effetto
del progressivo aumento della produzione cosí come è stato
negli ultimi decenni.
Ma questo aumento delle riserve col tempo è un puro effetto contabile: non significa affatto che siano stati scoperti dei
115
nuovi pozzi di petrolio. Somiglia, per fare un esempio, ai diecimila soldati «immortali» di Serse il re di Persia. In battaglia, via
via che gli immortali cadevano, venivano sostituiti da nuovi soldati per cui rimanevano sempre in diecimila. Questo non vuol
dire, ovviamente, che fossero veramente immortali e quelli di
loro che avessero ritenuto di essere immuni dagli effetti di un
colpo di spada nella pancia avrebbero fatto un grave errore.
La figura 11, è tratta da un lavoro dell’USGS (United States
Geological Survey)7, un’agenzia molto seria che ha raccolto i
dati forniti da persone serie, ovvero da ricercatori indipendenti non legati strettamente né a particolari stati né a specifiche
compagnie petrolifere. Anche cosí è probabile che la politica
abbia una certa influenza sui dati: nessuno è perfetto. Come
abbiamo detto, il dato piú recente della tabella è molto piú alto degli altri e sembra probabile che sia influenzato da considerazioni politiche. Questo ragionamento porta a domandarsi,
in termini generali, come si fanno esattamente queste stime. E
quali errori possono essere fatti, involontari o voluti per ragioni di propaganda.
Stimare le riserve (o risorse) petrolifere globali è in effetti
un lavoro complesso. Non esistono metodi di «survey» via aerea o via satellite che permettano di elaborare le stime con la
stessa precisione che è possibile, per esempio, quando si stima
l’estensione delle foreste o quella dei deserti. In fin dei conti,
la presenza di petrolio sottoterra può essere verificata soltanto
mediante trivellazioni locali. Questo vuol dire che una stima
globale può essere fatta soltanto sommando laboriosamente i
dati disponibili per tutte le trivellazioni che hanno avuto successo, tenendo conto dei dati relativi ai pozzi operativi, al petrolio già estratto, eccetera. Un lavoro indubbiamente molto
lungo ma non impossibile, che in effetti è stato fatto molte volte. Il problema non è tanto la fatica di sommare migliaia e migliaia di dati, il problema è l’affidabilità dei dati.
Normalmente, i dati relativi alle trivellazioni sono di proprietà
delle compagnie petrolifere oppure degli stati che hanno sovranità nella zona. Né gli uni né gli altri hanno di solito interesse a
divulgarli, anche se quasi sempre sia stati che compagnie pub116
blicano dati globali sulla loro attività, dati che includono una stima sia delle riserve sia delle risorse. Sono i cosiddetti «dati pubblici» notoriamente inaffidabili e fortemente influenzati da fattori politici. I produttori, stati o ditte che siano, hanno tutto l’interesse a sovrastimare le loro riserve. Ci sono varie ragioni che
spingono in questa direzione ma principalmente è una questione
di immagine internazionale: gli investitori abbandonerebbero in
massa il mercato azionario di un paese di cui si sa che le riserve
petrolifere sono in via di esaurimento.
Questi fattori avevano causato negli anni novanta un’improvvisa impennata delle stime delle risorse pubblicate. Un’impennata che aveva portato alcuni esperti (per esempio Rogner8) ad
arrivare alle famose stime di «secoli di abbondanza» di petrolio.
In molti casi non siamo di fronte a veri e propri imbrogli, soltanto a delle variazioni contabili che, guarda caso, hanno l’effetto di dare l’impressione che le risorse aumentino invece di diminuire. Per esempio, tutti gli anni la rivista Oil & Gas Journal
pubblica una stima aggiornata delle risorse petrolifere globali.
Fa notare Colin Campbell (ASPO newsletter) come l’ultima stima
dell’Oil & Gas Journal del 2002 mostri un incremento di quasi
200 gigabarili rispetto a quella dell’anno prima, incremento che
però non è dovuto a nuove scoperte ma, ancora, a un puro fattore contabile. Dal 2002, infatti, l’Oil & Gas Journal ha stabilito
di contare come «petrolio» le quantità estraibili dalle «sabbie
bituminose» (tar sands) che prima non erano considerate come
tali. Non che le sabbie bituminose non esistano ma, come abbiamo detto in un capitolo precedente, estrarne petrolio è difficile e costoso. Anche questa decisione puzza un po’ di «politica», ovvero della volontà di non allarmare la gente.
Ognuno in questi casi è libero di giudicare come crede e
magari di fidarsi dei dati forniti dai vari governi medio-orientali o dell’Asia meridionale. Tuttavia molti esperti tendono oggi a fare una robusta «tara» ai dati pubblici. Sembra chiaro che
le stime degli anni settanta erano approssimativamente corrette e che l’impennata apparente delle riserve degli anni novanta
nei dati «pubblici» era in gran parte un’illusione dovuta a dati
spuri e a correzioni fatte per ragioni politiche. Nessuno oggi si
117
fida molto dei dati pubblici. Esistono invece dei dati «privati»,
compilati da esperti mediante studi che cercano di eliminare i
dati spuri e di stimare correttamente tutto il possibile. Ovviamente, il lavoro di questi esperti deve essere pagato, per questo la consultazione di questi database è costosa e riservata agli
specialisti. Le stime dedotte dai database, però, sono pubbliche e può darsi che siano molto piú affidabili. Il geologo irlandese C. Campbell tiene aggiornata una stima delle risorse petrolifere mondiali basata sui dati della «petroleum consultants»,
una ditta specializzata nel raccogliere questi dati. La sua stima
è di circa 1.900 gigabarili per il totale del petrolio greggio «convenzionale» e di un totale di 2.700 gigabarili per tutti gli idrocarburi liquidi estraibili (incluso il greggio). I dati di Campbell
sono riassunti nella tabella seguente:
Produzione prevista Mb (megabarili)/giorno
2005
2010
2020
2050 Totale al 2075
Greggio
USA-48
Europa
Russia
M. Oriente
Altri
60
3.5
5.1
8.6
17
26
60
2.6
3.7
9.4
22
22
47
1.4
1.9
4.9
22
17
22
0.2
0.3
0.7
13
8
1900
195
76
200
749
680
Oli pesanti
(bitume ecc.)
Offshore profondo
Polare
Gas liquido
2.8
4
5
6
300
6.6
1.2
8.2
9
2
9
4
6
11
0
0
6
63
30
400
Totale
78
83
72
33
2700
(Notare che questa tabella non include il gas naturale e neanche, ovviamente, il carbone).
Per fissare le idee, rimaniamo sull’ipotesi che le risorse mondiali totali di petrolio greggio siano di circa 2.000 gigabarili.
Avendone consumato circa 1.000, ce ne rimane una quantità
che possiamo approssimare al numero tondo di 1.000 miliardi
118
di barili. Per visualizzare questa massa di petrolio ancora sottoterra possiamo pensare a un immenso cubo di petrolio di circa 5 km di lato. Oppure, se stesse tutto in un lago circolare
profondo cento metri avrebbe un diametro di circa 50 km. Un
altro modo di visualizzare la massa di petrolio è di considerare
che siamo sei miliardi sul pianeta e di conseguenza ognuno di
noi siede su una piramide di circa 170 barili, ovvero circa 26
mila litri di petrolio a testa. Può sembrare tanto, ma non è proprio cosí, specialmente se pensiamo che accanto a questi 170
barili pieni ci sono anche 170 barili vuoti che sono la quantità
bruciata fino ad oggi. Possiamo anche pensare che il livello del
nostro lago di petrolio di 50 km di diametro fosse profondo
200 metri all’inizio e che si sia abbassato di cento metri in un
secolo. Quanto questi 170 barili pieni a testa, o questo lago in
progressivo esaurimento ci potrebbero bastare dipende dalla
velocità alla quale lo consumiamo e vedremo in dettaglio nella
sezione che segue come nelle condizioni attuali questo petrolio
potrà bastarci, al massimo, per qualche decennio.
La durata delle riserve
Ammesso di sapere quanto petrolio ci rimane, si tratta ora
di affrontare il punto fondamentale, ovvero cercare di stimare
quanto tempo ci potrà durare prima che si esaurisca. Questo
dipende, come è ovvio, da quanto velocemente lo produciamo
e lo consumiamo, il che è a sua volta un parametro che dipende da vari fattori: prezzi, situazione politica, congiuntura economica, eccetera. Di fronte a una dinamica evidentemente complessa, è curioso notare come fino a poco tempo fa la maggior
parte degli esperti abbia utilizzato modelli chiaramente inadatti. In pratica, in quasi tutti gli articoli degli specialisti la durata
futura delle risorse petrolifere è stata stimata mediante il «rapporto riserve/produzione». Questo rapporto ci dà il numero di
anni di produzione fino all’esaurimento posto che la produzione rimanga costante nel tempo. Va da sé che la produzione di
petrolio è tutto fuorché costante nel tempo. La produzione
119
mondiale di petrolio continua ad aumentare da che il petrolio
è diventato di uso comune, con la sola eccezione di una caduta
temporanea che si è verificata al tempo delle crisi petrolifere,
nella decade del 1970. In questo caso, ovviamente, il rapporto
R/P è del tutto inadeguato e può servire al massimo come indicazione di massima sulla relativa abbondanza di risorse diverse.
Per avere stime piú realistiche si tratta di vedere che cosa
possiamo prevedere usando metodi piú evoluti per modellizzare il consumo del petrolio. Abbiamo già detto come modelli di
questo genere siano basati sul concetto di «curva a campana»,
utilizzati per la prima volta negli anni cinquanta-sessanta dal
geologo americano M. King Hubbert. Già negli anni ottanta
Hubbert aveva eseguito dei calcoli approssimati per la produzione mondiale ottenendo che il picco di produzione doveva
verificarsi verso la fine del ventesimo secolo.
Un gran numero di analisi di questo tipo sono state riportate
nella letteratura. Nella tavola seguente riportiamo un sommario
dei risultati principali, ovvero la data prevista per il «picco» per
gli idrocarburi liquidi (greggio) escludendo la frazione gassosa e
gli idrocarburi cosiddetti «non convenzionali». La tabella tiene
conto soltanto di proiezioni recenti (a parte quella di Hubbert
che ha valore storico) che usano metodi evoluti di analisi.
Questo set di dati non ha la pretesa di essere completo e il
lettore è invitato a tener presente che nessun autore riporta
una sola data ma un intervallo di date entro le quali ritiene il
picco probabile. Per semplificare, l’autore ha qui scelto il valore «piú probabile» o medio negli studi citati. La tabella ha lo
scopo di illustrare sia il grado di incertezza in questi studi, sia
il generale accordo degli autori, con solo qualche eccezione,
nel prevedere il «picco» approssimativamente entro il primo
decennio del XXI secolo. Il dato «fuori dal coro» di Wood e
Long (picco nel 2037) è il risultato di un’analisi che potrebbe
essere il frutto di un certo ottimismo a priori sulla possibilità
di nuove scoperte, forse eccessivo.
Notiamo anche alcuni ulteriori punti a questo proposito: il
primo è che gli autori selezionati per questa tabella sono tutti
120
Data prevista per il «picco» di produzione
Autore – M.K. Hubbert
Data piú probabile per il “picco” – 2000
Metodo usato – Hubbert
Riferimento e anno – www.hubbertpeak.com (1982)
Autore – A.A. Bartlett
Data piú probabile per il “picco” – 2004
Metodo usato – Hubbert
Riferimento e anno – www.hubbertpeak.com (1994)
Autore – L.F. Ivanhoe
Data piú probabile per il “picco” – 2010
Metodo usato – Hubbert
Riferimento e anno – www.hubbert.com (1997)
Autore – W. Youngquist
Data piú probabile per il “picco” – 2010
Metodo usato – Euristico/Hubbert
Riferimento e anno – www.hubbertpeak.com (1998)
Autore – C. Wood e J. Long
Data piú probabile per il “picco” – 2037
Metodo usato – Fitting di esponenziali
Riferimento e anno – www.eia.doe.gov/pub/oil_gas/petroleum/presentations/2000/long_term_supply (2000)
Autore – R. Deffeys
Data piú probabile per il “picco” – 2003
Metodo usato – Hubbert
Riferimento e anno – «Hubbert’s peak», Princeton Univ. Press, 2001
Autore – R.C. Duncan
Data piú probabile per il “picco” – 2006
Metodo usato – Euristico
Riferimento e anno – www.hubbertpeak.com (2001)
Autore – C.J. Campbell
Data piú probabile per il “picco” – 2003
Metodo usato – Hubbert
Riferimento e anno – www.hubbertpeak.com (2001)
Autore – J. Laherrere
Data piú probabile per il “picco” – 2005
Metodo usato – Comparazione scoperte/produzione
Riferimento e anno – www.hubbertpeak.com (2001)
Autore – C. Bentley
Data piú probabile per il “picco” – 2005
Metodo usato – Hubbert
Riferimento e anno – R.W. Bentley, Energy Policy 30 (2002) 189 –205
121
esperti geologi o comunque tecnici con credenziali accademiche
e che i dati citati sono apparsi su riviste scientifiche internazionali di buona qualità e prestigio. Tutti questi autori si basano su
stime delle risorse petrolifere fondate su dati geologici indipendenti e non sulle dichiarazioni dei produttori (notoriamente inaffidabili). Notiamo infine che è possibile fare stime simili per
quanto riguarda le disponibilità di gas naturale e che in questo
caso essendo la disponibilità mondiale maggiore il picco corrispondente è spostato in avanti di circa una decina di anni nel
futuro. Lo stesso è possibile per il carbone, le cui disponibilità
sono ben piú abbondanti di quelle del petrolio. Una stima completa e aggiornata delle previsioni di produzione delle risorse di
combustibili fossili viene tenuta dal geologo irlandese Colin
Campbell. I suoi dati sono mostrati nella Figura 12.
La figura che vediamo è piuttosto complessa e tiene conto di
parecchi dati e dei diversi tipi di idrocarburi che vengono estratti. Ci si aspetta che il picco del petrolio «convenzionale», il petrolio greggio, potrebbe registrarsi entro i primi anni del 2000.
Il picco per tutti gli idrocarburi liquidi avverrà piú tardi, verso
il 2010. Come abbiamo detto, i vari esperti danno valori diversi
per i punti di picco, ma in sostanza dai dati disponibili vediamo
come la «transizione petrolifera» potrebbe essere imminente.
Nessuno ha voglia di rischiare una figuraccia gridando trop-
Figura 12. Andamento storico e previsto della produzione mondiale di petrolio (fonte: ASPO; www.asponews.org).)
122
po presto «al lupo!» e non bisogna, evidentemente, mettersi a
fare i profeti di sventura. Anzi, è il caso di dire con chiarezza
che arrivare al picco di produzione non significa l’esaurimento
delle riserve di combustibili. In primo luogo, abbiamo ancora
gas naturale che, sempre secondo C. Campbell non dovrebbe
raggiungere il picco fino al 2030-2040. Inoltre, al momento del
picco avremo ancora notevoli riserve di petrolio.
Bisogna però anche dire con chiarezza che arrivare al picco
vuol dire affrontare dei cambiamenti radicali di tipo economico,ovvero principalmente un aumento dei prezzi. Il picco di produzione corrisponde al punto in cui il progressivo declino delle
riserve farà sí che la domanda superi le capacità di produzione.
Dopo la transizione, gli incrementi nella domanda non potranno piú essere assorbiti da aumenti di produzione. Ci aspettiamo
di conseguenza che i costi del petrolio aumenteranno, sia per ridurre la domanda, sia per finanziare nuovi pozzi o lo sviluppo
di nuove fonti di energia. Le conseguenze che potrebbero derivare sono note dall’esperienza passata degli anni settanta e ottanta: crisi economica, disoccupazione, recessione e inflazione.
Non è possibile provare al di là di ogni dubbio che la «transizione petrolifera» si verificherà entro tempi brevi. Tuttavia è
forse il caso di ricordare che è pratica comune e raccomandata
agire e progettare tenendo conto della peggiore ipotesi possibile. Nell’oggettiva incertezza della situazione, atteggiamenti
come quello di Lynch9 che invitano sostanzialmente a non fare
niente sono fortemente criticabili, per non dire che sono da irresponsabili. Assai piú ragionevole è bilanciato è l’atteggiamento di altri, per esempio Bielecki10, che pur arrivando alla conclusione che «il lupo non è ancora sulla soglia» raccomanda
comunque di prendere precauzioni.
123
Economia e geopolitica del petrolio
In un numero di marzo del 1999, la nota rivista inglese The
Economist intitolava un suo editoriale: «Il petrolio a 5 dollari
al barile potrebbe essere dietro l’angolo». In quel periodo, in
effetti, il costo del petrolio era sceso al minimo storico di tutti i
tempi, ovvero a circa 10 dollari al barile. Pensare a ulteriori ribassi non sembrava impossibile in un momento in cui la bolla
della «new economy» e il miracolo tecnologico di Internet stavano raggiungendo il massimo della popolarità.
Esattamente un anno dopo, il prezzo del greggio era piú
che triplicato saltando a 34 dollari al barile. Da allora, con varie oscillazioni, è mantenuto fra i 25 e i 35 dollari al barile arrivando oltre i 40 nel febbraio 2003. Rispetto alla media dei prezzi nei 15 anni precedenti il prezzo del petrolio era raddoppiato. Scoppiata la bolla, perse molte delle illusioni di allora, col
giro del secolo l’economia mondiale iniziava quella discesa verso il basso che ormai dura da piú di tre anni e della quale nessuno può dire quando (e se mai) si arresterà.
L’errore dell’Economist, prestigiosa rivista che sia, ci mostra
come sia difficile dire qualcosa di sicuro su un argomento come il prezzo del petrolio che deriva da una serie di fattori di
mercato di grande complessità. Non è solo una questione economica, è una questione strategica, o «geopolitica» se vogliamo usare questo termine. Un campo difficile e pericoloso che
tuttavia non possiamo ignorare. Il petrolio ha permeato profon125
damente i meccanismi politici e economici planetari fin dal
tempo, nel ventesimo secolo, in cui ha cominciato a diventare
una componente essenziale del sistema energetico. Dopo l’invasione dell’Iraq nel 2003 dobbiamo preoccuparci di ulteriori
«guerre per il petrolio»? Probabilmente sí. Ce ne sono già state, sicuramente ce ne saranno ancora.
Economia e mercato del petrolio
L’importanza del petrolio e dei combustibili fossili nell’economia mondiale è enorme. Abbiamo già detto che circa il 90%
del totale dell’energia primaria prodotta nel mondo (con l’esclusione del legno) viene dai combustibili fossili. Il petrolio
da solo ne rappresenta il 40% e nessun altro combustibile ha
le stesse caratteristiche di versatilità e trasportabilità. Questo si
traduce in cifre da capogiro per quanto riguarda il commercio
del petrolio e degli altri combustibili fossili.
Si estraggono oggi (2003) circa 70 milioni di barili di petrolio al giorno (un barile è circa 159 litri). Questo equivale a oltre
25 miliardi di barili all’anno per un «giro» economico di qualcosa come 700-800 miliardi di dollari all’anno ai prezzi attuali
di circa 30 dollari al barile. A questo valore va aggiunto il commercio degli altri combustibili fossili, metano e carbone, per un
totale che va ben oltre i 1.000 miliardi di dollari all’anno.
Secondo i dati del World Trade Organization (WTO), nel
2000 gli scambi commerciali internazionali equivalevano a circa seimila miliardi di dollari all’anno. Dato che la maggior parte del petrolio estratto viene esportato sul mercato globale,
questo vuol dire che il solo petrolio greggio ne rappresenta oltre il 10%, nessun’altra merce da sola raggiunge quel livello.
Solo l’industria delle armi è comparabile ai combustibili fossili
come giro d’affari: si stima che oggi in tutto il pianeta si spendano piú di 900 miliardi di dollari all’anno per armamenti e
spese militari in generale.
Questi dati sono già da soli un’indicazione di quanto importanti sono i combustibili fossili nel sistema economico pla126
netario. Ma non è solo il valore assoluto degli scambi che conta. Un altro fattore sono gli enormi profitti, anche qui una caratteristica particolare del petrolio e dei combustibili fossili.
L’estrazione di un barile di petrolio dai pozzi dell’Arabia Saudita costa 1-3 dollari, lo si rivende a prezzi che attualmente
(2003) sono piú di dieci volte tanto e che potrebbero salire anche piú su (nella crisi del 1979, il petrolio si vendeva all’equivalente odierno di oltre 70 dollari al barile).
Ancora un altro fattore è la distribuzione geografica dei paesi produttori. Per ragioni che hanno a che fare con il Giurassico (non influenzabile politicamente) il petrolio si trova principalmente in certe zone del pianeta e non in altre. Per fissare le
idee, rivediamo qui la distribuzione delle risorse ancora disponibili. In questa tabella i produttori sono raggruppati tenendo
conto della loro distribuzione geografica e dell’appartenenza
all’associazione dei paesi esportatori di petrolio (OPEC).
Regione
OPEC – Medio Oriente:
Arabia Saudita, Emirati Arabi Uniti,
Iraq, Iran, Kuwait, Qatar
Russia e stati limitrofi europei
OPEC – non Medio Oriente:
Algeria, Indonesia, Libia, Nigeria,
Venezuela
OCSE (Europa, USA e Pacifico)
America Latina (eccetto il Venezuela)
Cina e Asia (eccetto l’Indonesia)
Non-OPEC Medio Oriente e Africa
Frazione disponibile al 2000 di
petrolio greggio e liquidi estraibili
(fonte: USGS Survey 2000)
53%
18%
10%
8%
5%
4%
2%
Come si vede, il Medio Oriente da solo rappresenta oltre il
50% di tutte le riserve petrolifere ancora esistenti. Inoltre, dobbiamo anche tener conto di un ulteriore vantaggio dei produttori medio-orientali. Avendo questi sfruttato meno le loro riserve nel passato esistono ancora «pozzi giganti» in esercizio
127
(per esempio Al Ghawar in Arabia Saudita) che hanno costi di
estrazione molto bassi. Il contrario vale per i pozzi non medioorientali, per esempio i pozzi del Nord America, dove l’esaurimento delle risorse «facili» ha portato oggi ad alti costi di estrazione del petrolio rimanente. Oltre il 40% del petrolio greggio
è prodotto dai paesi dell’OPEC, ovvero principalmente nel Medio Oriente, una frazione che continua ad aumentare e che si
prevede sorpasserà il 50% in pochi anni.
Come vediamo, i paesi produttori di petrolio sono in maggior parte paesi relativamente poco sviluppati che raramente
hanno la possibilità di re-investire in loco i loro guadagni. La
ricchezza che questi paesi ricavano dal petrolio potrebbe essere utilizzata per creare un’infrastruttura industriale e produttiva, ma se si parte da zero è molto difficile. Un sistema di produzione industriale richiede personale esperto e una cultura
specifica; entrambe le cose non si possono comprare. Richiedono un’infrastruttura educativa che ha bisogno di molto tempo per essere costruita. Richiedono anche un certo tipo di organizzazione politica liberale e democratica per la quale spesso
in certi paesi è mancato il tempo di costruire la cultura e l’atteggiamento. Cosí, in molti casi la pioggia di dollari che arriva
dal petrolio è stata in gran parte sperperata in lusso inutile e
spese militari. Entrambe le cose sono state a volte incoraggiate
dagli occidentali alla ricerca di facili guadagni. Può forse essere istruttivo ricordare qui come l’ultimo Scià dell’Iran abbia
sperperato somme immense in armi sofisticate per un esercito
che poi alla fine si è ribellato contro di lui. Qualcosa di comparabile è successo in Iraq, dove il governo di Saddam Hussein ha fatto anche cose buone investendo sull’educazione e
sull’industrializzazione, ma ha poi portato il paese alla rovina
lanciandosi nelle folli avventure militari della guerra contro l’Iran e dell’invasione del Kuwait.
Nella pratica, quello che succede è che le somme enormi
derivanti dai profitti delle vendite del petrolio vengono in gran
parte reinvestite nei mercati finanziari internazionali. Ovviamente gli investitori cercano i mercati che danno i maggiori
profitti e questi sono in primo luogo quelli occidentali. L’effet128
to di questo meccanismo è un eccellente affare per l’Occidente. Pensate a un negozio dove comprate della merce e dopo
qualche settimana vedete che i soldi che avete speso ritornano
in gran parte nel vostro conto in banca per iniziativa del negozio stesso. L’Arabia Saudita è un negozio dove gli occidentali
comprano petrolio e che dopo un po’ rende una buona frazione dei soldi spesi ai clienti direttamente nel loro conto in banca, un ottimo affare per chi compra! Ovviamente, questo meccanismo è invece un pessimo affare per quei paesi poveri che
non hanno petrolio. Non avendo questi paesi mercati finanziari interessanti, i soldi che hanno speso per comprare petrolio
non ritornano indietro, anzi anche quelli finiscono nelle borse
occidentali. L’effetto finale del meccanismo è che i paesi poveri pagano il petrolio a quelli ricchi.
Possiamo pensare che questi meccanismi siano un po’ perversi, e forse lo sono ma sono anche inevitabili in un’economia
di mercato. È una cosa che non ci dovrebbe stupire perché è il
meccanismo normale da quando abbiamo cominciato a usare
conchiglie e denti di pescecane per commerciare. I soldi dei
poveri, sembra, vanno a finire inesorabilmente ai ricchi. Per
esempio, il paese piú ricco del mondo, gli Stati Uniti, è cosí
ricco anche perché gli investitori si affannano a portare i loro
soldi negli Stati Uniti. Verso la fine del 2001, risultava che l’investimento estero negli Stati Uniti era di 9,2 trilioni di dollari
(novemila miliardi e 200 milioni) di dollari. A fronte di questo
flusso verso l’interno degli Usa, gli investitori americani possedevano solo 6,7 trilioni di dollari nei mercati non-americani,
per un debito netto di una cifra immensa: qualcosa come 2.300
miliardi di dollari11.
Il commercio del petrolio e dei combustibili fossili, e gli immensi profitti che ne derivano, generano una buona frazione
di quel giro economico che chiamiamo «globalizzazione». Piú
petrolio si produce, piú soldi si investono in borsa. Piú la borsa va su, piú la gente si arricchisce e di conseguenza consuma
piú petrolio. È un volano planetario che gira sempre piú veloce o, perlomeno, ha girato fino al grande «giro di boa» del 2000
quando la tendenza sembra essersi invertita. Ovviamente, per
129
poter far funzionare il meccanismo bisogna che i mercati finanziari siano liberalizzati, ossia che i capitali si possano muovere liberamente. Non solo, ma bisogna che nessun paese sia
auto-sufficiente, altrimenti potrebbe essere tentato di salvaguardare la propria economia mediante provvedimenti di protezionismo. È curioso notare come per secoli le barriere doganali, i dazi e le tasse sulle merci importate sono state la regola
ovunque, mentre la seconda metà del ventesimo secolo è riuscita in qualche modo a renderli obsoleti. Strutture economiche sovranazionali come il «Word Trade Organization» (WTO)
vegliano sul commercio mondiale con lo scopo specifico di evitare che gli stati membri proteggano le proprie strutture produttive con provvedimenti protezionistici. I governi, una volta
gelosi protettori delle industrie nazionali, si sono sottomessi alle nuove regole senza un pigolio di protesta.
Il fatto che il meccanismo della globalizzazione sia stato accettato e sia oggi cosí stabile nasce dal fatto che, in fondo, tutti ci guadagnano qualcosa (o ci guadagnavano fino al 2000).
Come si dice, «la marea che sale tira su tutte le barche». È chiaro che sono i paesi ricchi che guadagnano piú di tutti, ma anche i paesi produttori di petrolio guadagnano nel processo.
Quelli che probabilmente ci rimettono sono i paesi poveri che
non hanno petrolio, ma anche loro profittano perlomeno di
certi fattori della globalizzazione (e comunque sono anche quelli che hanno meno voce in capitolo).
Possiamo ragionare anche su come potrebbe cambiare il
mondo se nel futuro dovessimo abbandonare una risorsa concentrata in certe zone specifiche, il petrolio, e basarsi su risorse
energetiche distribuite. Questo potrebbe accadere per certe
evoluzioni tecnologiche possibili: per esempio potremmo basarci su energie rinnovabili come sole e vento. Potremmo riuscire a rendere economica l’estrazione di uranio fissionabile
per i reattori nucleari dall’acqua di mare. Lo stesso, potremmo
estrarre deuterio dall’acqua di mare come combustibile per i
reattori a fusione. Sole, vento, e acqua di mare sono ben distribuiti in tutto il mondo e non si ripeterebbe la condizione di
estrema localizzazione delle risorse energetiche che è stata pro130
babilmente il fattore principale che ha generato la globalizzazione. In questo caso, potrebbe darsi che la globalizzazione
non risulti piú necessaria e che il sistema economico planetario
ritorni alla condizione di protezionismo a blocchi che è stata
una sua caratteristica normale da quando esiste. Su questo punto, ovviamente, possiamo dire poco al momento attuale.
Il giro globale di commercio di petrolio e di combustibili
fossili garantisce, piú o meno, un po’ di energia per tutti sul
nostro pianeta. Sebbene le risorse non siano distribuite equamente, un punto è rimasto fermo negli ultimi cinquant’anni:
tutti potevano accedere al petrolio pagandolo tutti allo stesso
prezzo. Nel grande bazar mondiale che chiamiamo globalizzazione, chiunque abbia dollari in tasca può comprare petrolio o
prodotti di raffinazione del petrolio e portarseli a casa, indipendentemente dal suo credo religioso, opinione politica, o
appartenenza a questo o a quello stato. Questo è il meccanismo che alla fine dei conti porta il petrolio e il gas naturale a
casa nostra sotto forma di energia che utilizziamo.
È raro che ci preoccupiamo di sapere da dove arriva esattamente questa energia. In Europa, la benzina o il gasolio comprati alla pompa sono stati probabilmente raffinati da petrolio che è
passato dall’International Petroleum Exchange» di Londra. L’energia elettrica alla presa di corrente arriva da una centrale che
in molti casi brucia gas naturale che viene da un gasdotto che arriva dall’Algeria o dalla Russia. Lo stesso vale per il gas naturale
destinato al riscaldamento. In realtà, comunque, la provenienza
di quest’energia ci interessa poco: un kilowatt è un kilowatt, un
litro di benzina è un litro di benzina (e ci siamo accorti da tempo che le benzine sono tutte uguali anche se di marche diverse).
Quello che ci interessa sapere è quanto li paghiamo.
Al momento attuale, nel 2003, la benzina costa in Italia poco
piú di un euro al litro. I costi non sono molto differenti nel resto
d’Europa, anche se variano un po’. All’inizio del 2003 l’Italia
era al sesto posto in Europa nella graduatoria della benzina piú
cara, dopo Olanda, Regno Unito, Germania, Finlandia e Danimarca, con un differenziale di +0,074 euro rispetto al prezzo
medio dei quindici paesi europei (euro 1,019 nel febbraio 2003)
131
È tanto o è poco quello che paghiamo per la benzina? L’opinione generale sembrerebbe essere che è tanto. I lamenti per
l’«alto costo» della benzina sono maggiori quando la gente si
ricorda che la maggior parte di quello che paghiamo se ne va
in tasse. Al mercato internazionale nel 2003 il petrolio si vende
a circa 30 euro al barile. Un barile sono 159 litri, dal che si deduce che un litro di petrolio greggio costa un po’ meno di 20
centesimi. Per ricavare benzina da questo petrolio occorre un
processo di raffinazione che aggiunge circa il 10% al costo. Un
altro 10% circa è necessario per il trasporto e la distribuzione.
Tutti questi fattori fanno sí che il costo finale della benzina per
i produttori è oggi sui 25 centesimi al litro. Ne consegue che le
tasse rappresentano circa due terzi di quello che paghiamo per
la benzina alla pompa. Negli ultimi venti anni, fino al 2000 circa, il petrolio si era mantenuto su prezzi nettamente piú bassi,
intorno ai 15 euro al barile e anche meno. Anche se il petrolio
costava la metà, tuttavia la benzina alla pompa costava solo
marginalmente di meno appunto perché, come abbiamo detto,
i costi sono principalmente dovuti alle tasse.
In effetti, la benzina, e in generale i combustibili, sono fra
le merci piú tassate e piú tartassate in tutta Europa. Altri paesi
hanno la mano molto piú leggera, per esempio negli Stati Uniti le tasse sono minori (circa il 50% del costo alla pompa), ma
ci sono pur sempre. La situazione è molto diversa nei paesi
produttori di petrolio dove le tasse sono minime e a volte inesistenti. Si è sentito dire che il governo di Saddam Hussein regalava la benzina agli iracheni. Era probabilmente una delle
tante leggende urbane, ma come per tutte le leggende urbane
era basata su qualcosa di vero. Sotto il blocco economico delle
sanzioni delle Nazioni Unite gli iracheni si trovati con un eccesso di petrolio che non potevano vendere, e si sono anche
accorti che non potevano mangiarlo. Questo è, in effetti, uno
dei problemi del petrolio, anche se non il solo.
C’è chi ha detto che l’ammontare delle tasse è strettamente
correlato alla forma di governo, ossia se è democratica oppure
dittatoriale. Paesi che non hanno grandi risorse naturali, come
l’Italia e altri paesi europei, dipendono dalle tasse per far fun132
zionare il loro sistema statale. Per far pagare tasse piuttosto alte, come da noi, occorre un certo livello di consenso, per questo occorre un sistema democratico. Al contrario, i paesi produttori di petrolio hanno grandi introiti dovuti al petrolio, per
cui non hanno bisogno di far pagare tasse alla gente. Di conseguenza, si dice, non hanno neanche bisogno di un sistema democratico e questo spiegherebbe la presenza dei vari dittatori
in questi paesi e la tendenza dei loro sgherri a schiacciare i pollici (e altro) ai prigionieri politici.
Forse la relazione petrolio e democrazia non è proprio cosí
semplice, ma questa è comunque un’interpretazione ragionevole che ci dice come in ogni caso il nostro destino è di pagare
le tasse, e non solo sul petrolio, cosa che probabilmente era
ovvia fin dall’inizio. Perché comunque pagare tante tasse in
particolare sui derivati del petrolio? In parte è una questione
di tradizione, in parte ci sono anche delle ottime ragioni economiche. Queste ragioni sono sostanzialmente due: una è la
necessità di smorzare le oscillazioni dei costi dei combustibili,
l’altra quella di ridurre l’esborso di valuta pregiata all’estero.
In particolare, se ci fossero meno tasse, la benzina costerebbe molto meno di quanto costa oggi. Di conseguenza tenderemmo a sprecarla ancora di piú di quanto la sprechiamo adesso e ne importeremmo ancora di piú con danni ancora superiori alla bilancia dei pagamenti. Si potrebbe sostenere, in effetti, che le tasse sulla benzina sono troppo basse e che i governi dovrebbero aumentarle ancora fino, perlomeno, a far sparire dalle strade quei mostruosi arnesi che vanno sotto il nome
di SUV (Sport Utility Vehicles) e che sono un’evidente indicazione che il costo della benzina non è abbastanza alto da impedire a tutti di sprecarla. Difficile però pensare che un governo
che pensa alla rielezione dei propri membri in qualche anno
possa imbarcarsi in un’impresa del genere.
Ma il fatto che il prezzo della benzina sia determinato principalmente dalle tasse ci dice ancora poco sul suo costo. In effetti, le tasse che paghiamo al governo rimangono tutte nel budget dello stato e siccome lo stato è – in teoria – un’organizzazione «non profit», tutti questi soldi dovrebbero ritornarci in133
dietro in varie forme come opere pubbliche, assistenza e cosí
via. Questo vuol dire idealizzare un po’ le cose, ma anche se
vogliamo pensare che una frazione di questi soldi vada a finire
nelle tasche di politici poco onesti, tuttavia anche in questo caso possiamo pensare che comunque dovrebbero ritornare in
gran parte in circolo nel paese dove sono stati spesi.
Le tasse sulla benzina le possiamo cambiare, adattare, e a limite le potremmo anche abolire (anche se sarebbe una cosa
molto stupida). Quello che i singoli governi occidentali non
possono fare per decreto è cambiare i prezzi del petrolio sul
mercato internazionale. Sono costi veri, costi che devono essere
pagati in valuta pregiata (in dollari) e questo ha un effetto
profondo sulle economie dei paesi consumatori che tendono ad
andare in recessione quando il costo del petrolio si alza e viceversa a crescere quando si abbassa. Al tempo delle grandi crisi
petrolifere, l’aumento repentino dei costi dei combustibili fossili ci aveva regalato anni di recessione e di disoccupazione. Gli
aumenti molto piú limitati del 2000 ci hanno comunque messo
in difficoltà. Ma chi decide i prezzi del petrolio? Quali meccanismi fanno sí che aumentino o si abbassino?
In primo luogo, il fatto che il petrolio si venda a un prezzo
oppure a un altro non vuol dire che esista una relazione precisa
fra il prezzo di mercato e i costi di estrazione. Secondo i dati disponibili, il costo medio mondiale per l’estrazione di un barile
di petrolio è dell’ordine dei 7 euro. Rivendendolo a 30 euro è
chiaro che i produttori fanno un bel profitto! Si dice infatti comunemente che l’industria petrolifera è la piú redditizia al mondo (anche se c’è chi dice che è la seconda dopo l’industria militare).
Ma non è solo questo il punto. In realtà il costo di estrazione del petrolio varia parecchio a seconda di diversi fattori, uno
dei principali è il «fattore di scala», ovvero quanto piú è grande un pozzo tanto piú si possono ammortare gli investimenti
fatti per sfruttarlo e cosí il costo si abbassa. Al limite, un pozzo
può essere troppo piccolo perché valga la pena di sfruttarlo.
Viceversa, i pozzi piú lucrativi sono quelli detti «giganti». Il
pozzo piú grande esistente è quello di Al Ghawar in Arabia
134
Saudita. Si ritiene che estrarre un barile da quel pozzo non costi piú di 1-1,5 euro e lo si rivende anche quello ai soliti 30 euro (a proposito di profitti…!). Un litro di petrolio estratto dal
pozzo di Al Ghawar costa circa un centesimo di euro.
Se il mercato del petrolio fosse come altri mercati, ci potremmo aspettare che queste differenze nel costo di estrazione
si riflettessero nei prezzi. Al limite, ci potrebbe essere una «denominazione di origine controllata» anche per il petrolio, un
marchio «doc» che ci dice da dove arriva. Allora perché non
pensare a un distributore che vende «benzina Al Ghawar» che
costerebbe solo pochi centesimi al litro?
In realtà, come sappiamo, il mercato del petrolio segue linee completamente differenti. Esistono diverse «piazze» internazionali dove si compra il petrolio, che sono l’equivalente della «distribuzione all’ingrosso» di una merce qualsiasi. Quando
si parla di «prezzo del petrolio greggio» senza ulteriori informazioni, normalmente ci si riferisce a un barile di petrolio
«Brent» e venduto all’International Petroleum Exchange (IPE)
a Londra. Altri mercati importanti sono quelli di Singapore e
di New York.
Il «Brent» è il nome che si dà a una miscela di petrolio estratto nel Mare del Nord con certe specifiche caratteristiche, densità, contenuto di zolfo e altro. Il petrolio Brent è uno standard del mercato, come pure altri tipi di petrolio quali il greggio del Dubai e l’«Intermedio del Texas dell’Ovest» (WTI). Normalmente chi commercia petrolio riferisce i prezzi a questi tipi
di greggio standard, parlando di «premium» o «discount» se
la particolare varietà che sta trattando corrisponde, rispettivamente, a un greggio particolarmente buono oppure a uno di
cattiva qualità. Normalmente la qualità dipende dal tenore di
zolfo: si distingue fra petrolio «dolce» (sweet) con meno dello
0,5% di zolfo e petrolio «acido» (sour) con piú dello 0,5%.
Queste differenze di qualità sono di solito piú importanti nel
determinare i costi delle differenze fra le varie piazze dove la
concorrenza tende a livellare i prezzi: il mercato del petrolio è
un mercato mondiale dove la merce non è deperibile ed è facilmente trasportabile. Quello che determina i prezzi è, come
135
sempre, il rapporto fra domanda e offerta, un rapporto che in
questo caso è completamente globalizzato.
La legge del mercato, ovvero la libera concorrenza, agisce
spingendo i produttori ad abbassare i prezzi il piú possibile.
Per abbassare i prezzi, come si sa, la migliore strategia è aumentare i volumi per fare entrare in gioco fattori di scala che
diminuiscono i costi di produzione. Questo vale in termini generali e vale anche per il petrolio, ma in questo caso c’è un piccolo problema. Essendo la quantità totale di petrolio nei pozzi
limitata, aumentando la produzione si riducono, sí, i costi, ma
si ottiene anche di finire prima le riserve.
In principio, sembrerebbe stupido per un produttore di petrolio aumentare la produzione per abbassare i prezzi. Per fare
un esempio pensiamo a un collezionista di quadri di Picasso
(anche quella una risorsa, ovviamente, limitata). Se ragionasse
in questo modo dovrebbe cercare di aumentare la sua quota di
mercato vendendo i suoi quadri al prezzo piú basso possibile.
Non c’è bisogno di dire che i collezionisti di quadri d’autore
non si comportano cosí. Viceversa, spesso i produttori di petrolio si sono comportati come un mercante d’arte impazzito
che dà via tutto al miglior offerente, non importa a che prezzo.
Un buon esempio è quello dei pozzi del mare del Nord.
Verso la fine degli anni sessanta si cominciarono a eseguire ricerche in quella zona e verso il 1970 furono trovati ingenti giacimenti di petrolio (circa 32 gigabarili in totale secondo le stime di C. Campbell12). Lo sfruttamento intensivo cominciò nei
primi anni della decade del 1980 da parte dei paesi limitrofi:
Gran Bretagna, Norvegia e Danimarca. Dopo vent’anni e l’estrazione di circa 19 gigabarili, il massimo della produzione è
stato raggiunto nel 1999. Nel 2003 i pozzi sono ormai in un
declino irreversibile, di circa il 6% all’anno. Ci si aspetta che
la produzione sarà ridotta alla metà del presente valore per il
2010. Si suppone che alcuni dei pozzi potranno essere ancora
attivi verso il 2040, ma a quel punto la loro produzione sarà
del tutto marginale, meno di un decimo di quella attuale.
Se pensiamo alla storia della cicala e della formica, quelli
che hanno deciso lo sfruttamento rapido e intensivo dei pozzi
136
del mare del Nord si sono comportati proprio come la cicala,
ovvero non hanno minimamente pensato alla possibilità di farsi delle scorte per un possibile «inverno petrolifero» futuro.
Quale meccanismo economico o ragionamento li ha spinti a
sfruttare le loro riserve in questo modo forsennato?
Il primo che si è occupato dei meccanismi economici dell’estrazione di una risorsa non rinnovabile è stato l’economista
americano Harold Hotelling che nel 1931 pubblicò un articolo
nel Journal of Political Economy rimasto un classico. La teoria
di Hotelling è una teoria estremamente semplificata che non
deve essere presa come niente di quantitativo o di assoluto. Tuttavia contiene elementi interessanti che ci possono dare delle
risposte sulla ragione per la quale gli operatori tendono ad
estrarre il petrolio (e in generale a sfruttare qualsiasi risorsa non
rinnovabile) al ritmo piú rapido possibile. In un’economia di libero mercato un operatore che possiede un pozzo di petrolio è
libero di farne quello che vuole; dunque può scegliere se estrarre e vendere subito il petrolio oppure aspettare. Il punto è che
il petrolio che sta nel pozzo non rende niente, viceversa il denaro che viene ricavato dalla vendita può essere investito e rendere approssimativamente in proporzione al tasso di sconto corrente.
In sostanza, il modello di Hotelling prende in considerazione una situazione non molto diversa da quella del problema
dell’uovo e della gallina. Meglio un uovo oggi o una gallina domani? Secondo Hotelling a questa domanda si può rispondere
attraverso un calcolo della rivalutazione del capitale dato dalla
vendita dell’uovo e investito in borsa. Se questo capitale, rivalutato per il tempo che ci vuole a far crescere la gallina, è maggiore del prezzo della gallina stessa, allora conviene vendere
l’uovo. Se invece è minore, conviene aspettare che l’uovo diventi una gallina adulta e vendere quella.
Traslando questi ragionamenti al caso del petrolio, la teoria
di Hotelling dice che un operatore troverà piú conveniente lasciare il petrolio in fondo al pozzo solo se riterrà che il valore
del petrolio stesso potrebbe aumentare nel tempo piú di quanto non renderebbe l’equivalente capitale investito in borsa.
137
Queste rendite sono note per gli anni passati e sono state enormi. Negli anni dal 1991 al 2000, un investimento in borsa negli
Stati Uniti ha reso in media circa il 18% all’anno (dati Ibbotson Associates, Inc.). Anche aggiustando questi valori per l’inflazione e tenendo conto delle spese, gli investitori si erano abituati a rese dell’ordine del 10% all’anno.
Ora, se assumiamo una resa del 10% annuale in borsa, perché il petrolio resti in fondo al pozzo bisognerebbe che il suo
prezzo aumentasse di piú del 10% all’anno, cosa che non si è
mai verificata nel quindicennio dal 1985 al 2000. Non solo, ma
l’interesse composto lavora a favore della strategia di estrarre
subito. Al 10% annuo, il capitale investito raddoppia in 7 anni
e si moltiplica di un fattore 10 in 25 anni. Ne consegue che un
operatore potrebbe essere tentato di lasciare il pozzo per i suoi
figli, la generazione successiva a 25 anni di distanza, solo se riterrà che il petrolio sarà dieci volte piú caro quando i suoi figli
cominceranno ad estrarlo, altrimenti farà meglio a lasciar loro
delle azioni quotate in borsa. I numeri possono variare, ma l’essenza del modello di Hotelling ci dice che in un’economia di
mercato in forte espansione la tendenza degli operatori sarà di
estrarre il petrolio alla massima velocità possibile.
Sulla base di questi ragionamenti, possiamo riesaminare la
storia dello sfruttamento dei pozzi del mare del Nord nel ventennio dal 1980 al 2000 circa. Durante questo periodo il prezzo del petrolio è stato in media sui 15 dollari al barile. Ne consegue che i produttori del mare del Nord hanno incassato qualcosa come 280 miliardi di dollari per i 19 miliardi di barili
estratti finora. Ci possiamo divertire a fare un piccolo conto di
interesse composto assumendo che abbiano investito in borsa
tutti i profitti a un interesse netto del 10% all’anno. Non avrebbe senso fare qui calcoli dettagliati senza avere dati precisi sui
costi di estrazione. Diciamo comunque che facendo qualche
assunzione ragionevole il risultato finale potrebbe essere qualcosa come 600-700 miliardi di dollari di resa totale.
Cosa sarebbe successo se invece i produttori del Mare del
Nord avessero tenuto il petrolio nei pozzi e aspettato che aumentasse di prezzo? Come sappiamo, il prezzo del petrolio è
138
raddoppiato nel 2000 e da allora a oggi si è mantenuto intorno
ai 30 dollari al barile. Possiamo divertirci a fare un altro piccolo calcolo assumendo che per i prossimi venti anni il petrolio si
mantenga a questi prezzi e vedere che cosa avrebbero guadagnato i produttori se avessero cominciato a estrarre solo a partire dal 2000. Sempre nell’ipotesi di una resa del 10% del capitale investito in borsa, il risultato del calcolo è qualcosa come
1.500 miliardi di dollari al 2020. Però dobbiamo anche tener
conto che nell’ipotesi di estrarre a partire dal 1980 i profitti ottenuti al 2000 avrebbero continuato a fruttare in borsa anche
dopo l’esaurimento dei pozzi, per cui il profitto totale al 2020
della strategia di «estrarre subito» sarebbe stato ben superiore:
oltre 4.000 miliardi di dollari!
Se queste considerazioni sembrano giustificare a posteriori
le azioni dei produttori del Mare del Nord, vediamo anche che
questa logica di mercato è una logica brutale che spinge gli
operatori economici a sfruttare tutte le risorse al massimo ritmo possibile, e al diavolo le future generazioni. Lo stesso Hotelling aveva pubblicato il suo studio nel 1931 non per giustificare questo comportamento, ma per lanciare un grido di allarme contro la rapina indiscriminata delle risorse naturali. Purtroppo la logica ferrea del mercato applicata al caso dell’uovo
e della gallina conduce all’estinzione dei polli da cortile come
specie. È la stessa logica, infatti, che ha causato l’estinzione di
tante specie animali a partire dal dodo, che ha causato la distruzione di foreste ed ecosistemi, e la desertificazione di una
gran parte del nostro pianeta. È la logica dell’arraffare tutto
quel che si può, finché si può.
In effetti, la razionalità di questi calcoli è solo apparente.
Nessuno può prevedere il futuro e nessuno può sapere con certezza quale sarà il costo di una risorsa fra dieci anni, né che tipo
di interesse può aspettarsi dalle borse nell’arco di una decina
d’anni. Il ritorno del 10% netto è stato qualcosa di molto speciale della decade dal 1990 al 2000. Da allora la borsa ha cominciato un declino che ha portato fino ad oggi a bruciare almeno il
40% dell’apparente ricchezza generata nel decennio precedente. Nessuno sa esattamente che cosa possiamo aspettarci per i
139
prossimi anni, ma le previsioni di una ripresa potrebbero essere
altrettanto sbagliate di quelle di un’ulteriore caduta.
Allora, se non si può prevedere il futuro, non possiamo
neanche sapere se le borse andranno su o giú nei prossimi anni. Pertanto, l’operatore che decide di estrarre una risorsa alla
massima velocità possibile contando su una tendenza positiva
a lungo periodo delle borse non fa veramente una scelta razionale, come sembrerebbe se si dà retta a certi modelli economici. Fa piuttosto una scelta di tipo fideistico o ideologico. Di
fronte all’alternativa fra l’uovo e la gallina, sceglie l’uovo perché cosí gli va, o perché lo trova politicamente corretto, oppure forse perché lo ha letto nelle carte dei tarocchi. In fondo, è
semplicemente una conseguenza della tendenza umana al guadagno immediato, all’avere tutto e subito.
In effetti, la storia dello sfruttamento dei giacimenti del Mare del Nord da parte della Gran Bretagna (il principale dei tre
paesi coinvolti) evidenzia bene i motivi ideologici di fondo delle
scelte fatte. Verso l’inizio degli anni ottanta, l’estrazione del petrolio del Mare del Nord era stata affidata a due enti statali: il
British Gas Council e la British National Oil Company, entrambi scomparsi oggi. In quegli anni la drammatica battaglia fra il
governo britannico e i sindacati dei minatori di carbone si concluse con la completa vittoria del governo e il trionfo del «nuovo capitalismo» di Margaret Thatcher. Uno degli elementi che
permisero al governo britannico di vincere quella battaglia fu la
disponibilità del petrolio come energia alternativa al carbone.
Dopo la vittoria sui sindacati, le compagnie statali furono abolite e il petrolio fu affidato alle multinazionali come pure a molti
produttori indipendenti. Tutti questi produttori furono incoraggiati dal governo ad estrarre le risorse al ritmo piú rapido possibile, per ragioni appunto principalmente ideologiche.
Il petrolio del Mare del Nord è stato un colpo di fortuna
per la Gran Bretagna, la Danimarca e la Norvegia che hanno
potuto rimettere in sesto una bilancia dei pagamenti in rosso
da anni e rifarsi un’infrastruttura industriale resa obsoleta dagli anni. Tuttavia, si può anche sostenere che estrarre tutto il
petrolio il piú velocemente possibile è stata una scelta strategi140
camente pessima. Già oggi, Gran Bretagna, Danimarca e Norvegia stanno diventando dipendenti per le loro forniture energetiche da altri paesi (Russia e Medio Oriente). Non sarebbe
stata una cattiva idea lasciarsi una riserva strategica da sfruttare in possibili tempi duri nel futuro. Se arrivasse davvero una
nuova crisi del petrolio con aumenti dei costi veramente drastici, i paesi che hanno sfruttato il mare del Nord si troverebbero letteralmente «in mutande» avendo esaurito tutte le riserve. Un ragionamento del genere, però, era possibile solo con il
controllo di un organismo statale, ovvero se le compagnie petrolifere fossero state statali.
Non tutti i paesi produttori di petrolio hanno ragionato secondo la logica del libero mercato come ha fatto la Gran Bretagna e gli altri paesi del nord Europa. In effetti i principali
produttori di petrolio fanno parte di un’organizzazione che si
muove secondo principi completamente diversi: l’OPEC (Organization of Petroleum Exporting Countries). L’OPEC fu fondata nel 1960 a Baghdad, in Iraq, ed è formata oggi da 11 paesi.
Dei principali paesi produttori di petrolio, soltanto la Russia e
gli Stati Uniti non fanno parte dell’OPEC. I membri OPEC possiedono oltre il 60% delle riserve di petrolio mondiali conosciute. Al momento attuale producono il 41% del petrolio greggio in tutto il mondo e il 15% del gas naturale. Il greggio esportato dai paesi OPEC è oggi circa il 55% di tutto il petrolio commerciato a livello internazionale. Ci si aspetta che la frazione di
produzione e di mercato dei paesi OPEC aumenti nel futuro con
il progressivo esaurimento dei pozzi dei paesi non-OPEC.
Poche organizzazioni sono state malignate e vilipese come
l’OPEC ai nostri tempi. È stata considerata una specie di «mafia
del petrolio» che sfrutta ignobilmente il potere di mercato dei
produttori per strozzare i consumatori e costringerli a pagare
prezzi esosi. Piú di una volta si è sentito dire che un’invasione
dei paesi arabi o il loro controllo militare da parte dell’Occidente avrebbe avuto lo scopo di spezzare il monopolio OPEC e
liberare i consumatori dalla tirannia dei produttori. Non è di
poca importanza in questo atteggiamento anche un fattore di
fede nel concetto di «libero mercato» che porta gli occidentali
141
Paese
Algeria
Indonesia
Iran
Iraq
Kuwait
Libia
Nigeria
Qatar
Arabia Saudita
Emirati Arabi Uniti
Venezuela
Adesione all’OPEC
Area geografica
1969
1962
1960*
1960*
1960*
1962
1971
1961
1960*
1967
1960*
Africa
Asia
Medio Oriente
Medio Oriente
Medio Oriente
Africa
Africa
Medio Oriente
Medio Oriente
Medio Oriente
America del Sud
* Membro fondatore
a guardare con sospetto un’organizzazione di eretici che opera
al di fuori delle regole.
Inoltre, l’OPEC è spesso vista come politicamente orientata
in senso ostile all’Occidente. Questa impressione deriva in gran
parte dal ruolo che l’OPEC ebbe nell’embargo petrolifero della
prima crisi del petrolio, nel 1973. Il filtro degli anni che agisce
sulla memoria umana porta a ricordarci in modo esagerato del
ruolo che ebbe l’OPEC in quegli eventi. Il risultato è stato comunque di dare per sempre una cattiva fama all’OPEC, agli arabi, e in generale a tutto quanto ha a che fare con i paesi arabi,
considerati potenziali affamatori dell’Occidente. I lettori potranno forse ricordare di una pubblicità degli anni ottanta
quando una macchina con un motore a tre cilindri veniva propagandata come «uno sceicco di meno» rispetto alle altre a
quattro cilindri, «quattro sceicchi».
In realtà l’OPEC non è un monopolio e nemmeno una mafia.
Non è neanche un’associazione politica e non ha niente a che
vedere con l’integralismo islamico, il pan-arabismo e altri concetti abusati e mal definiti. Potrebbe, semmai, essere definita
un «cartello», ovvero un’associazione di produttori che ha lo
scopo di influenzare il mercato. In quanto tale, l’OPEC agisce in
contrasto con i principi del liberismo economico. Tuttavia, anche se opera su principi considerati eretici dagli occidentali è
142
un’organizzazione che svolge un servizio utile per tutti, in special modo per i paesi occidentali.
Per chiarire subito che l’OPEC non è il risultato di un complotto internazionale da parte di paesi ideologicamente contrari al capitalismo e all’Occidente, diciamo subito che l’OPEC fu
creata sul modello di un’organizzazione simile che operava a
livello nazionale negli Stati Uniti. Gli Stati Uniti sono un paese
notoriamente favorevole da sempre al libero mercato ma evidentemente pragmatico a sufficienza da riconoscere la necessità di organizzazioni che operino per moderarne gli eccessi.
L’organizzazione americana equivalente all’OPEC si chiamava
«Texas Railroad Authority» e aveva esattamente lo stesso scopo che ha oggi l’OPEC con la differenza che calmierava e controllava la produzione dei soli pozzi di petrolio americani. Con
il declino della produzione dei pozzi americani, la Texas Railroad Authority ha perso il suo scopo e oggi molti non si ricordano nemmeno che è esistita e che ai suoi tempi era importantissima. Allo stesso modo, con il declino della produzione dei
pozzi mondiali, a un certo punto l’OPEC dovrà perdere importanza e scomparire, ma per ora non siamo arrivati a quel punto.
Lo scopo principale dell’OPEC è molto semplice: impedire
che il meccanismo di Hotelling prenda campo nel caso del petrolio e causi un abbassamento eccessivo dei costi, il che danneggerebbe produttori e consumatori allo stesso tempo. Nella
pratica, la situazione mondiale degli ultimi quindici anni è stata
tale per cui i produttori non-OPEC hanno prodotto al massimo
delle loro capacità di sfruttamento, mentre i produttori OPEC
hanno in generale prodotto al di sotto della loro capacità, variando la loro produzione in dipendenza del mercato. Per questa ragione questi ultimi sono stati chiamati col termine (forse
leggermente denigratorio) di swing producers (produttori altalena).
Proviamo a immaginare che l’OPEC non esista. In una situazione del genere, puro libero mercato, l’interesse dei produttori sarebbe di guadagnare quote di mercato le piú alte possibile
per massimizzare i profitti. Come abbiamo detto, il costo di
143
estrazione di un barile di petrolio varia molto a seconda delle
caratteristiche dei pozzi, dell’abbondanza delle riserve, della
dimensione stessa dei pozzi, dato che pozzi di grandi dimensioni permettono di realizzare economie di scala. Senza l’OPEC,
quei produttori che possono produrre a costi piú bassi tenderebbero a espandersi. Paesi come l’Arabia Saudita, che hanno
immense capacità di produzione, potrebbero vendere il petrolio a prezzi molto bassi mandando in fallimento gli altri, per
esempio i produttori americani. Questo sarebbe un danno a
breve termine per i produttori americani ma un danno ben
maggiore a lungo termine per l’Arabia Saudita, che si troverebbe ad aver venduto le proprie riserve a basso prezzo per
poi rimanere con in mano, letteralmente, solo un pugno di sabbia. Inoltre, in un mondo inondato di petrolio a basso costo
sparirebbe ogni incentivo al risparmio e allo sviluppo di fonti
alternative. Bruceremmo allegramente le nostre riserve principali fino ad arrivare a un brusco impatto con la realtà al momento in cui arrivassimo al fondo del barile, ovvero alla fine
delle risorse.
Vediamo dunque che se l’OPEC si oppone alle regole del libero mercato lo fa per il beneficio di tutti, anche se non necessariamente per ragioni di altruismo. Il primo favore, l’OPEC lo
fa ai propri membri evitando che i prezzi si abbassino troppo,
ma è un favore che fa anche ai concorrenti. Questo è il primo
servizio che l’OPEC svolge e sembra averlo svolto con discreta
efficienza anche se probabilmente non come alcuni dei membri avrebbero voluto. In effetti, sembrerebbe che in molte occasioni l’OPEC abbia avuto delle grosse difficoltà a evitare che
il prezzo del petrolio si abbassasse troppo, quando per esempio è sceso intorno ai 10 dollari al barile.
Si potrebbe in effetti arguire che l’effetto dell’OPEC sui prezzi sia molto piú limitato di quanto non si creda, dato che in
dollari costanti, i costi del petrolio sono sempre rimasti intorno ai 15 dollari al barile, fino dal 1880 (proprio cosí, il prezzo
si era già stabilizzato a quel livello già piú di un secolo fa)13. In
effetti, secondo molti documenti, sembrerebbe che i paesi OPEC
avrebbero considerato «giusto» un prezzo del barile nettamen144
te piú alto di quello che poi in pratica sono riusciti a imporre,
ovvero qualcosa come dai 20 ai 30 dollari al barile. D’altra parte, si potrebbe anche sostenere che senza l’OPEC i prezzi si sarebbero abbassati di piú per cui dopo tutto, se l’OPEC esiste,
un certo effetto lo deve pur avere.
Un secondo scopo dell’OPEC è quello di mantenere i prezzi
non solo non troppo bassi, ma anche stabili. Ciò serve a mantenere un grado di sicurezza economica che permetta una certa stabilità delle economie occidentali. Anche qui, non sarebbe
corretto parlare di altruismo. Se i paesi consumatori hanno bisogno di «sicurezza delle forniture energetiche», i paesi produttori OPEC hanno bisogno altrettanto bene di qualcosa che
possiamo chiamare «sicurezza della domanda energetica». Perché questa domanda rimanga sostenuta, bisogna che le economie occidentali rimangano stabili e attive. D’altra parte, ancora una volta l’OPEC fa un favore anche agli occidentali, i quali
hanno un interesse ancora maggiore nella stabilità delle loro
economie. Sempre nei limiti di quello che si diceva prima, sembrerebbe che l’OPEC abbia avuto un effetto in questo campo
dato che il prezzo del petrolio si è mantenuto abbastanza stabile negli ultimi quindici anni.
L’ultimo, e questo il meno altruistico, scopo dell’OPEC consiste nel far sí che i prezzi del petrolio rimangano bassi abbastanza da non rendere conveniente lo sviluppo di fonti alternative. Il livello che abbiamo visto negli ultimi anni, intorno ai 15
dollari al barile, si trova in una regione che rende poco convenienti energie alternative quali il nucleare e il solare. Per renderle competitive, infatti, dovremmo andare su livelli di 30 dollari al barile e probabilmente anche oltre. Dal punto di vista
della salute del pianeta, aver mantenuto i prezzi a un livello
piú basso ha avuto un effetto negativo, stroncando in partenza
i tentativi delle fonti rinnovabili di inserirsi nel mercato.
Non è del tutto ovvio che il ruolo dell’OPEC sia veramente
fondamentale nel gestire l’estrazione del petrolio oppure se sia
piú un discorso di giustificazione a posteriori delle scelte produttive dei membri (è il cane che agita la coda, o viceversa?).
Tuttavia, se l’OPEC è esistita già per piú di quarant’anni vuol
145
dire che c’è qualcosa di fondamentalmente giusto e utile nel
meccanismo con il quale opera. In realtà, comunque, ci sono
dei grossi limiti riguardo a quello che l’OPEC può fare. Ovvero,
l’OPEC è probabilmente in grado di gestire e assorbire piccole
oscillazioni nella domanda o nell’offerta di petrolio, ma si trova (e si è trovata) in difficoltà riguardo a quelle oscillazioni robuste che hanno causato le crisi del petrolio della decade del
1970 e che potrebbero causare nuove crisi nel futuro.
Ci sono due casi per i quali l’OPEC potrebbe trovarsi in difficoltà nell’evitare un abbassamento eccessivo dei prezzi: il disaccordo dei produttori OPEC sulle quote di produzione oppure
un accordo dei produttori non-OPEC per inondare il mercato
con petrolio a basso prezzo. La prima delle due cose si è verificata occasionalmente, la seconda non si è mai veramente verificata fino ad oggi. Sembra difficile un accordo del genere fra i
produttori non-OPEC, inoltre la maggior parte di loro (e principalmente gli Stati Uniti) gestiscono pozzi ormai in via di esaurimento il cui sfruttamento è costoso. C’è stato qualche tentativo
di «guerra commerciale» contro l’OPEC, per esempio nel 2002
quando i russi hanno tentato di guadagnare quote di mercato
abbassando i prezzi del loro petrolio. Se questa è stata una guerra commerciale, tuttavia, è ovvio chi l’ha vinta dato che tutto è
rientrato rapidamente nella situazione normale dopo un temporaneo abbassamento dei prezzi. I russi si sono resi conto a
loro spese che l’OPEC poteva produrre a prezzi molto piú bassi
dei loro e mandarli in fallimento se avessero insistito. Una situazione diversa potrebbe verificarsi nel caso che il governo iracheno che emergerà dopo l’invasione del 2003 rompesse i legami con l’OPEC (di cui è stato fra i fondatori nel 1960). In questo
caso, se l’Iraq dovesse essere forzato a produrre al massimo ritmo possibile dalle sue riserve che rappresentano il 10% di quelle mondiali, potrebbe rivelarsi difficile per l’OPEC mantenere il
controllo che ha avuto finora. In effetti questo potrebbe essere
l’inizio della fine per l’OPEC, ma al momento è ancora troppo
presto per valutare se uno scenario del genere sia possibile.
Dove l’OPEC si è trovata in difficoltà nel passato, e dove potrebbe trovarsi in difficoltà nel futuro, è nell’evitare invece il
146
rialzo dei prezzi. Per i «produttori altalena» ridurre la produzione è sempre possibile. Non è detto che aumentarla, invece,
lo sia. Normalmente i produttori altalena non operano al 100%
delle loro capacità produttive ma, appunto, non è detto che
siano in grado di assorbire tutti gli aumenti della domanda. Indipendentemente dal valore assoluto delle risorse, tirar fuori il
petrolio è impresa costosa che richiede investimenti e soprattutto tempo.
Questa situazione spiega le due prime «crisi del petrolio»
della decade del 1970 e anche la terza (la «minicrisi») cominciata nel 2000. Essendo le due prime crisi ormai concluse, possiamo esaminare i dati storici e concludere con certezza che
non erano dovute a un problema di carenza di risorse da estrarre ma alla difficoltà di sfruttarle a un ritmo sufficientemente
rapido da tener dietro alla domanda sul mercato.
La prima crisi, nel 1973, viene spesso ricordata come correlata all’embargo petrolifero che seguí alla guerra del Kippur
fra arabi e israeliani. In realtà l’embargo fu debole e poco efficace e le ragioni della crisi furono di tutt’altro tipo. La crisi si
verificò in corrispondenza di un periodo di crescita rapida nei
consumi energetici negli Stati Uniti, poco dopo il raggiungimento del «picco di Hubbert» locale per la produzione di petrolio. Questo portò a un rapido incremento della dipendenza
degli Stati Uniti dal petrolio medio-orientale. Per esempio, la
produzione saudita raddoppiò passando da circa 4 milioni di
barili al giorno nel 1971 a piú di 8 milioni di barili al giorno
nel 1973. Tuttavia, la crescita mondiale dei consumi a quel tempo era talmente rapida che non era possibile per i produttori
aumentare la loro produzione in modo corrispondente. Nella
pratica, la crisi era inevitabile, guerra o non guerra. Il risultato
fu la prima grande crisi petrolifera. L’aumento dei prezzi causò
la riduzione dei consumi e una certa stabilizzazione del mercato, con i prezzi che si mantennero per 4-5 anni sui 12 dollari al
barile (dollari di allora, corrispondenti a circa 30 dollari al barile di oggi). La caduta nella produzione fu, nel complesso, limitata e di breve durata e dopo il 1975 il mondo sembrava aver
ripreso le tendenze di prima della crisi.
147
La seconda crisi, nel 1979, fu molto piú pesante della seconda. In questa crisi non ci fu un embargo commerciale «politico», ma soltanto l’impossibilità da parte dei produttori di
soddisfare l’eccesso di domanda. Dopo la caduta dello Scià in
Iran nel 1979, la produzione iraniana crollò da piú di cinque
milioni di barili al giorno nel 1978 a poco piú di uno nel 1980,
facendo sparire di botto il 6% della produzione mondiale. Le
conseguenze del crollo iraniano furono tali che la produzione
OPEC diminuí in valore assoluto, da oltre 31 milioni di barili al
giorno a poco piú di 27. Il costo del petrolio salí a oltre 30 dollari al barile dell’epoca, corrispondenti a circa 70 dollari al barile attuali. Questo causò il crollo dei consumi.
Nel 1979 si era raggiunto un punto di massimo della produzione mondiale di petrolio a circa 24 gigabarili all’anno (dati ASPO). Nel 1981 la produzione era scesa a circa 18. Ci sarebbero voluti oltre dieci anni per ritornare ai valori di produzione di prima della crisi (oggi siamo a oltre 25 gigabarili all’anno). Gli effetti sull’economia mondiale furono molto pesanti:
recessione, disoccupazione, inflazione. Quelli che ci sono passati se ne ricordano ancora come di un periodo molto buio,
quando l’inflazione a due cifre sembrava una cosa normalissima, come forse era sembrata ai tedeschi al tempo della Repubblica di Weimar quando era diventato conveniente usare le
banconote per accendere il camino.
La grande crisi che era cominciata nel 1979 durò circa cinque anni. Durante questo periodo furono fatti grandi investimenti per aumentare le possibilità di estrazione. Si riuscí ad
aumentare la produzione medio-orientale e, con l’ingresso in
produzione dei campi petroliferi del mare del Nord, nel 1985
la produzione era di nuovo in grado di soddisfare la domanda.
Il fattore scatenante che determinò il crollo dei prezzi fu la decisione dell’Arabia Saudita di aumentare la propria produzione nel 1985, ma era comunque un andamento inevitabile. Dal
1986 fino al 2000 in prezzi si sono mantenuti al valore «normale» di circa 15 dollari al barile (dollari del 1996).
Neanche la prima guerra del golfo del 1991, che aveva temporaneamente rimosso l’Iraq dal campo dei produttori, causò
148
niente di piú di un temporaneo aumento dei prezzi. In effetti,
l’Iraq non ha mai cessato di esportare petrolio sul mercato
mondiale nonostante le sanzioni Onu applicate dal 1991. Le
esportazioni erano in parte gestite dallo stesso Onu con il programma «Oil for Food» (petrolio in cambio di cibo), e in parte clandestine, ovvero attraverso il Kurdistan e la Turchia. Nella pratica l’Iraq ha continuato a produrre e a esportare intorno
ai 2 milioni di barili al giorno (meno di un gigabarile all’anno)
fino al 2003 quando è stato invaso dagli Stati Uniti. Il petrolio
iracheno, quindi, è stato uno dei fattori che hanno contribuito
alla stabilità dei prezzi nel quindicennio dal 1985 al 2000.
Nel 2000, tuttavia, le cose sono cambiate. Come abbiamo
detto, i prezzi del petrolio sono raddoppiati passando dai «normali» 15 dollari al barile a circa 30 dollari al barile in meno di
un anno, dopo di che si sono mantenuti su quei livelli. Philip
Verleger, del Brattle Group, fu forse il primo a vedere questo
rialzo brusco come una «terza crisi del petrolio» diffondendo
nell’aprile del 2000 una nota intitolata «La terza crisi del petrolio: reale o immaginaria?»14. Nonostante il titolo molto cauto, nel testo Vergeler diceva che la crisi era in atto e che un aumento dei prezzi di questa entità non poteva non avere effetti
profondi sull’economia occidentale.
In realtà, nonostante l’aumento brusco dei prezzi, dal 2000
a oggi, non siamo arrivati a un impatto cosí devastante come
nel caso delle due prime crisi del petrolio, cominciate nel 1973
e nel 1979. Se la possiamo chiamare una crisi del petrolio, si
tratta per il momento solo di una minicrisi. In primo luogo i
prezzi non sono saliti a livelli comparabili a quelli della crisi
del 1979. In secondo luogo, bisogna anche notare che le economie dei paesi occidentali sono molto meno vulnerabili oggi
a una carenza di petrolio di quanto non lo fossero nel 1979.
Dopo quella crisi, molti paesi hanno convertito la loro produzione di energia elettrica da petrolio a carbone oppure all’energia nucleare. Un aumento anche molto piú drastico dei prezzi del petrolio non causerebbe oggi gli stessi danni che si erano
visti nel 1979, anche se avrebbe lo stesso conseguenze pesanti,
probabilmente devastanti per quei paesi che ancora utilizzano
149
Figura 13 - Andamento dei prezzi del petrolio greggio negli ultimi anni (fonte: ASPO; www.asponews.org).
principalmente petrolio per produrre energia elettrica. Fra questi c’è anche, ahimé, l’Italia, paese che sta soffrendo piú di altri
gli aumenti dei costi del petrolio.
Ma che cosa esattamente ha causato la crisi del 2000? Evidentemente il motivo deve essere lo stesso di quelli che hanno
causato le prime due crisi: la difficoltà per la produzione di tener dietro alla domanda. Ci possiamo chiedere allora se siamo
di fronte a un fenomeno contingente, dovuto a instabilità locali, oppure se siamo di fronte a quel tanto temuto «picco di
Hubbert» globale, quel punto da cui inizierà la discesa irreversibile della produzione.
Al momento attuale, non è possibile dire con sicurezza cosa
sta succedendo. È vero da una parte che diversi scienziati avevano previsto il «punto di Hubbert» planetario per i primi anni del 2000 ma sembrerebbe difficile pensare che ci siamo arrivati cosí presto. Piuttosto, sembrerebbe piú probabile che la
terza crisi del petrolio sia stata causata da fattori contingenti,
150
proprio come le prime due. In questo caso, possiamo contare
fra i fattori scatenanti la crisi politica nel Venezuela, che ha
bloccato le esportazioni di petrolio venezuelano, accoppiata al
declino della produzione dai pozzi del mare del Nord. Questi
due fattori non sono stati compensati, evidentemente, dall’aumento di produzione di petrolio russo.
Cosa ci possiamo aspettare allora dal futuro? Anche qui, è
difficile dire. Se una rivista prestigiosa come The Economist ha
potuto sbagliarsi in modo cosí grossolano nel 1999, prevedendo che i prezzi si dimezzassero (quando invece sono raddoppiati) è chiaro che lanciarsi in previsioni oggi sarebbe ancora
piú rischioso vista la generale instabilità politica del mondo, e
in particolare del Medio Oriente. Diciamo che ci sono alcuni
fattori che potrebbero far sí che l’attuale crisi continui e possa
anche peggiorare. La crisi del Venezuela è ancora in corso, l’infrastruttura di produzione irachena è danneggiata dalla guerra,
i pozzi del Mar Caspio potrebbero rivelarsi meno abbondanti
di quanto si era sperato. Qualche nuova avventura militare, per
esempio contro l’Iran, potrebbe causare danni tali da rimuovere dal mercato una frazione consistente della produzione e questo ci metterebbe veramente nei guai.
D’altra parte, può anche darsi che la crisi si attenui e i prezzi ritornino ai valori che ci sembravano normali fino al 1999.
Vediamo che la crisi attuale è durata già oltre tre anni, un tempo confrontabile con quello delle altre due crisi petrolifere.
Questa durata dà il tempo ai normali meccanismi di mercato
di riprendere il sopravvento e di aumentare la produzione, che
potrebbe ritornare a livelli tali da soddisfare la domanda, specialmente se si riesce a risolvere la crisi del Venezuela. Lo stesso vale per l’Iraq, anche se non bisogna essere troppo ottimisti
sulla possibilità di ottenere un rapido aumento di produzione
in tempi brevi. Secondo C. Campbell15 un aumento di un fattore 2 della produzione irachena non sarebbe possibile prima
del 2020, anche in condizioni di stabilità politica. Tuttavia, il
petrolio iracheno potrebbe fare la differenza se si riuscisse a rimettere in produzione almeno i pozzi esistenti in tempi ragionevolmente brevi.
151
Se le condizioni favorevoli che abbiamo elencato si verificassero, allora potrebbe darsi che la tendenza agli alti prezzi
del petrolio si inverta. I normali meccanismi che hanno operato negli ultimi quindici anni ci potrebbero regalare ancora qualche anno, e forse anche parecchi anni, di tranquillità e di prezzi ragionevoli, ovvero sui 15 dollari al barile. Se poi si riuscisse
ad aumentare la produzione irachena piú rapidamente del previsto e se la si dovesse usare, come è stato detto, come un’arma
contro l’OPEC, allora il prezzo del petrolio potrebbe anche crollare. Il petrolio a 5 dollari al barile, cosí sventatamente preconizzato dall’Economist per il 2000, potrebbe essere una realtà
per il 2005? Improbabile, ma non del tutto impossibile. Se avvenisse sarebbe la felicità per i possessori di SUV ma una disgrazia per gli ecosistemi planetari.
Al momento, è impossibile dire che cosa ci aspetta, solo
possiamo notare che anche se avremo un certo numero di anni
di respiro, a un certo punto del futuro dovremo arrivare per
forza a quel punto in cui la «forbice» fra la domanda e le capacità produttive si chiuderà, ovvero il punto in cui tutti i pozzi
dovranno produrre a pieno ritmo per soddisfare la domanda.
Da quel punto in poi, ogni aumento della domanda non potrà
essere accomodato da un aumento di produzione da parte dei
produttori altalena. In effetti a quel punto non ci saranno piú
produttori altalena, ma solo una situazione di mercato in cui
saranno i prezzi a determinare la domanda. Ci si aspetta a questo punto un consistente aumento dei prezzi, qualcosa che farà
sembrare le crisi petrolifere precedenti delle semplici prove in
bianco. A quel punto l’OPEC perderà il suo scopo dato che non
avrà piú alcun senso stabilire delle quote di produzione e sparirà come era sparita la sua equivalente americana, la Texas
Railroad Authority, negli anni settanta. Per quanto ne sappiamo tutto questo potrebbe avvenire fra pochi anni oppure fra
un decennio, o anche piú decenni. L’unica cosa sicura è che
prima o poi deve succedere per forza.
152
Guerre per il petrolio
Nel suo romanzo Guerra e Pace Leon Tolstoj si chiedeva il
perché dell’invasione della Russia da parte delle armate napoleoniche e non riusciva a spiegarsi come tante possibili cause si
fossero unite per generare un evento del genere. Dice Tolstoj:
Piú approfondiamo la ricerca di queste cause, piú ne troviamo, e ogni
causa separata, o intera serie di cause, ci appare ugualmente valida in se
stessa e ugualmente falsa nella sua misera entità paragonata alla dimensione degli eventi e nel suo scarso peso, – a parte per la cooperazione
con tutte le altre cause coincidenti – per dare origine all’evento di cui
parliamo. Per noi, il desiderio di questo o quel caporale francese di servire per un secondo periodo ci può sembrare altrettanto una causa di Napoleone che rifiuta di ritirare le sue truppe al di là della Vistula e di restaurare il potere del ducato di Oldenburg...
Senza tutte queste cause, nulla sarebbe successo. Cosí tutte queste cause,
miriadi di cause, hanno coinciso per fare accadere quello che è accaduto.
E cosí non ci fu una singola causa per quegli eventi, ma dovette accadere
perché doveva. Milioni di uomini, rinunciando ai loro sentimenti umani,
dovevano muoversi da ovest a est per fare strage dei loro simili.
Le guerre napoleoniche furono forse le prime guerre «moderne» e l’attacco alla Russia è stato forse il primo caso in cui
si è passato il livello del milione di morti in una singola campagna. Allora non si parlava, ovviamente, di «guerre per il petrolio», ma allora come oggi si parlava di guerre per la libertà, per
la democrazia, per la giustizia, per la gloria di Dio e per tante
altre ragioni, nessuna delle quali però spiegava né spiega veramente il perché. Tolstoj, nel suo commento, rende bene l’idea
di come le guerre siano entità complesse, difficili da capire, impossibili da prevedere.
Se le guerre sono tutte delle follie, tuttavia, si può anche dire che nella follia c’è spesso un metodo. Se nel 1812 un milione di uomini si era messo in marcia verso la Russia, rapinando,
uccidendo e distruggendo, quegli uomini dovevano avere comunque qualcosa in mente, uno scopo, un’idea che li spingeva
tutti in una certa direzione. Possiamo dire che in questo caso
lo scopo era principalmente di pura rapina. Gli storici ci rac153
contano come i soldati di Napoleone in ritirata si portavano
dietro soldi, gioielli e suppellettili che avevano razziato a Mosca. Tutte cose che furono loro poco utili per evitare di morire
congelati, ma cosí vanno le guerre.
Le guerre di rapina sono forse le piú antiche nella storia
umana, ma da quando il mondo ha cominciato a basarsi sull’agricoltura la questione territoriale è diventata piú importante.
Molte guerre si sono fatte e si fanno per conquistare la risorsa
fondamentale per l’agricoltura: il territorio. Per esempio, nel
Medio Evo le crociate si facevano, in teoria, per ragioni ideali:
liberare il santo sepolcro o convertire gli infedeli, ma nella pratica i crociati andavano in Terra Santa per farsi un loro piccolo
feudo personale, un pezzetto di terra che non erano riusciti a
conquistarsi a casa loro.
Esistono tuttora delle guerre territoriali, il caso della guerra
fra israeliani e palestinesi ne è un esempio, oltre ad essere una
delle grandi tragedie del nostro tempo. Tuttavia oggi molte cose sono cambiate. L’agricoltura non è piú la risorsa principale,
soppiantata dalle risorse minerali che sono la base dell’economia industriale. Mentre la terra era una risorsa diffusa, presente ovunque, per i minerali entrano in gioco fattori geografici di
distribuzione che sono tipici di ciascun tipo di risorsa. È raro
che una risorsa minerale sia distribuita equamente sul pianeta.
La maggior parte è localizzata in certe aree specifiche, il che
genera facilmente tensioni e conflitti. Ci sono parecchi esempi,
rame, uranio, titanio, diamanti, eccetera, ma il petrolio è il caso principale e il piú importante. Abbiamo già detto come il
petrolio sia distribuito in modo disomogeneo e presente prevalentemente nel Medio Oriente. In effetti, il recente ciclo di
guerre e in particolare l’invasione dell’Iraq nel 2003 sono state
descritte in molti casi come «guerre per il petrolio».
Il petrolio non è l’unico caso in cui si parla di guerre per le
risorse ma fra le tante cose che possiamo definire come «risorse» il petrolio è – come sempre – peculiare. Facciamo un esempio preso dal recente libro L’anatomia delle guerre per le risorse
di Michael Renner16. Dal 1992 a oggi, l’Angola è stata il teatro
di guerre per il controllo delle miniere diamantifere. Guerre in154
dubbiamente sanguinarie e distruttive delle quali, peraltro, in
Occidente non ci siamo neanche accorti. Per quanto le varie fazioni angolane si combattessero, questo non ha mai veramente
interrotto il flusso dei diamanti sul mercato. Nessuno in Occidente ha mai parlato di occupare l’Angola per «prendersi i diamanti» e neppure di assicurarsi il controllo strategico delle miniere. Le donne occidentali possono fregiarsi di diamanti senza
curarsi troppo da dove vengono e neppure preoccuparsi che le
donne angolane se li tengano per sé. «Un diamante è per sempre», indipendentemente dal sangue che ci sia scorso sopra.
Diamanti, rame, titanio, eccetera possono essere importanti
quanto si vuole, li possiamo anche chiamare risorse «strategiche», ma per mal che vada potremmo trovare modi di farne
anche a meno. Per esempio, possiamo fabbricare diamanti sintetici per l’industria e se le signore occidentali andassero in giro con qualche carato di meno addosso non sarebbe poi una
gran tragedia. Lo stesso vale per metalli come il rame, il titanio
o altri. Ne abbiamo bisogno, vero, però li possiamo anche sostituire oppure produrre per riciclaggio. Il petrolio, invece, è
un’altra cosa: è una risorsa primaria, il che vuol dire che non
ne possiamo fare a meno e che non lo possiamo neanche riciclare. Al momento non abbiamo risorse energetiche comparabili e senza combustibili fossili saremmo tutti al buio e al freddo e non avremmo neanche da mangiare per mancanza di fertilizzanti per l’agricoltura. Nella pratica, da almeno cinquant’anni il petrolio è diventato l’equivalente di quello che
era il territorio fino a un secolo fa: una delle ragioni principali
per le quali si fanno le guerre.
La prima guerra mondiale fu ancora relativamente indipendente dal petrolio. L’energia a quel tempo era principalmente
una questione di carbone, le cui risorse erano distribuite abbastanza equamente fra i contendenti. Ma già nella seconda guerra mondiale il petrolio era diventato un fattore importante. In
Europa, i tedeschi avevano sviluppato una tecnologia per ottenere benzina sintetica a partire dal carbone, per questo non rimasero mai veramente senza carburante. Molto piú drammatica era la situazione dell’Italia e del Giappone che non avevano
155
quasi nessuna risorsa energetica nel territorio nazionale. Per
l’Italia, la carenza di carburante fu una limitazione grave alle
operazioni militari, ma non fu in se stessa una causa scatenante
della guerra.
Viceversa, l’attacco del Giappone contro gli Stati Uniti a
Pearl Harbor nel 1941 fu il primo caso storico di «guerra per il
petrolio», ovvero di una guerra direttamente causata da una
questione energetica. Da quando il Giappone era emerso come potenza militare mondiale, sconfiggendo la flotta russa a
Tsushima nel 1904, un conflitto con gli Stati Uniti per il dominio del Pacifico diventava nell’ordine delle possibilità. La strada che condusse a un vero conflitto è complessa e la si può far
risalire agli anni della decade del 1930. Nel 1931 il Giappone
invase la Manciuria, e nel 1935 attaccò la Cina mettendosi in
diretto contrasto con gli Stati Uniti e imbarcandosi in un’impresa militare che alla fine lo averebbe condotto alla rovina.
Lo sforzo militare giapponese in Cina richiedeva petrolio, e
questo arrivava in gran parte dall’Indocina, una regione che a
quel tempo veniva chiamata «Indie Olandesi» e che era sotto il
controllo dell’Occidente. La situazione precipitò con l’inizio
della seconda guerra mondiale in Europa, nel 1939. Nel grande rivolgimento della guerra in corso, il senato americano autorizzò la costruzione di una nuova potente flotta del Pacifico,
una flotta pensata specificatamente come arma contro il Giappone. Inolte, il 25 giugno 1941, il presidente Roosvelt firmava
l’embargo totale delle forniture petrolifere al Giappone nonchè il congelamento di tutti i conti bancari giapponesi negli
Usa. L’azione degli Usa fu appoggiata nei giorni successivi dai
governi britannico e olandese in esilio che bloccavano le esportazioni di petrolio dall’Indocina verso il Giappone.
A questo punto il Giappone si trovava in una situazione insostenibile. L’embargo petrolifero era totale e senza risorse
energetiche proprie il Giappone rischiava non solo la sconfitta
totale senza aver sparato nemmeno un colpo, ma anche il crollo del proprio sistema economico. Di fronte a questa situazione l’unica strategia realistica sarebbe stata cercare un compromesso con gli USA, magari ritirandosi dalla Cina, cosa che in ef156
fetti alcuni settori del governo giapponese tentarono di fare,
ma in modo piuttosto confuso e indeciso. Un’altra possibilità
sarebbe stata di attaccare direttamente l’Indocina per impadronirsi dei campi petroliferi e risolvere il problema energetico. L’ultima possibilità, la piú rischiosa e la piú folle, era quella
di attaccare direttamente l’America nelle sue basi delle Hawaii.
Come sappiamo questa fu la scelta dei militaristi fanatici al governo.
C’è chi ha detto che il presidente Roosevelt scelse consapevolmente di provocare i giapponesi ad attaccare le Hawaii per
ottenere l’appoggio popolare necessario per spingere gli Stati
Uniti nella guerra. Questo punto è controverso e non provato,
in ogni caso è vero che il governo americano seppe sfruttare
molto bene il giusto risentimento degli americani per l’attacco
di Pearl Harbor per impegnare gli Stati Uniti in una guerra su
due fronti, Europa e Pacifico, che altrimenti, forse, non sarebbe stata vista con altrettanto entusiasmo.
L’attacco giapponese a Pearl Harbor il 7 dicembre 1941 fu
dunque il primo atto di guerra nella storia direttamente causato dal petrolio. È curioso notare, a distanza di tanti anni, come
nonostante tutto i giapponesi non avessero le idee molto chiare su quali fossero le priorità strategiche di una «guerra per il
petrolio». A Pearl Harbor c’erano serbatoi di carburante che
contenevano riserve sufficienti per rifornire la flotta americana
per due anni. Se i giapponesi avessero distrutto quei serbatoi,
fra l’altro bersagli facili e indifesi, forse la guerra nel Pacifico
sarebbe andata diversamente!
Dopo il gran rivolgimento della seconda guerra mondiale, il
mondo emerse diviso in due «blocchi», ognuno dei quali era
sostanzialmente autonomo in termini di risorse energetiche.
Da una parte l’Occidente, che aveva i pozzi degli Stati Uniti
come risorsa principale. Dall’altra l’Unione Sovietica che utilizzava pozzi siberiani e caucasici. Negli anni dopo la guerra i
due blocchi si sono confrontati aggressivamente, anche se per
fortuna nessuno dei due ha fatto l’errore monumentale che sarebbe stato attaccare l’altro. Si può interpretare l’assenza di un
conflitto aperto come dovuta al fatto che nessuno dei due bloc157
chi aveva bisogno delle risorse energetiche dell’altro. La situazione del conflitto del Pacifico non si ripeteva nel caso della
guerra fredda.
Tuttavia, le cose sono cambiate nel corso degli anni e il conflitto fra Est e Ovest si è evoluto di pari passo con l’esaurimento progressivo delle scorte di petrolio reciproche. È possibile
correlare molti degli eventi dagli anni 1950 a oggi con l’andamento dell’estrazione del petrolio. Nel 1971, la produzione petrolifera americana raggiungeva il suo massimo e cominciava a
declinare, rivelandosi insufficiente per rifornire l’espansione
economica occidentale. Negli stessi anni, invece, il petrolio sovietico rimaneva abbondante rispetto alle esigenze interne, ma
si sapeva che non sarebbe comunque durato in eterno.
A partire dal 1971, dunque, l’elemento cruciale della lotta
diventava il petrolio medio-orientale. Chi fosse riuscito a impadronirsene avrebbe dominato il mondo. Già prima di quel
tempo i sovietici avevano riconosciuto il valore strategico del
Medio Oriente e avevano cercato in tutti i modi di stabilirvisi,
creandosi stati alleati, pagando dittatori, mettendo su una flotta da guerra nel Mediterraneo. Non hanno avuto successo.
Guerre locali e le crisi del petrolio del 1973 e del 1979 hanno
cambiato poco al fatto che l’Occidente ha progressivamente e
inesorabilmente espulso i sovietici dal Medio Oriente. I regimi
filo-sovietici (quello di Gamal Nasser in Egitto per esempio)
sono stati sconfitti militarmente oppure si sono «convertiti» all’Occidente diventandone alleati.
In retrospettiva, era ovvio che i russi non avevano nessuna
speranza di riuscire a dominare il Medio-Oriente e questo per
motivi non tanto militari quanto economici. I paesi produttori
di petrolio avevano tutto l’interesse ad allearsi con quel blocco
che offriva il mercato migliore e questo era l’Occidente. Il mercato sovietico era troppo piccolo, semplicemente non c’era la
possibilità di offrire ai produttori gli stessi guadagni che potevano avere in Occidente. In un certo senso, l’Occidente si è
comprato il Medio Oriente e non poteva essere altrimenti.
Gli eventi di quegli anni hanno creato il mondo piú o meno
come lo vediamo oggi. Un mondo che diventava progressiva158
mente dominato dal petrolio medio-orientale e dove l’economia sovietica veniva sempre di piú marginalizzata. La spallata
finale all’Unione Sovietica fu anch’essa in gran parte una questione di petrolio. Negli anni 1980 l’URSS si era lanciata in una
difficile campagna militare per mantenere il controllo dell’Afghanistan ed era allo stesso tempo impegnata in un’ancora piú
difficile rincorsa del programma di «guerre stellari» voluto da
Ronald Reagan. Per coprire in parte le enormi spese militari,
l’Unione Sovietica si affidava all’esportazione di petrolio sul
mercato globale, a quel tempo ancora sotto l’effetto della grande crisi cominciata nel 1979.
Il crollo dei prezzi del petrolio nel 1986 mise l’URSS in grave
difficoltà. Secondo alcune interpretazioni, l’aumento di produzione da parte dell’Arabia Saudita, che fu uno dei fattori principali del crollo dei prezzi, fu richiesto ai sauditi dal governo
americano appositamente per causare il crollo dell’URSS. Non
si sa quanto ci sia di vero in questa ipotesi, ma è sicuro che la
caduta dei prezzi fece enormi danni all’URSS, probabilmente
molti di piú di quanti ne avesse fatti l’appoggio militare americano ai ribelli afghani.
Verso la fine degli anni ottanta, le spese militari avevano
mandato in bancarotta l’economia sovietica. Il crollo del sistema e il crollo della produzione petrolifera si verificarono contemporaneamente. Non è chiaro se una delle due cose abbia
causato l’altra, è comunque possibile interpretare gli eventi come dovuti all’impossibilità per la produzione di petrolio sovietico di tener dietro alle necessità dell’industria, sia civile che
militare. La disintegrazione dell’Unione Sovietica ha implicato
una profonda rivoluzione dei consumi petroliferi dei paesi
membri. Alcuni di loro hanno rotto i legami con la Russia e
hanno potuto accedere al petrolio del mercato internazionale.
Al contrario, in Russia, il crollo della produzione industriale la
riduzione del consumo per scopi militari hanno reso meno critica la situazione energetica. In aggiunta, l’introduzione di nuova tecnologia di estrazione occidentale ha reso possible aumentare di nuovo la produzione interna di petrolio, sia pure senza
raggiungere i livelli del periodo precedente alla caduta. Nella
159
seconda metà degli anni novanta la Russia è ridiventata un paese esportatore di petrolio e gas naturale. Sia le riserve (circa il
6% del totale mondiale) come la produzione di petrolio rimangono comunque piccola cosa rispetto a quelle medio-orientali.
Lo scontro fra i due massimi blocchi planetari è stato accompagnato da vari rivolgimenti e guerre locali in zone ricche
di petrolio. Molte di queste guerre, anche se non tutte, possono essere correlate al petrolio. Abbiamo già detto come lo scontro arabo-israeliano è principalmente uno scontro territoriale
non connesso, o perlomeno non direttamente connesso, al petrolio. Neanche la guerra Iran-Iraq, che ha fatto milioni di morti dal 1982 al 1988, sembrerebbe correlabile direttamente al
petrolio ma ancora a problematiche territoriali. Viceversa, la
guerra del Golfo del 1991 era chiaramente una questione di
petrolio. Era cominciata con una disputa di confine in cui l’Iraq aveva accusato il Kuwait di pompare petrolio dai pozzi della regione di Rumaila che si trovavano nel territorio iracheno.
L’Iraq, ridotto praticamente in bancarotta dalle enormi spese
della guerra contro l’Iran si trovava in una situazione estremamente difficoltosa e, come è avvenuto spesso nel corso della
storia, di fronte a un problema di difficile soluzione il governo
ha pensato di risolverlo con il ricorso alle armi. Questo portò
all’invasione del Kuwait da parte degli iracheni a agli eventi
ben noti che ne seguirono: la prima guerra del Golfo, dove una
coalizione di stati occidentali e arabi espulse gli iracheni dal
Kuwait in una breve e sanguinosa campagna militare. Questi
eventi sono ancora troppo vicini per essere sottoposti a un’intepretazione storica spassionata. Possiamo comunque dire che
uno dei fattori fondamentali che causò la guerra fu la preoccupazione, sia in Occidente sia in diversi paesi arabi, che l’Iraq
stesse diventando un paese troppo potente avendo usato le sue
considerevoli risorse petrolifere per armarsi di un esercito moderno e agguerrito.
La prima guerra del Golfo iniziata nel 1991 non è mai veramente finita. Bombardamenti del territorio iracheno da parte di
Stati Uniti e Gran Bretagna sono continuati fino al 2003. Nello
160
stesso periodo, l’embargo commerciale imposto dalle Nazioni
Unite ha causato enormi danni all’Iraq, forse superiori a quelli
combinati della guerra e dei bombardamenti. Secondo alcuni, la
malnutrizione e l’impossibilità di importare medicinali dovute
all’embargo ha causato oltre un milione di vittime, principalmente bambini, fra la popolazione civile irachena. Questa cifra
è controversa e forse esagerata, tuttavia i rapporti UNICEF17 dicono che dopo l’embargo la mortalità infantile in Iraq è enormemente aumentata. Nel 2003, l’Iraq era un paese impoverito e
affamato, il cui sistema industriale e militare era obsoleto e allo
sbando quasi totale. L’invasione da parte di Stati Uniti e Gran
Bretagna ha concluso perlomeno un ciclo anche se non è detto
che abbia messo la parola fine alla guerra nella zona.
Nella grande confusione di tutte queste guerre, possiamo
cercare un filo logico che ci possa portare a fare qualche previsione su quello che ci aspetta nel futuro. Soprattutto, il problema oggi è cercare di capire se l’invasione dell’Iraq del 2003 deve essere considerata come un punto di arrivo o soltanto l’inizio di un ciclo di guerre che è iniziato, in effetti, con l’attacco
all’Afghanistan nel 2002.
Semmai la guerra all’Iraq ha avuto una caratteristica particolare: la fantasia e la spregiudicatezza con le quali il governo
americano è saltato da una giustificazione all’altra senza preoccuparsi troppo della coerenza o di portare prove a sostegno
delle tesi sostenute. Fra le varie giustificazioni addotte abbiamo sentito parlare di lotta al terrorismo, di scontro di civiltà,
lotta contro l’integralismo islamico, di lotta alle armi di distruzione di massa, di democratizzazione dell’Iraq, di liberazione
delle minoranze shiite o kurde, di «quarta guerra mondiale» e
forse anche altre cose.
Cosa dobbiamo pensare di queste giustificazioni? Per quanto riguarda la principale, quella della minaccia delle «armi di
distruzione di massa», dopo la conclusione della guerra è difficile non sentirsi imbrogliati pensando a quando sui giornali,
nei mesi prima della guerra, si potevano vedere cartine con i
«siti nucleari iracheni» dove ci veniva raccontato che gli scienziati iracheni erano al lavoro per costruire armi nucleari. Può
161
darsi che fra qualche tempo leggeremo sui giornali di chissà
quali armi mostruose rinvenute da qualche parte in Iraq sepolte sotto la sabbia. Questo non cambierà il fatto che la guerra
stessa ha dimostrato che l’Iraq di Saddam Hussein non era una
minaccia per nessuno. Non era per questa ragione, evidentemente, che la guerra è stata fatta. Le altre giustificazioni sono
ancora meno credibili e se si volesse tirar fuori a questo punto
la questione dell’11 settembre non si vede come l’Iraq potesse
entrarci qualcosa.
L’unica giustificazione per la guerra che il governo americano ha sempre evitato di dare, anzi che ha sempre negato esplicitamente, è stata il petrolio. Lo stesso non si può dire per la
stampa, sia a livello popolare sia per quanto riguarda la stampa
vicina alla destra politica (vedi per esempio l’articolo di Lowry
su The New Republic, uno dei primi a sostenere che bisognava
invadere i paesi arabi per «prendersi il petrolio»18). Non solo
la stampa americana, ma anche quella europea ha ripetuto e
amplificato il concetto di guerra per «prendersi il petrolio».
Mentre per alcuni il fatto di invadere un altro paese per portarsi via le sue risorse era fonte di indignazione morale, per altri era un’idea brillante. Fra un sogghigno e una strizzatina
d’occhio, certa stampa invitava i lettori a non farsi imbambolare dalle varie scuse ufficiali ma a rallegrarsi perché il petrolio
presto non sarebbe stato piú in mano agli infidi arabi ma agli
affidabili tecnici occidentali delle multinazionali petrolifere. Il
concetto di «andare a prendersi il petrolio» è stato ripetuto ed
elaborato molte volte fino a diventare un forte elemento propagandistico a favore della guerra per molta gente, e non solo i
possessori di SUV, che sembra aver creduto in buona fede che
l’invasione dell’Iraq avesse lo scopo di far abbassare il costi
della benzina.
A parte i piccoli problemucci morali implicati dall’idea di
invadere un paese per rapinarlo, queste speranze non avevano
molto fondamento. I costi del petrolio non sono diminuiti dopo l’invasione né possiamo aspettarci che diminuiscano a breve scadenza. In un certo senso, quando il governo americano
negava di voler invadere l’Iraq per portarsi via il petrolio aveva
162
delle buone giustificazioni. A che pro, in effetti, invadere l’Iraq per costringerlo a fare qualcosa che gli iracheni stessi chiedevano disperatamente di fare dal 1991, ovvero vendere agli
occidentali quanto piú petrolio possibile? Non c’è bisogno di
fare conti troppo dettagliati per capire che, in termini puramente economici, l’invasione dell’Iraq del 2003 è stata un pessimo affare, almeno a breve termine.
La prima guerra del Golfo, nella sua fase acuta nel 1991,
costò leggermente piú di 60 miliardi di dollari che furono suddivisi fra i vari paesi che parteciparono all’impresa e da quelli
che li appoggiarono. Secondo le stime ufficiali del governo
americano, l’invasione del 2003 è costata 75 miliardi di dollari,
quasi tutti pagati dagli Stati Uniti. In realtà è costata sicuramente molto di piú, pensiamo solo che gli Stati Uniti spendono oggi circa 400 miliardi di dollari all’anno per spese militari,
per la maggior parte giustificate in termini di «lotta al terrorismo» e di «sicurezza delle forniture petrolifere», in entrambi i
casi si parla di Medio Oriente. Secondo alcuni, il costo dell’invasione si situa piuttosto su valori intorno ai 200 miliardi di
dollari, altri hanno parlato di cifre veramente da capogiro, fra i
1.000 e i 2.000 miliardi di dollari se l’occupazione militare dovesse essere mantenuta per qualche anno in condizioni di
un’opposizione armata da parte di una popolazione ostile.
Di fronte a queste cifre, il guadagno che si può ottenere con
il petrolio iracheno è poca cosa, almeno per ora. L’Iraq produceva prima dell’invasione un po’ meno di 1 miliardo di barili
all’anno, dopo l’invasione produceva zero barili. Ammesso di
riuscire a tornare in tempi brevi ai valori di prima dell’invasione, ai 30 dollari al barile attuali la produzione irachena potrebbe restituire un incasso annuale di circa 25-30 miliardi di dollari. Non è chiaro quale frazione di questo introito potrebbe
essere destinata al pagamento delle spese dell’invasione e dell’occupazione militare del paese, di certo gran parte di questi
proventi dovrebbero andare verso la ricostruzione dell’infrastruttura produttiva dell’Iraq distrutta dalla guerra, senza la
quale non si può pensare di produrre nulla a lungo. Comunque si gestisca questo petrolio, in ogni caso, è chiaro che ci vor163
rebbero parecchi anni solo per far pari con i costi bellici. Se si
riesce ad aumentare la produzione dell’Iraq a 3 gigabarili all’anno, come si pensa di riuscire a fare, si potrà parlare di un
profitto forse fra dieci anni, o forse in tempi ancora piú lunghi.
In effetti, l’invasione dell’Iraq ha portato grossi danni all’economia americana che ha perduto quasi mezzo milione di posti
di lavoro nei mesi precedenti l’attacco e che si trova oggi con
un deficit di bilancio spaventoso e mai riscontrato nella storia
recente.
Dobbiamo allora dare ragione a Tolstoj quando diceva che
la guerra è accaduta «perché doveva accadere?». Forse, e potremmo anche pensare, come alcuni hanno detto, che in effetti
la guerra all’Iraq non aveva nessuna giustificazione particolare.
L’Iraq, come l’Afghanistan, è stato scelto unicamente perché
era un nemico particolarmente debole dal punto di vista militare, indebolito com’era da dodici anni di sanzioni e di bombardamenti. L’unica ragione della guerra, secondo questa interpretazione, era l’intenzione di Bush di guadagnare popolarità per farsi rieleggere nel 2004. Può darsi che ci sia qualcosa
di vero in questa idea, ma non spiega come mai Bush non abbia deciso di invadere, per esempio, il Burundi.
In realtà, possiamo trovare una logica nell’invasione dell’Iraq, una logica correlata al petrolio, se solo spostiamo la visione su una scala dei tempi piú lunga e consideriamo il petrolio
non come un fine in sé, ma come un mezzo per ottenere (o
mantenere) il predominio economico e militare a livello mondiale. Questa interpretazione deve essere spiegata in un certo
dettaglio.
Cominciamo dal punto iniziale: la scala dei tempi. È abbastanza ovvio che molte decisioni a livello governativo vengono
prese da politici che ragionano su un orizzonte di tempi che
non va oltre le elezioni in vista, ovvero qualche anno al massimo. Tuttavia, questo non vuol dire che i governi democratici
non seguano delle strategie a lungo termine. Per rendercene
conto basta pensare al progresso dell’Unione Europea che è
stata costruita in cinquant’anni di lavoro e di sforzi comuni. Ci
sono state diverse incertezze e rallentamenti da parte di singoli
164
politici e governi, ma nel complesso l’idea di Europa è andata
sempre avanti, nonostante il fatto che probabilmente ben pochi politici abbiano guadagnato direttamente voti dimostrando
ai loro elettori di supportare (o aver supportato) l’Europa. Ci
sono molti altri esempi di comportamento coerentemente strategico a lungo termine da parte di stati e governi, basti pensare
all’impero britannico che è stato gestito dai vari governi che si
sono susseguiti come se fosse un’impresa commerciale per tutto il secolo (o giú di lí) della sua esistenza.
Ora, un punto fondamentale del comportamento dei governi dei paesi occidentali è che le azioni governative per essere
efficaci devono avere un certo consenso da parte dell’opinione
pubblica. Questo consenso può essere rinforzato dalla propaganda dei media, ma in generale anche la propaganda deve basarsi su qualche cosa di preesistente, qualche insieme di idee
che ha già in qualche modo trovato terreno fertile perlomeno
in quella categoria di persone che i pubblicitari definiscono
opinion leaders. Raggiungere gli opinion leaders, poi, richiede
necessariamente una comunicazione aperta e pubblica. Per
quanto criticabili siano certe specifiche azioni (per esempio,
appunto, l’invasione dell’Iraq) queste sono il risultato di un dibattito precedente dove le varie fazioni hanno espresso pubblicamente le loro convinzioni. A volte sono singoli intellettuali
che esprimono le loro idee, pensate per esempio all’effetto valanga che ha avuto Karl Marx col suo Das Kapital. Piú spesso
negli Stati Uniti sono i vari «serbatoi di pensiero» (think tanks)
o fondazioni accademiche a esprimersi con i cervelli migliori
del paese che ragionano sulle strategie politiche e militari a lungo termine.
I politici nelle loro azioni seguono spesso le indicazioni delle
think tanks e delle fondazioni, in parte per il prestigio ad esse
associato, ma in parte perché sanno che il pensiero delle think
tanks è già stato esposto a un dibattito pubblico, è stato raffinato, ed è stato presentato all’opinione pubblica e agli opinion leaders, sui quali ha già avuto un certo impatto. Seguendo queste
linee, il politico sa di non scontrarsi direttamente con un’opinione pubblica sfavorevole. Sa anche che questo pensiero può
165
formare la base per un’azione propagandistica diretta a rinforzare certi punti. Non solo, ma le think tanks sono spesso finanziate da potenti gruppi industriali (come del resto a volte lo sono i politici) per cui il pensiero espresso è di conseguenza concepito per la soddisfazione delle esigenze economiche dei gruppi industriali stessi. Ne consegue che le azioni dei politici possono avere una coerenza a lungo termine perché si basano su un
tipo di pensiero che per sua natura ragiona su tempi lunghi.
Sulla base di tutto ciò, possiamo cercare le basi della guerra
all’Iraq nel pensiero precedente delle varie fondazioni e think
tanks americane. Qui, non è difficile trovare il bandolo della
matassa nella posizione espressa dal gruppo di intellettuali americani che si sono definiti «neoconservativi» e che nel 1997 hanno dato vita al «Progetto per il Nuovo Secolo Americano»
(PNAC)19. Fra i firmatari del PNAC c’erano molti politici che nel
2000 hanno occupato posizioni ad altissimo livello nel governo
Bush: fra di essi Donald Rumsfeld (segretario alla difesa) Richard Cheney (vicepresidente) e altri come Richard Perle e
Paul Wolfowitz, alti esponenti del dipartimento della difesa. Si
può supporre che dalla loro attuale posizione queste persone
siano oggi in grado di agire per mettere in pratica quello che
hanno proposto come membri del PNAC.
Questo è quello che si può leggere nella prima pagina del
sito del PNAC cosí come era visibile su Internet nel maggio del
2003.
The Project for the New American Century is a non-profit educational
organization dedicated to a few fundamental propositions: that American leadership is good both for America and for the world; that such leadership requires military strength, diplomatic energy and commitment to
moral principle; and that too few political leaders today are making the
case for global leadership.
.
(Il progetto per un nuovo secolo americano è un’organizzazione senza
scopo di lucro dedicata a pochi concetti fondamentali: che il comando
americano è una cosa buona sia per l’America che per il mondo; che tale
comando richiede potenza militare, energia diplomatica e adesione ai
principi morali e che troppo pochi sono i leader politici di oggi che si
impegnano per il comando globale).
166
In altre parole, i neoconservativi del PNAC, insieme ad altri
gruppi della destra americana, sostengono la dominazione
mondiale da parte degli Stati Uniti da ottenersi con mezzi militari. In sostanza è la teoria dell’«impero americano» o, se si
preferisce, della «pax americana» ottenuta con la forza delle
armi. Secondo i proponenti, la dominazione mondiale americana avrebbe un benefico effetto per tutti, portando ricchezza
e democrazia ai diseredati del mondo attualmente oppressi e
sfruttati dai vari dittatori tipo Saddam Hussein. Non lanciamoci qu in un giudizio di merito su questa idea che è, come
minimo, controversa, anche se non priva di una certa attrattiva. Diciamo solo che metterla in pratica in questi termini potrebbe rivelarsi problematico anche per chi in buona fede ci
crede, ma non addentriamoci su questo argomento.
Andando piú in dettaglio nella proposta del PNAC, possiamo cercare di capire quali azioni sono programmate per ottenere questa dominazione planetaria. Nel documento principale disponibile nel sito del PNAC «Ricostruire la difesa americana» del 1998 possiamo leggere:
Al momento attuale, gli Stati Uniti non fronteggiano nessun rivale globale.
La strategia americana a lungo periodo dovrebbe essere diretta a conservare e estendere questa situazione di vantaggio il piú a lungo possibile.
Quella proposta dal PNAC è dunque un’azione sostanzialmente
di prevenzione. Gli Stati Uniti, secondo il PNAC, devono operare in modo tale da non trovarsi mai piú in una situazione di
stallo di fronte a una potenza militarmente equivalente come
lo era stata l’Unione Sovietica nella seconda metà del ventesimo secolo. Ovvero, gli Stati Uniti devono evitare con ogni mezzo che sorga uno stato o una coalizione di stati in grado di sfidare la loro dominazione planetaria. Questo concetto è stato
anche definito la «Dottrina Wolfowitz», dal nome del numero
due del Dipartimento della difesa Paul Wolfowitz, uomo chiave del gruppo di collaboratori di Bush che definiscono la politica estera del governo americano. Un articolo del 12 aprile
2001 di Ben Wattenberg sul Washington Times esprime la dottrina Wolfowitz in questi termini:
167
... stare attenti che non emergano superpotenze regionali ostili, per esempio l’Iraq o la Cina. L’America è il numero 1. Noi siamo per qualcosa di
decente e di importante. Quello che è bene per noi è bene per il mondo
e cosí le cose devono restare.
Brutale, se vogliamo, ma perlomeno è chiaro. Da qui abbiamo già qualche indicazione su chi sono i possibili obbiettivi di
questa azione di prevenzione, in questo caso l’Iraq e la Cina.
Secondo quello che si può leggere in altri documenti disponibili, sembrerebbe che i nemici principali siano i rogue states
(stati canaglia), ovvero paesi che comprendono quelli che Bush ha definito come «l’asse del male», Iran, Corea del Nord e
Iraq. Cosí come sono oggi, questi paesi non sono certamente
in grado di minacciare militarmente gli Stati Uniti, ma lo potrebbero se si dotassero di armi nucleari o di altre «armi di distruzione di massa».
Dietro i tre paesi dell’«asse del male» si intravedono altri
nemici, descritti sia nei documenti del PNAC sia nelle varie pubblicazioni della destra americana: l’Arabia degli infidi sauditi,
la Libia del perfido dittatore Gheddafi, la Siria che avrebbe
dato rifugio alle «armi di distruzione di massa» irachene. In
sostanza, a parte la Corea del Nord, sembrerebbe che il nemico piú temuto dal PNAC e dagli altri siano gli stati arabi nella
loro totalità. Il nemico vero e proprio, parrebbe, è quel «panarabismo» che era la bandiera del grande cattivo Osama bin
Laden e che voleva gli arabi uniti in nome dell’Islam contro il
maligno impero degli infedeli occidentali. Un’interpretazione
che parrebbe confermata dalla evidente impostazione anti-araba e anti-islamica del sito del PNAC come pure dall’atteggiamento della destra fondamentalista americana che vede gli attuali eventi come una nuova crociata della cristianità contro
l’Islam.
Sembrerebbe possibile dunque interpretare l’invasione dell’Afghanistan e quella dell’Iraq come volte a stroncare sul nascere qualsiasi tentativo di pan-arabismo, o pan-islamismo, ovvero bloccare sul nascere ogni tentazione da parte dell’Iran o
dell’Arabia Saudita di dotarsi di armi atomiche. Entro certi limiti è pensabile che anche a livello governativo americano mol168
ti vedano le cose in questo modo in buona fede. Per alcuni, in
effetti, questa è una posizione fortemente ideologica dove l’Islam stesso è visto come una religione «diabolica», da stroncare e distruggere cosí come in un secolo di lotta il comunismo è
stato stroncato e distrutto. Secondo questa interpretazione,
l’importanza del petrolio nella guerra del 2003 esiste ma è solo
indiretta. Infatti, è il petrolio che rende pericolose le dittature
come quelle di Saddam Hussein in quanto fornisce i mezzi economici necessari per gli armamenti e per diventare quel tipo di
sfida che secondo la strategia del PNAC è assolutamente necessario prevenire.
Come sempre tuttavia, le cose non sono semplici come sembrano e potrebbero esserci sotto ragioni ben piú profonde e
complesse di quelle che abbiamo descritto. Se l’obbiettivo americano nell’invadere l’Iraq era di prevenire la formazione di
una lega pan-araba, si potrebbe anche dire che non se ne vedeva il bisogno pressante e che, anzi, le azioni scelte potrebbero
essere controproducenti. Per oltre cinquant’anni dopo la seconda guerra mondiale, gli stati arabi non hanno mostrato nessuna tendenza a formare un’Unione Araba paragonabile all’Unione Europea, a parte qualche tentativo da parte del presidente libico Gheddafi, subito abortito. Il fondamentalismo e il
pan-arabismo di Osama bin Laden non avevano avuto nessuna
presa sugli arabi in generale, meno che mai sui loro governi.
Per quanti danni abbia potuto fare Osama bin Laden, le sue
invocazioni alla guerra santa e all’aumento dei prezzi del petrolio sono cadute completamente nel vuoto. L’altro «grande
cattivo», Saddam Hussein, era come minimo sopravvalutato, e
le sue armate si sono rivelate ben poco pericolose. Se l’obbiettivo americano era di fermare un pan-arabismo ispirato all’Islam, o l’Islam stesso, che senso poteva avere eliminare un governo secolare come quello iracheno di Saddam Hussein? Al
contrario la caduta di Hussein ha in effetti dato fiato alle ambizioni integraliste dei vari gruppi shiiti e sunniti all’interno
dell’Iraq che potrebbero poi rivelarsi piú ostili all’Occidente
di quanto non lo sia stato Saddam Hussein.
Ritorniamo dunque alla «dottrina Wolfowitz» di prevenzio169
ne della formazione di qualsiasi stato o coalizione di stati che
potrebbero minacciare la supremazia degli Stati Uniti. Abbiamo già visto come la Cina sia stata menzionata come uno di
questi stati. Indubbiamente, la Cina sembra un nemico ben piú
credibile e pericoloso di quanto potrebbero essere i deboli e
divisi paesi arabi. Con un miliardo di abitanti e tassi di crescita
del 6% all’anno la Cina sta espandendosi a un ritmo tale che si
prevede che il suo prodotto interno lordo sorpasserà quello
degli USA già nel secondo decennio del secolo.
Per quanto se ne può dire dai documenti cinesi che arrivano in Occidente20, sembrerebbe ovvio che la Cina si sta preparando a un duro confronto strategico, economico e militare
con gli Stati Uniti. Fin dai tempi della prima guerra del Golfo,
nel 1991, i cinesi hanno notato la politica degli Stati Uniti e
hanno cominciato a lavorare per prepararsi a questo confronto. Sicuramente hanno letto anche loro i documenti del sito
del PNAC. Il bombardamento dell’ambasciata cinese a Belgrado nel 1998 da parte della NATO non ha fatto altro che rinforzare la percezione di un Occidente ostile e aggressivo e ha spinto i cinesi a ulteriori sforzi di preparazione.
Il realtà, tuttavia, la Cina non è l’unico possibile competitore degli Stati Uniti. L’altro blocco che si sta formando, e che
forse è anche piú preoccupante per gli USA a breve scadenza, è
quello dell’Unione Europea. Con l’espansione della «zona euro», l’Unione Europea rappresenterà nel 2004 quasi mezzo miliardo di persone e un prodotto interno lordo di quasi 10 trilioni di dollari, solo marginalmente piú basso di quello degli
USA. Se la Gran Bretagna entrerà a farne parte, la zona euro
rappresenterà un blocco economico piú importante di quello
USA.
A differenza della Cina, per ora i paesi europei non sembrano considerarsi in conflitto con gli Stati Uniti. Parrebbe che
non tutti qui da noi abbiano guardato il sito del PNAC dove, a
onor del vero, la questione di uno scontro diretto fra Europa e
USA è menzionata solo di sfuggita. Tuttavia la stampa americana, e in particolare riviste legate alla destra come il The New
Republic hanno spesso espresso posizioni duramente critiche
170
verso l’Europa e preso in considerazione l’ipotesi di un conflitto economico e anche militare fra Europa e USA. Lo stesso Donald Rumsfeld, segretario alla difesa USA, non è stato tenero
nel 2003 quando ha bollato come «vecchia Europa» quegli stati europei, e in particolare la Francia, che si sono rifiutati di
appoggiare l’invasione dell’Iraq. Lo scontro su questo punto
ha portato negli Stati Uniti a una campagna di stampa di incredibile virulenza contro la Francia e al boicottaggio dei prodotti francesi. Con proprietari di ristoranti che si facevano fotografare mentre buttavano nel cesso la loro collezione di beaujolais d’annata, ci siamo trovati di fronte qualcosa che non si vedeva dal tempo della guerra mondiale, quando i tedeschi venivano definiti come gli «unni» e tutto quanto aveva origine tedesca veniva rifiutato.
Negli Stati Uniti, sembra, nessuno si vergogna troppo di
esprimere opinioni «antieuropeiste», mentre qui da noi l’accusa di «antiamericanismo» è tuttora un marchio di infamia che
tutti cercano di evitare. Comunque, la guerra contro l’Iraq del
2003 ha portato a un contrasto abbastanza duro fra USA e Europa che alla fine di aprile 2003 è sfociato nella proposta della
costituzione di un esercito comune da parte di un gruppo di
stati europei (includenti, come ovvio, la Francia). L’ulteriore
sviluppo dell’euro e delle istituzioni europee potrebbe portare
a una maggiore compattezza strategica europea che potrebbe
trovarsi anche nella condizione di opporsi in modo ben piú efficace agli USA di quanto non sia riuscita a fare nel 2003.
Vediamo dunque come gli Stati Uniti si trovano oggi di fronte esattamente allo scenario che i neoconservatori del PNAC vorrebbero evitare, ovvero un mondo in cui gli Stati Uniti fronteggiano due blocchi economici di peso equivalente o superiore e che potrebbero rappresentare anche una sfida militare.
Con soli 280 milioni di abitanti (metà di quelli della zona euro,
meno di un terzo di quelli della Cina) gli USA potrebbero trovarsi in tempi abbastanza brevi soltanto terzi in un mondo tripolare. Abbiamo visto che il PNAC parla di «prevenire» lo sviluppo di questi blocchi, ma come esattamente riuscirci? Un
«attacco preventivo» come quello contro l’Iraq del 2003 sem171
brerebbe impensabile contro la Cina o contro la Francia o l’Unione Europea. Si potrebbe allora pensare a una strategia di
prevenzione indiretta? Sia la Cina che l’Europa sono forti importatori di petrolio medio-orientale. Potrebbe il controllo del
petrolio del Medio Oriente fornire agli Stati Uniti un’arma strategica sufficiente per mantenere l’attuale predominio economico e militare?
Su questo punto è istruttivo esaminare il rapporto del National Energy Policy Development Group pubblicato il 17 maggio 2001, a firma del vicepresidente Richard Cheney21 che, ricordiamo, era anche uno dei firmatari del manifesto del PNAC
del 1997. Nel rapporto si dice che il risparmio energetico o le
fonti alternative non saranno sufficienti per sostenere l’economia USA da qui al 2020-2030, e pertanto che:
L’economia globale continuerà a dipendere dal rifornimento di petrolio
dai paesi membri dell’Organizzazione dei paesi esportatori di petrolio
(OPEC), in particolare nella regione del Golfo. Questa regione rimarrà vitale per gli Stati Uniti.
Possiamo notare il dettaglio che è l’economia globale che dipende dal petrolio OPEC ma che la regione è vitale per gli Stati
Uniti, come ripetuto anche in altri punti del rapporto. Da questo consegue che per gli Stati Uniti è una priorità strategica
mantenere l’accesso a queste risorse. Ovviamente, il rapporto
Cheney non dice che per mantenere questo controllo e accesso
è necessario invadere l’Iraq, ma questo è proprio quello che è
successo, e Cheney stesso è stato uno dei principali sostenitori
dell’invasione. Siamo come minimo giustificati a sospettare che
fra le due cose esista una correlazione.
Evidentemente non avrebbe senso sobbarcarsi i costi di
un’invasione per il controllo strategico di una risorsa vitale se
non si fosse preoccupati che questo controllo potrebbe finire
in mano ad altri. Chi potrebbe contendere agli Stati Uniti il
petrolio del Medio Oriente nell’arco dei prossimi vent’anni?
Probabilmente non a caso, nel rapporto Cheney del 2001 si fa
vedere un grafico che prevede che il consumo energetico della
Cina dovrebbe piú che raddoppiare fra oggi e il 2020. L’unica
172
possibilità per la Cina di sostenere una crescita di questo genere sarebbe di ottenere questa energia sotto forma di petrolio
dal Medio Oriente. Ovviamente se questo petrolio fosse sotto
il controllo diretto degli Stati Uniti, la Cina si troverebbe in
una situazione strategica molto svantaggiosa, per certi versi simile a quella del Giappone verso la fine degli anni trenta.
L’Unione Europea si troverebbe altrettanto svantaggiata dall’acquisizione del controllo strategico del petrolio medio-orientale da parte degli Stati Uniti. In effetti, nel quadro del conflitto dollaro-euro possiamo notare come i governi europei si sono schierati a favore o contro l’attacco all’Iraq a seconda della
loro posizione rispetto all’euro. Quelli favorevoli alla guerra
(anche a costo di ignorare l’opinione prevalente dei loro cittadini) erano o fuori dalla zona euro (Gran Bretagna e stati dell’Est europeo) oppure non erano mai stati entusiasti dell’euro
(Italia in primo luogo). Al contrario, i governi che sono al centro della zona euro (Francia, Germania e altri) hanno fatto blocco compatto contro la guerra voluta dagli USA.
La competizione fra euro e dollaro è cominciata prima della guerra all’Iraq ed è strettamente correlata alla competizione
per le risorse petrolifere. Immediatamente dopo la nascita dell’euro molti paesi avevano cominciato a considerare la possibilità di cambiare le loro riserve monetarie da dollari a euro. In
particolare, se ne era cominciato a parlare nei paesi OPEC che
fino ad allora avevano trattato il petrolio in dollari. Se i paesi
OPEC avessero veramente cambiato in massa la valuta per le
transazioni petrolifere, il danno per gli Stati Uniti non sarebbe
stato soltanto di prestigio, ma economico diretto e devastante
nel senso che avrebbe potuto significare una migrazione verso
i paesi euro dei capitali mondiali (9,7 trilioni di dollari) attualmente investiti negli Stati Uniti. Visto in questa ottica, l’attacco all’Iraq del 2003 acquista improvvisamente un nuovo significato se notiamo come nel 2002 era stato proprio l’Iraq di Saddam Hussein il primo dei paesi OPEC a convertirsi all’euro. Uno
«sgarro», evidentemente, che non si poteva ignorare. L’Iran
era un altro paese che stava considerando di passare all’euro e
può darsi che l’invasione dell’Iraq ai suoi confini sia servita co173
me avvertimento. Secondo questa interpretazione, la guerra
contro l’Iraq del 2003 è in effetti una «guerra per la valuta»
per mantenere il controllo delle risorse petrolifere del Medio
Oriente22,23. Si potrebbe profilare, in effetti, l’uso del petrolio
come arma strategica, un’arma che sarebbe enormemente piú
efficace nelle mani di una grande potenza economica e militare
come gli Stati Uniti di quanto non lo sia stata nel passato nelle
mani delle deboli economie medio orientali. Ricordiamo, di
passaggio, come nel 2002 il governo iracheno di Saddam Hussein aveva tentato in imporre un mini-embargo petrolifero contro l’Occidente. Questo embargo non è risultato molto piú efficace di quanto lo sia stato l’esercito iracheno nel contrastare
l’invasione americana.
Dove potrebbe portarci un conflitto di questo tipo? Entrando in questo tipo di argomenti ci si addentra in un campo
minato. In linea di principio il petrolio potrebbe essere sfruttato in vari modi come arma. Si può pensare a un aumento generalizzato dei prezzi che metterebbe in grave difficoltà economie come quella europea che hanno scarse risorse energetiche
interne. Al limite, la grave crisi economica che ne conseguirebbe potrebbe causare la sparizione dell’euro e addirittura la disintegrazione dell’Unione Europea che farebbe la fine che aveva fatto l’Unione Sovietica nel 1989. Si può anche pensare, al
contrario, a un forte ribasso dei prezzi con lo scopo di preservare le riserve strategiche americane, la cui estrazione a quel
punto diventerebbe antieconomica. In questo caso, lo scopo
strategico sarebbe molto piú sottile e a piú lunga scadenza. Con
il petrolio regalato o quasi l’Europa e la Cina perderebbero
ogni incentivo a rendersi energeticamente indipendenti, salvo
poi trovarsi senza risorse (al contrario degli Stati Uniti) al momento dell’esaurimento del petrolio medio-orientale.
Tutti questi ragionamenti sanno molto di fantapolitica e non
è il caso di elucubrarci sopra piú di tanto. Limitiamoci a dire
che al momento attuale le economie di Cina, Europa e Stati
Uniti sono strettamente interconnesse (non per nulla viviamo
in un mondo globalizzato), per cui una guerra economica del
tipo che abbiamo descritto è quasi impensabile. Il danno eco174
nomico fatto a un paese sarebbe devastante anche per gli altri,
incluso quello che sta usando il petrolio come arma. Le cose
potrebbero cambiare nel caso si sviluppasse una situazione di
grave carenza di produzione di petrolio dovuta o al progressivo esaurimento delle risorse o, piú bruscamente, agli effetti distruttivi di una guerra contro un nemico piú solido e piú agguerrito dell’Iraq come potrebbe essere, forse, l’Iran. È già successo nel 1979 quando il mondo è precipitato nella piú grave
(per ora) crisi petrolifera della storia per via di una guerra che
ha azzerato per un certo periodo le capacità produttive iraniane. È probabile che non sia lontano il momento in cui questo
petrolio potrebbe non essere sufficiente per soddisfare le esigenze di Cina, Unione Europea e Stati Uniti allo stesso tempo.
In questo caso, potremmo trovarci in una condizione di
competizione brutale tipo «mors tua, vita mea», in cui chi controlla il petrolio medio-orientale potrebbe considerare che i
danni dovuti al crollo della globalizzazione sarebbero comunque poca cosa rispetto alla disperata necessità di energia per il
proprio sistema economico. Le conseguenze di uno scenario
del genere sono al momento impossibili da immaginare e si
può solo sperare che non si verifichi mai.
Le sfide sono sul tavolo e nel futuro, comunque la si metta,
certi nodi verranno al pettine. Di fronte a una carenza di risorse, la logica vorrebbe che ci si mettesse d’accordo per spartirle.
Tuttavia, non è cosí che fanno gli sciacalli davanti a una carcassa spolpata, e non è cosí che hanno fatto normalmente i governi di fronte alla competizione per delle risorse insufficienti per
tutti. Basta ricordare, come un esempio particolarmente disastroso, l’idea nazista del lebensraum, lo «spazio vitale», un concetto in nome del quale sono stati commessi crimini fra i piú
efferati che la storia ricordi.
Per cinquant’anni siamo vissuti in una situazione di relativa
abbondanza di petrolio e, nonostante tutto, anche di pace. Le
cose potrebbero cambiare nel futuro e i recenti eventi in Iraq
hanno reso evidente come scenari che sembravano una volta
impossibili possano diventare poi la realtà dei fatti. Non sarà
per l’anno prossimo, nemmeno fra due anni, e forse nemmeno
175
fra dieci, ma prima o poi dovremo confrontarci con una situazione di scarsità di petrolio e con la tentazione per qualcuno di
prendersi tutto quello che rimane con la forza delle armi.
Che fare allora? Serve a poco sventolare bandiere colorate.
Dobbiamo invece riconoscere che se lasciamo tutto come sta
andremo prima o poi incontro a una guerra per le risorse che
potrebbe essere devastante. Per cui, se vogliamo evitare nuove
guerre bisogna cominciare a pensare di ridurre o eliminare la
nostra dipendenza dal petrolio. Ci sono modi per farlo, solari
o nucleari che siano, se soltanto vogliamo investirci sopra. A
lungo andare dobbiamo per forza arrivare a un mondo senza
petrolio e potremmo anche riuscire ad arrivarci senza traumi.
Un mondo cosí potrebbe essere piú pacifico e piú pulito di
quello in cui ci tocca vivere oggi.
176
Si può vivere senza petrolio?
Da quanto abbiamo visto finora, dovrebbe essere abbastanza chiaro che i combustibili fossili stanno facendo danni enormi, non solo per l’inquinamento ma anche per le guerre e le
instabilità politiche che causano. Inoltre, sono anche in via di
esaurimento e possiamo ormai contare solo su qualche decennio (al massimo) di consumi al livello al quale siamo abituati.
In pratica può darsi benissimo che ci troviamo già da ora di
fronte a una crisi di produzione che è il preludio di quel temuto declino che dovrà ben arrivare prima o poi.
Si tratta allora di vedere il problema alla radice, di pensare
l’impensabile: si può vivere senza petrolio? Sembra impossibile, ma prima o poi, per forza, ci dovremo arrivare. Dai dati disponibili, è evidente che dovremo arrivarci sicuramente entro
il ventunesimo secolo, e forse già entro la prima metà di questo secolo. Possiamo fare a meno del petrolio e sviluppare sorgenti alternative in tempi di questo ordine di grandezza?
L’energia da sostituire
Quello che ci proponiamo di discutere adesso è la possibilità di sostituire al 100% i combustibili fossili nel panorama
energetico mondiale. Si tratta dunque di rivedere per prima
cosa la situazione attuale. La maggior parte dei dati che seguo177
no sono presi dal rapporto «statistiche energetiche» del 2000
dell’International Energy Agency (IEA)24. In questo rapporto
(come in generale nella letteratura scientifica su questo argomento) viene definita una grandezza denominata «fornitura totale di energia primaria» (Total Primary Energy Supply o TPES),
ovvero la somma dell’energia prodotta da tutte le varie fonti
esistenti. Nel 2000 il TPES mondiale era di circa 10.000 megatonnellate equivalenti (MTOE) di petrolio, ovvero 1,2x108 GWh
(gigawattore). In effetti il petrolio greggio da solo rappresenta
il 35% del TPES e la somma di tutti i combustibili fossili (greggio + gas + carbone) ne rappresenta oltre il 75% (per l’esattezza il 76,2%). Il rimanente comprende l’energia nucleare (6,8%)
la biomassa (legno e altro) per l’11,1%, e le fonti rinnovabili,
fra le quali l’energia idroelettrica è la piú consistente con il
2,3% mentre tutto il resto (solare, eolico, ecc.) rappresenta solo lo 0,5%.
Per lo scopo che ci siamo prefissi, tuttavia, sarebbe troppo
semplicistico considerare il solo TPES che rappresenta energia
«primaria» ma non quella che viene effettivamente utilizzata
dagli utenti finali. Quando compariamo, per esempio, l’energia elettrica fornita da un pannello fotovoltaico con quella fornita da una centrale nucleare dobbiamo stare attenti a comparare l’energia elettrica prodotta per entrambi i casi (ovvero l’energia «a valle»). Se invece considerassimo la «potenza» dell’impianto, ovvero il calore generato, dovremmo tener conto
che una centrale nucleare ha un rendimento di conversione a
energia elettrica dell’ordine del 30%. Ora, il TPES misura appunto la potenza a monte, mentre la grandezza che ci interessa
in fin dei conti è la «potenza a valle», ovvero quella che viene
effettivamente utilizzata. Questa potenza a valle viene detta anche «consumo totale finale» (Total Final Consumption, o TFC).
Come è ovvio, siccome nessun impianto è efficiente al 100%
il TFC mondiale deve essere minore del TPES. Infatti, il TFC è di
circa 7.000 MTOE contro i 10.000 MTOE del TPES. Di queste
7.000 MTOE possiamo stimare che circa il 75% è derivato da
combustibili fossili. Il compito che abbiamo di fronte, dunque,
è di esaminare come si potrebbe rimpiazzare il 75% di 7.000
178
ovvero 5.250 MTOE (6x107 GWh, ovvero 6x104 TWh)
di energia con fonti non fossili. In termini di potenza installata, per un utilizzo degli impianti di 8.000 ore l’anno, avremmo
bisogno di qualcosa come 8x103 GW (o, meglio detto, 8x103
GWe per rendere esplicito che si tratta di energia «a valle»).
Per chiarezza, ripetiamo che questo valore include l’energia
mondiale totale «all’utenza» e non solo l’energia elettrica, che
è molto minore e viene stimata, per esempio, da Muneer et al25
come di circa 1,4x107 GWh/anno nel 1998 per tutto il mondo.
Il calcolo sviluppato qui sopra è solo una «fotografia» della
situazione attuale e non tiene conto dei possibili risparmi energetici nei paesi OCSE che tenderebbero a ridurlo, e neanche –
viceversa – della crescita generale dei consumi energetici. È
ovvio che nessun sistema tecnologico concepibile potrebbe tener dietro alle richieste di energia di una società che cresce a
ritmo esponenziale per un secolo o piú. Su queste scale di tempi, comunque, ogni estrapolazione (e specialmente un’estrapolazione esponenziale) è resa del tutto aleatoria da alcuni fenomeni in corso la cui evoluzione è difficile da valutare. Uno è la
«implosione» della popolazione che secondo le tendenze attuali dovrebbe arrivare a un massimo intorno ai 9-10 miliardi
di persone verso il 2050 per poi diminuire. L’altro è il cosiddetto «disaccoppiamento» ovvero un fenomeno tipico dei paesi industrializzati che continuano ad accrescere il loro prodotto lordo mentre al contempo tendono a stabilizzare i loro consumi energetici. Dobbiamo comunque tener conto dell’esigenza di fornire a tutta la popolazione terrestre una quantità di
energia che consenta una vita almeno dignitosa.
I paesi OCSE (i paesi «ricchi») consumano oggi circa la metà
del totale di energia prodotta per una popolazione che è solo il
17% di quella mondiale (dati IEA, ibid.). Per portare il resto del
mondo a un livello pari a quello dell’OCSE bisognerebbe aumentare la produzione dell’energia mondiale di circa un fattore 5.
In quest’ottica potremmo considerare desiderabile una stabilizzazione dei consumi energetici dei paesi ricchi (che sembra stia comunque avvenendo) mentre occorrerebbe aumentare i consumi dei paesi poveri a un livello perlomeno dignitoso.
MTOE,
179
Considerata la stabilizzazione della popolazione in atto, arriviamo alla conclusione che non sarà né possibile né necessario
mantenere il presente aumento esponenziale della crescita economica, e di conseguenza della produzione energetica, da qui
a circa la fine del secolo. Va detto che alcuni economisti considerano assolutamente essenziale mantenere un tasso di crescita
economico per la sopravvivenza stessa della nostra civiltà26. Su
questo punto non ci addentriamo in questa sede e nelle stime
che seguono per semplicità considereremo soltanto i consumi
attuali. Il lettore potrà poi estrapolare a suo piacimento moltiplicando i risultati per dei fattori che tengono conto delle sue
proprie stime di crescita (o di collasso).
Risparmio energetico
Il primo, e il piú semplice, metodo per ridurre la nostra dipendenza dal petrolio e dagli altri combustibili fossili consiste
semplicemente nell’utilizzarli di meno. Questo concetto, il risparmio energetico, ha assunto il valore di una vera e propria
fede per il movimento ambientalista. Tuttavia, anche se molti
sono d’accordo con questa idea, sembra che nessuno voglia fare sacrifici per risparmiare. Non vogliamo, in altre parole, tornare alle candele e al bucato a mano sulla riva dei fiumi (anche
se c’è qualcuno che sostiene proprio questo). Vorremmo piuttosto mantenere il nostro stile di vita consumando meno. Ovvero, vorremmo che la tecnologia ci aiutasse ad utilizzare in
modo piú efficiente l’energia che consumiamo.
Sembrerebbe ovvio, in effetti, che di tutta l’energia che consumiamo parecchia va sprecata. Tutti i sistemi energetici sono
sostanzialmente inefficienti, ce lo dice il secondo principio della termodinamica. Può darsi che vi faccia impressione pensare
che in una tipica automobile oltre l’80% del valore energetico
della benzina va sprecato in calore. Ancora piú impressionante
pensare che il 20% che viene utilizzato serve per spingere la
tonnellata o piú di peso del mezzo, mentre il guidatore in media pesa neanche cento chili. L’efficienza totale del trasporto
180
automobilistico su strada è dunque poco piú dell’1%. Quando
si dice lo spreco! E questo non è il solo spreco macroscopico.
Pensate, per esempio, come il petrolio viene estratto, trasportato (con già una perdita di un buon 20% dell’energia totale).
Poi viene bruciato in una centrale per produrre energia elettrica (efficienza tipicamente dell’ordine del 35%). Dopo di questo viene trasportato mediante linee ad alta tensione agli utenti
domestici (con ulteriori perdite dell’ordine del 10%). Finalmente, qualcuno usa questa energia per azionare una stufetta
elettrica, magari in una casa senza isolamento termico, senza
doppi vetri, e senza che ce ne sia veramente bisogno. Il tutto
ha un’efficienza cosí bassa che taluni hanno chiamato l’intero
processo una «strage termodinamica».
È possibile ridurre questa strage? Evidentemente sí. Vale la
pena rivedere allora come usiamo tutta questa energia per individuare possibili strategie di risparmio. In sostanza, abbiamo
bisogno di quattro tipi di energia: elettrica, chimica, termica e
meccanica.
Energia elettrica
Forse la cosa piú interessante dell’attuale accelerazione del
cambiamento tecnologico è la nostra crescente abilità nel controllare il movimento degli elettroni. I tempi sono molto cambiati da quando i greci avevano notato che un pezzo d’ambra
(elektron) strofinata su un pezzo di tessuto aveva la capacità di
attrarre piccoli oggetti. Era anche quella una proprietà degli
elettroni, tuttavia l’elettricità statica è rimasta un fenomeno curioso e del tutto inutile per oltre due millenni. Il lavoro dei chimici e dei fisici a partire dall’Ottocento ha portato a capire come gli elettroni potevano essere accumulati e trasmessi attraverso conduttori. La lampadina di Edison rappresentò un punto cruciale di questo movimento. Deve essere stata una rivoluzione incredibile per coloro che hanno visto arrivare per la prima volta l’elettricità domestica nei primi decenni del ventesimo secolo: poter girare un interruttore e illuminare a giorno
una stanza in qualsiasi momento. Per centomila anni, i nostri
181
antenati avevano dovuto accontentarsi di lampade di pietra dove si bruciava grasso animale. La generazione che ha visto arrivare l’elettrificazione in Europa è ormai scomparsa, ma ci sono
ancora zone del mondo che ancora non l’hanno vista. L’entusiasmo dei Cinesi per la loro diga delle tre gole che manderà
sott’acqua una valle ricca di tesori culturali sembra incredibile
a noi occidentali sofisticati. Lo si capisce però se si pensa, appunto, alla magia della luce elettrica che la diga delle tre gole
genererà per decine (forse centinaia) di milioni di cinesi.
L’energia elettrica da sola potrebbe bastare per tutte le nostre necessità. Potremmo usare macchine elettriche per il trasporto e resistenze elettriche per il riscaldamento. Potremmo
anche trovare modi per usare l’energia elettrica per condurre
processi chimici. Un mondo «tutto elettrico», come lo si pensava negli anni della decade del 1950 avrebbe dei vantaggi e
sarebbe senz’altro piú pulito del nostro. Non lo possiamo fare
per via di un punto fondamentale: l’energia elettrica è un’energia «nobile» che si può generare solo indirettamente e che pertanto costa cara. Nella pratica, nei paesi ricchi, l’energia elettrica rappresenta circa un terzo dei consumi totali, molto meno nei paesi poveri.
L’energia elettrica viene prodotta principalmente partendo
da combustibili fossili, con l’eccezione di alcuni paesi che, come
la Francia, hanno scelto il nucleare. In ogni caso il punto fondamentale è cercare di vedere di produrla con la massima efficienza possibile. Per questo scopo il problema è sempre lo stesso,
ovvero trasformare un tipo di energia in un’altra. Nella maggior
parte dei casi si tratta di trasformare energia termica in energia
elettrica, un processo che abbiamo detto in precedenza essere
poco efficiente.
Nella pratica, quasi tutta l’energia elettrica al mondo viene
generata in due stadi: dapprima trasformando l’energia termica in energia meccanica e da questa in energia elettrica. La trasformazione dell’energia meccanica in elettrica si fa mediante
congegni ben noti: dinamo o alternatori molto efficienti, 80%
e oltre. Per questo l’efficienza totale del processo da calore a
elettricità è determinata principalmente dall’efficienza del mo182
tore termico del primo stadio. Motori di grandi dimensioni sono piú efficienti, per cui si tende a concentrare la produzione
di energia elettrica in grandi centrali piuttosto che crearla vicino agli utenti, anche a costo di perdere un’ulteriore frazione di
energia per il trasporto sulle linee elettriche (l’efficienza del
trasporto sulle linee ad alta tensione può essere del 90% su distanze dell’ordine dei 50-100 km).
Per grandi centrali, il motore piú tipico utilizzato per la trasformazione è la turbina a vapore. La centrale stessa, che può
essere a petrolio, a carbone, o nucleare, è semplicemente un
grande bollitore che genera vapor d’acqua surriscaldato. Utilizzando grandi impianti e facendo buon uso delle economie
di scala si può arrivare ad efficienze dell’ordine del 40% o superiori nella produzione finale di energia elettrica. Tenendo
conto anche del trasporto e della distribuzione, l’energia che
arriva alle prese elettriche di casa ha perso circa il 70% dell’energia originariamente contenuta nei combustibili che l’hanno
generata. Questo non è un cattivo risultato: generarsela da sé
in cantina avrebbe piú o meno la stessa efficienza ma costerebbe di piú in termini di investimento.
Per produrre energia elettrica si usano anche turbine a gas,
in questo caso i grandi impianti hanno rendimenti nettamente
superiori a quelli delle piccole turbine utilizzate per i mezzi di
trasporto. Il sistema piú efficiente è quello basato su una combinazione di turbina a gas e turbina a vapore, che viene detto
«turbina a ciclo combinato». Qui i gas caldi in uscita dalla turbina a gas vanno a riscaldare una caldaia che produce vapore
acqueo che a sua volta alimenta una turbina a vapore. Un sistema di questo genere, se utilizzato sulle scale delle centinaia
di megawatt può avere efficienze dell’ordine del 60% o anche
superiori.
Riscaldamento degli edifici
Il riscaldamento domestico si ottiene principalmente bruciando direttamente i combustibili fossili: sempre piú spesso si
usa il metano, ma in certi luoghi si usa ancora carbone o nafta.
183
Bruciare combustibili fossili è il sistema piú economico per
scaldarsi ma non certamente un metodo perfetto. Bruciare
combustibili all’interno delle case implica sistemi complessi di
trasporto e distribuzione con grossi problemi di sicurezza e di
inquinamento da perdite. Non solo, ma il controllo della combustione in una miriade di impianti dispersi è difficile, per cui
una grossa frazione dell’inquinamento urbano è dovuta agli
impianti di riscaldamento domestico. Per risolvere questi problemi negli anni cinquanta si parlava della casa «tutta elettrica», scaldata da resistenze elettriche, dove si cucinava su fornelli elettrici e, ovviamente, tutti gli elettrodomestici erano elettrici. Era uno dei tanti sogni di quegli anni quando si preconizzava energia talmente a buon mercato che non sarebbe neanche valsa la pena di farla pagare agli utenti. Può darsi che esistano ancora, da qualche parte, case tutte elettriche negli Stati
Uniti, ma la realtà dei costi energetici le ha rese impensabili.
Non vale la pena usare energia di alta qualità, nobile appunto,
come quella dei potenziali elettrici, per scopi assai poco nobili
come il riscaldamento della casa.
Se bruciare direttamente combustibili fossili è ben piú efficiente dell’uso delle costosissime resistenze elettriche, allo
stesso tempo rappresenta comunque uno spreco. I bassi prezzi dei combustibili fossili ci hanno abituato a vivere in case
molto calde (anche troppo per la nostra salute) e a non preoccuparci troppo di concetti che i nostri antenati consideravano essenziali: per esempio orientare la casa con le finestre
verso sud, usare muri spessi e altri piccoli accorgimenti che
hanno permesso ai nostri avi di vivere per secoli senza neanche sapere che cosa fosse il «riscaldamento centrale».
Trasporti
Nel caso dei trasporti, nella maggior parte dei casi utilizziamo dei motori che trasformano energia termica ottenuta
da combustibili fossili in energia meccanica utilizzata per far
girare ruote o eliche. L’efficienza di questi motori è molto variabile a seconda delle dimensioni e delle condizioni d’uso ma
184
comunque è approssimativamente proporzionale alle differenze di temperature che si possono generare nel motore stesso. Un motore automobilistico a ciclo Otto (ovvero a benzina) può avere un’efficienza di poco superiore al 20%. Un motore diesel è leggermente piú efficiente. Nel caso dei motori a
turbina l’efficienza non è molto superiore (un po’ meno del
30% per piccole turbine) ma li si usano tipicamente per applicazioni aeronautiche a causa del buon rapporto fra peso e
potenza, nettamente superiore a quello dei motori a ciclo Otto o diesel. I motori elettrici sono molto piú efficienti (circa
l’80%) ma il problema dei veicoli elettrici stradali è il peso
delle batterie che li rende poco pratici. Assai migliore è l’efficienza dei treni che però, ovviamente, viaggiano solo su rotaie e per questa ragione sono molto costosi da gestire, specialmente per brevi tragitti.
Nel complesso i sistemi di trasporto attuali sono quanto di
meno efficiente si possa vedere su questo pianeta un po’ disgraziato. Ci spostiamo utilizzando mezzi capaci di raggiungere velocità che la legge proibisce esplicitamente. Questa capacità poi si paga non solo in termini di motori sovradimensionati, ma anche in termini del peso (e del conseguente consumo
di energia) di una struttura di sicurezza (freni, airbag, carrozzeria rinforzata, eccetera) concepita per velocità che il mezzo
non raggiungerà mai o solo molto raramente, e comunque illegalmente.
Sprechiamo quantità incredibili di energia non solo per colpa dell’uso di motori inefficienti, ma per veicoli di peso e prestazioni del tutto sproporzionati alle loro necessità. Inoltre ci
troviamo di fronte all’assurdità del concetto stesso di trasportare tutti i giorni masse di persone dal luogo «A» al luogo «B»
la mattina per poi la sera fare il tragitto inverso. Lo scopo di
tutto questo movimento nella maggior parte dei casi è di portare la persona a mettersi a sedere a una sedia e una scrivania
situata nel luogo «B» per fare un lavoro che si potrebbe fare
altrettanto bene nel luogo «A».
185
Energia chimica
Esiste tutta una serie di consumi energetici che possiamo
chiamare «indiretti». Per esempio, l’agricoltura moderna è fortemente basata su fertilizzanti artificiali che non potrebbero
esistere senza combustibili fossili. L’alta resa di quella che è
stata chiamata la «rivoluzione alimentare» è infatti basata sui
fertilizzanti artificiali e, in misura minore, sulla disponibilità di
insetticidi e diserbanti. Il complesso ciclo metabolico delle
piante è basato in gran parte sulla fotosintesi, il processo inverso alla combustione che trasforma il biossido di carbonio dell’aria in idrocarburi e altri composti del carbonio. Questa però
non è la sola reazione che trasforma sostanze inorganiche in
sostanze organiche. Le molecole organiche che formano piante
e animali contengono anche azoto ottenuto dall’atmosfera mediante un processo che a volte si chiama «fissazione dell’azoto», dove l’azoto atmosferico viene trasformato dapprima in
composti con l’ossigeno (nitrati) e poi in tutti i composti necessari alla vita. È un processo eseguito da batteri specializzati,
richiede energia ed è poco efficiente. L’idea dei fertilizzanti artificiali è di fornire direttamente azoto alle piante in forma di
nitrati. Far reagire l’azoto atmosferico direttamente con l’ossigeno dell’aria è un processo energeticamente costoso ma è possibile alle alte temperature ottenibili mediante i combustibili
fossili. Nella pratica lo si ottiene attraverso processi chimici
detti di «reforming» dove si parte dalla reazione fra metano e
acqua.
I fertilizzanti artificiali sono la base dell’agricoltura moderna
che è fortemente energivora. C’è poi l’energia necessaria per sintetizzare insetticidi e diserbanti (anche questi ottenuti dal petrolio). Ci sono poi gli imballaggi, la refrigerazione e altri trattamenti. In fine i costi energetici per le macchine agricole e il trasporto delle derrate hanno un loro grosso peso. Alla fine dei
conti, si calcola che solo il 10% dell’energia necessaria per fare
apparire un prodotto alimentare sui banchi di un supermercato
venga dal sole che irradia i campi, il resto arriva quasi tutto dall’energia creata dal petrolio e dai combustibili fossili.
186
Da quello che abbiamo detto, evidentemente, si può fare
molto per risparmiare energia. In sostanza si tratta di intervenire sugli sprechi piú macroscopici. In pratica, è probabile che
il riscaldamento domestico rappresenti lo spreco piú ovvio e
risolvibile che abbiamo di fronte. Isolare le nostre abitazioni,
fabbriche e uffici rappresenta una soluzione semplice ed efficace. Per molti, in effetti, il concetto di doppi vetri ha assunto
un valore quasi mistico: grazie ad essi è possibile risparmiare
energia per il riscaldamento domestico in modo sostanziale.
L’esperienza tedesca delle «case passive» ha dimostrato, per
esempio, che si può vivere confortevolmente in case del tutto
prive di riscaldamento anche in climi freddi.
Anche senza andare al concetto di «energia zero» per il riscaldamento, si può intervenire con molta efficacia su due
aspetti dello spreco: quello del calore e quello dell’energia. Si
tratta di sviluppare un concetto diventato recentemente molto
popolare: quello di «generazione distribuita», ovvero «cogenerazione»27. L’idea è di generare energia elettrica insieme a energia termica il piú possibile vicino all’utente. Pensando al concetto di economia di scala, questo sembrerebbe un approccio
perdente, in realtà è un’idea eccellente che ottimizza l’intero
sistema energetico tenendo conto che l’utente non ha bisogno
solo di energia elettrica ma anche di calore.
Abbiamo detto che in una centrale elettrica tradizionale
(turbina a vapore) gran parte dell’energia termica generata dai
combustibili fossili non solo va sprecata, ma crea anche grossi
problemi di inquinamento termico. La centrale deve essere raffreddata e l’acqua calda dopo l’utilizzo deve essere smaltita in
qualche maniera. Per centrali veramente molto grandi, questo
può cambiare il microclima locale e causare grossi danni all’ambiente. Tuttavia, il calore si trasporta male a grandi distanze. L’energia elettrica si può trasportare senza grossi problemi
fino a qualche centinaio di chilometri di distanza, quella termica al massimo per poche centinaia di metri.
L’idea della cogenerazione si basa esattamente su questo
concetto. Generando l’energia vicino all’utente con un piccolo
impianto si perde qualcosa in termini di efficienza, ma si gua187
dagna enormemente nel complesso dato che il calore generato
non viene buttato via ma utilizzato per il riscaldamento. Un sistema di cogenerazione ben studiato può avere un’efficienza
anche del 90%! Si calcola che tenendo conto del risparmio di
energia per il riscaldamento, il costo di un impianto di cogenerazione per un isolato abitativo o per un edificio industriale
può essere ammortato in pochi anni.
Nella pratica le cose non sono cosí perfette. Per esempio in
estate tutto il calore generato in eccesso non serve, anzi deve essere dissipato in qualche modo. Quando invece è l’energia elettrica a essere generata in eccesso, allora si pone il problema di
farne qualcosa. Non aiuta in questo caso la politica delle compagnie elettriche che vedono gli impianti autonomi di cogenerazione come pericolosi concorrenti e che cercano in tutti i modi
di sabotarli. Per esempio, in Italia è possibile costruirsi un impianto di cogenerazione proprio (sia pure con molteplici e complesse pratiche burocratiche) ma è molto difficile vendere l’energia prodotta a terzi, cosa che evidentemente rende la gestione dell’impianto meno economica di quanto potrebbe essere.
La cogenerazione rimane comunque un concetto fondamentale che potrebbe e dovrebbe essere incoraggiata dal punto di vista legislativo (invece che essere scoraggiata come si fa
attualmente). Se la cogenerazione fosse estensivamente applicata e accoppiata con provvedimenti di isolamento termico,
potremmo risparmiare oltre il 50% dei nostri attuali consumi
per il riscaldamento degli edifici, ovvero almeno il 15% dei
nostri consumi totali. Non poco, considerando la difficoltà che
abbiamo di raggiungere gli obbiettivi del trattato di Kyoto che
prevedevano per l’Italia solo un 6,5% di riduzione.
In teoria, esistono buone possibilità di risparmiare anche nel
campo dei trasporti. Un primo aspetto è l’intervento a livello
tecnologico con motori piú efficienti. Per esempio, rimpiazzando motori a benzina con pile a combustibile alimentate dall’idrogeno potremmo raddoppiare l’efficienza energetica, tuttavia
è una soluzione per il momento ancora costosa. Già oggi sarebbero possibili soluzioni tecnologiche che potrebbero rendere i
veicoli attuali meno inquinanti e meno energivori. Per il mo188
mento, tuttavia, il mercato si è rifiutato di assorbirle. La perdita
di potenza, velocità e autonomia che deriva dal passare a veicoli
piú leggeri e meno potenti è stata giudicata totalmente inaccettabile dagli utenti. Questo deriva da una visione del veicolo che
rimane a tutt’oggi piú un simbolo di potenza che un oggetto d’uso. A fronte di questo atteggiamento, il movimento ecologista
non ha saputo contrapporre altro che una visione romantica e
poco pratica della bicicletta e del trenino a vapore, molto spesso
disprezzando apertamente ogni tentativo di migliorare i veicoli
privati. Purtroppo la situazione non sembra destinata a cambiare in tempi brevi se non come risultato di un possibile drastico
aumento dei costi dei carburanti.
Ben maggiori risparmi potremmo ottenere incoraggiando
una razionalizzazione dei trasporti: spostarci di meno e a distanze minori, il che renderebbe fra le altre cose la vita piú facile e piú bella per tutti. Anche questo, per quanto possa apparire logico, si scontra con una serie di interessi e poteri che allo stato attuale delle cose lo rendono un’utopia.
Per finire, possiamo considerare la situazione dell’agricoltura, un argomento che di solito non si menziona per una specie di pudore ma che è, ovviamente, ancor piú fondamentale
del riscaldamento domestico e del costo della benzina. C’è chi
ha detto che non dobbiamo preoccuparci dell’agricoltura dato
che rappresenta solo una piccola frazione (circa il 5-6%) del
prodotto nazionale lordo. Vero, ma non possiamo mangiare il
petrolio e neanche Internet.
Possiamo ridurre l’uso dei fertilizzanti artificiali in agricoltura? Molti sostengono di sí. È il concetto dell’«agricoltura biologica». Altri ritengono l’idea un’utopia. Secondo alcuni se dovessimo fare a meno dei fertilizzanti artificiali, la produzione
agricola ritornerebbe ai livelli dell’Ottocento, quando riusciva
a mala pena a dare da mangiare a un miliardo di persone. Dato che oggi siamo sei miliardi, le conseguenze sono preoccupanti per non dire altro...
Senza addentrarci nella questione, rimane il fatto che il problema dell’agricoltura è stato colpevolmente trascurato negli
ultimi decenni, riricorrendo alla facile soluzione dei fertilizzan189
ti artificiali. Anche per quanto riguarda il risparmio energetico, l’agricoltura è stata trascurata. Soltanto oggi si comincia a
parlare di agricoltura a basso consumo energetico. Non è l’agricoltura ad alto valore aggiunto che produce prodotti ad alto
costo come i vini toscani, ma un’agricoltura che cerca di mantenere le alte rese che sono necessarie usando il meno possibile l’energia che viene dai combustibili fossili. Alcuni risultati
sembrano indicare che è una strada percorribile ma è ancora
presto per capire dove ci potrebbe portare.
Alla fine dei conti, lavorando seriamente sul risparmio energetico, il consumo di combustibili fossili potrebbe essere ridotto del 20-30% senza grossi problemi. Secondo alcuni si potrebbe fare anche molto di piú e non sarebbe impossibile dimezzare i nostri consumi senza perdere niente della qualità della nostra vita, anzi guadagnandoci qualcosa. Se questo è indubbiamente possibile da un punto di vista teorico, bisogna anche
tener conto del fatto che nella pratica paesi come l’Italia non
sono riusciti a ridurre l’uso dei combustibili fossili. Questo nonostante gli sforzi di molti ambientalisti ben intenzionati e nonostante l’impegno esplicito preso dal governo italiano nell’ambito del protocollo di Kyoto. Evidentemente le tendenze
del mercato sono tali che una riduzione volontaria dei consumi è molto difficile. Anche se gli utenti si rendono conto che il
risparmio rappresenta per loro un vantaggio economico, sembra estremamente difficile convincerli che vale la pena di risparmiare. Il sistema economico nel quale viviamo è costruito in
buona parte sul concetto di spreco come indice di status sociale. Non si spiegherebbe altrimenti come, per esempio, la maggior parte degli automezzi privati in uso siano cosí grossolanamente sovradimensionati rispetto alle necessità reali.
Lo spreco sembra essere una costante del nostro mondo.
Comunque, anche senza questa tendenza, il risparmio energetico non risolve i problemi alla radice. Anche se riuscissimo a
dimezzare i consumi di combustibili fossili, dovremmo pur
sempre bruciarne una bella quantità. Raddoppieremmo, è vero, la durata delle nostre scorte, ma queste comunque non sarebbero eterne. In altre parole, anche tenendo conto del ri190
sparmio energetico non possiamo trascurare la necessità di produrre energia primaria.
La rinascita del nucleare?
Rivisto oggi ci può apparire inverosimile l’entusiasmo con
cui negli anni cinquanta si era accolto l’inizio dell’«era nucleare». Eppure se ne possono capire le ragioni: basta pensare che
per ogni atomo di U-235 che si scinde si libera un’energia che
è qualcosa come 50 milioni di volte piú grande di quella che si
libera per la combinazione di un atomo di carbonio con l’ossigeno, quel processo che chiamiamo combustione. Quindi, nessuna meraviglia se negli anni cinquanta qualcuno si era lasciato
prendere dall’entusiasmo preconizzando addirittura energia
elettrica «too cheap to meter», ovvero cosí a buon mercato che
non sarebbe valsa neanche la pena di farla pagare ai consumatori. L’energia nucleare sembrava trascendere i limiti planetari,
prometteva non solo energia abbondante e a costo zero, ma
anche la conquista dello spazio con astronavi capaci di raggiungere Saturno in una settimana28.
È superfluo dire che queste promesse non si sono avverate.
L’arresto dello sviluppo dell’energia nucleare a partire dagli anni
ottanta non è stato dovuto alle proteste di ambientalisti in zoccoli e dai capelli lunghi ma a una serie di problemi tecnologici, politici ed economici che si sono rivelati estremamente ostici da risolvere. Oltre ai problemi causati dalla radioattività, le difficoltà
di stoccaggio delle scorie e il rischio di proliferazione, il problema principale era in fin dei conti il fatto che il costo dell’elettricità nucleare era piú alto di quella ottenibile con i combustibili
fossili. In effetti, fino a pochi anni fa si riteneva che le scorte di
petrolio e gas naturali potessero durare ancora per secoli, pertanto si poteva addurre un’argomentazione molto semplice contro il nucleare: dato che costa piú caro, perché prendersi i rischi
e i costi?
Tuttavia, oggi la situazione è cambiata nuovamente con un
ritorno di interesse verso il nucleare. L’energia nucleare non
191
emette CO2 nell’atmosfera, o almeno non direttamente, e promette di risolvere il problema della crisi di disponibilità di petrolio. Questa nuova valutazione cambia profondamente tutti
gli scenari energetici e rimette in discussione tutto quanto poteva sembrare acquisito solo pochi anni fa.
Le conseguenze della nuova situazione sono state intuite
per la prima volta da due scienziati giapponesi, Nitta e Yoda in
un articolo apparso già nel 1995 su Technological Forecasting
and Social Change29. Usando proiezioni da loro stessi sviluppate, Nitta e Yoda prevedevano il «punto critico» della disponibilità petrolifera al 2005, stimando anche che i costi del petrolio sarebbero aumentati a partire dai primi anni del ventesimo
secolo. Sulla base di queste proiezioni, l’argomento di Nitta e
Yoda era inverso e opposto a quello sostenuto dagli antinuclearisti: dato che il petrolio sta scarseggiando e che sta causando gravi danni al pianeta, ne consegue che occorre sviluppare l’energia nucleare. Di conseguenza, l’argomentazione sulla necessità di un ritorno al nucleare è stata ripresa da molti
autori (in Italia, per esempio, da Paolo Fornaciari in una serie
di articoli apparsi a partire dal 2000 su L’Opinione).
Le argomentazioni per il ritorno al nucleare, tuttavia, sono di solito basate su scenari a breve termine e non sulle conseguenze e i problemi di un massiccio aumento del numero
di reattori. È ben noto, invece, come i problemi di scaling up
siano cruciali nello sviluppo di qualsiasi tecnologia. Aumentare le dimensioni, o il numero, o la potenza, di qualsiasi tipo
di impianti porta normalmente a delle economie di scala che
riducono i costi. Esistono però dei limiti a questa tendenza,
oltre una certa misura esistono altrettanto bene delle diseconomie di scala. Un esempio evidente è quello del trasporto
su strada: costruire un certo numero di automobili aumenta
la mobilità dei cittadini e riduce i costi del trasporto. Oltre
un certo numero, però, anche se ogni singola macchina costa
di meno (economia di scala) il costo del trasporto aumenta
per via degli ingorghi e della congestione (diseconomia di
scala).
Nel caso della fissione nucleare, dobbiamo vedere se è pos192
sibile incrementare la produzione energetica delle centrali a livelli tali da sostituire i combustibili fossili senza incappare in
diseconomie di scala. La questione è tecnicamente molto complessa ed esaminarla in dettaglio andrebbe ben oltre gli scopi
di questo libro. Gli studi che hanno affrontato l’argomento della sostituzione completa dei combustibili fossili, comunque,
sono rari eccetto pochi casi che hanno dato origine a notevoli
controversie. Si può citare il lavoro di Garwin30 che appare su
Internet (http://www.fas.org/rlg) e quello di Storm van
Leeuwen e Smith apparso per la prima volta su Energy Policy
nel 1985, rivisto e corretto in seguito e pubblicato su Internet
(http://behee.oprit.rug.nl/deenen)31,32. Entrambi questi articoli
esprimono forti perplessità sulla possibilità che la fissione nucleare tradizionale possa sostituire i combustibili fossili e in
particolare che possa portare a una riduzione significativa delle emissioni di CO2. L’articolo di Leeuwen e Smith è stato fortemente criticato in un testo anonimo pubblicato su internet
dalla WNA (World Nuclear Association)33, cosa che ha dato origine a una contro-risposta molto dettagliata da parte degli stessi autori, sempre sul loro sito Internet.
Per dare al lettore un’idea di quello di cui stiamo parlando
e per convincerlo che c’è una solida base per dire che l’espansione della tecnologia nucleare potrebbe portare a grossi problemi, possiamo citare qui il fisico nucleare Carlo Rubbia, premio Nobel per la fisica. Ecco quello che ha detto Rubbia in un
articolo pubblicato su Aspenia nel 200234:
... per soddisfare interamente la richiesta energetica mondiale odierna ci
vorrebbero risorse dell’ordine di 0,8 milioni di tonnellate di uranio naturale all’anno. Le risorse minerarie conosciute sono pari a 4,1 milioni di
tonnellate, eventualmente estendibili a 15 milioni di tonnellate a un prezzo accettabile. È quindi evidente che le risorse energetiche uranifere sono largamente inferiori a quelle dei combustibili fossili e che un’economia basata sull’uso preponderante del nucleare classico non è sostenibile. [...] Ma il vero tallone di Achille di un uso massiccio del nucleare è
quello delle scorie radioattive [...] Nell’alternativa di un ritiro progressivo dal nucleare, il deposito geologico potrebbe essere considerato come
adeguato, ma esso diventa problematico qualora il nucleare fosse portato
a un livello tale da alleviare sostanzialmente l’effetto serra.
193
È evidente che l’ottimismo «ufficiale» dell’industria nucleare deve essere preso – come minimo – con molta cautela. Anche senza addentrarci nei dettagli degli studi che abbiamo citato, possiamo tuttavia provare a fare una valutazione di massima della tecnologia della fissione nucleare nell’ipotesi che dovessimo trovarci obbligati a sostituire i combustibili fossili con
reattori nucleari in tempi relativamente brevi, dell’ordine di
qualche decennio al massimo. Questa valutazione non può essere che semi-quantitativa, ovvero è possibile stimare che certi
costi saranno senz’altro piú alti (o piú bassi) di altri ma non
avrebbe senso cercare di stimarli in termini monetari attuali.
Semplicemente, cerchiamo di esporre e discutere quelli che
potrebbero essere i problemi tecnologici, politici e – soprattutto – di costi di una vasta espansione del numero dei reattori
nucleari a livello mondiale mantenendo sostanzialmente la stessa tecnologia dei reattori attuali, ovvero reattori a uranio arricchito ad acqua leggera (Light Water Reactors, LWR). Il risultato
della discussione è che esistono enormi problemi sia tecnologici che economici che rendono improponibile in pratica un’espansione della produzione di energia dalla fissione nucleare ai
livelli considerati.
Come abbiamo detto all’inizio di questo capitolo, rimpiazzare l’energia dei combustibili fossili vuol dire rimpiazzare
6,2x107 GWh all’anno di energia. In media, la «taglia» di un
reattore nucleare corrisponde a circa 1 GWe di potenza nominale. Utilizzato per 8.000 ore all’anno, questo vuol dire produrre circa 8x103 GWh all’anno per reattore. Ne consegue che
dovremmo costruire qualcosa come 8.000 reattori da 1 GWe.
Garwin (citato prima) arriva a un totale di 9.000 reattori sulla
base di considerazioni simili. Un’altra valutazione si può basare sul valore del totale dell’energia prodotta oggi dai circa 500
reattori nucleari in servizio attualmente, che è di 2.500 TWh
(2,5 x 106 GWhe) all’anno. Per ottenere 6,2 x 107 GWh occorrono circa 9.000 reattori di potenza media equivalente a quelli
esistenti.
I costi attuali degli impianti nucleari sono variamente riportati nella letteratura. Si va da valori ottimistici dell’ordine di 1
194
miliardo di dollari35 per GWe a 3-4 miliardi di dollari per GWe.
Nella letteratura si trova abbastanza spesso il dato che un impianto nucleare di 1 GW costa 3 miliardi di dollari, secondo altri (per esempio van Leeuwen e Smith, ibid.) il costo è piú vicino ai 4 miliardi. Comunque, siccome è dagli anni ottanta che
non si costruiscono impianti, è difficile stimare quanto potrebbe costare oggi un impianto nuovo. Maloney e Diaconu36 riferiscono che l’agenzia atomica russa Minatom ha in vendita impianti da 1 GW a 2,2 miliardi di dollari l’uno, ma secondo gli
autori si tratta di una cifra artificialmente bassa per motivi politici.
Comunque sia, l’investimento per la costruzione dell’impianto è il maggior costo dell’energia nucleare. Tale costo viene ammortato sul tempo di vita dell’impianto, che è limitato in
quanto la radioattività finisce per danneggiare i componenti.
Si ritiene che un reattore nucleare dovrebbe essere smantellato
dopo una quarantina di anni di servizio (la durata esatta non è
nota, nessun reattore commerciale oggi ha piú di quaranta anni). I costi dello smantellamento e della bonifica del sito dovrebbero essere aggiunti al costo dell’elettricità prodotta, ma
siccome nessun grande reattore è mai stato smantellato (né tantomeno il sito bonificato, ammesso che questo sia possibile),
nessuno sa quanto il processo costerebbe in effetti, e pertanto
questi costi non vengono considerati. Per tutte queste ragioni,
il costo effettivo dell’elettricità nucleare è affetto da fortissime
incertezze e potrebbe essere in pratica molto piú alto di quanto le stime «ufficiali» indicano. Non è impossibile, pertanto,
che l’energia nucleare venga venduta sottocosto per ragioni politiche o strategiche.
Su questa base, costruire 9.000 reattori nucleari costerebbe
dai 10 mila ai 30 mila miliardi di dollari, e forse anche molto di
piú. Su un arco di tempo di qualche decennio abbiamo di fronte una spesa che possiamo approssimare a 1.000 miliardi di
dollari all’anno circa. Questo è un costo comparabile a quanto
l’umanità spende al giorno d’oggi per petrolio e gas naturale e
varrebbe certamente la pena di pagarlo se in questo modo potessimo liberarci dalla dipendenza dai combustibili fossili. Tut195
tavia, un’analisi piú dettagliata ci dimostra che le cose non sono cosí semplici e che uno scaling up a questo livello dell’energia nucleare porterebbe delle diseconomie di scala tali da essere al di là di ogni proposta ragionevole in termini di costi. Vedremo ora questa analisi piú dettagliata in una discussione che
tiene conto principalmente del problema dei costi nell’ottica
di una futura sostanziale espansione del numero di reattori.
Costi di estrazione dell’uranio
Come abbiamo detto, l’energia coinvolta nella fissione di
un nucleo di uranio è enorme, tuttavia l’uranio è un elemento
molto raro sulla Terra. In particolare è ancora piú raro l’isotopo U235 che è l’unico isotopo naturale utilizzabile nei reattori
ad acqua leggera e che rappresenta soltanto lo 0,7% del totale
dell’uranio esistente. Facendo i dovuti conti, si vede che le «riserve provate» di uranio potrebbero fornire una quantità di
energia complessivamente molto inferiore a quella dei combustibili fossili34. Si stima che al consumo attuale l’uranio disponibile potrebbe bastare per tenere accesi gli attuali reattori per
circa quaranta anni. Questa è un’approssimazione riferita a riserve a concentrazione relativamente alta (circa l’1%). Dato
che l’uranio si trova in depositi di varia concentrazione, ulteriori quantità potrebbero essere estratte da riserve a piú bassa
concentrazione. Comunque questo dato ci dice che già semplicemente raddoppiando il numero attuale di reattori, le attuali
tecnologie di estrazione non sarebbero sufficienti per riserve
di uranio pari alla durata di vita dei reattori stessi. Per un numero di reattori pari a quello che stiamo considerando (circa
10.000) le riserve non basterebbero neanche per un anno.
Il problema è ben noto fra gli addetti ai lavori anche se, per
ovvie ragioni, scarsamente pubblicizzato. Ovviamente esistono
delle soluzioni tecnologiche, la principale è quella del reattore
a «neutroni veloci», detto anche «autofertilizzante» (Fast Breeder Reactor, FBR) (in realtà bisognerebbe distinguere fra le due
cose, ma per semplicità non approfondiremo questo punto). Il
reattore a neutroni veloci può trasformare l’U238, non fissiona196
bile in Plutonio-239 che è fissionabile. Il rapporto di abbondanza fra U238 e U235 è un fattore 140 che allungherebbe proporzionalmente la durata delle scorte, ovvero da quarant’anni
circa a oltre cinquemila anni al ritmo di uso attuale. È da notare, comunque, che in vista di un aumento della potenza nucleare installata del tipo che stiamo considerando, questa estensione sarebbe limitata a un fattore di meno di duecento anni.
Se poi volessimo espandere il consumo energetico planetario
di quel fattore 5-10 che abbiamo considerato necessario per
fornire ai paesi poveri un livello di consumo energetico pari a
quello dei paesi ricchi, allora neanche le scorte di U238 sarebbero sufficienti per una durata accettabile. Anche se un centinaio di anni di riserve ci potrebbe sembrare accettabile, il problema delle risorse non rinnovabili è che si esauriscono e questo vale per l’uranio come per il petrolio. Scaricare il problema
sulle generazioni successive non è una vera soluzione.
In aggiunta ai limiti di cui sopra, la tecnologia dei neutroni
veloci è estremamente complessa e la costruzione di FBR commerciali si è rivelata finora molto difficile se non impossibile in
pratica per vari problemi tecnici. L’unico reattore a neutroni
veloci attualmente operativo è quello russo di Beloyarsk da 600
MW, mentre reattori a neutroni veloci in Francia, Germania,
USA e Giappone sono stati spenti per i problemi tecnici che hanno dato. È difficile oggi dare una valutazione della effettiva validità della tecnologia FBR, c’è chi sostiene che è ormai obsoleta
e dimostrabilmente non funzionante, mentre c’è chi ritiene che
la si possa rilanciare con dei miglioramenti tecnologici. Senza
arrivare a dire che i reattori FBR sono impossibili a costruire, è
certo comunque che i costi associati sono elevati.
Mancano dati su quanto potrebbe costare un reattore FBR
commerciale pratico, non ci aiutano i dati relativi a quello di
Beloyarsk, costruito in epoca sovietica e oggi ormai obsoleto.
Sappiamo che il reattore FBR «Monju» giapponese terminato
nel 1994 è costato 6 miliardi di dollari per una potenza di meno di 300 MW, che è molto superiore a quello di un reattore
LWR della stessa potenza o anche superiore. Ma il Monju era
un reattore sperimentale e dunque piú costoso di un reattore
197
commerciale. Nel complesso, l’unica cosa che possiamo dire è
che i costi associati alla tecnologia FBR saranno certamente piú
elevati di quelli per l’attuale tecnologia.
Date le perplessità e i costi della tecnologia FBR, sono stati
concepiti altri schemi che potrebbero assicurare un rifornimento di materiale fissionabile per tempi ben superiori a quelli corrispondenti agli attuali limiti. In effetti, l’uranio è una sorgente di energia talmente concentrata che è possibile pensare a
schemi di estrazione che sarebbero inconcepibili per ogni altra
risorsa. Vari di questi schemi sono proposti per l’estrazione da
sorgenti dove l’uranio è presente in piccole concentrazioni.
Nella maggior parte dei casi la validità di questi schemi è dubbia o comunque associata a problematiche assai preoccupanti.
Basti pensare che uno di questi, chiamato «in situ leaching»,
prevede di estrarre l’uranio iniettando grandi quantità di acido
solforico nel suolo. Ancora come esempio, un altro schema
consiste nell’estrarre uranio dall’acqua marina. Sebbene presente in poche parti per miliardo (Garwin, ibid. dice «parti per
milione», ma è sbagliato di un fattore 1.000!) la quantità totale
di uranio dispersa negli oceani (circa 4 miliardi di tonnellate) è
di circa 2.000 volte superiore a quella delle «riserve provate»
(circa 200 milioni di tonnellate). Esistono delle simulazioni del
processo che indicano che un singolo reattore da 1 GWe potrebbe essere rifornito da una nave da 2.000 tonnellate operante in un impianto di separazione oceanico (T. Kato et. al., citato in Garwin, ibid.). Secondo tali stime, questa operazione potrebbe avere dei costi non inconcepibili, forse semplicemente
raddoppiando i costi totali della produzione di energia elettrica del sistema.
Non ci sono motivi di dubitare sulla fattibilità di principio
di estrarre uranio dall’acqua marina, ma la realizzazione pratica di uno schema del genere su larga scala per l’espansione che
stiamo considerando sembra quantomeno difficile. Si tratta in
pratica di pompare tutta (o quasi) l’acqua dell’oceano attraverso impianti di separazione, una cosa che lascia francamente
perplessi, anche considerando che ci vorrebbero decine di migliaia degli stessi e che molti sarebbero navi, ciascuna delle
198
quali carica di un migliaio di tonnellate di acido cloridrico al
15%. A parte i problemi pratici, secondo Sturm van Leeuwen
e Smith (ibid.) in ogni caso il bilancio energetico dello schema
sarebbe negativo, ovvero l’energia spesa per estrarre questo
uranio altamente disperso sarebbe maggiore di quella che si
potrebbe poi recuperare dall’uranio stesso.
Costi esterni
I costi esterni di un sistema tecnologico sono tutti quelli
non pagati dai gestori o utenti del sistema stesso ma dalla comunità, normalmente perché sono difficili da stimare o perché
ricadono su gruppi o persone che non fanno uso del sistema, o
comunque perché è politicamente difficile farli pagare all’utenza. Un ovvio costo esterno dei combustibili fossili sono i
danni planetari causati dall’effetto serra. Nel caso dell’energia
nucleare questi costi sono principalmente di tre tipi: 1) quelli
dovuti alla diffusione di radioattività residua che ha effetti cancerogeni sulla popolazione; 2) quelli dovuti allo smantellamento dell’impianto e alla bonifica del sito al termine del ciclo di
vita; 3) i costi strategici dovuti alla necessità di proteggere gli
impianti da attacchi militari o terroristici.
L’effetto della radiazione dispersa da impianti ben schermati
è estremamente basso anche se non trascurabile. L’industria
nucleare produce danni alla salute molto piú bassi di quelli
prodotti da tecnologie molto «sporche» come il carbone o il
petrolio. Vale tuttavia l’effetto psicologico per la popolazione
vicina agli impianti che sa di essere esposta. Perciò anche questo costo non è trascurabile ed è possibile sostenere che aumenterebbe in modo superiore a una semplice proporzionalità
lineare per una massiccia espansione del numero di impianti
nucleari.
Per quanto riguarda la bonifica dei siti dopo la fine del ciclo
di vita dell’uranio, non si sa esattamente quali possano essere
dato che nessuno dei reattori commerciali attualmente in funzione ha piú di trent’anni circa. Possiamo solo immaginare che
questi costi saranno molto elevati.
199
Infine, per quanto riguarda i costi strategici, sarà forse il caso di ricordare che nella guerra di Serbia del 1998 gli attacchi
a obbiettivi militari non hanno avuto grande efficacia, mentre
il risultato è stato deciso alla fine da attacchi alle centrali elettriche civili. La difesa delle centrali, sia nucleari che convenzionali, come obbiettivi militari pone problemi praticamente
insormontabili per paesi che non dispongano di tecnologie
estremamente sofisticate (missili intelligenti o, perlomeno, non
troppo imbecilli) e anche disponendone è difficile pensare a
una difesa efficace al 100%. Lo stesso vale per attacchi di tipo
terroristico da terra o per sabotaggi interni: è possibile prendere precauzioni ma non è possibile garantire il 100% di sicurezza. Il disastro di Chernobyl ci dà un’idea degli effetti che potrebbe avere un attacco terroristico o militare a una centrale
nucleare. È impossibile al momento attuale stimare ragionevolmente quali potrebbero essere i costi per la sicurezza strategica delle centrali nucleari, ma possiamo essere certi che sarebbero molto elevati e che se correttamente computati rappresenterebbero una frazione importante, se non addirittura predominante, dei costi dell’energia prodotta.
Costi di vettorizzazione
Gli impianti nucleari attuali sono in grado di produrre soltanto energia elettrica, mentre alcuni schemi proposti negli anni cinquanta, come l’aereo atomico, il razzo atomico o addirittura l’automobile atomica si sono rivelati totalmente impratici.
Questo pone un problema di «vettorizzazione» dell’energia,
ovvero: come distribuire l’energia in zone lontane dal reattore
e per piccole applicazioni isolate o mobili? Questo problema è
particolarmente importante per i reattori nucleari dove le economie di scala (associate a problemi di sicurezza) tendono a
favorire la costruzione di grandi impianti, tipicamente di oltre
1 GWe ciascuno. Questo rende problematico l’uso dei reattori
in zone a bassa densità di consumi, dove il costo del trasporto
dell’energia elettrica su lunghe distanze diventerebbe un fattore importante e in certi casi proibitivo. Un altro ovvio proble200
ma si pone se pensiamo di usare l’uranio per sostituire tutte le
applicazioni dei combustibili fossili, ovvero anche per i mezzi
di trasporto. Una soluzione al problema è il concetto di «economia basata sull’idrogeno». In questo schema l’idrogeno verrebbe prodotto dai reattori per elettrolisi dell’acqua e poi usato come combustibile in modo non dissimile dagli attuali idrocarburi. Questo tipo di schema è certamente possibile ma altrettanto certamente ha dei costi, che potrebbero essere molto
elevati. Al momento attuale non esistono studi che permettano
di stimare questi costi nell’ottica di un’economia globale basata sulla fissione.
Costi per la sicurezza
Intendiamo con questi costi quelli per garantire il funzionamento senza incidenti degli impianti, come pure quelli della sicurezza dello stoccaggio dei materiali radioattivi. Per le attuali
centrali questi costi sono inclusi nei costi generali computati
dell’energia. Tuttavia, una grande espansione del numero delle
centrali nucleari aumenterebbe sostanzialmente questi costi
per il fatto ben noto che è il numero assoluto di incidenti che
conta, e non la frazione relativa al numero di impianti (come
ben si sa in campo aeronautico). Se con 500 impianti abbiamo
avuto due soli incidenti gravi in trent’anni (Chernobyl e Three
Mile Island) è impensabile che con 10.000 impianti si possano
accettare 40 incidenti in trent’anni, piú di uno all’anno. Aumentare i fattori di sicurezza delle centrali è sicuramente possibile, anche se – ancora – ha dei costi notevoli.
Gli stessi fattori di scala già menzionati per la sicurezza del
reattore sono da considerare per la difesa dalla proliferazione
delle armi nucleari. Per molto tempo si è continuato a sostenere che il plutonio prodotto come scoria nei reattori nucleari
non fosse adatto per costruire armi nucleari ma, purtroppo, alcuni studi38 hanno dimostrato che non è cosí. Gli impianti attuali hanno già prodotto circa un migliaio di tonnellate di plutonio nelle scorie (Garwin, ibid.). Per il momento nessuno (o
almeno si spera) è riuscito a tirar via da questa massa quei po201
chi chilogrammi di plutonio che sono sufficienti per fare una
bomba atomica. Se il sistema in uso oggi ha un certo livello di
sicurezza, diciamo una probabilità su un milione che qualcuno
possa impadronirsi di quel plutonio, e se la produzione di plutonio dovesse aumentare di un fattore 10.000 dovremmo aumentare l’efficacia del sistema di sicurezza di un fattore corrispondente. In pratica non si riesce nemmeno a immaginare come potrebbe funzionare un sistema del genere, per non parlare dei costi.
Fattori di scala e miglioramenti tecnologici
Si può sostenere che una grande espansione nel numero di
reattori nucleari porterebbe a dei miglioramenti tecnologici e a
delle economie di scala risultanti in costi piú bassi. In particolare, Cesare Marchetti ha proposto dei reattori di dimensioni
oltre cento volte piú grandi di quelli attuali: si tratta delle «isole energetiche», remote isole del Pacifico dove si potrebbero
costruire gigantesche centrali di potenza dell’ordine di 300
GW. Ognuna di queste centrali potrebbe produrre 2-3 milioni
(2-3x106) di GWh all’anno. Ne basterebbero una ventina sparpagliate per le isole oceaniche per produrre tutta l’energia di
cui abbiamo bisogno, energia che verrebbe poi trasformata in
idrogeno e trasportata ovunque nel mondo mediante grandi
navi «idrogeniere». Le grandi dimensioni dell’impianto ottimizzano i costi per via dei fattori di scala mentre la locazione
remota diminuisce, secondo Marchetti, i rischi dovuti ad attacchi terroristici.
Vale la pena tuttavia di notare un paio di legittimi dubbi a
proposito di questo schema. Il primo che la concentrazione
della produzione dell’energia in pochi impianti di grande dimensione li renderebbe bersagli molto appetibili sia per attacchi terroristici come per attacchi militari convenzionali. In secondo luogo, i costi di costruzione dei reattori sono dovuti
principalmente all’uso di grandi quantità di materiali, alcuni
dei quali pregiati e alcuni rari. Per una centrale occorrono enormi quantità di cemento e acciaio, come pure piombo, rame,
202
nickel, cadmio e altri materiali costosi. Non esistono studi che
valutino se la produzione mondiale di questi materiali sia tale
da assicurare la possibilità di costruire centrali di queste dimensioni. Se l’espansione del numero o dimensioni delle centrali dovesse portare a una scarsità di uno o piú di questi materiali il risultato sarebbe in effetti un aumento dei prezzi e di
conseguenza dei costi di costruzione, ovvero l’effetto opposto
a quello delle economie di scala.
Profitti
Questo è un punto piuttosto sottile che non viene spesso
considerato nei calcoli che appaiono in letteratura dove ci si limita normalmente a comparare i prezzi dell’energia senza considerare invece quali sono invece i costi. La differenza fra le
due cose è quello che chiamiamo «profitto». Nell’ambito di
quello che potremmo chiamare «budget planetario», quello
che conta sono i costi effettivi di produzione, un fattore che è
molto importante nella comparazione fra energia nucleare e
combustibili fossili dove i profitti sono molto diversi. Si sa che
nel campo dei reattori nucleari i profitti per i costruttori sono
piuttosto bassi, anzi è possibile che i reattori operino a profitti
zero o addirittura in perdita per ragioni strategiche o di prestigio. Questo contrasta fortemente con il caso dell’industria petrolifera dove i profitti sono notoriamente enormi. Abbiamo
già detto in precedenza che il costo medio di produzione di un
barile di petrolio a livello mondiale è di circa 7 dollari ma un
barile di petrolio estratto dal pozzo di Al Ghawar in Arabia
Saudita costa solo 1-1,5 dollari. Lo stesso barile viene rivenduto oggi a circa 30 dollari sul mercato mondiale. Questi immensi profitti non esisterebbero nel caso dell’energia nucleare, a
meno che non si rivenda l’energia elettrica a prezzi nettamente
piú alti di quelli attuali. La mancanza di questi profitti avrebbe
effetti importanti sull’economia mondiale, oggi ancora abituata a questo «volano» di investimenti che portava ogni anno alle borse occidentali l’enorme flusso di capitali risultanti dai
profitti petroliferi.
203
L’esame della tecnologia della fissione nucleare ci ha portato a evidenziare un gran numero di problemi irrisolti per i quali abbiamo scelto di enfatizzare la componente «costo» ma che
evidentemente sono di tipo tecnologico, economico e politico.
Il fatto di aver elencato questi problemi non deriva da un tentativo di «demonizzare» l’energia nucleare, ma solo dalla necessità di una revisione di una serie di problemi che sono ben
noti agli addetti ai lavori ma che sono raramente esposti tutti
insieme in modo critico. Allo stesso tempo, il fatto di aver scelto di esaminare questi problemi in termini di costi non vuol dire che tutto si può risolvere semplicemente pagando qualcosa.
In particolare, i problemi relativi alle storture della mente umana (proliferazione di armi nucleari, attacchi terroristici e convenzionali, sabotaggi e incidenti) sono probabilmente irrisolvibili anche cercando di seppellirli sotto una montagna di quattrini.
È il caso di ripetere qui che l’analisi si applica soltanto al
caso di una massiccia espansione del numero di reattori a fissione installati fino a sostituire completamente i combustibili
fossili a livello planetario. Ciò detto, l’analisi ci dice che una
tale espansione è sostanzialmente impossibile con le attuali tecnologie, tenendo conto soprattutto dei costi associati. Non siamo in grado di fare una stima affidabile dei costi che implicherebbe un’impresa del genere, ma da quanto abbiamo visto sarebbero senza dubbio enormemente superiori a quelli che potremmo calcolare semplicemente estrapolando a grandi numeri il costo attuale di un reattore LWR. Se questa semplice estrapolazione ci ha portato a valutare costi dell’ordine di 1.000 miliardi di dollari all’anno (alti, ma non inconcepibili) già il lavoro di Kato et al. (Garwin, ibid.) sull’estrazione di uranio dall’acqua marina indica che dobbiamo come minimo raddoppiarli. Se teniamo conto di tutti gli altri fattori che abbiamo preso
in considerazione è evidente che arriviamo a costi stratosfericamente alti in comparazione con quelli a cui eravamo abituati
nel «ventennio dorato» di prezzi bassi del petrolio e del gas
naturale. Alla fine dei conti, non è piú neanche questione di
costi, ma piuttosto di analisi di «ciclo di vita» che ci porta a
204
calcolare la resa energetica (payback) totale del sistema. Se questa resa è negativa, il sistema consuma energia invece di produrla e ovviamente qualsiasi cifra lo si paghi è sempre sprecata. Questo tipo di analisi è stato estremamente efficace nel distruggere certe illusioni ottimistiche a proposito di alcuni tipi
di energie rinnovabili, per esempio alcuni (ma non tutti) i sistemi fotovoltaici. Secondo van Leeuwen e Smith (ibid.) tutto
il sistema nucleare può diventare energeticamente negativo se
si devono utilizzare risorse di uranio molto disperse, il che è
appunto il caso che stiamo considerando.
Dunque, per i prossimi 10-20 anni difficilmente possiamo
pensare a un’espansione dell’energia nucleare che vada molto
piú in là della semplice sostituzione degli attuali reattori, che
ormai hanno raggiunto la fine del loro ciclo di vita. Dato che i
reattori attuali forniscono meno del 3% del TFC mondiale, anche raddoppiandone il numero (cosa che abbiamo visto già
porre grossissimi problemi di disponibilità di combustibile)
non avrebbe grande effetto sulla «fame energetica» mondiale.
Possiamo pensare che questa modesta espansione potrebbe solo creare delle zone privilegiate ad alta densità energetica, concentrate nei paesi ricchi che sono i soli in grado di permettersi
gli investimenti necessari. L’energia nucleare non è alla portata
dei paesi poveri e neanche, probabilmente, di quelli che non
fanno parte del «top» dei paesi ricchi (ovvero Stati Uniti, Giappone, e alcuni paesi del nord Europa).
Il futuro dell’energia nucleare è dunque poco entusiasmante, comunque non mancano nemmeno elementi di ottimismo.
Abbiamo detto come la fissione sia, in principio, una sorgente
di energia immensa e non si vede perché non debba essere possibile trovare dei metodi per sfruttarla che non portino gli attuali rischi e costi della tecnologia LWR. Per esempio, il concetto di «fissione assistita», o Fast Energy Amplifier (FEA) recentemente proposto da Carlo Rubbia è una tecnologia di fissione
ragionevolmente sicura e che non ha il problema della scarsità
di combustibile dei LWR. Tuttavia, anche in questo caso dobbiamo considerare che se la FEA ci può dare energia abbondante,
gli impianti saranno comunque complessi e costosi e difficil205
mente ci possiamo aspettare dalla FEA energia cosí a buon mercato come ce l’ha data il petrolio finché è durato.
Alla luce delle considerazioni «globali» che abbiamo fatto,
vediamo che la situazione italiana è particolarmente sfavorevole a un sostanziale sviluppo dell’energia nucleare convenzionale nel prossimo futuro. Secondo i dati IEA; il TPES italiano è di
circa 170 MTOE/anno (2 x 106 GWh), ovvero circa il 2% del
TPES mondiale. Considerando inalterati tutti gli altri fattori, vediamo che per affrancarci completamente dai combustibili fossili dovremmo costruire qualcosa come 200 reattori da 1 GW(e),
se dovessimo farlo in vent’anni si tratterebbe di costruire circa
un nuovo reattore al mese. Anche limitandoci al solo uso dell’energia nucleare per la produzione di energia elettrica dovremmo comunque costruire qualcosa come 60-70 reattori da
un GWe l’uno. Tanto per dare un idea, per quest’ultima ipotesi
ai costi attuali saremmo comunque oltre i 200 miliardi di euro.
Questi costi comunque sarebbero nella pratica molto piú alti
tenendo conto che dovremmo basarci su tecnologie molto costose (FBR o uranio da riserve disperse) per superare i limiti degli attuali sistemi, senza contare la necessità di sviluppare sia
un’infrastruttura di vettorizzazione come pure un sistema di
difesa strategica, entrambi non esistenti al momento attuale.
Teniamo conto anche che, avendo rinunciato all’energia nucleare con il referendum del 1987 (non commentiamo qui su
quella «gloriosa» vittoria della lobby petrolifera che ha sfruttato la buona fede degli ambientalisti per accaparrarsi il mercato
italiano dell’energia), abbiamo anche distrutto le competenze
tecnologiche nazionali nel campo nucleare. Nella pratica, ritornare oggi al nucleare convenzionale significherebbe dipendere al 100% dall’estero per tecnologie, competenze, materiali, mano d’opera, uranio e tutto il resto. Una situazione semplicemente improponibile per la nostra bilancia dei pagamenti,
già cronicamente in deficit.
Questa situazione non è comunque da considerarsi in termini eccessivamente pessimistici. Se ci troviamo adesso nell’impossibilità di riagganciarci al «treno» LWR abbiamo anche
visto che si tratta di una tecnologia che ha raggiunto i suoi li206
miti. In questo senso si può argomentare che paesi come la
Francia che ci hanno investito sopra pesantemente hanno fatto
un cattivo affare e uno spreco di risorse. Se avessimo la volontà
oggi di investire altrettanto pesantemente nello sviluppo di tecnologie nuove, sia rinnovabili sia in termini di «fissione assistita» o FEA (alla Rubbia) potremmo trovarci persino in una posizione di leadership nel mondo occidentale. Purtroppo, l’esperienza passata non ci fa ben sperare sulla capacità del «sistema
Italia» di investire in ricerca e sviluppo e soprattutto sulla capacità del sistema industriale di profittare delle scoperte della
nostra pur valida infrastruttura universitaria e di ricerca. Basti
pensare che la fissione nucleare fu sviluppata principalmente
da Enrico Fermi ilquale però, come sappiamo, dovette andare
negli Stati Uniti per avere i mezzi necessari. È una storia che si
ripete in molti campi scientifici e tecnologici e ormai la sappiamo bene. Ma non ci sono problemi che non siano anche opportunità. Riusciremo a sfruttarle?
Le energie rinnovabili
Le energie rinnovabili, energia solare prima di tutto, sono e
sono state uno dei cavalli di battaglia degli ambientalisti a partire dagli anni ottanta circa. Tuttavia, se gli ambientalisti hanno
messo il sole sulle loro bandiere, hanno anche fatto in modo
da essere sicuri che restasse lí. Per due decenni almeno l’energia rinnovabile è rimasta un giocattolo per sognatori, qualcosa
da mettere nel «museo dell’energia» per far vedere ai bambini
quanto sarà bello il mondo solare fra cent’anni.
Tuttavia, l’esperienza delle crisi petrolifere degli anni settanta e ottanta ha anche dimostrato che l’energia solare funziona ed è adeguata per sostituire il petrolio e gli altri combustibili fossili. Si tratta di vedere quali sono i costi e le effettive possibilità tecnologiche. Come abbiamo detto per il caso dell’energia nucleare, si tratta di vedere se è possibile rimpiazzare
gli attuali 6x107 GWh, ovvero 6x104 TWh di energia prodotta
con combustibili fossili mediante energie rinnovabili.
207
Quando si parla di energie rinnovabili si parla di una gamma vastissima di sistemi tecnologici che si basano su principi
fisici molto diversi. Spesso quando si parla di «energia solare»
si intende esclusivamente quella ottenuta con i pannelli fotovoltaici. Questi sono però parecchio costosi ed è possibile che
rappresentino una via senza sbocco, almeno per il breve e medio termine. Tuttavia, l’energia solare si può ottenere anche
con sistemi a concentratori (detta a volte «solare termodinamico»). Esistono poi tutte le varianti dell’energia eolica, quella
idroelettrica, lo sfruttamento delle maree e quelle energie che
sono «assimilate» alle rinnovabili, ovvero l’energia geotermica.
Di fronte a questa selva tecnologica cercheremo di evitare di
entrare nei dettagli, limitandoci a una discussione di ordine generale.
Per le tecnologie energetiche che dipendono direttamente
dall’irradiazione solare, ci troviamo davanti al limite fisico della quantità di energia solare che arriva sulla Terra. Tuttavia
questo limite è, in pratica, ben lontano da essere un problema.
Abbiamo detto che per sostituire i combustibili fossili abbiamo bisogno di generare energia per 6x107 GWh all’anno
(6x1013 kWh/anno). Ora, l’energia del sole che arriva sulla Terra è di circa 1,5x1012 GWh/anno39, di questa 8x1011 GWh/anno arrivano alla superficie. Basterebbe sfruttare una minima
parte di questa immensa quantità di energia (oltre 10.000 volte
piú grande di quella generata attualmente dai combustibili fossili) per soddisfare largamente le necessità umane per i secoli a
venire.
Notiamo anche che il limite di area planetaria disponibile è
comunque superabile spostando gli impianti nello spazio, cosa
già tecnologicamente fattibile oggi anche se improponibile dal
punto di vista economico. La frazione di energia solare intercettata dalla Terra è solo un miliardesimo circa di quella emessa dal sole in totale, per cui i limiti qui sono decisamente lontani. Questo concetto ha portato il fisico americano Dyson a immaginare che il limite finale della razza umana potrebbe essere
lo sfruttamento totale di tutta l’energia emessa dal sole, il che
potrebbe avvenire costruendo una sfera (la «sfera di Dyson»)
208
concentrica al sole che ne intercetterebbe tutta l’energia. Un’idea indubbiamente affascinante, ma lontana dalle nostre preoccupazioni attuali.
Nella pratica, il problema che ci troviamo di fronte è come
sfruttare in modo efficace la radiazione solare che arriva sulla
Terra. Ovviamente, le piante già la sfruttano da miliardi di anni utilizzando la reazione che viene chiamata fotosintesi clorofilliana, trasformando il biossido di carbonio dell’aria in molecole complesse. A nostra volta potremmo sfruttare le piante
per ottenere energia, bruciando il legno per esempio. Questo
concetto viene definito spesso come lo sfruttamento della «biomassa»; qualcosa che gli esseri umani fanno comunque da decine (o forse centinaia) di migliaia di anni, ma che oggi potrebbe essere fatto in modi tecnologicamente molto piú efficaci, trasformando per esempio il legno in idrogeno o in un liquido combustibile. Il problema della biomassa è che la fotosintesi clorofilliana è un processo poco efficiente che sfrutta
solo una piccola frazione della luce che arriva dal sole. Inoltre
le piante non hanno solo bisogno di luce, ma anche di irrigazione, di fertilizzanti e di suoli adatti. Infine, l’uso della biomassa per produrre energia è competitivo con gli usi alimentari della stessa.
Molti studi recentemente hanno cercato di valutare se sarebbe effettivamente possibile soddisfare le necessità energetiche mondiali con il solo apporto della biomassa40. Il problema è complesso e, come ci si può aspettare, i risultati sono
piuttosto incerti. Quello che si può fare dipende da vari fattori poco prevedibili, che tipo di piante coltivare, dove coltivarle, su quale frazione di territorio. In teoria sembra che in
condizioni particolari (esteso sfruttamento di tutte le aree coltivabili, coltivazione di sole specie ad alta resa sia alimentare
sia energetica) non sarebbe impossibile ottenere abbastanza
energia dalla biomassa da poter sostituire i combustibili fossili e allo stesso tempo anche produrre cibo sufficiente per nutrire la popolazione umana. Nella pratica sembra abbastanza
improbabile realizzare una cosa del genere considerata la scarsa capacità degli esseri umani di maneggiare sistemi comples209
si senza generare conflitti. Ciononostante, la potenzialità della biomassa come fonte energetica rimane alta: non dovrebbe
essere difficile generare in questo modo una frazione importante dell’energia consumata attualmente, diciamo almeno il
20%. Se riuscissimo a imboccare seriamente la strada del risparmio energetico, questa frazione potrebbe anche essere
sufficiente per le nostre esigenze, ma anche questo sembra essere piuttosto improbabile considerando il modo in cui gli esseri umani si comportano normalmente.
In ogni caso, se quello che vogliamo è energia elettrica o
comunque energia sfruttabile dagli esseri umani, la biomassa
non è la scelta migliore. Le piante, come abbiamo detto, hanno una bassa efficienza di conversione dell’energia solare. In
questo campo, i congegni inventati dall’uomo possono fare
molto meglio. Ci sono parecchi modi per trasformare l’energia
solare in energia elettrica. Il piú noto è probabilmente quello
dei pannelli fotovoltaici che hanno efficienze normalmente superiori al 10% (ovvero convertono oltre il 10% della luce incidente in elettricità), il che è forse cento volte superiore all’efficienza delle piante. Ci sono anche altri metodi, per esempio sistemi basati su specchi concentratori e motori termici (sistemi
«solari termodinamici») hanno raggiunto efficienze del 35% e
sicuramente è possibile fare anche di meglio.
Usando impianti solari è possibile sfruttare l’energia solare
in modo abbastanza efficiente, ovvero utilizzando solo una minima frazione della superficie terrestre. Inoltre, gli impianti di
questo tipo non hanno bisogno di irrigazione o fertilizzanti,
per cui possono essere piazzati in zone desertiche, purché siano molto soleggiate. L’irradiazione media solare in un paese a
media insolazione come l’Italia va da circa 1.100 kWh/mq/anno nelle regioni del Nord a circa 1.700 kWh/mq/anno al Sud.
Regioni molto soleggiate come il Sahara o l’Arizona hanno flussi medi di 2.200 kWh/mq/anno e anche oltre.
Ammettiamo che il sistema di trasformazione generi energia elettrica con un’efficienza del 10% (anche se si può fare
molto meglio). Ammettendo di piazzare gli impianti nel Sahara o in altri deserti soleggiati, ci occorrono 6 x 1013/2.200 mq,
210
ovvero 2,7 x 1011 mq, ovvero duecentosettantamila chilometri
quadrati di area per gli impianti. Per dare un’idea di quest’area, consideriamo che è un po’ meno dell’estensione totale del
territorio italiano. Può sembrare tanto, ma non lo è affatto in
comparazione con l’area totale delle terre emerse del nostro
pianeta che è di circa 1,5 x 108 kmq (150 milioni di chilometri
quadrati).
Nell’ipotesi che stiamo considerando, la frazione di area necessaria per impianti solari sarebbe di solo circa lo 0,2% dell’area delle terre emerse. Il solo deserto del Sahara copre una
superficie di 9,6x106 kmq (circa 10 milioni di chilometri quadrati) e ne basterebbe circa il 3% per fornire l’area di cui stiamo parlando, ovvero fornire energia per tutto il mondo. Un’altro modo di vedere questi stessi dati è di considerare che 3 x
105 kmq corrispondono a circa 20 mq/persona su 6 miliardi di
persone circa.
L’idea di piazzare gli impianti nei deserti massimizza il rendimento in termini di area occupata, ma pone problemi in termini del trasporto a grande distanza dell’energia cosí ottenuta.
Figura 14 - Progetto di una centrale solare termica a concentrazione (cortesia Escosolar).
211
Tuttavia questo sarebbe possibile immagazzinando l’energia
sotto forma di idrogeno e come tale trasportarla a grandi distanze. La trasformazione in idrogeno, il trasporto e la riconversione in energia elettrica nella zona di uso implicherebbe
ovviamente delle perdite dovute all’inefficienza dei vari processi.
Possiamo considerare che le perdite per arrivare «alla presa
di corrente» dell’utente finale potrebbero essere anche del 70%
(ma potrebbero essere anche molto minori). Comunque, anche cosí il risultato finale è che basta sfruttare meno dell’1%
dell’area planetaria, ovvero qualche percento del solo deserto
del Sahara, per rimpiazzare completamente i combustibili fossili.
Questi calcoli sono molto semplici e non si capisce come
mai in molti testi si trovino i dati piú strampalati, dove si ripete a volontà la leggenda che l’energia solare è troppo debole
per fornire piú di un supporto marginale alle necessità energetiche mondiali. Calcoli simili a quelli sviluppati qui sono
stati eseguiti indipendentemente da molti autori per diverse
tecnologie ottenendo risultati simili, ovvero che la frazione di
area delle terre emerse necessaria per ottenere energia in abbondanza è molto piccola (vedi per esempio Pearce41 e Muneer et al.42 per l’energia fotovoltaica e Schlaich43,44 per i «camini solari»).
In alternativa a piazzare tutti gli impianti nei deserti, è ragionevolmente probabile che la produzione di energia solare potrebbe estendersi a tutta la cintura di insolazione che ha valori
oltre i 1.000 kWh/mq/anno e che comprende praticamente tutte
le zone densamente popolate del pianeta con l’eccezione di alcune parti dell’Europa del nord. In questo caso, anche assumendo
un’insolazione media di soli 1.000 kWh/mq/anno, le cose cambiano poco. Se l’area da utilizzarsi per ottenere la stessa quantità
di energia aumenta di circa un fattore 2 rispetto al calcolo fatto
prima, diminuiscono le perdite dovute al trasporto dato che gli
impianti sono vicini agli utenti. Alla fine dei conti, anche in questo caso l’area da impiegare per impianti solari è al massimo dell’ordine dell’1-2% dell’area totale delle terre emerse.
212
Ovviamente, quello che abbiamo ottenuto è un risultato che
non tiene conto della distribuzione geografica della popolazione e dei confini nazionali, entrambi fattori che è probabile giocheranno un ruolo nel futuro nell’arrangiamento e diffusione
degli impianti di produzione di energia solare. Un paese molto
«energivoro» come gli Stati Uniti ha comunque una densità di
popolazione abbastanza bassa per cui si calcola che basterebbe
meno dell’1% della superficie per coprirne le necessità energetiche. Piú complessa è la situazione di paesi ad alta densità
di popolazione, come per esempio l’Italia e il Giappone, che
pur non consumando altrettanta energia per persona, hanno
anche meno area disponibile.
Secondo i dati del «Libro Verde» della Comunità Europea45, per il consumo interno l’Italia usa combustibili fossili
per l’84% su un TPES totale annuo (IEA) di 169 MTOE (2x106
GWh). Assumendo che per l’Italia il rapporto TFC/TPES sia lo
stesso che per il mondo intero (ovvero circa 0,7) otteniamo che
l’energia da sostituire è di circa 1 x 106 GWh/anno, ovvero 1 x
1012 KWh/anno (un po’ meno del 2% del TFC mondiale da combustibili fossili). Un altro modo di vedere le cose è di considerare che stiamo parlando di un’energia di 17 MWh/anno per
abitante. In Italia, possiamo considerare un’insolazione media
di 1.400 KWh/mq/anno. Con impianti che avessero una resa
del 10% occorre ricoprire 1 x 1012/140 mq, ovvero 7 x 103
kmq. Su 3 x 105 kmq del territorio italiano vuol dire un’area
corrispondente a circa il 2,5% del totale.
Questo valore andrebbe corretto per i rendimenti finali «alla presa di corrente» ma dobbiamo anche considerare che su
un territorio di valore come quello italiano ci sarebbero forti
incentivi per ottimizzare i rendimenti, per cui possiamo considerare che un valore del 2,5% del territorio è probabilmente
un valore finale ragionevole, forse anche pessimistico. Indubbiamente 7x103 kmq è un’area non trascurabile (un quadrato
di circa 80 km di lato) ma se disperso sul territorio e ottimizzato mediante l’uso delle aree già pavimentate sarebbe gestibile
entro una politica dedicata all’indipendenza energetica. Il risultato finale è che l’Italia potrebbe generare tutta l’energia di
213
cui ha bisogno sul territorio nazionale mediante impianti solari
(non per nulla, siamo detti «il paese del sole»). L’indipendenza
energetica mediante energia solare è piú difficile, ma ciononostante non impossibile in paesi molto meno soleggiati di noi,
come la Danimarca e l’Inghilterra.
I calcoli che abbiamo visto si applicano a tutti quei metodi
detti «solari diretti», ovvero che sfruttano la radiazione solare
per produrre lavoro utile o energia elettrica. Altri metodi, detti «solari indiretti», sono essenzialmente gli impianti eolici e
idroelettrici. Un terzo tipo di sistemi sono le energie dette «assimilate» alle rinnovabili, ovvero le sorgenti geotermiche. In
questi ultimi casi (indiretti e assimilati), i limiti di territorio disponibile sono piú difficili da calcolare. Mentre ogni metro
quadrato di territorio è adatto, purché non localizzato troppo
a nord, per l’installazione di un pannello fotovoltaico, non tutti i siti sono adatti per un aerogeneratore, per una diga o per
la produzione di biomassa (che richiede irrigazione). I siti migliori sono stati già in parte utilizzati per cui non è chiaro se la
sola combinazione di energia eolica, idroelettrica e geotermica
sarebbe in grado di sostituire in pratica i combustibili fossili46.
Tuttavia, secondo Brown47, sfruttando i soli siti dei litorali dalla riva fino a una profondità di 30 metri l’energia eolica da sola potrebbe bastare per generare tutta l’energia elettrica mondiale e oltre. Il potenziale di questi metodi è, evidentemente,
enorme, anche se i limiti non sono ancora chiari.
Un ultimo fattore da considerare nel contesto delle limitazioni fisiche/tecnologiche, è la necessità di avere una resa
energetica positiva se si tiene conto del bilancio energetico
durante l’intero «ciclo di vita» del sistema ovvero quella necessaria per costruire il sistema, per mantenerlo, e alla fine
del ciclo per smantellarlo, incluso la bonifica del sito e lo smaltimento dei materiali utilizzati. Questo tipo di analisi conduce a determinare la resa finale del sistema (payback) in termini
della differenza fra l’energia prodotta e quella utilizzata. Questa analisi è evidentemente molto piú significativa di una semplice analisi dei costi. Un sistema con un payback negativo è
comunque uno spreco, indipendentemente dai costi di gestio214
ne. L’analisi di payback si rivela brutalmente impietosa nei riguardi di una serie di tecnologie, alcune care agli ecologisti,
altre assai meno.
La tecnologia fotovoltaica può avere in certi casi payback
bassi o addirittura negativi. Questo punto era stato ampliamente pubblicizzato negli anni ottanta come un forte argomento contro il fotovoltaico. In realtà, lo sviluppo della tecnologia ha reso questa polemica obsoleta: il payback dei sistemi
attuali è piú che accettabile e non inferiore a quello di altre
tecniche.
La biomassa ha molto spesso un payback marginale che può
essere addirittura negativo, specialmente per tecnologie che richiedono trasformazioni chimiche costose in termini energetici: per esempio, la distillazione dell’etanolo.
Qualsiasi impianto o sistema energetico mal progettato, mal
costruito, o messo su per ragioni politiche o di prestigio può
avere un payback negativo, o anche fortemente negativo. La
casistica del «museo degli orrori» è vasta. Include su piccola
scala, per esempio, impianti solari passivi raffreddati in estate
con ventilatori. Su larga scala include il costosissimo esperimento brasiliano di additivare la benzina con l’etanolo e anche
impianti nucleari di costo pazzesco che non hanno mai prodotto un solo chilowattora utile, come il «Monju» in Giappone e il «Superphenix» in Francia.
All’opposto, payback decisamente positivi in quasi tutte le
condizioni sono riportati nella letteratura per tecnologie rinnovabili come l’energia eolica, idroelettrica e geotermica.
Un ulteriore stadio di analisi consiste nel valutare i costi
delle tecnologie energetiche. La comparazione dei costi ha
ovviamente dei limiti: se le tecnologie rinnovabili hanno finora avuto dei costi superiori ai combustibili fossili solo una visione estremamente ristretta vedrebbe questi ultimi come
sempre preferibili a causa del loro vantaggio economico. D’altra parte, dati gli attuali meccanismi di mercato è utopico pensare che industrie e consumatori privati si orientino verso sistemi piú costosi solo per idealismo.
Vediamo quindi che la pietra di paragone in ogni analisi di
215
questo tipo rimane il costo del petrolio e del gas naturale. Sono le variazioni di questo prezzo che determinano tutto il resto e se le energie cosiddette «alternative» sono o meno un’effettiva alternativa in pratica. Un confronto diretto fra le varie
tecnologie si può ottenere comparando i costi della generazione di energia elettrica.
I dati su questo punto sono riportati in molti studi, per
esempio nel «libro verde» sulla sicurezza energetica della comunità europea (2000). Immergersi in uno studio del genere
vuol dire consultare decine di tabelle dove i costi sono computati sotto diverse ipotesi che tengono conto dei regimi di tassazione, uso degli impianti, costi dipendenti dallo stato e altri.
Dalla selva di numeri possiamo arrivare alla conclusione generale che, con l’eccezione del fotovoltaico, le tecnologie di uso
comune hanno costi non molto diversi. Al momento attuale si
viaggia da un minimo di circa 3-4 centesimi di euro per kWh
(turbine a gas a ciclo combinato), a circa 5 centesimi per centrali termoelettriche a petrolio, fino a circa 6-7 centesimi al
kWh per l’energia nucleare o i generatori eolici. Queste differenze rientrano probabilmente nelle incertezze della determinazione (i fautori dell’energia nucleare sostengono48, per esempio, che la loro energia è in effetti a piú basso costo di quella
delle turbine a gas).
Per quanto riguarda le energie rinnovabili, quelle citate nel
libro verde sono il fotovoltaico, l’eolico e la biomassa da rifiuti. Non considereremo qui la biomassa da rifiuti che, pur poco costosa, non ha il potenziale di sostituire il petrolio su larga scala. Considerando i costi prima delle tasse (che fanno variare non poco i valori) possiamo stilare una tabella di costi
ottenuta dai dati del libro verde della Commissione europea,
da quelli dell’articolo di Trieb et al.49, nonché dal lavoro di
Schlaich sui camini solari. Per comparazione diamo anche i
dati della miglior tecnologia fossile disponibile attualmente,
quella delle turbine a gas a ciclo combinato (dati del Libro
Verde EC).
216
Tecnologia
Pannello Fotovoltaico 400 kW
Parabola/motore stirling 1 MW
Collettore centrale 80 MW
Collettore parabolico lineare 30 MW
Camino Solare 100 MW
Eolico 1 MW
Turbina a gas a ciclo combinato circa 100 MW
Costo approssimato
(tasse non considerate)
Euro/kWh
0.6
0.5
0.1
0.1
0.08
0.06
0.03-0.04
Tutti questi costi sono da considerarsi come approssimazioni e rimane chiaro che sono fortemente influenzati da fluttuazioni del mercato. Comunque, se guardiamo questi valori «brutali», per il momento non c’è convenienza a sostituire i combustibili fossili con energie rinnovabili. Specialmente per i pannelli fotovoltaici, siamo quasi su un fattore 20 di svantaggio il
che li rende adatti esclusivamente per applicazioni speciali dove la rete elettrica non potrebbe arrivare, e invero questo è l’uso che ne viene fatto attualmente.
La comparazione di cui sopra, comunque è fortemente falsata da un certo numero di fattori, il primo è quello delle economie di scala. Nella tabella stiamo comparando tecnologie che
hanno una diffusione enormemente diversa. Le turbine a gas,
e in generale tutti i metodi basati su combustibili fossili, hanno
beneficiato di un periodo di sviluppo e ottimizzazione di circa
un secolo, e generano, come abbiamo detto, oltre il 75% del
TFC mondiale. Le energie rinnovabili come il fotovoltaico sono ancora nella loro infanzia e generano meno dello 0,5%. È
piú che ragionevole aspettarsi che le economie di scala che deriverebbero da una considerevole espansione di queste tecnologie dovrebbero ridurne sostanzialmente i costi. Se poi consideriamo i «costi esterni» («externalities»), ovvero i costi non
pagati dai gestori o utenti del sistema stesso ma dalla comunità, vediamo che nel caso delle energie rinnovabili, i costi
esterni sono minimi e sono sostanzialmente di tipo estetico.
Considerazioni basate sui costi esterni, anche nei limiti del con217
cetto, renderebbero già competitive le tecnologie rinnovabili.
Vale dunque la pena di passare a energie rinnovabili anche se
il puro «conto della serva» qui sviluppato ci dice che ci costerà
qualcosa piú di quanto spendiamo oggi (e in ogni caso prima o
poi dovremo farlo).
Quindi, sarebbe possibile e conveniente sostituire i combustibili fossili con energie rinnovabili. Anche se dovessimo passare a una sorgente (diciamo, solare termoelettrico) che ha costi doppi della migliore tecnologia basata sui fossili, il trauma
economico sarebbe ridotto o inesistente considerando l’eliminazione dei costi esterni e la riduzione delle enormi spese militari necessarie attualmente per garantire la «sicurezza energetica». I costi per kWh stimati, inoltre, sono costi medi che coprono tutto il ciclo di vita di un impianto, ciclo di vita che è
normalmente stimato come dell’ordine dei 25 anni o piú. Ovvero, i costi dell’energia di un impianto non sono costanti: i
costi di investimento li rendono alti all’inizio ma fanno si che
si abbassino gradualmente. È noto che impianti che non usano
combustibile (solare, idroelettrico, o altro) diventano delle vere e proprie «miniere d’oro» dal momento in cui hanno ripagato il costo di costruzione. Per questa ragione, la sostituzione
del petrolio/fossili con il solare/rinnovabili potrebbe instaurare una vera e propria «età dell’oro» planetaria ma soltanto dopo che i costi di investimento fossero ripagati. Al contrario, lo
sforzo economico che cadrebbe sul sistema economico planetario potrebbe essere traumatico se dovessimo sostituire il petrolio con il sole in tempi brevi, in pochi anni, qualcosa che
potrebbe essere il risultato di una crisi geopolitica che portasse, per esempio, a una prolungata interruzione del flusso di petrolio medio-orientale. Una eventualità indubbiamente drammatica e – sperabilmente – improbabile, che però non può essere completamente ignorata.
Per valutare l’ipotesi di cui sopra, considereremo per cominciare la tecnologia rinnovabile attualmente meno costosa,
ovvero l’energia eolica. Secondo i dati disponibili, il costo di
investimento di un aerogeneratore è di circa 1.000 di euro/kW
di potenza di picco. Se consideriamo un «fattore d’uso» di 0,3
218
(frazione di tempo in cui il generatore opera alla potenza nominale) abbiamo che un generatore da 1 MW (costo 1 milione
di euro) può fornire 0,3 x 8.600 = 2,5 GWh di energia all’anno.
Per fornire i 6 x 107 GWh, che abbiamo detto essere l’energia
annuale generata dai combustibili fossili sul pianeta, ci vorrebbero circa 20 milioni di generatori (uno ogni 300 abitanti) a un
costo totale di ventimila miliardi di euro. Questa è una cifra
enorme, corrisponde a circa 3.000 euro per ogni abitante del
pianeta, la grande maggioranza dei quali non possono nemmeno sognarsi la disponibilità di una cifra del genere.
Se gli abitanti dei paesi OCSE hanno maggiori disponibilità
economiche, è anche vero che consumano piú energia. Fatti i
dovuti conti (il 17% della popolazione consuma il 50% dell’energia) la cifra di investimento per ogni abitante OCSE sarebbe
di circa 10.000 euro. Questo risultato si applica solo ai generatori eolici. Altre tecnologie solari possono essere piú convenienti a lungo termine ma piú costose come investimento. Da
notare, per mettere in prospettiva queste cifre, che sono approssimativamente le stesse di quelle che avevamo calcolato
nella sezione precedente per l’ipotesi che fosse l’energia nucleare a sostituire i combustibili fossili.
Queste cifre sono da prendersi come un’indicazione del fatto che il costo di investimento per passare all’energia solare
non è trascurabile e che questa transizione non potrebbe avvenire in tempi brevi. Se dovesse avvenire in tempi dell’ordine di
qualche anno i risultati sarebbero traumatici per l’economia
mondiale e per la popolazione del pianeta. Ovviamente, le cifre enormi di cui sopra si stemperano e diventano sopportabili
se diluite su tempi piú lunghi. In 30 anni, ogni abitante OCSE
dovrebbe pagare 300 euro all’anno circa per gli investimenti in
impianti per l’energia rinnovabile, cifra indubbiamente ragionevole e che anzi potrebbe rappresentare un sostanziale stimolo per un’economia come la nostra che è in crisi congenita da
eccesso di produzione. Inoltre, le cifre di cui sopra non tengono conto delle enormi potenzialità del risparmio energetico nei
paesi sviluppati, potenzialità che potrebbero portarci a una riduzione dei consumi dell’ordine del 50% senza perdita della
219
qualità della vita50. L’importanza del risparmio energetico per
attutire le conseguenze di una possibile nuova crisi energetica
è evidente da queste considerazioni.
Transizioni tecnologiche
Da quello che abbiamo visto, non c’è dubbio che in linea di
principio è possibile vivere senza petrolio, ovvero è possibile
ottenere tutta l’energia di cui abbiamo bisogno da fonti rinnovabili (oppure, se certi problemi saranno risolti, dal nucleare).
Nella pratica, anche se stiamo vedendo alcuni interessanti sintomi che una transizione verso fonti rinnovabili sta iniziando,
non vediamo ancora una decisa tendenza in questo senso a livello planetario. L’energia nucleare è in stasi da vent’anni e gli
impianti esistenti sono talmente anziani da far pensare che il
problema principale nei prossimi anni sarà la loro sostituzione
piuttosto che una vera espansione della produzione di energia
nucleare. Nel caso delle fonti rinnovabili, in alcuni paesi si sono registrati incrementi ragguardevoli, per esempio per quanto
riguarda l’energia eolica nell’Europa centrale. Viceversa, anche
paesi molto soleggiati come i paesi dell’Europa meridionale e
del Nord Africa non sembrano veramente interessati a mettere
a frutto il loro immenso potenziale solare. La storia ci insegna,
in effetti, che passare ad una tecnologia a un’altra è una cosa
lenta e complessa e, soprattutto, enormemente costosa. Tuttavia ci sono state transizioni tecnologiche nel passato e dalla storia di queste transizioni possiamo imparare qualcosa su quello
che ci aspetta.
La prima fonte energetica usata dall’umanità è stato il legno. Sappiamo che gli uomini di Neanderthal già conoscevano
il fuoco per cui la storia del legno come combustibile risale,
come minimo, a qualche centinaio di migliaia di anni fa. L’energia del legno non è stata usata solo per scaldarsi ma, fin da
epoche abbastanza remote, è stata usata per trasformazioni chimiche, la piú ovvia la cottura dei cibi. Ben piú complessa tecnologicamente è la metallurgia, forse la piú antica delle arti chi220
miche umane, preceduta soltanto dalla fermentazione che si
usava fin da epoche remote per fare vino e birra. L’energia che
si può ottenere dal legno è limitata ma il calore ottenuto dal legno ben stagionato è sufficiente per fondere l’oro e ottenere il
rame dai suoi minerali. Con il rame si può fare il bronzo e altre
leghe, tutti materiali che fondono a temperature a cui si può
arrivare bruciando legna. Da quello che ne sappiamo, l’età dei
metalli è iniziata almeno sette o ottomila anni fa. L’«uomo di
Similaun» ritrovato in un ghiacciaio delle Alpi, era vissuto circa cinquemila anni fa e aveva con sé un’ascia di rame, uno dei
primi manufatti metallici della storia europea. Era un’ascia che,
incidentalmente, aveva fuso lui stesso come dimostrano i residui di arsenico (un contaminante del rame) che sono stati ritrovati nei suoi capelli. Per millenni, il fuoco di legna è stato
utilizzato per la metallurgia del rame e del bronzo. Possiamo
citare, per esempio, l’erculea fatica della fusione del Perseo di
Benvenuto Cellini nel Cinquecento. Ci racconta Cellini come a
un certo punto il metallo avesse cominciato a solidificarsi prima del tempo e come lui riuscí a farlo fondere nuovamente
usando, fra le altre cose, il fuoco di un legno ben stagionato.
Quando si passa dal rame al ferro e all’acciaio, però, il legno comincia a non bastare piú. Per fare un buon acciaio ci
vogliono temperature superiori ai 1.000 gradi centigradi. Con
molti accorgimenti ci si può arrivare anche con il legno, ma
nella pratica è molto difficile se non impossibile. Il legno è composto in buona parte di carbonio e idrogeno che sono entrambi buoni combustibili, ma contiene anche ossigeno che non lo
è. Inoltre, anche se è ben stagionato, il legno contiene sempre
una certa quantità di acqua che rallenta la combustione. Ciò
portò già in epoche remote all’uso del carbone, che fra l’altro
serviva anche come riducente e componente dell’acciaio che,
come sappiamo, è una lega di ferro e carbonio. Il carbone si
può ottenere in forma di carbonio quasi puro (contenente sempre un po’ di idrogeno) come minerale e ha un potere calorifero superiore a quello del legno. In effetti, si può ottenere carbone anche partendo dal legno (ciò che viene chiamato «carbonella» o «carbone di legno») mediante un processo di com221
bustione parziale in presenza di poca aria che rimuove l’ossigeno, l’idrogeno e l’acqua dal legno di partenza. Mettersi a bruciare il legno (sia pure parzialmente) per ottenere combustibile
potrebbe sembrare controproducente ma lo si faceva nel passato per ottenere un combustibile piú concentrato e piú efficiente.
Il passaggio da legno a carbone è un primo esempio di «transizione tecnologica», ovvero il passaggio da un tipo di tecnologia a un’altra. La transizione da legno a carbone durò molto a
lungo. Possiamo considerare che si cominciò a usare il carbone
con l’età del ferro, parecchie migliaia di anni fa. Nella pratica,
tuttavia, il processo si accelerò parecchio in Occidente nel Settecento e soprattutto nell’Ottocento del secondo millennio.
Possiamo ritenere, anche se non ci sono dati certi, che il «punto di transizione», ovvero il punto in cui il carbone minerale
ha superato il legno come fonte di energia, è collocabile verso
la metà circadel secolo XIX, intorno cioè al 1850. Da quel punto in poi, nell’arco di un secolo o giú di lí, il legno ha cessato
quasi completamente di essere usato come fonte di energia,
perlomeno nei paesi ricchi.
La transizione dal legno al carbone illustra alcuni dei fattori fondamentali che sono comuni a tutte le transizioni tecnologiche. Abbiamo visto come il carbone sia un combustibile migliore del legno semplicemente perché fornisce piú energia a
parità di peso. Questo fattore, tuttavia, non è stato sufficiente
a causare una transizione. Per millenni, il carbone è rimasto un
combustibile esotico e raro, usato per la fabbricazione di spade e poco piú. La transizione non avvenne certamente a causa
della mancanza di legno che era, ed è tuttora, abbondante. Piuttosto, avvenne per l’intervento di un secondo fattore: avvenne
nel momento in cui il carbone costava meno del legno ed è avvenuto essenzialmente per fattori di scala nella produzione a
partire da un paio di secoli fa. Come abbiamo detto, per millenni il combustibile a disposizione dell’umanità era formato
semplicemente da rami secchi raccolti qua e là. Sicuramente
questi rami costavano poco, anzi niente, alle comunità di pastori, cacciatori o agricoltori a bassa densità di popolazione.
222
Con l’aumento della popolazione e lo sviluppo delle città, tuttavia, nasceva il problema di una raccolta piú efficiente. Raccogliere rami secchi diventava poco pratico, tagliare grossi alberi e farli a pezzettini era costoso e complesso in un’epoca in
cui non c’erano seghe a motore. A quel punto, si trovò che era
molto piú semplice e pratico, e quindi meno costoso, concentrare gli sforzi e gli investimenti nelle miniere di carbone. Il
carbone poteva essere estratto in grande quantità e i costi degli
investimenti si potevano ammortare.
Cosí nacque «l’era del carbone» che soppiantò «l’era del legno». L’era del legno era durata centinaia di migliaia di anni,
quella del carbone durò solo un paio di secoli. Anche il carbone lasciò poi il passo al petrolio in una transizione che durò
soltanto una cinquantina di anni. Questa accelerazione delle
transizioni tecnologiche sembra tipica della nostra epoca, anch’essa è un tipo di evoluzione di cui sappiamo poco e che abbiamo difficoltà a controllare, ma sono aspetti sostanzialmente
inevitabili.
Come sappiamo, a un certo punto il petrolio ha sostituito il
carbone. Anche qui, come nella piú antica transizione dal legno al carbone, i fattori in gioco sono stati gli stessi. In primo
luogo il fatto che il petrolio è una sorgente di energia migliore
del carbone. Qui non è tanto una questione di densità energetica quanto il fatto che un combustibile liquido quale il petrolio (o i derivati benzine, gasolio, nafta eccetera) è incomparabilmente piú versatile di un combustibile solido. Lo si può semplicemente pompare all’interno della camera di scoppio di un
motore a combustione interna che è, in ogni caso, molto piú
efficiente di un motore a vapore.
Come nel caso della transizione carbone-legna, tuttavia, anche la transizione dal carbone al petrolio avvenne soltanto perché da un certo punto in poi il petrolio cominciò a costare meno del carbone (anche in questo caso non certamente perché il
carbone era esaurito). In questo caso, i fattori di transizione
furono complessi ma sempre sostanzialmente legati a fattori di
costo. Si cominciarono a sfruttare i primi pozzi di petrolio verso la metà del XIX secolo, ma per decenni il petrolio rimase un
223
combustibile esotico e marginale. Tuttavia, c’erano delle applicazioni in cui un combustibile liquido era essenziale e dove il
carbone non poteva in nessun modo essere usato. Si trattava
delle lampade a olio. Anche in questo caso, per millenni si usarono prodotti domestici, grasso animale o olio vegetale (di quest’ultimo uso, abbiamo un esempio in un racconto dei Vangeli). Con l’aumento della popolazione, tuttavia, questi combustibili diventavano costosi. Nel XIX secolo si cominciò a usare
olio di balena per le lampade, che era l’olio naturale meno costoso e il piú abbondante disponibile. Tuttavia l’eccessivo sfruttamento delle risorse, ovvero la caccia eccessiva, causò una diminuzione nel numero delle balene e un aumento del prezzo
anche di quest’olio. A questo punto, il petrolio poteva entrare
nel mercato come il combustibile a costo piú basso, sia pure
per un’applicazione ancora marginale.
Una volta che il petrolio ebbe messo piede nel mercato, tuttavia, i fattori economici legati alla tecnologia diventavano un
fattore trainante irresistibile per la sostituzione del carbone.
Sostanzialmente, estrarre petrolio dai pozzi era meno costoso
che estrarre il carbone. Nel primo caso, era la pressione stessa
del petrolio che lo portava a sgorgare dal pozzo, o comunque
lo si poteva pompare a costi ragionevoli. Nel secondo caso, il
carbone andava laboriosamente scavato con trivelle, trapani,
scalpelli e grande dispendio di mano d’opera che diventava
sempre piú costosa. La combinazione della migliore tecnologia
e del prezzo piú basso rendeva inevitabile la transizione che
avvenne, come dicevamo, in tempi relativamente brevi. Il massimo nell’uso del carbone si è registrato intorno al 1920, dopo
di che il declino è stato irreversibile, almeno fino agli anni ottanta in cui si è vista una certa ripresa del carbone dovuta alle
crisi petrolifere. Di questo argomento parleremo piú in dettaglio nel seguito.
Le prime due transizioni energetiche che abbiamo visto, legno-carbone e carbone-petrolio, ci possono aver dato l’impressione di una certa logica e anche di una certa inevitabilità delle
transizioni tecnologiche, addirittura, come si diceva all’epoca
dei lumi, di «magnifiche sorti e progressive» per l’umanità. In
224
effetti, ne abbiamo viste e sperimentate molte altre che non
hanno a che fare con le fonti primarie di energia. Basti pensare, tanto per fare qualche esempio, a quella fra i dischi audio
analogici a quelli digitali, oppure dalle videocassette ai DVD.
Tuttavia le transizioni tecnologiche rimangono eventi complessi e difficilmente controllabili. Chi si occupa di tecnologia sa
bene che nella maggior parte dei casi (anzi, quasi sempre) le
nuove tecnologie falliscono nel loro tentativo di soppiantare le
vecchie, e di questo ci sono tantissimi esempi. Questi esempi,
però, raramente sono visibili, per cui la storia tende a raccontare solo dei successi e poco o quasi mai dei fallimenti.
Le transizioni tecnologiche sembrano seguire delle leggi statistiche e le si possono modellizzare con metodi simili a quelli
che abbiamo visto per l’estrazione delle risorse minerarie. È
cosa ben nota che quando una tecnologia o un nuovo prodotto
«ha preso il via» e comincia ad espandersi nel mercato segue
una legge ben precisa ben nota a coloro che si occupano di dinamica dei sistemi. Questa legge viene detta «logistica» ed è
descritta da un’equazione molto semplice che produce una curva a forma di «s», detta «sigmoide». Per capire il concetto di
logistica possiamo pensare, per esempio, alla vendita di televisori in bianco e nero in un paese dove ci sono solo radio. Inizialmente, la gente è interessata alla nuova «radio che ha anche
le immagini» ma è anche diffidente, inoltre i nuovi apparecchi
costano cari. Comunque i piú avventurosi e i piú ricchi provano lo stesso a comprare i televisori. Via via che i televisori si
diffondono, la gente comincia ad apprezzarli. Via via che se ne
vendono di piú, i costi si abbassano per fattori di scala nella
produzione. L’espansione prende velocità e le vendite si impennano in una curva rapidamente crescente. Quando però il
mercato si satura, le vendite cominciano a diminuire e la crescita si riduce fino a che le vendite non ristagnano. Da quel
punto in poi, i nuovi televisori si vendono soltanto come rimpiazzo di quelli vecchi.
La curva del numero di televisori venduti segue, appunto,
quella curva a «s» detta «logistica». Notiamo che se invece del
numero totale di televisori venduti seguiamo le vendite di tele225
visori, ovvero il numero di televisori venduti ogni giorno (o
settimana, o mese, poco importa) quello che vediamo è, come
è ovvio, che le vendite passano per un massimo e poi declinano con il saturarsi del mercato. Quello che otteniamo è una
«curva a campana» simile a quella del modello di Hubbert che
abbiamo visto a proposito dell’estrazione di una risorsa mineraria. In effetti, il concetto è lo stesso, solo che nel caso delle
vendite di televisori la «risorsa mineraria» sono le case ancora
prive di televisori. Dal punto di vista matematico, la curva logistica e la curva a campana sono strettamente correlate: la logistica è l’integrale della curva a campana, mentre la curva a
campana è la derivata della logistica. Tutto questo è ben noto,
ma non ci addentreremo qui nei dettagli.
Il fatto che questi fenomeni seguano curve ben precise porta la possibilità di prevedere con buona precisione gli anda-
Figura 15 - Andamento della penetrazione di un prodotto nel mercato secondo una curva logistica.
226
menti, per esempio, delle vendite in un mercato. Una volta che
la curva delle vendite ha cominciato a impennarsi, la crescita
diventa facilmente prevedibile. L’equazione della logistica è
nota e bastano poche linee di un programma per adattare i dati sulle vendite fino a un certo momento al fine di prevedere
con buona sicurezza a che livello e quando il mercato sarà saturato. Questo lavoro si chiama «technological forecasting», ovvero «predizione tecnologica». Ci sono delle ditte specializzate
che si occupano soltanto di questo. Ovviamente è molto utile
per chi produce, per esempio, televisori, sapere con buon anticipo quanti televisori si venderanno e a che punto le vendite
cominceranno a declinare per la saturazione del mercato.
La capacità di fare queste predizioni quantitative è indubbiamente interessante, ma non dovrebbe essere sopravvalutata. Prevedere tempi e modi della saturazione di un mercato da
parte di una certa tecnologia è una cosa, in fin dei conti, banale. Una volta che una tecnologia è stata messa a punto e che le
vendite hanno preso il via in modo robusto è abbastanza ovvio
che finirà col saturare il mercato.
Sarebbe piú interessante, invece, prevedere cose molto piú
difficili da prevedere: per esempio, se due o piú tecnologie sono in competizione in una fase in cui ancora le tendenze del
mercato non sono chiare, quale sarà la tecnologia vincente? Su
questo punto i predittori ufficiali dicono chiaramente che la
loro scienza non ha potere. La fase in cui diverse tecnologie
ancora non perfezionate competono viene detta in gergo snake
pit, «pozzo dei serpenti». È il mercato che a un certo punto
decide quale tecnologia adottare, eliminando tutte le altre, ma
il mercato decide a modo suo senza che lo si possa prevedere.
Un esempio di questa competizione è stata quella fra i vari
formati di videocassetta, dove per un certo periodo due sistemi sono stati in concorrenza: il formato «Beta» (o Betamax)
commercializzato dalla Sony, e il formato VHS commercializzato dalla Matsushita. A loro volta, questi formati erano il risultato di una selezione precedente che aveva eliminato altri formati dei quali oggi non ricordiamo nemmeno il nome. Comunque fosse, il mercato aveva posto soltanto per un formato, e a
227
lungo andare il formato VHS ha eliminato il formato «Beta».
Questo risultato era prevedibile con l’analisi basata sulle curve
logistiche, ma soltanto da un certo punto in poi. La predizione
era possibile soltanto a partire dal momento in cui entrambi i
formati avevano raggiunto un certo grado di penetrazione sul
mercato. Se questo fosse stato prevedibile fin dall’inizio, è ovvio che la Sony non si sarebbe lanciata nella commercializzazione di un prodotto che sapeva essere perdente.
Il secondo punto di debolezza dell’analisi basata sulle curve
logistiche è la difficoltà di prevedere quando esattamente una
certa curva avrà inizio. Ovviamente, il mercato di un prodotto
tecnologico non si esaurisce certamente con una sola curva logistica. Dopo che il mercato è saturato con un certo prodotto,
si aprono possibilità per prodotti migliori o comunque diversi.
Le logistiche per ciascuno di questi prodotti si susseguono una
dopo l’altra. Nell’esempio che abbiamo fatto, quello dei televisori, dopo che piú o meno tutte le famiglie hanno comprato un
televisore in bianco e nero, sono mature per essere interessate
a passare a un televisore a colori. Quando questo nuovo prodotto diventa disponibile a un prezzo ragionevole, comincia a
diffondersi seguendo una nuova curva logistica. Quindi, il mercato degli «apparecchi ricevitori di trasmissioni» consiste di almeno tre logistiche successive. Una per le radio, una per i televisori in bianco e nero, una per i televisori a colori. Gli specialisti chiamano queste successive logistiche «cicli di Kondratjeff». Nel futuro ci potrebbe essere un’altra logistica per
qualche nuovo aggeggio, forse una «tv tridimensionale», ma
ancora non ne vediamo l’inizio.
Il problema è proprio questo. Non possiamo prevedere
quando avrà inizio un nuovo ciclo di Kondratjeff e, per quanto
ne sappiamo, non esiste alcuna legge che descriva come i vari
cicli di Kondratjeff si succedono. Il nuovo ciclo, quello (forse)
della tv tridimensionale, avrà inizio quando le tecnologie necessarie saranno «mature» ma è estremamente difficile dire
quando questo si verificherà. Potrebbe essere fra pochi anni,
oppure fra cinquant’anni. Giudicare il grado di maturità di una
tecnologia non è cosa che si possa fare con curve logistiche o
228
comunque con un approccio di dinamica dei sistemi. È un giudizio che solo gli specialisti possono dare ed è ben noto che
predizioni di questo genere sono estremamente difficili anche
per gli specialisti. Se diamo retta a quello che ci raccontavano
negli anni cinquanta e sessanta, per esempio, oggi dovremmo
viaggiare tutti su automobili volanti. Quello che oggi ci sembra
un’ovvia fesseria, all’epoca evidentemente sembrava una logica
conseguenza di certe tendenze.
Ritornando al caso delle fonti di energia, possiamo ridefinire il problema in termini di quelli che abbiamo chiamato «cicli
di Kondratjeff». Abbiamo visto come in passato ci siano stati
tre cicli: il legno, il carbone e il petrolio. Un ulteriore ciclo di
Kondratjeff è stato quello dell’energia nucleare che però non
ha saturato il mercato ma si è attestato su un 7% circa del totale. L’analisi logistica (o per curve a campana) ci fa vedere come i vari cicli si sono succeduti secondo logistiche ben definite. Questa analisi è stata seguita, per esempio, da Cesare Marchetti della IIASA di Vienna che riporta il grafico seguente (Figura 16).
Figura 16 - Andamento della produzione di energia dalle varie fonti utilizzate storicamente secondo C. Marchetti, Proceedings di Hydroforum, 2000.
229
In questo grafico, Marchetti ha riportato sull’asse delle y un
fattore f/(1-f) su scala logaritmica piuttosto che il valore della
funzione stessa su scala lineare come si fa di solito. È un piccolo trucco matematico per rendere lineari alcune parti della curva, ma cambia poco alla questione. A parte questa complicazione di tipo matematico le curve di Marchetti ci danno un’idea molto evidente delle profonde trasformazioni energetiche
che si sono verificate negli ultimi secoli.
Da questi grafici vediamo che la tendenza attuale è nettamente per una sostituzione del petrolio con il gas naturale. Il
ciclo è robusto ed è iniziato ormai da diversi anni. Ma la sostituzione di un combustibile fossile (petrolio) con un altro (gas
naturale) non risolve certamente i problemi che abbiamo di
fronte. Quello che ci interessa in realtà è il successivo ciclo di
Kondratjeff: che cosa sostituirà i combustibili fossili in quello
che potremmo chiamare la «terza transizione energetica» (dopo il legno e il carbone)?
Ahimé, purtroppo, come abbiamo detto, la teoria delle transizioni tecnologiche ci dice poco o nulla su come e quando un
nuovo ciclo di Kondratjeff avrà inizio. Vediamo che Marchetti
nel suo grafico prova a estrapolare per il nucleare e introduce
anche qualcosa di non noto che lui chiama «Solfus», indicando qualcosa che potrebbe essere l’energia solare (sol) oppure
la fusione nucleare (fus). Per quanto riguarda queste tecnologie, tuttavia, siamo tuttora nella zona dello snake pit, quella zona di competizione in cui molte tecnologie ancora non messe a
punto competono per assicurarsi il futuro mercato. Per il momento, nessuna di queste tecnologie è ancora emersa con una
tale forza da permetterci di dire con sicurezza «quello è il futuro». L’energia nucleare, come abbiamo detto, si è bloccata negli anni ottanta e affronta grossi problemi che potrebbero rendere difficile una sua espansione. Le varie tecnologie rinnovabili (sole o vento) stanno mostrando interessanti tendenze di
crescita, ma ancora non possiamo vedere delle tendenze ben
precise.
Per quello che appare oggi si potrebbe essere tentati di pensare che la logistica dell’energia rinnovabile ha già avuto inizio
230
e che la curva di crescita deve a questo punto impennarsi e saturare il mercato. Questo però sarebbe un errore. L’esperienza
insegna che per poter fare questo tipo di predizione bisogna
che la logistica sia arrivata a coprire una frazione significativa
del mercato. Non ci sono valori assoluti per quantificare il concetto di «frazione significativa» ma possiamo dire che non ha
senso fare predizioni partendo da meno di qualche percento di
penetrazione di mercato. Oggi, la penetrazione dell’energia eolica è forse già a questo livello, ma quella dell’energia solare è
ancora infinitesimale. Gli impianti solari hanno avuto un successo molto limitato e si sono attestati su una produzione che è
oggi meno dello 0,5% del TFC mondiale.
Quindi, siamo di fronte a una situazione estremamente dinamica e difficile da prevedere. Da una parte, la riduzione progressiva dei costi dell’energia solare, accoppiata con la crescente difficoltà di produrre combustibili fossili in quantità sufficiente per le necessità planetarie, sta già portando a una rapidissima crescita dell’energia solare (valori fra il 2-3% all’anno42). Se estrapoliamo questi dati, ne consegue che il «punto
di incrocio» in cui l’energia prodotta da fonti rinnovabili sorpassa quella prodotta da fonti fossili potrebbe verificarsi entro
la prima metà del ventunesimo secolo. D’altra parte, l’alternativa potrebbe essere invece una ripresa dello sviluppo dell’energia nucleare, un punto di vista favorito, fra gli altri, da Marchetti. Non è nemmeno impossibile che qualche tecnologia
completamente nuova soppianti sia il solare che il nucleare tradizionale. Per esempio l’energia nucleare da fusione è da parecchi anni la «cenerentola» delle fonti energetiche. Ci si lavora sopra da un buon mezzo secolo ma nessuno può dire esattamente se e quando diventerà una tecnologia pratica ed economica. Come abbiamo detto, ci troviamo oggi in pieno nello
«snake pit» tecnologico e pertanto questo tipo di estrapolazioni sono estremamente incerte. Possiamo dire che una nuova
transizione è matura, ma non sappiamo di che tipo sarà né esattamente quando si verificherà.
Potremmo domandarci a questo punto se vale la pena
preoccuparsi tanto. Se è il mercato che decide le transizioni
231
tecnologiche, allora possiamo pensare che deciderà per il meglio. Quando una nuova tecnologia energetica sarà disponibile, questa sostituirà quelle esistenti senza traumi e senza problemi, cosí come abbiamo visto il carbone fossile sostituire il
legno e poi il petrolio sostituire il carbone.
Secondo alcuni, la «mano invisibile» del mercato risolverà
tutti i problemi e in effetti questo è il punto di vista di alcuni
economisti, quali per esempio Lynch51. La logica del loro argomento è proprio quella che abbiamo appena detto: il mercato
risolverà tutti i problemi quando questi cominceranno a porsi.
È un ragionamento tipico per degli economisti, ma è anche un
ragionamento fideistico basato su un’estrapolazione di dati passati ma non su una visione fisica del problema. Somiglia, per
fare un esempio, al ragionamento che potrebbe fare uno che
cade dal cinquantesimo piano di un grattacielo. Arrivato quasi
in fondo, potrebbe anche ragionare che la situazione è buona
dicendo: «beh, mi sono fatto già quarantanove piani e finora
non mi è successo nulla».
L’errore nel ragionamento di questo tale che sta per spiaccicarsi sul marciapiede è, ovviamente, la mancanza di una visione fisica del problema. È noto che è estremamente pericoloso
estrapolare dei dati senza un modello fisico che supporti l’estrapolazione. Lo stesso errore si trova nel ragionamento degli
economisti. Agli economisti spesso manca il concetto fisico di
«risorsa non rinnovabile» e hanno delle grosse difficoltà a rendersi conto che nessun investimento potrà mai trovare pozzi
che non ci sono né portare in superficie petrolio da pozzi ormai esauriti. Al limite, se il petrolio e gli altri combustibili fossili dovessero esaurirsi in tempi molto rapidi, o se la stupidità
umana distruggesse una buona parte delle riserve con qualche
guerra atomica o simili, potremmo trovarci privi delle risorse
necessarie per sviluppare tecnologie alternative e in questo caso ci troveremmo di fronte al crollo irreversibile della nostra
civiltà. Sarebbe l’equivalente energetico di spiaccicarsi cadendo dal cinquantesimo piano.
Al limite, se trascuriamo il problema potremmo trovarci nella condizione del «modello Olduway» di R.C. Duncan52 che di232
ce tranquillamente che ci ritroveremo all’età della pietra come i
primati australopiteci (forse), nostri antenati i cui resti sono stati
ritrovati nella gola di Olduway in Africa. Indubbiamente un po’
drastico come modello, ma non privo di una sua giustificazione.
La nostra specie, homo sapiens, ha vissuto all’età della pietra
forse per novantamila anni. In comparazione a questo immenso
lasso di tempo, i due secoli o giú di lí durante i quali abbiamo
bruciato combustibili fossili sono ben poca cosa: un lampo di
luce nell’oscurità a cui potrebbe seguire di nuovo il buio rischiarato soltanto dagli stoppini delle lampade a grasso animale.
Questa è, evidentemente, un’esagerazione, ma è anche il
quadro delle conseguenze possibili del seguire alla cieca certi
ragionamenti che hanno funzionato in passato ma che non è
detto che funzionino sempre. Non sempre, in effetti, le società
del passato sono riuscite a risolvere le crisi cui si sono trovate
di fronte. Un esempio è l’Impero romano che dipendeva da
certe risorse che a un certo punto si sono esaurite. Ovviamente
l’Impero non dipendeva dal petrolio, piuttosto dal grano. Il
grano nutriva gli schiavi che erano la «risorsa energetica» principale dell’Impero. Il meccanismo che trasportava grano dal
Medio Oriente a Roma era equivalente, sia pure in scala ridotta, all’attuale meccanismo di globalizzazione. Le navi onerarie
erano l’equivalente delle nostre petroliere. Per i romani il grano era la risorsa primaria, come per noi lo è il petrolio. L’«annona», l’agenzia governativa romana che distribuiva il grano e
ne stabiliva i prezzi, era sotto certi aspetti l’equivalente della
nostra OPEC.
Il grano, a differenza del petrolio, è una risorsa rinnovabile,
almeno in teoria. Ma se si sfrutta troppo la terra, ovvero si produce piú di quanto la terra è in grado poi di sostenere, anche il
grano, come il petrolio, diventa una risorsa non rinnovabile.
Nel caso dell’Impero romano il sovrasfruttamento delle terre
africane per produrre grano portò gradualmente alla desertificazione e all’esaurimento delle capacità di produzione con tutte le conseguenze che sappiamo. Sono tempi remoti e situazioni diverse, ma tuttavia ci danno un’idea del «trauma sociale»
che l’esaurimento di una risorsa primaria può portare.
233
Potremmo speculare su cosa sarebbe successo se i romani
fossero riusciti a sostituire gli schiavi con la macchina a vapore. In effetti meccanismi equivalenti alla moderna macchina a
vapore erano già stati inventati dagli scienziati di Alessandria
ben prima dell’inizio della decadenza di Roma. In linea di principio, i romani del tempo – diciamo di Traiano o di Diocleziano – erano perfettamente in grado di costruire macchine a vapore e di utilizzarle. Tuttavia, la società romana dell’epoca imperiale non era in grado di integrare macchine a vapore nella
sua struttura. Mancavano le infrastrutture e soprattutto la base
industriale che le avrebbe rese utili. Per i romani, costruire
macchine a vapore sarebbe stato come per noi costruire oggi
astronavi interplanetarie: possibile in principio ma troppo costoso e non integrabile con il resto della nostra società, che ancora è tutta sulla superficie di un solo pianeta. Per introdurre
macchine a vapore in Europa, ovvero dare inizio al relativo ciclo di Kondratjev, è stato necessario aspettare circa duemila
anni dall’epoca in cui sono state possibili dal punto di vista
tecnologico.
Ci possiamo pertanto porre il problema se sia possibile in
qualche modo favorire o accelerare la terza transizione energetica. Siamo in grado di far partire il prossimo ciclo di Kondratjeff con un calcio e uno spintone? In questo modo ci metteremmo al sicuro dalla prospettiva che possibili crisi geopolitiche rendano la transizione urgente e drammatica in tempi
brevi. Se questo sia effettivamente possibile è difficile dire. È
certo che i meccanismi dell’economia sono abbastanza resilienti e spesso reagiscono male ai tentativi anche bene intenzionati
di influenzarli.
A volte, succede anche che dei tentativi bene intenzionati
di favorire energie alternative al petrolio si rivelino controproducenti. Prendiamo per esempio il programma «10.000 tetti
fotovoltaici» che il governo italiano aveva considerato negli anni novanta come la strategia principale per ottemperare alle
provvisioni del protocollo di Kyoto. Nella pratica, come abbiamo già visto in un capitolo precedente, l’Italia ha fallito clamorosamente l’obbiettivo. Invece di diminuire le proprie emissio234
ni del 6,5% le ha aumentate di circa l’8%. Cosa è successo?
Di fatto l’intervento governativo è stato controproducente.
Il primo errore è stato focalizzarsi sui pannelli fotovoltaici, una
tecnologia molto costosa. L’idea era che installando i primi
10.000 pannelli si sarebbe data una grossa spinta alla produzione, i costi sarebbero diminuiti e si sarebbe dato origine a un
effetto valanga, un circolo virtuoso che avrebbe spinto all’installazone di ulteriori pannelli. Questo non si è verificato perché i costi dei pannelli solari erano e rimangono tuttora assolutamente fuori mercato. Nessuno con la testa al posto giusto
comprerebbe pannelli solari al prezzo di mercato quando può
calcolare che il tempo di ammortamento dell’investimento è di
circa quarant’anni. Anche in presenza di un contributo pubblico, il ritorno all’investimento è sempre piú di dieci anni, e in
sostanza non era neanche vagamente pensabile che in pochi
anni si potesse creare quell’«effetto valanga» che avrebbe sostanzialmente ridotto i prezzi.
Il secondo problema, forse peggiore, era la scelta del meccanismo di incentivazione. Quello scelto era un contributo del
70% in conto capitale. Come abbiamo detto, anche questo finanziamento (del resto comunque pagato con i soldi pubblici)
non era sufficiente a rendere convenienti i pannelli. Non solo,
ma pagando la stessa cifra per qualsiasi tipo di pannello, si incentivava in pratica la tecnologia peggiore. Chi comprava pannelli non erano privati interessati a risparmiare, erano enti pubblici interessati solo a un miglioramento dell’immagine. Di conseguenza, chi vendeva pannelli vendeva la peggior robaccia,
andava bene purché fosse a basso costo, fosse blu e fosse ben
visibile sui tetti del Comune o di qualche altro edificio pubblico. Che producesse elettricità per davvero non interessava veramente a nessuno.
Confrontiamo questo disastro con la politica fatta invece in
Germania per gli stessi scopi. Il governo tedesco ha incentivato l’energia prodotta invece del costo dell’impianto, ovvero ha
fatto delle leggi per le quali le aziende pubbliche produttrici di
energia elettrica erano obbligate a comprare l’energia prodotta
dai privati a prezzi vantaggiosi per i privati stessi. Sembra una
235
piccola differenza, ma è abissale: è tutta qui la differenza fra i
buoni risultati ottenuti in Germania nel campo della riduzione
dei consumi e l’aumento dell’efficienza e il parallelo disastro
italiano nella stessa area. Infatti, se i privati sono pagati per l’energia che producono, allora sono incentivati a produrla nel
modo piú efficiente. Potranno anche produrla con pannelli fotovoltaici, dipende da loro giudicare la convenienza: certamente vorranno i pannelli piú efficienti che esistono sul mercato e
non compreranno certo la robaccia sovvenzionata dallo stato
che si vende in Italia. Potranno anche decidere di usare altre
tecniche, metteranno delle eliche sul tetto, pedaleranno su cyclette collegate a delle dinamo, non importa cosa, ma in ogni
caso al momento in cui uno si trova a ragionare in termini di
un produttore di energia è ovvio che cercherà di produrre nel
modo piú efficiente.
Alla fine dei conti, dunque, vediamo che un oculato intervento dello stato per incentivare le buone abitudini può fare
molto per favorire una transizione tecnologica. La transizione
potrebbe essere già cominciata in Germania, da noi in Italia
siamo ancora molto indietro ma non è detto che non si possa
ancora recuperare.
236
Conclusione
Dopo questa discussione sulla situazione mondiale dell’energia possiamo arrivare a tirare le somme. Abbiamo visto che
ci sono dei seri problemi associati al nostro uso quasi esclusivo
del petrolio, e in generale dei combustibili fossili, come fonti
energetiche primarie. Questi problemi li possiamo riassumere
come segue:
1. Surriscaldamento dell’atmosfera dovuto ai gas serra generati dalla combustione degli idrocarburi.
2. Esaurimento progressivo dei combustibili fossili.
3. Conflitti e guerre generati dalla competizione per le risorse
fossili rimaste.
Questi tre problemi interagiscono fra loro in modi complessi
e difficilmente quantificabili. L’esaurimento dei combustibili genera conflitti per accaparrarsi le rimanenti risorse, i quali a loro
volta causano un uso piú rapido delle risorse e quindi un ulteriore esaurimento. Al contrario, per quanto riguarda la relazione fra
il surriscaldamento planetario e l’esaurimento delle risorse potrebbe darsi che una delle due emergenze risolva l’altra. Ovvero,
è possibile che la scarsità di combustibili fossili renda meno grave il problema dei gas serra. Viceversa, i danni fatti dal surriscaldamento potrebbero forzarci a ridurre l’uso dei combustibili fossili e quindi allontanare il problema dell’esaurimento.
237
Sulla base di quello che abbiamo visto, tenendo conto di
tutte le varie incertezze nei dati e con tutta la cautela del caso,
possiamo dire che forse il problema del surriscaldamento planetario è il meno pressante fra quelli che fronteggiamo. In effetti, i risultati dei modelli climatici ci dicono (con una stima
molto approssimativa) che i danni dei gas serra non dovrebbero farsi veramente gravi prima della metà del secolo corrente
anche assumendo che fossimo in grado di continuare a bruciare petrolio e altri combustibili ai ritmi forsennati che abbiamo
mantenuto finora. Questo non vuol dire che dobbiamo o possiamo ignorare il problema, al contrario dobbiamo continuare
a lavorare per ridurre la quantità di gas serra emessi per due
buoni motivi. Innanzitutto perché le incertezze nei tempi sono
tali che non possiamo sentirci sicuri che non ci arrivino addosso gravi danni già a breve scadenza, inoltre perché lavorare sulla diminuzione delle emissioni di biossido di carbonio significa
comunque fare dei passi avanti per ridurre la nostra dipendenza dal petrolio e dagli altri combustibili fossili.
Per quanto riguarda l’esaurimento dei combustibili fossili,
anche qui non sembra che siamo di fronte a un problema immediato, tuttavia i tempi sono decisamente piú brevi di quelli
stimati per il surriscaldamento atmosferico. Abbiamo ancora
disponibile per l’estrazione oltre la metà di tutto il petrolio esistente originariamente sul pianeta e le riserve di gas naturale
sono ancora meno sfruttate. Quelle di carbone, poi, sono ancora molto piú abbondanti. Questo non vuol dire che il problema si possa rimandare alle prossime generazioni: comincerà
a farsi pressante molto prima. Secondo la maggior parte dei
calcoli, ci potremmo trovare in una situazione di scarsità di petrolio e di prezzi alti già molto prima del completo esaurimento dei pozzi. I tempi per arrivare a questa situazione potrebbero essere brevi, solo di qualche anno, anche se alcuni autori
parlano di qualche decennio.
Finalmente, la competizione per le risorse petrolifere planetarie sembra essere in pieno sviluppo già oggi e le guerre in Afghanistan (2002) e in Iraq (2003) potrebbero essere le prime di
un ciclo di «guerre per il petrolio» che potrebbero portare a
238
enormi danni. Vale la pena di ricordare che la piú grande crisi
energetica che la storia ricordi, quella cominciata nel 1979, fu
causata direttamente dagli sconvolgimenti politici in un paese
produttore di petrolio, l’Iran, e dalla guerra con l’Iraq che ne
seguí.
È evidente che in vista di queste prospettive poco entusiasmanti dobbiamo cominciare a pensare seriamente a fare a meno del petrolio. Abbiamo visto come le soluzioni tecnologiche
per farlo esistono: energia solare e nucleare.
Di queste, l’energia nucleare convenzionale (fissione) non
sembra la migliore. A parte i vari problemi tecnici non ancora
risolti associati con la fissione, ci porterebbe pochi vantaggi
sostituire la nostra dipendenza da una risorsa non rinnovabile
e geograficamente localizzata (petrolio) con un’altra risorsa altrettanto non rinnovabile e localizzata (uranio). Tuttavia, la fissione nucleare potrebbe essere un’utile soluzione temporanea.
Altri tipi di energia nucleare oggi ancora in sviluppo (fissione
assistita, fusione) sarebbero interessantissimi, ma solo per un
futuro che per il momento non appare troppo prossimo.
A medio e lungo termine, la soluzione è l’energia solare.
Abbiamo visto come la radiazione solare che arriva sulla Terra
sia piú che sufficiente per soddisfare qualsiasi necessità umana, utilizzando per raccoglierla solo una piccola frazione dell’estensione delle terre emerse anche soltanto con la tecnologia
attuale, che sicuramente può essere migliorata. Sfruttando i deserti per trasformare l’energia solare in idrogeno possiamo arrivare a un mondo piú pulito dove l’energia è abbondante, poco cara, e a disposizione di tutti.
Il problema principale nell’impresa di sostituzione del petrolio non è un problema tecnico. È un problema di tempi e di
costi. L’esaurimento delle risorse e le guerre per accaparrarsi
quello che rimane potrebbero metterci di fronte alla necessità
di una transizione energetica forzata, ovvero una transizione
che dovremmo portare a termine in tempi molto piú brevi dei
suoi «tempi naturali». In questo caso, sarebbe necessario concentrare nella transizione enormi investimenti in tempi brevi.
Questo processo potrebbe non essere indolore, anzi potrebbe
239
essere disastroso. Il risultato potrebbe essere una forte contrazione economica simile a quella che abbiamo già visto nella prima metà degli anni ottanta in corrispondenza della seconda crisi del petrolio. Una contrazione analoga potrebbe anche avere
effetti drammatici, specialmente per i paesi poveri.
D’altra parte, la scala dei tempi della transizione potrebbe
non essere cosí stretta come alcuni dei modelli ci dicono. Inoltre non dobbiamo trascurare l’impatto della tecnologia che
avanza. In effetti, basterebbe poco per invertire l’attuale tendenza. Basterebbe, per esempio, un rapido avanzamento nella
tecnologia della fusione nucleare per trovarsi in quella condizione di energia abbondante e a buon mercato che si immaginava fosse il futuro negli anni 1950. Il combustibile per la fusione, il deuterio, è abbondante a un tale livello che a tutti gli
effetti pratici lo possiamo considerare infinito. Con il deuterio
potremmo ancora avere astronavi e automobili volanti. Per un
attimo era sembrata una cosa possibile con la «fusione fredda»
degli anni ottanta, poi rivelatasi un’illusione. Ma non è detto
che il breakthrough vero, la grande scoperta che renderebbe il
tutto fattibile, non sia a portata di mano.
Come sempre, la sfera di cristallo è appannata. Se fossimo in
grado di prevedere il futuro non faremmo le scemenze che facciamo e che continuiamo a fare. Cosa ci aspetta? Il ritorno all’età della pietra o l’esplorazione della Galassia? Probabilmente,
come spesso succede, la verità sta nel mezzo e non bisogna né
cadere nel catastrofismo né basarsi unicamente sulla pura fede
nella tecnologia. Comunque vada, andiamo verso tempi interessanti. Speriamo solo che questo non lo si debba intendere, come in un antico proverbio cinese, come una maledizione.
Approfondimenti
Internet è in questo momento ricco di discussioni e documenti sull’incombente crisi del petrolio. Qualsiasi motore di
ricerca produrrà abbondante documentazione semplicemente
combinando le parole chiave «oil» e «depletion».
240
Fra i vari siti, la documentazione piú completa sembra essere quella dell’associazione ASPO (www.asponews.org). Per ricevere la newsletter dell’ASPO, potete scrivere a [email protected]. Altri siti interessanti sono www.hubbertpeak.com (un
po’ allarmistico ma scientificamente valido) oppure il sito dell’International Energy Agency (www.iea.org) come pure quello
del dipartimento dell’energia americano (www.doe.gov) (questi piú «politicamente corretti»).
Tutti questi siti sono in inglese, in italiano non esiste praticamente nulla sulla questione dell’esaurimento del petrolio al
momento attuale (marzo 2003) eccetto alcuni documenti dell’autore del presente libro che potete trovare a
www.unifi.it/unifi/surfchem/solid/bardi/energia.
Ringraziamenti
L’autore ringrazia Colin Campbell e Jean Laherrere per i
loro suggerimenti riguardo ad alcuni degli argomenti trattati in
questo testo, nonché per l’eccellente lavoro che fanno e hanno
fatto sul tema delle risorse petrolifere planetarie.
241
242
Note
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
International Energy Agency, World Energy Outlook, 2000.
http://www.ipcc.ch
European Environmental Energy, release 6 dicembre 2002.
W. Krewitt, in Energy Policy, 30 (2002), p. 839.
U. Bardi, in Energy Policy, in corso di pubblicazione, 2003.
Longwell, World Energy, v. 5, 3, 2002.
J. Wood,
http://www.eia.doe.gov/pub/oil_gas/petroleum/presentations/2000/long_term_supply/index.htm
H.H. Rogner, «An assessment of world hydrocarbon resources», Annual
Review of Energy and Environment, 22, (1997), pp. 217-262.
M.C. Lynch, in The Quarterly Review of Economics and Finance, 42
(2002), pp. 373-389.
J. Bielecki, in The Quarterly Review of Economics and Finance, 42 (2002),
pp. 235-250.
«The Impact of Exchange Rate Movements on U.S. Foreign Debt», New
York Federal Bank Current Issues in Economics and Finance, febbraio
2003.
www.asponews.org
WTRG Economics, 1998.
www.brownstone.org/Institute/Verlager.html
C. Campbell, ASPO newlsletter, dicembre 2002.
M. Renner, «The anatomy of resource wars», Worldwatch paper, 162
(2002).
«L’effetto delle Sanzioni», rapporto UNICEF 1998.
Richard Lowry, in The National Review, novembre 2001.
www.newamericancentury.org
www.uscc.gov/strat.pdf
http://www.whitehouse.gov/energy/
P. Harris, «La guerra contro l’Europa», Yellow Times (YellowTimes.org),
19 febbraio 2003.
W. Clark, «Le vere ragioni della prossima guerra contro l’Iraq, un’anali243
24
25
26
27
28
29
30
31
32
33
34
35
36
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
244
si macroeconomica e geostrategica della verità taciuta»,
http://www.ecapc.org/eurodollariraq.asp
International Energy Agency (IEA) Report, 2000.
T. Muneer, M. Asif, K. Kubie, Energy Conversion and Management, 44
(2003), p. 35.
Y. Nitta e S. Yoda, Technological forecasting and Social Change, 49 (1995),
p. 175.
Vedi M. Palazzetti e M. Pallante, L’uso razionale dell’energia, Bollati-Boringhieri 1997.
Progetto «Orion» degli anni ’50, vedi F. Dyson, Disturbing the Universe,
New York 1979.
Y. Nitta e S. Yoda, cit.
R.L. Garwin: http://www.fas.org/rlg
Storm van Leeuwen e Smith: http://behee.oprit.rug.nl/deenen
Storm van Leeuwen e Smith, Energy Policy, 13 (1985), p. 3.
Http://www.uic.com.au/nip5.htm.
Carlo Rubbia in Aspenia, n. 18, 2002.
C. Marchetti, comunicazione privata.
M.T. Maloney e O. Diaconu, Clemson Univ. Report, 2001.
US DOE, Final non proliferation and Arms control assessment, 1997.
E. Turrini, La via del Sole, 1990.
J. Wolf et al., Agricultural systems, 76 (2003), p. 841.
J.M. Pearce, Futures, 34 (2002), p. 663.
T. Muneer, M. Asif, J. Kubie, Energy Conversion & Management, 2002.
J. Schlaich, Engineering Structures, 21 (1999), p. 658.
J. Schlaich, The Solar Chimney, Axel Menges Eds, Stuttgart, 1995.
Luxembourg office for Official publications of the European Communities, Green paper of the European Commission «Towards a European strategy for the security of energy supply», 2001.
P. Baptiste, R. Ducroux, Energy policy, 2002.
L.R. Brown, Eco-Economy, Building an Economy for the Earth, W. Norton & Co., NY, 2001, p. 103.
P. Fornaciari, «Il falso mito della concorrenza nel settore energetico»,
L’opinione, 17 aprile 2002.
F. Trieb, O. Langliss, H. Klaiss, Solar Energy, 59 (1997), p. 89.
M. Palazzetti, M. Pallante, L’uso razionale dell’energia, Bollati Boringhieri, 1997.
M.C. Lynch, in The Quarterly Review of Economics and Finance, 42
(2002), pp. 373-389.
R.C. Duncan, in Population and Environment, vol. 22, 5, 2001.