Unione Europea - Dipartimento di Scienze politiche e internazionali

Transcript

Unione Europea - Dipartimento di Scienze politiche e internazionali
Dipartimento di Scienze Politiche e Internazionali, Università di Siena
Anno accademico 2013-14
Francesco Farina
Politica Economica Internazionale
Parte Prima. Equilibrio macroeconomico
1. Le funzioni di offerta aggregata e di domanda aggregata
Il modello IS-LM presenta due caratteristiche importanti: 1. l’equilibrio
macroeconomico non prevede necessariamente la piena occupazione della forza
lavoro, in quanto è la domanda a generare l’offerta; se la domanda privata è
insufficiente a generare il livello di produzione corrispondente alla piena occupazione
la spesa pubblica interviene ad avvicinare il sistema economico al completo utilizzo
dei fattori; 2. il livello generale dei prezzi (il prezzo, trattandosi di un modello ad un
solo bene) è dato esogenamente; in altri termini, il modello IS-LM non offre una
spiegazione del perché il prezzo si trovi ad un certo livello.
Con il modello AS-AD queste due caratteristiche vengono superate. Il livello di
attività economica, sotto la spinta degli incentivi di mercato che guidano i
comportamenti di soggetti razionali al massimo utile (nel consumo) e profitto (nella
produzione), è di norma pari a quello di piena occupazione. La definitiva
incorporazione del livello dei prezzi di concorrenza perfetta nell’equilibrio
macroeconomico avviene con la cosiddetta curva di Phillips corretta con le
aspettative.
1
2. Inflazione e disinflazione
Dopo la cosiddetta “età dell’oro” dei primi due decenni del secondo dopoguerra,
caratterizzati da elevati tassi di crescita e prezzi in lenta evoluzione, in molte
economie avanzate il fenomeno dell’inflazione riprese vigore. Negli anni ’70, il forte
assorbimento di forza lavoro degli anni della crescita rapida innescò un conflitto
distributivo fra salari e profitti. In concomitanza con la guerra del Kippur del 197374, si manifestarono eccezionali incrementi di prezzo del petrolio, nell’ordine del
400%. Nei paesi importatori di petrolio si pose il problema di quale gruppo sociale – i
lavoratori o gli imprenditori - dovesse accollarsi il costo della cosiddetta “bolletta
petrolifera”, il notevole esborso aggiuntivo che gravava sulla bilancia commerciale.
Nuovi forti aumenti si ebbero nel 1979, come conseguenza del rafforzamento del
potere politico dei paesi aderenti all’OPEC (Organisation of Petroleum Exporting
Countries). Il conflitto distributivo si protrasse così per tutto il decennio, generando
una serie di fenomeni di instabilità macroeconomica che cominciarono a placarsi solo
a metà degli anni ’80. Dopo la progressiva disinflazione, che si protrasse fino a metà
anni ’90, nelle tre grandi aree valutarie – del dollaro, dell’euro e dello yen - i tassi di
inflazione si sono stabilizzati a livelli molto bassi.
Il principale limite del modello IS-LM è quello di essere stato concepito a prezzi
costanti e dunque di essere inutilizzabile per l’analisi dell’inflazione. L’ipotesi
esogena di prezzi costanti e l’assenza delle aspettative sul futuro limitano
notevolmente la capacità interpretativa e previsionale del modello IS-LM. Molti
sforzi vennero perciò dedicati alla costruzione di un nuovo modello macroeconomico
in grado di determinare endogenamente il livello dei prezzi. L’opportunità per
colmare tale lacuna venne individuata nella correlazione inversa non lineare fra
disoccupazione e tasso di variazione dei salari nominali che Alban W. Phillips aveva
desunto nel 1958 dalla sua verifica empirica condotta sul Regno Unito dal 1861 al
2
1957. La curva di Phillips registra la tendenza dei salari a crescere a mano a mano
che la forza lavoro disoccupata si riduce ed il potere di contrattazione dei lavoratori
aumenta. L’incremento del salario monetario al di sopra della produttività marginale
del lavoro viene annullato dalla crescita dei prezzi indotta dall’eccesso di domanda
che si crea nei mercati di concorrenza perfetta nella fase espansiva del ciclo
economico. La curva di Phillips venne così a rappresentare lo strumento analitico che
si aggiungeva all’equilibrio macroeconomico nei mercati dei beni e della moneta. La
sua considerazione nel modello IS-LM permise la determinazione endogena del
livello dei prezzi, e, di conseguenza, anche dei valori nominali del salario e del
reddito. La relazione inversa fra tasso di disoccupazione e tasso di inflazione venne
poi estesa all’analisi dei mercati di concorrenza imperfetta. Le imprese sono definite
price-setters perché non subiscono il prezzo che si forma nel proprio mercato di
vendita ma lo fissano in base alla formula del mark-up (ρ):
p=(1+ρ)w
dove (1+ρ) è il margine di profitto che l’impresa intende assicurarsi attraverso la
fissazione di un prezzo più elevato che in concorrenza perfetta.
Per questo schema macroeconomico, le cose cominciarono a complicarsi quando, alla
verifica empirica, il segno della relazione fra tasso di disoccupazione e tasso di
inflazione mostrò un cambiamento dal valore negativo a quello positivo. All’evidenza
di incrementi contestuali sia del tasso di inflazione che del tasso di disoccupazione
venne dato il nome di “stagflazione”. Si pose il problema se si dovesse o meno
relegare la curva di Phillips in soffitta. La risposta fu trovata nei lavori - quasi
contemporanei, ma indipendenti l’uno dall’altro - di Edmund Phelps (1967) e di
Milton Friedman (1968). I due economisti statunitensi elaborarono una nuova
costruzione analitica, la curva di Phillips “corretta per le aspettative”. Tale nuovo
strumento analitico ebbe il pregio di riconciliare il trade-off disoccupazioneinflazione individuato da Phillips con il fenomeno della “stagflazione”. Diversamente
dalla concezione originaria, la curva di Phillips corretta con le aspettative risultò
3
compatibile con la “stagflazione”, e cioè con l’evidenza empirica di più elevati valori
sia della disoccupazione che dell’inflazione; negli Stati Uniti, tra gli anni ’60 e gli
anni ’70, la prima passò dal 4,75% al 6% e la seconda dal 2,5% al 7%.
È bene innanzitutto ricordare che il termine “piena occupazione” va inteso al netto
della disoccupazione puramente frizionale, cioè di chi si trova ad essere
momentaneamente disoccupato perché giovane in cerca di prima occupazione che si
appresta a “riempire” i posti vacanti, oppure perché è un lavoratore in via di
trasferimento da un’occupazione all’altra. Nel prosieguo, al concetto di “piena
occupazione” si sostituisce quello di “disoccupazione naturale” (uN nella Figura 1.4),
ovvero il livello minimo cui può essere portata la disoccupazione, date le risorse
disponibili nell’economia. Con la definizione di “tasso di disoccupazione naturale”
(natural rate of unemployment: NRU) i modelli della Nuova Economia Classica
(NCE) indicano quel livello di impiego della forza lavoro non influenzato dalle
politiche macroeconomiche, ma esclusivamente determinato dalla tecnologia e dalla
scelta degli agenti fra lavoro e tempo libero. Nella Figura 1, osserviamo una famiglia
di curve di Phillips di breve periodo, una per ciascun tasso atteso di inflazione. Il
livello della produzione (o reddito) che si realizza in corrispondenza del tasso
naturale di disoccupazione – definito produzione (o reddito) potenziale - può tuttavia
essere inferiore al livello di produzione efficiente (first-best); la causa consiste in
imperfezioni dei mercati e/o nell’effetto distorsivo della tassazione. I modelli della
Nuova Economia Keynesiana (NKE) adottano la definizione alternativa di “tasso di
disoccupazione al quale l’inflazione non accelera” (non-accelerating-inflation rate of
unemployment: NAIRU).
Il nuovo strumento di analisi dell’inflazione distingue fra disoccupazione di breve
periodo e di lungo periodo. Ciascuna curva di Phillips di breve periodo determina un
equilibrio temporaneo (i punti E, B e D in Figura 1) in corrispondenza
dell’eguaglianza fra i due livelli di tasso di inflazione (quella realizzata e quella
attesa) nel punto di intersezione con il tasso di disoccupazione al livello naturale.
4
Ciascuna curva corrisponde ad un tasso di inflazione attesa più elevato di quello della
curva che sul piano occupa la posizione inferiore:
πe2>πe1>πe0.
Quando il livello effettivo dei prezzi coincide con il livello atteso, l’economia si trova
al tasso di disoccupazione “naturale”. La curva di Phillips di lungo periodo è quindi
nient’altro che l’insieme dei punti di intersezione di ciascuna curva di Phillips di
breve periodo con il tasso naturale di disoccupazione. Dopo che il tasso di
disoccupazione si è discostato dal suo valore naturale (ad esempio è diminuito in
seguito ad una accelerazione della crescita monetaria) si mette in moto un processo di
convergenza che ha termine in corrispondenza di una diversa curva di Phillips di
breve periodo (in questo esempio, più elevata). Friedman e Phelps utilizzano il
modello delle aspettative adattive: gli agenti hanno aspettative che guardano al
passato in modo da adattare i comportamenti a quanto è avvenuto. Nella (1.21) in
assenza di nuovi eventi che provochino lo scostamento della disoccupazione dal tasso
naturale (il secondo termine è nullo), l’aspettativa è che il tasso di inflazione (πt)
confermi il valore determinatosi nel periodo precedente (πt-1). L’importante
implicazione che ne consegue è che il concetto di “disoccupazione naturale” viene
associato all’esistenza di aspettative di inflazione realizzate: l’inflazione effettiva è
eguale all’inflazione attesa.
Definiamo allora la curva di Phillips corretta per le aspettative come la relazione di
breve periodo fra tasso di inflazione corrente e tasso di disoccupazione, dato il tasso
di inflazione del periodo passato. Il tasso di inflazione corrente dipende quindi dal
suo valore nell’anno precedente, dalla pressione esercitata dallo scostamento della
disoccupazione dal suo livello naturale (nella misura di un coefficiente che esprime
l’elasticità dell’inflazione al reddito) e da un eventuale shock:
(1)
π t = π t −1 − (1 / γ )(u t − u N ) + µ t
5
Figura 1. Curva di Phillips di breve e lungo periodo, inflazione e disinflazione
π
πe1
πe2
processo di inflazione:
D→K→B→J→E
πe0
3%
1%
0
E
J
5%
K
processo di disinflazione:
E→A→B→C→D
A
B
D
uN
C
u
Supponiamo che, a partire dal punto D - in corrispondenza di un tasso di inflazione
puramente frizionale, in pratica di “inflazione zero” - una banca centrale generi
un’accelerazione della crescita monetaria diretta a diminuire la disoccupazione al di
sotto del tasso “naturale”. Quanto meno preoccupata per l’inflazione è la banca
centrale, tanto più frequente è il ricorso ad un’espansione monetaria. Con la salita del
tasso di inflazione, il salario reale inizialmente si riduce, favorendo l’incremento della
domanda di lavoro. I lavoratori tengono conto ex post della riduzione del potere
d’acquisto del salario nominale. In seguito agli aumenti nominali rivolti a recuperare
la perdita di potere d’acquisto, i profitti connessi all’aumento dei prezzi di vendita
sono annullati ed il salario reale torna al livello precedente. Le imprese, constatando
il ritorno dei profitti al livello precedente all’incremento dell’occupazione,
correggono al ribasso le aspettative e licenziano i nuovi lavoratori assunti. Il nuovo
equilibrio temporaneo si caratterizza per il ritorno al tasso naturale di disoccupazione,
ma in corrispondenza di un tasso di inflazione stabilmente più alto: le imprese hanno
corretto i prezzi verso l’alto riportando automaticamente gli incrementi dell’anno in
6
corso nei listini, ed i lavoratori hanno adattato il livello di salario richiesto nelle
contrattazioni in funzione dell’incremento dei prezzi che si è determinato. Il nuovo
valore del tasso di inflazione è ormai inglobato nei valori attesi delle grandezze
nominali fissati dagli agenti. Affinché le aspettative degli agenti rinuncino ad
applicarlo di anno in anno, occorre che cambi sostanzialmente il quadro di
riferimento macroeconomico in base al quale essi effettuano le loro previsioni.
La Figura 1 mostra due cicli economici di espansione, innescati dall’accelerazione
della crescita monetaria a partire da un dato livello di tasso naturale di
disoccupazione. Una prima accelerazione monetaria dà luogo ad un aumento
dell’output; l’economia passa dal punto D al punto K, la disoccupazione scende, e
lungo la curva di Phillips più bassa, che ingloba l’aspettativa di inflazione πe0,
l’inflazione sale dall’1% al 3%. Il recupero del salario nominale e la decisione
conseguente delle imprese di ridurre l’occupazione fanno risalire il tasso di
disoccupazione naturale fino al punto B, nel quale il tasso effettivo di breve periodo
eguaglia il tasso di disoccupazione naturale di lungo periodo. Una seconda
accelerazione monetaria, a partire dal punto B, fa muovere l’economia lungo la curva
ad aspettativa di inflazione πe1 (sindacati e imprese hanno incorporato nelle richieste
salariali e nei listini dei prezzi l’inflazione precedente) fino al punto J, con successivo
ritorno all’equilibrio nel punto E. Nei punti B ed E, il tasso di disoccupazione
coincide con il livello naturale. La posizione verticale della curva di Phillips di lungo
periodo riflette il fatto che al termine di ogni ciclo di espansione dell’output permane
un solo mutamento duraturo: un più elevato tasso di inflazione. Mentre il tasso di
inflazione cresce progressivamente, trainato dal susseguirsi di accelerazioni
monetarie, il livello di disoccupazione presenta un andamento ciclico. Tale contrasto
riflette la logica secondo la quale la variazione della quantità di moneta si
ripercuotono sulle grandezze nominali, mentre la disoccupazione è determinata dalle
forze reali che la attraggono verso il suo valore di lungo periodo.
3. Credibilità della politica monetaria e processo di disinflazione
7
Riassumiamo l’analisi svolta sulla curva di Phillips. Nella Figura 1.4, un movimento
lungo la curva di Phillips di breve periodo segna un allontanamento del tasso di
inflazione dal suo livello atteso, cui corrisponde un allontanamento del livello di
disoccupazione dal suo tasso naturale. La convergenza dell’economia al tasso
naturale di disoccupazione dimostra la “neutralità della moneta”. I tentativi della
politica monetaria di aumentare i livelli di occupazione e produzione hanno effetti
solo temporanei. Dopo che il tasso di inflazione è cresciuto al di sopra del suo valore
atteso, il processo di disequilibrio giunge al termine allorché l’incremento nel livello
di attività economica si spegne. Il più elevato tasso di inflazione viene però assunto
dagli agenti nella formazione della nuova aspettativa e quindi risulta incorporato nella
nuova curva di Phillips di breve periodo che occupa nel piano una posizione più
elevata. A ciascuna delle curve di Phillips di breve periodo è associato un diverso
livello atteso di inflazione. L’insieme dei punti in cui le curve di breve periodo
eguagliano il tasso naturale di disoccupazione forma la curva verticale di Phillips di
lungo periodo. Vedremo ora come l’analisi della disinflazione richieda l’adozione del
modello delle aspettative razionali.
Il problema è che con l’adozione di tale modello il comportamento degli agenti risulta
profondamente modificato. Diversamente dal modello delle aspettative adattive, il
tasso di inflazione dipende dalla variazione attesa dell’inflazione calcolata in base
alle previsioni sugli eventi futuri. Ad esempio, gli agenti tengono conto della misura
in cui l’autorità monetaria terrà fede al suo annuncio di crescita monetaria. Pertanto il
tasso di inflazione risulta determinato dallo scostamento della disoccupazione dal
tasso naturale e dall’accelerazione attesa nella crescita dei prezzi. Dato un elevato
tasso di inflazione, qual è la logica economica del cosiddetto “rientro dall’inflazione”,
ovvero l’annullamento della distorsione inflazionistica che dovrebbe concludersi con
il ritorno all’inflazione “zero”? L’evidenza empirica ha confutato l’idea che i processi
di disinflazione siano rappresentabili sottoforma di un continuum di equilibri
temporanei - ciascuno in corrispondenza di una curva di Phillips che incorpora un
tasso di inflazione ogni volta più basso – in una rapida convergenza all’inflazione
8
“zero”. Agenti razionali inseriscono nel loro modello di funzionamento
dell’economia tutta l’informazione disponibile. Le loro aspettative riflettono
previsioni formulate in base non solo all’andamento dei mercati, ma anche al grado di
reputazione delle autorità monetarie riguardo alla fedele attuazione delle politiche
macroeconomiche annunciate. Nel gioco fra banca centrale e agenti del settore
privato il grado di credibilità degli annunci di politica monetaria può influenzare la
determinazione del tasso di disoccupazione in corrispondenza del nuovo tasso di
inflazione. Si parta dall’equilibrio nel punto E all’intersezione fra la curva di Phillips
di breve periodo più elevata e quella di lungo periodo corrispondente al tasso naturale
di disoccupazione (uN) e a un tasso di inflazione del 5% (Figura 1). Gli economisti
NCE sostengono che una terapia d’urto (shock therapy) di forte contrazione della
crescita monetaria sia meno costosa – in termini di perdita di posti di lavoro - di una
manovra di graduale riduzione dell’inflazione. Supponiamo che agenti razionali
ritengano pienamente credibile un annuncio delle autorità di forte restrizione
monetaria volta a provocare un immediato abbattimento dell’inflazione, ad esempio
dal 5% all’1%. Ciò si realizza sotto due condizioni principali: 1) la reputazione antiinflazionistica del governatore della banca centrale deve essere elevata; 2) la
monetary stance anti-inflazionistica è segnalata agli agenti attraverso annunci e
comunicazioni di politica monetaria trasparenti – tali cioè da non lasciare dubbi sulle
effettive intenzioni della banca centrale – in modo da convincere gli agenti ad
effettuare la correzione al ribasso delle aspettative di inflazione. Se fossero presenti
tali condizioni ideali, il sistema economico passerebbe direttamente dal punto di
equilibrio E al punto D, senza alcuna perdita di posti di lavoro. La curva di Phillips di
breve periodo slitterà verso il basso nella posizione (πe=1%), incorporando il tasso di
inflazione atteso dell’1% nel punto di intersezione con la curva di Phillips di lungo
periodo (D). Se invece gli agenti non hanno fiducia nell’orientamento antiinflazionistico della manovra monetaria annunciata dalla banca centrale, una
restrizione monetaria non sarà in grado di ridurre il tasso di inflazione senza incorrere
in un incremento della disoccupazione. Data la rigidità delle aspettative di inflazione,
9
i contratti di lavoro continueranno ad essere firmati per salari nominali che
incorporano un’inflazione al 5% ed il salario reale permarrà quindi ad un livello
troppo alto, che non consente alle imprese una revisione verso il basso dei listini di
vendita. La manovra monetaria restrittiva riuscirà perciò a ridurre molto lentamente
l’inflazione al prezzo dell’aumento della disoccupazione nella misura determinata
dalla pendenza della curva. In luogo della traslazione verso il basso della curva di
Phillips di breve periodo si realizza uno spostamento lungo la curva (πe=5%) fino al
punto A dove il tasso di inflazione è al 3%, ma il tasso di disoccupazione è superiore
al livello naturale. La perdita di occupazione in cui si incorre attivando il processo di
disinflazione è definita sacrifice ratio.
In che misura i fattori istituzionali concorrono a determinare l’ampiezza del sacrifice
ratio? Quanto più i contratti sono scaglionati nel tempo fra diversi settori, e quanto
più lungo è il periodo per il quale il salario nominale si mantiene fisso, tanto più
vischioso verso il basso è l’aggiustamento salariale, tanto più piatta risulta essere la
pendenza della curva di Phillips di breve periodo, tanto maggiore sarà la perdita di
posti di lavoro che precede la discesa delle aspettative inflazionistiche. Se su tale
quadro istituzionale di vischiosità del salario nominale si innesta una sindacale rivolto
a difendere il salario reale nei rinnovi contrattuali, una stretta monetaria rischia di
accrescere notevolmente la disoccupazione. La riduzione del monte salari avverrà
attraverso la riduzione della quantità occupata molto più che del prezzo del fattore
lavoro. Infatti, la minore “monetizzazione” dell’economia induce le imprese a
licenziare.
Il modello NCE è tuttavia in grado di spiegare il processo di disinflazione senza
rinunciare all’ipotesi di salari e prezzi pienamente flessibili. Un elevato sacrifice
ratio viene attribuito alla bassa reputazione anti-inflazionistica della banca centrale. I
processi di disinflazione intrapresi da molte economie avanzate fra metà anni ’80 e
metà anni ’90 sono stati quasi sempre accompagnati da un notevole incremento della
10
disoccupazione. È ad esempio occorso molto tempo perché la “svolta” delle banche
centrali europee verso l’obiettivo della stabilità monetaria fosse creduta.
Queste economie hanno potuto operare su curve di Phillips di breve periodo via via
inferiori soltanto dopo che gli agenti si sono convinti ad attribuire credibilità
all’indirizzo di politica monetaria (monetary stance). Prima che ciò accadesse la
disoccupazione ha teso a crescere, raggiungendo valori molto elevati. La Figura 1
riflette questa analisi. Una volta che l’economia sia pervenuta al punto B di equilibrio
temporaneo, se le aspettative degli agenti restano immutate al livello π1e, la riduzione
del tasso di inflazione al valore π=1% comporterà una notevole perdita di posti di
lavoro con conseguente aumento del tasso di disoccupazione fino al punto C. Come
vedremo più avanti, i modelli NKE tendono a differenziarsi da questo schema
interpretativo: un elevato sacrifice ratio viene spiegato nell’ambito dei modelli
macroeconomici con rigidità nominali, dove il potere di mercato delle imprese e/o dei
lavoratori rende vischioso l’aggiustamento di salari e prezzi.
4. Offerta aggregata e domanda aggregata
La definizione tradizionale della forma di mercato della concorrenza perfetta fa
riferimento all’ipotesi che alla produzione complessiva realizzata in un mercato
contribuisca un grande numero di piccole imprese: la piccola dimensione impedisce
di esercitare un’influenza sul prezzo, cosicché ciascuna impresa (price taker) opera al
prezzo dato dal mercato. Un’ipotesi aggiuntiva che si suole introdurre è che le
imprese siano eguali fra loro. Essa consente di ricondurre alla quantità prodotta da
una singola impresa “rappresentativa” l’offerta aggregata presente nel sistema
economico.
La moderna microeconomia prescinde comunque dall’ipotesi dell’esistenza di
un grande numero di imprese. La teoria dei “mercati contendibili” ha elaborato un
diverso approccio all’analisi del grado di concorrenzialità dei mercati. Invece di
attribuire la pressione al ribasso dei prezzi all’impossibilità per una piccola impresa
11
di influenzare il prezzo di un mercato di ampie dimensioni, la teoria dei mercati
contendibili afferma che il vero indicatore del grado di concorrenzialità è
rappresentato dalle condizioni di entrata nel mercato che i potenziali entranti si
trovano di fronte. Un mercato si definisce “contendibile” allorché un’impresa è in
grado di sostenere i costi “irrecuperabili” (sunk cost) necessari per entrarvi e sottrarre
clienti alle imprese che già vi operano. Le imprese di un mercato contendibile
tendono a sottostare al vincolo delle imprese price taker: un’impresa del mercato di
concorrenza perfetta che aumentasse il proprio prezzo di vendita al di sopra del
prezzo vigente subirebbe delle perdite.
Figura 2. Costruzione della curva di domanda aggregata (AD) e modello AS-AD
r
(a)
p
LM(p2)
(b)
LM(p0)
LM(p1)
r2
r0
AS
p2
p0
r1
p1
IS
0
Y2
Y0
Y1
AD
Y
0
Y2
Y0
Y1
Y
Quale che sia il modello teorico di riferimento, assumiamo che un mercato sia
in condizioni concorrenziali quando le imprese sono impegnate nel continuo
monitoraggio dei propri costi di produzione, in quanto la produzione può essere
aumentata solo a costi crescenti nel breve periodo, dati lo stock di capitale e la
tecnologia. La curva di offerta aggregata di breve periodo “inclinata” positivamente
(AS) individua una relazione diretta fra livelli via via più alti di prezzo e di
produzione. Per ogni diminuzione del salario reale conseguita alla perdita di potere
12
d’acquisto, la massimizzazione del profitto si realizza accrescendo la produzione
attraverso l’incremento dell’occupazione, da cui risulta una diminuzione della PML,
che si abbassa fino al livello del salario reale (w/p). Più avanti, introdurremo anche la
curva di offerta aggregata di lungo periodo, la cui posizione verticale nel piano
riflette la stabilità dell’equilibrio al livello di produzione corrispondente al tasso di
disoccupazione naturale.
La funzione di domanda aggregata AD (YDt) è formata dall’insieme dei punti di
intersezione tra la LM e la IS che si ottengono variando il livello dei prezzi.
Consideriamo una famiglia di curve LM in termini reali. Lo spostamento di una
funzione ha luogo quando muta il valore di una variabile che è inclusa
nell’equazione, ma non è rappresentata sugli assi. Nel caso della LM, l’offerta di
moneta è espressa in termini reali (M/p) pertanto, ad ogni variazione del livello di
prezzo (p) corrisponde uno spostamento della curva LM sul piano e perciò varia il
valore al quale la curva LM interseca la curva IS. Nella Figura 2(a) una diminuzione
di prezzo (da p0 a p1, con p0>p1), comporta uno spostamento verso destra della curva
LM, mentre un aumento (da p0 a p2, con p0<p2), sposta la LM verso sinistra. Ne deriva
un’intersezione con la IS nel primo caso in un punto più basso, più alto nel secondo.
Dall’insieme dei punti così ottenuti si costruisce la curva AD, che per semplicità
viene raffigurata come una funzione lineare (Figura 2(b)).
Un aumento dei prezzi (p) provoca la diminuzione dell’offerta di moneta reale
(M/p); d’altro canto, dati il reddito ed il tasso di interesse, la domanda reale di moneta
rimane invariata, mentre la domanda nominale aumenta nella stessa proporzione dei
prezzi. Si determina perciò un eccesso della domanda reale di moneta al quale si
accompagna un eccesso di offerta di titoli, cui consegue la discesa del loro prezzo di
mercato e l’incremento del tasso di interesse. La domanda di finanziamento per
l’investimento delle imprese cade, la domanda aggregata si contrae a seguito del
minore volume di investimenti e l’occupazione si riduce. Questo effetto dei prezzi (p)
sul tasso di interesse reale (r), detto “effetto saldi monetari reali”, spiega perché la
13
funzione AD presenta una relazione inversa fra domanda aggregata e tasso di
interesse.
È opportuno chiarire che la funzione di domanda aggregata non replica la
relazione inversa della microeconomia fra prezzo e domanda per un singolo bene.
Essa è la relazione di equilibrio per il mercato dei beni e per il mercato della moneta
del modello IS-LM estesa alla determinazione endogena dei prezzi. Nel modello ASAD, il punto di intersezione fra domanda ed offerta aggregate determina il livello dei
prezzi assieme al livello del reddito e dell’occupazione. Una volta reso endogeno il
livello dei prezzi resta da superare l’altro limite del modello IS-LM: la mancata
considerazione delle aspettative sul futuro.
5. Dalle aspettative adattive alle aspettative razionali
L’analisi della relazione fra disoccupazione e inflazione si è molto sviluppata nei
decenni successivi. Uno dei motivi di insoddisfazione riguardo alla curva di Phillips
corretta con le aspettative risiedeva nell’utilizzo del modello teorico delle aspettative
adattive. Nella curva di Phillips corretta con le aspettative si determina uno
scostamento ed un successivo ritorno all’equilibrio in corrispondenza del tasso
naturale di disoccupazione. Questa ipotesi, secondo la quale i valori attesi delle
variabili vengono adeguati di periodo in periodo nella misura determinata dallo
scostamento del valore osservato ex post rispetto al valore atteso ex ante, è apparsa
debole per due ragioni: 1) non è realistico assumere che i lavoratori soffrano di
“illusione monetaria” e contrattino il salario nominale senza formarsi delle aspettative
sul suo futuro potere d’acquisto; 2) se le aspettative rilevano solo quando vengono
aggiustate
ex
post,
una
politica
monetaria
eccessivamente
espansiva
–
un’accelerazione della crescita monetaria tale da aumentare il tasso di inflazione potrebbe ripetersi di periodo in periodo, senza che il comportamento degli agenti
venga ad essere modificato da un processo di apprendimento (learning) dalla passata
esperienza.
14
Agenti che reagiscono passivamente agli eventi imprevisti, senza valutare la
nuova informazione alla luce di un modello a priori del sistema economico, possono
incorrere in continui errori di previsione. In termini formali, gli agenti sono esposti al
rischio di errori sistematici, il che mal si concilia con l’assunzione di comportamento
razionale. L’affermarsi di questa convinzione stimolò l’elaborazione di una nuova
teoria delle aspettative, che ha preso il nome di ipotesi delle aspettative razionali e
poté svilupparsi anche grazie all’esistenza del lavoro pionieristico di John F. Muth,
che nel 1961 aveva osservato come il risultato di molte decisioni economiche dipenda
in maniera sostanziale dalle aspettative sulla base delle quali esse sono state prese.
Un esempio tipico è quello delle produzioni nelle quali una forte incertezza domina le
aspettative sul futuro prezzo di vendita; così pure, il prezzo futuro di una azione, o il
futuro tasso di cambio di una valuta, dipendono da una serie di eventi di difficile
valutazione, con la conseguenza che gli operatori dei mercati finanziari sono indotti a
seguire le aspettative fondate su quella che si ritiene essere “l’opinione media”.
Secondo il nuovo modello, agenti razionali formulano aspettative razionali
perché determinano i valori attesi delle variabili sulla base della piena conoscenza di
equazioni e parametri del modello macroeconomico di funzionamento dell’economia.
Mentre con aspettative adattive reagiscono passivamente ad eventi imprevisti, con
aspettative razionali gli agenti inglobano nel modello in tempo reale tutta la nuova
informazione che si manifesta nell’ambiente economico e determinano nuovi valori
attesi. Nella visione monetarista, una banca centrale regola la quantità di moneta
correggendo eventuali scostamenti del tasso di disoccupazione dal livello naturale.
Pertanto, sulla base della conoscenza dell’andamento del ciclo economico e del
modello utilizzato dall’autorità monetaria, gli agenti razionali finirebbero per
“anticipare” gli effetti sul livello dei prezzi dei mutamenti di politica monetaria che la
banca centrale annuncia e non modificherebbero i propri comportamenti. Le quantità
offerte e domandate nei mercati del lavoro e dei beni non subirebbero quindi
variazioni.
15
Il fatto che le aspettative siano razionali perché calcolate al meglio
dell’informazione disponibile non significa che non si possano commettere errori. Gli
errori sono possibili, ma soltanto se si verificano eventi stocastici: eventi che non
sono conosciuti a priori né prevedibili in base alle informazioni esistenti al momento
del calcolo dei valori attesi della variabile. Si dice anche che gli errori sono
“ortogonali” alle informazioni, cosicché non è possibile stabilire una relazione
causale che li faccia dipendere da fatti sistematici (gli elementi noti del modello). Gli
errori possono solo essere determinati da fatti casuali (gli eventi stocastici). Pertanto,
il valore atteso di una variabile del modello consiste nell’aspettativa matematica
calcolabile inserendo nel modello tutte le informazioni disponibili necessarie a
formulare la previsione. L’aspettativa matematica è il valore medio desumibile in
base alle informazioni disponibili, più un eventuale disturbo stocastico di media zero
e varianza σ2. Gli effetti di errori di previsione a carattere stocastico tendono ad
annullarsi e non influenzano le grandezze di lungo periodo. Sotto l’ipotesi di
aspettative razionali, poiché gli agenti non commettono in media errori di previsione,
il tasso di disoccupazione coincide con il suo tasso “naturale” ed il tasso di inflazione
coincide con il suo tasso atteso.
6. Aspettative razionali ed equilibrio macroeconomico
L’ipotesi di aspettative razionali è stata oggetto di numerose critiche. La condizione
indispensabile per formulare aspettative razionali è che tutta l’informazione
disponibile venga utilizzata. Naturalmente, il modello delle aspettative razionali non
presume che i soggetti debbano raccogliere su base individuale tutte le conoscenze
necessarie a costruire le equazioni del modello di funzionamento dell’economia e
calcolarne i coefficienti. Alcune fonti statistiche e analisi economiche sono pubbliche
(Annuari statistici, Rapporti governativi, etc.) oppure possono essere reperite presso
le istituzioni con cui i soggetti sono in contatto (il servizio studi della banca centrale,
dei sindacati, delle organizzazioni degli imprenditori, etc.). Ciò nonostante, molti
economisti sostengono che, se si volesse acquisire tutta la massa di informazioni
16
necessarie per calcolare con esattezza i valori attesi delle variabili, i costi sarebbero
proibitivi.
Un secondo problema sorge dall’inserimento nella teoria macroeconomica
dell’ipotesi di comportamento conforme al modello assiomatico della razionalità.
Una implicazione di tale ipotesi è che tutti gli agenti interpretino l’informazione nello
stesso modo. Questo risultato viene respinto da molti economisti, in particolare dai
filoni di teoria impegnati nella formalizzazione delle intuizioni di Keynes. Nella
descrizione del “concorso di bellezza” (beauty contest) presente nella General
Theory, Keynes esprime in nuce la visione della macroeconomia come un insieme di
“equilibri plurimi”: gli agenti prenderebbero decisioni sulla base dell’aspettativa sulla
reazione degli altri agenti ai segnali informativi; a loro volta i comportamenti degli
altri agenti sarebbero basati sull’interpretazione delle altrui credenze; e così via. La
teoria del cambiamento stocastico dei prezzi da parte delle imprese sostiene che le
decisioni di prezzo sono diverse appunto perché ciascun agente reagisce a un
mutamento nominale (ad esempio, un annuncio di politica monetaria) dopo essersi
formato una propria aspettativa sulle decisioni di prezzo altrui. Le aspettative sono
dunque inevitabilmente fondate su una conoscenza imperfetta. Ad impedire agli
agenti di prevedere con esattezza il comportamento altrui è in ultima analisi il fatto
che il modello di formazione delle credenze poggia su assunzioni pre-analitiche.
Ciascuno agente possiede un proprio particolare insieme di assunzioni: ad esempio, il
nesso di causalità fra istituzioni e funzionamento dei mercati; le norme e le
convenzioni sociali; e così via.
La tensione che si stabilisce fra aspettative razionali ed eterogeneità degli
agenti apre una importante questione: l’inserimento nella macroeconomia delle
aspettative
razionali
non
può
essere
sinonimo
di
unicità
dell’equilibrio
macroeconomico. Dal momento che gli agenti hanno comportamenti diversi anche se
utilizzano la stessa informazione, le aspettative razionali dipendono strettamente dalle
ipotesi del modello macroeconomico utilizzato. Gli agenti di un modello ispirato alla
NCE formeranno un certo insieme di aspettative razionali e determineranno un certo
17
esito economico, gli agenti di un modello ispirato alla NKE formeranno un altro
insieme di aspettative razionali e determineranno un altro esito economico. Un
esempio illuminante è rappresentato dai risultati opposti che si conseguono nella
verifica dell’ipotesi di effetti non-keynesiani della politica fiscale, recentemente
avanzata da alcuni economisti vicini alla posizione teorica del real business cycle
(nell’acronimo inglese: RBC). Nei modelli NCE, un ruolo fondamentale è giocato dal
grado di credibilità dell’annuncio di politica economica. Se ad esempio i consumatori
percepiscono come permanente un programma di abbattimento della tassazione, il
reddito permanente, valutato su tutti i periodi futuri della vita lavorativa, conosce un
innalzamento con conseguente incremento della domanda. Al contrario, nei modelli
NKE che incorporino le ipotesi di capacità produttiva inutilizzata e di agenti con
“vincolo di liquidità”, ad un’espansione fiscale conseguono valori positivi del
moltiplicatore della spesa pubblica. Così pure, i vincoli che le istituzioni poste a
protezione delle remunerazioni e dell’occupazione impongono al funzionamento del
mercato del lavoro sono interpretati in modi molti diversi: i modelli NCE
sottolineano il pericolo che garanzie eccessive causino uno scarso impegno degli
insider (i lavoratori stabilmente occupati) ed impediscano alla dinamica salariale di
riflettere la dinamica della produttività; i modelli NKE guardano al sostegno dei
livelli di reddito come ad uno strumento che rafforza i meccanismi di mercato
riducendo la perdita di benessere causata da lunghi periodi di caduta della
produzione.
Nonostante i dubbi appena esposti sulla solidità delle sue fondamenta teoriche,
l’ipotesi di aspettative razionali è oggi largamente accolta nei modelli
macroeconomici. In primo luogo, l’idea che i soggetti non commettano errori
sistematici è sembrata plausibile. In secondo luogo, l’eccellente trattabilità analitica
di tale ipotesi ha fatto sì che fosse accolta con favore dai macroeconomisti. Il modello
delle aspettative razionali è così stato adottato anche dagli economisti di orientamento
keynesiano. In effetti, nell’adottare tale ipotesi ci si può sentire vincolati soltanto
all’idea che l’equilibrio possa essere disturbato dal verificarsi di shock che
18
modificano dall’esterno il funzionamento del modello conosciuto, invalidando le
previsioni che sulla sua scorta gli agenti razionali formulano. Pertanto, adottare un
modello con aspettative razionali non preclude la possibilità di mostrare né l’efficacia
delle politiche macroeconomiche né l’esistenza di disoccupazione involontaria (la
nota conclusione di Keynes secondo la quale una quota di forza lavoro risulta
disoccupata benché sarebbe disposta a lavorare al salario vigente). Basterà inserire
nel modello macroeconomico ipotesi relative ad imperfezioni dei mercati o
dell’informazione per pervenire a deviazioni dall’equilibrio macroeconomico
“ottimale” corrispondente al completo sgombero dei mercati (market clearing) di
concorrenza perfetta. Non deve perciò sorprendere se i modelli NKE contemplano
una molteplicità di equilibri nei quali produzione, occupazione e prezzi si collocano a
livelli diversi da quelli dell’equilibrio economico generale.
7. Nuova economia classica e nuova economia
keynesiana
L’analisi macroeconomica si è interrogata sull’esistenza, l’unicità e la stabilità
dell’equilibrio macroeconomico risultante dall’aggregazione delle equazioni del
modello di equilibrio economico generale walrasiano. Una volta descritta l’esistenza
dell’equilibrio con i modelli IS-LM prima e AS-AD poi, definiti i concetti di NRU e
NAIRU e analizzati i processi di inflazione e di disinflazione, confronteremo i
modelli con aspettative razionali della nuova economia classica e della nuova
economia
keynesiana
che
individuano
ciascuno
un
diverso
equilibrio
macroeconomico.
Le principali proposizioni della visione NCE sono: 1) il sistema economico si
caratterizza per la dicotomia fra settore reale (il modello walrasiano determina i
prezzi relativi) e settore monetario (la teoria quantitativa della moneta nella versione
19
del monetarismo di Friedman, determina i prezzi assoluti in piena occupazione); 2)
l’equilibrio macroeconomico Pareto-efficiente è garantito dalla flessibilità di tutti i
prezzi che permette l’aggiustamento di mercato ed il ripristino della piena
occupazione successivamente ad uno shock; 3) un’accelerazione della crescita
monetaria non ha effetti reali e provoca soltanto un incremento del livello dei prezzi.
Le principali proposizioni della visione NKE sono: 1) l’incertezza sul futuro
causa frequenti shock, in primo luogo, della domanda aggregata; 2) la disoccupazione
ciclica può mettere capo ad un equilibrio di disoccupazione strutturale a causa della
vischiosità dell’aggiustamento di mercato; 3) le politiche macroeconomiche hanno
effetti reali e sono quindi in grado di ridurre la perdita di benessere sociale connessa
alla disoccupazione.
8. Teoria del ciclo economico reale
Consideriamo un modello AS-AD con aspettative razionali. Data l’ipotesi di perfetta
informazione sul funzionamento dell’economia (diversamente da quanto accade nel
ciclo economico di equilibrio elaborato da Lucas non esistono imperfezioni
informative), gli agenti aggiornano continuamente il proprio modello e sono perciò in
grado di prevedere correttamente il livello dei prezzi. Poiché le variazioni di prezzo
dei beni non hanno conseguenze sulla domanda e sull’offerta di lavoro, l’offerta
aggregata è determinata unicamente dai fattori reali (tecnologia, dotazione di capitale
e scelta dei soggetti tra lavoro e tempo libero) assumendo nel piano una posizione
verticale ((AS*LP in Figura 3).
Supponiamo si manifesti uno spostamento verso l’alto della funzione di
domanda aggregata da AD0 a AD1 in Figura 3. Nei modelli NCE, il funzionamento del
mercato del lavoro è definito dalle seguenti condizioni: 1) informazione perfetta sui
posti
disponibili,
sulle
caratteristiche
dell’attività
lavorativa
e
sulla
sua
remunerazione; 2) comportamenti razionali da parte di imprese e di lavoratori con
caratteristiche omogenee; 3) costi di mobilità territoriale dei lavoratori e degli
impianti nulli; 4) assenza di vincoli di tipo istituzionale, ovvero la piena flessibilità
20
dei salari e dei prezzi. Da tali condizioni consegue un aumento del prezzo (p) e del
salario monetario (w) nella stessa proporzione, lasciando invariati salario reale (w/p),
occupazione (L) e reddito (Y) in corrispondenza dell’intersezione dell’offerta
verticale di lungo periodo (AS*LP) con la nuova funzione di domanda aggregata
(AD1). La funzione di offerta aggregata (AS*LP in Figura 3) è verticale sia nel breve
che nel lungo periodo, perché tutti gli agenti scontano le variazioni del livello dei
prezzi (p). Le lettere A e D nel modello della NCE in Figura 3 denotano il passaggio
da un punto di equilibrio AS-AD all’altro, ad un livello dei prezzi più alto e di attività
economica invariato. Uno shock reale, invece, modifica la posizione della curva di
offerta aggregata, spostandola da AS*LP a AS’LP, in corrispondenza di un più alto tasso
di disoccupazione naturale (Figura 3(a)). Nel prosieguo di questo paragrafo,
l’attenzione si concentrerà sulla cosiddetta “teoria del ciclo reale” (real business
cycle: RBC). In particolare, cercheremo di spiegare perché sia centrale l’ipotesi di
piena flessibilità dei salari e dei prezzi.
Dato il capitale, le imprese massimizzano la quantità prodotta impiegando i
lavoratori fino al punto in cui Y*=Y[LD(w/p)*]. Per comprendere come la previsione
perfetta consenta ai lavoratori di percepire in ogni periodo un salario reale
contrattuale corrispondente a quello di piena occupazione, occorre costruire le curve
di domanda e di offerta di lavoro. Sotto l’ipotesi di aspettative razionali (pe=p)
esprimiamo l’offerta di lavoro delle famiglie e la domanda di lavoro delle imprese in
funzione di due grandezze:
1) il salario reale. Nel contrattare il salario monetario (w), le famiglie tengono
conto del suo potere d’acquisto e le imprese del rapporto che intercorre fra livello del
salario monetario in corrispondenza del lavoro domandato e livello del prezzo di
vendita del prodotto. Ne consegue che l’equilibrio al tasso naturale di disoccupazione
dipende dal fatto che in un mercato del lavoro di concorrenza perfetta il salario
contrattuale viene a determinarsi al livello corrispondente al salario reale di “piena
occupazione”: i lavoratori non soffrono di “illusione monetaria”;
21
2) il salario monetario. I lavoratori fondano le proprie richieste contrattuali
sulla previsione del livello futuro del salario reale basata sulla previsione del futuro
livello del prezzo. Scriviamo il salario monetario contrattuale, negoziato prima della
produzione sulla base di un’aspettativa sul prezzo del prodotto, come: w=(w/p)*pe. Si
consideri la produzione come la somma algebrica di due termini: il prodotto
potenziale e la componente ciclica. Il prodotto potenziale corrisponde al punto sulla
frontiera delle possibilità di produzione di un’economia che esprime l’efficiente
impiego delle risorse disponibili. La componente ciclica è la variazione della quantità
offerta in funzione di variazioni del prezzo. Nella sua versione più radicale, il
modello NCE sostiene che la componente ciclica è nulla, in quanto solo i fattori reali
presiedono ai livelli di occupazione e di produzione.
Data l’ipotesi di aspettative razionali (pe=p), il salario monetario contrattuale
può essere espresso come prodotto fra salario reale di piena occupazione (w/p)* e
livello del prezzo (p): w=(w/p)*p. La domanda di lavoro dipenderà sia dal salario di
piena occupazione (w/p)* sia dal rapporto (pe/p) fra prezzo atteso e prezzo realizzato:
LD=LD[(w/p)*pe/p]. Definiamo allora il “salario reale effettivo” come w/p=(w/p)*/p(1α)
e la domanda di lavoro come LD=LD[(w/p)*/p(1-α)], dove il parametro α indica il
grado di elasticità salario-prezzo. L’immediato aggiustamento di lavoratori e imprese
alle politiche macroeconomiche annunciate fa sì che ad ogni variazione del prezzo (p)
corrisponda un’eguale variazione del salario monetario (w) che consente alle famiglie
di mantenere costante il salario reale. Il salario monetario risulta quindi perfettamente
elastico rispetto al prezzo (α=1), cosicché il “salario reale effettivo” – il salario reale
che risulta successivamente ad una variazione del prezzo (p) - eguaglia il salario reale
di piena occupazione: w/p=(w/p)*.
Dalle funzioni di domanda e di offerta di lavoro LD=LD(w/p) e LS=LS(w/p)
−1
ricaviamo la funzione di domanda inversa: w / p = LD ( LD ) e di offerta inversa:
−1
w / p = LS ( LS ) da cui si ottengono nella Figura 3(b) le curve di domanda e di offerta
−1
di lavoro in funzione del salario nominale: w = pLD ( LD ) e, rispettivamente,
22
−1
w = pLS ( LS ) . Un innalzamento del prezzo (p) determina uno spostamento verticale
nella stessa proporzione per entrambe le curve, pertanto l’intersezione avrà lo stesso
livello di occupazione (L*) ed un salario monetario aumentato nella stessa
proporzione del prezzo (p).
Figura 3. Equilibrio classico di piena occupazione
AS’LP
p
(a)
AS*LP
LD1
w
(b)
LS1
LD
D
w1
p1
LS
D
p0
A
A
w0
AD1
AD0
0
Y’
Y*
Y
0
L*
L
Nella Figura 3, ad ogni innalzamento del prezzo (da p0 a p1) si determina
l’innalzamento del salario nominale (da w0 a w1) a livello di occupazione invariato
(L*). A tale posizione di equilibrio nel mercato del lavoro corrisponde nel mercato dei
beni il livello del reddito invariato (Y*) lungo la AS di lungo periodo (AS*LP).
Pertanto, un incremento del livello del reddito si realizza esclusivamente per effetto
dei seguenti mutamenti dei “fattori strutturali”: 1) il miglioramento (peggioramento)
della tecnologia o un incremento (diminuzione) del capitale determinato dall’utilizzo
di una nuova tecnologia risparmiatrice di lavoro (labour-saving); 2) l’incremento del
numero di ore di lavoro offerte, se aumenta l’offerta da parte dei singoli lavoratori,
oppure il tasso di partecipazione al mercato del lavoro.
L’assorbimento ottimale della forza lavoro realizza così una variazione permanente
nel livello di produzione. In corrispondenza dell’eguaglianza LD(w/p)*=LS(w/p)*, il
23
livello di piena occupazione (L*) ed il salario reale di piena occupazione (w/p)*
dipendono unicamente dai fattori strutturali: tecnologia (A), dotazione di capitale (K)
e scelta delle famiglie fra lavoro e tempo libero. L’offerta aggregata si trasla da AS*LP
a AS*’LP.
Figura 4. Teoria del ciclo reale
w/p
(a)
LS
L1
w/p
LD3
LD2
LD1
L2
Modeste variazioni salariali
si accompagnano ad ampie
variazioni di occupazione
L3
L
(b)
LD3
Ampie variazioni salariali si
accompagnano a modeste
variazioni di occupazione
LD2
LD1
LS
L1
L2
L3
L
Questa è la teoria del “ciclo economico reale” (RBC). Le fasi di espansione o
di recessione sono di natura reale, perché rappresentano la propagazione degli shock
sul progresso tecnico oppure scaturiscono dalla sostituzione intertemporale fra
consumo e tempo libero in condizioni di continuo pieno impiego. Ad esempio, uno
shock reale di segno positivo fa aumentare sia la produttività del capitale,
accrescendo così gli investimenti, con conseguente sostituzione di consumo futuro a
consumo presente, sia la produttività del lavoro, accrescendo così l’offerta di lavoro:
al netto dell’effetto reddito, viene incentivata la sostituzione di consumo presente e
futuro al tempo libero, e quindi aumentano occupazione e salario reale. È allora mal
24
concepita l’idea che autorità monetarie e fiscali siano nella posizione di sfruttare
continuamente il trade-off fra inflazione e disoccupazione per realizzare temporanei
incrementi della produzione. Se viene annunciata un’espansione monetaria o fiscale,
salari e prezzi vengono adeguati verso l’alto senza che si producano effetti reali.. La
variazione inattesa della domanda aggregata è comunque da ricondurre a cause reali.
Ne consegue immediatamente che le fluttuazioni dell’output non possono avere una
origine monetaria. Sulla scia dei lavori di Kydland e Prescott (1977) e di Barro e
Gordon (1983), un’intera generazione di modelli NCE utilizza le aspettative
razionali. Poiché il learning permette di aggiornare il modello di funzionamento
dell’economia, i soggetti non possono essere “ingannati” sistematicamente: se le
autorità di politica economica hanno provocato in passato incrementi imprevisti del
tasso di inflazione, dopo i loro annunci le aspettative di inflazione vengono riviste
verso l’alto nella stessa proporzione. Le autorità monetarie e fiscali devono rifuggire
dalla tentazione di promettere che le politiche macroeconomiche espansive
apporteranno incrementi di occupazione e di produzione.
Questa rappresentazione del ciclo economico è stata oggetto di un’attenta valutazione
critica, che ne ha individuato alcuni punti di debolezza. I più importanti sono: 1) Se
ogni ciclo economico ha origine esclusivamente da uno shock nella TFP, l’ampiezza
della variazione della TFP deve essere rilevante, come è coerentemente previsto nei
modelli teorici del RBC. Recenti tentativi di fornire una corretta misurazione
empirica del progresso tecnico hanno condotto ad un calcolo della TFP nel quale si
consideri anche l’impatto del grado di utilizzo della capacità produttiva e dei mercati
di concorrenza imperfetta. Tali indagini, dalle quali risultano valori della dinamica
della produttività totale molto più modesti rispetto alle forti oscillazioni che risultano
nei modelli del RBC, appaiono come delle indirette confutazioni empiriche di questa
teoria. 2) La verifica empirica ha mostrato che l’introduzione nelle imprese delle
innovazioni della ICT possono causare nel breve periodo – a meno non si sia in
presenza di una politica monetaria molto “accomodante” - una riduzione
dell’occupazione. 3) La congettura implicita nella teoria del RBC è che la
25
sostituzione di tempo libero a lavoro (o viceversa) in seguito a uno shock reale
implica che a piccole variazioni del salario reale si accompagnino ampi incrementi
dell’offerta di lavoro. La sostituzione intertemporale del lavoro postulata dal modello
del RBC dovrebbe pertanto essere riflessa da una curva di offerta di lavoro piuttosto
piatta (Figura 4(a)). Le statistiche del lavoro sembrano però mostrare che l’entità
delle fluttuazioni del livello di occupazione delle economie reali è molto esigua.
L’evidenza empirica mostra infatti che shock positivi sulla produttività determinano
ampi incrementi del salario e piccoli incrementi dell’occupazione, da cui risulta una
curva di offerta di lavoro molto inclinata (Figura 4(b)). Anche tenendo conto non solo
del numero dei lavoratori ma anche delle ore lavorate per lavoratore, le variazioni che
si riscontrano nella realtà non sembrano riconducibili agli shock reali.
Piuttosto, l’evidenza empirica rivela un possibile nesso di causalità di direzione
opposta, che va dalle variazioni negative della TFP alla tendenza delle imprese a non
ridurre l’occupazione in proporzione all’ampiezza della discesa del reddito nel corso
della fase recessiva. In conclusione, la teoria del RBC potrebbe trovare una
convincente verifica empirica soltanto se il sistema economico fosse investito con
maggiore regolarità da fasi di accelerazione dell’innovazione tecnologica. Dalla
“rivoluzione industriale” in poi, le fasi di forte incremento dell’occupazione diffuso
in tutti i settori coincidono con fasi di cambiamento strutturale determinato da
“grappoli” di scoperte scientifiche.
La teoria del RBC ripristina di fatto la dicotomia fra settore reale e settore
monetario: in mercati che funzionano perfettamente, l’equilibrio macroeconomico al
pieno ed efficiente impiego delle risorse disponibili implica che la politica monetaria
non possa influenzare nient’altro che le grandezze nominali e la politica fiscale abbia
un mero effetto di “spiazzamento” totale.
Il nuovo clima intellettuale degli anni ’90, nell’associare il conseguimento
dell’efficienza economica all’operare delle forze di mercato in assenza di
perturbazioni derivanti dall’intervento pubblico, accolse con favore questo approccio.
26
9. Teoria del ciclo economico con rigidità nominali
Si ricorderà la presentazione dei due principali paradigmi teorici della
macroeconomia del ‘900 svolta all’inizio di questo capitolo. Da un lato, la visione
neo-classica di piena fiducia nella capacità delle forze di mercato di assorbire ogni
tipo di shock sulla AS e sulla AD attraverso la flessibilità di tutti i prezzi. Dall’altro, la
visione di Keynes della pervasività dei fallimenti macroeconomici in un’economia di
mercato e della necessità delle politiche monetarie e fiscali di stabilizzazione. Negli
anni ’70, tuttavia, una serie di contributi teorici, conosciuti come la “sintesi neoclassica”, svilupparono un modello che riconciliava le due visioni. L’equilibrio di
lungo periodo del modello keynesiano coincideva con quello del modello neoclassico; riguardo al breve periodo, invece, il modello keynesiano mostrava il
persistere della disoccupazione per il lento aggiustamento di tasso di interesse, salari
e prezzi ai rispettivi valori di equilibrio di lungo periodo.
Come osservò Modigliani (1977), la contrapposizione fra neo-classici e
keynesiani stava perdendo i caratteri di una controversia ideologica, per venire
circoscritta ad una disputa puramente empirica. I valori che i parametri delle
principali equazioni assumono nelle simulazioni condotte con il condiviso modello
macroeconomico avvalorano di volta in volta l’una o l’altra interpretazione del
funzionamento dell’economia. Negli anni ’80, la generazione di modelli nati
dall’impulso del contributo di Lucas, ha nuovamente aperto un solco profondo fra i
due paradigmi teorici. I modelli NCE si sono ancorati più strettamente alle ipotesi
dell’equilibrio generale intertemporale, in primo luogo all’ipotesi di continuo market
clearing che i modelli NKE non hanno mai accolto. Negli anni ’90 si è registrata una
nuova fase di riavvicinamento fra economia neo-classica ed economia keynesiana,
che non a caso ha preso il nome di “nuova sintesi neoclassica” (Goodfriend e King,
1997). La convergenza si è realizzata con l’adesione della maggior parte dei filoni
teorici NKE all’ipotesi di aspettative razionali e di alcuni filoni teorici della NCE (in
disaccordo con la teoria del ciclo reale) alle spiegazioni del ciclo economico originato
27
da ostacoli di varia natura (ad esempio, fattori di natura istituzionale quali i contratti
collettivi di lavoro scaglionati) che impediscono il continuo market clearing. Ne è
scaturita una generazione di modelli in cui il lento aggiustamento di salari e prezzi fa
sì che agli shock consegua un aggiustamento anche nelle quantità, il che consente alle
politiche macroeconomiche di avere efficacia.
Per riassumere in termini semplici un complesso percorso di ricerca, esporremo
ora la teoria del ciclo “da rigidità nominale” mediante la rappresentazione grafica del
modello AS-LM-AD. La Figura 5 esprime l’equilibrio AS-AD (a) in connessione con
l’equilibrio IS-LM (b) e lo mette in relazione con l’equilibrio nel mercato del lavoro
(c).
Prendiamo le mosse dall’equilibrio macroeconomico in corrispondenza di Y*
nella Figura 5(a). Supponiamo che un’espansione fiscale (ad esempio, una spesa
pubblica in deficit) produca lo spostamento della domanda aggregata (da AD0 a AD1).
Nel punto di intersezione (C) fra la nuova funzione di domanda aggregata (AD1) e
l’offerta aggregata di breve periodo (ASBP0) si determina un livello di prezzo (p1) più
elevato di quello (p0) individuato dall’intersezione fra la domanda aggregata (AD0) e
l’offerta aggregata di lungo periodo (AS*LP). Il nuovo punto di intersezione C indotto
dall’incremento della domanda aggregata corrisponde: 1) nella Figura 5(b) allo
spostamento da IS0 a IS1 , all’arretramento della LM nella posizione LM1 (l’aumento
del livello dei prezzi in (p1) riduce il valore reale delle scorte liquide) ed al nuovo
valore del tasso di interesse (r1); 2) nella Figura 5(c), allo spostamento della domanda
di lavoro da LD0 a LD1.
Vediamo allora come al processo dinamico culminato nell’equilibrio
temporaneo nel punto C, in corrispondenza dei più alti livelli di reddito e
occupazione (Y’ e L’), partecipano il mercato monetario e finanziario ed il mercato
del lavoro.
Nel caso di un ciclo espansivo, l’incremento della produzione è vincolato dal
più alto tasso di interesse indotto dall’incremento della domanda aggregata AD e si
realizzerà quindi nella misura determinata dalla pendenza della LM, che dipende dalla
28
derivata della domanda di moneta rispetto al tasso di interesse, e dalla pendenza della
IS, che dipende dalla derivata dell’investimento rispetto al tasso di interesse.
Nell’ipotesi di offerta di moneta data, ci si deve chiedere da dove provenga la moneta
necessaria a fare circolare la produzione aggiuntiva.
La risposta sta nel funzionamento del mercato monetario e finanziario. Dopo lo
spostamento in senso espansivo della IS (da IS0 a IS1), l’accresciuto volume di
produzione induce le famiglie a smobilizzare titoli dal proprio portafoglio, allo scopo
di disporre di un livello di scorte liquide (domanda di moneta) sufficiente a consentire
le maggiori transazioni. A questa offerta di vecchi titoli si vanno ad aggiungere le
nuove emissioni a copertura della spesa pubblica in deficit. L’eccesso di offerta di
titoli si riflette nella riduzione del loro prezzo di mercato e nell’aumento del tasso di
interesse. Poiché una parte dei progetti di investimento del settore privato hanno ora
una redditività attesa inferiore al tasso di interesse, una parte dell’incremento di
reddito viene ad essere “tagliato”. Si osservi che se l’offerta aggregata fosse stata
verticale anche nel breve periodo, il reddito non si sarebbe mosso da Y*. In tal caso,
infatti, tutto l’aggiustamento sarebbe avvenuto attraverso l’aumento del livello dei
prezzi che riduce le scorte liquide reali dei soggetti nella stessa misura in cui sono
aumentati i loro redditi monetari; l’aggiustamento può essere rappresentato nella
Figura 5(b) mediante l’arretramento della LM fino alla posizione LM2 in
corrispondenza del tasso di interesse i2.
Il processo di squilibrio e successivo riequilibrio innescato dall’incremento
della domanda aggregata si ripercuote anche nel mercato del lavoro. Nel prosieguo,
utilizzeremo due distinti concetti di rigidità: 1) La vischiosità del salario nominale
Figura 5. Offerta aggregata e domanda aggregata
29
AS*LP
p
ASBP1
D
p2
p1
B
(a)
ASBP0
C
p0
A
AD1
AD0
0
Y*
(b)
IS0
D
r1
r0
Y
IS1
r
r2
Y’
C
LM2
A
LM1
LM0
0
Y*
Y’
Y
LD1
w
LS1
LD0
D
w2
w1
B
C
w*
0
(c)
LS0
A
L*
L'
L
30
che porta alla determinazione di un livello diverso da quello compatibile con il salario
reale di piena occupazione; 2) La rigidità del salario reale, che consiste nella
variazione del salario nominale nella stessa proporzione della variazione del livello
dei prezzi. La vischiosità riflette il dato istituzionale della contrattazione salariale
scaglionata, che fonda l’assunzione di un’elasticità del salario al prezzo inferiore
all’unità (α<1). L’aggiustamento del salario nominale è più lento dell’incremento
indotto nei prezzi dall’aumento dei costi di produzione. Il settore reale non torna
immediatamente al valore di equilibrio walrasiano. Lo “sgombero” del mercato del
lavoro non si realizza.
Il “salario reale effettivo” (w/p)*pe/p è maggiore del salario reale di piena
occupazione (w/p)* perché lo shock inatteso causa l’aumento sia della produzione che
del prezzo. È appunto lo scostamento verso il basso del salario reale effettivo rispetto
al livello del salario reale di piena occupazione a favorire la salita del livello di
occupazione e di produzione. Il “salario reale effettivo” è infatti: w/p=(w/p)*/p(1-α) e
la domanda di lavoro è: LD=LD[(w/p)*/p(1-α)]. Allo spostamento della domanda
aggregata da AD0 a AD1 nella Figura 5(a), corrisponde in Figura 5(c) la traslazione
della domanda di lavoro LD nella posizione LD1 che individua la nuova intersezione
con la LS nel punto C.
Una volta che il processo dinamico giunge a compimento con il passaggio del
livello dei prezzi in (p2) e con il ritocco verso l’alto di tutte le grandezze nominali
(l’aumento del livello dei prezzi riporta quantità reale di moneta, salario reale e tasso
di interesse reale ai valori iniziali), l’espansione temporanea di occupazione e output
ha termine con la traslazione dell’offerta aggregata verso sinistra (da ASBP0 a ASBP1).
All’aumento dei prezzi e all’incremento dell’occupazione al di sopra del livello
naturale – conseguente ai nuovi lavoratori entrati nel mercato e/o all’aumento del
lavoro straordinario – e del salario al livello w1, fanno seguito i rinnovi contrattuali
che completano l’adeguamento verso l’alto del salario nominale (w2). Il ritorno del
salario reale al valore iniziale determinerà un arretramento della offerta di lavoro e
nella Figura 5(c) verrà ripristinata la piena occupazione al livello L* in
31
corrispondenza del punto D e del livello iniziale di reddito (Y*) delle Figure 5(a) e
5(b). L’offerta aggregata di breve periodo (ASBP1) nel punto di intersezione con la
domanda aggregata (AD1) riproduce l’equilibrio originario (Y* e L*) sull’offerta di
lungo periodo AS*LP.
La teoria del ciclo con rigidità nominali ipotizza che il salario contrattuale vari
in misura meno che proporzionale rispetto alla divergenza del prezzo realizzato
rispetto al prezzo atteso. Tale ipotesi è cruciale. Se la politica monetaria assume un
orientamento “accomodante”, il processo di riequilibrio viene accelerato: le imprese
godono dell’incentivo ad accrescere la produzione e l’occupazione a un tasso di
interesse calante, oltre al vantaggio di un salario monetario che permane costante per
tutto il periodo di tempo che intercorre fra l’aumento del prezzo ed il rinnovo
contrattuale. Abbiamo visto come una politica fiscale espansiva possa garantire un
incremento dell’occupazione e della produzione tale da innalzare – per un breve
periodo di tempo – il livello del reddito al di sopra del valore corrispondente al tasso
di disoccupazione “naturale” (o del NAIRU nel modello NKE). Il modello
macroeconomico AS-LM-AD è tuttavia in grado di accogliere l’intuizione di Keynes
sull’importanza delle aspettative sul futuro nel corso di una fase ciclica recessiva.
Quando nei mercati si diffondono aspettative pessimistiche sul livello della domanda
futura, tali da abbassare il livello di attività economica, è possibile che
l’aggiustamento di mercato si riveli non solo lento – per l’ipotesi di vischiosità dei
salari e dei prezzi – ma, cosa ancor più rilevante, anche insufficiente a realizzare una
ripresa economica tale da ripristinare il livello di produzione iniziale.
A partire dall’equilibrio macroeconomico in Y*, L* e w*, supponiamo che un
innalzamento dell’incertezza sulla domanda futura deprima le decisioni di
investimento delle imprese, con conseguente caduta dei livelli di produzione e di
occupazione. Dall’ipotesi di rigidità del salario reale nel mercato del lavoro discende
il protrarsi della disoccupazione ciclica per molti periodi.
32
Nell’ambito di un modello con mercati di concorrenza perfetta possiamo solo dire
che il salario reale individuato dal rapporto fra salario monetario contrattuale e livello
dei prezzi permane ad un livello maggiore del salario reale di piena occupazione a
causa di una distorsione misurata dal valore che assume il parametro (ς): w/p=ς(w/p)*
con ς>1. Di conseguenza, il market clearing è sospeso perché il mancato
abbassamento del salario nominale al livello coerente con il salario reale di piena
occupazione determina la costanza del salario reale ad un livello “troppo alto” perché
il sistema economico possa assorbire tutta la forza lavoro disponibile.
Consideriamo le alternative di politica economica proposte rispettivamente
dalla NCE e dalla NKE.
1) Nei modelli della NCE, la disoccupazione viene attribuita ad un salario di riserva
dei lavoratori (la remunerazione alla quale i lavoratori sono disposti ad occuparsi) che
fattori istituzionali mantengono ad un livello superiore al salario walrasiano di piena
occupazione e viene chiesta ai lavoratori la riduzione del saggio marginale di
sostituzione fra tempo libero e lavoro che permetterebbe la stipula di contratti di
lavoro a quel salario (w2) al quale le imprese sono in grado di aumentare la domanda
di lavoro fino al livello di equilibrio (L*). In assenza dell’ipotesi di salario reale
rigido verso il basso il modello prevede che il progressivo aggiustamento verso il
basso dei nuovi livelli contrattuali sia agevolato da aspettative di ulteriore caduta dei
prezzi, tali da indurre la discesa del salario nominale al livello w2.
La “politica dell’offerta” (supply side) proposta dalla NCE consiste
innanzitutto nelle politiche microeconomiche di deregolamentazione del mercato del
lavoro finalizzate a restituire piena flessibilità del salario e dell’utilizzo della forza
lavoro. A partire dall’equilibrio di disoccupazione l’aumento dell’offerta di lavoro (la
traslazione verso destra della funzione) consente alla domanda di lavoro di aumentare
parallelamente alla discesa del salario. Coerentemente con la “legge di Say”, il
ripristino della produzione di piena occupazione determinerà il ritorno della domanda
aggregata nella posizione AD. Pertanto, il salario nominale è coerente con il salario
33
reale dell’equilibrio di “piena occupazione” in corrispondenza dell’intersezione fra
AS0 e AD0 ai valori di equilibrio L* e Y*.
2) Nei modelli della NKE, nei quali la disoccupazione è attribuita ad
aspettative di profittabilità delle imprese molto basse i neo-keynesiani ritengono che
la flessibilità del salario nominale sia in grado di riportare l’economia nella posizione
di piena occupazione. Affinché avvenga l’incremento del saggio marginale di
sostituzione con la traslazione dell’offerta di lavoro occorre suscitare la ripresa delle
aspettative di profitto e quindi l’incremento degli investimenti. L’intervento consiste
nelle politiche monetarie e fiscali espansive (“dal lato della domanda”) che sfruttano
la costanza del salario nominale fra un rinnovo contrattuale e l’altro e sono finalizzate
a riportare la domanda aggregata al più alto livello e ristabilire il livello iniziale della
domanda di lavoro. La domanda di lavoro risale fino al ristabilirsi del livello iniziale
del salario reale, mentre il salario nominale (w*) resta costante. Il ripristino
dell’equilibrio
macroeconomico di partenza si realizza in corrispondenza
dell’intersezione della domanda aggregata AD0 con la AS0 ai valori di equilibrio L* e
Y*.
Al di là dell’insufficiente trattazione dell’equilibrio di disoccupazione nella
Teoria Generale, la preoccupazione di Keynes era quella di scongiurare che nelle
imprese delle economie capitalistiche aspettative di profitto pessimistiche dei
manager,
degli
azionisti
e
degli
operatori
finanziari
trasformassero
una
disoccupazione di origine ciclica in una condizione di disoccupazione strutturale.
Data l’assunzione di concorrenza perfetta, l’eccesso di offerta di lavoro
dovrebbe indurre il necessario abbassamento del salario nominale che ripristina il
precedente livello di occupazione. La serie dei rinnovi contrattuali scaglionati
dovrebbe determinare il lento aggiustamento verso il basso del salario.. Supponiamo
che il fattore istituzionale renda la riduzione del salario troppo lenta, sicché una quota
di forza lavoro rimanga disoccupata. La presenza di tale rigidità del salario reale
impedisce che abbia luogo il completo aggiustamento di mercato. Poiché non si
34
realizza l’aggiustamento “spontaneo” di mercato, occorre l’intervento della politica
economica.
Definiamo equilibrio di disoccupazione strutturale l’equilibrio determinato da
un salario reale che rimane rigido a un livello superiore a quello dell’equilibrio
walrasiano. Nella Figura 6 descriviamo un concetto introdotto da Edmund Phelps nel
1972: l’equilibrio con isteresi del tasso di disoccupazione (dal greco hystéresis,
ritardo nell’aggiustamento). La funzione ASLP presenta un’inclinazione verticale – al
pari della AS*LP di “piena occupazione” – perché l’output è indipendente dal prezzo:
l’elasticità del salario al prezzo è assunta uguale ad 1 per cui ogni aumento del livello
dei prezzi fa salire il salario nominale nella stessa proporzione. Fattori strutturali
impediscono alla ASLP di tornare nella posizione AS*LP. Le imprese, dato lo stock di
capitale, producono al massimo livello compatibile con un salario nominale (w’) che
corrisponde a un salario reale contrattuale (w/p) in eccesso rispetto a quello di “piena
occupazione” (w/p)*. L’equilibrio fra domanda e offerta di lavoro in corrispondenza
del salario nominale (w’) determina un livello di occupazione minore di quello che si
individuerebbe in base all’offerta di lavoro corrispondente al salario reale di piena
occupazione. Nell’equilibrio al livello di reddito Y’ inferiore a Y*, la disoccupazione è
pari alla distanza L*-L’.
Figura 6. Equilibrio con isteresi
35
ASLP
p
w
w'
AS*LP
(1)
w*
LD
Y’
Y*
Y
L’
LS’
L*
(3)
LS*
L
(2)
L’equilibrio fra domanda e offerta aggregata può avere luogo a diversi livelli di
impiego della forza lavoro. Quando non funzionano i meccanismi omeostatici che
nell’economia walrasiana garantiscono il ritorno all’equilibrio Pareto-ottimo, il
sistema economico si mantiene costantemente al di sotto dell’impiego efficiente delle
risorse. La visione di Keynes di un equilibrio macroeconomico nel quale i disoccupati
non siano volontari (desiderano sostituire tempo libero ad ore di lavoro) ma
involontari (cercano lavoro, ma non lo trovano) trova una sistemazione analitica nel
processo di isteresi che si mette in atto durante il ciclo negativo innescato da uno
shock e che culmina con la traslazione verso sinistra dell’offerta aggregata (dalla
posizione ASLP* alla posizione AS’LP).
È opportuno aggiungere che il termine di disoccupazione strutturale è riferito
alla persistente sotto-occupazione e sotto-partecipazione al mercato del lavoro tipiche
delle condizioni di arretratezza o di ristagno economico. La cause del basso livello di
reddito pro capite risiedono un’insufficiente dotazione di infrastrutture, in un livello
inadeguato sia del capitale fisico (per dimensione e/o livello tecnologico) sia del
capitale umano (grado di istruzione della forza lavoro). Indicando con Y il reddito,
36
con POP tutta la popolazione, con L gli occupati e con N la forza lavoro, le
condizioni di arretratezza o stagnazione economica si riflettono in un basso livello
della produttività del lavoro (Y/L) del tasso di occupazione (L/N) e del tasso di
partecipazione (N/POP).
Il reddito pro capite (Y/POP) può essere dunque espresso come:
Y/POP=Y/L·L/N·N/POP.
10. Politica monetaria di stabilizzazione
L’allontanamento del sistema dall’equilibrio macroeconomico ai valori naturali
dell’output e della disoccupazione viene ricondotto al funzionamento di due mercati:
il mercato del credito e delle attività finanziarie ed il mercato del lavoro. In alcune
rivisitazioni del modello del “Trattato della moneta” e della “Teoria generale” di
Keynes, lo scostamento dal NAIRU viene spiegato con l’incapacità dei mercati
finanziari di assicurare, mediante la determinazione del valore di equilibrio del saggio
di interesse, il coordinamento intertemporale fra risparmi ed investimenti
(Leijonhufvud, 1968 e 1981), oppure con l’informazione asimmetrica che induce le
banche a mantenere fisso il tasso di interesse sui prestiti e variare la quantità
(razionamento del credito) (Greenwald e Stiglitz, 1988, 1993, 2003). Per ragioni di
spazio, concentreremo l’attenzione soltanto sul funzionamento non concorrenziale del
mercato del lavoro.
L’avere assunto esogena la rigidità del salario reale rende poco soddisfacente la
spiegazione della trasformazione della disoccupazione ciclica in disoccupazione
strutturale. L’analisi dei mercati di concorrenza imperfetta in questo paragrafo
permetterà di fare qualche passo avanti verso una spiegazione endogena della
persistenza dell’equilibrio di disoccupazione.
37
Prendiamo le mosse da una funzione di produzione in forma lineare estremamente
semplificata, in base alla quale nel breve periodo la produzione dipende solo
dall’occupazione secondo il coefficiente a che esprime la tecnica di produzione:
Y = aL . La forza lavoro (N) è data dalla somma di disoccupati (U) e occupati (L):
N=U+L. Considerando il tasso di disoccupazione u=U/N, si ottiene: Y=a(N-U)=aNaNu, che rappresenta la differenza fra la produzione potenziale totale e la produzione
“perduta” a causa della disoccupazione.
La legge di Okun mette in relazione lo scostamento della disoccupazione dal
suo valore d’equilibrio al tasso naturale (uN), determinato dall’equilibrio nel mercato
del lavoro con lo scostamento del reddito dal suo valore d’equilibrio, il reddito
potenziale (YN), che possiamo anche definire il livello “naturale” del reddito, in altre
parole il reddito potenziale corrispondente all’utilizzo della forza lavoro consentito
dalle risorse.
Pertanto, scriviamo l’equazione che esprime la legge di Okun:
Y = YN + b(u − u N )
dove il coefficiente b rappresenta lo scostamento del reddito dal suo valore naturale
per un dato scostamento della disoccupazione dal suo valore naturale. L’equazione
può anche essere scritta come:
u = u N + 1 / b(Y − YN )
La curva di Phillips, espressa in termini di disoccupazione, è allora:
u =u N − γ (π − π e ) + µ
38
dove π è il tasso di inflazione, πe è il tasso di inflazione atteso e il coefficiente γ
misura la variazione della disoccupazione generata dalla variazione del tasso di
inflazione. Il termine µ (che rappresenta uno shock esogeno) introduce l’incertezza,
in quanto esprime un possibile disturbo stocastico dalla posizione di equilibrio, con
media E(µ)=0 e varianza σ2. Dalle ultime due equazioni si ottiene:
Y − YN = bγ (π − π e ) + µ
La tradizionale curva di Phillips, espressa in termini di reddito invece che di
disoccupazione, può essere scritta come:
Y = YN + α (π − π e ) + µ
dove α=bγ esprime l’elasticità del reddito a variazioni del tasso di inflazione rispetto
al valore atteso. Pertanto, data la stabilità del valore del coefficiente b espresso dalla
legge di Okun, il valore del coefficiente α presenta un’elevata correlazione con il
valore del coefficiente γ, l’elasticità della disoccupazione al tasso di inflazione che
costituisce la pendenza della curva di Phillips. Tale coefficiente è l’indicatore del
grado di reattività del mercato del lavoro alla trasmissione degli impulsi monetari, e
cioè agli shock ed ai cambiamenti nella politica monetaria. Se le aspettative di
inflazione non sono corrette, per ogni punto di inflazione in eccesso, il reddito è più
alto rispetto al livello “naturale” nella misura determinata da α e la disoccupazione
più bassa nella misura determinata da γ. D’ora in avanti, per indicare le condizioni (di
rigidità o di flessibilità) del mercato del lavoro faremo riferimento direttamente al
valore (alto o basso) di α. Quanto più alto è il valore di α, tanto maggiore è la
variazione dell’occupazione e del reddito in funzione di una data variazione del tasso
di inflazione. In generale, un processo di inflazione sarà tanto più rapido quanto più
basso è il valore di α (più inclinata è la curva di Phillips di breve periodo, più rigido è
39
il mercato del lavoro), mentre un processo di disinflazione sarà tanto più rapido
quanto più alto è il valore di α (più piatta è la curva di Phillips di breve periodo, più
flessibile è il mercato del lavoro).
Supponiamo che le autorità monetarie scelgano una funzione quadratica che
esprime la perdita sociale (Loss) che la banca centrale intende minimizzare.
L’equazione che segue definisce il comportamento dell’autorità di politica monetaria
diretto a annullare gli scostamenti di inflazione e output dai rispettivi valori-obiettivo,
al fine di massimizzare il benessere sociale:
Loss = β (π − π *) 2 + (Y − Y *) 2
dove l’obiettivo di inflazione è π* e l’obiettivo di reddito è Y*=δYN. Si assuma che la
banca centrale dichiari un obiettivo di inflazione pari a π*=0, mentre l’obiettivo di
reddito perseguito sia pari a Y*=δYN, con δ>1 che esprime il convincimento
dell’autorità monetaria che il livello di produzione al quale il sistema economico sta
operando non è soddisfacente. Il parametro β è il peso che indica la preferenza per
una bassa inflazione: tanto maggiore è il suo valore, tanto più l’autorità monetaria
ritiene che la variazione dell’inflazione (normalizzata per la variazione dell’output
nel secondo termine) rappresenti una perdita per la società. Pertanto, nel fissare un
valore del coefficiente δ maggiore di 1, la banca centrale esprime l’intenzione di
perseguire un obiettivo di reddito superiore al livello naturale attraverso una crescita
monetaria al tempo t+1 di ampiezza maggiore rispetto all’ “annuncio” al tempo t.
Supponiamo che la banca centrale, dopo avere annunciato l’obiettivo di
crescita monetaria, osservi uno shock di offerta negativo al tempo t. Lo shock µ è
noto alla banca centrale, ma non è noto ai lavoratori nel momento in cui firmano il
contratto salariale sulla base dell’aspettativa di inflazione formatasi al tempo t-1 e
dell’annuncio della banca centrale. I lavoratori assumono che l’inflazione attesa sia
eguale al suo valore corrente ed il valore atteso dello shock esogeno µ è: E(µ)=0.
40
Poiché il valore atteso di µ è zero, la varianza è: σ²(μ)=E(µ2)–0=E(µ2). In economia
aperta, i processi inflazionistici “a sorpresa” generati dalle politiche di creazione nonannunciata di moneta innescano anche un processo di deprezzamento della valuta.
L’incremento del tasso di inflazione non penalizza le merci sui mercati esteri: al
contrario, la perdita di valore della valuta consente un recupero di competitività che
favorisce una ripresa di breve periodo nelle esportazioni.
Questo modello di comportamento delle autorità monetarie è incompatibile con
l’equilibrio macroeconomico che si determina nella teoria del ciclo reale (RBC). Nei
modelli con mercati ispirati alla teoria del ciclo reale, un tasso di disoccupazione
eccessivamente alto ha una sola possibile spiegazione: i fattori istituzionali nel
mercato del lavoro che ne distorcono il funzionamento comprimendo il reddito di
equilibrio ad un livello inferiore a quello implicito nella disponibilità delle risorse. Le
politiche monetarie e fiscali non sono in grado di modificare il livello potenziale
dell’output. Il coefficiente δ, che misura l’ incremento del livello di reddito (e la
diminuzione della disoccupazione) che le autorità monetarie ritengono di potere
conseguire, attribuirebbe indebitamente alla politica monetaria la capacità di
influenzare le grandezze reali.
L’ipotesi δ>1 è invece compatibile con l’equilibrio macroeconomico
determinato nel modello del ciclo con rigidità nominali. Abbandoniamo l’ipotesi che
la banca centrale osservi uno shock e supponiamo invece che i contratti siano
scaglionati nel tempo. Nei modelli con rigidità nominali, la contrattazione sindacale
determina un salario nominale che non può mutare nell’arco temporale della durata
dell’accordo contrattuale. La banca centrale gode perciò del vantaggio di poter dare
avvio ad un’espansione monetaria a salario monetario dato e costante. Qualunque sia
il comportamento delle autorità monetarie - il caso in cui l’accelerazione della
crescita monetaria corrisponda a quella annunciata, oppure il caso in cui la banca
centrale crea ripetutamente una quantità di moneta superiore a quella annunciata - la
presenza di contratti scaglionati impedisce l’immediato adeguamento di salari e
prezzi. La banca centrale annuncia l’obiettivo di crescita monetaria avendo
41
l’informazione sui livelli retributivi riportati nei contratti di lavoro firmati dalle
organizzazioni dei lavoratori e degli imprenditori. Il salario nominale è stato
negoziato sulla base delle aspettative di inflazione esistenti e rimarrà in vigore per
tutto il periodo previsto. Una volta ricevuta l’informazione sull’accordo raggiunto
dalle parti sociali, per la banca centrale sorge l’incentivo a mutare la propria
decisione modificando la crescita monetaria in funzione dell’ obiettivo di reddito Y*
fissato nella Loss. Il vantaggio informativo di cui gode l’autorità monetaria si riflette
nell’“incoerenza temporale” che caratterizza la politica monetaria (Kydland e
Prescott, 1977, Barro e Gordon, 1983). È probabile che dopo una fase di
apprendimento gli agenti economici – imprenditori, lavoratori e operatori dei mercati
finanziari – si formino l’opinione che il modello di comportamento delle autorità
monetarie si caratterizza per un maggiore peso dato alla stabilizzazione del valore
“medio” dell’output al prezzo di una più elevata inflazione “media”. Ma l’eventuale
learning della strategia della banca centrale - la conoscenza acquisita dagli agenti
razionali della reiterata strategia di creare moneta in eccesso rispetto all’annuncio non è in grado di frapporre un ostacolo all’obiettivo delle autorità monetarie di
elevare il livello di attività economica al di sopra del tasso di disoccupazione
“naturale”.
11. Il settore pubblico
La ricerca storica documenta che in ogni epoca lo Stato ha direttamente partecipato
all’allocazione dei fattori produttivi, oppure ha accompagnato lo sviluppo del settore
privato, definendo la cornice istituzionale che stabilisce i vincoli per le decisioni dei
soggetti che operano nei mercati.
Nel XIX secolo il rafforzamento dell’apparato amministrativo degli Stati
nazionali procedette di pari passo con l’accelerazione dell’espansione del settore
industriale e con la crescente urbanizzazione della popolazione. In Europa, il rapido
42
ampliamento della spesa pubblica fu prevalentemente destinato alla produzione dei
beni pubblici basilari (esercito, magistratura, polizia, infrastrutture). Sul finire del
secolo, l’aumento delle dimensioni del settore pubblico ha coinciso con l’estendersi
delle finalità delle istituzioni pubbliche alla solidarietà ed alla protezione sociale. Le
leggi sulle assicurazioni sociali varate in Germania da Bismarck negli anni 1880
vengono ricordate come la nascita dello stato sociale. Una forte accelerazione della
spesa sociale si manifestò negli anni ’30 e poi nel secondo dopoguerra. La
percentuale della spesa pubblica sul PIL nelle 14 maggiori economie industrializzate,
che nel 1870 era in media dell’8%, raggiunse nel 1960 il valore del 30%. Negli ultimi
quattro decenni del Novecento, il fabbisogno delle istituzioni del Welfare ha
rappresentato la componente più dinamica della spesa pubblica complessiva, che ha
così raggiunto in media il 40% del PIL, con picchi superiori al 50% nei paesi
scandinavi.
Le istituzioni sui cui si fonda l’economia di mercato e l’intervento di
regolazione dell’economia da parte dell’operatore pubblico sono riconducibili alle
seguenti tipologie: 1) l’allocazione di risorse nella produzione dei principali beni
pubblici: le infrastrutture di base dello Stato (polizia, magistratura, esercito) e le
opere pubbliche; 2) la stabilizzazione macroeconomica realizzata dalla politica fiscale
del governo; 3) il sistema di istruzione, che viene considerata un bene meritorio, in
molte aree del mondo è organizzato dal settore pubblico, essenzialmente per
l’interesse della collettività a garantire a tutti i cittadini eguale accesso alla
formazione del capitale umano; 4) le assicurazioni sociali, quali sono, in primo luogo,
i sistemi sanitario e pensionistico; 5) la solidarietà sociale organizzata attraverso le
politiche di “pura redistribuzione” consistenti in trasferimenti monetari (sussidi di
disoccupazione e di povertà) e servizi sociali (ad esempio, le politiche di contrasto
dell’esclusione sociale), con finanziamento a carico della fiscalità generale; 6) le
funzioni di controllo e di promozione della concorrenza nei mercati, svolte
dall’Autorità Anti-Trust. In particolare, questa Autorità vigila affinché i processi di
privatizzazione delle imprese di proprietà pubblica e la ricerca di incrementi di
43
efficienza attraverso le innovazioni e le economie di scala non sfocino in
concentrazioni monopolistiche tali da distorcere il funzionamento concorrenziale dei
mercati, sia nel settore reale che nel settore finanziario. Nel prosieguo, ometteremo la
trattazione delle istituzioni comprese nei punti 1) e 5), che sono oggetto dell’analisi
microeconomica.
11.1. La politica fiscale di stabilizzazione
La politica fiscale di stabilizzazione macroeconomica è rivolta a contrastare gli shock
temporanei. Allo scopo di evitare che le fluttuazioni cicliche negative finiscano per
avvitare i mercati dei beni di consumo e di investimento in una spirale recessiva,
quale ad esempio quella che ebbe luogo durante la Grande Depressione degli anni ’30
del ‘900, la struttura del bilancio pubblico si è trasformata in modo che la domanda
del settore pubblico possa compensare – attraverso gli stabilizzatori automatici ed
eventuali interventi discrezionali di spesa - una caduta nella domanda del settore
privato causata da uno shock temporaneo di domanda o di offerta.
Il moltiplicatore della spesa pubblica
Procediamo dunque ad inserire l’intervento pubblico nel nostro modello,
approfondendo l’analisi del moltiplicatore del reddito. L’introduzione del settore
pubblico nel modello macroeconomico di breve periodo comporta che nell’equazione
del reddito nazionale si tenga conto della tassazione e della spesa pubblica.
Consideriamo la tassazione (T) una proporzione del reddito (T=τY); il livello della
spesa pubblica (G) e delle esportazioni (E) un dato; il consumo una funzione del
reddito disponibile (C=cYd) definito per differenza tra il reddito e l’imposizione
fiscale (Yd=Y-T); l’investimento una grandezza autonoma (I) e le importazioni (M)
una funzione lineare del reddito (M=α1Y). Sostituendo nell’equazione che descrive la
condizione di equilibrio
44
Y=C+I+G+X–M
le componenti della domanda aggregata che dipendono dal reddito interno (Y), si
ottiene:
Y
1
(G + I + X )
1 − c (1 − τ ) + α1
Questa equazione pone il livello del reddito in funzione delle componenti della spesa
autonoma attraverso il moltiplicatore di un’economia aperta, ovvero la frazione al cui
denominatore compaiono la propensione al consumo (c), la proporzione della
tassazione sul reddito (τ) e la propensione all’importazione (α1). La dimensione
dell’incremento del reddito attivato ad esempio da un impulso espansivo della spesa
pubblica dipende positivamente dalla propensione al consumo (c) e negativamente da
τ e da α1. In particolare, la propensione ad importare (α1) ha un effetto riduttivo sulla
moltiplicazione del reddito attivato da un impulso di spesa pubblica. Tale effetto si
spiega con l’apertura agli scambi con l’estero che dirotta dalle imprese nazionali alle
imprese estere una parte dell’effetto moltiplicativo sulla produzione.
Dato il reddito disponibile (Yd), il risparmio privato è il complemento al
consumo: S=Y-T-C. Sostituendo il reddito (Y) con il lato destro della condizione di
equilibrio e riordinando i termini, scriviamo la condizione di equilibrio tra
produzione e reddito in economia aperta e con settore pubblico in modo da
evidenziare la relazione tra risparmi al netto degli investimenti nel settore privato (SI), disavanzo del settore pubblico (T-G) e saldo della bilancia commerciale (M-X):
(S - I) + (T - G) + (M - X ) = 0
45
Prendendo le mosse dal settore privato, supponiamo che il termine (S-I) sia in
disequilibrio. Un eventuale eccesso del risparmio sugli investimenti (S>I) va a
finanziare – attraverso il sistema bancario e i mercati finanziari - un deficit pubblico
(T<G) e/o un eccesso nell’aggregato degli scambi internazionali di domanda estera
che si rivolge ai beni interni rispetto alla domanda interna di beni esteri (M<X). Per
semplicità, consideriamo che tutto il debito pubblico sia posseduto dai residenti e che
non vi sia un reddito netto da investimenti finanziari all’estero. In altri termini, il
risparmio netto del paese nei confronti del “resto del mondo” coincide con il saldo
primario delle partite correnti. Esattamente come accade nel caso del settore privato e
del settore pubblico, un eventuale disavanzo corrente dei conti primari delle partite
correnti richiederà la formazione di avanzi nei periodi futuri. In un mondo di mercati
globalizzati e in un sistema monetario internazionale incentrato sui cambi flessibili
fra le tre principali valute – dollaro USA, euro e yen – anche il canale dei tassi di
cambio è rilevante ai fini del nesso moneta-reddito. Ad esempio, una manovra di
restrizione monetaria induce un incremento del tasso di interesse e così causa una
preferenza relativa a favore dei depositi denominati in quella valuta; i capitali attratti
nel paese provocano l’apprezzamento della valuta, con conseguente calo delle
esportazioni e quindi del reddito. Così pure, nei mercati finanziari l’equilibrio
dipende dall’incontro fra domanda e offerta di fondi prestabili.
Consideriamo invece il caso in cui le esportazioni nette siano positive:
X – M = NX > 0.
Possiamo interpretare tale eccesso di esportazioni sulle importazioni come
l’esito di un finanziamento del sistema bancario internazionale agli importatori esteri,
che consente loro di effettuare pagamenti pari al valore dei beni acquistati.
Ricordando che in contabilità nazionale un surplus di bilancio pubblico viene definito
risparmio pubblico, pensiamo l’equazione precedente in termini di una eguaglianza
fra investimenti (all’interno ed all’estero) e risparmi (privati e pubblici):
46
I+(X-M) = S+(T–G)
che possiamo anche descrivere come l’equilibrio macroeconomico completo (relativo
cioè a tutti e tre i settori privato, pubblico ed estero):
(S - I ) = (G - T) +(X-M)
Definiamo le esportazioni nette: NX = (X-M).
Alle esportazioni nette corrispondono le importazioni nette di capitali (investimenti
stranieri nel paese meno investimenti del paese all’estero): NKI. Quindi: NX = NKI
Negli ultimi decenni, l’incremento della spesa pubblica non ha trovato in molti paesi
un adeguato corrispettivo nell’incremento delle entrate fiscali; si è reso necessario il
ricorso all’indebitamento, con conseguente accumulazione di uno stock di debito
pubblico. Come sappiamo, nel modello IS-LM (dove nel mercato monetario sono
presenti solo moneta e titoli) l’emissione di titoli per il finanziamento della spesa è
una domanda di fondi liquidi che va ad aggiungersi a quella proveniente dalle
decisioni di investimento delle imprese. Il conseguente eccesso di domanda
sull’offerta di fondi liquidi, provocando un innalzamento del tasso di interesse
“taglia” le decisioni di investimento (effetto di “spiazzamento”). Se consideriamo
portafogli composti da tre attività finanziarie (moneta, titoli ed azioni), nell’ipotesi di
alta sostituibilità fra titoli e azioni l’effetto sulle decisioni di investimento non muta:
l’aumento del tasso di interesse si trasmette anche ai rendimenti azionari; al più alto
rendimento corrisponde la discesa delle quotazioni che riduce la convenienza ad
emettere azioni deprimendo l’attività di investimento delle imprese. Nei paesi in cui
ha rilievo la propensione a finanziare il consumo nel mercato del credito
(rateizzazione, etc.), la discesa della domanda aggregata riguarda anche la
componente dei consumi privati. In economia aperta, si determina un ulteriore effetto
47
depressivo sulla domanda aggregata: l’aumento del tasso di interesse sui titoli
pubblici indotto dalle emissioni a copertura del deficit genera un afflusso di capitali
dall’estero e il conseguente apprezzamento della valuta ha un impatto riduttivo sulle
esportazioni.
Un forte ricorso del settore pubblico all’indebitamento può dunque causare la
discesa delle tre componenti della domanda aggregata (consumo, investimento ed
esportazioni) e spegnere completamente l’incremento del reddito generato dal
moltiplicatore della spesa pubblica. Inoltre, è possibile che si determini il fenomeno
dei deficit gemelli. A partire da un bilancio pubblico in pareggio, una riduzione delle
tasse in presenza di spesa pubblica costante genera deficit pubblico, ovvero
diminuisce il risparmio pubblico. Nella visione NCE, i soggetti ricardiani
aumenteranno il proprio risparmio. Nella visione NKE, potrebbero anche tagliare gli
investimenti o ridurre le importazioni nette di capitale. Il deficit pubblico dà origine
al deficit estero (deficit gemelli). La discesa del capitale fa salire la PMK ed il tasso
di interesse e declinare la PML ed il salario, con conseguente aggiustamento nelle
decisioni di investimento.
È qui che rilevano gli aspetti istituzionali riguardanti i nessi fra economia reale
e mercati monetari e finanziari e la visione di endogeneità della formazione delle
scorte liquide per effetto della concessione di credito a imprenditori e consumatori. In
un modello di finanziamento del sistema economico imperniato sul credito bancario il
grado di sostituibilità fra obbligazioni ed azioni tende ad essere basso in quanto
moneta e obbligazioni finiscono per formare un unico aggregato. Gli aggiuntivi titoli
emessi per finanziare un’espansione della spesa pubblica hanno in questo caso un
effetto espansivo sul livello del reddito. Infatti, in presenza di un grado di
sostituibilità del debito pubblico maggiore con la moneta che con il capitale
azionario, ad una più elevata quota di titoli pubblici in portafoglio dovrà
accompagnarsi un corrispondente adeguamento verso l’alto della quota di azioni. Tale
aggiuntiva domanda di azioni provoca una salita delle quotazioni di borsa (e la
48
correlata riduzione dei tassi di rendimento azionario) che agisce da stimolo sulle
decisioni di investimento delle imprese che si finanziano nel mercato dei capitali.
Pertanto, l’espansione della spesa pubblica in deficit causerà un “effetto
spiazzamento” di ampiezza inferiore a quello del modello di finanziamento in cui
obbligazioni ed azioni formano un unico aggregato.
"Equivalenza ricardiana” ed effetti non-keynesiani della politica fiscale
È giunto il momento di superare lo schema analitico nel quale è solo il reddito
corrente ad influenzare il consumo. Nella realtà, il soggetto massimizza il suo
benessere attraverso la scelta del paniere di consumo corrispondente alle sue
preferenze su un arco temporale pluriperiodale. I piani di consumo dei soggetti
vengono decisi in relazione al reddito permanente, che si definisce come il valore
medio annuale del flusso di reddito atteso lungo tutto il periodo di vita: in breve, lo
stock di ricchezza dell’individuo. Il piano di consumo risultante dalla tangenza del
vincolo intertemporale di bilancio costituito dal valore attualizzato dei flussi di
reddito futuro atteso con la curva di indifferenza più elevata rappresenta la
combinazione di consumo presente e di consumo futuro che rende massima la
soddisfazione dell’individuo.
Nell’equazione del “moltiplicatore” la propensione al consumo dei soggetti è
uno dei parametri che legano un impulso di spesa pubblica alla moltiplicazione del
reddito. Come si interrelano allora settore privato e settore pubblico riguardo alla
formazione
della
complessiva
domanda
di
consumo
in
una
prospettiva
pluriperiodale? Analizziamo l’approccio alla politica fiscale basato sulla teoria dell’
“equivalenza ricardiana”. Le ipotesi sono le seguenti: i soggetti hanno vita infinita; i
mercati dei capitali sono perfetti; la capacità previsionale dei soggetti è perfetta; la
tassazione, per non risultare troppo distorsiva, è a somma fissa.
Presentiamo ora le equazioni che esprimono il vincolo intertemporale di
bilancio del settore privato e del settore pubblico su un arco temporale ridotto per
semplicità a due anni (i valori del secondo periodo sono attualizzati al presente). Per
49
il settore privato, tenendo presente che il consumo dipende dal reddito disponibile al
netto delle tasse, il vincolo di bilancio intertemporale relativo a due periodi è espresso
dall’equazione (12.4) dove la somma di consumo presente e consumo futuro del
consumatore “rappresentativo” eguaglia la somma del reddito disponibile dei due
periodi (t=1,2):
(12.4)
C1 +
C2
Y − T2
= (Y1 − T1 ) + 2
1+ r
1+ r
Per il settore pubblico, esprimiamo il vincolo nei termini dell’eguaglianza fra la spesa
pubblica presente e futura e le entrate fiscali dei due periodi:
(12.5)
G1 +
G2
T
= T1 + 2
1+ r
1+ r
Nel caso in cui un incremento di spesa pubblica venga finanziamento con emissione
di titoli invece che con le tasse, i soggetti ritengono che una eventuale variazione
dello stock di debito pubblico posseduto in portafoglio non rappresenti una effettiva
variazione della loro ricchezza. La consapevolezza che lo Stato, per essere in grado di
restituire il debito contratto con il settore privato, dovrà aumentare le tasse, li induce
infatti a non considerare il valore dei titoli pubblici una aggiunta alla loro dotazione
di ricchezza. Troviamo conferma analitica di questa visione sommando i due vincoli
di bilancio della (12.4) e della (12.5):
(12.6)
C1 +
C2
Y − G2
= (Y1 − G1 ) + 2
1+ r
1+ r
Come si vede, nell’equazione non compare il finanziamento della spesa pubblica: il
consumo (valore presente e valore futuro attualizzato) risulta eguagliare la differenza
50
fra reddito e spesa pubblica (valore presente e valore futuro attualizzato). La
spiegazione è appunto che non conta il modo in cui la spesa pubblica viene
finanziata: nel periodo t, la spesa pubblica può essere finanziata con tassazione,
oppure, alternativamente, con l’emissione di titoli. I soggetti “ricardiani” sono
razionali e in seguito ad un aumento di valore (aumento del prezzo o della quantità)
dei titoli pubblici detenuti in portafoglio non adeguano verso l’alto i piani di consumo
in quanto non si sentono più ricchi. Infatti, essi prevedono un aumento della
tassazione nei periodi futuri, e quindi il reddito permanente (calcolato su due periodi)
non subisce variazioni.
Con il primo tipo di finanziamento (tasse), la copertura della spesa avviene in ciascun
periodo (equazione 12.5); con il secondo tipo di finanziamento (emissione di titoli:
B=G), il reddito verrà decurtato domani dalle tasse future:
T1=0 e T2=B(1+r)+G2.
I piani di consumo non vengono modificati né nel periodo t né nel periodo t+1 ed il
moltiplicatore della spesa pubblica risulta pari a zero. Pertanto, l’equivalenza
ricardiana non riconosce né il sostegno di breve periodo alla stabilità
macroeconomica svolto dal moltiplicatore della spesa pubblica né il sostegno alla
formazione del reddito svolto nel lungo periodo dalla produzione dei beni pubblici, in
primo luogo le infrastrutture e la formazione del capitale umano.
All’“equivalenza ricardiana” viene mossa la critica di non essere valida se i
soggetti sono vincolati nel consumo a causa del basso reddito. Per realizzare i piani di
consumo, non potendo offrire beni in garanzia (collateral) a fronte di un prestito,
questi soggetti sono costretti a pagare alti tassi di interesse (se poi le banche seguono
una politica di “razionamento” del credito a tasso costante, le loro richieste di prestito
saranno certamente respinte) (Stiglitz e Weiss, 1981). Qualora la spesa pubblica non
sia finanziata con la tassazione ma a copertura del deficit vengano emessi titoli
pubblici, i soggetti con vicoli di liquidità sono avvantaggiati. La ragione è che i tassi
51
di interesse sui titoli pubblici sono inferiori ai tassi sopportati dai privati nel momento
in cui accendono un mutuo (di norma, la solvibilità di uno Stato sovrano è ritenuta
superiore a quella di un privato). È “come se” il governo “aiutasse” i soggetti privati
ad ottenere dalle banche un finanziamento allo stesso tasso di interesse che esse
praticano al governo. Ad essere avvantaggiati dal finanziamento in titoli pubblici
saranno soprattutto i soggetti a basso reddito, il cui consumo sarà più ampio nel caso
di finanziamento in titoli che nel caso di finanziamento mediante la tassazione. Ad
esempio, il consumo del disoccupato al netto della spesa per interessi è maggiore nel
caso in cui il finanziamento sia costituito dal sussidio di disoccupazione che nel caso
di ricorso al credito bancario. Contrariamente all’equivalenza ricardiana, almeno
sotto il profilo della distribuzione del reddito, la modalità di finanziamento non è
irrilevante ed il moltiplicatore della spesa pubblica presenta un valore positivo.
Il livello di reddito dei soggetti ed il “vincolo di liquidità” in cui i loro piani di
consumo possono incorrere hanno anche rilievo riguardo all’influsso del tasso di
interesse sulla distribuzione del consumo fra presente e futuro. L’impatto di un
aumento del tasso di interesse sulla spesa di consumo dipende infatti dalla circostanza
di finanziare tale spesa con il proprio risparmio oppure con il ricorso al credito. Il
segno di tale impatto è comunque di difficile determinazione.
Nell’originaria funzione del consumo introdotta da Keynes, fondata sul reddito
corrente, un aumento del tasso di interesse avvantaggia i risparmiatori-prestatori (che
incrementeranno il consumo) e penalizza i consumatori-debitori (che ridurranno il
consumo a causa di un ammontare di pagamenti per interessi più elevato).
Nell’aggregato, si realizza una redistribuzione di reddito a favore dei soggetti a più
alto reddito, e quindi a minore propensione al consumo, con conseguente effetto
deflazionistico sulla domanda aggregata. Nella prospettiva intertemporale fondata sul
reddito atteso nei periodi futuri, l’impatto delle variazioni del tasso di interesse sul
consumo è più complesso. L’impatto, ad esempio, di un aumento del tasso di
interesse è la risultante di due effetti ambedue di segno incerto: 1) l’effetto reddito,
che è diverso nel caso dei creditori (che aumentano il consumo presente e futuro) e
52
dei debitori (a fronte della decurtazione del reddito causata dai più ingenti esborsi per
interessi, questi soggetti ridurranno il consumo presente); 2) l’effetto sostituzione che
induce il consumatore a ridurre il consumo presente perché è aumentato il costo del
credito potrebbe causare una riduzione della domanda nel presente; ma il tasso di
interesse rappresenta il prezzo intertemporale del consumo, cosicché la caduta del
reddito futuro potrebbe generare un effetto riduttivo sul consumo futuro ancora più
rilevante. Pertanto, l’impatto complessivo di un aumento del tasso di interesse sulla
spesa di consumo risulta essere incerto.
La teoria dell’ “equivalenza ricardiana” è la principale fra le ipotesi su cui si
fonda la tesi dei cosiddetti “effetti non-keynesiani” della politica fiscale. Dopo una
riduzione della spesa pubblica che modifichi le loro previsioni sul reddito
permanente, i soggetti razionali “ricardiani” –- possono avere l’aspettativa di una
riduzione delle tasse. La condizione è la seguente: il “taglio” della spesa pubblica
deve essere percepito dai soggetti come permanente. Tale percezione ha luogo in
particolare quando la spesa pubblica è di tipo strutturale e la sua riduzione è
sostanzialmente irreversibile (ad esempio, una riforma delle pensioni). La restrizione
fiscale – permettendo di realizzare una decumulazione di debito pubblico - crea
l’aspettativa di un ridimensionamento del settore pubblico e quindi di un sentiero
declinante della tassazione futura. Il reddito permanente più elevato indurrà i soggetti
ad aumentare il proprio consumo. L’effetto sul reddito di una variazione della fiscal
stance in senso restrittivo sarebbe dunque opposto rispetto alla visione keynesiana. È
robusta questa tesi di fronte ad un rilassamento dell’ ipotesi di “equivalenza
ricardiana”? In altre parole, se aumentiamo il grado di realismo del complesso di
ipotesi che fondano l”equivalenza ricardiana” - ad esempio, supponendo che un certo
numero di soggetti siano vincolati nel consumo a causa delle condizioni imperfette
del mercato del credito sopra dette - si ottiene ancora il risultato non-keynesiano di un
aumento della domanda privata come conseguenza di una contrazione della spesa
pubblica?
53
Sembra che la risposta debba essere negativa. Nei modelli che ipotizzano la
presenza di una certa quota di soggetti non-ricardiani all’interno della popolazione,
ad una contrazione fiscale non conseguono di norma risultati non-keynesiani. Si può
dimostrare che quanto più alta è la percentuale di soggetti non-ricardiani, quanto più
basso il tasso di sconto sul consumo futuro (i consumatori sono poco impazienti) e
quanto più bassa nella percezione dei soggetti è la persistenza della spesa pubblica da
un periodo all’altro, tanto meno è probabile che si riscontri un effetto non-keynesiano
della politica di spesa pubblica (Creel et al., 2005). L’evidenza empirica di effetti
non-keynesiani delle politiche di decumulazione del debito pubblico è finora
piuttosto ridotta, in ciò rispecchiando la particolarità delle ipotesi sotto le quali è
contemplabile il loro manifestarsi.
Il vincolo intertemporale del bilancio pubblico
Approfondiamo ora l’analisi del vincolo del bilancio pubblico, considerando – oltre
alla tassazione – anche il finanziamento in moneta e titoli. Nell’equazione che segue,
tale vincolo viene espresso mediante l’eguaglianza fra disavanzo e suo
finanziamento:
(12.7)
(G − T ) + iB = dB / dt + dM / dt
dove G è la spesa pubblica in beni e servizi, T è il gettito fiscale, i è il tasso di
interesse nominale sul debito pubblico, B è il debito pubblico, dB/dt è la derivata
prima rispetto al tempo dello stock di titoli pubblici e dM/dt è la derivata della
quantità di moneta rispetto al tempo, ed esprime la quota di deficit pubblico che viene
finanziata con l’espansione di base monetaria attraverso l’acquisto di titoli pubblici
da parte della banca centrale.
L’espansione della spesa pubblica, non accompagnata da un proporzionale
incremento della tassazione, ha determinato in molte economie avanzate
54
l’accumulazione di uno stock di debito pubblico. Pertanto, esprimiamo il vincolo del
bilancio pubblico nel periodo t con l’equazione:
(12.8)
Bt = (1 + it )Bt −1 − (Tt − Gt ) − (M t − M t −1 )
Essa indica che la variazione del debito pubblico (nel periodo t rispetto al periodo t-1)
sarà positiva se lo stock di debito ereditato dal periodo precedente - comprensivo
della spesa per gli interessi su tale ammontare di debito - non sarà eguagliato dalla
somma algebrica fra la differenza fra spesa pubblica ed entrate fiscali e la variazione
della quantità di moneta. Eliminando la notazione di tempo ed annullando il
finanziamento in moneta (abolito nel corso degli ultimi decenni nelle economie
avanzate), risulta che la variazione del debito sarà positiva o negativa a seconda che
la somma algebrica fra saldo primario (G – T) e spesa per interessi (iB) sia positiva o
negativa:
(12.9)
∆B = G − T + iB
Per normalizzare le poste della finanza pubblica fra paesi di dimensioni diverse, e
quindi di diversa ampiezza assoluta del PIL, si suole considerare deficit e debito
pubblico come percentuali del PIL. Deriviamo totalmente B/Y, ottenendo:
(12.10)
 B
 B 1
d   = dB +  − 2
 Y
Y  Y

dY

il che equivale ad esprimere il lato destro della (12.7), una volta annullato il
finanziamento in moneta, in termini di differenze:
55
(12.11)
 B  ∆B B ∆Y
−
∆  =
Y
Y
Y Y
 
Ponendo b=B/Y e g=∆Y/Y, si ottiene:
(12.12)
∆b =
∆B
− bg
Y
Sostituendo la (12.9) nella (12.12) si ottiene:
(12.13)
∆b =
G + iB − T
− bg
Y
Ponendo γ=G/Y e τ=T/Y, si ricava:
(12.14)
∆b = g − τ + (i − g )b
Questa equazione evidenzia la questione fondamentale che sta alla base del
concetto di sostenibilità del debito pubblico, ovvero il cosiddetto “effetto palla di
neve” (snowball effect). Sottraendo il tasso di inflazione (π) sia dal tasso di interesse
nominale (i) che dal tasso di crescita del reddito nominale (g) si ottengono,
rispettivamente, (r) ed (x). Un eccesso del tasso di interesse reale (r) rispetto al tasso
di crescita reale (x), benché esprima la condizione di efficienza dinamica del sistema
economico (in breve, la crescita economica è garantita, in quanto l’attività di
investimento è sostenuta da un tasso di rendimento del capitale che è più alto del
tasso a cui cresce l’economia), mette a rischio la sostenibilità del debito pubblico.
L’autorità fiscale è costretta a ricorrere a nuove emissioni di titoli, aggravando il
problema del debito pubblico. Intuitivamente, al dato valore di b l’ammontare delle
56
risorse necessarie a finanziare la spesa annua per interessi risulta essere di ampiezza
maggiore rispetto alle risorse aggiuntive che si rendono disponibili nel periodo. Se
infatti il tasso di interesse eccede il tasso di crescita dell’economia, il rapporto debito
pubblico / PIL è destinato a crescere, perché le risorse aggiuntive che vengono a
formarsi in ogni anno non generano entrate fiscali in misura sufficiente a finanziare i
deficit primario (D1) e secondario (D2), è inevitabile procedere a nuove emissioni di
titoli pubblici. La credibilità di un programma di riduzione del debito pubblico
dipende quindi molto dalla capacità di crescere dell’economia, in modo che il
governo non debba ricorrere al mercato finanziario e cioè all’emissione di nuovi titoli
per coprire i deficit primario (D1) e secondario (D2).
Il cosiddetto Ponzi Game rappresenta il caso estremo di insostenibilità
prospettica di una posizione debitoria. Ponzi è il nome del banchiere che, nella
Boston dei primi anni Venti del secolo scorso, inventò uno schema di investimento
finanziario ad alto rischio: gli interessi sulle somme prestate venivano pagati con le
somme ricevute dai nuovi investitori. Ponzi trascinò con sé in una rovinosa
bancarotta migliaia di risparmiatori americani. Molti suoi emuli hanno fatto lo stesso
in Europa, anche in tempi recenti (si pensi alle crisi bancarie, come la “corsa agli
sportelli” della Northern Bank, al fallimento della banca franco-belga Dexia, al
virtuale fallimento della Bankia, salvata dal governo spagnolo, e agli scandali
finanziari causati dalla City nel Regno Unito, e da imprese produttive come la
Parmalat e la Cirio in Italia). Al pari dei soggetti del settore privati, neppure i governi
sono immuni dalla tentazione di volere condurre un Ponzi Game. Esempi recenti sono
l’Argentina e la Grecia. Il governo argentino ha fatto ricorso nel 2001 al ripudio del
proprio debito pubblico, una significativa quota del quale era detenuto da
risparmiatori stranieri, dando poi vita ad una lunga trattativa che ha condotto ad una
restituzione del prestito ai creditori (banche, fondi pensione, risparmiatori, etc.) pari a
circa il 30% del valore nominale. Il caso della Grecia è un po’ diverso. Il governo
greco nella prima metà ha occultato molte poste di spesa pubblica, comunicando dati
inesatti di bilancio pubblico all’agenzia ufficiale di statistica della Commissione
57
Europea. Quando è scoppiata la crisi finanziaria, ad ancora più quando la
conseguente recessione ha prosciugato il danaro nelle casse dello stato, la Grecia ha
dovuto dare conto dei dati effettivi di bilancio per ricevere gli aiuti dell’EFSF
(European Financial Stability Fund), il fondo salva-stati dell’Eurozona. L’evidente
impossibilità che la debole economia del paese potesse generare in futuro surplus di
bilancio pubblico tali da riassorbire l’ingentissimo debito pubblico accumulato ha
indotto la Commissione Europea ad imporre alla Grecia un accordo nel quale
l’erogazione di fondi è stata subordinata a drastiche riforme (a cominciare dal
ridimensionamento del settore pubblico ed a un taglio medio del 30% agli stipendi
pubblici)e ad un hair-cut, ovvero un taglio del debito pubblico (con parziale recupero
del danaro investito nei titoli greci garantito solo ai prestatori privati). Considerando
la gravità della crisi economica, con tassi di crescita del PIL ancora negativi, è
probabile che la Grecia non sia in grado di annullare il notevole ammontare di debito
pubblico ancora in essere.
Nel marzo 1933, nel corso della Grande Depressione che seguì il crollo di Wall
Street dell’ottobre 1929, il presidente degli Stati Uniti F.D. Roosevelt presentò una
"Legge bancaria d'emergenza", che venne subito approvata dal Congresso. Essa
rendeva possibile anche delle ristrutturazioni fallimentari con la cancellazione delle
esposizioni speculative delle banche. Anzitutto fu creata e applicata la legge GlassSteagall che separava le banche commerciali da quelle di investimento con il divieto
di utilizzo dei risparmi dei cittadini per operazioni fatte nell'interesse delle banche. Fu
inoltre creata la Federal Deposits Insurance Corporation, a cui oggi l'Europa vorrebbe
ispirarsi, che dava la garanzia dello Stato ai risparmi delle famiglie e dei privati.
Venne riorganizzata la Reconstruction Finance Corporation, istituzione statale fino ad
allora utilizzata per il salvataggio delle banche decotte, e trasformata in una specie di
fondo di sviluppo per l'emissione a lungo termine di crediti per la "ripresa
economica", per gli investimenti in infrastrutture e per la creazione di posti di lavoro.
Purtroppo, poco è stato fatto – negli Stati Uniti ed in Europa – per rafforzare la
regolamentazione dell’attività delle banche e elle Borse, per riformare a legislazione
58
sugli istituti finanziari che hanno dato origine alla crisi e per combattere l’attuale
recessione.
L’equazione contiene anche altri due aspetti del problema della sostenibilità del
debito pubblico. Il primo è che una eventuale differenza positiva fra tasso di interesse
e tasso di crescita è tanto più grave quanto elevato è il valore di b (con un rapporto
pari al 100%, un punto di eccesso del tasso di interesse si scarica in un punto in più di
debito pubblico in rapporto al PIL. Il secondo è il seguente. Definendo il debito
pubblico come:
bt - bt-1 = ( it – gt) bt-1 + D1
affinché lo stock di debito rispetto al PIL sia almeno stabilizzato – e cioè: bt - bt-1 = 0
- è necessario che il lato sinistro dell’equazione sia pari a zero. Ovvero che, nel caso
di valore positivo del primo termine a causa di un eccesso del tasso di interesse sul
tasso di crescita, il surplus primario strutturale (il saldo di bilancio al netto delle
variazione di breve periodo indotte dalle fasi cicliche di espansione e di riduzione del
PIL) sia tale da generare nel secondo termine il valore negativo di ampiezza
sufficiente a validare il segno di eguaglianza con il lato destro.
Pertanto, la sostenibilità del debito pubblico dipenda sia dal’evoluzione del
PIL, sia dall’accumulazione di debito pubblico avvenuta in passato, sia
59
dall’andamento
dei
deficit
primario
e
secondario.
La Tabella qui sopra disaggrega le diverse fonti di alimentazione del debito pubblico
nei paesi dell’Eurozona a 12 paesi (prima cioè dell’ingresso di Malta, Cipro,
Slovenia, Slovacchia, Estonia). Prendiamo l’esempio dell’Itaia: dal 2002 al 2007
dalla tabella risulta una variazione in aumento del rapporto debito pubblico /PIL (1,6%). Tale valore risulta dalla somma algebrica fra l’apporto riduttivo sul debito
pubblico (alla scadenza, è possibile ripagare l’importo dei titoli di debito pubblico,
senza doverli nuovamente emetterli) determinato dalle aggiuntive entrate fiscali
generate dalla crescita del PIL (1,4%) e da altre voci (1,8%) da un lato, ed i deficit
primario (- 0,9%, ovvero entrate fiscali inferiori alla spesa pubblica) e secondario (il
valore della spesa per interessi pari al 4%) dall’altro. Poiché l’apporto riduttivo sul
debito pubblico (3,2%) è inferiore alla spesa per interessi (4%), fra 2002 e il 2007 si è
determinato un incremento del rapporto debito pubblico /PIL pari a -1,6%.
Possiamo anche aggiungere che in Europa, negli anni ’70 e ’80, oltre alle due
suddette fonti di incremento del rapporto debito pubblico/PIL (un aumento del deficit
primario ed un eccesso del tasso di interesse nominale rispetto al tasso di crescita del
reddito nominale), anche l’alta inflazione ha giocato un ruolo nell’andamento di
60
deficit e debito pubblico. Considerando che il tasso di crescita (g) consta di una
componente reale (x) e di una componente monetaria (π): g=x+π e tenendo conto
dell’equazione di Fisher: r=i-πe, poniamo eguale a zero il tasso di crescita
dell’economia (x), in modo da isolare l’impatto dell’inflazione sulla dinamica del
debito pubblico. Dall’equazione (12.14) si ottiene il vincolo del bilancio pubblico
espresso in termini reali:
(12.15)
(
∆b = γ − τ + b r + π e − π
)
L’equazione (12.15) esplicita questa terza fonte di incremento del rapporto debito
pubblico / PIL: πe>π. Contrariamente all’ipotesi di aspettative razionali, il tasso di
inflazione che effettivamente si realizza ex post può discostarsi per difetto dal tasso
atteso. Quando le aspettative di inflazione non si realizzano perché il tasso di
inflazione ex post risulta superiore all’inflazione attesa, la tassa da inflazione (una
forma di signoraggio) riduce il valore reale del debito pubblico; ma se le aspettative
di inflazione non si realizzano perché il tasso di inflazione ex post risulta inferiore
all’inflazione attesa, il governo ha aumentato il tasso di interesse nominale in una
misura superiore all’incremento da riconoscere ai possessori del debito pubblico. Di
conseguenza, le emissioni di nuovi titoli a copertura della spesa per interessi sono in
eccesso rispetto all’effettivo bisogno, provocando un incremento non dovuto dello
stock di debito pubblico.
Vediamo ora come si misura la sostenibilità di lungo periodo del debito
pubblico.
In base alle equazioni (12.14) e (12.15) formuliamo ora il vincolo del bilancio
pubblico in termini reali:
(12.16)
bt = (1 + r )bt −1 − (t t − γ t )
61
Risolvendo per bt-1 ed iterando per i periodi successivi, dopo k iterazioni si ottiene il
VIBP:
k
(12.17)
−i
bt = ∑ (1 + r ) (vt +i ) + (1 + r ) bt + k
−k
i =0
dove alla differenza fra entrate ed uscite fiscali (al netto della spesa per interessi) è
sostituito il simbolo del saldo di bilancio primario rispetto al PIL v (se maggiore di
zero, il saldo si definisce surplus). La spia del problema della sostenibilità risiede
nella presenza del termine b nel secondo termine del lato destro dell’equazione: nulla
garantisce che non possa aumentare. L’equazione non vincola infatti b per ogni
valore del programmato surplus v nel primo termine. Il soddisfacimento del vincolo
intertemporale del bilancio pubblico è rispettato se e soltanto se – oltre gli importi
della serie futura dei surplus di bilancio primario ν t +i = τ t +i − γ t +i che compaiono al
primo termine sono opportunamente commisurati ai valori dei tassi di interesse e di
crescita - vale anche la “condizione di trasversalità”, che esclude per ipotesi ogni
eventuale incremento di b causato dall’ eccedenza del tasso di interesse sul tasso di
crescita. In breve, non è possibile programmare l’ampiezza dei surplus in modo tale
da finanziare anche il deficit aggiuntivo provocato da tale eventuale eccedenza. Tale
condizione consiste nell’azzeramento del valore del secondo termine sul lato destro
della (12.17) all’avvicinarsi del tempo all’infinito ( k → ∞ ):
lim(1 + r ) bt + k = 0
−k
(12.18)
k →∞
Quando il debito pubblico in rapporto al PIL aumenta nei periodi t+k ad un tasso
inferiore al fattore di sconto 1+r la “condizione di trasversalità” è soddisfatta. Si noti
che l’analisi intertemporale del vincolo del bilancio pubblico presuppone la validità
dell’“equivalenza ricardiana”: soggetti ricardiani che “internalizzano” il valore
62
presente del vincolo di bilancio ed il soddisfacimento della condizione di
trasversalità. Dopo un impulso di politica fiscale, la mancata modifica dei piani di
consumo fa sì che il moltiplicatore della spesa pubblica sia pari a zero.
Riscriviamo la (12.17) aggiungendo, nell’equazione (12.19), il segno di
disuguaglianza. Ciò riflette l’esistenza di due diverse possibili strategie a disposizione
dell’autorità fiscale nel perseguimento dell’obiettivo della decumulazione del debito
pubblico:
k
(12.19)
−i
bt ≥ ∑ (1 + r ) (vt +i ) + (1 + r ) bt + k
−k
i =0
Assumiamo che il secondo membro sul lato destro sia pari a zero, cosicché la
“condizione di trasversalità” sia rispettata. Poniamoci la seguente domanda: il valore
attualizzato al presente dei surplus futuri in rapporto al PIL che compare al primo
termine deve essere di ampiezza tale da ripagare completamente il debito pubblico in
essere al tempo t? In altre parole, l’equazione (4.19) deve essere necessariamente
soddisfatta con il segno di uguaglianza, oppure è ammissibile anche il segno di
disuguaglianza?
Distinguiamo due posizioni teoriche:
1) nella visione NCE, soprattutto nella versione RBC dove le tasse sono
sempre distorsive e la gran parte della spesa pubblica è considerata un “male
pubblico”, l’obiettivo deve essere il completo “ritiro” del debito. Deve quindi valere
il segno di eguaglianza a zero: bt = 0 . In altri termini, il governo deve programmare
una serie di surplus futuri tale da produrre l’azzeramento del debito pubblico;
2) nella visione NKE, un valore positivo del rapporto debito pubblico / PIL non
è di per sé una minaccia per l’equilibrio macroeconomico. L’intervento pubblico non
si giustifica soltanto in base al contributo della spesa pubblica alla stabilizzazione di
breve periodo del reddito dopo uno shock negativo. Le politiche pubbliche
sostengono la crescita nel lungo periodo: quanto maggiore è la qualità dell’intervento
63
pubblico nell’economia, tanto maggiore il contributo che la spesa pubblica dà alla
TFP, alla crescita del capitale umano attraverso il sistema educativo, alla sostenibilità
del sistema pensionistico pubblico, date le condizioni demografiche, e della sanità
pubblica, dato il grado di protezione sociale desiderato dai cittadini.
Tuttavia, al pari di quanto vale nel caso delle imprese private, il bilancio del settore
pubblico con il settore creditizio e finanziario può presentare un saldo negativo, ma la
questione della solvibilità non può essere elusa. Benché sia difficile quantificare in un
“numero magico” l’obiettivo di abbattimento del debito pubblico, un valore-limite
per la consistenza dello stock di debito pubblico (b*) è indispensabile. Da tale valore
discende infatti il rating assegnato al paese emittente dalle agenzie internazionali di
valutazione. Nell’attuale contesto di mercati finanziari globalizzati, la valutazione
delle attività finanziarie emesse dai governi dei paesi ad alto debito pubblico – e
quindi il “premio per il rischio” da cui dipende il tasso di interesse da riconoscere ai
risparmiatori che le detengono in portafoglio - sono legati alla credibilità dei piani di
decumulazione. In definitiva, la visione NKE propone la riduzione del debito
pubblico fino a quel valore predefinito, che è considerato – nelle date condizioni
dell’equilibrio macroeconomico del paese - il massimo tollerabile stock di debito
pubblico.
Tuttavia, al pari di quanto vale nel caso delle imprese private, il bilancio del settore
pubblico con il settore creditizio e finanziario può presentare un saldo negativo, ma la
questione della solvibilità non può essere elusa. Benché sia difficile quantificare in un
“numero magico” l’obiettivo di abbattimento del debito pubblico, un valore-limite
per la consistenza dello stock di debito pubblico (b*) è indispensabile. Da tale valore
discende infatti il rating assegnato al paese emittente dalle agenzie internazionali di
valutazione. Nell’attuale contesto di mercati finanziari globalizzati, la valutazione
delle attività finanziarie emesse dai governi dei paesi ad alto debito pubblico – e
quindi il “premio per il rischio” da cui dipende il tasso di interesse da riconoscere ai
risparmiatori che le detengono in portafoglio - sono legati alla credibilità dei piani di
64
decumulazione. In definitiva, la visione NKE propone la riduzione del debito
pubblico fino a quel valore predefinito, che è considerato – nelle date condizioni
dell’equilibrio macroeconomico del paese - il massimo tollerabile stock di debito
pubblico: bt = b * .
Regole di politica fiscale
Così come le autorità monetarie possono legare la propria funzione di comportamento
ad una regola di politica monetaria (la Regola di Taylor), i governi variano la fiscal
stance in base a diverse concezioni del ruolo della politica fiscale.
A scopi puramente didattici, ovvero al di là della scarsa applicabilità alla realtà
di profonda crisi che i bilanci pubblici dei governi dell’Eurozona stanno
attraversando, esporremo due regole fiscali (in mancanza di locuzioni italiane entrate
nell’uso, le indichiamo unicamente con i termini inglesi):
1) il perseguimento di una fiscal stance ispirata al Tax Smoothing (TS), che
riflette l’approccio teorico della NCE;
2) il perseguimento di una fiscal stance che definiremo Expenditure Smoothing
(ES), che si ispira all’approccio teorico della NKE.
Il Tax Smoothing (Barro, 1979) è oggi l’approccio dominante in letteratura.
L’obiettivo della politica fiscale consiste in una politica del bilancio pubblico che
interferisca il meno possibile con il funzionamento dei mercati. A tal fine, la politica
fiscale deve seguire i seguenti precetti: a) il saggio di tassazione (τ = T/Y) deve essere
mantenuto tendenzialmente costante; b) il bilancio pubblico va mantenuto in pareggio
come valore medio, azzerando nel medio periodo le oscillazioni del saldo che si
determinano nel corso del ciclo economico. La politica di stabilizzazione va di
conseguenza circoscritta all’operare degli stabilizzatori automatici escludendo il
ricorso alle manovre discrezionali.
Il saldo del bilancio primario rispetto al PIL (vt) sia così definito:
65
(12.20)
νt =
Tt − Gt
= (t t − γ t )
Yt
dove T sono le entrate fiscali, G è la spesa pubblica, Y il PIL, τ = T/Y è il rapporto
tassazione / PIL e γ = G/Y il rapporto spesa pubblica / PIL. La variazione del rapporto
surplus/PIL implicata da tale regola fiscale è:
(12.21)
∆ν t =
∆Tt − ∆Gt
= g (t t − g t )
Yt −1
L’ammontare di surplus di bilancio pubblico primario che si viene a formare nel
corso di una fase ciclica di espansione del reddito (g) – anche nel caso risulti
superiore rispetto al suo valore potenziale (g*) – va accantonato per essere utilizzato
nella successiva fase negativa del ciclo economico. Nel corso di una recessione,
l’operare degli stabilizzatori automatici potrà così essere completamente finanziato
con risorse già disponibili, evitando che la riduzione delle entrate fiscali e
l’incremento delle spese sociali causate dalla diminuzione del reddito (ad esempio, i
sussidi di disoccupazione) aprano un deficit di bilancio. Questa concezione della
fiscal stance, ispirata alla NCE, non è esente da problemi. Come vedremo nel
Capitolo 9, la sua attuazione può inserire una distorsione deflazionistica nella
governance macroeconomica.
L’Expenditure Smoothing è così sintetizzabile. In un’economia di mercato
l’incertezza sul futuro causa l’instabilità della domanda aggregata (Keynes, 1936).
Una normale fluttuazione del reddito può trasformarsi in una recessione prolungata,
con effetti negativi duraturi sulle determinanti della crescita (Galì, 2005; van der
Ploeg, 2005). Per evitare che una recessione sfoci in un equilibrio di isteresi, con
conseguente incremento del NAIRU, la politica fiscale non può consistere
unicamente nell’operare degli stabilizzatori automatici. Gli investimenti pubblici
rappresentano un sostegno alla crescita di lungo periodo e vanno quindi scorporati dal
66
calcolo sul saldo di bilancio (la cosiddetta “regola aurea” di politica fiscale) in quanto
non inficiano la sostenibilità fiscale. La variazione del rapporto surplus/PIL implicata
da questa regola fiscale – in presenza di una crescita al tasso potenziale (il valore di
trend g*) – è la seguente:
∆v ' ' t = gt t −1 − g * g t −1
Questa equazione dice che dal volume delle entrate determinato dal prodotto fra τt-1
ed il tasso di crescita dell’economia g va sottratto il prodotto fra tasso di crescita
potenziale e quota di spesa pubblica sul PIL nella proporzione del coefficiente γt-1. In
ciascun periodo, infatti, la spesa pubblica va determinata in modo da preservare una
proporzione costante con il trend di crescita del PIL. L’obiettivo consiste nel garantire
che beni pubblici e meritori si mantengano in linea con l’espansione del sistema
economico (von Hagen e Bruckner, 2002).
Inoltre, ogni aggiuntivo surplus di bilancio pubblico che si venga a formare nel
corso di una fase ciclica di espansione del reddito al di sopra del valore di trend (g >
g*) va destinata al finanziamento delle manovre di politica fiscale discrezionale. La
giustificazione teorica di un orientamento pro-ciclico della politica fiscale anche in
una fase di espansione risiede nella presenza di disoccupazione strutturale.
L’approccio keynesiano attribuisce infatti alla politica fiscale il compito di ridurre la
disoccupazione strutturale. La concezione keynesiana della fiscal stance non è di
facile attuazione. Il principale problema consiste nelle voci di spesa pubblica da
privilegiare, allo scopo di garantire un incremento del capitale umano che permetta
l’assorbimento della disoccupazione strutturale e di evitare che sprechi si
accompagnino alla gestione politica dei fondi pubblici.
In sintesi, le due regole fiscali determinano variazioni della fiscal stance il cui
valore è positivo o negativo in relazione al valore che assume la differenza fra la
variazione del surplus risultante dalla crescita del reddito e la sommatoria delle
grandezze in parentesi quadra (le suddette modalità di impiego del surplus che
67
caratterizza ciascuna regola fiscale). Un valore positivo della differenza indica una
restrizione fiscale: non tutto il surplus che si è venuto a creare nel periodo viene
speso. Mentre un valore negativo indica un’espansione fiscale, ovvero un ammontare
superiore rispetto al surplus che si è venuto a creare nel periodo viene speso.
Scriviamo la variazione della fiscal stance che esprime la Tax Smoothing (equazione
12.22) e la Expernditure Smoothing (equazione 12.23) al netto della spesa per
interessi:
(12.22)
∆vt (TS ) =
∆ν t * + [ λτ
1 t −1 ( g t − g *) − λ2γ t −1 ( g t − g *) ] − iB / Y
la variazione della fiscal stance secondo la regola del TS prescrive che al surplus Δν*
che si forma con il reddito di trend vada aggiunto un accantonamento nel periodo di
“vacche grasse” - al tasso costante τt-1, se (gt–g*) > 0, λ1 = 1; se (gt–g*) < 0, λ1 = 0 - e
sottratta una spesa nel periodo di “vacche magre” - al tasso γ t-1, se (gt–g*) < 0, λ2 = 1;
se (gt – g*) > 0, λ2 = 0.
(12.23)
∆ν t ( ES ) =
∆ν *t − [λ3γ t −1 ( gt − g*)] − iB / Y
la variazione della fiscal stance secondo la regola del ES prescrive che al surplus Δν*
che si forma con il reddito di trend vada sottratta una spesa nella fase di espansione –
λ3 = 1 se (gt – g*) > 0 e λ3 = 0 se (gt – g*) < 0 – che si va ad aggiungere al
finanziamento della spesa pubblica necessaria a mantenere un rapporto costante con il
trend di crescita del PIL (γt-1 g*). Come si è detto, l’obiettivo è assorbire la
disoccupazione strutturale.
L’interazione strategica fra banca centrale e governo
68
L’interazione fra politica monetaria e politica fiscale che viene a determinarsi in un
paese è analizzata dalla teoria macroeconomica come un gioco di coordinamento con
conflitto di interessi. Le assunzioni sulle preferenze di banca centrale e governo sono
le seguenti: l’autorità fiscale attribuisce un’importanza prioritaria agli obiettivi di
occupazione e di reddito; l’autorità monetaria ha l’obiettivo prioritario della stabilità
monetaria e cerca di perseguire questi due obiettivi soltanto in via secondaria.
Presenteremo ora le due forme particolari di coordinamento con uno
Stackelberg leader, lo schema di gioco in cui un giocatore muove per primo e
condiziona il comportamento dell’altro giocatore. Nel gioco fra autorità monetaria ed
autorità fiscale, un’autorità si coordina con l’altra in quanto si trova nelle condizioni
di dover accettare l’esito preferito dall’altra. L’opinione della letteratura si divide sul
tema del coordinamento fra autorità monetaria e autorità fiscale. L’analisi viene
condotta secondo l’approccio definito di “dominanza monetaria” adottato dal
monetarismo e dai modelli della “nuova sintesi neoclassica”, e successivamente
secondo l’approccio definito di “dominanza fiscale”.
Dominanza monetaria
Ipotizzando una struttura del gioco di tipo sequenziale, i pay-off in Figura 4.1
riflettono l’assegnazione alla banca centrale del ruolo di Stackelberg leader
nell’interazione strategica con il governo al fine di conseguire l’obiettivo prioritario
dell’inflazione “zero”. Il pay-off massimo per l’autorità monetaria si realizza con il
coordinamento di entrambe le autorità nella strategia restrittiva. Il governo ha invece
l’ordine di preferenza opposto: il livello di reddito è anteposto ad un obiettivo di
inflazione ed il pay-off massimo è quindi associato al coordinamento di entrambe le
autorità nella strategia espansiva. Figura 7. Chicken Game tra politica monetaria e
politica fiscale
POLITICA FISCALE
Restrizione
Restrizione
Espansione
4,2
-1 , -1
69
POLITICA MONETARIA
Espansione
0,0
1, 3
La soluzione del gioco fra autorità monetarie e fiscali viene presentata da questo
approccio mediante gli equilibri di Nash del Chicken Game (CG) in Figura 4.1. I
possibili equilibri di Nash sono due: l’equilibrio di “dominanza monetaria” - la
comune adozione della strategia di restrizione, dove è massimo il pay-off delle
autorità monetarie – e l’equilibrio di “dominanza fiscale” - la comune adozione della
strategia di espansione, dove è massimo il pay-off delle autorità fiscali. Dalla matrice
dei pay-off risulta essere Pareto-ottimo l’equilibrio denominato di “dominanza
monetaria” (MD): le autorità monetarie fissano la strategia in grado di assicurare la
stabilità monetaria ed il governo assume un comportamento restrittivo, conforme
all’obiettivo prioritario prescelto dalla banca centrale. Il motivo risiede nell’assunto
secondo il quale il coordinamento fra le due autorità su politiche di segno espansivo
fornisce un pay-off sociale inferiore al coordinamento su politiche di senso restrittivo.
Vediamo in Figura 1 come viene concepito il gioco.
Qualora il governo fosse orientato a perseguire una manovra espansiva, nonostante la
strategia di “restrizione” annunciata dall’autorità monetaria, il gioco rischierebbe di
concludersi con l’esito peggiore per ambedue le autorità: la coppia di pay-off (–1, -1)
corrispondente all’espansione fiscale e alla restrizione monetaria. Nell’agire da
Stackelberg leader, la banca centrale evita di essere indotta a adottare, dopo
un’espansione fiscale, la strategia “espansione” (il basso pay-off rispecchia il
fallimento dell’obiettivo prioritario della stabilità monetaria). La banca centrale è in
grado di imporre la convergenza del governo sul coordinamento di “restrizione” a
condizione che abbia una reputazione anti-inflazionistica tale da rendere credibile
l’impegno annunciato di non deflettere dalla scelta della strategia “restrizione”.
Nel perseguire con coerenza un orientamento rigidamente restrittivo, l’autorità
monetaria riesce a costringere il governo a condividere la decisione sulla monetary
stance e perciò ad imprimere un indirizzo restrittivo alla politica fiscale. In questo
70
approccio la comune strategia restrittiva delle due autorità configura l’equilibrio di
Nash di “dominanza monetaria”, che - per i valori assegnati ai pay-off - è anche la
soluzione più vantaggiosa per la società (la somma dei pay-off è massima).
Quando le autorità monetarie perseguono rigorosamente una strategia antiinflazionistica la politica monetaria è definita “attiva”. Il comportamento del governo
deve rimanere “passivo” rispetto alla strategia di politica monetaria della banca
centrale e seguire una fiscal stance coerente con il vincolo intertemporale del bilancio
pubblico (VIBP), anche definita Regime Ricardiano (RR). La subalternità del
governo all’autorità monetaria trova legittimazione nella teoria dell’“equivalenza
ricardiana”. Con soggetti ricardiani, gli interventi fiscali di stabilizzazione non hanno
efficacia sull’equilibrio macroeconomico.
Nell’inglobare la proposizione di “inefficacia della politica fiscale”, l’equilibrio
Pareto-ottimo
di
dominanza
monetaria
implica
la
validità
della
teoria
dell’equivalenza ricardiana.
Dominanza fiscale
Le cose cambiano se si assume che sia invalida l’ipotesi di equivalenza ricardiana (ad
esempio, perché la razionalità limitata degli agenti impedisce il formarsi di
aspettative razionali; oppure, perché la realizzazione dei loro programmi di consumo
è soggetta ad un vincolo di liquidità). Nel cosiddetto “Regime Non-Ricardiano”
(RNR), le politiche fiscali di stabilizzazione possono essere efficaci nell’aumentare il
livello di occupazione e di reddito. Pertanto, nel gioco fra le due autorità, il governo
assume il ruolo di Stackelberg leader e la politica fiscale viene definita “attiva”
(Leeper, 1991). Una parte delle scorte liquide aggiuntive che la formazione di un
deficit pubblico rende disponibili per gli agenti viene destinata al consumo e si mette
in moto un processo di moltiplicazione del reddito. Gli agenti non prendendo in
considerazione l’eventualità di tasse future considerano i titoli pubblici emessi a
fronte della spesa pubblica un’aggiunta alla propria ricchezza netta; di conseguenza
71
anche l’“effetto ricchezza” contribuisce ad aumentare le decisioni di consumo.
Abbiamo visto che nell’approccio della “nuova sintesi neoclassica” la matrice dei
pay-off è costruita in modo che si realizzi l’equilibrio Pareto-ottimo di “dominanza
monetaria”. Quale equilibrio si raggiunge nel caso di “dominanza fiscale”?
In effetti, il quadro teorico si presenta meno chiaro che nel caso di “dominanza
monetaria”. Nell’accettare la visione monetarista secondo la quale la determinazione
del livello dei prezzi è di competenza esclusiva della politica monetaria, l’approccio
della “nuova sintesi neoclassica” interpreta il VIBP come un’identità (Buiter, 2002).
Essa afferma che il governo, al pari delle famiglie e delle imprese, è obbligato a
soddisfare il vincolo per qualunque livello dei prezzi e dei tassi di interesse futuri. Di
fronte ad ogni possibile causa di peggioramento delle finanze pubbliche, e quindi di
un eventuale mancato rispetto del VIBP, il governo è obbligato a provvedere,
programmando più elevate entrate fiscali nei periodi futuri. Se non lo fa, oppure se la
strategia annunciata non è credibile, gli operatori finanziari reagiranno imponendo nei
mercati un incremento del tasso di interesse, cosicché ai possessori di titoli pubblici
verrà riconosciuto un “premio per il rischio” di default del governo. Quale che sia la
modalità, quindi, il VIBP è soddisfatto come identità.
La revisione dei prezzi e dei tassi di rendimento che consegue a ciascuna
emissione di titoli del debito pubblico trova però un limite nella credibilità del
governo agli occhi degli operatori finanziari. Nel Chicken Game, in presenza di una
banca centrale che tiene fede all’impegno a giocare “restrizione”, data l’ipotesi di
RR, una fiscal stance espansiva non può che condurre all’esito peggiore. Nella
visione monetarista, l’incapacità delle politiche fiscali keynesiane di incidere sul
livello di attività economica implica che la spesa pubblica finanziata con emissione di
titoli finirà nel lungo periodo per costringere la banca centrale ad innescare un
processo inflazionistico. Due economisti statunitensi, Thomas Sargent e Neil Wallace
(1975), hanno elaborato un modello di “unpleasant arithmetics” dove si dimostra che
l’accumulazione di debito pubblico causata dalle politiche fiscali di stabilizzazione è
destinata ad imbattersi in un “limite massimo”, in ultima analisi riconducibile alla
72
solvibilità fiscale del governo. Nel processo di ottimizzazione dei propri portafogli,
infatti, i risparmiatori finiscono per non aumentare al di sopra di una soglia massima
la quota di ricchezza finanziaria in titoli pubblici. L’autorità monetaria è quindi
costretta ad intervenire per soddisfare il VIBP attraverso il “signoraggio”. La politica
che prende il nome di “signoraggio” intende evocare la potestà del signore medievale
si attribuiva di mutare a proprio piacimento il valore della moneta, ad esempio
modificando il contenuto aureo della moneta-merce. Ai nostri giorni, la principale
fonte di signoraggio consiste nell’incremento del tasso di inflazione che consegue
all’immissione di moneta nei mercati primario e secondario per acquistare titoli.
La Fiscal Theory of the Price Level (FTPL) (Leith e Wren-Lewis, 2000);
Canzoneri e Diba, 2003) offre una spiegazione alternativa della dominanza fiscale.
L’incremento dei prezzi sarebbe la conseguenza non di un’espansione monetaria
attuata dalla banca centrale, ma del regime non-ricardiano generato dal
comportamento del governo. Si supponga che il governo ricorra ad un impulso di
spesa pubblica finanziato con emissione di nuovo debito pubblico, e che la banca
centrale tenga fede all’orientamento restrittivo annunciato aumentando il tasso di
interesse. L’“effetto ricchezza” messo in moto dall’incremento delle attività
finanziarie in portafoglio, determina un eccesso di domanda che sfocia in
un’accelerazione dell’inflazione. Pertanto, il processo di moltiplicazione dell’output
viene spento sul nascere e la politica fiscale finisce per influenzare solo le variabili
nominali: tassi di interesse e prezzi. (Christiano e Fitzgerald, 2000). In tal modo, il
VIBP è una condizione di equilibrio che viene soddisfatta attraverso la riduzione che
l’incremento dei prezzi produce nel valore reale del debito pubblico, che verrà così ad
eguagliarsi al valore attualizzato dei surplus di bilancio che nei periodi futuri
dovranno estinguerlo.
Lo schema logico proposto dalla FTPL può essere espresso sinteticamente in
questi termini. Assumiamo che la ricchezza dei soggetti sia composta solo da moneta
(M) e titoli pubblici (B). La ricchezza in termini reali (W) è quindi eguale a:
73
W = (M + B) / p
Se la velocità di circolazione è normalizzata a 1, l’identità fra quantità di
moneta (M) e reddito nominale (Yp) può essere espressa come: M/p=Y, e la relazione
fra livello dei prezzi e stock di debito pubblico:
p = B / (W - Y)
La FTPL interpreta questa equazione come una condizione di equilibrio dove
ad ogni incremento dello stock di titoli deve corrispondere un incremento
proporzionale del livello dei prezzi.
In conclusione, la visione monetarista ritiene che il rispetto del VIBP sia
garantito dal coordinamento di “dominanza monetaria” conseguibile in virtù della
reputazione della banca centrale, che deve essere tale da indurre il governo a
convergere nella strategia della restrizione. Nella visione della FTPL, invece, il
governo non si sente impegnato al rispetto del VIBP e i consumatori non ricardiani
hanno la percezione che i titoli posseduti in portafoglio rappresentino ricchezza netta
(Woodford, 2001). Sotto questa ipotesi l’esito del gioco è la dominanza fiscale: il
governo determina la crescita del livello dei prezzi ed il rispetto del VIBP è così
assicurato dall’abbattimento del valore reale dello stock di debito pubblico indotto
dall’effetto espansivo sul consumo dovuto all’effetto ricchezza. Benché la FTPL non
sia riuscita a soppiantare la visione ortodossa della “dominanza monetaria”, è un fatto
che molti processi di decumulazione di alti debiti pubblici si siano giovati di fasi di
inflazione molto elevata, a cominciare dalla crescita rapida e notevolissima dei prezzi
che ha caratterizzato entrambe le “guerre mondiali”.
74
Parte Seconda. Politica Monetaria e Fiscale dell’Unione
Monetaria Europea
1. L’Unione Monetaria Europea: la formazione di un’area valutaria
Sulle vicende storiche dalle quali nascono le istituzioni cui fa capo la produzione dei
beni pubblici di un paese – magistratura, polizia, difesa, sistema fiscale, istruzione,
sanità, etc. - la produzione scientifica è abbondante e prodiga di interpretazioni. Lo
stato dell’arte è invece insoddisfacente per quanto riguarda un’altra istituzione
fondamentale: la moneta. Non è infatti semplice dare una definizione perspicua di che
cosa sia la moneta; tanto meno nell’area dell’euro, giacché i paesi che adottano la
nuova valuta non formano uno Stato federale.
Nella figura 1, sull’asse verticale compare il grado di simmetria (tanto minore è il
grado di esposizione di un paese ad uno shock asimmetrico, tanto maggiore la
simmetria con il resto dell’area) e sull’asse orizzontale il grado di integrazione
economica (tanto maggiore è l’interscambio commerciale, tanto più integrati sono i
mercati dei paesi dell’area valutaria, tanto più la competizione di mercato eguaglia il
prezzo di vendita dei beni).
La Figura 1 presenta una linea continua: è la linea costituita dai punti di eguali valori
delle coordinate simmetria e integrazione, ovvero i costi dell’adesione sono eguali ai
benefici dell’adesione. Essa separa l’area superiore di ottima area valutaria (AVO),
da quella inferiore dove i costi dell’adesione a una moneta comune superano i
benefici. La pendenza negativa indica che quanto più basso è il grado di simmetria (e
cioè quanto più esposto è un paese a uno shock asimmetrico) tanto maggiore – per
ogni dato livello di integrazione – dovrà essere la flessibilità del mercato del lavoro.
In tal modo, una più alta elasticità della disoccupazione al salario compenserà una
troppo alta esposizione a shock asimmetrici. Alla destra della linea AVO, dato il
grado di simmetria, la flessibilità del mercato del lavoro è sufficientemente ampia, a
75
sinistra è insufficiente. L’assunzione comunemente presente in letteratura è che
all’inizio dell’unione monetaria solo i paesi del Centro (EMU-7) si collocassero
completamente all’interno dell’area superiore (benefici superiori ai costi), mentre
quelli della Periferia (EMU-5) erano al di sotto. Se i paesi della Periferia fossero
riusciti ad aumentare la suddetta elasticità e quindi migliorare la competitività di
prezzo la linea AVO si sarebbe spostata verso il basso, in modo da includere anche
questi paesi nella zona del grafico in cui l’unione monetaria è per loro “ottima”
(benefici superiori ai costi).
Figura 1. Area Valutaria Ottima (Optimal Currency Area)
symmetry
OCA
EMU-7
NO
OCA
EMU-5
Integration
Pertanto, un’area valutaria si definisce “ottima” se la sovranità monetaria esercitata
della valuta comune produce - per l’aggregato degli stati che l’adottano - benefici che
eccedono i costi. Se i criteri in base ai quali si dà vita ad un’area valutaria fossero
esclusivamente quelli economici, una nuova valuta che subentri ad una pluralità di
valute “regionali” non dovrebbe estendere la propria sovranità oltre la “regione
marginale”, da intendersi come la regione che presenta l’eguaglianza al margine fra
benefici e costi dell’inclusione nell’area valutaria. Le vicende storiche finiscono
76
comunque per determinare entità statuali i cui confini spesso non sono conformi a
quelli definiti dai criteri di ottimalità economica.
Un processo di integrazione vede di solito coinvolti sistemi economici anche
molto distanti per livello tecnologico delle produzioni e meccanismi di aggiustamento
macroeconomico. Per decidere la propria adesione, i governi hanno dovuto valutare
se le politiche economiche che erano chiamati a realizzare avrebbero consentito di
soddisfare il “vincolo di partecipazione”, ovvero la condizione che per il paese la
differenza attesa fra benefici e costi fosse positiva. D’altro canto, le interdipendenze
economiche
sono
pervasive:
un
paese
caratterizzato
da
forte
instabilità
macroeconomica può infatti rappresentare un’esternalità negativa per tutti i membri
dell’area valutaria. La formazione dell’area valutaria si è quindi configurata come un
gioco strategico in condizione di incertezza, dove il calcolo del “vincolo di
partecipazione” di un paese dipendeva da quello di tutti gli altri ipotetici membri
dell’area valutaria. In effetti, il progetto di un’area valutaria europea è stato avviato
nell’aspettativa che ne sarebbe sortito un incremento del benessere comune. Non
esiste, d’altro canto, alcuna garanzia che dal valore positivo della somma algebrica
dei guadagni e delle perdite attesi per l’area valutaria nel suo complesso consegua un
valore positivo anche per ciascuno dei paesi che ne avrebbero fatto parte. Occorre
dunque trovare un accordo sui criteri di ammissione. Ad esempio, lo SME, il Trattato
di Maastricht, il PSC, e la più generale cornice istituzionale hanno permesso il
raggiungimento
del
“miglioramento
paretiano”
di
una
minore
instabilità
macroeconomica, dopo i decenni di alta inflazione e disoccupazione. Ciascun
governo ha dovuto accettare un trade-off intertemporale: intraprendere politiche
macroeconomiche dirette a creare nel breve periodo la disinflazione ed il riequilibrio
delle finanze pubbliche, nell’aspettativa di ricevere un “dividendo” dall’incremento
di benessere comune che si sarebbe realizzato nel medio-lungo termine.
L’opinione prevalente, come si è detto, è che al suo nascere l’UME non
rappresentasse un’area valutaria “ottima”. La relativa facilità con cui i paesi
dell’UME hanno ciò nonostante raggiunto l’accordo sulla composizione dell’area
77
valutaria è così sintetizzabile. L’incertezza sul futuro rende il “velo di ignoranza” sui
guadagni e sulle perdite che si realizzeranno nel corso degli anni sufficientemente
spesso da impedire una precisa valutazione sulla loro distribuzione fra i singoli paesi.
La Germania ed i paesi dell’ “area del marco” osteggiarono a lungo la nascita
dell’UME a dodici paesi, nel timore che la somma algebrica fra benefici e costi
potesse risultare collettivamente negativa nel caso fossero stati ammessi i paesi
mediterranei. Il “velo di ignoranza” e la ragionevole aspettativa che il varo di una
moneta unica che si andava ad affiancare al mercato unico avrebbe permesso un
sostanzioso allargamento della “torta”, aiutò la scelta politica di una “grande UME” a
prevalere sui dubbi dell’economia.
La creazione del mercato unico in Europa, avviata nel 1957 e culminata nel
1993, ha rappresentato una politica dell’integrazione in sintonia con il criterio di
valutazione dell’“ottimalità” di un’area valutaria sostenuto da Ronald Mc Kinnon: il
grado di apertura commerciale. L’unione monetari realizzata nel 1999 dovrebbe
rappresentare il secondo grande cambiamento strutturale in sintonia con
l’integrazione economica. L’area valutaria europea è formata in prevalenza da
imprese in concorrenza monopolistica e da paesi che presentano una netta
preponderanza dei flussi di merci intra-area rispetto a quelli extra-area. Favorendo
l’ulteriore espansione degli scambi commerciali fra paesi che producono gli stessi
beni, l’unione monetaria dovrebbe restringere la divergenza tra i prezzi ( si ricordi la
“legge del prezzo unico”) e ridurre la probabilità di shock asimmetrici.
2. Ottimalità di un’area valutaria
I costi dell’adozione di una valuta comune si connettono innanzitutto alla perdita
dell’opzione alternativa della flessibilità del cambio nominale: tanto maggiore è la
probabilità per un paese di subire uno shock asimmetrico, tanto maggiore è il costo
del passaggio alla valuta comune (il costo-opportunità di non potere utilizzare il tasso
di cambio della propria valuta come strumento di politica economica). L’aspettativa
di benefici eccedenti i costi si fonda sull’idea che all’integrazione commerciale
78
conseguirà una maggiore simmetria negli shock. Con la riduzione dell’eterogeneità
dei cicli economici nazionali, ovvero della diversità fra paesi riguardo al periodo in
cui hanno luogo gli shock o all’ampiezza dello scostamento di inflazione e output dai
valori di equilibrio, dovrebbe declinare nel tempo l’antinomia fra l’uniformità
dell’esposizione alla politica monetaria comune e l’eterogeneità delle condizioni
macroeconomiche dei singoli paesi.
In primo luogo, la liberalizzazione dei movimenti di capitale - nel rendere
possibili rapidi spostamenti di attività finanziarie da un mercato all’altro di
dimensioni tali da influenzare in modo significativo i tassi di cambio - ha vanificato il
ruolo di stabilizzazione della politica valutaria. In secondo luogo, la moderna teoria
macroeconomica, nell’attribuire importanza prioritaria alla stabilità monetaria, ha
ridimensionato l’importanza di possedere una propria valuta. Un’economia che
presenta una divergenza reale (una minore dotazione o produttività delle risorse)
rispetto alle economie più “forti” con le quali è in competizione sui mercati, non deve
porvi rimedio con politiche macroeconomiche “non annunciate” che inneschino
un’inflazione “a sorpresa” e la conseguente svalutazione del cambio. Politiche
monetarie e fiscali incoerenti con i valori-obiettivo di inflazione ed output hanno la
sola conseguenza di aggiungere alla divergenza reale la divergenza nominale (il tasso
di inflazione). Alla strategia di breve periodo di sostenere le esportazioni attraverso la
flessibilità del tasso di cambio andrebbe preferito il commitment di evitare la
tentazione dell’aggiustamento nominale “legandosi all’albero maestro”. Nel caso dei
paesi dell’UME, l’albero maestro è l’euro. L’adozione di una valuta comune sancisce
l’impegno a non farsi “guerre commerciali”e ad adottare le politiche più appropriate
per migliorare i “fondamentali” dell’economia. D’altronde, i costi di uscita dalla
valuta comune sarebbero elevatissimi: gli alti tassi di interesse che graverebbero su
attività finanziarie nuovamente denominate nella valuta nazionale, la fiducia nella
quale si è però azzerata con il passaggio all’euro. Nella prospettiva teorica
dell’impulso che l’euro dovrebbe dare alla formazione di un unico ciclo economico
europeo è stata avanzata la tesi che un’insieme di paesi non debba necessariamente
79
possedere ex ante la caratteristica di essere un’area valutaria “ottima” per decidere
l’introduzione di una valuta comune. Il crisma dell’ottimalità verrebbe acquisito
dall’UME ex post (Frankel e Rose, 1998; Rose, 2000). Alcuni benefici, relativi alle
funzioni di unità di conto e mezzo di scambio della moneta, sono immediati. Ad
esempio, la maggiore trasparenza dei segnali di mercato, conquistata con l’uniformità
valutaria del prezzo dei beni in tutti i mercati dell’eurozona è un impulso alla
concorrenza. Benefici non secondari sono anche l’azzeramento dei costi di
transazione legati al cambio da una valuta all’altra (le commissioni bancarie) e, più in
generale, la maggiore efficienza nei servizi di liquidità. I più importanti benefici
saranno però appropriabili e verificabili solo nel medio-lungo periodo, in seguito
all’impulso all’integrazione commerciale ed alle funzioni dell’euro come mezzo di
pagamento internazionale.
La fine della volatilità del tasso di cambio nominale esercitò in alcuni paesi
dell’eurozona un forte impulso all’incremento delle imprese esportatrici: le prime
analisi quantitative sull’impatto dell’introduzione dell’euro sul commercio intraUME stimano un incremento del loro numero compreso fra il 5% ed il 10%
(Baldwin, 2006). Con l’annullamento del rischio di cambio, le aspettative sulla
domanda futura nei mercati dell’UME risultano meno aleatorie. Ci si attende anche
che la valuta comune riduca notevolmente il rischio sistemico sulle decisioni di
investimento, producendo così un effetto propulsivo sulla crescita economica. Un
rilevante
beneficio
per
il
finanziamento
degli
investimenti
proviene
dall’abbassamento del tasso di interesse seguito all’annullamento del “premio per il
rischio” di tasso di cambio. Anche il “premio per il rischio” di default (esigibile in
base al grado di solvibilità fiscale di un paese gravato da un consistente debito
pubblico) è pressoché assente: i differenziali fra i tassi di interesse dei titoli pubblici
sono oggi molto esigui. Va però aggiunto che la riduzione del costo del danaro non è
un beneficio irreversibile. Benché i vincoli del PSC non concernano direttamente il
debito pubblico, tutti i paesi dell’eurozona con uno stock di debito pubblico superiore
al 60% del PIL continuano ad essere soggetti all’impegno di provvedere al ritiro del
80
quantitativo eccedente il limite. Né i mercati finanziari internazionali paiono disposti
ad accettare che i governi nazionali confidino sull’euro quale perenne garanzia della
propria solvibilità fiscale per dilazionare l’abbattimento del debito pubblico. La
violazione del limite del 3% per il rapporto deficit / PIL potrebbe indurre gli operatori
finanziari a chiedere nuovamente un “premio per il rischio“ di default, innalzando il
tasso di interesse sul debito pubblico di uno o più paesi dell’UME.
3. Instabilità macroeconomica e convergenza
nominale
Uno dei motivi per i quali un gruppo di paesi ha raramente dato vita ad un’unione
monetaria senza avere in precedenza realizzato un’unione politica è la fiducia che
deve accompagnare la nuova valuta una volta introdotta nei mercati. Una moneta
circola fra i cittadini di una entità statuale in quanto è unanime la fiducia che il segno
monetario verrà accettato come mezzo di estinzione dei debiti. Naturalmente, il
crisma della sovranità monetaria non viene acquisito da una valuta nel momento in
cui un atto giuridico ne dichiara l’entrata in circolazione. I problemi di credibilità che
la lira incontrò nei mercati finanziari europei nei primi due decenni del Regno
d’Italia, al punto da rendere necessaria l’introduzione del corso forzoso, indicano che
la reputazione viene conquistata nel corso di un lungo processo di costruzione della
fiducia.
4. Dal Sistema Monetario Europeo all’Unione Monetaria Europea
Con la costituzione dell’Unione Monetaria Europea (UME) si è creata una valuta che
non porta sui biglietti e sulle monete il sigillo di un potere statuale, ma sarebbe
sbagliato pensare che l’euro sia nato per una sorta di supremazia acquisita
dall’economia sulla politica. Anche nel caso di questa “moneta senza stato”, le
81
motivazioni politiche si sono infatti fortemente intrecciate con le motivazioni di
efficienza economica, e spesso hanno fatto aggio su queste ultime. L’aspirazione
all’unificazione monetaria è una costante della storia europea da quasi due secoli.
Sebbene abbia avuto realizzazione soltanto a cavallo del millennio, essa trovò
espressione già nel XIX secolo. La formazione dello stato unitario in Italia (1861) ed
in Germania (1871) generò due unioni monetarie. In quegli stessi anni videro la luce
anche due accordi valutari. Il primo fu l’Unione Monetaria Latina, l’accordo del 1865
(che durò, fra alterne vicende, fino al 1926) fra Belgio, Francia, Italia e Svizzera, con
l’adesione della Grecia nel 1868 e poi anche di altri paesi, consistente nell’emissione
di monete di oro e di argento con eguale contenuto. Il secondo fu l’Unione Monetaria
Scandinava, creata nel 1872 da Danimarca, Norvegia e Svezia e imperniata sulla
doppia circolazione della moneta nazionale e di una moneta comune, nell’ambito del
sistema del gold standard e dissolta con la prima guerra mondiale.
L’aspirazione all’unificazione monetaria ha ricevuto un nuovo impulso nel
1970, quando il Consiglio dei ministri della Comunità Europea diede l’incarico ad un
comitato di esperti presieduto dal Primo ministro lussemburghese Pierre Werner di
studiare la possibilità di dar vita all’unione monetaria. Il Rapporto Werner, fissava
una serie di tappe per la realizzazione dell’unione monetaria, da portare a
compimento entro il 1980. Fra la dissoluzione dell’ordine monetario di Bretton
Woods e la crisi petrolifera del 1973-74, ebbe breve vita (dall’aprile 1972 al dicembre
1974) un accordo, conosciuto con il nome di “serpente valutario”, cui parteciparono
Germania, Belgio, Olanda e Lussemburgo e, per periodi brevi, anche Italia, Francia e
Regno Unito. I paesi aderenti si impegnavano al coordinamento fra i tassi di cambio
con l’obiettivo di ridurre le esternalità negative che reciprocamente si determinavano
fra i paesi europei a causa dell’autonoma fluttuazione delle loro valute rispetto al
dollaro USA. L’accordo tuttavia fallì il suo obiettivo: tutto il peso della correzione
necessaria a preservare la catena di parità fra i tassi di cambio avrebbe dovuto essere
sostenuto dai paesi a valuta debole, senza che fossero previsti strumenti di
concessione di credito che permettessero loro di fronteggiare gli attacchi della
82
speculazione internazionale. Nel marzo del 1979 per iniziativa del Cancelliere
tedesco Helmut Schmidt e del Presidente francese Valery Giscard d’Estaing, i paesi
della CEE sottoscrissero un accordo per l’introduzione di cambi fissi fra le rispettive
valute. L’accordo valutario, al quale non aderì il Regno Unito, prese il nome di
Sistema Monetario Europeo (SME).
4.1. L’assetto istituzionale del Sistema Monetario Europeo
L’ambizioso obiettivo che i fondatori dello SME si posero nel 1979 era quello di
instaurare in Europa la stabilità monetaria. Di fronte alla forte instabilità
macroeconomica che negli anni ’70 succedette a due decenni di crescita equilibrata, i
paesi europei si erano trovati impreparati. Nel 1973-74, a seguito della guerra dello
Yom Kippur, il prezzo del petrolio quadruplicò; un ulteriore forte incremento si ebbe
poi nel 1979-80. La traslazione degli accresciuti costi sui prezzi dei beni non fu
sempre completa, perché dipendeva dalla capacità delle imprese di mantenere rigido
il mark-up. I rinnovi dei contratti salariali, e l’introduzione di meccanismi automatici
di indicizzazione, alimentavano una spirale salari-prezzi. In molte economie europee,
si registrò un forte incremento del costo del lavoro per unità di prodotto (CLUP). Alla
crescita dei prezzi contribuiva una politica monetaria diretta ad “accomodare” la
domanda di finanziamento sia del settore privato che del settore pubblico. I processi
inflazionistici indebolivano le bilance commerciali e quindi anche i tassi di cambio
delle valute dei paesi a più alta dinamica del CLUP. Poiché il meccanismo di
inflazione-svalutazione consentiva di recuperare la perdita di competitività subita nei
mercati esteri a causa dell’inflazione, i governi vedevano con favore che il cambio
venisse lasciato libero deprezzarsi. Tuttavia, le politiche monetarie e fiscali espansive,
comportando aspettative e tassi di inflazione in crescita, accentuavano il conflitto
distributivo interno; e le svalutazioni competitive non riuscivano a garantire che brevi
periodi di incremento delle esportazioni. Nel corso degli anni ’70, il sostegno
assicurato alla domanda dalle esportazioni andò declinando. Le difficoltà incontrate
nell’affrontare in maniera non cooperativa l’instabilità macroeconomica convinse gli
otto governi dei paesi aderenti allo SME ad un mutamento radicale di strategia.
83
L’impegno a seguire una politica monetaria orientata alla difesa di cambi fissi
significò “legarsi le mani” con un vincolo esterno (Putnam, 1988). L’adesione allo
SME esprimeva la speranza che la bassa inflazione si sarebbe imposta a imprese e
sindacati come il bene pubblico da cui tutti avrebbero tratto vantaggio (Giavazzi e
Pagano, 1988).
L’accordo prevedeva che i tassi di cambio fossero fissi ma aggiustabili. Nei
primi anni di vita dello SME, quando una o più banche centrali dichiaravano di non
riuscire a tenere fede all’impegno di difendere le loro parità con manovre restrittive,
si fece spesso ricorso – durante i week-end, a mercati finanziari chiusi - al
riallineamento delle parità centrali. Lo strumento tecnico consisteva nella
modificazione delle parità bilaterali del cosiddetto meccanismo dei tassi di cambio
(MTC). La duplice banda di oscillazione (verso l’alto e verso il basso) attorno alla
parità centrale definiva l’intervallo di tolleranza entro il quale le banche centrali
erano al riparo da attacchi speculativi alle rispettive valute. Fino al 1993 la banda fu
del ±2,25%, ma margini più ampi (±6%) vennero concessi all’Italia (fino al passaggio
alla banda stretta fra il gennaio 1990 ed il settembre 1992) e al Regno Unito durante
la sua adesione fra il 1990 ed il 1992.
L’assetto istituzionale dello SME è stato definito di tipo asimmetrico. Le
politiche monetarie nazionali non venivano coordinate, in quanto si affermò
progressivamente l’egemonia del marco tedesco. Vediamo allora le ragioni
dell’asimmetria di politica monetaria.
Alla nascita dello SME, i divari fra i tassi di inflazione superavano a volte i 10
punti percentuali. Questi divari posero gravi problemi alle banche centrali. Benché il
cambio della valuta tendesse ad indebolirsi, esse non potevano deflazionare le proprie
economie mediante un’improvvisa “gelata” di liquidità: la cura avrebbe avuto
probabilmente l’effetto di uccidere il malato. Supponiamo che in un paese ad alta
inflazione, ad esempio l’Italia, un peggioramento della bilancia dei pagamenti con la
Germania provochi la riduzione dell’offerta di moneta. È quanto accadde nella prima
metà degli anni ’80 quando l’economia italiana subì una perdita di competitività, che
84
causò un saldo commerciale di segno negativo. Un’economia con una dinamica dei
costi di produzione più rapida di quella dei principali concorrenti europei incontra
difficoltà a frenare la perdita di competitività. Un riallineamento delle parità bilaterali
della lira poteva essere solo ritardato dallo strumento amministrativo del controllo dei
movimenti dei capitali e dagli interventi di vendita di marchi nei mercati valutari. Per
ridurre la frequenza delle richieste di riallineamento, fu creata l’unità di conto
europea (European Currency Unit: ECU), una valuta fittizia consistente nel paniere
delle valute, ciascuna pesata per il PIL del proprio paese sul PIL totale. In caso di
tensioni sui cambi, l’ECU avrebbe dovuto segnalare tempestivamente se, all’interno
della banda bilaterale di oscillazione, andasse considerata responsabile del
raggiungimento del margine massimo di deprezzamento la valuta a rischio di
svalutazione o invece la valuta in apprezzamento. Pertanto, l’ECU avrebbe dovuto
fungere da indicatore di divergenza, segnalando alla banca centrale della valuta
“deviante” la necessità di porre un deciso ed immediato freno alla crescita monetaria.
L’ECU non venne di fatto mai utilizzato allo scopo di individuare la valuta
“deviante”. Lo SME divenne presto un sistema di cambi fissi nel quale le condizioni
di liquidità all’interno dell’area non venivano determinate su base cooperativa dalle
banche centrali ma piuttosto in modo egemonico dalla Bundesbank. Non è difficile
comprendere le ragioni che portarono a questo assetto asimmetrico dello SME. In un
sistema di cambi fissi fra n paesi occorre stabilire solo n-1 parità bilaterali. Se le
parità bilaterali fossero state determinate come il valore di ciascuna valuta rispetto
all’ECU, si sarebbe dato vita ad uno SME “cooperativo”. In assenza di un credibile
meccanismo di coordinamento, le n-1 parità bilaterali finiscono per essere vincolate
al tasso di cambio determinato dalla politica monetaria della banca centrale che si
guadagna il privilegio di essere considerata quella che emette l’n-sima valuta. In un
accordo finalizzato al ripristino della stabilità monetaria, la Bundesbank emerse come
la banca centrale che mostrava maggior determinazione a seguire una rigorosa
strategia anti-inflazionistica, ed al contempo apparteneva al paese dotato della
struttura produttiva più forte e con estese ramificazioni nel sistema finanziario
85
europeo (l’area finanziaria formata da Germania, Danimarca e Benelux si presentava
molto integrata già all’avvio dello SME). Le parità bilaterali del MTC furono
concepite come rapporto di ciascuna delle n-1 valute rispetto ad una n-esima valuta.
Alla Bundesbank fu di fatto riconosciuta la posizione di n-esima banca centrale. Di
conseguenza, il marco tedesco conquistò il ruolo di àncora nominale del MTC e la
Bundesbank poté godere del privilegio consistente nella libertà di determinare un
obiettivo quantitativo di crescita monetaria tarato sulle condizioni macroeconomiche
della sola Germania, piuttosto che su quelle dell’intera zona valutaria a cambi fissi.
Nei paesi ad “alta” inflazione, la svolta restrittiva di politica monetaria imposta
dalla
partecipazione
allo
SME limitò
l’autonomia
delle
banche
centrali
nell’accomodare gli incrementi dei costi di produzione attraverso l’aggiustamento
delle grandezze nominali. Tuttavia permaneva il problema della divergenza reale,
ovvero una dinamica del CLUP tale da mettere a repentaglio la competitività sui
mercati esteri e spingere il deprezzamento della valuta fino al limite superiore della
banda di oscillazione.
Tutti i paesi partecipanti al MTC – ad eccezione della Germania - dovettero
ricorrere a numerosi aggiustamenti delle parità di cambio nel periodo 1979-86. I
riallineamenti fra le valute non compensavano in tutta la loro ampiezza i differenziali
inflazionistici. La logica dei cambi dello SME era quella di essere fissi ma
aggiustabili. Tale grado di flessibilità andava però interpretato in modo che non
venissero vanificati né l’impegno alla difesa dei cambi né l’incentivo a perseguire
l’obiettivo della disinflazione. Pertanto, fra i governatori delle banche centrali si
affermò la convenzione per cui la percentuale di aggiustamento delle parità bilaterali
da concedere alle valute in difficoltà non dovesse coprire l’intero differenziale di
tasso di inflazione di quei paesi con l’ECU.
Una prima prova del fatto che il funzionamento dello SME andò
progressivamente imperniandosi sulla posizione dominante della Germania è la
politica di pegging col marco tedesco seguita dalle altre banche centrali. Come
mostrano le stime econometriche (Fratianni e von Hagen, 1990), esse hanno teso a
86
regolare la crescita monetaria in funzione della stabilità del cambio delle rispettive
valute con il marco. Con la politica di pegging, i governatori delle banche centrali
degli altri paesi dello SME si prefiggevano l’obiettivo di acquisire – attraverso una
maggiore credibilità dell’orientamento anti-inflazionistico della politica monetaria –
la fiducia nella serietà dell’impegno a difendere i cambi fissi. La Bundesbank ha
potuto di fatto decidere la liquidità dell’intera area dello SME appunto perché le n-1
banche centrali degli altri paesi regolavano la propria politica monetaria sulla crescita
monetaria del paese con l’n-esima banca centrale.
Una seconda prova dell’assetto egemonico assunto dallo SME è il fatto che
l’autonomia della Bundesbank nella determinazione della crescita del proprio
aggregato monetario non ha sostanzialmente incontrato ostacoli (Farina, 1990). Le
banche centrali impegnate a superare una fase di instabilità macroeconomica ed a
difendere la propria valuta da attacchi speculativi effettuano di routine interventi nei
mercati valutari impiegando le proprie riserve internazionali nel riacquisto della
propria valuta. Per facilitare tali operazioni di mercato aperto, lo SME prevedeva la
concessione di credito della durata di 3 mesi (very short-term financing facility) da
prelevare da un fondo comune alimentato dai contributi di tutti i paesi partecipanti.
Poiché questo strumento non era in grado di entrare in funzione tempestivamente, le
banche centrali dello SME le cui valute attraversassero una fase di deprezzamento
hanno spesso fatto ricorso a manovre di acquisto della propria valuta nel mercato –
mediante la vendita di marchi detenuti nelle proprie riserve internazionali – al fine di
sostenere il tasso di cambio all’interno della griglia delle parità bilaterali.
Tali operazioni di mercato aperto contrastavano però con la politica monetaria
della Bundesbank, orientata a stabilizzare le condizioni macroeconomiche della
Germania. Ogniqualvolta la banca centrale di un paese con una bilancia dei
pagamenti in rosso (ed eventualmente sottoposta ad un attacco speculativo allo scopo
di lucrare profitti puntando alla revisione della parità ufficiali nei mercati valutari)
abbia operato un intervento di vendita di marchi per sostenere la propria valuta, la
Bundesbank ha provveduto a ripristinare le condizioni monetarie preesistenti. Onde
87
impedire l’incremento della quantità di marchi in circolazione provocato dalle
vendite effettuate dalle banche centrali della valuta in difficoltà, la Bundesbank
attuava una manovra di “sterilizzazione”: la distruzione, attraverso operazioni di
mercato aperto di segno opposto, dell’eccesso di marchi rispetto alla circolazione
fissata dal proprio obiettivo di crescita monetaria. Le autorità monetarie tedesche non
hanno mai voluto tenere in conto l’eventualità che all’origine di una forte deviazione
del marco dalla parità centrale - piuttosto che la debolezza di una o più valute dello
SME - vi fosse la propria politica del cambio (ad esempio, una manovra diretta a
contrastare una tendenza del marco a svalutarsi rispetto al dollaro). È stata questa una
ragione non secondaria del mancato impiego dell’ECU come strumento di
individuazione della valuta deviante. Con la strategia di volere stabilire in piena
autonomia le complessive condizioni di liquidità dell’area dello SME, la Bundesbank
ha inteso comunicare a banche centrali, governi e mercati che la Germania non era
disposta a condividere con le banche centrali di altre valute il costo
dell’aggiustamento di tensioni in cui fossero coinvolte le proprie parità bilaterali.
4.2. L’evoluzione del Sistema Monetario Europeo
Esamineremo ora la performance macroeconomica delle varie economie partecipanti
allo SME lungo i venti anni che vanno dalla sua costituzione (1979) al passaggio ai
cambi irrevocabilmente fissi (1999), preludio all’introduzione dell’euro il 1 gennaio
2002. Ripartiamo i paesi in tre gruppi: 1) Centro, costituito dalla Germania, dai
cosiddetti paesi dell’area del marco (Belgio, Olanda, Lussemburgo e Danimarca) e
dalla Francia (che, dopo i primi anni di alta inflazione, nel 1989-91 raggiunse una
stabilità monetaria pari a quella tedesca); 2) Periferia A, costituita da Italia, Spagna e
Regno Unito; 3) Periferia B, costituita da Irlanda, Portogallo e Grecia.
Questa ripartizione, benché aggreghi paesi che hanno aderito allo SME in date
differenti – tra i paesi della Periferia, soltanto Italia ed Irlanda hanno partecipato allo
SME fin dall’inizio - mette in luce la loro diversa posizione riguardo ai due caratteri
di fondo del cammino verso l’integrazione monetaria ed economica: 1) il processo di
convergenza nominale, che è riflesso dalla distinzione fra Centro e Periferia, in
88
quanto la Germania (e gli altri paesi della cosiddetta “zona del marco”) hanno
mediamente presentato tassi di inflazione e di interesse nominale alquanto inferiori
rispetto a quelli dei paesi periferici; 2) il processo di convergenza reale, che vede i
paesi della Periferia A collocarsi a metà strada fra il Centro ed il gruppo di paesi della
Periferia B che nel 1979 presentavano un ritardo in termini di reddito pro capite più
elevato rispetto al Centro.
Per i paesi che di volta in volta vi hanno aderito, lo SME ha rappresentato il
sistema di incentivazione per la lotta all’inflazione. Il conseguimento della
convergenza nominale era infatti la pre-condizione per affrontare il problema della
convergenza reale. Le vicende dello SME si possono suddividere in tre periodi. Il
primo periodo dello SME (1979-86) vide molte revisioni delle parità centrali. Il
secondo periodo (1987-1993) fu caratterizzato dall’assenza di riallineamenti dei
cambi fissi. Dopo la crisi dello SME del 1992-93, il margine di oscillazione fu
allargato dal ±2,25% al ±15%. Consentire un deprezzamento di ben 15 punti rispetto
alla parità centrale mette di fatto una valuta al riparo dal pericolo di attacchi: gli
speculatori internazionali non sono in grado di mobilitare gli enormi quantitativi di
capitale necessari a provocare una svalutazione. Durante il terzo periodo dello SME
(1993-98), il meccanismo di imposizione della regola (enforcement) della stabilità
monetaria, rappresentato dall’impegno delle banche centrali a difendere le parità fisse
– pena la svalutazione e la conseguente perdita di credibilità della politica monetaria
come principale strumento della lotta all’inflazione – era ormai privo di efficacia.
L’enforcement della convergenza nominale passò così dallo SME ai “criteri di
Maastricht”. All’impegno a difendere le parità bilaterali del MTC si sostituì la “regola
fissa” dei valori cui fare convergere tasso di inflazione, tasso di interesse, deficit
pubblico e debito pubblico.
A conclusione di questa ricostruzione dell’avvio del processo di unificazione
monetaria in Europa, descriviamo sinteticamente l’evoluzione dello SME e
l’andamento delle principali variabili coinvolte nella convergenza nominale. I molti
riallineamenti che ebbero luogo nel corso della prima fase dello SME (1979-86)
89
erano la conseguenza della debolezza della bilancia commerciale causata dagli ampi
differenziali di tasso di inflazione. Se non avessero potuto beneficiare dello “scudo”
dei controlli sui movimenti dei capitali, molti paesi dello SME non sarebbero stati in
grado di partecipare al MTC al fianco di paesi con una più ridotta dinamica dei
prezzi. Gli ampi differenziali di inflazione, dovuti al fatto che le dinamiche dei costi
di produzione ed il grado di rigore di governatori e ministri del Tesoro differivano
molto fra i vari paesi, rendevano poco credibili le parità bilaterali (Farina, 1993).
Nonostante il controllo sui movimenti di capitali consentisse di allontanare nel tempo
l’aggiustamento delle parità bilaterali, i riallineamenti dei tassi di cambio –
soprattutto nei primi quattro anni - furono numerosi. L’intonazione restrittiva della
politica monetaria non riusciva infatti a porre un freno alla spirale salari-prezzi
alimentata da aspettative di inflazione al rialzo. Il conseguente basso grado di
credibilità della politica monetaria spingeva gli operatori dei mercati finanziari a
frequenti attacchi speculativi nei confronti delle valute che si avvicinavano al
margine superiore della banda. Nella Tabella 7.1, sono riportate date ed ampiezza
degli aggiustamenti nelle parità centrali espresse in rapporto al marco tedesco,
conformemente alla strategia “egemonica” mediante la quale la Bundesbank finiva
per regolare la quantità di moneta circolante in tutta l’area dello SME.
Nonostante i riallineamenti, l’impegno delle banche centrali a realizzare la
disinflazione non venne meno. L’adeguamento del cambio nominale alle divergenze
fra le economie reali veniva di volta in volta attuato in una misura tale da annullare
solo una percentuale mediamente compresa fra un mezzo e i due terzi del
differenziale di inflazione maturato da una svalutazione all’altra. Lo scopo era quello
di rendere efficace la partecipazione allo SME “legandosi all’albero maestro”,
secondo la nota metafora ispirata al comportamento di Ulisse di fronte alle sirene, e
cioè tenere a freno la tentazione di risolvere le tensioni inflazionistiche sul piano dell’
“accomodamento” monetario. L’ancoraggio della propria valuta a quella emessa da
una banca centrale ad elevata reputazione anti-inflazionistica era considerata la
strategia migliore per convincere da un lato le imprese ed i lavoratori a migliorare
90
l’efficienza del sistema produttivo contenendo la dinamica dei costi, e dall’altro i
mercati finanziari del rigore con cui venivano difese le parità di cambio della propria
valuta.
Tabella 7.1 – Riallineamenti delle parità bilaterali con il marco tedesco: 1973-1993
Francia Italia Olanda Belgio Danimarca Irlanda Spagna Portogallo Regno
(*)
(*)
(*)
Unito (**)
24/09/1979 -2,00
-2,00 -2,00
-2,00
-5,00
-2,00
30/11/1979 -5,00
23/03/1981 -6,00 -5,50
-5,50
05/10/1981 -8,50
-8,50 -5,50
22/02/1982 -8,50
-3,00
14/06/1982 -10,00 -7,00 -4,25
-4,25
-4,25
-3,00
-9,00
21/03/1983 -8,00
-8,00 -2,00
-4,00
22/07/1985 -8,00 -3,00 -2,00
07/04/1986 -6,00
-2,00
-3,00
04/08/1986 -8,00
-3,00 -1,00
-3,00
-3,00
12/01/1987 -3,00
08/01/1990 -3,70 14/09/1992 -7,00 16/09/1992 -5,00
-6,00
23/11/1992 -6,00
01/02/1993 -10,00 -6,50
14/05/1993 -8,00
cumulativa -25,50 -44,10 -4,00
-24,40 -27,00
-37,10 -17,80 -12,10
Il trattino indica che la parità della valuta con il marco non ha subito variazioni nel riallineamento delle parità bilaterali.
(*) Una casella vuota indica che la valuta non faceva parte al meccanismo di tassi di cambio nell’anno in questione: è il
caso della peseta spagnola e dello scudo portoghese fino al 1990 e della lira italiana dopo all’uscita dallo SME nel 1992;
(**) la sterlina inglese non ha subito alcun riallineamento durante la permanenza del Regno Unito nello SME 1990- 92.
La seconda fase (1987-92) si caratterizzò per l’assenza di riallineamenti. Il
processo di completamento del mercato unico si riverberava sullo SME attraverso un
più deciso impegno delle banche centrali a rafforzare l’orientamento restrittivo della
politica monetaria a difesa delle parità bilaterali con il marco. Una certa convergenza
nominale fra le economie - dovuta alla riduzione nei differenziali di costo del lavoro
per unità di prodotto, ed alla strategia di disinflazione perseguita da banche centrali e
governi – stava producendo l’effetto di rallentare la perdita di competitività dei paesi
91
a più alta inflazione e perciò di rendere le valute “deboli” meno esposte ad attacchi
speculativi. La stabilità delle parità fra le valute indusse molti economisti a formarsi
l’opinione che lo SME stesse conoscendo un “cambiamento strutturale”. Le autorità
monetarie e fiscali dei paesi della Periferia, considerando come ormai acquisita la
fiducia dei mercati internazionali nella credibilità delle politiche macroeconomiche,
finirono per ritenere che non sussistessero più motivi per attacchi speculativi alla
griglia di parità fisse del MTC; in altre parole, che si fosse ormai realizzato il
passaggio ad uno SME “forte” (Giavazzi e Spaventa, 1990). Tale convinzione aprì le
porte alla decisione dei governi europei ad adeguarsi senza indugi alla tendenza
internazionale alla liberalizzazione dei movimenti dei capitali.
Benché i persistenti differenziali fra i valori del CLUP non lasciassero presagire una
diminuzione della pressione delle bilance commerciali sulle parità di cambio, si
procedette con rapidità al definitivo smantellamento degli ostacoli amministrativi alle
operazioni finanziarie e valutarie. In tal modo, si finì per aggiungere una fonte nuova
di volatilità dei cambi – i movimenti dei capitali – alla tradizionale tendenza a
deprezzarsi delle valute delle economie meno competitive. La decisione di
liberalizzare conferì ai mercati finanziari internazionali il ruolo di arbitri dell’operato
delle banche centrali e dei governi. L’esposizione delle valute dello SME alla
speculazione internazionale ne risultò notevolmente accresciuta.
In presenza di una progressiva crescita dimensionale degli spostamenti di
capitali da un mercato finanziario all’altro, l’andamento dei cambi a termine divenne
un segnale rilevante per comprendere le aspettative dei mercati sulle prospettive delle
valute “deboli” all’interno delle bande di oscillazione delle parità di cambio. Tale
segnale esercitava una pressione sulle banche centrali delle economie con un alto
differenziale di inflazione rispetto alla Germania affinché realizzassero una difesa più
rigorosa del tasso di cambio fisso con il marco. Il timore che le aspettative di
svalutazione causate dai differenziali di inflazione innescassero tensioni speculative
contro la valuta indusse le banche centrali dei paesi più esposti ad innalzare i tassi di
interesse in una misura superiore a quella richiesta dal pegging con il marco.
92
D’altro canto, la politica fiscale discrezionale si manteneva espansiva,
soprattutto nei paesi con alta disoccupazione. Di conseguenza, l’incremento dei tassi
di interesse si rendeva necessario anche per la necessità di piazzare i titoli a copertura
dei crescenti deficit pubblici. La lunga fase di alti tassi di interesse, perdurata fino a
metà anni novanta, si affermò sia per segnalare la credibilità alla difesa dei cambi
fissi sia per la necessità di accomodare per tutta la sua ampiezza - e cioè senza il
contributo di una riduzione del tasso di interesse tedesco – la remunerazione da
riconoscere agli operatori finanziari per due tipi di rischio: 1) il rischio di
svalutazione; 2) il rischio di ripudio del debito pubblico (vedi Box 2). Il differenziale
di rendimento (rispetto alle attività finanziarie denominate nella valuta leader dello
SME) delle attività finanziarie denominate nelle valute “deboli”, ed emesse da
governi gravati da un elevato rapporto tra debito pubblico e PIL, si è mantenuto
molto ampio per tutti gli anni ‘80. Gli istogrammi in Figura 7.4 mostrano come i
paesi della Periferia A - in presenza di tassi di interesse molto elevati – abbiano
presentato nella seconda metà degli anni ottanta tassi di crescita molto bassi, inferiori
persino a quelli della Periferia B.
L’adesione alla Comunità Europea ed il diffondersi in Europa di un clima
intellettuale favorevole ad una bassa inflazione indusse altri governi a chiedere ed
ottenere l’ammissione nello SME. Il MTC si estese così a tre nuove valute: la peseta
spagnola nel giugno 1989, la sterlina inglese nell’ottobre 1990 e lo scudo portoghese
nell’aprile 1992. La contraddizione fra cambi fissi ed egemonia del marco tedesco
continuava però a rappresentare una minaccia per la stabilità dello SME. Questa
debolezza strutturale non era destinata ad emergere fino a che il ciclo economico del
paese leader non si fosse distaccato drasticamente dal ciclo economico degli altri
paesi dello SME. La ragione è semplice. Immaginiamo che un paese appartenente ad
un meccanismo di cambi fissi si trovi in una fase declinante del ciclo economico. Nel
piano tasso di interesse-domanda di moneta (Figura 1.2), ciò determina uno
spostamento verso sinistra e verso il basso della funzione di domanda di moneta.
Saranno gli stessi meccanismi di mercato innescati dalla diversità delle fasi cicliche
93
attraversate dalle economie dei diversi paesi del MTC a determinare spontaneamente
lo spostamento di fondi da un paese all’altro, generando una riduzione della
circolazione monetaria del paese in fase recessiva ed un aumento della circolazione
monetaria degli altri paesi. Una fase declinante del ciclo economico dei paesi della
Periferia avrebbe quindi dovuto causare la discesa del tasso di interesse ed una
tendenza dei capitali ad abbandonare il mercato finanziario interno in cerca di
investimenti più redditizi, in primo luogo in Germania. Questo processo di
aggiustamento si inceppò nella realtà più complessa che venne a determinarsi a
cavallo degli anni ’90.
In quei convulsi anni che videro il crollo dell’Unione Sovietica e dei regimi dei
paesi dell’Europa dell’Est, lo shock istituzionale dell’unificazione politica tedesca
andò a sommarsi allo shock che le bilance dei pagamenti stavano subendo con il
progressivo passaggio alla piena libertà dei movimenti dei capitali: la liberalizzazione
dei mercati finanziari fu completata entro la data stabilita del luglio 1990, e la
proclamazione della repubblica di Germania avvenne nel novembre del 1990. Questi
due shock si rivelarono troppo destabilizzanti per un accordo di cambi fissi che aveva
nella “dominanza tedesca” il suo punto di forza ed al tempo stesso la sua principale
debolezza. Le tensioni valutarie che ne conseguirono portarono nel settembre 1992
all’uscita di lira e sterlina dallo SME.
Esaminiamo allora brevemente le cause di fondo del collasso dello SME. Le
crisi valutarie del 1992-93 fecero emergere il problema che si determina in ogni
processo di integrazione sia reale che monetaria fra paesi caratterizzati da diverse
condizioni macroeconomiche. Tale problema è rappresentato dal cosiddetto
“quartetto impossibile”: in presenza di un mercato unico (la libera circolazione di
merci, servizi e lavoro), di cambi fissi e di libertà dei movimenti dei capitali, non si
dà anche l’autonomia della politica monetaria. La metafora del “quartetto
impossibile” intende suggerire che l’obiettivo che aveva dato origine allo SME - il
bene pubblico della stabilità monetaria attraverso politiche monetarie che impedissero
il verificarsi di processi di inflazione-svalutazione - diventava di dubbia realizzazione
94
una volta giunto a compimento il processo di liberalizzazione dei capitali. I mercati
finanziari, consapevoli del fatto che i “fondamentali” di un paese non potevano più a
lungo permettere alla banca centrale di mantenere fisse le parità della valuta nella
griglia del MTC, avrebbero con ogni probabilità proceduto ad un attacco speculativo.
Infatti, fino a che esercitano il potere di emettere moneta, le autorità monetarie
dispongono di un’autonomia decisionale che rende incompleto il “contratto” con il
quale si sono impegnate con gli altri banchieri centrali a difendere i cambi fissi. Il
potere di signoraggio fa sì che le banche centrali, anche se sono vincolate da un
accordo di cambi fissi, possano pur sempre venire meno all’impegno della difesa del
cambio e mettere in atto un’ “inflazione a sorpresa”.
Il problema del “quartetto impossibile” da questione teorica divenne realtà
appena dopo il manifestarsi dello shock asimmetrico dell’unificazione tedesca. A tale
evento va infatti ricondotto il forte “scollamento” che per la prima volta dalla nascita
dello SME si determinò fra il ciclo economico della Germania e quello degli altri
paesi dell’Europa continentale (e in particolare l’Italia) che attraversavano una fase
recessiva. Questi paesi seguivano il ciclo economico declinante degli Stati Uniti; la
Germania conosceva invece un’espansione caratterizzata da forti tensioni
inflazionistiche: dal lato della domanda, a causa dei programmi di spesa in
investimenti pubblici all’Est e della conversione del marco della DDR con il marco
occidentale secondo l’irrealistico rapporto di 1 a 1; e dal lato dell’offerta, a causa del
vuoto di produzione creatosi con il collasso industriale nei Laender della Germania
Orientale.
Nel settembre 1992 la lira italiana e la sterlina inglese, dopo che le rispettive
banche centrali ebbero dilapidato nel corso dell’estate ingenti riserve valutarie per
resistere ai forti e ripetuti attacchi speculativi, vennero costrette ad uscire dal MTC.
Nel corso del 1993, una nuova ondata speculativa investì il franco francese, la peseta
spagnola, il franco belga e la corona danese. Questa seconda fase speculativa portò
alla decisione di ampliare al 15% i margini di oscillazione. Dal momento che il tasso
di inflazione francese era divenuto il più basso dello SME, apparve evidente (quanto
95
meno con riferimento al caso francese) che la valuta alla quale attribuire lo
scostamento dalla normale oscillazione attorno alla parità centrale, fosse il marco e la
causa risiedesse nelle difficoltà post-unificazione attraversate dalla Germania.
Nel dibattito sui regimi di cambio, un orientamento teorico sostiene che le
aspettative di svalutazione degli operatori impegnati in attacchi speculativi ad una
valuta tendano ad auto-avverarsi (Obstfeld, 1986). Questa tesi delle aspettative che si
autorealizzano (self-fulfilling expectations) è senza dubbio attraente. Ed è vero che la
liberalizzazione e la globalizzazione finanziaria hanno messo la speculazione
internazionale in grado di mobilitare ingenti flussi di moneta trasferibili in tempo
reale da un mercato all’altro e da una valuta all’altra. Riguardo allo SME, tuttavia,
attribuire ai mercati finanziari la responsabilità del collasso sarebbe una conclusione
affrettata. In effetti, diversamente da quanto sostiene la tesi delle self-fulfilling
expectations, si può dire che il MTC con margini di oscillazione del ±2,25% avrebbe
potuto superare lo shock asimmetrico della riunificazione tedesca.
Nell’estate del 1992, di fronte all’indisponibilità della Bundesbank a rinunciare
alla propria politica monetaria restrittiva, molti speculatori internazionali si
convinsero che la debolezza di lira e sterlina rendeva elevata l’aspettativa di profitti
da speculazione sui cambi. La speculazione si realizzò attraverso la vendita di
posizioni non coperte in lire e sterline, per poi riacquistare queste valute al più basso
prezzo conseguito alla svalutazione ed onorare i contratti a termine. Se la
Bundesbank avesse accettato di concedere un ampio finanziamento ai governatori in
difficoltà, il coordinamento fra le operazioni valutarie delle banche centrali avrebbe
posto a difesa dello SME un ammontare di riserve internazionali da impegnare
nell’acquisto di queste valute ben superiore all’ammontare dei capitali mobilitati
dalla speculazione finanziaria (Buiter, Corsetti e Pesenti, 2001). Lo SME a banda
stretta ebbe termine con la nuova ondata speculativa dell’estate del 1993. La banca
centrale tedesca non volle invece accordare pieno sostegno alle richieste di crediti in
marchi avanzate dalla Francia. Il timore fu che un ampliamento della circolazione
monetaria del marco avrebbe messo a repentaglio la strategia anti-inflazionistica
96
diretta a contrastare l’instabilità macroeconomica seguita alla riunificazione. D’altro
canto, le pressioni esercitate nel 1993 sulla Banca di Francia, perché si assumesse
l’onere di risolvere la crisi svalutando il franco all’interno della griglia delle parità
bilaterali del MTC, non andarono a buon fine. La Francia, promotrice dello SME di
concerto con la Germania, non volle che il franco francese apparisse in posizione
subordinata rispetto al marco.
La terza fase dello SME (1993-98) vide il MTC divenire un semplice simulacro
di regime di cambi fissi: la banda allargata del ±15% metteva le banche centrali al
riparo da attacchi speculativi. La crisi del 1992-93 segnò lo spartiacque fra la
strategia dei cambi fissi e quella dei criteri di convergenza che avrebbe condotto
all’unificazione monetaria. La convergenza nominale venne affidata all’impegno
delle autorità monetarie e fiscali a raggiungere gli obiettivi fissati dai criteri
quantitativi di Maastricht. I quattro criteri per superare l’esame di ammissione alla
terza fase del programma di unificazione monetaria, che ha portato alla nascita
dell’euro, furono i seguenti: 1) un tasso di inflazione che non eccedesse di più
dell’1,5% la media dei tre più bassi valori dei tassi di inflazione nello SME; 2) un
tasso di interesse a lungo termine che non eccedesse di più del 2% i tre più bassi
valori registrati nei paesi dello SME; 3) un rapporto deficit pubblico / PIL che non
eccedesse il 3%; 4) un rapporto debito pubblico / PIL che non eccedesse il 60%.
Inoltre, nei due anni precedenti l’ingresso nell’unione monetaria, la valuta doveva
fare parte del MTC e non subire svalutazioni.
La storia dello SME è racchiusa nelle seguenti evidenze empiriche più
significative:
1) La lenta riduzione dell’inflazione (Figura 7.1). Dopo la discesa iniziale del 198286 (favorita dal contro-shock di riduzione del prezzo del petrolio) il tasso di
inflazione subisce una risalita alla fine degli anni ’80 (soprattutto nei paesi della
Periferia) e soltanto dopo le crisi del 1992 e del 1993 si avvicina o raggiunge il basso
livello cui l’inflazione era stata portata in Germania.
97
2) L’incremento della disoccupazione (Figura 7.2). Successivamente alla riduzione
degli anni 1987-89, la disoccupazione si stabilizza attorno a valori ancora piuttosto
elevati, in particolare nella Periferia A (dove si registrarono tassi di interesse in salita
ed una prolungata caduta del tasso di crescita del reddito). Questi dati hanno indotto a
formulare l’ipotesi che la devoluzione di fatto alla Germania della determinazione
dello stock di moneta in circolazione nell’area dello SME abbia comportato una
restrizione monetaria superiore all’obiettivo di sconfiggere l’inflazione, e cioè ad una
distorsione in senso deflazionistico della crescita europea.
Figura 7.2. SME: tassi di disoccupazione
Figura 7.1. SME: tassi di inflazione
25
16
20
14
12
15
10
10
Centro
Periferia A
Periferia B
Centro
Periferia A
19
98
19
96
19
94
19
92
19
90
19
88
19
86
19
84
19
82
19
78
19
98
19
96
19
94
19
92
19
90
19
88
19
86
19
84
19
82
4
19
80
0
19
78
6
19
80
8
5
Periferia B
3) Lo squilibrio nei flussi commerciali intra-SME (Figura 7.3). I paesi che hanno
dato vita all’Unione monetaria europea costituiscono un’area relativamente chiusa.
Di conseguenza, i flussi commerciali intra-SME hanno rappresentato un indicatore di
competitività molto importante nella valutazione della credibilità del MTC da parte
dei mercati finanziari, esercitando un’influenza rilevante sull’andamento dei cambi.
Dall’andamento dei valori del rapporto Partite correnti / PIL in alcuni paesi dello
SME si rileva come il surplus commerciale della Germania cresca dalla costituzione
dello SME fino allo shock asimmetrico rappresentato dalla riunificazione politica
tedesca. All’opposto, si registrano trend decrescenti e caratterizzati da forti deficit per
le tre economie della Periferia A (ad esempio, nella fase di cambi stabili 1987-92
l’Italia registra crescenti passivi della bilancia commerciale).
98
Figura 7.3. SME: partite correnti / PIL
Figura 7.4. T assi di inflzione, tassi di crescita reali e
tassi di interesse a breve termine
8
18
6
16
14
4
12
2
10
8
0
6
-2
4
2
-4
0
19
98
19
96
19
94
19
92
19
90
19
88
19
86
19
84
-2
19
82
19
80
-6
1979/86
Centro
1987/92
Centro
1993/98
Centro
1979/86
Periferia
A
1987/92
Periferia
A
Tassi di inflazione
Germania
Italia
Spagna
Regno Unito
1993/98
Periferia
A
1979/86
Periferia
B
1987/92
Periferia
B
1993/98
Periferia
B
Tassi di crescita del PIL reale
Tassi di interesse reali a breve termine
Negli anni successivi alle crisi 1992-93, invece, ai valori negativi del rapporto in
Germania (causati dalle conseguenze economiche del processo di riunificazione)
corrispondono notevoli recuperi nella Periferia A, con il passaggio ad elevati surplus
in Italia. Si può ipotizzare che questa robusta correlazione fra gli andamenti speculari
dei flussi commerciali del Centro e della Periferia abbia contribuito a determinare i
trend di deprezzamento reale del marco e di apprezzamento reale delle valute della
Periferia prodotti dai differenziali inflazionistici con la Germania in presenza di
cambi fissi.
4) La stagnazione della crescita (Figura 7.4). Il forte incremento dei tassi di
interesse ed i bassi valori del tasso di crescita sono probabilmente legati da un
rapporto di causalità. Questa evidenza empirica di alti tassi di interesse e bassa
crescita è particolarmente chiara nei paesi della Periferia. Nella seconda e nella terza
fase, nei paesi della Periferia la tendenza dei tassi di inflazione a decrescere è
accompagnata da un forte incremento dei tassi di interesse e dalla caduta dei tassi di
crescita dell’economia (tali fenomeni appaiono meno evidenti nella Periferia A che
non nella Periferia B perché due paesi - Spagna e Regno Unito - hanno partecipato
allo SME per un numero di anni molto esiguo).
Il bilancio complessivo dello SME è moderatamente positivo sul piano della
disinflazione, e alquanto negativo per quanto riguarda l’incremento della
99
disoccupazione. Il risultato della bassa inflazione è maturato molto lentamente ed è
stato pienamente conseguito dallo SME soltanto successivamente ai 15 anni di
funzionamento del MTC con banda “stretta” del ±2,25%, e cioè nella terza fase,
durante la quale la strategia di integrazione monetaria si è imperniata sui criteri di
Maastricht, che imponevano politiche macroeconomiche restrittive. Una possibile
spiegazione per la vischiosità delle aspettative di inflazione deriva dalla semplice
osservazione che il progressivo – per quanto lento - restringimento del differenziale
di tassi di inflazione fra un paese della Periferia e la Germania (il paese con il più
basso tasso di inflazione nello SME fino al 1990) non chiudeva, ma rendeva soltanto
progressivamente più lento, l’ampliarsi della “forbice” di prezzo fra le merci del
paese della Periferia e quelle tedesche.
Questa evidenza empirica fa sorgere un interrogativo sul rapporto fra i costi e i
benefici di una strategia di disinflazione rigidamente imperniata sull’acquisizione di
credibilità delle n-1 banche centrali. L’impegno delle autorità monetarie dei paesi
partecipanti allo SME a promuovere la disinflazione si confrontava con un forte
disincentivo. Mantenere la valuta all’interno delle bande di oscillazione attorno alla
parità centrale del meccanismo di cambi fissi era in contraddizione con il desiderio di
politiche monetarie e fiscali “attive”, in grado cioè di sostenere il livello di attività
economica con impulsi espansivi sul reddito. In effetti, si tratta di un conflitto fra
obiettivi che si presenta ogni volta che un paese accetti di adottare un regime di
cambi fissi: l’esigenza di segnalare l’impegno alla difesa del cambio fisso costringeva
le n-1 banche centrali – in misura ovviamente diversa, in ragione della diversa
reputazione delle autorità monetarie e della diversa affidabilità dei governi – a
mantenere elevati i livelli dei tassi di interesse. Un processo di disinflazione che dura
più di 15 anni rappresenta un periodo troppo lungo perché la “cura” (le politiche
macroeconomiche restrittive) non provochi l’effetto collaterale di debilitare
l’organismo. Sono state forse sottostimate le ricadute sull’espansione produttiva e
occupazionale della strategia di difendere le parità con il marco legando la creazione
di moneta alla politica monetaria della Bundesbank. Se è vero che gli “alti” tassi di
100
interesse hanno contribuito a determinare la bassa a crescita economica, ci si deve
chiedere se la stabilità monetaria avrebbe potuto essere ottenuta ad un costo inferiore.
Non avendo l’ambizione di offrire risposte definitive, nei prossimi paragrafi ci
limiteremo a presentare l’apparato analitico necessario a formarsi un’opinione
argomentata sui vari aspetti del processo di convergenza nominale e reale in Europa.
4.3. L’Unione Monetaria Europea
Con l’adozione da parte del Consiglio europeo del rapporto Delors (dal nome del
presidente della Commissione Europea dell’epoca), nel 1989 si diede l’avvio alla
costruzione dell’Unione Economica e Monetaria. Il rapporto Delors prevedeva tre
tappe per il cammino che avrebbe condotto all’unificazione monetaria. La prima
tappa (1990-1993) consisteva nel rafforzamento della cooperazione nella politica
monetaria, dopo la completa liberalizzazione dei movimenti di capitale. Per le tappe
successive, che comportavano la creazione della banca centrale e il varo della moneta
comune, fu necessario un adeguamento costituzionale. La ratifica del Trattato sull’UE
(TUE) - detto anche Trattato di Maastricht, dal nome del luogo in cui fu firmato nel
1991 – rese possibile la seconda tappa (1994-1998) rivolta alla creazione dell’Istituto
Monetario Europeo, un’istituzione designata alla preparazione all’integrazione
monetaria. Tale organismo ha provveduto a mettere i mercati monetari e finanziari ed
il sistema dei pagamenti nelle condizioni di affrontare il passaggio ai cambi
irrevocabilmente fissi e l’entrata in operatività della Banca Centrale Europea (BCE).
La terza tappa, che corrisponde al periodo di cambi irrevocabilmente fissi (1 gennaio
1999 - 31 dicembre 2001), vide l’adozione dell’euro nelle transazioni finanziarie,
l’emissione di titoli pubblici in euro e la possibilità per risparmiatori ed imprese di
optare per conti bancari in euro.
I criteri di Maastricht segnarono l’accelerazione del processo di integrazione
monetaria e l’ampliamento della strategia di coordinamento dalla moneta al bilancio
pubblico. La logica del cambio di strategia dai cambi fissi dello SME a banda stretta
ai quattro indicatori di convergenza è così riassumibile. Fra il 1979 ed il 1993,
l’enforcement della monetary stance anti-inflazionistica era stato affidato alla
101
sanzione dei mercati finanziari internazionali nella forma del riconoscimento di un
“premio per il rischio” di svalutazione e di default del governo, da inglobare nel tasso
di interesse sulle attività finanziarie denominate nella valuta “debole”. Con
l’adozione della banda larga del ±15%, i paesi impegnati nel processo di integrazione
monetaria posero virtualmente fine agli attacchi speculativi nei confronti della valuta
della banca centrale inadempiente all’impegno anti-inflazionistico.
Dal 1993 al 1998 il processo di convergenza nominale venne a fondarsi sulla
strategia di enforcement basata su indicatori numerici. Poiché il rispetto dei criteri di
Maastricht rappresentava la condizione per la definitiva fissazione delle parità,
all’enforcement della minaccia di attacchi speculativi si sostituì l’enforcement della
minaccia dell’esclusione dall’unione monetaria. Il criterio aggiuntivo che imponeva
la permanenza nel MTC per almeno due anni prima della fissazione definitiva delle
parità bilaterali fu soddisfatto con l’adesione dello scellino austriaco nel gennaio
1995, del marco finlandese nell’ottobre 1996 e con il rientro nel MTC della lira
italiana nel novembre 1996. Nel maggio 1998, al momento della verifica di
congruenza dei quattro indicatori macroeconomici con i parametri di Maastricht,
l’obiettivo della convergenza nominale risultò sostanzialmente raggiunto. Undici
paesi rispettavano il limite massimo fissato per tassi di inflazione e di interesse,
nonché i criteri per deficit e debito pubblico sul PIL. In base ad un comma del
Trattato, fu infatti possibile considerare in “sicuro trend decrescente” i rapporti debito
pubblico/PIL ben più alti del limite del 60%, di Italia e Belgio e poi anche della
Grecia.
Una volta definiti i tassi di cambio irrevocabilmente fissi undici valute il 1
gennaio 1999 diedero vita all’unione monetaria. Esattamente un anno dopo,
l’ingresso nell’UME della dracma greca (rientrata nel MTC solo nel marzo 1998)
portò a dodici il numero di paesi dell’UE che il 1 gennaio 2002 misero in circolazione
l’euro. Il 1 gennaio 2007 la Slovenia diviene il tredicesimo paese dell’UME.
Nel gioco strategico del coordinamento monetario per ciascuno dei paesi
dell’UME il pay-off della partecipazione ha un valore che è funzione del numero
102
degli aderenti. Molti paesi – a cominciare dalla Germania – avrebbero voluto che
alcuni paesi dello SME non fossero nel gruppo dei paesi fondatori dell’UME per
timore che la loro instabilità macroeconomica e l’inaffidabilità dei loro governi si
riverberassero sulla credibilità del nuovo segno monetario. L’“uscita” da un accordo
di cambi fissi ma aggiustabili come lo SME, e a maggior ragione l’“uscita” da un
accordo di cambi irrevocabilmente fissi, comporta la sanzione di mercato consistente
nella perdita di reputazione da parte della banca centrale e del governo che si erano
assunti l’impegno di difendere le parità bilaterali. Benché la valuta europea sia un
segno monetario cui non corrisponde il potenziale economico di uno stato. I legami
fra paesi che si stabiliscono in un’unione monetaria sono ben maggiori di quelli
implicati da un accordo di cambi fissi.
Il ripristino dell’autonomia di politica monetaria si configura come una vera e
propria “secessione”. Si può dire che se un qualunque paese dell’UME decidesse di
ritornare al proprio segno monetario i “costi” di uscita (exit) - quelli sopportati dal
paese stesso e quelli a carico dei paesi membri - sarebbero molto elevati. I benefici
della riduzione dei costi di transazione e dell’incertezza sul cambio, nonché il
probabile incremento della quota in euro sul totale delle riserve ufficiali detenute
dalle maggiori banche centrali non europee una volta consolidatosi il ruolo dell’euro
nei mercati internazionali, sono fattori che innalzano il costo dell’uscita e dovrebbero
accrescere il valore della lealtà ai comuni obiettivi (loyalty). Il vero problema, come
vedremo più avanti, è la corretta definizione dei comuni obiettivi.
Il sostanziale successo della creazione della moneta europea ha indotto i Paesi
dell’Europa Centro-Orientale, per i quali il valore dell’adozione dell’euro è molto
alto, ad accelerare l’ingresso nell’UME. Tali paesi, oltre ad adeguare norme
giuridiche e regolamentazione dei mercati monetari e finanziari, sono impegnati nella
realizzazione delle politiche macroeconomiche necessarie per ridurre inflazione e
deficit pubblico.
103
5. Tassi di inflazione
Applichiamo l’analisi della disinflazione svolta nella Parte Prima, identificando un
paese della Periferia (I) con l’Italia e uno del Centro (G) con la Germania. Come si
è osservato introducendo il concetto del “quartetto impossibile”, la lunga fase di
stabilità valutaria che caratterizzò lo SME fra il 1987 ed il 1992 provocò in molti
paesi della Periferia una situazione di incompatibilità fra gli obiettivi della
disinflazione e del mantenimento del livello di attività economica. Data la scelta,
maturata a metà anni ’80, di evitare aggiustamenti del MTC, il tasso di cambio
nominale con le altre valute doveva mantenersi fisso e quindi la monetary stance
doveva seguire l’orientamento restrittivo della Bundesbank. Le economie dei paesi
della Periferia avevano però performance troppo difformi da quelle dei paesi del
Centro.
Il tasso di inflazione nel primo paese (πI) superava il tasso di inflazione nel
secondo (πG), nella misura determinata dal rispettivo eccesso del tasso di crescita del
•
•
salario ( w ) rispetto alla dinamica della produttività del lavoro ( ξ ). Dato il divario
•
•
•
•
w I / ξ I > w G / ξ G , si determinava un differenziale inflazionistico: πI>πG. Pertanto, un
livello del CLUP maggiore in Italia che non in Germania costituiva un fattore di
squilibrio di competitività fra i due paesi.
Precedentemente al regime di cambi fissi ma aggiustabili dello SME, la
compensazione di un valore minore di uno del rapporto fra il tasso di inflazione in
Germania ed il tasso di inflazione in Italia (πG/πI<1) si realizzava attraverso il
deprezzamento della lira rispetto al marco (un innalzamento di ê) proporzionale al
differenziale inflazionistico determinato dal divario fra i due CLUP, in modo da
mantenere invariato il tasso di cambio reale, eˆ = eˆ ⋅ π G / π I . Con il passaggio ai cambi
fissi, il tasso di cambio nominale deve essere mantenuto fisso dalla politica monetaria
•
della Banca d’Italia ( eˆ = 0 ). Poiché la produttività non è modificabile nel breve
periodo, la discesa del rapporto π G / π I è sanata dalla variazione del valore del tasso di
104
cambio reale ( ε ), nella misura richiesta dall’eccesso di salario che si registra in Italia.
In luogo dell’aggiustamento del cambio nominale (una maggiore quantità di lire per
acquistare un marco) si realizza l’apprezzamento del cambio reale (una maggiore
quantità di beni italiani per acquistare la medesima quantità di beni tedeschi). Il tasso
di cambio reale subisce pertanto una riduzione al di sotto del suo valore di lungo
periodo ( ε N ) corrispondente alla parità dei poteri d’acquisto: ε N > ε .
6. Deficit pubblico e debito pubblico
Nel processo di convergenza nominale, uno dei criteri da soddisfare per la
partecipazione all’unione monetaria era il limite del 3% per il rapporto deficit
pubblico/PIL. La Commissione Europea ha imputato ai governi europei di non avere
introdotto le riforme necessarie a rendere la struttura delle finanze pubbliche adeguata
ai due obiettivi della stabilizzazione macroeconomica e della decumulazione del
debito pubblico. Le fiscal stance dei paesi dell’UME sono state oggetto dei seguenti
rilievi: 1) non avere applicato il Tax Smoothing (§ 4.5), lasciando incrementare il
rapporto deficit pubblico/PIL nelle fasi espansive del ciclo invece di accantonare un
surplus di bilancio da utilizzare nei periodi di “vacche magre”; 2) avere rinunciato ad
una strategia di lungo periodo rivolta alla riduzione degli alti rapporti debito
pubblico/PIL, lasciando che nelle fasi recessive la lenta dinamica del denominatore
accrescesse il valore del rapporto debito pubblico/PIL.
La tesi sostenuta dalla Commissione Europea è che nei paesi dell’UE - ad
esclusione di Lussemburgo, Regno Unito, Finlandia, Irlanda e Svezia - “la maggior
parte dell’incremento del rapporto debito pubblico/PIL ebbe luogo nei periodi di nonrecessione, allorché le politiche di bilancio non controbilanciarono gli effetti della
recessione sulla dinamica del debito, ma lo aumentarono ulteriormente” (Buti, et al.,
1997).
La prima domanda che allora ci dobbiamo porre riguarda le cause
dell’incremento registrato dal rapporto fra il deficit pubblico ed il PIL nei paesi
dell’UE fra gli anni ’70 e gli anni ’90.
105
La politica fiscale si compone dell’operare degli stabilizzatori automatici nel
corso del ciclo economico e della politica discrezionale del governo. Rispetto agli
effetti sul saldo di bilancio pubblico che gli stabilizzatori automatici determinano nel
corso del ciclo economico attraverso gli effetti di “smussamento” delle oscillazioni
del reddito, ogni manovra discrezionale attuata dal governo opera una variazione in
aumento o in diminuzione. La “regola fiscale” seguita dal governo consiste appunto
nella variazione del saldo di bilancio, e cioè nella variazione da imprimere ogni anno
alla fiscal stance, al fine di renderla conforme agli obiettivi della politica fiscale.
La misurazione della fiscal stance avviene isolando la componente strutturale
del saldo di bilancio, e cioè sottraendo dal saldo complessivo la componente ciclica
del saldo di bilancio determinata dall’operare degli stabilizzatori automatici del ciclo
economico. Per calcolare la componente ciclica occorre misurare l’output gap, la
divergenza della produzione effettiva dalla produzione potenziale di lungo periodo.
Per ottenere una proxy di quest’ultima, si ricorre al reddito “tendenziale” mediante
l’applicazione alla serie del prodotto lordo effettivo del filtro Hodrick-Prescott.
Questo metodo di livellamento dei valori annuali mediante medie mobili concatenate,
benché comporti una distorsione della stima per gli anni più recenti, è solitamente
preferito al metodo alternativo - la stima econometrica del prodotto potenziale – che
implica il ricorso ad una funzione Cobb-Douglas. Pertanto, la componente ciclica del
bilancio pubblico dal saldo complessivo viene calcolata moltiplicando l’output gap
per il valore che esprime la sensibilità al ciclo delle entrate e delle uscite fiscali
(l’elasticità delle entrate moltiplicato il rapporto (τ) tassazione/PIL e l’elasticità delle
uscite moltiplicato il rapporto (γ) spesa pubblica/PIL). La variazione della fiscal
stance viene così stimata mediante la sottrazione di questa componente ciclica dal
saldo di bilancio complessivo.
Come valutare il comportamento del governo? Un giudizio sulla politica fiscale
può essere espresso con la semplice comparazione fra questa stima della variazione
della fiscal stance al netto degli effetti del ciclo nell’anno t e l’effettivo saldo di
bilancio primario nell’anno precedente. Ci chiediamo, di fatto, quale fiscal stance
106
sarebbe risultata dalla politica discrezionale se il livello del PIL fosse rimasto
invariato rispetto al periodo precedente (depurando cioè il saldo dalla sua
componente “ciclica”. Il saldo di bilancio “corretto per il ciclo” (cyclically adjusted)
può essere anche definito come il valore che il saldo primario del bilancio pubblico
avrebbe assunto se il PIL fosse rimasto costante dal tempo t-1 al tempo t: vt(Yt-1)/Yt.
Il saldo primario registra, per ogni periodo, le decisioni di diretta emanazione
delle autorità fiscali. Non essendo incluse le spese per interessi sul debito, si tratta in
effetti – è bene sottolinearlo - del “saldo primario strutturale”. Il metodo statistico per
determinare il saldo primario strutturale è la stima econometrica dei parametri che
legano la crescita dell’occupazione (Blanchard, 1990) oppure del reddito ai rapporti
Tt/Yt e Gt/Yt (Farina e Tamborini, 2002). I valori stimati vanno inseriti come parametri
noti in una nuova regressione che lega questa volta la crescita del reddito
all’incognita che vogliamo determinare, il valore in ogni anno della fiscal stance. La
variazione del saldo primario strutturale del bilancio pubblico è misurata dalla
differenza fra valore stimato (il saldo primario corretto per il ciclo) e valore effettivo
del periodo precedente: vt(Yt-1)/Yt− vt-1/Yt-1. La variazione della fiscal stance al netto
degli effetti del ciclo si definisce anche “impulso fiscale”. Se il valore della differenza
è positivo, l’“impulso fiscale” è in senso restrittivo; se è negativo, l’“impulso fiscale”
è in senso espansivo.
____________________________________________________________________
BOX. Fiscal Impulses
1.Public deficit / GDP ratio
In order to evaluate the FAs behaviour net of the cycle, we have to single out
the discretionary fiscal policy. We then compute the value that the fiscal stance
would have taken if the GDP would have remained constant from time t-1 to time t,
that is the structural budget net of the impact of automatic stabilizers on Y.
The budget, on both the revenue and expenditure sides, responds directly to the
first differences in GDP measured by the real growth rate (g t = Yt / Yt-1 – 1); to
avoid the endogeneity problem, the employment rate could be chosen instead of g.
The variation of the structural budget (or ‘fiscal impulse’) is measured by the
difference between the simulated budget at time t and the actual budget at time t–1.
Therefore, considering also a trend component t and the error u:
107
Gt/Yt = a1 + b11(gt) + b12 trend + u1t
is the relation between total expenditure and GDP, and
Tt/Yt = a2 + b21(gt) + b22 trend + u2t
is the relation between total revenue and GDP. By using the coefficients
of the two equations, it is possible to compute the overall balance F = T-G , which
would have resulted at time t had the GDP remained constant (i.e. if its value were
that of the previous year). The overall balance / GDP ratio (considering the GDP
constant at time t-1) is then:
Ft (Yt −1 ) / Yt = ( aˆ2 − aˆ1 ) + (bˆ21 − bˆ11 ) g
t −1
+ (bˆ22 − bˆ12 )t
Therefore, Ft(Yt-1) / Yt
 / Ft
-1
Yt-1
(simulated – actual value) is the variation
of the structural budget or ‘fiscal impulse’. This change in the fiscal stance indicates a
fiscal restriction independent of the cycle if the value is positive, and a fiscal
expansion if the value is negative. We shall use f to denote the ratio between F and
GDP, and f^ to denote the ratio between Ft (Yt-1) and GDP. Overall,
fiscal
impulses seem to have complied with the logic of Tax Smoothing in almost all EMS
years.
Ft (Yt −1 ) / Yt = ( aˆ 2 − aˆ1 ) + (bˆ21 − bˆ11 ) g
t −1
+ (bˆ22 − bˆ12 ) t
For example, an actual budget balance of expansionary sign (the line of the actual
budget balance lies below the neutral budget line) gives rise to restrictive
discretionary measures (the histogram of the fiscal impulse is above the neutral
budget line). The more pronounced a variation of the budget balance tends to be, the
greater is the subsequent change of fiscal stance (f^t – ft-1 ).
____________________________________________________________________
Valutiamo allora la prima critica della Commissione Europea. Per analizzare la
strategia di politica fiscale perseguita dai paesi dell’UE, abbiamo scelto l’andamento
del rapporto deficit pubblico/PIL in Germania ed Italia (Figura 7.6). Questi due paesi
di grandi dimensioni e di lunga partecipazione al sistema di cambi fissi dello SME
presentano un grado di stabilizzazione del ciclo attraverso gli stabilizzatori
automatici, ed anche di correlazione della sensibilità del bilancio con la dimensione
del settore pubblico, abbastanza rappresentativi della media UE. Nella Figura 7.6, con
v si indica il rapporto vt-1/Yt-1 e con ύ si indica il rapporto vt(Yt-1)/Yt. L’indice di
variazione della fiscal stance di Germania mostra che nel complesso gli impulsi
fiscali paiono avere seguito, in quasi tutti gli anni, la logica del Tax Smoothing. I
108
tracciati degli impulsi fiscali hanno infatti un andamento pressoché speculare rispetto
a quello del saldo di bilancio effettivo, oscillando attorno alla linea di bilancio
neutrale. Se si escludono la crisi dello Yom Kippur (1973-74) e la riunificazione
tedesca (1989-90), a saldi di bilancio effettivo vt-1 di segno espansivo (il tracciato è
sotto la linea di bilancio neutrale) corrispondono di norma interventi discrezionali
restrittivi (l’istogramma dell’impulso fiscale (ύt–vt-1) è sopra la linea di bilancio
neutrale). La manovra discrezionale di riduzione del deficit primario strutturale creato
nel periodo precedente è di norma di ampiezza sufficiente.
Il grafico dell’Italia delinea uno scenario diverso. La variazione del saldo
primario strutturale operata dall’autorità fiscale non è mai tale da riportare in
pareggio il saldo primario del bilancio pubblico. Alla tendenza espansiva dei deficit
pubblici al netto del ciclo (valori costantemente negativi del saldo primario strutturale
intorno al 4%) corrispondono per tutto il periodo 1976-91 variazioni compensative
della fiscal stance ampiamente insufficienti (intorno al 2%). Di conseguenza, i deficit
primari contribuivano di anno in anno ad alimentare la formazione di debito pubblico.
Figura 7.6. Impulsi fiscali
(a) Germania
(b) Italia
8
4
3
2
1
0
-1
-2
-3
-4
-5
6
4
2
0
-2
-4
-6
-8
1970
1975
1980
1985
ύ(t)-v(t-1)
1990
v(t-1)
1995
1970
1975
1980
ύ(t)-v(t-1)
1985
1990
1995
v(t-1)
Fonte: Farina e Tamborini (2002)
Dopo il varo dello SME, a valori del deficit pubblico via via più moderati
seguono impulsi fiscali restrittivi sul saldo strutturale primario via via più rilevanti. A
partire dal 1991 si registra il passaggio del rapporto saldo di bilancio pubblico
109
primario / PIL a un valore positivo. Sebbene il comportamento delle autorità fiscali
non appaia incline a fare lievitare senza limiti la spesa pubblica, la gestione del deficit
non appare conforme alla “disciplina fiscale”, in quanto vengono sottovalutate le
conseguenze dei deficit in termini di accumulazione di debito pubblico. Nel loro
complesso, questi risultati suggeriscono che le autorità fiscali tedesche, ma non quelle
italiane, orientarono le fiscal stance al rispetto del Tax Smoothing.
La seconda critica della Commissione Europea mette in questione la volontà delle
autorità fiscali dei paesi dell’UE di realizzare una stabilizzazione compatibile con il
vincolo intertemporale del bilancio pubblico.
Ricordando le prime due fonti di incremento di debito pubblico nell’equazione
(4.10), in ciascun anno il rapporto debito pubblico/PIL viene stabilizzato – e cioè il
suo tasso di variazione è nullo - se il saldo del bilancio pubblico primario è : ν=(i–
g)b. Per valutare questa critica della Commissione Europea, occorre individuare il
saldo strutturale di stabilizzazione del debito (ύ*). Suddividendo il saldo del bilancio
pubblico nella componente strutturale (ύ) e nella componente ciclica (νc), possiamo
definire (ύ*) come il valore del saldo strutturale primario di ogni anno t che stabilizza
il debito pubblico primario al livello t-1. Il saldo strutturale di stabilizzazione del
debito (ύ*) si ricava calcolando la differenza fra il tasso di interesse nominale al netto
della dinamica del reddito nominale moltiplicato il rapporto debito pubblico/PIL e la
componente ciclica del saldo di bilancio pubblico:
(7.10)
ύ*=(i-g)b-νc
Il perseguimento dell’obiettivo del debito pubblico dipende dai due fattori del
prodotto (i–g)b. Quanto più elevati sono la differenza fra tasso di interesse e tasso di
crescita e/o l’indebitamento pubblico in rapporto al PIL, tanto più ampia deve essere
la restrizione fiscale da attivare. Benché sia una strategia di politica fiscale diretta a
mantenere il bilancio pubblico mediamente in pareggio, il Tax Smoothing non
coinvolge questi due fattori, ma esplicita soltanto un criterio riferito al saldo primario:
110
(§ 4.2). Tale criterio non è però sufficiente, in quanto per valutare l’operato dei
governi la Commissione Europea prende in considerazione la somma dei deficit
primario e secondario. Un giudizio formulato unicamente in base al Tax Smoothing
conduce ad ambiguità interpretative. Supponiamo che gli stabilizzatori automatici – a
partire da un bilancio pubblico in pareggio - creino un deficit primario nel corso di
una fase recessiva. Supponiamo anche che una precedente fase espansiva abbia
consentito l’accantonamento di entrate fiscali che possano ora esse impiegate a
copertura del deficit. Possiamo concludere che l’attuazione del principio del Tax
Smoothing – ovvero un valore costante del saggio di tassazione ed un andamento
oscillatorio delle finanze pubbliche conforme alla fase del ciclo – sia sufficiente a
garantire la permanenza in pareggio del bilancio nel medio periodo? La risposta non
può che essere negativa. Infatti, tale principio prescinde dalla copertura del deficit
secondario. Un esogeno aumento livello del tasso di interesse potrebbe aprire nel
bilancio pubblico un deficit destinato a durare per più periodi. Egualmente, una
caduta strutturale del tasso di crescita potrebbe causare un innalzamento del rapporto
deficit pubblico complessivo / PIL (il che renderà necessario un adeguamento verso
l’alto del saggio di tassazione e/o verso il basso della spesa pubblica).
Il problema è allora che la Commissione Europea misura correttamente la
fiscal stance dei paesi dell’Unione Europea con riferimento al saldo strutturale
primario (escludendo cioè la spesa per interessi), ma emette il suo giudizio con
riferimento al deficit pubblico complessivo. Viene abbracciata la concezione della
regolazione del bilancio pubblico in funzione dell’obiettivo di lungo periodo di
mantenere in equilibrio il VIBP. Non è solo l’indebitamento consistente negli
aggiuntivi titoli (emessi a copertura di una nuova spesa pubblica) e la relativa spesa
per interessi - come vuole il Tax Smoothing a dovere essere estinto nel breve termine
(nel corso della successiva ripresa economica). Quale che sia infatti l’origine di un
deficit pubblico (deficit primario oppure deficit secondario), al fine di mantenere in
equilibrio il VIBP, l’autorità fiscale deve farsi carico del deficit pubblico complessivo
e non solo di quello primario. Se la differenza (i–g) presenta un valore positivo, la
111
restrizione fiscale dovrà eccedere la semplice copertura di un eventuale saldo
negativo primario per tutto l’importo della differenza moltiplicata per il “peso”, il
rapporto (b) debito pubblico / PIL. Ogniqualvolta si determini un trade-off fra
stabilizzazione del debito pubblico (o decumulazione, nel caso di un paese con
rapporto debito / PIL superiore al 60%) e stabilizzazione del reddito attraverso una
politica fiscale discrezionale espansiva, deve essere quest’ultima a cedere il passo.
La Commissione Europea riconduce ogni incremento del rapporto (b) deficit
pubblico/PIL ad un eccessiva formazione di deficit primario da parte delle autorità
fiscali. Nell’avanzare la tesi secondo la quale negli ultimi decenni molti paesi dell’UE
non si sarebbero comportati in accordo con le prescrizioni del Tax Smoothing, viene
così sottaciuto che il primo termine dell’equazione (7.10) può costituire
un’importante causa della salita dei rapporti medi di deficit pubblico/PIL dell’UE. Se
nei periodi di output gap positivo tale rapporto ha continuato ad aumentare, anche se
ad una velocità minore, l’origine potrebbe risiedere nell’avvitamento fra salita dei
tassi di interesse ed incremento delle emissioni di titoli pubblici. La domanda da porsi
è allora la seguente: quali fattori hanno causato nei paesi europei fiscal stance non
conformi alla stabilizzazione del rapporto debito pubblico/PIL e alla decumulazione
del debito pubblico in eccesso?
I tracciati della Figura 7.7 mettono a confronto, per ciascun paese, il saldo
strutturale primario che la fiscal stance ha determinato (ύ(t)) ed il saldo strutturale
primario che sarebbe stato necessario per stabilizzare il debito pubblico sul PIL
(ύ*(t)). In Germania, gli andamenti speculari dei tracciati dei saldi primari effettivi e
stimati dimostrano che la differenza (i–g) non ha contribuito ad alimentare il debito
pubblico. Il saldo strutturale primario oscilla prima attorno alla linea di neutralità, per
poi conoscere variazioni della fiscal stance di segno restrittivo, soprattutto nel corso
degli anni ’90, quando gli elevati valori raggiunti dal debito pubblico provocano
picchi molti alti del saldo strutturale primario che stabilizza il debito pubblico.
Di nuovo, il quadro si presenta completamente diverso in Italia. Le insufficienti
manovre discrezionali di restrizione fiscale aprirono ampi divari fra spesa pubblica e
112
entrate fiscali e richiesero quindi emissioni di titoli tali da alimentare l’accumulazione
di debito pubblico. Il trend di impulsi fiscali sempre meno espansivi, che ha inizio nel
1976 e che prosegue quasi costantemente fino al passaggio a variazioni della fiscal
stance sempre restrittive già nel 1988, appare sovrastato dal tracciato dell’attivo
strutturale di bilancio pubblico che sarebbe stato necessario – dal 1980 fino al 1989 –
per stabilizzare il rapporto (b) debito pubblico/PIL: solo nella seconda metà degli
anni ’90, con la discesa dei tassi di interesse, si determinò un’inversione nei valori del
nuovo indicatore. La valutazione dell’operato delle autorità fiscali è allora la
seguente.
Figura 7.7. Stabilizzazione del debito pubblico
(a) Germania
(b) Italia
8
6
4
2
0
6
5
4
3
2
1
0
-1
-2
-3
-4
-2
-4
-6
-8
-10
-12
1970
1975
1980
1985
ύ(t)
1990
1995
1970
1975
ύ*(t)
1980
ύ(t)
1985
1990
1995
ύ*(t)
Fonte: Farina e Tamborini (2002)
Dai primi anni ’80 in poi, le autorità fiscali hanno avuto come punto di riferimento
per i loro interventi discrezionali la compensazione di medio periodo di tendenze
espansive del deficit di bilancio pubblico. I governi non si preoccupavano dello
squilibrio che l’andamento del deficit pubblico complessivo andava producendo
nell’equazione del VIBP. D’altro canto, la crescente dinamica del rapporto debito
pubblico/PIL fu alimentata da un’espansione della spesa per interessi in buona misura
determinata dalla politica di difesa del cambio della lira nello SME, che richiedeva
ampi differenziali di tasso di interesse con la Germania.
113
I tracciati mostrano che la distanza fra fiscal stance effettiva e fiscal stance “di
stabilizzazione del debito pubblico” è stata notevole: per neutralizzare l’impatto di
incremento del rapporto causato dalla fonte “esogena” tasso di interesse, sarebbero
state necessarie rilevanti manovre fiscali restrittive. Nel corso degli anni ’80, le
autorità fiscali italiane non riuscirono ad avviare la decumulazione; negli anni ‘90 ad
alimentare la formazione di nuovo debito non è stato il deficit primario ma il deficit
secondario, a causa degli alti tassi di interesse. Una strategia di rapida decumulazione
avrebbe richiesto, piuttosto che la semplice rinuncia a politiche fiscali discrezionali,
manovre restrittive anche durante le fasi di recessione. Considerando anche
l’orientamento restrittivo della politica monetaria, tali impulsi di restrizioni fiscali
avrebbero probabilmente generato effetti deflazionistici.
7. Tassi di interesse
L’ultimo criterio di Maastricht che rimane da esaminare è la convergenza fra i tassi di
interesse. Questa grandezza rileva non solo nella determinazione della dinamica dei
deficit pubblici attraverso la spesa per interessi ma influenza anche direttamente il
sentiero di crescita di un’economia. L’evidenza empirica suggerisce che i differenziali
di tasso di interesse di molti degli n-1 paesi del MTC nei confronti del paese leader
dello SME non sempre ha rispecchiato l’andamento del tasso di cambio (vedi in
Figura 8.2 i differenziali (spread) rispetto ai titoli pubblici tedeschi). Perché la “parità
dei tassi di interesse” è stata spesso in disequilibrio?
La teoria macroeconomica ci propone le seguenti possibili spiegazioni della
divergenza (§ 3.4): 1) il premio per il rischio di cambio (svalutazione). I valori attesi
e realizzati delle parità bilaterali fra le valute del MTC erano influenzati da un
insufficiente grado di credibilità della politica monetaria delle n-1 banche centrali
impegnate a perseguire la disinflazione delle rispettive economie mediante la
strategia di pegging nei confronti del marco; 2) il premio per il rischio di ripudio del
debito pubblico da parte di un governo. Come spiega il modello di Sargent e Wallace
(§ 4.3.2), i mercati finanziari si attendono che la banca centrale, di fronte alla
114
difficoltà del governo a piazzare le nuove emissioni, faccia ricorso alla
“monetizzazione” del debito pubblico.
Ricordando l’equazione (4.16), che esplicita la terza fonte di incremento del
rapporto debito pubblico / PIL, è possibile che l’eccesso del livello dei tassi di
interesse, rispetto alla svalutazione registrata ex post, in molti paesi della Periferia
dello SME sia stato causato da un errore di previsione. Le aspettative razionali non
vengono realizzate: πe–π≠0. L’impulso alla crescita del rapporto debito pubblico/PIL
sarebbe quindi provenuto da aspettative di inflazione superiori al tasso di inflazione
realizzatosi ex post (πe–π>0). Un eccesso di inflazione attesa nei mercati rispetto al
valore che si realizza ex post comporta un livello dei tassi di rendimento nominale dei
titoli pubblici più elevato di quello che risulta nella condizione di “parità dei tassi di
interesse”, e l’aumento della spesa per interessi viene finanziato con emissione di
debito. In molti paesi dello SME, il divario (πe>π) ha rappresentato un’importante
determinante della crescita del rapporto debito pubblico/PIL. Se il divario (πe>π) si
ripresenta per più periodi, l’accelerazione nell’accumulazione di debito pubblico può
essere notevole. Infatti, la crescita della spesa per interessi verrà alimentata sia nella
sua componente di prezzo (i) che nella sua componente di quantità (B). Non è però
semplice, anche ricorrendo a stime econometriche, stabilire in che misura l’errore di
previsione spieghi il divario fra differenziale di tasso di interesse e variazione del
tasso di cambio e/o la spinta verso l’alto che la crescita del debito pubblico imprime
al tasso di interesse. Le aspettative di inflazione e le aspettative di variazione del
tasso di cambio, non essendo misurabili ex ante, non sono verificabili ex post.
8. Regimi di cambio
Consideriamo i due principali regimi di tasso di cambio fra le valute:
1. il regime di tassi di cambio flessibili consiste nella determinazione del
rapporto di cambio mediante le libere contrattazioni che avvengono fra gli operatori
nei mercati valutari;
115
2. il regime di tassi di cambio fissi consiste nell’accordo cooperativo mediante
il quale le banche centrali di vari paesi fissano le parità bilaterali fra le loro valute con bande di oscillazione sufficientemente strette, definite da un livello massimo e da
un livello minimo del cambio rispetto alla parità centrale - e si impegnano a
difenderle, mediante appropriati interventi di compravendita nei mercati valutari, in
presenza di movimenti che rischiano di provocare uno scostamento dalla parità
centrale di ampiezza superiore all’oscillazione massima concordata.
Il tasso di cambio nominale indica il rapporto in cui due valute vengono
scambiate. Esprimendo il prezzo di una valuta relativamente ad un’altra, il tasso di
cambio nominale può essere definito in due modi: 1) quotazione certo per incerto (e):
la quantità di valuta estera richiesta per l’acquisto di un’unità di valuta nazionale; 2)
quotazione incerto per certo(ê): la quantità di valuta nazionale richiesta per un’unità
di valuta estera. Poiché le due quotazioni sono l’una il reciproco dell’altra (e=1/ê),
nel valutare gli effetti di una variazione del tasso di cambio occorre fare attenzione
alla definizione cui si fa riferimento. In seguito all’introduzione dell’euro è divenuta
di uso più comune la prima quotazione: quanti dollari vengono richiesti per un euro
nei mercati valutari internazionali. Un apprezzamento della nostra valuta, l’euro, si
traduce in un aumento del tasso di cambio. È facile constatare che, se il valore del
tasso di cambio dollaro-euro aumenta quando l’euro si apprezza e, quindi, il dollaro si
deprezza, lo stesso valore rappresenta per un cittadino statunitense la quotazione
incerto per certo.
Facciamo un esempio. Il prezzo della moneta estera (dollaro) in termini della
moneta interna (euro) sia: 1,30$ = 1€. Al converso, il prezzo della moneta nazionale
in termini di moneta estera sarà: 0,7€ = 1$ il tasso di cambio Euro/US dollar è il
tasso di cambio nominale come prezzo della moneta estera in termini della moneta
nazionale: quante unità della moneta estera (US dollar) sono necessarie per acquisire
una moneta nazionale (euro) (certo per incerto). Nel regime di tassi di cambio fissi
(ma aggiustabili) dello SME il tasso di cambio veniva così calcolato: quante unità
della moneta nazionale (lira) erano necessarie per acquisire una moneta estera (DM).
116
Il valore “incerto” veniva attribuito alla valuta interna; “certo” era il valore della
valuta estera. Con l’Euro, al contrario, “certo” è divenuto il valore della valuta interna
e “incerto” il valore della valuta estera.
Pertanto, il tasso di cambio reale con la quotazione certo per incerto è:
Tasso di cambio reale: ε = e p / pW
E con la quotazione incerto per certo è:
Tasso di cambio reale: ε’ = e’ pW / p
Ricordiamo infine due definizioni. 1, La “Legge del prezzo unico”: il libero
scambio rende eguale il prezzo di un bene in tutti i mercati del mondo, a meno della
conversione da una valuta all’altra (e naturalmente di eventuali costi di transazione).
2. La Parità dei Poteri d’Acquisto: secondo questa condizione, ancora più
ipotetica della prima perché riguarda tutti i beni, il tasso di cambio di equilibrio fra
due paesi è uguale al rapporto fra i loro livelli dei prezzi, a meno naturalmente dei
costi di trasporto e delle condizioni tendenzialmente non concorrenziali che
caratterizzano il settore dei servizi.
Pertanto, l’evidenza empirica non può fornire conferma alla PPP e alla legge
del prezzo unico. Troppo pervasive sono le condizioni di invalidità delle due
condizioni, causate dal grado di scostamento dei mercati dalla condizioni di
concorrenza perfetta, dalla presenza di barriere commerciali e di beni non
commerciabili, e dalle differenze internazionali nella misura ufficiale del livello dei
prezzi.
Il tasso di cambio reale (o ragione di scambio) indica il rapporto di scambio tra beni
nazionali ed esteri: in altre parole, determina la quantità di beni esteri che è possibile
ottenere contro un’unità di beni nazionali. Si definisce tasso di cambio reale effettivo
il rapporto fra l’indice dei prezzi ed il livello medio dei prezzi esteri (una media
ponderata i cui pesi esprimono la rilevanza che ciascun paese estero riveste
nell’interscambio commerciale). Con la quotazione certo per incerto, il tasso di
cambio reale (ε ) di un paese in relazione ad un paese estero (le cui variabili saranno
indicate con W in apice) è definito dal rapporto tra il livello del prezzo interno (p) ed
117
il livello del prezzo estero (pW) espressi nella stessa valuta attraverso il tasso di
cambio nominale:
e = ep / p W ( eˆ = eˆp W / p se si utilizza la quotazione incerto per certo).
Se, ad esempio, esistesse un solo bene e fosse prodotto sia negli Stati Uniti che
nell’Unione Europea, per calcolare il tasso di cambio reale un europeo dovrebbe
trasformare in euro il prezzo del bene estero espresso in dollari - dividendo il prezzo
in dollari per il tasso di cambio nominale (e) quotato certo per incerto (oppure
moltiplicandolo per la quotazione (ê=1/e) incerto per certo) - e rapportarlo al prezzo
del bene nazionale espresso in euro. Estendendo questo ragionamento all’insieme dei
beni prodotti nell’UE e negli US, il tasso di cambio reale raffronta l’indice dei prezzi
delle due economie espressi nella stessa valuta. Data la piena libertà di circolazione
dei beni, la condizione di “parità dei poteri d’acquisto” (PPA) ci dice che – nelle
condizioni ideali di assenza di costi di transazione – il libero scambio fa sì che
ciascun prodotto abbia lo stesso prezzo in qualsiasi luogo del mondo, a meno della
conversione da una valuta all’altra effettuata in base al tasso di cambio nominale. La
“legge del prezzo unico” vuole che e = p W / p . In altre parole, almeno nel lungo
periodo, il tasso di cambio reale ( ε ) deve essere uguale a 1.
Il tasso di cambio reale, essendo il rapporto tra prezzi interni e prezzi esteri
espressi nella stessa valuta, è il principale indicatore della competitività con l’estero.
Il suo valore rimane costante quando il differenziale di inflazione del paese rispetto
all’estero si trasmette completamente in una variazione del tasso di cambio nominale.
Ad esempio un deprezzamento nominale della valuta nazionale (in regime di cambi
fissi: una svalutazione) indica una riduzione del suo potere d’acquisto e corrisponde
ad una diminuzione del tasso di cambio quotato certo per incerto (ad un aumento, se
quotato incerto per certo). Un deprezzamento nominale dell’euro rende meno
conveniente per i residenti nell’UE l’acquisto dei beni di importazione dagli US e più
conveniente per i cittadini statunitensi acquistare i beni prodotti nei paesi dell’UE. Un
118
effetto prevedibile è l’incremento delle esportazioni dall’UE verso gli US. La
condizione di Marshall-Lerner prescrive che, affinché tale riequilibrio possa avvenire,
l’aggiustamento nelle quantità scambiate deve essere più che proporzionale rispetto
alle variazioni dei loro prezzi relativi. Ciò richiede che la somma delle elasticità della
domanda di importazioni e di esportazioni rispetto al tasso di cambio sia maggiore di
1. In altre parole, nel medio termine l’aumento del valore delle esportazioni deve
essere superiore all’aumento del valore delle importazioni. Gli operatori esteri
troveranno conveniente accrescere la domanda di beni prodotti nel paese la cui valuta
è divenuta più a buon mercato. Tuttavia, per quanto si debba ipotizzare una riduzione
delle importazioni divenute più costose, il valore degli esborsi per pagare i beni
importati si accresce per il loro maggiore costo unitario. Questo saldo netto positivo
nella bilancia commerciale durerà fintantoché l’incremento dell’inflazione importata
non si sarà tradotto in un adeguamento dei salari e del livello generale dei prezzi. Una
volta che il vantaggio di competitività acquisito con la discesa del cambio si sia
esaurito, il disavanzo commerciale torna a salire (di qui la nota definizione di curva
J).
Con riferimento alla quotazione (e) certo per incerto che qui seguiremo, la
•
variazione percentuale del tasso di cambio reale ( ε = ∆ε / ε ) è data dalla somma della
•
variazione percentuale del tasso di cambio nominale ( e = ∆e / e ) e del tasso di
inflazione nazionale ( π ) al netto del tasso di inflazione estero ( π W ):
•
•
e = e+ π − π W
.
In termini di tasso di cambio nominale tale relazione è:
•
•
ε = ε+π W −π
.
119
In regime di cambi flessibili, il tasso di apprezzamento nominale è dato dalla
somma fra il tasso di apprezzamento reale ed il differenziale di inflazione che si
registra tra i due paesi. Un tasso di inflazione interno più basso del tasso di inflazione
estero (πW – π > 0) si riflette in una corrispondente differenza fra tasso di cambio
nominale e tasso di cambio reale. Il tasso di cambio nominale della valuta interna si
apprezza, mentre il tasso di cambio reale rimarrà invariato al livello naturale di lungo
periodo (ε N ) corrispondente alla PPA. In regime di cambi fissi invece ciò non accade:
poiché il tasso di cambio nominale rimane costante è il tasso di cambio reale a
ridursi, discostandosi dal suo livello ε N .
Quando il tasso di cambio reale (ε ) di un paese scende, si realizza un
deprezzamento reale della valuta nazionale. Il contrario accade nel caso di
apprezzamento reale. Se i due paesi non producono gli stessi beni e/o producono beni
non commerciabili, il tasso di cambio reale può essere diverso da 1 anche nel lungo
periodo. In altre parole, viene meno la validità della versione assoluta della parità dei
poteri d’acquisto (la cosiddetta “legge del prezzo unico”). L’epoca successiva alla
fine del sistema di Bretton Woods nel 1971 è stata caratterizzata da un notevole
incremento della volatilità dei cambi. I disallineamenti del tasso di cambio reale fra le
principali valute, rispetto al valore di equilibrio di lungo periodo indicato dalla PPA,
risultano molto più ampi in regime di cambi flessibili che in regime di cambi fissi e
presentano una durata molto maggiore di ciò che intendiamo per “breve periodo”.
L’evidenza empirica di lunghi cicli di allontanamento del tasso di cambio reale
effettivo dal suo valore di equilibrio di lungo periodo può essere ricondotta
all’incremento della produzione dei beni non commerciabili (NT) rispetto alla
produzione di beni commerciabili (T). In assenza di barriere tariffarie, l’integrazione
dei mercati fa sì che si determini l’eguaglianza dei prezzi dei beni commerciabili fra i
paesi, ma nei settori dei beni non commerciabili – non esposti alla concorrenza
internazionale e con una dinamica della produttività più lenta – tale processo di
livellamento non si genera. Ad esempio, alcuni dei periodi, lunghi anche un decennio,
di fluttuazione del tasso di cambio tra il dollaro USA e il marco tedesco e tra il
120
dollaro USA e lo yen sono interpretati in base ad una più lenta crescita della
produttività del lavoro rispetto alla dinamica salariale, con conseguente variazione del
cambio della valuta.
Consideriamo due paesi e supponiamo che la dinamica della produttività abbia
un’accelerazione nel settore T nel paese 1, ma non nel paese 2. La dinamica salariale
che nel paese 1 consegue agli incrementi di produttività nel settore T si trasmette
anche al settore NT, dove invece la produttività aumenta più lentamente. Quanto più
ampio è il divario fra la dinamica della produttività nel settore T e quella del settore
NT nel paese 1 rispetto al paese 2, tanto maggiore sarà l’incremento relativo nel tasso
di inflazione nel paese 1. Infatti, il differenziale di tasso di inflazione risulta dal
divario fra i rapporti tra il settore T ed il settore NT nei due paesi. Il cosiddetto
“effetto Balassa-Samuelson” prevede appunto che il tasso di inflazione sia più elevato
nel paese 1 che nel paese 2:
π 1 − π 2 = (1 − Φ )( PML1 − PML2 )
nella misura determinata dalla quota sul PIL del settore NT. Il divario nella
proporzione tra il settore tradable ed il settore non tradable determina il
peggioramento della posizione competitiva relativa del paese 1.
Nel breve periodo, il conseguente disavanzo commerciale potrebbe essere
compensato da un avanzo nei movimenti di capitali. Nel lungo periodo, tuttavia, il
ritorno al tasso di cambio reale di equilibrio di lungo periodo può realizzarsi solo per
effetto di un aggiustamento strutturale. Menzioniamo due possibili percorsi: a) un
prolungato periodo di crescita monetaria nel paese 1 inferiore a quella del paese 2,
tale da annullare il differenziale di inflazione attraverso la deflazione dei consumi in
beni del settore T; b) una traslazione verso l’esterno della frontiera delle possibilità di
produzione (indotto da un aumento del progresso tecnico, oppure da un aumento delle
risorse disponibili, qual è ad esempio la scoperta di un giacimento petrolifero) che
121
produce un innalzamento del tasso di cambio reale e colloca stabilmente il paese 1 ad
un più alto livello di benessere.
9. Parità dei tassi di interesse
Supponiamo che l’operatore europeo sappia che sui mercati internazionali si è
formata la comune opinione che il tasso di cambio fra dollaro ed euro nel prossimo
anno vedrà un apprezzamento dell’euro ( ete+1 > et ). La condizione di arbitraggio dovrà
tener conto di tali aspettative. Il rendimento atteso dall’investimento di un euro negli
Stati Uniti, tenuto conto della variazione attesa del valore del dollaro, in equilibrio
sarà dato da:
(1 + iUMEt ) = (1 + iUSt )
et
ete+1
Facciamo un esempio. Supponiamo che il tasso di interesse sulle attività finanziarie
denominate in dollari dal 3% salga al 4% (iUS=0,04), mentre quello sulle attività
finanziarie denominate in euro resti al 3% (iUME=0,03) e che occorrano 1,21 dollari
per un euro. In base all’equazione della parità scoperta, il verificarsi di una variazione
nei tassi di interesse comporta una variazione nel tasso di cambio atteso. Applicando
la (3.4) si otterrà un apprezzamento atteso dell’euro che verrà scambiato a 1,22
dollari per un euro:
(1 + iUMEt ) = (1 + iUSt )
et
ete+1
(1+0,03)=(1+0,04)(1,21/1,22)
Questa equazione definisce la parità scoperta dei tassi di interesse. Se gli operatori
fossero neutrali rispetto al rischio, l’equivalenza fra gli investimenti nei due mercati
si raggiungerebbe in corrispondenza del tasso di cambio atteso al quale l’investitore
europeo ottiene, negli Stati Uniti, lo stesso tasso di interesse che guadagnerebbe
nell’Unione Monetaria Europea.
L’equazione della parità scoperta dei tassi di interesse può essere scritta come:
122
e
1 + iUMEt
= et
1 + iUSt
et +1
da cui, riordinando i termini:
ete+1 − et
1 + iUSt
= 1+
1 + iUMEt
et
Per valori contenuti dei tassi, il tasso di interesse nazionale può essere approssimato
dalla somma algebrica tra tasso di interesse estero e tasso di variazione attesa della
valuta nazionale:
iUMEt ≅ iUSt
ete+1 − et
−
et
ovvero:
iUSt ≅ iUMEt
ete+1 − et
+
et
Un deprezzamento atteso dell’euro rispetto al dollaro, che equivale ad un
apprezzamento atteso del dollaro ( ete+1 < et ), implica quindi un valore negativo del
secondo termine sul lato destro dell’equazione (3.5) e comporta un eccesso del tasso
di interesse UME rispetto al tasso di interesse US. Al converso, un apprezzamento
atteso dell’euro rispetto al dollaro, che equivale ad un deprezzamento atteso del
dollaro ( ete+1 > et ), implica un valore positivo del secondo termine sul lato destro e
comporta un eccesso del tasso di interesse US rispetto al tasso di interesse UME:
iUMEt ≅ iUSt
ete+1 − et
+
et
ovvero:
iUSt ≅ iUMEt
ete+1 − et
−
et
Abbiamo finora assunto che l’operatore europeo accetti di sostenere il rischio del
rendimento incerto connesso all’aspettativa di apprezzamento atteso del dollaro.
Infatti, all’operatore si è attribuita una neutralità al rischio. Tuttavia, l’alta volatilità
del tasso di interesse e/o del tasso di cambio rende molto plausibile l’ipotesi che
l’operatore non sia neutrale, ma sia avverso al rischio.
123
Il differenziale fra tassi di interesse e deprezzamento di una valuta rispetto all’altra
nella realtà si discosta spesso da zero. Come vedremo, a meno che non si tratti di
allontanamento dall’ipotesi di aspettative razionali (i soggetti non riescono a
prevedere con esattezza il cambio futuro), la divergenza viene attribuita alla
ricompensa per l’avversione al rischio.
La parità scoperta deve allora essere corretta per tenere conto del fattore di rischio: il
premio che l’operatore europeo desidera ricevere per il rischio connesso
all’investimento in dollari. Nell’equazione che descrive la parità scoperta dei tassi di
interesse dovremo perciò aggiungere un termine (ϕt) legato al possesso dell’attività
finanziaria denominata in dollari:
iUMEt ≅ iUSt
ete+1 − et
+
+ ϕt
et
Esiste tuttavia il mezzo per coprirsi dal rischio connesso al possesso del titolo estero:
l’informazione sul prezzo futuro a pronti di ogni valuta è disponibile nei listini
finanziari. Il mercato finanziario offre infatti – sotto forma del valore del tasso di
cambio a termine (f) - la propria aspettativa riguardo al valore del dollaro rispetto
all’euro ad una data futura. Il premio per il rischio (ϕt), che deve coprire proprio un
eventuale errore di previsione sull’ampiezza del futuro apprezzamento del dollaro,
dipende dalla differenza fra l’aspettativa del futuro cambio a pronti ( ete+1 ) ed il tasso di
cambio a termine ( f t ). Sottraendo il tasso di cambio da ambedue i termini e
dividendoli entrambi ancora per (et), possiamo scrivere:
ete+1 − et
f − et
ϕt =
− t
et
et
124
In effetti, è l’insieme di tutte le operazioni sul futuro realizzate da tutti gli investitori
del mercato finanziario a determinare l’informazione sul cambio a termine (ft) che
riflette l’aspettativa riguardo al futuro cambio a pronti ( ete+1 ). Nell’ipotesi di
aspettative razionali, tale previsione risulta confermata ex post: ete+1 = et +1 . Prendiamo
perciò le mosse dal comportamento del singolo investitore, osservando che
l’eventuale errore di previsione sul tasso di cambio a termine in cui incorre può avere
due cause:
1) la presenza del premio per il rischio: ϕ t = (ete+1 − f t ) / et
2) un errore di previsione sul tasso a pronti futuro a causa di condizioni di
“razionalità limitata”, la ridotta capacità di calcolo e di previsione probabilistica
relativamente agli eventi futuri: (et +1 − ete+1 ) / et .
Sotto l’ipotesi di aspettative razionali l’errore di previsione sul futuro tasso a pronti è
eguale a zero. A determinare un errore di previsione del cambio a termine residua
allora solo la presenza del premio per il rischio. L’operatore ha due possibilità. Se
ritiene di possedere una corretta informazione sul premio per il rischio tenterà di
“battere” il mercato e farà guadagni da arbitraggio se la sua aspettativa sul futuro
cambio a pronti risulterà più precisa di quella prevalente nel mercato. Se, invece,
l’operatore si è formato il convincimento che le aspettative prevalenti nel mercato
siano effettivamente “aspettative razionali”, preferirà allinearsi all’aspettativa
prevalente e fare riferimento all’informazione offerto dal mercato, rappresentata dal
tasso di cambio a termine (f). L’operatore si coprirà dal rischio costituito dal
rendimento incerto del titolo estero, contrattando la vendita a un anno da oggi - al
prezzo rappresentato dal tasso di cambio a termine - del ricavo in dollari che riceverà
dall’investimento nei titoli USA. In assenza di controlli dei capitali, di nuovo per
approssimazione, si ottiene la formulazione della parità coperta dei tassi di interesse:
(3.8)
iUMEt ≅ iUSt −
f t − et
et
125
Il termine che si aggiunge al tasso di interesse statunitense è detto “sconto” se di
valore negativo (si accetta un tasso di interesse più basso nell’UME se il mercato
prevede un apprezzamento dell’euro) e “premio” se di valore positivo (l’operatore
richiede un differenziale positivo di rendimento se il mercato prevede un
deprezzamento dell’euro). Data l’ipotesi di aspettative razionali, il mercato dovrebbe
essere in grado di prevedere con sufficiente esattezza (di norma, più è lungo il
periodo, meno precisa è la stima) quale sarà il futuro tasso di cambio a pronti. In tal
caso, il tasso di cambio a termine, che esprime appunto l’aspettativa di mercato sul
tasso di cambio a pronti futuro, risulterà a posteriori eguale al tasso di cambio a
pronti atteso:
f t = ete+1 .
Se nelle due equazioni i rispettivi termini risultano ex ante diversi fra loro:
ete+1 − et
f − et
≠ t
et
et
Ricapitolando, la differenza fra cambio atteso e cambio a termine ex post sarà data
da:
et +1 − f t et +1 − ete+1 ete+1 − f t
=
+
et
et
et
.
Tale differenza può avere due origini. La prima è una previsione errata: l’aspettativa
sul tasso di cambio non viene convalidata ex post (un valore positivo del primo
termine a destra). Se escludiamo tale eventualità adottando l’ipotesi di aspettative
razionali, a spiegare il mancato realizzarsi della previsione sul tasso di cambio a
pronti futuro sarà la seconda causa: il premio per il rischio (un valore positivo del
secondo termine a destra).
Sotto l’ipotesi di aspettative razionali a determinare un errore di previsione del
cambio a termine residua solo la presenza di un premio per il rischio. L’operatore ha
due possibilità. Se ritiene di valutarlo meglio del mercato tenterà di “batterlo” : farà
126
guadagni da arbitraggio se la sua aspettativa sul futuro cambio a pronti risulterà più
precisa di quella prevalente nel mercato.
Sotto l’ipotesi di aspettative razionali a determinare un errore di previsione del
cambio a termine residua solo la presenza di un premio per il rischio. L’operatore ha
due possibilità. Se ritiene di valutarlo meglio del mercato tenterà di “batterlo” : farà
guadagni da arbitraggio se la sua aspettativa sul futuro cambio a pronti risulterà più
precisa di quella prevalente nel mercato.
Se, invece, l’operatore si è formato il convincimento che le aspettative prevalenti nel
mercato
siano
effettivamente
“aspettative
razionali”,
preferirà
allinearsi
all’aspettativa prevalente e fare riferimento all’informazione offerto dal mercato,
rappresentata dal tasso di cambio a termine (f). L’operatore si coprirà dal rischio
costituito dal rendimento incerto del titolo estero, contrattando la vendita a un anno
da oggi - al prezzo rappresentato dal tasso di cambio a termine - del ricavo in dollari
che riceverà dall’investimento nei titoli USA.
Il termine che si aggiunge al tasso di interesse statunitense è detto “sconto” se di
valore negativo (si accetta un tasso di interesse più basso nell’UME se il mercato
prevede un apprezzamento dell’euro) e “premio” se di valore positivo (l’operatore
richiede un differenziale positivo di rendimento se il mercato prevede un
deprezzamento dell’euro). Data l’ipotesi di aspettative razionali, il mercato dovrebbe
essere in grado di prevedere con sufficiente esattezza (di norma, più è lungo il
periodo, meno precisa è la stima) quale sarà il futuro tasso di cambio a pronti. In tal
caso, il tasso di cambio a termine, che esprime appunto l’aspettativa di mercato sul
tasso di cambio a pronti futuro, risulterà a posteriori eguale al tasso di cambio a
pronti atteso.
La crisi dello SME nel 1992-93, che determinò l’uscita di lira e sterlina dal
meccanismo di tassi di cambio, portò al superamento dei cambi fissi come strategica
dell’unificazione monetaria. La causa di fondo della crisi fu il “quartetto impossibile”
di cui si è già parlato: 1. Mercato unico; 2. Tassi di cambio fissi; 3. Autonomia della
politica monetaria e 4. Liberalizzazione movimenti di capitale sono mutualmente
127
incompatibili. Una volta realizzato nel 1990 anche in Europa il punto 4., la politica
monetaria perde la residua autonomia. Occorre dunque prenderne atto ed accelerare
l’unione monetaria sottoponendo il processo di integrazione monetaria alla
convergenza nominale descritta dai criteri di Maastricht.
10. Tassi di interesse e integrazione monetaria europea
Un importante criterio di Maastricht è la convergenza fra i tassi di interesse. Questa
grandezza rileva non solo nella determinazione della dinamica dei deficit pubblici
attraverso la spesa per interessi ma influenza anche direttamente il sentiero di crescita
di un’economia. L’evidenza empirica suggerisce che i differenziali di tasso di
interesse di molti degli n-1 paesi del MTC nei confronti del paese leader dello SME
non sempre ha rispecchiato l’andamento del tasso di cambio (vedi in Figura 8.2 i
differenziali (spread) rispetto ai titoli pubblici tedeschi). Perché la “parità dei tassi di
interesse” è stata spesso in disequilibrio?
La teoria macroeconomica ci propone le seguenti possibili spiegazioni della
divergenza (§ 3.4): 1) il premio per il rischio di cambio (svalutazione). I valori attesi
e realizzati delle parità bilaterali fra le valute del MTC erano influenzati da un
insufficiente grado di credibilità della politica monetaria delle n-1 banche centrali
impegnate a perseguire la disinflazione delle rispettive economie mediante la
strategia di pegging nei confronti del marco; 2) il premio per il rischio di ripudio del
debito pubblico da parte di un governo. Come spiega il modello di Sargent e Wallace
(§ 4.3.2), i mercati finanziari si attendono che la banca centrale, di fronte alla
difficoltà del governo a piazzare le nuove emissioni, faccia ricorso alla
“monetizzazione” del debito pubblico.
Ricordando l’equazione (4.16), che esplicita la terza fonte di incremento del rapporto
debito pubblico / PIL, è possibile che l’eccesso del livello dei tassi di interesse,
rispetto alla svalutazione registrata ex post, in molti paesi della Periferia dello SME
sia stato causato da un errore di previsione. Le aspettative razionali non vengono
128
realizzate: πe–π≠0. L’impulso alla crescita del rapporto debito pubblico/PIL sarebbe
quindi provenuto da aspettative di inflazione superiori al tasso di inflazione
realizzatosi ex post (πe–π>0). Un eccesso di inflazione attesa nei mercati rispetto al
valore che si realizza ex post comporta un livello dei tassi di rendimento nominale dei
titoli pubblici più elevato di quello che risulta nella condizione di “parità dei tassi di
interesse”, e l’aumento della spesa per interessi viene finanziato con emissione di
debito. In molti paesi dello SME, il divario (πe>π) ha rappresentato un’importante
determinante della crescita del rapporto debito pubblico/PIL. Se il divario (πe>π) si
ripresenta per più periodi, l’accelerazione nell’accumulazione di debito pubblico può
essere notevole. Infatti, la crescita della spesa per interessi verrà alimentata sia nella
sua componente di prezzo (i) che nella sua componente di quantità (B). Non è però
semplice, anche ricorrendo a stime econometriche, stabilire in che misura l’errore di
previsione spieghi il divario fra differenziale di tasso di interesse e variazione del
tasso di cambio e/o la spinta verso l’alto che la crescita del debito pubblico imprime
al tasso di interesse. Le aspettative di inflazione e le aspettative di variazione del
tasso di cambio, non essendo misurabili ex ante, non sono verificabili ex post.
Prescindiamo allora da questa possibile causa di divergenza e concentriamo
l’attenzione sul ruolo avuto dal “premio per il rischio” di svalutazione e/o “ripudio”
sull’evoluzione del rapporto debito pubblico / PIL. Per essere nelle condizioni di
effettuare questa indagine, occorre assumere che – anche riguardo a mercati molto
volatili come quelli finanziari e valutari - sia formulabile l’ipotesi di aspettative
razionali. Se adottiamo l’ipotesi che gli agenti abbiano aspettative razionali di
variazione del tasso di cambio (ragionando su una valuta dello SME rispetto al marco
si tratta di aspettative di svalutazione), la svalutazione attesa è misurabile con la
svalutazione effettivamente determinatasi ex post. Nell’attuare una politica di pegging
del marco, a causa di entrambi i “premi per il rischio”, le banche centrali dei paesi ad
alta inflazione furono costrette a riconoscere a risparmiatori ed operatori finanziari
ampi margini di tasso di interesse in eccesso rispetto a quelli pagati sulle attività
finanziarie denominate nel marco.
129
Naturalmente, il problema della scarsa credibilità dell’impegno al rispetto della
parità bilaterali con il marco tedesco e della solvibilità dei governi riguardava
essenzialmente le valute delle economie ad alta inflazione, quelle dei paesi della
Periferia. Nella Figura 7.5, abbiamo visto che, successivamente ad uno shock di
ampiezza pari a quella della Germania, sarebbe occorsa una manovra restrittiva della
Banca d’Italia per fare scendere l’economia lungo la curva di Phillips di breve
periodo fino al punto I” ed evitare che il differenziale di inflazione con la Germania
si allargasse. La stretta monetaria avrebbe però comportato una contrazione troppo
drastica dell’output e dell’occupazione. Le banche centrali della Periferia lasciavano
così che i differenziali di inflazione si ampliassero, con conseguente ampliamento
anche dei differenziali di tasso di interesse. Ricordando le equazioni (3.4-3.8) del §
3.4, nell’equazione (7.11) il primo termine esprime il divario fra il tassi di interesse
(i) di un paese rappresentativo della Periferia e quello del paese leader dello SME, la
Germania (iG); il secondo termine rappresenta il deprezzamento atteso della valuta
della Periferia (ad esempio, l’Italia) rispetto al marco; inoltre sia ft il tasso di cambio a
termine:
(7.11)
eˆte+1 − eˆt
ft − eˆt
ft − eˆt eˆte+1 − et
G
(it − i ) −
]+[
]
= [(it − it ) −
−
eˆt
eˆt
eˆt
eˆt
G
t
Se si adotta l’ipotesi di aspettative razionali e si misura la variazione attesa del tasso
di cambio mediante il tasso di cambio ex post (et+1), dal computo della (7.11) risulta
che i valori del primo termine sono stati sistematicamente in eccesso rispetto a quelli
del secondo termine. Come si è spiegato nel § 3.4, in equilibrio il differenziale di
interesse eguaglia il deprezzamento del tasso di cambio. Nell’equazione (7.11),
un’eventuale divergenza fra differenziale di inflazione con la Germania e
deprezzamento rispetto al marco può dipendere da un valore diverso da zero della
somma algebrica delle due parentesi che compaiono sul lato destro. Descriveremo ora
le probabili cause di tale divergenza (Farina, 1990).
130
Nella prima fase dello SME (1979-1986), la differenza sul lato sinistro assunse
valore negativo. Come sappiamo, dal momento che i primi anni dello SME furono
caratterizzati da frequenti riallineamenti fra le valute, questo risultato non può
derivare da un’elevata credibilità della politica monetaria del paese della Periferia nel
perseguire la difesa delle parità di cambio. L’evidenza empirica suggerisce che questa
diseguaglianza dipese essenzialmente dal valore negativo del primo termine sul lato
destro. La parità scoperta dei tassi di interesse assunse valore negativo in molti paesi
della Periferia a causa di un divario positivo fra cambio a termine e cambio a pronti
che presentava un’ampiezza maggiore del differenziale di interesse. Ciò accade se è
presente il “rischio paese”. Il grado di libertà che i controlli amministrativi adottati
nella prima fase dello SME in alcuni paesi a valuta debole (ad esempio, Italia e
Francia nei primi anni ’80) assicuravano alla politica monetaria condusse alla
formazione di un “cuneo” fra i differenziali di tassi di interesse on shore (determinato
sul mercato finanziario interno) e off shore (determinato sui mercati finanziari
internazionali) con la Germania. I vincoli posti alla fuoriuscita di capitali
permettevano infatti ai tassi di interesse del mercato interno di evitare un
aggiustamento verso l’alto di ampiezza congrua all’ ampliamento dei differenziali di
interesse con la Germania – approssimati dalle variazioni percentuali del “premio a
termine” della valuta rispetto al marco, e cioè l’aspettativa di mercato sul futuro tasso
spot – che si veniva a determinare sui mercati finanziari internazionali. Nella seconda
metà degli anni ’80, parallelamente all’abolizione dei controlli, tale “cuneo” andò
restringendosi, fino ad annullarsi con il completamento della liberalizzazione dei
movimenti dei capitali in tutti i paesi dello SME nel maggio del 1990.
Nella seconda fase dello SME (1987-1992), in molti paesi della Periferia la
parità scoperta dei tassi di interesse (equazione 7.11) tese a discostarsi ancora dallo
zero, ma per assumere questa volta valori positivi. L’origine di tale inversione di
segno risiede questa volta nell’andamento della seconda parentesi quadra sul lato
destro. La differenza positiva fra cambio a termine e cambio a pronti con il marco –
risultando più ampia del deprezzamento registrato dalla lira ex post - indica la
131
presenza di un “rischio valuta” che sostanzialmente dà origine alla divergenza
positiva – sul lato sinistro – fra differenziale di interesse con la Germania e
deprezzamento ex post della valuta nei confronti del marco. Lungo tutto il periodo di
perfetta stabilità dei tassi di cambio all’interno del MTC si riscontra un eccesso del
differenziale di tasso di interesse rispetto a variazioni di tasso di cambio. Questa
persistenza non può che riflettere l’incompatibilità – percepita nei mercati finanziari –
fra cambi fissi e credibilità della politica monetaria dei paesi ad alta inflazione che
seguivano una strategia di pegging nei confronti del marco. La spiegazione della
diseguaglianza fra differenziali di interesse e variazione del cambio con il marco
risiede quindi nella sfiducia nutrita dagli operatori dei mercati finanziari nei confronti
dell’annuncio di una monetary stance anti-inflazionistica da parte delle autorità
monetarie (premio per il rischio di svalutazione) e/o nella solvibilità del governo
(premio per il rischio di ripudio del debito pubblico). Questa sfiducia faceva anche sì
che le aspettative di svalutazione implicite nei differenziali di tassi di interesse della
Periferia con la Germania - benché trovassero una conferma soltanto parziale nel
successivo deprezzamento del tasso di cambio delle valute più deboli nei confronti
del marco – venissero corrette con molta lentezza.
11. La politica monetaria nell’Unione Monetaria
Europea
La moneta comune è entrata nella vita quotidiana dei cittadini europei nel periodo
compreso fra il 1 gennaio e il 1 luglio 2002, quando le banconote e le monete in euro
sostituirono le valute nazionali in 12 paesi. Il successo della moneta unica non va
circoscritto alla conferma dell’acquisita stabilità monetaria, con un tasso di inflazione
dell’area valutaria che si è mantenuto intorno al 2%. In effetti, parallelamente alla
convergenza dei tassi di interesse nominali, indotta dall’accelerazione nella discesa
dei tassi di inflazione, già a partire dal 1994, anche la dispersione dei valori tassi di
interesse reali a breve termine conobbe una riduzione rapida e di crescente ampiezza.
132
Successivamente alla decisione di dare avvio all’unione monetaria, il processo di
convergenza nominale fra i paesi dell’UME subì una ulteriore accelerazione.
Figura 8.1. Convergenza nei tassi di interesse a breve
termine, area dell'euro (deviazione standard)
6
5
4
3
2
1
0
1980
1984
1988
nominali
1992
reali
1996
2000
reali senza Grecia
Figura 8.2. Spread dei titoli pubblici decennali rispetto ai corrispondenti titoli
tedeschi
133
Dal 1999 in poi, si è registrato il sostanziale uguagliamento fra i tassi di rendimento
dei titoli pubblici a breve termine (Figura 8.1) ed un notevole restringimento degli
spread dei titoli pubblici decennali dei maggiori paesi rispetto ai corrispondenti titoli
tedeschi. (Figura 8.2). È infatti aumentata la fiducia sulla solvibilità fiscale dei paesi
ad alto debito pubblico, come dimostra il sostanziale azzeramento del premio per il
rischio sui titoli pubblici. Per quanto si sia manifestata una tendenza
all’avvicinamento fra i tassi di rendimento azionari, la percezione del rischio-nazione
è invece ancora elevata riguardo alle attività finanziarie del settore privato.
12. La regola monetaria
Fra i cambiamenti strutturali avvenuti negli anni ’70 ed ’80 va annoverato anche
l’affermarsi di un nuovo clima intellettuale riguardo al dilemma di fronte al quale le
autorità monetarie si trovano di fronte, la scelta fra discrezionalità e regole di politica
monetaria. Il principale schema interpretativo di questi due decenni di “alta
inflazione” è stato il modello dell’ “incoerenza temporale” della politica monetaria.
Tale modello ha contribuito a diffondere nella teoria della politica monetaria
un’opinione sfavorevole riguardo al potere discrezionale delle autorità monetarie ed
al loro comportamento “attivistico” nelle politiche di stabilizzazione. I sostenitori
dell’adozione di una “regola fissa” hanno proposto una commitment technology (ad
esempio, la sanzione della penalità pecuniaria a carico del governatore che non si
attenga alla regola, § 8.8) che vincoli in modo credibile l’azione delle autorità
monetarie. Un evidente vantaggio della regola fissa, rispetto alla discrezionalità, è
che una banca centrale la cui volontà di tenere fede alla regola risulti credibile riesce
ad ottenere comportamenti di minore incremento dei prezzi da parte delle imprese
price-setter. Il problema di determinare la regola ottima consiste nell’incompletezza
dell’informazione a disposizione delle autorità monetarie. Riguardo al meccanismo di
trasmissione della politica monetaria e alle determinanti dell’inflazione, è difficile
stabilire in che misura il governatore debba tenere conto dello scostamento
dell’inflazione e dell’output dai valori-obiettivo e di quanto occorra variare il tasso di
134
interesse. Va rilevato, tuttavia, che nell’ultimo decennio l’affidabilità delle stime delle
variabili rilevanti è notevolmente migliorata.
Concentreremo l’attenzione sulla Regola di Taylor, che oggi rappresenta la
funzione di reazione delle principali banche centrali. Con l’adozione di questa regola
di politica monetaria, il tasso di interesse ha soppiantato la quantità di moneta quale
strumento di attuazione della politica monetaria. Ecco l’equazione che esprime la
Regola di Taylor:
it * = i + λ0 + λ1 (π te+1 − π *) + λ2 (Yt − Y *) + ζ 1et + ζ 2 et −1
l’equazione in base alla quale le autorità monetarie determinano il valore
dell’obiettivo di tasso di interesse perseguito in funzione dei valori noti dello
scostamento del tasso di inflazione e dell’output gap dal valore-obiettivo e
dall’andamento del tasso di cambio. Il valore corrente del tasso di interesse va
ricondotto ad eguaglianza con quello che si stima essere il suo valore di lungo
periodo.
La contraddizione fra l’obiettivo di un rigoroso perseguimento della stabilità
monetaria e l’obiettivo della stabilizzazione del reddito è meno rilevante di quanto
appaia con riferimento ad un modello macroeconomico di concorrenza perfetta con
perfetta flessibilità di salari e prezzi. Tasso di inflazione e output gap non sempre
sono perfetti sostituti nel segnalare le tensioni di domanda presenti nel sistema
economico. Un processo di aggiustamento divergente fra i due mercati – ad esempio,
per una disomogeneità fra wage gap e price gap in concorrenza monopolistica - può
influenzare la strategia di politica monetaria. Se la flessibilità del mercato dei beni
differisce da quella del mercato del lavoro, soprattutto nel caso di una manovra di
stabilizzazione diretta ad assorbire uno shock negativo di offerta, le autorità
monetarie – per determinare l’opportuna variazione del tasso di interesse - debbono
tenere conto sia dell’uno che dell’altro scostamento delle due grandezze dai rispettivi
valori-obiettivo.
135
L’originario studio di Taylor determina il tasso di interesse della Federal
Reserve sulla base dei due termini noti (inflation gap e output gap) ed attribuendo dei
valori noti ai parametri λ1, λ2. Affinché la determinazione del tasso-obiettivo it* sia
precisa, è tuttavia necessaria la stima econometrica dei valori dei parametri. Essa
consiste nell’utilizzare come termine noto il valore corrente del tasso di interesse sul
lato sinistro dell’equazione, cosicché i due parametri diventano le incognite da
determinare. Una regressione condotta sulla politica monetaria degli anni 1987-89 ha
stimato i seguenti coefficienti: per la Bundesbank λ1=1,3 e λ2= 0,2, e per la Federal
Reserve i λ1=1,0 e λ2=0,9. Il confronto mostra che nel trade-off inflazionedisoccupazione la banca centrale che guidato la creazione di moneta in Europa negli
anni dello SME dava all’obiettivo di inflazione un peso superiore ed all’obiettivo di
reddito (e di riduzione della disoccupazione) un peso molto inferiore a quelli della
banca centrale degli Stati Uniti. I coefficienti recentemente stimati per la BCE
(λ1=1,5, e λ2=0,5) indicano come la banca centrale europea sia ancora più rigorosa
della Bundesbank nel fissare un alto valore del parametro relativo alla stabilità
monetaria; il valore superiore a quello della Bundesbank del parametro relativo
all’obiettivo della stabilizzazione dell’output sembra da attribuire al fatto che nei
primi anni dell’euro si è manifestato un forte shock di domanda, a fronte della
dominante presenza di shock di offerta negativi negli anni dello SME.
Non va poi dimenticato che le politiche di stabilizzazione sono la risultante
delle due stance monetaria e fiscale. Il policy mix che scaturisce dalle decisioni delle
due autorità può alternativamente consistere in un equilibrio di Nash, dove ciascuna
autorità massimizza la propria funzione di comportamento sulla base dell’aspettativa
sulle credenze e sulle strategie dell’altra autorità, oppure in un equilibrio cooperativo,
dove le autorità agiscono di concerto. La Commissione Europea si attende che la
politica fiscale – in particolare nei paesi dell’UME ad “alto” debito pubblico privilegi l’obiettivo della decumulazione del debito su quello della stabilizzazione
dell’output. L’obiettivo della stabilizzazione dell’output viene così a ricadere sulla
sola politica monetaria. In presenza di uno shock d’offerta negativo simmetrico, la
136
BCE può rendere il perseguimento dell’obiettivo di stabilizzazione compatibile con
l’obiettivo prioritario della stabilità monetaria realizzando una correzione al rialzo del
tasso di interesse meno che proporzionale rispetto alla variazione del tasso di
inflazione. Il tasso di interesse-obiettivo viene perciò determinato mediante la somma
fra tasso di interesse-obiettivo della Regola di Taylor e tasso di interesse del periodo
precedente moltiplicati ciascuno per un “peso” (θ<1 e μt è l’errore stocastico):
(8.1)
it = θit * +(1 − θ )it −1 + µ t
Tanto minore è il valore attribuito al “peso” che la banca centrale applica al tasso di
interesse-obiettivo di lungo periodo (θ) – e, quindi, tanto più conta il tasso del
periodo precedente (1-θ) - tanto più “lento” è l’adeguamento del tasso di interesse di
mercato al valore-obiettivo it* perseguito dalla banca centrale.
13. La funzione di comportamento del governatore
A causa del problema dell’“incoerenza temporale”, un paese può avere ereditato una
distorsione inflazionistica dalla “storia passata” della politica monetaria della propria
banca centrale. È quanto è accaduto nei decenni scorsi alla maggior parte dei paesi
europei. Negli anni di “alta” inflazione, le autorità monetarie sono esposte al pericolo
di un insufficiente grado di credibilità dei loro annunci di crescita monetaria. Di qui,
l’idea di contrastare il problema dell’“incoerenza temporale” rafforzando
l’indipendenza, la responsabilità e la trasparenza della banca centrale. Kenneth S.
Rogoff (1985) è l’economista che ha elaborato un modello formale nel quale dimostra
che la funzione di benessere sociale di un paese conoscerebbe un “miglioramento
paretiano” con la nomina di un governatore “conservatore”, definito come una
personalità nota per la sua fedeltà al perseguimento della stabilità monetaria
attraverso segnali e comportamenti diretti a sottolineare l’impegno antiinflazionistico della banca centrale. Un banchiere centrale “alla Rogoff” conferisce
una elevata credibilità alla propria strategia, assumendosi la responsabilità di una
tolleranza per la disoccupazione maggiore di quella della società. Tale orientamento
si riflette in comportamenti di politica monetaria indipendenti dalla preferenza del
137
governo, che viene invece influenzata dall’effetto negativo che un aumento della
disoccupazione avrebbe sul voto degli elettori. Con una strategia dell’informazione
trasparente, tale da convincere i mercati della sincerità della promessa di aggiungere
un fattore additivo Ω>0 all’“avversione all’inflazione” della società (β+Ω), la banca
centrale guadagna una forte reputazione anti-inflazionistica, il che le dà un vantaggio
nell’affrontare il problema di credibilità causato dall’“incoerenza temporale”. Di
fronte al trade-off fra credibilità e flessibilità, il prezzo che un governatore
“conservatore” si troverà spesso a dover pagare è la rinuncia alla flessibilità – tipica
del governatore “tradizionale” - nell’azione di politica monetaria, ricorrendo in
misura molto limitata a manovre di stabilizzazione macroeconomica (Schaling,
1995).
Considerando queste ipotesi, l’equazione presentata nella Parte Prima diviene:
(8.2)
Loss = [( β + Ω)(π − π *) 2 + [(Y − Y *)]2
con π* = 0 e Y*=δYN , dove δ>1. Da questa equazione si ottiene il tasso di inflazione
d’equilibrio; rispetto alla (2.13), al denominatore ora compare il termine aggiuntivo
Ω, che riflette la diminuzione del tasso di inflazione che si associa alla nomina di un
governatore “conservatore”:
(8.3)
π =
α
β +Ω
(δ
− 1)YN
Pertanto, il tasso di inflazione presenta una correlazione diretta con la pendenza della
curva di Phillips (α), ed una correlazione inversa con: 1) l’“avversione inflazione” (β)
aumentata del più forte impegno anti-inflazionistico del governatore “conservatore”
(il fattore additivo Ω>0), e 2) l’obiettivo di reddito al di sopra del suo livello
“naturale” (δ>1).
138
In base alla descrizione sopra fatta, il comportamento del banchiere centrale
“conservatore” si connota per l’indipendenza. In che misura il governatore di
Francoforte rispecchia questo identikit?
Lo Statuto assegna un’indipendenza pressoché totale agli organi decisionali
della BCE. La definizione di obiettivi di crescita del reddito e dell’occupazione da
affiancare all’obiettivo primario della stabilità dei prezzi viene lasciata nel vago.
Sull’indipendenza dalle autorità monetarie nazionali, in primo luogo dai rispettivi
governi, vigila la Corte di Giustizia Europea. Essa ha il potere si rimuovere un
membro del Consiglio Direttivo della BCE che si renda responsabile dei
comportamenti vietati dall’art. 108 del Trattato, secondo il quale i membri del CD
non “possono sollecitare o accettare istruzioni dalle istituzioni o dagli organi
comunitari, dai governi degli Stati membri né da qualsiasi altro organismo”. Si suole
perciò dire che l’UME soffre di un “deficit democratico”, in quanto manca un organo
con effettivi poteri di controllo preposto alla verifica delle decisioni delle autorità
monetarie. Ad esempio, il Presidente della Federal Reserve statunitense deve
rispondere riguardo agli effetti che la politica monetaria ha sulla dinamica
occupazionale, relazionando dinanzi al Congresso nella cosiddetta “HumphreyHawkins testimony”. Il Presidente della BCE presenta un rapporto annuale sulla
politica monetaria davanti al Parlamento Europeo ed informa i capi di governo dei
paesi dell’UME negli incontri periodici. Tali forme di comunicazione ex post non
configurano comunque un credibile meccanismo di pesi e contrappesi (check and
balances) esercitato dagli organismi politici nei confronti dell’istituzione monetaria.
Fintantoché sarà dotata di poteri limitati, l’assemblea del Parlamento Europeo, per
quanto legittimata dal voto popolare, non potrà godere dell’autorità per rappresentare
un’istituzione di controllo sull’operato del Comitato Esecutivo e/o del Consiglio
Direttivo della BCE.
D’altro canto, esiste un’ambiguità nella posizione di teoria monetaria secondo
la quale una banca centrale dovrebbe essere statutariamente obbligata ad ottemperare
al contempo ai due principi dell’indipendenza dalle altre istituzioni e della
139
responsabilità (accountability) di fronte ad una o più organi costituzionale. Negli Stati
Uniti, il Congresso detiene un potere di sanzione, consistente nella possibilità di
votare un emendamento costituzionale che modifichi le prerogative della Federal
Reserve. Un’istituzione di controllo democratico sulle decisioni della BCE potrebbe
avere obiettivi diversi da quelli del governatore, ad esempio riguardo al livello di
occupazione come nel caso del Congresso USA. Gli operatori finanziari potrebbero
d’altro canto formarsi l’aspettativa che l’indipendenza acquisita della banca centrale
con la nomina di un governatore “conservatore” che ha rafforzato l’avversione
all’inflazione rispetto al valore preferito della società è destinata ad affievolirsi. In
altre parole, esiste anche un trade-off fra indipendenza (β+Ω) e responsabilità (ϑ).
Considerando tutti questi parametri (β+Ω-ϑ), la funzione di perdita sociale diviene:
(8.4)
Loss = ( β + Ω − ϑ )π 2 + [α (π − π *) + (1 − δ )YN ]2
L’indipendenza della BCE ha il suo “tallone d’Achille” nell’eccesso di discrezionalità
nell’informazione dei mercati. Non vengono comunicati i risultati delle eventuali
votazioni a maggioranza ed il processo decisionale non è neppure conoscibile ex post,
dato che non esiste obbligo di pubblicare i verbali delle riunioni del Consiglio
Direttivo. L’obiettivo di accrescere il grado di legittimazione democratica della
politica monetaria può in effetti essere perseguito soltanto accrescendo la
responsabilità. In effetti, il controllo da parte di un organo costituzionale implica una
forte trasparenza che a sua volta finisce per ridurre l’indipendenza, in quanto il
condizionamento da parte delle istituzioni politiche elettive è destinato ad aumentare.
Il vero trade-off sembra dunque essere quello fra indipendenza e trasparenza.
La condotta della BCE potrebbe guadagnare in trasparenza con l’adozione
della strategia di comunicazione ex ante, imperniata sulla distinzione fra
indipendenza di obiettivo e indipendenza di strumento. Secondo questa soluzione
istituzionale, seguita dalla Bank of England, una banca centrale deve godere di piena
indipendenza sul modo in cui perseguire gli obiettivi, ma non sugli obiettivi stessi. La
decisione politica fissa l’obiettivo di tasso di inflazione, e questo valore viene poi
140
liberamente perseguito dalla banca centrale in virtù dell’indipendenza riconosciutale
limitatamente alla variazione da imprimere al tasso di interesse. Nell’intraprendere
una manovra monetaria espansiva, la banca centrale dovrà però rendere trasparente la
base analitica del proprio convincimento. Ad esempio, il governatore dovrà
giustificare con l’evidenza econometrica che un livello di reddito più elevato sia
compatibile con l’obiettivo di inflazione.
Tracciamo le rette di stabilizzazione di tre modelli di comportamento del
governatore: tradizionale, conservatore e “con obiettivo espresso in termini di tasso
d’inflazione” (inflation targeting). Nella Figura 8.3, curve di Phillips sono lineari e
l’intercetta per i primi due modelli parte da zero anche per la disoccupazione. Al
governatore “tradizionale” viene attribuita la retta di stabilizzazione con la pendenza
più elevata (T): si assume che tale governatore conduca una politica monetaria
secondo una funzione di perdita sociale in cui il peso per l’“avversione all’inflazione”
(β) riflette la valutazione della società. Al governatore “conservatore” viene attribuita
la retta di stabilizzazione con pendenza inferiore (C): si assume che conduca una
politica monetaria ispirata ad una funzione di perdita sociale che incorpora un peso
per l’“avversione all’inflazione” superiore a quello della società. Infine, nella
strategia di inflation targeting, il comportamento delle autorità monetarie è vincolato
al perseguimento di un valore-obiettivo annunciato espresso in termini di tasso di
inflazione annuo (Z).
Il governatore “tradizionale”, nell’adottare per l‘inflazione lo stesso peso della
società, accetta anche la distorsione inflazionistica implicita nei comportamenti delle
cosiddette parti sociali, le organizzazioni delle imprese e dei lavoratori. Anche il
governatore inflation targeting accetta il peso che al valore-obiettivo dell’inflazione è
assegnato dalla società; tuttavia, la preferenza per un obiettivo di inflazione
puramente “frizionale” compreso fra lo 0% e il 2% è resa credibile dall’impegno a
tenere fede al valore-obiettivo del livello di reddito “naturale” (con il parametro δ=1).
La pendenza della retta di stabilizzazione del governatore inflation targeting (Z) è
141
identica a quella del governatore “tradizionale” (T), ma l’intercetta zero esprime
l’adesione all’obiettivo di “inflazione zero”.
Un annuncio da parte delle autorità monetarie di perseguire l’obiettivo di
“inflazione zero” implica la rinuncia alla distorsione inflazionistica. Con tale
impegno, il governatore inflation targeting abbandona la visione della politica
monetaria basata sul trade-off fra credibilità e flessibilità. Infatti, allo scopo di
segnalare la credibilità della propria politica monetaria, una banca centrale rinuncia a
ridurre il tasso di disoccupazione al di sotto del valore naturale: il punto di
intersezione fra la curva di Phillips di breve e quella di lungo periodo si sposta da A
ad A’. Il governatore inflation targeting esprime così la disponibilità a una manovra
monetaria di stabilizzazione successiva a uno shock in base alla pendenza della retta
di stabilizzazione desiderata dalla società, ma è indisponibile a spingere il reddito al
di sopra del livello “naturale”. Una tale strategia, infatti, innalzando le aspettative
inflazionistiche, finirebbe per incorporare nel sistema economico un tasso di
inflazione “medio” positivo superiore al valore frizionale compreso fra l’1% ed il 2%,
con conseguente perdita di reputazione anti-inflazionistica.
L’impegno del governatore inflation targeting a realizzare un obiettivo di
“inflazione zero” potrebbe essere sostenuto da un disincentivo a deviare
dall’annuncio. In letteratura si ipotizza che il contratto del governatore preveda come
meccanismo di enforcement una sanzione in caso di mancato conseguimento.
Secondo Carl E. Walsh (1995), la sanzione a carico delle autorità monetarie dovrebbe
consistere nella penale di una somma di danaro per ciascun punto di scostamento
dall’obiettivo. In caso di shock di offerta negativo, il governatore inflation targeting
deve lasciare aumentare il tasso di disoccupazione. Nella Figura 8.3, tale
comportamento è rappresentato con la traslazione verso destra della retta di
stabilizzazione da Z a Z’. In assenza di politica di stabilizzazione, l’incremento della
disoccupazione dà luogo a una nuova curva di Phillips di lungo periodo (uN’). In
corrispondenza dell’incrocio fra questa curva e la curva di Phillips successiva allo
shock negativo, verrà così raggiunto un equilibrio nel punto A”. La strategia
142
dell’inflation targeting mantiene l’economia ancorata all’inflazione zero al prezzo di
“accettare” tutto l’incremento del tasso di disoccupazione (A’–A”) indotto dallo shock
negativo.
Consideriamo le funzioni di comportamento dei governatori (T) e (C).
Successivamente ad uno shock negativo rappresentato dallo spostamento verso l’alto
a destra (Figura 8.3) della curva di Phillips, l’incremento della disoccupazione risulta
contenuto in un’ampiezza minore nella nuova posizione di equilibrio. In
corrispondenza delle rette di stabilizzazione dei governatori T e C si individuano i
tassi di disoccupazione AT e AC. Tali valori sono inferiori a quello (A”) determinato
dal governatore Z.
Figura 8.3. Tre modelli di governatore: tradizionale, conservatore e inflation targeting
uN
uN’
π
T
C
Z
Z’
π=0
A’ AT AC
A
A”
u
La funzione di comportamento del governatore “conservatore”, tuttavia, prevedendo
un grado di stabilizzazione minore, determina un tasso di disoccupazione superiore a
quello del governatore “tradizionale”. Quest’ultimo, infatti, è nelle condizioni di
sfruttare il trade-off fra flessibilità e credibilità, assegnando un peso maggiore alla
“flessibilità”
di
produzione
ed
occupazione
che
non
alla
“credibilità”
dell’orientamento anti-inflazionistico della propria politica monetaria.
143
Attualmente, la strategia di politica monetaria dell’ inflation targeting è
ufficialmente adottata dalle banche centrali dei seguenti paesi: Regno Unito, Canada,
Australia, Nuova Zelanda, Svezia, Brasile, Corea del Sud. I detrattori di tale strategia
ritengono che essa inglobi una potenziale distorsione in senso deflazionistico, per
l’impossibilità di deviare dal valore numerico assegnato all’obiettivo finale di politica
monetaria. I sostenitori della sua adozione da parte delle banche centrali ritengono al
contrario che essa conferisca una maggiore flessibilità alla politica monetaria. Al di là
di questo dibattito teorico, si può osservare che un contratto che commini al
governatore una sanzione commisurata all’eccesso sul tasso di inflazione annunciato
presenta il rischio di distorsione nel comportamento di attuazione del contratto.
Infatti, in presenza di uno shock negativo di offerta, il governatore razionale potrebbe
essere indotto dal disincentivo rappresentato dalla sanzione ad un comportamento
fortemente “avverso al rischio” ed ipotizzare a priori un’origine reale (una variazione
delle preferenze o della TFP) dello shock. Il governatore si astiene dall’attuare una
manovra monetaria di stabilizzazione evitando così di incorrere nella sanzione in caso
di ripresa dell’inflazione.
La giustificazione teorica per tale comportamento si trova nei modelli della
NCE, dove si argomenta che le politiche macroeconomiche dirette a contrastare uno
shock di offerta negativo producono soltanto una perdita di benessere. In particolare, i
modelli che si ispirano al RBC riconducono la persistenza di shock negativi di offerta
a fattori strutturali, quali ad esempio rigidità del mercato del lavoro oppure tasse
distorsive. In presenza di un impiego inefficiente delle risorse (un tasso di
disoccupazione che viene giudicato eccessivamente alto), una traslazione verso
sinistra della curva di Phillips verticale e verso destra della AS verticale non
sarebbero conseguibili attraverso politiche macroeconomiche, ma unicamente
attraverso riforme microeconomiche tali da eliminare le suddette distorsioni.
Nella Figura qui sopra, uno shock negativo si riflette nello spostamento verso
sinistra della curva di Phillips di lungo periodo in corrispondenza dell’inflazione
“zero” e dell’equilibrio al valore del NRU o del NAIRU (uN). Secondo il punto di
144
vista della RBC, tale spostamento andrebbe considerato dalla banca centrale come
una nuova posizione di lungo periodo del NRU (uN’) determinata da fattori reali.
Secondo i modelli della NKE, invece, a rendere strutturale l’innalzamento del
NAIRU è proprio il mancato ricorso alle politiche macroeconomiche di
stabilizzazione, che crea le condizioni per il manifestarsi del fenomeno dell’isteresi.
Una strategia monetaria di moderato e lento incremento del tasso di interesse
consente invece quella salita dei prezzi necessaria a ridurre il salario reale e favorire
la ripresa della domanda di lavoro. Tuttavia, una funzione di reazione che contempli
un “peso” θ vicino a zero può indurre gli agenti del settore privato a formulare la
congettura che la banca centrale stia cedendo alle pressioni per l’attuazione di una
politica accomodante; di conseguenza, imprese e lavoratori ritoccherebbero verso
l’alto prezzi e salari e le aspettative di inflazione finirebbero per aumentare. Questa
preoccupazione diventa una certezza per i teorici del “ciclo economico reale”. Questa
scuola di pensiero si pronuncia decisamente a favore dell’inflation targeting. Una
banca centrale che riferisca la propria manovra ad un esplicito obiettivo tasso di
inflazione risponde al canone di comportamento che esige obiettivi chiari annunciati
in termini numerici. La strategia dell’inflation targeting si fonda su uno spettro di
informazioni che copre tutto l’insieme di possibili shock di offerta e di domanda. La
Regola di Taylor sarebbe sub-ottimale perché – non tenendo conto dei fattori di
origine reale come determinanti delle fluttuazioni cicliche - comunicherebbe segnali
ambigui ai mercati.
14. La politica monetaria della BCE
Il lungo processo di integrazione monetaria era stato caratterizzato da un lungo
periodo di “alti” tassi di interesse reale determinati dalla Bundesbank per l’intera area
dello SME. Una spiegazione alternativa della lenta crescita del decennio 1985-95 è
stata individuata nei bassi tassi di crescita del reddito, che vengono messi in relazione
con gli alti tassi di interesse e con l’abbandono in Europa delle politiche
macroeconomiche di sostegno ai livelli di attività economica (Phelps, 1994; Fitoussi
et al., 2000).
145
L’evidenza empirica presentata nella Figura qui sotto mostra come per tutto il periodo
centrale dello SME, il tasso di interesse fosse superiore al tasso di crescita. Se si
escludono episodi particolari (il picco della recessione nel 1982 per gli Stati Uniti e
nel 1993 per Germania, Francia ed Italia) , il confronto fra i tracciati per i tre
maggiori paesi dello SME e gli Stati Uniti è particolarmente illuminante. Mentre i
valori delle due variabili sono mediamente in equilibrio negli Stati Uniti, si registra
mediamente un eccesso del tasso di interesse sul tasso di crescita, che a volte
raggiunge una notevole ampiezza (in tutto il decennio 1985-95 i tassi di interesse
sono stati in Europa superiori a quelli statunitensi; nel periodo 1989-93 i tassi a breve
hanno sopravanzato i tassi a lungo termine).
Figura. Tassi di interesse e tassi di crescita (valori reali): Germania, Francia, Italia e
Stati Uniti (1979-2004)
Germania
crescita
tasso di interesse a breve termine
crescita
2003
2001
1999
1997
1995
1993
1991
1989
1987
1985
1983
-2
1981
2003
2001
1999
-2
1997
0
1995
0
1993
2
1991
2
1989
4
1987
4
1985
6
1983
6
1981
8
1979
8
1979
Francia
tasso di interesse a breve termine
Italia
Stati Uniti
10
8
8
6
6
4
4
2
2
-6
2003
2001
1999
1997
1995
1993
1991
1989
1987
1985
1983
-2
1981
-4
0
1979
2003
2001
1999
1997
1995
1993
1991
1989
1987
1985
1983
1981
-2
1979
0
-4
crescita
tasso di interesse a breve termine
crescita
tasso di interesse a breve termine
146
Nei tre paesi dello SME, il periodo di maggiore eccesso del tasso di interesse rispetto
al tasso di crescita è quello che va dalla fine della prima fase (1979-86) alla fine della
seconda fase (1987-92) dello SME. I tracciati di Germania da un lato e Francia ed
Italia dall’altro, sono molto diversi. In Italia, i divari positivi appaiono molto più
pronunciati rispetto a quelli del paese leader dello SME già a partire dalla prima fase:
nel § 6.6 ne abbiamo individuato l’origine nel differenziale di tasso di interesse
dovuto ai premi per il rischio di cambio e di default.
Nelle principali fasi recessive conosciute dai paesi dello SME (1980-82 e 1991-93), si
può ipotizzare che l’orientamento restrittivo della politica monetaria della
Bundesbank abbia finito per penalizzare non solo l’evoluzione del rapporto deficit
pubblico/PIL (a causa dell’impatto negativo che alti tassi inducevano sul deficit
secondario al numeratore e della lenta dinamica del PIL al denominatore) ma anche la
crescita economica. Come viene illustrato nella Figura 8.4 in Germania, Francia ed
Italia soltanto la drastica discesa dei tassi di interesse determinata dal passaggio
all’unione monetaria rende nuovamente possibile quell’eccesso del tasso di crescita
sul tasso di interesse che era scomparso con l’inizio dello SME.
Figura 8.5. Tasso di cambio dollaro/euro
1.4
1.3
1.2
1.1
1.0
0.9
0.8
gen99
lug99
gen00
lug00
gen01
lug01
gen02
lug02
gen03
lug03
gen04
lug04
gen05
lug05
gen06
lug06
147
L’unione monetaria ha anche coinciso con una fase di bassi tassi di interesse reali nei
mercati finanziari internazionali. L’ambiente economico in cui la BCE si trova ad
operare è dunque fondamentalmente diverso rispetto a quello in cui erano venute a
trovarsi la Bundesbank e le altre banche centrali europee. La monetary stance fino ad
oggi realizzata dalla BCE va valutata su due questioni: 1) la forte oscillazione del
cambio euro-dollaro; 2) la recessione economica che ebbe inizio nel 2001.
Alla crescente divaricazione fra Stati Uniti ed Unione Monetaria Europea degli
ultimi venti anni ha senza dubbio contribuito la diversa concezione delle politiche
macroeconomiche. All’indomani di ogni recessione che colpisca l’economia
statunitense, mentre le forze di mercato ripristinano le condizioni dell’equilibrio
macroeconomico attraverso un rapido aggiustamento di salari e prezzi, le autorità
monetarie e fiscali convergono nel sostegno della domanda necessario a permettere la
ripresa economica. Dopo l’interruzione causata dallo scoppio della bolla dei titoli ICT
del 2000, la crescita del PIL favorita dalla stagione di bassi tassi di interesse
inaugurata dalla Fed di Greenspan, è continuata senza significative fluttuazioni
cicliche. La risalita delle quotazioni di borsa ha innescato un prolungato effettoricchezza sulla domanda di consumo che ha permesso all’economia statunitense fino allo scoppio della crisi finanziaria - di mantenere sostenuta la crescita del PIL.
Pertanto, la coesione sociale è perseguita mantenendo alto il tasso di
occupazione con le politiche monetaria e fiscale “attive”, mentre il ruolo dello Stato
sociale è limitato ai programmi per i più poveri. Obiettivo delle amministrazioni
americane è il contrasto di gravi condizioni di povertà e di esclusione sociale, non la
riduzione della diseguaglianza di reddito. Distanze anche ingenti fra i guadagni sono
legittimate dal capitale umano di cui si dispone, e quindi dal “merito”, qualsiasi fosse
l’”insieme di opportunità” di cui disponeva il soggetto nel corso della propria
formazione. Questa visione trova spiegazione con la priorità lessicografica data alla
tutela degli incentivi di mercato, che consigliano di favorire l’iniziativa privata nel
campo dell’istruzione e di mantenere deregolamentato il mercato del lavoro.
148
Il coinvolgimento delle autorità pubbliche nell’economia non è circoscritto alla
stabilizzazione del reddito nel breve periodo, ma interessa anche la dinamica di lungo
periodo. Negli Stati Uniti, un paese di libero mercato che in molti settori si colloca
sulla frontiera tecnologica, le agenzie dello Stato federale svolgono una politica di
sostegno alla ricerca, garantendo al sistema produttivo un flusso continuo di brevetti
che sostengono la dinamica della Produttività Totale dei Fattori (Total Factor
Productivity: TFP) (Vanderbussche et al., 2004). Le recenti vicende delle economie
avanzate mostrano però come nel corso della crescita le forze di mercato tendano ad
allargare le disparità di reddito e di ricchezza, in misura tanto maggiore quanto più
ridotti sono i programmi pubblici di protezione sociale e di redistribuzione. Negli
ultimi venti anni, il rapporto fra i redditi dei top-incomes e quelli del ceto medio è
così passata negli Stati Uniti da 40 a 419, il reddito della popolazione più povera (il
primo centile) è pari a ¼ del PIL totale ed il 40% della ricchezza si concentra oggi
nell’1% più ricco della popolazione (Stiglitz, 2013).
Per quanto riguarda la politica monetaria, va ricordato che all’avvio
dell’unione monetaria la strategia della BCE era diretta ad orientare verso l’alto il
tasso di cambio dell’Euro rispetto al dollaro statunitense. L’obiettivo era quello di
fare acquisire una forte “reputazione” ad una valuta nuova la cui banca centrale non
ha alle spalle un potere sovrano. Fra il 2000 ed il 2001, l’apprezzamento dell’Euro
venne realizzato spingendo verso l’alto il costo del danaro, con l’obiettivo di
“anticipare” un presunto aumento dell’inflazione attesa (la core inflation era infatti
stabile) . Nel corso di questa manovra restrittiva intervenne lo shock delle “Twin
Towers”, che ebbe l’effetto di aggravare la tendenza deflazionistica che la monetary
stance stava già imprimendo all’attività economica.
Tabella 3. Output gap nell’UME e negli Stati Uniti
200
200
200
200
0
1
2
3
T2
T2
T2
T1 T2
T3 T4
149
T1
0,
UME 5
0,8
2,
US
4
0,6 0,7 0,8 0,3
T3 T4 T1
T3 T4 T1
T3 T4
-
-
-
-
-
-
-
0,1 0,7 0,8 -0,9 1,2 1,6 2,1 -2,4 2,7 2,8
-
2,8
-
-
-
-
-
-
-
-
2,1 1,5 0,6 -0,6 1,4 1,5 1,0 -1,4 1,1 1,5 1,9 -1,9 1,3 1,3
Fonte: Croci Angelini e Farina (2007)
Dopo la discesa dell’euro nei confronti del dollaro all’avvio dell’UME nel gennaio
del 1999, nel luglio 2001 ha inizio una eccezionale risalita. La rivalutazione dell’euro
si colloca attorno al 40% (Figura 8.5) rispetto al valore minimo. Un problema
interpretativo della strategia della BCE è che non è chiara la funzione di
comportamento delle autorità di fronte al rapporto di cambio dell’euro con il dollaro.
Qualora l’inflazione media attesa nell’UME sia in aumento, ma il dollaro tenda a
deprezzarsi nei confronti dell’euro, un intervento della BCE di correzione verso l’alto
del tasso di interesse, allo scopo di contrastare l’accelerazione nella dinamica dei
prezzi nell’area dell’euro, entra in conflitto con l’esigenza di evitare che un tasso di
cambio troppo forte con il dollaro indebolisca la competitività delle merci europee. Il
dilemma sul valore più appropriato da fare assumere alla velocità di adeguamento del
costo del danaro sembra avere messo in difficoltà la BCE nei primi anni del nuovo
millennio.
All’apprezzamento dell’euro ha contribuito il progressivo innalzamento del
tasso di interesse da parte della BCE. Fra il 2000 ed il 2001, il costo del danaro
sembra aumentare in conformità con l’approccio teorico sotteso alla nuova curva di
Phillips, e cioè allo scopo di “anticipare” un presunto aumento dell’inflazione attesa
(la core inflation era infatti stabile). Nel corso di questa manovra restrittiva, è
intervenuto lo shock delle “torri gemelle”, che ha finito per aggravare la tendenza
deflazionistica che la monetary stance stava già imprimendo all’attività economica.
Ci sono dunque indizi che inducono a formulare l’ipotesi che la governance
150
macroeconomica - il mandato della BCE a perseguire prioritariamente l’obiettivo
della stabilità monetaria e la subordinazione delle politiche fiscali nazionali al PSC –
finisca per orientare l’eurozona in senso deflazionistico. A partire dal terzo trimestre
del 2002, la crescita nell’UME, già lenta, ha subito un ulteriore caduta ed i divari di
output gap con gli Stati Uniti hanno teso ad ampliarsi. A partire dal 2003, alla ripresa
negli Stati Uniti ha corrisposto la continuazione della stagnazione della domanda in
Europa (vedi Tabella qui sotto).
Figura. Output gap e politiche di stabilizzazione nell’UME e negli USA.
USA
2
7
1
7
1
6
0
6
0
5
-1
5
-1
4
-2
4
-3
3
-2
3
-4
2
-3
2
-5
1
-4
1
-6
0
-5
0
19
94
19
95
19
96
19
97
19
98
19
99
20
00
20
01
20
02
20
03
20
04
8
% del PIL potenziale
2
19
94
19
95
19
96
19
97
19
98
19
99
20
00
20
01
20
02
20
03
20
04
% del PIL potenziale
Eurozona
output gap
output gap
deficit % PIL
deficit % PIL
tassi di interesse a breve (scala a destra)
tassi di interesse a breve (scala a destra)
La Figura qui sopra offre due spunti di riflessione riguardo a questa ipotesi: 1)
successivamente alla recessione dei primi anni novanta, ad output gap negativi di
ampiezza maggiore nell’eurozona rispetto agli Stati Uniti corrisposero ancora nel
1994 e 1995 rapporti deficit /PIL altrettanto più elevati. I paesi dell’eurozona
espansero i deficit pubblici in misura molto maggiore di quanto non abbiano fatto
dopo la recessione causata dallo shock di domanda delle “torri gemelle”. Le politiche
di stabilizzazione macroeconomiche furono efficaci perché il Trattato di Maastricht
151
non aveva ancora incominciato a “mordere”. Gli output gap negativi indussero i
governi a manovrare sia il tasso di interesse che i deficit pubblici in funzione anticiclica; 2) durante la recessione dei primi anni del nuovo millennio, il confronto con
gli Stati Uniti mette in evidenza come l’azione di stabilizzazione sia della Fed che del
Tesoro sia stata molto più intensa che non quella della BCE e dei governi nazionali
vincolati dal PSC. Rispetto all’eurozona, nel 2003 e 2004 il tasso di interesse
nominale presenta negli Stati Uniti valori molto più bassi e l’ampiezza del deficit
pubblico supera di molto l’ampiezza dell’output gap.
L’evidenza empirica sopra presentata suggerisce che l’azione della BCE abbia
dato priorità assoluta alla stabilità monetaria, in quanto fra il 2002 e il 2005 gli
aggiustamenti verso l’alto del tasso di interesse sono stati adottati in presenza di
output gap negativi e sembrano quindi avere voluto anticipare possibili tensioni al
rialzo dei prezzi. Ci sono dunque elementi per sostenere che la BCE abbia di fatto
adottato la strategia inflation targeting di immediata reazione all’inflazione attesa,
ponendo il “peso” θ=1. Con un tasso di inflazione medio UME attorno al 2%,
l’output gap può rivelarsi un’informazione indispensabile sulla fase ciclica. Tale
informazione è particolarmente preziosa nell’area valutaria europea, dove la
persistente dispersione dell’ampiezza delle fluttuazioni cicliche fra i paesi comporta il
rischio per i paesi a minore tasso di inflazione e più ampio output gap di subire una
insufficiente stabilizzazione di politica monetaria.
Pertanto, anche quando la sua funzione di reazione fa riferimento al solo
scostamento del tasso di inflazione dal suo valore-obiettivo, l’autorità monetaria non
può non tenere conto dell’output gap. Nella prospettiva interpretativa della NKE, che
sottolinea l’esigenza di evitare spinte deflazionistiche in regime di “bassa inflazione”,
soltanto dopo che la variazione del tasso di interesse abbia ridotto l’output gap la
banca centrale dovrebbe concentrarsi sull’obiettivo di riportare l’inflazione sul
sentiero di convergenza al valore annunciato. La monetary stance della BCE (Figura
8.6) non evidenzia una particolare sagacia nel modulare le variazioni del tasso di
152
interesse in modo che i segnali tesi a scoraggiare le aspettative inflazionistiche non
abbiano un effetto depressivo sulla domanda aggregata dei paesi UME.
In conclusione, la politica monetaria comune dei primi cinque anni è stata
condotta sotto il segno della prudenza. Una delle principali motivazioni risiede nel
difficile equilibrio fra l’esigenza della BCE di costruirsi una reputazione antiinflazionistica e l’esigenza di impedire che i fattori di instabilità macroeconomica –
ad esempio, lo shock (simmetrico negativo) di domanda rappresentato dall’attacco
alle “torri gemelle” - compromettano le già molto deboli prospettive della crescita
economica nell’area dell’euro. Questa difficoltà è stata accresciuta dalla circostanza
che, se si esclude un breve intervallo fra metà 2000 e metà 2001, l’obiettivo
intermedio della politica monetaria – un tasso di crescita dell’aggregato M3 fissato
dalla BCE al 4,5% annuo - è stato sempre mancato per eccesso, in una misura fra i 2
ed i 4 punti percentuali per anno. Una possibile spiegazione chiama in causa i valori
immobiliari. Il rapido abbassamento dei tassi di interesse potrebbe avere stimolato la
domanda di abitazioni con conseguente esplosione dei prezzi, oppure, all’inverso,
l’alta percentuale europea di residenti proprietari potrebbe avere beneficiato di un
effetto ricchezza da incremento dei valori immobiliari tale da provocare un notevole
innalzamento della domanda di moneta. Diversamente da altre banche centrali, la
BCE non utilizza un indice del costo della vita che includa anche il prezzo delle case.
La lentezza e la timidezza con cui la BCE ha corretto il tasso di interesse al ribasso
potrebbe avere origine dall’incertezza sull’effettivo significato del livello abnorme di
M3. Una strategia di politica monetaria sostanzialmente imperniata sull’inflation
targeting, ma che si sviluppa senza un relativo annuncio e basandosi sul
monitoraggio della M3, non è in grado né di intervenire con prontezza né di
comunicare segnali credibili ai mercati.
BOX. LA STRATEGIA DI INFLATION TARGETING, LA FED E LA BCE
Le vicende che hanno posto fine alla fase espansiva degli Stati Uniti, prolungatasi per
tutti gli anni ’90, sono molto illuminanti a proposito della strategia di inflation
targeting. La Federal Reserve si è trovata di fronte al dilemma fra due interpretazioni
153
alternative di questo ciclo economico di inusuale lunghezza: i) la prima ipotizzava un
“salto” indotto dal cambiamento tecnologico nel livello della TFP, connesso al largo
impiego nelle imprese delle nuove tecnologie dell’informatica e delle
telecomunicazioni; ii) la seconda riteneva che la lunga fase espansiva consistesse in
uno shock positivo di domanda: l’incremento indotto nella domanda di consumo
dall’effetto ricchezza conseguente alla lunga crescita dei valori dei titoli delle imprese
delle nuove tecnologie. Se fosse stata vera la prima ipotesi, la Federal Reserve
avrebbe dovuto evitare di intervenire. Allorché il cambiamento tecnologico determini
un innalzamento del reddito potenziale, il sostegno di una politica monetaria
espansiva alla crescita della produzione non troverebbe un limite nelle condizioni
dell’offerta, ma si tradurrebbe piuttosto in una riduzione strutturale del tasso naturale
di disoccupazione che la politica monetaria dovrebbe guardarsi bene dal contrastare.
Se fosse invece stata vera la seconda ipotesi, una restrizione monetaria “preventiva”
avrebbe consentito un progressivo calo dei valori azionari, in modo da evitare che le
aspettative - prendendo atto che le quotazioni esprimevano un valore attuale dei
profitti futuri di molto superiore all’effettiva capitalizzazione – sgonfiassero
repentinamente la “bolla speculativa”, con conseguente grave rischio di recessione
per il crollo dei prezzi di borsa e quindi della domanda aggregata. Nella stima del
tasso di inflazione, la Federal Reserve avrebbe perciò dovuto tenere conto, oltre che
dell’indice dei prezzi dei beni, anche delle quotazioni delle attività finanziarie e
procedere ad un innalzamento del tasso di interesse. È probabile che questo sia stato
il percorso logico seguito dal governatore Alan Greenspan e che fra le due opposte
ipotesi sull’espansione USA la verità stesse nel mezzo. La strategia seguita è
consistita in una moderata e graduale restrizione monetaria (un valore di θ vicino a 0
nella 8.1 del § 8.5), diretta innanzitutto ad influenzare al ribasso le aspettative degli
operatori di mercato sui rendimenti azionari. Tale strategia non è tuttavia riuscita ad
evitare lo scoppio della “bolla” e la conseguente recessione. Ma le cose sarebbero
probabilmente andate ancora peggio se la Fed avesse deciso – erroneamente – che il
decremento del tasso di disoccupazione fosse unicamente il segnale di un incremento
di produttività di tutto il sistema economico e non avesse favorito l’adeguamento al
ribasso delle aspettative di crescita.
Il governatore Greenspan, che ha guidato la Federal Reserve fino al dicembre
2005, è stato contrario ad ancorare la politica monetaria del suo paese all’annuncio di
un obiettivo in termini di tasso di inflazione. Di fronte ad un peggioramento delle
condizioni macroeconomiche (ad esempio, una caduta della domanda) la banca
centrale si trova nell’impossibilità di adottare una manovra di stabilizzazione, pena la
perdita di reputazione. La caratteristica principale della sua azione è stata quella di
interpretare la regola di Taylor utilizzando nel modo più esteso possibile lo
“smussamento” della variazione del tasso di interesse per il perseguimento
dell’obiettivo della stabilizzazione degli output gap. Il nuovo governatore, Ben S.
Bernanke, anche se non ha ancora adottato l’inflation targeting, ritiene che la
chiarezza e la trasparenza dell’annuncio di un valore-obiettivo per il tasso di
inflazione ponga la banca centrale nelle condizioni di affrontare una recessione con
una maggiore flessibilità di politica monetaria.
154
La funzione di comportamento della BCE si ispira alla strategia dell’inflation
targeting. Nonostante lo shock negativo delle “torri gemelle” sia stato di domanda e
non di offerta, il comportamento della BCE è stato molto prudente. Il suo primo
governatore, l’olandese Willem F. Duisenberg, ha abbassato il tasso di interesse con
ritardo ed in maniera molto più progressiva di quanto non abbia fatto il governatore
Greenspan. Il secondo governatore della BCE, il francese Jean-Claud Trichet, si è
mosso sulle orme del suo predecessore. Il terzo governatore, l’italiano Mario Draghi,
si è trovato a dovere affrontare la più grave crisi dopo quella del ’29.
155
15. Nuova Economia Classica, Nuova Economia Keynesiana e mercati finanziari
All’inizio degli anni ’80 del secolo scorso, l’approccio neo-classico e monetarista
divenne il paradigma di teoria economica dominante. Successivamente, una volta che
il pensiero keynesiano accolse l’ipotesi di aspettative razionali, i modelli della Nuova
Economia Classica (NCE) e della Nuova Economia Keynesiana (NKE) hanno
condiviso l’apparato analitico che prende il nome di Nuova Sintesi Neoclassica
(Goodfriend e King, 1997). Più recentemente, con l’avvento dei modelli DSGE
(Dynamic Stocastic General Equilibrium), l’economia neo-keynesiana si è
ulteriormente avvicinata alla Nuova Economia Classica, con la scelta metodologica di
adottare l’ipotesi di mercati dei capitali efficienti. Un aspetto non secondario continua
comunque a differenziare i modelli DSGE ispirati alla NKE da quelli ispirati alla
NCE: diversamente dalle ipotesi di mercati di concorrenza perfetta e di prezzi
completamente flessibili tipiche di quest’ultimo approccio, i modelli Neo-Keynesiani
innestano sull’impianto analitico dell’equilibrio intertemporale le ipotesi di mercati di
concorrenza monopolistica e di salari e prezzi vischiosi.
Ricordiamo alcuni caratteri del comportamento microeconomico dei soggetti, già
esposti precedentemente. Coerentemente con l’ipotesi di mercati completi, i vincoli
di bilancio intertemporali di tutti soggetti sono soddisfatti in mercati in cui domanda
ed offerta dipendono da tutti i possibili stati di natura futuri. In particolare, nel
modello NCE, poiché il ruolo della moneta è indebolito dall’avere legato il ciclo
economico esclusivamente a fattori reali (preferenze e tecnologia), non sono possibili
non solo fallimenti ed insolvenze, ma neppure frizioni nel sistema dei pagamenti
dovute a situazioni di illiquidità, in quanto manca un ruolo per il bene moneta. I
prezzi delle attività finanziarie riflettono perfettamente tutta l’informazione rilevante
e perciò sono in grado di fornire i segnali corretti per l’allocazione delle risorse. Tali
prezzi dipendono però da una lunga catena di aspettative. L’assunzione è quindi che i
156
soggetti anticipino correttamente i prezzi che verranno fissati ad ogni data futura
dagli operatori dei mercati futuri. Poiché le tecniche di ottimizzazione dinamica
impongono che l’impatto sul prezzo oggi di un futuro infinitamente distante sia zero,
le aspettative sui prezzi nel lungo periodo sono realizzate per definizione. Il problema
è che nella realtà non esiste nessun banditore walrasiano o pianificatore di
un’economia centralizzata, che garantiscono il realizzarsi di questo equilibrio
intertemporale. Nei mercati decentralizzati dell’economia reale le aspettative non
rispettano le stringenti condizioni del modello matematico, ma sono esposte alle più
diverse influenze.
Al progressivo avvicinamento fra le due visioni neoclassica e neo-keynesiana della
macroeconomia – con la condivisione nei modelli DSGE delle due ipotesi di
aspettative razionali e mercati dei capitali efficienti - ha contribuito anche il processo
di deregolamentazione dei mercati dei capitali e del sistema bancario. Fu proprio
l’influenza intellettuale della NCE a portare negli Stati Uniti al rigetto del GlassSteagall Act. Nel 1999, il Gramm Leach Bliley Act revocò la netta separazione
giuridica fra banche commerciali e banche d'investimento, e il divieto a uno stesso
soggetto di svolgere entrambe le attività. Inoltre, per allineare gli interessi di manager
e azionisti e risolvere il problema di agenzia (i principali-azionisti erano i beneficiari
dei profitti ottenuti dagli agenti-managers), furono creati i bonus. I bassi tassi di
interesse determinati dalla politica monetaria espansiva a partire dall’inizio degli anni
90, stimolarono la domanda di mutui; la concessione di mutui anche a soggetti a
basso reddito produsse l’aumento del moltiplicatore del credito senza che dovesse
intervenire alcun incremento della base monetaria. Al contempo, l’innovazione
finanziaria consentita dalla deregolamentazione condusse alla creazione di nuovi
prodotti che permisero la suddivisione del rischio su una vasta platea di acquirenti
(risparmiatori, banche, istituzioni finanziarie). A tale risultato ha probabilmente
contribuito anche la Federal Riserve. La politica monetaria negli Stati Uniti è stata
così accomodante, ed i tassi di interesse così bassi, da incentivare l’incremento del
leverage delle banche, interessate ad accrescere i propri profitti attraverso
157
l’intermediazione dei nuovi prodotti (titoli derivati, etc.). La forte espansione della
liquidità potrebbe essere stata una concausa di trend di forte crescita delle quotazioni
di borsa, con la formazione e l’esplosione di due importanti bolle speculative negli
ultimi quindici anni.
Come vedremo più approfonditamente in seguito, le banche commerciali, essendo
state autorizzate ad operare nell’emissione e nel trading di attività ad alto rischio, si
dedicarono alla cartolarizzazione dei prestiti subprime in asset-backed-securities
(ABS) agendo di fatto come banche di investimento. D’altro canto, le banche di
investimento cominciarono ad effettuare prestiti al pari delle banche commerciali.
Tuttavia, prestando liquidità agli Hedge Funds e prestando le attività finanziarie da
loro ricevute in garanzia, si trovarono in bilancio un eccesso di attività a breve e di
passività a lungo termine proprio mentre i prezzi delle attività finanziarie e degli
immobili cominciarono a declinare. Affinché non si producano bolle speculative
occorre che le banche tengano conto dell’informazione fornita dalle agenzie di rating
sulla loro salute ed iscrivano nei propri bilanci le attività finanziarie aggiornando il
loro valore in base all’evoluzione dei prezzi di mercato. Ciò non è accaduto perché
sono mancati gli incentivi appropriati perché questi comportamenti virtuosi si
radicassero nei mercati finanziari. Negli Stati Uniti, l'assunzione di rischi
sproporzionati è stata resa possibile dalla decisione delle autorità di sorveglianza di
liberare le banche dai requisiti di capitale: nel 2004, l’indebolimento del limite sul
grado di leverage indusse le banche di investimento di Wall Street ad accrescere i
loro investimenti finanziari ad alto rischio. Il tasso di rischiosità del sistema bancario
statunitense era accresciuto dal fatto che con l’assorbimento delle banche
commerciali da parte delle principali banche di investimento tutte le banche USA
erano “troppo grandi per fallire”. Si è così ignorato che le banche stavano
accumulando rischi insostenibili alla luce del rapporto fra indebitamento e capitale.
Ciò del resto avveniva anche in Europa, dove la collusione fra controllanti e
controllati è stata altrettanto estesa che negli Stati Uniti: i requisiti di capitale previsti
dalla regolamentazione conosciuta come Basilea1 si sono rivelati del tutto inadeguati
158
ad impedire che rating compiacenti nascondessero le situazioni di rischio e che i
contratti di credit default swap (CDS) li assicurassero in maniera del tutto
inconsistente.
16. L’ipotesi di mercati dei capitali efficienti
L’ipotesi di mercati dei capitali efficienti può essere espressa mediante l’equazione
del tasso di rendimento R di un’attività finanziaria:
C + Pt+1 - Pt
(1) R =
_____________
Pt
dove:
R = rendimento derivante dall’investimento in un titolo da t a t+1
Pt+1 = prezzo di un titolo al tempo t+1 alla fine del periodo dell’investimento
Pt = prezzo di un titolo al tempo t all’inizio del periodo di investimento
C = flusso di cassa (cedola o dividendo) ricevuto nel periodo da t a t+1.
Essendo noti il prezzo corrente ed il pagamento C, l’unica variabile incerta è il prezzo
del periodo successivo Pt+1. Indicando con Pt+1e l’aspettativa del prezzo di un titolo,
per ottenere l’equazione che esprime il rendimento atteso Re è sufficiente sostituire
nella (1) Pt+1 il suo valore atteso Pt+1e
L’ipotesi di mercato efficiente considera le aspettative come previsioni ottimali
formulate sulle informazioni disponibili. Pertanto, il mercato è efficiente perché
riflette tutte le informazioni disponibili. Definiamo Pp la migliore previsione di
prezzo possibile sulla base dell’informazione disponibile è Pt+1 e = Pt+1 p
L’aspettativa del rendimento al tempo t è uguale alla migliore previsione possibile:
159
(2) Re = Rp
Non potendo osservare né Re né Pt+1e , l’equilibrio fra domanda ed offerta di titoli
eguaglia l’aspettativa sul rendimento del titolo Re:
Re = R*
Sostituendo Re con R* nella equazione 2, si ha: Rp = R*
I prezzi correnti in un mercato finanziario saranno fissati in modo che la previsione
ottimale del rendimento di un titolo ottenuta usando tutte le informazioni disponibili
sia eguale al rendimento di equilibrio del titolo. Chi acquista un’attività finanziaria
assume una posizione lunga, chi vende una posizione corta. In ambedue i casi, il
soggetto si assume il rischio sul prezzo dell’attività indotto da una variazione del
tasso di interesse: una posizione lunga può incorrere nella caduta del prezzo
dell’attività acquistata; una posizione corta può incorrere nell’aumento del prezzo
dell’attività venduta).
Supponendo che il prezzo di un’azione sia pari a $90 e che nuove informazioni
inducono a ritenere che l’anno prossimo il prezzo sarà Pt+1 e = $120, se il rendimento
annuale di equilibrio R* è 15% (uguale alla migliore previsione Rp ) e non sono pagati
dividendi (C=0), dopo l’apertura il prezzo aumenterebbe a $104,35. Inserendo tali
valori nell’equazione (1) si ottiene:
120 - Pt
(1) 0,15 =
_____________
Pt
Supponiamo che il valore dell’azione sia del 10% su base annuale, ed il suo prezzo
corrente sia inferiore alla previsione per domani Pt+1 p; la previsione ottimale del
rendimento sarà 50%, superiore a 10%. La condizione di mercato efficiente riflette il
comportamento di prezzo perché – come l’esempio rivela – esistono opportunità di
profitto che verranno sfruttate: se Pt+1 e > Pt, l’acquisto del titolo provocherà la salita
del suo prezzo in rapporto al prezzo futuro Pt+1e , con conseguente riduzione di Rp .
160
La condizione di mercato efficiente è soddisfatta quando il prezzo corrente è
aumentato abbastanza da fare sì che Rp sia eguale a R*.
La versione “forte” della condizione di mercato efficiente prevede non solo che siano
sfruttate tutte le opportunità di profitto (in quanto si utilizzano tutte le informazioni
pubblicamente disponibili), ma anche che i prezzi siano correttamente determinati,
ovvero riflettano il “valore fondamentale” dei titoli. Si intende dire che il livello di
prezzo è fissato tenendo conto delle aspettative future dei prezzi e dei dividendi
pagati dal titolo, scontati mediante un tasso che incorpora anche il premio al rischio.
Pertanto, la teoria dei mercati efficienti si basa su due assunzioni: 1) i prezzi delle
attività finanziarie riflettono con esattezza il valore del capitale fisico, permettendo
un fluido trasferimento del risparmio all’investimento; 2) i mercati finanziari sono in
grado di autoregolarsi. Queste due ipotesi espungono dalla macroeconomia qualsiasi
ruolo per l’informazione imperfetta e per comportamenti di razionalità limitata.
Akerlof e Shiller (2007) hanno ad esempio lamentato come l’ipotesi di aspettative
razionali abbia eliminato il concetto di animal spirits - le aspettative ottimistiche o
pessimistiche degli imprenditori - dai modelli macroeconomici.
D’altro canto, come dimostrato da Grossman e Stiglitz, la fluttuazione dei prezzi
attorno ai valori corretti rappresenta una condizione necessaria per incentivare gli
investitori razionali ad acquisire l'informazione. Se infatti i prezzi fossero sempre
esattamente
eguali
al
valore
corretto,
si
presenterebbe
un
paradosso
dell'informazione: i prezzi rifletterebbero l'informazione disponibile, ma nessuno
avrebbe interesse a raccogliere l'informazione perché non ci sarebbe modo di trarre
profitto da essa.
La teoria dominante assume invece che agenti perfettamente razionali inseriscano nel
sistema di equazioni che esprime il funzionamento dell’economia tutta la
informazione disponibile per calcolare le probabilità ed i payoff attesi in relazione al
verificarsi di ciascun possibile stato di natura. Il processo di massimizzazione delle
161
imprese mette capo alla scelta dei progetti con la più alta utilità attesa. L’inserimento
nel modello della nuova informazione disponibile porta – noti i termini noti ed i
valori dei coefficienti - a ricalcolare i valori delle incognite. L’assunzione di
comportamento razionale e le condizioni di informazione completa consentono
l’efficiente funzionamento dei mercati finanziari e conseguentemente escludono la
possibilità che si presentino “bolle speculative”.
Nel corso degli anni che precedettero la crisi finanziaria 2007-09, tuttavia, le
condizioni che dovrebbero impedire il formarsi delle bolle speculative erano assenti.
L’informazione fornita dalle agenzie di rating era distorta, in quanto esse operavano
in pieno conflitto di interessi, dovendo essere imparziali nei confronti delle banche
monitorate ma al contempo essendo interessate a sopravvalutare la redditività delle
banche in quanto facevano anche profitti con la consulenza alle banche sui nuovi
prodotti finanziari in cui investire. La ragionevole regola di valutare le attività
finanziarie in base ai prezzi di mercato diviene perversa in presenza di mercati dei
capitali imperfetti: se una bolla finanziaria nasce ma non viene riconosciuta, si è
indotti a presumere – erroneamente - di trovarsi di fronte ad un corretto rating delle
banche. Ex post, e cioè dopo lo scoppio della bolla, tale presunzione si rivelerà
infondata, in quanto ad elevate quotazioni non corrisponderanno elevati profitti.
La crisi finanziaria 2007-09 ha gettato un’ombra sugli anni della “Grande
Moderazione”. Con tale espressione si intende la crescita del reddito e
dell’occupazione in presenza di inflazione bassa e stabile che caratterizzò le
economie avanzate negli anni ’90. Alla Federal Reserve è stato da molti economisti
attribuito il merito di avere saputo favorire quest’epoca di crescita continua con alto
tasso di occupazione e senza inflazione. Benché il 2000 fu l’anno in cui scoppiò la
bolla dot.com, fino all’esplodere della crisi finanziaria del 2007-09 il giudizio sulla
politica monetaria del governatore Greenspan era più che lusinghiero. Al governatore
veniva solo imputato di avere troppo a lungo favorito con bassi tassi di interesse la
crescita dei listini finanziari, senza rendersi conto che alla fine degli anni ’90 i prezzi
162
delle azioni erano troppo elevati rispetto alle aspettative di profitto futuro delle
imprese dei settori ICT. La crisi finanziaria 2007-09, nel dimostrare quanto tali
economie fossero in effetti esposte a gravi pericoli, ha anche rimosso molte certezze.
Ci si interroga ad esempio sull’intonazione costantemente espansiva che Greenspan
diede alla politica monetaria della Fed, con l’effetto di sostenere dal 1992 al 2000 una
crescita dell’economia statunitense mai interrotta da fasi cicliche negative, ma anche
di generare un trend di crescita delle quotazioni di Wall Street che si è rivelato non
conforme alle prospettive di profitto delle imprese. Come ha documentato Robert
Shiller, una bolla finanziaria si caratterizza per un'anomala convergenza delle
opinioni e delle aspettative degli investitori e degli intermediari finanziari
sull'andamento dei prezzi delle attività patrimoniali: non solo diminuisce la
percezione del rischio, ma viene meno la normale differenza di opinioni che, quando i
prezzi salgono, induce alcuni a comperare e altri a vendere. Questo accade quando la
giusta preoccupazione delle autorità monetarie e governative di intervenire nei
mercati allo scopo di impedire crisi di sfiducia è usata male dal sistema bancario.
Negli anni precedenti le bolle speculative di fine secolo scorso, a Wall Street si
consolidò l'opinione secondo cui la Federal Reserve americana e il Tesoro sarebbero
intervenuti per salvare i finanzieri dai loro errori, da un lato con la creazione di
moneta, dall'altro evitando il fallimento delle banche troppo esposte. Questa
aspettativa ha creato un perverso incentivo per le banche, invogliandole ad assumere
un
atteggiamento
opportunistico.
Le
banche
hanno
scambiato
la
giusta
preoccupazione di proteggere i risparmiatori per la licenza di accrescere a dismisura
il grado di rischio della loro attività. A favorire l’azzardo morale delle banche è stata
anche la presenza di un grave conflitto di interessi: i ministri del Tesoro provengono
spesso dai ranghi di Wall Street.
163
17. Mercati efficienti e modello macroeconomico
Due aspetti del modello macroeconomico - comuni sia alla NCE che alla NKE –
vengono oggi sottoposti a critica: 1) il passaggio dall’utilizzo della quantità di base
monetaria al tasso di interesse come principale strumento della politica monetaria
(com’è noto, a partire dalla fine degli anni ’70 la forte volatilità della domanda di
moneta determinata dalla innovazione finanziaria ha destituito di fondamento l’idea
che gli aggregati monetari M1,M2 ed M3 rappresentino indicatori affidabili del grado
di monetizzazione dell’economia); 2) l’utilizzo della Regola di Taylor come
funzione-obiettivo della politica monetaria (com’è noto, questa regola prevede che il
tasso di interesse venga manovrato dalla banca centrale verso l’alto o verso il basso
con l’obiettivo di annullare un eventuale divario del tasso di inflazione dal tasso di
inflazione scelto - esplicitamente o implicitamente - come target della politica
monetaria e dell’output dal suo livello di equilibrio corrispondente al tasso naturale di
disoccupazione). Queste due critiche convergono nella conclusione secondo cui il
controllo dell’economia attraverso la manovra del tasso di interesse alla luce dello
scostamento dal suo valore di lungo periodo risultante dall’equazione di Taylor
presenti due limiti fondamentali sul piano teorico:
A) la regola di Taylor non dovrebbe tenere conto soltanto dell’inflazione dei beni ma
anche dell’inflazione dei valori delle azioni e dei valori immobiliari. Mentre da un
lato si diffondeva rapidamente l’uso del tasso di interesse per il controllo
dell’economia da parte delle Banche centrali, dall’altro non ci si rendeva conto che la
centralità in tal modo acquisita dal nesso fra politica monetaria e mercato finanziario
imponeva la considerazione anche dell’andamento dei prezzi delle azioni nel
computo del tasso di inflazione. Se vengono la politica monetaria reagisce ad
incrementi dei valori borsistici che non trovano spiegazione nei bilanci delle imprese
164
ma derivano da un eccesso di liquidità, l’inflation gap positivo che risulterà
nell’equazione di Taylor imporrà un aumento del tasso di interesse e una probabile
bolla finanziaria verrà eliminata sul nascere. Tuttavia, la mancata considerazione dei
prezzi finanziari e immobiliari nell’equazione di Taylor rende il ruolo centrale
attribuito al tasso di interesse ed al nesso fra politica monetaria e mercato finanziario
inutilizzabile ai fini di una corretta interpretazione dell’andamento del mercato dei
capitali. Come ha riconosciuto lo stesso Lucas, “The problem is that the new theories,
the theories embedded in general equilibrium dynamics […] don't let us think about
the US experience in the 1930s or about financial crises and their consequences […]
We may be disillusioned with the Keynesian apparatus for thinking about these
things, but it doesn't mean that this replacement apparatus can do it either" (Lucas,
2004, p. 23).
B) La considerazione in un modello di equilibrio intertemporale delle ipotesi di
agenti perfettamente razionali e di perfetto funzionamento dei mercati dei capitali
destituisce di rilevanza eventuali squilibri fra risparmi ed investimenti. Ogni eccesso
degli investimenti sui risparmi determinata da prezzi errati delle attività finanziarie
non rappresenta la spia di un’allocazione delle risorse incompatibile con l’equilibrio
di lungo periodo, ma viene interpretato come squilibrio temporaneo che sarà
rapidamente eliminato da mercati finanziari capaci di autoregolarsi.
Il fatto è che la realtà dei mercati finanziari degli ultimi anni ha finito per distanziarsi
di molto dalle ipotesi dei modelli teorici. Il mutamento strutturale avvenuto a partire
dagli anni ’70 - la crescente volatilità di tassi di interesse e quotazioni delle attività
finanziarie – ha però favorito lo sviluppo di un filone alternativo ai modelli basati su
aspettative razionali e mercati dei capitali efficienti, basato sull’idea che i
cambiamenti futuri nei prezzi delle azioni non sono prevedibili. E’ stato osservato
che i prezzi delle azioni sovra-reagiscono alle notizie (un alto fatturato fa crescere di
molto la quotazione), per poi diminuire nel medio periodo. Tale andamento dei valori
azionari suggerisce che almeno parte dell’erraticità delle quotazioni di borsa, la
cosiddetta random walk , può trovare spiegazione in fenomeni psicologici. Dal
165
momento che le quotazioni hanno un andamento casuale, è difficile “battere” il
mercato, ovvero guadagnare un rendimento superiore al valore di equilibrio: con
l’arbitraggio vengono immediatamente sfruttate tutte le opportunità di profitto.
18. Grande Depressione (1929) e Crisi finanziaria (2007-09)
L’interpretazione più condivisa delle cause della Grande Depressione degli anni ’30
del secolo scorso, che seguì il crollo di Wall Street del ’29, si incentra su due aspetti
principali: 1) Il ritorno al gold standard, che vincolò fortemente la creazione di
moneta negli Stati Uniti: la politica monetaria restrittiva portò a tassi di interesse
nominali dal 4% in sù, cui fecero seguito una forte deflazione dei prezzi (- 25% nel
1929-33) e tassi di interesse reale negativi superiori al 10% che “tagliarono” gli
investimenti
(Friedman-Schwartz,1963;Bernanke,2000, 2004); 2)
La
forte
sottovalutazione della stabilità del sistema bancario: poiché nessuna banca era così
grande da dovere essere considerata “sistemica” (e cioè con troppe interconnessioni
con il sistema bancario nel suo complesso perché potesse essere lasciata fallire), non
si fece molto per impedire i fallimenti, con gravi conseguenze per il finanziamento
delle imprese.
La sospensione del Gold Standard e la svalutazione del dollaro (una
“bancarotta” di fatto degli Stati Uniti) decise da F.D. Roosevelt consentirono alla
Federal Reserve di attuare la politica monetaria espansiva che innescò la ripresa
economica, con la rapida risalita degli investimenti alla fine degli anni ‘30; il ruolo
della politica fiscale nell’uscita dalla crisi tende oggi ad essere ridimensionato, o
perché si ritiene che gli interventi di deficit spending degli anni ’30 non furono affatto
massicci (il rapporto deficit pubblico/PIL non superò il 5%) o perché alla spesa
pubblica in infrastrutture non si attribuisce un elevato valore del moltiplicatore nel
breve periodo.
La Grande Depressione, infatti, venne innescata da una bolla del mercato
finanziario, non del mercato immobiliare. Pertanto, stabilire un parallelo fra la
166
Grande Depressione e la crisi finanziaria 2007-09 è più agevole in termini di
conseguenze che di cause. Guardiamo allora all’impatto rispettivamente della crisi
del ’29 e della crisi finanziaria 2007-09. Come si osserva nei tre grafici che seguono
(tratti da Eichengreen-O’Rurke, 2009), rispetto ai mesi successivi alla crisi del ’29,
l’impatto iniziale è stato invece oggi altrettanto pronunciato sul PIL mondiale e molto
più grave su un indice delle quotazioni dei mercati finanziari internazionali, e sul
commercio mondiale.
19.Banche commerciali e banche di investimento
Dopo la grande crisi degli anni ’30, la riforma del sistema bancario degli Stati Uniti si
articolò in tre provvedimenti: 1) la Banca centrale assunse la funzione di prestatrice
di ultima istanza (lender of last resort) del sistema economico; 2) lo Stato istituì il
meccanismo dell’assicurazione pubblica dei depositi (con l’istituzione della Federal
Deposit Insurance, il governo dà la garanzia della restituzione della liquidità ai
depositanti delle banche insolventi, il che sollevò le banche dal timore di “corsa agli
sportelli” in caso di panico finanziario); 3) la regolamentazione del sistema bancario
divenne più stringente: il Glass-Steagall Act introdotto nel 1933 istituì la separazione
fra banche commerciali (autorizzate a raccogliere depositi presso i risparmiatori) e
banche di investimenti (che si finanziano esclusivamente sui mercati finanziari). La
logica di questo assetto istituzionale è molto semplice. Da un lato, le banche
commerciali beneficiano della prerogativa di reperire liquidità attraendo depositi e
sono protette dalla assicurazione dei depositi e dalla funzione di prestatore di ultima
167
istanza della banca centrale. Dall’altro, le banche di investimento, non godendo della
raccolta dei depositi devono essere autorizzate a finanziare le loro attività illiquide
con linee di credito a breve termine aperte dalle banche commerciali, e sono costrette
a legare strettamente la durata delle passività alla durata delle loro attività. Pertanto,
il regime di separazione fra banche commerciali e di investimento ha la funzione di
impedire la commistione di entità finanziarie diverse. Il punto è che le prime non
dovrebbero essere autorizzate a vendere il loro portafoglio di prestiti (securization). Il
motivo di fondo è che la securization non elimina il rischio per le banche: anche
ricorrendo alla cartolarizzazione, infatti, il materializzarsi del rischio del credito
impone il ritorno dei prestiti nei bilanci delle banche, indebolendo la loro struttura
patrimoniale. Pertanto, risulta inevitabile il trasferimento del rischio alla Banca
centrale, che attraverso la funzione di prestatore di ultima istanza garantisce la
solvibilità della banca.
Nella teoria economica, dagli anni ’70 in poi, si è imposta una visione del
funzionamento di un’economia monetaria fondata su tre ipotesi: 1) aspettative
razionali consentono ai mercati finanziari di allocare i risparmi fra progetti di
investimento alternativi così da massimizzare il benessere; 2) mercati efficienti
garantiscono che i prezzi delle attività finanziarie riflettano i fondamentali, ovvero le
aspettative (razionali) sui profitti futuri delle imprese; 3) i mercati sono in grado di
auto-regolarsi. Come viene spesso ricordato, il governatore della Federal Reserve del
decennio scorso ha affermato nella sua autobiografia, pubblicata nel 2007, che “le
autorità (monetarie e fiscali) non dovrebbero interferire nell’attività di impollinazione
svolta dalle api di Wall Street”. Il clima intellettuale favorevole al modello NCE fece
guadagnare credibilità alle ipotesi di aspettative razionali e mercati dei capitali
efficienti. Si diffuse la convinzione che la promozione dell’efficienza economica si
esaurisca nel liberare il funzionamento dei mercati dalle limitazioni imposte dalla
regolamentazione. Sull’onda della deregolamentazione nel 1999 fu abolito il GlassSteagall Act.
168
Com’è noto, la funzione svolta dalle banche di raccogliere depositi a breve
termine e prestare a lungo termine è essenziale per la crescita economica, in quanto la
moneta bancaria favorisce il trasferimento dei risparmi delle famiglie agli
investimenti delle imprese. L’espansione dell’attività delle banche commerciali e di
investimento ha contribuito a accrescere l’instabilità macroeconomica seguita ala
deregolamentazione ha determinato un forte incremento dell’attività bancaria. Alla
moltiplicazione delle attività finanziarie si è accompagnata la creazione di nuovi tipi
di contratti a termine (vedi BOX 1).
____________________________________________________________________
BOX 1. CONTRATTI A TERMINE
I soggetti avversi al rischio si difendono dal rischio di variazione dei prezzi delle
attività finanziarie con la copertura offerta dai contratti forward. La copertura del
rischio sui tassi di interesse avviene con i contratti a termine: vendere l’attività
finanziaria ad una data futura al prezzo forward corrente (alla pari) consente di
eliminare il rischio sul prezzo che una variazione del tasso di interesse potrebbe
creare.
Il contratto forward fa tuttavia nascere due problemi:
1.
Rischio di liquidità. Nonostante i broker avvicinino le parti acquirente e
venditrice, non sempre i mercati offrono un numero adeguato di offerenti ed
acquirenti, cosicché la carenza di operatori comporta una mancanza di liquidità per
una data attività finanziaria.
2.
Rischio di insolvenza. Se al tempo t+1 cade il prezzo dell’attività che è
stata rivenduta con un contratto forward che scade al tempo t+2, l’acquirente
potrebbe rifiutarsi di acquistarlo al prezzo (più alto) convenuto al tempo t.
Un financial future si differenzia dal contratto forward per caratteristiche che
riducono i due suddetti rischi. Il rischio di liquidità viene contrastato dal fatto che la
data di scadenza del contratto è standardizzata, il che accresce il numero di acquirenti
e venditori disponibili ad entrare in contatto. Inoltre, il contratto può essere venduto
in ogni momento prima della scadenza; il trasferimento può riguardare non solo il
titolo su cui si è costruito il future, ma una molteplicità di titoli. L’operatore non si
viene a trovare nelle mani da chi voglia monopolizzare il mercato rastrellando tale
titolo. In tal modo, gli investitori con posizione corta evitano di non trovare i titoli
che per contratto forward è obbligato a trasferire alla data convenuta. Il rischio di
insolvenza è ridotto dalla stipula in una stanza di compensazione associata alla borsa
dei future. Compratori e venditori debbono versare un deposito iniziale – il margine
obbligatorio – in un conto di garanzia tenuto dal loro intermediario. Mediante il mark
to market, ad ogni chiusura quotidiana dei mercati le variazioni nel valore dei titoli
vanno aggiunte o sottratte dal conto di garanzia. Il rischio che un trader risulti
169
insolvente è di molto ridotto: se il saldo scende sotto il margine obbligatorio di
mantenimento, dovrà versare danaro nel conto.
Una option call (put) è un contratto che dà al compratore il diritto di acquistare
(vendere) un’attività finanziaria a un prezzo specificato - prezzo di esercizio - entro
un determinato periodo di tempo. Chi acquista un contratto future al prezzo di 115 si
accetta di pagare 115.000 dollari per un valore nominale di 100.000 dollari.
Se un investitore, pagando un premio di 2000 dollari, acquista un contratto di
opzione call sul contratto su obbligazioni del Tesoro scadenza giugno, con un prezzo
di esercizio di 115, di fatto ottiene il diritto ad acquistare il contratto future per le
obbligazioni del Tesoro a giugno al prezzo di 115 (115.000 dollari per contratto),
diritto esercitabile in ogni momento fino alla scadenza. Alla scadenza, se il prezzo del
contratto future fosse 115, l’opzione call è at the money: ovvero, è indifferente
esercitare o meno l’opzione per acquistare l’opzione future, dal momento che
l’esercizio dell’opzione a 115 quando il prezzo di mercato è anch’esso a 115 non
produce né guadagni né perdite. Poiché l’investitore ha pagato 2000 dollari per
l’opzione, l’operazione è in perdita. Se invece il prezzo fosse 120, l’opzione sarebbe
on the money e l’investitore esercitando l’opzione paga il prezzo di esercizio 115 per
vendere a 120, con un guadagno del 5% (5000 dollari) sul contratto di 100.000 dollari
in obbligazioni del Tesoro. Il guadagno netto è 5000-3000=2000.
L’opzione call protegge l’investitore da perdite superiori al premio di 2000
dollari. La perdita sul contratto future sarà di 5000 dollari se il prezzo scende alla
scadenza scende a 110 e aumenterà via via che il prezzo diminuisce. Il prezzo di
acquisto è chiamato premio per la caratteristica di tipo assicurativo dei contratti. Se il
prezzo dell’attività finanziaria sottostante aumenta rispetto a quello di esercizio, i
guadagni crescono con una progressione lineare. L’investitore, rinunciando a
qualcosa acquistando un contratto di opzione in luogo di un contratto future. Quando
il prezzo dell’attività finanziaria sottostante supera il prezzo di esercizio, i guadagni
sono sempre inferiori a quelli del contratto future, di importo pari al premio di 2000
dollari che ha pagato. Quando è inferiore, l’opzione put è on the money e i profitti
aumentano via via che il prezzo del contratto future diminuisce.
Quando la durata aumenta, cresce la probabilità che il prezzo sia molto alto o
molto basso entro la data di scadenza. Se il prezzo sale molto e supera notevolmente
il prezzo di esercizio, l’opzione call frutterà un forte guadagno. Similmente, per
l’opzione put la variabilità dei prezzi dell’attività finanziaria sottostante cresce a
mano a mano che la durata si allunga: l’opzione put avrà valore maggiore
all’aumentare della durata. Per questi contratti di opzione vale il motto: “se esce
croce vinco; se esce testa non perdo troppo”. La più grande variabilità dei prezzi alla
scadenza aumenta i profitti medi per l’opzione, alzando il premio che gli investitori
saranno disposti a pagare.
____________________________________________________________________
170
TABELLA 1: I sei più ampi movimenti dell’indice medio industriale Dow-Jones (ottobre
2008)
Date Var.Per. (1)
Frequenza media “normale” (2)
07/10/2008
-5.11%
Una volta in 5.345 anni
09/10/2008
-7.33%
Una volta in 3,373,629,757 anni
13/10/2008
11.08%
Una volta in 603.033610921669000000000 anni
15/10/2008
-7.87%
Una volta in 171,265,623,633 anni
22/10/2008
-5.86%
Una volta in 117,103 anni
28/10/2008
10.88 Una volta in 73.357.946.799.753.900.000.000 anni
(1) Rendimenti giornalieri dal 01/01/1971 al 31/10/2008 (Source Datastream)
(2) Media della distribuzione = 0; Dev. St. = 1.032%
Le bolle speculative con successivo crollo delle quotazioni di borsa sono
divenute sempre più frequenti (Tabella 1). Negli anni ’80 e ’90 si ebbero due bolle nei
mercati valutari: un eccessivo apprezzamento del dollaro rispetto al marco tedesco
(DM). Nel 1999-2002 ebbe luogo un’ondata di euforia seguita dallo scoppio della
bolla dot-com (anche detta IT bubble) seguita da una forte depressione (vedi Figura
8).
La crescita della capitalizzazione del mercato azionario di Wall Street del 30%
nel 2007 (la capitalizzazione arriva fino a 15 trilioni di dollari, con 3,5 trilioni in più
rispetto al 2006) non trova giustificazione nella crescita del PIL del 5% (pari a solo
650 miliardi di dollari) (vedi Figura 9).
L’ incremento del leverage è stato notevole: il rapporto attività/depositi delle 5
banche maggiori a livello mondiale ha superato nel 2007 il 200%. Anche i bilanci
delle banche europee hanno registrato questi aumenti (vedi Figura 10). Il problema è
che i rendimenti delle attività non hanno una distribuzione normale ma ampie code,
ovvero esiste un’alta probabilità che si verifichino bolle.
I modelli con distribuzione normale dei rendimenti sottostimano ampiamente
gli shocks: un’osservazione (giornaliera) che devia dalla media di 5 volte la
deviazione standard si presenta solo una volta in 7000 anni. Ma nella realtà degli
171
ultimi 80 anni tali ampi cambiamenti si sono presentati ben 74 volte. La Tabella 1
mostra i 6 maggiori cambiamenti
percentuali dell’indice Dow Jones Industrial
Average nel molto turbolento ottobre 2008 e misura quanto frequenti sarebbero
nell’ipotesi di distribuzione normale di questi eventi. I risultati sono sorprendenti: con
una deviazione standard di cambiamenti giornalieri di 1,032% (sul periodo 19712008) cambiamenti di tali ampiezza possono avvenire solo una volta in un intervallo
da 73 a 603 miliardi di anni. Nonostante la teoria dei mercati finanziari assuma
proprio una distribuzione normale, si sono avuti due cambiamenti giornalieri
superiori al 10% durante lo stesso mese. Inoltre, nella simulazione sugli altri quattro
avvenuti nel mese di ottobre la frequenza risulta ancora più elevata.
Dal luglio 2006 al luglio 2007, l’economia USA ha visto aumentare il valore
del capitale del 30%, con una capitalizzazione che è passata da 11,5 a 15 migliaia di
miliardi. Come è stato possibile un incremento di 3,5 trilioni quando il PIL
aumentava soltanto di 650 miliardi (5%)? (vedi Figura 9). La causa di questa crescita
dei valori azionari del 30% e della successiva caduta di nuovo del 30% probabilmente
risiede in un’ondata di ottimismo eccessivo seguita da un’ondata di pessimismo
eccessivo (l’indice Dow Jones, dopo essere sceso a 7.000, nel settembre del 2009 ha
recuperato il 50% della perdita, tornando attorno ai 9.000 dollari). Similmente, nel
periodo 2000-07 secondo l’indice Case-Shiller i prezzi delle case negli Stati Uniti
sono più che raddoppiati, ma fra luglio 2007 e luglio 2008 sono caduti del 20%.
Pertanto, dopo avere favorito alti tassi di crescita, la deregolamentazione e la
conseguente innovazione finanziaria ha aumentato la volatilità dei mercati ed
innalzato la probabilità di una crisi finanziaria. Le banche hanno infatti incominciato
ad operare in attività finanziarie precedentemente trattate solo dalle banche di
investimento; queste ultime hanno cominciato a prestare liquidità agli hedge funds
accettando azioni come garanzia del prestito; in tal modo, si trasformavano in aziende
creatrici di credito al pari delle banche commerciali, ma con la particolarità di venirsi
a trovare con una forte polarizzazione fra attività a lungo termine e passività a breve
termine.
172
La deregolamentazione presenta senza dubbio dei vantaggi: 1) la suddivisione
dei rischi su una vasta platea di risparmiatori ed operatori finanziari; 2) la maggiore
offerta di credito ad imprenditori e consumatori; 3) la diminuzione del costo del
credito. Il problema è che l’auto-regolazione del sistema bancario non è di norma
efficiente.
In primo luogo, una volta che banche commerciali e banche di investimento
hanno finito per condividere una lunga gamma di operazioni, nella struttura di attività
e passività il rischio di liquidità ha finito con il fondersi pericolosamente con il
rischio di solvibilità.
Figura 9. Le quotazioni di Wall Street (2006-2008): gli indici Dow Jones e
Standard and Poor’s
2007: US GDP growth: + 5%, does not explain Wall Street
capitalization: + 30% (3,5 trillions more than in 2006)
In secondo luogo, il mark-to-market, ovvero la regola di inserire in bilancio alla
quotazione di mercato le attività possedute, è un segnale troppo spesso ingannevole
173
della solidità della banca: allorché il mercato finanziario è soggetto ad una bolla il
mark-to-market determina una stima del valore delle attività gonfiata rispetto
all’effettiva profittabilità attesa.
In terzo luogo, l’assicurazione sui prestiti (i CDS, credit default swaps) era
determinata in base a modelli che prevedevano rendimenti distribuiti normalmente, il
che non trova riscontro nella realtà in mercati finanziari caratterizzati da una
crescente volatilità dei prezzi a causa dell’esposizione alle bolle speculative.
In quarto luogo, le agenzie di rating, dovendo valutare i bilanci delle banche alle
quali fornivano i CDS, non erano indotte ad attribuire il corretto “valore di merito”
alla banca, ma a segnalare una condizione migliore della realtà. Pertanto,
contrariamente alla teoria economica dominante, i mercati non sono efficienti,
essenzialmente per due motivi: 1) la nascita di bolle speculative è endemica ai
mercati finanziari; 2) i mercati finanziari non sono capaci di auto-regolarsi. La prova
che le agenzie di rating sono colluse con le banche da esse supervisionate è che –
contrariamente al Teorema di Modigliani-Miller - il mercato finanziario è più costoso
del mercato del credito. Se gli acquirenti di obbligazioni bancarie fossero state
correttamente informate riguardo alla effettiva probabilità di restituzione del prestito,
avrebbero domandato adeguati premi di rischio o riduzioni del prezzo delle
obbligazioni sufficienti ad equalizzare il costo dell’indebitamento nel mercato del
credito con quello del mercato finanziario. Chi non utilizza il leverage di
indebitamento sul mercato creditizio ma rispetta un valore prudenziale del rapporto
capitale/prestito non viene premiato ma penalizzato dal mercato finanziario. In teoria,
sia i risparmiatori che prestano alle banche che i governi potrebbero prevedere il
rischio addizionale cui vanno incontro nel caso in cui una banca scelga un rapporto
capitale/indebitamento troppo basso. I risparmiatori potrebbero chiedere un tasso di
interesse più alto sui prestiti alle banche oppure un tasso di rendimento più basso
sulle azioni ed i governi dovrebbero applicare una percentuale di tassazione più alta
sul mercato del credito. Quello che invece accade è che non si tiene conto
dell’assenza di informazione sulla probabilità di restituzione del prestito.
174
Secondo autorevoli economisti, non sospettabili di simpatie dirigiste, è
auspicabile il ritorno alla separazione fra banche commerciali e banche di
investimento. Le prime devono limitarsi a raccogliere depositi (o se li scambiano
attraverso il credito interbancario) a breve ed a trasformarli in un portafoglio di
attività prestando a lungo termine, senza cadere nella tentazione di effettuare la
securization dei prestiti erogati (la cartolarizzazione non annulla la natura dei prestiti
di rappresentare una passività, in quanto essa riemerge nel caso in cui si materializzi
il rischio di credito). Le seconde devono rinunciare a finanziarsi a breve presso le
banche commerciali ed operare mantenendo passività con eguale durata delle attività.
In quinto luogo, il funzionamento dei mercati finanziari è indebolito dalla
sottovalutazione della limited liability (d’ora in avanti, LL) degli azionisti: i creditori
delle corporations non hanno diritti da vantare sulle attività personali degli azionisti.
Il problema della LL porta alla sottovalutazione dei rischi, ovvero alla realizzazione
di progetti di investimento con un eccessivo grado di rischio. Gli investitori prendono
tutti i profitti dei loro investimenti in caso di successo, mentre se le cose vanno male
la loro perdita è limitata allo stock di capitale investito senza estendersi anche alle
loro proprietà. Questa asimmetria ha provocato l’assunzione di eccessivo rischio.
La LL venne introdotta negli Stati Uniti ed in Europa nel XIX secolo per
facilitare l’attività di finanziamento di progetti di investimento industriali che gli
imprenditori non avrebbero altrimenti potuto intraprendere. Gli imprenditori si
trasformano però in scommettitori in un mondo di enorme incertezza economica
come quello attuale. Il punto è che essi non dovrebbero essere nelle condizioni di
decidere autonomamente il grado di loro liability, e cioè di scegliere da soli quale sia
l’adeguato rapporto capitale/prestiti della loro corporation. Questa autonomia fa sì
che scelgano un rapporto troppo basso e che distribuiscono agli azionisti come
dividendi una quota troppo ampia dei profitti invece di accrescere il capitale. Le
banche di investimento US hanno operato con un rapporto del 4% in quanto non sono
state soggette alla stessa supervisione delle banche commerciali US (che infatti
operano con un rapporto di almeno il 7%).
175
In sesto luogo, a livello internazionale, la competizione fra i sistemi bancari ha
eroso la qualità dei prodotti finanziari a causa dell’informazione asimmetrica: il
risparmiatore non ha la possibilità di determinare la probabilità della restituzione del
proprio prestito. La competizione fra i sistemi bancari non può essere paragonata con
la competizione fra gli Stati, che si fanno concorrenza per attrarre capitali nei mercati
globali liberalizzati attraverso la riduzione della tassazione sul capitale. In
quest’ultima, infatti, è assente un sistema di regolamentazione. Tuttavia, la
regolamentazione bancaria non ha funzionato. Le banche hanno approfittato della
informazione asimmetrica ed hanno accresciuto la propria attività lasciando troppo
scarse riserve di capitale a garanzia dell’estinzione dei debiti assunti a fronte dei
prodotti venduti, hanno cioè venduto obbligazioni come collaterale del debito,
allungando la catena delle attività finanziarie collegate fra loro.
20. La diffusione dei mutui subprime e le cartolarizzazioni (securization)
I mutui subprime consistono in prestiti per acquisto casa che le banche degli Stati
Uniti hanno concessi a soggetti a basso reddito e/o occupazione precaria e quindi ad
alto rischio di non restituzione del debito (e dei relativi interessi). La forte crescita dei
mutui fu dovuta ad un comportamento miope (o forse sarebbe meglio dire azzardato)
delle banche. La continua salita dei prezzi delle case ha infatti indotto le banche a
considerare come un trend di crescita di lungo periodo quello che era semplicemente
un andamento ciclico crescente dei valori immobiliari innescato dalla politica
monetaria espansiva di Greenspan. Sia gli acquirenti delle case che le banche si
attendevano che un’eventuale insostenibilità del piano di restituzione del mutuo
avrebbe portato alla vendita della casa con un guadagno in conto capitale per chi è
costretto a rivendere la casa e nessuna perdita per la banca mutuataria. Alla crescita
del prezzo delle case, pertanto, si è accompagnata una crescente fiducia nella
virtuosità della strategia aggressiva di offerta di mutui a condizioni molto meno
stringenti di quanto il grado di rischio delle concessioni di prestito avrebbe richiesto.
176
D’altro canto, a mano a mano che i nuovi soggetti mutuatari si rivelavano essere a
sempre più basso reddito e capacità di sostenere il piano di ammortamento del mutuo,
aumentava anche il ricorso al trasferimento al mercato del rischio di credito (la
securization o “cartolarizzazione”).
Negli Stati Uniti, i mutui si distinguono in base alla seguente scala di rischio
crescente: Agency, Jumbo, Alt-A, Subprime. Queste due ultime categorie di mutui
sono concessi a soggetti definiti “non-prime borrowers” (vedi Tabella qui sotto):
Loans (Agency, Jumbo, Alt-A, Subprime) and Securization
Subprime
%
Alt-A
N. Secur.
N. Secur.
2001 190
87
46
60
11
2002 231 123 53
68
54
2003 335 195 58
85
74
2004 540 362 67 200
159
2005 625 465 74 380
332
2006 600 448 75 400
366
2007 191 275
Fonte: Inside Mortgage Finance
%
19
79
87
79
87
91
La cartolarizzazione dei mutui sub-prime consiste nella suddivisione di un
portafoglio di mutui in diverse tranche, ciascuna con un diverso grado di rischio.
L’efficienza nell’allocazione del rischio aumenta, perché gli acquirenti dei pacchetti
di tranche rappresentano un’ampia platea di investitori con diverso profilo di rischio.
La categoria più rischiosa – la tranche equity, solitamente piazzata ad hedge funds –
è stata abolita perché le perdite hanno raggiunto il 5% del portafoglio (impegnava
l’investitore a coprire il primo 5% delle perdite sul miliardo di mutui, a fronte di un
altrettanto elevato tasso di interesse sul capitale (30%)). La categoria meno rischiosa
è la tranche senior che permette di ricevere una AAA dalle agenzie di rating. Per
raggiungere lo stesso risultato, un portafoglio di mutui della categoria mezzanine (la
177
tranche attualmente più rischiosa) viene suddiviso e “impacchettato” assieme a
tranche di mutui di categoria meno rischiosa.
La cartolarizzazione di II livello consiste nella seguente operazione. Tranche
provenienti da differenti portafogli di mutui cartolarizzati vengono riunite in un
nuovo portafoglio, a sua volta diviso in tranche costruite in modo da generare
un’aggregazione di rischi eterogenei: il 60% di tali prodotti riesce ad ottenere un
rating AAA, cosicché il 90% dei mutui originari riesce ad ottenere AAA. Il
differenziale molto grande fra la rata dei mutui e i coupon consegnati dalle tranche
consente alle banche di pagare un tasso su titoli AAA ben più elevato di altri prodotti
e continuare ad ottenere un significativo margine.
L’offerta di obbligazioni “rappresentative” di quote di mutui venne presentata
dalle banche come un esempio delle virtù dei mercati: l’assorbimento di tali titoli da
parte del pubblico e delle istituzioni finanziarie (banche commerciali e banche di
investimento) avrebbe consentito la distribuzione del rischio su una vastissima platea
di soggetti istituzionali e non. Lo scoppio della bolla immobiliare avrebbe quindi
dovuto essere assorbito senza eccessivi problemi, in quanto il brusco calo dei prezzi
avrebbe colpito non poche grandi banche ma una miriade di acquirenti di piccoli
pacchetti di attività finanziarie legate ai mutui subprime. La grave crisi finanziarie
che è conseguita allo scoppio della bolla immobiliare ha tre principali cause: 1)
l’opacità delle attività finanziarie legate ai subprime: i derivati creati come tranche di
pacchetti di mutui subprime (CDO) ed i titoli derivati creati come tranche di titoli
derivati (CDO2) sono titoli troppo complessi perché se ne possa determinare con
precisione il valore di mercato; 2) l’incertezza crescente che ha investito l’attività
della moltitudine di istituzioni bancarie con CDO in portafoglio; 3) l’acquisto a
debito dei derivati ha comportato l’incremento vertiginoso del grado di leverage delle
banche: una volta iniziato il declino dei prezzi dei titoli, è aumentata la probabilità di
insolvenza delle banche ad alto leverage.
Se il valore delle passività eccede il valore delle attività, il capitale ha valore
negativo ed il rischio di insolvenza è elevato. Il processo di auto-aggravamento della
178
crisi bancaria ha una semplice spiegazione: il default di una categoria di titoli
particolarmente rischiosa provochi l’aspettativa di perdite sul lato delle attività;
quanto più esiguo è l’ammontare del capitale a sostegno dell’eccesso di passività su
un valore declinante delle attività, tanto maggiore è il rischio che la crisi di liquidità
si trasformi in vera e propria insolvenza.
Il
modello
“originate
and
redistribute”
prevedeva
che
le
banche
“impacchettassero” i mutui di diverso grado di rischio da esse creati attraverso
special purpose vehicles (SIV), branche esterne al bilancio delle banche che
detenevano larghe posizioni in asset-backed securities (ABS), che nel caso dei titoli
dei mutui subprime prendevano il nome di mortgage-based securities (MBS). Le SIV,
che si finanziavano con linee di credito ottenute nel mercato dei prestiti a breve
termine, acquisirono un’ampia liquidità allo scopo di ottenere una valutazione AAA
delle agenzie di rating. La solvibilità dei titoli ABS e MBS creati dalle banche e
venduti sul mercato finanziario interno ed internazionale dipendeva dai piani di
rientro della liquidità prestata ai mutuatari. Quando il prezzo delle case cominciò a
calare, si diffuse la sfiducia nei MBS, le banche incontrarono difficoltà nel
rifinanziare i MBS, ed anche il mercato degli ABS venne investito da una crescente
incertezza. Il collasso del mercato dei prestiti a breve termine negli USA nell’estate
del 2007 obbligò le banche a fare rientrare nei loro bilanci i portafogli di ABS delle
rispettive SIV. L’innovazione finanziaria dei CDS venne utilizzata per assicurare il
rischio sulle ABS, in modo da mantenerle nei propri bilanci ma liberarsi del rischio
sui prestiti. Ciò creò nelle banche l’illusione di un basso grado di rischio della propria
attività. D’altro canto, chi sottoscrive un CDS relativo al fallimento di una società cui
ha prestato un milione di dollari non deve – a differenza di quando acquista
un’obbligazione - pagare nulla oggi. Il che ha naturalmente portato ad una enorme
crescita dell’assunzione di rischio attraverso i CDS.
La diffusione dei derivati in un grande numero di banche di vari paesi,
nell’accrescere l’integrazione fra i mercati finanziari, ha anche aumentato il rischio
sistemico. Gli ABS venivano anche venduti sui mercati finanziari internazionali. Data
179
la scarsa trasparenza sul contenuto degli ABS e dei MBS, alla iscrizione in bilancio
dei titoli precedentemente collocati nei SIV si accompagnò una grave crisi di fiducia.
L'instabilità sistemica non nasce dal fatto che un intermediario o un fondo possa non
rimborsare i denari ricevuti dagli investitori, infliggendo loro delle perdite. Nasce
quando su tali passività vi è una garanzia esplicita o implicita di restituzione a vista
senza perdite - che è appunto la caratteristica dei depositi bancari. Le banche sono
sottoposte a vincoli prudenziali proprio perché, accettando passività garantite, li
impieghino a scadenza più lunga con oculatezza; a garanzia dei depositanti, devono
tenere adeguati cuscinetti di capitale, cui ricorrere per soddisfare le richieste di
rimborso dei depositanti.
Un modo per superare una crisi di liquidità è la vendita di attività finanziarie.
Anche nelle banche di investimento con forte debito a breve, la richiesta dei creditori
di ripagare questi crediti costrinse a liquidare rapidamente parte dell'attivo,
sopportando grosse perdite. A parità di leva finanziaria, la quantità di debito a breve è
un forte meccanismo d'instabilità sistemica. La decumulazione di attività fa infatti
scendere la valutazione di mercato delle stesse banche, in quanto la caduta del valore
delle attività finanziarie possedute dalle banche potrebbe trasformare una crisi di
liquidità in crisi di insolvenza. I governi potrebbero perciò sentirsi obbligati ad
accrescere i fondi destinati alla ricapitalizzazione delle banche. L’ingente sostegno
finanziario dei governi alle banche ha il risvolto negativo di sostituire debito privato
con debito pubblico.
Le banche a rischio di insolvenza vedono crollare la loro affidabilità, e perciò
trovano crescente difficoltà nel reperire il nuovo credito necessario per aumentare il
tasso di capitalizzazione (il rapporto valore delle attività/valore delle passività). La
vendita di attività rischiose causa un caduta del loro prezzo; a sua volta, cade anche il
prezzo di attività finanziarie simili, che condividono il problema di una difficile e
incerta valutazione. Tutte le istituzioni finanziarie gravate da titoli di incerto valore,
ed anche le banche solvibili che posseggono in portafoglio tali attività con valore in
ribasso, vengono trascinate nella crisi. Infatti, la diffusione del panico fa sì che anche
180
le banche più solide siano colpite dal ritiro dei depositi e debbano vendere attività
finanziarie. Ciò che accadde negli anni 30, però, non avrebbe dovuto ripetersi oggi,
perché dopo la Grande Depressione seguita al crollo di Wall Street del ‘29 vennero
attuate le tre grandi riforme prima ricordate (1) la funzione di prestatori di ultima
istanza delle banche centrali; 2) l’assicurazione dei depositi fornita dai governi; 3) la
regolamentazione bancaria, quale ad esempio la separazione dal lungo termine delle
banche commerciali introdotto negli Stati Uniti nel 1933 con il Glass-Steagall Act).
La perdita di valore delle attività in portafoglio che si determina nel corso di
una crisi finanziaria è un incentivo per le banche di investimento a fare fronte ai
pagamenti ed alla richiesta di restituzione dei crediti e per le banche commerciali a
reagire alla “corsa” al ritiro dei depositi (anche quando il governo ha stabilito la
garanzia pubblica sui depositi) frenando i prestiti interbancari piuttosto che
ricorrendo alla onerosa vendita delle proprie attività a prezzi in continuo calo. Il
prosciugarsi dell’importante fonte di liquidità rappresentata dal credito interbancario
si è ripercossa sulla economia reale sotto forma di restrizione del credito ad imprese e
famiglie. Il razionamento del credito è stata una delle cause che hanno portato alla
trasformazione della crisi finanziaria in crisi economica.
Il limite della visione di regolamentazione denominata Basilea2 è consistito
nell’avere adottato l’ipotesi di mercati dei capitali efficienti. Ciò ha consentito alle
banche di individuare il capital ratio che massimizzasse i profitto anche al costo di
incrementare il grado di rischio della propria attività. Dal momento che tale grado di
rischio non è quantificabile, a causa delle bolle che nascono continuamente in mercati
dei capitali imperfetti, le banche sono state incentivate all’azzardo morale, e cioè
all’aumento del grado di rischio. Ciò induce a ritenere che per evitare nuove crisi non
sarà sufficiente aumentare il rapporto di capitalizzazione delle banche rispetto alla
normativa di Basilea2. Nessun livello di capitale per fare fronte alle crisi di liquidità
può evitare che lo svilupparsi della crisi con la discesa dei valori delle attività
finanziarie possa trasformare una crisi di liquidità in crisi di solvibilità. E’ in primo
luogo l’attività delle banche a dovere essere oggetto della regolamentazione bancaria.
181
Le banche dovrebbero essere incentivate a legare la durata delle proprie passività alla
durata delle loro attività, le banche di investimento non dovrebbero procedere al
finanziamento con credito a breve termine delle attività a lungo termine e quindi
meno liquide.
Pertanto, una nuova crisi finanziaria può essere evitata solo con interventi
strutturali che ripristini la separazione fra banca commerciale e banca di
investimento, impedendo la securization dei prestiti, il modello “originate and
distribute”. Riassumiamo la formazione di una piramide di titoli derivati che
contengono altri titoli. La cartolarizzazione, infatti, fa giungere alle banche liquidità
che viene reinvestita in nuovi prestiti, cui fa nuovamente seguito la securization. I
mutui subprime sono stati aggregati negli structured investment vehicle (SIV) e
frazionati per ottenere un AAA; sono state poi emesse obbligazioni di debito
collateralizzato (CDO), frazionato nuovamente in AAA, e collocate prevalentemente
nei portafogli di istituzioni non-levered, come banche centrali, fondi sovrani, fondi
pensione, etc, ma detenute anche dal settore levered (banche domestiche ed estere)
per la loro caratteristica di attività “sicure”. Le tranche di AAA erano però troppo
larghe rispetto alla capacità dei sottostanti strumenti rischiosi di giustificare una
valutazione così lusinghiera. Le banche commerciali hanno preso troppo a prestito
per comprare attività tossiche. Istituzioni ad alto leverage detenevano attività molto
vulnerabili, perché l’assenza di informazione sul loro contenuto le rendeva attività
caratterizzate da incertezza piuttosto che da rischio assicurabile (Caballero and
Krishnamurthy 2008a). Di conseguenza, il verificarsi di illiquidità dovute ad un
eccessivo leverage diffonde la sfiducia, inceppa il meccanismo dei prestiti
interbancari e finisce per generare il blocco dell’attività creditizia.
Quando un’ondata di pessimismo induce i depositanti a ritirare la propria
liquidità, le banche incorrono in una crisi di liquidità. Quando la caduta della fiducia
è originata da prestiti che non vengono restituiti alle banche la situazione è ancora più
grave, perché le banche incorrono in una crisi di insolvenza. Ciò accade quando per
fare fronte ai propri debiti la banca vende attività. La decumulazione di attività dai
182
portafogli contribuisce però a deprimere i corsi delle azioni. Una crisi di insolvenza
che travolge alcune banche può infatti contagiare anche le banche sane se la caduta di
fiducia si generalizza. Le banche sane rischiano al pari delle banche fortemente
indebitate un massiccio ritiro di depositi. Ciò le costringe a vendere attività di loro
proprietà. L’eccesso di offerta di attività sui mercati provoca la riduzione dei prezzi
azionari e quindi anche della quotazione di borsa delle banche sane. In tal modo, la
crisi di insolvenza si diffonde dalle banche colpite da mancata restituzione dei prestiti
alle banche sane.
Poiché lo scoppio di una bolla speculativa interrompe la catena fiduciaria fra
debitori e creditori, il processo di propagazione della crisi finanziaria ha l’effetto di
bloccare il processo di moltiplicazione del credito. Non essendo più in grado di
ricevere credito, le banche sono costrette a ridurre drasticamente la concessione di
credito all’economia e alle altre banche. La riduzione dell’attività di intermediazione
ha quindi prodotto un processo di deleveraging, ovvero una riduzione del rapporto fra
fondi presi a prestito e capitale proprio. Il problema è che il deleveraging rischia di
non fermarsi e può quindi sfociare in una grave recessione.
La svalutazione dei prezzi delle attività possedute ha pericolosamente ridotto la
capitalizzazione delle banche, costringendo le banche centrali ad un’immissione di
liquidità diretta ad impedire i fallimenti bancari, ed i governi ad offrire la garanzia
non solo sui depositi dei risparmiatori ma anche sul prestito interbancario. In tal
modo, si è impedito un collasso completo della fiducia di una banca nella solvibilità
della banca che le chiede prestiti, ed evitato che si bloccasse completamente il
meccanismo di trasmissione della liquidità all’interno del settore bancario, con grave
nocumento per il finanziamento delle imprese.
In alcuni casi, si è reso necessario procedere alla ricapitalizzazione o alla
nazionalizzazione delle banche. Un problema dell’attuale fase di ristrutturazione del
sistema bancario è che le fusioni indotte dalla necessità di evitare il fallimento di
alcune banche ha determinato un innalzamento ulteriore della dimensione media, il
che rende meno credibile il ripudio annunciato dalle autorità monetarie e governative
183
del principio “troppo grande per fallire” che aveva indotto numerose banche ad
accrescere il grado di rischio delle proprie operazioni.
I prodotti delle banche insolventi sono stati definiti lemons (bidoni) perché la
cartolarizzazione ha fatto sì che la banca venditrice di tali prodotti finanziari
sfruttasse la mancanza di informazione dell’acquirente riducendone la qualità. In tal
modo, il risparmiatore acquirente di tali CDO si è trovato nell’impossibilità di
stabilire il valore di credito (l’affidabilità) dei clienti all’inizio della catena del
prestito (ad esempio, coloro che hanno sottoscritto i mutui sub-prime). D’altro canto,
negli Stati Uniti chi domandava un mutuo sulla casa sapeva che in caso di insolvenza
avrebbe dovuto dare soltanto alla banca le chiavi di casa, senza alcuna penalità
ulteriore. Questo ha fatto sì che anche dal lato della domanda di mutui si sia scelto di
aumentare il grado di rischio.
La propensione a finanziare acquisti di attività finanziarie a lungo termine con
ingenti quantità di credito a breve termine rappresenta un grave comportamento di
azzardo morale che allontana i mercati da un corretto funzionamento. Infatti, gli
agenti razionali reagiscono riducendo il proprio grado di fiducia, con conseguenze
negative sulle transazioni in beni ed in titoli; e gli agenti che sono invece più inclini a
seguire i “sentimenti” dei mercati finanziari adottano un comportamento “imitativo”
e si accodano al “gregge” che spinge la corrente ascensionale dei prezzi delle attività
finanziarie, senza tenere conto che le quotazioni eccedono di gran lunga i rendimenti
attesi. L’ingente indebitamento dello Stato che consegue ai salvataggi delle banche è
nient’altro che la conseguenza dell’avere consentito l’eccezionale indebitamento
delle grandi istituzioni finanziarie che accumulavano attività usando la leva dei
finanziamenti a breve termine confidando - esattamente come le banche concedevano
mutui ad elevata rischiosità confidando che la salita dei prezzi delle case non si
sarebbe esaurita - sull’illusione che la crescita economica non avrebbe avuto fine, e
che prezzi dei prezzi delle attività finanziarie in continuo incremento fossero
sostenibili.
184
Gli squilibri macroeconomici globali sono stati indirettamente favoriti dalla
carenza di regolamentazione dell’attività bancaria. Infatti, le attività di investimento
negli Stati Uniti sono state finanziate in maniera crescente attraverso l’indebitamento
estero (la vendita all’estero di attività finanziarie) invece che attraverso il risparmio.
L’eccesso di importazione sulle esportazioni, che ha raggiunto un picco del 5,5% del
PIL, è stato finanziato con prodotti finanziari il cui valore si è rivelato non
corrispondente al rating attribuito dalle agenzie agli istituti emittenti. D’altro canto, la
regolamentazione europea ha varato il Basilea2 ma non ha modificato la
regolamentazione sul calcolo dei rischi. Le banche continuano ad operare sulla base
dei modelli di rischio commerciale invece che su modelli di rischio sistemico e non
richiedono alcun coefficiente di riserva di capitale sulle attività off-shore.
Riassumiamo brevemente alcuni aspetti centrali dell’analisi fin qui svolta. Il
giudizio complessivo sulle origini della crisi finanziaria chiama in causa la teoria dei
“fallimenti del mercato”. La scarsa e difettosa regolamentazione dei mercati
finanziari ha provocato una grave sottostima dei rischi insiti nella creazione di
derivati. Molti intermediari hanno costruito strumenti finanziari di cui non erano in
grado di valutare il grado di rischio hanno preso eccessivi rischi ignorando il rischio
sistemico, ovvero la rapida propagazione dell’insolvenza da un operatore all’altro. Il
modello “originate and distribute” separa la concessione del prestito dalla decisione
di investimento finanziario, determinando così problemi di azzardo morale. Le
agenzie di rating sono incorse nel conflitto di interessi L’elevata remunerazione dei
managers ha creato la tendenza allo short-termism, ovvero la strategia di accelerare il
conseguimento di elevati utili, in modo da avvantaggiarsi dell’incremento probabile
nelle quotazioni di borsa. La regolamentazione ha fallito nel permettere alle banche di
accumulare passività al di fuori del proprio bilancio e di tollerare una crescita
eccessiva dei prestiti nel grado di leverage (attività totali / capitale degli azionisti) e
nel calcolare il value at risk degli intermediari finanziari su base individuale,
escludendo il rischio sistemico. D’altro canto, le cause della crisi finanziaria non
possono neppure essere circoscritte al mercato dei sub-prime, la cui dimensione
185
(3.000 dollari) è una piccolissima quantità rispetto al totale delle attività mondiali
(80 trilioni di dollari). L’effetto di amplificazione della crisi è stato indotto da tre
fattori: 1) la deregolamentazione bancaria ha sortito la conseguenza di amplificare i
cicli economici positivi; 2) la prociclicità del leverage a causa dei vincoli imposti dal
grado di leverage delle banche; 2) la necessità di calcolare il valore delle attività in
base alla quotazione di mercato (nel caso una perdita sull’investimento provochi una
crisi di insolvenza che erode il capitale della banca commerciale o di investimento, il
vincolo sull’adeguatezza di capitale impone di vendere attività per ottenere liquidità.
Vendite forzate producono però crolli dei prezzi di borsa che hanno a loro volta
l’effetto di peggiorare i conti delle banche con conseguente ulteriore ricorso a vendita
di attività. L’opposto accade durante un boom: l’aumento di valore del proprio
portafoglio induce le banche ad accrescere la propria attività rifornendosi in base ad
una sorta di “effetto ricchezza”. Un motivo per cui si afferma oggi che la politica
monetaria esageratamente espansiva per un numero troppo alto di anni sia stata
dissennata: un innalzamento dei tassi di interesse durante un ciclo economico
espansivo non si consiglia soltanto per spegnere sul nascere tensione di aumento dei
prezzi dei beni, ma anche per impedire che la salita delle quotazioni di borsa faccia
sentire più ricchi gli intermediari finanziari e quindi generi un aumento della
domanda di prestiti che si riflette nella nascita di bubbles.
21. Il ruolo degli Hedge Funds
Gli Hedge Funds sono pool formati da un piccolo numero di investitori che hanno
costruito un fondo che gestisce un portafoglio di attività finanziarie e sono molto
attivi nei mercati dei titoli derivati. Il loro numero è passato da 3500 a 10000 dal
1999 ed il 2008. La regolamentazione degli Hedge Funds è molto leggera, cosicché
l’assunzione di rischio è elevata. Anche l’introduzione del divieto di detenere
posizioni corte (short selling) ha causato un incremento della volatilità ed una
riduzione della liquidità del mercato, ma non ha portato alla stabilizzazione dei valori
186
delle attività finanziarie. Gli HF operano con un alto leverage: le strategie a basso
rischio utilizza un grado di leva pari a 10 volte il capitale; a un grado di rischio più
elevato corrisponde un grado di leva pari a 2 volte il capitale. Una tipica operazione
consiste nella vendita di titoli allo scoperto, che permette di lucrare – al momento in
cui vengono acquistati nel mercato, allo scopo di consegnarli agli acquirenti - il
differenziale fra il loro valore corrente ed il minore valore che la speculazione al
ribasso ha permesso di conseguire. Molti HF forniscono al proprio broker solo una
quota del capitale, prendendo a prestito liquidità per la restante parte dietro garanzia
di titoli. Se però il valore dell’investimento scende al di sotto di una certa soglia, il
broker ha diritto di liquidare parte dei titoli per rientrare nel margine. Se i titoli
risultano essere illiquidi, la discesa del prezzo si ripercuote un una perdita che si
traduce in una perdita di valore del portafoglio sottoscritto dagli investitori. Inoltre,
poiché operano su mercati molto sottili, eventuali vendite forzate danno luogo a un
aggravamento reciproco della solvibilità di HF accomunati da strategie simili.
Pertanto, il ricavato dei titoli venduti allo scoperto permette all’HF di pagare il loro
acquisto per consegnarli all’acquirente lucrando un profitto speculativo. Tuttavia, se
l’investitore non vuole subire la discesa del prezzo procurata dalla vendita, i titoli in
garanzia vengono venduti: quanto maggiore è il capitale preso a prestito dall’HF,
tanto maggiore è la perdita del valore capitale dato in garanzia per la posizione
debitoria aperta per acquistare i titoli da consegnare all’acquirente-investitore.
Qual è stato il ruolo degli Hedge Funds in questa crisi finanziaria? L’opinione
degli economisti si divide fra coloro che ritengono queste istituzioni finanziarie del
tutto estranee allo scoppio delle bolle immobiliare e finanziaria, chi li ritiene
colpevoli della gravità degli effetti, ovvero della profondità della crisi che ha colpito
il sistema bancario, e chi li considera direttamente all’origine della crisi finanziaria.
La terza tesi può essere così argomentata. Negli ultimi anni ’90, il tasso di
rendimento degli Hedge Funds aveva raggiunto la ragguardevole cifra del 20%. Le
banche furono soggette alla pressione di dovere mettersi in grado di raggiungere lo
187
stesso risultato. Nel perseguire l’obiettivo di innalzare il tasso di rendimento sui
capitali i manager fanno riferimento alle seguenti equazioni:
(1)
R’ = α E’ + (1 – α )i
(2)
E’ = (1/ α) R’ - [(1- α) / α] i
(3)
E’ = (1 / α ) R’ - [(i / α) – i ]
(4)
E’ = i + (1/ α) (R’ – i)
La banca può accrescere i propri profitti sfruttando il differenziale R’ – i. La
strategia consiste nell’abbassare il rapporto fra capitale e titoli (α); in alternativa, la
banca può accrescere il differenziale R’ – i.
E’ opportuno ricordare che nell’ipotesi di mercati dei capitali efficienti è
implicita l’accettazione del Teorema di Modigliani-Miller, secondo il quale il saggio
di rendimento del capitale non è influenzato da quale sia la fonte di finanziamento, il
credito bancario oppure l’emissione di azioni. La strategia di elevare il leverage (una
riduzione di α) provocherà un aumento del tasso di interesse praticato dalla banca che
finirà per compensare l’ abbassamento del rapporto fra capitale ed indebitamento (α).
L’incremento del premio per il rischio della banca neutralizzerà l’impatto del più
basso α. Se però i mercati dei capitali sono imperfetti, con α = 1/10, i = 5% ed R’ =
6%, la banca può aumentare l’iniziale saggio di rendimento sulle attività (15%)
innalzando il leverage.
Il rapporto
capitale/indebitamento si ridurrà a 1/20, cosicché il saggio di
rendimento crescerà dal 15% al 25%: da E’ = 5% + 10% (1) si passa a E’ = 5% +
20% (1). In alternativa, la banca potrebbe lasciare invariato α = 1/10 e ampliare il
differenziale dall’1% al 2%: E’ = 5% + 10% (2).
188
Tuttavia, considerando che il tasso di interesse nominale ingloba il tasso
di inflazione atteso (con aspettative razionali: π = πe , l’equazione di Fisher è: i = r +
π), e che nel lungo periodo si deve realizzare l’eguaglianza fra tasso di crescita e
tasso di interesse reale (G = r), l’obiettivo di un saggio di rendimento del 25% è poco
realistico. Il saggio di rendimento E’ = E’ – π è dato da:
E’ = gY + (1/ α ) [R’ – (gY + π )]
Ponendo R’ = R’ - π , possiamo scrivere il saggio di rendimento E’ in funzione
di R’ (…):
E’ = [1 – (1/ α )] gY + [1/ α] R’ ( Z, gY , A)
Assumendo per semplicità che il saggio complessivo di rendimento sul capitale R’
dipenda dal premio per il rischio Z della banca “rappresentativa” (che corrisponde al
saggio di crescita del mercato, supposto pari al tasso di crescita del reddito gY),
considerando il tasso di progresso tecnico (A) , abbiamo: R’ = q’Z + q’’ gY + q’’’A
(con q’,q’’, q’’’ > 1), per q’>1 si ottiene che la produzione ha sempre un impatto
positivo su E’:
E’ = [1 – (1/ α ) (1-q’)] gY + [1/ α ] q’Z + q’’’A
In un periodo di forte crescita del progresso tecnico A, il saggio di rendimento
della banca rappresentativa cresce, dato il premio per il rischio Z. Se il saggio di
rendimento deve essere eguale al tasso di interesse sui titoli pubblici privi di rischio
più il premio per il rischio (il premio moltiplicato per la varianza delle quotazioni di
borsa). Se il tasso di interesse sui titoli pubblici è pari al 4%, ed il saggio di
rendimento richiesto sul capitale è pari al 25%, il management della banca deve
impegnarsi in progetti di investimento con un premio per il rischio che in media sia
189
pari al 21%. In Europa, le banche furono così costrette ad accrescere il leverage e ad
aggirare il vincolo sul minimo rapporto capitale/indebitamento imposto da Basilea2
ponendo le attività finanziarie rischiose in strutture fuori bilancio (i SIV).
Basilea1 aveva imposto un basso coefficiente di rischio sui prestiti delle banche
commerciali alle banche di investimento, invogliando le prime a trasferire attività
rischiose fuori bilancio. Poiché i crediti interbancari, a differenza dei depositi, non
sono garantiti dallo Stato, l’espansione del credito generata attraverso il mercato
interbancario accrebbe la rischiosità dei bilanci delle banche commerciali.
190
Parte Terza. La crisi dell’Eurozona
1. Squilibri macroeconomici globali
Mentre la volatilità del reddito è molto diminuita negli anni della “Grande
Moderazione”, le
crisi finanziarie sistemiche sono state numerose: le “big five
financial crisis” (Reinhardt-Rogoff, 2008) delle economie avanzate (Spagna 1977,
Norvegia 1987, Finlandia, 1991, Svezia, 1991, and Giappone, 1992), la crisi di
Colombia (1998) ed Argentina (2001) e le crisi asiatiche (Hong Kong, Indonesia,
Malaysia, Filippine, e Thailandia).
Il nesso fra la crisi finanziaria 2007-09 e gli squilibri macroeconomici internazionali
è dimostrato dal fatto che contestualmente alle maggiori crisi finanziarie si sono
verificate forti deviazioni dei tassi di cambio dai valori dell’equilibrio di lungo
periodo. Nell’attuale crisi, questo nesso è la risultante di tre fattori: 1) La crescita
continua senza oscillazioni cicliche rilevanti conosciuta dagli Stati Uniti ha indotto un
esagerato grado di ottimismo ed una minore avversione al rischio; 2) la politica
monetaria espansiva della Fed ha stimolato le banche a sfruttare i bassi tassi di
interesse per accrescere a dismisura il loro grado di leverage; 3) l’atteggiamento di
benign neglect con cui le banche centrali ed istituzioni internazionali (IMF,WB)
hanno guardato a tali squilibri ha consentito che si prolungassero le deviazioni dal
valore di lungo periodo PPP dei tassi di cambio reali di valute le cui economie hanno
un notevole rilievo nel commercio internazionale.
L’equilibrio macroeconomico consiste della soma algebrica dei bilanci dei settori
private, pubblico ed estero. Nel caso il risparmio ecceda l’investimento, il flusso in
eccesso viene trasmesso dai mercati finanziari al settore pubblico per coprire un
deficit (l’eventuale eccesso di spesa pubblica sulla tassazione: G>T) e/o per
permettere agli operatori esteri di pagare l’eccesso di importazioni (i beni esportati
dal paese stesso in eccesso rispetto alle proprie importazioni:X>M)
191
Nel caso in cui sia l’investimento a sopravanzare il risparmio (S < I), l’eccesso di
domanda interna deve essere compensato da un surplus del bilancio pubblico (G < T)
e/o di capitali provenienti dall’estero. (un eccesso di importazioni sulle importazioni:
X < M). In altri termini, i flussi di capitale finanzieranno l’eccesso di spesa pubblica
sulla tassazione (il deficit pubblico interno) e/o l’eccesso di importazioni sulle
esportazioni.
Gli Stati Uniti sono un caso speciale: come paese che “vive al di sopra dei propri
mezzi”, il deficit del settore privato viene coperto dagli investitori esteri, il cui
apporto di capitali non solo consente di acquistare le importazioni nette, ma va ad
acquistare il debito pubblico emesso a fronte del deficit pubblico (l’eccesso della
spesa pubblica sulla tassazione).
Un eccesso di risparmio sull’investimento è cosa positiva o negativa? E’ cosa positiva
se è utilizzato dai pensionati all’acquisto di attività finanziarie o di fondi pensione,
oppure se le imprese investono i propri profitti all’estero a causa dei più alti profitti
attesi; negativa se riflette la necessità di assicurazione dei lavoratori rispetto ai rischi
microeconomici o macroeconomici in un paese con un ristretto Stato sociale (un
esempio è la China).
Non è facile stabilire se una crescita export-led sia cosa positiva o negativa (ad
esempio, Cina e Germania) dsl momento che sottrae domanda ai principali
competitori (gli Stati Uniti e gli altri paesi dell’Unione Europea). I regimi di cambio,
gli accordi commerciali e le politiche macroeconomiche contano. Gli Stati Uniti
hanno conosciuto nel 1996-2000 un boom delle quotazioni di borsa (trainato dalle
azioni high-tech) che ha sostenuto le decisioni di investimento; nel 2000-2008 hanno
conosciuto un deficit pubblico del 6% (per i 3/4 causato dai tagli alle tasse sui redditi
alti introdotti da Bush) ed un deficit commerciale del 6%. Tali “deficit gemelli” sono
spiegati nel modello Mundell-Fleming come l’esito di un elevato tasso di interesse
che attrae capitali dall’estero, con conseguente apprezzamento reale ed eccesso delle
importazioni sulle esportazioni (il surplus commerciale della Cina fu pari all’11% nel
2006. L’eccesso di riserve internazionali viene accumulato per i tradizionali scopi
192
precauzionali, oppure viene destinato all’acquisto di titoli pubblici sicuri, come i titoli
emessi dagli Stati Uniti, il paese emittente della valuta utilizzata come principale
mezzo di pagamento internazionale). Il processo di deregolamentazione dell’attività
bancaria, rapidamente estesosi dagli Stati Uniti all’Unione Europea ed all’Asia, fu
all’origine di un’enorme crescita del credito in paesi come Spagna ed Irlanda (dove
l’inflazione superiore alla media dei paesi UME rendeva il già basso tasso di interesse
vicino allo zero in termini reali) e la nuova bolla (questa volta anche immobiliare)
negli Stati Uniti accrebbero l’instabilità macroeconomica. La crisi finanziaria 200709 ha progressivamente ridotto il deficit commerciale, ma il debito pubblico è
aumentato a causa della spesa sostenuta dal Tesoro USA per ripianare i debiti delle
banche. Infine, i rapporti deficit/PIL e debito pubblico /PIL sono saliti notevolmente
anche per il passaggio a valori negativi dei tassi di crescita. La caduta della
produzione è anche comportato la caduta dell’occupazione: dal 2007 al 2009 il tasso
di disoccupazione è cresciuto nei paesi avanzati di 14,3 milioni e nei paesi emergenti
di 8 milioni. L’aspetto più preoccupante è che si prevede che il tasso di occupazione
precedente la recessione verrà recuperato soltanto nel 2015, con la conseguenza che
un gran numero di disoccupati non rientrerà nel mercato del lavoro (il 37% della
disoccupazione viene infatti considerata di lungo periodo).
La crisi è stata affrontata negli Stati Uniti con il sostegno finanziario del Tesoro alle
banche in crisi e con la politica monetaria espansiva della Fed diretta a rimettere in
moto il circuito del credito interbancario, che era stato bloccato dalla caduta della
fiducia di ciascuna banca nella solvibilità della banca che le chiedeva un
finanziamento di liquidità. Queste forti immissioni di liquidità hanno aiutato famiglie
ed imprese a dare inizio alla riduzione del loro indebitamento privato. Tuttavia, la
necessità per le banche di aggiornare il valore del loro attivo in attività finanziarie in
base agli attuali prezzi di mercato rende difficile accrescere il credito. Inoltre, la crisi
finanziaria ha grandemente intaccato il venture capital. La domanda interna ristagna
anche perché la caduta dell’occupazione è stata maggiore rispetto ai paesi europei,
non solo per la minore protezione dei posti di lavoro tipica del mercato del lavoro
193
flessibile degli Stati Uniti, ma anche perché ad essere fortemente colpito dalla
recessione è stato il settore edile che è quello a maggiore intensità di lavoro (il tasso
di disoccupazione USA ha raggiunto nel 2010 il 9,6%. Del resto, è stato calcolato che
nelle passate crisi economiche il deleveraging ha richiesto in media sette anni
(Reinhardt e Rogoff, 2008).
L’incremento del deficit e del debito pubblico causato dai programmi di stimolo
fiscale ha permesso la ripresa economica nel breve periodo. ll riequilibrio strutturale
dei bilanci pubblici e privati richiede però che si realizzino entrambe o almeno una
delle seguenti due condizioni: 1) l’incremento del tasso di risparmio; 2) l’incremento
delle esportazioni nette. Dal 2008 al 2010, la propensione al risparmio è già
aumentata dal 2,7% al 6%. Le esportazioni non sono però aumentate a sufficienza, in
quanto la competitività delle merci USA sui mercati in forte espansione (quelli dei
paesi emergenti) è possibile solo mediante la rivalutazione delle valute di quei paesi,
in primo luogo attraverso una forte svalutazione del dollaro rispetto al renmimbi.
194
I paesi che perseguono una crescita export-led sono interessati ad evitare afflussi di
capitali, in quanto l’eccesso di domanda di valuta interna (in cambio della cessione di
valuta estera incassata con le esportazioni) ne provoca l’apprezzamento nei mercato
valutario. Inoltre, benché presenti il vantaggio di frenare le esportazioni ed indebolire
la valuta (il che aiuta la ripresa delle esportazioni), la conversione dei capitali in
valuta interna rischia di creare pressioni inflazionistiche. In alternativa, i capitali
possono essere esportati. I capitali in entrata come pagamento delle elevate
esportazioni cinesi in parte vengono accumulati come riserve internazionali, in parte
entrano nel portafoglio dei fondi sovrani cinesi, e in parte sono destinati all’acquisto
di titoli pubblici (soprattutto le emissioni del Tesoro USA).
Il
restringimento
degli
squilibri
macroeconomici
globali
rappresenta
un
miglioramento paretiano. Il motivo è che gli afflussi di capitale nei paesi avanzati si
riflettono in investimenti che non saranno altrettanto redditizi di quanto sarebbero
investimenti effettuati in paesi emergenti nel caso in cui verso questi paesi venissero
ri-orientati in seguito al riequilibrio dei flussi commerciali. L’aspetto negativo
consiste nella reazione dei paesi in deficit commerciale, che potranno ricorrere a
misure protezionistiche (le tariffe commerciali, utilizzate dagli Stati Uniti), oppure
alla manipolazione del mercato dei cambi (la manovra al ribasso della sterlina svolto
195
dal Regno Unito) oppure al controllo dei movimenti di capitale (la tassazione sugli
afflussi di capitale effettuata dal Giappone e dalla Tailandia).
Le due figure (vedi i due grafici sopra) testimoniano i divari di bilancia commerciale
che caratterizzano le relazioni economiche fra le varie aree economiche. Nel secondo
grafico, si nota in particolare come la Germania abbia un notevole surplus
commerciale, mentre i paesi dell’Unione Europea compaiono nell’aggregato “resto
del mondo” in leggero deficit dei conti correnti.
Pertanto, un’eventuale divergenza (positiva o negativa) fra risparmi (S) ed
investimenti (I) nel settore privato viene annullata dalla somma algebrica di eventuali
divari fra le spesa pubblica e le entrate fiscali (T) nel settore pubblico e fra
importazioni (M) ed esportazioni (X) nel settore estero:
S - I = (G - T) - (X – M)
L’economia degli Stati Uniti ha a lungo vissuto “al di sopra dei propri mezzi”. Gli
Stati Uniti, prima della crisi finanziaria 2007-09, si registrava sia un eccesso degli
investimenti rispetto ai risparmi che il deficit commerciale ed il deficit pubblico. Le
istituzioni private (banche, etc.), i fondi sovrani e le Banche Centrali di Cina,
Giappone, India e Sud-Est Asiatico sono i principali acquirenti dei titoli emessi da
imprese private e dal Tesoro degli Stati Uniti a fronte di tali deficit. Gli Stati Uniti si
sono sempre più caratterizzati come un’economia del debito: il settore privato (dove
le banche figurano in un unico aggregato con le imprese produttrici di beni) era in
forte deficit perché i consumatori hanno accresciuto il proprio indebitamento con le
banche (l’esempio tipico sono i mutui subprime) e le imprese private hanno
finanziato con emissioni di attività finanziarie i loro eccessi di spesa; il settore
pubblico, dopo avere quasi raggiunto a fine anni ‘90 il pareggio di bilancio, ha
ripreso a creare deficit ed ha perciò accresciuto la vendita del debito pubblico,
soprattutto all’estero.
196
Il potenziale economico degli Stati Uniti, e la funzione finora svolta dalla sua Banca
centrale di creare la valuta che è il principale mezzo di pagamento internazionale,
hanno fatto sì che il dollaro abbia goduto di una notevole credibilità finanziaria e di
non essere indebolito sui mercati valutari da tali squilibri macroeconomici. Nel breve
periodo, le esportazioni vengono sostenute dal trend di lento deprezzamento del
dollaro rispetto allo Yen ed all’Euro. Nel lungo periodo, tuttavia, occorrerà che lo
squilibrio venga sanato in termini reali. Infatti, benché il deprezzamento del dollaro
consenta agli Stati Uniti di rendere meno care sui mercati esteri le proprie merci, la
perdita di valore in termini nominali non è sufficiente. Fintantoché il tasso di cambio
reale – che rappresenta in ultima analisi l’indicatore della competitività di un paese –
riflette un rapporto salario/produttività più elevato rispetto ai concorrenti, ogni
aggiustamento nominale apporta un sollievo solo temporaneo alla bilancia
commerciale. L’aggiustamento deve quindi essere reale.
Per ripristinare l’equilibrio del settore reale, le strade sono due: o si accrescono la
moderazione salariale e la dinamica della produttività, di modo che un rapporto
salario/produttività al livello dei concorrenti e la minore inflazione spingano le
esportazioni, oppure occorre comprimere il consumo, in modo da ridurre le
importazioni. La prima strada agisce direttamente sul tasso di cambio reale; la
seconda, elimina lo squilibrio del settore privato e migliora indirettamente il tasso di
cambio reale attraverso l’apprezzamento nominale determinato dalla discesa delle
importazioni nette.
Per ridurre l’importazione di beni di consumo dall’estero, gli Stati Uniti dovrebbero
essere in grado di riequilibrare il rapporto fra risparmi e consumi, aumentando la
formazione di risparmio attraverso la riduzione del consumo (è infatti improbabile
che il tasso di crescita possa essere portato al livello necessario a sostenere il volume
in essere di consumo). Il crollo dei prezzi delle attività finanziarie e la disoccupazione
generata dalla recessione economica hanno prodotto la caduta della domanda privata
al di sotto del livello corrispondente alla capacità produttiva. L’aggiustamento di
197
mercato è così cominciato: i fallimenti e le ristrutturazioni industriali hanno fatto
crollare il reddito e i consumi.
La contraddizione presente nell’attuale situazione macroeconomica degli Stati Uniti è
che mentre l’aggiustamento di mercato sta consentendo al settore privato di
riequilibrare i risparmi agli investimenti (l’eccesso di investimenti si va
ridimensionando), l’aggiustamento attraverso le politiche macroeconomiche di
stabilizzazione va in direzione opposta a quella richiesta dal riequilibrio. Infatti,
occorrerebbe che la diminuzione del reddito venisse accompagnata da una politica
monetaria moderata e che una restrizione fiscale contribuisse alla diminuzione della
domanda di consumo necessaria al riequilibrio fra risparmi ed investimenti. Al
contrario, assistiamo: 1) ad una poderosa creazione di moneta da parte della Fed allo
scopo di effettuare i salvataggi delle banche di investimento in crisi di solvibilità, di
sollevare le banche dai titoli peggiori in modo da ripristinare la fiducia e permettere
la ripresa del credito interbancario, e di sostenere con iniezioni di liquidità a
bassissimo tasso di interesse i bilanci delle imprese produttrici in crisi; 2) ad una forte
espansione della spesa pubblica, che rende inevitabile l’incremento del debito
pubblico.
L’attuazione di politiche monetarie e fiscali di segno espansivo, quando invece il
riequilibrio macroeconomico reale imporrebbe la restrizione, ha una spiegazione:
impedire che la recessione si avviti in una stagnazione di lungo periodo. Se le
manovre fiscali fossero di segno restrittivo, allo scopo di ripristinare il pareggio del
bilancio pubblico, si potrebbe innescare un meccanismo simile al paradosso della
parsimonia di Keynes: una diminuzione della domanda di consumo che determina
una discesa del reddito di ampiezza tale da impedire che si raggiunga l’obiettivo di
incrementare il risparmio. Come si è accennato nel par.2 della Parte Seconda, il crollo
di Wall Street del ’29 fu aggravato proprio dall’adozione del gold standard nel Regno
Unito (1931) e negli Stati Uniti (1933): riserve in oro mantenute costanti e bilancio
pubblico in pareggio costrinsero in un primo tempo il Tesoro ad impulsi fiscali
restrittivi. Come si è anche detto, durante la crisi 2007-09 la stasi dell’attività di
198
credito per la crisi di fiducia che blocca il credito interbancario, ed il deleveraging
delle banche impegnate ad innalzare il rapporto capitale/ indebitamento, è sfociato in
una forte discesa dell’attività produttiva. In assenza di un sostegno anti-ciclico della
domanda pubblica, il rischio è che la recessione si trasformi in una lunga depressione
economica.
Questo è il rischio che attualmente corre l’Unione Europea. Dopo l’espansione degli
anni 2004-08 dove – rispetto al periodo precedente 1999-03 (vedi il grafico qui sopra)
- la forte espansione del credito e del PIL generavano deficit nella bilancia
commerciale, la crisi finanziaria ha reso necessari i salvataggi bancari a carico dei
bilanci pubblici. I conseguenti impulsi fiscali restrittivi diretti a ridurre deficit e
debito pubblico hanno provocato gravi tendenze deflattive. . Alla strutturale assenza
in Europa di una economia che svolga il ruolo di “locomotiva” generando domanda
per il resto dell’area economica (la Germania continua ad essere, anzi è sempre più,
un’economia export-led), si aggiunge oggi la scarsa propensione a manovre
reflazionistiche dei governi. Un paese come la Grecia ha un alto deficit pubblico ed
un alto moltiplicatore del reddito. Una restrizione fiscale diretta a risanare i conti
pubblici ha pertanto un impatto deflattivo molto grande. L’impatto sull’output del
199
moltiplicatore negativo è probabilmente insostenibile sul piano sociale. D’altro canto,
la Germania ha interesse a proseguire nella strategia della crescita export-led e quindi
non accetta di innalzare la domanda interna con un’espansione fiscale (e infatti è stato
molto limitato lo stimolo di spesa pubblica per superare la recessione).
I governi delle grandi economie europee (soprattutto quelli dei paesi gravati da un
ingente debito pubblico, in primo luogo l’Italia) stanno seguendo una manovra fiscale
prudente, diretta ad evitare il sostegno pubblico ad una domanda aggregata ridottasi
in seguito alla recessione seguita alla crisi finanziaria. In parte, il rifiuto ad attivare
manovre di bilancio espansive dipende dal timore che incrementi della tassazione
vengano pagati sul piano elettorale e che ulteriori emissioni di debito pubblico
comportino il riconoscimento di un premio per il rischio più elevato. Ma il problema
è l’interdipendenza strategica che orienta alla deflazione competitiva le economie
europee: il timore maggiore di ciascun governo europeo è che tutti gli altri governi
assumano un atteggiamento free-riding e cioè non espandano la spesa pubblica
nell’aspettativa che siano gli altri a farlo, in modo da beneficiare di un incremento
della domanda senza dovere sopportare il costo del finanziamento del deficit
pubblico. Per eliminare l’esternalità positiva , che avvantaggia i paesi che godono di
un aumento di domanda per lo stimolo fiscale espansivo deciso un altro paese, ed
impedire perciò che si realizzi l’equilibrio Pareto-non-ottimo in cui tutti i paesi
scelgano di mantenere il bilancio vicino al pareggio, sarebbe necessario coordinare le
politiche fiscali. Ma la strategia della cooperazione è ancora estranea alla visione
spesso miopemente opportunistica che i governi hanno dell’integrazione economica
europea.
Nel 2009, il PIL dell’UE dovrebbe calare del 3,6% ed il PIL degli Stati Uniti del
3,7%. Negli Stati Uniti (come anche negli altri paesi maggiormente colpiti dallo
scoppio della bolla finanziaria, in primo luogo il Regno Unito), l’attuale crisi
economica sta consentendo il riassorbimento dell’eccesso di deficit del settore
privato, con un aumento del risparmio ed una caduta degli investimenti. Al converso,
in un paese con grande surplus come la Germania si assiste ad una riduzione
200
dell’eccesso del reddito sulla spesa ( risparmio meno investimenti). In questo paese, il
deterioramento dei conti pubblici rappresenta anche la compensazione del
ridimensionamento del surplus nel bilancio con l’estero (la caduta delle esportazioni
per la crisi della domanda mondiale è la principale causa del decremento della
crescita superiore alla media UE). In generale, rispetto agli Stati Uniti, la ripresa
economica dopo la recessione è meno sostenuta dalle politiche macroeconomiche in
Europa. La BCE, diversamente dalla Federal Reserve, non ha il potere di gestire le
situazioni d'insolvenza (la clausola di no bail-out vincola l’apporto di liquidità ai
paesi in difficoltà). Il PSC limita non solo le politiche di sostegno della domanda
aggregata, ma anche il salvataggio o la nazionalizzazione delle banche insolventi.
Questo è il rischio che attualmente corre l’Unione Europea. Alla strutturale assenza in
Europa di una economia che svolga il ruolo di “locomotiva” generando domanda per
il resto dell’area economica (la Germania continua ad essere, anzi è sempre più,
un’economia export-led), si aggiunge oggi la scarsa propensione a manovre
reflazionistiche dei governi. Un paese come la Grecia, con un alto deficit pubblico ed
un alto moltiplicatore del reddito (a causa di un elevato tasso di risparmio (12%) ed
una forte apertura commerciale (+25%). Una restrizione fiscale diretta a risanare i
conti pubblici ha pertanto un impatto deflattivo molto grande. L’impatto sull’output
del moltiplicatore negativo è probabilmente insostenibile sul piano sociale. D’altro
canto, la Germania ha interesse a proseguire nella strategia della crescita export-led e
quindi non accetta di innalzare la domanda interna con un’espansione fiscale (e infatti
è stato molto limitato lo stimolo di spesa pubblica per superare la recessione).
I governi delle grandi economie europee (soprattutto quelli dei paesi gravati da un
ingente debito pubblico, in primo luogo l’Italia) stanno seguendo una manovra fiscale
prudente, diretta ad evitare il sostegno pubblico ad una domanda aggregata ridottasi
in seguito alla recessione seguita alla crisi finanziaria. In parte, il rifiuto ad attivare
manovre di bilancio espansive dipende dal timore che incrementi della tassazione
vengano pagati sul piano elettorale e che ulteriori emissioni di debito pubblico
comportino il riconoscimento di un premio per il rischio più elevato. Ma il problema
201
è l’interdipendenza strategica che orienta alla deflazione competitiva le economie
europee: il timore maggiore di ciascun governo europeo è che tutti gli altri governi
assumano un atteggiamento free-riding e cioè non espandano la spesa pubblica
nell’aspettativa che siano gli altri a farlo, in modo da beneficiare di un incremento
della domanda senza dovere sopportare il costo del finanziamento del deficit
pubblico.
Per eliminare l’esternalità positiva che avvantaggia i paesi che godono di un aumento
di domanda per lo stimolo fiscale espansivo deciso un altro paese, ed impedire perciò
che si realizzi l’equilibrio Pareto-non-ottimo in cui tutti i paesi scelgano di mantenere
il bilancio vicino al pareggio, sarebbe necessario coordinare le politiche fiscali. Ma la
strategia della cooperazione è ancora estranea alla visione spesso miopemente
opportunistica che i governi hanno dell’integrazione economica europea.
Nel 2009, il PIL dell’UE dovrebbe calare del 3,6% ed il PIL degli Stati Uniti del
3,7%. Negli Stati Uniti (come anche negli altri paesi maggiormente colpiti dallo
scoppio della bolla finanziaria, in primo luogo il Regno Unito), l’attuale crisi
economica sta consentendo il riassorbimento dell’eccesso di deficit del settore
privato, con un aumento del risparmio ed una caduta degli investimenti. Al converso,
in un paese con grande surplus come la Germania si assiste ad una riduzione
dell’eccesso del reddito sulla spesa ( risparmio meno investimenti). In questo paese, il
deterioramento dei conti pubblici rappresenta anche la compensazione del
ridimensionamento del surplus nel bilancio con l’estero (la caduta delle esportazioni
per la crisi della domanda mondiale è la principale causa del decremento della
crescita superiore alla media UE). In generale, rispetto agli Stati Uniti, la ripresa
economica dopo la recessione è meno sostenuta dalle politiche macroeconomiche in
Europa. La BCE, diversamente dalla Fed.Reserve, non ha il potere di gestire le
situazioni d'insolvenza (la clausola di no bail-out vincola l’apporto di liquidità ai
paesi in difficoltà). Il PSC limita non solo le politiche di sostegno della domanda
aggregata. Ma anche il salvataggio o la nazionalizzazione delle banche insolventi.
202
2. L’origine della crisi finanziaria e i flussi di capitali internazionali
E’ molto diffusa l’opinione che l’efficienza dell’economia di mercato dipenda dal
fatto che essa poggia su incentivi solidi: le imprese che fanno bene ricevono il premio
del profitto, le imprese che fanno male ricevono la punizione dell’espulsione dal
mercato. In base a questo principio, che ha fatto tollerare all'americano medio le
centinaia di milioni di dollari guadagnati dai top manager, Drexel ed Enron erano
state lasciate fallire, perché la maggioranza degli americani credeva fermamente nel
principio "chi sbaglia paga". Nella crisi attuale, tuttavia, i comportamenti arrischiati
non sempre sono stati puniti. Il motivo è noto: date le notevoli implicazioni
sistemiche di questa crisi, si vogliono evitare fallimenti a catena che potrebbero
generare costi sociali molto pesanti: la disoccupazione e la distruzione di capitale
umano.
Non
andrebbe
comunque dimenticata
l’esigenza di
ripristinare una
regolamentazione dell’attività bancaria di cui si è troppo ottimisticamente pensato di
potere fare a meno. La tesi secondo cui controllare l’innovazione finanziaria ha il
solo effetto di rallentare la crescita economica, con pochi benefici riguardo alla
prevenzione di crisi future, si fonda sull’assunto errato che l’efficienza operativa delle
istituzioni finanziarie coincida sempre con l’ottimo economico. Ciò non è
necessariamente vero in presenza di mercati dei capitali imperfetti, quando cioè la
massimizzazione del profitto delle istituzioni finanziarie non riflette l’efficienza
allocativa della liquidità investita a causa dell’informazione asimmetrica. La
massimizzazione del profitto è garantita – limitatamente al breve termine dall’effetto imitativo che spinge gli investitori ad acquistare i titoli con prezzo in
ascesa, favorendo così la formazione della bolla; l’efficienza allocativa è sempre più
precaria perché la disponibilità di liquidità genera una eccessiva creazione di attività
finanziarie senza che sia stato controllato il titolo di merito dei titoli derivati. Ad
esempio, le banche che cartolarizzano svolgono la virtuosa funzione di ripartire il
rischio in modo da diluirli nel sistema dei pagamenti, ma tendono spesso a non
203
assumersi i costi informativi (ed il monitoraggio) delle proprie operazioni, non
assumendosi quindi la responsabilità di assicurarsi sulla solvibilità dei debitori.
Occorre uscire da una regolamentazione troppo blanda che permette un forte
indebitamento a breve termine a fronte di attività a lungo termine, da cui
inevitabilmente deriva un’eccessiva assunzione di rischi. E’ stato osservato che il
problema della regolamentazione è di essere sempre imperfetta e comunque destinata
a restare sempre un passo indietro rispetto all’innovazione finanziaria (Blanchard,
2008). Tale rischio è senza dubbio presente, ma non può esimere dalla ricerca – by
trial and errors – del più appropriato insieme di strumenti di controllo compatibile
con un funzionamento efficiente del sistema bancario.
I più importanti indicatori della solidità di una banca sono: 1. il Tier1 (Capital Ratio
), che è dato dal rapporto fra il patrimonio di base della banca e le sue attività
ponderate in base al rischio e rappresenta la quota più solida facilmente disponibile
del patrimonio della banca; 2. il Core Tier 1, ovvero il Tier 1 al netto degli strumenti
ibridi (gli strumenti finanziari che possono essere emessi dalle banche sotto forma di
obbligazioni, certificati di deposito e buoni fruttiferi o altri titoli).
I principali provvedimenti suggeriti sono i seguenti: 1) Il fabbisogno di capitale deve
essere fissato a livelli più alti (le azioni ordinarie devono rappresentare la gran parte
del capitale Tier1) in base a parametri graduati in funzione del grado di
interconnessione che ciascuna banca ha all’interno del complessivo sistema bancario;
2) I requisiti minimi di capitale debbono variare in relazione al ciclo economico: in
altri termini, invece di un indebitamento con andamento pro-ciclico, che cioè
aumenta al peggiorare della condizione di bilancio, occorre che in periodi di
espansione si richieda alle banche di accumulare quel capitale in eccesso che dovrà
servire a ripianare senza scosse eventuali perdite che dovessero manifestarsi nel corso
delle fasi recessive; 3) L’attribuzione di un valore di rischio più alto ai titoli detenuti
dalle banche, il che dovrebbe scoraggiare la cartolarizzazione.
Quale che sia l’opinione sulle proposte di riforma, è forse utile riconsiderare il
dibattito che negli anni ’70 vide i proponenti della “New Theory of the Bank” che
204
propugnavano l’ipotesi di “Informazione imperfetta” (IIH) (Stiglitz, Weiss, Hellwig
ed altri) contrapporsi alla teoria dominante che propugnava l’ipotesi dei “Mercati dei
capitali efficienti” (EMH) avanzata da Fama. Il fulcro della critica alla (IIH)
consisteva nel sottolineare che le banche sono speciali istituti finanziari perché
incorrono nel “rischio di controparte” che sorge nella relazione bilaterale con un
prenditore di prestito singolo. Diversamente dal rischio di un’attività finanziaria
scambiata in un grande mercato fra anonimi operatori, il “rischio di controparte”
varia in funzione del tipo di contratto e dei costi di valutazione e di monitoraggio
della transazione che il prestatore deve sostenere. Un assetto efficiente dei mercati,
tale cioè da dare soluzione all’asimmetria informativa fra banca prestatrice ed
prenditore del prestito impedendo che l’imperfezione conduca al fallimento di
mercato, richiede un intermediario che investa massicciamente nella raccolta di
informazione. La stagione della deregolamentazione degli anni ’80 relegò
rapidamente nell’oblio l’analisi della IIH e diede impulso a “conglomerazioni
finanziarie” dove la banca raccoglitrice di depositi ha finito per rappresentare il
braccio collettore di liquidità di un complesso sistema di entità finanziarie che fanno
trading in titoli derivati di varia natura (Tamborini, 2009).
Il bilancio di queste entità finanziarie presenta peculiari caratteristiche: 1) un’alta
quota di attività finanziarie scambiabili nel mercato rispetto ai prestiti diretti; 2) un
alta percentuale di passività a breve termine rispetto ai depositi; 3) alti rendimenti da
operazioni di mercato rispetto a bassi margini di intermediazione diretta; 4) un grado
di leverage superiore al 30%. La nascita delle “conglomerate finanziarie” ha condotto
all’abbandono della tradizionale concezione dell’attività bancaria, nell’illusoria
convinzione che sia possibile sostituire gli standard debt contracts come i CDO,
senza sopportare i costi di valutazione e di monitoraggio. L’errore è stato quello di
ritenere che il rischio legato all’asimmetria informativa inerente alla relazione
bilaterale (ad esempio, fra banca che concede un mutuo e mutuatario) potesse essere
trattato come rischio diversificabile, assicurabile
e commerciabile (il modello
”originate and redistribute”).
205
L’espansione delle negoziazioni in titoli derivati ha un diretto collegamento con gli
squilibri macroeconomici globali: 1) L’accumulazione di riserve internazionali in
dollari, e azioni e titoli pubblici del Tesoro statunitense, con cui le banche centrali
delle economie emergenti hanno intermediato l’eccesso di risparmio dei loro paesi
presenta dal 2003 ad oggi una forte correlazione il deficit commerciale degli Stati
Uniti; 2) I mutui a lungo termine ed i CDO hanno finito per spiazzare nei portafogli
di risparmiatori e banche dei paesi emergenti i ben più sicuri e liquidi titoli pubblici
del Tesoro statunitense. Negli anni 2000-2007, l’offerta di titoli legata all’enorme
risparmio negativo delle famiglie (su 7.000 miliardi di dollari, ben 5.000 sono sotto
forma di mutui) non trovava sufficiente copertura nella domanda dei paesi emergenti,
perché il surplus commerciale di questi ultimi (determinato dall’incremento del
deficit delle partite correnti US, pari a 5.000 miliardi di dollari) era dedicato dalle
banche centrali all’accumulazione di riserve internazionali in dollari sotto forma di
debito pubblico statunitense. La securization è stato lo strumento finanziario che ha
consentito ai mutui sottostanti i Mortgage Backed Securities (MBS) di acquisire il
grado di affidabilità e di liquidità necessario per essere assorbito nei portafogli delle
banche e degli operatori finanziari di Giappone e paesi emergenti, che erano stati
spiazzati dalle banche centrali nel mercato dei più sicuri titoli pubblici statunitensi
(Gros, 2009).
In assenza di una governance internazionale, successivamente alla ripresa economica
gli squilibri macroeconomici internazionali sono destinati ad ampliarsi nuovamente.
Il coordinamento internazionale delle politiche economiche ed un nuovo sistema
monetario internazionale rappresentano la pre-condizione per il loro assorbimento nel
lungo periodo.
Gli Stati Uniti potrebbero ricorrere all’introduzione di nuove tariffe nei confronti
delle merci cinesi, mentre il quadro istituzionale che regola il mercato unico europeo
impedisce ai paesi dell’Unione monetaria europea di fare lo stesso con la Germania.
206
Un mondo con meno squilibri macroeconomici richiede che gli Stati Uniti risparmino
di più e la Germania risparmi di meno. In tal modo, i maggiori partner commerciali
dei due paesi avranno la possibilità di accrescere le proprie esportazioni e rilanciare la
crescita. Un eccessivo (insufficiente) valore delle esportazioni della Cina (dei paesi
UME, Germania esclusa) ed un livello eccessivamente basso (alto) del consumo in
Germania (negli Stati Uniti), implicano che vi sarà una carenza di commercio
internazionale e di crescita nell’economia globale. Il livello interno di domanda conta
per il commercio internazionale e per la crescita.
Con l’introduzione dell’euro, i regolatori hanno permesso alle banche di acquisire
somme illimitate di obbligazioni statali senza mettere da parte alcun capitale
azionario, mentre la BCE ha ridotto il prezzo dei titoli di stato di tutta l’eurozona in
ugual misura. Le banche commerciali hanno trovato vantaggioso accumulare le
obbligazioni dei paesi più deboli per guadagnare qualche punto base extra, il che ha
portato ad una convergenza dei tassi di interesse in tutta l’eurozona. In questo
contesto, la Germania, in difficoltà a causa del peso della riunificazione, ha
implementato una serie di riforme strutturali diventando più competitiva, mentre altri
paesi hanno goduto invece del boom immobiliare e dei consumi sulla spinta del
credito a basso tasso di interesse, diventando così meno competitivi.
Poi è arrivato il crollo del 2008 e i governi si sono trovati a dover salvare le loro
banche. Alcuni di loro si sono trovati nella posizione dei paesi in via di sviluppo con
un eccesso di indebitamento in una valuta sulla quale non avevano il controllo.
L’Europa si è quindi divisa tra paesi creditori e debitori, rispecchiando in tal modo la
divergenza delle prestazioni economiche.
Quando i mercati finanziari hanno scoperto che le obbligazioni statali,
presumibilmente prive di rischio, potevano in realtà finire in un default forzato,
hanno deciso di alzare vertiginosamente il premio di rischio. Questa mossa ha reso le
banche commerciali potenzialmente insolventi a causa del peso di tali obbligazioni
207
sul loro bilancio, provocando le cosiddette crisi gemelle del debito sovrano e del
sistema bancario.
All’inizio della crisi, un crollo dell’euro sembrava inconcepibile. Gli attivi e passivi
denominati nella moneta unica erano talmente intrecciati che un eventuale fallimento
avrebbe portato ad un tracollo incontrollabile. Ma con il progredire della crisi, il
sistema finanziario è stato ridefinito sempre di più su base nazionale, una tendenza
che ha preso slancio soprattutto negli ultimi mesi, mentre l’operazione di
rifinanziamento a lungo termine della BCE ha permesso alle banche di Spagna e
Italia di acquistare le proprie obbligazioni statali. Allo stesso tempo, le banche hanno
preferito liberarsi delle attività finanziarie degli altri paesi, mentre i risk manager
tentano di trovare una corrispondenza tra attivi e passivi a livello nazionale piuttosto
che operando sull’intera consistenza delle attività finanziarie dell’Eurozona.
Per evitare un ritorno - pericoloso oltre che inefficiente - a mercati separati,
l’eurozona ha bisogno di un’unione bancaria: uno schema di assicurazione-deposito
per contenere la fuga di capitali, una fonte europea di finanziamento per la
ricapitalizzazione delle banche ed un sistema di supervisione e regolamentazione per
tutta l’eurozona. I paesi altamente indebitati avrebbero poi bisogno di un
alleggerimento dei costi finanziari che potrebbe essere attuato in diversi modi. Il
problema è che tutte le modalità possibili richiedono il sostegno attivo della
Germania.
In una serie di paper con Carmen Reinhart, Rogoff ha mostrato che livelli di debito
molto elevati pari al 90% del Pil rappresentano un peso secolare che si ripercuote
sulla crescita economica nel lungo termine e che spesso dura per due decenni o più. I
costi cumulativi possono essere sbalorditivi. Gli episodi di debito elevato registrati
dal 1800 sono durati 23 anni e sono associati a un tasso di crescita che è oltre un
punto percentuale al di sotto del tasso previsto per i periodi con livelli debitori
inferiori. Dunque, dopo un quarto di secolo di debito elevato, il reddito potrebbe
essere il 25% in meno di quanto non sarebbe con normali tassi di crescita.
208
Fa riflettere il fatto che quasi la metà dei casi di debito elevato avvenuti dal 1800
siano associati a tassi di interesse reali (depurati dell’inflazione) bassi o normali. La
lenta crescita del Giappone e i bassi tassi di interesse degli ultimi due decenni sono
emblematici. Inoltre, sostenere un enorme peso debitorio rischia di far lievitare in
futuro i tassi di interesse globali, anche senza un tracollo in stile greco. È esattamente
ciò che accade oggi, quando, dopo il massiccio e prolungato allentamento monetario
messo in atto dalle principali banche centrali, molti governi si ritrovano con titoli
correlati al proprio debito a scadenze eccezionalmente brevi. Di conseguenza,
corrono il rischio che un’impennata dei tassi di interesse si traduca rapidamente in
costi di indebitamento più elevati.
L’attività di arbitraggio fa sì che in equilibrio il rapporto tra i rendimenti dei titoli sia
pari al rapporto tra i tassi di cambio: a parità di rischio, liquidità e durata, un euro
investito nell’UE deve rendere come un dollaro investito negli US. Supponendo una
perfetta mobilità dei capitali, che si traduce in assenza di costi di transazione
nell’operazione di cambio delle valute, un operatore europeo può decidere
indifferentemente di investire un euro sul mercato nazionale dei titoli al tempo t ed
ottenere al tempo t+1 la restituzione dell’euro investito oltre al tasso di interesse
nominale corrisposto (1+iUME), oppure può decidere di cambiare l’euro in dollari
(moltiplicandolo per il tasso di cambio e) ed investire gli e dollari così ottenuti sul
mercato US riscuotendo, al termine del periodo, e(1+iUS) dollari che verranno a loro
volta cambiati in euro dividendoli per il tasso di cambio atteso.
3. Le autorità governative e monetarie e la crisi finanziaria
Il comportamento delle autorità è stato ondivago. Poiché le cause profonde della crisi
non sono state chiare per un lungo periodo, a logica di intervento è stata decisa passo
dopo passo: Bear Stearns, fu salvata, Lehman Brothers fu lasciata fallire, AIG fu
salvata, in alcuni casi si è proceduto la ricapitalizzazione delle banche, per salvare
209
due fondi immobiliari semi-pubblici (Fannie Mae e Freddie Mac) si è scelta la strada
della completa nazionalizzazione. Una plausibile spiegazione per la soluzione
drastica scelta per una banca di investimento di grandi dimensioni come Bear Stearns
e per il colosso assicurativo AIG è che erano troppo interconnesse con il sistema
bancario perché potessero fallire senza provocare una grave crisi sistemica.
Negli Stati Uniti, a partire dalla metà del 2007 lo spread fra il tasso di interesse
medio sui prestiti interbancari a tre mesi (“Libor”) ed il tasso di interesse dei T-Bills a
tre mesi è cresciuto continuamente e si è poi impennato successivamente al
fallimento della Lehman Brothers, segnale ai mercati finanziari che il governo non
avrebbe necessariamente continuato ad impedire il fallimento delle grandi banche (il
motto “too big to fail” non valeva più). Si è molto dibattuto sulla decisione di lasciare
fallire la Lehman Brothers. Questa banca di investimento aveva attività in portafoglio
pari a ben il 5% del totale del sistema bancario US ed aveva immesso nel mercato
titoli a breve e lungo termine per un valore pari al 50% di tutte le obbligazioni emesse
dalle banche commerciali. Benché Lehman Brothers non operasse in depositi, il forte
impatto che perdite non ingenti di depositi nei fallimenti bancari ebbero sull’attività
economica dopo il crollo del ’29 avrebbe dovuto suggerire che il sistema bancario US
sarebbe stato grandemente colpito dalla sua scomparsa (Gros-Alcidi, 2009).
Nell’ottobre 2008 venne varato il Troubled Assets Relief Program (TARP), per
consentire al Tesoro di rifinanziare le banche (o acquistare le loro attività) fino a 700
miliardi di dollari 8° tale cifra va poi aggiunta la spesa di 250 miliardi di dollari per
salvare Bear Stearns e Fannie Mae e Freddie Mac.
In alcuni paesi il piano di salvataggio prevede anche la creazione di una “bad bank”
nella quale convogliare i titoli tossici. Il principale problema è consistito nella
determinazione del prezzo di acquisto: in questo caso il valore di equilibrio si colloca
fra il prezzo (basso) offerto dall’istituzione che si accolla la “bad bank” sulla base
dell’aspettativa di ulteriore calo dei prezzi di mercato delle attività tossiche possedute
dalle banche ed il prezzo (alto) con cui i titoli sono iscritti nel bilancio della banca;
210
quanto più al rialzo è la stima a lungo termine del prezzo del titolo, tanto minore è la
discesa del prezzo di vendita del titolo rispetto al suo valore in bilancio;
Le banche centrali hanno continuamente ampliato la lista di istituzioni finanziarie
meritevoli di sostegno e di attività finanziarie considerate come garanzia. La
discriminante non è fra istituzioni come le banche d’investimento che possono
svolgere il trading e banche commerciali cui va invece vietato di assumere gli alti
rischi
dell’attività
di
trading
perché
operano
con
depositi
che
godono
dell’assicurazione pubblica. La discriminante è piuttosto fra banche “non sistemiche”
e banche “sistemiche”: queste ultime, essendo molto grandi e molto interconnesse
con il sistema bancario, possono causare con la loro scomparsa una catena di
fallimenti. Lo sforzo sostenuto dalla Fed per permettere al settore bancario di
recuperare la solvibilità e ricostruire la catena di relazioni fiduciarie fra i vari istituti è
stato di enorme portata. Il contribuente è stato chiamato ad accollarsi il 76 ed il 40%
dell’intervento di iniezione di capitale pubblico nelle 50 maggiori banche USA ed
UE. Le principali misure sono state: 1) per impedire la dissoluzione del sistema
bancario, a portare fra 0 e 0,25 il tasso di interesse, la Fed ha provveduto ad iniezioni
di liquidità mediante l’acquisto di attività finanziarie, il cosiddetto quantitative easing
(vedi BOX 4), operazioni di mercato aperto in acquisto di attività finanziarie diverse
dai titoli pubblici; 2) le garanzie sui depositi interbancari per impedire il collasso
dell’attività bancaria, minacciata dalla crisi di fiducia nella rispettiva solvibilità che
interrompeva la trasmissione di liquidità attraverso il credito interbancario. E’
opinione diffusa che adottare una sola di queste misure sarebbe stato insufficiente. Ad
esempio, il solo acquisto dei titoli tossici non necessariamente avrebbe potuto
risolvere
il
problema
del
rischio
di
insolvenza.
E’
indispensabile
una
regolamentazione che imponga standard minimi di capitale di rischio differenziato
per categorie di banche: un più alto capital ratio per le banche che essendo di grandi
dimensioni e molto interconnesse comportano un rischio sistemico più elevato.
Sono necessarie misure non convenzionali: come aumentare la qualità di moneta
comprando titoli di stato. E' quanto ha fatto la FED che ha seguito una strategia
211
basata su tre misure: prestare alle istituzioni finanziarie, fornire liquidità direttamente
ai mercati monetari e del credito, acquistare titoli a lungo termine.. La BCE. Invece,
non ha intrapreso questa via. Il motivo è che il prestatore di ultima istanza è uno solo,
lo Stato. Difficile svolgere questo ruolo senza un'autorità fiscale alle spalle, che
ripiani eventuali perdite.
Il 2 aprile 2009 la BCE ha tagliato il tasso d’interesse di riferimento all’1,25%, il 5
luglio del 2012 il tasso è stato ulteriormente ridotto all’1%. Ci stiamo avvicinando al
livello minimo, ossia zero, già raggiunto dall’americana Federal Reserve (Fed). Per
valutare il grado di restrizione monetaria, concentrare l’attenzione sui tassi, come si
fa in tempi normali, è oggi fuorviante. In tempo di crisi, il classico meccanismo di
trasmissione della politica monetaria non funziona: da un lato l’aumento della base
monetaria non si trasmette in aumento della quantità di moneta, perché le banche
tesaurizzano la liquidità presso i depositi della banca centrale; dall’altro, i movimenti
del tasso EONIA non si riflettono sugli altri tassi.
La politica monetaria in tempo di crisi si attua mediante misure non convenzionali,
che vanno sotto il nome di quantitative easing. In breve, il quantitative easing
consiste nell’aumentare la quantità di moneta acquistando attività finanziarie. Le
maggiori banche centrali del mondo (tranne la BCE) lo stanno facendo. La strategia
di quantitative easing adottata dalla Fed non è però sufficiente: l’aumento della base
monetaria non si trasforma in aumento della quantità di moneta, ossia, questo
aumento di liquidità non è trasferito dalle banche al mercato del credito, ma
tesaurizzato in riserve in eccesso presso le banca centrale.: Il credit easing, anch’esso
molto praticato dalla Fed, si basa sulla variazione della dimensione e della
composizione del lato dell’attivo del bilancio. Per comprendere come la politica
monetaria agisca in tempo di crisi si deve, quindi, guardare al bilancio della Fed.
Prima della crisi il totale delle attività della Fed è di circa 880 miliardi di dollari. A
fronte di passività consistenti sostanzialmente in larghissima parte di circolante, la
212
banca centrale detiene una quantità di titoli in portafoglio, pari a circa il 90% del
budget totale.
I principali motivi per cui la BCE ha tardato ad adottare misure di quantitative easing
sono: 1. il sistema economico europeo è più banco-centrico e meno “finanziarizzato”
di quello degli Stati Uniti, e il budget della BCE rispetto al PIL dell’Eurozona è più
grande di quello della Fed rispetto al PIL USA; 2. Il prestatore di ultima istanza, in
fin dei conti, è uno solo: lo Stato. Per la BCE è difficile svolgere appieno questo
ruolo, non avendo un’autorità fiscale alle spalle che possa appianare eventuali
perdite.
4. La Grande Recessione (2010-13) e gli squilibri macroeconomici globali
Negli ultimi decenni, le crisi finanziarie sistemiche sono state numerose: le “big
five financial crisis” (Reinhardt-Rogoff, 2008) delle economie avanzate (Spagna
1977, Norvegia 1987, Finlandia, 1991, Svezia, 1991, and Japan, 1992), la crisi di
Colombia (1998) ed Argentina (2001) e le crisi asiatiche (Hong Kong, Indonesia,
Malesia, Filippine, e Tailandia). Nei primi anni del nuovo millennio, tuttavia, la
volatilità del reddito era molto diminuita. In particolare, nell’Eurozona, la bassa
dinamica dei salari e dei prezzi – la cosiddetta
“Grande Moderazione”, aveva
favorito mediamente una leggera accelerazione della crescita economica. Tutto è
cambiato a partire dalla crisi finanziaria 2007-09, che ha provocato una grave
recessione da cui le economie europee stentano ad uscire, anche per la ridotta
domanda da parte di Stati Uniti e Cina.
Il nesso fra la crisi finanziaria 2007-09 e gli squilibri macroeconomici internazionali
è dimostrato dal fatto che contestualmente alle maggiori crisi finanziarie si sono
verificate forti deviazioni dei tassi di cambio dai valori dell’equilibrio di lungo
periodo. Nell’attuale crisi, questo nesso è la risultante di tre fattori: 1) La crescita
continua senza oscillazioni cicliche rilevanti conosciuta dagli Stati Uniti ha indotto
aspettative esageratamente ottimistiche ed una minore avversione al rischio; 2) la
213
politica monetaria espansiva della Fed ha stimolato le banche a sfruttare i bassi tassi
di interesse per accrescere a dismisura il loro grado di leverage; 3) l’atteggiamento di
benign neglect con cui le banche centrali ed istituzioni internazionali (IMF, World
Bank) hanno guardato a tali squilibri ha consentito che si prolungassero le deviazioni
dal valore di lungo periodo PPP dei tassi di cambio reali di valute le cui economie
hanno un notevole rilievo nel commercio internazionale.
L’equilibrio macroeconomico consiste della somma algebrica dei bilanci dei settori
private, pubblico ed estero. Nel caso il risparmio ecceda l’investimento, il flusso in
eccesso viene trasmesso dai mercati finanziari al settore pubblico per coprire un
deficit (l’eventuale eccesso di spesa pubblica sulla tassazione: G>T) e/o per
permettere agli operatori esteri di pagare l’eccesso di importazioni (i beni esportati
dal paese stesso in eccesso rispetto alle proprie importazioni:X>M)
Nel caso in cui sia l’investimento a sopravanzare il risparmio (S < I), l’eccesso di
domanda interna deve essere compensato o da un surplus del bilancio pubblico (G <
T), oppure da capitali provenienti dall’estero (un eccesso di importazioni sulle
importazioni: X < M), oppure, naturalmente, in parte dall’uno e in parte dall’altro dei
due flussi. I flussi di capitale provenienti dall’estero finanzieranno l’eccesso di spesa
pubblica sulla tassazione (il deficit pubblico interno) e/o l’eccesso di importazioni
sulle esportazioni.
Gli Stati Uniti sono un caso speciale: come paese che “vive al di sopra dei propri
mezzi”, il deficit del settore privato viene coperto dagli investitori esteri, il cui
apporto di capitali non solo consente di acquistare le importazioni nette, ma va ad
acquistare il debito pubblico emesso a fronte del deficit pubblico (l’eccesso della
spesa pubblica sulla tassazione).
Un eccesso di risparmio sull’investimento è cosa positiva o negativa? E’ cosa positiva
se è utilizzato dai pensionati all’acquisto di attività finanziarie o di fondi pensione,
oppure se le imprese investono i propri profitti all’estero a causa dei più alti profitti
attesi; negativa se riflette la necessità di assicurazione dei lavoratori rispetto ai rischi
214
microeconomici o macroeconomici in un paese con un ristretto Stato sociale (un
esempio è la Cina).
Non è facile stabilire se una crescita export-led sia cosa positiva o negativa (ad
esempio, Cina e Germania) dsl momento che sottrae domanda ai principali
competitori (gli Stati Uniti e gli altri paesi dell’Unione Europea). I regimi di cambio,
gli accordi commerciali e le politiche macroeconomiche contano. Gli Stati Uniti
hanno conosciuto nel 1996-2000 un boom delle quotazioni di borsa (trainato dalle
azioni high-tech) che ha sostenuto le decisioni di investimento; nel 2000-2008 hanno
conosciuto un deficit pubblico del 6% (per i 3/4 causato dai tagli alle tasse sui redditi
alti introdotti da Bush) ed un deficit commerciale del 6%. Tali “deficit gemelli” sono
spiegati nel modello Mundell-Fleming come l’esito di un elevato tasso di interesse
che attrae capitali dall’estero, con conseguente apprezzamento reale ed eccesso delle
importazioni sulle esportazioni (il surplus commerciale della Cina fu pari all’11% nel
2006. L’eccesso di riserve internazionali viene accumulato per i tradizionali scopi
precauzionali, oppure viene destinato all’acquisto di titoli pubblici sicuri, come i titoli
emessi dagli Stati Uniti, il paese emittente della valuta utilizzata come principale
mezzo di pagamento internazionale). Il processo di deregolamentazione dell’attività
bancaria, rapidamente estesosi dagli Stati Uniti all’Unione Europea ed all’Asia, fu
all’origine di un’enorme crescita del credito in paesi come Spagna ed Irlanda (dove
l’inflazione superiore alla media dei paesi UME rendeva il già basso tasso di interesse
vicino allo zero in termini reali) e la nuova bolla (questa volta anche immobiliare)
negli Stati Uniti accrebbero l’instabilità macroeconomica.
La crisi finanziaria 2007-09 ha progressivamente ridotto il deficit commerciale, ma il
debito pubblico è aumentato a causa della spesa sostenuta dal Tesoro USA per
ripianare i debiti delle banche. Infine, i rapporti deficit/PIL e debito pubblico /PIL
sono saliti notevolmente anche per il passaggio a valori negativi dei tassi di crescita.
La caduta della produzione è anche comportato la caduta dell’occupazione: dal 2007
al 2009 il tasso di disoccupazione è cresciuto nei paesi avanzati di 14,3 milioni e nei
paesi emergenti di 8 milioni. L’aspetto più preoccupante è che si prevede che il tasso
215
di occupazione precedente la recessione verrà recuperato soltanto nel 2015, con la
conseguenza che un gran numero di disoccupati non rientrerà nel mercato del lavoro
(il 37% della disoccupazione viene infatti considerata di lungo periodo).
La crisi è stata affrontata negli Stati Uniti con il sostegno finanziario del Tesoro alle
banche in crisi e con la politica monetaria espansiva della Fed diretta a rimettere in
moto il circuito del credito interbancario, che era stato bloccato dalla caduta della
fiducia di ciascuna banca nella solvibilità della banca che le chiedeva un
finanziamento di liquidità. Queste forti immissioni di liquidità hanno aiutato famiglie
ed imprese a dare inizio alla riduzione del loro indebitamento privato. Tuttavia, la
necessità per le banche di aggiornare il valore del loro attivo in attività finanziarie in
base agli attuali prezzi di mercato rende difficile accrescere il credito. Inoltre, la crisi
finanziaria ha grandemente intaccato il venture capital. La domanda interna ristagna
anche perché la caduta dell’occupazione è stata maggiore rispetto ai paesi europei,
non solo per la minore protezione dei posti di lavoro tipica del mercato del lavoro
flessibile degli Stati Uniti, ma anche perché ad essere fortemente colpito dalla
recessione è stato il settore edile che è quello a maggiore intensità di lavoro (il tasso
di disoccupazione USA ha raggiunto nel 2010 il 9,6%. Del resto, è stato calcolato che
nelle passate crisi economiche il deleveraging ha richiesto in media sette anni
(Reinhardt e Rogoff, 2008).
L’incremento del deficit e debito pubblico causato dai programmi di stimolo fiscale
hanno permesso la ripresa economica nel breve periodo. ll riequilibrio strutturale dei
bilanci pubblici e privati richiede però che si realizzino entrambe o almeno una delle
seguenti due condizioni: 1) l’incremento del tasso di risparmio; 2) l’incremento delle
esportazioni nette. Dal 2008 al 2010, la propensione al risparmio è già aumentata dal
2,7% al 6%. Le esportazioni non sono però aumentate a sufficienza, in quanto la
competitività delle merci USA sui mercati in forte espansione (quelli dei paesi
emergenti) è possibile solo mediante la rivalutazione delle valute di quei paesi, in
primo luogo attraverso una forte svalutazione del dollaro rispetto al renmimbi.
216
Lo squilibrio macroeconomico all’interno dell’Eurozona, che vede il surplus di conto
corrente della Germania contrapporsi (anche nel senso di impedirne il
riassorbimento) dei deficit presenti in molti paesi della Periferia) prtesenta analogie
con quello esistente fra Cina e Stati Uniti. Prima della crisi finanziaria, lo squilibrio
macroeconomico interno USA era all’ingrosso così quantificabile:
(S - I) = (G - T) + (X - M)
-3
+4
-7
In breve, il resto del mondo, in primo luogo la Cina, stava finanziando il deficit
commerciale USA, acquistandone i titoli pubblici e delle imprese private. Dopo che
la recessione seguita alla crisi finanziaria ha fortemente ridotto la domanda interna,
ed il deficit pubblico viene alimentato dal trasferimento dei debiti delle banche al
governo federale, il settore privato presenta uno squilibrio in diminuzione, il settore
pubblico ha accresciuto la propria esposizione debitoria, mentre il settore estero ha
visto ridursi il proprio deficit:
(S - I) = (G - T) + (X - M)
-1
+5
-6
Questo lento processo di riequilibrio vede in primo piano il ruolo del tasso di cambio.
Con l’alleggerimento dei controlli sui movimenti di capitale, che limitano la
conversione in renmimbi dei dollari ricevuti dagli esportatori dei settori pubblico e
privato cinesi, l’eccesso di offerta di dollari a Pechino ha apprezzato il cambio della
valuta cinese con il dollaro. La rivalutazione consentita dalle autorità cinesi al
renmimbi ha ridotto il surplus commerciale della Cina ed il deficit degli Stati Uniti.
Lo stesso riequilibrio non può accadere nell’UME, dal momento che la valuta
comune rende impossibile la rivalutazione nominale della Germania e la svalutazione
nominale dei paesi periferici. Un eventuale riequilibrio rimane così affidato ad un
217
apprezzamento reale della Germania - attraverso un tasso di inflazione più alto della
media UME che ne riduca le esportazioni nette verso il resto dell’UME - e un
deprezzamento reale dei paesi periferici – attraverso quella discesa dei salari e dei
prezzi che renderebbe più competitive le merci di queste economie a più alto CLUP.
Il rifiuto della Germania ad avere un tasso di inflazione più alto del 2%, e
l’indisponibilità dei governi delle economie “deboli” ad affrontare, in una fase di
grave recessione, il costo sociale della deflazione (meno salario e più disoccupazione)
rendono molto improbabile questo processo di riequilibrio.
I valori dei tre settori, da cui risulta l’equilibrio macroeconomico per la media
dell’UME, possono essere all’incirca quantificati come segue:
(S - I) = (G - T) + (X - M)
+6
+6
0
Dal momento che i paesi periferici non posseggono potere di contrattazione rispetto
alla Germania, è quest’ultima a dettare condizioni per la sopravvivenza dell’euro. La
strategia suggerita ai paesi periferici dalla Germania consiste in una restrizione fiscale
che elimini o quanto meno riduca il deficit pubblico in modo da tranquillizzare i
mercati finanziari ed in riforme economiche di flessibilizzazione dei mercati del
lavoro e dei prodotti tali da avviare una deflazione di salari e prezzi e da spostare la
domanda dal mercato interno al settore esterno in modo da volgere ad un valore
positivo le esportazioni nette:
(S - I) = (G - T) + (X - M)
+6
+4
+2
Tabella. Paesi periferici: ULC relativi alla media UME (1970-2010) =100
218
Come la tabella qui sopra mostra, fino al 2011 l’Irlanda è riuscita a realizzare una
(più che) completa deflazione, e cioè la svalutazione interna conseguente a una
discesa degli Unit Labour Costs (CLUP) che permette di recuperare la competitività
perduta.
Per la prima volta, i paesi emergenti e quelli in via di sviluppo hanno partecipato agli
sforzi coordinati e concertati per superare la Grande Recessione.
Nel 2008 tutti sapevano che l'ascesa dei paesi emergenti e in via di sviluppo stava
ridisegnando la cartina economica globale. Si credeva però che questo sarebbe stato
un trend graduale. In realtà, quello che si supponeva dovesse richiedere dieci o
vent'anni è accaduto in appena cinque. A dimostrarlo con chiarezza è un semplice
dato statistico: nel 2007 i paesi avanzati producevano quasi i tre quarti del PIL
combinato dei G-20. Nel 2012 questa percentuale è scesa al 63%. I differenziali di
crescita, unitamente agli alti prezzi del petrolio e delle materie prime, hanno
determinato un consistente spostamento nella distribuzione dei redditi nel mondo. La
ripresa ha subito dimostrato che l'economia globale aveva più di un solo motore
trainante. La Cina e gli altri paesi emergenti, benché siano stati colpiti da un grave
shock della domanda che ha avuto severe ripercussioni sulle loro esportazioni, non
sono stati investiti dal caos finanziario. Al contrario, il valore dei titoli di stato
americani posseduti da Cina e altri paesi si è impennato in conseguenza del calo dei
tassi di interesse.
Un'altra ragione all'origine della ripresa dell’economia internazionale è stata la
tempestiva risposta messa a punto nel 2009 dai paesi del G-20, che ha concesso
219
all'economia statunitense il tempo di riprendersi. Fra il 2011 e il 2013, la politica
della Fed di continui Quantitative Easing – l’acquisto di titoli diretto ad abbassare i
tassi di interesse a lungo termine e stimolare gli investimenti – ha prodotto l’effetto di
invertire il tradizionale afflusso dei capitali internazionali (prevalentemente dei paesi
emergenti) verso le economie avanzate. Infatti, i capitali si sono diretti verso i paesi
emergenti, e cioè i mercati finanziari nei quali si era aperto un differenziale positivo
di tasso di interesse. A fine 2013, con l’annuncio della Fed di riduzione progressiva
della creazione di moneta da dirottare attraverso i QE agli operatori di mercato, la
direzione dei flussi si sta nuovamente modificando.
I paesi emergenti avevano interpretato l'acquisto di titoli a lunga scadenza della Fed
come una svalutazione competitiva del dollaro e temuto un massiccio afflusso di
liquidità, provocando il rialzo dei loro tassi. Questo fenomeno, oltre a ridurre la
competitività del loro export, li avrebbe esposti ai contraccolpi della brusca
interruzione dei flussi di capitale quando gli Usa avessero invertito il corso. Il timore
era fondato: il solo annuncio che la Fed ridimensioni le operazioni non convenzionali
di QE ha portato alla fuga di capitali dai paesi emergenti ed al ritorno al tradizionale
“modello” secondo cui sono i paesi meno avanzati a finanziare la crescita (ed il
deficit pubblico) dei paesi avanzati.
Qual è stato l’effetto dell’iniziale dirottamento dei flussi di capitale verso i paesi
emergenti? Non si sono avuti effetti sulle partite correnti, né di questi né degli Stati
Uniti. Infatti, a più esportazioni degli Stati Uniti (meno degli emergenti, la cui
crescita del PIL rallentava in seguito alla crisi mondiale) hanno corrisposto meno
importazioni negli emergenti (più negli Stati Uniti). Le cose sono andate
diversamente nell’UME, dove dopo la crisi dell’euro si è registrato un rapido rientro
verso il Centro dei capitali investiti nella prima metà dei 2000 nei paesi periferici.
L'interruzione dei flussi di capitale verso i membri meridionali dell'area ha costretto
questi paesi a intervenire sulle partite correnti, portandole dal deficit combinato di
300 miliardi di dollari di tre anni fa all'attuale piccolo surplus. In altre parole, la
necessità di ridurre deficit e debito pubblico ha indotto la Periferia a tagli di spesa
220
pubblica e incrementi delle tasse che hanno depresso la domanda interna (con
conseguente caduta delle importazioni) e prodotto il miglioramento del CLUP che ha
favorito la ripresa delle esportazioni.
Siccome i paesi del Centro non hanno aumentato la loro domanda, nell'eurozona si
riscontra il più forte surplus nelle partite correnti a livello mondiale, superiore persino
a quello della Cina. Come dimostra il fatto che l'euro è forte, questa straordinaria
fluttuazione di quasi 400 miliardi di dollari nel saldo delle partite correnti
dell'eurozona non è il risultato di una «svalutazione competitiva». La vera causa del
forte surplus commerciale è stata una domanda interna così debole che negli ultimi
cinque anni si è avuto un ristagno delle importazioni (con un tasso di crescita annuale
media dello 0,25%). La causa della situazione attuale è l’effetto congiunto
dell'austerità nella Periferia e dell’assenza di un aumento della domanda interna in
Germania e quindi nel Centro (di cui l’economia tedesca è gran parte). La debolezza
della domanda europea è la ragione per cui i saldi delle partite correnti dei mercati
emergenti sono peggiorati.
5. La divergenza macroeconomica all’interno dell’Eurozona
L’unione monetaria diede un forte impulso all’integrazione finanziaria. Sull’onda
della fine del rischio di tasso di cambio e dell’abbattimento del premio di rischio sui
titoli pubblici per il grande valore attribuito alla loro denominazione in euro, si
ebbero importanti fusioni fra grandi banche europee ed acquisti reciproci in notevoli
quantità di titoli pubblici degli altri paesi dell’Eurozona da parte di banche e operatori
privati. Gli squilibri macroeconomici che si sono successivamente formati fra Centro
e Periferia dell’Eurozona hanno due spiegazioni, probabilmente complementari (vedi
le due Figure qui sotto: la prima mette in relazione l’andamento del rapporto conto
corrente / PIL con l’evoluzione della domanda interna; la seconda mostra la dinamica
della REER - real effective exchange rate - divergente nella Periferia rispetto alla
Germania).
221
La prima spiegazione consiste nel fatto che la forte espansione indotta
dall’integrazione finanziaria nei finanziamenti cross-border ed i bassissimi tassi di
interesse hanno causato eccessi di domanda di credito da parte delle imprese, ma
l’espansione della domanda ha riguardato – oltre che le attività finanziarie, con la
formazione di bolle speculative - soprattutto settori non suscettibili di accelerare la
crescita e favorire la convergenza del PIL pro capite verso i valori dei paesi più
avanzati. Pertanto, ne è conseguito un notevole incremento delle importazioni che ha
contribuito a formare i deficit commerciali dei paesi periferici (vedi tabella qui sotto).
Total domestic demand growth rate,
% w.r.t. EMU average
Figure 1 - Domestic demand and current account
(average 2002-2007)
1,5
ES
IE
GR
1
0,5
FI
FR
AT
IT Eurozone
PT
0
BE
NL
-0,5
DE
-1
-20
-15
-10
-5
0
5
10
15
Current account balance, % of GDP
La seconda spiegazione degli squilibri all’interno dell’Eurozona è che una volta
private della “valvola di sfogo” della svalutazione de tasso di cambio, I paesi
periferici a più rapida crescita del CLUP (più che per la dinamica salariale a causa del
lento miglioramento della produttività del lavoro) hanno visto progressivamente
peggiorare il loro REER. Si è perciò ridotta la loro competitività sui mercati esteri,
con forti perdite di quote di mercato. La diminuzione delle esportazioni, assieme
all’aumento delle importazioni, ha causato ingenti deficit di conto corrente (vedi
tabella qui sotto).
222
140
Figure 2 - REER based on relative ULC
130
120
110
100
90
80
2000
BE
IT
2001
2002
DE
NL
2003
2004
IE
AT
2005
2006
GR
PT
2007
2008
ES
FI
2009
2010
FR
La moneta unica fu salutata dai mercati come una specie di bonanza. Come si è visto
con i due grafici qui sopra, le bolle speculative alimentate da tassi reali di interesse
vicini allo zero negli anni 2004-07 – soprattutto in Irlanda e Spagna – e la
competitività declinante in concomitanza con politiche di consolidamento del
bilancio pubblico monitorate dal PSC – soprattutto in Grecia, Portogallo ed Italia erano chiari segnali di una crescita poco solida, ben prima dell’arrivo della crisi
finanziaria nata oltre-oceano. Evidentemente, le prospettive di facili guadagni
indussero gli operatori finanziari – in primo luogo le banche – a puntare sui profitti di
breve periodo. In nome dello short-termism, l’attrazione esercitata da prospettive di
profitto a breve termine, in alcuni paesi della Periferia si alimentò un ciclo espansivo
imperniato sul settore immobiliare e sulla continua salita dei listini della borsa.
Attratti dai più elevati rendimenti, i capitali si trasferivano dal Centro alla Periferia.
Si preferì ignorare che a risparmi in calo per la crescita dei consumi si sommavano
223
decisioni di investimento che erano lungi dal garantire un sano processo di catchingup basato sui settori produttivi avanzati.
Il fatto è che nei mercati dei paesi periferici si determinarono erronei segnali di
prezzo: dal momento che gli operatori finanziari non chiedevano che un premio per il
rischio quasi nullo rispetto al tasso di interesse benchmark tedesco, il tasso di
interesse nominale sul credito rifletteva da vicino il tassi di interesse “comune”
sull’euro. I mercati non tenevano quindi conto delle condizioni di capitalizzazione
delle banche nè del fatto che il tasso di interesse reale era quasi zero (registrando i
forti differenziali di tasso di inflazione rispetto ai paesi del Nord dell’unione
monetaria). Di conseguenza, il tasso di interesse sui titoli pubblici del Sud Europa,
che dovrebbe essere sensibile all’andamento di deficit e debito pubblici, presentava
spread quasi nulli con i Bund tedeschi. In questa ”bolla” di “illusione finanziaria” i
mercati si comportarono come se si fosse in presenza di un’area valutaria che
prevedesse la funzione di prestatore di ultima istanza per la banca centrale ed una
garanzia “comune” sullo stock di titoli sovrani dei paesi del Nord come del Sud
Europa.
Primo, le banche centrali nazionali (BCN) dei paesi periferici
sottovalutavano il rischio preso da istituti bancari fortemente esposti a breve termine
nel finanziamento di investimenti di lungo termine, cui si aggiungeva l’azzardo di
portafogli squilibrati verso titoli ad alta volatilità.
Secondo, la condizione di
“sostenibilità” del debito pubblico era clamorosamente assente. Qualche anno di
crescita accelerata non basta a generare aspettative di flussi di reddito futuri – e
perciò di entrate fiscali - adeguati al rimborso del debito pubblico. Su tale miopia
delle BCN si innestò la crisi economica. All’insolvenza delle banche, a fronte di
crediti inesigibili, si sommò - una volta che il loro debito privato veniva trasformato
in debito pubblico – il perverso “moltiplicatore” della crisi determinato dall’intreccio
debito bancario-debito sovrano. Seguirono la stasi del credito, il crollo della
domanda, la sfiducia dei consumatori a basso reddito e la forte restrizione fiscale
(l’”austerità”) imposta dall’esplosione del rapporto debito pubblico / PIL .
224
I leader europei non sono riusciti a fare abbastanza per evitare che nell’unione
monetaria rimanesse alla mercé dei mercati. Si è dovuto aspettare fino al vertice di
Bruxelles del 28 giugno 2012 per assistere a due decisioni efficaci.
1. La fine del nesso fra debito delle banche e debito pubblico. Con l’intervento
finanziario a favore delle banche da parte dell’Esm - invece che degli Stati - viene
sanata l’assurdità dell’incremento – del tutto gratuito – che ne conseguiva nel debito
pubblico. L’incremento del rapporto debito pubblico / PIL, a sua volta, si veniva a
ripercuotere sull’affidabilità e sulla capitalizzazione delle banche stesse. ed il valore
dei titoli pubblici dati in garanzia alla BCE diminuiva, con gravi effetti sulla strategia
di rafforzamento dei capitali voluta da Basilea3. C’erano poi altri due effetti perversi:
(i) l’incremento sulla spesa per interessi - e quindi aggiuntive emissioni di titoli conseguente all’aumento dello spread dopo un aumento del debito sovrano; (ii) il
grave nocumento alla concorrenza, in quanto imprese simili – ma appartenenti a
sistemi-paese diversi – finivano con il finanziarsi a tassi di mercato molto divaricati
fra Centro e Periferia.
L’ostinazione tedesca nell’opporsi ad una garanzia collettiva sulle situazioni debitorie
nazionali era stata solo mitigata dalla scelta di Draghi a fine 2011 di inondare le
banche di liquidità al tasso dell’1% per permettere loro di acquistare il debito sovrano
di paesi a rischio di chiusura del finanziamento dei mercati. Il nuovo fondo salva-stati
Esm sarà probabilmente autorizzato ad acquistare - direttamente e sul mercato
primario - i titoli pubblici una volta che lo spread si avvicina ad una soglia (ancora da
definire) e la BCE dovrebbe ricevere l’autorizzazione ad agire in simbiosi con l’Esm.
Se riceverà la licenza bancaria, il fondo potrà chiedere liquidità alla BCE (dietro
cessione di titoli a garanzia) e dotarsi così di munizioni ben superiori agli attuali 500
miliardi di euro (del tutto insufficienti, se fosse ad esempio l’Italia a trovarsi nelle
condizioni di richiedere un prestito). Siamo molto vicini - in via indiretta – a quella
funzione di “prestatore di ultima istanza” della BCE il cui divieto la Germania volle
inserire nello Statuto della banca centrale. Ragionevolmente, la sola condizione per
225
esaudire una richiesta di intervento è che il sostegno finanziario non fronteggi una
crisi di insolvenza, ma una crisi di liquidità causata da un’impennata dello spread.
Infine, la fiducia degli investitori privati dovrebbe essere rafforzata dall’avere deciso
che i prestatori istituzionali (come l’Esm) non godranno più dello status di creditori
privilegiati in caso di insolvenza.
2. Un primo passo verso l’Unione bancaria. In attesa del passaggio a Francoforte
anche della regolamentazione e vigilanza sui sistemi creditizi e finanziari è stato
approvato l’intervento finanziario dell’Esm a favore delle banche in difficoltà e delle
loro esigenze di ricapitalizzazione, con la supervisione finanziaria dei bilanci delle
banche assegnata alla BCE. L’aspetto innovativo di tale decisione risiede nell’avere
di fatto superato l’altro veto tedesco: il pooling – la garanzia “comune” – delle
passività. Si tratta di una condivisione del rischio che per ora è limitata alle passività
delle banche private e domani – quando, e se, si darà avvio all’Unione fiscale –
dovrebbe estendersi alle passività degli Stati.
Il problema più grave e di più difficile soluzione è quello della crescita. Nella
struttura istituzionale disegnata a Maastricht alle politiche fiscali nazionali venne
demandato il compito di fronteggiare con interventi espansivi gli shock asimmetrici
(mentre alla politica monetaria della BCE fu assegnata la responsabilità di reagire
agli shock che colpiscono allo stesso modo tutti i paesi membri). Maastricht
immaginava che squilibri limitati ad un paese - causati da cadute della domanda o da
incrementi nei costi di produzione - avrebbero potuto essere agevolmente risolti
utilizzando riserve di entrate fiscali e - nei casi di grave recessione - sostegni pubblici
finanziati con emissione di titoli. L’unica condizione era un livello basso del
rapporto debito pubblico / PIL.
Non è andata così, come dimostrano le gravi crisi in cui si dibattono ancora oggi due
paesi inizialmente a basso debito pubblico come Irlanda e Spagna. Il perché è presto
detto. Maastricht ha avuto la colpa di sottostimare la forte eterogeneità dei paesi
periferici rispetto al Centro. In particolare, due “ritardi” strutturali: (i) la debolezza di
226
alcuni sistemi bancari, dovuta all’inefficienza della regolamentazione nazionale; (ii)
il divario di efficienza produttiva della Periferia nei confronti del Centro, che prima
del passaggio all’euro veniva mascherato dal progressivo riallineamento nominale del
tasso di cambio e che ha poi generato l’accumularsi di perdite nella bilancia
commerciale di paesi come Grecia, Portogallo, Spagna e (in misura molto minore)
Italia.
Come si è già detto, l’equazione :
(S – I) = (G – T) + (X – M)
rappresenta l’equilibrio macroeconomico complessivo di un sistema economico. Ogni
diseguaglianza fra le variabili all’interno di ciascuno dei tre settori - Risparmi e
Investimenti nel settore privato, Spesa pubblica (G) e Tassazione nel settore pubblico,
ed Esportazioni (X) ed Importazioni (M) nel settore estero - viene a scomparire nella
somma algebrica delle varie poste. Ciò vale sia riguardo ai singoli settori all’interno
di ciascun paese, sia nell’annullamento degli squilibri reciproci all’interno di un’area
valutaria.
L’equilibrio macroeconomico dell’Eurozona nel suo complesso è naturalmente
un’identità contabile. Al netto dell’interscambio dell’Eurozona con il resto del mondo
(il cui bilancio non si allontana mai troppo dal pareggio) una posizione di squilibrio
in surplus in un paese o gruppo di paesi (Centro o Periferia) corrisponde una
posizione di squilibrio in deficit in un altro paese o gruppo di paesi (Centro o
Periferia). L’Eurozona si presenta oggi fortemente divaricata fra un Centro in surplus
ed una Periferia in deficit.
A partire dall’avvio dell’unione monetaria – ed in misura crescente all’indomani della
crisi finanziaria - in alcuni paesi (in primis la Germania, seguita da Austria e
Finlandia) si registra un surplus dei risparmi sugli investimenti cui corrisponde un
surplus di bilancia commerciale, mentre i paesi della Periferia sono gravati da deficit
di conto corrente provocati da una forte dinamica del tasso di cambio reale effettivo,
227
la cui misura, il costo del lavoro per unità di prodotto (CLUP), indica la competitività
del sistema economico. Nella Periferia, in particolare in Irlanda e Spagna dove il
tasso di crescita è stato fino al 2007 superiore alla media UME, l’origine del
problema risiede nella rapida espansione della domanda domestica, dove alla discesa
del risparmio hanno corrisposto le “bolle speculative” invece che gli investimenti
produttivi necessari alla crescita e alla “sostenibilità” dell’indebitamento bancario e
sovrano. In Portogallo ed Italia, dove il tasso di crescita è stato fino al 2007 inferiore
alla media UME (come anche in Grecia, alla luce della revisione dei dati sul PIL) un
ruolo importante nel favorire l’accumularsi di deficit commerciali con l’estero (il cui
corrispettivo è il surplus commerciale del Centro) è stato svolto in anni passati anche
dai deficit presenti nel bilancio pubblico.
Il messaggio di questa contabilità macroeconomica è semplice. I paesi della Periferia
non hanno individualmente le risorse non solo per realizzare il catching-up di lungo
periodo, ma neppure per uscire dalla recessione e stimolare la ripresa economica per
bloccare i deficit con l’estero di breve periodo. L’attuale crisi dimostra come la
struttura istituzionale dell’unione monetaria fosse inadeguata a fronteggiare un grave
shock esogeno, qual è stata la crisi finanziaria nata negli Stati Uniti.
Per riequilibrare esportazioni ed importazioni, questi paesi non hanno altra strategia
che di deflazionare l’economia, provocando una discesa del CLUP, e quindi del
reddito e dei consumi. Gli elevati costi sociali di una tale strategia sono già sotto gli
occhi di tutti. La conseguente risalita del risparmio, da cui ci si aspetta un
miglioramento della bilancia commerciale, potrebbe però bastare. Essa, infatti, causa
una variazione di segno positivo sul lato sinistro dell’equazione, proprio mentre sul
lato destro la forte restrizione fiscale produce nel bilancio pubblico una variazione
negativa. Il fatto è che nel settore estero si registra un andamento diverso da paese e
paese (in 3 delle 5 economie periferiche le esportazioni conoscono una riduzione
superiore
alla
discesa
indotta
dalla
recessione
nelle
importazioni)
ma
complessivamente ben lontano dal generare quel valore ampiamente positivo di
228
ripresa delle esportazioni che sarebbe necessario per ripristinare l’equilibrio
macroeconomico complessivo e frenare così la recessione evitando ulteriori cadute
del reddito. In sintesi, al prezzo di una drastica deflazione anche la Periferia ora
presenta un risparmio netto nel settore privato, ma lo squilibrio macroeconomico – e
quindi la necessità di trasferimenti di capitali direttamente o indirettamente
provenienti dal Centro – persisterà fintantoché non verrà alleviato il divario di
efficienza con il Centro.
Anche portando in pareggio il bilancio pubblico in modo da comprimere i consumi:
(S > I) < (G = T) + (X < M)
l’eccesso di risparmio indotto dalle strategie di riduzione dei debiti di banche e
famiglie è insufficiente per eliminare il deficit commerciale, poiché lo squilibrio con
l’estero non è colmabile senza una forte ripresa di competitività rispetto al Centro
La contabilità macroeconomica suesposta, pur nella sua approssimazione, mostra
come l’unione monetaria non possa andare avanti senza tenere conto della divergenza
reale che mina la coesione economica e sociale al suo interno. A Maastricht si puntò
su una progressiva convergenza fra i sistemi economici, nell’aspettativa che le
condizioni di minore incertezza conseguenti al processo di unificazione monetaria
avrebbero favorito il catching-up. Si è probabilmente trattato di un eccesso di fiducia
nelle “magnifiche sorti e progressive” delle libere forze del mercato. Nel breve
periodo, occorre una ripresa della domanda tedesca, tale da favorire la riduzione dei
deficit di conto corrente della Periferia. Bisognerà poi, nel medio periodo, creare le
strutture istituzionali necessarie a sostenere un progetto per la crescita, dove l’idea di
integrazione della Periferia con il Centro abbia la stessa dignità dell’idea di
convergenza spontanea, guidata dalle sole forze di mercato, da parte delle economie
“meno avanzate”.
6. Crisi finanziaria e rilancio dell’integrazione europea
229
Come si vede nel grafico qui sotto, l’inizio della crisi finanziaria, nel 2007-09, si è
riflesso in un incremento rapidissimo dei tassi di interesse sul debito pubblico dei
paesi periferici dell’Eurozona. Il tasso di interesse più basso è quello sui Bund
tedeschi, la cui elevata “solvibilità” giustifica la prassi di calcolare lo spread dei tassi
di interesse nazionali come differenza rispetto a quello della Germania
I tre grafici che seguono (Barrios, 2012) presentano la correlazione dello spread con
il Bund decennale con, rispettivamente, il saldo atteso del bilancio pubblico, il
rapporto debito pubblico / PIL, il rapporto conto corrente /PIL degli (n-1) paesi
dell’Eurozona.
230
231
Il messaggio di queste correlazioni è che ciascun paese della Periferia dell’Eurozona
mostra di avere uno o più punti deboli (deficit pubblico, rapporto debito
pubblico/PIL, conto corrente /PIL)
che compromettono la fiducia dei mercati
finanziari nella sostenibilità del debito pubblico. Un dato interessante è che Germania
e Portogallo hanno differenti tassi di interesse ma all’incirca eguali saldi di bilancio
pubblico ed eguali rapporti debito pubblico/PIL. E’ evidente che il premio di rischio
che il Portogallo è costretto a pagare si spiega soprattutto con il pessimo rapporto
conto corrente/PIL. Altra evidenza empirica significativa è quella che presentano
Italia e Portogallo, che hanno pressoché eguali tassi di interesse ma rapporti conto
corrente/PIL molto diversi. Questa volta si può osservare che l’Italia paga l’alto
rapporto debito pubblico/PIL. Un altro esempio riguarda Grecia e Irlanda, che hanno
all’incirca eguali i tassi di interesse: tuttavia, rispetto alla Grecia quest’ultimo paese
ha un rapporto bilancio pubblico/PIL molto più alto ma molto più bassi rapporti
debito pubblico/PIL e conto corrente/PIL. L’Irlanda paga il salvataggio delle banche
da parte del governo, che ha portato a livelli elevatissimi il rapporto deficit
pubblico/PIL. Un altro esempio riguarda la Spagna, che rispetto all’Austria, un paese
vicino alla Germania per “sostenibilità fiscale”, nel secondo trimestre 2009 presenta
molto peggiori valori per tutti e tre gli indicatori, ma all’incirca eguale tasso di
interesse. In effetti, successivamente alla perdita di credibilità di Irlanda e Grecia, nel
2011 la Spagna ha subito il contagio di tali paesi ed è stata penalizzata dai mercati
finanziari con un innalzamento del premio per il rischio tale da determinare un
elevato spread rispetto alla Germania.
Nel grafico qui sotto, che fotografa la situazione al 30 luglio 2009, la forte
correlazione fra spread e CDS (credit default swaps) di ciascun paese rispetto alla
Germania sta ad indicare come il prezzo dell’assicurazione del default di uno stato
segua l’andamento dello spread, espressione del grado di rischio del debito pubblico
di un paese. Successivamente, al di là delle forti oscillazioni dei mercati verso l’alto e
232
verso il basso, la situazione strutturale è peggiorata. La lentezza con cui i paesi più
indebitati hanno attuato le restrizioni di bilancio pubblico, l’ulteriore peggioramento
dell’andamento del PIL che ne è conseguito, il sostanziale disaccordo della Germania
rispetto ad una decisa strategia di sostegno ai paesi sotto attacco speculativo sono le
principali cause dell’incremento del rischio sul debito sovrano dei paesi periferici
percepito dai mercati.
Al 10 agosto 2012, il tasso di interesse sui titoli pubblici decennali in Germania, pari
all’1,3% in termini nominali, risulta negativo in termini reali: a fronte di un tasso di
inflazione di poco inferiore al 2%. Per il Belgio (2,5%) e la Francia (2,1%) il tasso di
interesse reale è intorno allo zero. La spiegazione risiede nell’eccesso di domanda dei
titoli considerati “sicuri”, privi di un rischio di default dello stato emittente, che
provoca un aumento del prezzo di mercato al di sopra del valore di emissione, con
conseguente riduzione del tasso effettivo di rendimento. Al converso, la crisi di
fiducia nella “solvibilità” dei governi dei paesi periferici dell’Eurozona si riflette in
233
valori molto alti dei tassi di interesse nominali: Grecia: 24,4%; Portogallo: 9,9%;
Irlanda: 6,0%; Spagna: 6,9%; Italia: 5.9%.
Questa “fuga verso la qualità” sui mercati finanziari internazionali si esprime nella
ristrutturazione dei portafoglio, con acquisti dei Bund e con vendite dei titoli pubblici
dei paesi periferici dell’Eurozona, che subiscono pesanti perdite nelle quotazioni e
conseguente incremento del tasso di interesse. impedendo ai governi di cercare
finanziamenti nei mercati attraverso nuove emissioni e rendendo quindi
indispensabile accettare le radicali restrizioni di bilancio pubblico alla cui attuazione
le autorità europee condizionano l’erogazione dei prestiti.
La perdita di credibilità della sostenibilità fiscale dei paesi periferici dell’Eurozona –
ovvero quanto possa essere realistico attendersi il rispetto del vincolo intertemporale
del bilancio – non è solo causata da alti deficit e debiti pubblici, alti spread e basse
prospettive di crescita del PIL, ma anche dall’effetto perverso dell’integrazione
finanziaria avvenuta nell’Eurozona: l’aumento del rischio sistemico, ovvero la perdita
di credibilità del sistema nel suo complesso, in questo caso dalla partecipazione ad
un’area valutaria in crisi, che si riverbera sulle prospettive di solvibilità dei singoli
paesi. Le interconnessioni che si sono venute a creare fra le banche e fra le imprese
private europee non consistono soltanto in forti divaricazioni fra surplus nei bilanci
del Centro e deficit nei bilanci della Periferia, ma anche in portafogli di banche del
Centro gravate dai debiti pubblici, e anche di imprese private, della Periferia. Il
“rischio sistemico" aggiunge perciò, alla specifica situazione di bassa solvibilità,
anche una richiesta di “premio per il rischio” aggiuntivo di “contagio”, ovvero che la
solvibilità di un paese venga a soffrire per il peggioramento delle condizioni degli
altri. Rischio sistemico ed effetto-domino generato dal “contagio” hanno fatto nascere
l’aspettativa che l’esistenza futura dell’Eurozona possa essere revocata in dubbio.
Pertanto, la “fuga verso la qualità” sui mercati finanziari internazionali si esprime
nella ristrutturazione dei portafoglio da parte di banche, fondi pensione, risparmiatori.
Nel grafico qui sotto, i tracciati dei tassi di interesse dei Bund decennali e
234
dell’indicatore VIX dei rendimenti nel mercato di borsa USA vanno in direzione
opposta, appunto perché la crisi finanziaria mentre causava la caduta delle quotazioni
azionarie negli Stati Uniti generava un ritorno dei capitali nel mercato del debito
pubblico tedesco (l’eccesso di domanda di Bund ne provoca l’aumento del prezzo di
mercato) considerati più sicuro di quelli della Periferia.
In seguito agli acquisti dei Bund tedeschi e alle vendite dei titoli pubblici dei paesi
periferici dell’Eurozona, che subiscono pesanti perdite nelle quotazioni e conseguente
incremento del tasso di interesse a valori proibitivi. I governi, non potendo pagare
tassi elevatissimi a fronte di un tasso di crescita che continua a presentare valori
negativi, non sono più nella condizione di cercare finanziamenti nei mercati
attraverso nuove emissioni. Diviene quindi indispensabile accettare le radicali
restrizioni di bilancio pubblico alla cui attuazione le autorità europee condizionano
l’erogazione dei prestiti.
7. Una valutazione della crisi dell’Eurozona
Nello slancio ideale dei padri fondatori, l’Europa avrebbe dovuto lasciarsi alle spalle
secoli di guerre e proiettarsi in un futuro di pace e di prosperità. Quel progetto appare
ancora oggi attuale, perché felicemente ispirato dalle virtù del doux commerce lodato
235
da Montesquieu: l’intuizione secondo la quale l’accumularsi di joint ventures in
ambito economico – come si ricorderà, si cominciò dal carbone e dall’acciaio avrebbe non solo cementato interessi fino a quel momento contrapposti, ma anche
favorito il nascere di passioni comuni, fino a realizzare quel demos europeo della cui
lunga latitanza la storia è stata triste testimone. A distanza di più di mezzo secolo dal
Trattato di Roma, però, la crisi dell’Eurozona – la punta avanzata del progetto
europeo - ci obbliga ad aggiungere un punto interrogativo al motto con cui il progetto
dell’Europa unita è stato denominato: Uniti nella diversità ? Nel sottolineare la
diversità fra i popoli d’Europa, il motto tradiva la consapevolezza di quanto arduo
sarebbe stato superare i particolarismi nazionali.
La rapida integrazione finanziaria seguita al varo della moneta unica, con l’agevole
collocazione dei titoli pubblici nazionali in tutti i mercati dell’area valutaria, a
cominciare da quelli delle economie più forti, aveva generato l’illusione che si stesse
ormai consolidando l’integrazione fra i mercati sia reali che del credito. Con l’arrivo
della crisi finanziaria dagli Stati Uniti, la maggior parte dei governi europei ha dovuto
fare fronte ai fallimenti, alle perdite ed ai salvataggi del settore bancario mediante
crescenti disavanzi pubblici e conseguente forte innalzamento del rapporto debito
pubblico / PIL. Parallelamente, negli operatori dei mercati finanziari (banche,
assicurazioni, fondi pensione, fondi sovrani, risparmiatori privati) è venuta meno la
fiducia nella garanzia della denominazione in euro, cosicché il premio per il rischio di
default, che nel primo decennio dell’euro si era quasi azzerato (anche sul debito dei
paesi con finanze pubbliche poco in ordine), è rapidamente schizzato verso l’alto. Un
sistema a rete con crescenti interconnessioni fra banche con forti posizioni nel debito
pubblico a rischio di insolvenza delle economie periferiche ha così innescato in
Europa il rischio sistemico e la paura del contagio. La crisi finanziaria e la
conseguente Grande Recessione stanno drammaticamente rivelando all’Europa
monetaria che uno spazio economico integrato non può fare a meno di un assetto
istituzionale sovra-nazionale di eguale dimensione e interconnessione.
236
In Europa, tuttavia, la politica è estremamente debole e fa fatica a tenere testa
all’economia. Gli Stati-nazione europei annichiliscono di impotenza nei nuovi scenari
del mondo globalizzato. La politica resiste invece negli Stati Uniti. Eppure sono un
paese con un debito pubblico che ha raggiunto il 100% del PIL; senza contare il
disavanzo strutturale di molti stati, anche di primissimo piano come la California, che
se non venisse finanziato dalle agenzie federali ma coperto con emissione di titoli
renderebbe il debito statunitense secondo solo a quello del Giappone (al 225,8% del
PIL nel 2010).
Ma un default degli Stati Uniti è naturalmente un ossimoro. Il mondo ha sostituito il
tallone aureo con il dollar standard, ha cioè riposto la “fiducia di ultima istanza”
nella valuta depositaria dell’unico potere economico e militare “in carica” nel
governo del mondo. Ci vorrà il tempo di completare il suo catching-up perché la Cina
possa aspirare al ruolo di superpotenza. Nel frattempo, i paesi dell’Eurozona faticano
a rendersi conto che la diversità, piuttosto che una risorsa, si sta rivelando la causa del
declino. Il primato dell’economia dipende oggi dal fatto che la solvibilità dei governi
237
delle economie periferiche (Grecia, Irlanda, Italia, Portogallo, Spagna) è messa in
dubbio da una crescita del PIL mediamente bassa negli ultimi due decenni e negativa
negli ultimi anni. E poiché non promette affatto di riprendersi, l’aspettativa è che non
ci sarà negli anni futuri quell’incremento del gettito fiscale necessario a finanziare un
esborso per interessi gonfiato dalla aumento dello spread rispetto al tasso-base sui
titoli tedeschi. A ciò va aggiunta la problematicità dell’abbattimento del debito
pubblico. Primo, quanto più ravvicinate sono le date di scadenza di un ingente debito,
tanto meno una crescita modesta consentirà di accumulare i surplus di bilancio
necessari ad estinguerne ampie quote.
Secondo, in assenza di acquirenti delle
posizioni debitorie, il credito all’economia ed il sostegno pubblico alla domanda
aggregata languono, con conseguenze esiziali per la formazione di nuovo PIL, da cui
proviene anche il risparmio privato che alimenta la copertura dei bilanci in rosso.
Terzo, in un momento in cui la deflazione è in corso in tutt’Europa, l’onere di
sostenere la domanda aggregata ricade sulle componenti interne, prostrate
dall’incremento del prelievo fiscale imposto dai consolidamenti fiscali. Come da più
parti sottolineato, manovre di restrizione fiscale di ampia portata, come quella
realizzata a dicembre scorso in Italia, comportano un deleveraging eccessivamente
rapido dello stato, che va ad aggiungersi al deleveraging delle banche e delle imprese.
Il nuovo Patto di Stabilità e Crescita (il cosiddetto Fiscal Compact, approvato nel
Consiglio Europeo dell’8-9 dicembre 2011) imporrà ad ogni paese il cui rapporto
debito pubblico/PIL sia superiore al 60% una riduzione annua pari ad 1/20 della
distanza dal valore di riferimento Per dare qualche numero: se l’attuale accordo
europeo verrà ratificato senza i parametri aggiuntivi proposti da Monti, l’Italia,
dovrebbe abbattere il debito del 3% del PIL, cioè una volta e mezza la “manovra
Monti”, per 20 anni (se invece si computerà anche il debito del settore privato, molto
basso in Italia, la riduzione potrebbe scendere all’1,5% del PIL).
La BCE si dichiara impotente di fronte ad un problema di lungo periodo qual è la
crescita e si concentra sul ripristino di un ordinato funzionamento del settore bancario
e finanziario. Il finanziamento dell’economia reale è infatti messo a rischio dal
238
mismatch fra un’offerta di attività finanziarie, pubbliche e private, ad alto rischio da
parte delle banche, ed una domanda dei mercati concentrata sui titoli a basso rischio.
Nel tentativo di aggirare il divieto statutario di acquistare all’emissione il debito
pubblico dei paesi dell’Unione Monetaria Europea (UME), e impossibilitata ad
assorbire i titoli pubblici smobilizzati dagli operatori finanziari, in
quanto ciò
configurerebbe la resa all’”indisciplina fiscale” dei governi, il governatore Draghi ha
scelto la strada di rifinanziare all’1% le banche per allontanare il rischio di un credit
crunch ed al contempo favorire l’acquisto di titoli dei pesi periferici, che hanno oggi
rendimenti fino al 7% (in più, in Italia il governo Monti ha fornito la garanzia
pubblica su obbligazioni bancarie di dubbio valore, per facilitarne il trasferimento
alla BCE come collaterale dei prestiti ottenuti). Non potendo sostenere i governi, la
BCE ha inondato di liquidità le banche. Il prestito illimitato concesso a piene mani
(480 miliardi di euro a tre anni), una volta investito in titoli pubblici, è stato però in
gran parte ceduto dalle banche come collaterale o solo parcheggiato presso la BCE
allo 0,25%. Ma l’obiettivo di ripristinare la fiducia nel mercato dei finanziamenti
interbancari sembra raggiunto.
Il coordinamento fra le istituzioni europee è carente. Mentre l’operazione Draghi,
favorendo il deleveraging, mira a ridurre l’elevata leva finanziaria delle banche,
l'European Banking Agency (EBA) impone di fatto di aumentarla. A fronte della
perdita di valore dei titoli pubblici dei Paesi periferici detenuti in portafoglio,
interpretando l’innalzamento del capital ratio imposto da Basilea3 come l’obbligo ad
una valutazione dei titoli delle banche agli attuali prezzi di mercato, l’EBA ha
richiesto alle banche 114 miliardi di aumenti di capitale. Il risultato di questa miope
strategia è che le banche del Nord Europa si sono sentite incoraggiate ad orientare il
deleveraging allo smobilizzo dei titoli dei paesi periferici. Il debito pubblico
denominato in euro sta tornando ad essere collocato entro i confini di ciascuno stato
emittente in proporzioni che non si vedevano da prima dell’unione monetaria. La
tendenza alla ri-nazionalizzazione del debito pubblico avrebbe comunque dovuto
239
avviare la diminuzione degli spread. Così non è stato. La spiegazione è che la rinazionalizzazione non può sostituire la funzione di lender of last resort, e cioè la
prerogativa, di cui la BCE è priva, di fornire la garanzia collettiva sul debito pubblico
di ciascun paese. I mercati internazionali, consapevoli di questo handicap
dell’Eurozona, nel corso del 2011 hanno modificato in modo strutturale le aspettative
sulla solvibilità dei paesi periferici e proseguiranno la smobilizzazione dei titoli
pubblici denominati in euro fino al punto in cui il loro valore si sarà adeguato al
nuovo grado di rischiosità attribuito a ciascuno stato. Per tenere fede al moloch
dell’indipendenza della politica monetaria dalla politica fiscale (sconosciuta negli
Stati Uniti), stati-giganti nel contesto globale e dotati di una moneta sopravvalutata
rispetto al dollaro, si ritrovano ad essere stati-lillipuziani, costretti a impegnare i beni
reali nazionali per ritirare dai mercati debito pubblico (è allo studio in Italia un fondo
immobiliare cui conferire beni dello stato come garanzia sull’emissione di titoli da
cedere in cambio alle banche). E’ proprio ciò che hanno periodicamente fatto i paesi
dell’America Latina di fronte alla fuga degli investitori americani. Perché siamo
arrivati a tanto?
La crisi sistemica della finanza europea è venuta a innestatasi su una redistribuzione
di lungo periodo della produzione mondiale fra economie a diverso grado di sviluppo.
L’Eurozona risulta quindi doppiamente penalizzata dall’evoluzione dell’economia
globale. In primo luogo, perché si trova in condizione di svantaggio riguardo ai due
principali fattori della crescita del XXI secolo: il progresso tecnico ed il capitale
umano, da cui dipende l’incremento della produttività totale dei fattori, sono
distribuiti in maniera molto diseguale fra Nord e Sud d’Europa. In secondo luogo,
perché le basse prospettive di crescita generano una spirale deflazionistica, in quanto
l’incertezza delle imprese e delle famiglie sui redditi futuri aumenta e si eleva il
grado di rischio che i mercati applicano ai debiti che gli stati hanno contratto.
Dovrebbe essere evidente a tutti i governanti europei che le sfide cui la
globalizzazione ci sta ponendo di fronte sono troppo grandi per essere affrontate in
240
ordine sparso. L’incendio che oggi minaccia la casa comune fa infatti emergere in
tutta la sua gravità una debolezza istituzionale che data da almeno due decenni prima
della nascita dell’euro. Essa risiede nell’avere risparmiato sui materiali da
costruzione. Le istituzioni esistenti sono infatti servite innanzitutto per sbandierare il
“vincolo dell’Europa”, per convincere l’elettorato nazionale ad accettare le politiche
macroeconomiche imposte dalla globalizzazione finanziaria, dimenticando che esse
sono in aperto conflitto con l’esigenza di creare il consenso delle opinioni pubbliche
attorno ad una strategia di crescita economica comune.
La gestione politica della crisi dell’Eurozona è stata finora deludente. Il ritardo
culturale dei governanti europei è notevole. Nell’autunno 2010, Merkel e Sarkozy
dichiararono improvvidamente che le eventuali insolvenze degli stati non sarebbero
ricadute solo sui governi dell’Eurozona, ovvero sulla tassazione dei contribuenti,
perché anche gli acquirenti privati del debito greco sarebbero stati chiamati a
partecipare all’haircut del 50% del valore nominale del debito greco. Come dire ai
mercati: state alla larga dai bond dell’Europa periferica. Poi venne creato il fondo
salva-stati (l’European Financial Stability Facility: EFSF), e si perseverò nell’errore
di stabilire la condanna dei piromani prima di avere provveduto a spegnere
l’incendio. Ad esempio, il finanziamento dell’EFSF pro-quota da parte dei paesi
dell’Eurozona viene contabilizzato come voce del debito pubblico nazionale. Non
deve perciò sorprendere la scarsa credibilità che è stata riconosciuta all’EFSF nel
momento in cui ha tentato di finanziarsi sul mercato. Nonostante che
Standard&Poor’s abbia decretato il downgrading delle emissioni dell’EFSF conseguenza diretta del downgrading di paesi contribuenti al fondo, come Francia ed
Austria, la cui garanzia ha perso il rating massimo AAA - l’ammontare del rifinanziamento al fondo salva-stati rimane avvolto nella nebbia. Per fornire la garanzia
della solvibilità ai debiti pubblici di Italia e Spagna occorrerebbero ben più del
doppio dei 700 miliardi che si potrebbero mettere insieme fra i probabili 500
dell’EFSF e i 200 del FMI. Il fondo salva-stati è la soluzione solo se fa le veci della
241
BCE nel fungere da prestatore di ultima istanza. E’ auspicabile che la Merkel, una
volta incassata la ratifica dell’accordo sul Fiscal Compact il 30 gennaio, dia il via
libera a marzo al varo ad un European Stabilization Mechanism (ESM) - il nuovo
fondo che opererà dal prossimo luglio – che abbia accesso alla BCE al pari delle
banche e sia autorizzato ad operare sul mercato sia primario che secondario.
Le istituzioni comunitarie non hanno dato prova di maggiore lungimiranza
progettuale. Nella copiosa letteratura sull’integrazione europea, il ruolo del metodo
comunitario – riassumibile nel diritto di iniziativa sulle politiche comuni della
Commissione europea - è stato descritto come l’”oscillare di un pendolo”. Anni di
forte impulso all’integrazione sono stati seguiti da anni di sostanziale blocco se non
di arretramento. Il metodo comunitario è riuscito ad esercitare una spinta propulsiva
sull’integrazione europea unicamente nelle fasi favorevoli della congiuntura
economica, nelle quali il “mutuo vantaggio” degli stati aveva modo di prevalere sul
conflitto fra gli interessi nazionali. La stagflazione scoppiata negli anni ’70 segnò
però la fine del “mutuo vantaggio”, poiché le “svalutazioni competitive” dei
principali paesi europei avevano ormai trasformato i contrapposti tentativi di rilancio
delle esportazioni in un gioco a somma zero.
Gli Stati-nazione scelsero saggiamente di aggrapparsi al “vincolo esterno”
dell’Europa e combattere l’inflazione attraverso il passaggio nel 1979 ai tassi di
cambio fissi del Sistema Monetario Europeo (SME). Per i governi ciò significò
accettare politiche monetarie restrittive, tali da preservare i tassi di cambio fissi dello
SME e consentire quella convergenza nominale – un processo di disinflazione
mitigato da periodici e limitati aggiustamenti delle parità di cambio - necessaria a
contrastare la declinante competitività rispetto a concorrenti dotati di maggiore
efficienza produttiva, in primo luogo la Germania.
Il fatto è che le istituzioni europee hanno progressivamente smarrito la stella polare
del progetto unitario lasciando l’iniziativa ad una sempre più rapida globalizzazione.
242
La miccia dell’incendio odierno fu innescata nel 1990, anno spartiacque fra due
epoche storiche. In quell’anno giunse a compimento in Europa il processo di
liberalizzazione dei movimenti di capitale. L’Europa comunitaria mancò della visione
prospettica necessaria a costruire un disegno unitario dei mercati finanziari e si limitò
all’adeguamento passivo al progetto egemonico dalla finanza globale, che aveva
preso avvio nei primi anni ’80 con la drastica deregolamentazione bancaria degli Stati
Uniti. Il 1990 fu perciò testimone della sostanziale cessione agli operatori finanziari
del potere di determinazione sulle politiche monetaria e valutaria nazionali.
Nell’abolire i controlli e lasciare agli operatori la piena libertà di “ottimizzare” il
proprio portafoglio di attività finanziarie, spostando capitali da una piazza all’altra in
tempo reale alla ricerca del migliore rapporto fra rendimento atteso e grado di rischio,
venne sancita la cancellazione del primato della politica degli Stati-nazione
sull’economia globale.
Nel 1991, il Trattato di Maastricht consegnò al metodo comunitario il compito di
mettere l’integrazione monetaria europea al passo con le sfide poste dalla
globalizzazione, subordinando l’ingresso nell’unione monetaria al rispetto dei noti
“criteri” per la convergenza nominale. L’impatto dirompente che la liberalizzazione
dei movimenti dei capitali avrebbe potuto avere su un complesso processo di
integrazione monetaria e reale non venne percepito in tutta la sua portata. In seguito
ai vincoli su deficit e debito pubblico, molti paesi dell’Eurozona, già indeboliti della
perdita di autonomia che la liberalizzazione finanziaria aveva causato alle politiche
monetarie e valutarie (come la crisi dello SME nel 1992-93 dimostrò al di là di ogni
ragionevole dubbio), dovettero acconciarsi a perdere anche lo strumento della politica
fiscale. Lo snodo cruciale, che ci conduce direttamente alla crisi attuale, fu il modo in
cui venne concepita l’unificazione monetaria entro il 1999. Le guidelines monetarie e
fiscali che nel corso degli anni ’90 furono imposte agli stati concentravano tutta
l’attenzione sulla convergenza nominale necessaria per l’ammissione all’euro. La
preoccupazione principale della Germania fu quella di legittimare la nuova valuta
come segno monetario non soggetto a svilimento e di mettere la Banca Centrale
243
Europea (BCE) al riparo da ogni tentativo di abbattere i debiti pubblici attraverso la
“monetizzazione”. L’impianto istituzionale fu perciò circoscritto al disegno di una
BCE fedele erede della Bundesbank ed alle più stringenti regole sui bilanci pubblici
nazionali del Patto di stabilità e crescita (PSC). La persistente eterogeneità fra le
economie - in termini di livelli di produttività e di regolamentazione dei mercati avrebbe piuttosto richiesto un disegno istituzionale all’altezza dei conflitti distributivi
che sarebbero inevitabilmente sorti. Si sottovalutò che l’aggiustamento di mercato –
la discesa di salari e prezzi – sarebbe rimasto il solo strumento per contrastare ogni
divario di efficienza dei paesi periferici rispetto alle economie più avanzate.
Preoccupata solo della disciplina delle politiche macroeconomiche, l’Europa
monetaria demandò la riduzione dei forti divari fra Centro e Periferia alle sole forze
di mercato. Non prevedendo quell’ampliamento del bilancio europeo indispensabile
ad una crescita equilibrata, l’UME nacque del tutto impreparata rispetto alla
complessità del processo di catching-up cui erano obbligati i paesi meno avanzati. Le
economie periferiche a più basso reddito pro capite si sono così trovate ad affrontare
il passaggio da economie di produzioni agricole ed industriali tradizionali ad
economie di servizi prive degli strumenti di politica economica di cui le econome
avanzate avevano goduto nel loro “decollo economico”. Né l’impatto deflazionistico
della governance macroeconomica ha trovato compensazione nei programmi di
coesione sociale di Bruxelles. Non è un caso che, dopo avere constatato i numerosi
difetti dei fondi strutturali e di coesione ad inizio anni 2000 - si pensi al Rapporto
Sapir (2004) - non si sia mai realizzata una sostanziale revisione delle politiche di
sostegno alla convergenza reale. Paesi a lenta dinamica della produttività (in diversa
misura, Grecia, Italia, Portogallo e Spagna) hanno conosciuto una forte e continua
divaricazione del costo del lavoro per unità di prodotto dalla media dell’Eurozona,
che ha minato la competitività delle loro esportazioni, provocando la cessione alla
Germania di ulteriori quote del mercato europeo.
Le “bolle” speculative immobiliari e finanziarie create dalle banche irlandesi e
spagnole nel periodo 2004-2007 hanno dimostrato che con il varo dell’euro ci
244
sarebbe stato un gran bisogno di attente politiche a livello comunitario. Nel servire
sistemi produttivi eterogenei, la politica monetaria comune avrebbe dovuto essere
accompagnata
dalla
centralizzazione
della
vigilanza
monetaria
e
della
regolamentazione finanziaria. Un clima intellettuale poco propenso a regolare la
finanza fece invece sì che queste “bolle” non venissero governate né in patria né a
Francoforte. E al loro “scoppio”, le insolvenze degli operatori privati sono state
sopportate dal bilancio pubblico, con conseguenze a lungo termine sulla dinamica
dell’occupazione e della produzione. Una politica economica europea imperniata su
un mix deflazionistico di politica monetaria comune e politiche fiscali nazionali può
risolvere problemi di competitività di breve periodo, ma non accompagnare la
convergenza reale di lungo periodo. L’assenza nell’Eurozona di un bilancio europeo
degno di questo nome riflette la rinuncia ideologica ad affrontare in termini sistemici
la questione del cambiamento strutturale. Dopo avere realizzato la convergenza
nominale, sarebbe occorso monitorare la bilancia commerciale dei paesi
dell’Eurozona e sostenere con adeguate politiche comunitarie la “rincorsa” dei paesi
periferici al più elevato reddito pro capite dei paesi più avanzati. Nell’epoca degli
squilibri macroeconomici globali, dove nell’allargare surplus e deficit di conto
corrente all’interno dell’unione monetaria la Germania gioca lo stesso ruolo della
Cina nei confronti degli Stati Uniti, un bilancio da riequilibrare è anche quello
dell’interscambio intra-Eurozona. I forti nessi di causalità che legano politiche
macroeconomiche e fattori della crescita sono così rimasti per tutto il decennio scorso
al di fuori dell’orizzonte teorico delle autorità europee. Nell’aumentare il tasso di
interesse sull’euro dopo i primi, illusori, sintomi di ripresa nel 2010 (+0,25% ad
aprile 2011 e +0,25% a luglio 2011), l’ex governatore della BCE Trichet ha mostrato
di continuare a temere il drago ormai sconfitto dell’inflazione. Il problema era invece
la deflazione conseguente al deleveraging delle banche e delle imprese, che però non
compariva nell’agenda dei Consigli europei, essendo i ministri dell’economia
impegnati a rincorrere i mercati finanziari contraendo i bilanci pubblici. E oggi il
Fiscal Compact, nel prevedere la perdita di “sovranità” dei governi sui bilanci
245
nazionali, non solo annulla le speranze di un rafforzamento delle tutele pubbliche in
Europa – dagli ammortizzatori sociali, alle misure per promuovere l’occupazione
femminile, all’estensione del diritto all’istruzione – ma prospetta la rinuncia alle
politiche “attive” del lavoro indispensabili per portare a più dignitosi livelli il tasso di
occupazione.
Il problema dell’euro è allora così riassumibile. Primo. Con un debito pubblico in
rapporto al PIL molto elevato ed una pressione fiscale spesso al massimo storico, i
paesi periferici dell’Eurozona non presentano le condizioni di solvibilità a lungo
termine per ottenere dai mercati i capitali necessari alla ripresa economica.
L’emissione di debito pubblico europeo – quindi, non più solo denominato in euro,
ma “sovrano”, i cosiddetti Eurobonds – è l’unico modo efficace per abbattere il
debito pubblico nazionale, in quanto permette di “ritirare” le quote di in eccesso
rispetto al limite del 60% del PIL (come proposto, con differenze marginali, nei vari
piani diretti ad eliminare il rischio di default). Secondo. Una governance
macroeconomica non più orientata alla deflazione ma all’espansione produttiva ed
occupazionale non è oggi realisticamente realizzabile singolarmente da paesi
impegnati a contenere drasticamente la spesa pubblica. Una ripresa credibile è
concepibile solo nella dimensione sovra-nazionale di un’Unione fiscale che sostenga
il livello della domanda a livello europeo. Gli Eurobonds dovrebbero quindi anche
essere utilizzati per raccogliere i capitali per progetti comuni di beni pubblici. Se
mercati affamati di attività finanziarie di buona qualità contenessero lo spread sul
Bund decennale (il cui tasso di interesse è inferiore al 2%) intorno ai 100 punti,
emissioni comuni potrebbero essere piazzate ad un tasso di interesse intorno al 3%.
A frenare questa soluzione c’è una questione più profonda: il ritardo nella formazione
di un demos europeo, che è particolarmente visibile nell’approccio all’Europa del
paese che ha assunto la guida de facto del processo di integrazione. La Germania fa
mostra di non volersi caricare il peso maggiore della ripresa europea. Rifiuta quel
riequilibrio della propria domanda interna rispetto a quella estera che permetterebbe
parallelamente ai paesi periferici di far risalire la loro quota di esportazioni sul totale
246
del commercio intra-UME. E si oppone anche ad una impostazione meno restrittiva
della politica monetaria comune (se la BCE innalzasse il suo target di inflazione al di
sopra del 2%, un cambio stabilmente inferiore dell’euro rispetto al dollaro potrebbe
spingere le esportazioni dell’intera unione monetaria). La storia insegna che i più
importanti processi di unificazione politica si sono realizzati in Europa sotto la guida
di potenze regionali: Prussia e Regno di Sardegna hanno svolto la funzione storica di
creare due grandi Stati-Nazione. L’approccio intergovernativo va però adeguato al
complesso mondo dell’inizio del nuovo millennio. Avendo lanciato l’attacco all’euro,
la finanza globale tiene sotto scacco tutti i governi dei paesi dell’Eurozona, non solo i
“deboli” ma anche i “forti”. Ciò sottrae a Germania e Francia il coraggio politico per
portare avanti con convinzione il processo di unificazione europea, a cominciare
dall’Unione fiscale. La soggezione ai mercati finanziari aggrava il problema
dell’assenza di demos, perché finisce per accrescere il deficit democratico che mina il
progetto unitario. Con ogni probabilità, pochi paesi sottoporranno al voto popolare il
progettato Trattato europeo, destinato a recepire l’accordo sul Fiscal Compact.
Avendo l’obiettivo di rafforzare i vincoli di politica fiscale del PSC mettendo sotto il
controllo intergovernativo i bilanci pubblici nazionali, il Fiscal Compact di fatto
sottrae ai cittadini delle comunità nazionali il controllo democratico sulle proprie
scelte economiche. Il nuovo Trattato rischierebbe perciò di essere bocciato.
Se la reazione della diarchia franco-tedesca all’attacco dei mercati si esaurisse nel
semplice consolidamento fiscale verrebbe emessa la condanna definitiva del progetto
unitario. Di fronte all’impasse generato dall’odierno “gioco europeo” – la matrice dei
pay-off dove c’è “chi perde” e “chi guadagna” da un’Europa più solidale - l’obiettivo
della crescita rappresenta l’ultima chance per il rilancio dell’idea di Europa. La crisi
dell’euro affonda le sue radici nell’assenza di un fine realmente comune, che è cosa
diversa dal semplice sforzo congiunto per raggiungere un obiettivo che rimane
nell’interesse dei singoli stati, quale fu la disinflazione che aprì la strada alla moneta
unica. Il fine comune è oggi la ripresa della crescita del continente Europa, che è
realizzabile facendo rivivere lo spirito del doux commerce. La crescita consentirebbe
247
di trasformare l’attuale gioco non-cooperativo, ripristinando quella struttura di gioco
di “mutuo vantaggio” fra i paesi dell’Eurozona, felicemente perseguita nella prima
fase del processo di integrazione. Al concetto di doux commerce è connaturato lo
stretto legame fra bene comune e democrazia. Una guida “intergovernativa”
all’altezza del compito di progettare una strategia di crescita “comunitaria”
impedirebbe ai partiti populisti nazionali di illudere gli elettorati con la menzogna che
la causa della crisi è l’euro e non invece le deboli istituzioni europee che essi stessi
hanno contribuito a mettere in piedi. Solo così – per usare una metafora - il
metalmeccanico di Wolfsburg non temerà più l’Europa dei trasferimenti al
dipendente pubblico di Atene. Come ha scritto di recente Jürgen Habermas, “(è)
necessario attuare un’integrazione politica basata sul benessere sociale, in modo che
la pluralità nazionale e la ricchezza culturale (…) della ”vecchia Europa” possano
essere protette dall’appiattimento di una globalizzazione sempre più veloce” (Zur
Verfassung Europas. Ein Essay, Suhrkamp, 2011).
Nel medio-lungo, la credibilità dell’Eurozona è affidata alla realizzazione di quelle
riforme istituzionali che dovrebbero portare l’integrazione europea alla meta
dell’Unione politica. 1) L’Unione bancaria, ovvero la creazione di un’autorità di
sorveglianza e monitoraggio delle attività del sistema bancario dei paesi membri, di
un fondo per la ricapitalizzazione delle banche in difficoltà, l’accordo per una
garanzia commune sui depositi bancari; 2) L’Unione fiscale, ovvero la creazione di
un bilancio pubblico europeo degno di questo nome (la contribuzione dei singoli
paesi all’attuale bilancio è pari appena all’1% del PIL complessivo dell’Unione
Europea) (finanziato da un saggio di tassazione comune), in modo da organizzare
politiche di stabilizzazione, di allocazione (la creazione di beni pubblici europei) e di
redistribuzione (un sistema europeo di protezione sociale ed il rafforzamento dei
fondi strutturali in modo da rilanciare la convergenza reale delle regioni arretrate.
La Germania, attraverso un gruppo consistente di economisti, lamenta l’”azzardo
morale” dei paesi periferici. Nella loro interpretazione, il sistema Target2 non
248
rappresenterebbe lo strumento operativo dei rapporti istituzionali fra la BCE e le
BCN preposto alle poste attive e passive contabilizzate a Francoforte, ma lo
strumento di dilazionamento del necessario aggiustamento reale delle economie
periferiche. Per provare la loro tesi, gli economisti tedeschi mettono in luce come il
rifinanziamento delle banche greche oberate dai debiti a seguito di crediti inesigibili
si presenti perfettamente correlato con l’indebitamento della Banca di Grecia
nell’ambito del Target2. Gli economisti tedeschi fanno notare come, a fine 2011, il 93
% dello stock di moneta creato dall’Eurosistema (l’autorizzazione data dalla BCE alle
BCN a stampare moneta) prevenisse dai 5 paesi periferici (Grecia, Irlanda, Italia,
Portogallo and Spagna) che rappresentano solo il 34% del PIL dell’Eurozona. Come
ha ironicamente osservato Sinn, uno degli economisti tedeschi più rigoristi, “The
European system may prove more robust than the Bretton Woods system, given that
the national central banks of the Netherlands, Finland, Luxembourg and Germany,
which accumulated Target claims instead of dollar claims, will be unable to follow
General De Gaulles’s example and convert their claims into gold (…) The Target
imbalances show that a system with idiosyncratic country risks and international
interest spreads for public and private bonds is incompatible with a monetary system
that allows countries to finance their balance-of-payments deficits with the printing
press, without having to pay for the extra money-printing with marketable assets as is
the case in the USA. Such a system will always induce the less-solid countries to
draw Target credit to avoid the risk premium that the market demands, leading
eventually to a balance-of-payments crisis. To avoid this problem, Europe has only
two options. Either it socializes national debts in order to eliminate the international
differences in interest rates (by creating a uniform default risk for all countries),
limiting excessive borrowing through the imposition of politically mandated
constraints. Or it ensures that the Target balances are redeemed annually with
marketable assets, keeping the debt burdens within the national responsibility and
allowing for country defaults and interest differentials The US obviously chose the
249
second route. States can go bankrupt, excessive capital flows are prevented by state-
specific interest spreads, and the Target balances are unattractive, since they have to
be settled with marketable assets. This system is stable, because it avoids excessive
capital flows between the states and thus excessive US-internal trade imbalances.”
250
Questa posizione interpretativa rivela una incomprensione della differenza fra
integrazione e convergenza. Se il sistema USA prevede la responsabilizzazione dei
singoli Stati è proprio perché ha attraversato una lunga fase di integrazione
economica, coordinata dagli interventi di politica economica del governo federale,
che ha permesso a tutti gli Stati di raggiungere un certo livello di sviluppo. L’assenza
di tale coordinamento nell’Unione Europea ha lasciato che l’integrazione fosse
affidata alla sola convergenza di mercato.
Nel grafico centrale dei tre presentati qui sopra, si può osservare la lunga fase di
“quiete” (spread con il Bund vicino a zero) fra il 1998, anno in cui superarono
l’”esame di ammissione” tutti gli 11 paesi aspiranti all’unione monetaria, ed il 2007,
anno dello scoppio negli Stati Uniti della crisi finanziaria.
Il primo dei due grafici qui sotto ripercorre le varie fasi dal restringimento
progressivo dei differenziali dei titoli pubblici della maggior parte dei paesi rispetto
alla media dell’Eurozona: dal restringimento progressivo dei differenziali fra il 1985
ed il passaggio all’UME nel 1999 (con 1 anno di ritardo la Grecia); al pressoché
completo azzeramento con l’introduzione dell’Euro nel 2002; alla stabilità intorno
allo zero del premio per il rischio di default; all’innalzamento degli spread dal 2008
al 2011. Nel grafico qui sopra la corrispondente caduta delle quotazioni.
Si può dire che l’euro nacque sull’onda di una scommessa. Nella valutazione
prevalente fra gli economisti al momento della sua progettazione agli inizi degli anni
’90, l’unione monetaria europea (UME) non era giudicata un’”area valutaria ottima”.
La previsione prevalente fu che i costi (essenzialmente, la fine delle svalutazioni
competitive) si sarebbero rivelati in eccesso rispetto ai benefici (essenzialmente, la
drastica riduzione del costo del danaro e la minore aleatorietà dei progetti di
investimento).
251
INTEREST RATES. 10-YEARS GOVERNMENT BONDS
PRICES OF 10-YEARS GOVERNMENT BONDS
Mundell (1961) giudicava improbabile che i vantaggi di efficienza legati
all’accelerazione dell’integrazione economica ed alla accresciuta competizione fra i
sistemi produttivi potessero compensare l’elevata esposizione al rischio di shock
asimmetrici di paesi eterogenei. Successivamente ad uno shock negativo,. la rigidità
252
del mercato del lavoro avrebbe impedito di ridurre il salario reale l’aggiustamento di
mercato non si sarebbe realizzato e l’economia sarebbe entrata in recessione. In
Europa, i paesi a più alta dinamica dei salari e più bassa dinamica della produttività
del lavoro
(relativamente ai paesi “forti” come la Germania) avrebbero
maggiormente sofferto dell’impossibilità di recuperare competitività attraverso il
meccanismo di inflazione-svalutazione del cambio.
L’aspettativa di non-ottimalità dell’Eurozona non influenzò i politici, in quanto
l’avvio nel 1991 del processo di unificazione monetaria culminato nella fissazione di
tassi di cambio irrevocabili nel 1999 fu una decisione eminentemente politica
promossa da Kohl e Mitterrand, che scaturì dallo “scambio” fra rinuncia al marco
tedesco ed avallo alla riunificazione delle due Germanie. Paradossalmente, anche gli
economisti ortodossi sostennero il progetto, attratti non tanto da un’Unione Europea
sempre più integrata quanto dai cambiamenti strutturali da loro da tempo auspicati.
Infatti, per varare la moneta unica si sarebbero finalmente realizzate in gran numero
privatizzazioni e liberalizzazioni dei mercati, la politica monetaria sarebbe stata
rigorosamente anti-inflazionstica e la politica fiscale rivolta al ridimensionamento dei
deficit e debiti pubblici, con la rinuncia alle manovre discrezionali di segno
espansivo.
Inoltre, Mundell, Premio Nobel per l’Economia nel 1999, aveva corretto l’iniziale
giudizio negativo sulla moneta unica in Europa, sottolineando come le probabili fasi
di congiuntura negativa delle economie più deboli sarebbero state sostenibili anche
dopo la perdita dello strumento di politica valutaria. Infatti, la liberalizzazione dei
movimenti dei capitali avrebbe permesso un costante flusso di capitali verso le
economie più arretrate e la fine del rischio di cambio avrebbe assicurato una più
facile gestione dei portafogli dei risparmiatori. I timori sull’investimento dei risparmi
nelle deboli economie dei paesi della Periferia venivano nell’analisi di Mundell fugati
dalla diversificazione del rischio: le perdite sui titoli delle imprese dei paesi deboli
sarebbero state compensate dai guadagni su quelli dei paesi forti; a garantire poi la
solvibilità fiscale dei governi avrebbe provveduto la BCE, attraverso la credibilità che
253
la denominazione nella nuova valuta avrebbe conferito al debito. Le conseguenze
negative degli shock asimmetrici erano quindi affrontabili anche dalle economie
periferiche. Il sostegno all’avvenuta decisione di varare l’euro venne infine
razionalizzato con l’idea rassicurante che il computo costi-benefici andasse fatto
tenendo conto del mutamento strutturale, e calcolato in base a modelli
macroeconomici dove i coefficienti delle variabili considerate fossero quelli ex post
(per ipotesi, migliori) e non quelli ex ante (si veda Frankel e Rose, 1998).
L’ottimistica previsione di Mundell non ha finora trovato conferma. L’incentivo
all’attività di investimento rappresentato dalla forte riduzione del costo del danaro
(per la fine del rischio di cambio e la sostanziale riduzione del premio sul rischio di
default) non ha dato i frutti sperati, neppure negli anni iniziali dell’Eurozona (19992006) che hanno preceduto la crisi finanziaria e la successiva Grande Recessione. E’
vero che l’integrazione finanziaria ha visto le banche del Nord Europa acquistare
attività emesse sia del settore pubblico che da quello privato dei paesi della Periferia,
che fino al 2005-06 hanno conosciuto i tassi di crescita più elevati. Ma ciò ha solo
creato l‘illusione delle virtù miracolose della ricetta supply-side: più liberalizzi i
mercati, riduci le tasse e ridimensioni il sistema di protezione sociale, più sprigioni le
forze progressive dei mercati. In realtà, la carenza di capacità imprenditoriali nei
settori tecnologicamente avanzati fece sì che nella Periferia dell’Eurozona
l’espansione degli investimenti favorita da bassissimi tassi di interessi reali si
concentrassero nei settori finanziari ed immobiliari. Il forte processo di integrazione
finanziaria avvenuto all’interno dell’Eurozona non ha prodotto lo sperato
rafforzamento dei fattori di crescita delle economie periferiche, rimanendo solo una
tessera del più generale fenomeno della globalizzazione. Inoltre, ci troviamo oggi di
fronte ad un’inversione di tendenza dell’integrazione finanziaria in Europa. Le
operazioni della BCE di rifinanziamento delle banche (le LTRO) hanno avuto
l’effetto di favorire una “rinazionalizzazione” del debito pubblico dei paesi
dell’Eurozona e dei capitali bancari.
254
Vale allora la pena ricordare come, negli ultimi due decenni, soltanto due paesi – a
partire dai primi anni ’90 l’Irlanda, un po’ di anni più avanti la Spagna – sono stati
capaci di tradurre in realtà il catching-up previsto dalla modellistica della
convergenza economica. Sono però questi i paesi dove la “rincorsa” ai reddito pro
capite dell’ “Europa avanzata” ha fatto leva non tanto sull’efficienza dinamica quanto
su fattori trainanti particolarmente fragili quali le “bolle” immobiliari e bancarie (ed
in Irlanda anche la competizione fiscale). E sono di nuovo questi i paesi (la Grecia è
un discorso a parte) dove la crescita e la convergenza economica sono state colpite a
morte dallo shock macroeconomico originato dalla crisi finanziaria.
Le vicende europee dimostrano che in un’economia in cui l’adozione di una moneta
comune con i paesi concorrenti sottrae al tasso di cambio reale (l’indicatore della
competitività) la “valvola di sfogo” dell’accomodamento nominale non riesce a fare
fronte ad uno shock sistemico. La competitività delle economie “emergenti” sui
mercati internazionali gode dei benefici del regime dei cambi flessibili vigente fra le
principali aree valutarie. Del beneficio di opportune oscillazioni del cambio nominale
non godono invece i paesi periferici dell’area valutaria europea, sicché
l’aggiustamento di mercato (fuor di metafora, il drastico abbattimento dei costi di
produzione attraverso la riduzione dei salari ed il ridimensionamento della forza
lavoro stabilmente occupata) si rivela insufficiente a creare le condizioni per il ritorno
alla crescita. Gli incentivi messi in campo dal libero mercato non si rivelano
sufficienti, almeno in Europa, per realizzare il catching-up. I sistemi produttivi più
deboli hanno bisogno della progettazione pubblica di un ambiente favorevole
all’innalzamento della “produttività totale dei fattori”, ovvero ricerca tecnologica,
istruzione e infrastrutture. Nell’ Eurozona, il sostegno di appropriate istituzioni
comuni, avviando il passaggio dal coordinamento delle politiche fiscali
indispensabile a “rassicurare” i mercati all’unione fiscale, non sembra più a lungo
procrastinabile.
L’errore non è stato l’euro, ma la insufficiente struttura istituzionale che ha minato i
potenziali benefici della moneta comune sulla crescita delle economie europee. Si è
255
troppo a lungo ignorato che le istituzioni rivestono un ruolo fondamentale ed
insostituibile nel contenere gli effetti degli shock ed accelerare il cambiamento
strutturale delle economie. Questa grave sottovalutazione ha molto pesato allorché la
crisi finanziaria ha messo a nudo tutte le pecche del disegno dell’Eurozona. Una volta
affidata la creazione di moneta alla francofortese BCE, ed assoggettate le politiche
fiscali al vincolo del PSC, dell’assenza di una sufficiente convergenza reale non ci si
preoccupò. A contrastare eventuali shock esogeni ci avrebbe pensato la capacità di
aggiustamento che i mercati liberalizzati avrebbero raggiunto grazie all’integrazione.
L’adozione poco meditata dell’ideologia liberista fece così dimenticare che la
convergenza nominale che ha portato all’euro in nessun modo rappresentava la
garanzia di una spontanea realizzazione della convergenza reale, ovvero di un
progressivo
abbattimento
del
costo
del
lavoro
per
unità
di
prodotto
(salario/produttività del lavoro) verso i valori delle più efficienti economie del Nord.
Oggi, di fronte alla grave crisi dei paesi della Periferia, “le stesse cose ritornano”. I
valori della dinamica del PIL – positivi in Germania e gravemente negativi nella
Periferia – non sono soltanto la conseguenza del rientro dal debito pubblico generato
dai salvataggi delle banche, ma dimostrano che il problema della convergenza reale
fra le economie europee è ancora tutto da affrontare. Oggi, per uscire dalla crisi,
occorrerebbero esattamente le stesse scelte di policy che si invocavano allora: una
BCE che non fosse fotocopia della Bundesbank, politiche fiscali di stabilizzazione
coordinate a Bruxelles; adeguati finanziamenti comunitari di sostegno allo sviluppo.
Tredici anni fa, se fosse stato sorretto da un coordinamento istituzionale all’altezza
dei complessi aggiustamenti reali che avrebbero dovuto accompagnare l‘introduzione
dell’euro, i sistemi produttivi più deboli della Periferia sarebbero forse riusciti ad
utilizzare l’abbattimento dei tassi di interesse e dei costi di transazione per accrescere
l’efficienza produttiva; ed i governi (in primis, i paesi con un rapporto debito
pubblico/PIL superiore al 60%, all’epoca solo Italia, Belgio e Grecia) a destinare le
somme risparmiate grazie alla minore spesa per interessi prima alla decumulazione
del debito pubblico e poi al finanziamento di investimenti in infrastrutture ed al
256
miglioramento del capitale umano. Oggi, con il sistema bancario imballato dal
deleveraging e la domanda interna depressa dal moltiplicatore negativo del bilancio
pubblico, imprese e governi nazionali non possono sperare nelle sole “magnifiche
sorti e progressive” dell’aggiustamento di mercato e del consolidamento fiscale. La
ripresa della crescita nella Periferia, se ci sarà, sarà trainata dall’Europa unita.
La moneta unica fu salutata dai mercati come una specie di bonanza. Le bolle
speculative alimentate da tassi reali di interesse vicini allo zero negli anni 2004-07 –
soprattutto in Irlanda e Spagna – e la competitività declinante in concomitanza con
politiche di consolidamento del bilancio pubblico monitorate dal PSC – soprattutto in
Grecia, Portogallo ed Italia - erano chiari segnali di una crescita poco solida, ben
prima dell’arrivo della crisi finanziaria nata oltre-oceano. Evidentemente, le
prospettive di facili guadagni indussero gli operatori finanziari – in primo luogo le
banche – a puntare sui profitti di breve periodo. In nome dello short-termism, in
alcuni paesi della Periferia si alimentò un ciclo espansivo imperniato sul settore
immobiliare e sulla continua salita dei listini della borsa. Attratti dai più elevati
rendimenti, i capitali si trasferivano dal Centro alla Periferia. Si preferì ignorare che a
risparmi in calo per la crescita dei consumi si sommavano decisioni di investimento
che erano lungi dal garantire un sano processo di catching-up basato sui settori
produttivi avanzati.
Il fatto è che nei mercati dei paesi periferici si determinarono erronei segnali di
prezzo: il tasso di interesse nominale sul credito rifletteva troppo da vicino il tassi di
interesse “comune” sull’euro, senza tenere quindi conto non solo delle condizioni di
capitalizzazione delle banche ma soprattutto del fatto che il tasso di interesse reale era
quasi zero (registrando i forti differenziali di tasso di inflazione rispetto ai paesi del
Nord dell’unione monetaria) ed il tasso di interesse sui titoli pubblici, che dovrebbe
essere sensibile all’andamento di deficit e debito pubblici, presentava spread quasi
nulli con i Bund tedeschi. In questa ”bolla” di “illusione finanziaria” i mercati si
comportarono come se si fosse in presenza di un’area valutaria che prevedesse la
257
funzione di prestatore di ultima istanza per la banca centrale ed una garanzia
“comune” sullo stock di titoli sovrani dei paesi del Nord come del Sud Europa.
Perché i prezzi dei mercati non registravano aspettative molto incerte sulla crescita
futura dei paesi periferici dell’Eurozona, e quindi la scarsa solvibilità dei debiti
privati e sovrani? Primo, le banche centrali nazionali (BCN) dei paesi periferici
sottovalutavano il rischio preso da istituti bancari fortemente esposti a breve termine
nel finanziamento di investimenti di lungo termine, cui si aggiungeva l’azzardo di
portafogli squilibrati verso titoli ad alta volatilità.
Secondo, la condizione di
“sostenibilità” del debito pubblico era clamorosamente assente. Qualche anno di
crescita accelerata non basta a generare aspettative di flussi di reddito futuri – e
perciò di entrate fiscali - adeguati al rimborso del debito pubblico. Su tale miopia
delle BCN si innestò la crisi economica. All’insolvenza delle banche, a fronte di
crediti inesigibili, si sommò - una volta che il loro debito privato veniva trasformato
in debito pubblico – il perverso “moltiplicatore” della crisi determinato dall’intreccio
debito bancario-debito sovrano. Seguirono la stasi del credito, il crollo della
domanda, la sfiducia dei consumatori a basso reddito e la forte restrizione fiscale
(l’”austerità”) imposta dall’esplosione del rapporto debito pubblico / PIL .
Detto tutto ciò, nel vertice di Bruxelles i leader europei sono riusciti a fare abbastanza
per evitare che nell’unione monetaria rimanesse alla mercé dei mercati.
Va sottolineata la grande portata di due principali decisioni: La prima: La fine del
nesso fra debito delle banche e debito pubblico. Con l’intervento finanziario a favore
delle banche da parte dell’Esm - invece che degli Stati - viene sanata l’assurdità
dell’incremento – del tutto gratuito – che ne conseguiva nel debito pubblico.
L’incremento del rapporto debito pubblico / PIL, a sua volta, si veniva a ripercuotere
sull’affidabilità e sulla capitalizzazione delle banche stesse. ed il valore dei titoli
pubblici dati in garanzia alla BCE diminuiva, con gravi effetti sulla strategia di
rafforzamento dei capitali voluta da Basilea3. C’erano poi altri due effetti perversi: (i)
l’incremento sulla spesa per interessi - e quindi aggiuntive emissioni di titoli conseguente all’aumento dello spread dopo un aumento del debito sovrano; (ii) il
258
grave nocumento alla concorrenza, in quanto imprese simili – ma appartenenti a
sistemi-paese diversi – finivano con il finanziarsi a tassi di mercato molto divaricati
fra Centro e Periferia.
L’ostinazione tedesca nell’opporsi ad una garanzia collettiva sulle situazioni debitorie
nazionali era stata solo mitigata dalla scelta di Draghi di inondare le banche di
liquidità al tasso dell’1% per permettere loro di acquistare il debito sovrano di paesi a
rischio di chiusura del finanziamento dei mercati. Il nuovo fondo salva-stati Esm
potrà acquistare - direttamente e sul mercato primario - i bond pubblici una volta che
lo spread si avvicina ad una soglia (ancora da definire) e la BCE dovrebbe ricevere
l’autorizzazione ad agire in simbiosi con l’Esm e permettere al fondo di dotarsi di
munizioni ben superiori agli attuali 500 miliardi di euro (del tutto insufficienti, se
fosse ad esempio l’Italia a trovarsi nelle condizioni di richiedere un prestito). Siamo
molto vicini - in via indiretta – a quella funzione di “prestatore di ultima istanza”
della BCE il cui divieto la Germania volle inserire nello Statuto della banca centrale.
Ragionevolmente, la sola condizione per esaudire una richiesta di intervento è che il
sostegno finanziario non fronteggi una crisi di insolvenza, ma una crisi di liquidità
causata da un’impennata dello spread. Infine, la fiducia degli investitori privati
dovrebbe essere rafforzata dall’avere deciso che i prestatori istituzionali (come
l’Esm) non godranno più dello status di creditori privilegiati in caso di insolvenza.
La seconda: Un primo passo verso l’Unione bancaria. In attesa del passaggio a
Francoforte anche della regolamentazione e vigilanza sui sistemi creditizi e finanziari
è stato approvato l’intervento finanziario dell’Esm a favore delle banche in difficoltà
e delle loro esigenze di ricapitalizzazione, con la supervisione finanziaria dei bilanci
delle banche assegnata alla BCE. L’aspetto innovativo di tale decisione risiede
nell’avere di fatto superato l’altro veto tedesco: il pooling – la garanzia “comune” –
delle passività. Si tratta di una condivisione del rischio che per ora è limitata alle
passività delle banche private e domani – quando, e se, si darà avvio all’Unione
fiscale – dovrebbe estendersi alle passività degli Stati.
259
Come anticipavo all’inizio, il problema vero continua ad essere quello della crescita.
I leader europei non riescono neanche ad impostare la sua soluzione e lo collocano
nel “lungo periodo”. I finanziamenti stanziati durante i vertice sono infatti
insufficienti e lo strumento dei project bonds tutto da definire.
Il problema è grave e di difficile soluzione perché è nato a Maastricht. Nella struttura
istituzionale disegnata a Maastricht alle politiche fiscali nazionali venne demandato il
compito di fronteggiare con interventi espansivi gli shock asimmetrici (mentre alla
politica monetaria della BCE fu assegnata la responsabilità di reagire agli shock che
colpiscono allo stesso modo tutti i paesi membri). Maastricht immaginava che
squilibri limitati ad un paese - causati da cadute della domanda o da incrementi nei
costi di produzione - avrebbero potuto essere agevolmente risolti utilizzando riserve
di entrate fiscali e - nei casi di grave recessione - sostegni pubblici finanziati con
emissione di titoli. L’unica condizione era un livello basso del rapporto debito
pubblico / PIL.
Non è andata così, come dimostrano le gravi crisi in cui si dibattono ancora oggi due
paesi inizialmente a basso debito pubblico come Irlanda e Spagna. Il perché è presto
detto. Maastricht ha avuto la colpa di sottostimare la forte eterogeneità dei paesi
periferici rispetto al Centro. In particolare, due “ritardi” strutturali: (i) la debolezza di
alcuni sistemi bancari, dovuta all’inefficienza della regolamentazione nazionale; (ii)
il divario di efficienza produttiva della Periferia nei confronti del Centro, che prima
del passaggio all’euro veniva mascherato dal progressivo riallineamento nominale del
tasso di cambio e che ha poi generato l’accumularsi di perdite nella bilancia
commerciale di paesi come Grecia, Portogallo, Spagna e (in misura molto minore)
Italia.
L’equazione : (S – I) = (G – T) + (X – M) – come più volte detto - rappresenta
l’equilibrio macroeconomico complessivo di un sistema economico. Ogni
diseguaglianza fra le variabili all’interno di ciascuno dei tre settori - Risparmi e
Investimenti nel settore privato, Spesa pubblica (G) e Tassazione nel settore pubblico,
ed Esportazioni (X) ed Importazioni (M) nel settore estero - viene a scomparire nella
260
somma algebrica delle varie poste. Ciò vale sia riguardo ai singoli settori all’interno
di ciascun paese, sia nell’annullamento degli squilibri reciproci all’interno di un’area
valutaria.
L’equilibrio macroeconomico dell’Eurozona nel suo complesso è naturalmente
un’identità contabile. Al netto dell’interscambio dell’Eurozona con il resto del mondo
(il cui bilancio non si allontana mai troppo dal pareggio) una posizione di squilibrio
in surplus in un paese o gruppo di paesi (Centro o Periferia) corrisponde una
posizione di squilibrio in deficit in un altro paese o gruppo di paesi (Centro o
Periferia). L’Eurozona si presenta oggi fortemente divaricata fra un Centro in surplus
ed una Periferia in deficit.
A partire dall’avvio dell’unione monetaria – ed in misura crescente all’indomani della
crisi finanziaria - in alcuni paesi (in primis la Germania, seguita da Austria e
Finlandia) si registra un surplus dei risparmi sugli investimenti cui corrisponde un
surplus di bilancia commerciale, mentre i paesi della Periferia sono gravati da deficit
di conto corrente provocati da una forte dinamica del tasso di cambio reale effettivo,
la cui misura, il costo del lavoro per unità di prodotto (CLUP), indica la competitività
del sistema economico. Nella Periferia, in particolare in Irlanda e Spagna, l’origine
del problema risiede nella rapida espansione della domanda domestica, dove alla
discesa del risparmio hanno corrisposto le “bolle speculative” invece che gli
investimenti produttivi necessari alla crescita e alla “sostenibilità” dell’indebitamento
bancario e sovrano. In Grecia, Portogallo ed Italia, un ruolo importante nel favorire
l’accumularsi di deficit commerciali con l’estero (il cui corrispettivo è il surplus
commerciale del Centro) è stato svolto in anni passati anche dai deficit presenti nel
bilancio pubblico.
Il messaggio di questa contabilità macroeconomica è semplice. I paesi della Periferia
non hanno individualmente le risorse non solo per realizzare il catching-up di lungo
periodo, ma neppure per uscire dalla recessione e stimolare la ripresa economica per
bloccare i deficit con l’estero di breve periodo. L’attuale crisi dimostra come la
struttura istituzionale dell’unione monetaria fosse inadeguata a fronteggiare un grave
261
shock esogeno, qual è stata la “crisi finanziaria americana”.
Per riequilibrare
esportazioni ed importazioni, questi paesi non hanno altra strategia
che di
deflazionare l’economia, provocando una discesa del CLUP, e quindi del reddito e dei
consumi. Gli elevati costi sociali di una tale strategia sono già sotto gli occhi di tutti.
La conseguente risalita del risparmio, da cui ci si aspetta un miglioramento della
bilancia commerciale, potrebbe però bastare. Essa, infatti, causa una variazione di
segno positivo sul lato sinistro dell’equazione, proprio mentre sul lato destro la forte
restrizione fiscale produce nel bilancio pubblico una variazione negativa. Il fatto è
che nel settore estero si registra un andamento diverso da paese e paese (in 3 delle 5
economie periferiche le esportazioni conoscono una riduzione superiore alla discesa
indotta dalla recessione nelle importazioni) ma complessivamente ben lontano dal
generare quel valore ampiamente positivo di ripresa delle esportazioni che sarebbe
necessario per ripristinare l’equilibrio macroeconomico complessivo e frenare così la
recessione evitando ulteriori cadute del reddito.
In sintesi, al prezzo di una drastica deflazione anche la Periferia ora presenta un
risparmio netto nel settore privato, ma lo squilibrio macroeconomico – e quindi la
necessità di trasferimenti di capitali direttamente o indirettamente provenienti dal
Centro – persisterà fintantoché non verrà alleviato il divario di efficienza con il
Centro.
Anche portando in pareggio il bilancio pubblico in modo da comprimere i consumi:
(S > I) < (G = T) + (X < M)
l’eccesso di risparmio è insufficiente per eliminare il deficit commerciale poiché lo
squilibrio non è colmabile senza una forte ripresa di competitività rispetto al Centro
La contabilità macroeconomica suesposta, pur nella sua approssimazione, mostra
come l’unione monetaria non possa andare avanti senza tenere conto della divergenza
reale che mina la coesione economica e sociale al suo interno. A Maastricht si puntò
su una progressiva convergenza fra i sistemi economici, nell’aspettativa che le
262
condizioni di minore incertezza conseguenti al processo di unificazione monetaria
avrebbero favorito il catching-up. Si è probabilmente trattato di un eccesso di fiducia
nelle “magnifiche sorti e progressive” delle libere forze del mercato. Ora bisognerà
affrettarsi a creare le strutture istituzionali che mancano nella costruzione europea.
Occorre un progetto per la crescita, dove l’idea di integrazione della Periferia con il
Centro abbia la stessa dignità dell’idea di convergenza spontanea, guidata dalle sole
forze di mercato, da parte delle economie “meno avanzate”. E’ forse il caso di
rammentare ai capi di governo dell’Eurozona che uno dei principali strumenti di
politica economica per l’integrazione, come l’economia del benessere e la scienza
delle finanze insegnano, è l’unione fiscale.
263
Parte Quarta. Governance macroeconomica e coesione sociale
nell’Unione Monetaria Europea
1. L’economia dell’UME e a Grande Recessione
Nel 2013 la Grande Recessione continua in Europa. Le economie avanzate registrano
il double-dip, la doppia caduta, nel tasso di crescita (vedi Tabella 1), in diminuzione
dal 2007 al 2009 e nuovamente nel 2012 dopo la parentesi del 2010. Parallelamente,
scende la quota dei salari nel reddito: il tasso di disoccupazione è salito dal 5,8%
(2007) all’8,5% (2011) della forza lavoro; e l’indice della crescita cumulata del
salario reale, riproducendo la doppia caduta del reddito, è di nuovo in decremento:
ponendo pari a 100 il valore del 2000, l’indice era salito a 103.3 nel 2006 ed a 104.5
nel 2007, si era ridotto a 104.1 nel 2008, è tornato a salire nel 2009 (104.9) e nel
2010 (105.5), per poi scendere nuovamente a partire dal 2011 (105.0) (ILO, 2013).
Anche nell’Eurozona, il double-dip, da tempo paventato soprattutto dai governi
della Periferia alle prese con la sostenibilità del bilancio pubblico, è divenuto realtà
negli indicatori macroeconomici per il 2012 (vedi Tabella 1). Il tasso di crescita del
PIL, negativo nel 2009 in tutti i paesi, è tornato nel 2012 nuovamente negativo in
Italia e Spagna, di poco superiore allo zero in Francia e di poco positivo in Germania.
La previsione sul PIL per il 2013 è di una rinnovata divergenza tra la crescita della
Germania, che è ripartita nel primo trimestre, e quella dei paesi periferici, più
Slovenia e Cipro, dove l’anno in corso si concluderà probabilmente di nuovo con un
abbassamento del PIL. Molto preoccupante il dato di crescita negativa dell’Italia,
dopo che quello finale del 2012 è stato corretto al rialzo (Vedi Tabella 1).
Confrontando le proiezioni su reddito e disoccupazione con i dati delle aree valutarie
del dollaro e dello Yen, la previsione sul benessere futuro nei paesi dell’Eurozona e
sulla sua distribuzione fra le persone appare poco lusinghiera (vedi Tabella 2).
264
Tabella 1. Tassi di crescita del PIL reale
1994
-
200 200 200 200 200 200 201 201 201 201
4
5
6
7
8
9
0
1
2
(*)
2003
economie
3
2,8
3,1
2,6
3,0
2,8
0,1 -3,5
3,0
1,6
1,2
1,2
USA
3,3
3,5
3,1
2,7
1,9 -0,3 -3,1
2,4
1,8
2,2
1,9
Eurozona
2,2
2,2
1,7
3,2
3,0
0,4 -4,4
2,0
1,4 -0,6 -0,3
Germania
1,5
0,7
0,8
3,9
3,4
0,8 -5,1
4,0
3,1
0,9
Francia
2,2
2,5
1,8
2,5
2,3 -0,1 -3,1
1,7
1,7
0,0 -0,1
Italia
1,7
1,7
0,9
2,2
1,7 -1,2 -5,5
1,8
0,4 -2,4 -1,5
Spagna
3,6
3,3
3,6
4,1
3,5
0,9 -3,7 -0,3
0,4 -1,4 -1,6
Olanda
2,9
2,2
2,0
3,4
3,9
1,8 -3,7
1,6
1,1 -0,9
0,5
Belgio
2,3
3,3
1,8
2,7
2,9
1,0 -2,8
2,4
1,8 -0,2
0,2
Austria
2,4
2,6
2,4
3,7
3,7
1,4 -3,8
2,1
2,7
0,8
Grecia
3,5
4,4
2,3
5,5
3,0 -0,2 -3,3 -3,5 -6,9 -6,4 -4,2
Portogallo
2,7
1,6
0,8
1,4
2,4
0,0 -2,9
1,4 -1,7 -3,2 -2,3
Finlandia
3,8
4,1
2,9
4,4
5,3
0,3 -8,5
3,3
Irlanda
6,9
4,4
5,9
5,4
5,4 -2,1 -5,5 -0,8
Slovacchia
4,4
5,1
6,7
8,3 10,5
5,8 -4,9
Slovenia
4,1
4,4
4,0
5,8
7,0
Lussemburgo
4,4
4,4
5,4
5,0
6,6
Estonia
5,7
6,3
8,9 10,1
avanzate
0,8
0,6
2,7 -0,2
0,5
1,4
0,9
1,1
4,2
3,3
2,0
1,4
3,4 -7,8
1,2
0,6 -2,3 -2,0
0,8 -5,3
2,7
1,6
0,1
0,1
2,3
7,6
3,2
3,0
--
7,5 -3,7
14,3
Cipro
4,3
Malta
-
4,2
3,9
4,1
5,1
3,6 -1,9
1,1
0,5 -2,4
-0,5
3,7
3,1
4,4
4,1 -2,6
2,5
2,1
0,8
1,3
(*) Proiezioni
Fonte: IMF (2013)
265
Tabella 2
PIL, prezzi al consumo, conto corrente, disoccupazione
(tassi di variazione annua)
PIL reale
proiezioni
2012 2013
1,3 1,5
2,2 2,1
-0,4 0,2
2,2 1,2
-0,4 1,1
1,9 2,0
2,1 3,0
prezzi al consumo
proiezioni
2011 2012 2013
2,7 1,9 1,6
3,1 2,0 1,8
2,7 2,3 1,6
-0,3 0,0 -0,2
4,5 2,7 1,9
2,9 1,8 2,0
3,1 2,2 2,4
2011
Economie avanzate
1,6
Stati Uniti
1,8
Euro area
1,4
Giappone
-0,8
Regno Unito
0,8
Canada
2,4
Altre economie avanzate*
3,2
Economie asiatiche di
nuova industrializzazione
4,0 2,1 3,6
3,6
* economie del G7 ed altri paesi dell'eurozona esclusi
2,7
2,7
saldo di conto corrente/PIL disoccupazione
proiezioni
proiezioni
2013
2011 2012 2013
2011
2012
-0,4
-0,3
7,9 8,0 8,1
-0,2
-3,1
-3,1
-3,1
9,0 8,2 8,1
1,3
0,0
1,1
10,2 11,2 11,5
2,3
4,6 4,5 4,4
2,0
1,6
-0,9
-3,3
-2,7
8,0 8,1 8,1
-3,4
-3,7
-2,8
7,5 7,3 7,3
4,7
3,7
3,3
4,5 4,5 4,6
6,6
5,6
5,5
3,6
3,5
3,5
Fonte: IMF (2012)
Figura 1. Indice di Gini nell’Unione Europea (2012)
Fonte: Eurostat (2012)
266
Le difficoltà che le economie avanzate stanno incontrando nel rilancio della
crescita, dell’occupazione e dei salari, lancia un messaggio preoccupante: l’aumento
della diseguaglianza di reddito nei paesi “ricchi” non accenna a fermarsi. Come viene
autorevolmente denunciato (Stiglitz, 2013), la diseguaglianza interpersonale fra i
redditi negli Stati Uniti è in forte accelerazione. All’interno nell’Unione Monetaria
Europea (UME), l’indice di Gini segnala una netta frattura: la diseguaglianza di
reddito si colloca al di sopra del valore 0,30 nella cosiddetta Periferia - Italia, Spagna,
Portogallo, Irlanda e Grecia - ed al di sotto del valore 0,30 nel cosiddetto Centro:
Germania, Austria, Francia, Finlandia, Olanda, Belgio, Lussemburgo (vedi Figura 1)
. La disparità fra i redditi delle persone nell’Eurozona si presenta inoltre fortemente
intrecciata con la disparità in aumento fra i redditi pro capite degli Stati membri
(European Commission, 2012), il che preoccupa anche per l’impatto negativo sul
giudizio degli elettorati sulla moneta unica.
Nel prosieguo, l’attenzione verrà concentrata soprattutto sulle cause della
Grande Recessione e sul suo impatto sulle diseguaglianze fra le persone ed i paesi
dell’Eurozona. Verrà approfondito il ruolo giocato dalle politiche macroeconomiche
che hanno regolato i processi di convergenza nominale (i cambi fissi a banda stretta
dello SME dal 1979 al 1992; i criteri di Maastricht dal 1993 al 1998) e dalle
istituzioni dell’unione monetaria - la BCE ed il Patto di Stabilità e Crescita (PSC) negli ultimi quindici anni (1999-2013). In particolare, si esaminerà perché le
istituzioni di governance dell’Eurozona non siano riuscite ad impedire la crescente
divergenza fra i paesi del Centro e quelli della Periferia.
2.Le crisi finanziaria e la Grande Recessione
L’economia mondiale continua a subire le conseguenze di un sistema
monetario internazionale ereditato dal “mondo di ieri” della guerra fredda e
dell’irragionevole ondata di deregolamentazione imposta agli Stati dai mercati
267
globalizzati. E’ opinione largamente condivisa che la liberalizzazione finanziaria che
negli ultimi decenni si è accompagnata alla globalizzazione degli scambi commerciali
ha determinato un generale incremento del grado di rischio nelle transazioni
finanziarie dei paesi avanzati (OCSE). Una seria governance macroeconomica
internazionale dei mercati del credito e dei capitali (Claessens et al., 2011) è tanto
urgente quanto improbabile nel breve termine. Infatti, la finanziariazzazione delle
economie ha grandemente accresciuto il potere degli investitori istituzionali (fondi
pensione, compagnie assicurative, etc.) e degli hedge funds
. Questa comunità
internazionale dei “creditori” tiene in ostaggio governi nazionali che proprio in
seguito alla crisi finanziaria hanno dovuto ricorrere a un crescente indebitamento sui
mercati. Né i governi né le grandi istituzioni internazionali (IMF, World Bank, WTO,
etc.) sembrano in grado di realizzare azioni di coordinamento fra i paesi avanzati al
fine di rendere possibile una regolamentazione più efficace dei mercati.
Vale la pena ricordare com’è nata la crisi, riprendendo l’analisi sopra svolta.
Nel corso del primo decennio del nuovo millennio le banche statunitensi hanno
eccessivamente espanso la propria attività verso una categoria di mutui per l’acquisto
di una casa (i sub-prime) gravati da un alto rischio di mancato pagamento delle quote
di restituzione del prestito e degli interessi. Nella gran parte dei casi, i mutui
venivano concessi a soggetti a basso reddito e con posto di lavoro precario e i titoli
cartolarizzati erano venduti ai risparmiatori a condizioni di trasparenza molto opache.
Queste emissioni di CDO (Collateralized debt obligation: obbligazioni di debito
collateralizzato) che aggregavano i mutui sub-prime (appunto, obbligazioni la cui
garanzia è un debito), venivano poi frazionate nuovamente in base al rating. La
collocazione avveniva prevalentemente nei portafogli di istituzioni non-levered
(ovvero, la cui attività non si basa su liquidità presa a prestito: ad esempio, banche
centrali, fondi sovrani, fondi pensione) oppure nelle SIV (Structured Investment
Vehicles), branche esterne al bilancio delle stesse banche, in cui vengono collocate le
attività finanziarie poco liquide. A loro volta le SIV erano finanziate con linee di
credito ottenute nel mercato dei prestiti a breve termine, in modo da acquisire
268
un’ampia liquidità allo scopo di ottenere una valutazione AAA delle agenzie di
rating. La solvibilità dei titoli ABS (Asset-Backed Securities, ovvero un'emissione
obbligazionaria consistente in una cartolarizzazione, in quanto garantita dai titoli
sottostanti) e MBS (Mortgage-Backed Securities, ovvero una cartolarizzazione
garantita da mutui) - creati dalle banche e venduti sul mercato finanziario interno ed
internazionale - dipendeva dai piani di rientro della liquidità prestata ai mutuatari.
Benché definiti sub-prime, i fondi prestati per l’acquisto di una casa non potevano
presentare per le banche un’aspettativa di restituzione sufficientemente elevata.
Perché allora si moltiplicarono?
La logica del modello “originate and redistribute” è semplice. La stipula di
prestiti dà di norma luogo ad una assunzione di rischio che la banca attraverso la
successiva emissione e vendita di titoli obbligazionari derivati “ridistribuisce” –
indebolendo così di molto l’impatto di un eventuale default - su una vasta platea di
soggetti (istituzionali e non). La creazione di attività finanziarie per ridistribuire il
rischio assunto con i sottostanti titoli sub-prime ha però comportato negli Stati Uniti
dei primi anni duemila un aumento inatteso del grado di rischio dell’attività bancaria.
Ogni volta che un nuovo derivato veniva emesso, la tripla AAA faceva riferimento ad
un titolo costruito con una quota decrescente di titoli di “alta qualità”. Le emissioni di
CDO – che “contenevano” emissioni di obbligazioni la cui liquidità a scadenza era
legata all’aspettativa di restituzione delle originarie tranche di sub-prime –
presentavano un grado di rischio ben superiore alla valutazione AAA attribuita dalle
agenzie di rating. Infatti, ad ogni successiva cartolarizzazione, la tranche “migliore” quella che “conteneva” i sub-prime relativamente meno rischiosi - era considerata
meritevole della AAA, ma di fatto presentava un grado di rischio più elevato,
diversamente da quanto implicato dal rating attribuitole. Poiché le banche prendevano
molta liquidità a prestito per comprare attività con un grado di liquidità difficilmente
determinabile, non solo il loro leverage si andava accrescendo, ma l’assenza di
informazione sul valore dei loro derivati rendeva molto vulnerabili le attività detenute
in portafoglio.
269
Quando il prezzo delle case cominciò a calare e si diffuse la sfiducia nei MBS,
le banche incontrarono difficoltà nel rifinanziarli ed anche il mercato degli ABS
venne contagiato. Il collasso del mercato dei prestiti a breve termine nell’estate del
2007 obbligò le banche statunitensi a fare rientrare nei loro bilanci l’ammontare di
ABS presente nelle rispettive SIV. I derivati, nati per coprire il rischio sulle attività
finanziarie detenute, si sono di fatto trasformati in un contratto di assunzione del
rischio, poiché a causa della mancata regolamentazione nei mercati del credito e del
capitale il rischio assicurabile si è trasformato in incertezza. Come ha potuto
determinarsi un Ponzi game delle dimensioni della crisi dei sub-prime?
Negli Stati Uniti, si è ampliato dagli anni ’80 in poi – soprattutto per le
famiglie dei ceti medio-bassi - il divario fra il livello di reddito necessario a
mantenere lo standard di vita ed il reddito guadagnato. Questo impoverimento
relativo ha fortemente inciso sull’aspettativa di “mobilità sociale”, principale
fondamento del “sogno americano”. Economisti come Sen, Stiglitz, Krugman e
Fitoussi hanno collegato l’espansione dei mutui alla volontà dell’establishment
politico ed economico di rilanciare la visione degli Stati Uniti come la “terra delle
opportunità”, in un epoca in cui nei ceti esclusi dal benessere si andava di molto
appannando l’aspettativa di una rapida ascesa nella scala sociale (Sen et al., 2013).
Offrire l’opportunità di divenire proprietari di una casa – mediante un mutuo
concesso da una banca, indipendentemente dal livello di reddito e molto spesso in
assenza di un posto di lavoro fisso – è divenuto l’antidoto alla crescente
polarizzazione in atto nella distribuzione del reddito, con la caduta dei guadagni del
ceto medio verso il decile dei poveri e l’innalzamento della quota di reddito percepita
dai più ricchi in virtù di superstipendi e stock option.
Successivamente allo shock negativo dei sub-prime, negli Stati Uniti
l’aggiustamento di mercato (la discesa di salari e prezzi) ha avuto un peso
preponderante rispetto all’operare dello Stato sociale, la cui tutela del lavoro e la cui
capacità redistributiva sono notoriamente molto limitate. Pertanto, la recessione ha
finito per avere effetti molto marcati nella distribuzione del reddito, perché alla
270
probabile perdita del posto di lavoro consegue una ripresa della produzione e di
nuova occupazione che sono subordinate all’accettazione, da parte delle fasce di
forza lavoro a basso skill, della discesa del salario ad un più basso livello. Nel corso
della recessione 1980-82, i redditi percepiti dall’ultimo decile si ridussero del 20%,
recuperando il terreno perduto solo a fine anni ’90. Anche la ripresa del 2009-2010 è
stata molto penalizzante per i lavoratori a basso reddito: l’1% della popolazione con i
redditi più alti ha catturato ben il 93% della crescita del PIL.
La crisi finanziaria ha una genesi affatto diversa in Europa. Le situazioni di
illiquidità o di insolvenza sono solo in parte la conseguenza della globalizzazione
finanziaria, e cioè degli ingenti quantitativi di ABS statunitensi accumulati nei propri
portafogli dagli istituti di credito Europei trasformatisi in banche di investimento
(Acharya e Schnabl, 2010). Il problema delle insolvenze bancarie è sorto in Europa
soprattutto a causa delle forti interconnessioni fra banche di paesi eterogenei per
performance macroeconomica e per condizioni di stabilità del sistema bancario. Il
contesto nazionale ha agito da moltiplicatore del grado di rischio delle banche in
difficoltà, favorendo la rapida trasmissione del “contagio” delle situazioni di
insolvenza. In seguito ai processi di integrazione finanziaria conseguiti al
cambiamento strutturale della moneta unica, le banche del Centro hanno assunto forti
posizioni nelle attività finanziarie emesse da imprese e governi della Periferia finendo
per legarsi strettamente con il sistema bancario della Periferia.
La strategia di spostare sugli acquirenti delle obbligazioni il rischio
inizialmente assunto rientrava di norma nel novero dei comportamenti virtuosi,
poiché riguardava prestiti a grado di rischio inferiore rispetto ai mutui statunitensi.
Se una strategia di diversificazione del rischio di portafoglio si sviluppa nell’ambito
di un network di banche fortemente interconnesse, è probabile che fra gli investitori
si diffonda il pessimismo. Una volta che uno shock esogeno colpisce un paese il cui
sistema bancario abbia sviluppato ampie esposizioni cross-border in derivati illiquidi
con le altre banche del network, e queste economie presentino un forte squilibrio
271
macroeconomico, si creano le condizioni per il sorgere di un rischio sistemico (Croci
Angelini e Farina, 2012).
Quando in Europa il market sentiment sulla solvibilità dei governi mutò
repentinamente verso aspettative pessimistiche, alcune grandi banche si trovarono in
difficoltà nell’assorbire le perdite causate dalla crisi dei sub-prime per la loro scarsa
capitalizzazione rispetto al grado di leverage cui si erano esposte per operare nei
mercati finanziari. Il considerevole investimento di portafoglio delle grandi banche
del Centro nel debito sovrano della Periferia – a più alto rendimento, ma a più basso
rating, in quanto più rischioso perché emesso da governi alle prese con livelli alti o in
rapido peggioramento del debito pubblico rispetto al PIL - ha peggiorato la qualità
dell’attivo delle banche. Se il valore delle passività eccede il valore delle attività, il
capitale ha valore negativo. Il default di una categoria di titoli particolarmente
rischiosa – com’è accaduto con i titoli tossici statunitensi – genera immediatamente
l’aspettativa di perdite. Quanto più esiguo è l’ammontare del capitale a sostegno delle
passività, tanto maggiore è il rischio che la crisi di liquidità si trasformi in vera e
propria insolvenza.
Perché è accaduto? La ragione principale va individuata nell’estensione della
deregolamentazione dei mercati in un’Europa con sistemi produttivi eterogenei, una
regolamentazione del sistema bancario molto inefficiente, ed un coordinamento delle
politiche di bilancio pubblico tendenzialmente deflazionistico. In mercati dove si
andava creando un pericoloso legame reciproco fra banche e governi –con
l’esposizione delle prime nelle passività rischiose dei secondi e con i salvataggi
bancari da parte dei governi - la moltiplicazione di prodotti finanziari ha reso sempre
più opaca l’informazione, riducendo l’affidabilità dei prezzi quali segnali per le scelte
dei soggetti. Ne è un esempio illuminante l’innovazione finanziaria dei CDS (credit
default swaps). Un CDS garantisce, dietro pagamento di un premio, il valore di
emissione di un titolo. Il valore di mercato di un CDS oscilla in funzione delle
credenze sul valore dell’attività assicurata, che in mercati affetti da comportamenti
puramente imitativi sono molto mutevoli. Questa forma di assicurazione del valore
272
di un’attività finanziaria, invece di stabilizzare le quotazioni offrendo agli operatori
un aggiuntivo segnale di prezzo, tende a far dipendere le quotazioni dei titoli derivati
più alle credenze legate al volume dell’attività speculativa che all’informazione
sull’economia reale, accentuando l’incertezza sui moderni mercati deregolamentati.
Pertanto, l’altezza raggiunta dallo spread sui titoli pubblici dei paesi periferici
dell’Eurozona è solo in parte imputabile all’altezza del rapporto debito pubblico / PIL
ed ai fondamentali delle economie, perché dipende anche dal sentiment che prevale
sui mercati, dall’ottimismo o dal pessimismo degli operatori (De Grauwe e Ji, 2012).
Lo dimostra il fatto che il premio per il rischio di default che determina lo spread sui
titoli pubblici dei paesi periferici - lungi dal rappresentare un corretto “segnale” sulla
effettiva sostenibilità del debito di un paese - risulta strettamente correlato ai premi
crescenti che vengono richiesti sui CDS. L’esplosione degli spread sui titoli sovrani
della Periferia è in definitiva derivata dal sommarsi di tre fattori: l’incremento del
grado di avversione al rischio a livello internazionale, il rischio di credito che si è
venuto formando nei singoli paesi in base ai rispettivi squilibri macroeconomici, e il
contagio trasmesso nella Periferia dalla Grecia ( che assieme all’Irlanda è il paese con
le finanze pubbliche maggiormente dissestate ) (De Santis, 2012).
La crisi dell’Eurozona affonda le sue radici nella debole cornice istituzionale
dell’integrazione monetaria Europea. L’abolizione del “rischio di cambio”, la drastica
riduzione sull’incertezza degli investimenti, e l’abbattimento dei costi di transazione
conseguite all’introduzione dell’Euro, generarono un market sentiment di forte
ottimismo negli anni di avvio della moneta unica. L’appartenenza ad un’unica area
valutaria ha avuto effetti distorsivi sulla performance macroeconomica di alcuni
paesi. E’ noto che il tasso di interesse nominale eguale per tutti - fissato dalla BCE in
base ai valori medi di inflazione ed output gap , a fronte di persistenti differenziali fra
i paesi – riduce la capacità della politica monetaria di stabilizzare il reddito nella
misura necessaria nelle diverse economie (Farina 1999; Farina e Tamborini, 2002). In
paesi come Irlanda e Spagna si è in effetti determinata – fra il 2004 e il 2007 - una
sovra-stabilizzazione del reddito: la forte crescita dell’output, favorita dalla discesa a
273
valori negativi dei tassi di interesse reali (dato un tasso di inflazione in questi paesi
superiore alla media dell’Eurozona) e dall’ampia disponibilità di credito generata
dall’integrazione finanziaria, ha alimentato la speculazione finanziaria ed
immobiliare da cui sono scaturite le disastrose “bolle” dei due paesi.
Sia i sistemi bancari della Periferia maggiormente impegnati nell’espansione
del credito (Irlanda e Spagna), che quelli del Centro nei quali si è investito nel debito
sovrano più redditizio (Germania e Francia), presentano però una regolamentazione
carente a causa della collusione fra banche private ed agenzie di supervisione. La
debolezza strutturale di parte del settore bancario europeo è stata affrontata con la più
stringente regolamentazione dell’attività bancaria di Basilea2. Tuttavia, l’entrata in
vigore del più elevato livello di capital ratio ha coinciso con l’instabilità finanziaria e
macroeconomica seguita allo scoppio della crisi finanziaria. Molte situazioni di
illiquidità si sono evolute verso l’insolvenza e dal clima di sfiducia reciproca fra le
banche è sortito un inasprimento delle condizioni del credito. Dopo l’ingente
incremento del debito pubblico provocato dai salvataggi bancari, molti governi hanno
dovuto concordare con la “troika” programmi di consolidamento fiscale per ottenere
sostegno finanziario.
Ad erodere la affidabilità finanziaria è stato non solo lo squilibrio del bilancio
pubblico ma anche quello della bilancia commerciale. In alcuni paesi periferici come
Portogallo, Grecia, e in misura minore in Italia, il conto corrente in crescente deficit per la divaricazione del costo del lavoro per unità di prodotto (CLUP), in continua
salita rispetto alla Germania dopo la fine degli aggiustamenti di cambio nominale - ha
generato ingenti surplus delle banche tedesche, contabilizzate nel sistema Target2
della BCE. Finché circolavano le valute nazionali, i deficit di conto corrente
trovavano copertura negli afflussi di capitale, che consentivano alla banca centrale di
aumentare
la
concessione
di
base
monetaria
alle
banche
commerciali.
L’accumulazione di posizione debitoria portava infine alla cessione di riserve
internazionali da parte della banca centrale.
274
Con l’avvento dell’Euro, il sistema Target2 prevede che le banche centrali dei
paesi in surplus accumulino attivi contabili - e quelle dei paesi in deficit, passivi
contabili - presso la BCE. I flussi commerciali in surplus della Germania, ed in deficit
dei paesi con eccesso di importazioni con la Germania, della contabilità Target2,
risultano come attivi delle banche tedesche nei confronti di soggetti prenditori di
prestito residenti nei paesi periferici i quali con questa liquidità pagano come
aggregato l’eccesso di importazioni.
La gravità del quadro macroeconomico prodotto da crisi finanziaria e
recessione è ben noto. Dal 2008 ad oggi, nell’Irlanda dei mercati deregolamentati, in
virtù della riduzione della risalita della produttività che si è accompagnata alla
riduzione del salario la discesa del CLUP ha raggiunto il 12,5%. L’aggiustamento
reale è stata minore in Grecia (-5%) ed in Portogallo (-6%), paesi che con la Spagna
hanno registrato una notevole perdita di posti di lavoro. La
disoccupazione,
all’11,5% nell’Eurozona, ha infatti toccato picchi del 25,5% in Spagna, del 24% in
Grecia, e del 15,7% in Portogallo. Prima della crisi le banche centrali nazionali
presentavano squilibri nel bilancio complessivo dell’Eurozona di importo
relativamente esiguo, in quanto il pagamento delle importazioni nette dei paesi
periferici trovavano contropartita negli afflussi di capitale di investitori privati
stranieri - prevalentemente capitali investiti in FDI (investimenti diretti esteri), nelle
azioni, e nel più redditizio debito pubblico della Periferia - provenienti dalla
Germania, ma anche dall’Olanda e dalla Finlandia. Dopo che la bancarotta Lehmann
Brothers del settembre 2008 ebbe provocato un notevole incremento nel grado di
incertezza dei mercati finanziari, una gran parte dei capitali precedentemente investiti
si sono progressivamente ritirati, cosicché a fronte delle posizioni passive della
Periferia questi paesi vantano corrispondenti crediti contabilizzati nel sistema
Target2.
Il nuovo assetto delle transazioni monetarie fra i paesi dell’unione monetaria
creato dal sistema Target2 ha senza dubbio impedito che le conseguenze della crisi
finanziaria fossero più gravi. Nel sostituirsi ad esborsi valutari a favore del paese in
275
surplus, esso ha preservato la Periferia da una deflazione reale ancora più profonda di
quella che si è determinata. Senza Target2, le economie periferiche più indebitate
avrebbero dovuto abbattere il costo di produzione per unità di prodotto in misura ben
superiore, al prezzo di un maggiore aumento della disoccupazione e tagli ai salari ed
alla spesa sociale ancora più drastici. Gli effetti in termini di disgregazione sociale
sarebbero stati ancora più drammatici di quelli cui abbiamo assistito (EEAG, 2012).
Riassumendo. Negli Stati Uniti, la deregolamentazione bancaria degli anni ’80
è stata all’origine della commistione fra banche di investimento e banche
commerciali che prima sostenne il castello di titoli cartellizzati edificato con la
politica dei “mutui-casa per tutti” e poi ne determinò il crollo. Nell’UME, la crisi dei
sub-prime ha colpito un tessuto di banche con alto grado rischio, perché fortemente
interconnesse e appartenenti a paesi membri molto eterogenei fra loro, innescando
una situazione di rischio sistemico che si è trasmessa al debito pubblico. Ciò che deve
sorprendere non è lo scoppio della crisi, ma perché i mercati siano stati negli anni
precedenti tanto “miopi” da non “dare un prezzo” al grado di rischio del debito
sovrano. La cornice istituzionale dell’unione monetaria è stata infatti costruita sulla
base dell’idea un po’ semplicistica che denominazione in Euro del debito sovrano ed
area valutaria dell’Euro fossero concetti intercambiabili. Se ciò fosse stato vero, o
quanto meno se i mercati avessero continuato ad assumere che la denominazione in
Euro rappresentasse una sorta di garanzia comune sui debiti sovrani, i flussi di
capitali cross-border sarebbero stati considerati – definitivamente e a tutti gli effetti flussi interni all’Eurozona, e non avremmo assistito dopo lo scoppio della crisi allo
smobilizzo del debito sovrano della Periferia da parte delle banche del Centro.
Per comprendere le ragioni dell’impatto molto pesante che la Grande
Recessione ha avuto sull’equilibrio macroeconomico dell’Eurozona e sulle
diseguaglianze fra e all’interno dei paesi, occorrerà ora analizzare le diverse regole
cui risponde la governance di politica monetaria e fiscale sulle due sponde
dell’Atlantico.
276
3. Le politiche macroeconomiche di stabilizzazione: un confronto con gli Stati
Uniti
Nell’analizzare il nesso fra crescita economica e Stato sociale si tende spesso a
sottovalutare un aspetto importante. Le politiche macroeconomiche esercitano
un’influenza sempre più rilevante sui fattori da cui dipende l’incremento del reddito
pro capite nelle economie avanzate. Le manovre di stabilizzazione anticiclica, che nel
sistema di Bretton Woods ed in un’epoca di bassa volatilità incidevano soltanto
sull’equilibrio macroeconomico di breve periodo, finiscono oggi per incidere sul
reddito potenziale, assumendo così una funzione di cerniera fra il breve periodo e il
lungo periodo. Più in generale, la separazione fra la regolazione del ciclo economico
e le determinanti della crescita economica si è andata progressivamente affievolendo
(Delli Gatti, 2012).
L’importanza dell’“attivismo” di politica monetaria e fiscale ai fini della
ripresa economica all’indomani di un shock è particolarmente evidente. La risalita del
PIL è stata più rapida negli Stati Uniti, mentre nell’Eurozona proseguiva la
stagnazione della domanda. Come risulta dalla Figura 2, nel 2003 e 2004 il tasso di
interesse nominale viene spinto dalla Fed a valori molto più bassi che nell’UME.
Nella sequenza in Tabella 3, si osserva poi come negli Stati Uniti, solo tre trimestri
dopo l’ultimo del 2001 l’output gap negativo comincia a contrarsi; nell’UME, al
contrario, la caduta del reddito ha inizio nell’ultimo trimestre del 2001 e l’output gap
negativo continua ad ampliarsi per tutto il 2003. E’ evidente che l’informazione
sull’output gap è particolarmente preziosa nell’area valutaria Europea: il processo di
convergenza ad un ciclo economico “comune” non si è ancora compiuto e la politica
monetaria non sempre si presenta ottimale per ciascun singolo paese, data la diversa
ampiezza delle fluttuazioni cicliche. L’azione della BCE diede invece priorità
assoluta alla stabilità monetaria, benché il tasso di inflazione medio UME si
collocasse attorno al valore-obiettivo del 2% e l’output gap tardasse a restringersi.
277
Fra il 2002 e il 2005, nonostante la presenza di output gap negativi, il tasso di
interesse è stato modificato verso l’alto. Ci sono dunque elementi per sostenere che la
BCE abbia di fatto adottato la strategia inflation targeting di immediata reazione
all’inflazione attesa, anche al prezzo di effetti deflazionistici.
In sintesi, durante gli anni di avvicinamento alla moneta unica attraverso il
soddisfacimento dei criteri di Maastricht, e poi negli anni dell’unione monetaria che
hanno preceduto la crisi finanziaria a causa dei vincoli del PSC, i governi nazionali
hanno incontrato crescenti ostacoli nello svolgere la funzione di stabilizzazione del
reddito dopo uno shock negativo. Alla politica fiscale sono state di fatto proibite non
solo le manovre discrezionali di attuazione di impegni programmatici assunti dai
governi, ma anche il normale operare degli stabilizzatori automatici (Farina e
Ricciuti, 2006). Quando un abbassamento del livello del PIL rispetto al reddito
potenziale ha messo in moto un incremento della spesa pubblica (in presenza di
declinanti entrate fiscali) è stato spesso necessario sterilizzare l’impulso degli
stabilizzatori automatici per evitare l’impatto di incremento eccessivo del deficit
pubblico.
Tabella 4: Composizione dell’ European Economic Recovery Plan (EERP)
Destinazione Impulso Fiscale (% PIL) 2009
2010
Strumenti
Famiglie
0.4
0.3
τC, τN, τWh, TR
Imprese
0.2
0.2
τWf
Investimenti pubblici
0.3
0.2
IG
Mercato del lavoro
0.1
0.1
G
Totale
1.1
0.8
Legenda: τC =tassazione consumo, τN=tassazione redditi da lavoro, τWh= contributi
sociali lavoratori, τWf =contributi sociali imprese, TR=trasferimenti; G= consumi
pubblici, IG=investimenti pubblici.
278
Fonte: Coenen G. et al. (2012b)
Una forte divaricazione nella governance macroeconomica sulle due sponde
dell’Atlantico è andata in scena anche dopo la bancarotta di Lehman Brothers nel
settembre 2008. Per quanto riguarda la politica fiscale, il Tesoro americano –
mediante diversi piani di intervento, dalla Tarp all’ARRA - ha realizzato nel 2009-10
una forte espansione della spesa pubblica, che ha portato il rapporto deficit pubblico
/ PIL all’8% ed il rapporto debito pubblico / PIL ad avvicinarsi al 100%. In Europa, lo
stimolo fiscale è stato molto più debole. La Tabella 4 mostra come le politiche
discrezionali, che in via eccezionale i paesi dell’Unione Europea hanno potuto
affiancare all’operare degli stabilizzatori automatici, sono state dirette al sostegno dei
bilanci famigliari nella misura del 40% (soprattutto mediante la riduzione di tasse e
contributi sociali), generando un incremento del PIL pari all’1.1% nel 2009 e dello
0,8% nel 2010.
Per quanto riguarda la politica monetaria, la Fed si è data come priorità la
ripresa della produzione e del reddito, conformemente all’obiettivo del proprio statuto
di difendere il livello di occupazione assieme alla stabilità monetaria. Nella prima
fase della crisi (2007-09) vennero ridotti i tassi di interesse a lungo termine attraverso
operazioni di mercato aperto di acquisto di titoli al fine di stimolare gli investimenti.
Nella seconda fase della crisi (2010-12), a partire dal 2010, venne riattivato il canale
del credito interbancario . La Fed ha infatti messo in atto tre programmi di
quantitative easing (QE), concedendo alle banche enormi quantitativi di liquidità e
accettando in cambio come collaterale ogni categoria di titoli, anche quelli che sono
espressione di crediti inesigibili (i cosiddetti junk bonds).
Molto diversa, ancora una volta, la governance macroeconomica nell’UME. In
modo simile a quanto era accaduto nel 2001-03, la BCE ha infatti dimostrato scarsa
flessibilità nella manovra monetaria post-crisi. Trichet ha dato avvio al quantitative
easing con ritardo, e per importi molto più contenuti, e nel 2009 ha sopravvalutato le
tensioni inflazionistiche (non distinguendo la core inflation dall’andamento volatile
279
dei prezzi dell’energia e dei beni alimentari), aumentando improvvidamente il tasso
di interesse. In presenza di output gap positivi durante la timida ripresa del 2010,
l’espansione della liquidità venne così bloccata troppo precocemente.
La BCE ha dunque inizialmente reagito in modo improvvido alla crisi
finanziaria, proprio nel momento in cui in alcuni dei paesi della Periferia si
emettevano ingenti quantitativi di titoli pubblici, poiché i governi dovevano accollarsi
le perdite bancarie (ricorrendo in alcuni casi a ricapitalizzazione, in altri direttamente
alla nazionalizzazione). Gli spread, i differenziali di tasso di interesse con la
Germania dei paesi periferici, che si erano ridotti a livelli molto bassi subito dopo
l’avvio dell’unione monetaria, ed erano calati ulteriormente nel clima di euforia dei
mercati degli anni 2004-07, hanno conosciuto una crescita esponenziale. I motivi
sono oggetto di approfondita verifica econometrica in letteratura. Le principali cause
su cui si indaga sono le seguenti.
Figura 3.
debito pubblico/PIL
180
160
140
120
100
80
60
40
20
0
2007
2011
Fonte: AMECO
280
Primo, il problema della sostenibilità finanziaria del debito pubblico (vedi
Figura 3). In Irlanda e Spagna, i rapporti debito pubblico / PIL sono balzati
rispettivamente al 110% ed al 90%. In altri paesi, la crisi economica è conseguita
all’eccesso di spesa pubblica rispetto alla tassazione (in primo luogo, in Grecia), ed
alla diminuzione delle esportazioni a causa della progressiva perdita di competitività
del sistema produttivo (di nuovo la Grecia, ma anche il Portogallo e fino al 2010
l’Italia). L’aumento del debito al numeratore si è andato così ad aggiungere al crollo
del PIL al denominatore, aggravando le aspettative pessimistiche degli investitori,
anche a causa del persistente intreccio fra banche e governi.
Secondo, la mancata ripresa della crescita, causata dalla caduta della domanda
privata e pubblica e dalla declinante competitività che deprime le esportazioni, ha
accresciuto i timori dei mercati sulla capacità dei governi di disporre delle entrate
fiscali necessarie a ridurre il debito pubblico. Inoltre, nella Periferia le condizioni di
finanziamento sono fortemente peggiorate. I tassi di interesse praticati alle imprese
hanno teso a divergere da paese a paese per la trasmissione dello spread sui titoli
pubblici al costo del danaro, in misura proporzionale ai livelli cui in ciascun paese
aumentava il premio sul rischio di default; la crisi di fiducia fra le banche ha poi
causato il credit crunch - il prosciugarsi della liquidità concessa alle imprese per il
blocco del credito interbancario.
La crisi dell’Eurozona è stata fronteggiata dalla BCE con una strategia poco
aggressiva. Dall’agosto 2008 all’agosto 2011 l’aumento dell’erogazione di liquidità è
stato incrementato solo del 39%, a fronte del 201% della Fed. Dopo l’acquisto di
titoli greci, a partire dal maggio 2010, diretto a contenere la salita dello spread, la
BCE ha lanciato un programma di acquisto di debito sovrano sul mercato secondario,
ma per importi molto più limitati di quelli di Fed e BoE (vedi Figura 4).
Figura 4. Acquisti di attività finanziarie come percentuale del PIL
281
(Federal Reserve, Bank of England, Banca Centrale Europea)
1.1 5.3 7.5 9.7 10.9 12.11 14.1 18.3 20.5 22.7 23.9 25.11 27.1 31.3 2.6 4.8 6.8 8.12 9.2 12.4
2009
2010
2011
2012
Fonte: Gros, Alcidi e Giovanni (2012)
L’orientamento di politica monetaria è cambiato con l’arrivo del nuovo
governatore. A partire dal dicembre 2011 - un mese dopo il suo insediamento –
Draghi ha dato avvio al Long Term Refinancing Operations (LTRO) allo scopo di
superare il credit crunch con operazioni di ampliamento della concessione di credito
alle banche ed ha cercato di porre rimedio all’asimmetria creatasi nella trasmissione
monetaria (il costo del credito molto maggiore nella Periferia che nel Centro)
riducendo il tasso di rifinanziamento per le banche da 1,50% a 1,25% nel novembre
2011, all’1% nel dicembre 2011 e allo 0,75% nel luglio 2012.
Il limite della politica monetaria della BCE è quella di fornire un sostegno solo
indiretto ai governi il cui debito pubblico è sotto l’attacco dei mercati. Sono state
infatti le banche a rivolgere le linee di finanziamento non tanto al credito alle imprese
quanto ad acquisti di titoli sovrani per sostenerne le quotazioni e raffreddare lo
spread. Tale strategia ha però perpetuato il pericoloso intreccio fra banche e Stati, che
282
in alcuni paesi periferici ha frenato la discesa dello spread. Nel ricorrere al mercato
per il finanziamento dei deficit, i governi dei paesi periferici hanno sopportato due
conseguenze negative: l’aumento del debito sovrano e l’innalzamento dei profili
futuri di spesa per interessi. L’altezza degli spread, che si riverberava in emissioni a
rendimenti molto più onerosi, ha inoltre fatto sì che i governi - per conservare la
fiducia dei mercati nella sostenibilità fiscale - abbiano dovuto programmare surplus
di bilancio di volta in volta più ampi.
La strategia di alleggerimento delle posizioni debitorie delle banche non ha
potuto essere estesa ai governi. Com’è noto, lo statuto della BCE impedisce
l’impegno diretto nel sostegno ai titoli pubblici dei paesi membri, onde scoraggiare
l’azzardo morale di espansioni fiscali condotte nell’aspettativa di un eventuale bailout. Inoltre, per la debolezza istituzionale che le deriva dal non avere alle spalle un
potere politico, la BCE non può assumersi il rischio di credito ed ha quindi mantenuto
la seniority rispetto alle istituzioni private riguardo al rimborso del debito sovrano
che le è stato ceduto come collaterale dalle banche.
Quanto penalizzante sia, per la credibilità dell’Euro, questo paradossale status
della BCE è emerso con chiarezza durante la recente crisi di Cipro, per il cui
superamento è stato necessario ricorrere al prelievo forzoso sui depositi bancari
eccedenti i 100.000 Euro. Questa decisione contraddice l’impegno alla esenzione dei
depositi - prevista dal progetto di Unione bancaria - da qualsiasi bail-out. L’aspetto
più inquietante è però che la seniority della BCE dovrà valere anche sui prestiti
concessi a Cipro, il che implica che neppure i depositi inferiori a 100.000 Euro
possono essere considerati al riparo dal prelievo forzoso. La vicenda cipriota ha
dimostrato dunque che il varo dell’Unione bancaria è urgente anche sotto il profilo
dell’impossibilità di un intervento risoluto della BCE per affrontare le situazioni di
pericolo per la stabilità finanziaria dell’Eurozona.
Il rinnovarsi di aspettative pessimistiche sul futuro dell’Eurozona, dopo
l’inversione del breve ciclo di ripresa ed il maturare dello scenario del double-dip, ha
indotto la BCE al varo nel settembre 2012 dell’Outright Monetary Transactions
283
Program (OMT), la nuova operazione di rifinanziamento delle banche con la quale la
BCE ha inteso segnalare di essere pronta a sostenere la concessione di credito ed
intervenire in ogni momento nel mercato secondario per calmierare gli spread.
Ancora una volta, perdurando l’impossibilità per la BCE di acquistare all’emissione i
titoli di debito pubblico, il sostegno ai governi è stato solo indiretto, e cioè realizzato
attraverso la concessione di credito da parte del fondo salva-stati EFSF.
La credibilità di fronte ai mercati di tale strategia di sostegno dipende dalla
garanzia che il capitale a disposizione dell’EFSF è in grado di fornire ai governi.
Sommando ai 700 miliardi trasferiti dal vecchio fondo salva-stati European Financial
Stability Facility (EFSF) al nuovo fondo, l’European Stablity Mechanism (ESM), i
due prestiti triennali alle banche tramite LTRO da 1000 miliardi, il vecchio Securities
markets programme (SMP) da 200 miliardi, e le nuove linee di finanziamento
potenzialmente illimitato dell’OMT, la disponibilità di fondi raggiunge i 2.000
miliardi. Inoltre, nell’ottobre 2012 i paesi dell’Eurozona si sono impegnati ad
trasmettere al nuovo fondo salva-stati ESM una maggiore dotazione di capitale.
Tuttavia, è mancata la decisione che avrebbe avuto l’effetto di tranquillizzare
definitivamente i mercati: il varo del meccanismo sostitutivo della fondamentale
funzione di prestatore di ultima istanza - Lender of Last Resort (LoLR) - di cui è
priva la BCE, ovvero il finanziamento immediato ai governi in difficoltà attraverso
l’acquisto del debito pubblico da parte dell’ESM. La concessione all’ESM della
prerogativa di godere dell’accesso diretto al finanziamento della BCE, fornendo come
collaterale il debito pubblico acquistato con il proprio fondo di dotazione, è stata
infatti rinviata al momento in cui vedrà la luce l’Unione bancaria. Se l’ESM potesse
emettere obbligazioni offrendo i 700 miliardi come garanzia si raggiungerebbe
l’obiettivo di una capacità di aiuto finanziario per la sostenibilità del debito pubblico
di tutti i paesi periferici.
Negli anni di aspettative ottimistiche sul futuro dell’Eurozona, l’integrazione
finanziaria aveva notevolmente accresciuto la diversificazione sull’estero dei
portafogli finanziari. La quota del debito pubblico nazionale detenuto dalle banche –
284
la cosiddetta home bias dei portafogli - era scesa nel 2007 al 25% circa del totale in
Germania, Italia, Spagna e Portogallo in seguito all’integrazione finanziaria ed alle
aspettative ottimistiche che prevalsero nella prima fase dell’Euro - (BIS, 2012).
L’incertezza sulle sorti dell’Eurozona ha provocato la ri-nazionalizzazione del debito
pubblico Gli elevati livelli raggiunti dagli spread nella Periferia hanno indotto le
banche del Centro alla flight to quality, la fuga verso i titoli di qualità. Tenendo
presente la fragilità istituzionale di un’unione monetaria priva di un potere statuale
sovrano e di una banca centrale che possa svolgere la funzione di LoLR, è
comprensibile come - anche in presenza di significativi tagli ai deficit di bilancio dal 2010 in poi i mercati abbiano tenuto sotto pressione i paesi periferici. Soprattutto
dopo che la drammatica crisi della Grecia ha innescato il contagio verso il debito
pubblico degli altri paesi periferici, ingenti flussi di capitale, in rientro dalla Periferia
verso il Centro, hanno provocato la riduzione del tasso di interesse sul Bund tedesco e
l’aumento di quelli della Periferia. Soprattutto le banche tedesche e francesi hanno
ristrutturato i portafogli
riducendo l’investimento nei redditizi titoli greci e
sostituendolo prevalentemente con debito sovrano nazionale.
Ci si deve chiedere quanto appropriata sia stata la strategia di recupero della
fiducia dei mercati. Il limite principale della attuale governance macroeconomica è
rappresentato dall’approccio della “condizionalità”, gli impegni cui è soggetto il
finanziamento del fondo salva-stati ai governi in difficoltà della Periferia. La
cosiddetta politica fiscale dell’”austerità” - richiesta dalla cosiddetta troika (BCE,
Commissione Europea, IMF) per accelerare il rientro da elevati deficit e debiti
pubblici - è finalizzata a rassicurare i mercati, impedendo l’opportunismo ex post dei
governi periferici, ovvero la mancata attuazione - una volta ottenuti i fondi - delle
misure fiscali restrittive secondo le regole ed i tempi concordati. Il fatto è che la
troika ha sistematicamente sottostimato gli effetti deflazionistici che gli impulsi
fiscali restrittivi generano nel corso di una grave crisi. Una BCE dotata di poteri
illimitati di intervento sui mercati - al pari della Fed, della BoE e della BoJ - avrebbe
285
evitato sia lo spreco di risorse regalate, con gli eccezionali livelli raggiunti dallo
spread, alla rendita finanziaria, sia i sacrifici, enormi quanto evitabili, inflitti
successivamente alle popolazioni dalle gravose misure di restrizione fiscale.
La “condizionalità” dell’accesso dei governi al prestito dell’ESM alle misure
fiscali di austerità prolunga quindi l’incertezza sui destini dei paesi dell’Eurozona.
Come si è già messo in luce, il problema di fondo è l’impianto istituzionale
dell’Eurozona. Poiché il nuovo fondo salva-stati (European Stability Mechanism:
ESM) potrà finanziarsi presso la BCE solo dopo che sarà giunta a compimento
l’Unione bancaria, permane il meccanismo perverso secondo cui il debito privato
conseguente ai fallimenti bancari si traduce – via salvataggio e/o ricapitalizzazioni –
in aggiuntivo debito pubblico che le banche acquistano con i fondi prelevati dalla
BCE. Per autorizzare la ricapitalizzazione diretta delle banche in difficoltà da parte
dell’ESM è infatti indispensabile il varo della gestione centralizzata della vigilanza,
che dovrebbe annullare la porzione del premio richiesto dai mercati sul rischio di
default dovuta ad una possibile collusione fra banche ed autorità di vigilanza
nazionali.
Il varo dell’Unione bancaria, consentendo all’ESM di finanziarsi in misura
illimitata presso la BCE e sollevando gli Stati dalla necessità di emettere titoli sovrani
per coprire perdite di banche private, offrirà garanzie sufficienti ai mercati a fronte di
nuove insolvenze di banche europee. Quanto meno, nella valutazione dei mercati il
rischio-paese non sarà più gravato dalla reciproca esposizione delle banche e dei
governi all’altrui rischio di insolvenza. Finché l’Unione bancaria non diventerà
operativa, per rafforzare la credibilità della proclamata garanzia sulla solvibilità dei
debiti sovrani la BCE ha come sola opzione il ricorso agli annunci. Si ricorderà
l’annuncio di Draghi sulla difesa ad oltranza dell’Eurozona dagli attacchi della
speculazione: “Believe me, the ECB will do whatever it takes…”. Nel frattempo, di
fronte agli attacchi speculativi ai paesi periferici che hanno fatto sorgere dubbi sulla
stessa sopravvivenza dell’Euro, la stabilità macroeconomica è divenuta prerogativa
esclusiva dell’Ecofin. Nel prossimo paragrafo, si valuterà la strategia scelta dal
286
consesso dei ministri dell’economia dei governi nell’UME, sotto la guida della
Germania, per combattere la crisi di credibilità dell’Eurozona.
4. La politica dell’”austerità” ed il debito pubblico sul PIL
L’accumulazione di un elevato rapporto fra lo stock di debito pubblico ed il
PIL, una volta escluso che si faccia ricorso al finanziamento monetario del Tesoro, è
derivato dall’esigenza di coprire i deficit primari annuali ed una crescente spesa per
interessi. In questo quadro, più alto è il tasso di interesse nominale e più basso il
tasso di crescita del reddito nominale, più alto dovrà essere il surplus primario che
stabilizza il rapporto debito pubblico/PIL (vedi BOX 1). L’aumento del premio di
rischio sul debito pubblico dei paesi periferici riflette appunto la valutazione dei
mercati di un peggioramento della sostenibilità fiscale, dopo che il tasso di crescita è
calato molto al di sotto del tasso di interesse, con la conseguenza che per stabilizzare
il debito pubblico i governi debbono programmare un più ampio surplus primario per
gli anni futuri.
Il nuovo strumento di controllo sulle finanze pubbliche nazionali, il Fiscal
Compact varato nel 2012, oltre a imporre un deficit strutturale non eccedente lo
0,5% (1% per i paesi con rapporto debito/PIL inferiore al 60%), stabilisce che in 20
anni i paesi dell’Eurozona debbano completare il rimborso di tutto il debito pubblico
in rapporto al PIL in eccesso rispetto al 60% . Ciò comporta una programmazione di
surplus di bilancio - per venti periodi futuri - di ampiezza direttamente proporzionale
al livello del rapporto debito/PIL rispetto del vincolo del 60%. L’ampiezza dei surplus
annui da realizzare è particolarmente gravosa per i paesi della Periferia: i rapporti
debito/PIL, notevolmente aumentati fra il 2007 ed il 2011 a causa della crisi (vedi
Figura 4) vedono a fine 2012 quattro paesi al di sopra del 100% del PIL: Grecia
(152,6%), Italia (127,3%), Portogallo (120,3%), Irlanda (117%) (dati Eurostat).
L’aspetto paradossale del Fiscal Compact è di essere una istituzione di governance
macroeconomica finalizzata a vigilare sui governi di un’area valutaria che presenta 287
rispetto alle altre - il più basso rapporto di debito pubblico sul PIL. Secondo il
computo dell’OECD, l’Eurozona, prima della crisi finanziaria (2007), si collocava al
77% e a fine 2012 al 79%; mentre gli Stati Uniti sono passati nello stesso periodo dal
67% all’86% (senza contabilizzare il debito delle agenzie governative), il Regno
Unito dal 58% al 107%, ed il Giappone dal 166% al 169%.
Consideriamo le due visioni dell’impatto atteso dall’”austerità” sull’andamento
del PIL. La prima, assimilabile alla prospettiva keynesiana, ritiene inevitabile che la
ricerca del pareggio di bilancio attraverso impulsi di restrizione fiscale comporti un
calo del reddito.
La seconda, la tesi degli “effetti non-keynesiani”, riflette l’analisi
macroeconomica della Nuova Economia Classica (NCE), ma anche quella dei
modelli neo-keynesiani DSGE che condividono molte ipotesi con i modelli della
NCE. Questa modellistica sostiene che il consolidamento fiscale induce un effetto
espansivo sull’output: il ridimensionamento dell’intervento pubblico indurrebbe
infatti soggetti razionali ad accrescere la domanda di consumo intertemporale, dando
quindi impulso alla crescita. Infatti, di fronte ad un abbassamento permanente della
spesa pubblica che i soggetti giudichino credibile, l’aspettativa di riduzione delle
tasse fa sì che essi si attendano un incremento del proprio reddito disponibile, il che li
indurrebbe ad aumentare il consumo (Giavazzi e Pagano, 1990). Pertanto, una
restrizione fiscale di tipo strutturale che portasse ad un ridimensionamento della spesa
sociale (ad esempio, una riforma pensionistica che fa scendere stabilmente questa
voce della spesa pubblica) sortirebbe l’effetto di cambiare il segno del moltiplicatore
del reddito – da negativo, come accade nel modello keynesiano – a positivo.
Va ricordato che l’ipotesi degli “effetti non-keynesiani” della politica fiscale
(Giavazzi e Pagano, 1990; Alesina et al., 2012; Alesina e Ardagna, 2013), è stata più
enunciata che verificata. Recenti stime econometriche (Guajardo, 2011; Perotti, 2011)
hanno confermato le conclusioni da tempo note riguardo ai limiti teorici e
metodologici di tale ipotesi (Farina e Tamborini, 2002). Deboli effetti espansivi sono
stati rilevati in piccole economie aperte (Danimarca, Irlanda, Svezia e Finlandia), ma
288
solo in concomitanza con episodi di deprezzamento del cambio (Barrios et al, 2011).
A generare gli effetti espansivi sull’output è stata quindi la domanda estera, non i
tagli di bilancio pubblico.
Ciononostante, l’influenza intellettuale di questo
approccio teorico sulla Commissione Europea è stata costante. Di fatto, il Patto di
Stabilità e Crescita (PSC) - che è stato in vigore dal 1997, poi rivisto nel 2005, fino
alla sua sostituzione con i vincoli ancora più stringenti del Fiscal Compact - si è
configurato come l’applicazione dell’ipotesi degli “effetti non-keynesiani” alla
politica fiscale nell’unione monetaria, in quanto prometteva che il ridimensionamento
del bilancio pubblico avrebbe dato impulso alla ripresa del PIL
.
____________________________________________________________________
BOX 1. Politica di bilancio e sostenibilità fiscale
Esprimiamo il vincolo del bilancio pubblico nel periodo t con l’equazione:
(1)
Bt = (1 + it )Bt −1 − (Tt − Gt ) − (M t − M t −1 )
Essa indica che la variazione del debito pubblico (nel periodo t rispetto al
periodo t-1) sarà positiva se lo stock di debito ereditato dal periodo precedente comprensivo della spesa per gli interessi su tale ammontare di debito - non sarà
eguagliato dalla somma algebrica fra la differenza fra spesa pubblica ed entrate fiscali
e la variazione della quantità di moneta. Eliminando la notazione di tempo ed
annullando il finanziamento in moneta (abolito nel corso degli ultimi decenni nelle
economie avanzate), risulta che la variazione del debito sarà positiva o negativa a
seconda che la somma algebrica fra saldo primario (G – T) e spesa per interessi (iB)
sia positiva o negativa:
∆B = G − T + iB
(2)
Per normalizzare le poste della finanza pubblica fra paesi di dimensioni
diverse, e quindi di diversa ampiezza assoluta del PIL, si suole considerare deficit e
debito pubblico come percentuali del PIL. Deriviamo totalmente B/Y, ottenendo:
(3)
 B
 B 1
d   = dB +  − 2 dY
 Y 
Y  Y
il che equivale ad esprimere il lato destro della (4.7), una volta annullato il
finanziamento in moneta, in termini di differenze:
289
(4)
 B  ∆B B ∆Y
∆  =
−
Y  Y Y Y
Ponendo b=B/Y e g=DY/Y, si ottiene:
(5)
∆b =
∆B
− bg
Y
Sostituendo la (2) nella (5) si ottiene:
(6)
=
∆b
G − T + iB
− bg
Y
Ponendo g=G/Y e t=T/Y, si ricava:
∆b = g − τ + (i − g )b
(7)
Ponendo g - t = v (surplus/PIL), l’azzeramento della crescita del rapporto
debito pubblico/PIL (∆b = 0) si realizza allorché nel saldo di bilancio si registra un
surplus - indichiamo questa grandezza con v’ - il cui valore eguaglia il prodotto fra la
somma algebrica di tasso di interesse nominale (i) e tasso di crescita del PIL
nominale (g), e lo stock di debito pubblico in rapporto al PIL (b):
(8)
v ‘ = (i – g) b
La condizione affinché sia fermata l’ulteriore accumulazione di debito in
rapporto al PIL è dunque che la formazione di surplus di bilancio sia tale da
eguagliare la differenza fra il tasso di interesse e il tasso di crescita del reddito
moltiplicata per il rapporto debito pubblico/PIL.
Una politica di restrizione fiscale – la cosiddetta “austerità” - influenza il
surplus di bilancio pubblico che stabilizza il rapporto debito/PIL per due vie: 1)
attraverso la derivata δ g / δ d (la variazione indotta nel tasso di crescita g) ; 2)
attraverso la derivata δ b / δ d (la variazione indotta nel rapporto debito/PIL) .
Si analizzeranno ora gli effetti di una politica di “austerità” studiando la
derivata del surplus/PIL che stabilizza il debito/PIL rispetto al deficit/PIL ( δ v’ / δ d
).
∂ν t '
∂g
∂b
=
− t bt + t ( it − gt )
∂dt
∂dt
∂dt
(9)
Quale che sia la prospettiva interpretativa - keynesiana o neo-classica - si può
ritenere che inizialmente il reddito non potrà non risentire di un impulso fiscale
restrittivo, cosicché ad una discesa del deficit al denominatore conseguirà una discesa
del PIL al numeratore. Si deve perciò presumere che il primo termine di questa
derivata – dato il segno meno davanti al valore positivo del moltiplicatore – sia
inizialmente negativo.
Per quanto riguarda il secondo termine della derivata, è opportuna una
valutazione empirica relativa ai paesi periferici, in quanto è ad essi che è in primo
luogo richiesta la manovra di restrizione fiscale. Consideriamo a tale scopo l’identità
290
che lega fra loro i valori del rapporto debito pubblico/PIL (b) in due periodi diversi
attraverso il deficit pubblico sul PIL ( d):
(10)
b = d + bt-1 (Yt-1 / Y t )
Si è visto che il tasso di crescita g , che può essere scritto come: [ ( Yt-1 / Y t) –
1 ] , è legato positivamente al rapporto deficit pubblico /PIL. Si dimostra (Maurer,
2012) che la derivata del surplus che stabilizza il debito pubblico sul PIL (v’) rispetto
al rapporto deficit pubblico/PIL (dt) presenta questa relazione con il tasso di crescita
g e con il rapporto debito / PIL della (10):
∂ν t '
∂g t
1
= 1 − bt −1
∂d t
∂d t (1 + g t )2
(11)
Anche approssimando ad 1 il valore di (1+gt)2 , un’ipotesi che favorisce un
segno positivo nella derivata δ b / δ d), è probabile che una politica di austerità - di
riduzione del deficit/PIL con l’obiettivo di ridurre il debito e porre un calmiere sullo
spread - sia destinata all’insuccesso. Infatti, la derivata del debito rispetto al deficit è
negativa se si determinano due condizioni: 1) il debito/PIL ereditato dall’anno
precedente è al di sopra del 100% 2) il moltiplicatore fiscale δ g / δ d è non inferiore
ad 1. La prima condizione riflette la situazione di tutti i paesi periferici
dell’Eurozona, nei quali il debito pubblico supera il 100% del PIL. La seconda
condizione è di difficile valutazione, dal momento che le stime econometriche
condotte in base al modello keynesiano tendono ad indicare un valore del
moltiplicatore fiscale certamente superiore ad 1 (fino a poco superiore a 2 in presenza
di politica monetaria espansiva) mentre quelle condotte in base al modello neoclassico rilevano di norma valori fra 0 ed 1.
Si approfondirà la questione con un’analisi del lungo periodo, considerando per
semplicità, ma senza perdita di generalità, due soli periodi:
(12) bt+1 = d t+1 + d t (Yt / Y t+1 ) + b t-1 (Yt-1 / Y t) (Yt / Y t+1 )
Nell’ipotesi che il governo annunci una riduzione del deficit che sia
permanente nel tempo (d t+1 = d t ) - e che tale annuncio sia credibile – si perviene
alla seguente equazione della derivata del rapporto debito / PIL nel periodo t+1 in
relazione al rapporto deficit / PIL del periodo t:
(13) δ bt+1 / δ dt = 2 – (dt + 2 bt-1 ) (δ gt / δ dt )
Affinché la derivata δ bt+1 / δ dt sia positiva, e quindi l’impulso fiscale
restrittivo abbia successo nell’abbassare il debito pubblico sul PIL, nella (13) il
termine (dt + 2 bt-1 ) (δ gt / δ dt ) dovrebbe essere inferiore a 2. Nell’ipotesi che il
moltiplicatore fiscale non sia inferiore ad 1 (l’ipotesi keynesiana), il valore 2 per il
quale è moltiplicato il debito pubblico sul PIL rende cruciale il verificarsi della
condizione di b >100%. Dato che questa condizione è ampiamente soddisfatta dai
paesi periferici, è probabile che il termine (dt + 2 bt-1 ) (δ gt / δ dt ) sia maggiore di
2. Pertanto, l’impulso fiscale restrittivo, provocando una discesa pronunciata
dell’output, nel lungo periodo finisce per aumentare – invece che diminuire - il debito
pubblico in rapporto al PIL.
291
Tornando all’equazione (9), si perviene alla seguente conclusione: se il
differenziale fra tasso di interesse e tasso di crescita è positivo (condizione
ampiamente soddisfatta nei paesi periferici), dato che entrambi i due termini sul lato
sinistro sono negativi, la derivata del surplus/PIL che stabilizza il debito/PIL (v’)
rispetto al deficit/PIL : ( δ v’ / δ d ) assume valore negativo. Se dunque in un paese
periferico l’”austerità” è destinata a causare un incremento del surplus necessario ad
impedire un’ulteriore accumulazione del debito pubblico in rapporto al PIL, i mercati
si chiedono dove il governo troverà le aggiuntive entrate fiscali o dove riuscirà a
tagliare la spesa pubblica.
____________________________________________________________________
In letteratura, la maggior parte delle verifiche econometriche sono condotte
mediante modelli neo-keynesiani DSGE, che alle rigidità nominali dei modelli neokeynesiani affiancano molte ipotesi neo-classiche favorevoli al verificarsi degli
“effetti non-keynesiani”. Nelle simulazioni su questi modelli, tale risultato non trova
però conferma.
Dall’analisi economica sviluppata nel BOX 1 risulta piuttosto che per la
Periferia dell’Eurozona vale l’esito affermato dalla prospettiva keynesiana. In altre
parole, una restrizione fiscale aumenta il surplus di bilancio necessario a stabilizzare
il rapporto debito pubblico / PIL. In un paese periferico l’”austerità” è destinata a
causare un incremento del surplus necessario ad impedire un’ulteriore accumulazione
del debito pubblico in rapporto al PIL. I mercati si chiedono: riuscirà il governo a
tagliare la spesa pubblica? Se non ci riesce, dove troverà le aggiuntive entrate fiscali?
Il vero discrimine fra la prospettiva teorica ortodossa e quella keynesiana si
coglie nei modelli con eterogeneità fra i soggetti, dove la principale fonte di
eterogeneità è rappresentata dalla disparità di reddito. Affinché si realizzi il risultato
keynesiano – il segno positivo del moltiplicatore fiscale - è sufficiente abbandonare
l’ipotesi di mercati finanziari perfetti - che livellano redditi e piani di consumo
intertemporale di tutti i soggetti in virtù dell’apertura di linee di credito illimitate da
parte delle banche – e tenere conto del fatto che una quota di popolazione è soggetta a
“vincolo di liquidità”.
292
Il ruolo cruciale che il “vincolo di liquidità” riveste per il determinarsi del
risultato keynesiano rappresenta la cartina di tornasole dell’importanza della
diseguaglianza di reddito nella determinazione dell’equilibrio macroeconomico. Un
impulso fiscale espansivo agisce sia sul livello che nell’alleviare le conseguenze di
una distribuzione del reddito sperequata sul livello di benessere dei soggetti a basso
reddito. Una volta che, per effetto dell’espansione fiscale, un incremento del reddito
corrente (la variabile indipendente della funzione del consumo, secondo l’originaria
formulazione di Keynes) abbia liberato i soggetti dal “vincolo di liquidità”, ai tagli ai
piani di consumo cui tali soggetti erano stati costretti subentra l’incremento delle
decisioni di spesa.
Come si è accennato nel punto 3, in Europa gli stimoli fiscali si sono troppo
precocemente esauriti. Dopo le timide manovre fiscali di sostegno all’economia
seguite allo scoppio della crisi finanziaria, i governi hanno dovuto sottostare
all’obbligo di continue manovre restrittive per ridurre il deficit complessivo (primario
e secondario) fino al pareggio di bilancio, nonostante i loro paesi non fossero affatto
usciti dalla fase recessiva. L’”austerità” però non riduce ma aumenta il rapporto
debito pubblico/PIL, in quanto la restrizioni fiscali hanno l’effetto di deprimere il
reddito (vedi il BOX 1). E’ allora probabile che il principale fattore che fa temere agli
investitori il default degli Stati non sia tanto rappresentato da un alto debito pubblico
quanto dall’impulso negativo che l’austerità determina sulla crescita. La restrizione
fiscale imposta ai paesi periferici, riducendo il livello del reddito, fa lievitare il tasso
di interesse (per la richiesta di un più alto premio per il rischio sul debito pubblico
rispetto a quello, pari a zero, sul Bund tedesco), che a sua volta fa aumentare il
surplus necessario a stabilizzare il debito pubblico. L’obiettivo perseguito
dall’austerità, ovvero mettere un freno all’accumulazione di debito e recuperare la
sostenibilità fiscale, è destinato ad auto-distruggersi. Come si vedrà nel prossimo
paragrafo, l’“austerità” si rivelata essere self-defeating, perché le manovre di
restrizione fiscale hanno determinato una perdita di output tale da fare aumentare –
invece che diminuire - il rapporto debito pubblico / PIL.
293
5. Gli effetti deflazionistici della politica dell’“austerità”
Si è provato a misurare l’impatto sulla crescita della politica di austerità
imposta ai paesi dell’Eurozona. . Nella Figura 5, per ciascun paese dell’Eurozona, il
tasso di crescita del PIL (asse verticale) è messo in relazione con l’“austerità” rispetto
al PIL (asse orizzontale). La variabile indipendente consiste nell’indicatore
dell’”austerità”, misurata come differenza fra l’effettiva variazione del saldo di
bilancio pubblico e il valore che tale saldo “avrebbe dovuto assumere” in base ai
valori della quota della tassazione sul PIL e del tasso di crescita “normali”
dell’Eurozona, L’ipotesi è che l’impulso fiscale restrittivo induce una caduta del PIL,
con la conseguente diminuzione delle entrate fiscali.
Per calcolare il valore simulato si è moltiplicata la variazione della crescita del
PIL, in quattro bienni fra il 2007 e il 2012, al netto del valore medio di lungo periodo
del tasso di crescita (2% annuo, quindi 4% su due anni) per il valore medio della
tassazione Europea (0.45%). La variabile dipendente adottata è il tasso di crescita di
lungo periodo riferito all’aggregato dell’Eurozona. Come si vede dalle regressioni, in
tutto il periodo successivo alla crisi finanziaria, l’impatto dell’austerità sulla crescita
è negativo. In particolare, il moltiplicatore è quasi pari ad 1 nel 2007-09 e raggiunge
il valore più alto (1,43) nel biennio 2009-11, allorché le misure di restrizione fiscale
imposte ai paesi periferici hanno finito per bloccare la ripresa della crescita dopo il
primo crollo del PIL nel 2009.
Figura 5. Tasso di crescita del PIL (asse verticale) e “austerità” / PIL (asse
orizzontale) nell’Eurozona (2007-2012)
294
20
2007-9
10
2008-10
15
5
10
5
0
-20
0
-15
-10
-5
-5
0
-15
-10
-5
0
5
5
10
15
-5
-10
-10
-15
-20
20
-15
20
2009-11
15
15
10
10
5
5
0
-10
-5
0
5
10
15
2010-12
0
-15
-10
-5
0
-5
-5
-10
-10
-15
-15
5
10
15
20
25
Il risultato di austerità self-defeating illustrato dalla Figura 5 è compatibile con
vari “paradossi” descritti in letteratura, ciascuno riconducibile a diverse ipotesi
sull’inclinazione delle rette di offerta e domanda aggregata (il modello AS-AD).
Keynes introdusse il “paradosso della parsimonia”: quanto più si risparmia, tanto più
il risparmio declina a causa della discesa del reddito da cui viene a formarsi. La
necessità di accrescere il risparmio per fare fronte ad un abbassamento atteso dei
redditi futuri (o al ripianamento di debiti accumulati) ha l’effetto di ridurre il reddito
se le imprese prevedono una domanda aggregata in calo.
Un secondo paradosso discende dall’”effetto Fisher”: il deleveraging attuato
per fare fronte alla crisi sortisce effetti negativi sulla domanda. Il deleveraging,
invece di migliorare le condizioni di liquidità dei soggetti, provoca una deflazione
295
che ha l’effetto di aumentare il valore del debito, che a sua volta costringe famiglie e
imprese ad una spirale di continui tagli di spesa.
Il terzo paradosso prende il nome di “paradosso della fatica” (Eggertsson,
2010a e 2010b). La contrazione della componente pubblica dei redditi delle famiglie determinata dal ridimensionamento dei trasferimenti monetari e/o dei servizi pubblici
gratuiti goduti – induce la forza lavoro ad aumentare le ore di lavoro offerte. Per
quanto l’aggregato dei lavoratori si sforzi di ridurre il livello di disoccupazione con
un aumento dell’offerta di lavoro a salario invariato, la flessibilità verso il basso di
salari e prezzi innesca un processo deflattivo. L’aumento dell’offerta di lavoro resta
puramente nozionale, poiché la domanda aggregata e quindi il livello di attività
economica si riducono, vanificando il miglioramento delle condizioni di costo del
lavoro ottenuto dalle imprese (Eggertsson e Krugman, 2010).
Questi luoghi teorici sono poco praticati dal cosiddetto “Brussels – Frankfurt
consensus”, le tesi di molti economisti delle due principali istituzioni Europee
(Commissione Europea e BCE) ispirate alla teoria economica ortodossa.
Un
influente approccio alla crisi dell’Eurozona elaborato dalla Commissione Europea
vuole che tanto più è alta la credibilità del programma di consolidamento fiscale e
l’impegno del governo nell’attuarlo, tanto più i paesi in difficoltà per l’innalzamento
dello spread potranno limitare le riforme strutturali di aggiustamento reale
dell’economia (Buti, Roeger e Turrini, 2009). Di fatto, si propone ai governi un tradeoff, un più rapido consolidamento fiscale in cambio di un’ampiezza più contenuta
della deflazione di salari e prezzi. Se i governi fanno mostra di non accettare tale
scambio, resistendo ad un rapido consolidamento fiscale, Bruxelles potrebbe fare
ricorso ad una strategia di “complementarietà”: il consolidamento verrebbe
comunque imposto, sotto il ricatto della sospensione degli aiuti finanziari. In
aggiunta, allo scopo di accelerare la deflazione, andrebbero anche imposti interventi
di flessibilizzazione del mercato del lavoro.
Ex post, possiamo dire che questo scenario teorico ha rappresentato il copione
per il dramma che è andato in scena nel 2011-12 e che i greci hanno sperimentato
296
sulla propria pelle dopo l’aspro contenzioso che ha visto la Grecia sottomettersi a
poco a poco ai diktat emessi dalla signora Merkel, con la Commissione Europea e
l’EFSF nel ruolo di esecutori. Suona in effetti come una beffa la “svolta” della
Commissione Europea, che di fronte all’evidente impatto recessivo dell’austerità ed
alle pressioni di Hollande ha autorizzato una proroga per Francia e Spagna – ma non
per l’Italia, che pure era stata la prima della classe nel portare al di sotto del 3% il
rapporto deficit pubblico /PIL – nel raggiungimento del pareggio di bilancio.
L’impostazione che il “Brussels – Frankfurt consensus” dà al problema del
riequilibrio dei conti pubblici non tiene conto di un problema di breve periodo e di
uno di lungo periodo. Il problema di lungo periodo è che la riduzione della spesa
pubblica consiste sostanzialmente nel ridimensionamento dei trasferimenti e delle
tutele del Welfare, dimenticando che il ritorno dei paesi della Periferia su un sentiero
di crescita e di convergenza economica di lungo periodo è incompatibile con
l’ingente costo sociale di riforme strutturali che si sostanziano in tagli alla sanità e
all’istruzione. Nel lungo periodo, la diseguaglianza inter-regionale di reddito è infatti
fortemente correlata con la diseguaglianza di opportunità di popolazioni residenti in
aree con diverso grado di sviluppo, il che a sua volta
presenta una serie di
interrelazioni con la diseguaglianza interpersonale di reddito (Wilkinson e Pickett,
2009; Aghion e Cage, 2011). Il problema di breve periodo è che sia il taglio del
deficit pubblico realizzato con la riduzione della spesa pubblica e l’aumento delle
tasse, sia il taglio dei costi di produzione realizzato con l’abbassamento del salario ed
i licenziamenti, esercitano un effetto depressivo sulla domanda. Una strategia di
rientro da un alto debito pubblico deve tenere conto del fatto che quando il tasso di
crescita si trova al di sotto del tasso di interesse – come accade ormai da anni
nell’Eurozona - il surplus generato dai governi (attraverso consolidamenti fiscali che
richiedono grandi sacrifici per i cittadini) si rivela fatalmente insufficiente a causa
della concomitante caduta dell’output e quindi delle entrate fiscali.
La questione del moltiplicatore fiscale non si esaurisce tuttavia nel dibattito
teorico sulle relazioni analitiche che presiedono alla variazione dell’output dopo un
297
impulso espansivo o restrittivo di politica fiscale. C’è anche la questione delle ipotesi
che presiedono ai modelli economici utilizzati nell’analisi previsionale delle
principali istituzioni internazionali di analisi macroeconomica, che risentono
del’influenza intellettuale del pensiero economico dominante. Non è stato ad esempio
adeguatamente sottolineato che il Fondo Monetario Internazionale (FMI) –
nell’ambito della troika formata con la Commissione Europea e la BCE – ha potuto
obbligare i governi dei paesi periferici a misure fiscali fortemente restrittive proprio
sulla base di una valutazione dei loro effetti in termini di produzione ed occupazione
perdute che è risultata ex post largamente sottostimata.
In un recente lavoro (Blanchard e Leigh, 2013), Olivier Blanchard,
l’economista capo del FMI, ha riconosciuto che l’effetto negativo che il
moltiplicatore fiscale ha esercitato sul reddito si è rivelato durante la crisi molto
superiore a quanto la teoria economica e le analisi econometriche avevano indotto a
credere. L’utilizzo di parametri sottostimati nella previsione dell’impatto sul reddito
dell’”austerità” ha determinato un significativo errore di misurazione rispetto
all’effettiva caduta del PIL (l’errore per difetto è stato di - 1,2 nel caso del FMI e di 0,4 nel caso dell’OECD) (IMF, 2012). Che la distorsione verso il basso delle
previsioni sull’impatto dell’”austerità” sia la conseguenza dei modelli teorici
utilizzati è dunque un dato oggettivo: lo testimonia l’erroneità dei valori dei parametri
inseriti nei modelli econometrici. Il vasto consenso sviluppatosi nella teoria
macroeconomica attorno alla più recente versione della “sintesi neo-classica” ha
orientato i policy-makers ad attribuire autorevolezza assoluta a verifiche empiriche
condotte in base a modelli rigorosamente basati sulle ipotesi di aspettative razionali e
mercati perfetti. Hanno così acquisito indiscussa reputazione scientifica le tesi
secondo le quali l’espansione della spesa pubblica ha un impatto poco rilevante
sull’attività economica (Ramey, 2012) e che il valore del moltiplicatore fiscale più
elevato sia quello relativo alla tassazione (Alesina et al., 2012).
298
Ben diversi sono i risultati cui pervengono gli studi il cui schema teorico non è
ancorato alla “sintesi neo-classica” dominante e le cui stime econometriche tengono
conto:
1) della quota di popolazione con “vincolo di liquidità”. Un indizio
dell’importanza del “vincolo di liquidità” cui sono soggette le famiglie a basso
reddito è l’elevato valore del moltiplicatore negativo - la forte perdita di output ed
occupazione - prodotto dalle misure di austerità (Auerbach e Gorodnichenko, 2012).
In presenza di tali condizioni, una espansioni quantitativa della liquidità può generare
un moltiplicatore del reddito non inferiore ad 1,5 (in alcuni casi superiore a 2) e di
valore di norma più alto in relazione alla spesa pubblica che non alle tasse (Coenen et
al., 2012a e 2012b). Questa evidenza empirica suggerisce che nella formulazione di
piani di consolidamento fiscale si sarebbe dovuto tenere in maggior conto la
distribuzione del reddito e che per accrescere l’effetto moltiplicativo degli auspicabili
impulsi fiscali espansivi sarebbe opportuno attivare trasferimenti monetari mirati ai
soggetti in condizioni di “vincolo di liquidità”. Se si vuole, una minore quota della
restrizione del bilancio pubblico a carico della spesa sociale si impone per ragioni di
teoria macroeconomica, prima ancora che di equità;
2) delle condizioni del ciclo economico. Il risultato keynesiano di valore
positivo ed elevato del moltiplicatore sconfessa le politiche di “condizionalità”
imposte dalla troika per invertire il trend di aumento del rapporto debito pubblico /
PIL causato dai salvataggi e dalla caduta dell’output. Quando, a partire dal 2009-10,
molti governi dell’Eurozona hanno dovuto attuare gli interventi fiscali restrittivi, si
sono generati aspettative pessimistiche ed effetti pro-ciclici sul reddito (Creel e
Saraceno, 2010). Allo stesso modo, il risultato keynesiano accresce l’importanza di
attivare la spesa pubblica. Nelle condizioni macroeconomiche di domanda di
consumo particolarmente depressa che oggi caratterizzano le economie avanzate, è
molto probabile che ad un impulso fiscale espansivo si associ un moltiplicatore
positivo ed elevato (Baum, 2012).
299
3) del grado di “accomodamento” della politica monetaria. Una forte
espansione monetaria ad un tasso di interesse nominale vicino allo zero, in assenza di
tensioni al rialzo dell’inflazione, genera un moltiplicatore positivo, tanto più elevato
quanto più la manovra “accomodante” si prolunga fino a due anni (Christiano et al.,
2011). In presenza di una recessione molto grave come quella in corso, probabilmente
caratterizzata anche dalla “trappola della liquidità” , la strategia di politica monetaria
più appropriata consiste in una decisa azione espansiva diretta a ribaltare le
aspettative degli agenti economici. La BCE potrebbe condurre una politica monetaria
più aggressiva, mediante un tasso di interesse che non si mantenga di fatto a ¾ di
punto al di sopra del livello fissato dalla Fed. Il cambiamenti strutturale risolutivo per
generare l’aspettativa di maggiori guadagni e dare un forte stimolo all’attività di
investimento, ma precluso ad una banca centrale non sostenuta da un potere sovrano,
consisterebbe nell’inserimento di un più alto valore-obiettivo di tasso di inflazione
nella “regola di Taylor”, in modo da determinare un eccesso di inflazione attesa
rispetto al tasso di inflazione corrente (Eggertsson e Krugman, 2012).
4) dell’impatto espansivo sul PIL esercitato dalla spesa pubblica per
investimento. In generale, l’impatto della variazione della spesa pubblica risulta
essere superiore a quello della tassazione, il che smentisce la tesi sopra menzionata molto propagandata ma poco verificata - secondo la quale la ripresa della crescita è
subordinata alla riduzione dell’intervento pubblico nell’economia, per l’impatto
espansivo che una minore tassazione determinerebbe sull’economia reale. In
particolare, all’interno della spesa pubblica, la preminenza degli investimenti pubblici
nel sostegno dell’attività economica trova conferma in uno studio della Commissione
Europea (vedi Tabella 5), che presenta i valori dell’impatto sul PIL dell’Eurozona di
un impulso limitato all’area valutaria europea (a sinistra), oppure di un impulso a
livello globale (a destra), in presenza di vincoli di liquidità (si considerano le famiglie
che non sono soggette a vincolo di collaterale da fornire a garanzia perché l’accesso
al credito bancario è loro precluso a priori, a causa di un reddito molto basso) e con
vincolo di collaterale (si considerano le famiglie che sono soggette a vincolo di
300
collaterale e quindi non riescono ad accedere al credito bancario) e in presenza di
accomodamento monetario da parte della banca centrale. Per i sussidi
all’investimento si riscontrano valori del moltiplicatore superiori a 2 (se l’impulso è
globale e se sia la politica monetaria che la politica fiscale sono espansive). Gli
investimenti pubblici, gli acquisti pubblici e gli stipendi pubblici presentano valori
del moltiplicatore molto elevati in relazione ad un impulso globale.
Questa rapida ricognizione della vasta letteratura empirica sulla crisi induce a
ritenere che, in presenza dei due dati oggettivi del “vincolo di liquidità” e della grave
recessione, l’”austerità” dovrebbe lasciare il posto ad un’intonazione ancora più
espansiva della politica monetaria e ad una maggiore spesa in investimenti pubblici.
L’elevata spinta sul reddito esercitata dalla spesa pubblica in investimenti
dimostra quanto miope sia rigorismo di Bruxelles e di Berlino, che hanno respinto la
richiesta di mitigare l’impatto sulla crescita delle misure di rientro dagli alti deficit
pubblici attraverso l’esclusione delle spese per investimenti dal calcolo del bilancio
pubblico (la cosiddetta “regola aurea”).
Se poi la politica monetaria della BCE avesse seguito quella della Fed, che
all’indomani della crisi finanziaria ha portato fino a zero il tasso di interesse – a
fronte dell’0,75 cui ancora permane in Europa - e realizzato programmi di QE ben
molto più ampi, la successiva recessione sarebbe probabilmente stata meno
pronunciata.
I valori del moltiplicatore corrispondenti al più forte impulso alla risalita del
PIL sono infatti quelli attivati dagli investimenti pubblici sotto le due condizioni già
citate ( cioè realizzati durante una fase di grave recessione e da consumi famigliari
“liberati” dal vincolo di liquidità) ma anche in presenza di un tasso di interesse
nominale vicino allo zero (Auerbach e Gorodnichenko, 2013).
301
Tabella 5.
Moltiplicatori fiscali di un impulso temporaneo (*)
Impulso UE
Impulso globale
senza vincolo con vincolo con esp. senza vincolo con vincolo con esp.
di coll.
Sussidi all’invest..
di coll.
mon.
di coll.
di coll. mon.
1,52
1,59
2,04
2,00
2,11
0,89
0,91
1,08
1,04
1,08
0,81
1,03
0,94
1,00
2,63
Invest. pubblici
1,24
Acq.pubblici
0,78
1,21
Stipendi pubblici 1,11
Totale trasferimenti
1,26
1,39
1,15
1,34
1,46
0,20
0,41
0,53
0,24
0,51
-
0,67
0,86
-
0,82
0,66
0,69
0,89
0,81
0,86
0,62
Trasferimenti a fam.
1,01
con vincolo. coll.
Trasferimenti a fam.
1,05
con vincolo. liq.
Tass.lavoro
0,22
0,44
0,55
0,26
0,53
0,64
Tass.cons.
0,40
0,48
0,65
0,49
0,59
0,76
Tass.propr.
0,01
0,12
0,18
0,01
0,16
0,21
Tass.redditi impresa 0,02
0,03
0,04
0,03
0,04
0,05
(*) Impatto di un impulso fiscale temporaneo di un anno sul PIL dell’Eurozona.
Fonte: European Commission ( 2010).
302
L’idea che una più aggressiva azione di politica monetaria permetterebbe
all’Eurozona di raggiungere e mantenere un più elevato livello di attività economica
converge con la tesi spesso sostenuta da Olivier Blanchard.: Per evitare il rischio che
la politica monetaria finisca per essere sub-ottimale, e cioè per peggiorare il livello
del benessere della popolazione, la monetary stance determinata dai modelli
macroeconomici dovrebbe riflettere la resilienza delle istituzioni del mercato del
lavoro in Europa (Blanchard e Galì, 2009). In breve, in regime di rigidità nominali, la
politica monetaria ottimale deve abbandonare l’inflation targeting e assumere
l’obiettivo di un tasso di inflazione non troppo vicino allo zero.
In coerenza con tale prospettiva teorica, in lavori precedenti la crisi finanziaria
Blanchard suggerì implicitamente che il presupposto per risollevare la domanda
aggregata nell’Eurozona con una politica monetaria espansiva di stabilizzazione
consiste in un valore-obiettivo del tasso di inflazione più vicino al 4% della Fed che
non al 2% della BCE. La tendenza espansiva impressa alla politica monetaria da Fed
e BoJ – che da molti mesi accettano l’innalzamento dell’inflazione e manifestano un
benign neglect nei confronti della debolezza del tasso di cambio di USD e Yen –
risponde all’esigenza di rilanciare la crescita guadagnando quote di mercato estero
attraverso un cambio più competitivo. La BCE non pare però orientata ad impedire
che il rafforzamento dell’Euro deprima ulteriormente il livello della domanda
aggregata nell’Eurozona. Eppure, come si vedrà nel paragrafo successivo, la
soluzione del problema della domanda nell’UME è urgente, in quanto si connette
strettamente con la questione dello squilibrio macroeconomico esistente all’interno
dell’Eurozona, che vede una forte divaricazione fra un eccesso di risparmio nel
Centro (essenzialmente in Germania, date le dimensioni della sua economia) ed un
deficit di risparmio nella Periferia. Di fronte al rifiuto della Germania ad indirizzare
la propria economia verso un aumento della domanda interna - invece di puntare tutto
sul traino delle esportazioni - il rilancio della domanda nell’Eurozona sembra essere
affidato soprattutto alle politiche monetarie e fiscali comuni.
303
6. Lo squilibrio macroeconomico all’interno dell’Eurozona
L’equilibrio macroeconomico complessivo di un sistema economico è
sintetizzabile mediante la seguente equazione a tre settori:
(S – I) = (G – T) + (X – M)
Ogni diseguaglianza fra le variabili all’interno di ciascuno dei tre settori –
Risparmi (S) e Investimenti (I) nel settore privato, Spesa pubblica (G) e Tassazione
(T) nel settore pubblico, ed Esportazioni (X) ed Importazioni (M) nel settore estero viene a scomparire nella somma algebrica delle varie poste. Ciò vale sia riguardo ai
singoli settori all’interno di ciascuna economia, sia nell’annullamento degli squilibri
reciproci all’interno di un’area valutaria come l’UME. Se l’equazione fa riferimento
all’Eurozona nel suo complesso l’equilibrio macroeconomico che essa individua è
un’identità contabile.
Figura 6.
140
REER basata sul CLUP relativo
130
120
110
100
90
80
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
Belgio
Germania
Irlanda
Grecia
Spagna
Francia
Italia
Paesi Bassi
Austria
Portogallo
Finlandia
304
Al netto dell’interscambio dell’Eurozona con il resto del mondo (il cui bilancio
non si peraltro mai allontanato troppo dal pareggio), una posizione di squilibrio in
surplus in un paese o gruppo di paesi (Centro o Periferia) corrisponde una posizione
di squilibrio in deficit in un altro paese o gruppo di paesi (Centro o Periferia).
L’Eurozona si presenta oggi fortemente divaricata fra un Centro in surplus ed una
Periferia in deficit. Per compensare l’eccesso delle importazioni rispetto alle
esportazioni, nella Periferia si renderebbe necessario un deficit di bilancio pubblico
(ma i vincoli imposti dal PSC inducono ad escludere tale possibile compensazione)
oppure la discesa del risparmio relativamente all’investimento (S < I).
Supponendo per semplicità che sia stato già conseguito il pareggio del bilancio
pubblico richiesto dal Fiscal Compact: (G = T), l’equilibrio macroeconomico del
Centro si può schematicamente rappresentare così:
Centro: (S >I) = (X > M)
A partire dall’avvio dell’unione monetaria – ed in misura crescente
all’indomani della crisi finanziaria - in alcuni paesi del Centro (in primis la
Germania, seguita da Austria e Finlandia) si registra un surplus dei risparmi sugli
investimenti, cui corrisponde un surplus di bilancia commerciale. Le condizioni
finanziarie delle banche dei paesi del Centro-Nord dell’Eurozona (pure essendo
banche internazionali, il loro capitale è in maggioranza ancora in mani nazionali)
hanno potuto naturalmente giovarsi delle buone performance economiche delle
economie “forti” in cui svolgono la maggior parte della propria attività, contribuendo
a favorire la formazione dei flussi di capitale che operatori esteri hanno destinato
all’acquisto delle esportazioni nette del Centro.
L’equilibrio macroeconomico della Periferia si può schematicamente
rappresentare così:
305
Periferia: (S < I) = (G > T) + (X < M)
I flussi di liquidità provenienti in primo luogo dalle banche del Centro hanno
finanziato le passività emesse a copertura dei deficit pubblici (G > T) e di conto
corrente (X < M). Il deficit pubblico si è accresciuto in questi anni di crisi, portando
tutti i paesi al di sopra del limite del 3% del PIL.
La grande Recessione ha invece ridimensionato il disavanzo di conto corrente,
accumulatosi in seguito alla rapida espansione delle importazioni (in particolare, in
Irlanda, Grecia e Spagna), ed a causa della continua crescita, dal 1999 in poi, del
costo del lavoro per unità di prodotto , che misura il tasso di cambio reale effettivo
(Real Effective Exchange Rate: REER; vedi Figura 6) rispetto alla media
dell’Eurozona. In Grecia e Portogallo (ed in minore misura in Italia), paesi
accomunati da una sostanziale stasi della produttività, la dinamica salariale ha finito
per causare una progressiva perdita di competitività. Il costo del lavoro per unità di
prodotto (relativamente al valore medio dell’Eurozona) si è andato notevolmente
accrescendo, seguendo un andamento speculare rispetto alla Germania (ed in minore
misura ad Austria e Finlandia) che ha notevolmente penalizzato le esportazioni.
L’eccezione è rappresentata dall’Irlanda, che nonostante abbia conosciuto l’aumento
della REER più poderoso fra i paesi periferici fino alla disastrosa crisi bancaria, ha
conosciuto esportazioni nette positive, anche grazie al vantaggio competitivo
garantito dal ricorso alla concorrenza fiscale.
La notevole espansione delle esportazioni tedesche è il frutto - oltre che della
competitività sul piano della qualità - della moderazione salariale e della buona
dinamica della produttività, che hanno permesso un forte recupero della competitività
di prezzo rispetto ai primi anni del nuovo millennio. Il conto corrente in rapporto al
PIL del Centro, nel quale è naturalmente molto rilevante l’interscambio della
Germania, è così stato strutturalmente in surplus, a fronte del deficit della Periferia, in
diminuzione in seguito al crollo delle importazioni degli anni più recenti (vedi Figura
7).
306
La semplice contabilità macroeconomica suesposta illustra come la
divaricazione che si è aperta all’interno dell’unione monetaria Europea dipenda dalla
debole domanda e dalla divergenza reale che si registrano nella Periferia. A minare la
coesione economica e sociale all’interno dell’Eurozona, è la crisi della crescita in
questi paesi più che dai livelli raggiunti dal debito pubblico. Come è facile desumere
dall’equazione
dell’equilibrio
macroeconomico,
affinché
un
eccesso
delle
importazioni sulle esportazioni venga annullato è necessario un saldo negativo del
bilancio pubblico (G > T) - che i vincoli imposti dal PSC inducono però ad escludere
a priori - oppure la discesa del risparmio relativamente all’investimento (S < I).
Questa seconda soluzione, che avvierebbe il ripristino dell’equilibrio
macroeconomico complessivo all’interno dei paesi della Periferia, è però anch’essa di
difficile realizzazione: dovrebbero infatti crescere i consumi, il che è molto
improbabile al culmine di una fase recessiva. Banche gravate dalle perdite di valore
delle attività finanziarie private e pubbliche detenute in portafoglio, famiglie con
redditi calanti, e imprese con fatturato che va a picco, sono infatti state costrette a
ricorrere ad un forzato deleveraging.
Figura 7.
conto corrente/PIL
6
4
2
0
-2
2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011
-4
centro
periferia
-6
-8
-10
-12
Fonte: AMECO
307
L’obiettivo di evitare che condizioni di illiquidità degenerino in insolvenze ha
dunque fatto sì che il risparmio - invece di calare - si accrescesse, provocando un
eccesso del risparmio sull’investimento (S > I) da cui è conseguito una discesa
dell’output. Poiché il nuovo equilibrio di sottoccupazione non è stabile, essendo stato
ottenuto con la riduzione delle importazioni prodotta dalla discesa del PIL, permane
inoltre il rischio di ulteriore caduta del reddito causata dalla perdurante crisi di
competitività della Periferia. Quest’analisi implica che non possiamo attenderci che
nei paesi della Periferia si determini un’autonoma ripresa della domanda interna: il
Fiscal Compact blocca la capacità di spesa in deficit dei governi ed il deleveraging
continua a comprimere la domanda privata.
Pertanto, una riduzione durevole dello squilibrio macroeconomico fra Centro e
Periferia potrà realizzarsi in seguito ad uno dei due seguenti cambiamenti strutturali:
1) un trasferimento di domanda dal Centro alla Periferia, attraverso un decremento e
un incremento del risparmio in ciascuna area, rispettivamente; 2) una ancora più
drastica deflazione reale nella Periferia, tale da ridurre il divario di competitività con
il Centro e riportare a valori positivi il tasso di crescita attraverso l’aumento delle
esportazioni. Le due soluzioni non sono equivalenti. Dall’analisi fin qui svolta risulta
evidente che i problemi in cui oggi si dibatte l’Eurozona sono stati innescati
dall’intreccio fra banche e governi scaturiti dalla crisi finanziaria, ma affondano le
loro radici nella mancata convergenza fra Centro e Periferia acuita dalla debole
crescita economica. E’ a questo problema che è dedicata l’analisi del paragrafo che
segue.
7. Le determinanti della crescita di lungo periodo
E’ allarmante il confronto fra le determinanti della crescita economica
nell’Unione Europea e negli Stati Uniti (vedi Figura 8).
L’avvicinamento del reddito pro capite del gruppo di 15 paesi dell’Unione
Europea (e cioè prima degli ultimi allargamenti) a quello degli Stati Uniti, che ebbe
308
luogo dal dopoguerra al 1995, fu l’esito della sostituzione di capitale a lavoro, più che
di investimenti innovativi e dell’innalzamento del capitale umano fra gli occupati. Fra
1995 ed il 2005, la netta ripresa della crescita della TFP negli Stati Uniti scaturì dalla
combinazione fra gli alti volume di investimento in Information communication
technology (ICT), la concentrazione nei settori avanzati di un management ad alto
capitale umano che ha promosso investimenti ad alto grado di rischio, e forti
guadagni di efficienza nel settore dei servizi (Acemoglu et al., 2006). La crescita
della TFP nei paesi dell’UME è stata invece molto più lenta, con valori inferiori di
tassi di occupazione (soprattutto della forza lavoro femminile) e numero di ore
lavorate (ancora oggi intorno a 1600 ore annue nell’EU-15 contro 1900 negli Stati
Uniti). Nel decennio 1995-2005, il distacco fra la crescita dell’UE-15 e quella degli
Stati Uniti si è perciò notevolmente ampliato, soprattutto a causa dell’insufficiente
dinamica della TFP, in parte causata dalla modesta introduzione di progresso tecnico
nei settori utilizzatori delle innovazioni della ICT (van Ark, 2008)
Il modello di crescita neo-classico prevede la tendenza delle economie arretrate
(a livello iniziale del PIL pro capite relativamente più basso) a conoscere tassi di
crescita relativamente più elevati, fino a realizzare il catching-up – il processo di
progressivo avvicinamento alle economie più avanzate che all’inizio del periodo
presentano un PIL pro capite relativamente più alto. Tale tendenza si esprime nella
cosiddetta convergenza beta, il valore negativo del coefficiente che lega il reddito pro
capite iniziale dei paesi al tasso di crescita medio del periodo successivo.
Nella Figura 9.1, compaiono sull’asse verticale il tasso di crescita medio del
periodo 1993-2009 e sull’asse orizzontale il PIL pro capite del 1993 per i paesi che
decisero di entrare fin dalla sua costituzione nell’unione monetaria, più i tre paesi
dell’Unione Europea che scelsero di rimanerne fuori (Regno Unito, Svezia e
Danimarca). Il 1993 è l’anno in cui prende le mosse il processo di unificazione
monetaria, sancito dal Trattato di Maastricht, che coincide anche con il
completamento del mercato unico; il 2009 è il primo anno della Grande Recessione.
309
Figura 8. Contributo percentuale alla crescita del PIL: Unione Europea (EU15) e Stati Uniti (*)
(*)EU15ex = ; USA-SIC (Standard Industrial Classification System, USA)
Legenda (dal basso verso l’alto): ore lavorate; composizione del lavoro; capitale dei
settori ICT; capitale dei settori non-ICT; PTF.
Fonte: Timmer, O’Mahony e van Ark (2007)
Affinché l’interpolante tracciata nel grafico potesse riflettere l’avvenuto
catching-up dei paesi della Periferia rispetto al Centro - il risultato previsto dal
modello di crescita neo-classico – la sua pendenza avrebbe dovuto essere negativa (e
quanto più inclinata fosse stata la retta, tanto più avrebbe segnalato un rapido
catching-up). La retta di interpolazione si presenta invece pressoché piatta, ad
indicare l’assenza di convergenza reale per i paesi che hanno partecipato
all’attuazione dei criteri di convergenza nominale concordati a Maastricht. Gli
incentivi che mercato unico e moneta unica hanno creato per l’espansione delle forze
di mercato non si sono perciò rivelati adeguati a promuovere il catching-up della
Periferia. Trova così conferma il giudizio precedentemente espresso: le politiche
macroeconomiche realizzate dai paesi dell’Eurozona in base al PSC, e le riforme
microeconomiche suggerite dalle guidelines della Commissione Europea, hanno
avuto successo nel conseguire la convergenza verso una bassa inflazione, ma la loro
310
intonazione restrittiva ha penalizzato la crescita dell’occupazione e del reddito, in
particolare nei paesi periferici meno avanzati.
Figura 9.1.
Figure 3. Per capita GDP beta convergence in EU 15 (PPP)
growth rates 1993-2009
1,4
Ireland
1,2
1
0,6
0,4
0,2
0
Luxembourg
Greece Spain Netherlands
Finland UK
Portugal
Sweden
Belgium
France
Austria
Denmark
Germany
Italy
0,8
5
0
10
15
20
25
30
35
per capita GDP 1993
Fonte: Farina (2012)
Figura 9.2
Figure 2. Per capita GDP beta convergence in EU 27 (PPP)
2
EE
1,8
RO
SK
LV PL
LT
IE
BG
HU SI
CY
CZ EL ES
NL
FI
PT
UK SEBE
MT FR DK AT
DE
IT
1,6
1,4
1,2
1
0,8
0,6
0,4
0,2
LU
0
0
5
10
15
20
25
30
35
311
Nella Figura 9.2, il quadro cambia radicalmente: l’aggiunta degli altri paesi
dell’Unione Europea fa sì che si realizzi il risultato atteso di convergenza economica
dalla teoria della crescita di Solow. I paesi dell’”allargamento”, avendo inizialmente
valori di reddito pro capite molto inferiori, realizzano il catching-up rispetto alle
economie più avanzate.
Mentre sui mercati internazionali la competitività delle economie “emergenti”
(i BRIC) gode dei benefici del regime dei cambi flessibili vigente fra le principali
aree valutarie, i paesi periferici dell’area valutaria Europea dispongono solo
dell’”aggiustamento” di mercato, l’abbattimento dei costi di produzione attraverso la
riduzione dei salari ed il ridimensionamento della forza lavoro stabilmente occupata.
Questo strumento non può essere sufficiente, considerando anche lo scarso impatto
dei fondi strutturali e di coesione, a creare le condizioni per la convergenza. Il
processo del catching-up intra-UME non ha in effetti beneficiato dell’integrazione
finanziaria seguita all’unione monetaria. Il credito a tasso di interesse reale molto
basso (o negativo) garantito dalla partecipazione all’Eurozona alle imprese della
Periferia non si è tradotto in quella spinta agli investimenti in settori innovativi che
avrebbero favorito il restringimento del divario di TFP fra le due aree. L’espansione
del credito indotta dall’integrazione finanziaria si è infatti concentrata negli
investimenti in settori produttivi arretrati o nella speculazione culminata nello
scoppio delle “bolle” immobiliare e finanziaria (Giavazzi e Spaventa, 2011).
Una interpretazione completamente opposta della mancata convergenza fra i
PIL pro capite dei paesi dell’Eurozona viene proposta dell’ European Economic
Advisory Group (EEAG), che fa capo all’istituto di ricerca tedesco di indirizzo
“ortodosso” CESifo. L’idea è che all’interno di un’area valutaria europea gli squilibri
macroeconomici siano fisiologici: i paesi impegnati nel catching-up - conoscendo
tassi di crescita maggiori di quelli dei paesi più avanzati - finiscono necessariamente
per trovarsi in deficit commerciale. La più rapida integrazione finanziaria
determinatasi dopo il passaggio alla moneta unica avrebbe quindi opportunamente
favorito il trasferimento di capitali dal Centro alla Periferia, la cui dotazione di
312
capitale relativamente inferiore garantisce il conseguimento di tassi di rendimento
dell’investimento più elevati (Blanchard e Giavazzi, 2002). Il fatto è che tale
processo virtuoso, che avrebbe dovuto culminare nel catching-up della Periferia, non
si è realizzato, perché i mercati sono perfetti soltanto nei manuali di economia. Come
uno dei due suddetti autori ha recentemente riconosciuto nel lavoro appena citato
(Giavazzi e Spaventa, 2011), il trasferimento di capitali non ha imboccato la strada
degli investimenti in settori innovativi, ma la più facile via della speculazione.
Secondo la ricerca dell’EEAG guidata da Sinn, l’economista tedesco che guida
la “guerra santa” contro i governi dei paesi periferici (Sinn e Wollmershäuser, 2012),
il sistema Target2 è una sorta di finanziamento che la BCE fornisce per il catching-up
della Periferia. Nel momento in cui la BCE fa fronte agli squilibri macroeconomici
dell’Eurozona fornendo liquidità ad libitum alle banche dei paesi in deficit
commerciale, si determina una sorta di crowding-out (un “taglio” dei fondi
disponibili) ai danni della Germania. A causa del dirottamento del risparmio verso i
paesi periferici, l’economia tedesca avrebbe subito una caduta dell’attività di
investimento (EEAG, 2013). Non sussisterebbe poi alcun motivo di invocare un riproporzionamento della domanda fra Centro e Periferia, incentivando una espansione
della domanda interna soprattutto in Germania, in quanto con la discesa delle
importazioni provocata dalla Grande Recessione gli squilibri macroeconomici si
sarebbero di molto ridimensionati.
Questa interpretazione non corrisponde ai dati della realtà. In primo luogo,
l’analisi dell’EEAG è inficiata dal fatto che i flussi di liquidità di gran lunga più
consistenti non sono le partite correnti ma i movimenti di capitali, che sono in gran
parte ritornati al Centro dopo il raid speculativo in Sud Europa. In secondo luogo, la
prova addotta dall’istituto di ricerca per dimostrare l’esistenza di convergenza reale è
inconsistente. Il catching-up che viene misurato nel Rapporto dell’EEAG – mediante
l’evidenza empirica di una forte correlazione fra tasso di crescita del PIL pro capite e
deficit commerciali - è quello dei paesi dell’Europa Centro-Est nei confronti dei 12
paesi che hanno dato avvio all’UME, non quella dei paesi della Periferia nella loro
313
“rincorsa” dei paesi del Centro. Il buon andamento del catching-up dei paesi CEEC è
una di pochi aspetti positivi nell’evoluzione dei redditi pro capite all’interno
dell’Unione Europea (Farina, 2012). Esso si pone in netta controtendenza rispetto al
fallimento del catching-up della Periferia nei confronti del Centro, illustrato in Figura
9.1.
I paesi dell’Eurozona si trovano oggi di fronte ad una impasse nella loro capacità di
procedere sulla strada dell’integrazione economica. Al di là della più dura
competizione provocata dalla globalizzazione dei mercati e della grave recessione in
corso, i principali ostacoli sono rappresentati dall’eterogeneità dei sistemi produttivi
eterogenei fra loro, dalla diversità dei problemi di cui soffrono i sistemi bancari (la
collusione con le autorità di regolamentazione nel Centro, l’insufficiente
capitalizzazione degli istituti bancari in molti paesi della Periferia), dall’assenza delle
condizioni per la sostenibilità finanziaria dei debiti sovrani della Periferia. Per fare
fronte alla sfida dell’integrazione economica, l’Europa ha scelto l’opzione
dell’“integrazione negativa”, con l’abbattimento delle barriere doganali e tariffarie
prima e il coordinamento decentrato di mercato poi. I processi di liberalizzazione e
deregolamentazione che hanno accompagnato il completamento del mercato unico e
la realizzazione della
moneta unica, assieme ai crescenti vincoli cui è stato
sottoposto l’intervento pubblico, hanno fortemente inciso sulla capacità dei governi di
promuovere la convergenza delle economie periferiche meno avanzate.
Questi cambiamenti strutturali hanno avuto l’effetto di porre le eterogenee
economie dell’Eurozona - che hanno perso gli strumenti della politica monetaria,
della manovra del cambio e delle politiche fiscali discrezionali - in una posizione di
eguaglianza di fronte alla competizione sui mercati globali. Inoltre, fin dall’avvio
dell’unione monetaria, per evitare la “procedura di infrazione” prevista dal PSC allorché il rapporto deficit pubblico/PIL eccede il limite previsto, ad esempio per
effetto sia di minori tasse e maggiore spesa sociale al numeratore che di una
prolungata dinamica negativa del PIL al denominatore - molti governi hanno dovuto
restringere l’operare degli stabilizzatori automatici, con effetti pro-ciclici che hanno
314
inciso sulla crescita.
L’Europa degli anni futuri sembra destinata a dover affrontare un drammatico
trade-off: l’alternativa fra l’ulteriore restringimento dell’autonomia di politica fiscale
previsto dal Fiscal Compact e la difesa dei diritti sociali. Fino al default di Lehmann
Brothers nel 2008, sulle due sponde dell’Atlantico esisteva una sorta di
specializzazione riguardo allo strumento utilizzato nel perseguire la coesione sociale.
Negli Stati Uniti, la coesione sociale è prevalentemente affidata alle politiche
macroeconomiche di stabilizzazione, che hanno tenuto alto il tasso di occupazione
mentre si andava allargando la diseguaglianza di reddito. Nell’Unione Monetaria
Europea, la coesione sociale è prevalentemente affidata allo Stato sociale: le
istituzioni del mercato del lavoro (EPL, salario minimo, sussidi di disoccupazione)
contengono la sperequazione fra i redditi di mercato, ed il sistema della tassazione e
degli altri trasferimenti monetari riducono ulteriormente la diseguaglianza di reddito
disponibile rispetto a quella che è stata determinata dal mercato.
La capacità di reazione delle economie dell’Eurozona, di fronte ad uno shock
esogeno particolarmente grave come la crisi finanziaria del 2007-08, è stata molto
limitata Se ne sono analizzati i motivi: la politica poco aggressiva della BCE; i
vincoli del PSC che hanno depresso la componente pubblica della domanda
aggregata; le drastiche misure di restrizione fiscale imposte dalla troika ad una
Periferia in piena recessione. L’”aggiustamento” di mercato attraverso la deflazione
di salari e prezzi, avviato in alcuni paesi per fare fronte alla scarsa competitività con
l’estero del sistema produttivo, sta aggravando la diseguaglianza fra i redditi di
mercato. L’impatto dell’”austerità” sulla capacità di stabilizzazione del reddito delle
politiche di bilancio, ha poi anche affievolito la capacità redistributiva dell’intervento
pubblico. Il meccanismo di tassazione e trasferimenti monetari oggi recupera in una
percentuale inferiore a un decennio fa l’ampliamento che l’aggiustamento di mercato
successivo ad uno shock negativo produce nella dispersione fra i redditi guadagnati
nel mercato. Dopo che la politica fiscale è stata privata delle manovre discrezionali,
315
che negli Stati Uniti costituiscono invece il fulcro dell’intervento pubblico,
l’Eurozona non solo dispone oggi di una capacità di stabilizzazione macroeconomica
inferiore degli Stati Uniti ma ha anche perso molto del suo vantaggio sul piano della
redistribuzione del reddito. Il progressivo ridimensionamento della spesa sociale ha
contribuito alla discesa anche del reddito disponibile famigliare, spingendo una
quota non piccola di popolazione a basso reddito al di sotto della soglia di povertà
relativa. Le istituzioni della protezione sociale e della redistribuzione tendono così ad
avvicinarsi all’approccio anglo-sassone, ovvero al contrasto alle diseguaglianze
realizzato attraverso una safety net per l’estrema indigenza. Guardando alla Grecia,
forse neppure questo è garantito.
Il progetto europeo potrà davvero ripartire quando una struttura istituzionale
più solida ed articolata permetterà che all’idea di convergenza spontanea, guidata
dalle sole forze di mercato, subentri una strategia di integrazione della Periferia con il
Centro. Non ci si può nascondere che la costruzione di nuove politiche pubbliche
comuni - per contrastare la recessione economica e l’aumento delle diseguaglianze - è
oggi bloccata dalle prossime elezioni politiche nello Stato-nazione leader
dell’Eurozona. Una volta superato questo ostacolo, è auspicabile che si creino le
condizioni per una maggiore cooperazione fra Centro e Periferia.
In questa prospettiva, non sembra più a lungo procrastinabile l’esigenza di
affiancare al Fiscal Compact – il cui primo obiettivo è il coordinamento delle
politiche fiscali diretto a “rassicurare” i mercati – l’avvio dell’Unione Fiscale. Le
politiche pubbliche comuni potranno così essere finanziate attraverso l’emissione di
debito pubblico con la mutua garanzia di tutti i paesi; e dovrà anche essere rivista,
dopo la bocciatura del Parlamento Europeo, la recente miope scelta di restringere un
bilancio centrale di dimensioni già troppo esigue. Sarebbe ingenuo aspettarsi in tempi
brevi un unanime accordo per un’Unione Fiscale dove le principali voci di entrata e
di spesa vengano trasferite a livello centrale. Il principale ostacolo è costituito dal
timore della Germania (ma anche dei paesi nordici e del Regno Unito) che un tale
rafforzamento delle politiche pubbliche europee finisca per affidare il superamento
316
degli shock permanenti - il catching-up da parte dei paesi meno avanzati – ad una
strategia di “aiuti di Stato” organizzata a Bruxelles, che verrebbe a sostituirsi
all’autonome forze di mercato.
Quale che sia il giudizio sulla necessità di politiche di sviluppo delle aree
arretrate più incisive di quelle attuate con i Fondi Strutturali e di Coesione, è evidente
che i divari di efficienza economica all’interno dell’Eurozona sono un impedimento di ordine politico, prima ancora che economico -difficilmente superabile. Dalla piena
centralizzazione delle tre funzioni dell’intervento pubblico (di stabilizzazione del
reddito, redistributiva e allocativa) scaturirebbe infatti un flusso continuo di
ridistribuzione dei redditi dal Centro alla Periferia, la cosiddetta “Transfer Union”
paventata dalla Germania. Una nuova stagione dell’integrazione europea può più
realisticamente prendere le mosse da un inizio di Unione Fiscale che varasse un
meccanismo di mutual risk-sharing - una mutua assicurazione contro i rischi
macroeconomici finanziata con una tassa comune.
L’obiettivo di politica economica dovrebbe essere duplice: 1) generare
trasferimenti diretti al livellamento del PIL nei paesi il cui tasso di crescita annuale si
sia collocato al di sotto della media dell’Eurozona. In tal modo, si contrasterebbe il
pericolo che una grave caduta del reddito al di sotto del livello potenziale, come
quella sperimentata dopo la crisi finanziaria, possa allargare il distacco della
Periferia rispetto al Centro, con il concreto rischio di provocare la fine dell’area
valutaria comune; 2) creare uno schema europeo di salario minimo garantito, per
impedire che una fase di alta disoccupazione, soprattutto giovanile, allarghi
ulteriormente le diseguaglianze e provochi la caduta di molti redditi al di sotto della
soglia di povertà relativa (misurata, in ciascun paese, con il reddito famigliare al di
sotto del 50% del reddito mediano).
Il passo successivo sulla strada dell’Unione Fiscale dovrebbe puntare ad una
politica di bilancio europea finanziata con una percentuale di tassazione sul PIL ben
superiore all’attuale 1% circa del PIL dell’Unione Europea. Le politiche di
allocazione delle risorse andrebbero ripristinate al livello sovra-nazionale. I governi
317
nazionali hanno infatti dovuto progressivamente rinunciare alle politiche di
investimento, una volta che il coordinamento delle politiche di bilancio regolato dal
PSC li ha costretti all’abbandono delle manovre discrezionali. Una governance
macroeconomica sovra-nazionale rivolta alla produzione di infrastrutture comuni
potrebbe promuovere, mediante le economie di scala, l’indispensabile incremento
della produttività totale dei fattori. La caratteristica dei beni pubblici di generare una
diffusione dei benefici non influenzata dalle disparità di reddito garantirebbe poi che
alla ripresa della crescita del PIL non si accompagni un peggioramento della
divergenza reale della Periferia, ma uno sviluppo più equilibrato del benessere fra le
diverse aree.
Nel dibattito economico di questi anni figura il tema dei beni comuni. Questa
tipologia di beni si differenzia da quella dei beni pubblici in quanto ne condivide la
caratteristica di non-escludibilità dal consumo ma è altresì soggetta al problema della
rivalità nel consumo (a differenza dei beni pubblici, il consumo del bene comune da
parte di un soggetto ne riduce la quantità disponibile per tutti gli altri). La “tragedia
dei commons” consiste nell’eccessivo consumo che finisce per far deperire il bene
comune - un pascolo su cui non cresce più l’erba o un mare la cui fauna si è estinta una volta che non si provveda alla regolamentazione del suo utilizzo. Volendo
declinare il concetto di bene comune in termini macroeconomici, si potrebbe dire che
gli Stati dell’Eurozona rischiano di distruggere il “bene comune” Euro.
Come si è argomentato, nella fase iniziale tutti i paesi hanno goduto dei
benefici dell’unione monetaria, in primo luogo la fine del rischio di cambio per le
imprese e la drastica riduzione dei tassi di interesse. Con il successivo ampliarsi dello
squilibrio macroeconomico - con il Centro in surplus commerciale e la Periferia in
deficit commerciale - le cose sono cambiate. L’aggiustamento reale che ha permesso
il salvataggio dell’Euro da una possibile scomparsa dopo la crisi finanziaria è finora
ricaduto totalmente sulla Periferia. La Germania, il paese che con la fine degli
aggiustamenti del cambio nominale ha tratto grande spinta alle proprie esportazioni
318
attraverso il deprezzamento reale, si fatta paladina della politica dell’austerità. Tutti i
paesi periferici, seppure in diversa misura, si trovano oggi in piena deflazione reale
per gli effetti perversi di tale politica: il ripetersi di valori negativi del tasso di crescita
del PIL e la riduzione di salario e occupazione.
Nel punto 7, si è osservato come una strategia cooperativa per il superamento
dello squilibrio macroeconomico intra-UME consisterebbe in un incremento di
domanda nel Centro, in particolare modo nel paese di maggiori dimensioni e con il
più alto rapporto surplus commerciale/PIL. Se infatti la BCE continua a mantenere
l’obiettivo di inflazione intorno al 2%, ad una Periferia con un’inflazione che
l’austerità ha fatto scendere al di sotto del 2% dovrebbe corrispondere un Centro con
un’inflazione superiore al 2%.
Un aggiustamento simmetrico all’interno dell’Eurozona richiederebbe quindi
che la Germania facesse la sua parte, con una crescita della domanda interna cui
conseguirebbe un tasso di inflazione superiore al 2%. Nel frattempo, però, la
recessione sta producendo il riassorbimento dello squilibrio macroeconomico fra
Periferia e Centro, in quanto la diminuzione delle importazioni della Periferia ne
riduce il deficit commerciale con il Centro. Ciò dà motivo alla Germania di evitare di
accollarsi la sua parte dell’aggiustamento, attraverso quell’espansione della domanda
interna che consentirebbe alla Periferia una ripresa trainata dalle esportazioni. Tale
strategia di “aggiustamento simmetrico”compenserebbe i paesi periferici, il cui
livello di attività economica è stato gravemente penalizzato dalla politica
dell’austerità.
Occorre oggi impedire che la massimizzazione dell’utilità della moneta unica
da parte di ciascun paese condanni l’area valutaria europea alla definitiva “nonottimalità”, fino alla “tragedia” della fine del “bene comune” ed al ritorno alle valute
nazionali. A tale scopo, i governi dovrebbero essere solidali nella scelta di politiche
comuni che permettano di dividersi benefici e costi in modo simmetrico. E’ noto che
negli Stati Uniti, alcuni decenni dopo l’indipendenza, molti Stati crearono forti deficit
nei propri bilanci pubblici. La soluzione allo “sfruttamento competitivo” del bene
319
comune “dollaro” venne trovata nell’Unione fiscale. Sembra però che nell’Unione
Monetaria Europea l’unica lezione che si sappia apprendere da oltre Atlantico sia
quella della deregolamentazione.
320
Parte Quinta: Unione Europea
1. L’ Unione Europea in una prospettiva storica
L’unione fra i paesi europei nacque come progetto politico. L’obiettivo di assicurare
un futuro di pace ai popoli europei portò i padri fondatori a concepire un processo di
unificazione sia economica che politica. Fra loro ricordiamo Altiero Spinelli, uno
degli estensori del Manifesto di Ventotene del 1941; Robert Schuman, l’autore della
dichiarazione del 9 maggio, giorno in cui oggi celebriamo l’Europa unita; Jean
Monnet, l’ispiratore del primo concreto passo verso l’integrazione europea: la
Comunità Europea del Carbone e dell’Acciaio (CECA), creata nel 1951 da Belgio,
Francia e Germania Italia, Lussemburgo e Olanda allo scopo di favorire l’impiego
comune di queste materie prime per la ripresa industriale post-bellica ed accelerare al
contempo la ripresa delle relazioni politiche.
Come si è già detto, nel marzo 1957 a Roma vennero firmati i Trattati con i
quali quegli stessi sei paesi istituivano la Comunità Economica Europea (CEE) e la
Comunità Europea dell’Energia Atomica (Euratom). Nel 1968 fu completata
l’eliminazione delle tariffe e delle quote sul commercio interno e si proclamò la libera
circolazione di merci, servizi, capitali e lavoro. Successivamente, aderirono alle
Comunità Europee (CE) altri nove paesi (Regno Unito, Danimarca e Irlanda nel
1972, Grecia nel 1981, Spagna, e Portogallo nel 1986, Austria, Finlandia e Svezia nel
1995), sei dei quali avevano inizialmente fatto parte di un progetto alternativo:
l’Accordo Europeo di Libero Scambio (EFTA) siglato nel 1960. L’abolizione delle
barriere non tariffarie ed il graduale passaggio a votazioni a maggioranza furono le
principali decisioni contenute nell’Atto Unico Europeo (AUE) del 1986. La cornice
istituzionale dei tre pilastri - Comunità Europea, Politica estera e di sicurezza comune
(PESC) e Giustizia e affari interni (GAI) - in cui si articola l’Unione Europea (UE)
venne istituita nel 1991 con il Trattato di Maastricht (TUE) che diede anche avvio
321
all’Unione Monetaria Europea (UME). Nel 2004 l’adesione di dieci nuovi paesi
(Cipro, Estonia, Lettonia, Lituania, Malta, Polonia, Repubblica Ceca, Slovacchia,
Slovenia, Ungheria) ha segnato il passaggio dell’Unione Europea da 15 paesi (UE15) a 25 paesi (UE-25). Il 1 gennaio 2007, l’allargamento a Bulgaria e Romania ha
portato l’Unione Europea a ventisette paesi (UE-27).
Il lungimirante obiettivo dell’unificazione politica si è finora rivelato troppo
ambizioso. L’eterogeneità dei valori e degli interessi ha impedito l’affermarsi di un
modello condiviso di organizzazione dell’economia e della società. L’orizzonte del
progetto originario è stato così delimitato all’elaborazione di accordi di “mutuo
vantaggio”, consistenti in politiche pubbliche comuni in campo economico e più
recentemente anche nella cooperazione nel campo della politica estera, della difesa e
della sicurezza.
La formazione del mercato unico ha visto il progressivo abbattimento delle
diverse forme di barriere al libero scambio (dalle tariffe, alle barriere tecniche
connesse alla regolamentazione ambientale, sanitaria, etc.). Le imprese hanno
beneficiato del libero accesso su tutti i mercati, nei quali si sono al contempo
confrontate con la concorrenza delle imprese degli altri paesi dell’UE. La pressione al
ribasso esercitata sui prezzi ha accentuato la competizione nel mercato dei prodotti,
stimolando le imprese alla riduzione dei costi ed all’introduzione di innovazioni di
processo e di prodotto. L’attuale fase di integrazione si contraddistingue per il
complesso intreccio fra diverse finalità. L’obiettivo di aumentare il grado di
concorrenza dei mercati mediante i processi di liberalizzazione e di privatizzazione
nel campo dei servizi e dell’energia entra spesso in conflitto con la ricerca di
economie di scala attraverso fusioni ed acquisizioni che stanno dando origine a
grandi compagnie multinazionali. L’obiettivo di rafforzare la protezione sociale di
fronte all’aumento dell’incertezza economica e delle diseguaglianze determinati dalla
globalizzazione si scontra con l’eterogeneità delle comunità e delle economie
europee, che rendono difficile l’armonizzazione dei sistemi di Welfare. La
322
legislazione presente nei singoli paesi frappone ostacoli alla regolazione a livello
europeo dei mercati dei beni, del lavoro e dei servizi finanziari. L
Come vedremo nel prosieguo, la conseguenza più grave di tale “integrazione
incompiuta” è l’assenza nella costruzione europea di alcune “istituzioni” – l’unione
bancaria, l’unione fiscale, l’inserimento nello Statuto della BCE della funzione di
prestatore di ultima istanza - indispensabili a garantire la credibilità dell’unione
monetaria e quindi la sopravvivenza dell’Euro.
Negli ultimi decenni le economie europee si sono sviluppate all’interno di un quadro
di regole affatto nuovo. Alle istituzioni nazionali si è affiancato un livello
istituzionale sovranazionale con lo scopo di dare attuazione alle politiche di
integrazione. Il mercato unico ha sancito la libera circolazione di beni, servizi,
capitali e persone. L’Unione Monetaria Europea (UME) ha dato vita ad un’unica
moneta e ad un’unica autorità monetaria. La Commissione Europea ha esteso gli
interventi di regolazione diretti a rafforzare la concorrenza nei mercati. Il Patto di
Stabilità e Crescita (PSC) ha vincolato i bilanci pubblici delle dodici autorità fiscali
nazionali. Le politiche di coesione hanno finanziato lo sviluppo delle aree arretrate.
Prima di affrontare le modificazioni che ne sono seguite nelle relazioni fra le
grandezze macroeconomiche, in questo capitolo ci soffermeremo sulla valutazione
dell’eurozona come area valutaria ottimale, sulle diverse forme di coordinamento fra
i sistemi fiscali, e sul rapporto fra il principio di sussidiarietà adottato dall’UE e la
teoria del federalismo fiscale.
Dopo questa rapida sintesi, esaminiamo l’UE nei suoi diversi aspetti.
Per sapere che cosa è l’Unione Europea (UE) sarebbe necessaria una definizione, ma
ciò pone la prima questione: è evidente che non coincide con un tradizionale stato a
struttura federale, o confederale, ma è riduttivo limitarne la valutazione ad un mero
susseguirsi di accordi internazionali: si tratta infatti di un’entità che si colloca tra
questi due estremi, oscillando tra l’uno e l’altro in ragione della mutevolezza
323
dell’esprit du temps, lo “spirito dei tempi”. La seconda questione, che riguarda gli
aspetti dinamici, viene posta dalla domanda: “è quello che era e quello che sarà?” e
poiché la risposta, almeno per il passato, è certamente “no”, non si può evitare di
investigare la natura dell’istituzione UE, tenendo conto di questi due aspetti: da un
lato esaminandone la struttura costituzionale, e dall’altro riflettendo sulla sua
evoluzione nel corso degli anni. L’UE oggi è l’insieme di ventisette paesi uniti
dall’impegno al rispetto dei Trattati. I Trattati sottoscritti dai ventisette paesi, così
come l’acquis communautaire
accumulato nel corso dei decenni, sono molto
richiedenti e spesso sottintendono un intento non esplicitamente scritto.
La struttura costituzionale dell’UE è a fondamento delle istituzioni e delle procedure
che presiedono alla formulazione e all’attuazione delle politiche comuni. Occorre
dunque esaminare quali organismi sono stati istituiti, per quale ragione e con quali
caratteristiche.
L’impronta evolutiva, che in maniera più o meno intenzionale ha permeato l’impianto
istituzionale dell’UE, è ascrivibile principalmente allo iato, presente sin dalle sue
origini che datano dalla metà del secolo scorso, tra l’ambizione di dar vita ad
un’iniziativa politica di grande portata storica e la realtà di un esperimento di
integrazione economica in principio piuttosto limitato.
Il progetto, prefigurato in Italia fin dal Manifesto di Ventotene e sostenuto da coloro
che vengono collettivamente indicati come i “padri fondatori” aveva lo scopo di
impedire il ripetersi di conflitti in Europa. Questo intendimento si tradusse nella
formulazione di un disegno istituzionale diretto a garantire alle istituzioni
comunitarie una potenziale indipendenza dai governi nazionali, un’indipendenza che
queste avrebbero comunque dovuto dimostrare di meritare alla prova dei fatti.
Ne risultò un’istituzione nella quale gli elementi a carattere intergovernativo – cioè
quelli nei quali i paesi, attraverso i propri governi, agiscono in prima persona come
accade negli accordi internazionali – erano strettamente intrecciati con gli elementi a
carattere sovranazionale – cioè quelli nei quali i paesi rinunciano alla propria
sovranità nazionale a favore di un’entità diversa costituita da una costruzione comune
324
– e tale intreccio si è articolato in maniera variabile nel tempo seguendo una dialettica
in continua evoluzione.
L’Unione Europea è un’istituzione sui generis, con un assetto istituzionale dotato di
caratteri potenzialmente federali e strutturato su un’impostazione di governo
multilivello che ripartisce la responsabilità decisionale tra gli stati nazionali e le
istituzioni sovranazionali, e comprende al contempo aspetti caratteristici di uno stato
nazionale accanto ad aspetti propri di un’organizzazione internazionale.
2. Le istituzioni dell’U.E. nel progetto originario
Nell’immediato dopoguerra sono stati numerosi i tentativi di aggregazione degli stati
europei in un progetto comune che di volta in volta ha assunto connotazioni e
formule diverse a seconda delle diverse istanze cui intendeva rispondere:
l’Organizzazione Europea per la Cooperazione Economica (OECE) per la gestione
della ricostruzione post-bellica, l’Unione dell’Europa Occidentale (UEO)
per la
difesa, il Consiglio d’Europa per il riconoscimento di quei diritti fondamentali che
fanno riferimento ad una cifra culturale condivisa. Il tratto comune a tutte le
organizzazioni europee fondate nel dopoguerra mette in luce l’esigenza innegabile,
seppure forse non avvertita con la stessa urgenza da parte di tutti i paesi europei, di
dar vita ad una costruzione comune che includesse un certo grado di cooperazione
anche nell’ambito della politica e che potesse essere in grado di garantire la pace.
La strategia di cooperazione fu avviata inizialmente tra sei paesi - Belgio, Francia,
Italia, Lussemburgo, Paesi Bassi e Repubblica Federale Tedesca - con l’istituzione
della Comunità Europea del Carbone e dell’Acciaio (CECA) nel settore carbosiderurgico. Questo accordo, firmato a Parigi nel 1951, costituiva il tentativo, o la
speranza, di coinvolgere in futuro anche la sfera politica attraverso l’instaurarsi della
consuetudine di una collaborazione, che avesse inizio ed occasione da un settore
economico decisivo per l’industria pesante, per quel tempo di fondamentale
importanza ed insieme simbolico, poiché la sua produzione forniva la materia prima
325
per l’industria bellica. Tale metodo di cooperazione venne definito “funzionalista” o
“gradualista” per indicare il fatto che agli strumenti viene attribuita la funzione di
creare le condizioni per un successivo estendersi dell’accordo di singoli obiettivi ad
una molteplicità di politiche comuni, fino ad imporre, nelle intenzioni di alcuni, la
necessità dell’obiettivo massimo: l’unione politica.
La strategia funzionalista venne applicata, con meno fortuna, anche ai settori della
difesa, con la Comunità Europea di Difesa (CED), e della politica, con la Comunità
Politica Europea (CPE), due iniziative che col senno di poi oggi riteniamo troppo
ambiziose per quel tempo, e che non riuscirono ad essere portate a compimento. La
stessa strategia ebbe successo invece in due diverse sfere di applicazione con la
firma, da parte degli stessi sei paesi, dei due Trattati di Roma che nel 1957 diedero
vita alla CEE e all’Euratom concepite con un impianto istituzionale organizzato sulla
falsariga di quello sperimentato nella CECA. La cooperazione, che inizialmente
coinvolgeva solo il settore carbo-siderurgico, fu quindi estesa alle aree dei rapporti
commerciali e delle fonti di energia.
Questo modo di procedere rappresentava la conferma della caratteristica evolutiva
degli accordi tra i sei paesi e della praticabilità dell’approccio funzionalista
all’integrazione, con il quale si considera l’integrazione politica un’inevitabile
conseguenza, implicita nell’instabilità intrinseca al processo di integrazione
economica ed ascrivibile agli effetti di ricaduta (spill-over) tra le politiche. Secondo
questa concezione, per avere successo l’integrazione europea avrebbe dovuto
rispondere alle domande che sarebbero poste dalla sfera economica ed estendersi
successivamente dall’ambito del commercio, della finanza e dell’economia a quello
delle relazioni internazionali, della difesa e della politica estera, cioè, secondo una
nota classificazione di Raymond Aron, dalla bassa all’alta politica.
A. Una forma istituzionale in evoluzione: integrazione come processo, non come
stato
La volontà di gettare le basi per un’organizzazione ampia che andasse oltre
l’istituzione di un accordo commerciale tra sei paesi era evidente già nel Preambolo
326
del Trattato di Roma che istituiva la Comunità Economica Europea, dove è esplicito
il riferimento alle superiori ambizioni del progetto di integrazione che riconoscono la
necessità di “… porre le fondamenta di un’unione sempre più stretta fra i popoli
europei … facendo appello agli altri popoli d’Europa, animati dallo stesso ideale,
perché si associno al loro sforzo”. D’altro canto, gli obiettivi della Comunità, definiti
dall’articolo 2, non avevano carattere soltanto economico ma investivano anche la
sfera politica, coinvolgendo un ampio spettro di questioni di portata generale:
vengono citati infatti oltre ad uno sviluppo armonioso dell’attività economica,
un’espansione continua ed equilibrata, un’accresciuta stabilità, un miglioramento del
tenore di vita e più strette relazioni tra gli stati partecipanti.
Il carattere evolutivo dell’integrazione europea veniva ribadito, dopo oltre trent’anni,
a Maastricht nel Preambolo del Trattato sull’Unione Europea (TUE) che,
riconoscendo l’attualità degli stessi obiettivi già espressi nel 1957, ne ampliava la
portata con l’impegno a: “… portare avanti il processo di creazione di un’unione
sempre più stretta fra i popoli dell’Europa … in previsione degli ulteriori passi da
compiere ai fini dello sviluppo dell’integrazione europea”.
Il carattere di processo conferito all’integrazione viene affermato nei Trattati dal
riferimento all’impegno comune in un procedimento dinamico, aperto a sviluppi
futuri di cui ancora si ignorava il contenuto, ed è in contrasto con la concezione
statica dell’integrazione che invece ritiene che il patto tra i paesi debba ratificare il
raggiungimento di uno stato di cose esattamente stabilito negli accordi, e che
dovrebbe essere inteso come definitivo.
Pur non potendosi sostenere una stretta coincidenza tra carattere evolutivo e
sovranazionale da un lato, e statico e intergovernativo dall’altro, l’antitesi tra
processo e stato – che in quegli anni veniva riflessa rispettivamente dall’impostazione
anglosassone e da quella continentale – fu chiarita dai Trattati che privilegiavano la
concezione dell’integrazione come processo. L’istituzione era considerata in continua
transizione verso una costruzione futura, che avrebbe forse finito con l’affrancarsi dal
carattere intergovernativo tipico dell’accordo tra stati nazionali che restano
327
pienamente sovrani e si impegnano limitatamente a quanto definito nel testo
concordato e sottoscritto. Traspare spesso dal testo invece un’implicita presa di
posizione a favore dell’impronta sovranazionale.
A causa dell’evidente contrasto tra le elevate ambizioni, che avrebbero voluto una
ideale costruzione federale, ed i vincoli dettati dal realismo, che si prefiggeva di
ottenere un accordo su “un punto limitato e decisivo”, pur nell’impostazione ispirata
all’approccio funzionalista, che sta all’origine della natura evolutiva dell’impianto
istituzionale dell’Unione Europea, questa ha potuto acquisire caratteristiche federali e
sovranazionali. Le funzioni esecutive, legislative e giudiziarie indipendenti dai
singoli stati membri furono attribuite al Parlamento, alla Commissione, al Consiglio
dei Ministri e alla Corte di Giustizia, gli organi istituzionali previsti nel 1957 ai quali
più tardi si sono aggiunti la Corte dei Conti, il Comitato delle Regioni, la Banca
Centrale Europea e gli altri organismi che attualmente compongono l’architettura
europea.
B. L’intreccio intergovernativo/sovranazionale e l’indipendenza delle istituzioni
comuni
Le istituzioni dell’UE, nel loro continuo mutare, hanno pur tuttavia mantenuto una
caratteristica costante che si ravvisa nell’equilibrio mutevole che ha caratterizzato la
condivisione dei poteri tra i due diversi livelli di governo: quello comune europeo e
quello individuale nazionale. Ciò deriva dall’aver immaginato che, per raggiungere
scopi che vanno al di là di quelli delle consuete organizzazioni internazionali, le
istituzioni europee dovessero essere almeno in parte indipendenti dai governi
nazionali. Nei piani di Jean Monnet, al tempo commissario alla pianificazione
francese, un esecutivo indipendente doveva costituire il punto qualificante della
Comunità che si sarebbe dovuta costruire. Fin dalla dichiarazione del ministro degli
esteri francese Schuman, il 9 maggio 1950, con la quale si gettano le basi per “…
mettere la produzione francese e tedesca di carbone e di acciaio sotto una comune
Alta Autorità, nel quadro di un’organizzazione aperta alla partecipazione di altri paesi
europei … [per] … rendere la guerra fra Francia e Germania non solo impensabile,
328
ma materialmente impossibile”, l’Alta Autorità – che sarebbe poi divenuta la futura
Commissione – veniva concepita come l’istituzione cui si delegava la responsabilità
per il settore carbo-siderurgico accordandole la più ampia autonomia. L’Alta Autorità,
varata sotto la guida di Jean Monnet, più che un mandato, aveva una missione: per
competenza le veniva conferito il primato sui governi nazionali.
La struttura istituzionale comunitaria rifletteva la preoccupazione di evitare
un’eccessiva ingerenza delle capitali nazionali nel processo decisionale comune e di
promuovere un metodo in grado di giungere a decisioni frutto della volontà collettiva.
Nell’impossibilità di dar vita ad un’entità politica comune, nella quale sarebbe stato
naturale riprodurre la tradizionale separazione tra i poteri – legislativo, esecutivo e
giudiziario – che è propria degli stati nazionali democratici, il progetto comunitario
ha privilegiato l’intreccio tra i poteri delle diverse istituzioni, secondo uno schema
inedito che già dall’inizio mirava a porre le condizioni per una progressiva erosione
dei poteri nazionali. Il concetto stesso di integrazione dunque si considerava in
evoluzione: il disegno istituzionale si caratterizzava per la tensione tra l’intero,
riconosciuto e legittimato dalle sue parti, e le sue stesse parti: ciò implicava che
l’equilibrio tra i diversi poteri sarebbe stato continuamente ridefinito.
I governi nazionali mantengono la capacità di alterare i poteri delle istituzioni
comuni. Essendo i depositari della legittimazione popolare, essi possono intervenire
sia direttamente in prima persona, che indirettamente attraverso le istituzioni comuni.
I poteri decisionali sono condivisi dalle diverse istituzioni ed ognuna deve tenere
conto delle prerogative delle altre. Il processo decisionale collettivo comporta dunque
una perdita significativa di sovranità nazionale. Tuttavia, l’affievolimento del potere
da parte dei governi non va sopravvalutato. Le istituzioni comunitarie sono sì
indipendenti, ma allo stesso tempo sono anche soggette al controllo dei governi
nazionali dai quali comunque proviene la legittimazione degli organismi comuni. Si
tratta quindi ogni volta di trovare un punto di equilibrio tra quali e quanti poteri
affidare all’istituzione comune, in quale forma e secondo quale procedura.
329
I poteri dell’UE, così come le sue aree di competenza, col passare degli anni si sono
accresciuti notevolmente, ma ciò non è consistito tanto nella transizione verso un
governo europeo, ad esempio attraverso un rafforzamento del potere e dei compiti
della Commissione, quanto nel mutevole equilibrio che si è determinato nella
condivisione del potere tra Parlamento e Consiglio, per cui una buona parte
dell’attività decisionale, pur trasferita nell’ambito di responsabilità comune,
nonostante le maggiori responsabilità attribuite al Parlamento, è rimasta comunque
nella disponibilità ultima dei governi nazionali.
Tuttavia, va anche riconosciuto che nessun governo nazionale, singolarmente preso, è
in condizioni di controllare in solitudine, né tantomeno di determinare, le decisioni
comuni. Il potere dei governi deve essere inteso prima di tutto in senso collettivo e si
concretizza sia nei compromessi periodicamente raggiunti nelle Conferenze InterGovernative (CIG), nelle quali si decidono le innovazioni di tipo costituzionale, sia,
più spesso, per le decisioni ordinarie durante le sedute del Consiglio. Il Consiglio
stesso poi interagisce con le altre istituzioni che in base alle procedure prestabilite
sono in grado di esercitare - e a volte anche di estendere - la propria influenza.
C. La forma istituzionale pre-federale con un governo multilivello
Il trasferimento di competenze ha assunto gradi diversi in relazione ai diversi ambiti
interessati dal processo di integrazione. La parzialità delle competenze e dei poteri
che i governi nazionali sono stati disposti a trasferire al livello sovranazionale ha fatto
sì che l’impianto istituzionale dell’UE si configurasse come uno schema di governo
multilivello del quale sono parte sia gli stati membri che le istituzioni comuni.
In alcuni casi il trasferimento delle competenze nazionali alle istituzioni comunitarie
è stato completo. L’UE, ad esempio, ha assunto le competenze degli stati membri
nella gestione del commercio estero con la determinazione delle tariffe doganali e la
stipula degli accordi commerciali nell’ambito un tempo del GATT ed ora del WTO
dove l’UE “parla con una sola voce”. Anche la politica monetaria più recentemente è
diventata di competenza comunitaria per i paesi che hanno adottato l’euro. La delega
totale delle competenze è un aspetto dell’integrazione al quale ciascuno stato membro
330
è particolarmente attento, volendo evitare di cedere elementi importanti di sovranità
nazionale senza adeguate garanzie.
In altri casi la competenza nazionale è stata limitata. La limitazione delle prerogative
nazionali è più cogente quando è prescritto l’obbligo di coordinamento o di
armonizzazione, come accade, ad esempio, nel caso delle sovvenzioni alle imprese,
per concedere le quali è necessario richiedere l'autorizzazione comunitaria, dato che
la loro erogazione potrebbe falsare la concorrenza tra gli stati membri; è invece meno
vincolante quando è previsto soltanto lo scambio di informazioni o opinioni
attraverso l’informazione reciproca o le consultazioni ufficiali.
In altre aree, infine, le istituzioni comunitarie non intervengono nelle decisioni degli
stati membri. Ciò avviene, ad esempio, per le imposte dirette sui redditi dei privati, le
imposte di proprietà e le tasse di successione tuttora di esclusiva competenza
nazionale. Può inoltre accadere che le iniziative nazionali e comunitarie si affianchino
o anche si sovrappongano, ad esempio, nel co-finanziamento delle iniziative che
fanno capo ai fondi strutturali o nell’attuazione di programmi comuni nel campo della
ricerca e sviluppo tecnologico.
La ripartizione verticale dei poteri e delle competenze tra UE e stati membri pone
alcune questioni che riguardano la compresenza nell’impianto istituzionale dell’UE di
aspetti distintivi di un’entità statuale con altri tipici di un’organizzazione
internazionale. Osservando la volontarietà dell’associazione tra gli stati e la
problematica praticabilità di eventuali azioni coercitive, le istituzioni sovranazionali
possono essere considerate semplici intermediari per i quali legittimità e sovranità
esistono nella misura in cui la prima venga esplicitamente concessa dai governi e la
seconda venga esercitata su loro delega. Tuttavia la presenza del Parlamento europeo
e della Corte di giustizia, ed il rilevante ruolo che è stato loro affidato, certamente
impediscono di assimilare l’UE alle più consuete organizzazioni internazionali. La
responsabilità politica che l’UE si può assumere sulla base dell’attuale struttura
istituzionale, pur insufficiente, è più ampia e profonda di quella di una usuale
organizzazione internazionale. La varietà degli ambiti decisionali soggetti alla
331
votazione a maggioranza, e quindi aperti alla possibilità che un paese membro si
possa trovare in minoranza e debba perciò subire decisioni di cui non condivide i
contenuti – un tratto distintivo di un’istituzione sovranazionale – non solo è sempre
stata maggiore che per qualsiasi altro organismo internazionale, ma con i trattati di
revisione del Trattato di Roma i paesi membri hanno volontariamente accresciuto sia
l’adesione a questa regola di voto che l’importanza delle aree di intervento.
L’interpretazione della natura dell’impianto istituzionale dell’UE coinvolge anche il
giudizio sugli aspetti federali della condivisione e della ripartizione dei poteri, e delle
competenze cui una struttura di governo multilivello viene naturalmente associata. La
divisione delle competenze tra istituzioni centrali e locali costituisce una caratteristica
fondamentale dei sistemi federali che si fondano sulla comune partecipazione al
potere secondo un patto (foedus) il cui contenuto definisce le modalità della
condivisione dei poteri (power sharing).
Il federalismo aspira a coniugare unità e diversità in una combinazione ottima.
Tuttavia, a questa definizione non corrisponde una precisa formula utilizzabile per
ripartire in modo univoco le competenze tra i livelli di governo, dato che questa
valutazione è soggettiva. Poiché con il termine “federalista” si potrebbe anche
intendere “finalizzato ad una futura federazione”, il Regno Unito si è più volte
opposto al riferimento al federalismo nei principi del Trattato sull’Unione Europea e
anche in seguito temendo che questo termine potesse evocare una progressiva e
rapida perdita di sovranità nazionale piuttosto che un’ottima ripartizione dei poteri
politici e delle funzioni amministrative.
L’approfondimento dell’integrazione nell’UE, che si traduce nel moltiplicarsi delle
sfere di competenza ben al di là delle sole politiche commerciali, tuttavia ha
comportato di fatto una crescente somiglianza con il federalismo seppure limitato alla
sfera economica. Parallelamente, il principio di sussidiarietà è stato introdotto dal
TUE e si è affermato nell’acquis communautaire. Tale principio stabilisce che
l’intervento dell’UE deve essere limitato ai settori nei quali è in grado di agire più
332
efficacemente dei singoli stati membri, e rappresenta il tentativo di conseguire
un’allocazione dei poteri efficiente.
Negli stati federali, tuttavia, al livello centrale vengono attribuite le funzioni di
politica monetaria e del tasso di cambio, ed alcune funzioni di politica fiscale, che
vengono gestite da un bilancio federale basato su un autonomo sistema di prelievo
fiscale federale e su una spesa pubblica che rappresenta una quota considerevole
dell’insieme della spesa pubblica e assolve a tutte e tre le funzioni che
tradizionalmente le vengono attribuite: allocativa, stabilizzatrice e redistributiva. È
inoltre prevista l’elezione diretta del governo federale ed una corte suprema
garantisce il rispetto delle regole federali.
Nell’UE invece, si fa implicito riferimento ad un’entità statuale pre-federale perché,
in assenza di un governo eletto, il potere può essere esercitato dall’autorità centrale
solo con l’autorizzazione delle autorità nazionali sotto la cui responsabilità restano in
massima parte le politiche legate alla spesa pubblica. I principi comuni, in primo
luogo il principio di non discriminazione tra soggetti appartenenti ai paesi membri, il
monitoraggio del rispetto della normativa comunitaria da parte della Commissione, il
controllo dell’osservanza dei Trattati da parte della Corte di Giustizia, riguardano
principalmente l’integrazione di mercato. Fra le condizioni da soddisfare per
procedere all’adesione all’UE, inoltre, non è incluso l’obbligo alla partecipazione
all’Unione Economica e Monetaria (UEM), mentre manca quasi completamente il
potere dell’UE in materia fiscale e di bilancio: questi elementi invece rappresentano
di norma componenti qualificanti di uno stato federale.
La vicenda che avrebbe dovuto portare all’adozione della Costituzione europea, è
illuminante. Nonostante venne approvata nel 2007 dopo un lungo e tormentato iter –
e firmata da tutti gli Stati in occasione del Consiglio europeo a Roma nell’ottobre del
2004 - pochi mesi più tardi l’adozione della Costituzione fu bloccata dall’esito
negativo di un referendum sia nei Paesi Bassi che in Francia. Una sua versione
ridotta, rivista e corretta, il Trattato di Lisbona, è entrata in vigore nel 2009 ed è stata
letta da più parti come l’immissione di un apparato frenante teso a circoscrivere
333
quell’evoluzione che, tra alti e bassi, negli anni aveva caratterizzato l’integrazione
europea.
Le modifiche sono state apportate fin dal Preambolo e già dal primo articolo si
aggiunge che spetta agli Stati membri l’attribuzione delle competenze per il
conseguimento degli obiettivi dell’Unione, mentre l’articolo 2 viene sostituito e, nel
ridefinire gli obiettivi dell’Unione, si sottolinea che essa li persegue in base alle
competenze che le vengono attribuite dai trattati. All’articolo 3bis si legge che
“qualsiasi competenza non attribuita all'Unione nei trattati appartiene agli Stati
membri”, mentre all’articolo 3ter si insiste sulla “delimitazione delle competenze
dell’Unione”. A tale scopo si precisa che le competenze dell’UE vengono determinate
in base ai principi di:
a)
attribuzione, che ne circoscrive la portata,
b)
sussidiarietà, che si applica nei settori nei quali la competenza non è esclusiva,
per limitare l’intervento dell’UE ai soli casi in cui non sia conveniente raggiungere
gli obiettivi comuni con altri mezzi, cioè a livello inferiore
c)
proporzionalità, cui si fa ricorso per limitare l’azione dell’UE allo stretto
necessario per il conseguimento degli obiettivi stabiliti dai Trattati.
La puntuale definizione delle competenze – esclusive, concorrenti o di sostegno e
coordinamento – viene precisata nel titolo I “Categorie e settori di competenza
dell’Unione” di nuova introduzione, tra i primi punti che concernono le modifiche al
Trattato che istituisce la Comunità europea (TCE), ora rinominato Trattato sul
funzionamento dell’Unione europea. Precedentemente, invece, vigeva l’Articolo 235
del Trattato di Roma che, al contrario, tendeva ad ampliare l’azione comune
stabilendo che “quando un’azione della Comunità risulti necessaria per raggiungere,
nel funzionamento del mercato comune, uno degli scopi della Comunità, senza che il
presente Trattato abbia previsto i poteri d’azione a tal uopo richiesti, il Consiglio,
deliberando all’unanimità su proposta della Commissione e dopo aver consultato
l’Assemblea, prende le disposizioni del caso.”
334
Sono stati altresì eliminati - anche se sedici paesi, allegando una dichiarazione
separata, hanno voluto riaffermarne la validità - gli aspetti simbolici che negli anni
avevano almeno in parte contribuito, se non alla costruzione di un’identità europea,
almeno ad alimentare il senso di appartenenza: la bandiera e l’inno, in primo luogo, il
motto e la festa in misura certamente minore. Il messaggio, nel complesso, pare
indicare che l’integrazione – al di fuori della liberalizzazione degli scambi e di quanto
possa servire a questo scopo – forse è andata troppo oltre e comunque è cambiato lo
“spirito del tempo”.
D’altro canto però, alcune disposizioni sembrano indicare che un qualche progresso
verso una maggiore integrazione non è mancato: la Carta dei diritti fondamentali
dell’U.E. è stata recepita, sono state aggiunte disposizioni relative ai principi
democratici, la Banca centrale europea e la Corte dei conti figurano a pieno titolo tra
le istituzioni il cui numero quindi viene elevato a sette, mentre i rapporti
interistituzionali, i compiti e le relative procedure sono stati riformulati.
L’introduzione dell’alto rappresentante per la politica estera e di sicurezza comune,
così come quella del presidente del Consiglio europeo, è stata salutata come
un’importante novità capace di far compiere passi avanti all’UE, ma questa materia è
stata sottratta alla competenza della Corte di giustizia, una delle istituzioni che più
hanno contribuito all’integrazione nel passato.
3. Interpretazioni ex post: finalità, necessità e modalità dell’integrazione
Con il procedere dell’integrazione l’architettura istituzionale dell’UE è stata più volte
emendata e, in seguito ai trattati di revisione, sono stati varati nuovi organismi e si
sono aggiunte nuove regole e nuove procedure secondo un processo tutt’altro che
lineare.
Il delicato equilibrio tra gli elementi intergovernativi e quelli sovranazionali è sempre
stato al centro del dibattito sulla natura del disegno istituzionale comunitario.
Tuttavia, il giudizio su quale elemento abbia di volta in volta prevalso è controverso.
335
Nella CECA, il cui disegno istituzionale introduceva caratteristiche prevalentemente
sovranazionali, non era stata contemplata l’istituzione del Consiglio dei ministri.
Nell’architettura istituzionale della CEE, dove per la prima volta furono attribuiti
poteri a questo organismo, il ruolo dei ministri dei paesi membri era fondamentale,
ma si riteneva che fosse destinato a declinare in un futuro prossimo. Il deperimento
delle funzioni del Consiglio invece non si è verificato, e nemmeno specularmente
l’accrescimento del ruolo della Commissione. Piuttosto, con gli incontri prima
informali tra capi di stato e di governo, e poi, parallelamente alla sua crescente
importanza, l’istituzione del Consiglio europeo, si è aggiunto un nuovo organismo a
carattere decisamente intergovernativo.
Non si può però nemmeno sostenere che il TUE abbia accentuato il tratto
intergovernativo complessivo dell’assetto istituzionale dell’UE: il ruolo del
Parlamento è stato potenziato con la procedura di co-decisione che ne aumenta i
poteri, ma nel contempo è stato anche disposto che i due pilastri che si aggiungono al
primo, la Comunità Europea – la Politica Estera e di Sicurezza Comune (PESC) e la
Giustizia e Affari Interni (GAI) – siano interamente gestiti per via intergovernativa
sottraendoli dall’influenza del Parlamento e dalla giurisdizione della Corte di
Giustizia. Vero è anche che il Trattato di Amsterdam ha poi trasferito una parte delle
materie comprese nel capitolo GAI - quali visti, asilo politico e immigrazione - dal
terzo al primo pilastro dell’UE, per cui la valutazione sull’eventuale indebolimento
della cifra sovranazionale è tutt’altro che concorde.
Il Trattato di Lisbona, non sfugge a questo giudizio ambivalente, anzi, al contrario, lo
rafforza. Si può osservare, ad esempio, che i tre pilastri, con la difformità di
procedure che li caratterizzava, sono stati aboliti insieme ai riferimenti alla CE, a
vantaggio di un’Unione più coesa e compiuta; tuttavia il sistema decisionale relativo
alla politica estera e di sicurezza comune è ancora soggetto a norme e procedure
specifiche ed il ruolo del Parlamento e della Commissione differiscono da quanto
previsto per le questioni ordinarie, che seguono la prassi tradizionalmente indicata
come metodo comunitario . Oppure si può notare che, se da un lato il ruolo del
336
Parlamento europeo si rafforza – ad esempio con il ricorso alla procedura legislativa
ordinaria gode di maggiore potere decisionale – per la prima volta viene inserito un
ruolo anche per i Parlamenti nazionali, ampiamente descritto dal nuovo articolo 8c, e
ripreso anche successivamente. Altri esempi contrastanti possono essere proposti con
riferimento da un lato all’inclusione della Carta dei diritti fondamentali dell’UE ed
alla possibilità da parte dei cittadini di “… prendere l’iniziativa d’invitare la
Commissione europea, nell’ambito delle sue attribuzioni, a presentare una proposta
…” due elementi entrambi volti alla costruzione di un demos europeo, mentre
dall’altro le competenze esclusive e quelle comuni degli Stati e dell’UE vengono
elencate puntigliosamente. Infine, è stata introdotta la possibilità per gli Stati di
recedere dall’Unione e con questa vengono specificate tutte le procedure che in tal
caso dovrebbero essere seguite.
A ciò si aggiunga il controverso giudizio sull’intenzionalità dei provvedimenti.
L’Unione Europea è stata in grado di conciliare considerevoli divergenze di vedute in
modo da conseguire progressi notevoli nel campo dell’integrazione economica, e a
volte è anche sembrato che accordi faticosamente raggiunti abbiano dato risultati in
larga parte imprevisti. Va anche tenuto presente che, in una struttura in continua
mutazione, l’interpretazione degli sviluppi occorsi alla luce sia delle finalità
dichiarate nel corso degli anni, che della necessità del percorso comune ed anche
delle modalità che l’integrazione europea ha conosciuto è spesso tutt’altro che
univoca sia per i singoli paesi membri ognuno dotato di identità più spesso propria,
che comune, che per le maggioranze di governo che al loro interno si sono via via
succedute.
A. Il processo di integrazione
Riconoscendo che il processo di integrazione economica veniva ritenuto da molti uno
strumento per raggiungere il fine dell’integrazione politica, si chiarisce la ragione per
cui molti degli obiettivi che il Trattato di Roma assegnava alla Comunità Economica
337
Europea – che l’articolo 9 (oggi soppresso) si dichiarava “fondata sopra un’unione
doganale” – potessero invece essere pienamente raggiunti solo attraverso un’unione
economica, cioè con un livello di integrazione ben più profondo di un accordo
commerciale, sia pur impegnativo. Ma se le ragioni della politica possono spiegare il
disegno del quadro istituzionale delineato negli anni Cinquanta, gli sviluppi
successivi fino alla realizzazione dell’unione economica e monetaria sono stati quasi
interamente una conseguenza dell’integrazione di mercato. Oggi si potrebbe forse
addirittura rovesciare il rapporto tra economia e politica - e tra mezzi e fini all’origine del processo di integrazione. Sempre più spesso viene infatti richiamata
l’esigenza di colmare il deficit di integrazione sul piano politico proprio allo scopo di
permettere un migliore funzionamento dell’integrazione sul piano economico.
A questo argomento è strettamente connesso il giudizio sulla effettiva necessità
dell’integrazione. I governi nazionali potrebbero infatti chiedersi, di fronte alle sfide
di un’economia globale, se l’integrazione rappresenti un rimedio all’inadeguatezza
degli strumenti a disposizione dei governi stessi, oppure un pesante vincolo alla loro
sovranità, cioè alla capacità di decidere autonomamente, senza dover sottostare a
restrizioni imposte dall’esterno, in che modo ritengono di interagire con i problemi
posti dalla globalizzazione. La risposta non è semplice ed implica uno spostamento
d’accenti dalla preoccupazione su quanta perdita di sovranità sia inevitabile, o
desiderabile, per un paese, anzi per quel paese, a quello sulla effettiva cifra della
sovranità nazionale. In un contesto nel quale la crescente interdipendenza
internazionale ha di fatto comportato una considerevole perdita della capacità di
autodeterminarsi, e cioè di sovranità nazionale, la partecipazione all’UE può essere
letta come una scelta obbligata. La stessa domanda può anche essere formulata da un
punto di vista comunitario, ovvero sovranazionale, e cioè se l’UE debba essere
concepita come un mero sottoinsieme del mercato mondiale unificato, oppure debba
proseguire il cammino del progetto ideale dei padri fondatori, e cioè aspirare ad
essere una comunità di popoli che condivide le alte finalità sancite dai Trattati.
338
L’adozione di una struttura organizzativa federale, anziché all’opposto di una statocentrica, cioè strettamente intergovernativa, rende problematico discernere una chiara
linea evolutiva. Si è perciò indotti ad una ricostruzione del delicato equilibrio tra
caratteristiche sovranazionali ed intergovernative e tra soluzioni nazionali o europee
in termini di puro cambiamento. Le “oscillazioni del pendolo” è la metafora coniata
da Helen Wallace (1996) per descrivere l’alternarsi di fasi in cui si attuano politiche
nazionali divergenti ed altre che vedono il prevalere di obiettivi condivisi, come
frutto dell’instabile interrelazione tra idee ed interessi diversi di diversi attori
istituzionali e tra i diversi livelli ai quali si svolge il gioco. Senza una tendenza
discernibile dunque non si tratterebbe di evoluzione, ma solo di continuo
cambiamento.
L’interpretazione di Robert Putnam (1988) descrive un gioco condotto a due livelli.
Le posizioni dei governi vengono infatti elaborate in un primo tempo a livello
nazionale e poi definite nelle istituzioni comuni. Gli attori sono sempre i governi
nazionali, che partecipano ai negoziati comunitari a livello intergovernativo. Il
sistema decisionale dell’U.E. è dunque basato su stati nazionali che controllano la
direzione e la velocità del processo di integrazione ed hanno ben chiaro che si sono
associati per cooperare nel perseguimento di alcuni scopi specifici. La supremazia
degli stati nazionali sarebbe dimostrata anche dal fatto che le politiche dell’UE
vengono perseguite da organismi nazionali, mentre le istituzioni europee sono
competenti
solo
riguardo
al
processo
decisionale
ed
alla
supervisione
dell’implementazione. L’evoluzione allora consiste in una continua riorganizzazione
che permetta agli stati di conservare una fetta sostanziale del potere.
In mancanza di un modello teorico in grado di cogliere l’essenza di quello che è
accaduto e di spiegarlo compiutamente attraverso qualche indicatore che chiarisca se
esiste una direzione intenzionale degli sviluppi del processo di integrazione, anche il
concetto di evoluzione è dunque aperto a diverse interpretazioni.
B. Il processo di integrazione: tra intenzioni ed interpretazioni
339
Un'altra interprezione si fonda sul confronto con la diversa architettura istituzionale
dell’EFTA, l’associazione europea di libero scambio fondata nel 1960 da Regno
Unito, Danimarca, Norvegia, Svezia, Austria, Svizzera e Portogallo. Questi paesi,
contrari all’impianto sovranazionale che avrebbe costituito una importante
caratteristica della CEE, ne avevano ritenuto l’adesione troppo impegnativa,
preferendo invece un accordo che si limitasse alla sfera commerciale.
In deroga al multilateralismo - principio cardine degli accordi GATT, che promana
dall’osservanza della clausola sulla nazione più favorita (MFN) - l’istituzione di aree
di libero scambio e unioni doganali fu ammessa dall’accordo, probabilmente
considerando che tali forme di integrazione economica avrebbero applicato il
principio del multilateralismo, se non erga omnes, almeno tra loro.
L’istituzione di un’area di libero scambio comporta l’eliminazione degli ostacoli al
commercio tra i paesi membri, ma permette loro di perseguire indipendentemente le
proprie politiche commerciali, stabilendo in modo autonomo il livello delle proprie
tariffe sulle importazioni dal resto del mondo.
Un’unione doganale invece richiede che i paesi si accordino su una tariffa doganale
comune che grava sugli scambi con i paesi terzi, mentre, come per l’area di libero
scambio, vengono eliminate le restrizioni sugli scambi reciproci.
La CEE dunque scelse il secondo tipo di accordo regionale, l’EFTA il primo.
I paesi promotori dell’EFTA ritenevano che un accordo di portata più limitata rispetto
al Trattato CE avrebbe avuto più successo proprio a causa delle minori occasioni di
contrasto che avrebbe offerto per gli interessi nazionali. Non dovendo concordare
un’unica politica commerciale, ad esempio, si sarebbe potuto evitare il sorgere di
prevedibili conflitti tra i paesi membri nell’ambito dei negoziati sull’entità della
tariffa doganale comune. Ad essa dall’accordo veniva richiesto di non dar luogo ad
un’espansione del protezionismo, ma la sua esatta determinazione veniva lasciata
aperta all’esito del negoziato. I fatti hanno poi smentito questa previsione: i minori
conflitti non hanno affatto contribuito ad aumentare la coesione dei paesi membri di
340
questa istituzione che invece ha conosciuto un considerevole numero di defezioni di
stati che successivamente hanno fatto il proprio ingresso nella CEE prima e poi
nell’UE. Altri paesi, nel frattempo, hanno aderito all’EFTA.
Nel 1973 il primo ampliamento, che ha visto il passaggio del Regno Unito e della
Danimarca dall’EFTA alla CEE, ha coinciso con l’istituzione di un’unica area di
libero scambio tra quest’ultima ed i residui paesi aderenti all’EFTA. Nel 1992, l’area
di libero scambio, che dunque comprendeva diciotto paesi, di cui dodici della CE e
sei dell’EFTA, fu trasformata nello Spazio Economico Europeo (SEE). In tal modo
l’accordo di integrazione economica fu esteso al mercato unico, comprendendo così
non solo la libera circolazione dei beni, ma anche quella dei servizi, dei capitali e del
lavoro. Tuttavia, l’aver esteso questi accordi a tutta l’area non è stato sufficiente ad
impedire che fossero ugualmente avanzate alcune candidature, da parte di paesi
dell’EFTA, per l’adesione all’UE. Questi paesi hanno quindi dato prova non solo di
preferire l’unione doganale all’area di libero scambio, ma di voler anche condividere
tutto l’acquis communautaire, pur non avendo fino a quel momento contribuito alla
sua costruzione.
Il confronto tra il “modello CEE” ed il “modello EFTA” pare accreditare l’ipotesi
secondo la quale le cause della maggiore instabilità del secondo risiedono proprio
nella minore profondità di tale accordo, mentre il lentissimo e faticoso, quanto
continuo, processo di integrazione conosciuto dal primo modello andrebbe ricondotto
proprio al maggiore coinvolgimento che ha sempre richiesto ai suoi membri.
Il progressivo svuotamento dell’EFTA potrebbe indicare non solo la superiorità del
metodo comunitario e della via seguita per raggiungere l’integrazione economica, ma
anche del fine – un fine politico piuttosto che commerciale – che questa si era posta
come obiettivo. Il riconoscimento dei fini politici, anche se non condiviso da tutti i
paesi - membri e potenziali - può essere comunque importante. Il gruppo di paesi
determinato a raggiungerli assicurerà una coesione sufficiente a non far mancare la
massa critica che farà ritenere agli altri che sia meglio partecipare all’integrazione,
anche senza condividerne il fine ultimo, piuttosto che rimanere isolati.
341
C. Il processo di integrazione: diversi modelli e alcune definizioni
Il susseguirsi degli ampliamenti dell’UE a nuovi paesi, se da un lato ne testimonia la
vitalità e il successo, dall’altro ha posto il problema dell’accrescersi dell’eterogeneità
dei paesi che ne fanno parte. Le nuove adesioni, portando con sé nuove istanze,
hanno contribuito al cambiamento istituzionale, così come all’estendersi delle
competenze comunitarie a nuove aree e al determinarsi del mutevole equilibrio tra i
poteri dei diversi organismi.
Tradizionalmente, il processo di integrazione economica è stato oggetto di studio
soprattutto per quanto attiene all’integrazione dei mercati e agli effetti che ne possono
discendere in termini sia di liberalizzazione degli scambi che delle conseguenti nuove
opportunità che si vengono ad individuare. Il coinvolgimento
completo
dell’economia di un paese tuttavia era implicito nel concetto di “processo”, ed era
parimenti implicito che tale coinvolgimento dovesse interessare sempre tutti i paesi
che avessero aderito all’accordo. Si ricordi che un criterio vincolante per
l’approvazione da parte del GATT degli accordi di commercio preferenziale – quali
sono le prime forme di integrazione: le unioni doganali e le aree di libero scambio –
richiedeva la sostanziale assenza di esenzioni da tali accordi sia di settori produttivi
che di prodotti. Pertanto, sembrava ovvio che il processo di integrazione dovesse
venire concepito nel divenire e senza riserve.
Nel tentativo di definire precisamente le forme dell’integrazione economica, una
prima distinzione è stata avanzata per differenziare l’integrazione commerciale
dall’integrazione delle politiche. La prima si riferisce al fatto che le condizioni di
domanda e di offerta nei diversi mercati sono determinanti per valutare il livello di
integrazione tra i paesi, e si ritiene che questo sia tanto maggiore quanto maggiore è
la convergenza che si osserva nel livello dei prezzi. L’osservazione della “legge del
prezzo unico” darebbe una misura del livello di integrazione commerciale. La
seconda non dispone di indicatori precisi e può arrivare a comprendere accordi di
grado diverso che vanno dalla consultazione, alla cooperazione, al coordinamento,
342
alle politiche comuni applicate con regole nazionali, fino alla loro completa
centralizzazione.
Un’altra distinzione ricorrente, dovuta al premio Nobel Jan Tinbergen (1954), è
quella tra integrazione negativa, che indica la rimozione di ostacoli e discriminazioni
su base nazionale nei confronti delle regole e delle politiche che ricadono sotto la
comune sorveglianza, ed integrazione positiva, che si riferisce al trasferimento di
competenze ad istituzioni comuni deputate a gestirle in prima persona. Nella
interpretazione corrente, una liberalizzazione commerciale tra paesi membri, che
coinvolga i servizi ferroviari costituisce un esempio di integrazione negativa, mentre
la definizione di una politica comune del trasporto ferroviario che ne stabilisca le
regole generali e valga allo stesso modo per tutti i paesi è un esempio di integrazione
positiva.
Successivamente, e in misura maggiore in relazione alla maggiore eterogeneità dei
paesi che hanno aderito all’UE - un esperimento di integrazione economica che si è
rivelato ben più impegnativo di quanto mai avessero previsto le deroghe autorizzate
dal GATT - si è posto il problema del se e del come si potesse “dosare” l’integrazione
secondo i desideri diversi dei diversi paesi.
La strategia incrementale delineata da Jean Monnet puntava a far emergere un
interesse europeo superiore agli interessi nazionali e consisteva nel perseguire
politiche comuni nelle aree nelle quali si poteva trovare una via alla cooperazione che
sfruttando i vantaggi reciproci potesse realizzare il bene comune. L’integrazione
veniva concepita come una successione di accordi ciascuno dei quali comportava
ricadute su ambiti diversi - e spesso anche un interesse diverso per i diversi paesi - da
cui scaturivano accordi cooperativi fondati su due impegni: 1) l’espansione verso
un’integrazione sempre più stretta dichiarato nel preambolo sia del Trattato di Roma
che del Trattato di Maastricht e 2) il recepimento dell’acquis communautaire entro il
termine del periodo transitorio che viene negoziato per i paesi di nuova adesione.
L’architettura istituzionale dell’UE non prevede una completa separazione dei poteri
in capo alle sue istituzioni, ma si fonda su un complesso sistema di pesi e contrappesi
343
teso all’ottenimento di una decisione consensuale. Tuttavia, non sempre tutti i paesi
sono stati pronti ad impegnarsi ed a partecipare pienamente a quanto consegue da
ognuna delle decisioni comuni. Si è posto pertanto il problema di come rispondere ad
esigenze sentite in modo anche molto diverso dai diversi paesi.
Quando, nel 1975, fu presentato il rapporto Tindemans, che prospettava un’Europa a
due velocità, si aprì un dibattito sull’opportunità politica di questa proposta, che
aveva origine dal tentativo di aggirare le difficoltà incontrate dal processo di
integrazione dopo il primo ampliamento. In quell’occasione il numero dei paesi della
CE era aumentato di un terzo (da sei a nove) e la popolazione di un quarto e ciò
avveniva nel clima di instabilità economica dei primi anni Settanta. Oggi, dopo che in
molti ed importanti casi - gli accordi di Schengen , la Carta Sociale , l’Unione
economica e monetaria - è accaduto che sia stato possibile evitare che l’adozione
dovesse essere effettuata da tutti i paesi alla stessa data, è invalso l’uso di presentare,
accanto alla trattazione dell’integrazione “tradizionale” anche le ragioni e i
presupposti che stanno alla base dell’integrazione “flessibile”.
Nell’ambito di questa nuova concezione dell’integrazione, sono state coniate varie
locuzioni intese a suggerire la possibilità di percorsi immaginati per consentire ai
paesi di impegnarsi gradualmente nei diversi livelli di integrazione: Europa a più
velocità, a cerchi concentrici, alla carta, a geometria variabile.
Al concetto di integrazione flessibile fanno capo nuovi strumenti: il coordinamento
aperto e la cooperazione rafforzata.
Il coordinamento aperto
Il metodo di coordinamento aperto si applica a questioni di competenza nazionale e
consiste nel delineare obiettivi e procedure volte a promuovere la convergenza ad uno
standard comune in determinate aree di applicazione. Questa nuova formula, che
indica un percorso molto diverso dal metodo comunitario, prevede che tutti i paesi si
impegnino insieme, ma ciascuno con strumenti propri autonomamente determinati,
344
allo scopo di raggiungere gli obiettivi stabiliti congiuntamente. Il campo di
applicazione riguarda un ampio numero di settori tra i quali sono comprese sia
l’istruzione che la lotta all’esclusione sociale. In genere investe questioni per le quali
i paesi non hanno trovato accordo sul percorso da seguire, pur condividendo
l’obiettivo. Per “modernizzare il modello sociale Europeo” e conseguire obiettivi
quali le pari opportunità nel mercato del lavoro, il miglior manto delle qualifiche e gli
incentivi all’occupabilità, il sostegno allo spirito imprenditoriale, si è preferito
affidarsi alla cooperazione tra i paesi su base volontaria, anziché ricorrere a regole in
grado di fissare un percorso uguale per tutti.
Benché facciano riferimento ad obiettivi identificati ed approvati dal Consiglio, gli
interventi necessari non vengono tradotti in regolamenti, direttive e decisioni ma
inducono i paesi membri a formulare piani comuni e trasmetterli alla Commissione
che si limita alla sorveglianza, mentre Parlamento e Corte di giustizia svolgono un
ruolo molto minore.
Si tratta dunque di un metodo a carattere intergovernativo nel quale il controllo e la
valutazione avviene tra pari: gli stati partecipanti utilizzano principalmente il
confronto (benchmarking) e la diffusione delle buone pratiche (best practice).
Un esempio di coordinamento aperto è costituito dalla Strategia di Lisbona con la
quale l’Unione europea si riprometteva di “… diventare l’economia basata sulla
conoscenza più competitiva e dinamica del mondo, in grado di realizzare una crescita
economica sostenibile, con nuovi e migliori posti di lavoro e una maggiore coesione
sociale”. A tale scopo fu deciso tra l’altro di elevare il tasso di occupazione dal
62,5% osservato nel 1999 per i quindici paesi al 70% , quello relativo alla
popolazione femminile dal 53% al 60% e quello relativo alla popolazione anziana
(lavoratori di età compresa tra i 55 ed i 64 anni) dal 37,1% al 50% entro il 2010. Per
raggiungere tali obiettivi, ciascun paese poteva intraprendere le azioni che giudicava
più adatte per il proprio mercato del lavoro, ma si riteneva che il controllo fra pari
(peer pressure) avrebbe contribuito a consolidare la determinazione di quei paesi che
si erano mostrati meno entusiasti ed avrebbero osteggiato il varo di una politica
345
comune, mentre invece con questo metodo probabilmente si sarebbero preoccupati di
evitare una caduta della propria reputazione.
La cooperazione rafforzata
Il metodo della cooperazione rafforzata istituzionalizza la facoltà di non procedere
insieme nel disegno e nella pratica delle politiche comuni. Introdotta dal Trattato di
Amsterdam, semplificata dal Trattato di Nizza e consolidata dal Trattato di Lisbona,
la cooperazione rafforzata dà la possibilità ad un sottoinsieme di paesi di procedere
nell’integrazione in ambiti nei quali non tutti sono preparati ad impegnarsi subito,
anche se ci si aspetta che lo faranno in seguito. I paesi che lo desiderano possono
essere autorizzati dall’insieme dei paesi membri a stabilire accordi separati, secondo
procedure definite collettivamente, nel caso in cui sia accertata l’indisponibilità di
alcuni a prendere parte all’iniziativa fin dal suo avvio. La facoltà di esenzione (opting
out) viene concessa, ai paesi che lo desiderano, per evitare che una paralisi
decisionale impedisca a tutti gli altri di dotarsi di strumenti ritenuti utili al processo di
integrazione. Gli accordi che derivano da una cooperazione rafforzata non rientrano
nell’ambito dell’acquis communautaire e non sono vincolanti per i paesi che non
partecipano, i quali perdono la possibilità di influenzarne il corso.
Le cooperazioni rafforzate sono intese a promuovere la realizzazione degli obiettivi
dell'Unione, a proteggere i suoi interessi e a rafforzare il suo processo di integrazione.
Gli Stati membri che intendono instaurare tra loro una cooperazione rafforzata nel
quadro delle competenze non esclusive dell'Unione possono far ricorso alle sue
istituzioni ed esercitare tali competenze. Il Trattato di Lisbona stabilisce che tutti i
membri del Consiglio possono partecipare alle sue deliberazioni, ma solo i
rappresentanti degli Stati membri che partecipano possono prendere parte al voto. Gli
atti adottati nel quadro di una cooperazione rafforzata vincolano solo gli Stati membri
partecipanti e, non essendo considerati un acquis non devono essere sottoscritti dagli
Stati candidati all'adesione all'Unione. Il Consiglio può autorizzare una cooperazione
346
rafforzata se ritiene che gli obiettivi che si pone non possano essere conseguiti entro
un termine ragionevole dall'Unione nel suo insieme e vi partecipano almeno nove
Stati membri.
Possono essere oggetto di cooperazione rafforzata ad eccezione di quelle nelle quali è
stata riconosciuta la competenza esclusiva dell’UE. Poiché è necessario assicurare
che tale strumento agisca in coerenza con tutte le politiche comuni, la procedura
istitutiva prevede che i paesi che desiderano varare una cooperazione rafforzata ne
facciano domanda alla Commissione che, se la ritiene ammissibile, provvederà ad
inoltrare la proposta al Consiglio, il quale, ottenuta l’approvazione del Parlamento,
può approvarla. Per partecipare ad una cooperazione rafforzata già esistente un paese
deve inoltrare la propria domanda alla Commissione ed al Consiglio. Se la
Commissione non l’autorizza, il paese può rivolgersi direttamente al Consiglio.
Nonostante lo snellimento e le facilitazioni che sono successivamente state introdotte
per la formazione di cooperazioni rafforzate, questo strumento non ha trovato
l’applicazione che ci si aspettava come riflesso del dibattito suscitato. Come esempi
si portano a volte gli accordi di Schengen, o l’integrazione monetaria dallo SME in
poi, poiché in entrambi i casi non tutti i paesi hanno partecipato fin dall’inizio a
queste iniziative varate al di fuori del quadro comunitario. Si tratta tuttavia di esempi
ante litteram dato che la loro costituzione è stata antecedente all’istituzione delle
cooperazioni rafforzate. Inoltre, pur non partecipando all’UE, fanno parte della zona
Schengen anche l’Islanda e la Norvegia.
Uno dei problemi da superare, ed una delle ragioni che potrebbe spiegare tanta
prudenza, consiste nella valutazione dell’eventuale danno, conseguente alla
formazione di una cooperazione rafforzata, per chi decidesse di non partecipare. Il
danno arrecato dovrebbe essere compensato? Un altro problema, ad esso collegato,
deriva dall’eventuale comportamento strategico che ogni paese potrebbe adottare
riservandosi di partecipare solo a fronte dell’evidenza di benefici netti da essa
derivanti, mentre di solito le politiche comuni vengono disegnate “sotto un velo di
347
ignoranza” circa gli eventuali beneficiari, anzi avendo in mente che ogni paese può
trovarsi di volta in volta nella posizione di beneficiario o meno.
4. Le istituzioni dell’Unione Europea
Alle quattro istituzioni previste all’articolo 4 del Trattato di Roma – Assemblea,
Consiglio, Commissione, e Corte di Giustizia – si sono aggiunte successivamente il
Consiglio europeo, la Corte dei Conti e la Banca Centrale europea.
Il Parlamento Europeo
L’Assemblea, poi ridenominata Parlamento Europeo (PE), è stata concepita con
funzioni prevalentemente consultive, diverse quindi da quelle dei parlamenti
nazionali degli stati membri e con poteri molto più circoscritti. Già prevista nel
quadro istituzionale che faceva capo alla CECA, allo scopo di evitare che l’operato di
questa istituzione dipendesse dall’approvazione da parte dei governi nazionali, i suoi
membri in un primo tempo venivano scelti tra gli eletti nei parlamenti nazionali ed
erano tenuti a riunirsi una volta all’anno (il secondo martedì di marzo).
L’istituzione del PE, luogo di rappresentanza democratica dei “popoli degli Stati
riuniti nella Comunità”, incarna simbolicamente il superamento delle nazionalità
separate ed ha rappresentato l’immagine più significativa della riconciliazione francotedesca che sta alla base del progetto di integrazione in Europa. Esprime il tentativo
di dar vita - da principio solo simbolicamente, poi attraverso la legittimazione
conseguita con le elezioni a suffragio universale diretto - all’Europa dei popoli che,
secondo la concezione ideale di Jean Monnet, avrebbe dovuto prevalere sull’Europa
delle patrie, che corrisponde invece ad un disegno istituzionale intrinsecamente
intergovernativo al tempo propugnato, fra gli altri, da Charles de Gaulle.
348
Il ruolo del PE, definito da Ralf Dahrendorf “la foglia di fico” democratica su un
corpo le cui caratteristiche rimanevano essenzialmente quelle di un organismo
burocratico, col procedere dell’integrazione si è notevolmente ampliato. Dal 1979,
quando per la prima volta si sono tenute elezioni a suffragio universale, i parlamentari
europei, legittimati dal voto diretto e solo eccezionalmente forniti di doppio mandato
– ai Parlamenti nazionale ed europeo – hanno cercato costantemente di contribuire a
colmare il deficit democratico lamentato per le istituzioni europee, facendosi
attribuire nuovi compiti, a volte anche solo simbolici, e moltiplicando le iniziative
tese ad accrescere la propria influenza. Nel febbraio del 1984, approvando a
larghissima maggioranza, con deputati di ogni gruppo politico e di ogni paese, il
Progetto di Trattato sull’Unione Europea presentato su iniziativa di Altiero Spinelli,
il Parlamento europeo aveva svolto un ruolo di primaria importanza nel rimettere in
moto il processo di integrazione che incontrava un periodo di stasi (l’eurosclerosi).
Tale ruolo venne premiato con un’estensione dei suoi poteri.
Il Parlamento Europeo ha anche cercato di riformare i rapporti che lo legano alle altre
istituzioni comunitarie, in particolare nell’equilibrio tra i propri poteri e quelli del
Consiglio. Il potenziamento delle sue prerogative costituisce, infatti, la via maestra
per il progressivo superamento del gap democratico. Nel contesto di tale dibattito, il
PE ha chiesto ed ottenuto dalle Conferenze Intergovernative indette per le modifiche
ai Trattati un accresciuto ruolo nelle procedure decisionali e l’elezione del presidente
della Commissione su parere del Consiglio europeo.
I poteri che oggi esercita - legislativo, di bilancio e di controllo - hanno potuto
rafforzarsi e consolidarsi, attraverso i successivi trattati, investendo nuove aree di
competenza ed irrobustendo la cifra sovranazionale della costruzione istituzionale
comunitaria.
Il potere legislativo, limitato alla procedura di consultazione secondo il Trattato di
Roma del 1957, in seguito al TUE viene condiviso con il Consiglio dell’Unione su
una base ormai paritaria, secondo la procedura di co-decisione che si applicava alla
maggior parte delle decisioni assunte nell’ambito del primo pilastro dell’Unione
349
Europea. I poteri del PE, in seguito all’adozione del Trattato di Lisbona, sono stati
rafforzati principalmente riguardo all’approvazione del bilancio comune e
nell’estendere le aree nelle quali può intervenire: la sicurezza e la giustizia saranno
soggette alla procedura di co-decisione divenuta procedura legislativa ordinaria.
Il potere di iniziativa politica spetta alla Commissione, ma il Parlamento può chiedere
l’inizio della procedura ed esercitare comunque pressioni. Si ritiene che in alcune
occasioni, nelle quali la capacità decisionale del Consiglio appariva piuttosto debole,
un esempio tra tutti il ruolo giocato nell’iter che ha condotto all’approvazione
dell’Atto Unico Europeo, il Parlamento Europeo abbia svolto efficacemente un’opera
di indirizzo e di sostegno alla Commissione.
Il potere in materia di bilancio prevede che, solo dopo l’approvazione definitiva del
Parlamento, il bilancio preventivo possa entrare in vigore e, in questo modo, possa
conferire alla Commissione piena capacità di spesa. In caso contrario, il Parlamento,
qualora ritenga che le modifiche suggerite non siano state accolte, può respingere il
bilancio in seconda lettura e pretenderne una completa riformulazione, mentre la
mancata approvazione entro i termini fa scattare il passaggio all’esercizio provvisorio
di bilancio. Anche il bilancio consuntivo deve essere passato al vaglio del Parlamento
Europeo che può rifiutarne l’approvazione.
Il Parlamento vota la fiducia all’insediamento della Commissione, dopo aver
sottoposto i singoli commissari a un’audizione e, con i 2/3 dei voti espressi e la
maggioranza dei parlamentari, può votare la sfiducia alla Commissione nel suo
complesso, ma non può influenzarne la successiva composizione. Le mozioni di
sfiducia, che finora sono state presentate non hanno mai raggiunto il necessario
numero di voti, tuttavia nel marzo del 1999 la commissione Santer si dimise proprio
per evitare la mozione di censura. Il potere di controllo del PE si è esteso dall’esame
dell’attività della sola Commissione - nei confronti della quale può esercitare il diritto
di censura - al diritto ad esprimersi sull’operato di tutte le istituzioni, incluso il
Consiglio europeo, e a partecipare senza limiti alla discussione su ogni attività che
riguardi aspetti dell’attività comunitaria attraverso interrogazioni, commissioni
350
d’inchiesta e anche ricorsi. Anche la nomina del presidente e di tutto il consiglio
direttivo della BCE deve essere approvata dal PE che annualmente, in seduta
plenaria, riceve il rendiconto dell’attività da parte del presidente della BCE.
Le elezioni dei parlamentari europei si svolgono ogni cinque anni, con un sistema
elettorale comune per quanto riguarda la definizione dell’elettorato e le regola
proporzionale, ma che mantiene procedure elettorali diverse nei paesi membri, ad
esempio per la definizione delle circoscrizioni e i giorni di apertura dei seggi.
Il numero di parlamentari europei eletti in ciascun paese membro è fissato dai trattati.
Questo numero si è accresciuto in seguito sia alla prima elezione diretta che alle
nuove adesioni, inclusa quella dei 5 Laender conseguita all’unificazione tedesca.
Attualmente, nella Settima legislatura (2009-2014) il PE è composto da deputati che
si riconoscono in oltre 100 partiti nazionali, riuniti in gruppi parlamentari
transnazionali
cui partecipano i parlamentare europei di orientamento affine,
indipendentemente dalla loro nazionalità. Tuttavia, generalmente solo nei due gruppi
parlamentari più numerosi sono rappresentate tutte le nazionalità.
Il Trattato di Lisbona ha fissato in 750 più il Presidente il numero massimo dei
parlamentari europei che sarà possibile eleggere dalla prossima legislatura in poi, a
meno di ripensamenti, indipendentemente dal numero delle adesioni di nuovi paesi
che in futuro potranno interessare l’UE. Il numero minimo di deputati eletti in un
paese è fissato in sei, mentre il massimo è pari a novantasei. Nell’attuale settima
legislatura che si concluderà nel 2014, il numero di eletti è pari a 753. Così come in
Francia e nel Regno Unito, paesi di pari consistenza demografica anche in Italia il
numero di deputati è stato ridotto da 78 a 72; all’Italia è stato inoltre attribuito un
deputato osservatore che si è aggiunto nel 2011, mentre la Francia oggi conta 74
parlamentari.
Il numero di parlamentari si è accresciuto in seguito ai successivi ampliamenti, ma
non solo. Mentre il numero di deputati per il Lussemburgo è rimasto immutato nel
corso degli anni, il numero dei parlamentari eletti negli altri paesi ha avuto
351
l’incremento maggiore – da 36 ad 81 deputati per i paesi più grandi – nella prima
legislatura nella quale il PE è stato eletto, invece che nominato.
Il Parlamento Europeo ha sede ufficiale a Strasburgo, che fin dal 1952 è stata sede
dell’Assemblea, ma gran parte dei lavori parlamentari, ad esempio quelli delle
commissioni, si svolgono a Bruxelles.
I poteri costituzionali del Parlamento Europeo sono ancora molto inferiori a quelli dei
parlamenti nazionali specialmente in riferimento ai rapporti che esistono tra questi e i
governi, che sono espressione della maggioranza parlamentare. Tuttavia, il PE ha
utilizzato ogni occasione per spingersi ai confini delle sue possibilità di intervento, ad
esempio sottoponendo i commissari all’audizione che prelude il loro insediamento,
oppure impegnandosi in un accordo interistituzionale con il Consiglio e la
Commissione per la stesura del bilancio, o per la procedura dei comitati di
conciliazione, La procedura di parere conforme, che viene usata per accordi
internazionali, fondi strutturali, sanzioni verso uno stato membro, rappresenta tuttavia
un ampliamento di potere più simbolica che reale.
Il Consiglio dell’UE
In passato denominato Consiglio dei Ministri o Consiglio dell’Unione Europea, è
composto dai ministri dei paesi membri, che rispondono al proprio parlamento
nazionale delle decisioni assunte collettivamente. Si tratta dunque di un’istituzione a
carattere inter-governativo nella quale, per ciascun paese, siede un solo
rappresentante del governo, di volta in volta competente per la materia del suo
dicastero. Il suo compito è, principalmente, quello di tutelare gli interessi nazionali
nel corso delle discussioni che precedono ogni decisione comune ed in sede
deliberante.
Il Consiglio presiede all’attività legislativa dell’Unione Europea ed ha il potere di
controllo finale sulla normativa comunitaria. Dall’entrata in vigore del TUE, per
352
quanto riguarda le decisioni relative alla Comunità Europea, che costituiva il primo
pilastro nell’architettura dell’Unione, questa funzione veniva esercitata insieme al
Parlamento Europeo, deliberando sulle proposte avanzate dalla Commissione.
L’adozione di decisioni comuni poteva essere effettuata secondo le procedure di
consultazione , di cooperazione , co-decisione e parere conforme, che si applicano
coerentemente a quanto indicato nei trattati, e si differenziano tra loro per il diverso
grado di coinvolgimento richiesto da parte del PE. Tradizionalmente, la materia
agricola era soggetta alla procedura di consultazione, per le spese non obbligatorie
del bilancio comune si applicava la procedura di cooperazione, mentre per le
decisioni nell’ambito del mercato interno vigeva la procedura di co-decisione. Il
Trattato di Lisbona ha esteso il ricorso a tale procedura che diviene così la procedura
ordinaria per l’adozione delle decisioni abituali. Ne restano escluse alcuni importanti
ambiti decisionali tra cui la materia fiscale.
L’attività decisionale esercitata nell’ambito degli altri due pilastri previsti dal Trattato
di Maastricht (Trattato dell’Unione Europea) era soggetta a procedure diverse.
Nell’area della politica estera e sicurezza comune (PESC), che costituiva il secondo
pilastro, il Consiglio doveva seguire gli orientamenti dettati dal Consiglio europeo
giungendo alla formulazione di azioni o posizioni comuni, mentre nell’area degli
affari interni e giustizia (GAI), che costituiva il terzo pilastro, il Consiglio agiva su
iniziativa della Commissione ovvero di uno stato membro e, oltre ad adottare
posizioni comuni, poteva anche emanare decisioni e stabilire convenzioni.
Oltre all’attività legislativa, il Consiglio condivide con il Parlamento Europeo la
responsabilità di approvare il bilancio generale dell’UE, ed ha il compito di
coordinamento delle politiche economiche degli stati membri e di ratifica degli
accordi internazionali stipulati a nome della Comunità, in primis gli accordi
commerciali che impegnano i paesi dell’Unione Europea nell’ambito del
GATT/WTO.
Il semestre di presidenza del Consiglio viene assunto a turno dai paesi membri
secondo un ordine che tradizionalmente rispettava l’ordine alfabetico dei nomi dei
353
paesi membri in lingua originale. Dal 1993 tuttavia l’ordine è stato modificato ed i
turni di presidenza vengono stabiliti periodicamente di comune accordo per diversi
anni a venire. Per garantire continuità nella gestione dell’agenda, la presidenza di
turno lavora in stretto contatto con quella che l’ha preceduta e quella che seguirà
nell’ambito della cosiddetta “troika”; quindi la responsabilità effettiva del semestre di
presidenza copre, di fatto, diciotto mesi.
Il Consiglio si riunisce in formazione diversa a seconda del tema da trattare: ne fanno
parte, in base alla specifica area di competenza, di volta in volta i ministri
responsabili in sede nazionale dell’argomento posto all’ordine del giorno. Le
formazioni di più antica data - quali il Consiglio “Affari generali” composto dai
ministri degli esteri ed il Consiglio “Agricoltura” composto dai ministri
dell’agricoltura - sono state affiancate dal Consiglio “Ecofin” composto dai ministri
dell’economia e delle finanze, e successivamente anche dai Consigli Lavoro,
Trasporti, Energia, Ambiente e successivamente Sanità, Turismo ed altri. Per questa
sua peculiarità, che coniuga unità e variabilità di composizione, il Consiglio è stato
paragonato all’Idra di Lerna, il mostro con tante teste su un corpo solo, descritto dalla
mitologia classica. Il paragone intendeva sottolineare l’inconsueto aspetto multiforme che contraddistingue questa istituzione, le cui caratteristiche fanno sì che essa
si differenzi totalmente da un Consiglio dei ministri tradizionale, riferito ad un
governo nazionale, nel quale siedono tutti i ministri del governo in carica.
Il Trattato di Lisbona, forse anche per questo, ha cambiato la denominazione da
Consiglio dei ministri a Consiglio dell’Unione Europea e, fissando in dieci il numero
delle sue formazioni, ha proseguito nella tendenza a ridurre il numero delle teste
dell’Idra, una caratteristica che spesso - ostacolando l’unitarietà di comportamenti a
causa, ad esempio, di vedute ed opinioni opposte tra i ministri economici ed i ministri
dell’agricoltura - è stata ritenuta un limite all’efficacia dell’operato del Consiglio.
Infatti, benché la variabilità della sua composizione non ne pregiudichi l’unità
istituzionale, sono stati a volte sollevati dubbi sull’efficacia di un processo
354
decisionale che si affida ad una formazione variabile a seconda della materia trattata.
Da questo connotato istituzionale conseguirebbe inevitabilmente una certa
frammentarietà delle decisioni, quando non addirittura una vera e propria
deresponsabilizzazione, lamentata in primo luogo riguardo alle decisioni di spesa a
carico del bilancio comune. Alle molte teste del Consiglio è stata attribuita in passato
una delle principali cause del progressivo lievitare delle spese di bilancio, una
circostanza che ha portato a diverse crisi finanziarie ed istituzionali nel corso degli
anni Ottanta.
Dalle ventidue formazioni esistenti negli anni Novanta, oggi sono presenti: 1. Affari
generali, costituito dai ministri degli esteri lavora a stretto contatto con il Consiglio
europeo; 2. Affari esteri, presieduto dall’Alto rappresentante dell’Unione per gli affari
esteri e la politica di sicurezza (posizione ricoperta oggi dalla signora Catherine
Ashton); 3. Economia e finanza (Ecofin), si riunisce una volta al mese ed è
competente anche per le questioni relative all’unione monetaria; in tal caso sono
abilitati alla votazione solo i ministri dei paesi che hanno adottato la valuta comune e
che costituiscono l’Eurogruppo; 4. Giustizia e affari interni (GAI), composto dai
ministri degli interni; 5. Occupazione, politica sociale, salute e consumatori, 6.
Competitività (mercato interno, industria, ricerca e spazio), 7. Trasporti,
telecomunicazioni ed energia, 8. Agricoltura e pesca, 9. Ambiente, 10. Istruzione,
gioventù, cultura e sport.
Le proposte avanzate dalla Commissione possono talvolta essere votate a
maggioranza semplice o più spesso a maggioranza qualificata, ma il ricorso esplicito
alle votazioni è meno frequente della ricerca del consenso unanime di tutto il
Consiglio.
Il Trattato di Roma stabiliva che l’unanimità dovesse essere raggiunta de jure
obbligatoriamente soltanto durante gli anni del periodo transitorio (1957-1969) e, al
termine di questo periodo, solo per le nuove adesioni e per l’adozione di proposte che
non fossero state presentate dalla Commissione. In effetti invece, la prassi ha voluto
che l’unanimità sia stata ricercata de facto in ogni occasione anche molto dopo il
355
1969. Questa consuetudine si è radicata in conseguenza all’accaduto durante il
“periodo della poltrona vuota”, conclusosi con il “Compromesso del Lussemburgo”.
La Francia, contraria all’approvazione del pacchetto presentato dalla Commissione
che si articolava in tre punti - regolamentazione del settore agricolo, istituzione di
risorse di bilancio autonome e accresciuti poteri per il Parlamento Europeo – ritirò la
propria delegazione e si astenne dal partecipare alle riunioni per protesta finché il 28
gennaio 1966 fu raggiunto un accordo secondo il quale, se un paese avesse dichiarato
che una decisione comune avrebbe potuto mettere a rischio importanti interessi
nazionali, il Consiglio si sarebbe impegnato a ricercare una soluzione accettabile da
tutti i suoi membri.
Il Compromesso del Lussemburgo, dovuto all’insistenza francese per la ricerca del
consenso unanime, ha avuto effetti di lungo termine sulla prassi delle votazioni. La
strategia dell’astensione dalle attività collegiali ha avuto un effetto durevole sulle
procedure di votazione. Anche se in seguito non sono mancati i tentativi, anche
autorevoli, di far applicare il dettato costituzionale, si è osservata una notevole
riluttanza a sostituire la prassi delle votazioni all'unanimità con votazioni a
maggioranza in tutti quei casi in cui questa procedura sarebbe stata consentita. A ciò
ha contribuito il fatto che “gli interessi vitali della nazione” sono stati spesso invocati
con disinvoltura anche se non sempre con lo stesso esito. Ad esempio nel 1982
quando il Regno Unito oppose un veto, senza successo, alla annuale decisione
sull’aumento dei prezzi agricoli perché voleva collegarla ad una riduzione del suo
contributo al bilancio, o nel 1983 quando, nella stessa occasione, la Germania giudicò
insufficiente l’aumento dei prezzi agricoli proposto dalla Commissione e riuscì ad
impedire che si arrivasse alla decisione che osteggiava. Si ritiene che la ricerca
dell’unanimità sia stata un motivo non secondario di difficoltà ai fini del
contenimento della spesa agricola, per lunghi anni uno dei problemi più spinosi nei
rapporti tra i paesi e le istituzioni comunitarie. La soluzione di compromesso, infatti,
spesso è stata trovata nella pratica del log-rolling, cioè dell’approvazione incrociata
delle istanze di tutti i paesi, collegate tra loro in “pacchetti” da votarsi in toto. In
356
molti casi, nessuna di queste proposte, singolarmente presa, avrebbe potuto
raccogliere i voti necessari per essere approvata, ma in presenza di un vincolo di
bilancio accomodante (soft budget constraint) è la composizione stessa del
“pacchetto” che ne rende possibile l’approvazione.
Benché già nelle conclusioni del Consiglio europeo di Parigi del 1974 venisse
incoraggiato esplicitamente un maggiore ricorso alle votazioni a maggioranza, come
era previsto dal Trattato di Roma, queste sono entrate nella prassi solo in seguito
all’entrata in vigore dell’Atto Unico Europeo, che le richiede espressamente per le
decisioni relative al “completamento del mercato interno”, cioè quelle che riguardano
la rimozione degli ostacoli che limitano la libera circolazione dei beni, dei servizi,
delle persone e dei capitali.
Tabella 1 – Evoluzione della ponderazione dei voti nel Consiglio per le votazioni a
maggioranza qualificata in seguito agli ampliamenti
CE-6 CE-9 CE-10 CE-12 UE-15 UE-25 CEEA
Francia
4
10
10
10
10
29
10
Germania
4
10
10
10
10
29
10
Italia
4
10
10
10
10
29
10
Belgio
2
5
5
5
5
12
5
Paesi Bassi
2
5
5
5
5
13
5
Lussemburgo
1
2
2
2
2
4
2
Danimarca
3
3
3
3
7
3
Irlanda
3
3
3
3
7
3
Regno Unito
10
10
10
10
29
10
5
5
5
12
5
Spagna
8
8
27
8
Portogallo
5
5
12
5
4
10
4
Grecia
Austria
357
Finlandia
3
7
3
Svezia
4
10
4
Repubblica Ceca
12
5
Estonia
4
3
Cipro
4
2
Lettonia
4
3
Lituania
7
3
Ungheria
12
5
Malta
3
2
Polonia
27
8
Slovenia
4
3
Slovacchia
7
3
totale
17
58
63
76
87
321
124
maggioranza
12
41
45
54
62
232
88
Quota %
0.706 0.707 0.714 0.711 0.713 0.723 0.71
La procedura di voto in base alla maggioranza qualificata prevede che ai paesi
vengano attribuiti voti in proporzione alla popolazione che rappresentano e che per
essere approvata una proposta debba raccogliere un numero di voti favorevoli non
inferiore ad una soglia prefissata.
La ponderazione dei voti per i sei paesi fondatori erano stata stabilita secondo il
seguente criterio: 4 per i tre più grandi (Francia, Germania e Italia), 2 per Belgio e
Paesi Bassi ed 1 per il Lussemburgo e con la soglia di 12 voti favorevoli necessari
perché una mozione potesse passare. Dopo il primo ampliamento la ponderazione è
stata rivista per consentire a Danimarca e Irlanda un peso che riflettesse la loro
dimensione intermedia nell’ambito dei tre paesi più piccoli.
Le Tabelle 1 e 2 mostrano rispettivamente come è cambiata la ponderazione dei voti e
la soglia per la maggioranza qualificata. Inizialmente definita dal rapporto 12/17, pari
358
cioè al 70,6%, di conseguenza è stata posta pari a 41 voti favorevoli sul totale di 58,
in modo da mantenere la stessa quota del 71% di voti favorevoli. In seguito ai
successivi ampliamenti queste cifre sono state modificate ed attualmente per ottenere
la maggioranza qualificata in seno al Consiglio dell’Unione occorrono 255 voti su un
totale di 345, che corrisponde ad aver elevato la soglia al 74% dei voti favorevoli per
adottare una delibera. Pertanto, una delibera può essere bloccata da una minoranza in
grado di raccogliere 91voti contrari.
Il Consiglio è assistito nella sue funzioni dal Comitato dei Rappresentanti Permanenti
(COREPER) un organo composto di ambasciatori che rappresentano gli stati membri
presso l’UE e che ha il compito di preparare le riunioni dei ministri coordinando
l’attività di numerose commissioni tecniche, comitati e gruppi di lavoro e di risolvere
preliminarmente le questioni che, per loro natura, non richiedono l’intervento diretto
del Consiglio.
Tabella 2 - Ponderazione nel Consiglio per votazioni a maggioranza qualificata
Paesi
Numero di voti
Germania, Francia, Italia, Regno Unito
29
Spagna, Polonia
27
Romania
14
Paesi Bassi
13
Belgio, Repubblica ceca, Grecia, Ungheria, Portogallo
12
Austria, Bulgaria, Svezia
10
Danimarca, Irlanda, Lituania, Repubblica slovacca, Finlandia
7
Cipro, Estonia, Lettonia, Lussemburgo, Slovenia
4
Malta
3
Totale
345
Da più parti sono state avanzate in diverse occasioni opinioni critiche in merito alla
struttura ed al funzionamento del Consiglio relativamente all’insufficiente coesione
359
tra i consigli settoriali, alla lentezza delle procedure, ed alla eccessiva dispersione del
potere, che rende difficile prendere decisioni rapide ed incisive.
Alcuni dei cambiamenti introdotti ne hanno migliorato la capacità decisionale: il
maggiore ricorso alle votazioni a maggioranza, la maggiore continuità assicurata
dalla troika, lo sviluppo di programmi di ampio respiro graduali e di lungo periodo, il
maggior potere e responsabilità alla presidenza.
La Commissione Europea
Nell’ambito delle istituzioni dell’Unione Europea, la Commissione, che ha sede a
Bruxelles, è l’apparato burocratico con funzioni propositive ed esecutive cui è stato
affidato il compito di assicurare il funzionamento e lo sviluppo del mercato comune.
In base al Trattato di Lisbona la Commissione europea promuove l’interesse generale
dell’UE e a tal fine adotta iniziative. Vigila sull’applicazione dei Trattati e del diritto
dell’UE sotto il controllo della Corte di Giustizia. Dà esecuzione al bilancio e
gestisce i programmi. Esercita funzioni di coordinamento, di esecuzione e di
gestione, alle condizioni stabilite dai trattati. Assicura la rappresentanza esterna
dell'Unione, fatta eccezione per la politica estera e di sicurezza comune e per gli altri
casi previsti dai trattati. Avvia il processo di programmazione annuale e pluriennale
dell'Unione per giungere ad accordi interistituzionali. La Commissione è un organo
tecnico, non politico, anche se a volte si è resa promotrice di iniziative di ampio
respiro, che comportavano inevitabilmente implicazioni politiche.
Questa caratteristica di organo tecnico con finalità politiche era già ben presente
nell’Alta Autorità, l’organismo che ha preceduto la Commissione nell’impianto
istituzionale della CECA. All’Alta Autorità erano state attribuite competenze tecniche
necessarie per l’organizzazione del settore carbo-siderurgico, ma, oltre al suo operare,
il fatto stesso che fosse stata istituita, rivestiva un innegabile significato politico,
coerentemente con l’approccio funzionalista all’integrazione. Per questa ragione, il
confronto tra i poteri esecutivi della Commissione e quelli dei singoli governi
360
nazionali è piuttosto improprio, dato che la Commissione non è un governo; ma
anche il confronto con altri organismi tecnici, quali le segreterie delle diverse
organizzazioni internazionali, appare mal posto e decisamente riduttivo.
I componenti della Commissione devono essere cittadini di uno stato membro e
vengono scelti tra personalità che offrono massima garanzia di indipendenza,
competenza ed impegno europeo. I commissari vengono nominati di comune accordo
dagli stati membri dal presidente della Commissione, dopo che questo è stato eletto
dal Parlamento europeo su proposta da parte del Consiglio europeo. Il presidente
della Commissione partecipa alla selezione dei commissari dato che la Commissione
deve seguirne gli orientamenti politici. Una volta nominati, i commissari “non
sollecitano né accettano istruzioni da alcun governo, istituzione,organo o organismo”
rimangono in carica per cinque anni con mandato rinnovabile e devono rassegnare le
dimissioni se il presidente lo chiede.
La durata dell’incarico, inizialmente stabilita in quattro anni, è stata elevata a cinque
in modo che il rinnovo della Commissione avvenga in coincidenza con l’inizio di
ogni nuova legislatura. Il Parlamento, eletto sei mesi prima, sottopone tutti i
commissari a un’audizione e al voto e in qualsiasi momento può esprimere la sfiducia
alla Commissione intera costringendola a dimettersi in blocco.
Il Trattato di Roma richiedeva la nomina di almeno un commissario per ogni paese
membro, ed inizialmente si era stabilito che dai paesi “grandi” avessero diritto ad
inviare due commissari. Oggi nella Commissione europea siede un rappresentante per
ogni paese. Tuttavia, in seguito alle adesioni del nuovo millennio, che hanno quasi
raddoppiato il numero dei paesi membri ed in previsione di ulteriori ampliamenti, è
stato convenuto di limitarne il numero ai due terzi del numero dei paesi membri, a
partire dalla nomina della prossima Commissione che avverrà il 1° novembre 2014 e
di instaurare una rotazione paritaria che tenga conto delle caratteristiche
demografiche e geografiche dei paesi e ne rifletta la varietà.
L’indipendenza dai governi nazionali ed il compito di salvaguardare gli interessi
collettivi della Comunità hanno indotto a ritenere che questa istituzione intenda
361
prefigurare un modello federale di governo. Di conseguenza, il suo operato andrebbe
valutato in termini sia della tendenza ad una dilatazione dei suoi poteri, che di un più
o meno rapido approssimarsi alla struttura di un’eventuale federazione. La
controversia sull’opportunità di un’evoluzione dell’UE verso una federazione
europea ha fatto sì che la Commissione sia stata oggetto di valutazioni contrastanti: è
stata definita da un lato “il cuore e il motore della Comunità” e allo stesso tempo,
nelle parole di de Gaulle, “questo embrione di tecnocrazia in gran parte straniera”.
La Commissione è organizzata in Direzioni Generali, in genere poste sotto la guida
speciale di un commissario e Servizi generali che fanno capo al presidente, sul quale
grava anche la responsabilità sull’operato dell’istituzione. La struttura organizzativa
viene ridefinita al momento dell’insediamento di ogni nuova Commissione, anche
allo scopo di includere le aree di competenza comunitaria che possono essersi
aggiunte col procedere dell’integrazione. Non esiste tuttavia una precisa
corrispondenza tra il numero dei commissari e quello delle direzioni generali. I
commissari nominano il proprio gabinetto e sono responsabili di un portafoglio, che
può corrispondere ad una o più direzioni generali (o anche ad una parte di queste) o a
una serie di problematiche. Anche se l’iniziativa dei singoli commissari viene in
genere favorita dalla coincidenza tra l’area della propria direzione generale e del
portafoglio, questa corrispondenza flessibile sottolinea il carattere collegiale cui si è
sempre ispirato il metodo di lavoro della Commissione.
Nell’ambito del sistema decisionale comunitario, la Commissione europea ha il
diritto di iniziativa politica, che consiste nel formulare proposte nell’interesse
generale della Comunità da sottoporre al Parlamento e al Consiglio. Il campo di
azione può comprendere obiettivi strategici e di grande portata come sono stati i
provvedimenti in campo monetario per l’avvio del Sistema Monetario Europeo per la
Commissione Jenkins (1977-81) o il completamento del mercato interno per la
Commissione Delors (1985-95), o l’ampliamento, difficile per il necessario
adeguamento istituzionale, a dieci nuovi paesi per la Commissione Prodi (20002004), oppure anche soltanto proporre la legislazione per gestire una politica esistente
362
o che si rende necessaria in seguito all’inclusione di una nuova area di interesse
comune.
Le proposte devono riguardare aree comprese nella giurisdizione comunitaria o ad
essa riconducibili e vengono discusse preliminarmente, attraverso scambi di opinioni
e pareri tecnici, con i rappresentanti di tutti i settori della società, in modo di cercare
di conciliare i diversi interessi. La Commissione svolge così anche un ruolo di
mediazione tra gli stati membri con l’obiettivo di vigilare sul prevalere degli interessi
dell’Unione su quelli nazionali.
Il ruolo di “guardiano dei Trattati” comporta il potere di controllo sull’effettivo
rispetto dei principi dei Trattati e della normativa europea da parte di individui,
imprese, stati membri. La Commissione può indagare e verificare il rispetto delle
norme. Se rileva un’applicazione scorretta della legislazione europea, può avviare
procedure di infrazione e comminare ammende. In caso di perdurante inadempienza a
conformarsi alla normativa comune la Commissione si appella alla Corte di giustizia.
Tuttavia, l’area di interesse comunitario col tempo si è molto ampliata, la
Commissione, che dispone di un organico di circa 23000 unità, non ha personale
sufficiente per svolgere autonomamente questa funzione in modo adeguato. È stato
perciò introdotto l’obbligo di notifica: ad esempio, devono essere notificati alla
Commissione tutti gli atti legislativi da parte dei paesi che intendano erogare sussidi
statali potenzialmente in contrasto con la politica di concorrenza, oppure le decisioni
delle imprese che progettano standard nazionali che potrebbero costituire un ostacolo
agli scambi anche indirettamente.
La Commissione ha il potere esecutivo sia nella gestione del bilancio generale per il
finanziamento delle politiche comuni, che per alcune politiche – tra cui la politica di
concorrenza - per le quali la normativa prevede una maggiore autonomia decisionale;
la Commissione rappresenta gli stati membri nei negoziati sul commercio
internazionale ed in genere nelle relazioni commerciali esterne. In questa veste, ha
rappresentato l'interlocutore privilegiato dell’amministrazione americana riguardo
alla definizione degli accordi WTO. Inoltre, ha assunto il coordinamento degli aiuti
363
occidentali alle economie dell’Europa centro-orientale e cura la raccolta di
informazioni e pareri tecnici su cui si costruiscono i negoziati per le nuove adesioni.
Nell’operato della Commissione ampia delega di responsabilità viene assegnata alle
strutture amministrative degli stati membri. Nell’avallare questa scelta si è
privilegiato il modello tedesco nel quale la legge federale viene applicata dalle
autorità locali, a differenza di quanto avviene negli Stati Uniti dove questo compito è
assegnato alle autorità federali. Ciò consente di mantenere un organico più snello, ma
nello stesso tempo comporta una minore efficacia dell’azione sia nel caso di
incapacità che nel caso di mancanza di volontà locale ad applicare la normativa.
La Commissione è stata al centro di tutti i principali cambiamenti intervenuti
nell’Unione Europea: il programma per il completamento del mercato interno; lo
sviluppo dei piani per l'unione economica e monetaria; la formulazione di una nuova
generazione di politiche ambientali; il disegno di una strategia di sviluppo per le
regioni arretrate della CE, la costruzione di programmi di ricerca in collaborazione
con il settore privato.
Un ruolo di questa importanza è stato giocato senza che sia stata sostanzialmente
modificata né la struttura, né l’organizzazione della Commissione, che in massima
parte rispecchia quanto deciso nel 1957. Questo risultato è attribuibile ad elementi sia
esterni, quali i cambiamenti nelle priorità degli stati membri, nell’agenda comunitaria
e nei rapporti con le altre istituzioni, che interni: in primo luogo il personale politico
del collegio dei commissari - che generalmente hanno ricoperto ruoli politici di
spicco nei loro paesi più spesso come ministri o leader politici, ma anche come
accademici ed altre personalità che a vario titolo hanno svolto un importante ruolo
nella vita pubblica.
Il giudizio sull’attuale status della Commissione all’interno della complessa strategia
istituzionale della UE è controverso. È stata avanzata l’ipotesi un indebolimento dei
poteri della Commissione. Il declino sarebbe osservabile fin dalla conclusione del
periodo transitorio e riconducibile ad un insieme di fattori, anche contraddittori, che
fanno riferimento da un lato alla partecipazione tiepida di una parte dei paesi nuovi
364
aderenti e alla difficoltà di gestione degli impegni assunti e dall’altra al pressoché
continuo emergere di questioni delicate che mettono in evidenza il problema del
cosiddetto “gap democratico” delle istituzioni comunitarie.
Una prova del suo ruolo meno propositivo ed anche della minore capacità di fare
osservare le politiche decise, sarebbe il mancato aumento dei suoi poteri nei due
nuovi pilastri che hanno affiancato la Comunità Europea nelle disposizioni del
Trattato di Maastricht. Questa interpretazione non sembra convincente. La sua
influenza, e indirettamente i suoi poteri, sono aumentati con l’ampliarsi delle
politiche e l’aggiungersi delle nuove aree di competenza. Pur non rappresentando
l’unica forza motrice, è indubbio che svolga un ruolo centrale nel processo di
integrazione.
La Corte di Giustizia dell’Unione Europea
La Corte di Giustizia dell’Unione Europea comprende la Corte di Giustizia, il
Tribunale e i tribunali specializzati ed è assistita dagli avvocati generali. E’ necessario
evitare di confondere la Corte di Giustizia, che ha sede in Lussemburgo, sia con la
Corte Europea dei Diritti Umani di Strasburgo, organismo del Consiglio d’Europa,
che con la Corte Internazionale di Giustizia dell'Aia, organismo delle Nazioni Unite.
Solo la prima fa parte dell’impianto istituzionale dell’UE. La sua attività ha avuto
inizio con il Trattato di Parigi che nel 1951 ha istituito la CECA. La sua giurisdizione
è stata poi estesa alle altre due Comunità Europee (CEE e Euratom) istituite dai
Trattati di Roma nel 1957. La Corte di giustizia ha il compito di far osservare i
Trattati e la normativa adottata dalle istituzioni comuni sia attraverso l’interpretazione
che l’applicazione della legislazione comune. Occorre infatti assicurarsi che in
ciascun paese il diritto venga applicato allo stesso modo.
I giudici rimangono in carica per sei anni rinnovabili. Al fine di assicurare continuità
all’istituzione, i mandati non scadono mai contemporaneamente, ma ogni tre anni si
procede alla nomina di una parte dei suoi componenti e all’elezione del presidente
365
della Corte. Nonostante che per consuetudine l’incarico venga attribuito tenendo
conto, oltre che della comprovata indipendenza e competenza giuridica, anche della
nazionalità dei giudici – uno per stato membro, così come per il Tribunale - questi
non rappresentano il proprio paese in seno alla Corte.
L’indipendenza del loro ruolo è protetta sia dalla segretezza delle votazioni che si
tengono a maggioranza che dall’inamovibilità. Quest’ultima sussiste a meno che, con
votazione unanime da parte dei membri della Corte stessa, venga riconosciuta
un’evidente impossibilità a continuare a svolgere l’attività giudicante. Le procedure
di voto a maggioranza e l’indipendenza dalla nazionalità, insieme al ruolo che le è
stato assegnato, concorrono a definire il carattere sovranazionale di questa istituzione.
La Corte si riunisce in seduta plenaria solo su richiesta di uno stato o di una
istituzione parte in causa, mentre di solito i lavori si svolgono in una delle otto
sezioni composte di tre giudici o di cinque per le questioni più complesse. Nella sua
attività è assistita dagli avvocati generali cui è demandato il compito di esaminare il
caso e presentarlo alla Corte in udienza pubblica.
La Corte dirime controversie sorte tra gli stati membri, fra le istituzioni e gli stati
membri ed anche fra le istituzioni stesse: ad esempio, nel 1983 Parlamento Europeo
ricorse alla Corte di Giustizia contro il Consiglio dei Ministri imputato di non aver
realizzato la politica comune dei trasporti come prescritto dal Trattato di Roma,
mentre nel 1986 fu il Consiglio dei Ministri a ricorrere contro il Parlamento Europeo
per la mancata approvazione del bilancio. I ricorsi possono essere per inadempimento
al fine di obbligare gli stati membri ad osservare la normativa comunitaria; di
annullamento, in caso di illegittimità di atti vincolanti emessi nell’ambito della
normativa comunitaria; per carenza, contro l’inattività delle istituzioni comunitarie; o
anche per risarcimento di danni derivanti dall’esercizio delle funzioni di istituzioni
comunitarie.
La Corte di giustizia ha il potere di condannare ad ammende la parte inadempiente se
accerta il mancato rispetto delle sue sentenze che sono inappellabili.
366
Secondo le disposizioni dell'AUE, dal 1989 la Corte di giustizia è stata affiancata dal
Tribunale di primo grado, una corte con struttura analoga alla Corte di Giustizia, che
insieme ad essa fa parte della Corte di Giustizia dell’UE. Si tratta di un Tribunale di
grado inferiore, che si occupa dei ricorsi per annullamento, carenza o risarcimento da
parte di persone fisiche o giuridiche contro le istituzioni comunitarie, incluse le
controversie con i dipendenti della Comunità. Le sentenze del Tribunale di primo
grado sono appellabili presso la Corte di Giustizia. Il Tribunale è competente per i
ricorsi degli stati membri contro la Commissione, per gli aiuti di stati e le pratiche
commerciali, per la proprietà intellettuale, la concorrenza, i marchi.
Giudicando sui rapporti tra le istituzioni, la Corte di giustizia assume un ruolo
costituzionale, mentre ai fini dell’interpretazione e applicazione uniforme del diritto
ha l’autorità di corte suprema. Il Trattato di Amsterdam ha esteso la giurisdizione
della Corte di Giustizia alle materie incluse nel terzo pilastro dell’UE e ne ha stabilito
la competenza a “pronunciarsi in via pregiudiziale sulla validità o l’interpretazione
delle decisioni-quadro e delle decisioni, sull’interpretazione di convenzioni (…) e
sulla validità e interpretazione delle misure di applicazione delle stesse.”
Il ruolo che ha svolto la Corte di Giustizia nella storia dell’UE è forse meno noto, ma
è stato di grande importanza ai fini della definizione delle caratteristiche
dell’istituzione europea che oggi conosciamo. A ciò hanno contribuito diversi
elementi, tra i quali occorre ricordare l’interpretazione in senso evolutivo che ha dato
dell’equilibrio tra le competenze degli Stati membri e quelle trasferite alle istituzioni
comuni, ma, ancor prima, l’aver sancito i due principi fondamentali dell’efficacia
diretta del diritto comunitario negli stati membri e del primato della norma
comunitaria sulla norma nazionale. Quest’ultimo, necessario per evitare applicazioni
discordanti della normativa negli stati membri, ha avuto un ruolo determinante nel
rafforzare le caratteristiche sovranazionali, e dunque la cifra federalista, della
costruzione istituzionale europea. In seguito ai pronunciamenti della Corte di
Giustizia i cittadini europei possono appellarsi alla normativa comunitaria davanti ai
367
propri giudici ed far invalidare la normativa nazionale qualora se ne riconosca
l’incongruenza.
La Corte di Giustizia ha svolto un ruolo decisivo nel processo di integrazione, sia
riguardo alla struttura costituzionale dell’UE, dove passi importanti sono stati
compiuti grazie a sentenze della Corte che hanno esteso le competenze dell’UE nel
campo delle politiche sociali e ancora di più nell’ambito del mercato comune dove la
Corte è intervenuta a garanzia delle quattro libertà. Non si deve ritenere però che la
Corte di Giustizia abbia deliberato sempre a favore di un’estensione delle prerogative
comunitarie: ad esempio in una causa iniziata dal Regno Unito contro la
Commissione diede ragione al Regno Unito e sentenziò che la Commissione non
disponeva della base legale per finanziare progetti pilota il cui scopo era quello di
combattere la povertà e l’esclusione sociale.
L’interpretazione ampia della libera circolazione dei beni ha consentito, prima con la
sentenza Dassonville del 1974, e successivamente con la sentenza Cassis de Dijon
del 1979, l’affermazione del principio generale di riconoscimento reciproco, mentre
l’interpretazione della libera circolazione delle persone ha contribuito ad eliminare
varie discriminazioni, in genere basate sulla diversa nazionalità, a carico degli
immigrati. Nell’interpretazione della libera circolazione dei capitali sono state
dichiarate illegittime le autorizzazioni nazionali all’esportazione di monete,
banconote e assegni.
Tuttavia il potere della Corte di Giustizia come propulsore dell’integrazione europea
è limitato essendo più facile che dia luogo a provvedimenti inquadrabili come
integrazione negativa piuttosto che positiva. Infatti, i suoi pronunciamenti sono in
grado di interpretare o emendare una politica esistente, ma più difficilmente riescono
a dar vita ad una nuova politica. Viene spesso riconosciuto il ruolo di grande
importanza che la Corte di Giustizia ha svolto nell’indirizzo della normativa
comunitaria in senso sovranazionale e per il rafforzamento del mercato comune, ma il
programma di completamento del mercato interno ha dovuto essere adottato
attraverso atti legislativi ad hoc.
368
Il Consiglio europeo
Il Consiglio europeo, da non confondere con il Consiglio d’Europa, non faceva parte
dell’impianto istituzionale originario della Comunità Europea, ma è stato aggiunto
trenta anni più tardi dall’Atto Unico Europeo, che nel 1987 ha apportato la prima
revisione al Trattato di Roma. Nei primi anni della Comunità, le massime autorità
politiche dei paesi membri occasionalmente si riunivano, anche in assenza di una
specifica disposizione nei Trattati, per discutere ai più alti livelli questioni la cui
soluzione incontrava difficoltà nell’ambito del sistema decisionale comunitario.
L’insoddisfazione per il lento procedere dell’integrazione, una volta terminata la fase
di avvio, spinse il presidente francese Giscard d’Estaing ed il cancelliere tedesco
Schmidt a proporre di dar vita ad incontri periodici informali in modo da
istituzionalizzare le riunioni dei capi di stato e di governo dei paesi membri.
Al vertice di Parigi del 1974 i capi di governo rilasciarono un comunicato congiunto
che annunciava che per “… assicurare una generale continuità e coerenza nelle
attività della Comunità e nel lavoro sulla cooperazione politica” si sarebbero riuniti
tre volte l’anno, assistiti dai loro ministri degli esteri in quello che sarebbe poi
divenuto il Consiglio europeo e del quale fu chiamato a far parte anche il presidente
della Commissione, assistito da un altro membro della Commissione stessa. Per
buona parte degli anni ’80, gli incontri furono dominati dai problemi del
finanziamento della Comunità - relativi alla ripartizione tra gli stati membri dei
contributi e delle spese del bilancio comune - che avevano condotto ad una situazione
di paralisi decisionale dalla quale il Consiglio dei Ministri sembrava incapace di
uscire. Il carattere informale dei vertici, che si tenevano al di fuori dal dettato
costituzionale, e al tempo stesso l’autorevolezza dei suoi esponenti, hanno fatto sì che
il Consiglio europeo abbia potuto conseguire risultati di rilievo nel dare appoggio alle
nuove adesioni, al varo delle Conferenze Inter-Governative (CIG) che precedono le
riforme istituzionali, al progetto di un’Unione Economica e Monetaria.
369
Il Consiglio europeo è nato come accordo politico ai massimi vertici, ma al di fuori
del Trattati ed ha mantenuto un carattere extra-costituzionale riconducibile
all’assenza di una base giuridica per le sue riunioni, fino all’adozione dell’Atto Unico
Europeo. Questo, ne ha riconosciuto l’esistenza e precisato la composizione; la
necessità è stata implicitamente dichiarata stabilendo che si debba riunire almeno due
volte l’anno. Tuttavia, i compiti, le competenze ed i rapporti con le altre istituzioni
non furono definiti.
Il Trattato sull’Unione Europea e, successivamente il Trattato di Amsterdam, hanno
provveduto a rendere meno vago il ruolo del Consiglio europeo riconoscendone e
confermandone la responsabilità di definire gli orientamenti politici dell’Unione, con
speciale riferimento al secondo pilastro, cioè alla Politica Estera e Sicurezza Comune
(PESC). È, tuttavia, solo con il Trattato di Lisbona che il Consiglio europeo
acquisisce lo status di istituzione dell’UE: mentre si nega che abbia capacità
legislativa si afferma che da esso deve provenire l’impulso all’azione, l’orientamento
politico, e la definizione delle priorità pronunciandosi per consenso. Viene istituita la
figura del Presidente “permanente”, cioè non più un capo di stato o di governo
determinato in base alla rotazione di presidenza che si applica al Consiglio dell’UE,
ma, una volta eletto per due anni e mezzo rinnovabili una volta, il suo ruolo diviene
incompatibile con un mandato nazionale. Due nuove figure si aggiungono alla sua
composizione tradizionale : il presidente del Consiglio europeo e l’alto
rappresentante dell’UE per gli affari esteri e la sicurezza comune. Vengono
programmate due riunioni per ciascun semestre.
Il Consiglio europeo, privo di potere legislativo e quindi non deferibile alla Corte di
Giustizia, si riuniva abitualmente in giugno e in dicembre al termine di ogni turno di
presidenza per discutere della situazione economica generale dell’UE, dello stato di
avanzamento delle iniziative proposte in sessioni precedenti e spesso anche di
qualche argomento di particolare importanza e attualità o che ha rappresentato
l’impegno speciale del turno di presidenza, mentre per la discussione su punti più
circoscritti e urgenti era stata mantenuta la possibilità di convocare vertici
370
“straordinari”. Successivamente, il numero di riunioni programmate è raddoppiato,
l’agenda si è molto accresciuta ed ha acquisito procedure di routine, perdendo così
quell’immagine di riunioni di emergenza nelle quali ci si appella ai decisori di ultima
istanza, una caratteristica dei primi vertici.
È cura della presidenza di turno riferire successivamente i contenuti delle discussioni
alla prima seduta del Parlamento. Date le sue caratteristiche del tutto particolari, è
raro che in seno al Consiglio europeo si voti, mentre è divenuta consuetudine la
stesura di un documento finale, “le conclusioni della presidenza”, che sintetizzi il
consenso generale sui punti trattati. Il fatto che si colga l’occasione del Consiglio
europeo per l’annuncio dei progressi nella soluzione o nell’impostazione di qualche
aspetto politicamente di rilievo ha contribuito a far ritenere che in passato le sue
riunioni siano state determinanti ai fini di sbloccare le questioni più intricate e di
indirizzare gli orientamenti generali dell’apparato istituzionale.
Il Consiglio europeo aggiunge un altro elemento intergovernativo all’impianto
istituzionale dell’UE sia per la struttura, la composizione ed il modus operandi, che
per la tendenza a fissare la direzione strategica globale. Il Consiglio dell’UE, che
resta l’istituzione responsabile dell’attività legislativa, ha ceduto potere per
l’abitudine che ha assunto di deferire al Consiglio europeo le questioni che non riesce
a risolvere. Si tratta quindi di una perdita di potere volontaria: dato che non sono
definiti né il ruolo né le competenze del Consiglio europeo la sottrazione di potere,
non si inquadra in un rapporto strettamente gerarchico, ma corrisponde a quanto il
Consiglio è disposto a farsi sottrarre. Entrambe le istituzioni sono infatti fortemente
impegnate nella strategia intergovernativa del processo di integrazione.
La Corte dei conti
Istituita nel 1975, con sede in Lussemburgo, è entrata in vigore nel 1977 in
sostituzione degli organi di revisione esistenti per le tre Comunità Europee: la
Commissione di controllo di CEE e Euratom e il revisore dei conti della CECA. Il
371
TUE la colloca tra gli organi istituzionali comunitari (costituzionali) principali.
Analogamente alla composizione della Corte di Giustizia dell’UE, suoi componenti
sono tanti quanti i paesi membri e sono nominati dal Consiglio su designazione
nazionale. Come per la Corte di giustizia, la nomina deve tener conto della
competenza, certificata dalla precedente attività di revisione svolta dai candidati, e
della loro indipendenza. La Corte dei conti deve esaminare le entrate e uscite del
bilancio della Comunità, accertarne la correttezza e legittimità e una volta l’anno
presentarne il rendiconto. La corte può anche svolgere indagini negli stati membri per
le operazioni che questi effettuano per conto dell’UE (spese dei fondi comuni,
riscossione dei dazi) e negli stati terzi che beneficiano di aiuti finanziari. Il problema
delle frodi è ben presente alla Corte dei conti che ha più volte sollecitato il
miglioramento dei controlli. A richiesta di un’istituzione della CE – un’opportunità
che più spesso è stata sfruttata dal PE – può preparare relazioni su argomenti specifici
a e redigere pareri preventivi quando viene emesso un regolamento finanziario.
La Banca Centrale Europea
Istituita nel 1998, erede dell’Istituto Monetario Europeo (IME) preposto a gestire la
fase di transizione dalle valute nazionali all’euro, la Banca Centrale Europea (BCE)
con sede a Francoforte sul Meno è l’organismo al quale il Trattato di Maastricht
conferisce il diritto di emissione di banconote con corso legale nella Comunità. La
sua struttura si articola in un Consiglio direttivo ed un Comitato esecutivo, e insieme
alle banche centrali nazionali dei paesi che hanno adottato l’euro forma
l’Eurosistema, mentre insieme alle banche centrali nazionali di tutti i paesi membri
dell’UE, dà luogo al Sistema Europeo delle Banche Centrali (SEBC).
Il Comitato esecutivo è composto da presidente, vicepresidente e quattro membri,
tutti di nomina governativa, approvata dalle istituzioni comunitarie, con un mandato
della durata di otto anni.
Nel Consiglio direttivo, che ha la responsabilità della politica monetaria ed è a sua
volta composto dal comitato esecutivo e dai governatori delle banche centrali
372
nazionali dei paesi che partecipano all’unione monetaria, ogni membro dispone di un
voto e si delibera votando a maggioranza semplice; in caso di parità il voto del
presidente è decisivo.
L’indipendenza della BCE nel perseguire la politica monetaria - una caratteristica che
negli anni recenti è stata giudicata molto favorevolmente dall’analisi economica - è
sancita dal Trattato, così come viene statuito che l’obiettivo, al quale debbono essere
orientate le decisioni dell’Eurosistema, consiste nel mantenere la stabilità dei prezzi.
Così come accade per la Commissione, anche i componenti di questa istituzione non
devono accettare né tantomeno sollecitare istruzioni provenienti dall’esterno. La BCE
è dotata delle competenze e degli strumenti che le consentono di perseguire una
politica monetaria autonoma.
L’indipendenza politica della BCE è stata fortemente voluta dai paesi le cui banche
centrali nazionali già godevano di questa caratteristica, in primo luogo dalla
Germania. È sembrato impensabile, all’atto della sua costituzione, che tali paesi
potessero acconsentire a partecipare ad un’unione monetaria gestita da una banca
centrale la cui indipendenza fosse ritenuta di un livello inferiore a quanto veniva
garantito alla propria banca centrale. Non si deve dimenticare, tuttavia, che in un
paese democratico l’indipendenza dalla politica pone problemi sul piano della
legittimazione non solo degli obiettivi, ma soprattutto dell’indirizzo da imprimere al
corso delle azioni, degli strumenti da utilizzare quando la scelta è possibile, della
valutazione della scala di priorità e dell’intensità delle stesse. È stato evocato a tale
proposito il dittatore benevolo (Fitoussi, 2003).
Non tutti i paesi membri dell’UE hanno adottato l’euro e quindi non tutti sono
rappresentati negli organi deliberanti della BCE. Tuttavia, le decisioni assunte dalla
BCE, dato l’alto livello di integrazione economica esistente tra i paesi dell’UE, sono
destinate ad incidere anche sulle economie dei paesi che (ancora) mantengono in
circolazione la propria valuta. Questa è una delle ragioni che hanno spinto molti paesi
ad entrare nell’unione monetaria appena le condizioni lo hanno consentito.
373
La trasparenza, in base alla quale vengono resi noti gli obiettivi e le azioni dirette al
loro conseguimento, rendendo intellegibili le decisioni in merito alla politica
monetaria contribuisce alla credibilità e di conseguenza all’efficacia della politica
stessa.
Una dote altrettanto importante, che non si ottiene per statuto, ma deve essere
conquistata sul campo con la coerenza dell’operato è la credibilità. Questo elemento
viene valutato alla luce della performance della BCE nel perseguire i propri obiettivi
che vengono resi pubblici anche allo scopo di misurare l’efficacia delle misure
intraprese. La trasparenza delle azioni e la credibilità della gestione conferiscono alla
politica monetaria una certa prevedibilità che dovrebbe contribuire alla formazione di
aspettative più precise. Tuttavia, non sempre l’anticipazione delle azioni della BCE
da parte dei mercati è completamente virtuosa. Se da un lato ciò permette una
migliore trasmissione della politica monetaria agli investimenti ed ai consumi,
dall’altro può svuotare l’efficacia della politica stessa rendendo possibile soltanto
interventi “a sorpresa”.
L’ammissione all’unione monetaria è possibile se si dimostra di aver rispettato i
criteri di convergenza che riguardano l’andamento:
a)
dei prezzi: il tasso di inflazione non deve superare di oltre 1,5 punti percentuali
quello dei tre stati che hanno conseguito la maggiore stabilità dei prezzi nell’anno
precedente;
b)
della finanza pubblica: il disavanzo del bilancio pubblico non deve essere
eccessivo, cioè non deve superare il 3% in rapporto al PIL, ed il debito pubblico non
deve essere superiore al 60% del PIL; tali valori possono essere maggiori se solo se
ne dimostra una continua e rapida discesa, o, per il deficit, se si tratta di un episodio
eccezionale e temporaneo;
c)
del tasso di cambio: per almeno due anni il paese deve aver rispettato i margini
di fluttuazione previsti dal Sistema Monetario Europeo e non essere stato costretto a
svalutare nei confronti dell’euro;
374
d)
del tasso di interesse di lungo termine: nell’anno precedente non deve essere
stato maggiore di oltre 2 punti percentuali di quello osservato nei tre stati membri che
hanno avuto i risultati migliori in termini di stabilità dei prezzi.
Tali criteri sono stati introdotti dal Trattato di Maastricht per determinare
l’ammissione all’unione monetaria prima che questa fosse effettivamente varata e
sono ancora validi per le nuove ammissioni. Anche i paesi che ne fanno parte,
tuttavia, mantengono l’obbligo di osservare i criteri relativi alla finanza pubblica,
mentre per questi paesi è ovviamente decaduto il criterio relativo al tasso di cambio.
Il rispetto dei criteri per l’ammissione riflette la preoccupazione che i paesi che
entrano a far parte dell’unione monetaria non abbiano (ancora) conseguito le
caratteristiche desiderabili per la partecipazione ad un’area valutaria ottimale e si
possano verificare nel tempo tensioni che mettano in pericolo la gestione della valuta
comune.
Sono stati proposti vari criteri per stabilire se un gruppo di paesi costituisce un’area
valutaria ottimale. Tra questi ricordiamo come fattori favorevoli: il grado di apertura
dell’economia verso l’estero (McKinnon, 1963), la mobilità internazionale del lavoro
(Mundell, 1961), la diversificazione della struttura produttiva (Kenen, 1969),
l’esistenza di meccanismi che, attivando trasferimenti internazionali, possano
contenere l’impatto di shock asimmetrici, ma anche la ferma volontà di partecipare e
di essere disposti a sacrificare autonomia. È stato anche osservato (DeGrauwe, 2006)
che la capacità di soddisfare tali criteri potrebbe essere endogena, in altre parole
potrebbe essere resa più facile dalla partecipazione all’area valutaria anche in assenza
di un completo adeguamento ai suoi criteri.
Altre istituzioni ed organi consultivi
La Banca Europea degli Investimenti (BEI) istituita dal Trattato di Roma del 1957, ha
sede in Lussemburgo e “… ha il compito di contribuire, facendo appello al mercato
dei capitali ed alle proprie risorse, allo sviluppo equilibrato e senza scosse del
mercato comune nell’interesse della Comunità.” Questa finalità è stata interpretata
come finanziamento agevolato di progetti che rivestano una certa importanza per la
375
realizzazione di obiettivi comunitari. La maggior parte dei fondi della banca, che non
ha fini di lucro, viene impiegata nei paesi membri, ma può essere destinata al
rafforzamento di politiche di sviluppo anche di altri paesi, in particolare di quelli che
rivestono una particolare importanza per i paesi dell’UE, quali i paesi dell’Africa,
Caraibi e Pacifico (ACP), i paesi mediterranei o quelli dell’Europa centro-orientale.
La caratteristica principale degli interventi è che devono essere destinati alle aree
meno sviluppate, e in queste devono promuovere la modernizzazione. I finanziamenti
non devono essere diretti ad un solo paese membro, ma a più d’uno o all’UE nel
complesso. I fondi della BEI non provengono dal bilancio comune, ma sono in parte
versati dai paesi membri e in parte reperiti sul mercato dei capitali.
Da qualche tempo è operativo anche il fondo europeo di investimento (FEI) in parte
finanziato dalla BEI, che ha lo scopo di gestire fonti di finanziamento per progetti
destinati alle piccole e medie imprese e progetti di interesse comune. Entrambe le
istituzioni hanno la regola del co-finanziamento, cioè non intervengono mai per
intero nel finanziamento di un progetto, ma secondo quote in genere non superiori
alla metà dell’importo totale.
Il Consiglio dei governatori della BEI, che coincide con l’Ecofin, si riunisce una volta
l’anno, ha la responsabilità di indirizzo e delibera all’unanimità oppure a
maggioranza dei membri; tale maggioranza deve essere pari almeno al 45% del
capitale versato. Il Consiglio di amministrazione, composto di 22 consiglieri nominati
dai governi ed uno dalla Commissione, ha la responsabilità di assegnare i prestiti,
fissare i tassi e trovare i fondi. Il
Comitato di gestione è l’organo esecutivo
responsabile dell’operato particolare della BEI.
Il Mediatore europeo, una figura istituzionale che si è aggiunta nel 1994, viene
nominato dal Parlamento europeo all'inizio di ciascuna legislatura e per tutta la sua
durata, scegliendolo tra i cittadini dell'Unione che offrono garanzie di competenza e
di indipendenza. Sin dal momento in cui assume l'incarico il Mediatore si impegna
solennemente all’indipendenza dinanzi alla Corte di giustizia delle Comunità europee
ed ogni anno presenta una relazione complessiva al Parlamento europeo. Gli Stati
376
membri, le istituzioni e gli organi comunitari hanno l'obbligo di fornire al mediatore
le informazioni richieste. Il mediatore, che può anche agire di propria iniziativa, se
non riceve l'assistenza necessaria ne informa il Parlamento europeo. Qualsiasi
cittadino (o qualsiasi persona giuridica) dell'Unione può presentare - direttamente o
tramite un parlamentare europeo - al mediatore, una denuncia di cattiva
amministrazione in relazione all'azione delle istituzioni e degli organi comunitari. La
denuncia deve essere presentata entro due anni a decorrere dalla data in cui i fatti che
la giustificano sono portati a conoscenza del ricorrente.
Il Comitato economico e sociale (CES) è un organo consultivo istituito da Trattato di
Roma ritenuto necessario per rappresentare gli interessi settoriali. Oggi conta 344
membri proposti dai governi nazionali in numero proporzionale al proprio peso
demografico, e nominati dal Consiglio, ma che partecipano a titolo personale, anche
se in genere sono rappresentanti di organizzazione industriali, sindacali, consumatori,
ambientaliste. Per alcune questioni il parere del CES è obbligatorio, per altre la
consultazione è facoltativa e può agire anche di propria iniziativa. Gli interessi
rappresentati dal CES - dal Gruppo dei datori di lavoro, Gruppo dei lavoratori
dipendenti, Interessi vari (nel quale si trovano rappresentati sia i consumatori che,
stranamente, gli agricoltori) - hanno anche altre vie di influenza, attraverso i segretari
dei ministri o i gabinetti dei commissari o nei vari comitati di cui queste istituzioni si
avvalgono. L’efficacia della sua azione, tuttavia, risiede più nella sua capacità di
influenza che nell’espressione formale del parere anche perché questo spesso è
richiesto ad accordo raggiunto.
Il Comitato delle Regioni (CDR) istituito dal TUE per rappresentare le comunità
locali, ha iniziato ad operare nel marzo 1994 con funzioni analoghe a quelle del CES,
di cui mantiene lo stesso numero di componenti. A questo organo il TUE ha
assegnato funzioni consultive obbligatorie per tutte le questioni che si ripercuotono in
ambito locale. A quelle indicate inizialmente: istruzione, cultura, sanità, coesione e
reti trans-europee, il Trattato di Amsterdam ha aggiunto: politica dell’occupazione,
politica sociale, ambiente, formazione professionale e trasporti. Come il CES, anche
377
il CDR può agire di propria iniziativa. Sente il compito di difendere il principio di
sussidiarietà e patrocina quattro livelli di governo: europeo, nazionale, regionale e
municipale in partenariato verticale. I suoi membri sono rappresentanti eletti di
organismi amministrativi sub-nazionali. È organizzato in sei commissioni che si
incaricano di elaborare i pareri da esporre nelle sessioni plenarie. Il ruolo del CDR è
uscito rafforzato dalle disposizioni del Trattato di Lisbona.
Agenzie, centri, fondazioni, osservatori
Esiste inoltre una serie di organismi “indipendenti” che operano con vari ruoli e a
diversi livelli e dei quali qui, in un elenco incompleto, si ricorda il solo nome: l’
Accademia europea di polizia, l’Agenzia dell’Unione europea per i diritti
fondamentali, l’Agenzia europea dell’ambiente (AEA), l’Agenzia europea per la
sicurezza e la salute sul lavoro (EU-OSHA), l’Agenzia europea per i medicinali,
l’Agenzia europea per la sicurezza aerea (AESA), l’Agenzia europea per la sicurezza
marittima (AESM), l’Agenzia europea per la difesa, l’Agenzia europea di controllo
della pesca, l’Agenzia esecutiva per l’istruzione, gli audiovisivi e la cultura,
l’Agenzia esecutiva per la ricerca, l’Agenzia esecutiva per la salute e i consumatori,
Agenzia esecutiva per la competitività e l'innovazione, Agenzia europea per la
sicurezza delle reti e dell’informazione, l’Autorità europea per la sicurezza alimentare
(EFSA); il Centro europeo per lo sviluppo della formazione professionale
(CEDEFOP), il Centro di traduzione degli organismi dell’UE (CdT), il Centro
satellitare dell’UE (CSUE), il Centro europeo per la prevenzione e il controllo delle
malattie, la Fondazione europea per la formazione professionale (ETF), la
Fondazione europea per il miglioramento delle condizioni di vita e di lavoro
(EUROFOUND); l’Osservatorio europeo delle droghe e delle dipendenze (OEDT),
l’Osservatorio europeo dei fenomeni di razzismo e xenofobia (EUMC); l’Istituto
europeo per gli studi sulla sicurezza (ISS), l’Istituto europeo per l'uguaglianza di
genere, l’Istituto europeo di innovazione e tecnologia, l’Ufficio comunitario delle
varietà vegetali (UCVV), l’Ufficio per l’armonizzazione del mercato interno,
378
l’Europol, l’ufficio della polizia europea e l’Eurojust, l’organismo per il
consolidamento della cooperazione giudiziaria.
3. Il “deficit democratico”
Il Trattato di Lisbona è stato firmato al termine di un lungo iter che – con
l’approvazione del Progetto di Trattato proposto dalla Convenzione
sul Futuro
dell’Europa alla Conferenza Intergovernativa – avrebbe dovuto portare all’adozione
della Costituzione dell’UE. Questo nuovo disegno costituzionale dell’UE; noto come
il “Trattato che istituisce una Costituzione per l’Europa”, fu abbandonato perché,
quando fu sottoposto a ratifica presso i paesi membri, fu respinto dal referendum sia
in Francia che nei Paesi Bassi. Ciò è bastato perché i sette paesi che ancora non si
erano espressi evitassero di farlo.
Probabilmente la particolare miscela di caratteri sovranazionali ed intergovernativi di
questa iniziativa ha incontrato l’opposizione, per opposti motivi, sia di chi desiderava
che di chi temeva “più Europa”. Da un lato, infatti, la Costituzione era frutto di un
metodo prettamente intergovernativo che non aveva potuto tener conto delle
aspirazioni di coloro che avrebbero voluto che scaturisse da una procedura simile a
quella che si sarebbe seguita se il progetto costituzionale fosse stato nazionale. In tal
caso, sarebbero state indette le elezioni per una Costituente al termine di un
approfondito dibattito sui temi da affrontare. La procedura seguita, che si ispirava più
alla stesura di un Trattato internazionale che all’espressione di una volontà popolare
maturata dalla discussione nel paese e convogliata dall’elezione dei rappresentanti,
aveva mancato di coinvolgere i cittadini. Per chi avrebbe voluto “più Europa” si
trattava di un’imperdonabile mancanza di democrazia nel metodo prima ancora che
nei contenuti.
Ma anche su questi le critiche abbondavano. Forse per poter trovare un compromesso
con chi temeva “più Europa” ed osteggiava l’idea stessa che potesse essere
promulgata una Costituzione europea, nel definire l’identità dell’UE era stata
379
abbandonata l’espressione che all’articolo 1 del TUE citava il “… processo di
creazione di un’unione sempre più stretta tra i popoli dell’Europa …” e sostituita con
una che all’articolo 1 si riferiva alle competenze che gli stati avrebbero conferito
all’UE.
Inoltre, l’impossibilità raggiungere un accordo sul passaggio delle votazioni in
materia fiscale dalla regola dell’unanimità a quella della maggioranza aveva fatto
squillare forte il campanello d’allarme sulla effettiva possibilità di dar vita ad
un’entità politica nella quale, come nel contratto sociale nazionale, la tassazione e la
rappresentazione si riflettono l’una nell’altra: il principio “no taxation without
representation” è ancora ben presente nel pensiero dei leader europei.
Il Trattato di Lisbona, che ha raccolto l’eredità della mancata Costituzione, ma è stato
portato a compimento con la firma nel dicembre del 2007 e l’entrata in vigore il 1°
dicembre 2009, ha comunque potuto incorporare elementi qualificanti sotto il profilo
costituzionale quali la Carta dei diritti fondamentali, la dichiarazione di personalità
giuridica dell’UE, e l’impegno a promuovere metodi diversi di integrazione, quali la
cooperazione rafforzata ed il coordinamento aperto, che consentano di proseguire il
cammino comune a chi non intende abbandonare i tradizionali intenti del processo di
integrazione.
Questi ultimi sviluppi, che da un lato ampliano la portata dell’impegno comune, ma
allo stesso tempo impongono limiti, pur permettendo a chi lo desidera di oltrepassarli
con il varo di iniziative che non coinvolgono tutti i paesi membri, ma possono
comportare varie conseguenze su di loro, pongono il problema del contenuto di
democrazia che caratterizza l’UE. La definizione di democrazia è chiara in termini
generali, ma controversa nella sua applicazione fattuale. Perché si parla di deficit
democratico a proposito dell’UE?
La prima obiezione deriva dall’osservazione che, tra tutte le istituzioni comuni, solo
il Parlamento ha un diretto contatto con gli elettori verso i quali è responsabile. Ma,
anche se il suo ruolo ha acquistato rilievo nel corso degli anni, l’iter legislativo
prevede che la Commissione ed il Consiglio intervengano con un peso tutt’altro che
380
secondario. Inoltre, quanto maggiore è l’indipendenza assicurata alla BCE tanto
minore è il controllo che può essere esercitato sul piano democratico. Se la BCE deve
perseguire soltanto la stabilità monetaria e la Commissione deve adoperarsi
soprattutto nella gestione del mercato interno e del commercio internazionale,
importanti ambiti decisionali, con ampie ripercussioni sulla vita di tutti i cittadini,
sono sottratti al loro controllo. Va osservato, tuttavia, che in molti paesi possono
essere chiamati ad importanti ruoli di governo, dal partito o dalla coalizione che ha
vinto le elezioni, cittadini che non sono stati eletti, ma la cui legittimità democratica
promana dall’elezione democratica cui sono stati soggetti coloro che li hanno
nominati. Allo stesso modo va giudicato il proliferare di Agenzie ed altri organismi
indipendenti.
Un’altra obiezione sorge dall’incoraggiare il ricorso alle votazioni a maggioranza nel
Consiglio, che ha portato al diffondersi di questa regola di voto fino a considerare la
regola dell’unanimità quasi desueta. Poiché nel Consiglio i ministri rappresentano il
proprio paese, se si trovano in minoranza si determina una situazione per cui il paese
da loro rappresentato sarà obbligato ad osservare i provvedimenti votati dalla
maggioranza, ma per i quali esso ha espresso un voto contrario. Nelle votazioni del
Consiglio, ciò rende impossibile ai ministri la responsabilità verso i propri elettori
nazionali.
Un altro punto critico, che tuttavia non riguarda solo l’UE, consiste nel modo in cui si
assicurano le pari opportunità a tutti i cittadini in modo che la democrazia economica
non abbia a soffrire del mancato, o distorto, parere espresso dagli individui che
appartengono a gruppi svantaggiati.
L’integrazione negativa attraverso la quale è stato costruito il mercato interno spesso
non è stata accompagnata dalla necessaria integrazione positiva volta a correggere gli
attesi fallimenti del mercato (Scharpf, 1999). La lotta all’inflazione perseguita dalla
BCE, la perdita dello strumento del tasso di cambio e la proibizione per gli aiuti
statali alle imprese hanno ridotto la capacità di intervento dei singoli paesi nella
gestione della propria politica economica non solo per quanto riguarda la politica
381
monetaria e le altre politiche comuni, ma anche – per la competizione fiscale tra i
paesi in conseguenza all’unione monetaria – nella destinazione della spesa pubblica
ai programmi di istruzione e di potenziamento del capitale umano, alla sicurezza
sociale, alla sanità, al welfare state.
La concorrenza fiscale, necessaria ad evitare la fuga dei capitali - diversamente dalla
concorrenza di mercato che tende ad escludere le imprese non competitive e a
rafforzare in tal modo il funzionamento del mercato – può portare all’erosione della
coesione sociale poiché i paesi sono costretti a ridurre tasse e trasferimenti per attirare
i contribuenti ricchi ed i capitali ed allontanare chi necessita di sostegno.
L’obiezione alla coesione sociale, specie quando viene sollecitata tra i paesi dell’UE,
cioè a livello internazionale, si fonda sull’osservazione che un demos europeo non
esiste, mentre esistono i popoli europei. Un’obiezione analoga era stata rivolta alla
Costituzione europea. Che riconoscimento si deve attribuire alla scelta di condividere
norme e valori (Habermas, 2001) e in base a quale indicatore si può affermare che
questa condivisione esiste o va ricercata?
4. La “sostenibilità” della globalizzazione: tendenze al decentramento ed
all’integrazione istituzionale
I processi di globalizzazione degli ultimi decenni, accrescendo il potere degli
operatori di mercato, hanno indotto gli Stati a varie strategie di difesa degli spazi
decisionali pubblici. Si può sostenere che l’obiettivo è stato quello di rendere la
globalizzazione “sostenibile”, cercando di preservare le strutture democratiche del
potere politico dai crescenti vincoli alla governance nazionale posti dalla
liberalizzazione dei mercati dei prodotti e finanziari.
La necessità di fare fronte ad un ruolo più ampio conquistato dai mercati nelle società
avanzate ha da un lato stimolato l’evoluzione dei sistemi politici verso un maggiore
decentramento, e dall’altro generato una più forte volontà di rafforzare il potere
politico mediante forme di integrazione sovra-nazionale. Ad esempio, in Europa, non
382
solo venne accelerato negli anni ’80 il processo di costruzione del mercato unico, ma
si cominciarono a programmare le diverse fasi di integrazione monetaria che hanno
poi portato alla moneta unica. Nel prosieguo, verranno le ragioni economiche che
sono alla base di tali processi.
5. Obiettivi e vincoli del decentramento fiscale
Il decentramento fiscale si fonda su un duplice assunto riguardo alla produzione di
beni pubblici e meritori: i) i governi di livello inferiore appartenenti ad uno Stato
unitario o ad una Federazione, in virtù della loro vicinanza alle comunità locali,
garantiscono un migliore soddisfacimento delle preferenze dei residenti nella
giurisdizione; ii) gli elettori delle giurisdizioni di livello inferiore esercitano un
controllo sui governi locali (imponendo l’assunzione di responsabilità sulle funzioni
loro assegnate, la cosiddetta accountability) più efficace di quello che può essere
esercitato sulla classe politica del governo centrale. Più in generale il federalismo
fiscale promuoverebbe una più diretta partecipazione dei cittadini al processo
politico. Per i motivi appena detti, il principio di sussidiarietà richiede che i poteri di
prelievo e di spesa vengano attribuiti al livello di governo più basso possibile.
Come è testimoniato dalla grande varietà degli assetti statuali multi-livello
presenti a livello mondiale, il quadro concettuale su cui si fonda la teoria del
federalismo fiscale, benché semplice, è di difficile attuazione. Basti osservare che i
valori degli indicatori generalmente impiegati per misurare il grado di decentramento
(la quota di entrate fiscali o di spesa pubblica dei livelli di governo inferiori sui
rispettivi totali nazionali o in rapporto al Pil) risultano a volte più elevati negli Stati
unitari (ad esempio i Paesi scandinavi) che non negli Stati federali (ad esempio Stati
Uniti e Germania).
Inoltre, all’incremento delle responsabilità di spesa dei governi sub-nazionali
che si è registrato negli ultimi decenni non si è accompagnato un parallelo
ampliamento delle basi della tassazione locale. La quota sul totale della spesa che fa
383
capo ai governi locali è cresciuta ad un tasso di gran lunga superiore a quella della
tassazione locale sul totale del prelievo. Di qui, la compresenza per i governi di
livello inferiore di una più estesa autonomia sul lato della spesa e di una crescente
dipendenza dai trasferimenti dal centro. Una delle principali ragioni è che, di norma,
le basi imponibili appropriate per la tassazione locale sono relativamente ristrette. E’
infatti difficile individuare cespiti per i quale si realizzino contemporaneamente tutti i
requisiti che sono generalmente richiesti per costituire il fondamento di una buona
imposta locale: immobilità della base imponibile, distribuzione geografica omogenea,
non-esportabilità dell’imposta, limitata variabilità del gettito nell’alternarsi dei cicli
economici. Ne consegue che i governi sub-nazionali devono necessariamente
soddisfare le proprie crescenti esigenze di finanziamento non con tributi propri ma
con compartecipazioni sui tributi statali e con trasferimenti erogati dal governo
centrale.
Inoltre, gli indicatori usualmente impiegati tendono a sopravvalutare l'effettivo
grado di decentramento. L'incidenza totale dei trasferimenti (espliciti ed impliciti) è
probabilmente maggiore di quella che è rappresentata nelle statistiche, mentre non è
generalmente possibile enucleare dal totale delle entrate tributarie dei governi subnazionali la percentuale di gettito proveniente dalle compartecipazioni che sono
caratterizzate da un grado di autonomia certamente molto limitato.
La complessità dei problemi implicati dall’organizzazione statuale multi-livello
fa sì che la struttura federale o unitaria assunta da uno Stato vada ricondotta più alle
dinamiche socio-economiche sviluppatesi nella particolare evoluzione storica di
ciascun Paese, che non ad una scelta deliberata, fondata su un confronto fra costi e
benefici dei processi di devoluzione delle competenze di spesa e delle responsabilità
di tassazione. Infatti, a causa del complesso interrelarsi dei guadagni e delle perdite
fra le giurisdizioni, una valutazione dei processi di decentramento fiscale sotto il
profilo dell’efficienza e dell’equità è compito estremamente arduo. La principale
questione relativa all’efficienza riguarda gli ostacoli che la devoluzione
inevitabilmente frappone allo sfruttamento delle economie di scala nella fornitura di
384
importanti beni pubblici, come ad esempio le infrastrutture nell’ambito delle
comunicazioni viarie e delle telecomunicazioni, oggi considerati investimenti di alto
valore strategico per lo sviluppo di un Paese.
Emerge poi spesso un problema di non-equivalenza fiscale, ovvero cioè il fatto
che la dimensione dell’area nella quale ricadono i benefici della fornitura del bene
pubblico è più ampia di quella della giurisdizione che decide e finanzia l’offerta
pubblica. La conseguente creazione di spillover fra giurisdizioni locali (ad esempio,
l’aggravio di spesa che le Regioni con migliori prestazioni sanitarie subiscono a
causa della mobilità dei pazienti da altre Regioni) genera problemi del tipo
principale-agente. L’equilibrio fra costi sopportati dai residenti nella giurisdizione e
benefici del servizio fruiti anche da residenti in altre giurisdizioni viene distorto, e ciò
indebolisce gli incentivi delle giurisdizioni di livello inferiore nel perseguire
l’efficienza nella quantità e qualità di servizi forniti ad un «principale» che è
costituito dai cittadini-elettori.
Più in generale, l’eterogeneità nella dotazione di risorse fiscali delle
giurisdizioni locali si riflette sulle differenti quantità e qualità dei servizi pubblici
fruibili in ciascuna di esse, ponendo un chiaro problema di equità nelle modalità
dell’intervento pubblico. Si determina infatti un trade-off fra decentramento delle
funzioni di prelievo e di spesa da un lato, e capacità di tutti i governi locali,
diversamente dotati in termini di risorse finanziarie, di soddisfare le preferenze delle
rispettive comunità, dall’altro. Tanto più il governo centrale attua la devoluzione delle
competenze, tanto più pressante diviene il problema di colmare l’ineguale capacità
fiscale fra le giurisdizioni territoriali. La perequazione fiscale è affidata ai
trasferimenti, attraverso i quali le giurisdizioni in avanzo fiscale finanziano quelle in
disavanzo, direttamente mediante trasferimenti orizzontali, oppure indirettamente, per
il tramite dei trasferimenti verticali attivati dal bilancio del governo centrale.
Quanto detto consente allora di comprendere perché il principio di
sussidiarietà, che è alla base del federalismo fiscale, sia spesso attuato in maniera
soltanto parziale, lasciando in realtà alla responsabilità congiunta di governo centrale
385
e governi locali in insieme ampio di competenze rilevanti, tanto nell’ambito della
tassazione quanto in quello della spesa. D’altro canto, la determinazione del ruolo dei
diversi livelli di governo nell’ambito di queste materie condivise costituisce una
decisione in condizioni di incertezza, che configura un’interazione strategica fra i
soggetti istituzionali coinvolti ed è quindi oggetto di contrattazione. Infatti, quanto
più ampia è l’area delle competenze condivise, tanto maggiore è il rischio di «azzardo
morale» da parte del governo locale la cui disciplina fiscale potrebbe essere
compromessa dall’aspettativa di un ripiano delle spese in eccesso da parte del
governo centrale. E, di converso, è anche possibile che il governo centrale imponga
standard sui programmi di spesa gestiti localmente senza garantire ai governi locali le
risorse finanziarie corrispondenti (unfunded mandates).
6. La tendenza al federalismo fiscale
Negli ultimi decenni, sia negli stati federali che in quelli caratterizzati da una struttura
di governo centralizzata, la tendenza al decentramento fiscale ha prevalso su quella
alla centralizzazione delle competenze di prelievo e di spesa pubblica. Le riforme
dell’organizzazione statuale nella direzione del federalismo fiscale attuate da molti
paesi nel secondo dopoguerra hanno seguito linee evolutive alquanto differenti fra
loro. Si può dire che in nessun caso è stato replicato l’equilibrato modello degli Stati
Uniti, dove il complesso intreccio fra bilancio federale e matching grants di tipo
verticale ed orizzontale fa sì che la funzione di redistribuzione fra gli stati della
federazione svolga un ruolo complementare rispetto alla funzione di stabilizzazione
macroeconomica.
In alcuni paesi è aumentata l’autonomia regionale (Spagna, Belgio, Danimarca,
Italia e Messico) ed è anche aumentata la quota di prelievo fiscale assegnata ai
governi di livello inferiore. In altri paesi il decentramento ha invece segnato il passo o
è addirittura regredito (Francia, Germania), ed il potere impositivo si è
conseguentemente ridotto. In altri paesi ancora (Svezia, Norvegia ed Austria), l’alta
386
mobilità della base impositiva (il reddito personale) su cui si fonda il prelievo fiscale
dei governi locali ha provocato una tendenziale riduzione della tassazione subnazionale (OECD, 2003). Non sembra quindi individuabile una precisa
corrispondenza fra devoluzione dei poteri e devoluzione dell’imposizione fiscale.
I sistemi di federalismo fiscale che osserviamo nella realtà mostrano comunque
una tendenza a seguire due diversi modelli riguardo alla realizzazione
dell’equalizzazione fiscale: il federalismo competitivo ed il federalismo cooperativo.
Nei paesi la cui struttura statuale è fin dall’inizio di tipo federale, il decentramento ha
assunto i caratteri del primo modello. Nei paesi che nascono con un forte potere
centrale, realizzando il decentramento fiscale soltanto in una fase successiva alla loro
costituzione come entità politica unitaria, ha prevalso il secondo modello.
Federazioni di tradizione anglo-sassone, quali sono l’Australia ed il Canada, si
avvicinano al modello del “federalismo competitivo”. Nel sistema perequativo della
federazione australiana, l’elevato onere di partecipazione al fondo cui gli stati più
ricchi erano sottoposti per soddisfare all’equità inter-giurisidizionale ha avuto
l’effetto di disincentivare la ricerca di diversità, generando così l’omogeneizzazione
verso il basso della tassazione regionale. Il sistema confederale canadese sembra più
orientato a contemperare l’obiettivo di perequazione inter-giurisdizionale con gli
incentivi. Il livello di tassazione è infatti vincolato dalla concorrenza fiscale cui le
province fanno ricorso a causa dell’assenza di una compartecipazione delle province
nei tributi prelevati dal governo centrale. Tuttavia, i bilanci delle province sono
finanziati sia dalle entrate derivanti dalle imposte locali sia da una forte
redistribuzione verticale. L’entità dei trasferimenti realizzati dal meccanismo di
equalizzazione canadese è commisurata alla capacità fiscale media delle province di
maggiori dimensioni ed il fondo è legato alla crescita del PIL federale (Smart, 2005).
Un secondo gruppo di paesi, cui appartengono molti stati europei, adotta il
modello del “federalismo cooperativo”. Nel sistema federale della Germania,
considerato l’archetipo del federalismo cooperativo, l’obiettivo della perequazione
inter-giurisdizionale
fa
premio
sull’esigenza
di
preservare
le
preferenze
387
idiosincratiche ed il principio del beneficio, cosicché la base impositiva è poco
decentrata. In un sistema di prelievo fiscale in cui la maggior parte dei tributi è di
competenza del governo centrale, la struttura del bilancio federale è fortemente
condizionata dai bisogni dei Lander, soprattutto per quanto riguarda il finanziamento
dei programmi di spesa per i Lander dell’Est. La politiche pubbliche che i governi
regionali destinano al miglioramento del benessere sociale delle comunità locali
vengono finanziate sia con una generosa perequazione inter-giurisdizionale, sia
attraverso la ripartizione dell’IVA secondo un criterio redistributivo che avvantaggia i
Lander più poveri. Il tentativo di riformare il sistema di equalizzazione e restringere
la capacità di spesa dei livelli inferiori di governo (Fenge e von Weizsacker, 2001),
ponendo un limite al potere di veto della Bundesrat sulla legislazione del governo
federale, è recentemente fallito.
Un obiettivo perseguito dal decentramento fiscale attuato in alcuni paesi
europei è stato quello di trovare una soluzione ai molteplici problemi distributivi
legati alla frammentazione sociale creata dalle diversità culturale (ulteriormente
accentuate dall’immigrazione extra-comunitaria). Due paesi europei accomunati dalla
sovrapposizione fra diversità etniche e linguistiche, che hanno finito per sommare la
disuguaglianza inter-giurisdizionale alla disuguaglianza di reddito pro capite, sono
Spagna e Belgio.
In Spagna, il finanziamento dei bilanci dei livelli di governo inferiori (le
Comunidades) ha luogo mediante la compartecipazione alle entrate del governo
centrale e le imposte proprie.
La debolezza del meccanismo di perequazione fiscale ha portato ad un
notevole indebitamento delle regioni con minore capacità fiscale. Il decentramento,
inoltre, contrariamente all’obiettivo di accrescere l’efficienza nella fornitura dei beni
pubblici sfruttando la maggiore vicinanza alle preferenze locali, causa una tendenza
dei governi regionali ad aumentare la spesa pubblica. Il grado di autonomia regionale,
notevolmente accresciutosi in seguito ai processi di devoluzione, ha dovuto essere
388
mitigato da un più stringente controllo del governo centrale sulla spesa delle
giurisdizioni locali.
Il sistema federale del Belgio presenta un grado di complessità tale da
avvicinare la questione della perequazione fiscale in questo paese al caso del
decentramento italiano. Uno dei problemi principali è rappresentato dall’alta
concentrazione in Vallonia della popolazione anziana, a bassa istruzione e a minore
tasso di partecipazione al mercato del lavoro. I valloni, avendo un livello di reddito
pro capite e di capacità contributiva inferiore a quello della comunità fiamminga,
hanno goduto di crescenti flussi redistributivi (van Parijs, 1999).
La creazione della regione di Bruxelles, che aveva fra l’altro l’obiettivo di
facilitare la composizione delle questioni distributive che tradizionalmente
oppongono le regioni della Vallonia e delle Fiandre, non ha mitigato gli squilibri fra i
flussi di tassazione e di trasferimenti. Il meccanismo dell’equalizzazione fiscale è
infatti reso particolarmente difficile dell’intrecciarsi e dal sovrapporsi di più
dimensioni di giustizia distributiva: l’equità interpersonale, intergiurisdizionale ed
inter-generazionale.
7. Decentramento fiscale ed equità orizzontale
Una delle ragioni che inducono uno Stato ad intraprendere un processo di
decentramento fiscale consiste nell’aspettativa che i governi di livello inferiore
appartenenti ad una nazione o ad una federazione, in virtù della loro “vicinanza” alle
comunità locali, siano in grado di promuovere un migliore soddisfacimento delle
preferenze degli individui riguardo alla produzione di beni pubblici e meritori.
Tuttavia, è possibile che si determini un trade-off fra decentramento delle funzioni di
prelievo e di spesa da un lato, e eguaglianza fra i governi locali riguardo alla
possibilità di soddisfare le preferenze delle rispettive comunità, dall’altro.
L’eterogeneità nella dotazione di risorse di ciascuna giurisdizione si riflette in una
diversa quantità e qualità dei servizi pubblici realizzabili nelle varie giurisdizioni. Il
389
divario di capacità fiscale fra le giurisdizioni può impedire il conseguimento
dell’equità orizzontale, e cioè del diritto all’eguale trattamento che viene riconosciuto
ad individui con eguale reddito, anche qualora siano residenti in giurisdizioni diverse
e quindi a diverso livello di reddito prodotto e di reddito pro capite.
Nelle nazioni o negli stati federali in cui il governo centrale decide che tale
principio di equalizzazione fiscale debba dominare il principio della “libertà di
scelta”, e cioè la varietà e qualità dei servizi pubblici, è probabile che sorgano
conflitti fra le comunità locali. Le giurisdizioni “ricche” potrebbero ritenere che il
meccanismo della perequazione inter-giurisdizionale, data la maggiore contribuzione
al bilancio del governo centrale, compromette la loro capacità di spesa per la
realizzazione dei beni pubblici e meritori nella varietà e qualità richiesta dalle
preferenze delle proprie comunità locali.
D’altro canto, prendendo il caso italiano, se proseguisse il cammino verso la
devoluzione, e non si predisponesse un adeguato sistema perequativo, molte regioni
dotate di una scarsa capacità fiscale dovrebbero fare affidamento sui trasferimenti dal
governo centrale anche per i servizi pubblici essenziali.
Si noti che il problema dell’equità fiscale fra regioni ricche e regioni povere è
distinto da quello della disuguaglianza interpersonale di reddito e della sua
sostenibilità sociale. E’ vero che in alcuni paesi, anche appartenenti all’Unione
Europea, la disuguaglianza inter-giurisdizionale (il divario fra i redditi pro-capite fra
le regioni) tenda a sovrapporsi alla disuguaglianza interpersonale di reddito. Tuttavia,
il decentramento fiscale, riducendo la redistribuzione operata dal governo centrale,
separa la questione dell’equità “orizzontale” (la disparità di trattamento fra comunità
locali) da quella relativa all’ equità “verticale” (la disuguaglianza fra le persone). Il
problema di disuguaglianza che viene affrontato dai meccanismi di perequazione
fiscale è quello di tipo orizzontale: la violazione del diritto della persona – sia alto o
basso il decile di reddito cui appartiene - a non subire discriminazioni in base alla
giurisdizione di appartenenza.
390
Quanto più ampia è la differenza fra l’ammontare e la qualità delle risorse e le
responsabilità pubbliche delle giurisdizioni di livello inferiore a causa dei particolari
bisogni della popolazione (ad esempio, carenza di infrastrutture, strutture educative e
sanitarie insufficienti, etc.), tanto più è probabile che individui con eguale reddito, a
causa della residenza in giurisdizioni diverse, ricevano un trattamento diseguale. Gli
individui residenti nelle regioni povere, benché non siano responsabili di divergenze
della performance di reddito della propria giurisdizione, risulteranno discriminati
rispetto agli individui con reddito eguale ma residenti nelle regioni più ricche, in
quanto riceveranno un residuo fiscale netto tanto più basso quanto più il reddito
medio della propria giurisdizione risulti inferiore alla media nazionale (o federale).
Come conciliare il decentramento fiscale con l’equità orizzontale? La
salvaguardia dell’equità orizzontale impone che ad un livello di tassazione
tendenzialmente eguale fra giurisdizioni locali a diverso reddito pro-capite si
affianchi uno schema di equalizzazione fiscale che consenta di annullare un difetto
dei benefici di spesa rispetto alle tasse pagate di individui con lo stesso reddito
residenti in giurisdizioni diverse.
Il principio di eguale residuo fiscale netto per le persone ad eguale reddito è
realizzato mediante i matching grants, attraverso i quali le giurisdizioni in avanzo
fiscale finanziano quelle in disavanzo (direttamente mediante grants orizzontali,
oppure indirettamente, attraverso i trasferimenti verticali del bilancio del governo
centrale). Le giurisdizioni che devono cedere risorse vengono differenziate da quelle
che devono ricevere risorse in base al rapporto fra l’indice di capacità fiscale di
ciascuna giurisdizione e l’indice di perequazione (tale da annullare anche eventuali
distorsioni dovute al caso di tassi di imposizione che risultino differenti fra le
giurisdizioni).
I meccanismi di perequazione inter-giurisdizionale hanno il compito di favorire
il conseguimento dell’”eguaglianza nei punti di partenza” fra giurisdizioni a diverso
grado di sviluppo, evitando al contempo che il trasferimento di risorse fra le
giurisdizioni comprometta gli incentivi di mercato degli individui e delle imprese e la
391
“libertà di scelta” dei servizi pubblici da parte delle comunità locali. Riguardo alla
questione degli incentivi, essendo rivolti all’equalizzazione fra le risorse delle
giurisdizioni, i matching grants hanno un ovvio contenuto di redistribuzione intergiurisdizionale, che si va ad aggiungere all’eventuale impatto redistributivo delle
politiche pubbliche realizzate dal governo centrale.
L’obiettivo di equalizzare i residui fiscali netti di individui con eguale reddito
può avere effetti distorsivi. Le analisi sui fallimenti del governo affermano che una
più elevata pressione fiscale nelle regioni a reddito pro capite più alto della media
nazionale (o federale) indebolisce gli incentivi al lavoro degli individui e gli incentivi
ad investire delle imprese; mentre il flusso di risorse destinate alle giurisdizioni a
minore grado di sviluppo (o maggiormente esposte a shock macroeconomici a causa
della più debole struttura produttiva) ridurrebbe l’impegno ad indirizzare le risorse
locali verso un processo di crescita guidato dalle forze di mercato.
Un'altra questione riguarda essenzialmente la “libertà di scelta” dei residenti
delle giurisdizioni “ricche”. Allorché una nazione (o una federazione) sia
caratterizzata da notevoli disparità di reddito pro capite fra le giurisdizioni di cui si
compone, la posizione di contribuenti nette ai matching grants potrebbe impedire alle
giurisdizioni “ricche” di soddisfare le preferenze locali, sia in termini di quantità di
beni pubblici e meritori, sia sotto il profilo della varietà delle opzioni (il pluralismo
culturale negli indirizzi formativi del sistema di istruzione, una vasta gamma di
servizi a pagamento nella sanità, etc.) che i residenti si attendono dal decentramento
fiscale.
La possibile interferenza dei matching grants con gli incentivi di mercato e con
la “libertà di scelta”, benché non sia del tutto eliminabile, viene solitamente mitigata
orientando il disegno delle politiche pubbliche al soddisfacimento dell’equità
attuariale. La letteratura abbonda di lavori che presentano schemi di trasferimenti
perequativi disegnati con l’obiettivo di incorporare nella legislazione fiscale un grado
di earmarking sufficientemente elevato da garantire a gruppi sociali ed individui la
possibilità di verificare la coerenza del livello di imposizione sopportato con gli
392
standard attesi nell’erogazione del servizio pubblico. E’ ad esempio possibile
imporre, al livello di governo che riceve i matching grants, il rispetto del principio del
beneficio. Tale obiettivo viene perseguito attraverso l’attribuzione dei fondi per la
coesione sociale a specifici programmi di spesa (earmarking).
Questi aspetti distributivi del decentramento istituzionale sono stati
ulteriormente complicati dalla crisi finanziaria del 2007-08 e dalla successiva
recessione. In Italia, ad esempio il lungo e contrastato passaggio al federalismo
fiscale sta subendo le conseguenze dell’esigenza di procedere ad una forte restrizione
della politica fiscale. Ad essere immediatamente colpito è il meccanismo di
perequazione inter-regionale, che per essere seriamente realizzato necessita di ingenti
risorse.
8. Spillovers fra livelli di governo e competizione fiscale
In Europa, il contemporaneo sviluppo del federalismo verso l’alto - l’integrazione fra
gli Stati, che genera istituzioni sovra-nazionali e politiche pubbliche comuni - e del
federalismo verso il basso – l’attribuzione di potestà fiscale ai livelli sub-nazionali di
governo – sta producendo un sistema multi-livello i cui tratti costitutivi sono ancora
tutti da definire.
Un primo aspetto è comunque già evidente. L’evoluzione di molti paesi verso
tre livelli di governo (locale, nazionale ed europeo) implica una riduzione del grado
di corrispondenza fra il territorio di riferimento della giurisdizione politica e l’area
sulla quale le politiche pubbliche della giurisdizione esercitano i loro effetti
economici. L’integrazione dei mercati e l’unione monetaria, hanno moltiplicato le
interdipendenze economiche fra le nazioni dell’Unione Europea, con potenziali effetti
riduttivi sulle entrate fiscali dei governi centrali. Il numero degli spillovers fra le
giurisdizioni, che è destinato ad accrescersi sia per la mobilità dei capitali e del lavoro
(in primo luogo, i flussi di lavoratori in uscita dai paesi dell’Est) sia per l’incremento
dei livelli di governo, rappresenta la condizione permessiva per l’innescarsi della
393
competizione fiscale. E’ infatti evidente che - all’azzerarsi dei controlli sui movimenti
di capitale e al ridursi i costi del trasferimento di lavoratore di residenza da un paese
ad un altro - ha fatto seguito un aumento delle pressioni concorrenziali. Per trattenere
i capitali finanziari e le imprese produttive gli Stati abbassano la tassazione sui
rendimenti finanziari e sui profitti; per evitare la perdita di posti di lavoro i lavoratori
autoctoni devono accettare salari (e contributi sociali) più bassi.
L’analisi economica ha elaborato numerosi modelli che mettono in luce come
anche il federalismo possa innescare una competizione fiscale tale da produrre, al
livello di coordinamento fra sistemi economici in competizione fra loro, le medesime
condizioni di fallimento che si manifestano nel coordinamento di mercato (Sinn,
2003). Da un lato, l’ampliarsi dell’impatto delle politiche al di fuori dei confini
nazionali tende ad accrescere l’eterogeneità fra le giurisdizioni riguardo alle diverse
dimensioni economico-sociali da cui scaturisce il benessere sociale degli individui
(reddito pro capite, caratteri del sistema fiscale e della protezione sociale, etc.).
Dall’altro, le imperfezioni di mercato, in particolare i fattori agglomerativi che
agiscono a livello settoriale e territoriale (ad esempio, l’attrazione esercitata dalle
aree dotate di buone università e di forti strutture di ricerca sulle localizzazioni delle
imprese dei settori avanzati), ostacolano la convergenza reale fra giurisdizioni a
diverso livello di reddito pro capite e spesso accentuano la marginalizzazione delle
aree arretrate.
A minori entrate fiscali consegue minore spesa pubblica. Riguardo alle
prospettive di “corsa al ribasso” in Europa nella realizzazione delle politiche
pubbliche, è stato osservato come “le riforme degli ammortizzatori sociali e delle
pensioni, dirette a ridurre la “generosità del sistema” di protezione sociale degli Stati
membri, subiscono una accelerazione a partire dal 1991, data nella quale il processo
di integrazione europeo ha ricevuto un significativo impulso. Sull’insieme delle 15
riforme strutturali avviate fra il 1991 ed il 2003 (8 relative al sistema pensionistico e
7 riguardanti l’assicurazione contro la disoccupazione) 14 (rispettivamente, 8 e 6)
avevano visto diminuire la “generosità del sistema” (Fitoussi e LeCacheux, 2002,
394
pp.108-9). Questa tendenza al ridimensionamento della spesa sociale ha recentemente
subito un’accelerazione con le misure di austerità varate dai governi dell’Eurozona in
seguito al riflettersi della crisi finanziaria sulla sostenibilità del debito pubblico dei
paesi “periferici”.
Pertanto, sul futuro delle assicurazioni sociali, già minacciate sul piano del
finanziamento dalla tendenza internazionale alla riduzione della tassazione sul
capitale (il che impedisce di tassare adeguatamente le multinazionali) indotta dalla
globalizzazione
e
dall’evoluzione
demografica,
incombe
ora
anche
la
centralizzazione nelle mani di un’autorità di controllo dell’Unione Europea del
controllo dei bilanci pubblici nazionali.
Se i bassi tassi di crescita delle economie europee dovessero perdurare,
soprattutto nelle nazioni in cui il livello di tassazione è maggiore della media europea
in quanto il settore pubblico intermedia una quota ingente di risorse, potremmo
assistere ad una tendenza verso la restrizione fiscale tale da provocare una
significativa perdita di capacità fiscale dei governi centrali. Le conseguenti riduzioni
nei programmi della spesa sociale a favore dei soggetti “svantaggiati” e delle
giurisdizioni locali a più basso reddito pro-capite si riverbereranno negativamente
sulla funzione di equalizzazione. La perequazione fiscale svolta dai matching grants
che i governi centrali destinano alle giurisdizioni locali dei paesi dell’Unione Europea
ne risulterà gravemente indebolita.
Un ulteriore aspetto riguarda l’impatto del decentramento sulla pressione
fiscale nei livelli inferiori di governo. La funzione di redistribuzione intergiurisdizionale dei matching grants genera infatti anche spillovers sul sistema dei
tributi e della spesa di ciascuna giurisdizione sub-nazionale. L’investitura di
responsabilità nei confronti delle comunità locali che grava sui rappresentanti da esse
eletti fa sì che il controllo democratico sulla tassazione e sulla spesa pubblica
realizzati dai governi locali sia maggiore quanto più esteso è il decentramento
politico. Tuttavia, alla più elevata autonomia regionale realizzata con il trasferimento
di competenze alle giurisdizioni di livello inferiore non sempre corrisponde un
395
proporzionale incremento dell’autonomia di bilancio. La letteratura esprime a questo
proposito due giudizi contrapposti.
Nell’indirizzo di Public Choice, si osserva come decentramento istituzionale e
decentramento delle funzioni di imposizione fiscale e di spesa pubblica possano
entrare in conflitto. La funzione di comportamento “auto-interessato” indurrebbe i
rappresentanti dei governi locali a perseguire una strategia opportunistica, consistente
in una sorta di asimmetria fiscale: la loro azione sarebbe infatti diretta ad acquisire la
funzione di spesa lasciando invece la funzione impositiva presso il governo centrale
(Stegarescu, 2005). In effetti, è quanto è avvenuto negli ultimi venti anni in Italia. Il
cosiddetto ”Patto di Stabilità interno” intende porre rimedio proprio a questo
problema. Allo scopo di una evitare tale distorsione degli incentivi, andrebbe
preservata la gerarchia fra i livelli di governo. In particolare, andrebbe evitata la
negoziazione fra i rappresentanti delle istituzioni locali ed il governo centrale
riguardo alla suddivisione di funzioni e di capacità di tassazione e di spesa.
Un altro indirizzo della letteratura, invece, associa alla equalizzazione fiscale
fra i livelli inferiori di governo un incentivo per le giurisidizioni locali ad aumentare
il livello di tassazione. Questo filone di ricerca attribuisce ai matching grants un
effetto di riduzione del costo marginale della raccolta di tributi (Buettner, 2005 e
Dahlby, 2002). I trasferimenti verticali del governo centrale verso i livelli inferiori di
governo, nel liberare dall’imposizione alcune risorse locali, consentirebbero alle
giurisdizioni l’incremento della pressione fiscale complessiva. Si genererebbe così un
effetto di bilanciamento rispetto alla tendenza, attribuita alla competizione fiscale fra
le giurisdizioni, a provocare il ridimensionamento della pressione fiscale e quindi
della spesa sociale (Bucovetsky e Smart, 2002; Koethenbuerger, 2002).
L’evidenza empirica indica comunque che il decentramento fiscale non ha
condotto ad una maggiore disponibilità di risorse a disposizione dei governi subnazionali. Come si è accennato, il vincolo sovra-nazionale di politica fiscale ha
indotto alcuni governi centrali ad estendere il Patto di stabilità fino al livello delle
entità amministrative di più piccole dimensioni.
396
Il finanziamento delle politiche pubbliche delle giurisdizioni sub-nazionali
dovrà inoltre fare sempre meno affidamento sul governo nazionale. Tanto più
rapidamente globalizzazione e competizione fiscale accelereranno la riduzione delle
spese per la coesione sociale a livello nazionale, tanto più indispensabile diverrà la
disponibilità di finanziamenti europei per le politiche pubbliche perequative dei paesi
dell’UE a reddito pro capite inferiore alla media. D’altro canto, gli strumenti di
federalismo cooperativo che attualmente operano al livello di Unione Europea – in
primo luogo, i Fondi strutturali diretti a riequilibrare il divario di capacità fiscale
determinato dal basso reddito pro capite – non hanno la dimensione necessaria ad
influire sulla tendenza alla concentrazione settoriale e produttiva in atto nel
continente.
9. La suddivisione delle competenze di prelievo e di spesa
Negli ultimi decenni, sia negli Stati federali che in quelli caratterizzati da una
struttura di governo centralizzata, la tendenza al decentramento ha prevalso sulla
centralizzazione delle responsabilità di prelievo e di spesa pubblica. Tuttavia, come
sopra richiamato, le riforme degli assetti istituzionali nella direzione del federalismo
fiscale attuate da molti Paesi hanno seguito linee evolutive fra loro alquanto
differenti. Si può affermare che in nessun caso è stato replicato l’equilibrato modello
degli Stati Uniti, dove il complesso intreccio fra bilancio federale e trasferimenti di
tipo verticale ed orizzontale fa sì che la funzione di redistribuzione delle risorse
finanziarie fra gli Stati della Federazione svolga un ruolo complementare rispetto alla
funzione di stabilizzazione macroeconomica, cioè agli interventi finalizzati a
mantenere elevata occupazione, a controllare l’inflazione, a sostenere la crescita
economica.
Come sopra discusso, il potere impositivo dovrebbe seguire il potere di spesa.
Questo va bene in linea di principio ma molto meno in pratica per diversi motivi, non
ultimo per la ristrettezza delle basi imponibili appropriate per essere affidate alla
397
tassazione locale. Dai confronti internazionali non sembra emergere una precisa
corrispondenza fra devoluzione delle competenze di spesa e devoluzione
dell’imposizione fiscale. Anche se negli ultimi 15 anni la quota delle entrate locali (al
netto
dei
trasferimenti
intergovernativi)
su
quelle
totali
della
pubblica
amministrazione è aumentata soltanto marginalmente nella media dei paesi Ocse, in
alcuni Paesi il peso relativo delle entrate locali si è accresciuto parallelamente ai
processi di devoluzione (Spagna, Danimarca, Italia), mentre in altri (Svezia, Norvegia
ed Austria) l’alta mobilità della base impositiva (i redditi personali) su cui si fonda il
prelievo fiscale locale ha determinato una graduale riduzione della quota delle entrate
sub-nazionali. In altri Paesi (Germania e Francia), al di là dell’aumento della
percentuale delle entrate locali, si è assistito ad una riduzione dell’autonomia
impositiva riconosciuta alle giurisdizioni locali. Anche in termini di composizione
delle entrate locali tra tributi, trasferimenti ed entrate non fiscali non è facile
riconoscere elementi comuni (vedi Figura 1a: Composizione delle entrate dei governi
sub-nazionali).
Anche se molto differenziati tra singole nazioni, i trasferimenti a favore dei
livelli di governo locale presentano nei Paesi unitari valori mediamente superiori a
quella registrata nei Paesi federali come quota delle entrate locali complessive.
Altrettanti diversificato tra Paesi è poi il ricorso a tariffe e canoni per l'utilizzo di
servizi pubblici locali.
Se poi analizziamo in maggior dettaglio, sulla base delle statistiche fiscali pubblicate
dal Fmi e dall’Ocse, le diverse tipologie di imposte che sono concretamente attribuite
ai livelli sub-nazionali, di nuovo si rileva nel confronto tra Paesi una forte
differenziazione (si veda la Figura 1b: Composizione delle entrate tributarie dei
governi sub-nazionali).
398
Figure 1a e 1b
399
Nella quasi totalità dei Paesi federali ed unitari le imposte sulla proprietà e sul
reddito (personale e societario) assicurano la quota di gran lunga più significativa dei
gettiti fiscali a livello locale. In particolare, le imposte sui redditi sono una fonte
rilevante di gettito locale nei Paesi del Nord Europa e dell’Europa centrale, in
Canada, in Giappone, negli Stati Uniti. Le imposte locali sui redditi assumono in
generale la forma di addizionali o sovrimposte su tributi gravati dal governo centrale.
Gettiti relativamente importanti sono poi offerti della tassazione locale sui consumi
che assume generalmente la forma di un’imposta monofase al dettaglio.
Tab.1 Evoluzione delle spese dei governi sub-nazionali a partire dal 1970 (% del totale dell’Amministrazion
pubblica)
1975
1980
1985
1990
1995
dato più
1970
recente
Stati federali
Germania
45
44
44
41
41
41
38 (1998)
Svizzera
56
55
53
52
50
48
47 (1999)
Austria
32
31
30
30
30
31
31 (1998)
Spagna
11
30
21
30
32 (1997)
Stati unitari
Danimarca
47
48
44
44
43
44
46 (2000)
Svezia
45
44
40
37
37
31
34 (1998)
Norvegia
40
33
32
38
33
32
33 (1997)
Finlandia
38
38
39
40
41
34
36 (1998)
Francia
17
17
16
16
18
18
17 (1997)
Italia
27
27
27
24
28 (1999)
Belgio (1)
14
12
11
11
11 (1997)
25
Olanda
27
26
23
24
22 (1997)
Regno Unito
30
30
26
24
25
22
22 (1998)
Irlanda
27
28
27
25
23
24
25 (1997)
Portogallo
7
8
8
10 (1998)
(1) Nel periodo considerato il Belgio si è trasformato da Stato unitario in Stato federale. Le statistiche
continuano a riportare i livelli di governo diversi da quello locale nell’aggregato del governo centrale.
Fonte: Imf Government Financial Statistics, 2001.
Passando ad analizzare l’attribuzione delle competenze di spesa tra i vari livelli di
governo, l’evidenza empirica suggerisce che la suddivisione delle materie di
intervento pubblico fra governo centrale e giurisdizioni locali configura un equilibrio
400
fortemente instabile, con l’alternarsi fra tendenze a riformare la forma-Stato in senso
federale e successive riforme dirette a modificare l’organizzazione delle competenze
nel senso dell’accentramento.
La Tabella 1 rivela infatti come in molti Paesi, sia federali che unitari, si sia assistito
ad una sorta di «pendolo» fra fasi di accrescimento e fasi di contrazione della quota di
spesa pubblica attivata dai livelli di governo inferiori. E’ tuttavia degno di nota il fatto
che la quota di spesa dei governi sub-nazionali si sia ridotta in alcuni Paesi a struttura
federale (Germania e Svizzera), mentre fra i Paesi a struttura unitaria lo stesso
indicatore di decentramento permanga ben al di sopra del 30% nei Paesi scandinavi,
raggiungendo il 46% in Danimarca.
Anche la scomposizione per funzioni delle spese dei governi sub-nazionali
(Tab. 2) riserva in termini comparativi un quadro assai variegato, confermando come
l’attribuzione delle varie funzioni tra governi centrale e sub-nazionali sembra
dipendere, più che da considerazioni di efficienza economica, dalle vicende storiche e
dalla struttura socio-economica dei vari Paesi. Uno dei pochi tratti riconoscibili
sembra riguardare l’istruzione, dove la quota di spesa attivata dalle giurisdizioni
locali risulta sistematicamente maggiore nei Paesi federali (spicca il caso della
Germania) rispetto ai Paesi unitari.
Significativo è poi il caso della Danimarca, dove i livelli locali di governo
controllano in misura pressoché esclusiva la spesa sanitaria. Infine, si può notare
come Francia, Norvegia ed Olanda condividano con due Paesi federali, come
Germania e Svizzera, l’attribuzione alle giurisdizioni locali di un ruolo prevalente
nell’ambito degli interventi pubblici in campo residenziale.
401
Tab. 2 Composizione delle spese dei governi sub-nazionali per funzione (% del totale dell’Amministrazione
pubblica per ciascuna funzione)
Istruzione Sanità Sicurezza Abitazioni e Ordine
Affari
Totale
sociale e
assetto
pubblico e economici
welfare
territoriale sicurezza
Stati federali
Germania (1996)
96
28
79
93
64
38
92
Svizzera (1999)
90
31
23
85
37
47
93
72
48
9
25
n.d.
31
Austria (1998)
3
Spagna (1997)
31
6
93
71
41
60
32
Stati unitari
Danimarca (2000)
46
95
55
33
13
35
46
Norvegia (1998)
63
77
19
87
17
17
34
Francia (1993)
37
2
9
82
28
18
17
Olanda (1997)
5
14
79
33
25
26
22
Regno Unito (1998)
0
20
41
67
52
29
22
Irlanda (1997)
48
6
100
22
70
70
25
Fonte: Imf Government Financial Statistics, 2001.
9.
La devoluzione dei poteri dei governi nazionali verso l’Unione Europea
I processi di unificazione dei mercati dei prodotti e dei mercati finanziari, assieme
all’unione monetaria, hanno inteso dare attuazione innanzitutto all’obiettivo di
accrescere il benessere delle popolazioni europee attraverso i guadagni di efficienza
conseguenti
all’integrazione
e
all’armonizzazione. A tale
obiettivo
si
è
progressivamente aggiunta la volontà degli Stati europei di fare fronte comune contro
la perdita di efficacia degli strumenti di intervento dei governi nell’economia
nazionale una volta che i mercati sono unificati.
La domanda che ci si può porre è se la “sostenibilità” della sfida che la
globalizzazione porta alla costruzione europea sia davvero assicurata dall’attuale
configurazione delle strutture di governance di Bruxelles e Francoforte.
L’assetto istituzionale dell’Unione Europea prevede la centralizzazione della politica
monetaria e il mantenimento della politica fiscale alla dimensione nazionale. Tale
asimmetria viene solitamente giustificata ricordando come l’obiettivo primario del
402
processo di integrazione monetaria europea sia quello di garantire in Europa la
stabilità monetaria, mentre le politiche pubbliche dovrebbero tendere al
soddisfacimento delle eterogenee preferenze dei cittadini delle diverse comunità
nazionali.
Poiché questa costruzione istituzionale è esposta all’impatto negativo che eccessivi
livelli dei deficit e dei debiti pubblici nazionali potrebbero trasmettere sul tasso di
interesse comune, il Patto di stabilità e crescita rappresenta il meccanismo di
enforcement deputato al coordinamento delle politiche fiscali nazionali verso una
condotta compatibile con l’indirizzo anti-inflazionistico della Banca centrale europea.
E’ certamente vero che il coordinamento delle politiche fiscali a fini di stabilizzazione
macroeconomica richiederebbe iniziative a livello sovra-nazionale che vanno ben
oltre l’adesione dei singoli Stati membri al Patto di stabilità e crescita, ma il
raggiungimento di questo obiettivo (per esempio, attraverso l’ampliamento del
bilancio comunitari) sembra ancora assai lontano.
L’introduzione del Patto di stabilità e crescita ha certamente portato a risultati
desiderabili, soprattutto per un Paese ad alto debito pubblico come l’Italia. A livello
europeo, il Patto di stabilità ha dimostrato di essere sufficientemente efficace e
credibile nell’evitare che singoli Paesi si comportino da free rider, evitando i
necessari aggiustamenti dei propri conti pubblici e beneficiando, al contempo, dei
vantaggi derivanti dal condividere un’area di stabilità monetaria. Per l’Italia poi il
vincolo esterno del Patto di stabilità ha rappresentato l’elemento chiave per spingere
il nostro Paese verso un processo di risanamento dei conti pubblici richiesto dal peso
preponderante del debito.
E’ vero del resto che, come è noto, l’attuale assetto dell’assegnazione delle
politiche monetaria e fiscale tra il livello comunitario e quello nazionale e la
conseguente collocazione del Patto di stabilità e crescita come snodo di questo
rapporto non è esente da critiche. L’imposizione di vincoli quantitativi ai governi
nazionali viene, ad esempio, giudicata una strategia poco attenta all’inefficienza che
spesso accompagna l’adozione di regole fisse uniformi per tutti i Paesi, quale che sia
403
la fase del ciclo attraversata da ciascuno di essi e la solvibilità fiscale di un Paese alla
luce del rapporto fra stock di debito pubblico e PIL. In particolare, il perseguimento
della riduzione del debito pubblico al 60% del PIL in 20 anni (recentemente imposta
dal Fiscal Compact che ha sostituito il PSC), generando un comune orientamento
restrittivo delle politiche fiscali nazionali, finirà per deprimere ulteriormente il livello
di domanda nell’area economica europea già fortemente ridottosi a causa della
recessione.
Tale esternalità negativa che ciascun processo di consolidamento produce a
danno di tutti gli altri Paesi dell’Unione monetaria richiederebbe un intervento
compensativo a sostegno della domanda aggregata. In altri termini, come sopra
richiamato, sarebbe auspicabile che la banca centrale europea promuovesse un
coordinamento con le politiche fiscali nazionali ed orientasse in senso espansivo la
politica monetaria sotto la condizione di una maggiore credibilità delle stance fiscali
nazionali.
L’assegnazione delle politiche fra il livello comunitario ed il livello nazionale
appare poi ancora meno convincente quando la si esamini nella prospettiva
complessiva delle politiche macroeconomiche e delle riforme microeconomiche
invocate dalla Commissione europea. In misura ancora maggiore dopo la crisi
dell’Eurozona, Bruxelles chiede ai governi nazionali più incisivi interventi diretti ad
accrescere la flessibilità del mercato del lavoro, una maggiore concorrenza nei
mercati dei beni e dei servizi di pubblica utilità ed il completamento della
liberalizzazione dei mercati dei capitali e del credito. L’obiettivo è quello di rendere
più efficiente e più rapido l’aggiustamento di mercato attraverso la variazione dei
salari e dei prezzi successivamente ad uno shock di domanda o di offerta, riducendo
così l’intervento fiscale di stabilizzazione macroeconomica al solo operare degli
stabilizzatori automatici.
Tale strategia sembra dimenticare che le riforme microeconomiche, sebbene
senza dubbio accrescano l’efficienza nel medio-lungo periodo, hanno un costo di
breve periodo. In base alla schematizzazione di politiche microeconomiche e
404
macroeconomiche per livello di governo responsabile della conduzione di tali
politiche riportata nella tabella a p.201, si osserva come le riforme invocate dalla
Commissione, anche a causa della riduzione delle rendite presenti nei mercati del
lavoro, dei beni e dei servizi, comporterebbe una minore redditività delle imprese ed
una maggiore incertezza del posto di lavoro. Tali effetti che andrebbero
controbilanciati da una politica fiscale nazionale meno vincolata dalle stringenti
regole del Fiscal Compact, e quindi maggiormente in grado di compensare i gruppi
sociali che subiscono una perdita.
Sia la questione del corretto mix fra la politica monetaria della BCE e le politiche
fiscali nazionali, sia il problema della compatibilità fra queste politiche
macroeconomiche e le riforme microeconomiche inevitabilmente si intrecciano con la
progressiva attuazione in Europa dell’organizzazione multi-livello delle politiche
pubbliche. Appare evidente che i processi di riorganizzazione in senso federale in
corso nell’Unione europea richiedono un attento bilanciamento tra devoluzione verso
l’alto e verso il basso, affinché la ripartizione dei poteri possa evolvere verso
l'efficiente svolgimento delle tre funzioni – allocativa, stabilizzatrice e redistributiva
– dell'intervento pubblico.
In definitiva, sembra che la recessione scatenata dalla crisi finanziaria stia avendo
l’effetto di destabilizzare il parallelo evolversi dei processi di decentramento
giurisdizionale - il federalismo fiscale – e dei processi di integrazione sovra-nazionale
– l’Unione Europea e l’Unione Monetaria Europea. La “sostenibilità” della
globalizzazione si è allontanata con la crescente instabilità macroeconomica innescata
dalla crisi. Il più stretto controllo che inevitabilmente la Commissione Europea e le
altre agenzie di monitoraggio dovranno esercitare sui bilanci pubblici degli Stati
nazionali sta orientando la strategia dei governi sempre più verso un accelerazione
dell’integrazione ed un freno al decentramento giurisdizionale.
405
406