The economics of anti-inflationary agreements

Transcript

The economics of anti-inflationary agreements
ECONOMIA, SOCIETA' E
ISTITUZIONI
QUADRIMESTRALE
Diretta da Paolo Savona, Fabio Gobbo e Gian Maria Gros-Pietro
Editoriale
Cristiano Perugini e Pierluigi Daddi
Il ruolo delle economie esterne nella performance competitiva dell’industria
manifatturiera italiana. Un’analisi dell’export a livello territoriale
Giuseppe Clerico
Diritti di proprietà, incentivi ed esternalità
Maria Giuseppina Bruno, Gennaro Olivieri e Alvaro Tomassetti
On the computation of convolution in actuarial problems. Some further
results
Giovanni Masala, Massimiliano Menzietti e Marco Micocci
Pricing credit derivatives with a copula-based actuarial model for credit risk
Enrico D’Elia
The economics of anti-inflationary agreements
Umberto Monarca
Regole e stabilità del sistema bancario
Giovanni Abramo e Andrea D’Angelo
Ricerca pubblica e sistemi innovativi locali: il ruolo della prossimità
geografica
Anno XVII/ n. 1 Gennaio - Aprile 2005
Luiss University Press
ECONOMIA, SOCIETA' E
ISTITUZIONI
QUADRIMESTRALE
Diretta da Paolo Savona, Fabio Gobbo
e Gian Maria Gros-Pietro
Anno XVII/ n. 1 Gennaio - Aprile 2005
Luiss University Press
ECONOMIA, SOCIETA' E
ISTITUZIONI
RIVISTA QUADRIMESTRALE DELLA LUISS GUIDO CARLI
Diretta da Paolo Savona, Fabio Gobbo e Gian Maria Gros-Pietro
Comitato Scientifico
Daniela Di Cagno
Giorgio Di Giorgio
Giuseppe Di Taranto
Paolo Garonna
Fausto Gozzi
John Hey
Fabio Neri
Gennaro Olivieri
Luciano Palermo
Pietro Reichlin
Carlo Scognamiglio
Rolando Valiani
Direttore Responsabile
Daniela Di Cagno
Sede redazionale
Luiss Guido Carli
Via Oreste Tommasini, 1- 00162 Roma
Tel. 06/85 225 744
Fax 06/85 225 513
Editore
Luiss University Press
Viale Pola, 12- 00186 Roma
Tel. 06/85 225 229
Fax 06/88 447 34
Stampa
Partenone S.r.l.
Via Leonardo Da Vinci, 285- 00145 Roma
Tel. 06/54 14 008
Finito di stampare nel mese di Luglio 2005
SOMMARIO
EDITORIALE
Fabio Gobbo, Infrastrutture, agenzie di regolazione e politica industriale
STUDI
Cristiano Perugini e Pierluigi Daddi, Il ruolo delle economie esterne nella
performance competitiva dell’industria manifatturiera italiana.
Un’analisi dell’export a livello territoriale
Giuseppe Clerico, Diritti di proprietà, incentivi ed esternalità
Maria Giuseppina Bruno, Gennaro Olivieri e Alvaro Tomassetti, On the
computation of convolution in actuarial problems. Some further results
Giovanni Masala, Massimiliano Menzietti e Marco Micocci, Pricing credit
derivatives with a copula-based actuarial model for credit risk
Enrico D’Elia, The economics of anti-inflationary agreements
Umberto Monarca, Regole e stabilità del sistema bancario
Giovanni Abramo e Andrea D’Angelo, Ricerca pubblica e sistemi
innovativi locali: il ruolo della prossimità geografica
INFRASTRUTTURE, AGENZIE DI REGOLAZIONE E POLITICA
INDUSTRIALE*
Le recenti e crescenti difficoltà dell’economia italiana (e non solo)
impongono di ripensare ad alcuni dei più tradizionali strumenti di intervento
pubblico che, forse troppo frettolosamente, sono stati abbandonati a favore di
una visione totalizzante che ha spesso portato a confondere il mercato con la
concorrenza, l’impresa con l’efficienza.
Così, a fronte delle numerose difficoltà e degli esiti alterni riscontrati nel
raggiungimento delle finalità alla base della politica industriale si è
gradualmente affermata, nel corso degli ultimi quindici anni, la tendenza a
rifugiarsi in misura sempre maggiore nel “mercato” con l’idea che questo
costituisse lo strumento più efficace di “governo dell’economia”.
Questo orientamento “al mercato” si è andato concretizzando:
• nella progressiva diminuzione del peso del ruolo pubblico nel tessuto
industriale (attraverso un atteggiamento ostile nei confronti degli aiuti
di Stato);
• nella graduale riduzione della gestione diretta dei servizi
infrastrutturali (attraverso le privatizzazioni);
• nell’introduzione di forme di concorrenza per il mercato tramite estese
politiche di liberalizzazione.
In particolare, per quei servizi considerati essenziali per la competitività e
lo sviluppo del sistema economico, nonché per la qualità della vita dei singoli
cittadini (come trasporti, energia e comunicazioni) il graduale arretramento
del “pubblico” nella gestione diretta è avvenuto nel presupposto che il
monopolio verticalmente integrato e la gestione centralizzata da parte delle
autorità pubbliche generassero un elevato grado di inefficienza che, a sua
volta, si traduceva in maggiori tariffe finali e livelli inferiori di qualità del
servizio. L’obiettivo di riduzione dei prezzi così come il raggiungimento di
livelli qualitativi di offerta superiori avrebbe consentito una maggiore
competitività dell’intero tessuto industriale europeo in un’arena
concorrenziale che andava progressivamente ridefinendosi.
Ad oggi, le esperienze intraprese in ambito nazionale e comunitario
suggeriscono che, in molti casi, i benefici derivati dalle politiche di
*
Riprendo qui alcune delle considerazioni presentate in occasione dell’annuale workshop della
Società Italiana di Economia e Politica Industriale (SIEPI) che si è tenuto a Napoli il 27 e 28
gennaio 2005. L’articolo da cui è stato tratto l’intervento, scritto in collaborazione con
C. Pozzi, è in corso di pubblicazione su Economia e Politica Industriale.
1
liberalizzazione non sono sempre coincisi con quelli all’inizio sperati. La
creazione di un sistema di regole capace di promuovere il mercato ed
indirizzare le scelte spontanee degli operatori verso gli esiti desiderati in
termini di benessere sociale si è rilevato un compito assai arduo, soprattutto
per la difficoltà di individuare, all’interno di un sistema di concorrenza
strumentale, un corretto equilibrio fra interessi privati di massimizzazione dei
profitti e di crescita dimensionale ed interessi della collettività e del sistema
economico nel suo complesso.
Al di là delle specificità dei singoli settori, le difficoltà più evidenti sono
negli aspetti relativi agli investimenti in infrastrutture dove tradizionalmente,
almeno nel nostro Paese, è stata rilevante se non esclusiva la presenza dello
Stato.
L’adozione di una logica di mercato ha infatti inciso profondamente sulle
decisioni di investimento in infrastrutture con il risultato di non riuscire a
sostituire efficacemente quelle funzioni di politica industriale e di stimolo
allo sviluppo ed alla competitività del sistema economico tradizionalmente
insite nelle politiche infrastrutturali. Non vi è dubbio, infatti, che un’adeguata
dotazione di infrastrutture di rete, così come una loro efficiente gestione in
termini di trasparenza e non discriminazione nell’accesso, costituisca una
risorsa essenziale attraverso cui assicurare un’efficiente movimentazione
delle merci, delle persone, dei dati e delle informazioni, oltre che il
presupposto per la fornitura di servizi essenziali per lo svolgimento
dell’attività di impresa.
La scelta del mercato quale principale canale di finanziamento presenta
numerosi vantaggi, ma anche evidenti criticità associate in particolare alla
maggiore propensione del mercato stesso verso orizzonti temporali e obiettivi
reddituali di breve periodo che può condurre a trascurare scelte strategiche e
di investimento i cui ritorni possono essere visibili solo dopo numerosi anni.
L’affermarsi di questa logica in settori che operano su orizzonti temporali
molto lunghi, come in generale tutte le reti infrastrutturali, porta con sé il
rischio di ignorare la rilevanza politica e strategica degli obiettivi di lungo
periodo rispetto sia alla dotazione ed alla manutenzione delle infrastrutture di
rete (“hardware” del sistema) che alla loro gestione tecnica e regolazione
(“software” del sistema). Questo rischio si è puntualmente realizzato in tutti i
paesi ed in misura più o meno ampia in tutti i settori a rete oggetto di
liberalizzazione e di ristrutturazione.
Il settore delle telecomunicazioni che pur rappresenta, secondo
un’opinione largamente condivisa, quello dove maggiori sarebbero stati i
benefici derivati dai processi di liberalizzazione non costituisce certamente
un’eccezione nonostante in esso non solo sia stato possibile promuovere la
competizione in quei segmenti della filiera privi di condizioni di monopolio
naturale, ma si sia anche riusciti ad avviare forme di concorrenza fra reti.
2
Nonostante ciò i meccanismi di mercato hanno portato a privilegiare
scelte di breve periodo premiando spesso soluzioni di investimento e
tecnologie caratterizzate da una bassa rischiosità economica o trainate
principalmente dalla domanda. Solo in questi termini è possibile spiegare la
volontà di trarre massimo beneficio economico dall’infrastruttura analogica
esistente (ADSL) a scapito della diffusione delle tecnologie a larga banda
potenzialmente in grado di fornire in un futuro non troppo lontano servizi di
trasferimento dei dati e delle informazioni a livelli qualitativi di molto
superiori.
D’altro canto, perplessità simili sorgono in presenza di decisioni
d’investimento in infrastrutture mirate alle sole zone geografiche in grado di
assicurare, per densità di domanda, ritorni economici immediati
assolutamente coerenti in una logica di mercato ma certo assai distanti dai
tradizionali aspetti di politica industriale legati allo sviluppo e al rilancio di
specifiche aree.
Se il risultato complessivo delle liberalizzazioni nel settore delle
telecomunicazioni presenta qualche elemento di criticità, maggiori sono, ad
esempio, le problematiche delle reti di trasporto e di quelle energetiche.
La liberalizzazione del settore dei trasporti ferroviari inglesi è stata
ampiamente dibattuta come uno dei casi più evidenti di fallimento, tanto da
essere rimasta nei fatti incompiuta. La scomposizione e la frammentazione
verticale delle attività in cui si articola il servizio nonché l’affidamento della
gestione dell’infrastruttura ferroviaria al settore privato hanno, da un lato,
accresciuto la complessità insita nella necessità di contemperare gli interessi
di un numero crescente di soggetti e, dall’altro, progressivamente
disincentivato gli investimenti di lungo periodo nella rete sia con riferimento
alla dotazione complessiva che in relazione al mantenimento della corretta
operatività dell’infrastruttura esistente.
La spinta all’efficienza si è, infatti, quasi prevalentemente indirizzata
verso l’ottenimento di risparmi di costo nelle spese per manutenzione e nei
costi del personale, con una conseguente e diretta diminuzione della qualità
delle infrastrutture e della professionalità degli addetti impegnati
nell’erogazione del servizio. L’insieme di questi fattori ha progressivamente
causato un abbattimento dei livelli qualitativi – specie con riferimento alla
puntualità – e della sicurezza complessiva del trasporto ferroviario britannico.
Tutto ciò peraltro non ha contribuito né alla redditività dell’impresa che
gestiva la rete di trasporto, con la conseguenza che in assenza di un
intervento di sostegno da parte del governo inglese questa sarebbe
inevitabilmente fallita, né ha contribuito a ridurre i sussidi complessivamente
erogati all’industria ferroviaria che sono al contrario aumentati nelle fasi
successive alla liberalizzazione per poi ridursi solo gradualmente.
In larga parte analoghe a quelle del settore dei trasporti sono state le
problematiche riscontrate nei mercati elettrici liberalizzati con esiti
3
tristemente convergenti quanto a decremento del livello qualitativo del
servizio conseguenza di un ammontare insufficiente di investimenti in
capacità produttiva e in infrastrutture di trasmissione, oltre che di una loro
approssimativa gestione. I black-out verificatisi alla fine dell’estate del 2003
in numerosi Paesi europei (e negli Stati Uniti) hanno costituito nella loro
strana coincidenza temporale un evidente campanello d’allarme in un
contesto in cui sembrava riconoscersi su più fronti la rilevanza delle reti
elettriche nella competitività per il sistema delle imprese, direttamente in
termini di minori costi e di maggiore qualità del servizio ed indirettamente
come presupposto per un tessuto produttivo più efficiente. Nel nostro Paese,
poi, la commistione di ruoli e competenze fra i diversi attori istituzionali –
acuite peraltro dalla riforma costituzionale – e i tentennamenti che hanno
contraddistinto il processo di riforma hanno contribuito ulteriormente ad una
progressiva perdita della dimensione strategica ed istituzionale delle
problematiche di investimento in infrastrutture energetiche. La conseguenza,
nelle fasi successive alla riforma del settore elettrico italiano, è stata di un
deciso crollo degli investimenti nelle reti di trasmissione dell’energia
elettrica. Né questo ha comportato maggiori risorse dedicate alla ricerca e
allo sviluppo di tecnologie produttive maggiormente compatibili con gli
obiettivi di sostenibilità ambientale.
Al contrario le risorse così “risparmiate” sono state convogliate verso
strategie multiutility e a distribuzioni di dividendi certamente graditi non solo
dal Tesoro italiano, ma anche da molti investitori istituzionali esteri. A questo
proposito appare lecito domandarsi in che misura i buoni risultati conseguiti
da numerose utility, incumbent nei rispettivi mercati, sia conseguenza di una
più efficiente gestione o il frutto del permanere del “potere monopolistico” in
capo a tali soggetti o, ancora, se non fosse stato forse più corretto che di tali
risultati avessero beneficiato non solo gli shareholders (in molti casi, come
detto, ancora pubblici, ma anche privati e stranieri), ma anche tutti gli
stakeholders, ovvero gli utenti, privati o imprese, dei servizi in questione.
Alla luce di queste riflessioni le tematiche dello sviluppo e della gestione
delle infrastrutture necessitano un complessivo ripensamento nella direzione
di recuperare la visione politica e strategica insita nella loro natura attraverso
la definizione di percorsi di sviluppo che siano in grado di promuovere la
presenza di un’adeguata dotazione infrastrutturale – ed il suo mantenimento
attraverso interventi di manutenzione – in modo da massimizzare i benefici di
lungo periodo del sistema economico e sostenere uno sviluppo competitivo
ed equilibrato dei mercati. Questo può benissimo avvenire senza un ritorno al
pubblico, ma chiarendo fino in fondo ruoli e competenze delle varie
istituzioni che debbono cooperare per lo sviluppo dei sistemi infrastrutturali,
condizione necessaria ancorché non sufficiente ad ogni progresso sociale ed
economico.
4
Una dimensione importante di queste problematiche è dunque quella
dell’assetto istituzionale cui si è scelto di affidare la gestione delle
infrastrutture a rete in un contesto che, come appena osservato, rimane ancora
caratterizzato dalla presenza di imprese che hanno ereditato in tutto od in
parte il precedente potere di monopolio.
È quindi utile riflettere brevemente sul modello delle Autorità di
regolazione che sono il naturale completamento, sotto il profilo istituzionale,
della ridefinizione delle politiche di intervento nell’economia e del ruolo
dello Stato regolatore e che hanno trovato, anche sotto la spinta comunitaria,
una rapida diffusione proprio nei settori caratterizzati dalla presenza di
infrastrutture di rete.
Senza addentrarci nel dibattito sul loro ruolo e sulle loro funzioni
possiamo limitarci ad osservare come la “indipendenza” di queste Autorità di
regolazione (Agenzie come sarebbe più corretto chiamarle) dovrebbe trovare
un naturale limite nel ruolo assunto dalla regolazione economica come
strumento per il conseguimento degli obiettivi di competitività e sviluppo del
sistema economico generale, soprattutto alla luce dell’assorbimento nella
sfera comunitaria di molte delle tradizionali politiche strutturali e
dell’affermarsi di un orientamento sfavorevole nei confronti delle forme più o
meno dirette di promozione industriale.
In tal senso, l’indipendenza deve essere interpretata soprattutto come
autonomia, oltre che dai soggetti regolati, nella scelta degli strumenti più
idonei al raggiungimento delle finalità cui l’intervento regolatorio è
indirizzato e non già un valore assoluto. La responsabilità di definire gli
obiettivi dell’intervento non può al contrario essere basata su considerazioni
tecnocratiche, ma deve invece rimanere politica dato che le scelte effettuate
incidono sul benessere collettivo (ad esempio la distribuzione del reddito).
Da questa visione della regolazione economica (e finanziaria) non può
quindi risultare escluso il potere politico come soggetto istituzionale
depositario dell’interesse collettivo legittimato dal circuito democratico. In
buona sostanza le Agenzie non possono assorbire competenze di politica
industriale: è il Governo che è chiamato necessariamente a definire un
disegno di policy complessivo entro cui vanno ricondotte decisioni di
regolazione destinate, come appena evidenziato, ad incidere profondamente
sull’economia reale e sul benessere della collettività.
L’assoggettamento delle Agenzie ad un indirizzo politico comporta,
tuttavia, una diretta e non sempre gradita assunzione di responsabilità nei
confronti del loro operato. Ciò nonostante è necessario agire sulla loro
capacità di individuare e perseguire interessi di carattere generale
identificando canali opportuni attraverso cui esse possano essere rese più
sensibili alle esigenze provenienti, di volta in volta, dal dibattito politico. Del
resto, questa indicazione trova riflesso anche dall’esperienza comunitaria
nella quale tutto viene ricondotto alla decisione della Commissione in modo
5
analogo a quanto avviene, in ultima analisi, nella realtà inglese, tedesca e
francese.
Da quanto osservato discende l’esigenza di una maggiore consapevolezza
delle debacle che anche la logica delle liberalizzazioni può conoscere e che il
tecnocrate più capace ed onesto non è comunque un soggetto politicamente
legittimato ad assumere le decisioni proprie di un Governo, che non siano,
logicamente, quelle che attengono specificatamente alla Costituzione ed al
Parlamento.
L’incapacità di governare in un’ottica di lungo periodo l’evoluzione degli
investimenti di rilevanza sociale ed infrastrutturale e le difficoltà di
ricondurre il sistema delle “politiche economiche” ad una chiara
responsabilità “politica” (fatto le cui conseguenze non si esauriscono in un
innocuo paradosso linguistico), tuttavia, non rappresentano gli unici problemi
della “filosofia imitativa di intervento” adottata in sede comunitaria con una
definizione delle principali linee di politica industriale da follower degli Stati
Uniti come più approfonditamente cerco di illustrare nell’articolo in corso di
pubblicazione su Economia e Politica Industriale.
Sullo sfondo riposa una questione basilare, ma che ha fatto sinora fatica a
trovare una sua compiuta rappresentazione. A dispetto di quelle che erano le
più diffuse aspettative solo alcuni anni fa, la storia recente ha dimostrato che
il semplice paradigma della concorrenza non è sufficiente a fornire lo stimolo
necessario a superare periodi di crisi con le caratteristiche che hanno
contraddistinto i nostri sistemi economici negli ultimi anni.
Servono quindi delle politiche attive, che vanno perciò recuperate dal
“limbo” nel quale sono state abbandonate durante quest’ultima fase della
nostra storia.
Tutto ciò non per negare la rilevanza della più recente strategia per
l’industria, ma per sostenere che essa si sarebbe dovuta aggiungere alla
precedente senza pensare di sostituirla. Attraverso una più attenta riflessione
sui concetti di mercato e concorrenza si può osservare, infatti, come la
politica industriale, quella della concorrenza e le liberalizzazioni non si
escludono a vicenda, ma possono e debbono concorrere all’obiettivo comune
dello sviluppo sociale ed economico.
Un mix sapiente di politica industriale e della concorrenza basato anche su
una diffusa liberalizzazione delle infrastrutture all’interno di un preciso
quadro di riferimento istituzionale applicato in modo trasparente, corretto e
rispettoso dei ruoli da tutti gli interpreti della vicenda politica ed economica
può fornire la chiave di volta per delle soluzioni che possono incidere
positivamente su uno sviluppo equilibrato del Paese.
Fabio Gobbo
6
IL RUOLO DELLE ECONOMIE ESTERNE NELLA PERFORMANCE
COMPETITIVA DELL’INDUSTRIA MANIFATTURIERA ITALIANA.
UN’ANALISI DELL’EXPORT A LIVELLO TERRITORIALE
Cristiano Perugini* e Pierluigi Daddi°
JEL Classification: R12, L2
Keywords: economie esterne, export performance, sistemi di produzione
locale
1. Introduzione
Questo lavoro intende offrire un contributo all’analisi delle posizioni
competitive delle imprese minori, in relazione ai sistemi di produzione locale
nei quali esse si presentano aggregate ed ai contesti territoriali in cui operano.
Il tema è di importanza centrale dal momento che tende a considerare uno
degli elementi decisivi alla base delle teorie cosiddette liberiste (i vantaggi
dell’allargamento dei mercati), ma in un’ottica non strettamente economica,
quanto allargata ad aspetti di natura istituzionale, sociale, organizzativa.
Il riferimento teorico ed empirico della ricerca è un modello di sviluppo,
quello italiano, alla base del quale stanno imprese piccole e medie la cui forza
competitiva risiede nel saper raggiungere una efficiente massa critica di
fattori di vantaggio attraverso innovazioni di carattere organizzativo esterno
(sistemi d’impresa, reti d’impresa) che ne esaltano le performance al di là di
quelli che sarebbero i limiti propri di ogni singola unità.
Lo studio si propone di indagare le caratteristiche organizzative e le
performance esportative delle industrie all’interno dei luoghi economici che
compongono l’economia italiana, utilizzando una base dati in grado di tenere
conto dell’effettiva articolazione territoriale dei fenomeni economici (dati
relativi all’export dell’industria manifatturiera sulla base dei sistemi locali del
lavoro).
Il lavoro è organizzato come segue. Nella sezione due sono delineati
alcuni elementi di natura teorica circa le possibili determinanti locali della
competitività delle imprese, cioè i fattori di vantaggio competitivo che esse
possono attingere dai contesti socio-economici in cui operano. Nella sezione
seguente (tre), ricostruendo i contributi principali della letteratura esistente,
tali elementi sono riconsiderati in riferimento alla competitività delle imprese
*
Dipartimento di Economia, Università di Perugia, Via Pascoli, 20, 06123 Perugia
([email protected])
°
Dipartimento di Statistica, Università di Perugia, Via Pascoli, 20, 06123 Perugia
([email protected])
9
a livello internazionale. Il paragrafo quattro è dedicato all’illustrazione delle
ipotesi di lavoro, delle caratteristiche del database, della metodologia di stima
dei modelli econometrici e dei risultati dell’analisi empirica che identifica
l’importanza degli assetti strutturali ed organizzativi locali alla base della
performance esportativa dei diversi territori. La sezione finale (cinque)
riassume i risultati dello studio e traccia alcune considerazioni di sintesi.
2. La dimensione locale della competitività
Le caratteristiche strutturali dell’apparato produttivo manifatturiero
italiano, in larghissima parte costituito di medie e piccole imprese, insieme
alla loro prevalente specializzazione nei settori “tradizionali”, hanno
storicamente rappresentato un vivace punto di discussione teorico tra gli
economisti. Da una parte, come ricorda Bronzini (2000), coloro che in
aderenza all’impostazione teorica dominante più strettamente agganciata al
paradigma neoclassico, consideravano (e ad oggi considerano) questi due
caratteri come fattori di debolezza per la competitività del sistema produttivo
nazionale, anche a livello internazionale: in virtù sia della crescente
concorrenza esercitata dai paesi emergenti sui mercati dei prodotti
tradizionali, sia dell’incapacità delle imprese di più piccole dimensioni di
appropriarsi di quelle economie di scala (interne) che consentono di
strutturare vantaggi competitivi in termini di minori costi o maggiori capacità
di innovazione e differenziazione. In altre parole, l’incapacità delle imprese
di accrescersi per vie interne (integrazione verticale) rappresenterebbe un
limite ed un vincolo alle loro capacità competitive, specie sui mercati
internazionali di certi prodotti, con gli assetti più strettamente concorrenziali.
Dall’altra, pur senza il conforto di una costruzione teorica tanto
largamente condivisa, ma con il sostegno “dei fatti che disobbediscono alla
teoria”, ossia del made in Italy1 che per decenni paga i conti con l’estero
dell’Italia compensando le indispensabili importazioni di fonti energetiche
(Becattini, 2000a, p. 111), prende forma un corpo di teorie, oggi
articolatissimo, che pur ammettendo alcuni fattori di svantaggio derivanti
dalla ridotta dimensione d’impresa, ne sottolinea, date certe condizioni, le
migliori capacità competitive sostanzialmente sulla base dell’esistenza di una
serie di economie esterne (all’impresa ma interne al sistema locale di
produzione o al sistema locale). In altre parole, superando la tradizionale
1
Con questa espressione si intende solitamente riferirsi al complesso di prodotti dei settori che
sono generalmente associati all’immagine dell’Italia, tra cui prodotti per la cura della persona
(abiti, gioielli, calzature, accessori, etc.); beni per l’arredo-casa (mobili, piastrelle, arredi, etc.);
beni alimentari tradizionalmente associati alla dieta mediterranea (vino, olio, pasta, formaggi).
A questi prodotti possono essere aggiunti quelli strumentali e collaterali (macchinari ed
accessori per la loro produzione) e la meccanica tradizionale.
10
concezione dell’impresa singola, che si accresce fondamentalmente per vie
interne, il cui processo produttivo si risolve completamente dentro l’impresa,
ed i cui risultati dipendono unicamente dalle decisioni organizzative
dell’imprenditore (Becattini 2000b, p. 79), l’impresa viene invece
rappresentata come parte di un sistema socio-economico locale con il quale
interagisce e da cui può attingere input produttivi materiali ed immateriali
peculiari ed irripetibili, in quanto frutto del percorso di sviluppo sociale,
economico, istituzionale, che configura quel determinato territorio. E’
pertanto proprio la conformazione (in senso non solo fisico, naturalmente) del
contesto in cui avviene la produzione che può essere esplicativa di alcune
forme di vantaggio competitivo di cui godono le unità di produzione che vi
sono localizzate. Che nel caso di territori con forti densità relazionali e cioè
con rilevanti caratteri sistemici, si configurano come economie esterne tra
cui, come ricordano recentemente Becattini e Musotti (2003) con riferimento
al caso dei distretti industriali: economie esterne di organizzazione che
favoriscono scomposizione e ricomposizione a livello di sistema del processo
produttivo e di alcune funzioni aziendali, garantendo al contempo i vantaggi
della forte specializzazione e della complessiva flessibilità; di conoscenza
(contestuale) e apprendimento, in grado di favorire le diverse forme di
innovazione tecnologica garantendo per un verso o per l’altro (riduzione dei
costi di produzione o differenziazione) il mantenimento del vantaggio
competitivo2; di concentrazione (in fase di acquisizione di input intermedi);
di addestramento, non solo in relazione ai vantaggi della specializzazione
della manodopera, ma più in generale riferite all’atmosfera umana e sociale
locale (attitudine imprenditoriale, ad esempio); di transazione, cioè relative
alla fluidità di circolazione delle informazioni che incide sui costi d’uso del
mercato; di adattamento alla realtà, che implicano la disponibilità, più o
meno consapevole, da parte degli attori privati e pubblici del distretto, a farsi
carico degli oneri che l’appartenenza ad esso e la sua riproduzione
comportano.
Naturalmente, uscendo dal caso istruttivo, ma particolare, del distretto
industriale, sbiadisce o scompare l’esistenza di certi tipi di economie e ne
emergono altre, a seconda delle caratteristiche umane, sociali, istituzionali e
produttive del sistema locale sotto osservazione. Che, di volta in volta, si
possono combinare con i tradizionali fattori portatori di vantaggi competitivi
interni all’impresa (economie di scala con le relative conseguenze) o via via
evidenziati dalle teorie sulla localizzazione industriale (Del Colle – Esposito,
2000).
2
Si tratta delle cosiddette economie dinamiche di apprendimento che garantiscono alle piccole
imprese distrettuali di compensare lo svantaggio nei confronti della grande impresa in termini
di economie di scala di tipo statico.
11
La storia economica italiana, specie dal secondo dopoguerra in avanti,
insegna l’esistenza e la rilevanza di una moltitudine di virtuosi percorsi locali
di sviluppo, differenziati sulla base delle caratteristiche peculiari dei luoghi in
cui avviene la produzione e capaci di determinare posizioni competitive in
molti casi spese efficacemente soprattutto a livello internazionale. In generale
facendo leva sulla tendenza della domanda alla differenziazione, fino alla
“personalizzazione”, dei prodotti che soddisfano “grappoli di bisogni”
sempre più diversificati ed articolati. Poggiando su quei fattori (del
complesso di quelli che compongono il vantaggio competitivo) più
difficilmente riproducibili, perché legati al territorio di cui si è parte (Brunori,
1999): conoscenze tacite-contestuali (Nonaka et al., 2000); bassi costi d’uso
del mercato legati a rapporti fiduciari; riproduzione/conservazione della
reputazione collettiva del luogo che evoca certe caratteristiche qualitative dei
prodotti (si pensi al caso delle produzioni agro-alimentari tipiche); dinamiche
coesistenti di concorrenza/cooperazione; assetti istituzionali peculiari; e, via
via, tutti quei fattori da cui si può trarre vantaggio solo appartenendo a quel
sistema locale.
Da tutto questo discende che, se si vuole realmente ricostruire uno o più
aspetti della dimensione competitiva di un’industria, necessariamente occorre
corredare l’analisi di una dimensione territoriale adeguata, capace almeno di
individuare l’appartenenza o meno degli attori sotto osservazione a diversi
contesti socio-economico-istituzionali.
Questo implica conseguenze rilevanti a livello metodologico, con
riferimento al problema dell’adeguatezza dei confini spaziali-amministrativi a
descrivere l’effettiva conformazione territoriale dei fenomeni economici.
Problema affrontato negli anni attraverso la suddivisione del territorio
italiano in Sistemi Locali del Lavoro (Istat, 1997), largamente collaudati
ormai in letteratura come la migliore approssimazione empirica
dell’articolazione territoriale dell’economia e della società italiana.
3. Determinanti della competitività sui mercati internazionali e ruolo
delle economie di agglomerazione
Una delle caratteristiche microeconomiche delle imprese più
frequentemente associate alla performance esportativa è la dimensione
aziendale. Sebbene il vincolo dimensionale sia considerato, per l’attività di
export, meno stringente rispetto ad altre forme di internazionalizzazione
(investimenti diretti all’estero, joint ventures, accordi internazionali)
(Sterlacchini, 2001), esso è comunque spesso collegato al vantaggio conferito
da economie di scala nella produzione, al maggiore e migliore utilizzo di
management specializzato, alla possibilità di eseguire attività di ricerca e
sviluppo, alla capacità di attivare i necessari canali di finanziamento, di
12
strutturare funzioni aziendali proprie di marketing e vendite, alla maggiore
possibilità di sopportare i rischi della presenza sui mercati internazionali
(Wagner, 1995). Altri studi rilevano invece, per diverse ragioni, l’ambiguità
delle relazioni tra export e dimensione: in presenza di un potere di mercato a
livello domestico, ad esempio, le imprese più grandi possono avere minori
incentivi ad esportare sui mercati più concorrenziali, mentre quelle di piccole
dimensioni sono obbligate ad esportare per ridurre costi medi e innalzare i
profitti (Sterlacchini, 2001). Altri autori identificano una relazione ad U
invertita tra dimensione e performance dell’export, proponendo, di fatto,
l’esistenza una soglia dimensionale massima per l’attività di esportazione
(Lefebvre et al., 1998; Sterlacchini, 1999, Bonaccorsi, 1992).
I legami tra le caratteristiche dimensionali, ma anche quelle organizzative
interaziendali, e performance dell’export si differenziano poi a seconda del
settore industriale di appartenenza dell’impresa; sia perché i caratteri
strutturali settoriali influenzano in maniera decisiva la possibilità di
strutturare (e l’efficacia di) forme produttive ed organizzative peculiari
(Becattini – Menghinello, 1998); sia per effetto di alcune caratteristiche
specifiche dei diversi comparti in particolare relative al ruolo del
cambiamento tecnologico (Pavitt, 1984). Altro fattore questo (cambiamento
tecnologico e capacità di innovazione) che ricopre un ruolo decisivo sia a
livello macro (l’innovazione assicura a paesi ed industrie posizioni di
vantaggio meno erodibili di quelle basate su bassi costi unitari del lavoro)3
che micro nella spiegazione della diversità delle posizioni competitive sui
mercati internazionali.
Gli aspetti appena decritti sinteticamente (caratteristiche dimensionali e
specializzazioni settoriali) ed i loro legami con le capacità competitive delle
imprese trovano ulteriore considerazione all’interno di un filone di ricerca
ben definito, che tende ad esaltare il ruolo di forme organizzative
3
Proprio questo elemento ha storicamente conferito forza a coloro che hanno affermato la
debolezza della posizione competitiva dell’Italia, fondata su (Imbriani, 1991, p.25):
1. specializzazione settoriale con chiara prevalenza di beni di consumo tradizionali;
2. specializzazione nei settori a tecnologia matura e debole posizione nei settori
tecnologicamente innovativi e nei settori intermedi.
Caratteristiche inusuali per i paesi industrializzati e considerate come fattori di debolezza
proprio perché, nell’ottica dei modelli neotecnologici del commercio internazionale (Imbriani,
1991, p. 31), i paesi industrializzati possono conseguire un vantaggio comparato solo nei settori
tecnologicamente avanzati ed innovativi, dato il loro elevato livello di costo del lavoro. I PVS,
al contrario, per il basso costo del lavoro, godono di un vantaggio comparato nella produzione
di beni a tecnologia matura e nei settori di consumo tradizionali. Inoltre le stesse teorie
evidenziano come nei settori tecnologicamente innovativi la domanda sia più sostenuta e i
mercati più suscettibili di ampliamento. Più recentemente ad esempio Becattini e Menghinello
(1998) affrontano questo tema soffermandosi e precisando il significato e le caratteristiche
settoriali delle esportazioni italiane. Su questo tema si può inoltre far riferimento a Viesti
(1997).
13
(localizzate) peculiari in grado di produrre vantaggi competitivi diffusi per
l’esistenza di economie esterne di agglomerazione. Si colloca in questo
ambito il nutrito gruppo di ricerche che investigano i legami tra export
performance (o probabilità di export) e appartenenza dell’impresa a sistemi di
produzione distrettuali (Bagella et al., 1998 e 2000; Becchetti – Rossi, 2000;
Sacchi, 2000; Bronzini, 2000; Gola – Mori, 2000, Bagella – Becchetti, 2000;
Becchetti et al., 2003)4.
Oltre a quelle forme di economie esterne richiamate in precedenza (par.
2)5, capaci di garantire in generale posizioni competitive, i contributi della
letteratura si concentrano su alcune condizioni favorevoli ad una elevata
propensione all’export specifiche delle concentrazioni di imprese con elevati
tratti sistemici. In particolare, per effetto di una maggiore attitudine a
cooperare nella produzione di servizi all’export6 (Bagella et al., 1998 e 2000,
Becchetti-Rossi, 2000) e per le caratteristiche, tipicamente distrettuali, di
facilità ed efficienza di circolazione delle informazioni sui mercati
internazionali; dinamiche cooperative che sono anche spiegate (Bagella et al.,
1998, p.127; Bagella – Becchetti, 2000) a partire dalla loro configurazione
come giochi con effetti superadditivi (se le dimensioni del mercato sono
grandi relativamente alla capacità produttiva delle imprese esportatrici)7.
Becchetti e Rossi (2000) mostrano addirittura come l’effetto positivo di tali
4
Becattini e Musotti (2003) ricostruiscono criticamente il notevole sforzo di ricerca profuso
dal Centro Studi della Banca d’Italia (e culminato in Signorini, 2000) sull’identificazione,
anche a livello empirico, del cosiddetto “effetto distretto”, distinguendo sostanzialmente tre
ambiti in cui esso può assumere rilievo: l’efficienza e la produttività delle imprese distrettuali,
la loro competitività a livello internazionale, il “cosiddetto” mercato del lavoro. Una
successiva stagione di ricerche sui temi dello sviluppo locale si è concretizzata in Banca d’Itala
(2004).
5
Per la collocazione specifica di tali tematiche all’interno di studi relativi al commercio
internazionale si può vedere, ad esempio, Menghinello (2002), Istat (2002), Viesti (1993,
1995, 1997), Conti – Menghinello (1995, 2000, 2003), Crestanello – Menghinello (2001),
Bronzini (2000), Becattini – Menghinello (1998), Gola e Mori (2000). Naturalmente, un
riferimento fondamentale per la tematica delle economie esterne anche legate alla
concentrazione industriale, al commercio e alla specializzazione internazionale è Krugman
(1991).
6
Come ad esempio l’acquisizione delle informazioni per l’accesso ai mercati internazionali o
l’organizzazione delle vendite all’estero.
7
Ossia si assume che, ad esempio nell’ambito di cooperazione per lo scambio di servizi
organizzativi ed informativi, “l’effort di un agente genera effetti non negativi sui payoff degli
altri agenti del distretto. Tali effetti saranno tanto maggiori quanto maggiore è la contiguità
geografica tra gli agenti, in quanto quest’ultima aumenta l’appropriabilità, attraverso scambi
formali o informali, delle informazioni risultanti dall’effort del singolo agente. L’equilibrio del
gioco sarà sempre quello in cui gli agenti scelgono di impegnarsi nell’attività di
organizzazione e di informazione e, a seguito di ciò, il risultato complessivo in termini di
performance esportativa sarà superiore a quello delle imprese isolate” (Bagella – Becchetti,
2000, p.190).
14
economie esterne sia visibile sopratutto sui mercati internazionali di più
difficile accesso, sia proprio dei settori tradizionali in cui la complementarietà
tra le imprese può giocare un ruolo decisivo, e mostri correlazione inversa
con la dimensione media delle imprese, tendendo così a compensare fattori di
vantaggio competitivo interno tipici delle imprese maggiori (acquisito ad
esempio attraverso la strutturazione di divisioni aziendali finalizzate
all’export). Sacchi (2000) sottolinea come la cooperazione che è probabile
derivi da fenomeni di agglomerazione produce il duplice effetto di permettere
alle imprese di godere delle esternalità positive legate agli spillovers
(informativi), ma anche di sbarazzarsi di quelle negative (a livello di sistema
di produzione locale) legate alla duplicazione di costi dei servizi all’export.
4. L’analisi empirica: ipotesi di lavoro, dati, metodologia, risultati
4.1. Le ipotesi di lavoro
Le ipotesi di lavoro che si intendono considerare ai fini dell’analisi
empirica condotta nel seguito del lavoro discendono dalle tematiche finora
descritte e ruotano in misura considerevole intorno alla dimensione
competitiva collegata alla presenza di economie esterne (all’impresa, ma
interne al sistema locale) legate al fenomeno della agglomerazione
industriale. L’idea di base è quindi di verificare l’ipotesi che, almeno in certi
comparti produttivi, l’esistenza e la forza di sistemi produttivi localizzati
conferisca alle imprese che li compongono vantaggi spendibili anche sui
mercati internazionali ad alto grado di concorrenzialità.
La traduzione empirica di questa ipotesi poggia su alcuni passaggi volti ad
identificare: (i) le corrette unità analitiche territoriali di riferimento; (ii)
l’indicatore di performance adeguato a descrivere la competitività dei diversi
contesti; (iii) le tipologie di economie esterne di cui si può avvalere
un’impresa manifatturiera e gli indicatori in grado di tradurle empiricamente.
Da primo punto di vista, porre il ragionamento in termini mesoeconomici
(superando quindi la prospettiva micro, ma senza sconfinare in quella macro)
pone immediatamente il problema della giusta distanza di osservazione del
fenomeno. La consapevolezza dell’estrema differenziazione territoriale
dell’economia italiana impone infatti la necessità di considerare unità
territoriali di riferimento coerenti con una concezione dell’economia e della
società articolata in luoghi, in grado di superare le rigidità imposte dalle
suddivisioni spaziali-amministrative. Su queste basi si opta per l’utilizzo un
dataset ISTAT di recente pubblicazione (par. 4.2), che consente la
considerazione dei flussi di esportazione (riferiti al 1996) per Sistemi Locali
del Lavoro (SLL) ad un dettaglio settoriale (sottosezioni Ateco 91) se non
15
ottimale sicuramente adeguato ai fini di questa analisi. Il SLL (Istat, 1997)8
approssima infatti i confini di un ambiente fisico che contiene in misura
significativa le relazioni economiche e sociali (quindi anche culturali,
politiche, etc.) del gruppo umano che vi è insediato. In altri termini fornisce
un’accurata approssimazione di un luogo (Bellandi, 2003), configurato come
un sistema socio-economico locale9. Per queste ragioni, la mappa dei sistemi
locali può essere considerata come un’affidabile ricostruzione
dell’articolazione della realtà sotto osservazione in società locali distinguibili.
La coincidenza dell’anno di riferimento dei dati sull’export per SLL con
quella del censimento intermedio dell’industria del 1996 consente sia di
meglio specificare la variabile dipendente (la competitività), sia di costruire
indicatori, coerenti dal punto di vista temporale, dei vari assetti organizzativi
locali assunti come esplicative.
Per descrivere le performance esportative del SLL, in coerenza ad
esempio con Istat (2002), Conti e Menghinello (1995), Menghinello (2002), è
stato scelto il valore dell’export per addetto del SLL nella sottosezione
manifatturiera10, standardizzato sul corrispondente livello nazionale.
Exp s ,i
EXPs ,i =
Exp s ,I
Add s ,i
(4.1)
Add s ,I
dove Exp e Add sono rispettivamente il valore (in lire 1996) dell’export e gli
addetti del SLL i (o dell’Italia, I) nella sottosezione manifatturiera s.
La variabile EXP si compone quindi complessivamente di 784 x 14
osservazioni, cioè del valore di export performance di ognuno dei 784 SLL in
ognuna delle 14 sottosezioni dell’industria manifatturiera. Come vedremo in
seguito, la natura della variabile (elevato numero di zeri) condizionerà
significativamente la strategia di stima.
8
L’articolazione del territorio nazionale in Sistemi Locali del Lavoro deriva dall’elaborazione
dei dati raccolti in occasione dei decennali Censimenti della Popolazione dall’ISTAT, ed in
particolare delle informazioni relative al cosiddetto quesito sulla pendolarità, ovvero sugli
spostamenti casa-lavoro della popolazione. La determinazione dei confini del SLL (composto
da due o più comuni anche di province e regioni amministrative diverse), è quindi centrata sul
concetto di autocontenimento, da intendere come la capacità di un determinato ambito spaziale
di contenere una massa relazionale significativa, approssimata, nel caso specifico, proprio
dalla densità degli spostamenti casa-lavoro.
9
Si tratta infatti di ad un ambito di “condivisione e accumulazione di esperienze quotidiane ed
esperimenti sociali per gruppi umani residenti. […] Con termine sistemico, si parlerà di
sistemi locali” (Bellandi, 2003, p. 136).
10
Codici da DA a DM della classificazione Istat Ateco 91.
16
Rispetto alle tipologie di economie esterne di cui possono avvalersi le
imprese manifatturiere locali, appare utile una distinzione organizzata in due
livelli. Distinguiamo in primo luogo le economie esterne di agglomerazione
eterogenee da quelle omogenee, intendendo le prime come quei vantaggi (in
termini di minori costi unitari) che le imprese (nel nostro caso manifatturiere)
acquisiscono facendo parte di un sistema economico produttivo in cui si
concentrano un numero rilevante di attività produttive e di servizi di diversa
natura (che ad esempio si traducono in contiguità fisica e facilità relazionale
con gli erogatori dei servizi, pubblici e privati, elevata circolazione
intersettoriale di conoscenze, o di opportunità non specifiche di alcuni
comparti produttivi). E’ questa una tipologia di economie esterne che si
concretizza tipicamente negli ambienti più urbani ed è attingibile sia da
imprese appartenenti ad assetti organizzativi sistemici locali che da imprese
isolate. La categoria di economia esterna eterogenea, adombrata anche da
Becattini e Musotti (2003, p. 273), si riconduce alla nota tipologia delle
economie da urbanizzazione alla Jacobs, legate alla varietà della struttura
produttiva tipica degli ambienti più urbani11.
Si è invece in presenza di economie esterne di agglomerazione omogenee
quando esiste una concentrazione a livello locale di imprese che producono
una gamma di beni simili o complementari12. In particolare in questa sede
interessano quelle che si producono quando le imprese agiscono in un
contesto istituzionale e cognitivo condiviso ed intrattengono strutture
relazionali rilevanti, cioè quando siamo in presenza di un sistema di
produzione locale (SPL) (Bellandi, 1994 e 2003). Concetto che, secondo
questa accezione13, coincide con il concetto di cluster formulato da Porter. Si
tratta quindi, sempre facendo riferimento alle tipologie di Becattini e Musotti
(2003) ad esempio delle economie di organizzazione (divisione del lavoro tra
le imprese), di conoscenza e apprendimento, di addestramento (relative alla
specializzazione dell’offerta di lavoro), di concentrazione (non solo per
l’acquisizione degli input, ma anche per l’acquisizione o la produzione di
11
La prima concettualizzazione di questa categoria di economie esterne è, infatti, riconducibile
a Jacobs (1969), cui sono seguiti una serie di importati contributi a carattere teorico ed
empirico. Tra i più recenti si possono ricordare: Henderson et al. (1995), Duranton e Puga
(2001), Glaeser et al. (1992), Eaton e Eckstein (1997). Con riferimento all’Italia, due recenti
contributi che considerano questi aspetti sono Cingano e Schivardi (2004) e Bronzini (2004).
12
Nella letteratura (Bronzini, 2004), queste forme di economie esterne si collegano alla
categoria delle economie esterne sector specific, a loro volta distinte in economie esterne MAR
(o MAR externalities, dai contributi di Marshall, Arrow e Romer), che si sostanziano nella
presenza di spillover tecnologici e nella disponibilità di una forza lavoro specializzata; e nelle
economie di agglomerazione tipicamente distrettuali (quelle che abbiamo prima specificato).
13
Il sistema di produzione locale è definito come “un’industria localizzata caratterizzata da
un insieme connesso di attività di produzione di un gruppo limitato di beni simili, realizzate
sulla base di competenze e regole organizzative proprie” (Bellandi, 1994, p.32).
17
servizi specializzati)14, di transazione. Diversamente da quanto attiene alle
economie eterogenee, l’esistenza di questa seconda tipologia può dipendere
in maniera decisiva dal settore merceologico (o dalla combinazione inputoutput di più comparti) che caratterizza il SPL. In particolare è plausibile
ipotizzare che queste forme di economie esterne siano più operanti per quei
comparti che, per le caratteristiche strutturali dominanti delle imprese o per
gli assetti concorrenziali dei mercati di sbocco, tendono di più ad organizzarsi
in forma sistemica (come i comparti del cosiddetto made in Italy).
Specularmente, nei settori ad esempio dell’industria pesante, è lecito
attendersi che tali assetti organizzativi giochino un ruolo minore nella
spiegazione delle performance competitive, dovendosi rinvenire i fattori di
vantaggio competitivo delle imprese di questi comparti più al loro interno
(tipicamente economie di scala) che nei contesti in cui operano.
A sua volta, il SPL può essere più o meno permeante e pervasivo sulla
società locale (il sistema locale) e da questo dipende la presenza/assenza di
altre economie esterne e/o il rafforzamento di quelle legate al SPL15. Nel caso
in cui un SPL connoti in maniera rilevante la società locale in cui è inserito
(come nel caso di un distretto industriale) si possono dispiegare (o rafforzare)
quelle forme di economie esterne (sempre omogenee) che vanno al di là degli
ambiti strettamente produttivi, per investire la società locale nel suo
complesso (economie di SL). Si tratta ad esempio delle economie di
addestramento riferite all’atmosfera umana e sociale locale (per esempio la
richiamata attitudine e propensione imprenditoriale); alle richiamate
economie di adattamento alla realtà, e più in generale di quelle economie
esterne che derivano da assetti istituzionali che, riconoscendo la centralità del
SPL, convergono verso la sua riproduzione ed il suo rafforzamento. Il
riferimento obbligato, in questo caso, è a quelle forme di governance che
consentono la produzione di risorse collettive competitive locali (local
collective competitive goods) (Le Gales e Voelzkow, 2004) che sono anche il
frutto di azione esplicita degli attori pubblici e privati del sistema locale. Più
il SPL è decisivo per la traiettoria e la sostenibilità di sviluppo del SL, più gli
sforzi, consapevoli ed inconsapevoli, di questi attori convergono verso la
produzione di queste risorse collettive ma specifiche del SPL. In questa
14
Un esempio di questo tipo di economia esterna è quello generato dalle dinamiche
cooperative che portano alla formazione di un consorzio export tra imprese di uno stesso
settore.
15
Nulla impedisce infatti che all’interno di un sistema locale co-esistano, ad esempio, diversi
SPL più o meno connessi tra di loro o che esista un SPL manifatturiero che è parte, non
decisiva, del SL. Questo è per esempio il caso il caso di un SPL manifatturiero che, in un
conteso urbano, risulta di scarsa importanza rispetto ad altri settori economici (ad esempio i
servizi). Un esempio concreto di questa tipologia di realtà produttiva e sociale è rappresentato
in Umbria dal SPL di Deruta (lavorazione delle maioliche artistiche), all’interno di un sistema
locale (Perugia), fortemente proiettato sul settore terziario.
18
accezione, quindi, le economie eterogenee e quelle omogenee non sono
mutuamente escludenti16, ma possono verificarsi contemporaneamente, a
seconda dei casi. La tabella 1 aiuta a comprendere questo punto.
Dal punto di vista dell’impresa, questa può infatti trovarsi ad operare in
una gamma ampia di contesti sociali e produttivi da cui può (o meno)
attingere vantaggi competitivi. Un primo livello di distinzione rilevante è tra
impresa isolata e impresa che è parte di un SPL (impresa sistemica). La prima
non attinge economie omogenee e può fruire delle economie eterogenee solo
quando si trova in un ambiente urbano. L’impresa sistemica, viceversa, oltre
a quelle derivanti dall’appartenenza al SPL, può godere anche di quelle di SL
e di quelle eterogenee se, rispettivamente, il SPL connota in misura rilevante
la società di cui è parte e se questa ha crescenti caratteri di urbanità17. Il caso
in cui si verifica la compresenza più forte delle tre forme di economie esterne
è il distretto industriale in un contesto molto urbano (tipicamente, Prato).
Tab. 1 - Tipologie di economie esterne che le imprese possono attingere
dai contesti in cui operano
SL non urbano
SL urbano
Impresa
isolata
Economie eterogenee
SL non urbano
SL urbano
Non caratterizzato Caratterizzato Non caratterizzato
Caratterizzato
dal SPL
dal SPL
dal SPL
dal SPL
Economie di SPL
Economie di
Economie di SPL
Economie di SL
SPL
Impresa
Economie
Economie di SPL
Economie
sistemica
Economie di
eterogenee
eterogenee
SL
Dal punto di vista delle elaborazioni empiriche si pone ovviamente il
problema di approssimare, attraverso degli indicatori, le diverse caratteristiche
dei contesti locali che prefigurano l’esistenza delle varie forme di economie
esterne.
16
Di per se l’idea di diversità non riflette infatti quella di assenza di specializzazione, quanto
la possibile presenza di specializzazioni multiple (Malizia e Ke, 1993).
17
Ovviamente queste caratteristiche non vanno intese tanto in senso dicotomico, quanto come
un continuum (urbano/rurale, isolata/sistemica, SPL più o meno pervasivo sul SL), così come,
almeno a livello teorico, non possono essere ignorati gli effetti di spillover e di contiguità
territoriale. Ad esempio un’impresa isolata che opera in un contesto povero di economie
esterne eterogenee, ma contiguo ad un SL ricco di queste, sarà avvantaggiata rispetto ad
un’altra parimenti isolata ma più distante da un centro urbano.
19
L’approssimazione della potenziale presenza di economie esterne
eterogenee è relativamente agevole dal momento che la loro forza è stata
associata a crescenti gradi di urbanizzazione dei contesti locali, che può essere
associata al livello di densità demografica18. L’indicatore, sempre riferito ai
SLL e standardizzato sulla densità demografica media nazionale, assume
quindi la forma seguente:
Re s i
DENS i =
Re s I
Sup i
(4.2)
Sup I
dove Res e Sup indicano l’ammontare di residenti e l’estensione della
superficie territoriale per i SLL (i) e per l’Italia (I). L’indicatore di densità è
stato preferito a quelli, più usuali per descrivere economie esterne alla Jacobs,
di differenziazione19. L’indice di differenziazione, infatti, descrive la varietà
delle attività economiche presenti, ma non fornisce un’idea sulla loro
rilevanza quantitativa. E’ infatti immaginabile che la forza delle EE cresca al
crescere anche della numerosità delle varie attività economiche presenti.
L’indicatore DENS sembra invece più in grado di tenere conto anche di
questo aspetto.
Al fine di rappresentare la presenza di assetti organizzativi forieri delle
diverse economie di agglomerazione non ci si è invece limitati al solo utilizzo
di un indice di concentrazione/specializzazione20 che, oltre a non discriminare
i diversi tipi di economie esterne, (di SPL e di SL) può ingannevolmente
segnalare i presupposti dei fenomeni in considerazione21. Si è invece optato
18
Una letteratura ormai rilevante (Esposti - Sotte, 2002) ha mostrato come la densità possa
essere considerata una misura sintetica efficace del complesso continuum rurale/urbano. Con
riferimento all’utilizzo di questa variabile per approssimare la forza di economie eterogenee, è
naturalmente plausibile immaginare che, oltre una certa soglia di densità demografica, si
producano anche diseconomie esterne da congestionamento, tipiche delle aree metropolitane.
Di questi effetti non si è però tenuto conto in questa sede.
19
Si vedano, per esempio, Duranton e Puga (2001), Bronzini (2004), Henderson et al. (1995),
Cingano e Schivardi (2004).
20
Bagella et al., (2000) e Becchetti e Rossi (2000) utilizzano ad esempio come indice di
agglomerazione, al fine di verificare l’effetto distretto sulla performance delle esportazioni,
l’indice derivato da Sforzi (1995): addetti alle imprese manifatturiere minori di 250 / totale
addetti alle industrie manifatturiere, calcolato a livello comunale e standardizzato sulla media
nazionale.
21
Ad esempio, un contesto particolarmente povero di industria manifatturiera (poche unità
locali e pochi addetti) ed in cui le dimensioni aziendali sono contenute, come nel caso di un
sistema locale montano, può presentare valori dell’indice molto alti, ma che non corrispondono
all’effettivo esplicarsi delle forme di economie esterne che consideriamo, che richiedono una
dimensione minima del sistema di produzione locale.
20
per la costruzione in primis di un indicatore in grado di approssimare
l’esistenza e la forza di un sistema di produzione locale manifatturiero; in
secondo luogo si è specificata l’esistenza di una o più specializzazioni nei
diversi comparti dell’industria manifatturiera. Per descrivere l’esistenza a
livello locale di un SPL si è utilizzato, seguendo Burroni e Trigilia (2004) un
indice di localizzazione (addetti all’industria manifatturiera sul totale degli
addetti), composto con un indice di dimensione prevalente delle imprese nel
SPL (addetti alle unità locali manifatturiere con meno di 50 addetti sul totale
degli addetti alle u.l. manifatturiere)22. Di nuovo le due componenti
dell’indice sono state standardizzate sui corrispondenti livelli nazionali.
L’indice che identifica il SPL assume quindi questa forma:
Add m ,i
SPLi =
Add m ,I
Add i
Add I
Add ≤ 50m ,i
∗
Add ≤ 50m ,I
Add m ,i
(4.3)
Add m ,I
dove i identifica il SLL23, m indica l’industria manifatturiera, Add è il numero
degli addetti e Add ≤ 50 è il numero degli addetti alle unità locali con meno di
50 addetti. L’indice si semplifica quindi in:
Add ≤ 50 m ,i
SPLi =
Add ≤ 50 m ,I
Add i
(4.4)
Add I
22
L’indicatore dimensionale è decisivo ai fini dell’identificazione del SPL dal momento che
indici di localizzazione elevati possono registrarsi anche a seguito della presenza di una o
poche grandi imprese, che ovviamente non configurerebbero un SPL coerente con la
definizione adottata in questo studio. La dimensione di 50 addetti (piccola impresa), piuttosto
che quella a 250 (PMI), come soglia discriminate è apparsa più adeguata a rappresentare i
caratteri strutturali dell’industria manifatturiera italiana. Va peraltro detto che, dal punto di
vista statistico, i due indicatori presentano elevatissimi livelli di correlazione e quindi la scelta
di uno o dell’altro ha effetti trascurabili.
23
Riferire gli indicatori che identificano il SPL al livello territoriale di SLL implica, da un lato
rafforzare il carattere di SPL (perché l’agglomerazione insiste su un “luogo” economico);
dall’altro far coincidere la loro dimensione geografica. E’ bene tenere conto però che il SPL si
definisce sulla base delle relazioni tra le imprese, la cui estensione geografica non
necessariamente ricalca quelle tra persone ed imprese che identifica il SLL. Tanto è vero che,
come già accennato, spesso un SPL si estende su più SLL. In indagini condotte su scale
geografiche ampie, dove non è possibile introdurre informazioni qualitative di correzione,
questa approssimazione risulta necessaria ed inevitabile. Per un’esposizione di questa e di altre
critiche all’uso dei SLL si veda Garofoli (2002).
21
L’indice continuo SPL indica la presenza e la forza di un sistema di
produzione locale all’interno di un SLL, ma nulla ancora dice sul comparto o
sui comparti dell’industria manifatturiera che sono presenti24. A questo fine è
stato utilizzato, per ogni SLL, un indicatore di specializzazione (SPEC)
relativo alle 14 sottosezioni dell’industria manifatturiera (addetti alla
sottosezione su addetti all’industria manifatturiera), di nuovo standardizzato
sulla corrispondente media italiana25:
Add s ,i
SPEC s ,i =
Add s ,I
Add m ,i
.
(4.5)
Add m ,I
Questa operazione ha implicato la costruzione di una variabile di 784
(SLL) x 14 (Sottosezioni) osservazioni che è stata associata a SPL. Ciò ha
condotto alla creazione di una nuova variabile SPL_SPEC, indicatore della
forza del SPL in ognuna delle specializzazioni settoriali per ogni SLL:
SPL _ SPECs ,i = SPLs ,i × SPECs ,i
(4.6)
Infine, per approssimare l’importanza del sistema di produzione locale,
nella sua specializzazione, sulla società locale (esistenza di economie esterne
omogenee di SL) è stato creato un indicatore di diffusione (addetti alla
sottosezione su residenti) che descrive la pervasività del settore all’interno
del SL.
Add s ,i
Re s i
(4.7)
DIFFs ,i =
Add s ,I
Re s I
La sua trasformazione dicotomica (uno se DIFF > 1; zero altrimenti),
permette di aggiungere all’indicatore SPL_SPEC l’ulteriore informazione se
24
Come già rilevato, nulla vieta infatti che, all’interno di un sistema locale, possano coesistere più sistemi di produzione locale.
25
La scelta di questa ripartizione settoriale, obbligata dalla disponibilità dei dati sull’export,
non è naturalmente ottimale per l’individuazione delle reali specializzazioni dei SPL. Più in
generale, essendo un SPL composto anche da industrie ausiliarie a quella principale (ad
esempio meccano-tessile per il tessile), è proprio l’impostazione settoriale a rappresentare una
prospettiva, pur se obbligata, di per sé imprecisa. Per una importante discussione di questi
aspetti si veda Becattini e Menghinello (1998).
22
il sistema di produzione locale specializzato è anche pervasivo sulla società
locale di cui è parte.
SPL _ SPEC _ DIFFs ,i = SPL _ SPECs ,i × DIFF _ Ds ,i
(4.8)
L’organizzazione degli indicatori e la maglia territoriale prescelta (i SLL)
ribadiscono come sullo sfondo dell’analisi sia saldamente presente
l’esperienza competitiva dei sistemi di produzione locale distrettuali,
ampiamente sottolineata nella letteratura richiamata. Diversamente dai lavori
che si sono occupati di verificare in vari modi l’esistenza del cosiddetto
effetto distretto con caratteristiche dicotomiche strette (impresa
distrettuale/impresa non distrettuale), la presente analisi cerca però di offrire
un quadro più ampio, cercando di ricostruire alcuni degli elementi
organizzativi che, pur potendo culminare nella forma distrettuale, anche
senza esserlo attingono parzialmente da quel modello.
4.2. Caratteristiche del database e prime evidenze dai dati
Le informazioni relative al commercio estero disponibili per l’Italia (Istat),
hanno tradizionalmente offerto un notevole e maggiore dettaglio spaziale
rispetto alle corrispondenti elaborazioni a livello internazionale. E’ infatti
possibile, con un’elevata qualità del dato statistico26, accedere alle serie
storiche di import/export fino a livello di Regioni e Province amministrative
(NUTS III).
Compresa però l’importanza di superare tutte le difficoltà legate a tale
dettaglio di unità spaziali di riferimento, l’Istat ha nel 2002, attraverso la
combinazione di diversi archivi statistici, pubblicato i dati relativi alle
performance dell’export a livello di sistema locale del lavoro. Passaggio
fondamentale che consente di cogliere la complessa articolazione e natura
delle molteplici realtà locali e di superare tutti i problemi di approssimazione
affrontati per la valutazione delle performance esportative a livelli territoriali
aggregati (Bronzini, 2000; Conti e Menghinello, 1995).
Al fine di quantificare valore e composizione geografica e settoriale delle
esportazioni per SLL, l’Istat ha integrato le informazioni, a livello di micro
dati, contenute nell’archivio statistico degli operatori del commercio con
l’estero (COE) e nell’archivio statistico delle imprese attive nell’industria e
nei servizi (ASIA). Collegando le informazioni sulla composizione
26
L’affidabilità del dato deriva dal fatto che le informazioni sono tratte direttamente dalle
dichiarazioni statistico-fiscali compilate dagli operatori che realizzano scambi con l’estero.
Attraverso graduali miglioramenti qualitativi, è oggi possibile attribuire su base provinciale
oltre il 99% delle esportazioni nazionali (Istat, 2002).
23
merceologica e geografica delle esportazioni italiane con la localizzazione
delle imprese che effettuano transazioni su mercati internazionali, è stato
possibile attribuire a livello territoriale, anche attraverso opportuni
aggiustamenti la quasi totalità del valore delle esportazioni nazionali (92,5%
dell’export di prodotti trasformati e manufatti, per cui sono disponibili i dati).
Di questa quota una porzione variabile dall’11 al 29% a seconda dei settori, è
stata attribuita sulla base di criteri prestabiliti (e non direttamente) per effetto
della presenza di imprese plurilocalizzate e commerciali, per le quali non è
possibile determinare univocamente la provenienza del prodotto esportato. La
significatività del dato rimane comunque buona, specie in quei sistemi locali
(di piccole e media impresa) in cui queste tipologie d’imprese sono meno
frequentemente presenti27.
I dati (riferiti al 1996) utilizzati in questo lavoro si riferiscono alle
esportazione di prodotti trasformati e manufatti dei 784 SLL italiani, a livello
di sottosezioni di attività economica (Classificazione ATECO 91 a due lettere
in 14 sottosezioni dell’industria manifatturiera)28.
Qualche considerazione di carattere puramente descrittivo su questi dati
consente di acquisire una prima idea complessiva sulla geografia delle
performance dell’export dei SLL italiani. Nella tabella 2, in particolare, è
riportata nella prima colonna la percentuale dei SLL che, pur effettuando
delle produzioni nei vari comparti, raggruppati per esigenze di sintesi in
quattro macro settori proposti dall’Istat (2002)29, non esportano.
27
Per una discussione completa della metodologia utilizzata, si rimanda comunque
direttamente ad Istat (2002), pp.30-40.
28
A questo livello di diffusione dei dati, risulta decisamente tollerabile la perdita di
informazioni derivanti dalle procedure per la tutela della riservatezza del dato statistico. Nel
database diffuso dall’Istat vengono oscurati quei dati che possono essere ricondotti
direttamente o facilmente ai singoli soggetti economici: quando, in particolare, per una
determinata variabile ed un sistema locale del lavoro, il dato deriva da un numero di soggetti
minore o uguale a tre, esso viene oscurato.
Questa procedura può generare una sottostima del valore totale delle esportazioni dei sistemi
locali interessati, da ritenersi comunque trascurabile. Sebbene non sia disponibile il dato medio
relativo ai singoli sistemi locali, il confronto tra la somma dei valori dell’export dei SLL
(sottoposti ad oscuramento dei dati sensibili) ed il totale dell’export dei SLL italiani fornito in
forma aggregata dall’Istat (e quindi non oscurato), si attesta allo 0,8%.
29
(1) Prodotti dell’industria alimentare (sottosezione DA – Prodotti alimentari, delle bevande e
del tabacco); (2) Prodotti tradizionali del Made in Italy (sottosezioni: DB – Prodotti
dell’industria tessile e dell’abbigliamento; DC – Cuoio e prodotti in cuoio; DD – Legno e
prodotti in legno; DI – Prodotti della lavorazione di metalli non metalliferi; DN – Alti prodotti
delle industrie manifatturiere); (3) Prodotti dell’industria meccanica (sottosezione DK –
Macchine ed apparecchi meccanici); (4) Prodotti delle altre industrie manifatturiere
(sottosezioni DE – DF – DG – DH – DJ – DL – DM).
24
Tab. 2 - Composizione dei SLL per livelli di export performance per
settore e area geografica
Altre manifatt.
Meccanica
Made in Italy
Alimentare
Export
No
export
EXP
(EXP=0)
(media)
Scarsamente
competitivi
(0<EXP<0,4)
Debolmente
competitivi
Mediamente
competitivi
(0,4<EXP<0,8) (0,8<EXP<1,2)
Significativ.
Competitivi
(EXP>1,2)
Nord Ovest
15.7
1.08
33.1
23.7
9.4
33.9
Nord Est
22.1
1.18
37.6
14.6
16.6
31.2
Centro
31.9
0.71
57.6
16.3
15.2
10.9
Sud
50.9
0.53
67.5
16.3
6.3
10.0
Isole
55.3
0.63
63.8
11.0
5.4
19.9
Italia
36.5
0.86
50.1
17.2
10.9
21.9
Nord Ovest
13.3
1.02
45.2
20.6
15.0
19.2
Nord Est
19.8
1.25
40.6
21.8
8.6
28.9
Centro
30.6
0.61
56.2
21.8
9.9
12.1
Sud
67.6
0.51
75.6
12.3
2.5
9.6
Isole
73.2
0.49
80.2
10.8
2.2
6.7
Italia
42.4
0.87
53.8
19.3
9.2
17.7
Nord Ovest
4.4
0.94
20.8
34.6
20.0
24.6
Nord Est
10.4
0.86
22.5
26.7
30.8
20.0
Centro
21.8
0.76
35.6
29.8
19.2
15.4
Sud
56.0
0.46
57.5
25.0
10.0
7.5
Isole
61.2
0.39
85.1
0.0
0.0
14.9
Italia
31.1
0.75
36.1
27.0
19.2
17.7
Nord Ovest
9.8
1.52
36.0
24.0
14.5
25.5
Nord Est
16.2
1.57
37.6
20.3
17.3
24.8
Centro
29.8
0.95
56.0
18.8
9.8
15.4
Sud
66.4
0.59
65.3
15.1
7.1
12.5
Isole
71.1
0.62
70.1
10.1
6.9
12.8
Italia
39.1
1.21
47.5
19.6
12.7
20.2
Fonte: elaborazione su dati Istat (2002)
25
Il dato significativo, al di là degli aspetti settoriali, riguarda la
caratterizzazione delle capacità esportative dei SLL delle diverse aree del
Paese. Man mano che si scende verso il sud e le isole, aumenta infatti
drasticamente la percentuale dei contesti territoriali che non hanno accesso ai
mercati internazionali. Questo vale per tutti i settori, ma in maniera ancora
più marcata per il made in Italy e le Altre industrie manifatturiere.
Anche il livello medio di export performance (colonna 2) suggerisce una
gerarchia geografica nord-sud, con i SLL del nord-est stabilmente in cima
alla graduatoria, seguiti dal nord-ovest (la gerarchia si inverte solo per il
settore meccanico), quindi dal centro, e dal sud e le isole in posizioni
intercambiabili a seconda dei settori.
La distribuzione dei soli SLL esportatori a seconda dei livelli di
competitività conferma infine la nota debolezza relativa delle aree
meridionali, con una notevole concentrazione di osservazioni nelle classi di
competitività più deboli; al contrario di quanto accade per gli aggregati del
centro e del nord, in cui la quota di SLL che esportano più della media
nazionale appare di dimensioni più significative. Al fine di rendere più
chiaramente apprezzabile questa differenziazione su base geografica, sono
riportati di seguito i grafici che sintetizzano la stima di densità non
parametrica Kernel, da cui si evince con maggiore chiarezza la forma della
distribuzione dell’indicatore di performance nelle cinque ripartizioni
geografiche italiane30.
30
Nelle stime Kernel la distribuzione di EXP è stata troncata a 2,5 per evitare che i valori alti
dell’indicatore rendessero poco efficace la rappresentazione grafica. Questo ha condotto
all’esclusione di 321 osservazioni sul totale di 9022. Queste osservazioni ampiamente sopra la
media si distribuiscono così nelle diverse aree: 35% al nord-est, 32% al nord-ovest, 16% al
centro, 11% al sud e 5% alle isole.
26
Graf. 1 - Distribuzione dei livelli di performance
Nord Est
Nord Ovest
Den
sity
De
nsit
y
1
.8
.8
.6
.6
.4
.4
.2
.2
0
0
0
.5
1
EXP
1.5
2
0
2.5
.5
1
Centro
1.5
2
1.5
2
2.5
1.5
2
2.5
EXP
2.5
Sud
2.5
2
Den
sity1.5
Den
sity1.5
1
1
.5
.5
0
0
0
.5
1
EXP
1.5
2
2.5
0
.5
Isole
1
EXP
Italia
3
2
Den
sity
Den
sity1.5
1
1
.5
0
0
0
.5
1
EXP
1.5
2
2.5
0
27
.5
1
EXP
Tornando alla tabella 2, anche ragionando a livello settoriale, è facile
notare come, ad esempio a livello italiano, le possibilità di accesso ai mercati
internazionali siano più concentrate nel caso del made in Italy (dove il 42.4%
dei SLL che producono non esportano) e delle Altre industrie manifatturiere
(39.1%), rispetto al settore della meccanica, dove in più di due SLL su tre si
esporta. In una posizione intermedia figura invece il settore alimentare, dove
però è relativamente più probabile conquistare posizioni di eccellenza (classe
di export significativamente sopra la media nazionale). Questi risultati
confermano forti differenze strutturali a livello geografico e settoriale e
suggeriscono la necessità di tenere conto esplicitamente di ciò nel seguito
dell’analisi.
4.3. Analisi econometrica: metodologia
Le stime econometriche che sono proposte nel seguito del lavoro
misurano gli effetti di un gruppo di potenziali determinanti della performance
dell’export di un SLL, sintetizzata attraverso l’indicatore EXP. Come si è
osservato attraverso le statistiche descrittive, molti sistemi locali (specie nel
sud e nelle isole), per registrando la presenza di unità locali nelle varie
sottosezioni, non rilevano alcuna dimensione esportativa. Questa
caratteristica dei dati (elevata incidenza di osservazioni con la variabile
dipendente EXP uguale a 0) preclude l’uso dei minimi quadrati ordinari
(OLS) per valutare la significatività statistica di una sua qualsiasi relazione
con una o più variabili esplicative. L’osservazione della variabile dipendente
censurata inferiormente determina, infatti, errori di stima violando una delle
proprietà più importanti dello stimatore OLS ( ∑ ei = 0 ). In altro modo,
i
censurando gli errori con segno negativo la media risultante da stime OLS è
algebricamente positiva.
Mutuando la specificazione da precedenti studi effettuati a livello di
impresa che avevano l’obiettivo di indagarne la performance dell’export,
alcuni modelli empirici hanno cercato di caratterizzare le relazioni del
volume dell’export con alcune variabili esplicative attraverso un processo
decisionale multistadio: le imprese scelgono dapprima se partecipare o no ai
mercati internazionali e, una volta deciso di partecipare, stabiliscono il livello
di produzione destinato all’export (Wakelin, 1998). La procedura per la
verifica empirica consiste, quindi, nella stima di un modello discreto che
distingue la performance delle imprese che esportano da quelle che non
esportano; solo in un successivo stadio le stime di performance sono
incentrate sulle unità che producono anche per l’esportazione.
Un’altra parte di letteratura ha invece individuato come benchmark per la
valutazione della performance dell’export un processo decisionale sincronico
28
(Wagner, 2001) che permette di recuperare la consistenza nelle stime relative
a regressioni Tobit. Data la natura dei dati, che come evidenziato presentano
un numero elevato di combinazioni SLL/settori che non esportano, questo
secondo approccio metodologico (traslato a livello territoriale) appare il più
adeguato rispetto agli obiettivi dell’analisi. Nella specificazione
econometrica, consideriamo quindi y=EXP come la “observable choice” che
descrive il comportamento delle imprese di un SLL, con le seguenti
caratteristiche: y prende valore zero con una probabilità non nulla quando il
SLL non esporta, ma risulta essere una variabile casuale continua per valori
strettamente positivi, nella situazione in cui il SLL esporta.
L’inconsistenza delle stime dei minimi quadrati ordinari è connessa in
modo non lineare alla presenza di SLL che non esportano, ma una volta
definita la natura della “corner solution” il problema non risiede
nell’osservabilità della variabile dipendente, ma nella distribuzione di y dato
il vettore di X, considerando (Εy|x) e P(y=0|x). La derivazione dello
stimatore Tobit consente, attraverso la stima di massima verosimiglianza
(ML), di recuperare la stima dei parametri sotto l’ipotesi di una probabilità
positiva per livelli di export dei SLL pari a zero (Lin e Schmidt, 1984).
La strategia di specificazione dei modelli muove dalla stima di un modello
generale in cui la variabile dipendente EXP è messa in relazione con
l’esistenza delle varie caratteristiche assunte come significative per la
rappresentazione della presenza di varie forme di economie esterne. Ciò
ovviamente tenendo conto dei rapporti di gerarchia esistenti tra le diverse
forme di economie esterne omogenee precedentemente individuati, e cioè del
fatto che le economie denominate di SL si innestano laddove esistono già
economie di SPL, rafforzandone gli effetti positivi sulla competitività.
Questo implica che mentre le variabili DENS e SPL_SPEC possono
coesistere all’interno del modello (perché spiegano due sorgenti di economie
esterne indipendenti), ciò non può accadere per SPL_SPEC e
SPL_SPEC_DIFF. I modelli iniziali assumono pertanto la forma:
EXPs ,i = f ( DENSi , SPL _ SPECs ,i )
(4.9)
e
EXPs ,i = f ( DENS i , SPL _ SPEC _ DIFF _ D s ,i )
(4.10)
Sia per effetto dei risultati delle analisi descrittive che con riferimento alla
letteratura esistente (ad esempio Bagella et al., 1998), l’analisi è stata poi
approfondita sia a livello settoriale che a livello geografico, seguendo però
approcci strategici diversi corrispondenti ad ipotesi teoriche diverse. Alla
29
base della specificazione settoriale è posta infatti l’ipotesi dell’esistenza o
meno degli effetti delle economie esterne omogenee individuate, ed è quindi
sensato indagare le relazioni funzionali isolando i sottoinsiemi delle
osservazioni SLL/sottosezione per settori o aggregati di essi. Questo implica
pertanto la stima di tanti modelli quanti sono i sottoinsiemi settoriali
individuati. Al contrario, per quanto attiene alle diversità geografiche, non
viene meno l’ipotesi che l’esistenza di assetti organizzativi forieri di
economie esterne conferisca vantaggi di competitività, ma deve essere
aggiunta tra le variabili esplicative l’informazione che diversità strutturali ed
infrastrutturali materiali ed immateriali (o semplici distanze geografiche)
hanno influenza sulle dinamiche esportative delle imprese. Per questo da un
lato si è proceduto alla stima dei modelli di base (9 e 10) per i vari
sottoinsiemi settoriali individuati. Dall’altro si è semplicemente proceduto ad
inserire nei vari modelli le dummy delle ripartizioni geografiche, al fine di
tenere conto esplicitamente delle note diversità strutturali ed infrastrutturali
esistenti nelle diverse aree del Paese. La significatività e i segni delle dummy
consentono di controllare la stabilità dei risultati attraverso il raffinamento
delle stime con l’introduzione di informazioni rilevanti note ex ante e
illustrano gli effetti (relativi) che la localizzazione del SLL (e delle imprese)
ha sui propri livelli di competitività.
E’ stato già evidenziato come tutta la costruzione (teorica ed empirica) del
lavoro si fondi sull’esperienza e sull’evidenza empirica della forza
competitiva dei distretti industriali. Per rendere più esplicita anche in questa
sede la verifica dell’ipotesi di un effetto distretto, un’ ultima opzione di
specificazione del modello è stata costruita regredendo EXP con una variabile
dicotomica DISTRi che assume valore 1 se il sistema locale si caratterizza
come un distretto industriale (secondo l’identificazione Istat dei 199 SLL con
caratteristiche compatibili con il distretto industriale) (MAP, 2002), e zero
altrimenti. Dati i problemi di raccordo tra specializzazione dei distretti Istat e
la ripartizione settoriale dei dati utilizzati in questo lavoro, la caratteristica
distrettuale di un SLL è stata attribuita a tutte le combinazioni
SLL/sottosezione31: ciò, nell’approssimazione che comporta, è tuttavia
coerente con l’idea di distretto come forma organizzativa peculiare non solo
del sistema produttivo, ma anche della società locale di cui questo rappresenta
una componente fondamentale. Si prefigura quindi l’ipotesi, non banale ma
frequente, dell’esistenza di un effetto distretto “allargato” anche alle imprese
della specializzazione non distrettuale: in altri termini si prefigura l’esistenza
di spillover positivi anche al di fuori del SPL che caratterizza il distretto.
31
Ad esempio nel caso di un SLL riconosciuto distretto nella specializzazione produttiva della
meccanica è stata attribuita la caratteristica distrettuale a tutte le osservazioni (di export
performance) relative a quel SLL (ad esempio industria alimentare, tessile/abbigliamento,
etc.).
30
4.4. Analisi econometrica: risultati
I risultati delle prime specificazioni delle funzioni 9 e 10, ottenuti
attraverso la procedura Tobit, sono riportati nella Tabella 3.
Tab. 3 - Stime Tobit per i dati aggregati
Variabile dipendente: EXP
N. osservazioni: 9022; Censurate a sinistra: 3569; Non Censurate: 5454
Variabili esplicative
Coefficiente
Livello di significatività
DENS
0.449
0.000
SPL_SPEC
0.125
0.000
Costante
-1.932
0.000
DENS
0.453
0.000
SPL_SPEC_DIFF
1.206
0.000
Costante
-2.133
0.000
A livello aggregato (dati pooled) le variabili esplicative si dimostrano
altamente significative nello spiegare i livelli di export performance dei
territori e con il segno atteso32. I SL più urbani confermano perciò l’ipotesi di
migliori performance competitive legate, secondo la nostra ipotesi,
all’operare di economie esterne eterogenee. Rispetto a questo primo output
dell’analisi è inoltre opportuno sottolineare la differenza significativa tra
l’entità dei coefficienti delle due variabili che approssimano l’esistenza di
economie omogenee: laddove il sistema di produzione risulta più pervasivo
sulla società locale i vantaggi in termini di competitività sembrano farsi
decisamente più consistenti.
A partire da questa incoraggiante evidenza si è proceduto a stimare i
modelli settoriali, al fine di poter evidenziare l’operare o meno dei diversi tipi
di economie esterne in comparti produttivi strutturalmente diversificati. La
ripartizione utilizzata nelle analisi descrittive è apparsa insufficiente a
32
I bassi livelli di correlazione tra le variabili esplicative (-0.0112 tra DENS e SPL_SPEC;
0.0002 tra DENS e SPL_SPEC_DIFF) escludono la presenza di multicollinearità nei modelli
stimati.
31
rappresentare la diversità strutturale dei diversi comparti produttivi. Per
questa ragione sono stati direttamente stimati i quattordici modelli settoriali
corrispondenti alle sottosezioni dell’industria manifatturiera (tabella 4).
Questa scelta è apparsa la più adeguata considerando il vincolo di
disaggregazione settoriale dei dati disponibili (sottosezioni) che non ha
consentito una riclassificazione più fine33. I risultati delle stime dei modelli
settoriali sembrano fornire altre indicazioni interessanti e coerenti con le
aspettative ex ante.
Tab. 4 - Stime Tobit per subcampioni settoriali
DENS SPL_SPEC Costante DENS SPL_SPEC_DIFF Costante
DA (Alimentare)
n. oss: 764;
oss. non censurate: 485
DB (Tessile abbigliamento)
n. oss: 1286;
oss. non censurate: 762
DC (Pelletteria)
n. oss: 1286;
oss. non censurate: 762
DD (Legno)
n. oss: 763;
oss. non censurate: 383
DE (Grafica e Cartotecnica)
n. oss: 697;
oss. non censurate: 380
DF (Combustibili e carburanti)
n. oss:273;
oss. non censurate: 95
DG (Chimica e fibre artificiali)
n. oss:519;
oss. non censurate: 355
DH (Articoli in gomma e materie
plastiche)
n. oss:584;
oss. non censurate: 408
DI (Lavorazione minerali non
metalliferi)
n. oss: 753;
oss. non censurate: 439
0.248
(0.000)
0.219
(0.000)
-0.532 0.247
(0.000) (0.000)
1.016
(0.000)
-0.496
(0.000)
0.152
(0.000)
0.151
(0.014)
-0.297 0.156
(0.000) (0.000)
0.398
(0.000)
-0.272
(0.000)
1.225
(0.000)
0.089
(0.122)
-4.667 1.247
(0.000) (0.000)
1.567
(0.015)
-4.994
(0.000)
0.273
(0.000)
0.136
(0.014)
-0.839 0.283
(0.000) (0.000)
0.774
(0.000)
-0.910
(0.000)
0.124
(0.000)
0.514
(0.014)
-0.660 0.120
(0.000) (0.002)
1.164
(0.000)
-0.441
(0.000)
0.203
(0.000)
-0.009
(0.688)
-1.035 0.208
(0.000) (0.000)
0.156
(0.517)
-1.091
(0.000)
0.186
(0.011)
0.107
(0.360)
-0.115 0.182
(0.525) (0.013)
0.343
(0.237)
-0.091
(0.587)
0.143
(0.153)
0.121
(0.235)
-0.492 0.128
(0.042) (0.202)
0.552
(0.030)
-0.509
(0.022)
0.175
(0.000)
0.124
(0.000)
-0.396 0.183
(0.000) (0.000)
0.608
(0.000)
-0.379
(0.000)
33
Ad esempio, disponendo del dettaglio per gruppi e categorie è possibile giungere ad una
classificazione più soddisfacente, come quella elaborata in Istat (1997), composta da: (1)
Industrie alimentari, (2) Industrie leggere, (3) Industrie pesanti, (4) Industria meccanica, (5)
Industrie cartotecniche e poligrafiche. Le industrie leggere sono a loro volta distinte in: (i)
Tessile ed abbigliamento, (ii) Pelletteria, (iii) Prodotti per l’arredamento, (iv) Oreficeria,
strumenti musicali, etc.
32
continua Tab. 4
DJ (Metallo e prodotti in metallo)
n. oss: 764;
oss. non censurate: 473
DK (Meccanica)
n. oss: 687;
oss. non censurate: 474
DL (Elettronica)
n. oss: 735;
oss. non censurate: 413
DN (Altre industrie manifatturiere)
n. oss: 734;
oss. non censurate: 454
DM (Mezzi di trasporto)
n. oss:463;
oss. non censurate: 333
0.207
(0.001)
0.470
(0.000)
-1.087 0.184
(0.000) (0.003)
0.939
(0.000)
-0.858
(0.000)
0.071
(0.009)
0.324
(0.000)
-0.077 0.073
(0.225) (0.008)
0.455
(0.014)
0.064
(0.268)
0.325
(0.004)
0.432
(0.001)
-1.893 0.331
(0.000) (0.003)
1.055
(0.002)
-1.760
(0.000)
0.177
(0.000)
0.136
(0.000)
-0.512 0.178
(0.000) (0.000)
0.625
(0.000)
-0.526
(0.000)
0.268
(0.559)
0.272
(0.685)
-2.318 0.266
(0.047) (0.560)
1.042
(0.566)
-2.292
(0.037)
Tra parentesi è indicato il p_value
Dalle stime dei modelli settoriali è possibile infatti dedurre alcune
informazioni interessanti. Il coefficiente del parametro DENS, che
approssima l’operare di economie esterne eterogenee, risulta non
significativo solo per i comparti DH e DM. In altri termini, solo in questi due
settori, sui quattordici considerati, la performance esportativa delle imprese
sembra essere indifferente ai livelli di urbanità del SL. Si tratta di due dei
settori dell’industria di base tradizionale34, le cui performance esportative
probabilmente prescindono di più dai caratteri dei luoghi in cui sono
localizzate le imprese. In tutti gli altri casi le imprese esportatrici traggono
vantaggio dall’essere localizzate in ambienti in cui è plausibile che siano più
forti economie esterne di tipo eterogeneo; questo è particolarmente vero per i
comparti delle pelletterie, dell’elettronica, dell’alimentare e del legno (dove i
coefficienti sono maggiori).
I risultati si fanno ancora più rilevanti se si osservano i coefficienti delle
variabili che, nei due modelli, esprimono la presenza di economie esterne
omogenee (di SPL o di SL). Nel primo caso, tali effetti si producono in tutti i
settori ad eccezione di quelli dell’industria pesante (DG – DH – DI –DM) e
34
Di nuovo la disaggregazione settoriale non consente un collocamento diretto delle varie
sottosezioni nelle ripartizioni settoriali comunemente utilizzate. Ad esempio, all’interno della
sottosezione DM sono classificati comparti produttivi sicuramente non riconducibili
all’industria di base, come gli accessori e la componentistica dei mezzi di trasporto.
Similmente, ad esempio la sottosezione DJ include sia l’industria metallurgica che la
fabbricazione e lavorazione dei prodotti in metallo (ad esempio lo stampaggio lamiere).
33
del settore dei prodotti di pelletteria (DC). Come prevedibile quindi le
determinanti della competitività internazionale delle imprese dei settori
tradizionalmente associati all’industria pesante sono da ricercare più al loro
interno che nei contesti in cui operano. Appare invece controintuitivo il
risultato della sezione DC, dal momento che si tratta di un’industria che
contiene al suo interno comparti tipicamente distrettuali (si pensi al caso delle
calzature). Sia però il settore DC che il settore DH mostrano, nella seconda
specificazione delle stime, un coefficiente significativo e positivo della
variabile che descrive la probabile presenza di economie esterne di SL. Dati i
caratteri e la natura dei due settori, è possibile tracciare qualche ipotesi
interpretativa dei risultati. Nel primo caso (DC) è infatti possibile ipotizzare
che economie esterne omogenee agiscano in maniera rilevante solo se il
sistema di produzione locale permea significativamente la società locale; in
altri termini tanto più ci si approssima alla forma tipicamente distrettuale. Nel
secondo caso (DH), piuttosto che l’approssimazione della forma distrettuale,
di fatto estranea alle specificità settoriali, è possibile invece ipotizzare che la
variabile dummy dei livelli di diffusione, capace con la correzione che
introduce di influenzare la significatività statistica dell’indicatore
SPL_SPEC, segnali l’esistenza di economie esterne legate alla diffusione di
un’industria, pur non organizzata in SPL, in un territorio. Questa forma di
economie esterne (che potremmo chiamare di sola diffusione) si può ad
esempio rintracciare in un contesto dove esiste una o poche imprese di
elevate dimensioni, che caratterizzano la società locale e ne conformano, in
modo da trarne vantaggio, ad esempio il mercato del lavoro o le condizioni
istituzionali35. Sebbene questa tipologia di vantaggi non sia oggetto della
nostra analisi, solo al fine di rafforzare questa ipotesi interpretativa sono state
effettuate delle stime (di nuovo tobit) settoriali per le industrie pesanti,
utilizzando come variabile indipendente l’indicatore continuo DIFF (8)
(Tabella 5).
Tab. 5 - Stime Tobit per i settori dell’industria pesante con l’indicatore
di diffusione
DIFF
Costante
DF
DG
DH
DM
0.023
(0.320)
-0.767
(0.000)
0.215
(0.036)
0.051
(0.734)
0.250
(0.015)
-0.447
(0.029)
0.187
(0.561)
-1.810
(0.032)
35
Rispetto alla classificazione della tabella uno si configura quindi un’altra combinazione
possibile: quella dell’impresa isolata (o di poche imprese isolata) che caratterizza il SL.
34
Il risultato mostra che, almeno per alcune di queste industrie (DG e DH)
un elevato livello di diffusione sul territorio è in grado di conferire qualche
vantaggio di competitività.
Un’ultima riflessione con riferimento alla tabella 5 può essere condotta
confrontando l’entità dei coefficienti degli indicatori cui associamo la
presenza delle economie esterne. Il primo luogo va segnalata la stabile
superiorità dei coefficienti SPL_SPEC_DIFF rispetto quelli di SPL_SPEC;
questo conferma come, se l’organizzazione in forma di SPL rappresenta un
vantaggio, quando esso è permeante sulla società locale questo vantaggio si
amplifica. In secondo luogo è possibile stilare una graduatoria dei settori in
cui le economie esterne omogenee sono relativamente di più all’opera. Si
tratta in particolare dei comparti della grafica e cartotecnica, della
fabbricazione dei prodotti in metallo, dell’elettronica e della meccanica36.
La forte differenziazione su base geografica delle performance esportative
dei SLL ha inoltre suggerito l’opportunità di controllare la sensibilità dei
risultati delle stime alla luce dei noti differenziali strutturali ed infrastrutturali
esistenti in Italia. L’operazione di rendere espliciti tali fattori, inserendo nei
modelli di base delle dummy geografiche relative alla ripartizione di
appartenenza del SLL, consente quindi da un lato di meglio specificare le
relazioni tra le variabili di interesse; dall’altro di evidenziare in quali settori
queste differenze siano più o meno marcate. La tabella 6 mostra i risultati
delle stime dei modelli aggregati e settoriali con l’inserimento delle dummy
geografiche37.
I coefficienti delle variabili dei modelli aggregati stimati, oltre a
confermare la significatività e il segno delle variabili che descrivono presenza
e forza di economie esterne, mostrano con chiarezza lo svantaggio relativo
che i SLL localizzati al centro e soprattutto al meridione soffrono
nell’accesso ai mercati, confermando la forte diversità già rilevata nelle
analisi descrittive. Le specificazioni dei modelli settoriali confermano
ampiamente i risultati ottenuti in precedenza; in aggiunta forniscono però
alcune indicazioni interessanti su quanto questi gap geografici siano attenuati
o esaltati o non significativi nei vari settori. Ad esempio la gerarchia nord
36
Nel caso, già ricordato, dell’indicatore di economie di SL, anche il settore della pelletteria
presenta un coefficiente elevato. I dati relativi al comparti dei metalli e prodotti in metallo
soffrono invece dell’ambiguità (metallurgia/metalmeccanica) precedentemente descritta.
37
Naturalmente nel modello sono state inserite quattro variabili dicotomiche (Nord ovest,
Nord est, Sud ed Isole) per evitare problemi di multicollinearità. Questo significa che i
coefficienti ed i segni delle variabili devono essere interpretati in termini relativi rispetto alla
quinta variabile esclusa (centro), che costituisce quindi il termine di riferimento incorporato
nel coefficiente della costante.
35
ovest / nord est presente a livello aggregato viene invertita nel caso delle
industrie della moda (tessile abbigliamento e pelletteria), nella fabbricazione
e lavorazione dei minerali non metalliferi (DI) e nell’elettronica (DL).
Interessante anche notare come nel comparto della produzione di metallo e
prodotti in metallo (DJ) la localizzazione al nord non conferisca né vantaggi
né svantaggi relativi significativi sul piano dell’export. Le aree del meridione
(sud e isole) mantengono invece in tutti i settori uno stabile svantaggio
relativo (rispetto alle altre ripartizioni). L’affinamento dei modelli settoriali
attraverso l’uso delle variabili dicotomiche conferma infine la maggior
capacità esplicativa dell’indicatore di economie di SL, rispetto all’indicatore
di SPL. Questo ribadisce quanto già rilevato: l’organizzazione in SPL
conferisce vantaggi nell’accesso ai mercati internazionali, ma se il SPL
connota significativamente la società locale questo vantaggio tende ad
amplificarsi. Questo risultato, conseguito considerando i dati a livello
nazionale, è confermato anche per i sottocampioni di SLL del Mezzogiorno e
dell’Italia centrale38; risultati più ambigui (in termini di significatività delle
variabili) si ottengono invece per gli aggregati del nord. Questo significa che,
se gli assetti organizzativi che producono economie esterne omogenee sono
capaci di spiegare la diversità della performance dell’export a livello
nazionale, nei contesti tradizionalmente più deboli questi fattori risultano
ancora più decisivi rispetto ad altri contesti, al cui interno le differenze di
performance rispondono evidentemente anche ad altre condizioni.
38
I risultati delle stime non sono riportati per brevità espositiva ma sono ovviamente
disponibili presso gli autori.
36
Tab. 6 - Stime Tobit per settore e ripartizione geografica del modello
Aggregato
DA
DB
DC
DD
DE
DF
DG
DH
DI
DJ
DL
DK
DM
DN
DENS
0.501
(0.000)
0.248
(0.000)
0.161
(0.000)
1.412
(0.000)
0.279
(0.000)
0.140
(0.000)
0.217
(0.000)
0.212
(0.002)
0.202
(0.043)
0.181
(0.000)
0.234
(0.000)
0.386
(0.001)
0.086
(0.001)
0.488
(0.287)
0.192
(0.000)
SPL_SPEC
0.060
(0.005)
0.205
(0.000)
0.093
(0.000)
0.090
(0.127)
0.092
(0.000)
0.375
(0.000)
-0.002
(0.923)
-0.111
(0.334)
-0.032
(0.760)
0.121
(0.000)
0.234
(0.003)
0.051
(0.692)
0.138
(0.001)
-0.372
(0.582)
0.083
(0.004)
Nord ovest
1.283
(0.000)
0.548
(0.005)
0.348
(0.005)
3.177
(0.028)
0.430
(0.015)
0.884
(0.000)
0.682
(0.021)
1.517
(0.000)
-0.046
(0.927)
0.425
(0.002)
-0.005
(0.986)
1.321
(0.015)
0.319
(0.012)
4.135
(0.088)
0.437
(0.048)
Nord est
1.203
(0.000)
0.531
(0.006)
0.452
(0.006)
3.674
(0.010)
0.394
(0.028)
0.681
(0.000)
0.924
(0.002)
1.110
(0.003)
0.030
(0.952)
0.447
(0.001)
-0.065
(0.828)
1.427
(0.010)
0.184
(0.152)
3.413
(0.170)
0.430
(0.051)
Sud
-2.957
(0.000)
-0.669
(0.000)
-0.784
(0.000)
-4.852
(0.002)
-1.196
(0.000)
-0.892
(0.000)
-0.639
(0.062)
-1.386
(0.000)
-2.529
(0.000)
-0.885
(0.000)
-2.027
(0.000)
-2.909
(0.000)
-0.723
(0.000)
-7.873
(0.003)
-0.832
(0.000)
Isole
-3.220
(0.000)
-0.629
(0.003)
-0.745
(0.003)
-7.701
(0.000)
-1.283
(0.000)
-1.102
(0.000)
0.253
(0.475)
-1.101
(0.016)
-2.239
(0.000)
-0.918
(0.000)
-2.196
(0.000)
-3.361
(0.000)
-0.820 -12.064 -1.234
(0.000) (0.000) (0.000)
Costante
-1.350
(0.000)
-0.428
(0.008)
-0.061
(0.008)
-4.869
(0.000)
-0.454
(0.002)
-0.552
(0.000)
-1.349
(0.000)
-0.117
(0.687)
0.431
(0.275)
-0.191
(0.082)
-0.039
(0.869)
-1.163
(0.006)
0.249
(0.013)
37
-0.985
(0.619)
-0.293
(0.091)
continua Tab. 6
DENS
0.501
(0.000)
0.245
(0.000)
0.163
(0.000)
1.422
(0.000)
0.281
(0.000)
0.140
(0.000)
0.223
(0.000)
0.215
(0.002)
0.199
(0.048)
0.186
(0.000)
0.222
(0.000)
0.387
(0.001)
0.088
(0.001)
0.492
(0.284)
0.190
(0.000)
SPL_SPEC_DIFF
0.484
(0.000)
0.808
(0.000)
0.208
(0.000)
1.292
(0.053)
0.473
(0.000)
0.815
(0.000)
0.227
(0.338)
-0.271
(0.342)
0.105
(0.694)
0.438
(0.000)
0.447
(0.004)
0.049
(0.887)
0.178
(0.008)
-1.426
(0.438)
0.437
(0.000)
Nord ovest
1.243
(0.000)
0.414
(0.029)
0.334
(0.005)
3.455
(0.019)
0.509
(0.004)
0.761
(0.000)
0.676
(0.022)
1.534
(0.000)
-0.103
(0.839)
0.404
(0.003)
-0.031
(0.919)
1.328
(0.015)
0.336
(0.009)
4.234
(0.081)
0.524
(0.018)
Nord est
1.162
(0.000)
0.386
(0.043)
0.440
(0.000)
3.757
(0.009)
0.482
(0.006)
0.547
(0.002)
0.954
(0.002)
1.109
(0.003)
0.017
(0.972)
0.434
(0.002)
-0.115
(0.704)
1.455
(0.009)
0.189
(0.146)
3.448
(0.165)
0.454
(0.038)
Sud
-2.873
(0.000)
-0.556
(0.002)
-0.768
(0.000)
-4.579
(0.004)
-0.952
(0.000)
-1.040
(0.000)
-0.636
(0.063)
-1.382
(0.000)
-2.492
(0.000)
-0.853
(0.000)
-2.020
(0.000)
-2.919
(0.000)
-0.774
(0.000)
-7.957
(0.002)
-0.736
(0.001)
Isole
-3.121
(0.000)
-0.421
(0.043)
-0.752
(0.000)
-7.312
(0.001)
-1.014
(0.000)
-1.278
(0.000)
0.263
(0.455)
-1.105
(0.016)
-2.196
(0.000)
-0.817
(0.000)
-2.208
(0.000)
-3.374
(0.000)
-0.879 -12.117 -1.131
(0.000) (0.000) (0.000)
Costante
-1.432
(0.000)
-0.361
(0.014)
-0.029
(0.765)
-5.269
(0.000)
-0.613
(0.000)
-0.277
(0.042)
-1.418
(0.000)
-0.158
(0.577)
0.367
(0.337)
-0.153
(0.166)
0.099
(0.657)
-1.136
(0.007)
0.330
(0.001)
38
-1.033
(0.594)
-0.375
(0.032)
Da ultimo, al fine di valutare l’esistenza di un effetto distretto “allargato”,
così come prima definito, si è proceduto alla stima dei modelli Tobit
utilizzando come esplicativa la dummy DISTR, riferita tout court al SLL,
senza ulteriori specificazioni settoriali (Tabella 7). La variabile risulta
significativa e positiva e ciò tende a suggerire come un effetto distretto
positivo sulle performance competitive non si produca solo sulle imprese
appartenenti al settore che caratterizza il distretto, ma si estenda anche a
quelle di altri comparti manifatturieri presenti a livello locale. I coefficienti
delle dummy geografiche confermano invece la già nota gerarchia geografica
sull’accesso ai mercati internazionali. L’introduzione di variabili di
interazione (distretto/aree geografiche) mostra, oltre alla non significatività
del coefficiente per il nord ovest, che l’effetto distretto assume maggiore
rilevanza tanto più si scende verso sud. Questo tende a segnalare come, in tali
contesti, questo carattere sia relativamente più decisivo rispetto al nord, dove
i livelli di competitività gli sono legati meno strettamente39.
Tab. 7 - Effetto distretto “allargato”
Variabili esplicative
Coefficiente
Livello di significatività
DISTR
0.733
0.000
Nord ovest
1.467
0.000
Nord est
1.165
0.000
Sud
-2.452
0.000
Isole
-2.908
0.040
Costante
-1.111
Variabili esplicative con effetti di interazione territoriale
0.000
Distretto / Nord-Ovest
0.008
0.819
Distretto / Nord-est
0.471
0.007
Distretto / Centro
0.536
0.000
Distretto / Sud
0.735
0.000
Distretto / Isole
2.781
0.000
39
Per approfondire le tematiche dello sviluppo del Mezzogiorno secondo la prospettiva di
analisi dello sviluppo locale si può far riferimento ad esempio a Bàculo (1994 e 1997),
Meldolesi (1998), Meldolesi e Aniello (1998), Bodo e Viesti (1997) e Viesti (2000a e 2000b).
39
I modelli stimati su base settoriale con la variabile distretto40 mostrano che
solo la performance esportativa del settore DF è del tutto indifferente (DISTR
non è significativa) alla localizzazione all’interno di un SLL distrettuale. In
tutti gli altri casi si registra invece un effetto significativo positivo.
5. Riflessioni di sintesi
Il presente lavoro ha indagato, a livello teorico ed empirico, alcuni
possibili legami tra livelli di competitività dell’industria manifatturiera e
caratteristiche locali dei contesti produttivi e socioeconomici. Un primo
elemento di originalità, rispetto a precedenti analisi, è rappresentato dal fatto
di non considerare le singole unità produttive (imprese) come il riferimento
analitico, ma di porre al centro dell’attenzione direttamente i territori, i loro
caratteri e le forme organizzative dei comparti produttivi che vi sono
localizzati. Questo è stato possibile grazie alla disponibilità di dati in grado di
descrivere adeguatamente l’articolazione geografica della competitività e
degli assetti organizzativi locali. Sulla base di queste disponibilità
informative sono quindi state condotte delle stime econometriche volte ad
indagare i legami tra caratteri strutturali sistemici e livelli di competitività dei
territori.
I risultati delle stime condotte con l’utilizzo di modelli tobit mostrano, sia
a livello aggregato che settoriale, le forti capacità esplicative, sui livelli di
competitività, delle variabili che descrivono la probabile presenza di
economie esterne eterogenee (tipicamente legate ai contesti più urbani) ed
omogenee (legate ai fenomeni di agglomerazione di imprese con produzioni
similari). Più in particolare risulta sostanzialmente per tutti i settori, ad
esclusione di quelli dell’industria pesante, come la presenza di un sistema di
produzione locale configuri la presenza di vantaggi competitivi per le
imprese che lo compongono; ma anche che questi vantaggi sono amplificati
se il SPL connota significativamente la società locale. In questo caso infatti lo
spettro delle economie esterne attingibili dalle impresa si allarga, dall’ambito
strettamente economico produttivo, a quello sociale. I risultati sono
ampiamente confermati se si controlla la stabilità dei modelli attraverso delle
variabili dummy (geografiche) in grado di descrivere gli esistenti e noti
differenziali di accesso ai mercati esteri delle imprese localizzate nelle
diverse aree del Paese.
Le stime esplicitate con riferimento alla variabile distrettuale indicano
senza ambiguità l’esistenza di un effetto distretto, che abbiamo definito
allargato, in quanto beneficia tutti i comparti produttivi di un sistema locale,
siano essi o no distrettuali. L’effetto è positivo e significativo anche
specificando le stime a livello geografico e settoriale. Da questo punto di
40
Anche in questo caso i dati, non riportati, sono disponibili presso gli autori.
40
vista è importante notare come il coefficiente della variabile distretto sia
crescente man mano che si scende verso sud, quasi a suggerire come questa
opzione organizzativa divenga in questi contesti relativamente più importante
ai fini della competitività.
Anche se deve essere sottolineato che i risultati possono risentire di alcune
approssimazioni (ad esempio quella relativa all’aggregazione settoriale,
vincolata dalle caratteristiche dei dati disponibili), la stabilità di alcuni
risultati rende possibile tracciare alcune indicazioni di policy. Essi sembrano
infatti confermare la centralità della forza dei sistemi di produzione locale ai
fini della competitività delle imprese che li compongono. E che il vantaggio
competitivo, al di fuori dell’impresa, si attinge anche dalla società locale in
cui si opera, oltre che dentro il sistema di produzione. Ciò propone con forza,
a livello normativo, la tematica del ruolo degli attori pubblici e privati nella
costruzione di queste dimensioni di vantaggio competitivo, che spesso
assumono la forma di beni collettivi competitivi locali, come li definiscono
Le Gales e Voelzkow (2004). E quindi, della centralità delle adeguate forme
di governance a livello locale in grado di favorire la produzione e
riproduzione di essi.
Inoltre sembra anche evidente che, oltre a derivare inequivocabilmente da
assetti organizzativi peculiari (il distretto industriale), i vantaggi competitivi
possano affermarsi al crescere di alcune dimensioni tipiche di questa forma
organizzativa (i livelli di agglomerazione e di organizzazione sistemica delle
imprese e la pervasività di un’industria sulla società locale). Quest’ultimo
punto suggerisce che, in generale, ogni luogo può attingere dalle esperienze
di sviluppo più virtuoso anche incoraggiando gradualmente, e
compatibilmente con le condizioni locali, la formazione di alcune
caratteristiche organizzative favorevoli. Pur senza progettare la costruzione di
idealtipi organizzativi e sociali (tipicamente, il distretto), la cui affermazione
è invece il frutto di processi di lungo periodo e dell’’esistenza di condizioni
iniziali (di carattere sociale, economico, istituzionale, culturale, umano)
favorevoli.
41
BIBLIOGRAFIA
BÀCULO, L. (1994) (a cura di), Impresa forte e politica debole.
Imprenditori di successo nel Mezzogiorno, Esi, Napoli.
BÀCULO, L. (1997), “Segni di industrializzazione leggera nel
Mezzogiorno”, Stato e Mercato, n. 51, dicembre.
BAGELLA, M. – BECCHETTI, L. – SACCHI S. (1998),:
“Agglomerazione geografica delle imprese e performance nell’export:
un’analisi empirica su microdati per l’Italia”, Sviluppo Locale, V, 8,
pp.122-148.
BAGELLA, M. – BECCHETTI, L. (2000), “Effetto distretto e
performance delle esportazioni sotto diversi regimi di cambio: analisi
empirica e implicazioni per l’euro”, in Padoan P.C. (a cura di): L’euro e i
mercati reali, Il Mulino, Bologna.
BAGELLA, M. – BECCHETTI, L. – SACCHI, S. (2000), “The positive
link between geographical agglomeration and export intensity: the engine of
Italian endogenous growth?”, in Bagella M., Becchetti L. (eds) The
competitive advantage of industrial districts, Heidelberg: Physica-Verlag,
Germany.
BANCA D’ITALIA (2004), Economie locali, modelli di agglomerazione e
apertura internazionale, Nuove ricerca della Banca d’Italia sullo sviluppo
territoriale, Banca d’Italia, Roma.
BECATTINI, G. – MENGHINELLO, S. (1998), “Contributo e ruolo del
made in Italy distrettuale nelle esportazioni nazionali di manufatti”, Sviluppo
Locale, V, 9, 1998, pp. 5-41.
BECATTINI, G. (2000a), “Dal miracolo economico al made in Italy”, in
Dal distretto industriale allo sviluppo locale, Svolgimento e difesa di un’idea,
Bollati Borlinghieri, Torino.
BECATTTINI, G. (2000b), “Distrettualità tra industria e agricoltura”, in
Dal distretto industriale allo sviluppo locale, Svolgimento e difesa di un’idea,
Bollati Borlinghieri, Torino.
BECATTINI, G. (2000c), “Il distretto marshalliano come concetto socioeconomico”, in Becattini G. (2000) Il distretto industriale, Rosenberg &
Sellier, Torino, pp. 57-78.
BECATTINI, G. – MUSOTTI, F. (2003), “Measuring the district effect.
Reflections on the literature”, Banca Nazionale del Lavoro Quarterly Review,
n. 226, pp.259-290.
BECCHETTI, M. – ROSSI, S.P.S. (2000), “EU and non EU export
performance of Italian firms. Is there an industrial district effect?”, in Bagella
M., Becchetti L. (eds) The competitive advantage of industrial districts,
Heidelberg: Physica-Verlag, Germany.
BECCHETTI, L. – DE PANIZZA, A. – OROPALLO, F. (2003), Distretti
industriali: identità e performance, mimeo.
42
BELLANDI, M. (1994), “Le logiche del cambiamento economico locale”,
in Bellandi-Russo (a cura di): Distretti industriali e cambiamento economico
locale, Rosenberg & Sellier, Torino, 1994, pp. 31-39.
BELLANDI, M. (2003), Mercati, industrie e luoghi di piccola e grande
impresa, Il Mulino, Bologna.
BRUNORI, G. (1999), “Sistemi agricoli territoriali e competitività”,
XXXVI Convegno Sidea, Milano, 9-11 settembre 1999.
BRONZINI, R. (2000), “Sistemi produttivi locali e commercio estero:
un’analisi territoriale delle esportazioni italiane”, in Signorini L.F. (a cura di),
pp. 101-122.
BRONZINI, R. (2004), Distretti industriali, economie di agglomerazione e
investimenti esteri in Italia, in Banca d’Italia, pp. 355-387.
BODO, G. – VIESTI, G. (1997), La grande svolta. Il Mezzogiorno
nell'Italia degli anni novanta, Donzelli, Roma.
BONACCORSI, A. (1992), “On the relationship between firm size and
export intensity”, Journal of International Business Studies, 23, pp. 605-635.
BRUSCO, S. – PABA, S. (1997), “Per una storia dei distretti industriali
italiani dal secondo dopoguerra agli anni novanta” in Barca F. (a cura di):
Storia del capitalismo italiano dal dopoguerra a oggi, Donzelli Editore,
Roma, (pp. 265-333).
BRUSCO, S. (2001), “Prefazione”, di Baracchi-Bigarelli-Colombi-Dei:
Modelli territoriali e modelli settoriali, Quaderni Iris, Rosemberg & Sellier,
Torino.
CINGANO, F. – SCHIVARDI, F. (2004), Struttura produttiva locale e
crescita. Un’analisi basata sulla produttività in Italia, in Banca d’Italia
(2004), pp. 133-161.
CONTI, G. – MENGHINELLO, S. (1995), “Territorio e competitività:
l’importanza dei sistemi locali per le esportazioni italiane di manufatti”, in
Rapporto sul commercio estero 1995, ICE, Roma.
CONTI, G. – MENGHINELLO, S. (2000), “Euro, competitività e
territorio: alcune riflessioni sulle conseguenze reali del processo di
integrazione economica e monetaria”, in Padoan P.C. (a cura di): L’euro e i
mercati reali, Il Mulino, Bologna.
CONTI, G. – MENGHINELLO, S. (2003), “Sistemi di piccola impresa e
esportazioni: i fattori di competitività dell’industria italiana”, in Garofoli G. (a
cura di): Impresa e Territorio, Il Mulino, Bologna.
CRESTANELLO, P. – MENGHINELLO, S. (2001), “Aspetti territoriali
della competitività dell’industria veneta: un’analisi delle esportazioni per
sistema locale de lavoro”, Economia e Società Regionale, n. 2.
DEL COLLE, E. – ESPOSITO, G.F. (2000), Economia e statistica per il
territorio, Franco Angeli, Milano.
43
DURANTON, G. – PUGA, D. (2001), “Nursery cities: urban diversity,
process innovation, and the life cycle of products”, American Economic
Review, Vol. 19, pp. 1454-1475.
EATON, J. – ECKSTEIN, Z. (1997), “Cities and growth, Theory and
evidence from France and Japan”, Regional Science and urban economics,
vol.27, pp. 443-474.
ESPOSTI, R. – SOTTE, F. (2002), Le dinamiche del rurale. Letture del
caso italiano, Franco Angeli, Milano.
GLAESER, E.L. – KALLAL, H.D. – SCHEINKMAN, J.A. –
SHELEIFER, A. (1992), “Growth in cities”, Journal of Political Economy,
Vol. 100, pp. 1125-1152.
GAROFOLI, G. (2002), “Piccole imprese e distretti industriali: lo sviluppo
endogeno nel Mezzogiorno”, La Questione Agraria, n. 3, pp. 165-174.
GOLA, C. – MORI, A. (2000), “Agglomerazione spaziale e performance
internazionale”, in Signorini L.F., a cura di, pp. 67-100.
HENDERSON, V. – KUNCORO, A. – TURNER, M. (1995), “Industrial
development in cities”, Journal of Political Economy, Vol. 103,
pp. 1067-1090.
IMBRIANI, C. (1991), Commercio estero, competitività e specializzazione
dell’Italia, Franco Angeli, Milano.
ISTAT (1997), I sistemi locali del lavoro – Anno 1991 (a cura di
Sforzi F.), Serie Argomenti, n. 10, Roma.
ISTAT (2002): Le esportazioni dei sistemi locali del lavoro, (a cura di
S. Menghinello) Serie Argomenti, n. 22, Roma.
JACOBS, J. (1969), The economy of cities, Vintage, New York.
KRUGMAN, P. (1991), Geography and trade, MIT University Press,
Cambridge MA.
LEFEBVRE, E. – LEFEBVRE, L.A. – BOURGAULT, M. (1998), “R&Drelated capabilities as determinants of export performance”, Small Business
Economics, 10, pp.365-377.
LE GALES, P. – VOELZKOW, H. (2004), “La «governance» delle
economie locali”, in Crouch C., Le Gales P., Trigilia C. e Voelzkow H.; I
sistemi di produzione locale in Europa, Bologna, Il Mulino, pp. 7-43.
LIN, T. – SCHMIDT, P. (1984), “A test of the Tobit Specification
Against an Alternative Suggested by Cragg”, Review of Economics and
Statistics, 66, pp. 174-177.
MAP (Ministero delle Attività Produttive) (2002), L’esperienza italiana
dei distretti industriali, MAP, Roma.
MALIZIA, E. – KE, S. (1993), “The influence of economic diversity on
unemployment and stability”, Journal of Regional Science, Vol. 33, Issue 2,
pp. 221-236.
MELDOLESI, L. (1998), Dalla parte del Sud, Laterza, Bari.
44
MELDOLESI, L. – ANIELLO, V. (1998) (a cura di), “L’Italia che non
c’è: quant’è, dov’è, com’è”, Rivista di Politica Economica, vol. L n. VIII-IX e
X-XI, agosto-settembre ottobre-novembre, Roma.
MENGHINELLO, S. (2002), “Dimensione locale e competitività sui
mercati internazionali: il contributo dei sistemi locali di piccola e media
impresa alle esportazioni nazionali”, mimeo, Istat, Roma.
NONAKA, I. – TOYAMA, R. – KONNO, N. (2000), “SECI, Ba and
leadership: a unified model of dynamic knowledge creation”, in Long Range
Planning, n. 33.
PAVITT, K. (1984), “Sectoral patterns of technical change: towards a
taxonomy and a theory”, Research Policy, 28, pp. 819-832.
SACCHI, S. (2000), “Industrial districts, horizontal and vertical
integration and export performance”, in Bagella M., Becchetti L. (eds) The
competitive advantage of industrial districts, Heidelberg: Physica-Verlag,
Germany.
SCHUMPETER, J.A. (1951), The theory of economic development,
Harvard Univ. Press.
SFORZI, F. (1995), “Sistemi locali d’impresa e cambiamento industriale
in Italia”, AGEI-Geotema, n. 2.
SIGNORINI, L.F. (2000) (a cura di), Lo sviluppo locale – Un’indagine
della Banca d’Italia sui distretti industriali, Donzelli, Roma.
STERLACCHINI, A. (1999), “Do innovative activities matter to small
firms in non R&D intensive industries? An application to export
performance”, Research Policy, 28, pp. 819-832.
STERLACCHINI, A. (2001), “The determinants of export performance: a
firm level study in Italian manufacturing”, Quaderni di Ricerca n.142,
Università di Ancona, Dipartimento di economia.
VIESTI, G. (1993), La geografia delle esportazioni italiane: un’analisi sui
dati 1985-1991, Cerpem, Bari.
VIESTI, G. (1995), “La geografia delle esportazioni italiane”, Rivista di
Politica Economica, IV, Aprile 1995.
VIESTI, G. (1997), “Le esportazioni dei sistemi italiani di piccola e media
impresa”, Quaderni di Ricerca ICE, n.3.
VIESTI, G. (2000a), Come nascono i distretti industriali, Laterza, Bari.
VIESTI, G. (2000b) (a cura di), Mezzogiorno dei distretti, Meridiana Libri,
Roma.
WAGNER, J. (1995), “Exports, firm size, and firm dynamics”, Small
Business Economics, 7, pp. 29-39.
WAGNER, J. (2001), “A note on the firm Size –Export relationship”,
Small Business Economics, 17, pp. 229-237.
WAKELIN, K. (1998), “Innovation and export behaviour at the firm
level”, Research Policy, 26 (7-8), pp. 829-841.
45
DIRITTI DI PROPRIETA’, INCENTIVI ED ESTERNALITA’
Giuseppe Clerico*
JEL Classification: H11, H23, K11, K12, K13
Parole chiave: esternalità, diritti di proprietà, incentivi, efficienza,
contrattazione, regolamentazione
1. Introduzione
Secondo un’opinione molto diffusa il diritto di proprietà, in primis la
proprietà privata, rappresenta l’architrave dei diritti umani e l’espressione più
tangibile della libertà umana (Rose, 1999; Bell e Parchomovsky, 2004). La
normativa sui contratti e sulla responsabilità extracontrattuale si impernia sul
principio del diritto di proprietà. Il diritto romano definisce il diritto di
proprietà come il diritto individuale di usare, godere e trasferire un bene e
come il diritto di escludere terzi dall’uso e dal godimento dello stesso bene.
Un sistema socio-economico basato sull’economia di mercato richiede, per
funzionare in modo adeguato, diritti di proprietà definiti e garantiti. La
scarsità delle risorse, l’incremento della popolazione, l’incentivo individuale
all’interesse privato e la competizione dei bisogni sono alla base dell’origine,
della definizione e dell’evoluzione dei diritti di proprietà (Demsetz, 1964,
1967, 1972, 1996, 2002). Forme molteplici di diritti di proprietà (dalla
proprietà privata a quella pubblica, dal commons alle organizzazioni senza
fini di lucro) si sono avute e si hanno in tutte le varie fasi della storia umana.
In ciascuna fase i diritti di proprietà, in quanto diritti sociali che dipendono
dai valori prevalenti e dai rapporti di potere delle varie classi, si differenziano
per la loro natura e per la loro estensione. La tutela dei diritti di proprietà
implica, in particolare, la soluzione di due problemi: la loro definizione e la
loro garanzia. Nei moderni sistemi socio-economici i diritti di proprietà sono
garantiti, oltre che dalle norme sociali, dallo Stato attraverso leggi e
regolamenti.1 I costi di esclusione e i costi di transazione limitano la
definizione e la garanzia dei diritti di proprietà. Obiettivo primario di un
*
Professore ordinario di Scienza delle finanze, Università del Piemonte orientale ‘Amedeo
Avogadro’, Facoltà di Giurisprudenza (Sede di Alessandria), Dipartimento di Scienze
giuridiche ed economiche e Università di Torino - Dipartimento di Economia;
E-mail [email protected]
1
Consideriamo come norme sociali i comportamenti umani che liberamente tendono a
perpetrarsi nel corso del tempo in quanto self-enforcing. Valutazioni ispirate al calcolo privato,
la minaccia di sanzioni sociali e il sentimento di reciprocità possono spiegare l’origine e eil
consolidamento delle norme sociali all’interno di una comunità (Clerico, 2004; Young, 1996;
Ullman Margalit, 1977; Bowles e Gintis, 2002, 2003; Henrich, 2004).
47
sistema di diritti di proprietà definito e garantito è quello di disciplinare e
governare l’interazione umana. Il titolare di un diritto di proprietà, dati i
vincoli legali e sociali, esercita il proprio diritto per perseguire al meglio il
proprio interesse privato. Il legittimo esercizio di un diritto di proprietà può
causare, tuttavia, un danno a terzi: gli economisti definiscono questo evento
come esternalità negativa. Sul problema dell’esternalità negativa, visto non
tanto e non solo come problema tecnico, ma soprattutto come problema
sociale, si fronteggiano, con riferimento all’analisi economica, due distinti
approcci: l’approccio di Pigou e l’approccio di Coase. Si tratta di approcci
alternativi: l’approccio di Pigou si impernia sul ruolo centrale svolto dallo
Stato; mentre Coase sottolinea il ruolo del mercato come strumento per
risolvere il problema delle esternalità.
Questo lavoro è così organizzato. Il paragrafo successivo esamina,
partendo da una situazione di commons puro, le ragioni che giustificano
l’origine di un sistema di diritti di proprietà, in particolare privato. Un
secondo paragrafo analizza il problema delle esternalità focalizzando
soprattutto l’attenzione sull’approccio di Pigou e di Coase e sui problemi e
sui limiti dei due approcci. Il terzo paragrafo esamina, in particolare, le
critiche all’aproccio di Coase avanzate da Demsetz. Le osservazioni
conclusive sintetizzano i principali risultati del lavoro.
2. Scarsità, incentivi, efficienza ed origine dei diritti di proprietà
L’analisi economica dei diritti di proprietà parte dalla constatazione che la
vita umana comporta sistematicamente una scelta fra alternative, dati il
vincolo di bilancio e la scarsità delle risorse disponibili. Pertanto, al centro
dell’analisi dei diritti di proprietà va posto il comportamento individuale
(Anderson e McChesney, 2003). L’analisi economica del comportamento
individuale si basa su quattro postulati:
a)
b)
c)
postulato 1- La scarsità delle risorse (ivi incluso il reddito
disponibile) caratterizza le scelte umane. Ciascun soggetto fronteggia
un vincolo nelle proprie scelte.
postulato 2- Dato il vincolo della scarsità, il soggetto,
compatibilmente con i propri vincoli cognitivi, procede ad una
valutazione economica dei costi e dei benefici delle proprie scelte. Al
margine, ogni scelta deve garantire al soggetto la stessa utilità
ponderata.
postulato 3- Data la scarsità delle risorse i soggetti, motivati
prevalentemente dal calcolo e dall’interesse privato, competono per
le risorse al fine di soddisfare i propri obiettivi. La competizione
necessita di essere governata da norme legali e sociali.
48
d)
postulato 4- In presenza di soggetti motivati prevalentemente dal
calcolo e dall’interesse privato un sistema di diritti di proprietà
definiti e garantiti favorisce la definizione di contratti fra i soggetti in
grado di massimizzare, ceteris paribus, il surplus congiunto dei
contraenti. Come risultato è massimo, ceteris paribus, il benessere
sociale.
La scarsità delle risorse e la competizione dei bisogni individuali non sono
l’unica e più convincente spiegazione dell’origine e dell’evoluzione
dell’istituzione della proprietà. Infatti, al centro del problema della proprietà
si pone il problema degli incentivi individuali in termini di obiettivi e di
sforzo individuale. La natura e l’importanza sia degli incentivi sia dello
sforzo possono essere comprese considerando, in particolare, il caso di un
commons puro, ossia il caso di un regime di proprietà in cui l’acceso alla
risorsa e l’uso della stessa sono assolutamente liberi ed esclusivamente
dipendenti dal calcolo soggettivo e dall’interesse privato (Gordon, 1954). In
un commons puro, dati gli incentivi individuali e la scarsità della risorsa, il
rischio è l’esaurimento della risorsa medesima. Ciascun soggetto, infatti, allo
scopo di massimizzare il proprio prodotto privato, ha l’incentivo ad uno
sforzo individuale eccessivo, ossia superiore al livello efficiente.2 Ogni
soggetto che accede al commons puro fa crescere il prodotto totale, ma, data
la scarsità delle risorse, il prodotto marginale decresce all’aumentare degli
accessi. Ciascun soggetto ha l’incentivo ad accedere al commons fino al
punto in cui il proprio prodotto medio eguaglia il proprio costo marginale di
accesso. In questo punto, però, il ricavo marginale è inferiore al costo
marginale causando un’inefficienza d’uso della risorsa. Come risultato, un
commons puro, senza regole di governo per l’accesso e l’uso, non funziona in
quanto può causare l’esaurimento della risorsa. In linea di principio, tuttavia,
regole sociali e legali per l’accesso e per l’uso, in quanto favoriscono la
cooperazione fra i soggetti aventi il diritto d’accesso e di uso, possono
garantire un adeguato funzionamento di un commons senza necessariamente
procedere alla sua privatizzazione, così come richiederebbe il criterio di
efficienza. Per una data collettività l’uso eccessivo di un commons, consentito
dall’assenza o dalla carenza di regole per l’accesso e per la produzione,
costituisce un’esternalità negativa superabile con norme sociale e legali o, al
limite, con la privatizzazione. Contrariamente a quanto accade nel caso di un
commons puro, la proprietà privata di una risorsa incentiva il proprietario allo
sforzo efficiente e non comporta rischi di uso eccessivo. Nel caso della
proprietà privata i costi di transazione sono contenuti, ma i costi di esclusione
2
Per sforzo efficiente si intende quello sforzo per cui, al margine, ossia per l’ultima unità di
sforzo, il costo dello sforzo (che implica disutilità) eguaglia il beneficio, ossia l’incremento di
prodotto.
49
sono elevati e tali, in casi estremi, da ridurre sensibilmente il valore netto del
prodotto (Anderson e Swimmer, 1997).
Intermedi ai due regimi di proprietà finora esaminati possiamo concepire
due altri regimi di proprietà entrambi con accesso ristretto alla risorsa, ma
con incentivi individuali allo sforzo antitetici:
a) regime con input condiviso. Si tratta di un regime in cui un dato
numero di soggetti condivide l’uso di una risorsa ricavandone un prodotto
che, ceteris paribus, dipende dallo sforzo individuale. Come conseguenza, lo
sforzo individuale è eccessivo e si ha un rischio di esaurimento della risorsa,
così come accade nel commons puro, ma con costi di esclusione significativi.
b) Regime con output condiviso. In questo regime un dato numero di
persone usa congiuntamente la risorsa il cui prodotto è egualmente ripartito
fra le persone stesse. Come risultato l’incentivo allo sforzo è subottimale
(fenomeno del moral hazard); il prodotto ottenuto è subottimale e lo
sfruttamento della risorsa è inefficiente.
In termini di incentivi lo sforzo è ottimale solo per la proprietà privata, ma
il prodotto netto di questo regime è inferiore al prodotto netto in condizioni
ideali a causa soprattutto della rilevanza dei costi di esclusione. Tuttavia, un
regime di mercato imperniato su un sistema di diritti di proprietà privata non
costituisce, sic et simpliciter, la soluzione ideale ai problemi dell’interazione
umana.3 In proposito, infatti, la letteratura economica ha individuato alcuni
problemi che un sistema di mercato basato sulla proprietà privata non è in
grado di risolvere. Il riferimento è, in particolare, alle condizioni in cui:
sussistono le condizioni tipiche del monopolio naturale; si è in presenza di
beni pubblici puri; vi sono esternalità sia positive sia negative; i soggetti
interagiscono in condizioni di asimmetria informativa. In tutti questi casi si
parla di fallimento del mercato. In sostanza, il fallimento del mercato si ha
per tre fondamentali motivi: il prezzo è superiore al costo marginale (come
può accadere in caso di monopolio e di asimmetria informativa); il prezzo di
mercato non è tale da internalizzare tutti i costi e i benefici connessi alla
produzione (è il caso delle esternalità); il produttore non è in grado di
ottenere da ciascun consumatore il relativo prezzo (caso dei beni pubblici
puri). Il fallimento del mercato giustifica, almeno in linea di principio,
l’intervento dello Stato. Questo vale, in particolare, nel caso delle esternalità.
3
Accanto alla forme stilizzate di regimi di proprietà finora esaminate possiamo rilevare anche
la presenza di forme specifiche di diritti di proprietà quali, in particolare, l’impresa pubblica,
l’impresa cooperativa e l’impresa senza fini di lucro. In senso stretto l’impresa pubblica nasce
o in condizioni di monopolio naturale o per la fornitura, gratuita o sottocosto, di beni pubblici
o di beni meritori. L’impresa cooperativa, in linea di principio, ha soprattutto un obiettivo
solidaristico e mutualistico: tutelare i propri soci massimizzando il loro ricavo medio netto.
L’impresa senza fini di lucro sorge, in particolare, per due ragioni essenziali: tutela della
qualità del prodotto; e fallimento del contratto. L’asimmetri informativa è un’adeguata
spiegazione dell’origine di questo tipo di impresa.
50
Tuttavia, su questo problema, come vedremo successivamente, l’approccio
degli studiosi è antitetico (approcccio di Pigou versus approccio di Coase).
In linea di principio il problema dell’allocazione del diritto di accesso a
una risorsa scarsa può essere spiegato facendo ricorso a due variabili
esplicative: i costi di transazione; e i costi di esclusione. A fronte di N
soggetti la ripartizione di una data risorsa fra gli stessi soggetti può essere
fatta lungo un continuum che va dal commons regolato alla proprietà privata
pura (ogni soggetto ottiene una quota eguale della risorsa totale). A livello
sociale l’obiettivo è la determinazione del numero ottimale di parti (m*) in
cui ripartire fra gli N soggetti la risorsa data. Nel caso del commons regolato i
costi di esclusione (Em) sono al livello minimo, mentre sono massimi i costi
di transazione (Tm) che devono essere sopportati per governare l’accesso alla
risorsa dei soggetti che ne hanno diritto. Per contro, con un regime di
proprietà privata pura i costi di transazione per l’accesso alla risorsa sono
minimi, mentre sono massimi i costi di esclusione. Il numero ottimale di parti
in cui allocare la risorsa fra gli N soggetti si determina nel punto di
intersezione delle due curve dei costi in cui è minimo il valore della somma
dei costi di esclusione e dei costi di transazione (Field, 1989).
Graf. 1 - Numero efficiente di parti
€
Tm
Em
1
m*
51
N
Questo modello teorico sull’allocazione del diritto di accesso ad una
risorsa scarsa evidenzia il ruolo determinante del criterio di efficienza: la
minimizzazione della somma dei due costi consente di massimizzare il valore
netto del prodotto derivante dall’uso di quella risorsa. Solo in presenza di
costi di esclusione particolarmente bassi è ottimale un regime di proprietà
privata pura. Un simile regime di proprietà garantisce sempre uno sforzo
ottimale del proprietario. Le forme intermedie di allocazione del diritto di
accesso fra N soggetti ad una risorsa scarsa non sono sempre in grado di
garantire uno sforzo efficiente. La proprietà privata, rispettando il criterio di
efficienza, consente la massimizzazione della ricchezza, ma solleva un
problema di giustizia distributiva che costituisce un altro possibile modo
d’essere del fenomeno delle esternalità connesso alla proprietà privata: i
soggetti esclusi dal diritto di accesso alla proprietà privata sopportano una
disutilità. La nascita del diritto di proprietà privata risolve il problema del
rispetto del criterio di efficienza, ma non rispetta il criterio del benessere
suggerito da Pareto. Infatti, il proprietario privato ottiene un incremento di
benessere, ma tutti gli esclusi subiscono un danno dal regime privato di
accesso ad una data risorsa. La presenza di diritti di proprietà (in particolare
privati) garantiti e definiti è una conditio sine qua non per un adeguato
funzionamento del sistema di mercato. In proposito, tuttavia, va rilevato che
anche il mercato è un’istituzione (una regola del gioco) che comporta propri
costi di transazione. Quando i costi di transazione per l’uso del mercato sono
eccessivi sorge l’impresa, da intendersi come istituzione alternativa al
mercato per la produzione e lo scambio di beni (Coase, 1937). Analogamente,
anche i diritti di proprietà privata sono un’istituzione sorta per ridurre i costi
di transazione. I diritti di proprietà privata riducono i costi dello scambio,
incentivano allo sforzo efficiente, ma l’attività di produzione e di scambio
governata da questo regime può generare danni (esternalità) a terzi rendendo
necessario l’individuazione di un metodo per risarcire le vittime da un lato e
per fare sì che colui che causa il danno ne internalizzi il costo dall’altro lato.
All’analisi di questo problema è dedicato il paragrafo successivo.
3. Diritti di proprietà e esternalità
La produzione di beni è finalizzata al loro scambio e consumo. L’attività
di scambio, governata dal contratto, implica una cooperazione fra i
contraenti. I contraenti, firmando liberamente il contratto, massimizzano il
surplus congiunto dello scambio (somma del surplus del consumatore e del
52
surplus del venditore).4 L’implementazione del contratto può essere fonte di
conflitto con soggetti terzi estranei al contratto. Il riferimento è, ad esempio,
al danno che l’attività di produzione può causare a soggetti non direttamente
coinvolti nel processo di produzione e di scambio. In presenza di
un’esternalità negativa emerge una discrepanza fra costo privato, sopportato
direttamente dal produttore, e costo sociale totale che include anche il valore
del danno addossato ad altri. L’esempio della fonderia e della vicina
lavanderia fornisce un’idea del problema. La fonderia può inquinare
l’ambiente e danneggiare i panni stesi della lavanderia. L’attività della
fonderia, in aggiunta ai propri costi diretti di produzione, impone alla
collettività anche il costo del danno sopportato dalla lavanderia. Tuttavia, per
la fonderia i costi privati di produzione (appunto i costi diretti) sono inferiori
ai costi sociali totali (inclusivi anche del danno recato alla lavanderia).
Pertanto, la produzione della fonderia è superiore al livello che sarebbe
efficiente avere qualora essa tenesse conto non dei costi privati di produzione,
ma dei costi sociali più elevati. Il prezzo del bene (la cui produzione causa il
danno) che si forma liberamente sul mercato riflette il costo privato, ma non
il costo sociale. Non vi è, quindi, la completa internalizzazione dei costi a
carico della fonderia. Non solo la produzione della fonderia è eccessiva, ma
risulta anche eccessiva la dimensione del mercato, favorita dal minor prezzo
(che non riflette il costo sociale totale). A livello sociale il criterio di
efficienza richiede che il valore del danno (un modo d’essere del costo di
produzione) sia internalizzato, ossia sopportato, in linea di principio, dal
soggetto che lo genera e sia così trasferito sul prezzo di mercato (Cooter e
Ulen, 2004). L’internalizzazione del valore del danno in quanto accresce il
prezzo del bene comporta un minor livello di produzione atto a minimizzare
il costo sociale totale.
Sulle modalità atte a favorire l’internalizzazione del danno sussiste un
evidente contrasto di principio fra l’approccio di Pigou e l’approccio di
Coase. Di seguito presentiamo un’analisi sintetica dei due approcci.
a) L’approccio di Pigou
Prima della pubblicazione nel 1960 del saggio di Ronald Coase “ The
Problem of Social Cost” la soluzione al problema delle esternalità (in
particolare negative) prevalente nella letteratura economica era quella
suggerita sin dal 1920 da Pigou. Pigou pur non cogliendo del tutto
l’importanza analitica dei costi di transazione era, però, consapevole degli
ostacoli che impediscono al mercato (attraverso la libera contrattazione delle
parti) la soluzione del problema delle esternalità negative, ossia il rispetto del
4
La massimizzazione del surplus congiunto implica il rispetto del criterio di efficienza. La
ripartizione di tale surplus solleva problemi di giustizia distributiva e dipende, in sostanza, dai
rapporti di forza dei contraenti stessi.
53
principio che il costo del danno va addossato a chi lo ha causato.5 A fronte
dell’impossibilità del mercato di risolvere adeguatamente il problema delle
esternalità Pigou suggerisce, come strumento risolutivo, l’intervento dello
Stato assunto come benevolente e onnisciente. Nel caso della relazione
fonderia-lavanderia l’applicazione di un’imposta pari alla differenza fra costo
marginale sociale e costo marginale privato risolve il problema, ossia
costringe la fonderia a sopportare interamente il costo sociale di produzione.
In sostanza, l’imposta addizionale al costo privato di produzione costringe la
fonderia ad internalizzare interamente il costo del danno. Come risultato del
processo di internalizzazione si hanno: un livello minore di produzione della
fonderia (il costo è maggiore) e, quindi, un minor valore del danno; un prezzo
del bene prodotto dalla fonderia maggiore e, quindi, una minore dimensione
del mercato. L’approccio di Pigou implica, in aggiunta a uno Stato
benevolente, uno Stato onnisciente e onnipotente e l’ipotesi che l’intervento
dello Stato non comporti alcun costo.6 In sostanza Pigou trascura: il
fenomeno dell’asimmetria informativa (lo Stato può conoscere il danno, ma
non il costo privato di produzione del soggetto che causa il danno); il fatto
che l’intervento pubblico, oltre a comportare il costo addizionale della
burocrazia, richiede anche che lo Stato, o meglio l’Autorità politica al potere,
abbia la volontà e l’interesse di fare una scelta a favore delle vittime delle
esternalità e contro coloro che le causano.
b) L’approccio di Coase
Coase non ritiene credibile l’aproccio di Pigou, in particolare per la
carenza e per il costo delle informazioni necessarie per definire il livello del
tributo da applicare. Tuttavia, l’asimmetria informativa non è l’unica critica
di Coase a Pigou. Coase ritiene, infatti, che l’approccio di Pigou, definendo
ex ante un soggetto come la causa del danno e l’altro soggetto come la
vittima del danno, presupponga una data iniziale allocazione dei diritti di
proprietà. La conseguente imposizione del tributo sul soggetto causa del
danno trascura di considerare gli effetti sul comportamento della potenziale
vittima, in termini di incentivi a minimizzare il valore del danno. In
5
Il ruolo e l’importanza dei costi di transazione sono teorizzati da Coase nell’articolo del 1937
“The Nature of the Firm”. In questo saggio Coase spiega l’origine dell’impresa, da intendersi
come alternativa agli scambi di mercato, usando come strumento esplicativo i costi di
transazione: l’organizzazione impresa sorge in quanto comporta costi di transazione
relativamente inferiori a quelli che gli agenti economici si trovano a sopportare usando gli
scambi di mercato.
6
In proposito, l’approccio della Public Choice sottolinea, in particolare, che lo Stato non
necessariamente è benevolente. Infatti, nella realtà, l’intervento dello Stato può essere mirato
non alla massimizzazione del benessere sociale, secondo l’approccio dell’ottimo paretiano,
bensì alla massimizzazione del benessere di una parte contro la residua parte della
popolazione. Inoltre, l’intervento dello Stato nella realtà avviene in un ambiente caratterizzato
da asimmetria informativa e da costi positivi di intervento.
54
particolare, la vittima del danno, dato l’approccio di Pigou, non ha, in linea di
principio, alcun incentivo a sostenere direttamente l’eventuale minore costo
per evitare, o comunque, alleviare, il valore del danno. In proposito, Coase
(1988) analizza un caso concreto per meglio esplicitare il proprio punto di
vista. Un impianto produttivo causa, su base annua, un danno (esternalità
negativa) uguale a $ 100. Il proprietario dell’impianto con un costo di $ 90
può installare un meccanismo atto ad evitare il danno. Secondo l’approccio di
Pigou il proprietario dell’impianto deve sopportare un tributo pari a $100.
Secondo Coase, invece, il proprietario dell’impianto preferisce installare il
suddetto meccanismo che gli consente un risparmio di costo uguale a $ 10. Il
risultato, tuttavia, può non essere ottimale in quanto non si considera il
possibile comportamento alternativo della vittima del danno causato
dall’impianto. Infatti, se la vittima può evitare il danno con costo, ad esempio
$ 40, inferiore a quello sostenuto dal proprietario dell’impianto il criterio
dell’efficienza richiede che sia la vittima a sostenere il costo per evitare il
danno. In questo caso, in assenza di intervento pubblico l’impianto continua
ad inquinare, ma si potrebbe conseguire un incremento di produzione e di
valore pari a $ 50 ($ 90 - $ 40). Nella visione di Coase l’approccio di Pigou
trascura di considerare che l’esternalità negativa implica un’interdipendenza
del danno derivante dalle scelte individuali.
La novità dell’approccio di Coase non risiede tanto nel ruolo attribuito ai
costi di transazione quanto, invece, nel ruolo assegnato alla contrattazione
privata (mercato) in alternativa all’intervento pubblico come strumento per
risolvere il problema dell’esternalità. La contrattazione privata fra le parti, in
presenza di costi di transazione nulli o bassi, permette la soluzione del
problema delle esternalità senza intervento pubblico. Inoltre, la contrattazione
privata consente di addossare il costo alla parte che può evitare il danno al
minor costo. Con costi di transazione nulli la contrattazione privata favorisce
un’allocazione efficiente delle risorse indipendentemente dall’assegnazione
iniziale dei diritti di proprietà. Con costi di transazione nulli si ripristina la
situazione tipica della concorrenza perfetta in cui vi è l’uguaglianza fra costo
privato e costo sociale (Stigler, 1966). Il risultato dell’approccio di Coase si
basa su un fondamentale postulato della microeconomia secondo il quale il
libero scambio di mercato favorisce l’allocazione efficiente delle risorse nel
rispetto del criterio paretiano indipendentemente dall’assegnazione iniziale
dei diritti di proprietà. In condizioni ideali, quindi, il mercato è in grado di
risolvere il problema dell’allocazione non ottimale dei diritti di proprietà. I
costi di transazione diventano un ostacolo per la soluzione del problema
dell’esternalità solo quando sono positivi e significativi. In tal caso il mercato
può fallire e giustificare un intervento pubblico alla Pigou. In assenza di
significativi costi di transazione il compito dello Stato è unicamente quello di
definire e garantire i diritti di proprietà, compito peraltro risolvibile con il
libero funzionamento del mercato. Il mercato, in condizioni ideali, così come
55
risolve il problema dell’efficienza nell’allocazione delle risorse risolve anche
il problema delle esternalità. Il rispetto del criterio di efficienza richiede
unicamente che i diritti di proprietà siano definiti e garantiti.
Indipendentemente dall’assegnazione iniziale dei diritti di proprietà il
problema del danno sarà risolto dal soggetto che lo può fare al minor costo.
Con riferimento all’esempio sopra descritto la legge può assegnare al
proprietario dell’impianto il diritto di inquinare o può attribuire alla vittima
del danno il diritto a non essere danneggiato. Nel primo caso spetterà alla
vittima del danno evitare il danno sopportando direttamente il costo di $40.
Nel secondo caso, invece, a conclusione del processo di contrattazione, il
proprietario dell’impianto che causa il danno trasferirà alla vittima l’importo
di $ 40 per evitare il danno (40 è minore di 90).
La contrattazione permette una riallocazione dei diritti di proprietà tale da
garantire il massimo surplus congiunto dei due contraenti nel rispetto del
criterio di efficienza. La critica all’approccio di Coase si concentra,
prevalentemente, sul mutamento dell’assegnazione iniziale dei diritti di
proprietà. Infatti, secondo i critici, ogni mutamento nell’allocazione dei diritti
di proprietà crea potenzialità di disequilibrio nel sistema economico (Parisi,
1995). Le critiche sostanzialmente si concentrano su tre punti essenziali:
a)
b)
c)
secondo un primo filone critico l’approccio di Coase trascura gli
effetti dinamici e di disequilibrio derivanti dal trasferimento dei diritti
di proprietà (Wellisz, 1964; Calabresi, 1965). L’approccio di Coase è
di natura statica, ma la contrattazione, in quanto comporta mutamenti
nell’assegnazione dei diritti di proprietà, può comportare, nel lungo
periodo, disequilibri nel sistema.
il secondo filone critico considera gli effetti distributivi
dell’approccio di Coase (Nutter, 1968; Regan, 1972). Il trasferimento
dei diritti di proprietà può comportare anche un mutamento nella
distribuzione della ricchezza. Inoltre, anche prescindendo dagli effetti
distributivi, il detentore iniziale del diritto di proprietà può assumere
un comportamento strategico che ostacola il funzionamento del
meccanismo suggerito da Coase (Wellisz, 1964; Calabresi, 1965).
il terzo filone di critica si basa sull’ipotesi irrealistica dei costi di
transazione nulli (Cooter, 1987). L’ipotesi è una finzione ideale.
Eliminata tale finzione l’approccio di Coase diventa una tautologia.
Consideriamo il primo filone critico facendo riferimento al classico
esempio presentato da Coase nel saggio del 1960: quello inerente la relazione
fra l’allevatore di bovini (rancher) e il coltivatore di grano (farmer). Gli
animali allo stato brado possono causare un danno al farmer. Supponiamo
che il rancher abbia il diritto (in quanto previsto dalla legge) di fare pascolare
liberamente i propri animali. Il farmer dovrà pagare al rancher il costo più
56
basso per fare sì che il rancher azzeri il danno per il farmer. Come
conseguenza il costo dell’attività del rancher non riflette il costo del danno
imposto al farmer. Pertanto, il trasferimento dei diritti di proprietà e della
responsabilità del danno comporta una modifica nella ricchezza e nei costi
relativi associati alle due attività. Come risultato si ha un disequilibrio nel
sistema. Il costo unitario di produzione del farmer crescerà e si avrà una
riduzione nel reddito netto del medesimo. Emergerà una tendenza ad
impiegare risorse in altri settori produttivi con conseguente disequilibrio del
sistema economico nel lungo periodo. In proposito, Guido Calabresi (1968),
uno dei critici su questo problema, successivamente ammette che se i costi di
transazione sono nulli gli effetti di disequilibrio di lungo periodo possono a
loro volta essere curati dalla libera contrattazione fra le parti in grado di
ristabilire un’allocazione efficiente delle risorse fra gli impieghi alternativi.
Anche Demsetz (1972) concorda sul fatto che gli effetti di disequilibrio di
lungo periodo non inficiano il risultato di breve periodo dell’approccio di
Coase. Nella sostanza, Demsetz sostiene l’analogia fra il principio di
allocazione di risorse scarse fra usi alternativi e il principio di ottimizzazione
vincolata dello stesso soggetto fra attività in conflitto fra loro. Quando lo
stesso proprietario svolge simultaneamente le due attività di farming e di
ranching ha l’incentivo ad usare le risorse disponibili così da massimizzare il
beneficio netto delle due attività sia nel breve sia nel lungo periodo.
Analogamente, se le due attività sono gestite da due proprietari diversi lo
squilibrio, generato dall’attribuzione iniziale dei diritti di proprietà e dal
risultato della relativa contrattazione, si avrà solo nel breve periodo. Con
diritti assegnati al rancher il costo del prodotto del farmer cresce, ma
aumenta anche il prezzo del prodotto stesso, attirando nuovi investimenti
nell’attività di farming, e favorendo così una successiva riallocazione delle
risorse che alla fine del processo di aggiustamento porta al riequilibrio dei
rendimenti delle due attività nel rispetto del criterio dell’allocazione
efficiente. D’altro canto, con costi nulli di transazione il rancher, per favorire
una maggiore produzione del farmer ridotta dall’incremento del costo, può
essere disposto a pagare il farmer per consentire un incremento di
produzione. Secondo alcuni studiosi (quali Regan, 1972) il trasferimento dei
diritti di proprietà comporta anche un trasferimento irreversibile di ricchezza.
Questa posizione non è condivisa da Coase (1988) secondo il quale il
trasferimento di ricchezza è solo temporaneo.
Consideriamo ora il secondo filone critico. Secondo questa critica la
riallocazione dei diritti di proprietà, favorita dai costi nulli di transazione,
comporta un mutamento strutturale nella distribuzione della ricchezza. Coase
(1988) contesta questa conclusione. Supponiamo che il farmer abbia il diritto
garantito dalla legge, all’integrità del proprio raccolto. Come risultato il
rancher deve sostenere il costo per evitare il danno al farmer.
Conseguentemente, il prezzo dell’attività del rancher dovrà essere scontato
57
del costo della sua responsabilità civile nei confronti del farmer. La terra del
farmer, protetta dal diritto, aumenterà di valore e spunterà sul mercato un
prezzo maggiore. In definitiva, il mutamento nei costi relativi delle due
attività tende a controbilanciare gli effetti patrimoniali deivanti
dall’assegnazione iniziale del diritto di proprietà. Data la distribuzione dei
diritti di proprietà tra le due attività si avrà un aggiustamento nei prezzi
relativi dei due prodotti: inizialmente cresce il prezzo del bene del rancher e
diminuisce quello del farmer. Tuttavia, nel lungo periodo la distribuzione
della ricchezza resterà inalterata in seguito alla riallocazione degli impieghi
delle risorse nel rispetto del criterio di efficienza. Il mutamento nei prezzi, in
sostanza, prontamente compensa lo squilibrio temporaneo causato dal
mutamento nei diritti di proprietà.
L’analisi di Coase presuppone un sistema statico di regole legali. Con un
simile sistema, a prescindere dall’assegnazione iniziale dei diritti di proprietà,
l’equilibrio è garantito dal mutamento dei prezzi relativi che compensa
completamente gli effetti distributivi delle norme legali stesse.
L’aggiustamento dei prezzi dei fattori produttivi è tale da impedire ogni
variazione nelle rispettive curve di domanda e di offerta. Tuttavia, l’analisi di
Coase diventa meno convincente nell’ipotesi di improvvisi e frequenti
mutamenti nei diritti di proprietà. In tal caso, infatti, il sistema dei prezzi può
non essere in grado di adattarsi immediatamente per compensare le perdite
subite dai proprietari causate da mutamenti improvvisi nelle regole di
responsabilità civile. A questa possibilità Coase (1988) reagisce sostenendo
che gli effetti distributivi di diverse regole di responsabilità civile possano
essere compensati da accordi contrattuali fra le parti tali da fare dipendere il
prezzo di mercato di ogni proprietà da possibili mutamenti nelle regole legali.
In tal modo ogni contraente sarebbe protetto da involontari trasferimenti di
ricchezza connessi a mutamenti esogeni nelle regole relative ai diritti di
proprietà e alla responsabilità civile del danno.
Secondo alcuni studiosi (Wellisz, 1964; Calabresi, 1965), anche in
presenza di costi nulli di transazione, il comportamento strategico, in
particolare del titolare del diritto (nella fattispecie a fare pascolare
liberamente gli animali piuttosto che ad essere tutelato nella conservazione
del proprio prodotto) può impedire il funzionamento dell’approccio suggerito
da Coase. Il titolare del diritto, infatti, è consapevole del fatto che può
sfruttare la titolarità del diritto a fini privati. In proposito, Coase non fornisce
una risposta puntuale al problema di cui, invece, si occupa Demsetz (1972).
Secondo Demsetz il comportamento strategico è possibile, ma alla fine del
processo di contrattazione l’allocazione delle risorse dei due contraenti sarà
ispirata al criterio di efficienza: in sostanza, la somma dei valori delle due
attività è massimizzata al termine del processo di contrattazione a prescindere
dalla distribuzione del surplus totale del contratto fra i contraenti stessi. In
definitiva, il comportamento strategico, secondo Demsetz, può modificare la
58
distribuzione del surplus totale, ma non l’efficienza allocativa. Inoltre, va
tenuto presente che il comportamento strategico non funziona se il mercato è
di concorrenza perfetta. Ad esempio, il rancher, titolare del diritto di fare
pascolare liberamente gli animali, può minacciare, al fine di conseguire una
rendita, di accrescere il numero delle bestie, ma una simile scelta fa crollare il
prezzo del bestiame.
Solo con un mercato imperfetto il comportamento strategico diventa una
scelta credibile. Il comportamento strategico dipende anche dalla specificità
dell’attività svolta dai contraenti. L’attività del farmer, ad esempio, implica
degli investimenti specifici e talora non recuperabili (sunk costs) sul
territorio. Come conseguenza, lo spostamento dell’attività da un luogo ad un
altro comporta un costo. Il farmer, quindi, ha un maggiore costo opportunità
di riallocazione dell’attività produttiva rispetto al rancher. Pertanto, il
rancher può trovarsi in una situazione di monopolio spaziale nella vendita del
proprio diritto di proprietà. La posizione di monopolio, tuttavia, sempre
secondo Demsetz (1972), non è tale da modificare l’efficienza
nell’allocazione dei diritti, ma può solo modificare la distribuzione del
surplus totale.
L’approccio di Coase si basa sull’ipotesi che i beni interessati alla
contrattazione siano privati e, quindi, escludibili. Problemi possono, invece,
emergere quando la contrattazione fra le parti interessa beni aventi la natura
del bene pubblico (non escludibile e non rivale nel consumo). In questo caso
è noto che il mercato non è in grado di risolvere il problema dell’allocazione
non ottimale di questa tipologia di beni. Infatti, in presenza di beni pubblici,
anche con costi nulli di transazione lo scambio di diritti sul mercato non è tale
da risolvere l’assegnazione iniziale non ottimale dei diritti di proprietà. Il
sistema del prezzo di mercato non consente la rivelazione delle preferenze
individuali e, quindi, rende problematica la soluzione del problema attraverso
la contrattazione.
Un ulteriore ostacolo al funzionamento dell’approccio di Coase è
costituito dall’assenza di barriere all’entrata (tipico di un mercato di
concorrenza pura e perfetta). In proposito, supponiamo nell’esempio del
rancher e del farmer che al termine di processo di contrattazione il rancher
accetti di ridurre il numero degli animali pascolanti per attenuare l’entità del
danno recato al farmer. Come conseguenza di una simile scelta si avrà una
riduzione dell’offerta di bestiame e un aumento del prezzo della carne.
L’aumento del prezzo, in assenza di barriere all’entrata sul mercato, fa
crescere l’offerta di bestiame accrescendo i rischi di danno per il farmer che
per ridurre il danno subito sarà costretto ad indennizzare i nuovi rancher
entrati sul mercato affinché riducano la loro offerta. In tal modo l’accordo
iniziale con il rancher è vanificato. Avremo così una dinamica ciclica
dell’offerta tale da rendere inutile ogni ulteriore accordo con il rancher.
Tuttavia, un simile risultato si ha solamente quando lo scambio dei diritti sul
59
mercato è su scala così vasta da influenzare i prezzi di mercato. Qualora,
invece, lo scambio riguardi solo un numero ristretto di contraenti appare poco
verosimile che esso sia tale da influenzare in maniera significatìva i prezzi di
mercato pur in presenza di libertà di entrata sul mercato.
4. L’approccio di Coase e le critiche di Demsetz
Nell’approccio di Coase le esternalità negative costituiscono un problema
in presenza di costi positivi di transazione. Con costi bassi di transazione la
contrattazione fra le parti è in grado di favorire l’internalizzazione dei costi
con conseguente riduzione del danno. Al limite con costi di transazione nulli
non emergerebbe alcuna esternalità in quanto, attraverso la contrattazione, il
problema sarebbe agevolmente risolto addossando il costo alla parte che può
evitare il danno al minor costo.
Demsetz (2002, 2003), in proposito, ritiene che anche con costi nulli di
transazione il fenomeno delle esternalità negative continuerebbe a
manifestarsi e a persistere. Pertanto, secondo Demsetz, focalizzare
l’attenzione esclusivamente sul problema dei costi di transazione consente di
giustificare interventi non sempre socialmente opportuni da parte dello Stato.
Demsetz non accetta l’ipotesi che al centro del problema delle esternalità vi
sia unicamente il problema dei costi di transazione. Nella visione di Demsetz
le esternalità esistono indipendentemente dall’esistenza e dalla rilevanza dei
costi di transazione. Secondo Demsetz le esternalità continuano a persistere a
prescindere dai costi di transazione in quanto altri elementi sono importanti
nel tentativo di risolvere il problema della discrepanza fra costi sociali e costi
privati (McChesney, 2004). In proposito, i due elementi determinanti sono: il
diritto di proprietà; e la specializzazione produttiva. Quando il ranch e la
farm appartengono allo stesso proprietario la scelta individuale ispirata al
criterio di efficienza comporta un’allocazione efficiente delle risorse atta ad
internalizzare le esternalità negative attraverso la minimizzazione dei costi
(ivi inclusi il costo del danno). Tuttavia, esigenze connesse ai benefici netti
della specializzazione produttiva possono comportare una proprietà separata
delle due attività. Con diritti di proprietà distinti per le due attività il
problema delle esternalità negative si può riproporre in tutta la sua rilevanza.
Un’eventuale fusione fra le due attività consente ovviamente
l’internalizzazione delle esternalità negative, ma può causare costi di gestione
positivi e rilevanti a causa della rinuncia alla specializzazione produttiva.
Nella visione di Demsetz sono proprio i benefici netti della specializzazione
produttiva e, quindi, della separazione della proprietà la fonte delle esternalità
negative e non i costi di transazione. In sostanza, le esternalità negative non
emergono solo in quanto i costi di transazione sono positivi e rilevanti, ma
anche e forse soprattutto in quanto sono rilevanti i benefici netti della
specializzazione produttiva. I costi di transazione non sono un fenomeno
60
esogeno. Essi emergono in quanto gli operatori economici che competono per
la stessa risorsa (l’aria, l’acqua, un terreno ecc.) preferiscono gestire imprese
aventi distinti diritti di proprietà. Con un unico titolare del diritto di proprietà
è risolto il problema dei costi di transazione per l’interazione di due unità di
produzione distinte, ma si può avere come effetto la rinuncia, e comunque
l’attenuazione, ai benefici netti della specializzazione produttiva. Anche in
presenza di costi nulli di transazione e con un diritto di proprietà unitario si
pone il problema dei costi di gestione delle due attività produttive che
possono richieder un’expertise specifica. Al crescere dei costi di gestione e in
presenza della necessità di una expertise specifica per il governo delle due
attività può non essere economicamente conveniente la proprietà unificata
delle attività medesime. D’altro canto, anche con costi di transazione positivi,
ma non esorbitanti, il problema delle esternalità negative può essere risolto se
è particolarmente basso il costo opportunità della specializzazione produttiva
perduta. In simili condizioni, infatti, qualora il problema non sia risolto dalla
libera contrattazione fra le parti, può, al limite, essere risolto con il
trasferimento di una delle due attività al soggetto che la valuta maggiormente.
Come risultato, il proprietario unico userà le risorse congiunte in modo da
minimizzare i costi totali di produzione (ivi inclusi i costi delle esternalità).
Nella visione di Demsetz la soluzione suggerita da Coase al problema
delle esternalità è complicata anche da due implicazioni inerenti il ruolo dello
Stato per la soluzione del problema stesso. Con costi di transazione positivi
un’attribuzione dei diritti di proprietà non ispirata al principio di efficienza
non è un problema del sistema economico, ma dell’Autorità politica o del
sistema giudiziario che consente che la proprietà resti in capo al soggetto che
la valuta di meno. L’assegnazione iniziale dei diritti di proprietà non dipende
dal sistema dei prezzi e non è necessariamente basata sul criterio di
efficienza, ma può dipendere dalle scelte politiche ispirate, ad esempio, alla
tutela di interessi di parte. Inoltre, quando i diritti di proprietà sono attribuiti
in modo non rispondente al criterio di efficienza si può giustificare un
ulteriore intervento pubblico nel mercato, attraverso l’imposizione di tributi,
nell’intento di favorire l’internalizzazione del costo delle esternalità negative.
L’ulteriore intervento pubblico, tuttavia, può manifestarsi in quanto era
economicamente non giustificata l’attribuzione iniziale dei diritti di proprietà.
La soluzione del problema delle esternalità negative comporta un’attenta
valutazione economica di almeno cinque variabili riguardanti le due attività
economiche che si trovano ad interagire:
-
il guadagno privato del soggetto che crea l’esternalità negativa;
la riduzione di utilità sopportata dal soggetto che subisce l’esternalità
negativa;
il guadagno sociale connesso all’abolizione del danno;
61
-
-
il livello e la rilevanza dei costi di transazione relativi al processo di
contrattazione fra le parti che idealmente può garantire la soluzione
del problema delle esternalità;
il beneficio netto della specializzazione produttiva per i proprietari
delle due attività.
Quando il danno creato è superiore al beneficio privato di chi lo genera e
quando i costi di transazione sono superiori sia al guadagno sociale
dell’abolizione del danno sia al beneficio netto della specializzazione
produttiva, assunto come particolarmente basso, il trasferimento ad un unico
soggetto dei diritti di proprietà delle due attività consente di risolvere il
problema delle esternalità. Questo risultato si giustifica in quanto i costi di
transazione positivi e rilevanti non consentono ai due proprietari una
contrattazione risolutiva del problema delle esternalità, ferma restando la
distinta e separata proprietà delle risorse. In simili condizioni, essendo basso
il costo opportunità della specializzazione produttiva è economicamente
efficiente unificare le due proprietà. Tuttavia, quando questo costo
opportunità è particolarmente elevato e superiore al guadagno sociale
dell’abolizione del danno la proprietà unica non è la soluzione efficiente,
ossia quella atta a massimizzare il valore netto delle due attività. In definitiva,
quando il costo opportunità della mancata specializzazione produttiva è
particolarmente basso, pur in presenza di costi positivi di transazione, il
problema delle esternalità negative può essere risolto con la proprietà unica.
Invece, quando tale costo opportunità è particolarmente alto anche con costi
di transazione nulli la proprietà unica non è la soluzione efficiente al
problema delle esternalità negative. In sostanza, il fenomeno delle esternalità
può persistere anche quando i costi di transazione sono nulli se è molto
elevato il costo opportunità della specializzazione produttiva e se i diritti di
proprietà sono inizialmente attribuiti in modo inefficiente.
In verità, va rilevato che già nel suo saggio del 1937 sulla natura e
l’origine dell’impresa Coase aveva intuito che, per risparmiare sui costi di
transazione, l’impresa può essere preferita al mercato. In proposito, Coase nel
saggio del 1960 sottolinea che una nuova organizzazione produttiva (ad
esempio un’unica impresa) può contribuire a risolvere il problema delle
esternalità. Nella visione di Coase, quindi, sembra che i costi di transazione
positivi non siano sufficienti a fare persistere il fenomeno delle esternalità,
ma possano spiegare la persistenza del fenomeno soprattutto quando i diritti
di proprietà sono inizialmente definiti e assegnati in maniera inefficiente.
Secondo Demsetz il costo opportunità della specializzazione produttiva
può essere la vera ragione della persistenza del fenomeno delle esternalità. In
merito alla specializzazione produttiva va evidenziato che possiamo
individuare due forme essenziali di specializzazione:
62
-
la specializzazione nella produzione alla Smith con imprese
indipendenti, ossia caratterizzate da diritti di proprietà distinti;
la specializzazione produttiva nell’ambito di una holding, ossia
un’organizzazione caratterizzata da un’unica proprietà, ma con unità
produttive distinte.
In presenza di una holding non è necessaria l’unificazione delle imprese
per risolvere il problema delle esternalità. La struttura ad holding è in grado
di alleviare i problemi inerenti la perdita dei guadagni derivanti dalla
specializzazione nella produzione fra imprese. Infatti, ogni impresa della
holding può mantenere la propria autonomia produttiva e gestionale: è
garantita la specializzazione nella produzione. Resta da appurare se una
holding in quanto tale subisca una riduzione dei guadagni netti a causa
dell’incremento dei costi di coordinamento delle varie attività. Nell’ambito di
una holding con la separazione del controllo dalla gestione delle varie
imprese si ha una separazione fra investimento e gestione. In una holding,
tuttavia, la gestione necessita che il management abbia un’adeguata
informazione sui costi (ivi inclusi gli eventuali danni) che un’impresa
addossa ad un’altra. Ciò può comportare un incremento nei costi di gestione e
di coordinamento. Un simile evento si può manifestare anche nel mondo di
Coase (con due imprese distinte che interagiscono) in cui ciascun gestore
delle due attività distinte deve avere un’adeguata conoscenza dei costi e dei
benefici propri al fine di contrattare con la controparte, in modo informato,
assumendo costi di transazione nulli. Anche all’interno di una holding,
nell’ipotesi di costi di transazione nulli, i vari manager debbono avere
un’informazione sui costi e sui benefici delle diverse imprese controllate.
Nella realtà, quindi, non sembra che una holding comporti necessariamente
un incremento nei costi di gestione e di coordinamento. In presenza di costi di
transazione positivi non sembra esservi una differenza significativa nei costi
di gestione e di coordinamento fra le due alternative (imprese distinte versus
holding). In presenza di imprese distinte il criterio di efficienza richiede un
riaggiustamento dei costi dell’impresa che causa il danno: il prezzo interno
del danno di chi lo causa deve eguagliare il costo del danno subito dalla
vittima. Nell’ambito di una holding, quindi, il problema delle esternalità può
essere risolto da prezzi di trasferimento interni alla holding stessa. Tuttavia,
con costi di transazione positivi e in presenza di comportamento strategico di
alcuni manager i prezzi di trasferimento interni possono essere definiti in
modo subottimale. Così come accade nel mondo di Coase il sistema politico e
giudiziario può non essere in grado di garantire un’efficiente allocazione
della proprietà. In sostanza, quelli che Demsetz definisce come costi di
management possono essere interpretati come costi interni di transazione.
Pertanto, ai fini della soluzione del problema delle esternalità l’unico
elemento rilevante è appurare se costa di meno la contrattazione sul mercato
63
o all’interno di una holding. Si tratta di un problema di valutazione empirica
(McChesney, 2004).
Naturalmente, quando il costo dell’intervento pubblico è particolarmente
basso il problema delle esternalità negative può essere risolto in tal modo.
Una simile scelta può essere socialmente preferibile quando il costo
dell’intervento pubblico è inferiore al valore dei costi privati di transazione e
al beneficio sociale dell’abolizione del danno in presenza di un costo molto
elevato del costo opportunità della perduta specializzazione che rende non
praticabile l’unificazione delle proprietà. In simili condizioni anche Coase
ammette il ricorso all’intervento pubblico attraverso, ad esempio, la
regolamentazione al fine di eliminare, o comunque contenere, l’entità del
danno. Come già sottolineato in precedenza Demsetz è critico in merito
all’intervento pubblico come strumento di risoluzione del fenomeno delle
esternalità. Infatti, anche lo Stato, sia con proprie scelte politiche sia con il
sistema giudiziario, può fallire, in particolare quando assegna i diritti di
proprietà in modo subottimale, ossia in maniera tale da non consentire la
massimizzazione del valore netto della proprietà. In tal caso, con costi
positivi di transazione, la soluzione privata, attraverso la contrattazione, del
problema delle esternalità non è fattibile. In presenza di esternalità negative
un intervento pubblico pervasivo, ad esempio con una regolamentazione
molto puntuale, può indebolire l’esercizio di diritti di proprietà definiti e
assegnati nel rispetto del criterio di efficienza. In questo caso l’intervento
dello Stato contribuisce a ridurre il benessere sociale. Per contro, l’intervento
dello Stato può essere migliorativo quando contribuisce a definire meglio i
diritti di proprietà, ossia quando l’attribuzione di tali diritti è in sintonia con il
criterio di efficienza. In proposito, va ribadito che solo diritti di proprietà ben
definiti e garantiti possono consentire, nella visione di Coase, un’efficiente
allocazione delle risorse. In presenza di un’esternalità negativa con diritti di
proprietà ben definiti e garantiti le parti, se non riescono a definire il
contrasto di interessi privatamente, possono farlo con l’intervento dello Stato
(nuova legge o con l’intervento del giudice). Tuttavia, se i diritti non sono
ben definiti e garantiti nessuna parte può essere certa del successo. In questo
caso la soluzione al problema delle esternalità può richiedere che una parte
acquisti la proprietà dell’altra. Demsetz preferisce una ridefinizione del diritto
di proprietà all’intervento pubblico, sotto forma di imposizione tributaria o di
regolamentazione, in quanto teme che i costi di un simile intervento possano
essere superiori ai benefici. In proposito, Coase ritiene che l’intervento dello
Stato per limitare le esternalità possa essere desiderabile quando il danno è
subito da un elevato numero di persone così da render più costosa la
soluzione del problema attraverso il mercato (contrattazione) o l’impresa
(proprietà unica). In sostanza, l’intervento pubblico può essere desiderabile
quando i costi di transazione sono molto elevati così come accade quando è
molto alto il numero delle vittime del danno. Per contro, la soluzione
64
suggerita da Demsetz (l’unificazione delle proprietà) appare più appropriata
quando i soggetti interessati al problema delle esternalità sono solo due o
comunque un numero ristretto. Demsetz è ostile all’intervento pubblico, sotto
forma di regolamentazione o restrizioni all’uso della risorsa, in quanto un
simile intervento indebolisce i diritti di proprietà. L’intervento pubblico può
rendersi necessario quando le parti interessate al problema delle esternalità
fronteggiano uno scarso incentivo a rivelare i veri valori dei costi e dei
benefici delle proprie scelte, così da facilitare, attraverso la contrattazione, la
soluzione del problema. In particolare, l’intervento pubblico può essere
sostitutivo della soluzione privata quando la contrattazione è ostacolata dal
comportamento strategico. In caso di intervento pubblico i beneficiari
dell’intervento non pagano nulla a chi ha subito il costo dell’intervento:
possono, quindi, avere l’incentivo a sovrastimare il valore del danno che
sopportano. Tuttavia, l’intervento pubblico può essere giustificato quando il
suo costo è inferiore ai costi di transazione e ai costi del management in caso
di specializzazione produttiva, entrambi superiori al beneficio sociale
derivante dall’abolizione del danno. In tal caso, essendo il costo
dell’intervento pubblico inferiore al valore del beneficio sociale si giustifica
l’intervento dello Stato.
5. Osservazioni conclusive
Un sistema di diritti di proprietà privata sufficientemente definito e
garantito favorisce il rispetto del criterio di efficienza, ma può sollevare
problemi dal punto di vista della giustizia distributiva. In particolare, questi
problemi presentano una duplice natura: da un lato la proprietà privata
inevitabilmente crea problemi in termini di distribuzione del surplus
contrattuale; dall’altro lato l’esercizio del diritto di proprietà privata può
creare un danno a terzi (esternalità negative). In merito alla giustizia
distributiva è da rilevare che la creazione della proprietà privata di per sé
rappresenta un danno per tutti i soggetti esclusi. La proprietà privata, quindi,
facilita il rispetto del criterio di efficienza a livello di produzione, ma in
quanto danneggia gli esclusi dal diritto (che subiscono una riduzione del
benessere) non rispetta il criterio dell’ottimo paretiano. Tuttavia, gli esclusi
dall’esercizio del diritto di proprietà non sono gli unici danneggiati. Infatti,
un soggetto che esercita liberamente il proprio diritto di proprietà può con la
propria attività danneggiare altri soggetti che si trovano così a subire una
riduzione della propria utilità. L’attività di un soggetto, quindi, avvantaggia il
diretto interessato, ma può comportare un danno a terzi di cui il soggetto
stesso non tiene conto. Il soggetto, infatti, si appropria interamente dei
benefici dell’attività svolta, ma non internalizza interamente tutti i costi della
medesima, bensì solamente quelli strettamente privati. I costi sociali,
inclusivi del danno a terzi, sono superiori ai costi privati. In simili condizioni,
65
la teoria economica sostiene che siamo di fronte a uno dei possibili modi
d’essere del cosiddetto fallimento del mercato. Due sono, in particolare, gli
approcci suggeriti dalla teoria economica per risolvere il problema
dell’esternalità negative: l’approccio di Pigou; e l’approccio di Coase. Si
tratta di due approcci molto diversi, soprattutto per quanto riguarda il ruolo
attivo dello Stato e del mercato (inteso come libera contrattazione fra le
parti). In caso di esternalità negativa Pigou considera l’intervento dello Stato
(assunto come benevolente e onnisciente) adeguato per risolvere il problema:
un tributo uguale alla differenza fra costo sociale e costo privato marginale
consente di fare sì che si abbia una completa internalizzazione dei costi (ivi
incluso il valore dell’esternalità negativa). Coase, invece, sostiene che in
condizioni ideali (costi di transazione nulli o molto bassi), il mercato è in
grado, in assenza di qualsiasi intervento pubblico, di risolvere il problema
attraverso la contrattazione fra le parti interessate. Il danno sarà evitato dalla
parte che lo può evitare al minor costo. I diritti di proprietà di per sé non sono
un ostacolo in quanto possono solo influenzare il potere contrattuale delle
parti e determinare, in particolare, la parte che può evitare il danno al minor
costo. Ad esempio, se la legge attribuisce il diritto al rancher di fare
pascolare liberamente la mandria, la contrattazione fra le parti può fare sì che
il farmer paghi direttamente il rancher se quest’ultimo può evitare il danno al
minor costo. La definizione dei diritti di proprietà, quindi, facilita la
contrattazione e determina solamente la natura del trasferimento monetario
fra le parti. L’approccio di Coase ha innescato molte critiche con particolare
riguardo a tre elementi: l’ipotesi poco realistica dei costi di transazione nulli;
il fatto che l’esito della contrattazione influenza la distribuzione delle risorse;
il fatto che l’esito della contrattazione, in quanto influenza i prezzi relativi,
influenza l’equilibrio economico di lungo periodo. Il dibattito scaturito da
queste critiche, tuttavia, sembra avere determinato un consenso piuttosto
diffuso sul fatto che tali critiche non siano tali da inficiare in modo devastante
l’intuizione di Coase. Tuttavia, in questi ultimi tempi Demsetz è ritornato
sull’approccio di Coase criticandolo soprattutto in quanto trascura, in
particolare, il beneficio della specializzazione produttiva. Nella visione di
Demsetz la soluzione al problema delle esternalità negative dipende non tanto
dal ruolo dei costi di transazione, quanto e soprattutto dal ruolo e dalla
rilevanza dei benefici (e dal costo opportunità) della specializzazione. In
particolare, Demsetz ribadisce che, in linea di principio, una proprietà unica
delle risorse consente di risolvere definitivamente il problema delle
esternalità. Tuttavia, la proprietà unica può far venire meno, o comunque
attenuare sensibilmente, il vantaggio della specializzazione produttiva.
Quando il costo opportunità del mancato sfruttamento della specializzazione
è molto elevato il mercato può non essere in grado, pur in presenza di costi
nulli di transazione, di risolvere il problema delle esternalità.
66
BIBLIOGRAFIA
ANDERSON, T.L. – SWIMMER, E. (1997), “Some Empirical Evidente
on Property Rights of First Peoples”, Journal of Economic Behavior and
Organization, vol. 33.
ANDERSON, T.L. – McCHESNEY, F.S. (2003),(eds), Property Rights,
Princeton University Press.
BELL, A. – PARCHOMOVSKY, G. (2004), What Property Is, University
of Pennsylavania Law School, Institute for Law and Economics, Research
Paper No. 04-05.
BOWLES, S. – GINTIS, H. (2003), “Origins of Human Cooperation”, in
P. Hammerstein (ed.), Genetic and Cultural Evolution of Cooperation, Mit
Press.
BOWLES, S. – GINTIS, H. (2002), “Social Capital and Community
Governance”, Economic Journal, vol.112.
CALABRESI, G. (1965), “The Decision for Accidents: An Approach to
Nonfault Allocation of Costs”, Harvard Law Review, vol. 78.
CALABRESI, G. (1968), “Transaction Costs, Resource Allocation and
Liability Rules: A Comment”, Journal of Law and Economics, vol.11.
CLERICO, G. (2004), Interazione umana, scelte comportamentali e
cooperazione- Il ruolo della legge e delle norme sociale, Università del
Piemonte orientale, Dipartimento di Scienze giuridiche ed economiche,
dattiloscritto.
COASE, R.H. (1937), “The Nature of the Firm”, Economica, vol. 4.
COASE, R.H. (1960), “The Problem of Social Cost”, Journal of Law and
Economics, vol. 3.
COASE, R.H. (1988), The Firm, the Market, and the Law, Chicago, The
University of Chicago Press.
COOTER, R. – ULEN, T. (2004), Law and Economics, Boston, Addison
e Wesley.
COOTER, R. (1987), “Coase Theorem”, in J. Eatwell, M. Milgate, and P.
Nwman (eds), The New Palgrave: A Dictionary of Economics, New York,
Stockton Press.
DEMSETZ, H. (1964), “The Exchange and Enforcement of Property
Rights”, Journal of Law and Economics, vol.7.
DEMSETZ, H. (1967), “Toward a Theory of Property Rights”, American
Economic Review, vol. 57.
DEMSETZ, H. (1972), “When Does the Rule of Liability Matter?”,
Journal of Legal Studies, vol. 1.
DEMSETZ, H. (1996), “The Core Disagreement Between Pigou, the
Profession, and Coase in the Analyses of the Externality Question”,
European Journal of Political Economy, vol. 12.
67
DEMSETZ, H. (2002), “Towards a Theory of Property Rights II: The
Competition between Private and Collective Ownwership”, Journal of Legal
Studies, vol. 31.
DEMSETZ, H. (2003), “Ownership and the Externality Problem in
Property Rights: Cooperation, Conflict, and the Law”, in Anderson T.L. e F.
S. McChesney (2003),(eds), Property Rights, Princeton University Press.
FIELD, B.C. (1989), “The Evolution of Property Rights”, Kyklos, vol.42.
GORDON, S.H. (1954), “The Economic Theory of Common Property
Resources: The Fishery”, Journal of Political Economy, vol. 62.
HENRICH, J. (2004), “Cultural Group Selection, Coevolutionary
Processses and Large-scale Cooperation”, Journal of Economic Behavior and
Organization, vol. 53.
MCCHESNEY, F.S. (2004), What’d I Say?: Coase, Demsetz and the
Unending Externality Debate, Northwestern University School of Law. Law
& Economics Research Paper Series, Research Paper No. 04-01.
NUTTER, G.W. (1968), “The Coase Theorem on Social Cost: A
Footnote”, Journal of Law and Economics, vol.16.
PARISI, F. (1995), “Private Property and Social Costs”, European
Journal of Law and Economics, vol. 2.
PIGOU, A.C. (1920), The Economics of Welfare, London, Macmillan.
REGAN, D.H. (1972), “The Problem of Social Cost Revisited”, Journal
of Law and Economnics, vol. 15.
ROSE C.M. (1999), “Property as the Keystone Right?”, Notre Dame Law
Review, vol. 71.
STIGLER, G.J. (1996), The Theory of Price, New York, Macmillan.
ULLMAN-MARGALIT E. (1977), The Emergence of Norms, Oxford
University Press.
WELLISZ, S. (1964), “On External Diseconomies and the Government
Assisted Invisibile Hand”, Economica, vol. 31.
YOUNG, H.P. (1996), “The Economics of Convention”, Journal of
Economic Perspectives, vol.10.
68
ON THE COMPUTATION OF CONVOLUTION IN ACTUARIAL
PROBLEMS. SOME FURTHER RESULTS*
Maria Giuseppina Bruno°, Gennaro Olivieri°° e Alvaro Tomassetti°°°
JEL Classification: C00, D81, G22
Key words: Fast Direct Convolution, Recursive methods, Fast Fourier
Transform
1. Introduction
In this paper, we show some further results about the method proposed by
Bruno, Tomassetti (2004) to rapidly compute the sum of discrete and
mutually independent (but not necessarily identically distributed) random
variables.
The method is based on the direct calculation of classical convolution,
under the hypothesis to neglect the probabilities (original as well as
convoluted) less than a prefixed value ε (10-24≤ε≤10-4930). The method is
named Fast Direct Convolution (FDC).
Of course this method is “approximated”; however, having a relative error
of order 10-10 with respect to the exact results (derived by the other methods
existing in literature), we can consider it exact in actuarial applications. The
error concerns the distribution of the final convolution and in particular the
probabilities of each numerical realizations and the first four moments
(compared with the sum of the moments of the original random variables).
In this paper, we compare the above-mentioned method with the other
(exact or approximated) methods existing in literature for calculating
convolution.
We show that the FDC method performs better than the recursive methods
and it is also more efficient than the well-known Fast Fourier Transform
(FFT).
This is in particular true for those actuarial applications where the sum of
not identically distributed random variables is involved or where the
* The paper is credited to M.G. Bruno; G. Olivieri and A. Tomassetti have taken care of the
applications.
°
Maria Giuseppina Bruno is an associate professor at the Università degli Studi di Roma “La
Sapienza”, Dipartimento di Matematica, Roma, Italy, e-mail: [email protected].
°°
Gennaro Olivieri is an ordinary professor at LUISS, Dipartimento di Scienze Economiche e
Aziendali, Roma, Italy, e-mail: [email protected].
°°°
Alvaro Tomassetti is a former full professor at the Università degli studi di Roma “La
Sapienza”, Dipartimento di Scienze Attuariali, Roma, Italy, e-mail: [email protected].
69
calculation of successive orders of convolution up to the final one is required,
such as for example the calculation of the aggregate claims distribution.
On this subject, notice that the method FDC as well as the calculation by
FFT can be applied in a more general context than the recursive methods. As
a matter of fact, unlike the methods FDC and FFT, the recursive methods
mentioned in the paper can only be applied in the case of identically
distributed random variables or in the case of portfolios of policies producing
at most one claim in a certain reference period. Thus, they cannot be applied,
for instance, to a lot of pension funds (especially in Europe) or in a collective
risk model. The other recursive methods existing in literature (for a wide
survey, see Sundt, 2002) are instead very time consuming and, in many cases,
they can be applied only for random variables with non negative numerical
realizations.
Let X1,X2,...,XN be the discrete and independent but not necessarily
identically distributed random variables to be summed up and let:
n
X (n) = ∑ Xi
for n = 1,..., N
(1.1)
i =1
For each random variable X(n), let AR(n)max and AR(n)min be respectively the
greatest and the smallest numerical realization and let fX(n)(xn) (for
xn∈I[AR(n)min, AR(n)max], where I[AR(n)min, AR(n)max] is the subset of integer
numbers -positive, negative or null- in the field [AR(n)min, AR(n)max]) be the
convolution of order n, that is the probability distribution of X(n).
2. FDC method
The principle underlying the method FDC is to apply the definition of
convolution in a direct manner by using only real and elementary operations
(basically, multiplications and additions) for the random variables (initial or
obtained by convolution).
For having the same results of the classical methods (but with a greater
efficiency), we apply the following conditions:
a) we proceed step by step, that is we consider the first random variable
(convolution=1), then we add the second (convolution=2), then we add
the third (convolution=3) and so on until convolution=N;
b) at each step, we neglect the initial or convolved probabilities less than
10-k (24≤k≤4930) (in the actuarial applications 24≤k≤50 is sufficient);
c) for each convolution, we verify that the sum of the probabilities is equal
to 1 with a prefixed error (in the actuarial applications an error less
than 10-10 is sufficient);
70
d) we verify that the first four moments of the final convolution differ
from the corresponding exact values by an error of the same order (less
than 10-10).
Formally, the method consists in considering, for each n, only the
numerical realizations yn:fX(n)(yn)≥10-k (with 24≤k≤4930) fulfilling the
following conditions:
- after the computation of the convolution of order n:
1 − ∑ f X ( y n ) < 10 −10
(2.1)
(n)
yn
- after the computation of the final convolution:
1−
[
E y (X ( N ) )
[
n
E (X
k
)]
(N) k
] < 10
−10
for k = 1,2,3,4
(2.2)
where E[(X(N))k] is the k-th exact moment of the final convolution and
Eyn[(X(N))k] the corresponding value obtained by only considering the
realizations yn and their probabilities.
In order to measure the calculation efficiency of this method, we compute,
as usual, the number of multiplications.
We refer in particular to those cases where the calculation of successive
orders of convolution is required. Thus, we consider only the number of
multiplications necessary to pass from each order of convolution to the
following one.
Let NRi be the number of the numerical realizations with non null
probability of the i-th random variable Xi and NR(n) the number of the
numerical realizations of the random variable X(n) obtained after n
convolutions.
Notice that, generally speaking, NR(n)≤(AR(n)max-AR(n)min) for two reasons:
- the random variables to sum up do not necessarily have as many
numerical realizations as all the integers from the minimum to the
maximum;
- as previously said, the FDC method neglects in the calculation of each
convolution the numerical realizations with probability (initial and/or
convoluted) less than a prefixed ε>0.
71
In the general case of not identically distributed random variables, the
number of multiplications required for calculating each successive
convolution of order n (n=1,2,…,N) is given by:
n)
molt (FDC
= NR ( n −1) NR n
(2.3)
In the particular case of identically distributed random variables Xi=X1
(i=1,...,N), the number of multiplications is instead given by:
n)
molt (FDC
= NR ( n −1) NR 1
(2.4)
The results for the final convolution follows by taking n=N respectively in
equations (2.3) and (2.4).
3. Recursive methods
Consider a portfolio of n (n=1,…,N) independent policies which
produce at most one claim during a certain exposure period and suppose that
the probability of producing a claim and the associated claim amount
distribution are given for each policy.
Besides, suppose that this portfolio can be divided into a x b classes by
gathering all policies with the same claim probability and the same
conditional claim amount distribution.
Formally, let:
- (i,j) (i=1,2,…,a, j=1,2,…,b) be the class that contains all the policies
with claim probability qj and conditional claim distribution fi(x)
(x=1,2,….,mi);
- nij be the number of policies in the class (i,j) (obviously,
a
b
n = ∑i =1 ∑ j =1 nij );
- pj=1-qj be the probability that a policy of the column j produces no
claim;
a
b
- NM = ∑i =1 ∑ j =1 nij mi be the maximum amount of aggregate claims.
Under these conditions, Dhaene, Vandebroek (1995) derived the
following exact recursion for calculating the aggregate claims distribution:
a
b
f X ( 0 ) = ∏∏ ( p j )
(n)
i =1 j =1
72
nij
(3.1)
a
b
sf X ( s ) = ∑ ∑ nij vij ( s ) for s = 1,2,..., NM
(n)
(3.2)
i =1 j =1
where:
(3.3)
⎧qj
⎪
v ij ( s ) = ⎨ p j
⎪0
⎩
f i ( x )(xf X
∑
x =1
mi
(n)
( s − x ) − v ij ( s − x ))
for s = 1,2,..., NM
elsewhere
Notice that for a=b=1, this recursion is the same one derived by De Pril
(1985) for calculating convolution of identical distributed random variables.
The number of multiplications required by this recursion for calculating
each convolution is approximately given by:
a
⎞
⎛
(n)
molt REC
= 2b⎜ a + ∑ mi ⎟ NM
i =1
⎠
⎝
(3.4)
As to the number of multiplications to be carried out, this recursion
performs better than the exact recursion proposed by De Pril (1989) if:
⎞
⎛ a
NM > 2b⎜ ∑ mi − a ⎟ − 1
⎠
⎝ i =1
(3.5)
Besides, it performs better than the r-th order approximation proposed by
De Pril (1989) (which however performs well only when the qj are smaller
than ½) if:
b<
r( r + 1 )
ar
( 2r − 1 )
−
a
2
⎞
⎛
2⎜ ∑ m i + a ⎟
⎠
⎝ i =1
(3.6)
4. Convolution by FFT
The FFT is a fast algorithm for the calculus of DFT and its inverse IDFT
(see Bracewell, 2000; Brigham, 1988; Press et al., reprint 1999; Tolimieri,
An, Lu, 1997; Zonst, 2000).
For calculating the convolutions up to the final one of order N, one just
needs apply this algorithm to the classical approach by DFT.
73
This is the way, we proceed:
a) we calculate the following DFT for each random variable Xi
(i=1,...,N):
( AR
)
⎞
⎛
2π
f i ( r ) exp⎜⎜ ir
u ⎟⎟
(N)
(N)
r =0
⎝ (ARmax − ARmin ) ⎠
(N)
(N)
for u = 0,1,...,(ARmax − ARmin − 1)
Φ f (u ) =
(N)
(N )
max − ARmin −1
∑
i
(4.1)
where fi(r) is the probability distribution of Xi;
b) then, we calculate the DFT of the convolution of order n. Given the
independence of the random variables, we can multiply the DFT of
each random variable as follows:
Φf
n
X( n )
( u ) = ∏Φ f ( u )
i =1
i
(4.2)
c) finally, we calculate the following IDFT:
fX (r )=
(n)
( AR
1
(N)
− ARmin )
(N )
(N )
max − ARmin − 1
(AR
(N)
max
for r = 0,1,..., (AR
(N)
max
− AR
(N)
min
∑
u =0
− 1)
)
Φf
X( n )
⎞
⎛
2π
( u ) exp⎜⎜ iu
r ⎟⎟
(N)
(N)
(
)
AR
AR
−
max
min
⎠
⎝
(4.3)
As well-known, by considering only the calculus of the IDFT, the number
of multiplications for computing any convolution of order n (n=1,…,N) is:
n)
molt (FFT
= M log 2 M
(4.4)
where M=2γ is the smallest integer (expressed as a power of 2) not less than
(AR(N)max-AR(N)min).
For the final convolution, the result is given by taking n=N.
Actually, the number of multiplications is considerably greater (as one can
see by the routine illustrated in Press et al., 1999, pp. 507-508).
74
5. Applications
5.1. Comparison of the efficiency of FDC method with the other methods
Let us compute the convolution of order 1000 of a random variable with
14 realizations with minimum value 14 and maximum 60.
Let therefore N=1000, NRi=14 (i=1,2,....,1000), AR(1)max=60 and
AR(1)min=14.
In the FDC method, if we neglect the probabilities less than ε=10-24, the
number of realizations after 999 convolutions is (according to the program)
equal to NR(999)=10090 (instead of 45954 according to the theoretical
formula, that is 999⋅(60-14)).
In these conditions, the number of multiplications is:
1000 )
molt (FDC
= NR (999) NR 1 = 10090 ⋅ 14 = 141260
(5.1)
If we take (yet this is of no help in the applications since the value is
excessively little for actuarial purposes) ε=10-4930, the realizations after 999
convolutions become NR(999)=25442 and then the number of multiplications
is:
1000 )
molt (FDC
= NR (999) NR 1 = 25442 ⋅ 14 = 356188
(5.2)
Using the Dhaene, Vandebroek recursive formula, the number of
multiplications is instead:
1000 )
molt (REC
= 2 ⋅ 1 ⋅ (1 + 60 ) ⋅ 60000 = 7320000
(5.3)
since a=b=1, m1=60 and NM=1000⋅60=60000. In this case, we also have:
r (r + 1)
1⋅ r
60000 > 2 ⋅ 1 ⋅ (60 − 1) − 1 and 1 <
(2r − 1) just for an r
−
2
2 ⋅ (60 + 1)
greater than 1. Thus equations (3.5) and (3.6) are both satisfied.
Finally, using FFT, the number of multiplications is:
1000)
molt (FFT
= M log 2 M = 65536 ⋅ 16 = 1048576
(5.4)
where M=216 that is the smallest integer (expressed as a power of 2)
≥1000(AR(1)max-AR(1)min)=1000⋅(60-14)=46000.
75
In the following Table 1, we show some more results about the
comparison among the FDC method, Dhaene, Vandebroek recursion and
FFT, in terms of number of multiplications.
Tab. 1 - Number of real multiplications
NumConv.
2
3
10
100
1000
10000
FDC*
196
798
5404
37352
141260
376212
RECURSION
14640
21960
73200
732000
7320000
73200000
FFT
896
2048
10240
106496
1048576
20971520
*The probabilities less than ε=10-24 are neglected. For the final convolution, the results
are identical for both each probability and the first four moments of the distribution (by an
error of order 10-10).
In conclusion, as regards the number of multiplications (results being
equal), the more efficient method for convolution is the FDC followed by
FFT. Notice that we arrive at the same conclusion even by neglecting the
probabilities less than ε=10-4930 (virtually, by neglecting no probability) when
applying FDC method.
The comparison of the FDC method with the calculation by FFT is still
more in favour to the FDC if we consider the processing times shown in
Table 2.
This is because the FFT requires, in addition to the illustrated
multiplications, several other analysis and operations (see Press et al., 1999,
pp. 507-508); on the contrary, the FDC just requires the product of
probabilities and, in the event, the sum of probabilities for equal realizations.
Tab. 2 - Processing Times (in seconds)*
Num. Conv.
100
500
1000
5000
FDC**
<1
2
7
73
FFT
7
87
369
10862
*PC AMD ATHLON 4 Model 716EA; Presario 700 Portable
(language C++).
**The probabilities less than ε=10-24 are neglected. For the final convolution, the results are
identical for both each probability and the first four moments of the distribution (by an error of
order 10-10).
76
5.2. Example of convolution by FDC
This example concerns an application of the method FDC in an individual
model.
This is a further analysis of an example in Bruno, Camerini, Tomassetti
(2000). We refer to 8 random variables not identically distributed for a total
of 13500 convolutions. Notice that in this case the recursive methods cannot
be applied since many random variables represent policies producing more
than one claim in the reference period.
In Table 3, we show the cumulative distribution obtained by the FDC
method. The probability distribution is identical to the one obtained by FFT
until the tenth decimal point.
Tab. 3 - Cumulative distribution of the sum of 13500 independent
random variables, not identically distributed
Realizations*
≤m-5.00σ
≤m-4.00σ
≤m-3.00σ
≤m-2.75σ
≤m-2.50σ
≤m-2.25σ
≤m-2.00σ
≤m-1.90σ
≤m-1.75σ
≤m-1.00σ
≤m-0.75σ
≤m-0.50σ
≤m-0.25σ
≤m
≤m+0.25σ
≤m+0.50σ
≤m+0.75σ
≤m+σ
≤m+1.75σ
≤m+2.00σ
≤m+3.00σ
≤m+3.50σ
≤m+4.00σ
≤m+4.50σ
≤m+5.00σ
≤m+6.00σ
≤m+7.00σ
≤m+8.00σ
Cumulative distribution
0.000 000 001 7
0.000 013 540 4
0.000 550 742 3
0.001 452 011 5
0.003 934 288 8
0.008 590 919 5
0.019 026 458 8
0.022 855 198 6
0.035 224 377 7
0.158 303 503 0
0.225 969 121 0
0.318 640 405 5
0.409 274 677 8
0.517 325 901 8
0.609 873 158 0
0.695 558 877 5
0.780 601 338 8
0.841 620 168 4
0.955 266 183 8
0.972 266 620 0
0.997 608 488 1
0.999 444 812 5
0.999 875 814 0
0.999 978 269 8
0.999 996 687 1
0.999 999 939 7
0.999 999 999 4
1.000 000 000 0
*The mean is m=128575.052, the standard deviation σ=736.935; skewness 0.159; kurtosis 3.031. The
same values for the distribution function and for the moments are derived by applying FFT.
77
REFERENCES
BRACEWELL, R.N (2000), The Fourier Transform and Its Applications,
McGraw-Hill International Editions.
BRIGHAM, E.O (1988), The Fast Fourier Transform and Its
Applications, Prentice-Hall, Inc.
BRUNO, M.G. – CAMERINI, E. – TOMASSETTI, A. (2000), “Financial
and Demographic Risks of a Portfolio of Life Insurance Policies with
Stochastic Interest Rates: Evaluation Methods and Applications”, North
American Actuarial Journal 4, No. 4, pp. 44-55.
BRUNO, M.G. – TOMASSETTI, A. (2004), “On the Computation of
Convolution in Actuarial Problems”, Proceedings of the 8th International
Congress on Insurance: Mathematics and Economics, Rome 14-16 June
2004.
DE PRIL, N. (1985), “Recursions for Convolutions of Arithmetic
Distributions”, ASTIN Bulletin 15, 135-139.
DE PRIL, N. (1989), “The Aggregate Claims Distribution in the
Individual Model with Arbitrary Positive Claims” ASTIN Bulletin 19,
pp. 9-24.
DHAENE, J. – VANDEBROEK, M. (1995), “Recursions for the
Individual Model”, Insurance: Mathematics and Economics 16, pp. 31-38.
PRESS, W.H. – TEUKOLSKY, S.A. – VETTERLING, W.T. –
FLANNERY, B.P. (1999), Numerical Recipes in C, Cambridge University
Press, reprint.
SUNDT, B. (2002), “Recursive Evaluation of Aggregate Claims
Distributions”, Insurance: Mathematics and Economics 30, pp. 297-322.
TOLIMIERI, R. – AN, M. – LU, C. (1997), Algorithms for Discrete
Fourier Transform and Convolution, Springer-Verlag.
ZONST, A.E. (2000), Understanding the FFT, Citrus Press.
78
PRICING CREDIT DERIVATIVES WITH A COPULA-BASED
ACTUARIAL MODEL FOR CREDIT RISK
Giovanni Masala* - Massimiliano Menzietti** - Marco Micocci***
JEL Classification: G11, G12, G13, G21, G33
Key words: credit risk; copula functions, copula modified Monte Carlo
simulation, credit derivatives
1. Introduction
Credit derivatives are financial contracts whose pay-off are contingent on
the creditworthiness of some counterparts. As was pointed out in some recent
works (Mashal & Naldi (2002), Meneguzzo & Vecchiato (2002)), they have
become in recent years the main tool for transferring and hedging credit risk.
The most complicated of such instruments are the multinames ones.
Indeed, these instruments are not quoted (market prices are not available).
Besides, we do not posses closed forms for their pricing: we must necessarily
set up a Monte Carlo simulation procedure. The key to perform this task
consists in modelling correctly multiple defaults.
A dependence structure using copulas methods was first set up by Li
(2000). In this paper, Li considers time-until-default for each obligor and
model their dependence structure through a Student t-copula. Other papers
which take into account a copula dependence structure are due to Cherubini
& Luciano (2002, 2004), Galiani (2003), Gregory & Laurent (2002),
Li describes a default for a single obligor through the so-called survival
function S (t ) = Pr {T > t} which represents the probability that this
counterpart attains age t and T is the time-until-default. Besides, the
survival function is linked to the hazard rate function h(t ) in the following
way:
t
S (t ) = e
∫
− h ( u ) du
0
Li also assumes that the hazard rate function is constant, h (t ) = h . This
means that the survival time is exponentially distributed with constant
*
University of Cagliari – [email protected]
University of Rome “La Sapienza” – [email protected]
***
University of Cagliari – [email protected]
**
79
parameter h . Other features of this model are the following: credit
migrations at the end of the time horizon were not taken into account and
recovery rates in default situations are assumed deterministic.
This model has been resumed by Mashal & Naldi with the intent to price
particular multinames credit derivatives such as nth-to-default baskets. Their
model is a hybrid of the well-known structural and reduced form approaches
for modelling defaults.
After simulating a large number of multivariate times-until-default, one
deduces pay-off for our derivative. Finally, the pricing is estimated using
standard risk-neutral pricing technology (by assuming complete markets and
no-arbitrage hypothesis).
The credit risk model for the underlying portfolio, already developed in
Masala, Menzietti & Micocci (2004), follows a general credit risk
framework: hazard rates are random variables whose values follow gamma
distributions coherently with Credit Risk Plus (1997), Micocci (2000),
Burgisser, Kurth & Wagner (2001) and Menzietti (2002); recovery rates
themselves are supposed to be stochastic as in Gupton, Finger & Bathia
(1997), and following a Beta distribution, moreover credit migrations are
allowed. This feature becomes very important when we treat credit
derivatives whose payoff depends on credit spread.
The paper is structured as follows. Section 2 presents the model for
default and credit migration; the section is divided in subsections facing the
problems of time-until-default, the hazard rate function and the recovery
rates, the credit migration and the exposure valuation, the loss distribution.
Section 3 introduces some basket credit derivatives with numerical
applications. Section 4 concludes.
2. The model for default and credit migration
2.1. Time-until-default
The first aspect we treat is the risk of default, which is modelled in all the
approaches to credit risk in different ways. In our model, following Li and
other studies (Li (2000), Mashal & Naldi (2002), Meneguzzo & Vecchiato
(2002)) we define a new random variable, the survival time from now to the
time of default or the time-until-default for an exposure.
Time-until-default can be modelled as the survival time in life insurance1.
We denote this random variable as T0 , and we assume some properties: it
must take only positive values; it is continuous and has a density function
1
See Pitacco (2000).
80
f 0 ( t ) that we suppose continuous. We denote as F0 ( t ) its distribution
function:
t
F0 ( t ) = Pr {T0 ≤ t} = ∫ f 0 ( u ) du
0
F0 (0 ) = 0
with
F0 (∞ ) = 1
The exposure survival function S ( t ) gives the probability that the
exposure survives for t years. It can be expressed through the hazard rate
function h(t) as:
t
S (t ) = e
If τ
∫
− h ( u ) du
0
is the time horizon and h ( t ) = h for t ∈ [ 0,τ ] we have
f 0 ( t ) = h ⋅ e − h⋅t and the time until default follows an exponential distribution
with parameter h . In the hypothesis of constancy, the hazard rate can be
estimated from the one-year default probability (or for a different time
horizon) as follow:
s
qt = 1 − e − h⋅s ⇒ h = −
ln (1 − s qt )
s
qt = 1 − e − h ⇒ h = − ln (1 − qt )
(2.1)
(2.1-bis)
2.2. The hazard rate function and the recovery rate
The relationship between the distribution function of survival time and the
hazard rate function allows to represent the default process by modelling the
hazard rate function.
So for our model we need the value of the hazard rate. This can be found
in three different ways:
1.
using the expression (2.1) or (2.1-bis) and the default frequency from
rating agencies we can calculate the hazard rate each year;
81
2.
3.
from market data2. Indeed in the market price of defaultable bonds, a
credit spread curve is implied. If we assume a deterministic value for
the recovery rate, a specific credit spread implies a value for default
probability and so for the hazard rate;
in the framework of the structural models using the Merton option
theoretical approach (1974) and its following generalizations. In this
case the default probability equals the probability that the firm asset
value goes under the liabilities values.
Each approach has same drawbacks; to avoid these difficulties the
solution proposed (see Li (2000), Schönbucher & Schubert (2001), Frey &
McNeil (2002), Mashal & Naldi (2002)) is a copula function approach. The
individual (marginal) survival probabilities of the obligors are taken from an
intensity-based approach and the dependency is obtained with an appropriate
copula function.
Such a solution is not feasible in the case we don’t have market prices of
defaultable financial instruments for the same obligor. For this kind of
exposure a different solution is to use the rating agencies default probability
for single exposure and to use a copula function for the dependence structure.
In this case we can model the heterogeneity of default frequencies between
obligors of the same rating class assuming that the default probability is not
deterministic but stochastic.
In our model we assume that the hazard rate for an obligor in a given
rating class is constant each year but the value is not the expectation of
historical default frequencies for its class but a random variable following a
Gamma distribution with two parameters α and β and a density function
u ( hi ) 3. The Gamma distribution choice is typical in insurance framework .
Its parameters α k , β k are typical for each rating class k (estimated with
maximum likelihood or moments method).
Hazard rate mean and variance for the obligor i are equal to:
E ( Hi ) ≡ Hi =
αk
α
= µ k ; var ( H i ) = k2 = σ k 2
βk
βk
2
See Jarrow & Turnbull (1995), Das & Tufano (1996) Duffie & Singleton (1997), (1999),
Jarrow, Lando & Turnbull (1997), Lando (1998), Hull & White (2000).
3
The assumption that the hazard rate is a random variable is made to explain the risk
heterogeneity of default frequency for rating classes published by rating agencies, but could be
used as well if we use hazard rate structure inferred from market data to introduce random
noise. Indeed, even in reduced-form models, the hypothesis of constant hazard rate for a time
horizon of one year or more in not realistic.
82
So the time-until-default for the obligor i , T0( ) , conditional on a value hi
i
for hazard rate, is exponentially distributed with parameter hi :
f 0( ) ( t )
i
hi
= hi ⋅ e − hi ⋅t
The default will occur if T0( ) < τ with τ time horizon for the evaluation.
i
So the probability of default for the obligor i , conditional on a value hi is:
pDi
hi
{
= Pr T0(i ) < τ
hi
} = 1− e
− hi ⋅τ
In case of default we assume the immediate recovery of the exposure with
a random rate Ri on exposure face value, associated to obligor i . The
exposure value Vi after default should be:
Vi
T0( ) <τ , Ri = ri
i
= Ni ⋅ ri
where N i is the face value of the exposure.
To represent the recovery rate uncertainty we assume (as Gupton, Finger
& Bhatia (1997) in the framework of CreditMetrics) that it follows a Beta
distribution and we choose the parameters so that Ri stays within the bounds
of 0 to 1, that are coherent with the meaning of the recovery rate.
In order to have random values within the required bounds we put ν = 1 .
If expectation and variance of recovery rate distribution are known, the
parameters p and q can be estimated with the moments method.
The introduction of random recovery rate, and more in general the
recovery risk, is an important feature of the model: first because only few
models introduce such a risk aspect, second because it could be generalised
introducing correlation between recovery rates of different counterparts.
2.3. The credit migration and the exposure valuation
The central aspect of our proposal is the introduction of credit migration
in the context of an intensity-based model with copula function dependence
structure.
We assume that in t0 the obligor is in the k th rating class, and that at each
time horizon he could end in K + 1 different states: in default or, in survival
case, in one of the K rating classes. If the arrival class is better (worse) than
83
k we have an upgrading (downgrading). Obviously it is possible that the
class is the same as the original one. Obviously, the final rating class
influences the exposure value.
To model credit migration we assume that information on credit quality
could be inferred from time-until-default: a high value means that the default
is not likely and so that the obligor is in “good” rating class; a low value
means the default is near and the obligor should be ranked in a “bad” rating
class.
Time-until-default in this kind of model follows an exponential
distribution and the value that it assumes is used to evaluate whether default
is incurred or not. After this, if the exposure survives, the same value could
be used to estimate migrations. In other words we represent default process
and credit migration with the same marginal distribution for time-untildefault.
We obtain this result fixing K bounds over the time-until-default
i
distribution4. If T0( ) assumes a value within 0 and the first bound (which is
equal to time horizon τ ) the obligor defaults. If T0( ) assumes a value within
the first and the second bound, the obligor ends in the “worst” rating class,
i
and so on. If T0( ) value crosses the K th bound, we put the obligor in the
“best” rating class.
In order to define the K bounds we need not only the default probability
but also the probabilities of switching in other rating classes. These
probabilities are included in transition matrices that rating agencies publish
but can be produced even in a Merton-type model as KMV (Kealhofer
(2003a)).
We denote with pki the probability of staying in class k for counterpart
i at the end of the time horizon. Obviously this probability depends on the
initial rating class, which is an information known for each obligor.
i
i
We need to find two bounds sk( ) and sk( +)1 such that the unconditional
i
probability that T0( ) assumes a value within the bounds is pki .
i
The
density
δ (t ) =
probability
function δ (t )
of
time-until-default
T
is
α ⋅βα
(see [Masala, Menzietti, Micocci, 2004]). Elementary
( β + t )α +1
calculus gives
4
The idea of modelise the migrations with bounds on some specific distribution was first
proposed by Gupton, Finger & Bhatia (1997) in CreditMetrics with bound on asset return
distribution (normal distribution) then in Menzietti (2002), in CreditRisk+ framework, with
bound on risk factor distribution (Gamma distribution).
84
⎛ 1− p ⎞
s1 = ⎜ α D ⎟
⎝ β ⎠
−1/ α
−β
and
⎛ − p + β α ⋅ ( β + sk ) −α ⎞
sk +1 = ⎜ k
⎟
βα
⎝
⎠
−1/ α
−β
(2.2)
so that the bounds can be determined recursively.
2.4. The loss distribution
The exposure valuation at time t is obtained as present value of cash
flows (the same solution is adopted in CreditMetrics, Gupton, Finger &
Bhatia (1997)). We assume at this purpose that the spot and forward zero
curves for each rating class is known.
Assuming one year time horizon ( t0 = 0; t1 = 1 ), if the exposure survives,
its value depends on forward rate term structure, cash flows and the arrival
state χ , while if default occurs, as we have already said, the exposure value
will be:
Vi ,1
T0( ) <τ , Ri = ri
i
= Ni ⋅ ri
Let denote with y ∈ ℜ m the random vector which represents uncertainties
which can affect the value (such as hazard rate, rating and (eventually)
recovery rate). We assume besides that the distribution of y in ℜ m has
density p (y ) .
After that we have found the value of the exposure conditional to y ,
Vi ( y ) , it is possible to calculate the loss (or gain):
Li ( y ) = Vi ( y * ) − Vi ( y )
( )
with Vi y *
exposure value if the credit characteristics (specifically the
rating) don’t change.
85
In many applications we are interested in a model for a portfolio of n
exposures. In this case each scenario y is obtained from n Gamma
distributions for the hazard rate (with specific characteristics for each rating
class), then from a random vector of n time-until-default (with marginal
exponentially distributed), finally we evaluate the single exposures and
calculate portfolio value and consequent loss for the specific scenario. We
denote with x = ( x1 ,..., xi ,..., xn ) the vector of the quotas held for each
T
exposure (it belongs to the set of available portfolios X ⊂ ℜ n ), with
L ( y ) = L1 ( y ) ,..., Li ( y ) ,..., Ln ( y ) the vector of the loss functions for
(
)
single obligors and we assume that in t0 , xi = 1
( i = 1,..., n ) .
The loss
function will be:
n
L ( x, y ) = ∑ Li ( y ) ⋅ xi = L ( y ) ⋅ x
(2.3)
i =1
The implication for a portfolio of n obligors is that we must generate
scenarios for time-until-default from a multivariate distribution function5. So
we have:
{
F0 ( t1 ,..., ti ,..., tn ) = Pr T0(1) ≤ t1 ,..., T0(i ) ≤ ti ,..., T0( n ) ≤ tn
}
(2.4)
Useful tools for generating scenarios from this multivariate distribution
are copula functions. We saw that many models use a copula function
approach to represent the dependence structure of a credit portfolio.
We wish to ensure that the copula we use captures two features of
dependence relationship in the joint distribution: correlation level and tail
dependence.
Some specifications are needed for correlation level. If we have two
obligors A and B , the individual default probability in a fixed time horizon
(respectively pDA , pDB ) and the joint default probability pDA, DB in the same
time horizon, the linear default correlation coefficient is by definition (Lucas,
1995):
5
Instead the hazard rates are generated from n independent Gamma marginal distributions,
because these express risk heterogeneity in each rating class for which we assume no
reciprocal influence.
86
( D)
pDA, DB − pDA ⋅ pDB
ρ A, B =
pDA ⋅ (1 − pDA ) ⋅ pDB ⋅ (1 − pDB )
If we have more than two obligors, we can construct a correlation matrix
A whose elements ai,j are the linear default correlation between obligors i
and j .6
Starting from this result Merton-Type models as CreditMetrics and KMV
link the default correlation between each pair of obligors with the correlation
of obligors’ asset returns
( R)
ρ A, B (included in the correlation matrix R )
(Gupton, Finger & Bhatia (1997), Kealhofer (2003a, 2003b)). Li (2000)
proposed a more general definition of correlation: the survival time
correlation. It can be calculated as follows:
(T )
ρ A, B =
(
Cov T0( ) , T0(
A
B)
)
( ) ⋅Var (T )
( A)
Var T0
( B)
=
0
(
) − E (T ( ) ) ⋅ E (T ( ) )
Var (T ( ) ) ⋅ Var (T ( ) )
E T0( ) ⋅ T0(
A
B)
A
B
0
0
A
0
B
0
He demonstrated that if we use this concept of correlation and a bivariate
normal copula function for dependence structure the correlation parameter
(T )
ρ A, B is equal to the asset correlation between the two obligors
( R)
ρ A, B .
This result has been extended to t -copulas by Mashal & Naldi (2002) and
Meneguzzo & Vecchiato (2002).
In our applications, we will use Student t -copula with different degrees of
freedom (we can modify probability of extreme events). For standard
definitions of copulas see [Nelsen, 1998], while algorithms for generating
pseudo-casual numbers from a Student copula can be found in [Meneguzzo &
Vecchiato, 2002].
The copula-based algorithm that permits to evaluate the loss distribution
of our credit portfolio is linked to the modelling of the multivariate
distribution function (4). Main steps are:
6
In the case of two obligors, we can reach the probabilities of all elementary events by using
the linear correlation coefficient. If we had more than two obligors this would not be possible.
With n obligors we have 2 n joint default events and only n ( n − 1) / 2 correlations plus n
individual default probabilities and the constrain that these probabilities must sum up to one.
So the correlation matrix gives us the bivariate marginal distributions but not the full
distribution (Schönbucher, 2003 chap. 10).
87
•
•
•
•
•
at first, we have to determine the marginal distributions, namely
time-until-default distribution for each obligor. As we pointed out,
marginal distributions are exponential distributions, whose parameter
is a random number extracted from a Gamma distribution.
secondly, we generate pseudo random n − tuples from a Student
copula. Each random n − tuple represents a simulated time-untildefault for each obligor.
for each simulation and for each obligor, we examine the simulated
time-until-default.
¾ If it is less than one, we conclude that this obligor has
defaulted. In this case, we extract a random recovery rate
from a Beta distribution (whose characteristics have been
previously revealed). We then determine the value of this
credit at the end of our time horizon;
¾ Otherwise, no default has occurred. The simulated value is
compared with migration bounds so that we can determine
the new rating class. We then evaluate the value of this credit
at the end of our time horizon.
for each simulation, we calculate the portfolio value at the end of the
time horizon by summing the values of each credit.
at last, we deduce the portfolio loss for each simulation.
In the next section we present an example of the scheme previously
described with a credit portfolio of ten obligors applied to credit derivatives
pricing.
3. Credit derivatives
3.1. Underlying basket description
In this section we apply the model presented in the previous sections to a
portfolio of ten exposures ( n = 10 ). We assume that for each exposure we
know rating on Standard & Poor’s scale7, face value, coupon rate, time to
maturity. The value in t0 is calculated using the term structure of spot rate in
Table 1.
The exposure characteristics are reported in Table 2, all the amounts are
expressed in Euro.
7
The basic rating scale of Standard & Poor’s has 7 rating classes decreasing from AAA to
CCC.
88
Tab. 1 - Term structure of spot rates
Rating
class
AAA
AA
A
BBB
BB
B
CCC
Spot rates
δ(0,8)
δ(0,1) δ(0,2) δ(0,3) δ(0,4) δ(0,5)
δ(0,6)
δ(0,7)
2.96% 3.25% 3.71% 4.21% 4.59% 4.65% 4.70% 4.74%
3.00% 3.29% 3.76% 4.25% 4.63% 4.70% 4.75% 4.79%
3.06% 3.36% 3.84% 4.37% 4.76% 4.83% 4.88% 4.92%
3.54% 3.78% 4.22% 4.72% 5.09% 5.15% 5.20% 5.23%
4.88% 5.14% 5.52% 6.14% 6.59% 6.66% 6.71% 6.75%
5.35% 5.61% 6.31% 7.13% 7.61% 7.71% 7.77% 7.82%
14.15% 14.08% 14.05% 13.38% 12.97% 12.93% 12.89% 12.86%
Tab. 2 - Exposure characteristics
Obligor Rating
1
AAA
2
AA
3
A
4
BBB
5
BB
6
B
7
CCC
8
AA
9
BB
10
B
Face Value Coupon rate Maturity
7.000.000
6,75%
7
3.000.000
8,25%
5
3.000.000
7,25%
6
2.500.000
9,00%
5
2.000.000
9,25%
6
3.000.000
13,00%
5
2.000.000
13,75%
5
5.000.000
10,75%
8
6.000.000
6,75%
5
4.000.000
7,75%
5
V0(i)
7.679.930
3.432.805
3.259.974
2.846.401
2.135.505
3.319.387
2.068.537
6.726.162
5.785.908
3.619.026
The portfolio value in t0 is 40,873,635 Euro with a face value of
37,500,000 Euro. The time horizon is five years (more precisely five oneyear sub-periods). The term structure of forward rates used for exposure
valuation in t1 , t2 , t3 , t4 , t5 is extrapolated from the term structure of spot rate
(we do not present them for sake of brevity). The expected value in t5 is
53,165,091 Euro.
The recovery rates are extrapolated from a Beta distribution with
p = 1.4612 and q = 1.3966, these values ensure a recovery rate expectation
equal to 0.5113 and a standard deviation equal to 0.25458. Obviously is it
8
These values are reported in a statistics for senior unsecured bond by Carty & Lieberman
(1996b).
89
possible to assume that each exposure has different beta distributions. For
simplicity we assume here the same distribution for each one.
The previous data for rates and recoveries allow us to calculate the single
exposure values conditional on rating state in ti . If default occur, we
calculate the expected value. Numerical values are not reported for sake of
brevity.
The expected hazard rates are extrapolated from one-year default
probabilities included in a S&P-style transition matrix. Such a matrix is used
also for migration probabilities over one year. Despite the criticisms on rating
agencies transition matrices, we use these data from rating agencies for the
following reasons:
•
•
•
•
we assume that market data are not complete;
it is very difficult to use market data to find implicit migration
frequency, so in the reduced form approach it is difficult to
implement a multinomial9 model for credit risk;10
in the context of Merton-Type model it is possible to model the credit
migration but with the hypothesis of a normal copula dependence
structure;
we model the heterogeneity of default frequency between obligors of
the same rating classes assuming that the default probability is not
deterministic but stochastic.
On the other hand it is possible to use default probabilities inferred from
intensity based-models but in this case the transition matrix should be
specially constructed. This could be a future model implementation.
The transition matrix M we use and the expected hazard rates are
specified Table 3. We made same settlement to original S&P matrix to
guarantee some coherence features11.
9
We call multinomial model the model that includes rating migrations and binomial model the
model with only default risk.
10
See Jarrow, Lando & Turnbull (1997) and Bielecki & Rutkowski (2003) as example of
intensity-based multinomial models.
11
For more details see Gupton, Finger & Bhatia (1997) and Gordy (2000).
90
Tab. 3 - Transition matrix and hazard rates
Initial
rating
AAA
AA
A
BBB
BB
B
CCC
AAA
0.9067
0.0070
0.0019
0.0005
0.0003
0.0002
0.0001
AA
0.0833
0.9055
0.0227
0.0033
0.0014
0.0011
0.0002
A
0.0068
0.0779
0.9092
0.0595
0.0067
0.0024
0.0022
Rating at year end
BBB
BB
0.0016
0.0012
0.0064
0.0016
0.0552
0.0074
0.8690
0.0530
0.0773
0.8053
0.0043
0.0648
0.0130
0.0238
B
0.0002
0.0012
0.0026
0.0117
0.0884
0.8345
0.1124
CCC
Default
0.0001
0.0001
0.0002
0.0002
0.0004
0.0006
0.0012
0.0018
0.0100
0.0106
0.0407
0.0520
0.6504
0.1979
E(hi)
0.0001
0.0002
0.0006
0.0018
0.0107
0.0534
0.2205
To simulate hazard rate values we have found the gamma parameters with
moments method. The standard deviation for each rating class has been
assumed to be equal to a quota of expected value with different quotas for
each class. The value of such quotas is coherent with statistical Gordy
analysis (Gordy, 2000) but the trend from a class to the next one has been a
little smoothed to have more regular shape. The expectation, standard
deviation and parameters for the hazard rate of each rating class are reported
in Table 4.
Tab. 4 - Hazard rate data
Rating
AAA
AA
A
BBB
BB
B
CCC
µk
0.0001
0.0002
0.0006
0.0018
0.0107
0.0534
0.2205
σk
0.00014
0.00026
0.00072
0.00180
0.00853
0.03204
0.11026
αk
0.51020
0.59172
0.69444
1.00000
1.56250
2.77778
4.00000
βk
5101.79
2958.28
1157.06
555.06
146.62
52.02
18.14
σk/µk
1.40
1.30
1.20
1.00
0.80
0.60
0.50
The bounds which determine state transitions have been calculated by
expression (2.3) with the probabilities included in the transition matrix M
and the vector of expected hazard rates for each rating class µ = ( µ1 ,..., µ 7 ) .
Finally we need data about the correlation between each pair of exposures.
We remind that the linear correlation between the time-until-default of two
different obligors is equal to the linear correlation between the asset return of
91
the two counterparts12. This information is usually not easy to extrapolate, so
the solution that has been proposed in literature13 is to use linear correlation
between the equity of each obligor as proxy variable. The correlation matrix
R is specified in Table 5.
Tab. 5 - Correlation matrix between obligors
1
2
3
4
5
6
7
8
9
10
1
1,00
0,45
0,45
0,45
0,15
0,15
0,15
0,15
0,15
0,10
2
0,45
1,00
0,45
0,45
0,15
0,15
0,15
0,15
0,15
0,10
3
0,45
0,45
1,00
0,45
0,15
0,15
0,15
0,15
0,15
0,10
4
0,45
0,45
0,45
1,00
0,15
0,15
0,15
0,15
0,15
0,10
5
0,15
0,15
0,15
0,15
1,00
0,35
0,35
0,35
0,35
0,20
6
0,15
0,15
0,15
0,15
0,35
1,00
0,35
0,35
0,35
0,20
7
0,15
0,15
0,15
0,15
0,35
0,35
1,00
0,35
0,35
0,20
8
0,15
0,15
0,15
0,15
0,35
0,35
0,35
1,00
0,35
0,20
9
0,15
0,15
0,15
0,15
0,35
0,35
0,35
0,35
1,00
0,20
10
0,10
0,10
0,10
0,10
0,20
0,20
0,20
0,20
0,20
1,00
3.2. Some multinames credit derivatives
3.2.1. Put option on basket portfolio
As a first application we consider a put option with strike price K and
multiperiodal time horizon (five years, T=5). The portfolio value at time T is
indicated by V (estimated with the procedure explained in the previous
section). The pay-off is then simply:
P = Max ( K − V ;0 ) .
The pricing of the option is performed using standard risk neutral pricing
technology (complete markets framework).This means that the value of the
option is the expected discounted pay-offs (under the risk neutral measure F).
The general formula is the following:
12
See § 2 and Li (2000).
First of all Merton (1974), but this is a standard solution, adopted i.e. in CreditMetrics model
(see Gupton, Finger & Bhatia (1997)) and in KMV model (see Kealhofer (2003a, 2003b)).
13
92
⎡ − ∫ r ( s ) ds ⎤
F ⎢
S=E e 0
⋅ P⎥
⎢
⎥
⎢⎣
⎥⎦
T
(3.1)
where r ( s ) represents the risk free spot curve.
As no closed forms are available, we perform a Monte Carlo simulation
by simulating N portfolio values at time T (we take here N=10.000).
In numerical applications, we considered different values of the strike
prices.
At first, we have confronted results obtained with different degrees of
freedom (d=3 and d=10). We obtained:
Tab. 6 - Put value for different strike prices and different tail fatness
Strike
45,000,000
46,000,000
47,000,000
48,000,000
49,000,000
50,000,000
51,000,000
52,000,000
53,000,000
54,000,000
55,000,000
d=3
48,603
74,615
112,968
165,540
245,245
363,940
527,868
753,941
1,058,635
1,476,008
2,046,773
d=10
18,496
34,761
62,042
105,574
172,052
266,961
405,349
618,124
911,070
1,336,967
1,919,774
and graphically:
500.00 1.000.0 1.500.0 2.000.0
0
00
00
00
d=3
d=10
0
value
Graf. 1
45.000.000
47.000.000
49.000.000
51.000.000
strike
93
53.000.000
55.000.000
We observe that the price obtained with fat tails (d=3) dominates the price
with low tails (d=10). Actually, in the first case, extreme credit events have a
stronger impact. Nevertheless, the difference reduces as strike price
increases.
We examined then the migrations sensibility. The results are:
Tab. 7 - Put value for different strike prices with (or without) migrations
Strike
45,000,000
46,000,000
47,000,000
48,000,000
49,000,000
50,000,000
51,000,000
52,000,000
53,000,000
54,000,000
55,000,000
migr.
48,603
74,615
112,968
165,540
245,245
363,940
527,868
753,941
1,058,635
1,476,008
2,046,773
no migr.
37,049
54,993
85,758
130,236
190,831
284,083
419,043
612,745
878,839
1,257,922
1,815,539
and graphically:
Graf. 2
2.500.000
value
2.000.000
migr.
no migr.
1.500.000
1.000.000
500.000
0
45.000.000 47.000.000 49.000.000 51.000.000 53.000.000 55.000.000
strike
We observe that allowing migrations increases the price of the derivative.
94
We examined then absence of correlation (independence hypothesis). The
results are:
Tab. 8 - Put value for different strike prices with (or without) correlation
Strike
45,000,000
46,000,000
47,000,000
48,000,000
49,000,000
50,000,000
51,000,000
52,000,000
53,000,000
54,000,000
55,000,000
corr.
48,603
74,615
112,968
165,540
245,245
363,940
527,868
753,941
1,058,635
1,476,008
2,046,773
indep.
23,863
40,870
67,713
114,748
189,698
294,214
464,632
721,107
1,061,336
1,514,079
2,131,606
and graphically:
Graf. 3
2.500.000
correlation
independence
value
2.000.000
1.500.000
1.000.000
500.000
0
45.000.000
47.000.000
49.000.000 51.000.000
53.000.000
55.000.000
strike
We observe that the price with no correlation dominates the price with
correlation only for high values of the strike price. Indeed a positive
correlation between obligors increases the probability of extreme portfolio
values.
95
3.2.2. First-to-default option
The first-to-default option is a contract where the protection buyer pays a
periodic premium S to the protection seller and the protection seller pays the
protected buyer at the time of the first default in the basket the non recovered
part of the defaulted credit. The contract ends at the predetermined maturity
(if no default occurs) or at the time of the first default.
Pricing techniques use standard risk neutral pricing technology (complete
markets framework). We require that the expected discounted payments of
premia should equal the expected payment of the insurance (under the risk
neutral measure F). The general pricing formula requires to solve the
following equation:
⎡ T − r ( s ) ds
− ∫
∫
F ⎢
E ∑e 0
⋅ S ⋅ 1τ (1)>k − e 0
⎢ k =0
⎣⎢
τ (1)
k
r ( s ) ds
⎤
⋅ VN ⋅ (1 − R(1) ) ⋅ 1τ (1)<T ⎥ = 0
⎥
⎦⎥
(3.2)
where S is the premium, VN is the notional value of the defaulted credit, R(1)
is the recovery rate of the defaulted credit, τ (1) is the first default time, 1 f ( x )
is the counting function and r(t) is the risk free rate curve.
As no closed pricing forms are available, we set up as usual a Monte
Carlo simulation. We obtained the following results varying degrees of
freedom, and taking into account independence situation and absence of
migrations ( T ≤ 5 ).
Tab. 9 - Premium for different First-to-default options
d=3
d = 10
d = 3 (indep.)
d = 3 (no migr.)
d = 3 (ind., no migr.)
T=1
303 905
363 637
366 643
306 871
328 036
T=2
425 285
450 977
487 030
413 301
447 610
T=3
471 865
497 057
539 862
466 865
502 066
T=4
499 392
524 083
565 302
496 577
530 991
T=5
520 299
543 412
583 465
511 019
548 894
The premium calculated with 10 degrees of freedom dominates the
premium calculated with 3 degrees of freedom. Indeed, taking into
consideration fatter tails (i.e. decreasing degrees of freedom), more extreme
joint credit events are allowed thus the price requested to buy/sell protection
decreases. We also observe that migrations influence marginally the price of
the derivative. Finally we performed a correlation sensibility. The results are
the following:
96
Tab. 1014 - Premium correlation sensibility
Correlation
0%
10%
20%
30%
40%
50%
Premium
327.285
312.988
302.665
273.896
256.005
218.718
We observe that the option value is decreasing with respect to the
correlation. We can explain this property by simple no-arbitrage argument. If
the correlation between the obligors is null (assuming a flat term structure for
CD premia), it is possible to perfectly hedge a short position on a first-todefault contract by holding a long position on each of the credit reference of
the basket. Indeed, upon default, the payment required on the first-to-default
contract will be compensated by the positive cash flow on the corresponding
single counterpart. Besides, with no correlation, the default of one obligor
will not influence the credit speads of the other credits in the portfolio.
Conversely, the higher the correlation, the higher the probability of
multiple defaults and hence lower the degree of protection (thus the premium
required lowers). Moreover, we observed that the mean first-to-default time
is increasing with respect to correlation. We get graphically:
Graf. 5 - First time-until-default
4.4
4.2
tud
4.0
3.8
3.6
3.4
0%
20%
40%
60%
correlation
80%
100%
Thus, the discounted pay-off decreases with respect to correlation.
14
We consider T=1 and we assume the same correlation between each pair of obligors.
97
3.2.3. Collateralized debt obligation (CDO)
This kind of product consists in a tranche structure on a portfolio of credit
default names. The protection seller promises to cover the range of collateral
losses defined by a particular tranche, and receives periodic premia payments
in exchange. Various structures are possible.
¾ As a simpler form we consider a percentile basket derivative.
The protection seller will compensate the protection buyer for the losses
registered on certain portfolios of credit names, up to the first α % . In our
application we considered the following pay-off at the end of each sub-period
j:
Pj = Max ( L j − α ⋅ E(V j );0 )
(3.3)
where L j is the simulated loss, E(V j ) is the expected portfolio value and
α ∈ (0,1) .
Pricing results are obtained with Monte Carlo simulation. We got the
following results varying degrees of freedom, and taking into account
independence situation and absence of migrations.
Tab. 11 Premium for different Collateralized debt obligations
α
1%
5%
10%
d=3
1.731.820
1.294.740
668.076
d=3
(indep.)
1.770.030
1.267.740
606.218
d = 10
1.760.100
1.264.440
584.084
d=3
(no migr.)
1.544.160
1.031.960
541.194
d = 10
(no migr.)
1.587.780
1.006.820
497.862
We also performed a correlation sensibility. The results are the following:
98
Tab. 12 - Premium correlation sensibility 15
Correlation
0%
10%
20%
30%
40%
50%
Premium
90.684
97.922
113.426
116.243
82.785
73.917
¾ We consider finally the following tranche structure determined by the
two bounds Γ and ∆ (percentual fraction of the expected loss of the
portfolio).
Denoting L j the simulated loss in the scenario j, we define the following
pay-off:
LΓj , ∆
⎧0 if L j < Γ
⎪
= ⎨ L j − Γ if Γ < L j < ∆
⎪
⎩∆ − Γ if L j ≥ ∆
The seniority of the tranche is defined by the relative location of the
thresholds Γ and ∆ . If Γ = 0 , the tranche is called equity tranche, if Γ > 0
and ∆ <
N
∑ VN
i =1
i
the tranche is called mezzanine tranche, finally if
N
∆ = ∑ VN i the tranche is called senior tranche.
i=1
We still use Monte Carlo simulation, the pricing assumes that the
expected value of discounted pay-offs equals the expected value of
discounted premia. We obtain the following results, assuming different
hypothesis:
15
We consider T=1, α = 10% and we assume the same correlation between each pair of
obligors.
99
Tab. 13 - Premium for different Collateralized debt obligations with
tranches structure
tranche
0% - 3%
3% - 6%
6% - 9%
9% - 12%
12% - 15%
15% - 20%
20% - 100%
d=3
942.007
446.077
247.310
130.121
69.167
44.536
15.144
d = 10
923.058
524.316
242.499
131.296
58.987
41.277
20.569
indep.
968.028
542.607
258.537
105.179
61.854
32.418
11.355
no migr.
909.503
439.717
207.065
114.642
50.223
30.940
9.536
4. Conclusions
From numerical results, we observe that our pricing model is sensible to
correlation, credit migrations and tail fatness.
Credit migrations. Generally increase derivative values, especially in
multi-periods time horizons. Small impact on first-to-default.
Tail fatness. Lowers first-to-default basket derivative value (due to the
increasing probability of extreme events). Opposite conclusion in the other
two applications.
Correlation. Increasing correlation lowers first-to-default basket
derivative value. In the other applications, independence provides lower
results but values doesn’t increase monotonically (a maximum value is
attained).
Finally, we pointed out that our model is able to tackle with different
kinds of basket credit derivatives, which are usually hard to price.
100
REFERENCES
BIELECKI, T. – RUTKOWSKI, M. (2003), Dependent default and credit
migrations, Working paper.
BÜRGISSER, P. – KURTH, A. – WAGNER, A. (2001), Incorporating
severity variations into credit risk, Working paper.
CARTY, L.V. – LIEBERMAN, D. (1996b), “Defaulted bank loan
recoveries”, Moody’s Investors Service, November.
CHERUBINI, U. – LUCIANO, E. (2002), Pricing and hedging
vulnerable credit derivatives with copulas. Working paper.
CHERUBINI, U. (2004), Pricing swap credit risk with copulas. Working
paper.
CREDIT SUISSE (1997), Credit Risk+. A credit risk management
framework, Technical document.
DAS, S.R. – TUFANO, P. (1996). “Pricing credit-sensitive debt when
interest rates, credit ratings and credit spreads are stochastic”, Journal of
Financial Engineering 5(2), pp. 161-198.
DUFFIE, D. – SINGLETON, K.J. (1999). “Modelling term structures of
defaultable bonds”, Review of Financial Studies 12(4), pp. 687-720.
GALIANI, S. (2003), Copula functions and their application in pricing
and risk managing multiname credit derivative products, Working paper.
GORDY, M.B. (2000). “A comparative anatomy of credit risk models”,
Journal of Banking & Finance 24, pp. 119-149.
GREGORY, J. – LAURENT, J.-P. (2002), Basket default swaps, CDO’s
and factor copulas, Working paper, ISFA Actuarial School, University of
Lyon.
GUPTON, G. – FINGER, C. – BHATIA, M. (1997). CreditMetrics,
Technical document, J. P. Morgan.
HULL, J. – WHITE, A. (2000), “Valuing credit default swaps I: No
counterparty default risk”, The Journal of Derivatives, pp. 29-40.
JARROW, R.A. – TURNBULL, S.M. (1995), “Pricing derivatives on
financial securities subject to credit risk”, Journal of Finance 50 (1),
pp. 53-83.
JARROW, R.A. – LANDO, D. – TURNBULL, S.M. (1997), “A Markov
model for the term structure of credit risk spreads”, Review of Financial
Studies 10( 2), pp. 481-523.
KEALHOFER, S. (2003a), “Quantifying credit risk I: Default prediction”,
Financial Analysts Journal 59 (1), pp. 30-44.
KEALHOFER, S. (2003b), “Quantifying credit risk II: Debt valuation”,
Financial Analysts Journal 59 (3), pp. 78-92.
LANDO, D. (1998), “On Cox processes and credit risky securities”,
Review of Derivative Research, 2, pp. 99-120.
LI, D.X. (2000), On default correlation: a copula function approach, The
RiskMetrics Group, Working paper 99/07.
101
LUCAS, D.J. (1995), “Default correlation and credit analysis”, Journal of
fixed income 5 (1), pp. 32-41.
MASALA, G. – MENZIETTI, M. – MICOCCI, M. (2004), A copulabased actuarial model for credit risk, Publ. of the Dept. of Economics
Science 137, University of Rome “Luiss Guido Carli”.
MASHAL, R. – NALDI, M. (2002), Pricing multiname credit derivatives:
heavy tailed hybrid approach, Working paper, Columbia University.
MENEGUZZO, D. – VECCHIATO, W. (2002), Copula sensitivity in
collateralised debt obligations and basket default swaps pricing and risk
monitoring, Working paper, Intesa Bank.
MENZIETTI, M. (2002), Modelli di portafoglio per la gestione del
rischio di credito: proposta di un modello attuariale generalizzato, Ph.D.
thesis on Actuarial Science, University of Rome “La Sapienza”.
MERTON, R.C. (1974), “On the pricing of corporate debt: The risk
structure of interest rates”, Journal of Finance 2(2), pp. 449-470.
MICOCCI, M. (2000), M.A.R.C.: An actuarial model for credit risk,
XXXI International Astin Colloquium.
NELSEN, R.B. (1998), “An introduction to copulas”, Lecture Notes in
Statistics 139, Springer.
PITACCO, E. (2000), Matematica e tecnica attuariale delle assicurazioni
sulla durata di vita, Lint, Trieste.
SCHÖNBUCHER, P.J. (2003), Credit derivatives pricing models, John
Wiley & Sons, London.
SCHÖNBUCHER, P.J. – SCHUBERT, D. (2001), Copula-dependent
default risk in intensity models, Working paper, Bonn University.
102
THE ECONOMICS OF ANTI-INFLATION AGREEMENTS
Enrico D’Elia°
JEL Classification: D43, D83, E31, E64.
Keywords: Anti-inflation policy, Imperfect information, Markup, Price
dispersion, Search cost
... a hornet cannot fly due to
the form and weight of its
body considering its actual
wingspan. But the hornet
keeps flying, because it
doesn't know.
Igor Ivan Sikorsky
1. Introduction (*)
Anti-inflation programmes have usually included some kind of price and
wage controls both in developed (Capie and Wood, 2002) and in transition
countries (van-Wijnbergen, 1987). Nevertheless, mainstream economic
theory does not support price control; in addition, the actual outcome of such
controls has been mixed, because of possible misallocation effects and the
potential for black markets (Butterworth, 1994). To overcome such
difficulties, in the last few years, anti-inflation policies based on moral
suasion (along the tradition of monetary policies surveyed by Breton and
Wintrobe, 1978) and gentlemen agreements with retailers and entrepreneurs
have been made in several countries, France, and Italy and among the others.
Typically, cheapest or “fair” prices are circulated for a basket of goods and
services, or a list of inexpensive outlets joining the agreement is made
available to the consumers.
Anti-inflation policies based on moral suasion have been often
successfully (Cochrane and Griepentrog, 1977, and Ma and Lynge, 1992),
although traditional economic theory predicts that controlling prices is
ineffective, or even counterproductive, in the long run. Indeed, having
°
ISAE, Istat and Statistical Office of the City of Rome
The views and opinions reported in this paper are those of the author and do not involve the
institutions he is affiliated to under any respect. The author gratefully acknowledges the
suggestions and criticisms come from researchers who read the first draft of the paper and
attended to the seminar held in Isae in March 2005. Of course, the usual disclaimer applies.
(*)
103
recourse to moral suasion against inflation is based on two economic
principles. The first one is that actual markets are far from being perfectly
competitive, so that prices embody unnecessary large markups on production
costs. Thus, in these circumstances cutting prices simply moves the market
toward its ideal competitive equilibrium, improving general welfare
(Helpman, 1988). The second point is that consumers are typically
uninformed, so that they are disposed to pay prices exceeding the minimum
one available on the marketplace, contrary to the prediction of the huge
literature on competitive markets. If this is the case, information campaigns
may improve consumers’ knowledge, raise the expected gain from searching
for better prices, and therefore cut the “reservation price” which makes
consumer purchasing, stopping search for more inexpensive shops.
Nevertheless, encouraging consumer search and reducing markups and
reservation prices may bear some drawbacks. First of all, it is trivial that a
reduction of the percentage of gross profit margin, say ∆µ, produces larger
effects on inflation the lower is the initial markup. Thus, agreements to
reduce markup unavoidably have declining anti-inflation effects over time.
Secondly, price dynamics risks accelerating in the long run, as far as
technology embodied in new machinery reduces production cost and
investment depends on profits (Bagwell, Ramey and Spulber, 1997). In
addition, higher profits, typically earned in less competitive markets, allow
retailers to absorb temporary shocks on costs without raising selling prices
abruptly (Mankiw and Romer, 1991). Thus, anti-inflation agreements risk
being counterproductive just when production costs rise faster. Finally,
publishing prices available on the market may ease anti-competitive
agreements among retailers, as Stigler (1964) already stressed. As a
consequence, anti-inflation policies based on moral suasion must balance
many conflicting factors carefully.
The aim of this paper is to analyse the likely effects on inflation of
information campaigns about prices and of price cuts agreed with retailers
and entrepreneurs. Policy makers will hopefully find out in what follows
some suggestions to improve the effectiveness of anti-inflation agreements,
reducing their possible drawbacks as well.
The remainder of this paper is organised in three sections. The effects on
consumer behaviour of information campaigns on prices are analysed in the
next paragraph. It mainly works out the concepts of search process and
reservation price, pointing out the sensitiveness of both to information
framework. The foremost conclusion is that advertising “fair” prices may
actually encourage searching and moderating average prices, even though
only few stores join the anti-inflation agreements explicitly and information
campaigns reach only a small number of consumers.
The third section points out some consequences of markup pricing rule for
inflation dynamics. The first (mundane) result is that moderating profit
104
margins has larger influence on prices the lower is the level of initial markup.
Thus, in the long run, anti-inflation agreements are successful mainly in low
profit industries. In addition, as far as large profit margin allows retailers to
absorb temporary cost shocks, inflation is likely to be more volatile in low
profit industries. Whereas production costs are steadily increasing, it implies
that low markup may induce higher inflation. Finally, the close relation
between profit level, on the one hand, and investment improving efficiency,
on the other, may affect unfavourably long run price dynamics in case of
long-lasting anti-inflation agreements.
Few conclusive remarks close the paper. Specially, the last paragraph
includes some recommendations to the policy makers and entrepreneurs
associations who are promoting anti-inflation agreements. The main advice
concerns how to select the “fair” prices and advertise the low-price outlets,
since an inappropriate choice may be either counterproductive, when the
advertised prices are too high or outlets are too expensive, or it may raise
some credibility problem, when suggested prices are too low, so that
consumers are finally unable to find out products at the advertised price.
Finally, anti-inflation policies must be closely associated to incentives
fostering the introduction of new cost reducing technologies. Otherwise,
short run moderation of price dynamics will be compensated, or even
overcompensated, by higher inflation and competitiveness loss in the long
run.
2. Consumer search and optimal price setting
Actual markets are characterised by price dispersion, even for very
homogeneous products, rather than by the single equilibrium price predicted
by the classical “law of one price”. Indeed, consumers acting on the market
are not usually fully informed about the prices set by each retailer, and
typically should sustain non-negligible search cost to find out the lowestprice store where to purchase. Hence, imperfect information allows firms to
exploit their market power, by setting prices higher than the minimum one.
This fact has been recognised since the seminal article by Stigler (1961).
Anti-inflation agreements may help to improve consumer information,
reducing price dispersion and possibly average price as well. At the same
time, retailers may take advantage from a coordinated price reduction,
promoted by the agreements, since more consumers join the market if all
firms lower prices at the same time.1
1
Namely, Blinder (1993) reports a huge empirical evidence on the issue, and Kalai and
Satterthwaite (1994) analyse price setting strategies in the framework of the game theoretic
approach.
105
Therefore, analysing the search mechanisms describing consumer
behaviour may shed some light on the strength and weakness of anti-inflation
agreements. At least two approaches have dominated the related literature.
The first one, dating back to Stigler (1961), assumes that the consumer pays a
visit to n stores randomly and purchases a unit of good in the least expensive
store come across during his search. According to the second approach,
popularised by Burdett and Judd (1983), consumers stop visiting stores and
purchase as soon as they find a price smaller than a subjective threshold,
often referred to as “reservation price”.
2.1. A model of active search
Following Manning and Morgan (1982), let suppose that the consumer
knows the frequency distribution of prices p set by different stores, say f(p),
but not the location of each price (specially the lowest one). Thus, in order to
save on the purchasing price, the consumer can only visit n stores randomly
and buy a unit of good in the least expensive store he found. For every visit
the consumer bears a sunk cost c, say the time and money spent to get there.
After n visits, the consumer expects to pay a price smaller than s with the
probability
P(s) = 1 – (1 – F(s)) n
(2.1)
where F(s) =
∞
∫0
f ( p )dp is the cumulative distribution of prices. Since, for a
random variable with probability distribution f(x) and cumulative distribution
F(x), it holds E(x) = = ∫0 (1 − F ( x ))dx ,2 the expected value of the price pn
∞
paid after having visited n stores is
E(pn) =
n
∫0 (1 − F ( p )) dp
∞
(2.2)
Hence, E(pn) is a decreasing function of n, since each term (1 – F(p)) in
(2.2) is strictly larger than 0 and smaller than 1.
In addition, the gain expected from one further visit is
2
In fact, integrating by parts, it reads
)
(∫ dx )(∫
∫
-
∞
f ( x )xdx = x ∫ f ( x )dx − ∫ F ( x )dx =
f ( x )dx -
[(∫ dx)(∫ f ( x )dx) − ∫ F( x )dx]
∞
F ( x )dx . Thus, the definite integral is
(∫ dx)(∫
0
∫
∞
0
)
f ( x )dx -
=
0
∫
∞
0
F ( x )dx . Since
∫
∞
0
f ( x )dx = 1, it reads
∫ (1 − F ( x ))dx , q.e.d.
∞
0
106
∫
f ( x )xdx =
n −1
n
∫0 (1 − F ( p )) dp - ∫0 (1 − F ( p )) dp
∞
∞
n −1
n −1
= ∫0 (1 − F ( p )) (1 − (1 − F ( p )))dp = ∫0 (1 − F ( p )) F ( p )dp
g(n) = E(pn-1) - E(pn) =
∞
∞
=
(2.3)
Therefore, g(n) is a non negative function decreasing in n.
A rational consumer would stop his search after n visits as soon as
the unit search cost c exceeds g(n+1). Thus, by using (2.2) and (2.3), it is
possible to determine both the average price paid by the consumer and the
number of visited stores as functions of the unit search cost c. Figure 1
provides a graphical representation of the resulting relation among the
relevant variables. Namely, the right lower graph reproduces the relation
(2.3), the left lower quarter illustrates the relation (2.2), and finally the upper
right graph shows the relation between the search costs and the average
market price. For instance, if c raises from c0 to c1 the number of visited
stores which exceeds the overall search cost falls from n0 to n1.
Conformingly, the expected price raises from p0 to p1. Thus, the average price
raises with the search cost sustained by consumers. However, it is worth
noting that n is a discrete variable, since it counts the number of store visited,
thus both g(n) and E(pn) are discrete functions. It follows that a small change
of c might not affect either n, g(n) or E(pn) at all.
Fig. 1 – Average market price and search cost
E(p)
p1
p0
45°
c0
E(p)
c1
g(n), c
n1
n0
E(pn)
g(n) = E(pn-1) - E(pn)
n
107
The model described above entails a number of interesting consequences
in devising anti-inflation policies. First of all, in principle, it is possible to cut
average market price by reducing search costs. Thus, it is efficient including
provisions to cut the cost of gathering information on stores within antiinflation agreements. However, the reduction of search cost should be
sizeable enough, in order to affect the number of stores actually visited and,
ultimately, the average market price. Since, typically, concavity of g(n) and
E(pn) with respect to n ensures that E(pn) is convex respect to c as well, it
follows that only large changes in c would be able to reduce the average
market price when the latter is very high compared to c (that is reflected by
larger steps in the rightmost part of the curve in the upper right quarter of
Figure 1). It implies that a strategy based solely on search cost reduction can
be hardly successful.
A different anti-inflation program may hinge on the distribution of prices
expected by consumers, that determines the shape and position of curve g(n)
of expected gain from search activity. Let suppose that an advertising
campaign persuades consumers that the expected gain from searching is G1
instead of G0 in the lower right quarter of Figure 2. It implies that, after the
campaign, for any given search cost c the consumer is willing to visit n1
stores instead of n0. This shift of curve g(n) implies that the relation between
c and E(p) moves from P0 to P1 as well, so that, finally, the same search cost
c is associated to the average market price p1 instead of p0. It is worth noting
that this shift does not depend on the actual distribution of prices, that is still
depicted in the lower left quarter of Figure 2, but only on the change in
consumers’ opinion. Of course, if consumers were fully rational and
informed, the curve g(n) would be strictly consistent with the curve E(p), thus
any change in the shape of g(n) also would be associated to a corresponding
backshift in the curve E(p) in the lower left quarter of Figure 2, which would
amplify the favourable effect of the information campaign on average price
level. In any case, a change in g(n) tends to be self-fulfilling, since larger
expected gain g(n) and prolonged search activity in fact reduce the actual
average market price. In addition, the stepwise nature of the functions
involved in this process makes that even little shifts in the curve g(n) may
produce large changes in the number of stores visited. Thus an anti-inflation
strategy affecting consumers’ expectations on search gain is likely to be very
effective.
108
Fig. 2 – Average market price and distribution of prices expected by
consumers
E(p)
p0
p1
P0
45°
P1
c
E(p)
g(n), c
n0
n1
g(n) = E(pn-1 ) - E(pn)
E(pn)
G0
G1
n
The simple search model described above has also another interesting
consequence for anti-inflation agreements. In fact, in order to shift the curve
g(n) it is pointless to advertise the actual average market price, say pA, since
it does not foster any further visit to stores. In fact pA is just consistent with a
search process stopped after n visits, exactly in accordance with the current
consumers’ expectation on g(n). Thus pA does not convey information to
consumers that induce them searching for further, possibly more inexpensive,
shops. Therefore, anti-inflation agreements should preferably disseminate
information on whatever “fair” or “cheap” prices, below the actual market
average, rather than pA. For instance, the average price set by the best x%
inexpensive stores could be advertised. On the other hand, advertised “fair”
prices must be strictly realistic as well, in the sense that consumers must have
some significant chance to find out stores where prices are below the
advertised threshold. Otherwise, the consumers would be disappointed,
would not change their mind about g(n), and finally the agreements stop
working. Hence, publishing the lowest prices available in the market, that is
choosing x close to zero, is likely to be counterproductive. Indeed, Gastwirth
(1976) pointed out that consumers are very sensitive to possible
misperceptions of the price distribution.
109
2.2. Reservation price and equilibrium price distribution
The assumption that consumers know the frequency distribution of prices,
but not the location of cheapest stores is quite unrealistic, since in real word
exactly the opposite typically happens. Nevertheless, some conclusions of the
previous section hold even in a different framework, where consumers have
in mind a “reservation price”, say R, and stop visiting stores and purchase as
soon as they find a price smaller than R. Under these circumstances, no
retailer is able to sell his product at a price higher than R. Of course, R may
well derive from previous search processes, possibly based on the mechanism
described in section 2.1.
The expected gain g(R) from purchasing at the price p, smaller than R is
R
R
R
g(R)=R-E(p)= ∫0 dp − ∫0 ( 1 − F ( p ))dp = ∫0 F ( p )dp
(2.4)
Implicitly, one can assume that a rational consumer will stop searching
when g(R) is smaller than the marginal search cost c. The first consequence
of the latter approach for anti-inflation agreements is that it is possible to cut
the threshold R simply by raising the number of stores charging prices
smaller than R. In fact, in (2.4) any increase of F(p) within the support (0, R)
contributes to reduce the threshold R that satisfies the inequality g(R) ≤ c.
This fact suggests that even an agreement involving only few retailers may
produce substantial effects on the maximum price R that all other stores,
possibly opposing to the agreement, are allowed to charge.
Of course, reservation prices may vary among different consumers. Thus,
retailers can exploit these differences in order to increase their profits
carrying out a “third degree” discrimination among consumers. Indeed,
Diamond (1971) demonstrated that costly search for a homogeneous good,
offered by stores incurring the same costs, makes it convenient for every
store to set the same price, corresponding with the monopoly price for the
given overall demand curve faced by the stores. In fact, if search is costly,
each store has an incentive to raise his price by any amount less than the cost
of a further search, since such surcharge is not large enough to make
consumers to search for another cheaper shop. As a consequence, every store
has a strong incentive to raise its price until the limit of the monopoly price,
for which profit maximises. At least two conditions provide the stores with
sufficient incentives to charge lower prices. The first one is the variability of
marginal costs incurred by different stores (Reinganum, 1979). Another
incentive is the existence of a number of consumers who meet null search
costs and therefore continue to search in every condition. One could think of
110
them as “shoppers”, who simply enjoy to go shopping (Sthal, 1989), or
“native” fully informed about their local market (Salop and Stiglitz, 1977).3
Varian (1980) demonstrated that, from the viewpoint of stores, it is
optimal to set prices distributed according to a special cumulative distribution
F(p), defined on the support (p*, R), where p* is the minimum production cost
and R is the reservation price, already defined above. The resulting
distribution of prices characterises a symmetrical Nash equilibrium, that is a
situation in which no store has an incentive to change its strategy. Of course,
fully informed consumers always pay the lowest price, say pm, which
provides the most inexpensive store with the profit
πs(p) = (p – u)(I + U) – k
(2.5)
where u is the marginal (fixed) cost of production; I is the quantity of product
demanded by shoppers; U is the fraction of total demand coming from
uninformed consumers who, in any case visit one of the n stores by chance;
and k is a fixed production cost. Of course, the probability that a store is the
cheapest one, so that it gains π(pm), equals the probability that
n-1 other stores charge an higher price, that is (1 – F(p))n-1. On their turn,
uninformed consumers are disposed to pay a price p, higher than pm, granting
only the (much smaller) profit
πο(p) = (p – u)U – k
(2.6)
with probability 1 - (1 – F(p))n-1.
In the long run equilibrium, free entry of competitors ensures that profits
are null,4 at every price. Thus, for every price must hold
πs(p) (1 – F(p))n-1 + π ο(p) (1 - (1 – F(p))n-1) = 0
(2.7)
The latter condition is sufficient to define the optimal cumulative
distribution of prices F(p). In fact, from (2.7), (2.5) and (2.6) it reads
1
1
⎛
⎞ n −1
π o( p )
⎛
k
U ⎞ n −1
⎟⎟ = 1 − ⎜⎜
− ⎟⎟
F(p)= 1 − ⎜⎜
⎝ ( p − u )I I ⎠
⎝π o( p ) −π s( p )⎠
3
(2.8)
Benabou (1993) provides a general model accounting heterogeneity of both buyers and
sellers.
4
Apart from the normal remuneration of capital invested, conventionally included in the fixed
cost of production. Anderson and de Palma (2003) remove this assumption, allowing for a
fixed number of stores making positive (identical) profits in the long run.
111
Since the assumption of null profit holds particularly for the store setting
its price to the maximum R, it holds
π ο(R) = (R – u)U – k = 0
that is U =
(2.9)
k
, hence (2.8) reads
R−u
1
⎛k ⎛ 1
1 ⎞ ⎞ n −1
⎟⎟ ⎟⎟ =
F(p) = 1 − ⎜⎜ ⎜⎜
−
⎝ I ⎝ p − u R − u ⎠⎠
As a consequence, the average market price paid by consumers is
E(p) =
∫
R
p*
(2.10)
( 1 − F ( p ))dp =
1
=
∫
R
p*
⎛k ⎛ 1
1 ⎞ ⎞ n −1
⎜ ⎜
⎟
−
⎜ I ⎜ p − u R − u ⎟⎟ ⎟ dp
⎠⎠
⎝ ⎝
(2.11)
The shape of the relationship between the average market price and the
reservation price is obtained by differenciating (2.11) with respect to R:
1 k
∂E ( p )
=
∂R
n −1 I
(1 − F ( p) )2− n dp
∫p (R − u )2
R
*
≥0
(2.12)
and
1 k
∂ 2 E( p )
=
2
∂R
n−1 I
(1 − F ( p ))2 − n ⎛ 2 − n k ( 1 − F ( p ))1− n − 2( R − u )⎞ ≤0
⎟
∫p (R − u )4 ⎜⎝ n − 1 I
⎠
R
*
(2.13)
since 1 - F(R) = 0.5 The sign of (13) holds certainly for n ≥ 2, considering
further that the market can exist only if R - u >0. In addition, as far as R is the
maximum price that any store is able to charge to consumers and p* is the
minimum price that makes the production profitable, it holds p* ≤ E(p) ≤ R,
so that, particularly, E(p) = p* when R = p*.
The relationship between E(p) and R, as characterised by (2.12) and
(2.13), has a number of properties quite relevant in devising anti-inflation
5
For sake of simplicity, the results reported here relay on the assumption that the number of
stores acting in the market is large enough not to be affected by changes in R.
112
agreements. First of all, it is apparent from (2.12) that the average market
price increases with the reservation price R, but at a decreasing rate for
(2.13), as showed by the curve E in Figure 3. Thus, even large reductions of
reservation price may have small effects on the actual average market price.
This fact could get consumers confused, undermining the credibility of
agreements. Hence, anti-inflation information campaigns should contrast
both excessive expectation about the effects of the agreement, and the
possible disappointment of consumers in face of average price cuts smaller
than their reservation price reductions. On the other hand, since E(p) is a
convex function of R, owing to (2.13), the promoter of agreements can
exploit the increasing effects of succeeding reservation price reductions over
time as well. However, for the same reason, one should take into account that
the very first effect of information campaigns is expectedly small, and only
continuing the campaign may give outstanding results.
According to (2.12), the larger is the demand coming from fully informed
consumers the flatter is the curve E in Figure 3. Thus, even a small increase
in the number of consumers who get informed about prices, thanks to the
agreement, can reduce the overall average market price, spreading the benefit
of their own search over other, possibly uninformed, consumers. This fact
should strengthen the credibility of the agreement, making more and more
consumers intensify their search for cheaper stores.
Fig. 3 - Average market price and reservation price
E(p)
E
45°
R
p*
113
Solving (2.11), it is apparent that any given average market price may be
associated to a range of combinations of reservation prices R, on the one
hand, and demand of informed consumers I, on the other. Differenciating
(2.11) with respect to I gives
1
1
n
∂ E(p)
k n −1 − n − 1 1
=I
∂I
n− 1
I
∫
R
p*
⎛⎛ 1
1 ⎞ ⎞ n −1
⎟
⎜ ⎜⎜
−
⎜ p − u R − u ⎟⎟ ⎟ dp ≤ 0
⎠⎠
⎝⎝
(2.14)
and
1
n −1
1
∂ E(p)
nk
=
I
∂I2
(n− 1)2
2
−
2 n −1
n −1
∫
R
p*
⎛⎛ 1
1 ⎞ ⎞ n −1
⎟
⎜ ⎜⎜
−
⎜ p − u R − u ⎟⎟ ⎟ dp ≥ 0
⎠⎠
⎝⎝
(2.15)
Thus, from (2.12) and (2.14) it is apparent that, for any given average
market price, say E ,
∂R
∂I
∂E( p )
= − ∂I
≥0
∂E( p )
E ( p )= E
∂R
(2.16)
Hence, a raise in R may be compensated by a suitable increase on the
demand coming from informed consumers, potentially without affecting the
average market price. Furthermore, differenciating (2.16) with respect to I,
and taking into account the sign of the derivatives (2.12), (2.13), (2.14) and
(2.15), it reads
∂ 2 E( p ) ∂E( p ) ∂E( p ) ∂ 2 E( p )
−
2
∂2R
∂I
∂R 2
I
R
∂
∂
=(2.16)
2
2
∂ I E ( p )= E
⎛ ∂E( p ) ⎞
⎜
⎟
⎝ ∂R ⎠
The sign of (2.16) depends on the sign of its denominator, and supports
very different strategies in devising the anti-inflation agreements. Namely, if
∂ 2 E( p ) ∂E( p ) ∂E( p ) ∂ 2 E( p )
∂2R
then
≤ 0 is negative, that is
≥
∂I2
∂R
∂I
∂R 2
∂ I 2 E ( p )= E
the change of I exactly compensating a raise in R decreases with I, as
showed in Figure 4 for different values of E(p), say E1 > E2 >…> E6. Under
114
these circumstances, a campaign that succeeds in making informed even a
small number of consumers may compensate a large increase in the
reservation price prevailing among the other uninformed consumers. Hence,
simply emphasizing the potential advantages of search seems much more
effective than trying to lower the reservation price that consumers have in
∂2R
their mind. Quite the reverse, if
≥ 0, it is more efficient to
∂ I 2 E ( p )= E
persuade consumers that the maximum price at which they are disposed to
purchase is actually unnecessary high.
Fig. 4 – Reservation price and in formed consumers
R
E6
E5
E4
E3
E2
E1
I
2.3. Cutting the search costs
Improving consumer information seems a powerful device both to reduce
search cost and to cut reservation prices. A natural way to inform consumers
is to disseminate the price lists at a very low cost. Unfortunately, this practice
entails some drawbacks, since it encourages the retailers to collude to
consumers’ detriment as well, as noted by Stigler (1964) and stressed later by
Tirole (1988). Thus, the potential benefits for consumers of better
information sometimes can be completely offset by higher prices set by
colluding retailers. As matter of fact, national pro-competitive Authorities
115
and the European Commission itself always have been very cautious about
the publication of price lists, as reported by Nilsson (1999).
Although collusion is favoured by full and fast information about the
prices of possible competitors, also the expected gain for a single store to
cheat on an anti-competitive agreement is larger when price lists are publicly
available. In fact, under perfect information, a store could potentially attract
all the consumers just by lowering its price by a small amount. Thus perfect
information encourages both the collusion and the deviation from it. Quite
the reverse, if price lists are not publicly available, it is more costly for each
store to control the compliance with the agreement of other stores.
Nevertheless, the expected gain from deviating from the agreement is smaller
as well. In fact, a single store who cuts its price may just expect to catch the
additional demand from “shoppers”, since the same number of uninformed
consumers would continue visiting the store in any case by chance. In
addition, the deviating store would lose the difference between the agreed
price and the lower one charged to uninformed consumers. Hence, an
imperfect information environment makes it is less convenient both to set up
and to break a collusive agreement. 6
Of course, the former considerations must be taken into account carefully
in setting up a successful anti-inflation agreement. Particularly, the
dissemination of price lists can be never the single or main point of an
agreement. In addition, it must be complemented by monitoring the degree of
competition on the market and a proper system of incentives for stores
cheating on possible collusive agreements. In any case, dissemination of
price lists is not the only tool to abate the search costs. For instance, Stigler
(1961) pointed out that advertising can provide consumers with information
about sellers and thus lower their search costs. Thus, advertising inexpensive
shopping areas, possibly with parking and other facilities, can be as much
efficient as the publication of simple price lists, in order to reduce the sunk
costs incurred by consumers. Furthermore, some common practices deserve
to be encouraged, possibly by means of tax reduction, such as stores mailing
flyers reporting their best prices or committing themselves to refund clients
in case they find lower prices in other stores.
3. Markup reduction and inflation
Anti-inflation agreements necessarily entail some reduction of unit profit
charged by producers and retailers. Usually, firms operating in a
monopolistic competition framework are assumed to set (the logarithm of)
6
In addition, Nilsson (1999) and Mollgaard and Overgaard (2001) point out, in a game
theoretic framework, that improving temporarily the market transparency has undoubtedly
favourable effects on prices, while prolonging the publication of price lists could have adverse
effects.
116
their own prices (pt) in each time period t according the following simple
markup rule:
pt = ct + mt
(3.1)
where ct is the logarithm of unit variable production cost, typically the cost of
labour, energy and row materials, and mt = log(1+µt) is the logarithm of 1
plus the gross unit profit margin µt charged on unit variable costs, that is
assumed to be almost stable over time.
From equation (3.1), for small change of relevant variables, the following
dynamics of inflation rate p& t derives
p& t = c&t + m& t
where x& t = xt – xt-1 stays approximately for
(3.2)
exp( xt ) − exp( xt −1 )
.
exp( xt −1 )
3.1. Short and long run effects of markup reduction
It is apparent from (3.2) that in the short run whatever change in markup
percentage, say µt- µt-1 passes on directly to inflation. However, the larger is
the initial level of µt-1, the smaller is the pass through on inflation. Thus,
given the dynamics of costs and margins, inflation rate turns out to be lower
as the initial markup is larger. The consequence of the previous basic
algebraic manipulation of (3.2) are often disregarded. nevertheless, the
negative relationship between markup and inflation is supported by some
empirical evidence in different developed countries (Banerjee and Russell,
2001) and various national industries (Benabou, 1992), although other studies
emphasize that increasing competition among firms (reducing markups)
generates lower inflation (Cavelaars, 2003), and that discretionary (and
inconsistent) monetary policy, claiming to exploit possible trade off between
inflation and growth, may induce a positive correlation between inflation rate
and markup (Neiss, 2001).
Of course, in the steady state equilibrium, when the markup reverts to its
normal level µ* (possibly null, as far as the market becomes fully
competitive), the inflation rate only varies with costs. Nevertheless, if firms
incur in some actual or virtual cost in revising their prices, 7 as commonly
7
The so called “menu costs” of printing price lists and product labels is an example of actual
cost of adjusting prices instantaneously. The risk of worsening relationship with clients and the
uncertainty about demand elasticity are among virtual costs.
117
assumed in new-keynesian macroeconomics (see Mankiw and Romer, 1991,
among the others), then prices are sticky even if production cost changes. For
instance, firms could let the markup vary, setting prices according to the
following partial adjustment mechanism
pt - pt-1 = α (p*t - pt-1)
(3.3)
where
p*t = ct + m*
(3.4)
is the ideal price consistent with the actual production costs and the desired
markup µ* = exp(m*) – 1, so that (p*t - pt-1) is the gap between the desired
price and the one set in the previous period of time and 0 < α < 1 is the
fraction of the gap filled during each period of time.
From (3.1), (3.3) and (3.4), it reads
p& t = α c&t + αm* - mt-1)
(3.5)
It follows from (3.5) that when prices are sticky, as in the real world, the
higher the initial markup mt-1 the lower is ongoing inflation. Thus, a
counterintuitive result is that a positive shock on costs turns out to have
smaller unfavourable effects on the purchasing power of consumers when
actual gross profit margins are larger. On the other hand, (3.5) implies also
that a larger desired markup m* tends to accelerate inflation rate. Thus,
agreements with producers and retailers aimed to moderate long run profit
expectations are possibly successful in slowing down inflation.
3.2. The risk of delayed technological innovation
In analysing the relationship between markup level and inflation rate, one
should also take into account the fact that larger markup improves cash flow
of firms, and the latter possibly encourages investment, which contributes in
reducing production costs in the medium and long run. Indeed, the effect of
cash flow on investment contrasts with the neoclassical view popularised by
Modigliani and Miller (1958), who exclude any influence on investment of
the way they are financed. On the other hand, as far as financial markets are
far from being fully efficient, firms often face credit rationing, that constrains
their investment plans, as pointed out newly in the last decades namely by
Fazzari, Hubbard and Petersen (1988) and Hubbard (1998). If this is the case,
also the term c&t in (3.2) and (3.5) is inversely related to the markup level
(Bagwell, Ramey and Spulber, 1997). Thus the promoters of anti-inflation
118
agreements necessarily face a trade-off between larger reduction of ongoing
inflation rate in the short run, achieved by a sizable cut of present markup,
and slower price dynamics in the next years, requiring larger investment
financed by current profits.
In addition, cutting markup directly may have even worse effects on
production cost dynamics in regulated industries. In fact, Averch and Johnson
(1962) demonstrated that regulated firms subject to overall profit limitation
have scarce incentive to minimise production costs, since it is very difficult
for any regulatory authority determining costs to be deducted from overall
revenue to measure the return on capital. As a consequence, such firms tend
to expand their business even in non profitable markets only to inflate costs,
to the aim of meeting the required rate of return. In order to escape from such
drawbacks, Vogelsang and Finsinger (1979) and Brennan (1989) popularised
the “price cap” method to regulate price dynamics, which only requires the
regulated firm to increase in every period of time its prices less than the
overall inflation rate minus a fixed percentage, say x. Such simple rule is
worth to be included in anti-inflation agreements, instead of explicit
constraints on retail margins, which unavoidably correspond to direct profit
regulation. As a result, the warning about the possible counterproductive
effects of direct markup reduction on long run inflation is further reinforced.
4. Conclusive remarks
Anti-inflation agreements represent a powerful tool to curb inflation.
Nevertheless, in devising and implementing such agreements national and
local authorities should carefully take into account a number of
recommendations deriving from the economic theory of imperfect
information and industrial organization. Above all, the agreements should be
conceived explicitly as “packages” of several coordinated measures,
counterbalancing the possible drawbacks of each one, instead of a set of few
single interventions in favour of the consumers.
As far as consumers usually pay more than the minimum possible price,
since they incur in some cost to find out the best offers available on the
market, it is efficient to include some provision to cut search cost in antiinflation agreements. However, since the average price reduction ultimately
depends on the number of stores visited by consumers, the reduction of
search cost should be sizeable enough, in order to increase the number of
visits. Hence, an agreement that simply aims to reduce search costs is hardly
successful.
A more efficient anti-inflation program should rather persuade consumers
that the expected gain from further search is large enough to make them visit
more and more stores before purchasing. It is worth noticing that the
propensity to search does not depend solely on the actual distribution of
119
prices, but mainly on consumers’ perception of price dispersion. In addition,
the average price reduction achieved by intensifying search tends to be selffulfilling and strengthen the credibility of anti-inflation agreements, since
larger gain expected by consumers and longer search in fact reduce the actual
average market price. Thus informative campaigns may be very effective.
However, the manner the consumers are provided with information on
prices is not without consequence. Although a natural way to inform
consumers is to disseminate publicly the price lists, this practice could
encourages the retailers to collude, setting higher prices. In addition, in a
search theoretic framework, it is pointless to advertise actual average market
price, since the latter is just consistent with the actual (unsatisfactory) search
process, and hence does not foster any further search, contrary to the wishes
of the promoters of anti-inflation policies. Therefore, it is far better to
disseminate information on “fair” or “cheap” prices, laying below the actual
market average. For instance, a good candidate is the average of prices set by
the best x% inexpensive stores. Of course, advertised prices must be such that
consumers have some significant chance to find out stores where prices are
below the advertised threshold. That is x should not be too close to zero,
otherwise, the consumers would get disappointed and the agreement could
fail.
In any case, the promoters of anti-inflation agreements should be aware
that even large reductions of “reservation price” of consumers may have
small (and disappointing) effects on average market price, specially at the
beginning. This fact could undermine the credibility of agreements, even if
the relevant theory predicts that reservation price reductions produce
increasing effects over time on overall inflation. On the other hand, it is
possible to demonstrate that even if the agreement succeeds in increasing the
number of informed consumers only slightly, the benefit of their search also
spreads over uninformed consumers, reducing the overall average market
price. Thus, it is essential to enforce the agreement over time even after the
first possibly disappointing results.
Another interesting prediction of the model sketched in section 2.2 is that,
even if the reservation price raises, it is possible to compensate this increase
by enlarging the number of informed consumers, or “shoppers”. It depends
on the special shape of the relation between reservation price and the number
of “shoppers” whether or not emphasizing the advantages of search is more
effective than trying to lower the reservation prices underlying consumers’
behaviour.
Since the effectiveness of agreements relays mainly on the information
made available to the consumers, there is a risk that prices rebound just after
120
the end of information campaign.8 In this case, exactly the same mechanisms
that ensured a price reduction when the agreement was in force may raise
inflation again. Also, just before the agreement comes into force, it is
possible that retailers anticipate some increase in their price lists in view of
the next likely reduction. As a consequence, anti-inflation agreements should
make provision for a very smooth and progressive way for stores and firms to
join and leave the agreement. For instance, at least x months of price list
invariance could be required before joining the agreement and after leaving.
Anti-inflation agreements necessarily aim to reduce the profit margins
earned by producers and retailers. Of course, this reduction has favourable
short term effects on inflation, but it also entails some drawbacks in the
medium and long run. First of all, given the dynamics of costs and profit
margins, simple algebraic manipulations imply that inflation rate is lower as
the initial markup is larger. In addition, as far as prices are sticky, the shocks
on costs have smaller unfavourable effects on inflation when profit margins
are large enough to potentially absorb such shocks. Thus, anti-inflation
agreements should aim preferably to moderate the long run profit
expectations of producers and retailers, that undoubtedly tends to accelerate
inflation, rather than current markups. Finally, one should also take into
account that larger markups improve the cash flow of retailers, which
possibly, in turn, encourages investment contributing to the reduction of costs
in the medium and long run. As a consequence, anti-inflation agreements
should always provide some incentive to introduce new efficient
technologies, in order to avoid that present short run moderation of price will
be offset by higher inflation and competitiveness loss in the future.
8
For instance, a similar bad experience is well documented by the Bank of Greece (2000,
p. 107-110).
121
REFERENCES
ANDERSON, S.P. – DE PALMA, A. (2003), “Price Dispersion”, Virginia
Economics Online Papers, n. 361,
http://ideas.repec.org/p/vir/virpap/361.html.
AVERCH, H. – JOHNSON, L.L. (1962), “Behaviour of the Firm under
Regulatory Constraint”, American Economic Review, vol. 52, p. 1053-1069.
BAGWELL, K. – RAMEY, G. – SPULBER, D.F. (1997), “Dynamic
Retail Price and Investment Competition”, RAND Journal of Economics, vol.
28, n. 2, p. 207-27.
BANERJEE, A. – RUSSELL, B. (2001), “The Relationship between the
Markup and Inflation in the G7 Economies and Australia”, Review of
Economics and Statistics, vol. 83, n. 2, p. 377-84.
BANK OF GREECE (2000), Annual Report 1999, Athens.
BENABOU, R. (1992), “Inflation and Markups: Theories and Evidence
from the Retail Sector”, European Economic Review, vol. 36, p. 566-74.
BENABOU, R. (1993), “Search Market Equilibrium, Bilateral
Heterogeneity, and Repeat Purchases”, Journal of Economic Theory, vol. 60,
n. 1, p. 140-58.
BLINDER, A.S. (1993), “Why are Prices Sticky? Preliminary Results
from an Interview Study”, in Sheshinski, E. and Weiss, Y. (eds.), Optimal
pricing, inflation, and the cost of price adjustment, Cambridge and London:
MIT Press, p. 409-21.
BRENNAN, T.J. (1989), “Regulating by Capping Prices”, Journal of
Regulatory Economics, vol. 1, p. 133-47.
BRETON, A. – WINTROBE, R. (1978), “A Theory of 'Moral' Suasion”,
Canadian Journal of Economics, vol. 11, n. 2, p. 210-19.
BURDETT, K. – JUDD, K.L. (1983), “Equilibrium Price Dispersion”,
Econometrica, vol. 51, p. 955-69.
BUTTERWORTH, J. (1994), The Theory of Price Control and Black
Markets, Ashgate, Avebury.
CAPIE, F. – WOOD, G. (2002), “Geoffrey Price Controls in War and
Peace: A Marshallian Conclusion”, Scottish Journal of Political Economy,
vol. 49, n. 1, p. 39-60.
CAVELAARS, P. (2003), “Does Competition Enhancement Have
Permanent Inflation Effects?”, Kyklos, vol. 56, n. 1, p. 69-94.
COCHRANE, J.L. – GRIEPENTROG, G.L. (1977), “Cotton Textile
Prices, 1965-66: The Microeconomics of Moral Suasion”, Southern
Economic Journal, vol. 44, n. 1, p. 74-84.
DIAMOND, P.A. (1971), “A Model of Price Adjustment”, Journal of
Economic Theory, vol. 3, p. 156-168.
FAZZARI, S. – HUBBARD, G. – PETERSEN, B. (1988), “Financing
Constraints and Corporate Investment”, Brookings Papers on Economic
Activity, vol. 1, p. 141-95.
122
GASTWIRTH, J.L. (1976), “On Probabilistic Models of Consumer
Search for Information”, Quarterly Review of Economics, vol. 90, n. 1, p. 3850.
HELPMAN, E. (1988), “Macroeconomic Effects of Price Controls: The
Role of Market Structure”, Economic Journal, vol. 98, n. 391, p. 340-54.
HUBBARD, G. (1998), “Capital Market Imperfections and Investment”,
Journal of Economic Literature, vol. 35, p. 193-225.
KALAI, E. – SATTERTHWAITE, M.A. (1994), “The Kinked Demand
Curve, Facilitating Practices, and Oligopolistic Coordination”, in Gilles, R. P.
and Ruys, P. H. M., eds. Imperfections and behavior in economic
organizations, Boston and Dordrecht, Kluwer Academic, p. 15-38.
MA, C.K. – LYNGE, M.J.Jr. (1992), “Price Control versus Quantity
Control: The Implication of Stabilizing Intervention”, Quarterly Review of
Economics and Finance, vol. 32, n. 1, p. 84-102.
MANKIW, N.G. – ROMER, D. (1991), “Imperfect Competition and
Sticky Prices: Introduction”, in Mankiw, N. G. and Romer, D., eds., New
Keynesian economics, MIT Press, Cambridge, vol. 1, p. 1-26.
MANNING, R. – MORGAN, P.B. (1982), “Search and Consumer
Theory”, Review of Economic Studies, vol. 49, p. 203-216.
MODIGLIANI F. –MILLER, M. (1958), “The Cost of Capital,
Corporation Finance and the Theory of Investment”, American Economic
Review, vol. 48, p. 261-97.
MOLLGAARD, H.P. – OVERGAARD, P.B. (2001), “Market
Transparency and Competition Policy”, Rivista di politica economica, vol.
91, n. 4-5, p. 11-64.
NEISS, K.S. (2001), “The Markup and Inflation: Evidence in OECD
Countries”, Canadian Journal of Economics, vol. 34, n. 2, p. 570-87.
NILSSON, A. (1999), “Transparency and Competition”, paper presented
at the EEA Conference, held in Berlin,
http://swopec.hhs.se/hastef/papers/hastef0298.rev.pdf.
SALOP, S.C. – STIGLITZ, J.E. (1977), “Bargains and Ripoffs: A Model
of Monopolistically Competitive Price Dispersion”, Review of Economic
Studies, vol. 44, p. 493-510.
STAHL, D. (1989), “Oligopolistic Pricing with Sequential Consumer
Search,” American Economic Review 79, pp. 700-712.
STIGLER, G.J. (1961), “The Economics of Information”, Journal of
Political Economy, vol. 69, p. 213-25.
STIGLER, G.J. (1964), “A Theory of Oligopoly”, Journal of Political
Economy, vol. 72, p. 44-61.
TIROLE, J. (1988), The Theory of Industrial Organization, MIT Press,
Boston.
Van-WIJNBERGEN, S. (1987), “Monopolistic Competition, Credibility
and the Output Costs of Disinflation Programs: An Analysis of Price
123
Controls”, National Bureau of Economic Research Working Paper, n. 2302,
June 1987.
VARIAN, H.R. (1980), “A Model of Sales”, American Economic Review,
vol. 70, p. 651-659.
VOGELSANG, I. – FINSINGER, J. (1979), “A Regulatory Adjustment
Process for Optimal Pricing by Multiproduct Monopoly Firms”, Bell Journal
of Economics, vol. 10, p. 157-71.
124
REGOLE E STABILITÀ DEL SISTEMA BANCARIO+
Umberto Monarca*
Classificazione JEL: L510, G380
Parole chiave: regolazione, vigilanza bancaria, panic run
1. Introduzione
I notevoli processi di cambiamento che hanno caratterizzato lo scenario
economico dell’ultimo decennio offrono nuovi elementi per rivedere,
ampliare ed analizzare in chiave critica il ruolo dell’industria bancaria
all’interno del processo di sviluppo di un territorio e, in ultima analisi, di un
sistema-paese. La globalizzazione, infatti, non ha manifestato i suoi effetti
solo sul sistema imprenditoriale, ma ha contributo ad innovare, mutare e, per
alcuni aspetti, stravolgere, procedure operative, schemi relazionali e
meccanismi di funzionamento di molti settori dell’attività economica con
riflessi importanti anche in quello creditizio.
Un esempio concreto e significativo di tale passaggio è nelle principali
tappe che hanno caratterizzato la recente evoluzione della regolamentazione
bancaria, in particolare la vigilanza e la tutela della stabilità del sistema. I
mercati finanziari, infatti, specie dalla fine degli anni Ottanta, hanno
conosciuto un periodo di rapida crescita nell’interscambio di strumenti ed
attività tra diversi paesi, fenomeno che ha inesorabilmente posto nell’agenda
del policy maker l’esigenza di armonizzare e modificare i principi sui quali
era impostata la regolamentazione di stabilità del settore.
I cardini del moderno sistema di safety net, ossia di qual complesso di
norme e strumenti a disposizione dell’Autorità di vigilanza per garantire la
stabilità del sistema finanziario, e di quello bancario in particolare, poggiano
sostanzialmente su tre strumenti: il credito di ultima istanza, l’assicurazione
dei depositi e i requisiti patrimoniali. Tradizionalmente, di essi il primo è il
più antico e si afferma già alla fine del 1700 con la nascita della Banca
Centrale inglese, mentre assicurazione dei depositi e requisiti patrimoniali si
diffondono in tempi relativamente recenti. In particolare, le prime esperienze
di assicurazione dei depositi furono implementate negli anni Trenta negli
Stati Uniti, come risposta alla crisi finanziaria del 1929 e, per molti anni,
+
Questo lavoro riprende, approfondendoli, alcuni spunti di analisi critica da me sviluppati in
un precedente articolo “Sulla stabilità dell’industria bancaria”, pubblicato nella raccolta
Quaderni del Grif, anno 2004.
*
Università degli Studi di Teramo, [email protected].
125
questo strumento è rimasto una caratteristica del sistema statunitense se si
considera che, in Europa, le prime applicazioni in tal senso risalgono a poco
più di venti anni fa. I requisiti patrimoniali, invece, sono lo strumento di
regolazione più nuovo, istituto di fatto solo nel 1988 grazie al primo Accordo
di Basilea, sulla disciplina del patrimonio di vigilanza delle banche, e
sottoposti di recente ad una complessa revisione.
Pur condividendo l’obiettivo primario della tutela della stabilità del settore
del credito, i tre strumenti cardini del safety net agiscono con logiche e
finalità diverse. In particolare, requisiti patrimoniali ed assicurazione dei
depositi operano in un’ottica di regolamentazione microprudenziale,
influendo in maniera diversa sulle scelte strategiche ed operative delle
singole imprese bancarie; al contrario, il credito di ultima istanza è efficace in
un contesto di tutela macroprudenziale, avendo il fondamentale compito di
salvaguardare la stabilità del sistema e, quindi, di intervenire nel momento in
cui si manifesti concretamente il rischio di contagio da una singola posizione
di illiquidità dell’impresa-banca all’intero settore.
Analizzando, invece, i tre strumenti regolamentari sul piano della logica
operativa, è chiaro quanto i requisiti patrimoniali si differenzino nettamente
dagli altri due; sia l’assicurazione dei depositi sia il credito di ultima istanza,
infatti, sono strumenti che intervengono principalmente ex post, ovvero sono
leve regolamentari a disposizione dell’Autorità di vigilanza per contenere una
situazione di crisi concreta. Nel momento in cui viene accertata la difficoltà
finanziaria di un istituto di credito, l’assicurazione dei depositi agisce a tutela
del risparmiatore, la controparte debole dal punto di vista informativo nelle
relazioni di credito, mentre il credito di ultima istanza è utilizzato dalle
Autorità per garantire la stabilità macroeconomica non solo del settore, ma
dell’intera economia, ed evitare che la crisi di un singolo istituto possa creare
scompensi nel sistema dei pagamenti. I requisiti patrimoniali, invece, sono
strumenti di regolamentazione “preventiva”, rispetto all’eventuale insolvenza
della banca, in quanto hanno lo scopo di istituire una relazione “forte” tra il
rischio sopportato dall’istituto di credito e la sua consistenza patrimoniale, al
fine di garantire che le strategie operative da esso poste in essere siano
comunque coerenti con un profilo di patrimonializzazione, sufficiente ad
evitare l’insorgere di crisi di liquidità.
L’evoluzione dei sistemi bancari ha, nei fatti, contribuito alla creazione
del moderno sistema di safety net incentrato su questi tre strumenti. Se, in
principio, il ruolo del regolatore era essenzialmente quello di garantire la
stabilità macroprudenziale, e quindi ricorrere esclusivamente al credito di
ultima istanza per la tutela della stabilità del sistema, in un secondo
momento, a causa dei numerosi fallimenti bancari seguiti alle principali crisi
economiche del secolo appena trascorso, si è giunti alla necessità di garantire
anche una maggiore tutela ai depositanti, sviluppando così meccanismi di
assicurazione dei depositi.
126
Il tema si inserisce, quindi, all’interno del più ampio dibattito sulla
necessità di accordare maggiori tutele ai piccoli risparmiatori, al fine di
preservare la loro fiducia nel sistema dell’intermediazione. In particolare nel
paragrafo 2 sono analizzate le motivazioni individuate dalle teoria economica
per giustificare l’intervento regolamentare nei mercati finanziari. I paragrafi 3
e 4, invece, approfondiscono il tema della regolazione bancaria, analizzando
in chiave critica i principali modelli sulla fragilità bancaria (par. 3) e
evidenziando il nesso tra fragilità e funzione di intermediazione svolta
dall’impresa-banca (par. 4). L’analisi di questi modelli costituisce lo schema
teorico di riferimento utilizzato per approfondire i meccanismi di
funzionamento dei tradizionali strumenti del safety net, esaminati nel
paragrafo 5. Infine, viene affrontato il problema della stabilità del sistema
alla luce dei cambiamenti avvenuti nell’ultimo decennio, evidenziando come
gli strumenti tradizionali sono destinati a giocare un ruolo sempre più
marginale a favore, invece, di nuovi modelli di controllo che fanno leva sul
rapporto tra rischio e patrimonio della banca (par. 6).
2. Perché c’è bisogno di regolamentazione nel credito: alcuni spunti dalla
teoria dell’intermediazione finanziaria
La regolamentazione è l’insieme degli interventi, a carattere non fiscale,
che influiscono sull’operatività del settore privato; relativamente al credito,
possiamo distinguere tre categorie: economic regulation, ossia azioni mirate
al controllo dei prezzi, dei profitti e delle condizioni di entrata e di uscita da
un settore economico; health-safety-environment regulation, cioè interventi
deputati al controllo dei processi produttivi delle imprese, dei loro prodotti e
della loro qualità; information regulation, mirati sui requisiti minimi che
devono essere diffusi dal venditore di un prodotto (White, 1996).
La regolamentazione nel campo finanziario, in definitiva, non costituisce
nient’altro che una delle tante facce del più ampio tema del controllo
pubblico dell’economia. Essa, tuttavia, in virtù delle specifiche caratteristiche
delle imprese che compongono questo settore, si pone tre obiettivi: rimediare
i fallimenti del mercato, assicurare la stabilità micro e macroeconomica,
perseguire un’equa distribuzione delle risorse (Di Giorgio, Di Noia, 1999).
Il primo obiettivo può essere ricondotto al più generale concetto di
efficienza del mercato e fa principalmente riferimento alla tutela e difesa
della concorrenza nel settore, tramite l’applicazione di regole antitrust in
materia di intese, concentrazioni ed abusi di posizione dominante1.
1
La tutela della concorrenza nel settore bancario è anche di recente al centro del dibattito
scientifico e politico italiano circa l’applicazione della legge n.287 del 1990 in merito alle
intese restrittive della libertà di concorrenza, agli abusi di posizione dominante ed alle
operazioni di concentrazione di concorrenza che l’affida alla Banca d’Italia, a differenza degli
127
L’obiettivo di garantire la stabilità macroeconomica è sostanzialmente nel
controllo del rischio sistemico, onde evitare che perdite e crisi di liquidità da
un singolo istituto possano estendersi all’intero sistema, con ovvie
ripercussioni negative anche sull’economia reale. Ecco perchè le Autorità di
vigilanza operano rigidi controlli sia sui mercati, in particolare valute, tassi di
interesse, aggregati monetari, contrattazioni mobiliari e di prodotti derivati,
sia sui singoli operatori, gli intermediari, utilizzando anche lo strumento del
credito di ultima istanza.
Per la microstabilità, invece, la regolamentazione degli agenti economici
di questo settore non si discosta molto delle modalità generali di
regolamentazione di stabilità di altre attività imprenditoriali, facendo leva su
strumenti quali i requisiti di capitale minimo, l’imposizione di specifiche
forme societarie, i requisiti di onorabilità dei suoi manager, i controlli sul
patrimonio e sul grado di indebitamento. D’altra parte, gli intermediari
finanziari svolgono un ruolo fondamentale all’interno del sistema economico.
Grazie alla loro azione, infatti, si realizza più facilmente l’incontro tra
soggetti in deficit (generalmente le imprese) e soggetti in surplus (le
famiglie) finanziario, migliorando l’equilibrio del mercato del credito e
generando, di conseguenza, ricadute positive sul settore economico nel
complesso2. In virtù di questa considerazione, nonché del fatto che coloro che
hanno un surplus finanziario sono soggetti che tipicamente necessitano di
particolare tutela (le famiglie, i piccoli risparmiatori), la regolamentazione
degli intermediari finanziari è da sempre stata caratterizzata da norme più
altri settori economici regolati invece dall’Autorità Garante della Concorrenza e del Mercato
(AGCM). La nuova disciplina sulla tutela del risparmio, recentemente votata alla Camera e al
momento in esame al Senato, inizialmente si proponeva di rivedere questa asimmetria
regolamentare tra settore del credito ed altri comparti dell’economia, che era stata a più riprese
criticata. Uno degli obiettivi della riforma, infatti, sarebbe stato di ampliare le competenze
dell’AGCM anche al sistema bancario. Sul tema si veda la raccolta di saggi curata da Polo
(2000) e la proposta regolamentare formulata in Di Giorgio, Di Noia (2001). Per l’analisi di
alcuni casi pratici antitrust che evidenziano un contrasto tra la decisione della Banca d’Italia
ed il parere consultivo espresso dall’AGCM si rimanda a Bianco et altri (2000), Monarca
(2003).
2
In tal senso, Bhattacharya, Takor (1993), dove le funzioni svolte dal sistema
dell’intermediazione finanziaria sono distinte in due categorie, allocativa ed informativa. La
prima, ossia la quality asset trasformation, consiste nella capacità degli intermediari di
modificare la maturità, la liquidità e il rischio di credito delle attività da loro detenute, così da
offrire contemporaneamente a risparmiatori e prenditori di fondi le passività e/o le attività che
preferiscono, a breve per i risparmiatori, a lungo per le imprese. La funzione informativa,
ovvero il brokerage, consiste nella raccolta e classificazione di informazioni sulle imprese
(bond rating). Il rating è la valutazione da parte di un’agenzia specializzata del merito di
credito di un soggetto emittente titoli di debito sui mercati finanziari istituzionali e, come tale,
può essere considerato una stima della probabilità che, chi emette debito, onori puntualmente
l’obbligazione. Esso fornisce agli operatori finanziari un’informazione omogenea sul grado di
rischio degli emittenti e riveste una generale importanza per tutti gli investitori che non
possiedono adeguate informazioni per autonome analisi di rischio di credito.
128
restrittive e capillari. Una regolamentazione “speciale” è indirizzata al settore
bancario, proprio perchè le banche sono gli unici agenti economici capaci di
emettere passività a vista con valore nominale certo (De Cecco, 1995).
L’altro obiettivo fondamentale della regolamentazione in campo
finanziario è legato al concetto di equità nella distribuzione delle risorse.
All’interno del paradigma neoclassico, gli agenti con un avanzo finanziario (i
risparmiatori) e quanti invece si trovano in disavanzo (le imprese) non hanno
bisogno di intermediazione per raggiungere un equilibrio; in un mondo senza
attriti sarebbero comunque capaci di individuare una distribuzione delle
risorse Pareto-efficiente. Nello stesso contesto, inoltre, il teorema
Modigliani-Miller (1958) assicura che la struttura finanziaria del prenditore
di fondi è irrilevante, al punto che la diversa composizione del passivo di
un’impresa non incide sul suo valore3. L’imprenditore è neutrale nel decidere
se finanziare con capitale di rischio o di debito; la scelta strategica non
influisce sul valore dell’attività imprenditoriale.
È naturale, quindi, che la teoria tradizionale ponga particolare attenzione
agli intermediari bancari, al punto da elaborare una serie di motivazioni e
giustificazioni alla loro esistenza (Onado, 2000). In particolare, ne sottolinea
la capacità di offrire servizi di trasformazione delle scadenze, mantenendo nei
loro bilanci passività a breve ed investendo in attività a medio lungo termine,
e di contribuire a ripartire il rischio concentrando i depositi dei piccoli
risparmiatori ed investendoli in progetti imprenditoriali con prospettive future
di rendimento non perfettamente correlate. Inoltre, la presenza di intermediari
finanziari permette di ridurre i costi di transazione, sfruttando le economie di
scala in relazione alla dimensione dei fondi intermediati; essi offrono servizi
di pagamento e di pooling, ossia consentono anche a piccoli risparmiatori di
sfruttare opportunità di investimento che, senza l’azione dell’intermediario,
sarebbero disponibili solo per coloro in grado di investire capitali elevati. È
proprio in virtù di questa specifica funzione svolta da questi operatori del
mercato che i risparmiatori sono disposti ad accettare una remunerazione più
bassa del loro surplus, di quanto lo sarebbero qualora operassero con circuiti
di intermediazione diretta.
L’estensione dei modelli con asimmetrie informative allo studio dei
mercati finanziari ha portato a definire nuovi sviluppi e schemi teorici
all’interno dei quali collocare e ridefinire la tradizionale attività bancaria
(Leland, Pyle, 1977)4.
3
In un’ottica più completa del problema si veda anche Miller, Modigliani (1961) e Modigliani,
Miller (1963).
4
Si fa riferimento alle idee e all'apparato formale suggerito dai contributi di Arrow (1963,
1968) per il problema di "azzardo morale" e di Akerlof (1970) per la "selezione avversa".
Partendo dal ben noto modello "principale-agente", la base teorica che ad esso fa riferimento
analizza come un individuo, il principale (la parte solitamente meno informata) possa
congegnare un sistema di compensi (un contratto) che induca un altro, l'agente (la parte con
129
Introducendo l’ipotesi di asimmetrie informative nel mercato del credito è
possibile rilanciare il ruolo dell’intermediario da due diversi punti di vista. In
primo luogo, se il centro dell’analisi è lo studio sul suo passivo e quindi,
principalmente, sulle funzioni di produzione di liquidità ed emissione di
depositi a vista, la teoria economica ha recentemente rivisitato e
ricontestualizzato alcune posizioni inerenti la sua fragilità, la possibilità di
corse agli sportelli ed il conseguente rischio di crisi sistemiche. Al contrario,
concentrando l’analisi sull’attivo degli intermediari, l’ipotesi di asimmetria
informativa permette di individuare nuove funzioni e nuove aree di sviluppo
delle loro procedure operative. Ne segue un certo rilievo del ruolo degli
intermediari bancari quali produttori di informazione, selezione e
monitoraggio dei potenziali prenditori di fondi, di come essi possano
contribuire a migliorare l’allocazione delle risorse finanziando progetti di
investimento che, causa proprio le asimmetrie informative e gli elevati costi
di agenzia, rimarrebbero altrimenti inesorabilmente esclusi dal mercato
(Diamond, 1984).
Notevoli anche le ripercussioni sulla regolamentazione del sistema
finanziario. Seguendo le indicazioni che emergono dagli studi sulla fragilità
del sistema bancario, obiettivo prioritario del regolatore diventa a questo
punto assicurare adeguati meccanismi di tutela per i cosiddetti “contraenti
deboli”, ossia i depositanti. Quest’ultimi, infatti, usando le categorie logiche
della teoria delle asimmetrie informative, si trovano in una posizione di
svantaggio informativo nei confronti dell’intermediario, cosa che potrebbe
indurli ad implementare comportamenti eccessivamente prudenti, come il
ritiro anticipato dei loro fondi, con conseguenze negative per la stabilità
dell’intero sistema.
più informazioni) ad agire nel suo interesse. Un problema “principale/agente” si manifesta
ogni qualvolta c’è informazione imperfetta; il risultato della transazione porta inevitabilmente
ad un equilibrio di sub-ottimale. Solo quando principale e agente hanno le stesse informazioni
e tutte le variabili sono contrattabili, e quindi non “costrette” al verificarsi di possibili stati di
natura, sarà possibile raggiungere un equilibrio di ottimo paretiano. Si avrà allora "selezione
avversa" quando in una transazione una parte, l'agente, è a conoscenza di elementi rilevanti sui
termini e sugli esiti della transazione che, non solo sono ignorati dall'altra parte -il principale-,
ma preesistono alla stessa e non dipendono dalla volontà dell'agente. Una possibilità di
soluzione è nel comportamento delle parti se trasmettono al mercato le informazioni private in
loro possesso attraverso meccanismi di signalling o di screening, rispettivamente a seconda
che a volere la transazione sia l'agente o il principale. Si configura "azzardo morale", invece,
quando la parte più informata, l'agente, intraprende, dopo la definizione del contratto, azioni
discrezionali rilevanti per l'esito della transazione che il principale non è in grado di controllare
in tutto o in parte. Qui la soluzione è il ricorso ad un meccanismo di incentivi; il principale,
che non è in grado di controllare né tipo, né grado di impegno dell'agente nel rispetto degli
obblighi che ad esso derivano dalla transazione, sarà interessato a strutturare la stessa al punto
che l'agente abbia un incentivo “forte” ad intraprendere azioni conformi a quelle preferite dalla
parte meno informata. Si rinvia, per tutti, a Ross (1973), Kreps (1990), Milgrom-Roberts
(1992, parte III).
130
Scopo delle regolamentazione è, invece, evitare che l’intermediario
utilizzi il suo vantaggio informativo per estrarre una rendita a svantaggio dei
depositanti; in realtà, l’obiettivo è duplice, tutelare gli interessi dei
risparmiatori e, allo stesso tempo, garantire la solvibilità del sistema
bancario. Assicurando maggiore tutela ai depositanti si riducono le possibilità
che quest’ultimi perdano fiducia nel settore dell’intermediazione finanziaria,
garantendo, in definitiva, alle banche la possibilità di agire proficuamente nel
mercato delle raccolta. In altre parole, la regolamentazione parte dal
presupposto di tutelare i risparmiatori ma, in realtà, si carica di un compito
più arduo, di elevata valenza sociale: quello di assicurare la stabilità del
sistema. Solo accordando maggiore protezione ai depositanti si creano
condizioni favorevoli per gli intermediari, tali da consentire loro di operare
nel mercato della raccolta delle unità in surplus finanziario5.
Seguendo, invece, le considerazioni teoriche emesse dagli studi sul
relationship banking (Diamond, 1989; Hellwig 1989), il nodo critico per la
regolamentazione diventa analizzare la condizioni di accesso al credito,
quindi valutare il rapporto banca-impresa in un’ottica costi-benefici, con
conseguente comparazione della superiorità, dal punto di vista dell’efficienza
allocativa, dei modelli banco-centrici o mercato-centrici. La
regolamentazione in questo caso ha per scopo di garantire una efficiente
corporate governance del settore in grado di fornire strumenti, soluzioni e
modalità operative in linea con le esigenze e le richieste di credito degli altri
comparti dell’economia reale.
3. La fragilità del settore bancario e le corse agli sportelli
L’attività bancaria si distingue per offrire contratti di deposito che
consentano ai risparmiatori di richiedere un importo nominale fisso,
indipendentemente dalle loro reali necessità di consumo. Le banche
5
La fiducia dei risparmiatori nel sistema è un valore fondamentale, base dell’intermediazione
indiretta, come meglio approfondito in seguito (par. 3), proprio grazie all’applicazione della
teoria delle asimmetrie informative ai modelli di intermediazione bancaria è stato evidenziato
che la “crisi di fiducia” del depositante rappresenta la più elevata componente di rischio
sistemico di questo mercato. Essa, inoltre, potrebbe sbilanciare le preferenze dei risparmiatori
verso attività di investimento non finanziario (immobili, commodities, oro, in generale i
cosiddetti “beni rifugio”), riducendo le risorse del sistema bancario e, di fatto, limitando la
possibilità dell’impresa banca di sostenere il settore reale dell’economia. A riguardo,
l’obiettivo della regolamentazione di tutelare gli interessi dei risparmiatori può essere anche
letto nell’ottica di preservare la fiducia nel sistema, al fine di assicurare il corretto
funzionamento dell’intermediazione indiretta di fondi. In questa prospettiva, si possono
cogliere in pieno gli effetti negativi degli scandali finanziari degli ultimi anni, quali il caso
Enron, i “tango” bond argentini, i bond Parmalat e Cirio, che hanno profondamente indebolito
il rapporto risparmiatore-banca proprio sotto il profilo più delicato, quello della fiducia. Sul
tema, si veda Ross (2002), Onado (2003b) e Pardolesi et altri (2004).
131
trattengono una frazione di tali depositi per far fronte alle richieste di ritiro ed
utilizzano i fondi residui per erogare crediti non liquidi e, spesso, rischiosi6.
L’inevitabile esistenza di un mismatching delle scadenze, tra raccolta e
impieghi, crea instabilità. Infatti, nel caso in cui il ritiro anticipato dei
depositi dovesse superare le aspettative di liquidità della banca, quindi la
specifica frazione degli stessi detenuta come riserva libera, l’intermediario
non è in grado di soddisfare le richieste dei depositanti ed è costretto a
“vendere” prematuramente le attività illiquide detenute generando, una volta
diffusa l’informazione, reazioni comportamentali destabilizzanti tra i
depositanti.
Il problema è efficacemente colto nel modello di Diamond e Dybvig
(1983) che analizza l’instabilità e la fragilità di una banca che detiene una
frazione dei propri depositi ed investe in attività illiquide. Tale schema
costituisce ancora oggi la base all’interno della quale sono state poi
sviluppate le implicazioni, sia di policy sia di regolamentazione, derivanti dal
potenziale insorgere di panic run nel settore bancario.
Si suppone che i prenditori di fondi investano in progetti caratterizzati da
tecnologia indivisibile, ossia non realizzabile se finanziata in parte, di durata
biennale. Il modello, quindi, si sviluppa in tre periodi, T=0;1;2. Ipotizzando
che ogni investimento debba essere finanziato con una unità di capitale,
avremo la seguente struttura di rendimenti:
T=0
-1
T=1
0
1
T=2
R
0
ad indicare che l’investimento, se interrotto nel primo periodo, darà come
risultato un payoff pari ad 1 e conseguentemente 0 nel periodo 2. Al
contrario, qualora esso fosse sviluppato in entrambi i periodi, nel primo si
ottiene un rendimento nullo e nel secondo un rendimento pari ad R, con R>1.
Nel modello, poi, i consumatori sono distinti in “pazienti” ed
“impazienti”; i primi preferiscono consumare in T=2, ovvero quando i
progetti di investimento sono stati completati ed i prenditori di fondi hanno
effettuato i loro rimborsi, gli altri, invece, decidono di consumare in T=1,
prima della conclusione degli investimenti. Si verifica che nel modello ogni
consumatore ha una funzione di utilità stato-dipendente:
⎧u (c )
U (c1 , c 2 ; Θ) = ⎨ 1
⎩ ρu (c1 + c 2 )
6
(3.1)
Lo schema descritto non è altro che il classico meccanismo del moltiplicatore dei depositi, la
cui prima presentazione rigorosa si deve a Phillips (1921).
132
dove, la prima funzione indica l’utilità dei soggetti “impazienti”, mentre la
seconda quella dei “pazienti”. In T=0 tutti i soggetti sono identici, ed hanno
la stessa probabilità p di diventare “impazienti” e effettuare il loro consumo
in T=1.
Un punto di ottimo per ogni consumatore si ottiene quando:
c12* = c 12* = 0
(3.2)
dove c12* è il consumo nel secondo periodo degli impazienti e c 12* è il
consumo nel primo periodo dei pazienti.
Le funzioni di utilità (1) attestano che il valore attuale del consumo
effettuato nel secondo periodo è maggiore di quello del primo periodo.
Essendo gli investitori avversi al rischio, essi preferiranno rinunciare a parte
della loro rendita in cambio di un’assicurazione che eviti loro di diventare
necessariamente consumatori impazienti. Tale assicurazione è fornita dalla
banca tramite il contratto di deposito. La banca, infatti, si impegna a garantire
a coloro che ritirano nel primo periodo un rendimento pari a C1*>1, mentre
coloro che attendono il completamento degli investimenti finanziati
riceveranno al termine del secondo C2*<R.
Nel periodo iniziale (T=0), quindi, la banca raccoglie depositi presso i
risparmiatori e seleziona i prenditori di fondi da finanziare. I depositanti
possono ritirare i loro risparmi in qualsiasi momento e saranno soddisfatti
secondo l’ordine sequenziale delle richieste (regola del first-come first
served). Essi non hanno la possibilità di monitorare l’andamento dei progetti
finanziati; non dispongono cioè di informazioni sufficienti per valutare
privatamente se la banca è in grado di restituire loro i depositi a seguito dei
rimborsi effettuati dai prenditori di fondi.
La struttura completa dei payoffs diventa7:
⎧r
V1 ( f j , r1 ) = ⎨ 1
⎩0
(3.3)
dove r1 è il payoff se f j ≤ f& , e 0 è il payoff se f j > f& ;
V2 ( f , r1 ) = max{[R(1 − r1 f ) /(1 − f )],0}
(3.4)
7
f è il numero totale di depositanti che hanno inoltrato la loro richiesta di ritiri, e fj il numero
di ritiri effettuati prima dell’agente j. Cfr. Diamond, Dybvig, (1983) p.305.
133
Il contratto di deposito può far scaturire due possibili equilibri. Nel primo,
tutti i depositanti valutano correttamente le informazioni del mercato, per cui
solo coloro che preferiscono consumare nel primo periodo ritirano i depositi,
mentre gli altri attendono il completamento degli investimenti finanziati. Nel
secondo equilibrio, invece, tutti gli agenti ritirano nel primo periodo,
scatenando un panic runs nei confronti della banca.
In un contesto siffatto, le corse agli sportelli risultano come situazioni con
equilibri multipli, collegate principalmente all’illiquidità dell’attivo bancario
ed alla mancanza di coordinamento tra i depositanti. In T=1, infatti, i
depositanti pazienti osservano gli impazienti ritirare i fondi depositati ma non
hanno sufficienti informazioni per stabilire se tali rimborsi anticipati sono
necessari per far fronte ad esigenze di consumo, oppure dovuti al fatto che gli
“impazienti”, che richiedono i rimborsi, hanno una maggiore informazione
sull’andamento degli investimenti della banca e, quindi, effettuano ritiri
anticipati in previsione di una possibile insolvenza dell’intermediario. La
regola del ritiro sequenziale dei depositi potrebbe, in questa condizione,
creare instabilità tali da determinare un panic run. Infatti, qualora i
depositanti pazienti dovessero perdere fiducia nell’intermediario e decidere
anch’essi di ritirare anticipatamente i loro depositi, la banca non avrebbe più
fondi per gli investimenti. Anzi, in virtù della tecnologia indivisibile che
permette ai prenditori di fondi di rimborsare i prestiti solo in T=2, a
completamento degli investimenti posti in essere, non sarebbe in grado di far
fronte a tutte le richieste dei depositanti8.
La crisi di liquidità di un singolo intermediario, tuttavia, può rappresentare
un serio problema per la stabilità del settore bancario nel momento in cui
dovesse sfociare in crisi sistemica, ossia diffondersi da un singolo
intermediario ad altri, in casi estremi, all’intero sistema. Il rischio di
contagio, può generalmente avvenire tramite due canali: informativo o
creditizio (Schoenmaker, 1996; Bhattacharya, Thakor, 1993; Jacklin,
Bhattacharya, 1988). Nel primo, si registra la diffusione di una singola corsa
gli sportelli anche verso altri istituti di credito, sulla scia dei meccanismi di
asimmetria informativa e mancato coordinamento dei depositanti come in
Diamond e Dybvig (1983)9. Il contagio tramite canale creditizio è dovuto,
8
Come successivamente dimostrato da Postlewaite e Vives (1987), il panic run può essere
associato al classico schema del dilemma del prigioniero e configurarsi a tutti gli effetti come
un equilibrio di Nash negativo. Gli agenti, infatti, prelevano i fondi depositati non per esigenze
di consumo ma semplicemente per tutelare i propri interessi, innescando un meccanismo di
strategie dominanti tali che la crisi bancaria si identifica come l’unico equilibrio possibile del
gioco.
9
Nella letteratura economica il “contagio da corsa agli sportelli” viene a sua volta distinto in
due tipologie, puro e disturbato, sulla base delle motivazioni che lo generano. Il primo è
quando informazioni negative relative ad un solo istituto di credito (possibili frodi o bassi
rendimenti legati alle attività rischiose detenute dalla banca) influenzano le decisioni di ritiro
134
invece, principalmente alla forte interdipendenza tra istituti di credito, a causa
le numerose transazioni nel mercato interbancario o nel sistema dei
pagamenti. Una delle particolarità di questo settore è nella forte dipendenza
tra i bilanci delle diverse imprese che in esso interagiscono, resa ancor più
marcata dai recenti processi di fusione e acquisizioni; cospicue quote del
passivo di una banca, infatti, spesso sono sottoscritte o detenute da un’altra
impresa bancaria. Tale caratteristica se da una parte facilità lo scambio degli
strumenti di pagamento per gli utenti finali, dall’altro è di per se elemento di
debolezza, destabilizzante per il sistema, in quanto l’insolvenza di una banca
può facilmente propagarsi o ripercuotersi su un’altra, fino a generare un
effetto “domino” tale da coinvolgere l’intero settore10.
Tuttavia, non vi sono consolidati schemi teorici in letteratura che
formalizzino compiutamente tale eventualità. Nei modelli sulle corse agli
sportelli, infatti, l’industria bancaria il più delle volte è indicata come un
settore omogeneo, all’interno del quale opera un solo intermediario
“rappresentativo” per cui risulta impossibile valutare in maniera formale il
passaggio dal singolo bank run a forme di contagio sistemico.
In effetti, solo il modello di Chari e Jagannathan (1988) potrebbe risultare
utile per dimostrare formalmente il contagio. Esso, infatti, ipotizza che i
depositanti di ogni singola banca si dividano in “informati” e “disinformati”,
con solamente i primi a conoscenza delle prospettive di rendimento delle
operazioni di prestito dell’intermediario. Il meccanismo è simile a quello di
Diamond e Dybvig (1983); i “disinformati” osservano gli “informati”
effettuare il ritiro anticipato ma, tuttavia, non sono in grado di stabilire se ciò
sia dovuto ad esigenze di liquidità oppure al cattivo andamento degli
investimenti effettuati dalla banca. Ne segue che anche i “disinformati”
richiedono il rimborso anticipato, generando il panic run nei confronti di un
singolo istituto. In proposito, ipotizzando una correlazione negli shock sui
dei depositanti di altre banche, anche nel caso in cui quest’ultime rispondano a circuiti diversi
da quelli dell’istituto in crisi. Il contagio disturbato, invece, è quando i depositanti interpretano
l’insolvenza di una banca come segnale negativo riguardo la solvibilità anche di altri istituti di
credito, specialmente di quelli che presentano caratteristiche giuridiche ed economiche
(struttura dell’attivo e del passivo) simili alla banca insolvente. In altri termini, i depositanti
temono che le motivazioni economiche che hanno portato quello specifico intermediario
all’insolvenza possano ben presto ripetersi anche per le banche che custodiscono i loro
depositi. Essi, quindi, optano per il ritiro anticipato, con effetti che risultano amplificati se il
settore bancario è relativamente chiuso, poco differenziato, caratterizzato da numerosi istituti
con struttura patrimoniale, ubicazione geografica e politiche commerciali simili
(Schoenmaker, 1996).
10
A titolo di esempio, i principali strumenti di pagamento (depositi, assegni bancari, le varie
forme di moneta elettronica ecc.), possono essere facilmente scambiati presso tutti gli istituti di
credito, indipendentemente da quello emittente, proprio perché le banche quotidianamente
regolano le proprie posizioni sul mercato interbancario, sotto la supervisione della Banca
Centrale.
135
rendimenti della tecnologia di investimento delle banche, il meccanismo
appena descritto potrebbe essere esteso all’analisi della diffusione dei panic
run tra diversi istituti di credito. I “disinformati” che detengono depositi
presso altre banche potrebbero ritirare i loro fondi, supponendo che i risultati
negativi conseguiti dalla banca in crisi ben presto possano estendersi
all’insieme degli investimenti posti in essere dall’intero settore
dell’intermediazione11.
4. Dalla fragilità bancaria al relationship banking
Il modello di Diamond e Rajan (2000) offre interessanti sviluppi ed
approfondimenti sulle implicazioni di policy della fragilità bancaria sul
sistema economico. Esso fa proprio sia il concetto di liquidità del passivo
dell’intermediario, come specificato in Diamond e Dybvig (1983), sia i
principi della letteratura sul relationship banking (in particolare Diamond,
1989), che vede nelle relazioni di clientela tra banca ed impresa un efficace
metodo di monitoraggio del prenditore di fondi con conseguente
miglioramento nell’allocazione delle risorse.
Lo scopo è dimostrare come la struttura finanziaria fragile della banca sia
la condizione necessaria affinché essa possa effettivamente creare liquidità, al
fine di concedere prestiti ai prenditori di fondi o per far fronte alle
temporanee esigenze di consumo dei depositanti. In altri termini, la fragilità
del sistema bancario, che in passato era connotata quasi in via esclusiva come
elemento di debolezza, ora è analizzata in chiave propositiva, al fine di
evidenziare come da questa imprenscindibile caratteristica possano derivare
rilevanti valenze di policy, nonché nuovi orientamenti per la
regolamentazione del settore.
Il modello ipotizza l’esistenza di asimmetrie informative tra datore e
prenditore di fondi; solo quest’ultimo, infatti, dispone di informazioni e
competenze necessarie a completare il progetto di investimento finanziato.
Ne consegue che la banca può ottenere un profitto dal finanziamento solo
mantenendo per tutta la durata dell’investimento uno stretto rapporto di
collaborazione con l’impresa finanziata. Quest’ultima ottiene i fondi tramite
un contratto di debito standard, per cui viene fissato ex ante il rimborso per il
finanziatore e, qualora l’impresa non sia in grado di far fronte
all’obbligazione, il datore di fondi può esigere il trasferimento dei diritti di
controllo del progetto implementato12. La presenza di asimmetria informativa
tra datore e prenditore di fondi è un vantaggio per quest’ultimo, in quanto gli
11
Si rinvia a Carletti (2000), pag. 76.
Il riferimento in proposito è al modello di Gale, Hellwig (1985) dove è dimostrato che il
contratto di debito standard costituisce la soluzione ottimale per ridurre i costi di monitoraggio,
altrimenti onere del datore di fondi, proprio in presenza di asimmetria informativa.
12
136
conferisce la possibilità di rinegoziare i termini dell’accordo per incrementare
la sua remunerazione. In virtù di questa differenza tra “abilità” e “patrimonio
informativo”, infatti, l’imprenditore è capace di estrarre dal progetto una
rendita pari al suo effettivo valore intrinseco. L’intermediario, invece,
qualora dovesse diventare proprietario dei risultati del progetto, potrebbe solo
cederli al mercato, ricavandone una remunerazione sicuramente più bassa di
quella che l’imprenditore sarebbe potenzialmente in grado di estrarre (miglior
uso alternativo).
È per questo che, in caso di successo, l’imprenditore è incentivato a
chiedere all’intermediario un extra-profitto pari alla differenza tra il miglior
uso alternativo del progetto ed il suo valore intrinseco.
La teoria dei contratti (Milgrom, Roberts 1994 parte V; Hart, Hollstrom,
1987) mostra che lo stesso problema di incompletezza nei rapporti
contrattuali tra intermediario ed imprenditore si ripropone qualora si analizza
la relazione a monte, quella tra risparmiatori ed intermediario. Quest’ultimo,
infatti, raccoglie fondi presso una pluralità di soggetti, i piccoli risparmiatori,
ognuno dei quali, preso singolarmente, non è in grado, da sé e anche se lo
desiderasse, di finanziare per intero il progetto proposto dall’impresa.
L’intermediario, in questo caso, è in una posizione di vantaggio
informativo rispetto ai risparmiatori in quanto, avendo analizzato e seguito lo
sviluppo del progetto con l’imprenditore, è in grado di individuare l’effettivo
miglior uso alternativo del progetto che, invece, è sconosciuto ai depositanti.
Tale condizione, parallelamente a quanto accadeva nel rapporto
imprenditore-intermediario, permette a quest’ultimo di estrarre un extraprofitto dalla relazione con i depositanti. La banca, infatti, può minacciare di
interrompere i finanziamenti all’imprenditore, compromettendo la sua
possibilità di conseguire quanto originariamente pattuito e rimborsare i
depositanti con i diritti di proprietà del progetto, dei quali loro ignorano il
valore. È per questo che per i depositanti diventa più conveniente cedere un
profitto aggiuntivo all’intermediario, dato che solo quest’ultimo è in grado di
vendere il progetto ricavandone un valore pari al miglior uso alternativo.
Questi complessi meccanismi contrattuali producono i loro effetti sul
grado di liquidità del progetto. I depositanti, consapevoli dello svantaggio
informativo sul valore degli investimenti effettuati con i loro fondi, non sono
disposti a finanziare interamente i progetti imprenditoriali ma, solo, in
proporzione al ricavo effettivo che essi saranno in grado di estrarre da essi.
Lo stesso vale per la banca, che valuta l’entità del finanziamento da
concedere al prenditore di fondi sulla base del valore dei diritti di proprietà
del progetto, che acquisirebbe in caso di insolvenza, e non sull’effettivo
ricavo che da esso potrebbe seguire. Conseguenza è che i progetti di ricerca
sono illiquidi, ossia possono essere finanziati solo parzialmente con capitale
di terzi.
137
Rimuovendo alcune ipotesi restrittive, il modello prevede la possibilità
che l’intermediario debba far fronte ad esigenze impreviste di liquidità da
parte dei depositanti. Nel rimborsare anticipatamente i fondi, la banca
potrebbe trovarsi nella condizione di non disporre di quelle risorse necessarie
per continuare l’investimento e, quindi, costretta ad utilizzare capitale proprio
o ricercare nuovi depositanti. Inoltre, si ipotizza anche che l’intermediario
potrebbe valutare l’opportunità di investire in altri progetti potenzialmente
più remunerativi.
In sintesi, l’insieme di questi due fattori, rimborsi anticipati ed esistenza di
alternative più remunerative, rende di fatto il finanziamento concesso
all’investitore non garantito, in quanto non esistono rigide norme contrattuali
che vincolano i depositanti nella loro relazione con l’intermediario e, di
conseguenza, nel suo rapporto con l’imprenditore. Ciò implica che il progetto
di ricerca divenga parzialmente illiquido, poiché non può essere finanziato
per il suo valore intrinseco.
È il caso, ad esempio, in uno schema biperiodale, dell’esistenza di due
diverse tecnologie di investimento indivisibili che, per conseguire i risultati
attesi, devono necessariamente essere finanziate interamente e non in parte.
Entrambe necessitano di uno stesso ammontare C di capitale iniziale che, per
semplicità, si suppone pari ad 1. Ipotizzando che il tasso di sconto
intertemporale sia nullo, la differenza tra le due tecnologie é data dai
rispettivi rendimenti attesi. La prima consente il mantenimento nel tempo
delle risorse investite, mentre le seconda, biperiodale, garantisce al termine
del periodo un rendimento pari a C>1. Qualora la relazione tra intermediario
e imprenditore dovesse interrompersi in t=1, ne segue che il trasferimento dei
diritti di proprietà sull’investimento a favore dell’intermediario riducono il
rendimento della seconda tecnologia al miglior uso alternativo, ossia
xC>1,
con x>1
(4.1)
Quindi, causa l’instabilità della relazione contrattuale tra intermediario ed
imprenditore, il progetto può essere finanziato solo per la porzione di
rendimento xC e non per il suo effettivo valore intrinseco pari a C, risultando
così di fatto illiquido. Qualora i diritti di proprietà fossero trasferiti ad un
intermediario diverso da quello iniziale, il valore dell’utilizzo alternativo del
progetto diminuirebbe, con un suo conseguente aumento dell’illiquidità.
Il nodo critico è, quindi, strettamente legato all’incompletezza dei
contratti, che non vincolano i fondi destinati all’investimento per tutta la
durata necessaria affinché esso consegua i suoi rendimenti massimi. Tale
problema è risolto nel modello di Diamond e Rajan (2000), grazie
all’introduzione del contratto di deposito a vista, che caratterizza la fase di
raccolta fondi dell’intermediario. Così, come già nel Diamond e Dybvig
(1983), quella tipologia di contratto è strutturata su tre fondamentali
138
caratteristiche: discrezionalità nella richiesta del prelievo, valore
predeterminato dello stesso, principio del servizio sequenziale (first-come
first-served).
Già Diamond e Dybvig (1983) avevano messo in evidenza come il diritto
incondizionato di prelievo esercitabile dai depositanti creasse un problema di
azione collettiva, in quanto ogni depositante è di fatto incentivato ad
anticipare il comportamento degli altri agenti per evitare che, al momento
della sua richiesta, la banca non disponga delle risorse necessarie per far
fronte al rimborso. Su questo presupposto si fondavano le motivazioni che
inducevano i depositanti a ricorrere alle corse agli sportelli, con le note
conseguenze di fragilità del sistema bancario. Ora, in Diamond e Rajan
(2000), l’esposizione del sistema bancario ad eventuali “reazioni collettive” è
lo strumento in grado di risolvere l’incompletezza dei contratti tra
intermediario e depositante; la fragilità delle banche, in ultima analisi,
rappresenta un fattore chiave che consente di mitigare parzialmente il
problema dell’illiquidità dei progetti da finanziare che lo stesso modello
evidenzia.
Infatti, utilizzando depositi a vista, nello specifico emettendone per un
ammontare complessivo pari a xC, ossia al valore del miglior uso alternativo
del progetto, l’intermediario si rende particolarmente vulnerabile alle
richieste dei risparmiatori. Nel caso in cui, infatti, l’intermediario volesse
interrompere il finanziamento con l’impresa, i depositanti potrebbero punire
questo comportamento con una corsa agli sportelli.
Il punto cruciale del modello è evidenziare come il panic run sia una vera
strategia dei risparmiatori, una “minaccia credibile” per punire
l’intermediario, vincolandolo di fatto a rispettare il contratto con gli
imprenditori.
Un intermediario che gode di solida reputazione verso i suoi depositanti,
infatti, è in grado di reperire sul mercato nuove risorse liquide per
fronteggiare le richieste di depositi garantendo allo stesso tempo ai prenditori
di fondi il rispetto delle condizioni contrattuali pattuite. Eviterebbe così
interruzioni dei flussi finanziari o richieste di rimborso anticipato. In sintesi,
proprio grazie alla “fragilità della banca” ed alla “minaccia credibile” posta
dai depositanti tramite la corsa agli sportelli, l’intermediario non è
incentivato a ridiscutere la remunerazione pattuita con i suoi datori di fondi.
Egli, quindi, non estrae una extra-rendita dal suo vantaggio informativo e, in
ultima analisi, riesce a creare liquidità pari al miglior uso alternativo del
progetto da finanziare (ovvero, alla quota xC).
Qualora l’intermediario, infatti, scegliesse di raccogliere fondi tramite altri
strumenti finanziari (ad esempio gli stessi depositi a vista ma senza la
clausola del servizio sequenziale), egli sarebbe in grado di far leva sulla sua
maggiore disponibilità di informazioni per rinegoziare i termini del contratto.
Egli sarebbe altresì in grado di estrarre una rendita dalla relazione con i
139
depositanti in quanto, come definito dal modello, è solo l’intermediario che
può individuare il miglior uso alternativo del progetto.
In conclusione, in assenza di incertezza sulla realizzazione degli
investimenti finanziati, la fragilità del sistema finanziario è un pivot che
favorisce l’allocazione delle risorse e un corretto svolgimento della relazione
tra depositante, intermediario e prenditore di fondi. Il rischio di corse agli
sportelli, infatti, non è altro che “risposta strategica” dei depositanti
all’eventuale “comportamento opportunistico” dell’intermediario.
Introducendo nel modello anche l’incertezza, le principali conclusioni fin
qui esposte non mutano, anche se si accentua la fragilità degli intermediari
finanziari, che potrebbero subire il ritiro anticipato dei depositi
indipendentemente dall’aver o meno implementato comportamenti
opportunistici. L’incertezza, infatti, implica che i risultati del progetto
finanziato possano variare all’interno di un intervallo conosciuto.
In altri termini, il rendimento C è una variabile causale che, per
semplicità, si ipotizza che possa assumere due valori:
Ch (esito favorevole)
Cl (esito sfavorevole)
(4.2)
con Ch>Cl.
(4.3)
Il valore effettivo di C è osservabile solo alla realizzazione
dell’investimento, al tempo t=2; quindi non può essere utilizzato nel
momento in cui vengono stipulati i contratti. Considerata l’incertezza sui
rendimenti dell’investimento, per l’intermediario sarebbe più conveniente
raccogliere capitali utilizzando sia depositi a vista sia altri strumenti
finanziari che prevedano la possibilità di vincolare il capitale all’investimento
effettuato (debito subordinato oppure capitale di rischio).
Tuttavia, il deposito a vista è lo strumento che garantisce il trasferimento
totale delle risorse dai risparmiatori al progetto finanziato, al contrario di altre
forme di raccolta che permetterebbero all’intermediario di fare leva sul suo
vantaggio informativo ed ottenere una rendita. La banca, infatti, è incentivata
a rinegoziare i termini dell’accordo con i risparmiatori non depositanti,
minacciando di non utilizzare le sue abilità specifiche e trasferire
direttamente ai finanziatori i diritti di proprietà sul progetto, insieme agli
obblighi verso i depositanti. I finanziatori, non avendo avuto contatti diretti
con l’impresa, non possono individuare un miglior uso alternativo del
progetto; il rendimento complessivo dello stesso diminuisce e, quindi, la
minaccia della banca è credibile al punto da indurre i finanziatori “non
depositanti” ad accordare all’intermediario una rendita per la funzione svolta.
Considerando d la quota di finanziamenti raccolti sotto forma di depositi, con
xC che indica il valore del miglior uso alternativo del progetto, la banca
potrebbe raccogliere depositi per un valore tale che d>xC.
140
Qualora la banca scegliesse di trasferire ai depositanti i diritti di proprietà
del progetto, questi sarebbero in grado di ottenere un rendimento pari a:
x’C-d, (con x’<x)
(4.4)
Infatti, l’intermediario è incapace di individuare il miglior uso alternativo
e, allo stesso tempo, obbligato a far fronte ai depositi raccolti dalla banca.
L’alternativa per i finanziatori potrebbe essere di condividere con
l’intermediario la rendita (x-x’)C cosa che, tuttavia, implicherebbe una forma
di “quasi rendita” per la banca. È evidente che al crescere di d tale rendita
tende a diminuire, fino a diventare nulla nell’eventualità in cui il prenditore
di fondi non riesca ad effettuare pagamenti sufficienti per restituire i depositi,
creando così le condizioni per una corsa agli sportelli.
Il modello, in sintesi, evidenzia un trade-off tra rigidità della struttura
finanziaria della banca-intermediario e potere contrattuale nei confronti dei
prenditori di fondi. Un intermediario che dal lato dell’attivo sia caratterizzato
da una struttura finanziaria rigida, quindi con quote relativamente basse di
depositi a vista, rende più credibile la minaccia nei confronti del prenditore di
fondi di interrompere i flussi finanziari del progetto e, di conseguenza, si
pone nella condizione di poter richiedere all’imprenditore pagamenti
aggiuntivi e limitare la sua rendita. Al contrario, se il passivo
dell’intermediario è composto in misura prevalente da depositi a vista, la sua
posizione nei confronti del prenditore di fondi è indebolita, anche se sono
minori le possibilità che si verifichi una corsa agli sportelli, in quanto
l’evento sarebbe generato dai depositanti solo come risposta strategica ad un
eventuale comportamento opportunistico della banca.
In altri termini, in assenza di fragilità il modello non è in grado di operare.
Questa caratteristica si configura, quindi, come il fondamento operativo del
sistema dell’intermediazione indiretta. La possibilità di subire una corsa agli
sportelli, infatti, costringe le banche ad implementare comportamenti non
opportunistici, corretti e sviluppati sulle relazioni di lungo periodo con i
propri prenditori di fondi.
Almeno due sono, a nostro avviso, il tipo di riflessioni che possono
seguire da questa analisi. La prima, come implicazione di policy, evidenzia
che la tutela della stabilità bancaria non può prescindere dallo sviluppo di
adeguate forme di governance dello stesso settore, ossia da un assetto del
mercato capace di sviluppare forti sinergie tra intermediari e prenditori di
fondi (relationship banking)13. La seconda, in un’ottica più strettamente
13
L’esistenza di un rapporto esclusivo tra banca ed intermediario costituisce l’essenza del
relationship banking, la cui validità a livello teorico è dimostrata da Hellwig (1989), mentre
empiricamente le verifiche di tale ipotesi non consentono di giungere ad un esito univoco. In
particolare, alcune indagine condotte su sistemi produttivi, come quello italiano, caratterizzati
141
regolamentare, afferma, invece, la necessità di tollerare un certo livello di
fragilità del sistema bancario, che rappresenta la fondamentale variabile di
contesto che permette il corretto svolgimento della relazione risparmiatorebanca-impresa. Una regolamentazione di stabilità “perfetta”, che elimini la
fragilità del sistema, subordinerebbe il funzionamento dell’intermediazione
indiretta ai comportamenti opportunistici delle imprese bancarie, riducendone
di fatto la capacità di allocare risorse finanziarie nei settori dell’economia
reale. Al contrario, una regolamentazione che trascuri eccessivamente il
problema, rischierebbe di minare la fiducia dei risparmiatori nel sistema,
diminuendo, ancora una volta, la portata della funzione allocativa degli
istituti di credito.
In sintesi, il dilemma del “regolatore finanziario” sta proprio nel
mantenere un corretto equilibrio tra questi due, quasi opposti, obiettivi:
rafforzare la fiducia nel sistema, garantendone la stabilità, e mantenere il
controllo della fragilità finanziaria degli intermediari, tollerando, quindi, un
certo grado di instabilità sistemica.
5. Quali le risposte di policy: gli strumenti tradizionali dal safety net
5.1. L’assicurazione dei depositi
L’assicurazione dei depositi pubblica è stata introdotta inizialmente negli
Stati Uniti nel 1933, per promuovere il rilancio del sistema finanziario dopo
la Grande Crisi del 1929. A rigor di logica, il suo scopo risiede nelle già
esposte motivazioni inerenti la protezione del contraente debole, il
depositante, inteso come soggetto che non ha facile accesso alle informazioni
utili per la valutazione del patrimonio economico e finanziario
dell’intermediario a cui affida i propri risparmi.
Nella pratica, invece, tale strumento di regolamentazione ha avuto un
impatto rilevante sulla attività bancaria soprattutto dei piccoli istituti con
operatività prevalentemente locale i quali, grazie all’assicurazione dei
depositi riescono a contenere i costi di gestione della raccolta. L’esistenza del
meccanismo assicurativo, infatti, fa sì che i risparmiatori non richiedano sui
fondi depositati una remunerazione legata a fattori di rischio. Essi sono
dalla presenza di numerose piccole e medie imprese ed una governance del sistema finanziario
di tipo bancocentrico evidenziano come il meccanismo del relationship banking risulti
indebolito dalla diffusione della pratica del multiaffidamento (Conigliani ed al. 1997).
Tuttavia, recenti indagini effettuate su campioni di piccole imprese e microimprese attestano
un rafforzamento del legame che intercorre tra imprenditore ed intermediario finanziario,
riportando come la pratica del multiaffidamento tenda ad essere meno utilizzata al decrescere
della dimensione d’impresa, con conseguente rafforzamento del ruolo svolto dall’intermediario
bancario locale (Morelli 2004; Cacciamani, Vivace 2004).
142
consapevoli che anche in caso di insolvenza della banca, i fondi assicurativi
garantiranno loro il recupero del capitale, ovviamente nei limiti della
copertura concessa. Le banche, quindi, possono offrire sui depositi tassi di
interesse più bassi, ossia al netto del premio per il rischio, garantendosi di
fatto un canale privilegiato per la raccolta di fondi a costi contenuti14.
Questa “doppia finalità” dell’assicurazione dei depositi, ovvero l’uso
distorsivo di questo strumento di regolamentazione, è stata più volte
sottolineata sia dalla teoria sia dai riscontri empirici. Lo stesso Greenspan
(2003) ha evidenziato come la soglia di copertura assicurativa per
complessivi 100.000 dollari fissata negli Stati Uniti nel 1980 avesse in realtà
lo scopo di consentire alle casse di risparmio locali di eludere la normativa
federale sulla remunerazione dei depositi sotto i 100.000 dollari15.
Già nel 1994, con l’estensione del Mercato Unico e nella prospettiva della
convergenza economica verso l’unione monetaria, la Commissione Europea
ha emanato una direttiva tesa ad armonizzare le regole inerenti i sistemi di
garanzia dei depositi (Direttiva 94/19CE) che prevedeva un livello minimo di
garanzia di 20.000 euro per depositante. In Italia tale direttiva è stata recepita
nel 1996 (D.L. 4 dicembre 1996 n. 659) e stabilito che il limite massimo di
rimborso non può essere inferiore a 103.291,38 euro per depositante, un
limite anche eccessivamente elevato soprattutto se rapportato al PIL procapite del nostro Paese16.
Questo dato, a nostro avviso, conferma indirettamente il fatto che
l’assicurazione dei depositi, anche in Italia, è intesa assicurare un canale di
raccolta fondi a costi contenuti per le imprese bancarie. Se i depositi bancari
si considerano come un semplice strumento di pagamento utilizzato dagli
14
Ancora oggi, infatti, il canale dei depositi rappresenta la principale fonte della raccolta
bancaria; essi pesano per il 61,8% sulla raccolta delle banche italiane nel 2003, per un
controvalore di circa 1.100 miliardi di euro (Banca d’Italia, 2004, pag. 184).
15
Le norme federali, infatti, stabilivano massimali di rendimento sui depositi bancari inferiori
ai 100.000 dollari. Per i risparmiatori, in assenza di un meccanismo assicurativo, tali limiti di
fatto rendevano lo strumento del deposito bancario meno appetibile di altri prodotti finanziari;
essi avrebbero incassato bassi interessi e sostenuto interamente i rischi derivanti dalla
possibile insolvenza della banca; con la copertura assicurativa proprio a 100.000 dollari, i
depositi bancari non incorporavano più il rischio di default della banca, rendendo così
“accettabile” per i risparmiatori la loro pur più bassa remunerazione.
16
La garanzia del rimborso è estesa anche ai depositanti delle succursali italiane di banche con
sede legale in altri paesi. Il finanziamento del fondo avviene tramite versamenti degli istituti di
credito consorziati, in misura compresa tra lo 0,4 e lo 0,8% dei soli fondi rimborsabili
(depositi, certificati di deposito, buoni fruttiferi nominativi della clientela ordinaria). Per
quanto riguarda, poi, l’indice di copertura dei depositi, calcolato come rapporto tra la copertura
offerta dall’assicurazione dei depositi ed il PIL pro-capite, esso risulta per il sistema italiano
pari a 6,1, quando la media dei paesi europei è di poco inferiore a 1,6. In Europa solo la
Norvegia offre una copertura maggiore, con valori dell’indice pari a 7,9; sistemi finanziari di
tipo banco-centrico, quindi con struttura abbastanza simile alla nostra, come Francia e
Germania, attestano i valori dell’indice rispettivamente al 2,6 e 0,8 (Garcia, 2002).
143
utenti per la gestione dei loro scompensi di cassa, il massimale assicurato è al
quanto elevato. Esso supera di molto il livello medio di transazioni sostenibili
da ogni individuo, una sorta di velocità di circolazione della moneta della
teoria quantitativa17, indicato come proxy appunto dal PIL pro-capite. Una
così alta copertura assicurativa tende ad affermare i depositi bancari come
vero strumento di investimento, caratterizzato da basso rendimento e rischio
nullo, prospettiva che amplia il volume della raccolta bancaria.
Tradizionalmente, l’assicurazione dei depositi è un utile strumento di
regolamentazione del sistema bancario, tutela gli interessi dei piccoli
risparmiatori i quali, data la loro incapacità di coordinarsi, non sono in grado
di monitorare le azioni ed i risultati economici ottenuti dai gruppi di manager
ed azionisti della banca. Tuttavia, la teoria economica ha spesso evidenziato
come tale strumento possa avere conseguenze negative proprio sul
comportamento di questi ultimi, in quanto la tutela accordata ad una cospicua
quota del passivo della banca incentiva il suo gruppo di controllo ad
assumere comportamenti improntati all’azzardo morale. Infatti, essa spinge i
manager ad incrementare il rischio del portafoglio impieghi dell’istituto di
credito, finanziando progetti ed investimenti caratterizzati da una maggiore
volatilità degli utili, ma da possibili rendimenti futuri più elevati.
Il maggior rischio assunto sugli impieghi, infatti, non genererebbe
pressioni negative dal lato della raccolta in quanto i depositanti, tutelati dal
fondo assicurativo, non hanno alcun incentivo a monitorare la rischiosità
complessiva del proprio istituto, riducendo così la possibilità che eventuali
perdite sopportate dalla banca si traducano in una corsa agli sportelli. In caso
di fallimento, infatti, i depositi sono rimborsati ed i costi di tale operazione
sono a carico del contribuente, proprio per le finalità pubbliche che lo
strumento ricopre.
È per questo che la teoria economica ha cercato di evidenziare possibili
schemi di assicurazione dei depositi che, da un lato, consentissero allo
strumento di assolvere il suo ruolo di tutela della micro e macrostabilità del
sistema finanziario, dall’altro riducessero l’incentivo per il management della
banca ad utilizzare l’azione regolamentare esclusivamente a fini speculativi.
Sotto questo profilo, un primo elemento significativo è nelle modalità di
finanziamento del fondo assicurativo, ex ante oppure ex post, rispetto al
verificarsi di un’insolvenza.
I premi pagati ex ante permettono di precostituire un fondo, alimentato dai
versamenti di tutti gli istituti di credito che aderiscono al sistema di
assicurazione, che può essere immediatamente utilizzato in caso di necessità.
Il finanziamento ex post, invece, prevede che in caso di necessità le banche
17
Il riferimento è all’equazione degli scambi ed a quella delle scorte elaborate rispettivamente
da Fisher (1911) e Pigou (1949).
144
che aderiscono al sistema concorrono alla copertura della perdita generata
dall’istituto insolvente versando al fondo il proprio contributo18.
Un secondo aspetto rilevante fa riferimento alle modalità di contribuzione
del fondo, in particolare per gli schemi che prevedono versamenti ex ante.
Tradizionalmente, ogni istituto di credito versa un premio fisso per unità di
deposito, sistema che potrebbe ampliare il meccanismo di azzardo morale
insito nell’assicurazione dei depositi, date le possibili conseguenze sia sul
comportamento dei depositanti, sia su quello dei manager della banca. I
primi, infatti, sono maggiormente disincentivati dal monitorare la rischiosità
ed il comportamento tenuto dai manager, in quanto il pagamento in somma
fissa rende omogeneo per tutti il costo della raccolta, appiattendo, di fatto, le
condizioni di offerta del prodotto. Tale meccanismo, inoltre, rende di fatto
neutrale per i depositanti la scelta tra istituti di credito dato che tutte le
banche sul mercato si caratterizzano per uno stesso livello di rischiosità. I
manager, allo stesso tempo, sono incentivati a perseguire politiche di
investimento particolarmente rischiose in quanto, in caso di successo, tale
comportamento genera elevati profitti, dove per la banca in caso di
insuccesso, invece, la presenza dell’assicurazione dei depositi e dell’istituto
della responsabilità limitata riduce l’onere di rimborso dei depositi alla sola
parte eccedente il capitale proprio.
Per superare problemi di questo tipo, sarebbe possibile elaborare schemi
di assicurazione dei depositi che prevedano un causale tra versamento
dell’istituto di credito e sua rischiosità intrinseca; tuttavia, soluzioni di questo
tipo sono state fortemente criticate sotto il profilo teorico essenzialmente per
due ordini di motivi (Goodman, Santomero, 1996). Il primo è che è possibile
dimostrare che l’utilizzo di strumenti di controllo del rischio complementari
all’assicurazione dei depositi (ispezioni, sanzioni, analisi degli indici
patrimoniali dell’istituto di credito) renderebbe gli effetti di un premio fisso
del tutto identici a quelli di un premio variabile in base al grado di rischio. Il
secondo è che il premio sensibile al rischio potrebbe ampliare la prociclicità
dell’azione degli istituti di credito, in quanto si genererebbe un circolo
vizioso tra rischio di credito, premi assicurativi e trend economico. In fasi
recessive, infatti, il rischio di credito sopportato dalle banche tende ad
aumentare, proprio per la maggiore difficoltà dei prenditori di fondi di
effettuare i rimborsi; tale incremento si rifletterebbe sui premi assicurativi dai
versare ai fondi di tutela per i depositanti, con ulteriore aggravio per la
18
Questo schema ex post è particolarmente criticato, in quanto potrebbe concorrere ad
alimentare la dimensione di eventuali crisi sistemiche all’interno del settore. Si veda anche
Freixas, Parigi (1998).
145
liquidità e la gestione corrente dell’istituto quindi, in definitiva, maggiore
possibilità di incorrere in una crisi di liquidità19.
Oltre alle obiezioni di natura strettamente tecnico-economica appena
descritte, la difficoltà principale di implementare uno schema di premi
correlato alla rischiosità sopportata da ogni singolo istituto è legata alla
definizione empirica di determinazione del premio variabile. A tal proposito
lo schema logico più diffuso è senza dubbio quello elaborato da Merton
(1977), tramite il quale si quantifica il “premio equo”, ossia quel premio che
garantisce profitti nulli all’assicuratore, come il prezzo di un’opzione put
emessa dall’agenzia assicurativa a favore degli azionisti sui depositi
assicurati dalla banca. In caso di fallimento dell’istituto di credito, gli
azionisti perdono il capitale e l’agenzia assicurativa, subentrando nel
controllo, assume un obbligo nei confronti dei depositanti. In tale schema il
valore dell’opzione è da un lato correlato positivamente alla probabilità di
fallimento della banca, dall’utilizzo della leva finanziaria e dalla maggiore
variabilità dell’attivo netto, dalla frequenza delle ispezioni, dalle quali
potrebbero emergere dati ed informazioni rilevanti per determinare una
possibile situazione di fallimento e dall’altro, correlato negativamente al
livello dei tassi di interesse che se bassi, aumentano il valore scontato dei
benefici futuri dell’esercizio dell’opzione.
A rigor di logica, tuttavia, l’utilizzo del metodo delle opzioni per fissare il
valore del premio assicurativo è oggetto di critiche, specie per la difficoltà di
raccogliere informazioni disponibili, idonee per determinare il valore
dell’opzione (Marotta, Pittaluga 1993b). Infatti, il valore delle opzioni, se
calcolato in base ai prezzi di mercato, non è in grado di riflettere
efficacemente la reale rischiosità della banca, in quanto tali prezzi non
incorporano informazioni di tipo privilegiato a disposizione solo del gruppo
di manager ed azionisti dell’istituto di credito. Inoltre, qualora la
determinazione del premio fosse basata su informazioni ex post (ad esempio
le quotazioni azionarie), si produrrebbero effetti avversi sotto il profilo della
stabilità; risulterebbero colpite con premi più elevati proprio quelle banche in
situazione finanziaria critica e, quindi, con manager più propensi ad esporsi
al rischio nel tentativo di ottenere profitti.
Lo schema di pagamenti ex ante con premio sensibile al rischio è stato
adottato negli Stati Uniti, a seguito dell’emanazione del Federal Deposit
19
Numerosi studi hanno investigato la natura prociclica dell’attività bancaria, che potrebbe
esercitare effetti di razionamento del credito sul sistema produttivo, concludendo in larga
misura che le politiche delle banche tendono a seguire l’andamento del ciclo economico.
Anche recenti indagini empiriche hanno evidenziato, infatti, che le banche utilizzano gli
accantonamenti al fine di stabilizzare il proprio reddito nel tempo e solo l’esistenza di una
relazione positiva di questi con gli utili dell’intermediario bancario contribuisce, almeno in
parte, ad attenuare l’effetto prociclico delle loro politiche di bilancio. Per approfondimenti si
rimanda a Berger, Udell (2002); Gambacorta, Mistrulli (2003); Quagliarello (2004).
146
Insurance Corporation Improvement Act (FDICIA) nel 1991 e del successivo
Deposit Insurance Fund Act del 1996. Tali interventi normativi hanno
ridisegnato il sistema dell’assicurazione dei depositi statunitense, prevedendo
due fondi per l’assicurazione dei depositi che si affiancano al Bank Insurance
Fund ad al Saving Association Insurance Fund. Il premio versato dalle
banche ai due fondi è composto da una quota fissa, pari allo 0,0023% per
deposito assicurato, ed una variabile in base alla rischiosità dell’istituto di
credito20. Quest’ultimo è nullo per le banche inserite nella classe di rating più
elevata e può raggiungere un massimo dello 0,0008% per deposito assicurato
proprio in detta classe di rating. Il regolamento dei fondi, inoltre, prevede che
una volta raggiunta la soglia minima di consistenza pari all’1,25% del totale
depositi assicurati, il premio fisso diventi nullo. Tuttavia, ed in
considerazione del fatto che tali valori erano già stati raggiunti nel 1995, le
banche inserite nella più alta classe di rating, ovvero il 95% del totale, nel
2002, non sono soggette al pagamento di alcun premio. Non così, in Italia
dove il Fondo Interbancario per la Tutela dei Depositi (FITD) prevede uno
schema di pagamenti ex post a premio fisso, calcolato in percentuale (tra lo
0,4% e lo 0,8%) dei soli fondi assicurabili21.
5.2. Il credito di ultima istanza
Il credito di ultima istanza è sicuramente lo strumento di
regolamentazione di stabilità del sistema bancario più antico e diffuso, il cui
scopo principale è sostenere istituti di credito momentaneamente in stato di
illiquidità e, contemporaneamente, non in grado di ottenere prestiti dal
mercato a condizioni normali. L’insieme di questi due fattori, in assenza di
uno strumento di regolazione, comporterebbe il passaggio della banca
dall’illiquidità all’insolvenza, con conseguenze negative sul funzionamento
dell’intero sistema dei pagamenti22.
20
In particolare per il calcolo della parte variabile le banche vengo suddivise in nove classi di
merito, corrispondenti alla combinazione di tre classi inerenti il livello di patrimonializzazione
e tre regimi di supervisione.
21
Il FITD è stato creato nel 1987; la sua copertura è riservata ai depositi bancari e, in
estensione, a tutti quei prodotti finanziari in qualche misura ad essi collegati ed utilizzati dai
risparmiatori come mezzo di pagamento. Per un elenco completo degli strumenti esclusi dalla
copertura, si rimanda a Fondo Interbancario Tutela dei Depositi (2004, in particolare pagg. 68).
22
In particolare, la struttura e le modalità di funzionamento del sistema dei pagamenti
svolgono un ruolo fondamentale per stabilire i possibili effetti di una crisi di illiquidità
bancaria. Infatti, gli effetti di uno stato di illiquidità di una banca in un sistema a regolazione
lorda, con trasferimento immediato di depositi contro titoli, sono ridotti rispetto a quelli
generati all’interno di sistemi a regolazione netta. In quest’ultimo caso, la mancata conclusione
delle transazioni compiute da un operatore in difficoltà potrebbe generare un effetto a catena e
impedire anche la chiusura di tutte le transazioni finanziarie con la banca illiquida, sia
147
Così come per l’assicurazione del depositi, anche nell’implementare il
credito di ultima istanza il problema principale per il regolatore è nella
possibilità che tale strumento generi comportamenti improntati all’azzardo
morale da parte dei potenziali beneficiari. La presenza di un prestatore di
ultima istanza, che eviti la crisi di insolvenza della banca fornendo le risorse
liquide necessarie, potrebbe spingere i manager dell’istituto di credito ad
adottare politiche di impieghi particolarmente rischiose, in quanto lo
strumento di vigilanza svolgerebbe indirettamente il compito di sostegno in
caso di crisi e difficoltà.
Il dibattito sul disegno istituzionale e le opportunità di utilizzare il credito
di ultima istanza è tuttavia molto articolato nelle sue posizioni e, nonostante i
successivi sviluppi e raffinamenti teorici, resta fondamentalmente legato ai
principi evidenziati da Bagheot (1873) secondo il quale una sua
imprescindibile caratteristica risiede nella possibilità di distinguere tra banche
illiquide e banche insolventi. Infatti, il credito di ultima istanza dovrebbe
essere concesso solo ad intermediari bancari colpiti da crisi di liquidità, ma
potenzialmente solventi, ovvero istituti che detengono un attivo di bilancio
almeno pari alle loro passività ma, per il mismatching delle scadenze tra
poste dell’attivo e del passivo, non sono in grado di far fronte puntualmente
alle obbligazioni assunte o alle richieste di liquidità dei depositanti.
In sintesi, il ragionamento verte, al solito, sulla particolarità della
composizione del bilancio della banca, con passività liquide, rappresentate da
depositi, e presenza dal lato dell’attivo di titoli di debito essenzialmente
orientati al medio-lungo termine sulla base delle esigenze dei prenditori di
fondi. La banca nello svolgere il suo compito di trasformare le scadenze ed
avvicinare le richieste di depositanti ed imprenditori è tradizionalmente
esposta all’illiquidità. L’intervento del credito di ultima istanza, quindi, si
colloca sostanzialmente all’interno di questa problematica, configurando tale
strumento regolamentare come una soluzione normativa all’illiquidità
intrinseca di un bilancio bancario. Il prestatore di ultima istanza dovrebbe
intervenire per garantire che temporanee crisi di illiquidità di un istituto di
credito non sfocino in crisi di insolvenza, con il conseguente fallimento della
banca e le inevitabili ripercussioni sull’equilibrio del sistema dei pagamenti.
La crisi di una banca illiquida, seppur solvente, costituirebbe un costo elevato
per la collettività. Essa, da un lato, potrebbe innescare un meccanismo di
reazione nel sistema interbancario e generare pressioni sulla redditività e la
direttamente che indirettamente. In altri termini, sotto il profilo della stabilità, nel sistema a
regolazione netta si possono individuare due possibili inefficienze: “il contagio da
insolvenza”, quando una banca solida scambia attività proprie di buona qualità contro quelle di
cattiva qualità dell’istituto insolvente; “il contagio di sicurezza”, quando la banca solvente
assorbe le perdite dell’istituto in crisi, permettendone la sopravvivenza nel sistema ma
determinando, un costo sociale per le risorse impegnate nel salvataggio e, quindi, non
incanalate verso altri utilizzi più remunerativi e produttivi (Freixas, Parigi 1998).
148
liquidità di altri istituti, dall’altro, nel caso di liquidazione, comportare la
perdita del suo patrimonio informativo, inteso come conoscenza del sistema
imprenditoriale nel quale opera e dei suoi specifici prenditori di fondi.
Ancora una volta, il credito di ultima istanza fonda la sua ragion d’essere
proprio su due pilastri: garantire la stabilità del sistema finanziario,
tutelandolo da shock di liquidità e ottimizzare l’allocazione delle risorse,
evitando la perdita del patrimonio informativo della banca. Infatti, l’istituto
illiquido, allorché solvente, una volta ricevuta la liquidità aggiuntiva
necessaria per far fronte alle proprie scadenze, sarà in grado di restituire il
prestito ricevuto, grazie alla vendita di parte delle proprie attività. Si
eviterebbe così la perdita di un asset prezioso, quello dei rapporti di
informazione creati dalla banca con i suoi prenditori di fondi e, al tempo
stesso, si tutelerebbero gli altri intermediari dal possibile propagarsi di shock
di liquidità.
Al contrario, qualora il credito di ultima istanza fosse erogato a favore di
un istituto di credito illiquido ed anche insolvente, i suoi effetti sarebbero
assolutamente nulli. Per questa banca, infatti, la crisi di liquidità tenderebbe a
configurarsi non come un evento episodico, ma come qualcosa di strutturale,
destinato a perdurare anche nel medio-lungo periodo a causa
dell’insufficienza del suo patrimonio attivo a compensare le esposizioni
assunte dal lato del passivo. Il credito di ultima istanza si connoterebbe
esclusivamente come un costo sociale, in quanto comporterebbe l’impiego di
risorse liquide senza ottenere i benefici previsti dallo strumento
regolamentare in termini di tutela della stabilità finanziaria e delle posizioni
delle controparti esposte con la banca in crisi.
Il disegno istituzionale sottostante di questo strumento è molto complesso;
seguendo l’analisi di Fischer (1999) non possono essere taciute alcune
considerazioni di carattere generale riguardo la figura del prestatore di ultima
istanza, la selezione dei potenziali beneficiari, gli strumenti ed i meccanismi
da porre in essere per evitare comportamenti opportunistici da parte delle
banche.
Tradizionalmente, il prestatore di ultima istanza è prerogativa della Banca
Centrale. Essa, come istituzione pubblica, esercita poteri di vigilanza sul
settore bancario, possiede quindi una conoscenza più ampia di altre
istituzioni dell’universo di questo settore e del suo controllo ma, soprattutto,
emette moneta legale. Generalmente il credito di ultima istanza non sempre è
concesso tramite la creazione di nuova moneta; piuttosto la Banca Centrale
utilizza la propria reputazione per farsi promotrice presso altri soggetti privati
per la concessione del prestito all’istituto illiquido.
A tal proposito, la creazione del Sistema Europeo delle Banche Centrali
(SEBC) ed il passaggio della sovranità monetaria alla Banca Centrale
Europea (BCE) hanno contribuito al rilevante dibattito sulle modalità di
erogazione del credito di ultima istanza all’interno dell’area euro.
149
Attualmente, come previsto dallo statuto del SEBC (art. 14.4), le singole
banche centrali nazionali possono erogare questo tipo di credito nei limiti
delle proprie disponibilità di bilancio, con la concessione dello stesso tra
banca nazionale ed istituto in difficoltà tramite lo scambio di attività a basso
profilo di rischio (prevalentemente titoli di stato) contro prestiti al settore
privato. Tali attività costituiscono, successivamente, le garanzie che l’istituto
in difficoltà rilascia alla BCE al fine di ottenere il rifinanziamento marginale.
Il meccanismo appare, tuttavia, poco tempestivo e per tali motivi oggetto di
pesanti critiche; è per questo che da più parti si ritiene opportuno istituire un
Osservatorio Europeo del rischio anche all’interno della stessa BCE, così da
poter garantire omogeneità tra le regole di vigilanza imposte dalle singole
autorità nazionali e attribuire alla BCE un maggiore controllo e monitoraggio
sui potenziali fattori di rischio dell’intero sistema bancario europeo (Schuler,
2003).
Per le modalità di erogazione del credito di ultima istanza, ovvero
negoziazione bilaterale oppure operazioni di mercato aperto, poi, esse
tenderebbero ad alterare le regole del mercato, instaurando un meccanismo di
ricorso ai creditori di ultima istanza non certo e, soprattutto, come modalità
d’intervento, definizione dei tassi di interesse e tempi di rimborso, variabile
sulla base della negoziazione completata. Per ovviare tali problemi, si è
suggerito l’utilizzo esclusivo di operazioni di mercato aperto che, senza
dubbio, garantirebbero, invece, la trasparenza dell’operazione. Esse, tuttavia,
potrebbero risultare non efficaci specialmente se poste con finalità di credito
di ultima istanza in condizioni di instabilità dei mercati interbancari. In
questo contesto, in assenza di una negoziazione diretta, l’istituto in difficoltà
potrebbe non beneficiare della liquidità in eccesso immessa sul mercato che,
invece, andrebbe a vantaggio di tutti gli altri operatori23.
L’aspetto principale del credito di ultima istanza, in sintesi, resta la
tempestività, ossia la possibilità per l’Autorità di vigilanza di poter
immediatamente ripianare uno squilibrio di mercato, di natura temporanea,
che altrimenti, se non tempestivamente contrastato, potrebbe creare forti
conseguenze sul funzionamento del sistema dei pagamenti. Si schiude così la
possibilità che tale strumento, confinato tradizionalmente all’interno della
vigilanza sul settore bancario, possa ampliare il proprio raggio d’azione a
favore anche di intermediari non bancari, al fine di configurare il credito di
ultima istanza come uno strumento regolamentare per il controllo degli
eccessi di domanda di liquidità24.
23
Per una rassegna completa sul tema si veda Goodfriend e King (1988).
A conferma di questa tesi è l’intervento congiunto promosso da FED e BCE nel settembre
2001 finalizzato a garantire sufficiente liquidità ai sistemi bancari per consentire la riapertura
delle principali piazze finanziarie dopo gli attentati dell’11 settembre. Anche se l’azione non è
di per sé configurabile come un intervento di credito di ultima istanza in senso stretto, non
24
150
6. Dalla vigilanza strutturale alla vigilanza prudenziale
Fino agli anni Ottanta, il ruolo centrale svolto della banca all’interno del
sistema economico presupponeva la necessità di regolamentare il settore,
sotto due profili: tutela dei depositanti e della fiducia nel sistema, evitare
un’eccessiva concentrazione di risorse nelle mani di pochi intermediari.
Il primo è stato tradizionalmente perseguito attraverso il vincolo della
riserva obbligatoria, oltre all’assicurazione implicita data dalla Banca
Centrale in qualità di prestatore di ultima istanza. La riserva, strumento
regolamentare del tutto atipico rispetto a quelli in uso in altri settori
dell’economia, vincola una quota delle risorse disponibili della banca,
obbligandola a depositare presso un conto aperto con la Banca Centrale una
frazione della sua liquidità25. Obiettivo principale è assicurare una “scorta di
capitale”, disponibile per far fronte alle eventuali richieste dei risparmiatori.
Con il tempo, la riserva obbligatoria ha assunto sempre più il ruolo di
strumento di politica monetaria, piuttosto che di semplice leva regolamentare,
un meccanismo di fatto in grado di creare uno svantaggio competitivo tra le
imprese bancarie e quelle di altri comparti dell’intermediazione finanziaria.
Per tale motivo in molti paesi si è optato per eliminare o ridurre notevolmente
il suo impatto sul sistema (Di Giorgio, Di Noia, 2004b). Il credito di ultima
istanza, invece, come in precedenza esaminato, crea le basi per l’insorgere di
problemi di moral hazard per i manager dell’impresa-banca.
Se l’obiettivo primario è, quindi, perseguire un’equa distribuzione delle
risorse, l’intervento regolamentare prevede due forme: le nazionalizzazioni
delle banche private ed i divieti all’espansione geografica e gestionale
dell’attività bancaria. Paradigma di fondo di questa impostazione è uno
schema regolatorio del tipo struttura-comportamento-performance, comune a
quanto accedeva anche per la regolamentazione dei principali settori
dell’economia reale, almeno fino agli anni Ottanta. I controlli strutturali
all’entrata del mercato del credito esercitati dalle Autorità di vigilanza, che in
molti casi coincidevano con le Banche Centrali, avevano un netto predominio
sulle altre possibili leve regolamentari. Entrambi questi strumenti, tuttavia,
hanno costituito un fallimento per il regolatore. Le banche pubbliche, infatti,
hanno evidenziato profili di inefficienza nella gestione delle risorse, tali da
rendere i costi sostenuti maggiori dei potenziali benefici che, sotto il profilo
della politica economica, si ricavavano dalla gestione statale del sistema di
essendo finalizzata al rifinanziamento di un particolare istituto, essa presenta evidenti
analogie, sia per modalità operative (l’immissione di nuova liquidità nel sistema), sia per
finalità dell’intervento (tutela della stabilità del sistema dei pagamenti) (Marotta, 2003a).
25
Per un’analisi dettagliata sul funzionamento della riserva obbligatoria all’interno degli
schemi di politica monetaria, si rimanda a Di Giorgio (2004, cap.3).
151
intermediazione26. Gli stessi limiti operativi, sia in senso geografico che con
riferimento alla tipologia di prodotti, sono via via stati facilmente elusi grazie
alla rapida introduzione di strumenti finanziari innovativi.
Successivamente, le scelte di regolamentazione di stabilità sono state
ricondotte nella cornice teorica offerta da Diamond e Dybvig (1983), per i
panic run. Da tale impostazione, derivavano schemi regolamentari incentrati
su strumenti, come l’assicurazione dei depositi ed il potenziamento della
governance a favore delle banche centrali, che potrebbero essere considerati,
però, di tipo “passivo”. Essi, infatti, piuttosto che affrontare in maniera
diretta la relazione tra attività e passività bancarie,
erano rivolti
essenzialmente alla creazione di meccanismi di difesa e di tutela per le
controparti deboli, i depositanti.
A partire dagli anni ’90, lo scenario di riferimento muta radicalmente; tre,
a nostro avviso, le principali cause di questo passaggio: la despecializzazione
funzionale, il processo di concentrazione dell’industria finanziaria, il rapido
sviluppo di prodotti innovativi.
La despecializzazione funzionale è stata avviata con la seconda direttiva
bancaria comunitaria (n. 89/646CE), che ha rimosso i vincoli, per scadenza,
tipo di attività e settore di intervento che di fatto segmentavano il settore nei
diversi paesi europei. Essa, infatti, ha legittimato progressivamente imposto il
modello renano di banca universale, organizzato secondo una struttura
operativa multidivisionale ed abilitata ad operare su una vasta gamma di
prodotti finanziari.
L’affermazione di tale nuovo modello gestionale ha comportato
significativi aumenti del grado di concentrazione del settore finanziario; il
fenomeno è stato particolarmente significativo in Europa, dove lo sviluppo
del mercato unico dei servizi finanziari e la privatizzazione di numerose
banche pubbliche hanno creato un ambiente favorevole ad acquisizioni e
fusioni. Tra il 1995 ed il 2000, infatti, la quota di attivo gestito dai
conglomerati bancari è aumentata dal 75,1 all’86,5% (De Bonis, 2003, pag.
153).
Lo sviluppo ed il consolidamento sui mercati di transazioni con titoli
derivati hanno fatto venir meno la tradizionale classificazione degli strumenti
bancari, generando pressioni relativamente forti anche sul sistema di
controllo e governo della stabilità dell’intero settore. L’innovazione
finanziaria, infatti, ha permesso la diffusione di tecniche di gestione del
rischio che hanno stravolto la composizione dei portafogli bancari,
26
La privatizzazione del settore bancario è stata uno dei fenomeni economici che hanno
caratterizzato l’ultimo decennio nel nostro Paese. Per un esauriente trattazione del tema, si
veda Bianchi (2002) e, per l’analisi degli effetti di tale processo sul sistema
dell’intermediazione, i recenti lavori di Messori, Tamborini, Zazzaro (2003) e Panetta (2004).
Per un confronto internazionale si rimanda ad Aoki (1994, parte IV).
152
permettendo all’impresa-banca di compiere decisivi passi in avanti sotto il
profilo della diversificazione degli stessi. In particolare, grazie alla
cartolarizzazione ed allo sviluppo del mercato dei prodotti derivati, ora le
banche hanno la possibilità di cedere sul mercato strumenti di puro rischio di
credito, che migliorano il grado di diversificazione del loro portafoglio.
Il proliferare di queste operazioni ha stravolto, per alcuni aspetti, il
tradizionale ruolo che gli istituti di credito occupavano nel sistema
dell’intermediazione: la banca tradizionale svolgeva la funzione di interfaccia
tra risparmiatore e prenditore di fondi finale laddove la banca moderna,
invece, si configura come gestore di puro rischio, sia nei confronti della
clientela tipica che di altri intermediari. Essa, infatti, si trova al centro di un
doppio canale di intermediazione: da una parte la tipica relazione datoreprenditore di fondi, dall’altra essa opera sul mercato del trasferimento del
rischio tra le sue controparti dirette come gestore di protezione e garanzia.
Questa evoluzione ha accresciuto l’opacità dei bilanci dell’impresa-banca,
rendendo più complessa la possibilità di monitoraggio da parte dei suoi
azionisti, dei creditori e, soprattutto, dell’Autorità di vigilanza.
7. Conclusioni
La specificità della banca e, per alcuni aspetti anche uno dei suoi punti di
forza, come argomentano Diamond e Rajan (2000), risiede nella fragilità del
suo bilancio. In estrema sintesi, si potrebbe concludere che nonostante siano
mutati radicalmente i sistemi di gestione, le aree operative, gli strumenti e le
finalità di un’impresa bancaria, dal punto di vita regolamentare i due primari
obiettivi da perseguire restano la tutela della stabilità del sistema, e quindi dei
risparmiatori, unito al controllo sulla concentrazione delle risorse.
È necessario si implementi un sistema di vigilanza in grado di
comprendere, valutare e regolare effettivamente il rinnovato ambiente di
riferimento dei sistemi finanziari. Sotto il primo profilo, controllo della
concentrazione delle risorse, si sta affermando l’idea che il sistema bancario,
al pari degli altri settori economici, possa essere efficacemente controllato
dalla normativa antitrust, ed è questa la direzione verso cui tende la
disciplina sulla concorrenza bancaria nei principali paesi industrializzati27.
27
Fa eccezione l’Italia; va, tuttavia, specificato, la concorrenza nel settore bancario sia stata
storicamente vista con sospetto dagli studiosi della bank charter value (Keeley, 1990; Booth,
Takor, 1993) i quali argomento che un’eccessiva frammentazione del settore comporterebbe
una riduzione del valore della licenza bancaria (la bank charter value, appunto), costringendo i
manager ad assumere rischi più elevati al fine di tutelare il valore dell’impresa-banca. Altri
modelli (De Palma, Gary-Bobo, 1996; Mutetes, Vives, 1996; Cordella, Yetati, 2002) invece,
non individuano nell’eccesso di concorrenza un potenziale pericolo per la stabilità del settore.
Per una rassegna sul tema, si veda Parigi (2000) e Monarca (2003).
153
La stabilità del sistema, invece, è perseguita da una regolazione “attiva”,
che miri non esclusivamente al controllo del sistema ex post ed alla
costituzione di adeguati meccanismi di assicurazione, bensì alla promozione
di strumenti incentivanti che permettano alle banche di modificare
radicalmente i propri meccanismi di gestione del rischio. Se la funzione
primaria di un’impresa bancaria è il risk management, e non la semplice
allocazione di fondi, è opportuno che la regolamentazione prudenziale sia
incentrata sui modelli interni di valutazione del rischio. In questo modo,
infatti, l’obiettivo di stabilità del sistema viene perseguito attraverso
strumenti di “self-regulation”, improntati ad incentivare gli intermediari a
selezionare la propria clientela in misura più rigorosa. Un primo tentativo di
implementare una siffatta nuova regolamentazione è stato sviluppato con
l’Accordo di Basilea del 1988 e, in misura molto più incisiva con la sua
recente riforma, il cosiddetto Basilea 2 (Bocchi, Lusignani 2004; Morelli
2004).
La disciplina dei requisiti patrimoniali è costruita, nel nuovo schema, sia
sotto il profilo quantitativo, il primo pilastro, che negli aspetti più
strettamente “qualitativi”, del secondo e terzo pilastro. In particolare,
l’introduzione dei rating, sia interni che esterni, del primo pilastro, si pone
l’obiettivo di creare proficue sinergie tra schema regolatorio e modelli per la
gestione del rischio utilizzati dalle banche. Il modello di rating permette agli
istituti di credito di accantonare capitale di vigilanza per ogni attività
detenuta in misura commisurata alla rischiosità della controparte. Allo stesso
tempo, le prescrizioni del secondo e terzo pilastro modificano l’impostazione
generale dello schema, introducendo elementi di controllo sull’operato del
management bancario. Le Autorità, infatti, si configurano come i veri garanti
dell’Accordo, in quanto ad esse sono attribuiti maggiori poteri in tema di
regolamentazione e applicazione della disciplina sul capitale di vigilanza, in
particolare per la valutazione dei modelli di rating interno, nel cui ambito
hanno il compito di effettuare controlli qualitativi sull’organizzazione e la
gestione del rischio di ogni singola banca.
Tuttavia, il nuovo Accordo potrà esprimere in pieno le proprie potenzialità
solo interagendo all’interno di un contesto regolamentare solido e ben
strutturato, che miri a salvaguardare gli interessi dei risparmiatori anche
tramite la promozione di maggiore trasparenza nei mercati finanziari ed
elevato grado di concorrenza tra i diversi operatori. A riguardo, la recente
normativa sulla tutela del risparmio può essere vista come un’occasione non
compiutamente sfruttata, in quanto essa conferma il ruolo della Banca d’Italia
come organo preposto alla vigilanza sulla concorrenza bancaria, mantenendo
così inalterata l’esistente asimmetria regolamentare tra settore del credito e
settori industriali.
154
BIBLIOGRAFIA
AGCM (2004), Relazione sull’attività svolta nel 2003, Roma.
AKERLOF, G.A. (1970), “The market for lemons: quality, uncertainty
and the market mechanisms”, Quarterly Journal of Economics, 84 (3),
pp. 488-500.
ALESSANDRINI, P. (a cura di) (2001b), Il sistema finanziario italiano
tra globalizzazione e localismo, Il Mulino, Bologna.
ALLEN, F. – GALE, D. (2000), “Financial Contagion”, Journal of
Political Economy, 108 (1), pp. 1-33
ALLEN, L. – SAUNDERS, A. (2003), A survey of cyclical effects in
credit risk measurement models, Bis Working Paper, 126, Basilea.
AOKI, M. – HUGH, P. (1994), The Japanese main bank system,
Clarendon Press Oxford, Oxford NY.
ARROW, K.J. (1963), “Uncertainty and the welfare economics of medical
care”, American economic review, 53 (5), pp. 941-73.
ARROW, K.J. (1968), “The economics of moral hazard: further
comment”, American economic review, 58, pp.537-9.
BAGHEOT, W.(1873), Lombard Street, Murray, Londra.
BANCA D’ITALIA, Relazione Annuale, Centro Stampa, Roma, anni vari.
BERGER, A.N. – DEMSETZ, R.S. – STRAHAN, P.E. (1999), “The
consolidation of financial services industry: causes, consequences, and
implications for the future”, Journal of banking and finance, 23 (3-4), pp.
135-94.
BERGER, A.N. – UDELL, G.F. (1995), “Relationship lending and lines
of credit in small firm finance”, Journal of business, 68 (3), pp. 351-82.
BERGER, A.N. – UDELL, G.F. (1998), “The economics of small
business finance: the roles of private equity and debt markets in the financial
growth cycle”, Journal of banking and finance, 22, pp. 613-73.
BERGER, A.N. – UDELL, G.F. (2002), “The institutional memory
hypothesis and the procyclicality of bank lending behaviour”, Kelly School of
Business – Finance department working pape”, Bloomington.
BERNANKE, B. (1993), Credit in the macroeconomy, Quarterly review,
Federal Reserve Bank of New York, 18, pp. 50-70.
BERNANKE, B. – GERTLER, M. (1995), Inside the black box: the credit
channel of monetary policy transmission, NBER Working Paper, n. 5146.
BESANKO, D.A. – THAKOR, A.V. (1987), “Collateral and rationing:
sorting equilibria in monopolistic and competitive credit markets”,
International economic review, 28 (3), pp. 671-89.
BESTER, H. (1985), “Screening vs. rationing in credit markets with
imperfect information”, American economic review, 75 (4), pp. 850-5.
BESTER, H. (1987), “The role of collateral in credit markets with
imperfect information”, European economic review, 31 (4), pp. 887-99.
155
BHATTACHARYA, S. – BOOT, A. – THAKOR A. (1998), “The
economics of bank regulation”, Journal of money, credit and banking, 30, pp.
567-84.
BHATTACHARYA, S. – THAKOR, A.V. (1993), “Contemporary
banking theory”, Journal of financial intermediation, 3 (1), pp. 2-50.
BIANCHI, P. (2002), La rincorsa frenata. L’industria italiana dall’unità
nazionale all’unificazione europea, Il Mulino, Bologna.
BIANCO, M. – GHEZZI, F. – NEGRINI, W. – SIGNORINI, P. (2000),
Applicazioni della disciplina antitrust al settore bancario in Italia, in POLO
(2000).
BLUM, J. – HELLWIG, M. (1995), “The macroeconomic implications of
capital adequacy requirements for banks”, European Economic Review, 39
(3/4), pp. 739-49.
CACCIAMANI, C. – VIVACE, G. (2004), “Un’indagine empirica sul
rapporto banche-imprese artigiane: la provincia di Cremona nello scenario
nazionale”, in Bancaria, 60, 3, pp. 349-59.
CARLETTI, E. (2000), Concorrenza, ordinamento e stabilità, in POLO
M. (2000).
CARRETTA, A. (a cura di) (2002), Il governo del cambiamento culturale
in banca, Bancaria Editrice, Roma.
CHARY, V.V. – JAGANNATHAN, R., (1988), “Banking Panics,
Information and Rational Expectations Equilibrium”, Journal of Finance, 43,
pp. 749-761.
CIOCCA, P.L. (2000), La nuova finanza in Italia. Una difficile
metamorfosi (1980-2000), Bollati Boringhieri, Torino.
COMITATO DI BASILEA PER LA VIGILANZA BANCARIA (2004),
International convergence of capital measurement and capital standards. A
revised framework, Basilea.
CONIGLIANI, C. – FERRI, G. – GENERALE, A. (1997), “La relazione
banca-impresa e la trasmissione degli impulsi della politica monetaria”,
Moneta e Credito, 198, pp. 139-65.
CORDELLA, T. – YEYATI, E.L. (2002), “Financial opening, deposit
insurance and risk in a model of banking competition”, European Economic
Review, 46, pp. 471-485.
DE BONIS, R. (1996), La riscoperta del debito e delle banche: progressi
e questioni irrisolte, Temi di discussione, 279, Banca d’Italia, Roma.
DE BONIS, R. (2003), Le concentrazioni bancarie: una sintesi, in
MESSORI, TAMBORINI, ZAZZARO (2003).
DE CECCO, M. (1995), “Il credito di ultima istanza”, Banca Impresa e
Società, n. 1, pp. 28-58.
DE PALMA, A. – GARY-BOBO, R.J. (1996), Coordination failures in
the Cournot approach to deregulated bank competition, THEMA Working
Paper.
156
DE YOUNG, R. – HUNTER, W.C. – UDELL, G.F. (2002), Whither the
community bank? Relationship finance in the information age, Chicago Fed
Letter, 178, Chicago.
DETRAGIACHE, E. – GARELLA, P. – GUISO, L. (1997), Multiple
versus single banking relationships, CEPR, Discussion Paper Series, 16049,
London.
DEWATRIPONT, M. TIROLE, J. (1994), The prudential regulation of
banks, The Mit Press, Boston.
DI GIORGIO, G. (2004), Lezioni di economia monetaria, seconda
edizione, Cedam, Padova.
DI GIORGIO, G. – DI NOIA, C. (1999), “La regolamentazione delle
banche: considerazioni critiche”, Banca impresa e società, n.1, pp. 285-313.
DI GIORGIO, G. – DI NOIA, C. (2001), L’impatto della tecnologia sulla
regolamentazione finanziaria: il caso italiano, in MASCIANDARO D.,
GRACCHI G. (2001).
DI GIORGIO, G. – DI NOIA, C. (a cura di) (2004a), Intermediari e
mercati finanziari, Il Mulino, Bologna.
DI GIORGIO G. – DI NOIA C. (2004b), Regole e vigilanza per la tutela
del risparmio, in DI GIORGIO G., DI NOIA C. (2004a).
DIAMOND, D.W. (1984), “Financial intermediation and delegated
monitoring”, Review of Economic Studies, 51 (3), pp. 393-414.
DIAMOND, D.W. (1989), “Reputation acquisition in debt market”,
Journal of political economy, 97 (4), pp. 828-62.
DIAMOND, D.W. – DYBVIG, P.H. (1983), “Bank runs, deposit
insurance, and liquidity”, Journal political economy, 91 (3), pp. 401-19.
DIAMOND, D.W. (1991), “Monitoring and reputation: the choice
between bank loans and directly placed debt”, Journal of Political Economy,
99, pp. 698-721.
DIAMOND, D.W. – RAJAN, R.G. (2000), “A theory of bank capital”,
Journal of Finance, 55, pp. 2431-65.
EDWARDS, F. – MISHKIN, F. (1995), “The decline of traditional
banking: implications for financial stability and regulatory policy”, Federal
Reserve Bank of New York Economic Policy Review, 1, pp. 27-45.
EDWARDS, J. – FRANKS, J. – MAYER, C. – SCHAEFER, S. (eds.)
(1986), Recent developments in corporate finance, Cambridge University
Press, Cambridge.
FAMA, E.F. (1985), “What Different about Banks?”, Journal of Monetary
Economics, 15, pp.29-39.
FAZZARI, S. – HUBBARD, G. – PETERSEN, B. (1988), “Financing
constraints and corporate investment”, Brooking papers on economic activity,
1, pp. 141-95.
FISCHER, S. (1999), On the need for an international lender of last
resort, IMF Working Paper, disponibile sul sito www.imf.org.
157
FISHER, I. (1911), The purchasing power of money, Macmillan, New
York.
FONDO INTERBANCARIO TUTELA DEI DEPOSITI (2004), Statuto e
regolamento, Roma.
FREIMER, M. – GORDON, J. (1965), “Why bankers ration credit?”,
Quarterly journal of economics, 79, pp. 397-410.
FREIXAS, X. – PARIGI, B. (1998), “Contagion and efficiency in gross
and net interbank payment system”, Journal of money, credit and banking, 7
(1), pp. 3-31.
GALE, D. – HELLWIG, M. (1985), “Incentive-compatible debt contracts:
the one-period problem”, Review of Economic Studies, 52 (4), pp. 647-63.
GAMBACORTA, L. (2001), Bank-specific characteristics and monetary
policy transmission: the case of Italy, Temi di discussione, 430, Banca
d’Italia, Roma.
GAMBACORTA, L. – MISTRULLI, P.E. (2003), Bank capital and
lendig behaviour: empirical evidence for Italy, Temi di discussione, 486,
Banca d’Italia, Roma
GARCIA, G.G.H. (1999), Deposit insurance: A survey of actual and best
practices, IMF working paper, 99.
GARCIA, G.G.H. (2002), The effectiveness of deposit insurance,
disponibile sul sito www.dnb.nl.
GERTLER, M. – GILCHRIST, S. (1993), “The role of credit market
imperfections in the monetary trasmission mechanism: arguments and
evidence”, Scandinavian journal of economics, 95 (1), pp. 43-64.
GOBBO, F. (1997), Relazione al convegno “La riforma dei mercati
mobiliari italiani: il decreto di recepimento della direttiva Eurosim e il Testo
Unico della finanza”, Associazione Borsisti M. Fanno, Roma, 14 gennaio.
GOBBO, F. (a cura di) (2003), New perspectives in competition and
regulation, Luiss University Press, Roma.
GOODFRIEND, M. – KING, R. (1988), “Financial deregulation,
monetary policy, and central banking”, Federal Reserve Bank of Richmond
economic review, 74, pp. 3-22
GOODHART, C.A.E. (1998), Financial regulation: why, now and where
now?, Routledge, Londra.
GOODHART, C.A.E. – ILLING, G. (2002), Financial Crises, Contagion
and the lender of last resort, Oxford University Press, Oxford NY.
GRAZIANI, A. (a cura di) (1998), Lo sviluppo dell’economia italiana:
dalla ricostruzione alla moneta europea, Bollati Boringhieri, Torino.
GREENSPAN, A. (1998), The role of capital in optimal banking
supervision and regulation, Testimony of Chairman before the Conference
on Capital Regulation, Federal Reserve, Chicago, February, disponibile sul
sito www.federalreserve.org
158
GREENSPAN, A. (2003), Deposit insurance, Testimony of Chairman
before the Committee on Banking, Housing, and Urban Affairs, U.S. Senate,
February, disponibile sul sito www.federalreserve.org.
GREENWALD, B. – STIGLITZ, J. (1993), “Financial market
imperfections and business cycles”, Quarterly journal of economics, pp. 77114.
GROS-PIETRO, G.M. – REVIGLIO, E. – TORRISI ,A. (2001), Assetti
proprietari e mercati finanziari europei, Il Mulino, Bologna.
HARRISON, P. – SUSSMAN, O. – ZEIRA, J. (1999), “Finance and
growth: theory and new evidence”, Finance and economics discussion series,
35, Board of Governors of the Federal Reserve System, Washington.
HAUSWALD, R. – MARQUEZ, R. (2000), “Relationship banking, loan
specialization and competition”, Proceedings, Federal Reserve Bank of
Chicago, 5, pp. 108-31.
HELLWIG, M. (1989), “”Asymmetric information, financial markets, and
financial institutions, European Economic Review, 33 (2-3), pp. 277-85.
HICKS, J.R. (1935), “A suggestion for simplifying the theory of money”,
Economica, 2, pp. 1-19.
HOLMSTROM, B. – TIROLE, J. (1997), “Financial intermediation,
loanable funds and the real sector”, Quarterly journal of economics, 112 (3),
pp. 663-91.
JACKLIN, C.J. – BHATTACHARYA, S. (1988), “Distinguishing panic
and information-based bank runs: welfare and policy implication”, Journal of
political economy, 96, pp.568-592.
JAFFEE, D. – MODIGLIANI, F. (1969), “A theory and test of credit
rationing”, American economic review, 59 (5), pp. 850-72.
JENSEN, M.C. – MECKLING, W.H. (1976), “Theory of the Firm:
Managerial Behaviour, Agency Costs, and Ownership Structure”, Journal of
Financial Economics, 3, pp.305-60.
KEELEY, M. (1990), “Deposit insurance, risk and market power in
banking”, American Economic Review, 80, pp. 1183-1200.
KEELEY, M.C. – FURLONG, M.T. (1990), “A re-examination of meanvariance analysis of bank capital regulation”, Journal of Banking and
Finance, 14, pp. 69-84.
KIM, D. – SANTOMERO, A.M. (1988), “Risk in banking and capital
regulation”, Journal of Finance, 43 (5), pp. 1219-33.
KREPS, D.M. (1990), A Course in Microeconomic Theory, Princeton
University Press, Princeton.
LAVIOLA, S. (1998), “Struttura delle relazioni di credito e rischiosità
delle imprese”, Banca impresa società, XVII, 2, pp. 275-91.
LELAND, H.E. – PYLE, D.H. (1977), “Information asymmetries,
financial structure and financial intermediaries”, Journal of finance, 32 (2),
pp. 371-87.
159
LIMENTANI, R. (2003), “L’evoluzione del rapporto banca-impresa: dalla
Hausbank al Financial Services Advisor”, Banca impresa società, 1, pp. 2338.
LO, A.(a cura di) (1996), The industrial organization and regulation of
the securities industry, The University of Chicago Press, Chicago.
LOPES, A. – NETTI, N. (2002), “Intermediari finanziari meridionali.
Efficienza e contesto ambientale negli anni Novanta”, Rivista italiana degli
economisti, VII, 3, dicembre, pp. 331-62.
LOWE, P. (2002), Credit risk measurement and procyclicality, Bis
Working Paper, 116, Basilea.
MAROTTA, G. (2003a), L’instabilità bancaria: recenti sviluppi teorici
ed empirici, Università degli Studi di Modena.
MAROTTA, G. (2003b), L’assetto istituzionale della regolamentazione
finanziaria prudenziale, Università degli Studi di Modena.
MAROTTA, G. – PITTALUGA, G.B. (a cura di) (1993a), La
regolamentazione degli intermediari bancari, Bologna, Il Mulino.
MAROTTA, G. – PITTALUGA, G.B. (a cura di) (1993b), La teoria degli
intermediari bancari, Bologna, Il Mulino.
MASERA, R. (2001), Il rischio e le banche, Il Sole 24 Ore Libri, Milano.
MATTESINI, F. (1990), “Screening in the credit market: the role of
collateral”, European journal of political economy, 6, pp. 1-22.
MATUTES, C. – VIVES, X. (1996), “Competition for deposits, fragility
and insurance”, Journal of Financial Intermediation, 5, pp. 184-216.
MESSORI, M. (1998a), “Banche, riassetti proprietari e privatizzazioni”,
Stato e mercato, LII, 1, pp. 94-126.
MESSORI, M. – TAMBORINI, R. – ZAZZARO, A. (a cura di) (2003), Il
sistema bancario italiano. Le occasioni degli anni Novanta e le sfide
dell’euro, Carocci, Roma.
MILGROM, P. – ROBERTS, J. (1992), Economics, Organization and
Management, London, Prentice Hall, (trad. it. Economia, organizzazione e
management, il Mulino, Bologna, 1994).
MILLER, M. – MODIGLIANI, F. (1961), “Dividend policy, growth and
the valuation of shares”, Journal of business, 34, pp. 411-33.
MODIGLIANI, F. – MILLER, M. (1958), “The Cost of Capital,
Corporate Finance and the Theory of Investment”, American Economic
Review, 48, pp. 261-97.
MODIGLIANI, F. – MILLER, M. (1963), “Corporate income taxes and
the cost of capital: a correction”, American economic review, 53,
pp.433-43.
MONARCA, U. (2003), Financial crises, competition and bank stability,
in GOBBO F. (2003).
MORELLI, G. (1999), Gli istituti di credito speciale nell’evoluzione della
struttura finanziaria italiana (1963-1992), 1, Franco Angeli, Milano.
160
MORELLI, G. (2003), “Banche locali, piccole imprese e gestione del
rischio. Sta cambiando qualcosa?”, Credito popolare, 10, pp. 597-636.
MORELLI, G. (2004), Credito, sistemi di garanzia e microimprese,
Carocci, Roma.
MORELLI, G. – MONARCA, U. (2003), “Le imprese minori e le nuove
regole del credito: il ruolo dei consorzi di garanzia fidi e di Basilea 2”,
Economia Società ed Istituzioni, 3, pp. 573-619.
MYERS, S. – MAJLUF, N. (1984), “Corporate investment and financing
decisions when firms have information that investors do not have”, Journal
of financial economics, 13 (2), pp. 187-222.
NAKAMURA, L.I. (1994), “Small borrowers and the survival of the
small banks: is mouse bank mighty or mickey?”, Business review, Federal
Reserve Bank of Philadelphia, pp. 3-15.
ONADO, M. (1994), “Banca universale e banca mista: due modelli
diversi”, Economia e politica industriale, XXI, 83, pp. 23-8.
ONADO, M. (2000a), “La gestione del rischio di credito e
l’ottimizzazione del capitale impiegato”, Bancaria, LVI, 2, pp. 12-5.
ONADO, M. (2000b), Mercati e intermediari finanziari. Economia e
regolamentazione, Il Mulino, Bologna.
ONADO, M. (2003), “I risparmiatori e la Cirio: ovvero pelati alla meta.
Storie di ordinaria spoliazione di azionisti e obbligazionisti”, Mercato
concorrenza regole, 3, pp. 499-536.
ONADO, M. (a cura di) (2004), La banca come impresa, Il Mulino,
Bologna.
PARDOLESI, R. - A.M.P. - PORTOLANO, A. (2004), “Latte, lacrime
(da coccodrillo) e sangue (dei risparmiatori). Note minime sul caso
Parmalat”, Mercato concorrenza regole, 1, pp. 193-215.
PARIGI, B.M. (2000), La concorrenza nel settore bancario: una rassegna
della letteratura, in POLO M. (2000).
PETERSEN, M.A. – RAJAN, R.G. (1994), “The benefits of lending
relationship: evidence from small business data”, Journal of finance, 49 (1),
pp. 3-37.
PHLIPS, L. (1988), The economics of imperfect information, Cambridge
University Press, Cambridge.
PHILLIPS, C.A. (1921), Bank credit: a study of the principles and factors
underlying advances made banks to borrowers, MacMillan, New York.
PIGOU, A.C. (1949), Employment and equilibrium, MacMillan, Londra.
PIORE, M. J. – SABEL, C. (1984), The Second Industrial Divide, Basic
Books, New York (trad. it. Le due vie dello sviluppo economico, Laterza,
Roma-Bari, 1987).
POLO, M. (a cura di) (2000), Industria bancaria e concorrenza, il Mulino
Bologna
161
POSTLEWAITE, A. – VIVES, X. (1987), “Bank Runs as Equilibrium
Phenomenon”, Journal of Political Economy, 95, pp. 485-491
RAJAN, R.G. – ZINGALES, L. (1994), What do we know about capital
structure? Some evidence from international data, NBER, Working Paper
Series 4875, Cambridge.
RAJAN, R.G. – ZINGALES, L. (1998), “Financial dependence and
growth”, American economic review, 88 (3), pp.559-86.
RAJAN, R.G. – ZINGALES, L. (2003), Saving capitalism from the
capitalists. Unleashing the power of financial markets to create and spread
opportunity, Random House Business Book, London.
ROSS, S. (1973), “The Economic Theory of Agency: The Principal's
Problem”, American Economic Review, 63 ( 2), pp.134-9.
ROSS, S. (2002), “Forensic finance: Enron ed altri”, Rivista di politica
economica, 6, pp. 9-27.
SALOP, S. (1979), “Monopolistic competition with outside goods”, Bell
journal of economics, 10 (1), pp. 141-56.
SALTARI, E. (a cura di) (1990), Informazione e teoria economica, Il
Mulino, Bologna.
SCHOENMAKER, D. (1996), The lender of last resort and contagion
risk in banking, LSE, Financial Market Group, Londra.
SCHULER, M. (2003), How do banking supervisors deal with Europewide systemic risk?, ZEW Discussion Paper, 3.
SIMON, H.A. (1978), “Rationality as process and as product of thought”,
American economic review, 68 (2), pp.1-16.
STIGLER, G.J. (1961), “The economics of information”, Journal of
political economy, 69 (2), pp. 213-55.
STIGLITZ, J.E. – WEISS, A. (1986), Credit Rationing and Collateral,
Edwards, Franks, Mayer, Schaefer (1986), pp. 101-36.
STIGLITZ, J.E. – WIESS, A. (1981), “Credit rationing in market with
imperfect information”, American economic review, 71 (3), pp. 393-410.
SUSSMAN, O. – ZEIRA, J. (1998), Banking and development, CEPR
Discussion Papers, 1127, London.
TABAKIS, E. – VINCI, A. (2002), Analysing and combining multiple
credit assessments of financial institutions, ECB Working Paper, 123,
Brussels.
TANAKA, M. (2002), How do bank capital and capital adequacy
regulation affect the monetary transmission system?, CES IFO Working
Paper, 799.
TERLIZZESE, D. (1988), Delegated screening and reputation in a theory
of financial intermediaries, Temi di discussione, 111, Banca d'Italia, Roma.
TIROLE, J. (2001), “Corporate Governance”, Econometrica, 69 (1),
pp. 1-35.
162
TOWNSEND, R. (1979), “Optimal contracts and competitive markets
with costly state verification”, Journal of economic theory, 21 (2), pp. 26593.
WEINBERG, J.A. (1994), “Firm Size, Finance, and Investment”, in
Federal reserve bank of Richmond economic quarterly, 80 (1), pp. 19-40.
WHITE, L. (1996), International regulation on securities markets:
competition of harmonization?, in LO A. (a cura di) (1996).
ZANETTI, G. (2001), “La competitività del sistema produttivo italiano
nella prospettiva europea”, Economia Italiana, 2, pp. 299-335.
163
RICERCA PUBBLICA E SISTEMI INNOVATIVI LOCALI: IL
RUOLO DELLA PROSSIMITÀ GEOGRAFICA
Giovanni Abramo* e Andrea D’Angelo**
JEL Classification: O33
Parole chiave: Innovazione, ricerca, economia regionale
1. Introduzione
L’Europa soffre di un evidente ritardo, rispetto agli Stati Uniti, in termini
di capacità innovativa e competitività tecnologica. Un notevole sforzo, per
colmare questo gap, è stato realizzato negli anni scorsi attraverso i
“Programmi Quadro della Ricerca”, i “Fondi Strutturali”, i “Piani
Tecnologici Regionali”, ecc. in cui si dava e si continua a dare ampio risalto
alla dimensione regionale degli interventi. Nel “Libro Verde
sull’Innovazione” della Commissione Europea (CEC 1995) tra le 13 “routes
of actions” considerate necessarie per rimuovere gli ostacoli al processo
innovativo in Europa, si cita “… rafforzare la dimensione regionale
dell’innovazione …”. Nell’ambito del “Sesto Programma Quadro (20022006)”, l’intervento specifico per la ricerca e lo sviluppo tecnologico
individua una serie di azioni finalizzate al miglioramento delle conoscenze,
della comprensione e delle capacità delle parti interessate e, cita testualmente,
“… per rafforzarne l’effetto strutturante in Europa, dette azioni saranno
attuate a livello regionale”. Appare dunque evidente come a livello
comunitario la direzione intrapresa per accelerare la competitività delle
economie degli stati membri sia quella dello sviluppo dei sistemi innovativi
locali.
A livello nazionale, la riforma del Titolo V della Costituzione sancisce
che ricerca scientifica e tecnologica e sostegno all'innovazione sono materie
di legislazione concorrente e, pertanto, in tali materie spetta alle Regioni la
potestà legislativa esclusiva, salvo che per la determinazione dei principi
fondamentali, riservata alla legislazione dello Stato. Tale modifica è il
risultato di un processo di devoluzione che implica un maggior livello di
autonomia per le Regioni e un potere davvero rilevante in termini di
definizione delle politiche per l’innovazione e lo sviluppo. Si tratta di un
*
Consiglio Nazionale delle Ricerche e Laboratorio di Studi sul Trasferimento Tecnologico e
l’Imprenditorialità
dell’Università
degli
Studi
di
Roma
“Tor
Vergata”,
[email protected]
**
Laboratorio di Studi sul Trasferimento Tecnologico e l’Imprenditorialità dell’Università
degli Studi di Roma “Tor Vergata”, [email protected]
165
processo di cambiamento radicale, con effetti visibili solo su tempi molto
lunghi, ma comunque irreversibilmente avviato, con molti rischi, ma anche
opportunità, tra cui la possibilità di avviare lo sviluppo di sistemi innovativi
locali che fungano da volano per le economie regionali e, di conseguenza, per
l’intera economia nazionale. In tali sistemi le Università e gli Enti pubblici di
ricerca costituiscono le fonti primarie di nuova conoscenza che, attraverso le
strutture di intermediazione e trasferimento tecnologico, dovrebbe fluire
verso il sistema produttivo per essere incorporata in processi e prodotti
innovativi da immettere nei mercati.
Il presente lavoro intende analizzare se tale flusso è spazialmente limitato,
ossia se la nuova conoscenza sviluppata nelle istituzioni pubbliche di ricerca
tende di preferenza ad essere trasferita al sistema produttivo locale. In
particolare l’analisi si focalizza su una specifica forma di codificazione della
nuova conoscenza, brevetti e simili, e di trasferimento della stessa, licensing,
dai laboratori pubblici di ricerca alle imprese. Se, infatti, per gli spin off e i
flussi di conoscenza “tacita” la letteratura ha ampiamente dimostrato
l’importanza dell’effetto “prossimità”, per i brevetti l’argomento non è stato
oggetto di ricerche approfondite. A questo scopo, si farà esplicito riferimento
all’attività degli Istituti del Consiglio Nazionale delle Ricerche (Cnr),
esaminando i flussi di tecnologia realizzati attraverso il licensing dei diritti di
proprietà intellettuale dell’ente. Il Cnr rappresenta infatti il maggior ente di
ricerca del paese sia in termini di input (circa 12% della spesa totale e il 6%
dei ricercatori) che di output, facendo registrare da sempre la maggiore
produzione e produttività brevettuale, detenendo quasi il 60% dei brevetti
europei e americani registrati dall’intero sistema di ricerca pubblico nazionale
(Piccaluga e Patrono, 2001).
Pertanto, il paragrafo 2 è dedicato all’analisi della letteratura riguardante
le dinamiche spaziali delle esternalità generate dalle attività di ricerca in
ambito pubblico. In particolare l’attenzione viene posta sul ruolo della ricerca
pubblica nel processo di produzione di nuova conoscenza e sulle relative
ricadute. Nel paragrafo 3 viene invece esaminata nel dettaglio l’infrastruttura
tecnologica di ciascuna regione italiana con riferimento agli indicatori più
significativi che la letteratura suggerisce a tale scopo. Nel paragrafo 4 viene
analizzata la produzione tecnologica (brevetti) del Consiglio Nazionale delle
Ricerche e l’attività di trasferimento (licensing), per valutare la rilevanza
della prossimità geografica nei flussi di conoscenza così codificata e, di
conseguenza, l’impatto delle attività degli Istituti Cnr sui sistemi innovativi
locali. Il paragrafo conclusivo sintetizza i tratti salienti del caso analizzato e,
attraverso le dovute generalizzazioni, fornisce alcune direttrici di politica
della ricerca.
166
2. Ricerca pubblica, esternalità e sistemi innovativi locali
La letteratura riguardante il ruolo della conoscenza e dell’innovazione nel
processo di sviluppo e consolidamento della competitività di una nazione,
trova un riferimento fondamentale nel lavoro di Porter (1990) in cui si
sottolinea la centralità dei cosiddetti “business clusters”, caratterizzati da forti
legami istituzionali tra le imprese e l’infrastruttura innovativa di supporto.
Tali legami non sono necessariamente locali, ma quasi tutti gli esempi citati
da Porter si riferiscono a cluster geograficamente concentrati. Nell’analisi si
evidenzia come la chiave di successo sia la “cooperazione” tra gli elementi
che compongono il cluster (“closely knit social-cultural links”, “willingness
to cooperate”, “research networks”, ecc.). Dei diciassette fattori di vantaggio
competitivo individuati da Porter, oltre la metà riguardano pratiche di
cooperazione finalizzate al raggiungimento di massa critica, economie di
scala e di scopo. D’altra parte sono molti i contributi nell’area della
cosiddetta “nuova geografia economica” in cui si sottolinea l’importanza
della prossimità fisica, quale elemento irrinunciabile per l’attivazione di
legami cooperativi efficaci e duraturi. In particolare, tali contributi hanno
esplorato gli aspetti geografici degli spillover di conoscenza (esternalità), le
dinamiche di fertilizzazione tra R&S pubblica e privata e la localizzazione
delle imprese innovative, sottolineando il ruolo fondamentale giocato dalla
“prossimità” nei processi di creazione, trasferimento e appropriazione di
nuova conoscenza (Jaffe 1989, Jaffe et al. 1993, Feldman 1994, Audretsch e
Feldman 1996). L’ipotesi comunemente accettata è che “la conoscenza
fluisce lungo i corridoi e le strade più facilmente che attraverso i continenti e
gli oceani” (Feldman 1994). La conoscenza non viene più considerata come
un bene completamente pubblico e liberamente diffuso come in Arrow
(1962)1. A questo proposito sono esemplari i casi relativi a innovation cluster
eccellenti quali Silicon Valley e Route 128 negli Stati Uniti (Rogers e Larsen
1984, Saxenian 1985) e Cambridge in Gran Bretagna (Wicksteed 1985).
Mansfield e Lee (1996) dimostrano che, ceteris paribus, la probabilità che
un’impresa americana finanzi le attività di ricerca di una particolare
Università è inversamente proporzionale alla distanza fisica. Infatti da essa
dipendono la complessità e il costo di interazione tra personale dell’azienda e
ricercatori dell’Università (anche se i progressi delle tecnologie
dell’informazione e delle telecomunicazioni possono fornire validi ausili). A
parità di qualità delle accademie interessate, l’entità dei finanziamenti privati
verso Università entro le 100 miglia è più che doppia rispetto a quella dei
1
Occorre infatti distinguere tra conoscenza codificata e conoscenza tacita: la prima può essere
facilmente scambiata in modo efficace ed efficiente anche tra soggetti molto distanti
geograficamente, grazie alle tecnologie di comunicazione disponibili. Al contrario, la
conoscenza tacita, per definizione, è difficilmente codificabile e il suo trasferimento necessita
di un livello di “condivisione” possibile solo attraverso contatti personali e relazioni face-toface.
167
finanziamenti per le Università situate a 100-1000 miglia di distanza e più
che tripla rispetto a quella relativa ad atenei distanti più di 1000 miglia.
Inoltre, le imprese tendono a finanziare la ricerca applicata entro le 100
miglia anche se in questa area non si trovano Università d’elite, ma solo
atenei mediamente posizionati nella graduatoria della National Academy of
Sciences. È plausibile ritenere che considerazioni analoghe valgano anche per
le attività di trasferimento tecnologico dal momento che tali attività spesso
hanno origine da accordi contrattuali e sponsorizzazioni economiche
pregresse. Lo studio del caso italiano è ad oggi limitato a pochi contributi
(Audretsch e Vivarelli 1994, Breschi 1998, Paci e Usai 2000, Coccia 2000).
In particolare, nel suo lavoro del 1998, Breschi sostiene che, nel caso italiano,
le attività innovative non si distribuiscono in modo casuale, così come
ipotizzabile in assenza di esternalità localizzate, ma tendono a concentrarsi
geograficamente. Esiste, al tempo stesso, una significativa variabilità fra
settori industriali, con diversi settori che evidenziano solo livelli moderati di
concentrazione. Basandosi sull’osservazione e l’analisi dei contatti fra Istituti
del Consiglio Nazionale delle Ricerche ubicati in Piemonte e imprese fruitici
nel triennio 1996-1998, Coccia verifica due ipotesi sul comportamento
spaziale del trasferimento tecnologico:
a) la presenza dell’effetto di prossimità;
b) la riduzione di tale effetto fra Istituti di ricerca e fruitori ubicati in
alcune aree produttive distanti spazialmente ma con un’economia
dinamica.
Dunque anche i contributi italiani sembrerebbero confermare che i
processi innovativi tendono a concentrarsi geograficamente e che la
prossimità fisica appare come una condizione necessaria soprattutto per le
attività “tacit knowledge intensive”, come quelle caratterizzanti i processi di
ricerca e innovazione2. In particolare, se per l’innovazione di prodotto e di
processo esistono meccanismi di codifica strutturati, l’innovazione cosiddetta
“istituzionale” (o organizzativa) ha un carattere prettamente tacito. Gli studi
econometrici condotti sia negli Stati Uniti (Jaffe et al. 1993) sia in Europa
(Verspagen e Schoenmakers 2000), sembrano indicare che il flusso di
conoscenza misurato attraverso le citazioni di brevetti è spazialmente limitato
e decade all’aumentare della distanza tra gli inventori. Gli stessi studi
dimostrano che le imprese, alle prese con processi di scelta localizzativa,
2
D’altra parte, in letteratura sono rinvenibili alcuni contributi che “ridimensionano” tale tesi.
In molte circostanze, ad esempio, le ICT possono ridurre il contenuto tacito insito nella
conoscenza, attraverso meccanismi di “traduzione” complessi ma efficaci (expert systems, case
based reasoning, ecc.). Inoltre, è stato sostenuto che la prossimità fisica è determinante solo se
associata a quella “organizzativa” (Rallet e Torre 1999), derivante da una comunanza di
interessi e obiettivi tra i soggetti coinvolti.
168
considerano molto rilevante la presenza sul territorio di riferimento di “fonti
di conoscenza esterne” (external knowledge inputs) come le Università e gli
Enti pubblici di ricerca (Audretsch e Stefan 1996, Zucker et al. 1998). La
quantificazione degli effetti della ricerca pubblica (e quella accademica in
particolare) sulla produzione di conoscenza e innovazione a livello locale, è
stata di recente argomento di studi piuttosto approfonditi (Jaffe et al. 1993,
Mansfield 1998, Anselin et al. 2000, Varga 2000, Autant-Bernard 2001, Acs
et al. 2002, Tracey et al. 2003). Il modello concettuale più ricorrente per
l’analisi degli spillover geografici della ricerca pubblica sulla capacità
innovativa regionale è senza dubbio la funzione di produzione di nuova
conoscenza (knowledge production function) di Griliches (1979) e Jaffe
(1989). Tale funzione mette in relazione il tasso inventivo (spesso misurato
attraverso il numero di brevetti) con il livello di spesa in ricerca pubblica in
un contesto locale (aree metropolitane, distretti, regioni, ecc.). Acs et al.
(2000) evidenziano come l’effetto della ricerca pubblica sulla produzione
locale di innovazione vari in funzione del settore industriale considerato
(basso nel “farmaceutico” e nella “meccanica”, elevato nella “elettronica” e
nella “strumentazione”). Nel suo lavoro del 2000, Varga dimostra che il
trasferimento di conoscenza dalle Università alle imprese private è legato alla
presenza di altri fattori abilitanti tra cui, il più importante, è il numero di
addetti nelle imprese dei settori high-tech3. In altre parole, la relazione tra
spillover di ricerca e sviluppo locale è mediata dalla presenza di alcuni fattori
e può non manifestarsi al di sotto di una certa “soglia critica di
agglomerazione”. Allo stesso risultato perviene Breschi (1998), che dimostra
che la mera presenza di un’Università locale, che svolge attività di ricerca,
non sia una condizione sufficiente a permettere efficaci ricadute di
conoscenza sull’attività innovativa delle imprese del territorio. L’effetto
“prossimità” è invece ben visibile là dove sono presenti e ben sviluppati tutti
gli ingredienti di un “sistema innovativo regionale”. In accordo con Cooke et
al. (1997) esso può essere definito come un sistema “nel quale imprese ed
altre organizzazioni sono sistematicamente impegnate in un processo di
apprendimento interattivo all’interno di un ambiente caratterizzato da
integrazione”. Si tratta dunque di un sistema “sociale” che implica interazioni
sistematiche tra diverse categorie di soggetti (pubblici e privati) al fine di
aumentare e potenziare le capacità di apprendimento dell’intero sistema.
L’evidenza empirica mostra che al variare del livello di sistematicità delle
relazioni tra i soggetti che lo compongono e, soprattutto, al variare
dell’orientamento delle organizzazioni preposte alla definizione e attuazione
delle politiche a supporto dell’innovazione, il sistema può prendere diverse
forme e avere, di conseguenza, diversi esiti (distretti industriali, tecnopoli,
3
Un altro elemento determinante riguarda la presenza sul territorio di imprese di servizi
specializzate in intermediazione (finanziaria, legale e commerciale).
169
innovative milieu, learning region). Tali forme, per quanto diverse,
presentano un comune denominatore: la prossimità fisica. Essa risulta
determinante per almeno tre motivi:
a) è alla base delle cosiddette “economie di agglomerazione”, che
operano riducendo i costi di accesso delle imprese agli input rilevanti
per i processi innovativi (Breschi 1998);
b) è alla base delle esternalità di conoscenza (spillover), ossia di flussi di
conoscenze, idee e risultati di ricerca che, prodotti da una certa
organizzazione, possono essere utilizzati da altri soggetti dello stesso
sistema;
c) è elemento di garanzia per quel che riguarda i valori e l’orientamento
socio-culturale dei soggetti di un sistema: la trasmissione del
contenuto tacito di nuova conoscenza necessita infatti di un ambiente
caratterizzato da fiducia e comunanza di “orientamento culturale” tra
i soggetti coinvolti (Rallet 2000), ovvero di condizioni in qualche
modo legate anche alla prossimità fisica.
Quello che non è chiaro è se l’effetto “prossimità” sia fondamentale
indipendentemente dalla forma di codificazione della conoscenza oggetto di
trasferimento e, in particolare, nei processi di trasferimento pubblico-privato
di conoscenza codificata e proprietaria. A questo argomento è dedicato il
presente lavoro.
3. L’infrastruttura tecnologica delle regioni italiane
In questo paragrafo saranno presentati i tratti salienti dell’infrastruttura
tecnologica regionale italiana attraverso gli indicatori di spesa per ricerca e
sviluppo, numero di addetti, produzione brevettuale e flussi internazionali di
tecnologia.
Il dato relativo al livello di spesa in attività di R&S vede l’Italia ben
distante rispetto agli altri paesi Ocse. Nel 2001 tale impegno è stato
dell’1,11% del Pil, meno della metà della media dei paesi del G7. L’Italia
non solo investe poco, ma presenta una spesa pubblica superiore a quella
privata, caratteristica condivisa solo con altri cinque paesi Ocse (Ocse 2003).
I dati Istat relativi al 2001 indicano che a livello regionale, sopra la media
nazionale troviamo il Lazio (che spicca al primo posto con un rapporto tra
spesa in R&S e Pil regionale pari quasi al 2%), seguito da Piemonte, FriuliVenezia Giulia, Lombardia e Liguria. Il primato del Lazio è sostanzialmente
sostenuto dalla spesa pubblica che costituisce circa il 75% della spesa
regionale totale. Per Piemonte e Lombardia il rapporto tra spesa pubblica e
privata è nettamente diverso: gli investimenti delle imprese incidono sulla
spesa complessiva per più dell’80% in Piemonte e per più del 70% in
170
Lombardia. Solo in altre 2 regioni (Emilia Romagna e Veneto) la spesa
privata supera quella pubblica (vedi Fig. 1).
Fig. 1 - Differenza tra spesa regionale in ricerca e sviluppo privata e
pubblica nel 2001.
1.500.000
1.000.000
500.000
Lazio
TOT
ALE
ia
Sicili
a
Camp
an
Pugli
a
Tosc
ana
na
Sarde
g
Ligur
ia
- Bas
ilicat
a
Umb
ria
Calab
ria
-1.500.000
n te -
-1.000.000
Piem
o
-500.000
Lomb
ardia
V. d'A
osta
Emil
ia Ro
magn
a
Vene
to
Trent
ino A
.A.
Abru
zzo Moli
se
Friul
i V. G
.
Marc
he
0
Elaborazione degli autori da fonte Istat (valori in migliaia di euro).
In tutte le regioni del Sud, la dipendenza dagli investimenti pubblici è
molto rilevante: in Sardegna il 92% della spesa di ricerca è pubblica, in
Puglia e in Sicilia il 78%, in Calabria-Basilicata il 74%. Lo scenario non
cambia, se si considera il numero di addetti in R&S. Se in Piemonte e in
Lombardia gli addetti pubblici costituiscono, rispettivamente, il 23% e il 35%
del totale, nel Lazio e in Campania sono più dei tre quarti. Nel Lazio, in
particolare, trova impiego il 45% del totale dei ricercatori degli Enti pubblici
di ricerca (esclusi gli universitari). Per un’analisi del livello tecnologico del
tessuto industriale delle regioni (misurato in termini di addetti nei settori
high-tech) si faccia riferimento alla Tab. 1. In essa vengono riportati i dati
relativi al cosiddetto Location Quotient (LQ), che misura la percentuale di
occupati in settori high tech (rispetto al totale di occupati) riferito alla media
nazionale. Ai primi posti si collocano Piemonte (1,670), Lombardia (1,449),
Emilia Romagna (1,183) e Veneto (1,095), ossia le quattro regioni in cui la
spesa privata in ricerca supera in valore assoluto quella pubblica. Il Lazio
(0,928), si posiziona solo all’ottavo posto e comunque al di sotto della media
nazionale (1,053).
171
Tab. 1 - Location Quotient (LQ) delle regioni italiane.
REGIONI
Piemonte
Lombardia
Emilia Romagna
Veneto
Friuli V. Giulia
Liguria
Basilicata
Lazio
Umbria
Marche
Abruzzo
Molise
Toscana
Campania
Puglia
Trentino A. Adige
Sicilia
Sardegna
Calabria
Valle D'Aosta
TOTALE
Occupati totali
1.759.235
3.848.192
1.739.731
1.920.072
478.349
589.996
182.498
1.900.848
322.995
583.175
449.093
108.888
1.407.555
1.565.819
1.209.896
412.023
1.348.263
515.147
534.250
54.110
20.930.135
Occupati settori
high tech
309.459
587.209
216.796
221.502
54.179
63.542
19.436
185.736
31.117
53.432
38.934
9.177
114.180
101.849
74.732
22.294
59.619
21.081
20.028
0
2.204.302
Occupati high tech
su totale occupati
0,176
0,153
0,125
0,115
0,113
0,108
0,106
0,098
0,096
0,092
0,087
0,084
0,081
0,065
0,062
0,054
0,044
0,041
0,037
0
0,1053
LQ
1,670
1,449
1,183
1,095
1,075
1,023
1,011
0,928
0,915
0,870
0,823
0,800
0,770
0,618
0,586
0,514
0,420
0,389
0,356
0
1
Elaborazione degli autori da fonte Eurostat.
In essa vengono riportati i dati relativi al cosiddetto Location Quotient
(LQ), che misura la percentuale di occupati in settori high tech (rispetto al
totale di occupati) riferito alla media nazionale. Ai primi posti si collocano
Piemonte (1,670), Lombardia (1,449), Emilia Romagna (1,183) e Veneto
(1,095), ossia le quattro regioni in cui la spesa privata in ricerca supera in
valore assoluto quella pubblica. Il Lazio (0,928), si posiziona solo all’ottavo
posto e comunque al di sotto della media nazionale (1,053). I primi quattro
posti della Tab. 1, sono confermati in Tab. 2. Essa fornisce i dati relativi ai
brevetti depositati presso lo European Patent Office (Epo) nel periodo 19972001 ed evidenzia il primato della Lombardia sia per i brevetti totali che per
quelli classificati “high tech”. Sempre rilevante la posizione del Piemonte,
mentre Lazio e Sicilia si mettono in bella evidenza solo nella graduatoria
dell’high tech4.
4
Il dato della Sicilia è molto legato alla presenza, nella regione, degli stabilimenti di una nota
impresa multinazionale che opera nel settore della microelettronica, da sempre caratterizzato
da pratiche diffuse di intellectual property strategy.
172
Tab. 2 - Brevetti Epo e Epo high-tech disaggregati per regione.
REGIONI
Lombardia
Emilia Romagna
Piemonte
Veneto
Lazio
Toscana
Friuli V. Giulia
Liguria
Marche
Abruzzo
Sicilia
Campania
Trentino A. Adige
Puglia
Umbria
Sardegna
Calabria
Basilicata
Valle D'Aosta
Molise
TOTALE
Brevetti Epo*
(1997-2001)
6.758,86
2.951,01
2.320,08
2.174,92
1.122,45
1.021,22
631,45
459,07
404,94
365,93
327,06
286,00
257,65
173,34
163,06
81,83
64,33
36,39
16,37
11,06
19.627,02
Brev. Epo per Brev. Epo HT
Brevetti Epo high
100M di euro in per 100 Mil. di
tech**
R&S
euro in R&S
(1997-2001)
(2000)
(2000)
806,80 (11,94%)
53,08
6,44
119,19 (4,04%)
68,97
2,65
172,41 (7,43%)
30,23
2,00
68,19 (3,14%)
90,93
3,33
134,89 (12,02%)
9,53
1,28
58,06 (5,69%)
31,68
2,10
27,21 (4,31%)
49,25
3,14
31,72 (6,91%)
27,75
1,78
11,81 (2,92%)
69,22
2,61
22,12 (6,04%)
32,98
3,58
125,30 (38,31%)
13,60
6,03
29,68 (10,38%)
9,62
0,98
14,85 (5,76%)
50,07
5,01
16,23 (9,36%)
12,95
2,07
7,71 (4,73%)
25,26
0,21
10,61 (12,97%)
10,11
1,16
1,74 (2,70%)
24,31
0,66
9,03 (24,81%)
4,63
2,53
2,36 (14,42%)
23,08
5,38
0 (0,00%)
9,69
1.669,91 (8,51%)
35,53
3,16
* In caso di più coautori di diverse regioni, il brevetto è stato ripartito equamente tra le
regioni stesse.
** La classificazione “high-tech” fa riferimento alle sottoclassi IPC (International Patent
Classification, del Patent Cooperation Treaty) considerate tali.
Elaborazione degli autori da fonte Eurostat.
Volendo quantificare la produttività tecnologica come rapporto tra il
numero di brevetti depositati e le risorse a disposizione in ogni regione (spesa
totale in R&S) notiamo che per il totale dei brevetti Epo depositati nel 2000,
il primato spetta al Veneto (90,93 brevetti depositati ogni 100 milioni di euro
di spesa in R&S) seguito da Marche (69,22) ed Emilia Romagna (68,97). Se
invece consideriamo i soli brevetti classificati come high tech il primato
spetta alla Valle D’Aosta (7,82 brevetti high tech depositati ogni 100 milioni
di euro di spesa in R&S) seguita dalla solita Lombardia (6,44).
Da notare che in entrambi i casi la posizione in graduatoria del Lazio è
molto bassa. Lo stesso dicasi per tutte le regioni del Sud, eccezion fatta per la
Sicilia che per i brevetti high tech si posiziona addirittura al terzo posto (6,03
brevetti high tech depositati ogni 100.000 euro di spesa in R&S). Emerge
173
dunque un forte squilibrio tra Nord e Sud. Come indicato in Tab. 3, quasi
l’80% dei brevetti depositati presso l’Epo hanno autori residenti nelle regioni
del Nord, contro il 15,7% del Centro e solo il 5,2% del Sud. Restringendo il
focus sui brevetti high tech la situazione non cambia, pur rilevando una
leggera riduzione del gap, in particolare tra Centro e Sud. Anche il dato sulla
produttività conferma il primato delle regioni del Nord.
Tab. 3 - Brevetti Epo e Epo high-tech disaggregati per area geografica.
Brev. Epo per Brev. Epo HT per
Epo
Epo high tech 100k euro di
100k euro
(1997/2001)
(1997/2001) spesa in R&S di spesa in R&S
(2000)
(2000)
3507,07
282,38 (71,8%)
51,22
4,12
Nord
(79,2%)
690,16
58,02 (14,8%)
18,92
1,59
Centro
(15,69%)
230,79 (5,2%) 52,82 (13,4%)
11,74
2,69
Sud
Elaborazione degli autori da fonte Eurostat.
La maggiore produzione e produttività brevettuale delle regioni del Nord è
attribuibile al maggior peso della componente privata sul livello totale di
spesa in ricerca. Infatti è evidente che le imprese hanno una maggiore
propensione a brevettare rispetto ai laboratori pubblici, poiché è lecito
immaginare che la ricerca ivi condotta abbia finalità più spiccatamente
applicative e che la brevettazione garantisca un certo livello di protezione alla
nuova conoscenza e contribuisca a difendere il conseguente vantaggio
competitivo tecnologico. A questo proposito la Tab. 4 mostra il livello di
correlazione tra composizione della spesa in R&S e produzione brevettuale.
Si nota che la correlazione è forte per ogni tipo di categoria di brevetto
considerato rispetto al livello di spesa privata, molto meno per quella
pubblica.
Brevetti
Tab. 4 - Indici di correlazione tra produzione brevettuale e livelli di
spesa regionali.
Spesa
Pubblica
Privata
Totale
ITA*
0,465
0,932
0,847
Epo
0,404
0,894
0,793
Epo HT
0,425
0,886
0,802
* La categoria “ITA” si riferisce ai brevetti complessivamente depositati presso l’ufficio
italiano brevetti.
Elaborazione degli autori da fonte Eurostat.
174
La Bilancia Tecnologica dei Pagamenti regionale fornisce altresì un
quadro interessante per quel che riguarda le transazioni relative a
brevetti/invenzioni e ai relativi diritti di sfruttamento (Tab. 5). A fronte di un
saldo nel complesso pesantemente negativo e pari, per il 2001, a oltre mezzo
miliardo di euro, le entrate sono superiori alle uscite solo in Piemonte,
Sardegna e, con cifre assai modeste, Molise. Spicca invece il dato della
Lombardia che da sola concorre al 76% del deficit nazionale. Anche Lazio ed
Emilia Romagna, pur avendo una spesa in R&S dello stesso ordine di
grandezza del Piemonte, fanno registrare un saldo negativo.
Tab. 5 - Saldi regionali della Bilancia Tecnologica dei Pagamenti (sono
state considerate le sole voci “cessione/acquisizione di brevetti,
invenzioni e know how, diritti di sfruttamento dei brevetti”).
REGIONI
Piemonte
Sardegna
Molise
Valle D'Aosta
Marche
Sicilia
Basilicata
Umbria
Calabria
Abruzzo
Saldo
4.414
1.012
56
-26
-135
-250
-541
-993
-1.047
-2.852
REGIONI
Saldo
Friuli Venezia Giulia
-3.119
Trentino Alto Adige
-3.165
Liguria
-6.376
Toscana
-10.406
Puglia
-11.628
Campania
-14.475
Veneto
-23.384
Emilia Romagna
-24.245
Lazio
-38.511
Lombardia
-431.146
TOTALE
-566.817
Fonte: Ufficio Italiano Cambi – Anno 2001 (in migliaia di euro).
Dunque, dall’analisi condotta risulta evidente l’entità della disomogeneità
nella distribuzione delle risorse, il che determina potenzialità differenziate in
termini di capacità innovativa per le diverse regioni. In particolare il Lazio e
le regioni del Sud possono vantare una infrastruttura tecnologica quasi del
tutto di natura pubblica. Piemonte e Lombardia, invece, hanno nelle imprese
il motore principale dell’attività innovativa. Non a caso, considerando il dato
sui brevetti depositati, emerge che Piemonte e Lombardia risultano le più
produttive mentre le regioni del Sud (e in qualche misura anche il Lazio) si
posizionano nelle retrovie. Inoltre, fatta eccezione per il Piemonte, le regioni
meglio classificate nella graduatoria dei brevetti Epo, si posizionano nelle
ultime 4 posizioni nella classifica del saldo della Bilancia Tecnologica, a
dimostrazione che l’attività inventiva nelle diverse regioni, per quanto
sviluppata, ancora non è in grado di soddisfare completamente la domanda di
tecnologia espressa dalle imprese presenti sul territorio di riferimento.
175
4. I flussi regionali di tecnologia: il caso del Cnr
Per valutare la dimensione spaziale del trasferimento di nuova conoscenza
dalle istituzioni pubbliche di ricerca al sistema produttivo locale si è
proceduto ad analizzare in dettaglio l’attività brevettuale e di licensing del
Consiglio Nazionale delle Ricerche che, come detto, negli ultimi 20 anni ha
prodotto quasi il 60% dei brevetti europei ed americani scaturiti da ricerca
pubblica nazionale (Piccaluga e Patrono 2001). Il considerare come base di
calcolo per gli indicatori di produzione tecnologica e di trasferimento i
brevetti e le relative licenze di sfruttamento è prassi piuttosto diffusa in
letteratura (Griliches 1990, Acs et al. 2002). Pertanto, con riferimento al
periodo 1996-2001, si è proceduto a misurare la produzione di ricerca
“tecnologica” del Cnr, in termini di brevetti depositati e la sua capacità di
trasferirla, in termini di contratti di licenza stipulati. I dati sono stati elaborati
su base regionale (vedi Tab. 6).
Tab. 6 - Disaggregazione a livello regionale delle risorse e output Cnr.
Totale
Totale
Brevetti
Brevetti trasferiti
Ricercatori
Addetti**
depositati***
(1996-2001)
(2001)
(2001)
(1996-2001)
Abruzzo
1,12
9
17
0
0
Basilicata
3,59
53
67
0
0
Calabria
7,73
94
138
2
0
Campania
48,90
548
887
20
1
Emilia Romagna
37,24
322
486
32,5
8
Friuli Venezia Giulia
0,92
8
14
0
0
Lazio
90,40
817
1.292
56,5
12
Liguria
14,16
123
187
9
3
Lombardia
45,34
415
610
24
6
Marche
3,57
18
37
0
0
Piemonte
22,92
242
349
10
2
Puglia
19,83
242
349
9
0
Sardegna
7,39
89
133
3
0
Sicilia
23,33
282
389
26
3
Toscana
98,72
530
842
47
11
Trentino Alto Adige
1,85
13
29
1
0
Umbria
4,40
34
61
2
2
Veneto
20,46
215
323
10
2
TOTALE 451,87
4.054
6.210
252
50
* La spesa indicata rappresenta la media (in milioni di euro valori costanti 2001) nel periodo 1996/2001
delle spese per attività di ricerca intra-murarie e non comprende la quota parte di costi generali sostenuti
dalle strutture centrali dell’ente.
** Il dato comprende sia il personale inquadrato come “ricercatore” sia i “tecnici”.
*** I brevetti di autori localizzati in regioni diverse sono equamente ripartiti tra le stesse.
Elaborazione degli autori da fonte Cnr
REGIONI
Spesa*
L’ente opera infatti sull’intero territorio nazionale con 108 Istituti
dislocati in tutte le regioni, fatta eccezione per Molise e Valle d’Aosta. Nel
periodo 1996-2001 la spesa media annuale del Cnr, a valori costanti 2001, è
stata di 747,51 milioni di euro. Di questa il 60% (pari a 451,87 milioni di
176
euro) si riferisce alle attività di ricerca intra-murarie dei singoli Istituti. Nello
stesso periodo il Cnr ha depositato complessivamente 252 brevetti, di cui 54
scaturiti da attività di ricerca svolte nell’ambito di Progetti Finalizzati o
Strategici5. Come si evince dalla Tab. 6, il Lazio è la regione italiana con il
maggior numero di brevetti depositati (56,5), seguita da Toscana (47) ed
Emilia Romagna (32,5). Non fanno registrare alcun brevetto gli Istituti di
quattro regioni (Abruzzo, Basilicata, Friuli Venezia Giulia e Marche). Il
numero totale di brevetti trasferiti, nei sei anni del periodo di indagine,
ammonta a 50 ed anche in questo caso primeggia il Lazio (12), seguito da
Toscana (11) ed Emilia Romagna (8). Gli indicatori di produttività misurati
(Tab. 7) sono, per l’attività di ricerca, il rapporto tra il numero di brevetti
conseguiti e le spese in ricerca sostenute; per l’attività di trasferimento, il
rapporto tra brevetti trasferiti e brevetti conseguiti. Il prodotto dei due fattori
(ovvero il rapporto tra brevetti trasferiti e spese sostenute), fornisce
un’indicazione del ritorno sull’investimento e dell’efficacia degli Istituti (e
dell’intero sistema Cnr) nel contribuire alla competitività industriale (Abramo
1998). In termini di produttività di ricerca, si classificano sopra la media,
nell’ordine, la Sicilia (18,57 brevetti ogni 100 milioni di euro di spesa),
l’Emilia Romagna (14,55), la Liguria e il Lazio (10,42). Se invece
consideriamo la produttività del lavoro (intesa come rapporto tra brevetti
depositati e numero di ricercatori) il primato passa all’Emilia Romagna (con
10,09 brevetti ogni 100 ricercatori) seguita dalla Sicilia (9,22) e dalla
Toscana (8,87). Tale variazione è verosimilmente legata alla diversa struttura
dei costi degli Istituti operanti in settori scientifici diversi. Infatti, a parità di
budget totale, un Istituto operante in un settore a più alta intensità di lavoro
avrà una posizione peggiore nella classifica della produttività del lavoro
rispetto a quella nella classifica della produttività di ricerca. In termini di
produttività di trasferimento si distinguono invece l’Umbria, che cede in
licenza tutti e due i brevetti depositati, la Liguria che trasferisce 3 dei 9
brevetti depositati e la Lombardia 6 su 24. Molto indietro si posizionano la
Campania (1 brevetto trasferito su 20 depositati) e la Sicilia (3 su 26), mentre
Puglia, Sardegna, Calabria e Trentino Alto Adige non trasferiscono alcuno
dei brevetti che realizzano. Il ritorno sull’investimento è maggiore negli
Istituti presenti in Umbria (7,58 brevetti trasferiti ogni 100 milioni di euro di
spesa in ricerca), Emilia Romagna (3,58%) e Liguria (3,53%). Superiore alla
media generale anche la performance di Lazio (2,21%), Lombardia (2,21) e
Sicilia (2,14). Il ritorno sull’investimento è invece nullo in 8 delle 18 regioni
in cui è presente l’ente.
.
5
I Progetti Finalizzati, di durata quinquennale, sono programmi di ricerca congiunta tra Enti
pubblici di ricerca, Università e industria su tematiche considerate strategiche. I Progetti
Strategici, di durata più limitata, sono condotti per lo più internamente.
177
Tab. 7 - Indici di produttività Cnr (1996-2001) a livello regionale.
REGIONI
Umbria
Emilia Romagna
Liguria
Lombardia
Lazio
Sicilia
Toscana
Veneto
Piemonte
Campania
Puglia
Calabria
Trentino A. A.
Sardegna
Abruzzo
Basilicata
Friuli V. Giulia
Marche
MEDIA
Brevetti
ogni 100
ricercatori
5,88
10,09
7,32
5,78
6,92
9,22
8,87
4,65
4,13
3,65
3,72
2,13
7,69
3,37
0,00
0,00
0,00
0,00
6,22
Ranking
7
1
5
8
6
2
3
9
10
12
11
14
4
13
15
15
15
15
Brevetti ogni
Ranking
100 addetti
3,28
6,69
4,81
3,93
4,37
6,68
5,58
3,10
2,87
2,25
2,58
1,45
3,45
2,26
0,00
0,00
0,00
0,00
4,06
8
1
4
6
5
2
3
9
10
13
11
14
7
12
15
15
15
15
Produttività di
Ranking
ricerca*
7,58%
14,55%
10,59%
8,82%
10,42%
18,57%
7,93%
8,15%
7,27%
6,82%
7,56%
4,31%
9,01%
6,77%
0,00%
0,00%
0,00%
0,00%
9,29%
6
2
3
10
4
1
10
5
8
10
7
9
10
10
10
10
10
10
Produttività di
trasferimento**
100,00%
24,62%
33,33%
25,00%
21,24%
11,54%
23,40%
20,00%
20,00%
5,00%
0,00%
0,00%
0,00%
0,00%
19,84%
Ranking
1
4
2
3
6
9
5
7
7
10
11
11
11
11
-
Ritorno sull’investimento***
7,58%
3,58%
3,53%
2,21%
2,21%
2,14%
1,86%
1,63%
1,45%
0,34%
0,00%
0,00%
0,00%
0,00%
0,00%
0,00%
0,00%
0,00%
1,84%
Ranking
1
2
3
4
4
6
7
8
9
10
11
11
11
11
11
11
11
11
* La produttività di ricerca tecnologica è data dal rapporto tra il numero di brevetti depositati ogni anno in media nel periodo di riferimento
(1996/2001) e la spesa media nello stesso periodo (espressa in centinaia di milioni di euro).
** La produttività del trasferimento é data dalla percentuale di brevetti depositati che vengono trasferiti.
*** Il ritorno sull'investimento è dato dal prodotto di produttività di ricerca e produttività di trasferimento e indica i brevetti trasferiti ogni 100
milioni di euro di spesa.
Elaborazione degli autori da fonte Cnr.
180
I dati di Tab. 8, riportano i risultati della correlazione, rispettivamente, tra
produzione brevettale, produttività e licensing regionali del Cnr e input di
risorse in termini di spese in ricerca. In particolare emerge una totale assenza
di correlazione tra produzione brevettuale e spesa privata in ricerca e
sviluppo. Tale risultato contrasta con la tesi nota in letteratura (Furman et al.
2002) secondo cui la spesa privata è un driver importante nei processi di
creazione di nuova conoscenza nei laboratori pubblici alle imprese. La
produzione brevettuale Cnr appare invece fortemente correlata alla spesa Cnr
(indice di correlazione 0,949), così come pure alla spesa di ricerca
universitaria (indice di correlazione 0,887). Il primo dato, piuttosto intuitivo,
indica un forte legame tra input e output. Il secondo, meno intuitivo, è
spiegabile in parte dalle opportunità di collaborazione che danno vita a
brevetti a titolarità congiunta e in parte dalla concentrazione di Istituti Cnr in
regioni dove è anche elevata la spesa universitaria. In nessun caso la
produttività di ricerca è correlata alla spesa in ricerca, il che sta ad indicare
l’inesistenza di rendimenti di scala crescenti. Inoltre, la correlazione tra spesa
privata e licenze acquisite sembra indicare quanto era lecito attendersi, ossia
che le regioni in cui la spesa privata in ricerca è più sostenuta esprimono una
maggiore domanda di brevetti.
Al fine di valutare l’incidenza della prossimità geografica sul
trasferimento dei 50 brevetti oggetto di licensing, si è proceduto ad analizzare
la corrispondenza tra le aree geografiche degli autori dei brevetti e le aree
geografiche dei rispettivi licenziatari.
Tab. 8 - Matrice di correlazione tra spesa regionale in ricerca e
produzione brevettale, produttività e licensing regionali del
Cnr (1996-2001).
Brevetti Cnr
Spesa* privata
Spesa* Cnr
Spesa* universitaria
0,365
0,949
0,887
Produttività
di ricerca Cnr
0,220
0,390
0,585
Licenze acquisite
**
0,742
0,745
0,774
* A valori costanti 2001
** Ci si riferisce alle licenze di brevetti Cnr acquisite dalle imprese di una regione
Elaborazione degli autori da fonti Cnr e Istat.
I dati riportati in Tab. 9 mostrano che i 50 brevetti trasferiti nel periodo
1996-2001 (di cui 8 derivanti da Progetti Finalizzati e 42 da attività ordinaria)
hanno dato vita a 78 licenze, per lo più verso imprese italiane, 57. Le restanti
21 licenze (pari al 27% del totale) sono concesse ad imprese estere6 (vedi
6
Le regioni che risultano più attive nelle licenze internazionali sono il Lazio e l’Umbria,
179
Tab. 10) e si riferiscono a 9 brevetti di cui 6 (il 12% dei 50 totali) non
vengono comunque concessi ad alcuna impresa sul territorio nazionale.
Inoltre, solo una licenza su tre è sottoscritta da imprese presenti nella stessa
regione dell’Istituto autore del brevetto. Ampliando ulteriormente
l’aggregazione territoriale (Nord, Centro e Sud) risulta che sono il 42% del
totale le licenze concesse a imprese ubicate nella stessa area geografica
dell’Istituto autore. Gli Istituti delle regioni del Nord trasferiscono
prevalentemente a imprese del Nord (17 licenze sulle 23 totali), quelli del
Centro per lo più all’estero (19 su 51) e quelli del Sud non trasferiscono nulla
del proprio portafoglio brevettuale alle imprese meridionali (Tab. 11). In
particolare, volendo analizzare il saldo tra acquisizioni e cessioni di brevetti,
si nota che la Lombardia è la regione che ha sottoscritto più licenze Cnr (12),
mentre gli Istituti ivi presenti ne hanno concesse solo 6, di cui tre a imprese
locali. Tale regione risulta dunque quella con una maggiore propensione ad
importare brevetti Cnr (Fig. 2). All’estremo opposto troviamo nell’ordine
Umbria, Lazio e Toscana con 51 licenze concesse e 18 acquisite
complessivamente.
Tab. 9 - Flussi tecnologici regionali relativi alle licenze di brevetti Cnr
nel periodo 1996-2001.
Progetti Finalizzati
Totale
Regione dell’Istituto autore
del brevetto trasferito
Piemonte 2
2
Lombardia
3
1
2 6
Veneto
2
2
Liguria
1
1
1 1
4
Emilia Romagna 3 1
4
1
9
Toscana
3 2 1 10
1
1
18
Umbria
1
2
2 12 17
Lazio 1 1
4
1
1
1 6 16
Campania
1
1
Sicilia
3
3
Totale 6 12 4 6 11 1 6 2 1 3 1 1 3 21 78
Elaborazione degli autori da fonte Cnr.
Brevetti
trasferiti
Da attività ordinaria
Piemonte
Lombardia
Veneto
Emilia Romagna
Toscana
Umbria
Lazio
Abruzzo
Campania
Puglia
Basilicata
Calabria
Sicilia
ESTERO
Totale
Regione del soggetto licenzatario
2
3
2
3
7
9
2
10
1
3
42
0
3
0
0
1
2
0
2
0
0
8
2
6
2
3
8
11
2
12
1
3
50
rispettivamente con 7 e 12 licenze. In particolare, nel periodo analizzato, l’Umbria ha
depositato solo due brevetti che hanno dato origine però a ben 17 licenze, di cui 12 all’estero,
2 in Puglia, 2 in Sicilia ed 1 in Umbria stessa.
180
Piemonte
Lombardia
Veneto
Liguria
Emilia Romagna
Toscana
Totale Licenze
Estero
Altre aree
geografiche
Ubicazione del licenziatario
Stessa area
geografica
Stessa regione
Tab. 10 - Origine e destinazione dei brevetti Cnr concessi in licenza nel
periodo 1996-2001.
0 (0%)
0 (0%)
1 (16,7%) 2 (33,3%)
0 (0%)
0 (0%)
2 (50%)
0 (0%)
1 (11,1%) 0 (0%)
7 (38,9%) 0 (0%)
12
Umbria
1 (5,9%)
0 (0%) 4 (23,5%) (70,6%)
Lazio
4 (25,0%)
0 (0%) 5 (31,3%) 7 (43,8%)
Campania
0 (0%)
0 (0%) 1 (100%) 0 (0%)
Sicilia
0 (0%)
0 (0%) 3 (100%) 0 (0%)
24
21
Totale
26 (33,3%) 7 (9,0%) (30,8%) (26,9%)
Elaborazione degli autori da fonte Cnr.
Regione dell’Istituto autore del
brevetto
2 (100%)
0 (0%)
3 (50%)
0 (0%)
2 (0%)
0 (0%)
0 (0%)
2 (50%)
4 (44,4%) 4 (44,4%)
10 (55,6%) 1 (5,6%)
2
6
2
4
9
18
17
16
1
3
78
Tab. 11 - Flussi di licenze dei brevetti Cnr per area geografica
(1996-2001).
Ubicazione
dell’Istituto
autore del
brevetto
Nord
Centr
o
Sud
Totale
Nord
17
Ubicazione del licenziatario
Centro
Sud
Estero
3
1
2
Totale
23
8
16
8
19
51
3
28
1
20
0
9
0
21
4
78
Elaborazione degli autori da fonte Cnr.
181
Fig. 2 - Analisi regionale import-export di licenze Cnr.
Export licenze
Import licenze
dia
te
Lo
mb
ar
mo
n
Pie
gli
a
Pu
r uz
zo
Ab
net
o
Ve
ria
ata
Ca
lab
ilia
Ba
sili
c
Sic
uri
a
ilia
Ro
ma
gn
a
Ca
mp
a ni
a
Em
Li g
zio
To
sca
na
La
Um
br i
a
20
18
16
14
12
10
8
6
4
2
0
Elaborazione degli autori da fonte Cnr. Dati riferiti al periodo 1996-2001.
In Errore. L'autoriferimento non è valido per un segnalibro.3 è
riportato il diagramma del numero di licenze concesse in funzione della
distanza geografica tra l’Istituto autore del brevetto e l’impresa licenziataria.
Fig. 3 - Diagramma delle distanze tra punto di origine dei brevetti Cnr e
sede dei licenziatari (1996-2001).
20
Lic
en 16
ze
co
nc 12
es
se 8
4
0
<10
11-100
101200
201300
301400
401500
501600
601700
701800
801900
Distanza Istituto autore-impresa licenziataria (Km)
Elaborazione degli autori da fonte Cnr.
182
9011000
Oltre
1000
Estero
L’andamento evidenziato si discosta da quello esponenziale decrescente
che ci si attenderebbe in presenza di effetto prossimità. Certamente, non
considerando le licenze concesse all’estero e limitando l’analisi ai soli
brevetti realizzati da Istituti delle regioni del Nord, l’andamento sarebbe più
prossimo ad un esponenziale decrescente. A questo proposito, l’indicatore
noto in letteratura come BASTT (Baricentro Spaziale del Trasferimento
Tecnologico), può essere un utile riferimento per quantificare il raggio di
azione degli Istituti del Cnr nelle attività di licensing7. Escludendo le licenze
concesse all’estero e utilizzando le tabelle dell’Istituto Geografico De
Agostini per il calcolo della distanza tra i soggetti licenziatari (aggregati per
provincia) e l’Istituto licenziante, l’indice BASTT italiano è stato quantificato
in 332 km circa. In particolare, il raggio d’azione degli Istituti del Nord è di
187 km, quello degli Istituti del Centro di 318 km e quello degli Istituti del
Sud di 1205 km. Considerando la distanza tra le ubicazioni dell’autore del
brevetto e del licenziatario, per le 57 licenze concesse a imprese nazionali, il
primo quartile (caratterizzato da un valore medio della distanza pari a 13 Km)
è composto per oltre il 70% da Istituti del Nord. Relativamente al
trasferimento di nuova conoscenza codificata in forma brevettuale e al caso
Cnr, le risultanze dell’analisi mostrano che non sussiste il cosiddetto effetto
“vicinato” o “prossimità”; piuttosto, il trasferimento tecnologico sembrerebbe
insensibile alla distanza, arrivando a interessare anche imprese molto lontane
dalla fonte della nuova conoscenza. Questa evidenza contrasta con le
conclusioni del lavoro di Coccia (2000). Con tutta probabilità tale divergenza
va ricondotta a due assunti della metodologia utilizzata dall’autore. Prima di
tutto viene considerato “trasferimento tecnologico” ogni tipo di interazione
che implichi l’emissione di una fattura attiva da parte degli Istituti Cnr;
secondo, l’analisi si limita alle attività dei soli Istituti piemontesi8. Il buon
senso porterebbe ad ipotizzare che l’effetto prossimità nel trasferimento è
tanto maggiore quanto più alta è la spesa privata in ricerca. Le risultanze
dell’indagine condotta confermano questa ipotesi: la correlazione tra la
classifica del BASTT regionale e quella relativa al livello di spesa privata è
pari a 0,795 (Tab. 12).
7
Tale indicatore è tipico dell’approccio spaziale neoclassico ed è esprimibile come la distanza
media tra l’Istituto autore del brevetto e l’impresa licenziataria.
8
Per il Piemonte, anche l’analisi proposta conferma la presenza dell’effetto prossimità, se si
considera che le uniche due licenze concesse dagli Istituti della regione finiscono a imprese
locali. Tale tesi, però, non può essere generalizzata a livello nazionale perché solo in Veneto si
ripete la stessa situazione e comunque con numeri davvero esigui (due licenze per altrettanti
brevetti).
183
Tab. 12 - BASTT regionali (per attività di licensing nel periodo 19962001 di brevetti Cnr) e spesa privata regionale in R&S (media
nel periodo 1998-2001 a valori costanti 2001).
BASTT*
(Km)
10
25
161
179
216
354
401
520
621
1433
Regione
Veneto
Piemonte
Lombardia
Emilia Romagna
Toscana
Lazio
Liguria
Campania
Umbria
Sicilia
Classifica
BASTT
1
2
3
4
5
6
7
8
9
10
Spesa privata Classifica
(x1.000 euro) Spesa Privata
271.717
5
1.386.367
2
2.089.477
1
541.995
4
240.049
6
709.041
3
168.466
8
233.249
7
22.658
10
118.983
9
* Tale valore si riferisce ai soli trasferimenti in ambito nazionale
Elaborazione degli autori da fonte Cnr e Istat.
Ciononostante, l’analisi delle singole realtà regionali (Fig. 4), mostra una
certa dispersione dei dati.
Piemonte
Veneto
Fig. 4 - Diagramma di correlazione tra trasferimenti intra-regionali di
brevetti Cnr e spesa privata in R&S.
50%
40%
30%
20%
10%
Lombardia
60%
Lazio
70%
Toscana
80%
Umbria
Sicilia
Liguria
Campania
Licenze concese
nella stessa regione (%)
90%
Emilia Romagna
100%
0%
Spesa privata in R&S
(media 98-01 x 1.000K euro, a valori costanti 2001)
Elaborazione degli autori da fonte Cnr.
184
In particolare, spicca la posizione della Lombardia che, pur avendo la
massima spesa privata in ricerca (e un tessuto industriale dinamico, con forte
concentrazione di attività high tech), si caratterizza per una produzione
tecnologica Cnr e un trasferimento intra-regionale piuttosto modesto. In
questo caso, visto l’elevato numero complessivo di licenze acquisite, è
presumibile un certo disallineamento tra domanda privata e offerta pubblica
regionale di tecnologia. Per Emilia Romagna, Toscana, Veneto e Piemonte
valgono considerazioni diverse. Tali regioni presentano un trasferimento
intra-regionale, in rapporto agli investimenti privati in ricerca, superiore a
tutte le altre regioni italiane, segno di una più radicata cultura di
collaborazione e integrazione pubblico-privato (non a caso, le stesse regioni
si caratterizzano per un’alta concentrazione di distretti industriali). Il Lazio si
colloca piuttosto vicino alla bisettrice, ma comunque al di sotto. La regione
presenta un livello elevato di spesa privata in ricerca (rispetto alle 10 regioni
considerate) e una forte concentrazione di enti, Istituti e laboratori pubblici di
ricerca che però sembrano avere più nelle imprese estere che in quelle locali
il loro interlocutore principale. Liguria, Sicilia e Campania formano un
ultimo cluster caratterizzato da bassi livelli assoluti di investimenti privati in
ricerca e operazioni di licensing mai a carattere intra-regionale,
probabilmente a causa dell’assenza di interlocutori locali interessati alle
invenzioni realizzate.
5. Conclusioni
L’indagine condotta ha consentito di rappresentare l’infrastruttura
tecnologica delle regioni italiane quantificando, da una parte, il potenziale
generativo di nuova conoscenza e innovazione e, dall’altra, la capacità di
sfruttare tale conoscenza da parte dei soggetti industriali presenti sul
territorio. I risultati rivelano un notevole differenziale tra le regioni in termini
di capacità innovativa. In particolare, le regioni del Centro-Sud mostrano
un’infrastruttura tecnologica quasi del tutto di natura pubblica, mentre quelle
del Nord (in particolare Piemonte e Lombardia), hanno nelle imprese il
motore principale dell’attività di ricerca e sviluppo. Allo stesso tempo il dato
relativo ai brevetti depositati indica che Piemonte e Lombardia risultano le
più “produttive” mentre le regioni del Sud (e in qualche misura anche il
Lazio) hanno performance più scadenti. Inoltre, fatta eccezione per il
Piemonte, le regioni che depositano più brevetti Epo, si posizionano nelle
ultime posizioni nella classifica del saldo della Bilancia Tecnologica dei
Pagamenti, a dimostrazione che l’attività inventiva in Italia, per quanto
sviluppata, ancora non è in grado di soddisfare la domanda interna di
tecnologia. D’altra parte, la letteratura indica l’importanza degli investimenti
privati in ricerca e della prossimità geografica nei processi di trasferimento di
nuova conoscenza dalle Università e dagli Enti pubblici di ricerca alle
185
imprese. Invece, l’analisi dei flussi di tecnologia derivanti dal licensing di
brevetti realizzati presso gli Istituti del Consiglio Nazionale delle Ricerche
indica che, per questa forma di codifica della conoscenza, solo in alcune
regioni del Nord il trasferimento avviene, di preferenza, su scala regionale.
Per il resto delle regioni sembrerebbe verificata l’insussistenza dell’ipotesi di
limitazione geografica degli spillover e del cosiddetto “effetto prossimità” per
i flussi di conoscenza codificata e protetta. Infatti, gli Istituti del Cnr ubicati
nelle regioni del Centro trasferiscono i propri brevetti per lo più a imprese
estere e quelli ubicati al Sud non trasferiscono nulla del proprio portafoglio
brevettuale alle imprese locali. L’indagine ha anche consentito di evidenziare
la totale assenza di correlazione tra produzione brevettuale dell’Ente e spesa
privata in ricerca e sviluppo, situazione anomala rispetto a quanto indicato in
letteratura. Gli investimenti privati, semmai, “attirano” tecnologia (in termini
di licenze di brevetto) e facilitano il trasferimento intra-regionale, ma non
incidono sulla produzione locale di nuova conoscenza. Sebbene i numeri su
cui si fondano tali evidenze siano piuttosto bassi, essi risultano tuttavia
rappresentativi di un’ampia fetta del sistema di ricerca pubblico italiano.
Tutto ciò evidenzia, pur con qualche eccezione, una sostanziale debolezza
dei nostri sistemi innovativi locali (pubblico-privato). Le probabili cause
possono essere ricondotte a tre situazioni che configurano altrettante direzioni
d’indagine per ulteriori futuri approfondimenti. Forse non sempre esistono
interlocutori industriali appropriati per i laboratori di ricerca pubblici ubicati
in determinate regioni. Se così fosse occorrerebbe rimettere in discussione, da
parte pubblica, la scelta di ubicazione degli Istituti in questione e, da parte
privata, le strategie tecnologiche di localizzazione. Magari, una più attenta
analisi, da parte dell’offerta, dei bisogni locali di innovazione e, da parte della
domanda, delle fonti di nuova conoscenza potrebbe meglio guidare il
processo di decision making politico ed aziendale. O forse gli interlocutori
industriali esistono ma sono più “deboli” rispetto a quelli di altre zone. In
altre parole le imprese del Nord (o quelle estere) sono in grado di esercitare
un maggior potere di “attrazione” sulle invenzioni e le scoperte realizzate al
Centro e al Sud. Infine, il ruolo della cultura di collaborazione ed
integrazione (vedi distretti industriali) e la presenza di fattori catalizzanti il
processo di trasferimento tecnologico locale quali politiche incentivanti,
organizzazioni d’intermediazione, ecc. potrebbero contribuire più o meno
significativamente a realizzare il connubio pubblico-privato nei sistemi
innovativi locali.
Dunque, se da una parte le politiche comunitarie e la “devoluzione”
nazionale spingono nella direzione di uno sviluppo regionale dei sistemi
innovativi, dall’altra sembra evidente che la sola presenza di laboratori
pubblici di ricerca non genera sistematicamente, su un determinato territorio,
innovazione, investimenti, sviluppo. Gli sforzi in termini di finanziamento e
sostegno allo sviluppo locale (soprattutto per le regioni svantaggiate)
186
andrebbero indirizzati secondo logiche sistemiche. Politica della ricerca e
politiche industriali non possono ignorarsi ma devono integrarsi e sostenersi a
vicenda con l’obiettivo di migliorare la competitività del tessuto produttivo e
generare sviluppo per il Paese.
187
BIBLIOGRAFIA
ABRAMO, G. (1998), “Il sistema ricerca in Italia: il nodo del
trasferimento tecnologico”, Economia e Politica Industriale, n. 99, pp. 67-98.
ACS, Z. J. – ANSELIN, L. - VARGA A. (2002), “Patents and innovation
counts as measures of regional production of new knowledge”, Research
Policy, Vol. 31, n. 7, pp. 1069-1085.
ANSELIN, L. – VARGA, A. – ACS, Z. (2000), “Geographical Spillovers
and University Research: A Spatial Econometric Perspective”, Growth and
Change, Vol. 31, n. 4, pp. 501-515.
ARROW, K. (1962), “Economic welfare and the allocation of resources to
invention”, in Nelson R. (ed.), The Rate and Direction of Inventive Activity,
NBER, Princeton UP.
AUDRETSCH, D. – FELDMAN, M.P. (1996), “R&D Spillovers and the
Geography of Innovation and Production”, American Economic Review, Vol.
86, pp. 630-640.
AUDRETSCH, D. – STEFAN, P. (1996), “Company-scientist locational
links: the case of biotechnology”, American Economic Review, Vol. 83, pp.
641-652.
AUDRETSCH, D. – VIVARELLI, M. (1994), “Small-firms and R&D
spillover: evidence from Italy”, Discussion paper 953, Center for Economic
Policy Research.
AUTANT-BERNARD, C. (2001), “Science and knowledge flows:
evidence from the French case”, Research Policy, Vol. 30, n. 7, pp. 10691078.
BRESCHI, S. (1998), “Economie di agglomerazione e concentrazione
geografica delle attività italiane: analisi del caso italiano”, LIUC Papers, n.
57, (Serie: Economia e impresa).
CEC, COMUNITÀ EUROPEA (1995), Libro Verde sull’Innovazione,
Office for Official Publications of the European Communities, Bruxelles, n.
688.
COCCIA, M. (2000), Trasferimento Tecnologico: Analisi Spaziale,
Working Paper CERIS-Cnr, Vol. 2, n. 1.
COOKE, P. – URANGA, M.G. – ETXEBARRIA, G. (1997), “Regional
innovation systems: Institutional and organisational dimensions”, Research
Policy, Vol. 26, n. 4-5, pp. 475-491.
EUROPEAN COMMISSION (1995), Green Paper, Lussemburgo.
EUROPEAN COMMISSION (2003), Ricerca e innovazione: programma
specifico per la ricerca, lo sviluppo tecnologico e la dimostrazione –
“Strutturare lo Spazio europeo della ricerca” nell'ambito del sesto programma
quadro (2002-2006), Lussemburgo.
EUROSTAT (2001), R&D Annual Statistics, NewCronos Data Base.
FELDMAN, M.P. (1994), The Geography of Innovation, Kluwer
Academic Publisher, Dordrecht.
188
FURMAN, J.L. – PORTER, M.E. – STERN, S. (2002), “The
determinants of national innovative capacity”, Research Policy, Vol. 31, n.
6, pp. 899-933.
GRILICHES, Z. (1979), “Issues in assessing the contribution of Research
and Development to Productivity Growth”, Bell Journal of Economics, Vol.
10, pp. 92-116.
GRILICHES, Z. (1990), “Patent statistics as economic indicators: a
survey”, Journal of economic literature, Vol. 28, pp. 1661-1707.
ISTITUTO NAZIONALE DI STATISTICA (Istat), (2003), La Ricerca e
Sviluppo in Italia: anno 2001 e previsioni per gli anni 2002-2003.
ISTITUTO PER LA PROMOZIONE INDUSTRIALE (IPI), (2003),
Regional innovation scoreboard: quadro di valutazione dell’innovazione
regionale.
JAFFE, A. (1989), “Real Effects of Academic Research”, American
Economic Review, Vol. 75, pp. 957-970.
JAFFE, A. – TRAJTENBERG, M. – HENDERSON, R. (1993),
“Geographic localisation of knowledge spillover as evidenced by patent
citations”, Quarterly Journal of Economics, Vol. 108, pp. 557-598.
LEGGE COSTITUZIONALE 18 ottobre 2001, n. 3 - Modifiche al titolo V
della parte seconda della Costituzione.
MANSFIELD, E. (1998), “Academic research and industrial innovation:
An update of empirical findings”, Research Policy, Vol. 26, n. 7-8, pp. 773776.
MANSFIELD, E. – LEE, J.Y. (1996), “The modern university:
contributor to industrial innovation and recipient of industrial R&D support”,
Research Policy, Vol. 25, n. 7, pp. 1047-1058.
OCSE (2003), “Science, Technology and Industry Scoreboard”.
PACI, S. – USAI, R. (2000), “The role of specialisation and diversità
externalities in the agglomeration of innovative activities”, Rivista Italiana
degli Economisti, Vol. 5, n. 2, pp. 237-268.
PICCALUGA, A. – PATRONO, A. (2001), “Attività brevettuale degli
Enti pubblici di ricerca italiani: un’analisi sul periodo 1982-2001”, Economia
e politica industriale, n. 109, pp. 81-111.
PORTER, M. (1990), The Competitive Advantage of Nations, Free Press,
New York.
RALLET, A. – TORRE, A. (1999), “Is geographical proximity necessary
in the innovation networks in the era of global economy?”, GeoJournal,
vol. 49, pp 373–380
ROGERS, E. – LARSEN, J. (1984), Silicon Valley Fever, Basic Books,
New York.
SAXENIAN, A. (1985), Silicon Valley and Route 128: Regional
Prototypes or Historic Exception?, in Castells M. (ed.), High Technology,
Space and Society, Sage Pubblication, London, pp. 91-105.
189
TRACEY, P. – CLARK, G.L. (2003), “Alliances, Networks and
Competitive Strategy: Rethinking Clusters of Innovation”, Growth and
Change, Vol. 34, n. 1, pp. 1-16.
VARGA, A. (2000), “Local academic knowledge transfers and the
concentration of economic activity”, Journal of Regional Science, Vol. 40, n.
2, pp. 289-309.
VERSPAGEN, B. – SCHOENMAKERS, W. (2000), The spatial
dimension of Knowledge Spillovers in Europe: evidence from firm patenting
data, Merit, Maastricht.
WICKSTEED, S. (1985), The Cambridge Phenomenon. The Growth of
High Technology Industry in a University Town, Wicksteed, Cambridge.
ZUCKER, L. – DARBY, M. – BREWER, M. (1998), “Intellectual human
capital and the birth of US biotecnology industry”, American Economic
Review, Vol. 88, pp. 290-306.
190
NOTE PER GLI AUTORI
I lavori da pubblicare devono essere inviati per posta elettronica all’indirizzo
[email protected] in formato Word 7.0 per Windows 98 (o superiore), oppure
consegnarli su dischetto da 3,5’’ con l’indicazione dell’indirizzo e del
numero telefonico dell’Autore a:
Luiss Guido Carli
Redazione di Economia, Società e Istituzioni
Via O. Tommasini, 1 - 00162 ROMA
L’Autore deve sempre indicare la propria qualifica professionale e l’Istituzione di
appartenenza, il codice di riferimento secondo la JEL Classification (consultabile
all’indirizzo www.aeaweb.org./journal/jel_class_system.html, le parole chiave
dell’articolo.
Gli articoli pervenuti alla redazione che non rispettano le seguenti regole non saranno
accettati per la pubblicazione.
Testo: gli articoli devono essere impaginati ad interlinea 1 su pagine
formato A4 con margine superiore di cm 4,8, inferiore cm 5,5, sinistro
cm 4,3, destro cm 4,6, intestazione cm 1,25, piè di pagina cm 4,8, rientro
prima riga di cm 0,5 con carattere Times New Roman punti 11 per il testo e
punti nove per le note. Il titolo deve essere a lettere maiuscole centrato
grassetto.
Paragrafi: l’introduzione, i paragrafi, sottoparagrafi e le conclusioni
devono essere numerati (con numero cardinale con carattere normale, punti
11). Le parole “Introduzione” e “Conclusioni” ed il titolo dei paragrafi
devono essere in grassetto, i sottoparagrafi in corsivo.
Note: devono essere numerate, con numero cardinale progressivamente
dall’inizio alla fine dell’articolo ed inserite a fondo pagina.
Equazioni: devono essere indicate con due numeri cardinali (a destra tra
parentesi tonde): il primo coincide con il numero del paragrafo in cui
compare l’equazione; il secondo è il numero progressivo dell’equazione
all’interno dello stesso paragrafo. La numerazione progressiva delle
equazioni, quindi, deve iniziare di nuovo in ogni paragrafo. Le equazioni
vanno compilate con Equation Editor per Word (oppure con word). Non
verranno accettati file in Latex.
Tabelle: devono essere indicate con numero cardinale progressivo.
L’indicazione (Tab. …) e il titolo della tabella (in maiuscolo solo la prima
lettera della prima parola) devono essere posti al di sopra di ogni tabella. La
fonte deve essere riportata al di sotto della tabella.
Grafici: devono essere indicati con numero cardinale progressivo.
Si ricorda agli autori che la rivista è in bianco e nero, dunque non saranno
accettati articoli che contengono grafici o tabelle a colori, o contenenti grafici
e tabelle in formato diverso da Word o Excel per Windows. Tabelle e grafici
devono avere estensione xls, pp o jpeg.
Riferimenti bibliografici: la citazione nel testo, tra parentesi tonde, deve
riportare il cognome dell’Autore e l’anno di pubblicazione. Es.: (Graziani,
1986). La citazione in nota deve riportare il cognome dell’Autore, preceduto
dall’iniziale del nome e, tra parentesi tonde, la data del lavoro. Es.: K. Cohen
(1965).
La bibliografia, in ordine alfabetico per Autore, deve essere riportata alla
fine del lavoro, secondo il seguente schema:
BIBLIOGRAFIA
CONIGLIANI, G. – LANCIOTTI, G. (1978), “Concentrazione,
concorrenza e controlli all’entrata”, in La struttura del sistema creditizio
italiano, a cura di G. Carli, Il Mulino, Bologna.
GRAZIANI, A. (1986), La spirale del debito pubblico, Il Mulino,
Bologna.
PHILIPS, L. – THISSE, J.F. (1982), “Spatial competition and the theory
of differentiated markets”, Journal of Industrial Economics, n. e pp.
Si devono tenere presenti le seguenti regole: la parola “bibliografia” deve
essere scritta in maiuscolo grassetto al centro della pagina; il cognome
dell’Autore, seguito dalla virgola e poi dall’iniziale del nome, deve essere
scritto in maiuscolo; in caso di più Autori, i cognomi devono essere separati
da un trattino; l’anno del lavoro va indicato, tra parentesi tonde, di seguito al
cognome dell’Autore. Inoltre, per i libri, bisogna dare indicazione del titolo
(corsivo), dell’editore e della città; per gli articoli, bisogna indicare il titolo
tra virgolette e il nome della rivista (corsivo).
Appendice: deve essere scritta in maiuscolo neretto a sinistra della pagina
e va inserita dopo la bibliografia.
Non va inserito il numero di pagina.
CONDIZIONI DI ABBONAMENTO
_____________________________________________________________________________________
LA QUOTA DI ABBONAMENTO PER L’ANNO 2005 E' DI € 40,00. Tutti coloro che desiderano
ricevere la rivista potranno contrarre regolare abbonamento annuo versando € 40,00 sul c/c postale
n. 39703863 intestato a: Pola s.r.l. – Luiss University Press, Viale Pola, 12 – 00198 Roma.
L’abbonamento decorre dal mese di gennaio e si intenderà automaticamente rinnovato se non interviene
disdetta, a mezzo lettera raccomandata, almeno un mese prima della scadenza. La disdetta comunque non è
valida se l'abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della rivista
non costituiscono disdetta dell'abbonamento a nessun effetto. Per qualsiasi contestazione è competente il
Foro di Roma. PREZZO UNITARIO € 16,00. FASCICOLI ARRETRATI € 18,00 CIASCUNO.
_____________________________________________________________________________________
_____________________________________________________________________________________
Pubblicazione registrata al Tribunale di Roma, il 4/3/91 N. 121
_____________________________________________________________________________________
Pubblicazione con pubblicità inferiore al 70%