The economics of anti-inflationary agreements
Transcript
The economics of anti-inflationary agreements
ECONOMIA, SOCIETA' E ISTITUZIONI QUADRIMESTRALE Diretta da Paolo Savona, Fabio Gobbo e Gian Maria Gros-Pietro Editoriale Cristiano Perugini e Pierluigi Daddi Il ruolo delle economie esterne nella performance competitiva dell’industria manifatturiera italiana. Un’analisi dell’export a livello territoriale Giuseppe Clerico Diritti di proprietà, incentivi ed esternalità Maria Giuseppina Bruno, Gennaro Olivieri e Alvaro Tomassetti On the computation of convolution in actuarial problems. Some further results Giovanni Masala, Massimiliano Menzietti e Marco Micocci Pricing credit derivatives with a copula-based actuarial model for credit risk Enrico D’Elia The economics of anti-inflationary agreements Umberto Monarca Regole e stabilità del sistema bancario Giovanni Abramo e Andrea D’Angelo Ricerca pubblica e sistemi innovativi locali: il ruolo della prossimità geografica Anno XVII/ n. 1 Gennaio - Aprile 2005 Luiss University Press ECONOMIA, SOCIETA' E ISTITUZIONI QUADRIMESTRALE Diretta da Paolo Savona, Fabio Gobbo e Gian Maria Gros-Pietro Anno XVII/ n. 1 Gennaio - Aprile 2005 Luiss University Press ECONOMIA, SOCIETA' E ISTITUZIONI RIVISTA QUADRIMESTRALE DELLA LUISS GUIDO CARLI Diretta da Paolo Savona, Fabio Gobbo e Gian Maria Gros-Pietro Comitato Scientifico Daniela Di Cagno Giorgio Di Giorgio Giuseppe Di Taranto Paolo Garonna Fausto Gozzi John Hey Fabio Neri Gennaro Olivieri Luciano Palermo Pietro Reichlin Carlo Scognamiglio Rolando Valiani Direttore Responsabile Daniela Di Cagno Sede redazionale Luiss Guido Carli Via Oreste Tommasini, 1- 00162 Roma Tel. 06/85 225 744 Fax 06/85 225 513 Editore Luiss University Press Viale Pola, 12- 00186 Roma Tel. 06/85 225 229 Fax 06/88 447 34 Stampa Partenone S.r.l. Via Leonardo Da Vinci, 285- 00145 Roma Tel. 06/54 14 008 Finito di stampare nel mese di Luglio 2005 SOMMARIO EDITORIALE Fabio Gobbo, Infrastrutture, agenzie di regolazione e politica industriale STUDI Cristiano Perugini e Pierluigi Daddi, Il ruolo delle economie esterne nella performance competitiva dell’industria manifatturiera italiana. Un’analisi dell’export a livello territoriale Giuseppe Clerico, Diritti di proprietà, incentivi ed esternalità Maria Giuseppina Bruno, Gennaro Olivieri e Alvaro Tomassetti, On the computation of convolution in actuarial problems. Some further results Giovanni Masala, Massimiliano Menzietti e Marco Micocci, Pricing credit derivatives with a copula-based actuarial model for credit risk Enrico D’Elia, The economics of anti-inflationary agreements Umberto Monarca, Regole e stabilità del sistema bancario Giovanni Abramo e Andrea D’Angelo, Ricerca pubblica e sistemi innovativi locali: il ruolo della prossimità geografica INFRASTRUTTURE, AGENZIE DI REGOLAZIONE E POLITICA INDUSTRIALE* Le recenti e crescenti difficoltà dell’economia italiana (e non solo) impongono di ripensare ad alcuni dei più tradizionali strumenti di intervento pubblico che, forse troppo frettolosamente, sono stati abbandonati a favore di una visione totalizzante che ha spesso portato a confondere il mercato con la concorrenza, l’impresa con l’efficienza. Così, a fronte delle numerose difficoltà e degli esiti alterni riscontrati nel raggiungimento delle finalità alla base della politica industriale si è gradualmente affermata, nel corso degli ultimi quindici anni, la tendenza a rifugiarsi in misura sempre maggiore nel “mercato” con l’idea che questo costituisse lo strumento più efficace di “governo dell’economia”. Questo orientamento “al mercato” si è andato concretizzando: • nella progressiva diminuzione del peso del ruolo pubblico nel tessuto industriale (attraverso un atteggiamento ostile nei confronti degli aiuti di Stato); • nella graduale riduzione della gestione diretta dei servizi infrastrutturali (attraverso le privatizzazioni); • nell’introduzione di forme di concorrenza per il mercato tramite estese politiche di liberalizzazione. In particolare, per quei servizi considerati essenziali per la competitività e lo sviluppo del sistema economico, nonché per la qualità della vita dei singoli cittadini (come trasporti, energia e comunicazioni) il graduale arretramento del “pubblico” nella gestione diretta è avvenuto nel presupposto che il monopolio verticalmente integrato e la gestione centralizzata da parte delle autorità pubbliche generassero un elevato grado di inefficienza che, a sua volta, si traduceva in maggiori tariffe finali e livelli inferiori di qualità del servizio. L’obiettivo di riduzione dei prezzi così come il raggiungimento di livelli qualitativi di offerta superiori avrebbe consentito una maggiore competitività dell’intero tessuto industriale europeo in un’arena concorrenziale che andava progressivamente ridefinendosi. Ad oggi, le esperienze intraprese in ambito nazionale e comunitario suggeriscono che, in molti casi, i benefici derivati dalle politiche di * Riprendo qui alcune delle considerazioni presentate in occasione dell’annuale workshop della Società Italiana di Economia e Politica Industriale (SIEPI) che si è tenuto a Napoli il 27 e 28 gennaio 2005. L’articolo da cui è stato tratto l’intervento, scritto in collaborazione con C. Pozzi, è in corso di pubblicazione su Economia e Politica Industriale. 1 liberalizzazione non sono sempre coincisi con quelli all’inizio sperati. La creazione di un sistema di regole capace di promuovere il mercato ed indirizzare le scelte spontanee degli operatori verso gli esiti desiderati in termini di benessere sociale si è rilevato un compito assai arduo, soprattutto per la difficoltà di individuare, all’interno di un sistema di concorrenza strumentale, un corretto equilibrio fra interessi privati di massimizzazione dei profitti e di crescita dimensionale ed interessi della collettività e del sistema economico nel suo complesso. Al di là delle specificità dei singoli settori, le difficoltà più evidenti sono negli aspetti relativi agli investimenti in infrastrutture dove tradizionalmente, almeno nel nostro Paese, è stata rilevante se non esclusiva la presenza dello Stato. L’adozione di una logica di mercato ha infatti inciso profondamente sulle decisioni di investimento in infrastrutture con il risultato di non riuscire a sostituire efficacemente quelle funzioni di politica industriale e di stimolo allo sviluppo ed alla competitività del sistema economico tradizionalmente insite nelle politiche infrastrutturali. Non vi è dubbio, infatti, che un’adeguata dotazione di infrastrutture di rete, così come una loro efficiente gestione in termini di trasparenza e non discriminazione nell’accesso, costituisca una risorsa essenziale attraverso cui assicurare un’efficiente movimentazione delle merci, delle persone, dei dati e delle informazioni, oltre che il presupposto per la fornitura di servizi essenziali per lo svolgimento dell’attività di impresa. La scelta del mercato quale principale canale di finanziamento presenta numerosi vantaggi, ma anche evidenti criticità associate in particolare alla maggiore propensione del mercato stesso verso orizzonti temporali e obiettivi reddituali di breve periodo che può condurre a trascurare scelte strategiche e di investimento i cui ritorni possono essere visibili solo dopo numerosi anni. L’affermarsi di questa logica in settori che operano su orizzonti temporali molto lunghi, come in generale tutte le reti infrastrutturali, porta con sé il rischio di ignorare la rilevanza politica e strategica degli obiettivi di lungo periodo rispetto sia alla dotazione ed alla manutenzione delle infrastrutture di rete (“hardware” del sistema) che alla loro gestione tecnica e regolazione (“software” del sistema). Questo rischio si è puntualmente realizzato in tutti i paesi ed in misura più o meno ampia in tutti i settori a rete oggetto di liberalizzazione e di ristrutturazione. Il settore delle telecomunicazioni che pur rappresenta, secondo un’opinione largamente condivisa, quello dove maggiori sarebbero stati i benefici derivati dai processi di liberalizzazione non costituisce certamente un’eccezione nonostante in esso non solo sia stato possibile promuovere la competizione in quei segmenti della filiera privi di condizioni di monopolio naturale, ma si sia anche riusciti ad avviare forme di concorrenza fra reti. 2 Nonostante ciò i meccanismi di mercato hanno portato a privilegiare scelte di breve periodo premiando spesso soluzioni di investimento e tecnologie caratterizzate da una bassa rischiosità economica o trainate principalmente dalla domanda. Solo in questi termini è possibile spiegare la volontà di trarre massimo beneficio economico dall’infrastruttura analogica esistente (ADSL) a scapito della diffusione delle tecnologie a larga banda potenzialmente in grado di fornire in un futuro non troppo lontano servizi di trasferimento dei dati e delle informazioni a livelli qualitativi di molto superiori. D’altro canto, perplessità simili sorgono in presenza di decisioni d’investimento in infrastrutture mirate alle sole zone geografiche in grado di assicurare, per densità di domanda, ritorni economici immediati assolutamente coerenti in una logica di mercato ma certo assai distanti dai tradizionali aspetti di politica industriale legati allo sviluppo e al rilancio di specifiche aree. Se il risultato complessivo delle liberalizzazioni nel settore delle telecomunicazioni presenta qualche elemento di criticità, maggiori sono, ad esempio, le problematiche delle reti di trasporto e di quelle energetiche. La liberalizzazione del settore dei trasporti ferroviari inglesi è stata ampiamente dibattuta come uno dei casi più evidenti di fallimento, tanto da essere rimasta nei fatti incompiuta. La scomposizione e la frammentazione verticale delle attività in cui si articola il servizio nonché l’affidamento della gestione dell’infrastruttura ferroviaria al settore privato hanno, da un lato, accresciuto la complessità insita nella necessità di contemperare gli interessi di un numero crescente di soggetti e, dall’altro, progressivamente disincentivato gli investimenti di lungo periodo nella rete sia con riferimento alla dotazione complessiva che in relazione al mantenimento della corretta operatività dell’infrastruttura esistente. La spinta all’efficienza si è, infatti, quasi prevalentemente indirizzata verso l’ottenimento di risparmi di costo nelle spese per manutenzione e nei costi del personale, con una conseguente e diretta diminuzione della qualità delle infrastrutture e della professionalità degli addetti impegnati nell’erogazione del servizio. L’insieme di questi fattori ha progressivamente causato un abbattimento dei livelli qualitativi – specie con riferimento alla puntualità – e della sicurezza complessiva del trasporto ferroviario britannico. Tutto ciò peraltro non ha contribuito né alla redditività dell’impresa che gestiva la rete di trasporto, con la conseguenza che in assenza di un intervento di sostegno da parte del governo inglese questa sarebbe inevitabilmente fallita, né ha contribuito a ridurre i sussidi complessivamente erogati all’industria ferroviaria che sono al contrario aumentati nelle fasi successive alla liberalizzazione per poi ridursi solo gradualmente. In larga parte analoghe a quelle del settore dei trasporti sono state le problematiche riscontrate nei mercati elettrici liberalizzati con esiti 3 tristemente convergenti quanto a decremento del livello qualitativo del servizio conseguenza di un ammontare insufficiente di investimenti in capacità produttiva e in infrastrutture di trasmissione, oltre che di una loro approssimativa gestione. I black-out verificatisi alla fine dell’estate del 2003 in numerosi Paesi europei (e negli Stati Uniti) hanno costituito nella loro strana coincidenza temporale un evidente campanello d’allarme in un contesto in cui sembrava riconoscersi su più fronti la rilevanza delle reti elettriche nella competitività per il sistema delle imprese, direttamente in termini di minori costi e di maggiore qualità del servizio ed indirettamente come presupposto per un tessuto produttivo più efficiente. Nel nostro Paese, poi, la commistione di ruoli e competenze fra i diversi attori istituzionali – acuite peraltro dalla riforma costituzionale – e i tentennamenti che hanno contraddistinto il processo di riforma hanno contribuito ulteriormente ad una progressiva perdita della dimensione strategica ed istituzionale delle problematiche di investimento in infrastrutture energetiche. La conseguenza, nelle fasi successive alla riforma del settore elettrico italiano, è stata di un deciso crollo degli investimenti nelle reti di trasmissione dell’energia elettrica. Né questo ha comportato maggiori risorse dedicate alla ricerca e allo sviluppo di tecnologie produttive maggiormente compatibili con gli obiettivi di sostenibilità ambientale. Al contrario le risorse così “risparmiate” sono state convogliate verso strategie multiutility e a distribuzioni di dividendi certamente graditi non solo dal Tesoro italiano, ma anche da molti investitori istituzionali esteri. A questo proposito appare lecito domandarsi in che misura i buoni risultati conseguiti da numerose utility, incumbent nei rispettivi mercati, sia conseguenza di una più efficiente gestione o il frutto del permanere del “potere monopolistico” in capo a tali soggetti o, ancora, se non fosse stato forse più corretto che di tali risultati avessero beneficiato non solo gli shareholders (in molti casi, come detto, ancora pubblici, ma anche privati e stranieri), ma anche tutti gli stakeholders, ovvero gli utenti, privati o imprese, dei servizi in questione. Alla luce di queste riflessioni le tematiche dello sviluppo e della gestione delle infrastrutture necessitano un complessivo ripensamento nella direzione di recuperare la visione politica e strategica insita nella loro natura attraverso la definizione di percorsi di sviluppo che siano in grado di promuovere la presenza di un’adeguata dotazione infrastrutturale – ed il suo mantenimento attraverso interventi di manutenzione – in modo da massimizzare i benefici di lungo periodo del sistema economico e sostenere uno sviluppo competitivo ed equilibrato dei mercati. Questo può benissimo avvenire senza un ritorno al pubblico, ma chiarendo fino in fondo ruoli e competenze delle varie istituzioni che debbono cooperare per lo sviluppo dei sistemi infrastrutturali, condizione necessaria ancorché non sufficiente ad ogni progresso sociale ed economico. 4 Una dimensione importante di queste problematiche è dunque quella dell’assetto istituzionale cui si è scelto di affidare la gestione delle infrastrutture a rete in un contesto che, come appena osservato, rimane ancora caratterizzato dalla presenza di imprese che hanno ereditato in tutto od in parte il precedente potere di monopolio. È quindi utile riflettere brevemente sul modello delle Autorità di regolazione che sono il naturale completamento, sotto il profilo istituzionale, della ridefinizione delle politiche di intervento nell’economia e del ruolo dello Stato regolatore e che hanno trovato, anche sotto la spinta comunitaria, una rapida diffusione proprio nei settori caratterizzati dalla presenza di infrastrutture di rete. Senza addentrarci nel dibattito sul loro ruolo e sulle loro funzioni possiamo limitarci ad osservare come la “indipendenza” di queste Autorità di regolazione (Agenzie come sarebbe più corretto chiamarle) dovrebbe trovare un naturale limite nel ruolo assunto dalla regolazione economica come strumento per il conseguimento degli obiettivi di competitività e sviluppo del sistema economico generale, soprattutto alla luce dell’assorbimento nella sfera comunitaria di molte delle tradizionali politiche strutturali e dell’affermarsi di un orientamento sfavorevole nei confronti delle forme più o meno dirette di promozione industriale. In tal senso, l’indipendenza deve essere interpretata soprattutto come autonomia, oltre che dai soggetti regolati, nella scelta degli strumenti più idonei al raggiungimento delle finalità cui l’intervento regolatorio è indirizzato e non già un valore assoluto. La responsabilità di definire gli obiettivi dell’intervento non può al contrario essere basata su considerazioni tecnocratiche, ma deve invece rimanere politica dato che le scelte effettuate incidono sul benessere collettivo (ad esempio la distribuzione del reddito). Da questa visione della regolazione economica (e finanziaria) non può quindi risultare escluso il potere politico come soggetto istituzionale depositario dell’interesse collettivo legittimato dal circuito democratico. In buona sostanza le Agenzie non possono assorbire competenze di politica industriale: è il Governo che è chiamato necessariamente a definire un disegno di policy complessivo entro cui vanno ricondotte decisioni di regolazione destinate, come appena evidenziato, ad incidere profondamente sull’economia reale e sul benessere della collettività. L’assoggettamento delle Agenzie ad un indirizzo politico comporta, tuttavia, una diretta e non sempre gradita assunzione di responsabilità nei confronti del loro operato. Ciò nonostante è necessario agire sulla loro capacità di individuare e perseguire interessi di carattere generale identificando canali opportuni attraverso cui esse possano essere rese più sensibili alle esigenze provenienti, di volta in volta, dal dibattito politico. Del resto, questa indicazione trova riflesso anche dall’esperienza comunitaria nella quale tutto viene ricondotto alla decisione della Commissione in modo 5 analogo a quanto avviene, in ultima analisi, nella realtà inglese, tedesca e francese. Da quanto osservato discende l’esigenza di una maggiore consapevolezza delle debacle che anche la logica delle liberalizzazioni può conoscere e che il tecnocrate più capace ed onesto non è comunque un soggetto politicamente legittimato ad assumere le decisioni proprie di un Governo, che non siano, logicamente, quelle che attengono specificatamente alla Costituzione ed al Parlamento. L’incapacità di governare in un’ottica di lungo periodo l’evoluzione degli investimenti di rilevanza sociale ed infrastrutturale e le difficoltà di ricondurre il sistema delle “politiche economiche” ad una chiara responsabilità “politica” (fatto le cui conseguenze non si esauriscono in un innocuo paradosso linguistico), tuttavia, non rappresentano gli unici problemi della “filosofia imitativa di intervento” adottata in sede comunitaria con una definizione delle principali linee di politica industriale da follower degli Stati Uniti come più approfonditamente cerco di illustrare nell’articolo in corso di pubblicazione su Economia e Politica Industriale. Sullo sfondo riposa una questione basilare, ma che ha fatto sinora fatica a trovare una sua compiuta rappresentazione. A dispetto di quelle che erano le più diffuse aspettative solo alcuni anni fa, la storia recente ha dimostrato che il semplice paradigma della concorrenza non è sufficiente a fornire lo stimolo necessario a superare periodi di crisi con le caratteristiche che hanno contraddistinto i nostri sistemi economici negli ultimi anni. Servono quindi delle politiche attive, che vanno perciò recuperate dal “limbo” nel quale sono state abbandonate durante quest’ultima fase della nostra storia. Tutto ciò non per negare la rilevanza della più recente strategia per l’industria, ma per sostenere che essa si sarebbe dovuta aggiungere alla precedente senza pensare di sostituirla. Attraverso una più attenta riflessione sui concetti di mercato e concorrenza si può osservare, infatti, come la politica industriale, quella della concorrenza e le liberalizzazioni non si escludono a vicenda, ma possono e debbono concorrere all’obiettivo comune dello sviluppo sociale ed economico. Un mix sapiente di politica industriale e della concorrenza basato anche su una diffusa liberalizzazione delle infrastrutture all’interno di un preciso quadro di riferimento istituzionale applicato in modo trasparente, corretto e rispettoso dei ruoli da tutti gli interpreti della vicenda politica ed economica può fornire la chiave di volta per delle soluzioni che possono incidere positivamente su uno sviluppo equilibrato del Paese. Fabio Gobbo 6 IL RUOLO DELLE ECONOMIE ESTERNE NELLA PERFORMANCE COMPETITIVA DELL’INDUSTRIA MANIFATTURIERA ITALIANA. UN’ANALISI DELL’EXPORT A LIVELLO TERRITORIALE Cristiano Perugini* e Pierluigi Daddi° JEL Classification: R12, L2 Keywords: economie esterne, export performance, sistemi di produzione locale 1. Introduzione Questo lavoro intende offrire un contributo all’analisi delle posizioni competitive delle imprese minori, in relazione ai sistemi di produzione locale nei quali esse si presentano aggregate ed ai contesti territoriali in cui operano. Il tema è di importanza centrale dal momento che tende a considerare uno degli elementi decisivi alla base delle teorie cosiddette liberiste (i vantaggi dell’allargamento dei mercati), ma in un’ottica non strettamente economica, quanto allargata ad aspetti di natura istituzionale, sociale, organizzativa. Il riferimento teorico ed empirico della ricerca è un modello di sviluppo, quello italiano, alla base del quale stanno imprese piccole e medie la cui forza competitiva risiede nel saper raggiungere una efficiente massa critica di fattori di vantaggio attraverso innovazioni di carattere organizzativo esterno (sistemi d’impresa, reti d’impresa) che ne esaltano le performance al di là di quelli che sarebbero i limiti propri di ogni singola unità. Lo studio si propone di indagare le caratteristiche organizzative e le performance esportative delle industrie all’interno dei luoghi economici che compongono l’economia italiana, utilizzando una base dati in grado di tenere conto dell’effettiva articolazione territoriale dei fenomeni economici (dati relativi all’export dell’industria manifatturiera sulla base dei sistemi locali del lavoro). Il lavoro è organizzato come segue. Nella sezione due sono delineati alcuni elementi di natura teorica circa le possibili determinanti locali della competitività delle imprese, cioè i fattori di vantaggio competitivo che esse possono attingere dai contesti socio-economici in cui operano. Nella sezione seguente (tre), ricostruendo i contributi principali della letteratura esistente, tali elementi sono riconsiderati in riferimento alla competitività delle imprese * Dipartimento di Economia, Università di Perugia, Via Pascoli, 20, 06123 Perugia ([email protected]) ° Dipartimento di Statistica, Università di Perugia, Via Pascoli, 20, 06123 Perugia ([email protected]) 9 a livello internazionale. Il paragrafo quattro è dedicato all’illustrazione delle ipotesi di lavoro, delle caratteristiche del database, della metodologia di stima dei modelli econometrici e dei risultati dell’analisi empirica che identifica l’importanza degli assetti strutturali ed organizzativi locali alla base della performance esportativa dei diversi territori. La sezione finale (cinque) riassume i risultati dello studio e traccia alcune considerazioni di sintesi. 2. La dimensione locale della competitività Le caratteristiche strutturali dell’apparato produttivo manifatturiero italiano, in larghissima parte costituito di medie e piccole imprese, insieme alla loro prevalente specializzazione nei settori “tradizionali”, hanno storicamente rappresentato un vivace punto di discussione teorico tra gli economisti. Da una parte, come ricorda Bronzini (2000), coloro che in aderenza all’impostazione teorica dominante più strettamente agganciata al paradigma neoclassico, consideravano (e ad oggi considerano) questi due caratteri come fattori di debolezza per la competitività del sistema produttivo nazionale, anche a livello internazionale: in virtù sia della crescente concorrenza esercitata dai paesi emergenti sui mercati dei prodotti tradizionali, sia dell’incapacità delle imprese di più piccole dimensioni di appropriarsi di quelle economie di scala (interne) che consentono di strutturare vantaggi competitivi in termini di minori costi o maggiori capacità di innovazione e differenziazione. In altre parole, l’incapacità delle imprese di accrescersi per vie interne (integrazione verticale) rappresenterebbe un limite ed un vincolo alle loro capacità competitive, specie sui mercati internazionali di certi prodotti, con gli assetti più strettamente concorrenziali. Dall’altra, pur senza il conforto di una costruzione teorica tanto largamente condivisa, ma con il sostegno “dei fatti che disobbediscono alla teoria”, ossia del made in Italy1 che per decenni paga i conti con l’estero dell’Italia compensando le indispensabili importazioni di fonti energetiche (Becattini, 2000a, p. 111), prende forma un corpo di teorie, oggi articolatissimo, che pur ammettendo alcuni fattori di svantaggio derivanti dalla ridotta dimensione d’impresa, ne sottolinea, date certe condizioni, le migliori capacità competitive sostanzialmente sulla base dell’esistenza di una serie di economie esterne (all’impresa ma interne al sistema locale di produzione o al sistema locale). In altre parole, superando la tradizionale 1 Con questa espressione si intende solitamente riferirsi al complesso di prodotti dei settori che sono generalmente associati all’immagine dell’Italia, tra cui prodotti per la cura della persona (abiti, gioielli, calzature, accessori, etc.); beni per l’arredo-casa (mobili, piastrelle, arredi, etc.); beni alimentari tradizionalmente associati alla dieta mediterranea (vino, olio, pasta, formaggi). A questi prodotti possono essere aggiunti quelli strumentali e collaterali (macchinari ed accessori per la loro produzione) e la meccanica tradizionale. 10 concezione dell’impresa singola, che si accresce fondamentalmente per vie interne, il cui processo produttivo si risolve completamente dentro l’impresa, ed i cui risultati dipendono unicamente dalle decisioni organizzative dell’imprenditore (Becattini 2000b, p. 79), l’impresa viene invece rappresentata come parte di un sistema socio-economico locale con il quale interagisce e da cui può attingere input produttivi materiali ed immateriali peculiari ed irripetibili, in quanto frutto del percorso di sviluppo sociale, economico, istituzionale, che configura quel determinato territorio. E’ pertanto proprio la conformazione (in senso non solo fisico, naturalmente) del contesto in cui avviene la produzione che può essere esplicativa di alcune forme di vantaggio competitivo di cui godono le unità di produzione che vi sono localizzate. Che nel caso di territori con forti densità relazionali e cioè con rilevanti caratteri sistemici, si configurano come economie esterne tra cui, come ricordano recentemente Becattini e Musotti (2003) con riferimento al caso dei distretti industriali: economie esterne di organizzazione che favoriscono scomposizione e ricomposizione a livello di sistema del processo produttivo e di alcune funzioni aziendali, garantendo al contempo i vantaggi della forte specializzazione e della complessiva flessibilità; di conoscenza (contestuale) e apprendimento, in grado di favorire le diverse forme di innovazione tecnologica garantendo per un verso o per l’altro (riduzione dei costi di produzione o differenziazione) il mantenimento del vantaggio competitivo2; di concentrazione (in fase di acquisizione di input intermedi); di addestramento, non solo in relazione ai vantaggi della specializzazione della manodopera, ma più in generale riferite all’atmosfera umana e sociale locale (attitudine imprenditoriale, ad esempio); di transazione, cioè relative alla fluidità di circolazione delle informazioni che incide sui costi d’uso del mercato; di adattamento alla realtà, che implicano la disponibilità, più o meno consapevole, da parte degli attori privati e pubblici del distretto, a farsi carico degli oneri che l’appartenenza ad esso e la sua riproduzione comportano. Naturalmente, uscendo dal caso istruttivo, ma particolare, del distretto industriale, sbiadisce o scompare l’esistenza di certi tipi di economie e ne emergono altre, a seconda delle caratteristiche umane, sociali, istituzionali e produttive del sistema locale sotto osservazione. Che, di volta in volta, si possono combinare con i tradizionali fattori portatori di vantaggi competitivi interni all’impresa (economie di scala con le relative conseguenze) o via via evidenziati dalle teorie sulla localizzazione industriale (Del Colle – Esposito, 2000). 2 Si tratta delle cosiddette economie dinamiche di apprendimento che garantiscono alle piccole imprese distrettuali di compensare lo svantaggio nei confronti della grande impresa in termini di economie di scala di tipo statico. 11 La storia economica italiana, specie dal secondo dopoguerra in avanti, insegna l’esistenza e la rilevanza di una moltitudine di virtuosi percorsi locali di sviluppo, differenziati sulla base delle caratteristiche peculiari dei luoghi in cui avviene la produzione e capaci di determinare posizioni competitive in molti casi spese efficacemente soprattutto a livello internazionale. In generale facendo leva sulla tendenza della domanda alla differenziazione, fino alla “personalizzazione”, dei prodotti che soddisfano “grappoli di bisogni” sempre più diversificati ed articolati. Poggiando su quei fattori (del complesso di quelli che compongono il vantaggio competitivo) più difficilmente riproducibili, perché legati al territorio di cui si è parte (Brunori, 1999): conoscenze tacite-contestuali (Nonaka et al., 2000); bassi costi d’uso del mercato legati a rapporti fiduciari; riproduzione/conservazione della reputazione collettiva del luogo che evoca certe caratteristiche qualitative dei prodotti (si pensi al caso delle produzioni agro-alimentari tipiche); dinamiche coesistenti di concorrenza/cooperazione; assetti istituzionali peculiari; e, via via, tutti quei fattori da cui si può trarre vantaggio solo appartenendo a quel sistema locale. Da tutto questo discende che, se si vuole realmente ricostruire uno o più aspetti della dimensione competitiva di un’industria, necessariamente occorre corredare l’analisi di una dimensione territoriale adeguata, capace almeno di individuare l’appartenenza o meno degli attori sotto osservazione a diversi contesti socio-economico-istituzionali. Questo implica conseguenze rilevanti a livello metodologico, con riferimento al problema dell’adeguatezza dei confini spaziali-amministrativi a descrivere l’effettiva conformazione territoriale dei fenomeni economici. Problema affrontato negli anni attraverso la suddivisione del territorio italiano in Sistemi Locali del Lavoro (Istat, 1997), largamente collaudati ormai in letteratura come la migliore approssimazione empirica dell’articolazione territoriale dell’economia e della società italiana. 3. Determinanti della competitività sui mercati internazionali e ruolo delle economie di agglomerazione Una delle caratteristiche microeconomiche delle imprese più frequentemente associate alla performance esportativa è la dimensione aziendale. Sebbene il vincolo dimensionale sia considerato, per l’attività di export, meno stringente rispetto ad altre forme di internazionalizzazione (investimenti diretti all’estero, joint ventures, accordi internazionali) (Sterlacchini, 2001), esso è comunque spesso collegato al vantaggio conferito da economie di scala nella produzione, al maggiore e migliore utilizzo di management specializzato, alla possibilità di eseguire attività di ricerca e sviluppo, alla capacità di attivare i necessari canali di finanziamento, di 12 strutturare funzioni aziendali proprie di marketing e vendite, alla maggiore possibilità di sopportare i rischi della presenza sui mercati internazionali (Wagner, 1995). Altri studi rilevano invece, per diverse ragioni, l’ambiguità delle relazioni tra export e dimensione: in presenza di un potere di mercato a livello domestico, ad esempio, le imprese più grandi possono avere minori incentivi ad esportare sui mercati più concorrenziali, mentre quelle di piccole dimensioni sono obbligate ad esportare per ridurre costi medi e innalzare i profitti (Sterlacchini, 2001). Altri autori identificano una relazione ad U invertita tra dimensione e performance dell’export, proponendo, di fatto, l’esistenza una soglia dimensionale massima per l’attività di esportazione (Lefebvre et al., 1998; Sterlacchini, 1999, Bonaccorsi, 1992). I legami tra le caratteristiche dimensionali, ma anche quelle organizzative interaziendali, e performance dell’export si differenziano poi a seconda del settore industriale di appartenenza dell’impresa; sia perché i caratteri strutturali settoriali influenzano in maniera decisiva la possibilità di strutturare (e l’efficacia di) forme produttive ed organizzative peculiari (Becattini – Menghinello, 1998); sia per effetto di alcune caratteristiche specifiche dei diversi comparti in particolare relative al ruolo del cambiamento tecnologico (Pavitt, 1984). Altro fattore questo (cambiamento tecnologico e capacità di innovazione) che ricopre un ruolo decisivo sia a livello macro (l’innovazione assicura a paesi ed industrie posizioni di vantaggio meno erodibili di quelle basate su bassi costi unitari del lavoro)3 che micro nella spiegazione della diversità delle posizioni competitive sui mercati internazionali. Gli aspetti appena decritti sinteticamente (caratteristiche dimensionali e specializzazioni settoriali) ed i loro legami con le capacità competitive delle imprese trovano ulteriore considerazione all’interno di un filone di ricerca ben definito, che tende ad esaltare il ruolo di forme organizzative 3 Proprio questo elemento ha storicamente conferito forza a coloro che hanno affermato la debolezza della posizione competitiva dell’Italia, fondata su (Imbriani, 1991, p.25): 1. specializzazione settoriale con chiara prevalenza di beni di consumo tradizionali; 2. specializzazione nei settori a tecnologia matura e debole posizione nei settori tecnologicamente innovativi e nei settori intermedi. Caratteristiche inusuali per i paesi industrializzati e considerate come fattori di debolezza proprio perché, nell’ottica dei modelli neotecnologici del commercio internazionale (Imbriani, 1991, p. 31), i paesi industrializzati possono conseguire un vantaggio comparato solo nei settori tecnologicamente avanzati ed innovativi, dato il loro elevato livello di costo del lavoro. I PVS, al contrario, per il basso costo del lavoro, godono di un vantaggio comparato nella produzione di beni a tecnologia matura e nei settori di consumo tradizionali. Inoltre le stesse teorie evidenziano come nei settori tecnologicamente innovativi la domanda sia più sostenuta e i mercati più suscettibili di ampliamento. Più recentemente ad esempio Becattini e Menghinello (1998) affrontano questo tema soffermandosi e precisando il significato e le caratteristiche settoriali delle esportazioni italiane. Su questo tema si può inoltre far riferimento a Viesti (1997). 13 (localizzate) peculiari in grado di produrre vantaggi competitivi diffusi per l’esistenza di economie esterne di agglomerazione. Si colloca in questo ambito il nutrito gruppo di ricerche che investigano i legami tra export performance (o probabilità di export) e appartenenza dell’impresa a sistemi di produzione distrettuali (Bagella et al., 1998 e 2000; Becchetti – Rossi, 2000; Sacchi, 2000; Bronzini, 2000; Gola – Mori, 2000, Bagella – Becchetti, 2000; Becchetti et al., 2003)4. Oltre a quelle forme di economie esterne richiamate in precedenza (par. 2)5, capaci di garantire in generale posizioni competitive, i contributi della letteratura si concentrano su alcune condizioni favorevoli ad una elevata propensione all’export specifiche delle concentrazioni di imprese con elevati tratti sistemici. In particolare, per effetto di una maggiore attitudine a cooperare nella produzione di servizi all’export6 (Bagella et al., 1998 e 2000, Becchetti-Rossi, 2000) e per le caratteristiche, tipicamente distrettuali, di facilità ed efficienza di circolazione delle informazioni sui mercati internazionali; dinamiche cooperative che sono anche spiegate (Bagella et al., 1998, p.127; Bagella – Becchetti, 2000) a partire dalla loro configurazione come giochi con effetti superadditivi (se le dimensioni del mercato sono grandi relativamente alla capacità produttiva delle imprese esportatrici)7. Becchetti e Rossi (2000) mostrano addirittura come l’effetto positivo di tali 4 Becattini e Musotti (2003) ricostruiscono criticamente il notevole sforzo di ricerca profuso dal Centro Studi della Banca d’Italia (e culminato in Signorini, 2000) sull’identificazione, anche a livello empirico, del cosiddetto “effetto distretto”, distinguendo sostanzialmente tre ambiti in cui esso può assumere rilievo: l’efficienza e la produttività delle imprese distrettuali, la loro competitività a livello internazionale, il “cosiddetto” mercato del lavoro. Una successiva stagione di ricerche sui temi dello sviluppo locale si è concretizzata in Banca d’Itala (2004). 5 Per la collocazione specifica di tali tematiche all’interno di studi relativi al commercio internazionale si può vedere, ad esempio, Menghinello (2002), Istat (2002), Viesti (1993, 1995, 1997), Conti – Menghinello (1995, 2000, 2003), Crestanello – Menghinello (2001), Bronzini (2000), Becattini – Menghinello (1998), Gola e Mori (2000). Naturalmente, un riferimento fondamentale per la tematica delle economie esterne anche legate alla concentrazione industriale, al commercio e alla specializzazione internazionale è Krugman (1991). 6 Come ad esempio l’acquisizione delle informazioni per l’accesso ai mercati internazionali o l’organizzazione delle vendite all’estero. 7 Ossia si assume che, ad esempio nell’ambito di cooperazione per lo scambio di servizi organizzativi ed informativi, “l’effort di un agente genera effetti non negativi sui payoff degli altri agenti del distretto. Tali effetti saranno tanto maggiori quanto maggiore è la contiguità geografica tra gli agenti, in quanto quest’ultima aumenta l’appropriabilità, attraverso scambi formali o informali, delle informazioni risultanti dall’effort del singolo agente. L’equilibrio del gioco sarà sempre quello in cui gli agenti scelgono di impegnarsi nell’attività di organizzazione e di informazione e, a seguito di ciò, il risultato complessivo in termini di performance esportativa sarà superiore a quello delle imprese isolate” (Bagella – Becchetti, 2000, p.190). 14 economie esterne sia visibile sopratutto sui mercati internazionali di più difficile accesso, sia proprio dei settori tradizionali in cui la complementarietà tra le imprese può giocare un ruolo decisivo, e mostri correlazione inversa con la dimensione media delle imprese, tendendo così a compensare fattori di vantaggio competitivo interno tipici delle imprese maggiori (acquisito ad esempio attraverso la strutturazione di divisioni aziendali finalizzate all’export). Sacchi (2000) sottolinea come la cooperazione che è probabile derivi da fenomeni di agglomerazione produce il duplice effetto di permettere alle imprese di godere delle esternalità positive legate agli spillovers (informativi), ma anche di sbarazzarsi di quelle negative (a livello di sistema di produzione locale) legate alla duplicazione di costi dei servizi all’export. 4. L’analisi empirica: ipotesi di lavoro, dati, metodologia, risultati 4.1. Le ipotesi di lavoro Le ipotesi di lavoro che si intendono considerare ai fini dell’analisi empirica condotta nel seguito del lavoro discendono dalle tematiche finora descritte e ruotano in misura considerevole intorno alla dimensione competitiva collegata alla presenza di economie esterne (all’impresa, ma interne al sistema locale) legate al fenomeno della agglomerazione industriale. L’idea di base è quindi di verificare l’ipotesi che, almeno in certi comparti produttivi, l’esistenza e la forza di sistemi produttivi localizzati conferisca alle imprese che li compongono vantaggi spendibili anche sui mercati internazionali ad alto grado di concorrenzialità. La traduzione empirica di questa ipotesi poggia su alcuni passaggi volti ad identificare: (i) le corrette unità analitiche territoriali di riferimento; (ii) l’indicatore di performance adeguato a descrivere la competitività dei diversi contesti; (iii) le tipologie di economie esterne di cui si può avvalere un’impresa manifatturiera e gli indicatori in grado di tradurle empiricamente. Da primo punto di vista, porre il ragionamento in termini mesoeconomici (superando quindi la prospettiva micro, ma senza sconfinare in quella macro) pone immediatamente il problema della giusta distanza di osservazione del fenomeno. La consapevolezza dell’estrema differenziazione territoriale dell’economia italiana impone infatti la necessità di considerare unità territoriali di riferimento coerenti con una concezione dell’economia e della società articolata in luoghi, in grado di superare le rigidità imposte dalle suddivisioni spaziali-amministrative. Su queste basi si opta per l’utilizzo un dataset ISTAT di recente pubblicazione (par. 4.2), che consente la considerazione dei flussi di esportazione (riferiti al 1996) per Sistemi Locali del Lavoro (SLL) ad un dettaglio settoriale (sottosezioni Ateco 91) se non 15 ottimale sicuramente adeguato ai fini di questa analisi. Il SLL (Istat, 1997)8 approssima infatti i confini di un ambiente fisico che contiene in misura significativa le relazioni economiche e sociali (quindi anche culturali, politiche, etc.) del gruppo umano che vi è insediato. In altri termini fornisce un’accurata approssimazione di un luogo (Bellandi, 2003), configurato come un sistema socio-economico locale9. Per queste ragioni, la mappa dei sistemi locali può essere considerata come un’affidabile ricostruzione dell’articolazione della realtà sotto osservazione in società locali distinguibili. La coincidenza dell’anno di riferimento dei dati sull’export per SLL con quella del censimento intermedio dell’industria del 1996 consente sia di meglio specificare la variabile dipendente (la competitività), sia di costruire indicatori, coerenti dal punto di vista temporale, dei vari assetti organizzativi locali assunti come esplicative. Per descrivere le performance esportative del SLL, in coerenza ad esempio con Istat (2002), Conti e Menghinello (1995), Menghinello (2002), è stato scelto il valore dell’export per addetto del SLL nella sottosezione manifatturiera10, standardizzato sul corrispondente livello nazionale. Exp s ,i EXPs ,i = Exp s ,I Add s ,i (4.1) Add s ,I dove Exp e Add sono rispettivamente il valore (in lire 1996) dell’export e gli addetti del SLL i (o dell’Italia, I) nella sottosezione manifatturiera s. La variabile EXP si compone quindi complessivamente di 784 x 14 osservazioni, cioè del valore di export performance di ognuno dei 784 SLL in ognuna delle 14 sottosezioni dell’industria manifatturiera. Come vedremo in seguito, la natura della variabile (elevato numero di zeri) condizionerà significativamente la strategia di stima. 8 L’articolazione del territorio nazionale in Sistemi Locali del Lavoro deriva dall’elaborazione dei dati raccolti in occasione dei decennali Censimenti della Popolazione dall’ISTAT, ed in particolare delle informazioni relative al cosiddetto quesito sulla pendolarità, ovvero sugli spostamenti casa-lavoro della popolazione. La determinazione dei confini del SLL (composto da due o più comuni anche di province e regioni amministrative diverse), è quindi centrata sul concetto di autocontenimento, da intendere come la capacità di un determinato ambito spaziale di contenere una massa relazionale significativa, approssimata, nel caso specifico, proprio dalla densità degli spostamenti casa-lavoro. 9 Si tratta infatti di ad un ambito di “condivisione e accumulazione di esperienze quotidiane ed esperimenti sociali per gruppi umani residenti. […] Con termine sistemico, si parlerà di sistemi locali” (Bellandi, 2003, p. 136). 10 Codici da DA a DM della classificazione Istat Ateco 91. 16 Rispetto alle tipologie di economie esterne di cui possono avvalersi le imprese manifatturiere locali, appare utile una distinzione organizzata in due livelli. Distinguiamo in primo luogo le economie esterne di agglomerazione eterogenee da quelle omogenee, intendendo le prime come quei vantaggi (in termini di minori costi unitari) che le imprese (nel nostro caso manifatturiere) acquisiscono facendo parte di un sistema economico produttivo in cui si concentrano un numero rilevante di attività produttive e di servizi di diversa natura (che ad esempio si traducono in contiguità fisica e facilità relazionale con gli erogatori dei servizi, pubblici e privati, elevata circolazione intersettoriale di conoscenze, o di opportunità non specifiche di alcuni comparti produttivi). E’ questa una tipologia di economie esterne che si concretizza tipicamente negli ambienti più urbani ed è attingibile sia da imprese appartenenti ad assetti organizzativi sistemici locali che da imprese isolate. La categoria di economia esterna eterogenea, adombrata anche da Becattini e Musotti (2003, p. 273), si riconduce alla nota tipologia delle economie da urbanizzazione alla Jacobs, legate alla varietà della struttura produttiva tipica degli ambienti più urbani11. Si è invece in presenza di economie esterne di agglomerazione omogenee quando esiste una concentrazione a livello locale di imprese che producono una gamma di beni simili o complementari12. In particolare in questa sede interessano quelle che si producono quando le imprese agiscono in un contesto istituzionale e cognitivo condiviso ed intrattengono strutture relazionali rilevanti, cioè quando siamo in presenza di un sistema di produzione locale (SPL) (Bellandi, 1994 e 2003). Concetto che, secondo questa accezione13, coincide con il concetto di cluster formulato da Porter. Si tratta quindi, sempre facendo riferimento alle tipologie di Becattini e Musotti (2003) ad esempio delle economie di organizzazione (divisione del lavoro tra le imprese), di conoscenza e apprendimento, di addestramento (relative alla specializzazione dell’offerta di lavoro), di concentrazione (non solo per l’acquisizione degli input, ma anche per l’acquisizione o la produzione di 11 La prima concettualizzazione di questa categoria di economie esterne è, infatti, riconducibile a Jacobs (1969), cui sono seguiti una serie di importati contributi a carattere teorico ed empirico. Tra i più recenti si possono ricordare: Henderson et al. (1995), Duranton e Puga (2001), Glaeser et al. (1992), Eaton e Eckstein (1997). Con riferimento all’Italia, due recenti contributi che considerano questi aspetti sono Cingano e Schivardi (2004) e Bronzini (2004). 12 Nella letteratura (Bronzini, 2004), queste forme di economie esterne si collegano alla categoria delle economie esterne sector specific, a loro volta distinte in economie esterne MAR (o MAR externalities, dai contributi di Marshall, Arrow e Romer), che si sostanziano nella presenza di spillover tecnologici e nella disponibilità di una forza lavoro specializzata; e nelle economie di agglomerazione tipicamente distrettuali (quelle che abbiamo prima specificato). 13 Il sistema di produzione locale è definito come “un’industria localizzata caratterizzata da un insieme connesso di attività di produzione di un gruppo limitato di beni simili, realizzate sulla base di competenze e regole organizzative proprie” (Bellandi, 1994, p.32). 17 servizi specializzati)14, di transazione. Diversamente da quanto attiene alle economie eterogenee, l’esistenza di questa seconda tipologia può dipendere in maniera decisiva dal settore merceologico (o dalla combinazione inputoutput di più comparti) che caratterizza il SPL. In particolare è plausibile ipotizzare che queste forme di economie esterne siano più operanti per quei comparti che, per le caratteristiche strutturali dominanti delle imprese o per gli assetti concorrenziali dei mercati di sbocco, tendono di più ad organizzarsi in forma sistemica (come i comparti del cosiddetto made in Italy). Specularmente, nei settori ad esempio dell’industria pesante, è lecito attendersi che tali assetti organizzativi giochino un ruolo minore nella spiegazione delle performance competitive, dovendosi rinvenire i fattori di vantaggio competitivo delle imprese di questi comparti più al loro interno (tipicamente economie di scala) che nei contesti in cui operano. A sua volta, il SPL può essere più o meno permeante e pervasivo sulla società locale (il sistema locale) e da questo dipende la presenza/assenza di altre economie esterne e/o il rafforzamento di quelle legate al SPL15. Nel caso in cui un SPL connoti in maniera rilevante la società locale in cui è inserito (come nel caso di un distretto industriale) si possono dispiegare (o rafforzare) quelle forme di economie esterne (sempre omogenee) che vanno al di là degli ambiti strettamente produttivi, per investire la società locale nel suo complesso (economie di SL). Si tratta ad esempio delle economie di addestramento riferite all’atmosfera umana e sociale locale (per esempio la richiamata attitudine e propensione imprenditoriale); alle richiamate economie di adattamento alla realtà, e più in generale di quelle economie esterne che derivano da assetti istituzionali che, riconoscendo la centralità del SPL, convergono verso la sua riproduzione ed il suo rafforzamento. Il riferimento obbligato, in questo caso, è a quelle forme di governance che consentono la produzione di risorse collettive competitive locali (local collective competitive goods) (Le Gales e Voelzkow, 2004) che sono anche il frutto di azione esplicita degli attori pubblici e privati del sistema locale. Più il SPL è decisivo per la traiettoria e la sostenibilità di sviluppo del SL, più gli sforzi, consapevoli ed inconsapevoli, di questi attori convergono verso la produzione di queste risorse collettive ma specifiche del SPL. In questa 14 Un esempio di questo tipo di economia esterna è quello generato dalle dinamiche cooperative che portano alla formazione di un consorzio export tra imprese di uno stesso settore. 15 Nulla impedisce infatti che all’interno di un sistema locale co-esistano, ad esempio, diversi SPL più o meno connessi tra di loro o che esista un SPL manifatturiero che è parte, non decisiva, del SL. Questo è per esempio il caso il caso di un SPL manifatturiero che, in un conteso urbano, risulta di scarsa importanza rispetto ad altri settori economici (ad esempio i servizi). Un esempio concreto di questa tipologia di realtà produttiva e sociale è rappresentato in Umbria dal SPL di Deruta (lavorazione delle maioliche artistiche), all’interno di un sistema locale (Perugia), fortemente proiettato sul settore terziario. 18 accezione, quindi, le economie eterogenee e quelle omogenee non sono mutuamente escludenti16, ma possono verificarsi contemporaneamente, a seconda dei casi. La tabella 1 aiuta a comprendere questo punto. Dal punto di vista dell’impresa, questa può infatti trovarsi ad operare in una gamma ampia di contesti sociali e produttivi da cui può (o meno) attingere vantaggi competitivi. Un primo livello di distinzione rilevante è tra impresa isolata e impresa che è parte di un SPL (impresa sistemica). La prima non attinge economie omogenee e può fruire delle economie eterogenee solo quando si trova in un ambiente urbano. L’impresa sistemica, viceversa, oltre a quelle derivanti dall’appartenenza al SPL, può godere anche di quelle di SL e di quelle eterogenee se, rispettivamente, il SPL connota in misura rilevante la società di cui è parte e se questa ha crescenti caratteri di urbanità17. Il caso in cui si verifica la compresenza più forte delle tre forme di economie esterne è il distretto industriale in un contesto molto urbano (tipicamente, Prato). Tab. 1 - Tipologie di economie esterne che le imprese possono attingere dai contesti in cui operano SL non urbano SL urbano Impresa isolata Economie eterogenee SL non urbano SL urbano Non caratterizzato Caratterizzato Non caratterizzato Caratterizzato dal SPL dal SPL dal SPL dal SPL Economie di SPL Economie di Economie di SPL Economie di SL SPL Impresa Economie Economie di SPL Economie sistemica Economie di eterogenee eterogenee SL Dal punto di vista delle elaborazioni empiriche si pone ovviamente il problema di approssimare, attraverso degli indicatori, le diverse caratteristiche dei contesti locali che prefigurano l’esistenza delle varie forme di economie esterne. 16 Di per se l’idea di diversità non riflette infatti quella di assenza di specializzazione, quanto la possibile presenza di specializzazioni multiple (Malizia e Ke, 1993). 17 Ovviamente queste caratteristiche non vanno intese tanto in senso dicotomico, quanto come un continuum (urbano/rurale, isolata/sistemica, SPL più o meno pervasivo sul SL), così come, almeno a livello teorico, non possono essere ignorati gli effetti di spillover e di contiguità territoriale. Ad esempio un’impresa isolata che opera in un contesto povero di economie esterne eterogenee, ma contiguo ad un SL ricco di queste, sarà avvantaggiata rispetto ad un’altra parimenti isolata ma più distante da un centro urbano. 19 L’approssimazione della potenziale presenza di economie esterne eterogenee è relativamente agevole dal momento che la loro forza è stata associata a crescenti gradi di urbanizzazione dei contesti locali, che può essere associata al livello di densità demografica18. L’indicatore, sempre riferito ai SLL e standardizzato sulla densità demografica media nazionale, assume quindi la forma seguente: Re s i DENS i = Re s I Sup i (4.2) Sup I dove Res e Sup indicano l’ammontare di residenti e l’estensione della superficie territoriale per i SLL (i) e per l’Italia (I). L’indicatore di densità è stato preferito a quelli, più usuali per descrivere economie esterne alla Jacobs, di differenziazione19. L’indice di differenziazione, infatti, descrive la varietà delle attività economiche presenti, ma non fornisce un’idea sulla loro rilevanza quantitativa. E’ infatti immaginabile che la forza delle EE cresca al crescere anche della numerosità delle varie attività economiche presenti. L’indicatore DENS sembra invece più in grado di tenere conto anche di questo aspetto. Al fine di rappresentare la presenza di assetti organizzativi forieri delle diverse economie di agglomerazione non ci si è invece limitati al solo utilizzo di un indice di concentrazione/specializzazione20 che, oltre a non discriminare i diversi tipi di economie esterne, (di SPL e di SL) può ingannevolmente segnalare i presupposti dei fenomeni in considerazione21. Si è invece optato 18 Una letteratura ormai rilevante (Esposti - Sotte, 2002) ha mostrato come la densità possa essere considerata una misura sintetica efficace del complesso continuum rurale/urbano. Con riferimento all’utilizzo di questa variabile per approssimare la forza di economie eterogenee, è naturalmente plausibile immaginare che, oltre una certa soglia di densità demografica, si producano anche diseconomie esterne da congestionamento, tipiche delle aree metropolitane. Di questi effetti non si è però tenuto conto in questa sede. 19 Si vedano, per esempio, Duranton e Puga (2001), Bronzini (2004), Henderson et al. (1995), Cingano e Schivardi (2004). 20 Bagella et al., (2000) e Becchetti e Rossi (2000) utilizzano ad esempio come indice di agglomerazione, al fine di verificare l’effetto distretto sulla performance delle esportazioni, l’indice derivato da Sforzi (1995): addetti alle imprese manifatturiere minori di 250 / totale addetti alle industrie manifatturiere, calcolato a livello comunale e standardizzato sulla media nazionale. 21 Ad esempio, un contesto particolarmente povero di industria manifatturiera (poche unità locali e pochi addetti) ed in cui le dimensioni aziendali sono contenute, come nel caso di un sistema locale montano, può presentare valori dell’indice molto alti, ma che non corrispondono all’effettivo esplicarsi delle forme di economie esterne che consideriamo, che richiedono una dimensione minima del sistema di produzione locale. 20 per la costruzione in primis di un indicatore in grado di approssimare l’esistenza e la forza di un sistema di produzione locale manifatturiero; in secondo luogo si è specificata l’esistenza di una o più specializzazioni nei diversi comparti dell’industria manifatturiera. Per descrivere l’esistenza a livello locale di un SPL si è utilizzato, seguendo Burroni e Trigilia (2004) un indice di localizzazione (addetti all’industria manifatturiera sul totale degli addetti), composto con un indice di dimensione prevalente delle imprese nel SPL (addetti alle unità locali manifatturiere con meno di 50 addetti sul totale degli addetti alle u.l. manifatturiere)22. Di nuovo le due componenti dell’indice sono state standardizzate sui corrispondenti livelli nazionali. L’indice che identifica il SPL assume quindi questa forma: Add m ,i SPLi = Add m ,I Add i Add I Add ≤ 50m ,i ∗ Add ≤ 50m ,I Add m ,i (4.3) Add m ,I dove i identifica il SLL23, m indica l’industria manifatturiera, Add è il numero degli addetti e Add ≤ 50 è il numero degli addetti alle unità locali con meno di 50 addetti. L’indice si semplifica quindi in: Add ≤ 50 m ,i SPLi = Add ≤ 50 m ,I Add i (4.4) Add I 22 L’indicatore dimensionale è decisivo ai fini dell’identificazione del SPL dal momento che indici di localizzazione elevati possono registrarsi anche a seguito della presenza di una o poche grandi imprese, che ovviamente non configurerebbero un SPL coerente con la definizione adottata in questo studio. La dimensione di 50 addetti (piccola impresa), piuttosto che quella a 250 (PMI), come soglia discriminate è apparsa più adeguata a rappresentare i caratteri strutturali dell’industria manifatturiera italiana. Va peraltro detto che, dal punto di vista statistico, i due indicatori presentano elevatissimi livelli di correlazione e quindi la scelta di uno o dell’altro ha effetti trascurabili. 23 Riferire gli indicatori che identificano il SPL al livello territoriale di SLL implica, da un lato rafforzare il carattere di SPL (perché l’agglomerazione insiste su un “luogo” economico); dall’altro far coincidere la loro dimensione geografica. E’ bene tenere conto però che il SPL si definisce sulla base delle relazioni tra le imprese, la cui estensione geografica non necessariamente ricalca quelle tra persone ed imprese che identifica il SLL. Tanto è vero che, come già accennato, spesso un SPL si estende su più SLL. In indagini condotte su scale geografiche ampie, dove non è possibile introdurre informazioni qualitative di correzione, questa approssimazione risulta necessaria ed inevitabile. Per un’esposizione di questa e di altre critiche all’uso dei SLL si veda Garofoli (2002). 21 L’indice continuo SPL indica la presenza e la forza di un sistema di produzione locale all’interno di un SLL, ma nulla ancora dice sul comparto o sui comparti dell’industria manifatturiera che sono presenti24. A questo fine è stato utilizzato, per ogni SLL, un indicatore di specializzazione (SPEC) relativo alle 14 sottosezioni dell’industria manifatturiera (addetti alla sottosezione su addetti all’industria manifatturiera), di nuovo standardizzato sulla corrispondente media italiana25: Add s ,i SPEC s ,i = Add s ,I Add m ,i . (4.5) Add m ,I Questa operazione ha implicato la costruzione di una variabile di 784 (SLL) x 14 (Sottosezioni) osservazioni che è stata associata a SPL. Ciò ha condotto alla creazione di una nuova variabile SPL_SPEC, indicatore della forza del SPL in ognuna delle specializzazioni settoriali per ogni SLL: SPL _ SPECs ,i = SPLs ,i × SPECs ,i (4.6) Infine, per approssimare l’importanza del sistema di produzione locale, nella sua specializzazione, sulla società locale (esistenza di economie esterne omogenee di SL) è stato creato un indicatore di diffusione (addetti alla sottosezione su residenti) che descrive la pervasività del settore all’interno del SL. Add s ,i Re s i (4.7) DIFFs ,i = Add s ,I Re s I La sua trasformazione dicotomica (uno se DIFF > 1; zero altrimenti), permette di aggiungere all’indicatore SPL_SPEC l’ulteriore informazione se 24 Come già rilevato, nulla vieta infatti che, all’interno di un sistema locale, possano coesistere più sistemi di produzione locale. 25 La scelta di questa ripartizione settoriale, obbligata dalla disponibilità dei dati sull’export, non è naturalmente ottimale per l’individuazione delle reali specializzazioni dei SPL. Più in generale, essendo un SPL composto anche da industrie ausiliarie a quella principale (ad esempio meccano-tessile per il tessile), è proprio l’impostazione settoriale a rappresentare una prospettiva, pur se obbligata, di per sé imprecisa. Per una importante discussione di questi aspetti si veda Becattini e Menghinello (1998). 22 il sistema di produzione locale specializzato è anche pervasivo sulla società locale di cui è parte. SPL _ SPEC _ DIFFs ,i = SPL _ SPECs ,i × DIFF _ Ds ,i (4.8) L’organizzazione degli indicatori e la maglia territoriale prescelta (i SLL) ribadiscono come sullo sfondo dell’analisi sia saldamente presente l’esperienza competitiva dei sistemi di produzione locale distrettuali, ampiamente sottolineata nella letteratura richiamata. Diversamente dai lavori che si sono occupati di verificare in vari modi l’esistenza del cosiddetto effetto distretto con caratteristiche dicotomiche strette (impresa distrettuale/impresa non distrettuale), la presente analisi cerca però di offrire un quadro più ampio, cercando di ricostruire alcuni degli elementi organizzativi che, pur potendo culminare nella forma distrettuale, anche senza esserlo attingono parzialmente da quel modello. 4.2. Caratteristiche del database e prime evidenze dai dati Le informazioni relative al commercio estero disponibili per l’Italia (Istat), hanno tradizionalmente offerto un notevole e maggiore dettaglio spaziale rispetto alle corrispondenti elaborazioni a livello internazionale. E’ infatti possibile, con un’elevata qualità del dato statistico26, accedere alle serie storiche di import/export fino a livello di Regioni e Province amministrative (NUTS III). Compresa però l’importanza di superare tutte le difficoltà legate a tale dettaglio di unità spaziali di riferimento, l’Istat ha nel 2002, attraverso la combinazione di diversi archivi statistici, pubblicato i dati relativi alle performance dell’export a livello di sistema locale del lavoro. Passaggio fondamentale che consente di cogliere la complessa articolazione e natura delle molteplici realtà locali e di superare tutti i problemi di approssimazione affrontati per la valutazione delle performance esportative a livelli territoriali aggregati (Bronzini, 2000; Conti e Menghinello, 1995). Al fine di quantificare valore e composizione geografica e settoriale delle esportazioni per SLL, l’Istat ha integrato le informazioni, a livello di micro dati, contenute nell’archivio statistico degli operatori del commercio con l’estero (COE) e nell’archivio statistico delle imprese attive nell’industria e nei servizi (ASIA). Collegando le informazioni sulla composizione 26 L’affidabilità del dato deriva dal fatto che le informazioni sono tratte direttamente dalle dichiarazioni statistico-fiscali compilate dagli operatori che realizzano scambi con l’estero. Attraverso graduali miglioramenti qualitativi, è oggi possibile attribuire su base provinciale oltre il 99% delle esportazioni nazionali (Istat, 2002). 23 merceologica e geografica delle esportazioni italiane con la localizzazione delle imprese che effettuano transazioni su mercati internazionali, è stato possibile attribuire a livello territoriale, anche attraverso opportuni aggiustamenti la quasi totalità del valore delle esportazioni nazionali (92,5% dell’export di prodotti trasformati e manufatti, per cui sono disponibili i dati). Di questa quota una porzione variabile dall’11 al 29% a seconda dei settori, è stata attribuita sulla base di criteri prestabiliti (e non direttamente) per effetto della presenza di imprese plurilocalizzate e commerciali, per le quali non è possibile determinare univocamente la provenienza del prodotto esportato. La significatività del dato rimane comunque buona, specie in quei sistemi locali (di piccole e media impresa) in cui queste tipologie d’imprese sono meno frequentemente presenti27. I dati (riferiti al 1996) utilizzati in questo lavoro si riferiscono alle esportazione di prodotti trasformati e manufatti dei 784 SLL italiani, a livello di sottosezioni di attività economica (Classificazione ATECO 91 a due lettere in 14 sottosezioni dell’industria manifatturiera)28. Qualche considerazione di carattere puramente descrittivo su questi dati consente di acquisire una prima idea complessiva sulla geografia delle performance dell’export dei SLL italiani. Nella tabella 2, in particolare, è riportata nella prima colonna la percentuale dei SLL che, pur effettuando delle produzioni nei vari comparti, raggruppati per esigenze di sintesi in quattro macro settori proposti dall’Istat (2002)29, non esportano. 27 Per una discussione completa della metodologia utilizzata, si rimanda comunque direttamente ad Istat (2002), pp.30-40. 28 A questo livello di diffusione dei dati, risulta decisamente tollerabile la perdita di informazioni derivanti dalle procedure per la tutela della riservatezza del dato statistico. Nel database diffuso dall’Istat vengono oscurati quei dati che possono essere ricondotti direttamente o facilmente ai singoli soggetti economici: quando, in particolare, per una determinata variabile ed un sistema locale del lavoro, il dato deriva da un numero di soggetti minore o uguale a tre, esso viene oscurato. Questa procedura può generare una sottostima del valore totale delle esportazioni dei sistemi locali interessati, da ritenersi comunque trascurabile. Sebbene non sia disponibile il dato medio relativo ai singoli sistemi locali, il confronto tra la somma dei valori dell’export dei SLL (sottoposti ad oscuramento dei dati sensibili) ed il totale dell’export dei SLL italiani fornito in forma aggregata dall’Istat (e quindi non oscurato), si attesta allo 0,8%. 29 (1) Prodotti dell’industria alimentare (sottosezione DA – Prodotti alimentari, delle bevande e del tabacco); (2) Prodotti tradizionali del Made in Italy (sottosezioni: DB – Prodotti dell’industria tessile e dell’abbigliamento; DC – Cuoio e prodotti in cuoio; DD – Legno e prodotti in legno; DI – Prodotti della lavorazione di metalli non metalliferi; DN – Alti prodotti delle industrie manifatturiere); (3) Prodotti dell’industria meccanica (sottosezione DK – Macchine ed apparecchi meccanici); (4) Prodotti delle altre industrie manifatturiere (sottosezioni DE – DF – DG – DH – DJ – DL – DM). 24 Tab. 2 - Composizione dei SLL per livelli di export performance per settore e area geografica Altre manifatt. Meccanica Made in Italy Alimentare Export No export EXP (EXP=0) (media) Scarsamente competitivi (0<EXP<0,4) Debolmente competitivi Mediamente competitivi (0,4<EXP<0,8) (0,8<EXP<1,2) Significativ. Competitivi (EXP>1,2) Nord Ovest 15.7 1.08 33.1 23.7 9.4 33.9 Nord Est 22.1 1.18 37.6 14.6 16.6 31.2 Centro 31.9 0.71 57.6 16.3 15.2 10.9 Sud 50.9 0.53 67.5 16.3 6.3 10.0 Isole 55.3 0.63 63.8 11.0 5.4 19.9 Italia 36.5 0.86 50.1 17.2 10.9 21.9 Nord Ovest 13.3 1.02 45.2 20.6 15.0 19.2 Nord Est 19.8 1.25 40.6 21.8 8.6 28.9 Centro 30.6 0.61 56.2 21.8 9.9 12.1 Sud 67.6 0.51 75.6 12.3 2.5 9.6 Isole 73.2 0.49 80.2 10.8 2.2 6.7 Italia 42.4 0.87 53.8 19.3 9.2 17.7 Nord Ovest 4.4 0.94 20.8 34.6 20.0 24.6 Nord Est 10.4 0.86 22.5 26.7 30.8 20.0 Centro 21.8 0.76 35.6 29.8 19.2 15.4 Sud 56.0 0.46 57.5 25.0 10.0 7.5 Isole 61.2 0.39 85.1 0.0 0.0 14.9 Italia 31.1 0.75 36.1 27.0 19.2 17.7 Nord Ovest 9.8 1.52 36.0 24.0 14.5 25.5 Nord Est 16.2 1.57 37.6 20.3 17.3 24.8 Centro 29.8 0.95 56.0 18.8 9.8 15.4 Sud 66.4 0.59 65.3 15.1 7.1 12.5 Isole 71.1 0.62 70.1 10.1 6.9 12.8 Italia 39.1 1.21 47.5 19.6 12.7 20.2 Fonte: elaborazione su dati Istat (2002) 25 Il dato significativo, al di là degli aspetti settoriali, riguarda la caratterizzazione delle capacità esportative dei SLL delle diverse aree del Paese. Man mano che si scende verso il sud e le isole, aumenta infatti drasticamente la percentuale dei contesti territoriali che non hanno accesso ai mercati internazionali. Questo vale per tutti i settori, ma in maniera ancora più marcata per il made in Italy e le Altre industrie manifatturiere. Anche il livello medio di export performance (colonna 2) suggerisce una gerarchia geografica nord-sud, con i SLL del nord-est stabilmente in cima alla graduatoria, seguiti dal nord-ovest (la gerarchia si inverte solo per il settore meccanico), quindi dal centro, e dal sud e le isole in posizioni intercambiabili a seconda dei settori. La distribuzione dei soli SLL esportatori a seconda dei livelli di competitività conferma infine la nota debolezza relativa delle aree meridionali, con una notevole concentrazione di osservazioni nelle classi di competitività più deboli; al contrario di quanto accade per gli aggregati del centro e del nord, in cui la quota di SLL che esportano più della media nazionale appare di dimensioni più significative. Al fine di rendere più chiaramente apprezzabile questa differenziazione su base geografica, sono riportati di seguito i grafici che sintetizzano la stima di densità non parametrica Kernel, da cui si evince con maggiore chiarezza la forma della distribuzione dell’indicatore di performance nelle cinque ripartizioni geografiche italiane30. 30 Nelle stime Kernel la distribuzione di EXP è stata troncata a 2,5 per evitare che i valori alti dell’indicatore rendessero poco efficace la rappresentazione grafica. Questo ha condotto all’esclusione di 321 osservazioni sul totale di 9022. Queste osservazioni ampiamente sopra la media si distribuiscono così nelle diverse aree: 35% al nord-est, 32% al nord-ovest, 16% al centro, 11% al sud e 5% alle isole. 26 Graf. 1 - Distribuzione dei livelli di performance Nord Est Nord Ovest Den sity De nsit y 1 .8 .8 .6 .6 .4 .4 .2 .2 0 0 0 .5 1 EXP 1.5 2 0 2.5 .5 1 Centro 1.5 2 1.5 2 2.5 1.5 2 2.5 EXP 2.5 Sud 2.5 2 Den sity1.5 Den sity1.5 1 1 .5 .5 0 0 0 .5 1 EXP 1.5 2 2.5 0 .5 Isole 1 EXP Italia 3 2 Den sity Den sity1.5 1 1 .5 0 0 0 .5 1 EXP 1.5 2 2.5 0 27 .5 1 EXP Tornando alla tabella 2, anche ragionando a livello settoriale, è facile notare come, ad esempio a livello italiano, le possibilità di accesso ai mercati internazionali siano più concentrate nel caso del made in Italy (dove il 42.4% dei SLL che producono non esportano) e delle Altre industrie manifatturiere (39.1%), rispetto al settore della meccanica, dove in più di due SLL su tre si esporta. In una posizione intermedia figura invece il settore alimentare, dove però è relativamente più probabile conquistare posizioni di eccellenza (classe di export significativamente sopra la media nazionale). Questi risultati confermano forti differenze strutturali a livello geografico e settoriale e suggeriscono la necessità di tenere conto esplicitamente di ciò nel seguito dell’analisi. 4.3. Analisi econometrica: metodologia Le stime econometriche che sono proposte nel seguito del lavoro misurano gli effetti di un gruppo di potenziali determinanti della performance dell’export di un SLL, sintetizzata attraverso l’indicatore EXP. Come si è osservato attraverso le statistiche descrittive, molti sistemi locali (specie nel sud e nelle isole), per registrando la presenza di unità locali nelle varie sottosezioni, non rilevano alcuna dimensione esportativa. Questa caratteristica dei dati (elevata incidenza di osservazioni con la variabile dipendente EXP uguale a 0) preclude l’uso dei minimi quadrati ordinari (OLS) per valutare la significatività statistica di una sua qualsiasi relazione con una o più variabili esplicative. L’osservazione della variabile dipendente censurata inferiormente determina, infatti, errori di stima violando una delle proprietà più importanti dello stimatore OLS ( ∑ ei = 0 ). In altro modo, i censurando gli errori con segno negativo la media risultante da stime OLS è algebricamente positiva. Mutuando la specificazione da precedenti studi effettuati a livello di impresa che avevano l’obiettivo di indagarne la performance dell’export, alcuni modelli empirici hanno cercato di caratterizzare le relazioni del volume dell’export con alcune variabili esplicative attraverso un processo decisionale multistadio: le imprese scelgono dapprima se partecipare o no ai mercati internazionali e, una volta deciso di partecipare, stabiliscono il livello di produzione destinato all’export (Wakelin, 1998). La procedura per la verifica empirica consiste, quindi, nella stima di un modello discreto che distingue la performance delle imprese che esportano da quelle che non esportano; solo in un successivo stadio le stime di performance sono incentrate sulle unità che producono anche per l’esportazione. Un’altra parte di letteratura ha invece individuato come benchmark per la valutazione della performance dell’export un processo decisionale sincronico 28 (Wagner, 2001) che permette di recuperare la consistenza nelle stime relative a regressioni Tobit. Data la natura dei dati, che come evidenziato presentano un numero elevato di combinazioni SLL/settori che non esportano, questo secondo approccio metodologico (traslato a livello territoriale) appare il più adeguato rispetto agli obiettivi dell’analisi. Nella specificazione econometrica, consideriamo quindi y=EXP come la “observable choice” che descrive il comportamento delle imprese di un SLL, con le seguenti caratteristiche: y prende valore zero con una probabilità non nulla quando il SLL non esporta, ma risulta essere una variabile casuale continua per valori strettamente positivi, nella situazione in cui il SLL esporta. L’inconsistenza delle stime dei minimi quadrati ordinari è connessa in modo non lineare alla presenza di SLL che non esportano, ma una volta definita la natura della “corner solution” il problema non risiede nell’osservabilità della variabile dipendente, ma nella distribuzione di y dato il vettore di X, considerando (Εy|x) e P(y=0|x). La derivazione dello stimatore Tobit consente, attraverso la stima di massima verosimiglianza (ML), di recuperare la stima dei parametri sotto l’ipotesi di una probabilità positiva per livelli di export dei SLL pari a zero (Lin e Schmidt, 1984). La strategia di specificazione dei modelli muove dalla stima di un modello generale in cui la variabile dipendente EXP è messa in relazione con l’esistenza delle varie caratteristiche assunte come significative per la rappresentazione della presenza di varie forme di economie esterne. Ciò ovviamente tenendo conto dei rapporti di gerarchia esistenti tra le diverse forme di economie esterne omogenee precedentemente individuati, e cioè del fatto che le economie denominate di SL si innestano laddove esistono già economie di SPL, rafforzandone gli effetti positivi sulla competitività. Questo implica che mentre le variabili DENS e SPL_SPEC possono coesistere all’interno del modello (perché spiegano due sorgenti di economie esterne indipendenti), ciò non può accadere per SPL_SPEC e SPL_SPEC_DIFF. I modelli iniziali assumono pertanto la forma: EXPs ,i = f ( DENSi , SPL _ SPECs ,i ) (4.9) e EXPs ,i = f ( DENS i , SPL _ SPEC _ DIFF _ D s ,i ) (4.10) Sia per effetto dei risultati delle analisi descrittive che con riferimento alla letteratura esistente (ad esempio Bagella et al., 1998), l’analisi è stata poi approfondita sia a livello settoriale che a livello geografico, seguendo però approcci strategici diversi corrispondenti ad ipotesi teoriche diverse. Alla 29 base della specificazione settoriale è posta infatti l’ipotesi dell’esistenza o meno degli effetti delle economie esterne omogenee individuate, ed è quindi sensato indagare le relazioni funzionali isolando i sottoinsiemi delle osservazioni SLL/sottosezione per settori o aggregati di essi. Questo implica pertanto la stima di tanti modelli quanti sono i sottoinsiemi settoriali individuati. Al contrario, per quanto attiene alle diversità geografiche, non viene meno l’ipotesi che l’esistenza di assetti organizzativi forieri di economie esterne conferisca vantaggi di competitività, ma deve essere aggiunta tra le variabili esplicative l’informazione che diversità strutturali ed infrastrutturali materiali ed immateriali (o semplici distanze geografiche) hanno influenza sulle dinamiche esportative delle imprese. Per questo da un lato si è proceduto alla stima dei modelli di base (9 e 10) per i vari sottoinsiemi settoriali individuati. Dall’altro si è semplicemente proceduto ad inserire nei vari modelli le dummy delle ripartizioni geografiche, al fine di tenere conto esplicitamente delle note diversità strutturali ed infrastrutturali esistenti nelle diverse aree del Paese. La significatività e i segni delle dummy consentono di controllare la stabilità dei risultati attraverso il raffinamento delle stime con l’introduzione di informazioni rilevanti note ex ante e illustrano gli effetti (relativi) che la localizzazione del SLL (e delle imprese) ha sui propri livelli di competitività. E’ stato già evidenziato come tutta la costruzione (teorica ed empirica) del lavoro si fondi sull’esperienza e sull’evidenza empirica della forza competitiva dei distretti industriali. Per rendere più esplicita anche in questa sede la verifica dell’ipotesi di un effetto distretto, un’ ultima opzione di specificazione del modello è stata costruita regredendo EXP con una variabile dicotomica DISTRi che assume valore 1 se il sistema locale si caratterizza come un distretto industriale (secondo l’identificazione Istat dei 199 SLL con caratteristiche compatibili con il distretto industriale) (MAP, 2002), e zero altrimenti. Dati i problemi di raccordo tra specializzazione dei distretti Istat e la ripartizione settoriale dei dati utilizzati in questo lavoro, la caratteristica distrettuale di un SLL è stata attribuita a tutte le combinazioni SLL/sottosezione31: ciò, nell’approssimazione che comporta, è tuttavia coerente con l’idea di distretto come forma organizzativa peculiare non solo del sistema produttivo, ma anche della società locale di cui questo rappresenta una componente fondamentale. Si prefigura quindi l’ipotesi, non banale ma frequente, dell’esistenza di un effetto distretto “allargato” anche alle imprese della specializzazione non distrettuale: in altri termini si prefigura l’esistenza di spillover positivi anche al di fuori del SPL che caratterizza il distretto. 31 Ad esempio nel caso di un SLL riconosciuto distretto nella specializzazione produttiva della meccanica è stata attribuita la caratteristica distrettuale a tutte le osservazioni (di export performance) relative a quel SLL (ad esempio industria alimentare, tessile/abbigliamento, etc.). 30 4.4. Analisi econometrica: risultati I risultati delle prime specificazioni delle funzioni 9 e 10, ottenuti attraverso la procedura Tobit, sono riportati nella Tabella 3. Tab. 3 - Stime Tobit per i dati aggregati Variabile dipendente: EXP N. osservazioni: 9022; Censurate a sinistra: 3569; Non Censurate: 5454 Variabili esplicative Coefficiente Livello di significatività DENS 0.449 0.000 SPL_SPEC 0.125 0.000 Costante -1.932 0.000 DENS 0.453 0.000 SPL_SPEC_DIFF 1.206 0.000 Costante -2.133 0.000 A livello aggregato (dati pooled) le variabili esplicative si dimostrano altamente significative nello spiegare i livelli di export performance dei territori e con il segno atteso32. I SL più urbani confermano perciò l’ipotesi di migliori performance competitive legate, secondo la nostra ipotesi, all’operare di economie esterne eterogenee. Rispetto a questo primo output dell’analisi è inoltre opportuno sottolineare la differenza significativa tra l’entità dei coefficienti delle due variabili che approssimano l’esistenza di economie omogenee: laddove il sistema di produzione risulta più pervasivo sulla società locale i vantaggi in termini di competitività sembrano farsi decisamente più consistenti. A partire da questa incoraggiante evidenza si è proceduto a stimare i modelli settoriali, al fine di poter evidenziare l’operare o meno dei diversi tipi di economie esterne in comparti produttivi strutturalmente diversificati. La ripartizione utilizzata nelle analisi descrittive è apparsa insufficiente a 32 I bassi livelli di correlazione tra le variabili esplicative (-0.0112 tra DENS e SPL_SPEC; 0.0002 tra DENS e SPL_SPEC_DIFF) escludono la presenza di multicollinearità nei modelli stimati. 31 rappresentare la diversità strutturale dei diversi comparti produttivi. Per questa ragione sono stati direttamente stimati i quattordici modelli settoriali corrispondenti alle sottosezioni dell’industria manifatturiera (tabella 4). Questa scelta è apparsa la più adeguata considerando il vincolo di disaggregazione settoriale dei dati disponibili (sottosezioni) che non ha consentito una riclassificazione più fine33. I risultati delle stime dei modelli settoriali sembrano fornire altre indicazioni interessanti e coerenti con le aspettative ex ante. Tab. 4 - Stime Tobit per subcampioni settoriali DENS SPL_SPEC Costante DENS SPL_SPEC_DIFF Costante DA (Alimentare) n. oss: 764; oss. non censurate: 485 DB (Tessile abbigliamento) n. oss: 1286; oss. non censurate: 762 DC (Pelletteria) n. oss: 1286; oss. non censurate: 762 DD (Legno) n. oss: 763; oss. non censurate: 383 DE (Grafica e Cartotecnica) n. oss: 697; oss. non censurate: 380 DF (Combustibili e carburanti) n. oss:273; oss. non censurate: 95 DG (Chimica e fibre artificiali) n. oss:519; oss. non censurate: 355 DH (Articoli in gomma e materie plastiche) n. oss:584; oss. non censurate: 408 DI (Lavorazione minerali non metalliferi) n. oss: 753; oss. non censurate: 439 0.248 (0.000) 0.219 (0.000) -0.532 0.247 (0.000) (0.000) 1.016 (0.000) -0.496 (0.000) 0.152 (0.000) 0.151 (0.014) -0.297 0.156 (0.000) (0.000) 0.398 (0.000) -0.272 (0.000) 1.225 (0.000) 0.089 (0.122) -4.667 1.247 (0.000) (0.000) 1.567 (0.015) -4.994 (0.000) 0.273 (0.000) 0.136 (0.014) -0.839 0.283 (0.000) (0.000) 0.774 (0.000) -0.910 (0.000) 0.124 (0.000) 0.514 (0.014) -0.660 0.120 (0.000) (0.002) 1.164 (0.000) -0.441 (0.000) 0.203 (0.000) -0.009 (0.688) -1.035 0.208 (0.000) (0.000) 0.156 (0.517) -1.091 (0.000) 0.186 (0.011) 0.107 (0.360) -0.115 0.182 (0.525) (0.013) 0.343 (0.237) -0.091 (0.587) 0.143 (0.153) 0.121 (0.235) -0.492 0.128 (0.042) (0.202) 0.552 (0.030) -0.509 (0.022) 0.175 (0.000) 0.124 (0.000) -0.396 0.183 (0.000) (0.000) 0.608 (0.000) -0.379 (0.000) 33 Ad esempio, disponendo del dettaglio per gruppi e categorie è possibile giungere ad una classificazione più soddisfacente, come quella elaborata in Istat (1997), composta da: (1) Industrie alimentari, (2) Industrie leggere, (3) Industrie pesanti, (4) Industria meccanica, (5) Industrie cartotecniche e poligrafiche. Le industrie leggere sono a loro volta distinte in: (i) Tessile ed abbigliamento, (ii) Pelletteria, (iii) Prodotti per l’arredamento, (iv) Oreficeria, strumenti musicali, etc. 32 continua Tab. 4 DJ (Metallo e prodotti in metallo) n. oss: 764; oss. non censurate: 473 DK (Meccanica) n. oss: 687; oss. non censurate: 474 DL (Elettronica) n. oss: 735; oss. non censurate: 413 DN (Altre industrie manifatturiere) n. oss: 734; oss. non censurate: 454 DM (Mezzi di trasporto) n. oss:463; oss. non censurate: 333 0.207 (0.001) 0.470 (0.000) -1.087 0.184 (0.000) (0.003) 0.939 (0.000) -0.858 (0.000) 0.071 (0.009) 0.324 (0.000) -0.077 0.073 (0.225) (0.008) 0.455 (0.014) 0.064 (0.268) 0.325 (0.004) 0.432 (0.001) -1.893 0.331 (0.000) (0.003) 1.055 (0.002) -1.760 (0.000) 0.177 (0.000) 0.136 (0.000) -0.512 0.178 (0.000) (0.000) 0.625 (0.000) -0.526 (0.000) 0.268 (0.559) 0.272 (0.685) -2.318 0.266 (0.047) (0.560) 1.042 (0.566) -2.292 (0.037) Tra parentesi è indicato il p_value Dalle stime dei modelli settoriali è possibile infatti dedurre alcune informazioni interessanti. Il coefficiente del parametro DENS, che approssima l’operare di economie esterne eterogenee, risulta non significativo solo per i comparti DH e DM. In altri termini, solo in questi due settori, sui quattordici considerati, la performance esportativa delle imprese sembra essere indifferente ai livelli di urbanità del SL. Si tratta di due dei settori dell’industria di base tradizionale34, le cui performance esportative probabilmente prescindono di più dai caratteri dei luoghi in cui sono localizzate le imprese. In tutti gli altri casi le imprese esportatrici traggono vantaggio dall’essere localizzate in ambienti in cui è plausibile che siano più forti economie esterne di tipo eterogeneo; questo è particolarmente vero per i comparti delle pelletterie, dell’elettronica, dell’alimentare e del legno (dove i coefficienti sono maggiori). I risultati si fanno ancora più rilevanti se si osservano i coefficienti delle variabili che, nei due modelli, esprimono la presenza di economie esterne omogenee (di SPL o di SL). Nel primo caso, tali effetti si producono in tutti i settori ad eccezione di quelli dell’industria pesante (DG – DH – DI –DM) e 34 Di nuovo la disaggregazione settoriale non consente un collocamento diretto delle varie sottosezioni nelle ripartizioni settoriali comunemente utilizzate. Ad esempio, all’interno della sottosezione DM sono classificati comparti produttivi sicuramente non riconducibili all’industria di base, come gli accessori e la componentistica dei mezzi di trasporto. Similmente, ad esempio la sottosezione DJ include sia l’industria metallurgica che la fabbricazione e lavorazione dei prodotti in metallo (ad esempio lo stampaggio lamiere). 33 del settore dei prodotti di pelletteria (DC). Come prevedibile quindi le determinanti della competitività internazionale delle imprese dei settori tradizionalmente associati all’industria pesante sono da ricercare più al loro interno che nei contesti in cui operano. Appare invece controintuitivo il risultato della sezione DC, dal momento che si tratta di un’industria che contiene al suo interno comparti tipicamente distrettuali (si pensi al caso delle calzature). Sia però il settore DC che il settore DH mostrano, nella seconda specificazione delle stime, un coefficiente significativo e positivo della variabile che descrive la probabile presenza di economie esterne di SL. Dati i caratteri e la natura dei due settori, è possibile tracciare qualche ipotesi interpretativa dei risultati. Nel primo caso (DC) è infatti possibile ipotizzare che economie esterne omogenee agiscano in maniera rilevante solo se il sistema di produzione locale permea significativamente la società locale; in altri termini tanto più ci si approssima alla forma tipicamente distrettuale. Nel secondo caso (DH), piuttosto che l’approssimazione della forma distrettuale, di fatto estranea alle specificità settoriali, è possibile invece ipotizzare che la variabile dummy dei livelli di diffusione, capace con la correzione che introduce di influenzare la significatività statistica dell’indicatore SPL_SPEC, segnali l’esistenza di economie esterne legate alla diffusione di un’industria, pur non organizzata in SPL, in un territorio. Questa forma di economie esterne (che potremmo chiamare di sola diffusione) si può ad esempio rintracciare in un contesto dove esiste una o poche imprese di elevate dimensioni, che caratterizzano la società locale e ne conformano, in modo da trarne vantaggio, ad esempio il mercato del lavoro o le condizioni istituzionali35. Sebbene questa tipologia di vantaggi non sia oggetto della nostra analisi, solo al fine di rafforzare questa ipotesi interpretativa sono state effettuate delle stime (di nuovo tobit) settoriali per le industrie pesanti, utilizzando come variabile indipendente l’indicatore continuo DIFF (8) (Tabella 5). Tab. 5 - Stime Tobit per i settori dell’industria pesante con l’indicatore di diffusione DIFF Costante DF DG DH DM 0.023 (0.320) -0.767 (0.000) 0.215 (0.036) 0.051 (0.734) 0.250 (0.015) -0.447 (0.029) 0.187 (0.561) -1.810 (0.032) 35 Rispetto alla classificazione della tabella uno si configura quindi un’altra combinazione possibile: quella dell’impresa isolata (o di poche imprese isolata) che caratterizza il SL. 34 Il risultato mostra che, almeno per alcune di queste industrie (DG e DH) un elevato livello di diffusione sul territorio è in grado di conferire qualche vantaggio di competitività. Un’ultima riflessione con riferimento alla tabella 5 può essere condotta confrontando l’entità dei coefficienti degli indicatori cui associamo la presenza delle economie esterne. Il primo luogo va segnalata la stabile superiorità dei coefficienti SPL_SPEC_DIFF rispetto quelli di SPL_SPEC; questo conferma come, se l’organizzazione in forma di SPL rappresenta un vantaggio, quando esso è permeante sulla società locale questo vantaggio si amplifica. In secondo luogo è possibile stilare una graduatoria dei settori in cui le economie esterne omogenee sono relativamente di più all’opera. Si tratta in particolare dei comparti della grafica e cartotecnica, della fabbricazione dei prodotti in metallo, dell’elettronica e della meccanica36. La forte differenziazione su base geografica delle performance esportative dei SLL ha inoltre suggerito l’opportunità di controllare la sensibilità dei risultati delle stime alla luce dei noti differenziali strutturali ed infrastrutturali esistenti in Italia. L’operazione di rendere espliciti tali fattori, inserendo nei modelli di base delle dummy geografiche relative alla ripartizione di appartenenza del SLL, consente quindi da un lato di meglio specificare le relazioni tra le variabili di interesse; dall’altro di evidenziare in quali settori queste differenze siano più o meno marcate. La tabella 6 mostra i risultati delle stime dei modelli aggregati e settoriali con l’inserimento delle dummy geografiche37. I coefficienti delle variabili dei modelli aggregati stimati, oltre a confermare la significatività e il segno delle variabili che descrivono presenza e forza di economie esterne, mostrano con chiarezza lo svantaggio relativo che i SLL localizzati al centro e soprattutto al meridione soffrono nell’accesso ai mercati, confermando la forte diversità già rilevata nelle analisi descrittive. Le specificazioni dei modelli settoriali confermano ampiamente i risultati ottenuti in precedenza; in aggiunta forniscono però alcune indicazioni interessanti su quanto questi gap geografici siano attenuati o esaltati o non significativi nei vari settori. Ad esempio la gerarchia nord 36 Nel caso, già ricordato, dell’indicatore di economie di SL, anche il settore della pelletteria presenta un coefficiente elevato. I dati relativi al comparti dei metalli e prodotti in metallo soffrono invece dell’ambiguità (metallurgia/metalmeccanica) precedentemente descritta. 37 Naturalmente nel modello sono state inserite quattro variabili dicotomiche (Nord ovest, Nord est, Sud ed Isole) per evitare problemi di multicollinearità. Questo significa che i coefficienti ed i segni delle variabili devono essere interpretati in termini relativi rispetto alla quinta variabile esclusa (centro), che costituisce quindi il termine di riferimento incorporato nel coefficiente della costante. 35 ovest / nord est presente a livello aggregato viene invertita nel caso delle industrie della moda (tessile abbigliamento e pelletteria), nella fabbricazione e lavorazione dei minerali non metalliferi (DI) e nell’elettronica (DL). Interessante anche notare come nel comparto della produzione di metallo e prodotti in metallo (DJ) la localizzazione al nord non conferisca né vantaggi né svantaggi relativi significativi sul piano dell’export. Le aree del meridione (sud e isole) mantengono invece in tutti i settori uno stabile svantaggio relativo (rispetto alle altre ripartizioni). L’affinamento dei modelli settoriali attraverso l’uso delle variabili dicotomiche conferma infine la maggior capacità esplicativa dell’indicatore di economie di SL, rispetto all’indicatore di SPL. Questo ribadisce quanto già rilevato: l’organizzazione in SPL conferisce vantaggi nell’accesso ai mercati internazionali, ma se il SPL connota significativamente la società locale questo vantaggio tende ad amplificarsi. Questo risultato, conseguito considerando i dati a livello nazionale, è confermato anche per i sottocampioni di SLL del Mezzogiorno e dell’Italia centrale38; risultati più ambigui (in termini di significatività delle variabili) si ottengono invece per gli aggregati del nord. Questo significa che, se gli assetti organizzativi che producono economie esterne omogenee sono capaci di spiegare la diversità della performance dell’export a livello nazionale, nei contesti tradizionalmente più deboli questi fattori risultano ancora più decisivi rispetto ad altri contesti, al cui interno le differenze di performance rispondono evidentemente anche ad altre condizioni. 38 I risultati delle stime non sono riportati per brevità espositiva ma sono ovviamente disponibili presso gli autori. 36 Tab. 6 - Stime Tobit per settore e ripartizione geografica del modello Aggregato DA DB DC DD DE DF DG DH DI DJ DL DK DM DN DENS 0.501 (0.000) 0.248 (0.000) 0.161 (0.000) 1.412 (0.000) 0.279 (0.000) 0.140 (0.000) 0.217 (0.000) 0.212 (0.002) 0.202 (0.043) 0.181 (0.000) 0.234 (0.000) 0.386 (0.001) 0.086 (0.001) 0.488 (0.287) 0.192 (0.000) SPL_SPEC 0.060 (0.005) 0.205 (0.000) 0.093 (0.000) 0.090 (0.127) 0.092 (0.000) 0.375 (0.000) -0.002 (0.923) -0.111 (0.334) -0.032 (0.760) 0.121 (0.000) 0.234 (0.003) 0.051 (0.692) 0.138 (0.001) -0.372 (0.582) 0.083 (0.004) Nord ovest 1.283 (0.000) 0.548 (0.005) 0.348 (0.005) 3.177 (0.028) 0.430 (0.015) 0.884 (0.000) 0.682 (0.021) 1.517 (0.000) -0.046 (0.927) 0.425 (0.002) -0.005 (0.986) 1.321 (0.015) 0.319 (0.012) 4.135 (0.088) 0.437 (0.048) Nord est 1.203 (0.000) 0.531 (0.006) 0.452 (0.006) 3.674 (0.010) 0.394 (0.028) 0.681 (0.000) 0.924 (0.002) 1.110 (0.003) 0.030 (0.952) 0.447 (0.001) -0.065 (0.828) 1.427 (0.010) 0.184 (0.152) 3.413 (0.170) 0.430 (0.051) Sud -2.957 (0.000) -0.669 (0.000) -0.784 (0.000) -4.852 (0.002) -1.196 (0.000) -0.892 (0.000) -0.639 (0.062) -1.386 (0.000) -2.529 (0.000) -0.885 (0.000) -2.027 (0.000) -2.909 (0.000) -0.723 (0.000) -7.873 (0.003) -0.832 (0.000) Isole -3.220 (0.000) -0.629 (0.003) -0.745 (0.003) -7.701 (0.000) -1.283 (0.000) -1.102 (0.000) 0.253 (0.475) -1.101 (0.016) -2.239 (0.000) -0.918 (0.000) -2.196 (0.000) -3.361 (0.000) -0.820 -12.064 -1.234 (0.000) (0.000) (0.000) Costante -1.350 (0.000) -0.428 (0.008) -0.061 (0.008) -4.869 (0.000) -0.454 (0.002) -0.552 (0.000) -1.349 (0.000) -0.117 (0.687) 0.431 (0.275) -0.191 (0.082) -0.039 (0.869) -1.163 (0.006) 0.249 (0.013) 37 -0.985 (0.619) -0.293 (0.091) continua Tab. 6 DENS 0.501 (0.000) 0.245 (0.000) 0.163 (0.000) 1.422 (0.000) 0.281 (0.000) 0.140 (0.000) 0.223 (0.000) 0.215 (0.002) 0.199 (0.048) 0.186 (0.000) 0.222 (0.000) 0.387 (0.001) 0.088 (0.001) 0.492 (0.284) 0.190 (0.000) SPL_SPEC_DIFF 0.484 (0.000) 0.808 (0.000) 0.208 (0.000) 1.292 (0.053) 0.473 (0.000) 0.815 (0.000) 0.227 (0.338) -0.271 (0.342) 0.105 (0.694) 0.438 (0.000) 0.447 (0.004) 0.049 (0.887) 0.178 (0.008) -1.426 (0.438) 0.437 (0.000) Nord ovest 1.243 (0.000) 0.414 (0.029) 0.334 (0.005) 3.455 (0.019) 0.509 (0.004) 0.761 (0.000) 0.676 (0.022) 1.534 (0.000) -0.103 (0.839) 0.404 (0.003) -0.031 (0.919) 1.328 (0.015) 0.336 (0.009) 4.234 (0.081) 0.524 (0.018) Nord est 1.162 (0.000) 0.386 (0.043) 0.440 (0.000) 3.757 (0.009) 0.482 (0.006) 0.547 (0.002) 0.954 (0.002) 1.109 (0.003) 0.017 (0.972) 0.434 (0.002) -0.115 (0.704) 1.455 (0.009) 0.189 (0.146) 3.448 (0.165) 0.454 (0.038) Sud -2.873 (0.000) -0.556 (0.002) -0.768 (0.000) -4.579 (0.004) -0.952 (0.000) -1.040 (0.000) -0.636 (0.063) -1.382 (0.000) -2.492 (0.000) -0.853 (0.000) -2.020 (0.000) -2.919 (0.000) -0.774 (0.000) -7.957 (0.002) -0.736 (0.001) Isole -3.121 (0.000) -0.421 (0.043) -0.752 (0.000) -7.312 (0.001) -1.014 (0.000) -1.278 (0.000) 0.263 (0.455) -1.105 (0.016) -2.196 (0.000) -0.817 (0.000) -2.208 (0.000) -3.374 (0.000) -0.879 -12.117 -1.131 (0.000) (0.000) (0.000) Costante -1.432 (0.000) -0.361 (0.014) -0.029 (0.765) -5.269 (0.000) -0.613 (0.000) -0.277 (0.042) -1.418 (0.000) -0.158 (0.577) 0.367 (0.337) -0.153 (0.166) 0.099 (0.657) -1.136 (0.007) 0.330 (0.001) 38 -1.033 (0.594) -0.375 (0.032) Da ultimo, al fine di valutare l’esistenza di un effetto distretto “allargato”, così come prima definito, si è proceduto alla stima dei modelli Tobit utilizzando come esplicativa la dummy DISTR, riferita tout court al SLL, senza ulteriori specificazioni settoriali (Tabella 7). La variabile risulta significativa e positiva e ciò tende a suggerire come un effetto distretto positivo sulle performance competitive non si produca solo sulle imprese appartenenti al settore che caratterizza il distretto, ma si estenda anche a quelle di altri comparti manifatturieri presenti a livello locale. I coefficienti delle dummy geografiche confermano invece la già nota gerarchia geografica sull’accesso ai mercati internazionali. L’introduzione di variabili di interazione (distretto/aree geografiche) mostra, oltre alla non significatività del coefficiente per il nord ovest, che l’effetto distretto assume maggiore rilevanza tanto più si scende verso sud. Questo tende a segnalare come, in tali contesti, questo carattere sia relativamente più decisivo rispetto al nord, dove i livelli di competitività gli sono legati meno strettamente39. Tab. 7 - Effetto distretto “allargato” Variabili esplicative Coefficiente Livello di significatività DISTR 0.733 0.000 Nord ovest 1.467 0.000 Nord est 1.165 0.000 Sud -2.452 0.000 Isole -2.908 0.040 Costante -1.111 Variabili esplicative con effetti di interazione territoriale 0.000 Distretto / Nord-Ovest 0.008 0.819 Distretto / Nord-est 0.471 0.007 Distretto / Centro 0.536 0.000 Distretto / Sud 0.735 0.000 Distretto / Isole 2.781 0.000 39 Per approfondire le tematiche dello sviluppo del Mezzogiorno secondo la prospettiva di analisi dello sviluppo locale si può far riferimento ad esempio a Bàculo (1994 e 1997), Meldolesi (1998), Meldolesi e Aniello (1998), Bodo e Viesti (1997) e Viesti (2000a e 2000b). 39 I modelli stimati su base settoriale con la variabile distretto40 mostrano che solo la performance esportativa del settore DF è del tutto indifferente (DISTR non è significativa) alla localizzazione all’interno di un SLL distrettuale. In tutti gli altri casi si registra invece un effetto significativo positivo. 5. Riflessioni di sintesi Il presente lavoro ha indagato, a livello teorico ed empirico, alcuni possibili legami tra livelli di competitività dell’industria manifatturiera e caratteristiche locali dei contesti produttivi e socioeconomici. Un primo elemento di originalità, rispetto a precedenti analisi, è rappresentato dal fatto di non considerare le singole unità produttive (imprese) come il riferimento analitico, ma di porre al centro dell’attenzione direttamente i territori, i loro caratteri e le forme organizzative dei comparti produttivi che vi sono localizzati. Questo è stato possibile grazie alla disponibilità di dati in grado di descrivere adeguatamente l’articolazione geografica della competitività e degli assetti organizzativi locali. Sulla base di queste disponibilità informative sono quindi state condotte delle stime econometriche volte ad indagare i legami tra caratteri strutturali sistemici e livelli di competitività dei territori. I risultati delle stime condotte con l’utilizzo di modelli tobit mostrano, sia a livello aggregato che settoriale, le forti capacità esplicative, sui livelli di competitività, delle variabili che descrivono la probabile presenza di economie esterne eterogenee (tipicamente legate ai contesti più urbani) ed omogenee (legate ai fenomeni di agglomerazione di imprese con produzioni similari). Più in particolare risulta sostanzialmente per tutti i settori, ad esclusione di quelli dell’industria pesante, come la presenza di un sistema di produzione locale configuri la presenza di vantaggi competitivi per le imprese che lo compongono; ma anche che questi vantaggi sono amplificati se il SPL connota significativamente la società locale. In questo caso infatti lo spettro delle economie esterne attingibili dalle impresa si allarga, dall’ambito strettamente economico produttivo, a quello sociale. I risultati sono ampiamente confermati se si controlla la stabilità dei modelli attraverso delle variabili dummy (geografiche) in grado di descrivere gli esistenti e noti differenziali di accesso ai mercati esteri delle imprese localizzate nelle diverse aree del Paese. Le stime esplicitate con riferimento alla variabile distrettuale indicano senza ambiguità l’esistenza di un effetto distretto, che abbiamo definito allargato, in quanto beneficia tutti i comparti produttivi di un sistema locale, siano essi o no distrettuali. L’effetto è positivo e significativo anche specificando le stime a livello geografico e settoriale. Da questo punto di 40 Anche in questo caso i dati, non riportati, sono disponibili presso gli autori. 40 vista è importante notare come il coefficiente della variabile distretto sia crescente man mano che si scende verso sud, quasi a suggerire come questa opzione organizzativa divenga in questi contesti relativamente più importante ai fini della competitività. Anche se deve essere sottolineato che i risultati possono risentire di alcune approssimazioni (ad esempio quella relativa all’aggregazione settoriale, vincolata dalle caratteristiche dei dati disponibili), la stabilità di alcuni risultati rende possibile tracciare alcune indicazioni di policy. Essi sembrano infatti confermare la centralità della forza dei sistemi di produzione locale ai fini della competitività delle imprese che li compongono. E che il vantaggio competitivo, al di fuori dell’impresa, si attinge anche dalla società locale in cui si opera, oltre che dentro il sistema di produzione. Ciò propone con forza, a livello normativo, la tematica del ruolo degli attori pubblici e privati nella costruzione di queste dimensioni di vantaggio competitivo, che spesso assumono la forma di beni collettivi competitivi locali, come li definiscono Le Gales e Voelzkow (2004). E quindi, della centralità delle adeguate forme di governance a livello locale in grado di favorire la produzione e riproduzione di essi. Inoltre sembra anche evidente che, oltre a derivare inequivocabilmente da assetti organizzativi peculiari (il distretto industriale), i vantaggi competitivi possano affermarsi al crescere di alcune dimensioni tipiche di questa forma organizzativa (i livelli di agglomerazione e di organizzazione sistemica delle imprese e la pervasività di un’industria sulla società locale). Quest’ultimo punto suggerisce che, in generale, ogni luogo può attingere dalle esperienze di sviluppo più virtuoso anche incoraggiando gradualmente, e compatibilmente con le condizioni locali, la formazione di alcune caratteristiche organizzative favorevoli. Pur senza progettare la costruzione di idealtipi organizzativi e sociali (tipicamente, il distretto), la cui affermazione è invece il frutto di processi di lungo periodo e dell’’esistenza di condizioni iniziali (di carattere sociale, economico, istituzionale, culturale, umano) favorevoli. 41 BIBLIOGRAFIA BÀCULO, L. (1994) (a cura di), Impresa forte e politica debole. Imprenditori di successo nel Mezzogiorno, Esi, Napoli. BÀCULO, L. (1997), “Segni di industrializzazione leggera nel Mezzogiorno”, Stato e Mercato, n. 51, dicembre. BAGELLA, M. – BECCHETTI, L. – SACCHI S. (1998),: “Agglomerazione geografica delle imprese e performance nell’export: un’analisi empirica su microdati per l’Italia”, Sviluppo Locale, V, 8, pp.122-148. BAGELLA, M. – BECCHETTI, L. (2000), “Effetto distretto e performance delle esportazioni sotto diversi regimi di cambio: analisi empirica e implicazioni per l’euro”, in Padoan P.C. (a cura di): L’euro e i mercati reali, Il Mulino, Bologna. BAGELLA, M. – BECCHETTI, L. – SACCHI, S. (2000), “The positive link between geographical agglomeration and export intensity: the engine of Italian endogenous growth?”, in Bagella M., Becchetti L. (eds) The competitive advantage of industrial districts, Heidelberg: Physica-Verlag, Germany. BANCA D’ITALIA (2004), Economie locali, modelli di agglomerazione e apertura internazionale, Nuove ricerca della Banca d’Italia sullo sviluppo territoriale, Banca d’Italia, Roma. BECATTINI, G. – MENGHINELLO, S. (1998), “Contributo e ruolo del made in Italy distrettuale nelle esportazioni nazionali di manufatti”, Sviluppo Locale, V, 9, 1998, pp. 5-41. BECATTINI, G. (2000a), “Dal miracolo economico al made in Italy”, in Dal distretto industriale allo sviluppo locale, Svolgimento e difesa di un’idea, Bollati Borlinghieri, Torino. BECATTTINI, G. (2000b), “Distrettualità tra industria e agricoltura”, in Dal distretto industriale allo sviluppo locale, Svolgimento e difesa di un’idea, Bollati Borlinghieri, Torino. BECATTINI, G. (2000c), “Il distretto marshalliano come concetto socioeconomico”, in Becattini G. (2000) Il distretto industriale, Rosenberg & Sellier, Torino, pp. 57-78. BECATTINI, G. – MUSOTTI, F. (2003), “Measuring the district effect. Reflections on the literature”, Banca Nazionale del Lavoro Quarterly Review, n. 226, pp.259-290. BECCHETTI, M. – ROSSI, S.P.S. (2000), “EU and non EU export performance of Italian firms. Is there an industrial district effect?”, in Bagella M., Becchetti L. (eds) The competitive advantage of industrial districts, Heidelberg: Physica-Verlag, Germany. BECCHETTI, L. – DE PANIZZA, A. – OROPALLO, F. (2003), Distretti industriali: identità e performance, mimeo. 42 BELLANDI, M. (1994), “Le logiche del cambiamento economico locale”, in Bellandi-Russo (a cura di): Distretti industriali e cambiamento economico locale, Rosenberg & Sellier, Torino, 1994, pp. 31-39. BELLANDI, M. (2003), Mercati, industrie e luoghi di piccola e grande impresa, Il Mulino, Bologna. BRUNORI, G. (1999), “Sistemi agricoli territoriali e competitività”, XXXVI Convegno Sidea, Milano, 9-11 settembre 1999. BRONZINI, R. (2000), “Sistemi produttivi locali e commercio estero: un’analisi territoriale delle esportazioni italiane”, in Signorini L.F. (a cura di), pp. 101-122. BRONZINI, R. (2004), Distretti industriali, economie di agglomerazione e investimenti esteri in Italia, in Banca d’Italia, pp. 355-387. BODO, G. – VIESTI, G. (1997), La grande svolta. Il Mezzogiorno nell'Italia degli anni novanta, Donzelli, Roma. BONACCORSI, A. (1992), “On the relationship between firm size and export intensity”, Journal of International Business Studies, 23, pp. 605-635. BRUSCO, S. – PABA, S. (1997), “Per una storia dei distretti industriali italiani dal secondo dopoguerra agli anni novanta” in Barca F. (a cura di): Storia del capitalismo italiano dal dopoguerra a oggi, Donzelli Editore, Roma, (pp. 265-333). BRUSCO, S. (2001), “Prefazione”, di Baracchi-Bigarelli-Colombi-Dei: Modelli territoriali e modelli settoriali, Quaderni Iris, Rosemberg & Sellier, Torino. CINGANO, F. – SCHIVARDI, F. (2004), Struttura produttiva locale e crescita. Un’analisi basata sulla produttività in Italia, in Banca d’Italia (2004), pp. 133-161. CONTI, G. – MENGHINELLO, S. (1995), “Territorio e competitività: l’importanza dei sistemi locali per le esportazioni italiane di manufatti”, in Rapporto sul commercio estero 1995, ICE, Roma. CONTI, G. – MENGHINELLO, S. (2000), “Euro, competitività e territorio: alcune riflessioni sulle conseguenze reali del processo di integrazione economica e monetaria”, in Padoan P.C. (a cura di): L’euro e i mercati reali, Il Mulino, Bologna. CONTI, G. – MENGHINELLO, S. (2003), “Sistemi di piccola impresa e esportazioni: i fattori di competitività dell’industria italiana”, in Garofoli G. (a cura di): Impresa e Territorio, Il Mulino, Bologna. CRESTANELLO, P. – MENGHINELLO, S. (2001), “Aspetti territoriali della competitività dell’industria veneta: un’analisi delle esportazioni per sistema locale de lavoro”, Economia e Società Regionale, n. 2. DEL COLLE, E. – ESPOSITO, G.F. (2000), Economia e statistica per il territorio, Franco Angeli, Milano. 43 DURANTON, G. – PUGA, D. (2001), “Nursery cities: urban diversity, process innovation, and the life cycle of products”, American Economic Review, Vol. 19, pp. 1454-1475. EATON, J. – ECKSTEIN, Z. (1997), “Cities and growth, Theory and evidence from France and Japan”, Regional Science and urban economics, vol.27, pp. 443-474. ESPOSTI, R. – SOTTE, F. (2002), Le dinamiche del rurale. Letture del caso italiano, Franco Angeli, Milano. GLAESER, E.L. – KALLAL, H.D. – SCHEINKMAN, J.A. – SHELEIFER, A. (1992), “Growth in cities”, Journal of Political Economy, Vol. 100, pp. 1125-1152. GAROFOLI, G. (2002), “Piccole imprese e distretti industriali: lo sviluppo endogeno nel Mezzogiorno”, La Questione Agraria, n. 3, pp. 165-174. GOLA, C. – MORI, A. (2000), “Agglomerazione spaziale e performance internazionale”, in Signorini L.F., a cura di, pp. 67-100. HENDERSON, V. – KUNCORO, A. – TURNER, M. (1995), “Industrial development in cities”, Journal of Political Economy, Vol. 103, pp. 1067-1090. IMBRIANI, C. (1991), Commercio estero, competitività e specializzazione dell’Italia, Franco Angeli, Milano. ISTAT (1997), I sistemi locali del lavoro – Anno 1991 (a cura di Sforzi F.), Serie Argomenti, n. 10, Roma. ISTAT (2002): Le esportazioni dei sistemi locali del lavoro, (a cura di S. Menghinello) Serie Argomenti, n. 22, Roma. JACOBS, J. (1969), The economy of cities, Vintage, New York. KRUGMAN, P. (1991), Geography and trade, MIT University Press, Cambridge MA. LEFEBVRE, E. – LEFEBVRE, L.A. – BOURGAULT, M. (1998), “R&Drelated capabilities as determinants of export performance”, Small Business Economics, 10, pp.365-377. LE GALES, P. – VOELZKOW, H. (2004), “La «governance» delle economie locali”, in Crouch C., Le Gales P., Trigilia C. e Voelzkow H.; I sistemi di produzione locale in Europa, Bologna, Il Mulino, pp. 7-43. LIN, T. – SCHMIDT, P. (1984), “A test of the Tobit Specification Against an Alternative Suggested by Cragg”, Review of Economics and Statistics, 66, pp. 174-177. MAP (Ministero delle Attività Produttive) (2002), L’esperienza italiana dei distretti industriali, MAP, Roma. MALIZIA, E. – KE, S. (1993), “The influence of economic diversity on unemployment and stability”, Journal of Regional Science, Vol. 33, Issue 2, pp. 221-236. MELDOLESI, L. (1998), Dalla parte del Sud, Laterza, Bari. 44 MELDOLESI, L. – ANIELLO, V. (1998) (a cura di), “L’Italia che non c’è: quant’è, dov’è, com’è”, Rivista di Politica Economica, vol. L n. VIII-IX e X-XI, agosto-settembre ottobre-novembre, Roma. MENGHINELLO, S. (2002), “Dimensione locale e competitività sui mercati internazionali: il contributo dei sistemi locali di piccola e media impresa alle esportazioni nazionali”, mimeo, Istat, Roma. NONAKA, I. – TOYAMA, R. – KONNO, N. (2000), “SECI, Ba and leadership: a unified model of dynamic knowledge creation”, in Long Range Planning, n. 33. PAVITT, K. (1984), “Sectoral patterns of technical change: towards a taxonomy and a theory”, Research Policy, 28, pp. 819-832. SACCHI, S. (2000), “Industrial districts, horizontal and vertical integration and export performance”, in Bagella M., Becchetti L. (eds) The competitive advantage of industrial districts, Heidelberg: Physica-Verlag, Germany. SCHUMPETER, J.A. (1951), The theory of economic development, Harvard Univ. Press. SFORZI, F. (1995), “Sistemi locali d’impresa e cambiamento industriale in Italia”, AGEI-Geotema, n. 2. SIGNORINI, L.F. (2000) (a cura di), Lo sviluppo locale – Un’indagine della Banca d’Italia sui distretti industriali, Donzelli, Roma. STERLACCHINI, A. (1999), “Do innovative activities matter to small firms in non R&D intensive industries? An application to export performance”, Research Policy, 28, pp. 819-832. STERLACCHINI, A. (2001), “The determinants of export performance: a firm level study in Italian manufacturing”, Quaderni di Ricerca n.142, Università di Ancona, Dipartimento di economia. VIESTI, G. (1993), La geografia delle esportazioni italiane: un’analisi sui dati 1985-1991, Cerpem, Bari. VIESTI, G. (1995), “La geografia delle esportazioni italiane”, Rivista di Politica Economica, IV, Aprile 1995. VIESTI, G. (1997), “Le esportazioni dei sistemi italiani di piccola e media impresa”, Quaderni di Ricerca ICE, n.3. VIESTI, G. (2000a), Come nascono i distretti industriali, Laterza, Bari. VIESTI, G. (2000b) (a cura di), Mezzogiorno dei distretti, Meridiana Libri, Roma. WAGNER, J. (1995), “Exports, firm size, and firm dynamics”, Small Business Economics, 7, pp. 29-39. WAGNER, J. (2001), “A note on the firm Size –Export relationship”, Small Business Economics, 17, pp. 229-237. WAKELIN, K. (1998), “Innovation and export behaviour at the firm level”, Research Policy, 26 (7-8), pp. 829-841. 45 DIRITTI DI PROPRIETA’, INCENTIVI ED ESTERNALITA’ Giuseppe Clerico* JEL Classification: H11, H23, K11, K12, K13 Parole chiave: esternalità, diritti di proprietà, incentivi, efficienza, contrattazione, regolamentazione 1. Introduzione Secondo un’opinione molto diffusa il diritto di proprietà, in primis la proprietà privata, rappresenta l’architrave dei diritti umani e l’espressione più tangibile della libertà umana (Rose, 1999; Bell e Parchomovsky, 2004). La normativa sui contratti e sulla responsabilità extracontrattuale si impernia sul principio del diritto di proprietà. Il diritto romano definisce il diritto di proprietà come il diritto individuale di usare, godere e trasferire un bene e come il diritto di escludere terzi dall’uso e dal godimento dello stesso bene. Un sistema socio-economico basato sull’economia di mercato richiede, per funzionare in modo adeguato, diritti di proprietà definiti e garantiti. La scarsità delle risorse, l’incremento della popolazione, l’incentivo individuale all’interesse privato e la competizione dei bisogni sono alla base dell’origine, della definizione e dell’evoluzione dei diritti di proprietà (Demsetz, 1964, 1967, 1972, 1996, 2002). Forme molteplici di diritti di proprietà (dalla proprietà privata a quella pubblica, dal commons alle organizzazioni senza fini di lucro) si sono avute e si hanno in tutte le varie fasi della storia umana. In ciascuna fase i diritti di proprietà, in quanto diritti sociali che dipendono dai valori prevalenti e dai rapporti di potere delle varie classi, si differenziano per la loro natura e per la loro estensione. La tutela dei diritti di proprietà implica, in particolare, la soluzione di due problemi: la loro definizione e la loro garanzia. Nei moderni sistemi socio-economici i diritti di proprietà sono garantiti, oltre che dalle norme sociali, dallo Stato attraverso leggi e regolamenti.1 I costi di esclusione e i costi di transazione limitano la definizione e la garanzia dei diritti di proprietà. Obiettivo primario di un * Professore ordinario di Scienza delle finanze, Università del Piemonte orientale ‘Amedeo Avogadro’, Facoltà di Giurisprudenza (Sede di Alessandria), Dipartimento di Scienze giuridiche ed economiche e Università di Torino - Dipartimento di Economia; E-mail [email protected] 1 Consideriamo come norme sociali i comportamenti umani che liberamente tendono a perpetrarsi nel corso del tempo in quanto self-enforcing. Valutazioni ispirate al calcolo privato, la minaccia di sanzioni sociali e il sentimento di reciprocità possono spiegare l’origine e eil consolidamento delle norme sociali all’interno di una comunità (Clerico, 2004; Young, 1996; Ullman Margalit, 1977; Bowles e Gintis, 2002, 2003; Henrich, 2004). 47 sistema di diritti di proprietà definito e garantito è quello di disciplinare e governare l’interazione umana. Il titolare di un diritto di proprietà, dati i vincoli legali e sociali, esercita il proprio diritto per perseguire al meglio il proprio interesse privato. Il legittimo esercizio di un diritto di proprietà può causare, tuttavia, un danno a terzi: gli economisti definiscono questo evento come esternalità negativa. Sul problema dell’esternalità negativa, visto non tanto e non solo come problema tecnico, ma soprattutto come problema sociale, si fronteggiano, con riferimento all’analisi economica, due distinti approcci: l’approccio di Pigou e l’approccio di Coase. Si tratta di approcci alternativi: l’approccio di Pigou si impernia sul ruolo centrale svolto dallo Stato; mentre Coase sottolinea il ruolo del mercato come strumento per risolvere il problema delle esternalità. Questo lavoro è così organizzato. Il paragrafo successivo esamina, partendo da una situazione di commons puro, le ragioni che giustificano l’origine di un sistema di diritti di proprietà, in particolare privato. Un secondo paragrafo analizza il problema delle esternalità focalizzando soprattutto l’attenzione sull’approccio di Pigou e di Coase e sui problemi e sui limiti dei due approcci. Il terzo paragrafo esamina, in particolare, le critiche all’aproccio di Coase avanzate da Demsetz. Le osservazioni conclusive sintetizzano i principali risultati del lavoro. 2. Scarsità, incentivi, efficienza ed origine dei diritti di proprietà L’analisi economica dei diritti di proprietà parte dalla constatazione che la vita umana comporta sistematicamente una scelta fra alternative, dati il vincolo di bilancio e la scarsità delle risorse disponibili. Pertanto, al centro dell’analisi dei diritti di proprietà va posto il comportamento individuale (Anderson e McChesney, 2003). L’analisi economica del comportamento individuale si basa su quattro postulati: a) b) c) postulato 1- La scarsità delle risorse (ivi incluso il reddito disponibile) caratterizza le scelte umane. Ciascun soggetto fronteggia un vincolo nelle proprie scelte. postulato 2- Dato il vincolo della scarsità, il soggetto, compatibilmente con i propri vincoli cognitivi, procede ad una valutazione economica dei costi e dei benefici delle proprie scelte. Al margine, ogni scelta deve garantire al soggetto la stessa utilità ponderata. postulato 3- Data la scarsità delle risorse i soggetti, motivati prevalentemente dal calcolo e dall’interesse privato, competono per le risorse al fine di soddisfare i propri obiettivi. La competizione necessita di essere governata da norme legali e sociali. 48 d) postulato 4- In presenza di soggetti motivati prevalentemente dal calcolo e dall’interesse privato un sistema di diritti di proprietà definiti e garantiti favorisce la definizione di contratti fra i soggetti in grado di massimizzare, ceteris paribus, il surplus congiunto dei contraenti. Come risultato è massimo, ceteris paribus, il benessere sociale. La scarsità delle risorse e la competizione dei bisogni individuali non sono l’unica e più convincente spiegazione dell’origine e dell’evoluzione dell’istituzione della proprietà. Infatti, al centro del problema della proprietà si pone il problema degli incentivi individuali in termini di obiettivi e di sforzo individuale. La natura e l’importanza sia degli incentivi sia dello sforzo possono essere comprese considerando, in particolare, il caso di un commons puro, ossia il caso di un regime di proprietà in cui l’acceso alla risorsa e l’uso della stessa sono assolutamente liberi ed esclusivamente dipendenti dal calcolo soggettivo e dall’interesse privato (Gordon, 1954). In un commons puro, dati gli incentivi individuali e la scarsità della risorsa, il rischio è l’esaurimento della risorsa medesima. Ciascun soggetto, infatti, allo scopo di massimizzare il proprio prodotto privato, ha l’incentivo ad uno sforzo individuale eccessivo, ossia superiore al livello efficiente.2 Ogni soggetto che accede al commons puro fa crescere il prodotto totale, ma, data la scarsità delle risorse, il prodotto marginale decresce all’aumentare degli accessi. Ciascun soggetto ha l’incentivo ad accedere al commons fino al punto in cui il proprio prodotto medio eguaglia il proprio costo marginale di accesso. In questo punto, però, il ricavo marginale è inferiore al costo marginale causando un’inefficienza d’uso della risorsa. Come risultato, un commons puro, senza regole di governo per l’accesso e l’uso, non funziona in quanto può causare l’esaurimento della risorsa. In linea di principio, tuttavia, regole sociali e legali per l’accesso e per l’uso, in quanto favoriscono la cooperazione fra i soggetti aventi il diritto d’accesso e di uso, possono garantire un adeguato funzionamento di un commons senza necessariamente procedere alla sua privatizzazione, così come richiederebbe il criterio di efficienza. Per una data collettività l’uso eccessivo di un commons, consentito dall’assenza o dalla carenza di regole per l’accesso e per la produzione, costituisce un’esternalità negativa superabile con norme sociale e legali o, al limite, con la privatizzazione. Contrariamente a quanto accade nel caso di un commons puro, la proprietà privata di una risorsa incentiva il proprietario allo sforzo efficiente e non comporta rischi di uso eccessivo. Nel caso della proprietà privata i costi di transazione sono contenuti, ma i costi di esclusione 2 Per sforzo efficiente si intende quello sforzo per cui, al margine, ossia per l’ultima unità di sforzo, il costo dello sforzo (che implica disutilità) eguaglia il beneficio, ossia l’incremento di prodotto. 49 sono elevati e tali, in casi estremi, da ridurre sensibilmente il valore netto del prodotto (Anderson e Swimmer, 1997). Intermedi ai due regimi di proprietà finora esaminati possiamo concepire due altri regimi di proprietà entrambi con accesso ristretto alla risorsa, ma con incentivi individuali allo sforzo antitetici: a) regime con input condiviso. Si tratta di un regime in cui un dato numero di soggetti condivide l’uso di una risorsa ricavandone un prodotto che, ceteris paribus, dipende dallo sforzo individuale. Come conseguenza, lo sforzo individuale è eccessivo e si ha un rischio di esaurimento della risorsa, così come accade nel commons puro, ma con costi di esclusione significativi. b) Regime con output condiviso. In questo regime un dato numero di persone usa congiuntamente la risorsa il cui prodotto è egualmente ripartito fra le persone stesse. Come risultato l’incentivo allo sforzo è subottimale (fenomeno del moral hazard); il prodotto ottenuto è subottimale e lo sfruttamento della risorsa è inefficiente. In termini di incentivi lo sforzo è ottimale solo per la proprietà privata, ma il prodotto netto di questo regime è inferiore al prodotto netto in condizioni ideali a causa soprattutto della rilevanza dei costi di esclusione. Tuttavia, un regime di mercato imperniato su un sistema di diritti di proprietà privata non costituisce, sic et simpliciter, la soluzione ideale ai problemi dell’interazione umana.3 In proposito, infatti, la letteratura economica ha individuato alcuni problemi che un sistema di mercato basato sulla proprietà privata non è in grado di risolvere. Il riferimento è, in particolare, alle condizioni in cui: sussistono le condizioni tipiche del monopolio naturale; si è in presenza di beni pubblici puri; vi sono esternalità sia positive sia negative; i soggetti interagiscono in condizioni di asimmetria informativa. In tutti questi casi si parla di fallimento del mercato. In sostanza, il fallimento del mercato si ha per tre fondamentali motivi: il prezzo è superiore al costo marginale (come può accadere in caso di monopolio e di asimmetria informativa); il prezzo di mercato non è tale da internalizzare tutti i costi e i benefici connessi alla produzione (è il caso delle esternalità); il produttore non è in grado di ottenere da ciascun consumatore il relativo prezzo (caso dei beni pubblici puri). Il fallimento del mercato giustifica, almeno in linea di principio, l’intervento dello Stato. Questo vale, in particolare, nel caso delle esternalità. 3 Accanto alla forme stilizzate di regimi di proprietà finora esaminate possiamo rilevare anche la presenza di forme specifiche di diritti di proprietà quali, in particolare, l’impresa pubblica, l’impresa cooperativa e l’impresa senza fini di lucro. In senso stretto l’impresa pubblica nasce o in condizioni di monopolio naturale o per la fornitura, gratuita o sottocosto, di beni pubblici o di beni meritori. L’impresa cooperativa, in linea di principio, ha soprattutto un obiettivo solidaristico e mutualistico: tutelare i propri soci massimizzando il loro ricavo medio netto. L’impresa senza fini di lucro sorge, in particolare, per due ragioni essenziali: tutela della qualità del prodotto; e fallimento del contratto. L’asimmetri informativa è un’adeguata spiegazione dell’origine di questo tipo di impresa. 50 Tuttavia, su questo problema, come vedremo successivamente, l’approccio degli studiosi è antitetico (approcccio di Pigou versus approccio di Coase). In linea di principio il problema dell’allocazione del diritto di accesso a una risorsa scarsa può essere spiegato facendo ricorso a due variabili esplicative: i costi di transazione; e i costi di esclusione. A fronte di N soggetti la ripartizione di una data risorsa fra gli stessi soggetti può essere fatta lungo un continuum che va dal commons regolato alla proprietà privata pura (ogni soggetto ottiene una quota eguale della risorsa totale). A livello sociale l’obiettivo è la determinazione del numero ottimale di parti (m*) in cui ripartire fra gli N soggetti la risorsa data. Nel caso del commons regolato i costi di esclusione (Em) sono al livello minimo, mentre sono massimi i costi di transazione (Tm) che devono essere sopportati per governare l’accesso alla risorsa dei soggetti che ne hanno diritto. Per contro, con un regime di proprietà privata pura i costi di transazione per l’accesso alla risorsa sono minimi, mentre sono massimi i costi di esclusione. Il numero ottimale di parti in cui allocare la risorsa fra gli N soggetti si determina nel punto di intersezione delle due curve dei costi in cui è minimo il valore della somma dei costi di esclusione e dei costi di transazione (Field, 1989). Graf. 1 - Numero efficiente di parti € Tm Em 1 m* 51 N Questo modello teorico sull’allocazione del diritto di accesso ad una risorsa scarsa evidenzia il ruolo determinante del criterio di efficienza: la minimizzazione della somma dei due costi consente di massimizzare il valore netto del prodotto derivante dall’uso di quella risorsa. Solo in presenza di costi di esclusione particolarmente bassi è ottimale un regime di proprietà privata pura. Un simile regime di proprietà garantisce sempre uno sforzo ottimale del proprietario. Le forme intermedie di allocazione del diritto di accesso fra N soggetti ad una risorsa scarsa non sono sempre in grado di garantire uno sforzo efficiente. La proprietà privata, rispettando il criterio di efficienza, consente la massimizzazione della ricchezza, ma solleva un problema di giustizia distributiva che costituisce un altro possibile modo d’essere del fenomeno delle esternalità connesso alla proprietà privata: i soggetti esclusi dal diritto di accesso alla proprietà privata sopportano una disutilità. La nascita del diritto di proprietà privata risolve il problema del rispetto del criterio di efficienza, ma non rispetta il criterio del benessere suggerito da Pareto. Infatti, il proprietario privato ottiene un incremento di benessere, ma tutti gli esclusi subiscono un danno dal regime privato di accesso ad una data risorsa. La presenza di diritti di proprietà (in particolare privati) garantiti e definiti è una conditio sine qua non per un adeguato funzionamento del sistema di mercato. In proposito, tuttavia, va rilevato che anche il mercato è un’istituzione (una regola del gioco) che comporta propri costi di transazione. Quando i costi di transazione per l’uso del mercato sono eccessivi sorge l’impresa, da intendersi come istituzione alternativa al mercato per la produzione e lo scambio di beni (Coase, 1937). Analogamente, anche i diritti di proprietà privata sono un’istituzione sorta per ridurre i costi di transazione. I diritti di proprietà privata riducono i costi dello scambio, incentivano allo sforzo efficiente, ma l’attività di produzione e di scambio governata da questo regime può generare danni (esternalità) a terzi rendendo necessario l’individuazione di un metodo per risarcire le vittime da un lato e per fare sì che colui che causa il danno ne internalizzi il costo dall’altro lato. All’analisi di questo problema è dedicato il paragrafo successivo. 3. Diritti di proprietà e esternalità La produzione di beni è finalizzata al loro scambio e consumo. L’attività di scambio, governata dal contratto, implica una cooperazione fra i contraenti. I contraenti, firmando liberamente il contratto, massimizzano il surplus congiunto dello scambio (somma del surplus del consumatore e del 52 surplus del venditore).4 L’implementazione del contratto può essere fonte di conflitto con soggetti terzi estranei al contratto. Il riferimento è, ad esempio, al danno che l’attività di produzione può causare a soggetti non direttamente coinvolti nel processo di produzione e di scambio. In presenza di un’esternalità negativa emerge una discrepanza fra costo privato, sopportato direttamente dal produttore, e costo sociale totale che include anche il valore del danno addossato ad altri. L’esempio della fonderia e della vicina lavanderia fornisce un’idea del problema. La fonderia può inquinare l’ambiente e danneggiare i panni stesi della lavanderia. L’attività della fonderia, in aggiunta ai propri costi diretti di produzione, impone alla collettività anche il costo del danno sopportato dalla lavanderia. Tuttavia, per la fonderia i costi privati di produzione (appunto i costi diretti) sono inferiori ai costi sociali totali (inclusivi anche del danno recato alla lavanderia). Pertanto, la produzione della fonderia è superiore al livello che sarebbe efficiente avere qualora essa tenesse conto non dei costi privati di produzione, ma dei costi sociali più elevati. Il prezzo del bene (la cui produzione causa il danno) che si forma liberamente sul mercato riflette il costo privato, ma non il costo sociale. Non vi è, quindi, la completa internalizzazione dei costi a carico della fonderia. Non solo la produzione della fonderia è eccessiva, ma risulta anche eccessiva la dimensione del mercato, favorita dal minor prezzo (che non riflette il costo sociale totale). A livello sociale il criterio di efficienza richiede che il valore del danno (un modo d’essere del costo di produzione) sia internalizzato, ossia sopportato, in linea di principio, dal soggetto che lo genera e sia così trasferito sul prezzo di mercato (Cooter e Ulen, 2004). L’internalizzazione del valore del danno in quanto accresce il prezzo del bene comporta un minor livello di produzione atto a minimizzare il costo sociale totale. Sulle modalità atte a favorire l’internalizzazione del danno sussiste un evidente contrasto di principio fra l’approccio di Pigou e l’approccio di Coase. Di seguito presentiamo un’analisi sintetica dei due approcci. a) L’approccio di Pigou Prima della pubblicazione nel 1960 del saggio di Ronald Coase “ The Problem of Social Cost” la soluzione al problema delle esternalità (in particolare negative) prevalente nella letteratura economica era quella suggerita sin dal 1920 da Pigou. Pigou pur non cogliendo del tutto l’importanza analitica dei costi di transazione era, però, consapevole degli ostacoli che impediscono al mercato (attraverso la libera contrattazione delle parti) la soluzione del problema delle esternalità negative, ossia il rispetto del 4 La massimizzazione del surplus congiunto implica il rispetto del criterio di efficienza. La ripartizione di tale surplus solleva problemi di giustizia distributiva e dipende, in sostanza, dai rapporti di forza dei contraenti stessi. 53 principio che il costo del danno va addossato a chi lo ha causato.5 A fronte dell’impossibilità del mercato di risolvere adeguatamente il problema delle esternalità Pigou suggerisce, come strumento risolutivo, l’intervento dello Stato assunto come benevolente e onnisciente. Nel caso della relazione fonderia-lavanderia l’applicazione di un’imposta pari alla differenza fra costo marginale sociale e costo marginale privato risolve il problema, ossia costringe la fonderia a sopportare interamente il costo sociale di produzione. In sostanza, l’imposta addizionale al costo privato di produzione costringe la fonderia ad internalizzare interamente il costo del danno. Come risultato del processo di internalizzazione si hanno: un livello minore di produzione della fonderia (il costo è maggiore) e, quindi, un minor valore del danno; un prezzo del bene prodotto dalla fonderia maggiore e, quindi, una minore dimensione del mercato. L’approccio di Pigou implica, in aggiunta a uno Stato benevolente, uno Stato onnisciente e onnipotente e l’ipotesi che l’intervento dello Stato non comporti alcun costo.6 In sostanza Pigou trascura: il fenomeno dell’asimmetria informativa (lo Stato può conoscere il danno, ma non il costo privato di produzione del soggetto che causa il danno); il fatto che l’intervento pubblico, oltre a comportare il costo addizionale della burocrazia, richiede anche che lo Stato, o meglio l’Autorità politica al potere, abbia la volontà e l’interesse di fare una scelta a favore delle vittime delle esternalità e contro coloro che le causano. b) L’approccio di Coase Coase non ritiene credibile l’aproccio di Pigou, in particolare per la carenza e per il costo delle informazioni necessarie per definire il livello del tributo da applicare. Tuttavia, l’asimmetria informativa non è l’unica critica di Coase a Pigou. Coase ritiene, infatti, che l’approccio di Pigou, definendo ex ante un soggetto come la causa del danno e l’altro soggetto come la vittima del danno, presupponga una data iniziale allocazione dei diritti di proprietà. La conseguente imposizione del tributo sul soggetto causa del danno trascura di considerare gli effetti sul comportamento della potenziale vittima, in termini di incentivi a minimizzare il valore del danno. In 5 Il ruolo e l’importanza dei costi di transazione sono teorizzati da Coase nell’articolo del 1937 “The Nature of the Firm”. In questo saggio Coase spiega l’origine dell’impresa, da intendersi come alternativa agli scambi di mercato, usando come strumento esplicativo i costi di transazione: l’organizzazione impresa sorge in quanto comporta costi di transazione relativamente inferiori a quelli che gli agenti economici si trovano a sopportare usando gli scambi di mercato. 6 In proposito, l’approccio della Public Choice sottolinea, in particolare, che lo Stato non necessariamente è benevolente. Infatti, nella realtà, l’intervento dello Stato può essere mirato non alla massimizzazione del benessere sociale, secondo l’approccio dell’ottimo paretiano, bensì alla massimizzazione del benessere di una parte contro la residua parte della popolazione. Inoltre, l’intervento dello Stato nella realtà avviene in un ambiente caratterizzato da asimmetria informativa e da costi positivi di intervento. 54 particolare, la vittima del danno, dato l’approccio di Pigou, non ha, in linea di principio, alcun incentivo a sostenere direttamente l’eventuale minore costo per evitare, o comunque, alleviare, il valore del danno. In proposito, Coase (1988) analizza un caso concreto per meglio esplicitare il proprio punto di vista. Un impianto produttivo causa, su base annua, un danno (esternalità negativa) uguale a $ 100. Il proprietario dell’impianto con un costo di $ 90 può installare un meccanismo atto ad evitare il danno. Secondo l’approccio di Pigou il proprietario dell’impianto deve sopportare un tributo pari a $100. Secondo Coase, invece, il proprietario dell’impianto preferisce installare il suddetto meccanismo che gli consente un risparmio di costo uguale a $ 10. Il risultato, tuttavia, può non essere ottimale in quanto non si considera il possibile comportamento alternativo della vittima del danno causato dall’impianto. Infatti, se la vittima può evitare il danno con costo, ad esempio $ 40, inferiore a quello sostenuto dal proprietario dell’impianto il criterio dell’efficienza richiede che sia la vittima a sostenere il costo per evitare il danno. In questo caso, in assenza di intervento pubblico l’impianto continua ad inquinare, ma si potrebbe conseguire un incremento di produzione e di valore pari a $ 50 ($ 90 - $ 40). Nella visione di Coase l’approccio di Pigou trascura di considerare che l’esternalità negativa implica un’interdipendenza del danno derivante dalle scelte individuali. La novità dell’approccio di Coase non risiede tanto nel ruolo attribuito ai costi di transazione quanto, invece, nel ruolo assegnato alla contrattazione privata (mercato) in alternativa all’intervento pubblico come strumento per risolvere il problema dell’esternalità. La contrattazione privata fra le parti, in presenza di costi di transazione nulli o bassi, permette la soluzione del problema delle esternalità senza intervento pubblico. Inoltre, la contrattazione privata consente di addossare il costo alla parte che può evitare il danno al minor costo. Con costi di transazione nulli la contrattazione privata favorisce un’allocazione efficiente delle risorse indipendentemente dall’assegnazione iniziale dei diritti di proprietà. Con costi di transazione nulli si ripristina la situazione tipica della concorrenza perfetta in cui vi è l’uguaglianza fra costo privato e costo sociale (Stigler, 1966). Il risultato dell’approccio di Coase si basa su un fondamentale postulato della microeconomia secondo il quale il libero scambio di mercato favorisce l’allocazione efficiente delle risorse nel rispetto del criterio paretiano indipendentemente dall’assegnazione iniziale dei diritti di proprietà. In condizioni ideali, quindi, il mercato è in grado di risolvere il problema dell’allocazione non ottimale dei diritti di proprietà. I costi di transazione diventano un ostacolo per la soluzione del problema dell’esternalità solo quando sono positivi e significativi. In tal caso il mercato può fallire e giustificare un intervento pubblico alla Pigou. In assenza di significativi costi di transazione il compito dello Stato è unicamente quello di definire e garantire i diritti di proprietà, compito peraltro risolvibile con il libero funzionamento del mercato. Il mercato, in condizioni ideali, così come 55 risolve il problema dell’efficienza nell’allocazione delle risorse risolve anche il problema delle esternalità. Il rispetto del criterio di efficienza richiede unicamente che i diritti di proprietà siano definiti e garantiti. Indipendentemente dall’assegnazione iniziale dei diritti di proprietà il problema del danno sarà risolto dal soggetto che lo può fare al minor costo. Con riferimento all’esempio sopra descritto la legge può assegnare al proprietario dell’impianto il diritto di inquinare o può attribuire alla vittima del danno il diritto a non essere danneggiato. Nel primo caso spetterà alla vittima del danno evitare il danno sopportando direttamente il costo di $40. Nel secondo caso, invece, a conclusione del processo di contrattazione, il proprietario dell’impianto che causa il danno trasferirà alla vittima l’importo di $ 40 per evitare il danno (40 è minore di 90). La contrattazione permette una riallocazione dei diritti di proprietà tale da garantire il massimo surplus congiunto dei due contraenti nel rispetto del criterio di efficienza. La critica all’approccio di Coase si concentra, prevalentemente, sul mutamento dell’assegnazione iniziale dei diritti di proprietà. Infatti, secondo i critici, ogni mutamento nell’allocazione dei diritti di proprietà crea potenzialità di disequilibrio nel sistema economico (Parisi, 1995). Le critiche sostanzialmente si concentrano su tre punti essenziali: a) b) c) secondo un primo filone critico l’approccio di Coase trascura gli effetti dinamici e di disequilibrio derivanti dal trasferimento dei diritti di proprietà (Wellisz, 1964; Calabresi, 1965). L’approccio di Coase è di natura statica, ma la contrattazione, in quanto comporta mutamenti nell’assegnazione dei diritti di proprietà, può comportare, nel lungo periodo, disequilibri nel sistema. il secondo filone critico considera gli effetti distributivi dell’approccio di Coase (Nutter, 1968; Regan, 1972). Il trasferimento dei diritti di proprietà può comportare anche un mutamento nella distribuzione della ricchezza. Inoltre, anche prescindendo dagli effetti distributivi, il detentore iniziale del diritto di proprietà può assumere un comportamento strategico che ostacola il funzionamento del meccanismo suggerito da Coase (Wellisz, 1964; Calabresi, 1965). il terzo filone di critica si basa sull’ipotesi irrealistica dei costi di transazione nulli (Cooter, 1987). L’ipotesi è una finzione ideale. Eliminata tale finzione l’approccio di Coase diventa una tautologia. Consideriamo il primo filone critico facendo riferimento al classico esempio presentato da Coase nel saggio del 1960: quello inerente la relazione fra l’allevatore di bovini (rancher) e il coltivatore di grano (farmer). Gli animali allo stato brado possono causare un danno al farmer. Supponiamo che il rancher abbia il diritto (in quanto previsto dalla legge) di fare pascolare liberamente i propri animali. Il farmer dovrà pagare al rancher il costo più 56 basso per fare sì che il rancher azzeri il danno per il farmer. Come conseguenza il costo dell’attività del rancher non riflette il costo del danno imposto al farmer. Pertanto, il trasferimento dei diritti di proprietà e della responsabilità del danno comporta una modifica nella ricchezza e nei costi relativi associati alle due attività. Come risultato si ha un disequilibrio nel sistema. Il costo unitario di produzione del farmer crescerà e si avrà una riduzione nel reddito netto del medesimo. Emergerà una tendenza ad impiegare risorse in altri settori produttivi con conseguente disequilibrio del sistema economico nel lungo periodo. In proposito, Guido Calabresi (1968), uno dei critici su questo problema, successivamente ammette che se i costi di transazione sono nulli gli effetti di disequilibrio di lungo periodo possono a loro volta essere curati dalla libera contrattazione fra le parti in grado di ristabilire un’allocazione efficiente delle risorse fra gli impieghi alternativi. Anche Demsetz (1972) concorda sul fatto che gli effetti di disequilibrio di lungo periodo non inficiano il risultato di breve periodo dell’approccio di Coase. Nella sostanza, Demsetz sostiene l’analogia fra il principio di allocazione di risorse scarse fra usi alternativi e il principio di ottimizzazione vincolata dello stesso soggetto fra attività in conflitto fra loro. Quando lo stesso proprietario svolge simultaneamente le due attività di farming e di ranching ha l’incentivo ad usare le risorse disponibili così da massimizzare il beneficio netto delle due attività sia nel breve sia nel lungo periodo. Analogamente, se le due attività sono gestite da due proprietari diversi lo squilibrio, generato dall’attribuzione iniziale dei diritti di proprietà e dal risultato della relativa contrattazione, si avrà solo nel breve periodo. Con diritti assegnati al rancher il costo del prodotto del farmer cresce, ma aumenta anche il prezzo del prodotto stesso, attirando nuovi investimenti nell’attività di farming, e favorendo così una successiva riallocazione delle risorse che alla fine del processo di aggiustamento porta al riequilibrio dei rendimenti delle due attività nel rispetto del criterio dell’allocazione efficiente. D’altro canto, con costi nulli di transazione il rancher, per favorire una maggiore produzione del farmer ridotta dall’incremento del costo, può essere disposto a pagare il farmer per consentire un incremento di produzione. Secondo alcuni studiosi (quali Regan, 1972) il trasferimento dei diritti di proprietà comporta anche un trasferimento irreversibile di ricchezza. Questa posizione non è condivisa da Coase (1988) secondo il quale il trasferimento di ricchezza è solo temporaneo. Consideriamo ora il secondo filone critico. Secondo questa critica la riallocazione dei diritti di proprietà, favorita dai costi nulli di transazione, comporta un mutamento strutturale nella distribuzione della ricchezza. Coase (1988) contesta questa conclusione. Supponiamo che il farmer abbia il diritto garantito dalla legge, all’integrità del proprio raccolto. Come risultato il rancher deve sostenere il costo per evitare il danno al farmer. Conseguentemente, il prezzo dell’attività del rancher dovrà essere scontato 57 del costo della sua responsabilità civile nei confronti del farmer. La terra del farmer, protetta dal diritto, aumenterà di valore e spunterà sul mercato un prezzo maggiore. In definitiva, il mutamento nei costi relativi delle due attività tende a controbilanciare gli effetti patrimoniali deivanti dall’assegnazione iniziale del diritto di proprietà. Data la distribuzione dei diritti di proprietà tra le due attività si avrà un aggiustamento nei prezzi relativi dei due prodotti: inizialmente cresce il prezzo del bene del rancher e diminuisce quello del farmer. Tuttavia, nel lungo periodo la distribuzione della ricchezza resterà inalterata in seguito alla riallocazione degli impieghi delle risorse nel rispetto del criterio di efficienza. Il mutamento nei prezzi, in sostanza, prontamente compensa lo squilibrio temporaneo causato dal mutamento nei diritti di proprietà. L’analisi di Coase presuppone un sistema statico di regole legali. Con un simile sistema, a prescindere dall’assegnazione iniziale dei diritti di proprietà, l’equilibrio è garantito dal mutamento dei prezzi relativi che compensa completamente gli effetti distributivi delle norme legali stesse. L’aggiustamento dei prezzi dei fattori produttivi è tale da impedire ogni variazione nelle rispettive curve di domanda e di offerta. Tuttavia, l’analisi di Coase diventa meno convincente nell’ipotesi di improvvisi e frequenti mutamenti nei diritti di proprietà. In tal caso, infatti, il sistema dei prezzi può non essere in grado di adattarsi immediatamente per compensare le perdite subite dai proprietari causate da mutamenti improvvisi nelle regole di responsabilità civile. A questa possibilità Coase (1988) reagisce sostenendo che gli effetti distributivi di diverse regole di responsabilità civile possano essere compensati da accordi contrattuali fra le parti tali da fare dipendere il prezzo di mercato di ogni proprietà da possibili mutamenti nelle regole legali. In tal modo ogni contraente sarebbe protetto da involontari trasferimenti di ricchezza connessi a mutamenti esogeni nelle regole relative ai diritti di proprietà e alla responsabilità civile del danno. Secondo alcuni studiosi (Wellisz, 1964; Calabresi, 1965), anche in presenza di costi nulli di transazione, il comportamento strategico, in particolare del titolare del diritto (nella fattispecie a fare pascolare liberamente gli animali piuttosto che ad essere tutelato nella conservazione del proprio prodotto) può impedire il funzionamento dell’approccio suggerito da Coase. Il titolare del diritto, infatti, è consapevole del fatto che può sfruttare la titolarità del diritto a fini privati. In proposito, Coase non fornisce una risposta puntuale al problema di cui, invece, si occupa Demsetz (1972). Secondo Demsetz il comportamento strategico è possibile, ma alla fine del processo di contrattazione l’allocazione delle risorse dei due contraenti sarà ispirata al criterio di efficienza: in sostanza, la somma dei valori delle due attività è massimizzata al termine del processo di contrattazione a prescindere dalla distribuzione del surplus totale del contratto fra i contraenti stessi. In definitiva, il comportamento strategico, secondo Demsetz, può modificare la 58 distribuzione del surplus totale, ma non l’efficienza allocativa. Inoltre, va tenuto presente che il comportamento strategico non funziona se il mercato è di concorrenza perfetta. Ad esempio, il rancher, titolare del diritto di fare pascolare liberamente gli animali, può minacciare, al fine di conseguire una rendita, di accrescere il numero delle bestie, ma una simile scelta fa crollare il prezzo del bestiame. Solo con un mercato imperfetto il comportamento strategico diventa una scelta credibile. Il comportamento strategico dipende anche dalla specificità dell’attività svolta dai contraenti. L’attività del farmer, ad esempio, implica degli investimenti specifici e talora non recuperabili (sunk costs) sul territorio. Come conseguenza, lo spostamento dell’attività da un luogo ad un altro comporta un costo. Il farmer, quindi, ha un maggiore costo opportunità di riallocazione dell’attività produttiva rispetto al rancher. Pertanto, il rancher può trovarsi in una situazione di monopolio spaziale nella vendita del proprio diritto di proprietà. La posizione di monopolio, tuttavia, sempre secondo Demsetz (1972), non è tale da modificare l’efficienza nell’allocazione dei diritti, ma può solo modificare la distribuzione del surplus totale. L’approccio di Coase si basa sull’ipotesi che i beni interessati alla contrattazione siano privati e, quindi, escludibili. Problemi possono, invece, emergere quando la contrattazione fra le parti interessa beni aventi la natura del bene pubblico (non escludibile e non rivale nel consumo). In questo caso è noto che il mercato non è in grado di risolvere il problema dell’allocazione non ottimale di questa tipologia di beni. Infatti, in presenza di beni pubblici, anche con costi nulli di transazione lo scambio di diritti sul mercato non è tale da risolvere l’assegnazione iniziale non ottimale dei diritti di proprietà. Il sistema del prezzo di mercato non consente la rivelazione delle preferenze individuali e, quindi, rende problematica la soluzione del problema attraverso la contrattazione. Un ulteriore ostacolo al funzionamento dell’approccio di Coase è costituito dall’assenza di barriere all’entrata (tipico di un mercato di concorrenza pura e perfetta). In proposito, supponiamo nell’esempio del rancher e del farmer che al termine di processo di contrattazione il rancher accetti di ridurre il numero degli animali pascolanti per attenuare l’entità del danno recato al farmer. Come conseguenza di una simile scelta si avrà una riduzione dell’offerta di bestiame e un aumento del prezzo della carne. L’aumento del prezzo, in assenza di barriere all’entrata sul mercato, fa crescere l’offerta di bestiame accrescendo i rischi di danno per il farmer che per ridurre il danno subito sarà costretto ad indennizzare i nuovi rancher entrati sul mercato affinché riducano la loro offerta. In tal modo l’accordo iniziale con il rancher è vanificato. Avremo così una dinamica ciclica dell’offerta tale da rendere inutile ogni ulteriore accordo con il rancher. Tuttavia, un simile risultato si ha solamente quando lo scambio dei diritti sul 59 mercato è su scala così vasta da influenzare i prezzi di mercato. Qualora, invece, lo scambio riguardi solo un numero ristretto di contraenti appare poco verosimile che esso sia tale da influenzare in maniera significatìva i prezzi di mercato pur in presenza di libertà di entrata sul mercato. 4. L’approccio di Coase e le critiche di Demsetz Nell’approccio di Coase le esternalità negative costituiscono un problema in presenza di costi positivi di transazione. Con costi bassi di transazione la contrattazione fra le parti è in grado di favorire l’internalizzazione dei costi con conseguente riduzione del danno. Al limite con costi di transazione nulli non emergerebbe alcuna esternalità in quanto, attraverso la contrattazione, il problema sarebbe agevolmente risolto addossando il costo alla parte che può evitare il danno al minor costo. Demsetz (2002, 2003), in proposito, ritiene che anche con costi nulli di transazione il fenomeno delle esternalità negative continuerebbe a manifestarsi e a persistere. Pertanto, secondo Demsetz, focalizzare l’attenzione esclusivamente sul problema dei costi di transazione consente di giustificare interventi non sempre socialmente opportuni da parte dello Stato. Demsetz non accetta l’ipotesi che al centro del problema delle esternalità vi sia unicamente il problema dei costi di transazione. Nella visione di Demsetz le esternalità esistono indipendentemente dall’esistenza e dalla rilevanza dei costi di transazione. Secondo Demsetz le esternalità continuano a persistere a prescindere dai costi di transazione in quanto altri elementi sono importanti nel tentativo di risolvere il problema della discrepanza fra costi sociali e costi privati (McChesney, 2004). In proposito, i due elementi determinanti sono: il diritto di proprietà; e la specializzazione produttiva. Quando il ranch e la farm appartengono allo stesso proprietario la scelta individuale ispirata al criterio di efficienza comporta un’allocazione efficiente delle risorse atta ad internalizzare le esternalità negative attraverso la minimizzazione dei costi (ivi inclusi il costo del danno). Tuttavia, esigenze connesse ai benefici netti della specializzazione produttiva possono comportare una proprietà separata delle due attività. Con diritti di proprietà distinti per le due attività il problema delle esternalità negative si può riproporre in tutta la sua rilevanza. Un’eventuale fusione fra le due attività consente ovviamente l’internalizzazione delle esternalità negative, ma può causare costi di gestione positivi e rilevanti a causa della rinuncia alla specializzazione produttiva. Nella visione di Demsetz sono proprio i benefici netti della specializzazione produttiva e, quindi, della separazione della proprietà la fonte delle esternalità negative e non i costi di transazione. In sostanza, le esternalità negative non emergono solo in quanto i costi di transazione sono positivi e rilevanti, ma anche e forse soprattutto in quanto sono rilevanti i benefici netti della specializzazione produttiva. I costi di transazione non sono un fenomeno 60 esogeno. Essi emergono in quanto gli operatori economici che competono per la stessa risorsa (l’aria, l’acqua, un terreno ecc.) preferiscono gestire imprese aventi distinti diritti di proprietà. Con un unico titolare del diritto di proprietà è risolto il problema dei costi di transazione per l’interazione di due unità di produzione distinte, ma si può avere come effetto la rinuncia, e comunque l’attenuazione, ai benefici netti della specializzazione produttiva. Anche in presenza di costi nulli di transazione e con un diritto di proprietà unitario si pone il problema dei costi di gestione delle due attività produttive che possono richieder un’expertise specifica. Al crescere dei costi di gestione e in presenza della necessità di una expertise specifica per il governo delle due attività può non essere economicamente conveniente la proprietà unificata delle attività medesime. D’altro canto, anche con costi di transazione positivi, ma non esorbitanti, il problema delle esternalità negative può essere risolto se è particolarmente basso il costo opportunità della specializzazione produttiva perduta. In simili condizioni, infatti, qualora il problema non sia risolto dalla libera contrattazione fra le parti, può, al limite, essere risolto con il trasferimento di una delle due attività al soggetto che la valuta maggiormente. Come risultato, il proprietario unico userà le risorse congiunte in modo da minimizzare i costi totali di produzione (ivi inclusi i costi delle esternalità). Nella visione di Demsetz la soluzione suggerita da Coase al problema delle esternalità è complicata anche da due implicazioni inerenti il ruolo dello Stato per la soluzione del problema stesso. Con costi di transazione positivi un’attribuzione dei diritti di proprietà non ispirata al principio di efficienza non è un problema del sistema economico, ma dell’Autorità politica o del sistema giudiziario che consente che la proprietà resti in capo al soggetto che la valuta di meno. L’assegnazione iniziale dei diritti di proprietà non dipende dal sistema dei prezzi e non è necessariamente basata sul criterio di efficienza, ma può dipendere dalle scelte politiche ispirate, ad esempio, alla tutela di interessi di parte. Inoltre, quando i diritti di proprietà sono attribuiti in modo non rispondente al criterio di efficienza si può giustificare un ulteriore intervento pubblico nel mercato, attraverso l’imposizione di tributi, nell’intento di favorire l’internalizzazione del costo delle esternalità negative. L’ulteriore intervento pubblico, tuttavia, può manifestarsi in quanto era economicamente non giustificata l’attribuzione iniziale dei diritti di proprietà. La soluzione del problema delle esternalità negative comporta un’attenta valutazione economica di almeno cinque variabili riguardanti le due attività economiche che si trovano ad interagire: - il guadagno privato del soggetto che crea l’esternalità negativa; la riduzione di utilità sopportata dal soggetto che subisce l’esternalità negativa; il guadagno sociale connesso all’abolizione del danno; 61 - - il livello e la rilevanza dei costi di transazione relativi al processo di contrattazione fra le parti che idealmente può garantire la soluzione del problema delle esternalità; il beneficio netto della specializzazione produttiva per i proprietari delle due attività. Quando il danno creato è superiore al beneficio privato di chi lo genera e quando i costi di transazione sono superiori sia al guadagno sociale dell’abolizione del danno sia al beneficio netto della specializzazione produttiva, assunto come particolarmente basso, il trasferimento ad un unico soggetto dei diritti di proprietà delle due attività consente di risolvere il problema delle esternalità. Questo risultato si giustifica in quanto i costi di transazione positivi e rilevanti non consentono ai due proprietari una contrattazione risolutiva del problema delle esternalità, ferma restando la distinta e separata proprietà delle risorse. In simili condizioni, essendo basso il costo opportunità della specializzazione produttiva è economicamente efficiente unificare le due proprietà. Tuttavia, quando questo costo opportunità è particolarmente elevato e superiore al guadagno sociale dell’abolizione del danno la proprietà unica non è la soluzione efficiente, ossia quella atta a massimizzare il valore netto delle due attività. In definitiva, quando il costo opportunità della mancata specializzazione produttiva è particolarmente basso, pur in presenza di costi positivi di transazione, il problema delle esternalità negative può essere risolto con la proprietà unica. Invece, quando tale costo opportunità è particolarmente alto anche con costi di transazione nulli la proprietà unica non è la soluzione efficiente al problema delle esternalità negative. In sostanza, il fenomeno delle esternalità può persistere anche quando i costi di transazione sono nulli se è molto elevato il costo opportunità della specializzazione produttiva e se i diritti di proprietà sono inizialmente attribuiti in modo inefficiente. In verità, va rilevato che già nel suo saggio del 1937 sulla natura e l’origine dell’impresa Coase aveva intuito che, per risparmiare sui costi di transazione, l’impresa può essere preferita al mercato. In proposito, Coase nel saggio del 1960 sottolinea che una nuova organizzazione produttiva (ad esempio un’unica impresa) può contribuire a risolvere il problema delle esternalità. Nella visione di Coase, quindi, sembra che i costi di transazione positivi non siano sufficienti a fare persistere il fenomeno delle esternalità, ma possano spiegare la persistenza del fenomeno soprattutto quando i diritti di proprietà sono inizialmente definiti e assegnati in maniera inefficiente. Secondo Demsetz il costo opportunità della specializzazione produttiva può essere la vera ragione della persistenza del fenomeno delle esternalità. In merito alla specializzazione produttiva va evidenziato che possiamo individuare due forme essenziali di specializzazione: 62 - la specializzazione nella produzione alla Smith con imprese indipendenti, ossia caratterizzate da diritti di proprietà distinti; la specializzazione produttiva nell’ambito di una holding, ossia un’organizzazione caratterizzata da un’unica proprietà, ma con unità produttive distinte. In presenza di una holding non è necessaria l’unificazione delle imprese per risolvere il problema delle esternalità. La struttura ad holding è in grado di alleviare i problemi inerenti la perdita dei guadagni derivanti dalla specializzazione nella produzione fra imprese. Infatti, ogni impresa della holding può mantenere la propria autonomia produttiva e gestionale: è garantita la specializzazione nella produzione. Resta da appurare se una holding in quanto tale subisca una riduzione dei guadagni netti a causa dell’incremento dei costi di coordinamento delle varie attività. Nell’ambito di una holding con la separazione del controllo dalla gestione delle varie imprese si ha una separazione fra investimento e gestione. In una holding, tuttavia, la gestione necessita che il management abbia un’adeguata informazione sui costi (ivi inclusi gli eventuali danni) che un’impresa addossa ad un’altra. Ciò può comportare un incremento nei costi di gestione e di coordinamento. Un simile evento si può manifestare anche nel mondo di Coase (con due imprese distinte che interagiscono) in cui ciascun gestore delle due attività distinte deve avere un’adeguata conoscenza dei costi e dei benefici propri al fine di contrattare con la controparte, in modo informato, assumendo costi di transazione nulli. Anche all’interno di una holding, nell’ipotesi di costi di transazione nulli, i vari manager debbono avere un’informazione sui costi e sui benefici delle diverse imprese controllate. Nella realtà, quindi, non sembra che una holding comporti necessariamente un incremento nei costi di gestione e di coordinamento. In presenza di costi di transazione positivi non sembra esservi una differenza significativa nei costi di gestione e di coordinamento fra le due alternative (imprese distinte versus holding). In presenza di imprese distinte il criterio di efficienza richiede un riaggiustamento dei costi dell’impresa che causa il danno: il prezzo interno del danno di chi lo causa deve eguagliare il costo del danno subito dalla vittima. Nell’ambito di una holding, quindi, il problema delle esternalità può essere risolto da prezzi di trasferimento interni alla holding stessa. Tuttavia, con costi di transazione positivi e in presenza di comportamento strategico di alcuni manager i prezzi di trasferimento interni possono essere definiti in modo subottimale. Così come accade nel mondo di Coase il sistema politico e giudiziario può non essere in grado di garantire un’efficiente allocazione della proprietà. In sostanza, quelli che Demsetz definisce come costi di management possono essere interpretati come costi interni di transazione. Pertanto, ai fini della soluzione del problema delle esternalità l’unico elemento rilevante è appurare se costa di meno la contrattazione sul mercato 63 o all’interno di una holding. Si tratta di un problema di valutazione empirica (McChesney, 2004). Naturalmente, quando il costo dell’intervento pubblico è particolarmente basso il problema delle esternalità negative può essere risolto in tal modo. Una simile scelta può essere socialmente preferibile quando il costo dell’intervento pubblico è inferiore al valore dei costi privati di transazione e al beneficio sociale dell’abolizione del danno in presenza di un costo molto elevato del costo opportunità della perduta specializzazione che rende non praticabile l’unificazione delle proprietà. In simili condizioni anche Coase ammette il ricorso all’intervento pubblico attraverso, ad esempio, la regolamentazione al fine di eliminare, o comunque contenere, l’entità del danno. Come già sottolineato in precedenza Demsetz è critico in merito all’intervento pubblico come strumento di risoluzione del fenomeno delle esternalità. Infatti, anche lo Stato, sia con proprie scelte politiche sia con il sistema giudiziario, può fallire, in particolare quando assegna i diritti di proprietà in modo subottimale, ossia in maniera tale da non consentire la massimizzazione del valore netto della proprietà. In tal caso, con costi positivi di transazione, la soluzione privata, attraverso la contrattazione, del problema delle esternalità non è fattibile. In presenza di esternalità negative un intervento pubblico pervasivo, ad esempio con una regolamentazione molto puntuale, può indebolire l’esercizio di diritti di proprietà definiti e assegnati nel rispetto del criterio di efficienza. In questo caso l’intervento dello Stato contribuisce a ridurre il benessere sociale. Per contro, l’intervento dello Stato può essere migliorativo quando contribuisce a definire meglio i diritti di proprietà, ossia quando l’attribuzione di tali diritti è in sintonia con il criterio di efficienza. In proposito, va ribadito che solo diritti di proprietà ben definiti e garantiti possono consentire, nella visione di Coase, un’efficiente allocazione delle risorse. In presenza di un’esternalità negativa con diritti di proprietà ben definiti e garantiti le parti, se non riescono a definire il contrasto di interessi privatamente, possono farlo con l’intervento dello Stato (nuova legge o con l’intervento del giudice). Tuttavia, se i diritti non sono ben definiti e garantiti nessuna parte può essere certa del successo. In questo caso la soluzione al problema delle esternalità può richiedere che una parte acquisti la proprietà dell’altra. Demsetz preferisce una ridefinizione del diritto di proprietà all’intervento pubblico, sotto forma di imposizione tributaria o di regolamentazione, in quanto teme che i costi di un simile intervento possano essere superiori ai benefici. In proposito, Coase ritiene che l’intervento dello Stato per limitare le esternalità possa essere desiderabile quando il danno è subito da un elevato numero di persone così da render più costosa la soluzione del problema attraverso il mercato (contrattazione) o l’impresa (proprietà unica). In sostanza, l’intervento pubblico può essere desiderabile quando i costi di transazione sono molto elevati così come accade quando è molto alto il numero delle vittime del danno. Per contro, la soluzione 64 suggerita da Demsetz (l’unificazione delle proprietà) appare più appropriata quando i soggetti interessati al problema delle esternalità sono solo due o comunque un numero ristretto. Demsetz è ostile all’intervento pubblico, sotto forma di regolamentazione o restrizioni all’uso della risorsa, in quanto un simile intervento indebolisce i diritti di proprietà. L’intervento pubblico può rendersi necessario quando le parti interessate al problema delle esternalità fronteggiano uno scarso incentivo a rivelare i veri valori dei costi e dei benefici delle proprie scelte, così da facilitare, attraverso la contrattazione, la soluzione del problema. In particolare, l’intervento pubblico può essere sostitutivo della soluzione privata quando la contrattazione è ostacolata dal comportamento strategico. In caso di intervento pubblico i beneficiari dell’intervento non pagano nulla a chi ha subito il costo dell’intervento: possono, quindi, avere l’incentivo a sovrastimare il valore del danno che sopportano. Tuttavia, l’intervento pubblico può essere giustificato quando il suo costo è inferiore ai costi di transazione e ai costi del management in caso di specializzazione produttiva, entrambi superiori al beneficio sociale derivante dall’abolizione del danno. In tal caso, essendo il costo dell’intervento pubblico inferiore al valore del beneficio sociale si giustifica l’intervento dello Stato. 5. Osservazioni conclusive Un sistema di diritti di proprietà privata sufficientemente definito e garantito favorisce il rispetto del criterio di efficienza, ma può sollevare problemi dal punto di vista della giustizia distributiva. In particolare, questi problemi presentano una duplice natura: da un lato la proprietà privata inevitabilmente crea problemi in termini di distribuzione del surplus contrattuale; dall’altro lato l’esercizio del diritto di proprietà privata può creare un danno a terzi (esternalità negative). In merito alla giustizia distributiva è da rilevare che la creazione della proprietà privata di per sé rappresenta un danno per tutti i soggetti esclusi. La proprietà privata, quindi, facilita il rispetto del criterio di efficienza a livello di produzione, ma in quanto danneggia gli esclusi dal diritto (che subiscono una riduzione del benessere) non rispetta il criterio dell’ottimo paretiano. Tuttavia, gli esclusi dall’esercizio del diritto di proprietà non sono gli unici danneggiati. Infatti, un soggetto che esercita liberamente il proprio diritto di proprietà può con la propria attività danneggiare altri soggetti che si trovano così a subire una riduzione della propria utilità. L’attività di un soggetto, quindi, avvantaggia il diretto interessato, ma può comportare un danno a terzi di cui il soggetto stesso non tiene conto. Il soggetto, infatti, si appropria interamente dei benefici dell’attività svolta, ma non internalizza interamente tutti i costi della medesima, bensì solamente quelli strettamente privati. I costi sociali, inclusivi del danno a terzi, sono superiori ai costi privati. In simili condizioni, 65 la teoria economica sostiene che siamo di fronte a uno dei possibili modi d’essere del cosiddetto fallimento del mercato. Due sono, in particolare, gli approcci suggeriti dalla teoria economica per risolvere il problema dell’esternalità negative: l’approccio di Pigou; e l’approccio di Coase. Si tratta di due approcci molto diversi, soprattutto per quanto riguarda il ruolo attivo dello Stato e del mercato (inteso come libera contrattazione fra le parti). In caso di esternalità negativa Pigou considera l’intervento dello Stato (assunto come benevolente e onnisciente) adeguato per risolvere il problema: un tributo uguale alla differenza fra costo sociale e costo privato marginale consente di fare sì che si abbia una completa internalizzazione dei costi (ivi incluso il valore dell’esternalità negativa). Coase, invece, sostiene che in condizioni ideali (costi di transazione nulli o molto bassi), il mercato è in grado, in assenza di qualsiasi intervento pubblico, di risolvere il problema attraverso la contrattazione fra le parti interessate. Il danno sarà evitato dalla parte che lo può evitare al minor costo. I diritti di proprietà di per sé non sono un ostacolo in quanto possono solo influenzare il potere contrattuale delle parti e determinare, in particolare, la parte che può evitare il danno al minor costo. Ad esempio, se la legge attribuisce il diritto al rancher di fare pascolare liberamente la mandria, la contrattazione fra le parti può fare sì che il farmer paghi direttamente il rancher se quest’ultimo può evitare il danno al minor costo. La definizione dei diritti di proprietà, quindi, facilita la contrattazione e determina solamente la natura del trasferimento monetario fra le parti. L’approccio di Coase ha innescato molte critiche con particolare riguardo a tre elementi: l’ipotesi poco realistica dei costi di transazione nulli; il fatto che l’esito della contrattazione influenza la distribuzione delle risorse; il fatto che l’esito della contrattazione, in quanto influenza i prezzi relativi, influenza l’equilibrio economico di lungo periodo. Il dibattito scaturito da queste critiche, tuttavia, sembra avere determinato un consenso piuttosto diffuso sul fatto che tali critiche non siano tali da inficiare in modo devastante l’intuizione di Coase. Tuttavia, in questi ultimi tempi Demsetz è ritornato sull’approccio di Coase criticandolo soprattutto in quanto trascura, in particolare, il beneficio della specializzazione produttiva. Nella visione di Demsetz la soluzione al problema delle esternalità negative dipende non tanto dal ruolo dei costi di transazione, quanto e soprattutto dal ruolo e dalla rilevanza dei benefici (e dal costo opportunità) della specializzazione. In particolare, Demsetz ribadisce che, in linea di principio, una proprietà unica delle risorse consente di risolvere definitivamente il problema delle esternalità. Tuttavia, la proprietà unica può far venire meno, o comunque attenuare sensibilmente, il vantaggio della specializzazione produttiva. Quando il costo opportunità del mancato sfruttamento della specializzazione è molto elevato il mercato può non essere in grado, pur in presenza di costi nulli di transazione, di risolvere il problema delle esternalità. 66 BIBLIOGRAFIA ANDERSON, T.L. – SWIMMER, E. (1997), “Some Empirical Evidente on Property Rights of First Peoples”, Journal of Economic Behavior and Organization, vol. 33. ANDERSON, T.L. – McCHESNEY, F.S. (2003),(eds), Property Rights, Princeton University Press. BELL, A. – PARCHOMOVSKY, G. (2004), What Property Is, University of Pennsylavania Law School, Institute for Law and Economics, Research Paper No. 04-05. BOWLES, S. – GINTIS, H. (2003), “Origins of Human Cooperation”, in P. Hammerstein (ed.), Genetic and Cultural Evolution of Cooperation, Mit Press. BOWLES, S. – GINTIS, H. (2002), “Social Capital and Community Governance”, Economic Journal, vol.112. CALABRESI, G. (1965), “The Decision for Accidents: An Approach to Nonfault Allocation of Costs”, Harvard Law Review, vol. 78. CALABRESI, G. (1968), “Transaction Costs, Resource Allocation and Liability Rules: A Comment”, Journal of Law and Economics, vol.11. CLERICO, G. (2004), Interazione umana, scelte comportamentali e cooperazione- Il ruolo della legge e delle norme sociale, Università del Piemonte orientale, Dipartimento di Scienze giuridiche ed economiche, dattiloscritto. COASE, R.H. (1937), “The Nature of the Firm”, Economica, vol. 4. COASE, R.H. (1960), “The Problem of Social Cost”, Journal of Law and Economics, vol. 3. COASE, R.H. (1988), The Firm, the Market, and the Law, Chicago, The University of Chicago Press. COOTER, R. – ULEN, T. (2004), Law and Economics, Boston, Addison e Wesley. COOTER, R. (1987), “Coase Theorem”, in J. Eatwell, M. Milgate, and P. Nwman (eds), The New Palgrave: A Dictionary of Economics, New York, Stockton Press. DEMSETZ, H. (1964), “The Exchange and Enforcement of Property Rights”, Journal of Law and Economics, vol.7. DEMSETZ, H. (1967), “Toward a Theory of Property Rights”, American Economic Review, vol. 57. DEMSETZ, H. (1972), “When Does the Rule of Liability Matter?”, Journal of Legal Studies, vol. 1. DEMSETZ, H. (1996), “The Core Disagreement Between Pigou, the Profession, and Coase in the Analyses of the Externality Question”, European Journal of Political Economy, vol. 12. 67 DEMSETZ, H. (2002), “Towards a Theory of Property Rights II: The Competition between Private and Collective Ownwership”, Journal of Legal Studies, vol. 31. DEMSETZ, H. (2003), “Ownership and the Externality Problem in Property Rights: Cooperation, Conflict, and the Law”, in Anderson T.L. e F. S. McChesney (2003),(eds), Property Rights, Princeton University Press. FIELD, B.C. (1989), “The Evolution of Property Rights”, Kyklos, vol.42. GORDON, S.H. (1954), “The Economic Theory of Common Property Resources: The Fishery”, Journal of Political Economy, vol. 62. HENRICH, J. (2004), “Cultural Group Selection, Coevolutionary Processses and Large-scale Cooperation”, Journal of Economic Behavior and Organization, vol. 53. MCCHESNEY, F.S. (2004), What’d I Say?: Coase, Demsetz and the Unending Externality Debate, Northwestern University School of Law. Law & Economics Research Paper Series, Research Paper No. 04-01. NUTTER, G.W. (1968), “The Coase Theorem on Social Cost: A Footnote”, Journal of Law and Economics, vol.16. PARISI, F. (1995), “Private Property and Social Costs”, European Journal of Law and Economics, vol. 2. PIGOU, A.C. (1920), The Economics of Welfare, London, Macmillan. REGAN, D.H. (1972), “The Problem of Social Cost Revisited”, Journal of Law and Economnics, vol. 15. ROSE C.M. (1999), “Property as the Keystone Right?”, Notre Dame Law Review, vol. 71. STIGLER, G.J. (1996), The Theory of Price, New York, Macmillan. ULLMAN-MARGALIT E. (1977), The Emergence of Norms, Oxford University Press. WELLISZ, S. (1964), “On External Diseconomies and the Government Assisted Invisibile Hand”, Economica, vol. 31. YOUNG, H.P. (1996), “The Economics of Convention”, Journal of Economic Perspectives, vol.10. 68 ON THE COMPUTATION OF CONVOLUTION IN ACTUARIAL PROBLEMS. SOME FURTHER RESULTS* Maria Giuseppina Bruno°, Gennaro Olivieri°° e Alvaro Tomassetti°°° JEL Classification: C00, D81, G22 Key words: Fast Direct Convolution, Recursive methods, Fast Fourier Transform 1. Introduction In this paper, we show some further results about the method proposed by Bruno, Tomassetti (2004) to rapidly compute the sum of discrete and mutually independent (but not necessarily identically distributed) random variables. The method is based on the direct calculation of classical convolution, under the hypothesis to neglect the probabilities (original as well as convoluted) less than a prefixed value ε (10-24≤ε≤10-4930). The method is named Fast Direct Convolution (FDC). Of course this method is “approximated”; however, having a relative error of order 10-10 with respect to the exact results (derived by the other methods existing in literature), we can consider it exact in actuarial applications. The error concerns the distribution of the final convolution and in particular the probabilities of each numerical realizations and the first four moments (compared with the sum of the moments of the original random variables). In this paper, we compare the above-mentioned method with the other (exact or approximated) methods existing in literature for calculating convolution. We show that the FDC method performs better than the recursive methods and it is also more efficient than the well-known Fast Fourier Transform (FFT). This is in particular true for those actuarial applications where the sum of not identically distributed random variables is involved or where the * The paper is credited to M.G. Bruno; G. Olivieri and A. Tomassetti have taken care of the applications. ° Maria Giuseppina Bruno is an associate professor at the Università degli Studi di Roma “La Sapienza”, Dipartimento di Matematica, Roma, Italy, e-mail: [email protected]. °° Gennaro Olivieri is an ordinary professor at LUISS, Dipartimento di Scienze Economiche e Aziendali, Roma, Italy, e-mail: [email protected]. °°° Alvaro Tomassetti is a former full professor at the Università degli studi di Roma “La Sapienza”, Dipartimento di Scienze Attuariali, Roma, Italy, e-mail: [email protected]. 69 calculation of successive orders of convolution up to the final one is required, such as for example the calculation of the aggregate claims distribution. On this subject, notice that the method FDC as well as the calculation by FFT can be applied in a more general context than the recursive methods. As a matter of fact, unlike the methods FDC and FFT, the recursive methods mentioned in the paper can only be applied in the case of identically distributed random variables or in the case of portfolios of policies producing at most one claim in a certain reference period. Thus, they cannot be applied, for instance, to a lot of pension funds (especially in Europe) or in a collective risk model. The other recursive methods existing in literature (for a wide survey, see Sundt, 2002) are instead very time consuming and, in many cases, they can be applied only for random variables with non negative numerical realizations. Let X1,X2,...,XN be the discrete and independent but not necessarily identically distributed random variables to be summed up and let: n X (n) = ∑ Xi for n = 1,..., N (1.1) i =1 For each random variable X(n), let AR(n)max and AR(n)min be respectively the greatest and the smallest numerical realization and let fX(n)(xn) (for xn∈I[AR(n)min, AR(n)max], where I[AR(n)min, AR(n)max] is the subset of integer numbers -positive, negative or null- in the field [AR(n)min, AR(n)max]) be the convolution of order n, that is the probability distribution of X(n). 2. FDC method The principle underlying the method FDC is to apply the definition of convolution in a direct manner by using only real and elementary operations (basically, multiplications and additions) for the random variables (initial or obtained by convolution). For having the same results of the classical methods (but with a greater efficiency), we apply the following conditions: a) we proceed step by step, that is we consider the first random variable (convolution=1), then we add the second (convolution=2), then we add the third (convolution=3) and so on until convolution=N; b) at each step, we neglect the initial or convolved probabilities less than 10-k (24≤k≤4930) (in the actuarial applications 24≤k≤50 is sufficient); c) for each convolution, we verify that the sum of the probabilities is equal to 1 with a prefixed error (in the actuarial applications an error less than 10-10 is sufficient); 70 d) we verify that the first four moments of the final convolution differ from the corresponding exact values by an error of the same order (less than 10-10). Formally, the method consists in considering, for each n, only the numerical realizations yn:fX(n)(yn)≥10-k (with 24≤k≤4930) fulfilling the following conditions: - after the computation of the convolution of order n: 1 − ∑ f X ( y n ) < 10 −10 (2.1) (n) yn - after the computation of the final convolution: 1− [ E y (X ( N ) ) [ n E (X k )] (N) k ] < 10 −10 for k = 1,2,3,4 (2.2) where E[(X(N))k] is the k-th exact moment of the final convolution and Eyn[(X(N))k] the corresponding value obtained by only considering the realizations yn and their probabilities. In order to measure the calculation efficiency of this method, we compute, as usual, the number of multiplications. We refer in particular to those cases where the calculation of successive orders of convolution is required. Thus, we consider only the number of multiplications necessary to pass from each order of convolution to the following one. Let NRi be the number of the numerical realizations with non null probability of the i-th random variable Xi and NR(n) the number of the numerical realizations of the random variable X(n) obtained after n convolutions. Notice that, generally speaking, NR(n)≤(AR(n)max-AR(n)min) for two reasons: - the random variables to sum up do not necessarily have as many numerical realizations as all the integers from the minimum to the maximum; - as previously said, the FDC method neglects in the calculation of each convolution the numerical realizations with probability (initial and/or convoluted) less than a prefixed ε>0. 71 In the general case of not identically distributed random variables, the number of multiplications required for calculating each successive convolution of order n (n=1,2,…,N) is given by: n) molt (FDC = NR ( n −1) NR n (2.3) In the particular case of identically distributed random variables Xi=X1 (i=1,...,N), the number of multiplications is instead given by: n) molt (FDC = NR ( n −1) NR 1 (2.4) The results for the final convolution follows by taking n=N respectively in equations (2.3) and (2.4). 3. Recursive methods Consider a portfolio of n (n=1,…,N) independent policies which produce at most one claim during a certain exposure period and suppose that the probability of producing a claim and the associated claim amount distribution are given for each policy. Besides, suppose that this portfolio can be divided into a x b classes by gathering all policies with the same claim probability and the same conditional claim amount distribution. Formally, let: - (i,j) (i=1,2,…,a, j=1,2,…,b) be the class that contains all the policies with claim probability qj and conditional claim distribution fi(x) (x=1,2,….,mi); - nij be the number of policies in the class (i,j) (obviously, a b n = ∑i =1 ∑ j =1 nij ); - pj=1-qj be the probability that a policy of the column j produces no claim; a b - NM = ∑i =1 ∑ j =1 nij mi be the maximum amount of aggregate claims. Under these conditions, Dhaene, Vandebroek (1995) derived the following exact recursion for calculating the aggregate claims distribution: a b f X ( 0 ) = ∏∏ ( p j ) (n) i =1 j =1 72 nij (3.1) a b sf X ( s ) = ∑ ∑ nij vij ( s ) for s = 1,2,..., NM (n) (3.2) i =1 j =1 where: (3.3) ⎧qj ⎪ v ij ( s ) = ⎨ p j ⎪0 ⎩ f i ( x )(xf X ∑ x =1 mi (n) ( s − x ) − v ij ( s − x )) for s = 1,2,..., NM elsewhere Notice that for a=b=1, this recursion is the same one derived by De Pril (1985) for calculating convolution of identical distributed random variables. The number of multiplications required by this recursion for calculating each convolution is approximately given by: a ⎞ ⎛ (n) molt REC = 2b⎜ a + ∑ mi ⎟ NM i =1 ⎠ ⎝ (3.4) As to the number of multiplications to be carried out, this recursion performs better than the exact recursion proposed by De Pril (1989) if: ⎞ ⎛ a NM > 2b⎜ ∑ mi − a ⎟ − 1 ⎠ ⎝ i =1 (3.5) Besides, it performs better than the r-th order approximation proposed by De Pril (1989) (which however performs well only when the qj are smaller than ½) if: b< r( r + 1 ) ar ( 2r − 1 ) − a 2 ⎞ ⎛ 2⎜ ∑ m i + a ⎟ ⎠ ⎝ i =1 (3.6) 4. Convolution by FFT The FFT is a fast algorithm for the calculus of DFT and its inverse IDFT (see Bracewell, 2000; Brigham, 1988; Press et al., reprint 1999; Tolimieri, An, Lu, 1997; Zonst, 2000). For calculating the convolutions up to the final one of order N, one just needs apply this algorithm to the classical approach by DFT. 73 This is the way, we proceed: a) we calculate the following DFT for each random variable Xi (i=1,...,N): ( AR ) ⎞ ⎛ 2π f i ( r ) exp⎜⎜ ir u ⎟⎟ (N) (N) r =0 ⎝ (ARmax − ARmin ) ⎠ (N) (N) for u = 0,1,...,(ARmax − ARmin − 1) Φ f (u ) = (N) (N ) max − ARmin −1 ∑ i (4.1) where fi(r) is the probability distribution of Xi; b) then, we calculate the DFT of the convolution of order n. Given the independence of the random variables, we can multiply the DFT of each random variable as follows: Φf n X( n ) ( u ) = ∏Φ f ( u ) i =1 i (4.2) c) finally, we calculate the following IDFT: fX (r )= (n) ( AR 1 (N) − ARmin ) (N ) (N ) max − ARmin − 1 (AR (N) max for r = 0,1,..., (AR (N) max − AR (N) min ∑ u =0 − 1) ) Φf X( n ) ⎞ ⎛ 2π ( u ) exp⎜⎜ iu r ⎟⎟ (N) (N) ( ) AR AR − max min ⎠ ⎝ (4.3) As well-known, by considering only the calculus of the IDFT, the number of multiplications for computing any convolution of order n (n=1,…,N) is: n) molt (FFT = M log 2 M (4.4) where M=2γ is the smallest integer (expressed as a power of 2) not less than (AR(N)max-AR(N)min). For the final convolution, the result is given by taking n=N. Actually, the number of multiplications is considerably greater (as one can see by the routine illustrated in Press et al., 1999, pp. 507-508). 74 5. Applications 5.1. Comparison of the efficiency of FDC method with the other methods Let us compute the convolution of order 1000 of a random variable with 14 realizations with minimum value 14 and maximum 60. Let therefore N=1000, NRi=14 (i=1,2,....,1000), AR(1)max=60 and AR(1)min=14. In the FDC method, if we neglect the probabilities less than ε=10-24, the number of realizations after 999 convolutions is (according to the program) equal to NR(999)=10090 (instead of 45954 according to the theoretical formula, that is 999⋅(60-14)). In these conditions, the number of multiplications is: 1000 ) molt (FDC = NR (999) NR 1 = 10090 ⋅ 14 = 141260 (5.1) If we take (yet this is of no help in the applications since the value is excessively little for actuarial purposes) ε=10-4930, the realizations after 999 convolutions become NR(999)=25442 and then the number of multiplications is: 1000 ) molt (FDC = NR (999) NR 1 = 25442 ⋅ 14 = 356188 (5.2) Using the Dhaene, Vandebroek recursive formula, the number of multiplications is instead: 1000 ) molt (REC = 2 ⋅ 1 ⋅ (1 + 60 ) ⋅ 60000 = 7320000 (5.3) since a=b=1, m1=60 and NM=1000⋅60=60000. In this case, we also have: r (r + 1) 1⋅ r 60000 > 2 ⋅ 1 ⋅ (60 − 1) − 1 and 1 < (2r − 1) just for an r − 2 2 ⋅ (60 + 1) greater than 1. Thus equations (3.5) and (3.6) are both satisfied. Finally, using FFT, the number of multiplications is: 1000) molt (FFT = M log 2 M = 65536 ⋅ 16 = 1048576 (5.4) where M=216 that is the smallest integer (expressed as a power of 2) ≥1000(AR(1)max-AR(1)min)=1000⋅(60-14)=46000. 75 In the following Table 1, we show some more results about the comparison among the FDC method, Dhaene, Vandebroek recursion and FFT, in terms of number of multiplications. Tab. 1 - Number of real multiplications NumConv. 2 3 10 100 1000 10000 FDC* 196 798 5404 37352 141260 376212 RECURSION 14640 21960 73200 732000 7320000 73200000 FFT 896 2048 10240 106496 1048576 20971520 *The probabilities less than ε=10-24 are neglected. For the final convolution, the results are identical for both each probability and the first four moments of the distribution (by an error of order 10-10). In conclusion, as regards the number of multiplications (results being equal), the more efficient method for convolution is the FDC followed by FFT. Notice that we arrive at the same conclusion even by neglecting the probabilities less than ε=10-4930 (virtually, by neglecting no probability) when applying FDC method. The comparison of the FDC method with the calculation by FFT is still more in favour to the FDC if we consider the processing times shown in Table 2. This is because the FFT requires, in addition to the illustrated multiplications, several other analysis and operations (see Press et al., 1999, pp. 507-508); on the contrary, the FDC just requires the product of probabilities and, in the event, the sum of probabilities for equal realizations. Tab. 2 - Processing Times (in seconds)* Num. Conv. 100 500 1000 5000 FDC** <1 2 7 73 FFT 7 87 369 10862 *PC AMD ATHLON 4 Model 716EA; Presario 700 Portable (language C++). **The probabilities less than ε=10-24 are neglected. For the final convolution, the results are identical for both each probability and the first four moments of the distribution (by an error of order 10-10). 76 5.2. Example of convolution by FDC This example concerns an application of the method FDC in an individual model. This is a further analysis of an example in Bruno, Camerini, Tomassetti (2000). We refer to 8 random variables not identically distributed for a total of 13500 convolutions. Notice that in this case the recursive methods cannot be applied since many random variables represent policies producing more than one claim in the reference period. In Table 3, we show the cumulative distribution obtained by the FDC method. The probability distribution is identical to the one obtained by FFT until the tenth decimal point. Tab. 3 - Cumulative distribution of the sum of 13500 independent random variables, not identically distributed Realizations* ≤m-5.00σ ≤m-4.00σ ≤m-3.00σ ≤m-2.75σ ≤m-2.50σ ≤m-2.25σ ≤m-2.00σ ≤m-1.90σ ≤m-1.75σ ≤m-1.00σ ≤m-0.75σ ≤m-0.50σ ≤m-0.25σ ≤m ≤m+0.25σ ≤m+0.50σ ≤m+0.75σ ≤m+σ ≤m+1.75σ ≤m+2.00σ ≤m+3.00σ ≤m+3.50σ ≤m+4.00σ ≤m+4.50σ ≤m+5.00σ ≤m+6.00σ ≤m+7.00σ ≤m+8.00σ Cumulative distribution 0.000 000 001 7 0.000 013 540 4 0.000 550 742 3 0.001 452 011 5 0.003 934 288 8 0.008 590 919 5 0.019 026 458 8 0.022 855 198 6 0.035 224 377 7 0.158 303 503 0 0.225 969 121 0 0.318 640 405 5 0.409 274 677 8 0.517 325 901 8 0.609 873 158 0 0.695 558 877 5 0.780 601 338 8 0.841 620 168 4 0.955 266 183 8 0.972 266 620 0 0.997 608 488 1 0.999 444 812 5 0.999 875 814 0 0.999 978 269 8 0.999 996 687 1 0.999 999 939 7 0.999 999 999 4 1.000 000 000 0 *The mean is m=128575.052, the standard deviation σ=736.935; skewness 0.159; kurtosis 3.031. The same values for the distribution function and for the moments are derived by applying FFT. 77 REFERENCES BRACEWELL, R.N (2000), The Fourier Transform and Its Applications, McGraw-Hill International Editions. BRIGHAM, E.O (1988), The Fast Fourier Transform and Its Applications, Prentice-Hall, Inc. BRUNO, M.G. – CAMERINI, E. – TOMASSETTI, A. (2000), “Financial and Demographic Risks of a Portfolio of Life Insurance Policies with Stochastic Interest Rates: Evaluation Methods and Applications”, North American Actuarial Journal 4, No. 4, pp. 44-55. BRUNO, M.G. – TOMASSETTI, A. (2004), “On the Computation of Convolution in Actuarial Problems”, Proceedings of the 8th International Congress on Insurance: Mathematics and Economics, Rome 14-16 June 2004. DE PRIL, N. (1985), “Recursions for Convolutions of Arithmetic Distributions”, ASTIN Bulletin 15, 135-139. DE PRIL, N. (1989), “The Aggregate Claims Distribution in the Individual Model with Arbitrary Positive Claims” ASTIN Bulletin 19, pp. 9-24. DHAENE, J. – VANDEBROEK, M. (1995), “Recursions for the Individual Model”, Insurance: Mathematics and Economics 16, pp. 31-38. PRESS, W.H. – TEUKOLSKY, S.A. – VETTERLING, W.T. – FLANNERY, B.P. (1999), Numerical Recipes in C, Cambridge University Press, reprint. SUNDT, B. (2002), “Recursive Evaluation of Aggregate Claims Distributions”, Insurance: Mathematics and Economics 30, pp. 297-322. TOLIMIERI, R. – AN, M. – LU, C. (1997), Algorithms for Discrete Fourier Transform and Convolution, Springer-Verlag. ZONST, A.E. (2000), Understanding the FFT, Citrus Press. 78 PRICING CREDIT DERIVATIVES WITH A COPULA-BASED ACTUARIAL MODEL FOR CREDIT RISK Giovanni Masala* - Massimiliano Menzietti** - Marco Micocci*** JEL Classification: G11, G12, G13, G21, G33 Key words: credit risk; copula functions, copula modified Monte Carlo simulation, credit derivatives 1. Introduction Credit derivatives are financial contracts whose pay-off are contingent on the creditworthiness of some counterparts. As was pointed out in some recent works (Mashal & Naldi (2002), Meneguzzo & Vecchiato (2002)), they have become in recent years the main tool for transferring and hedging credit risk. The most complicated of such instruments are the multinames ones. Indeed, these instruments are not quoted (market prices are not available). Besides, we do not posses closed forms for their pricing: we must necessarily set up a Monte Carlo simulation procedure. The key to perform this task consists in modelling correctly multiple defaults. A dependence structure using copulas methods was first set up by Li (2000). In this paper, Li considers time-until-default for each obligor and model their dependence structure through a Student t-copula. Other papers which take into account a copula dependence structure are due to Cherubini & Luciano (2002, 2004), Galiani (2003), Gregory & Laurent (2002), Li describes a default for a single obligor through the so-called survival function S (t ) = Pr {T > t} which represents the probability that this counterpart attains age t and T is the time-until-default. Besides, the survival function is linked to the hazard rate function h(t ) in the following way: t S (t ) = e ∫ − h ( u ) du 0 Li also assumes that the hazard rate function is constant, h (t ) = h . This means that the survival time is exponentially distributed with constant * University of Cagliari – [email protected] University of Rome “La Sapienza” – [email protected] *** University of Cagliari – [email protected] ** 79 parameter h . Other features of this model are the following: credit migrations at the end of the time horizon were not taken into account and recovery rates in default situations are assumed deterministic. This model has been resumed by Mashal & Naldi with the intent to price particular multinames credit derivatives such as nth-to-default baskets. Their model is a hybrid of the well-known structural and reduced form approaches for modelling defaults. After simulating a large number of multivariate times-until-default, one deduces pay-off for our derivative. Finally, the pricing is estimated using standard risk-neutral pricing technology (by assuming complete markets and no-arbitrage hypothesis). The credit risk model for the underlying portfolio, already developed in Masala, Menzietti & Micocci (2004), follows a general credit risk framework: hazard rates are random variables whose values follow gamma distributions coherently with Credit Risk Plus (1997), Micocci (2000), Burgisser, Kurth & Wagner (2001) and Menzietti (2002); recovery rates themselves are supposed to be stochastic as in Gupton, Finger & Bathia (1997), and following a Beta distribution, moreover credit migrations are allowed. This feature becomes very important when we treat credit derivatives whose payoff depends on credit spread. The paper is structured as follows. Section 2 presents the model for default and credit migration; the section is divided in subsections facing the problems of time-until-default, the hazard rate function and the recovery rates, the credit migration and the exposure valuation, the loss distribution. Section 3 introduces some basket credit derivatives with numerical applications. Section 4 concludes. 2. The model for default and credit migration 2.1. Time-until-default The first aspect we treat is the risk of default, which is modelled in all the approaches to credit risk in different ways. In our model, following Li and other studies (Li (2000), Mashal & Naldi (2002), Meneguzzo & Vecchiato (2002)) we define a new random variable, the survival time from now to the time of default or the time-until-default for an exposure. Time-until-default can be modelled as the survival time in life insurance1. We denote this random variable as T0 , and we assume some properties: it must take only positive values; it is continuous and has a density function 1 See Pitacco (2000). 80 f 0 ( t ) that we suppose continuous. We denote as F0 ( t ) its distribution function: t F0 ( t ) = Pr {T0 ≤ t} = ∫ f 0 ( u ) du 0 F0 (0 ) = 0 with F0 (∞ ) = 1 The exposure survival function S ( t ) gives the probability that the exposure survives for t years. It can be expressed through the hazard rate function h(t) as: t S (t ) = e If τ ∫ − h ( u ) du 0 is the time horizon and h ( t ) = h for t ∈ [ 0,τ ] we have f 0 ( t ) = h ⋅ e − h⋅t and the time until default follows an exponential distribution with parameter h . In the hypothesis of constancy, the hazard rate can be estimated from the one-year default probability (or for a different time horizon) as follow: s qt = 1 − e − h⋅s ⇒ h = − ln (1 − s qt ) s qt = 1 − e − h ⇒ h = − ln (1 − qt ) (2.1) (2.1-bis) 2.2. The hazard rate function and the recovery rate The relationship between the distribution function of survival time and the hazard rate function allows to represent the default process by modelling the hazard rate function. So for our model we need the value of the hazard rate. This can be found in three different ways: 1. using the expression (2.1) or (2.1-bis) and the default frequency from rating agencies we can calculate the hazard rate each year; 81 2. 3. from market data2. Indeed in the market price of defaultable bonds, a credit spread curve is implied. If we assume a deterministic value for the recovery rate, a specific credit spread implies a value for default probability and so for the hazard rate; in the framework of the structural models using the Merton option theoretical approach (1974) and its following generalizations. In this case the default probability equals the probability that the firm asset value goes under the liabilities values. Each approach has same drawbacks; to avoid these difficulties the solution proposed (see Li (2000), Schönbucher & Schubert (2001), Frey & McNeil (2002), Mashal & Naldi (2002)) is a copula function approach. The individual (marginal) survival probabilities of the obligors are taken from an intensity-based approach and the dependency is obtained with an appropriate copula function. Such a solution is not feasible in the case we don’t have market prices of defaultable financial instruments for the same obligor. For this kind of exposure a different solution is to use the rating agencies default probability for single exposure and to use a copula function for the dependence structure. In this case we can model the heterogeneity of default frequencies between obligors of the same rating class assuming that the default probability is not deterministic but stochastic. In our model we assume that the hazard rate for an obligor in a given rating class is constant each year but the value is not the expectation of historical default frequencies for its class but a random variable following a Gamma distribution with two parameters α and β and a density function u ( hi ) 3. The Gamma distribution choice is typical in insurance framework . Its parameters α k , β k are typical for each rating class k (estimated with maximum likelihood or moments method). Hazard rate mean and variance for the obligor i are equal to: E ( Hi ) ≡ Hi = αk α = µ k ; var ( H i ) = k2 = σ k 2 βk βk 2 See Jarrow & Turnbull (1995), Das & Tufano (1996) Duffie & Singleton (1997), (1999), Jarrow, Lando & Turnbull (1997), Lando (1998), Hull & White (2000). 3 The assumption that the hazard rate is a random variable is made to explain the risk heterogeneity of default frequency for rating classes published by rating agencies, but could be used as well if we use hazard rate structure inferred from market data to introduce random noise. Indeed, even in reduced-form models, the hypothesis of constant hazard rate for a time horizon of one year or more in not realistic. 82 So the time-until-default for the obligor i , T0( ) , conditional on a value hi i for hazard rate, is exponentially distributed with parameter hi : f 0( ) ( t ) i hi = hi ⋅ e − hi ⋅t The default will occur if T0( ) < τ with τ time horizon for the evaluation. i So the probability of default for the obligor i , conditional on a value hi is: pDi hi { = Pr T0(i ) < τ hi } = 1− e − hi ⋅τ In case of default we assume the immediate recovery of the exposure with a random rate Ri on exposure face value, associated to obligor i . The exposure value Vi after default should be: Vi T0( ) <τ , Ri = ri i = Ni ⋅ ri where N i is the face value of the exposure. To represent the recovery rate uncertainty we assume (as Gupton, Finger & Bhatia (1997) in the framework of CreditMetrics) that it follows a Beta distribution and we choose the parameters so that Ri stays within the bounds of 0 to 1, that are coherent with the meaning of the recovery rate. In order to have random values within the required bounds we put ν = 1 . If expectation and variance of recovery rate distribution are known, the parameters p and q can be estimated with the moments method. The introduction of random recovery rate, and more in general the recovery risk, is an important feature of the model: first because only few models introduce such a risk aspect, second because it could be generalised introducing correlation between recovery rates of different counterparts. 2.3. The credit migration and the exposure valuation The central aspect of our proposal is the introduction of credit migration in the context of an intensity-based model with copula function dependence structure. We assume that in t0 the obligor is in the k th rating class, and that at each time horizon he could end in K + 1 different states: in default or, in survival case, in one of the K rating classes. If the arrival class is better (worse) than 83 k we have an upgrading (downgrading). Obviously it is possible that the class is the same as the original one. Obviously, the final rating class influences the exposure value. To model credit migration we assume that information on credit quality could be inferred from time-until-default: a high value means that the default is not likely and so that the obligor is in “good” rating class; a low value means the default is near and the obligor should be ranked in a “bad” rating class. Time-until-default in this kind of model follows an exponential distribution and the value that it assumes is used to evaluate whether default is incurred or not. After this, if the exposure survives, the same value could be used to estimate migrations. In other words we represent default process and credit migration with the same marginal distribution for time-untildefault. We obtain this result fixing K bounds over the time-until-default i distribution4. If T0( ) assumes a value within 0 and the first bound (which is equal to time horizon τ ) the obligor defaults. If T0( ) assumes a value within the first and the second bound, the obligor ends in the “worst” rating class, i and so on. If T0( ) value crosses the K th bound, we put the obligor in the “best” rating class. In order to define the K bounds we need not only the default probability but also the probabilities of switching in other rating classes. These probabilities are included in transition matrices that rating agencies publish but can be produced even in a Merton-type model as KMV (Kealhofer (2003a)). We denote with pki the probability of staying in class k for counterpart i at the end of the time horizon. Obviously this probability depends on the initial rating class, which is an information known for each obligor. i i We need to find two bounds sk( ) and sk( +)1 such that the unconditional i probability that T0( ) assumes a value within the bounds is pki . i The density δ (t ) = probability function δ (t ) of time-until-default T is α ⋅βα (see [Masala, Menzietti, Micocci, 2004]). Elementary ( β + t )α +1 calculus gives 4 The idea of modelise the migrations with bounds on some specific distribution was first proposed by Gupton, Finger & Bhatia (1997) in CreditMetrics with bound on asset return distribution (normal distribution) then in Menzietti (2002), in CreditRisk+ framework, with bound on risk factor distribution (Gamma distribution). 84 ⎛ 1− p ⎞ s1 = ⎜ α D ⎟ ⎝ β ⎠ −1/ α −β and ⎛ − p + β α ⋅ ( β + sk ) −α ⎞ sk +1 = ⎜ k ⎟ βα ⎝ ⎠ −1/ α −β (2.2) so that the bounds can be determined recursively. 2.4. The loss distribution The exposure valuation at time t is obtained as present value of cash flows (the same solution is adopted in CreditMetrics, Gupton, Finger & Bhatia (1997)). We assume at this purpose that the spot and forward zero curves for each rating class is known. Assuming one year time horizon ( t0 = 0; t1 = 1 ), if the exposure survives, its value depends on forward rate term structure, cash flows and the arrival state χ , while if default occurs, as we have already said, the exposure value will be: Vi ,1 T0( ) <τ , Ri = ri i = Ni ⋅ ri Let denote with y ∈ ℜ m the random vector which represents uncertainties which can affect the value (such as hazard rate, rating and (eventually) recovery rate). We assume besides that the distribution of y in ℜ m has density p (y ) . After that we have found the value of the exposure conditional to y , Vi ( y ) , it is possible to calculate the loss (or gain): Li ( y ) = Vi ( y * ) − Vi ( y ) ( ) with Vi y * exposure value if the credit characteristics (specifically the rating) don’t change. 85 In many applications we are interested in a model for a portfolio of n exposures. In this case each scenario y is obtained from n Gamma distributions for the hazard rate (with specific characteristics for each rating class), then from a random vector of n time-until-default (with marginal exponentially distributed), finally we evaluate the single exposures and calculate portfolio value and consequent loss for the specific scenario. We denote with x = ( x1 ,..., xi ,..., xn ) the vector of the quotas held for each T exposure (it belongs to the set of available portfolios X ⊂ ℜ n ), with L ( y ) = L1 ( y ) ,..., Li ( y ) ,..., Ln ( y ) the vector of the loss functions for ( ) single obligors and we assume that in t0 , xi = 1 ( i = 1,..., n ) . The loss function will be: n L ( x, y ) = ∑ Li ( y ) ⋅ xi = L ( y ) ⋅ x (2.3) i =1 The implication for a portfolio of n obligors is that we must generate scenarios for time-until-default from a multivariate distribution function5. So we have: { F0 ( t1 ,..., ti ,..., tn ) = Pr T0(1) ≤ t1 ,..., T0(i ) ≤ ti ,..., T0( n ) ≤ tn } (2.4) Useful tools for generating scenarios from this multivariate distribution are copula functions. We saw that many models use a copula function approach to represent the dependence structure of a credit portfolio. We wish to ensure that the copula we use captures two features of dependence relationship in the joint distribution: correlation level and tail dependence. Some specifications are needed for correlation level. If we have two obligors A and B , the individual default probability in a fixed time horizon (respectively pDA , pDB ) and the joint default probability pDA, DB in the same time horizon, the linear default correlation coefficient is by definition (Lucas, 1995): 5 Instead the hazard rates are generated from n independent Gamma marginal distributions, because these express risk heterogeneity in each rating class for which we assume no reciprocal influence. 86 ( D) pDA, DB − pDA ⋅ pDB ρ A, B = pDA ⋅ (1 − pDA ) ⋅ pDB ⋅ (1 − pDB ) If we have more than two obligors, we can construct a correlation matrix A whose elements ai,j are the linear default correlation between obligors i and j .6 Starting from this result Merton-Type models as CreditMetrics and KMV link the default correlation between each pair of obligors with the correlation of obligors’ asset returns ( R) ρ A, B (included in the correlation matrix R ) (Gupton, Finger & Bhatia (1997), Kealhofer (2003a, 2003b)). Li (2000) proposed a more general definition of correlation: the survival time correlation. It can be calculated as follows: (T ) ρ A, B = ( Cov T0( ) , T0( A B) ) ( ) ⋅Var (T ) ( A) Var T0 ( B) = 0 ( ) − E (T ( ) ) ⋅ E (T ( ) ) Var (T ( ) ) ⋅ Var (T ( ) ) E T0( ) ⋅ T0( A B) A B 0 0 A 0 B 0 He demonstrated that if we use this concept of correlation and a bivariate normal copula function for dependence structure the correlation parameter (T ) ρ A, B is equal to the asset correlation between the two obligors ( R) ρ A, B . This result has been extended to t -copulas by Mashal & Naldi (2002) and Meneguzzo & Vecchiato (2002). In our applications, we will use Student t -copula with different degrees of freedom (we can modify probability of extreme events). For standard definitions of copulas see [Nelsen, 1998], while algorithms for generating pseudo-casual numbers from a Student copula can be found in [Meneguzzo & Vecchiato, 2002]. The copula-based algorithm that permits to evaluate the loss distribution of our credit portfolio is linked to the modelling of the multivariate distribution function (4). Main steps are: 6 In the case of two obligors, we can reach the probabilities of all elementary events by using the linear correlation coefficient. If we had more than two obligors this would not be possible. With n obligors we have 2 n joint default events and only n ( n − 1) / 2 correlations plus n individual default probabilities and the constrain that these probabilities must sum up to one. So the correlation matrix gives us the bivariate marginal distributions but not the full distribution (Schönbucher, 2003 chap. 10). 87 • • • • • at first, we have to determine the marginal distributions, namely time-until-default distribution for each obligor. As we pointed out, marginal distributions are exponential distributions, whose parameter is a random number extracted from a Gamma distribution. secondly, we generate pseudo random n − tuples from a Student copula. Each random n − tuple represents a simulated time-untildefault for each obligor. for each simulation and for each obligor, we examine the simulated time-until-default. ¾ If it is less than one, we conclude that this obligor has defaulted. In this case, we extract a random recovery rate from a Beta distribution (whose characteristics have been previously revealed). We then determine the value of this credit at the end of our time horizon; ¾ Otherwise, no default has occurred. The simulated value is compared with migration bounds so that we can determine the new rating class. We then evaluate the value of this credit at the end of our time horizon. for each simulation, we calculate the portfolio value at the end of the time horizon by summing the values of each credit. at last, we deduce the portfolio loss for each simulation. In the next section we present an example of the scheme previously described with a credit portfolio of ten obligors applied to credit derivatives pricing. 3. Credit derivatives 3.1. Underlying basket description In this section we apply the model presented in the previous sections to a portfolio of ten exposures ( n = 10 ). We assume that for each exposure we know rating on Standard & Poor’s scale7, face value, coupon rate, time to maturity. The value in t0 is calculated using the term structure of spot rate in Table 1. The exposure characteristics are reported in Table 2, all the amounts are expressed in Euro. 7 The basic rating scale of Standard & Poor’s has 7 rating classes decreasing from AAA to CCC. 88 Tab. 1 - Term structure of spot rates Rating class AAA AA A BBB BB B CCC Spot rates δ(0,8) δ(0,1) δ(0,2) δ(0,3) δ(0,4) δ(0,5) δ(0,6) δ(0,7) 2.96% 3.25% 3.71% 4.21% 4.59% 4.65% 4.70% 4.74% 3.00% 3.29% 3.76% 4.25% 4.63% 4.70% 4.75% 4.79% 3.06% 3.36% 3.84% 4.37% 4.76% 4.83% 4.88% 4.92% 3.54% 3.78% 4.22% 4.72% 5.09% 5.15% 5.20% 5.23% 4.88% 5.14% 5.52% 6.14% 6.59% 6.66% 6.71% 6.75% 5.35% 5.61% 6.31% 7.13% 7.61% 7.71% 7.77% 7.82% 14.15% 14.08% 14.05% 13.38% 12.97% 12.93% 12.89% 12.86% Tab. 2 - Exposure characteristics Obligor Rating 1 AAA 2 AA 3 A 4 BBB 5 BB 6 B 7 CCC 8 AA 9 BB 10 B Face Value Coupon rate Maturity 7.000.000 6,75% 7 3.000.000 8,25% 5 3.000.000 7,25% 6 2.500.000 9,00% 5 2.000.000 9,25% 6 3.000.000 13,00% 5 2.000.000 13,75% 5 5.000.000 10,75% 8 6.000.000 6,75% 5 4.000.000 7,75% 5 V0(i) 7.679.930 3.432.805 3.259.974 2.846.401 2.135.505 3.319.387 2.068.537 6.726.162 5.785.908 3.619.026 The portfolio value in t0 is 40,873,635 Euro with a face value of 37,500,000 Euro. The time horizon is five years (more precisely five oneyear sub-periods). The term structure of forward rates used for exposure valuation in t1 , t2 , t3 , t4 , t5 is extrapolated from the term structure of spot rate (we do not present them for sake of brevity). The expected value in t5 is 53,165,091 Euro. The recovery rates are extrapolated from a Beta distribution with p = 1.4612 and q = 1.3966, these values ensure a recovery rate expectation equal to 0.5113 and a standard deviation equal to 0.25458. Obviously is it 8 These values are reported in a statistics for senior unsecured bond by Carty & Lieberman (1996b). 89 possible to assume that each exposure has different beta distributions. For simplicity we assume here the same distribution for each one. The previous data for rates and recoveries allow us to calculate the single exposure values conditional on rating state in ti . If default occur, we calculate the expected value. Numerical values are not reported for sake of brevity. The expected hazard rates are extrapolated from one-year default probabilities included in a S&P-style transition matrix. Such a matrix is used also for migration probabilities over one year. Despite the criticisms on rating agencies transition matrices, we use these data from rating agencies for the following reasons: • • • • we assume that market data are not complete; it is very difficult to use market data to find implicit migration frequency, so in the reduced form approach it is difficult to implement a multinomial9 model for credit risk;10 in the context of Merton-Type model it is possible to model the credit migration but with the hypothesis of a normal copula dependence structure; we model the heterogeneity of default frequency between obligors of the same rating classes assuming that the default probability is not deterministic but stochastic. On the other hand it is possible to use default probabilities inferred from intensity based-models but in this case the transition matrix should be specially constructed. This could be a future model implementation. The transition matrix M we use and the expected hazard rates are specified Table 3. We made same settlement to original S&P matrix to guarantee some coherence features11. 9 We call multinomial model the model that includes rating migrations and binomial model the model with only default risk. 10 See Jarrow, Lando & Turnbull (1997) and Bielecki & Rutkowski (2003) as example of intensity-based multinomial models. 11 For more details see Gupton, Finger & Bhatia (1997) and Gordy (2000). 90 Tab. 3 - Transition matrix and hazard rates Initial rating AAA AA A BBB BB B CCC AAA 0.9067 0.0070 0.0019 0.0005 0.0003 0.0002 0.0001 AA 0.0833 0.9055 0.0227 0.0033 0.0014 0.0011 0.0002 A 0.0068 0.0779 0.9092 0.0595 0.0067 0.0024 0.0022 Rating at year end BBB BB 0.0016 0.0012 0.0064 0.0016 0.0552 0.0074 0.8690 0.0530 0.0773 0.8053 0.0043 0.0648 0.0130 0.0238 B 0.0002 0.0012 0.0026 0.0117 0.0884 0.8345 0.1124 CCC Default 0.0001 0.0001 0.0002 0.0002 0.0004 0.0006 0.0012 0.0018 0.0100 0.0106 0.0407 0.0520 0.6504 0.1979 E(hi) 0.0001 0.0002 0.0006 0.0018 0.0107 0.0534 0.2205 To simulate hazard rate values we have found the gamma parameters with moments method. The standard deviation for each rating class has been assumed to be equal to a quota of expected value with different quotas for each class. The value of such quotas is coherent with statistical Gordy analysis (Gordy, 2000) but the trend from a class to the next one has been a little smoothed to have more regular shape. The expectation, standard deviation and parameters for the hazard rate of each rating class are reported in Table 4. Tab. 4 - Hazard rate data Rating AAA AA A BBB BB B CCC µk 0.0001 0.0002 0.0006 0.0018 0.0107 0.0534 0.2205 σk 0.00014 0.00026 0.00072 0.00180 0.00853 0.03204 0.11026 αk 0.51020 0.59172 0.69444 1.00000 1.56250 2.77778 4.00000 βk 5101.79 2958.28 1157.06 555.06 146.62 52.02 18.14 σk/µk 1.40 1.30 1.20 1.00 0.80 0.60 0.50 The bounds which determine state transitions have been calculated by expression (2.3) with the probabilities included in the transition matrix M and the vector of expected hazard rates for each rating class µ = ( µ1 ,..., µ 7 ) . Finally we need data about the correlation between each pair of exposures. We remind that the linear correlation between the time-until-default of two different obligors is equal to the linear correlation between the asset return of 91 the two counterparts12. This information is usually not easy to extrapolate, so the solution that has been proposed in literature13 is to use linear correlation between the equity of each obligor as proxy variable. The correlation matrix R is specified in Table 5. Tab. 5 - Correlation matrix between obligors 1 2 3 4 5 6 7 8 9 10 1 1,00 0,45 0,45 0,45 0,15 0,15 0,15 0,15 0,15 0,10 2 0,45 1,00 0,45 0,45 0,15 0,15 0,15 0,15 0,15 0,10 3 0,45 0,45 1,00 0,45 0,15 0,15 0,15 0,15 0,15 0,10 4 0,45 0,45 0,45 1,00 0,15 0,15 0,15 0,15 0,15 0,10 5 0,15 0,15 0,15 0,15 1,00 0,35 0,35 0,35 0,35 0,20 6 0,15 0,15 0,15 0,15 0,35 1,00 0,35 0,35 0,35 0,20 7 0,15 0,15 0,15 0,15 0,35 0,35 1,00 0,35 0,35 0,20 8 0,15 0,15 0,15 0,15 0,35 0,35 0,35 1,00 0,35 0,20 9 0,15 0,15 0,15 0,15 0,35 0,35 0,35 0,35 1,00 0,20 10 0,10 0,10 0,10 0,10 0,20 0,20 0,20 0,20 0,20 1,00 3.2. Some multinames credit derivatives 3.2.1. Put option on basket portfolio As a first application we consider a put option with strike price K and multiperiodal time horizon (five years, T=5). The portfolio value at time T is indicated by V (estimated with the procedure explained in the previous section). The pay-off is then simply: P = Max ( K − V ;0 ) . The pricing of the option is performed using standard risk neutral pricing technology (complete markets framework).This means that the value of the option is the expected discounted pay-offs (under the risk neutral measure F). The general formula is the following: 12 See § 2 and Li (2000). First of all Merton (1974), but this is a standard solution, adopted i.e. in CreditMetrics model (see Gupton, Finger & Bhatia (1997)) and in KMV model (see Kealhofer (2003a, 2003b)). 13 92 ⎡ − ∫ r ( s ) ds ⎤ F ⎢ S=E e 0 ⋅ P⎥ ⎢ ⎥ ⎢⎣ ⎥⎦ T (3.1) where r ( s ) represents the risk free spot curve. As no closed forms are available, we perform a Monte Carlo simulation by simulating N portfolio values at time T (we take here N=10.000). In numerical applications, we considered different values of the strike prices. At first, we have confronted results obtained with different degrees of freedom (d=3 and d=10). We obtained: Tab. 6 - Put value for different strike prices and different tail fatness Strike 45,000,000 46,000,000 47,000,000 48,000,000 49,000,000 50,000,000 51,000,000 52,000,000 53,000,000 54,000,000 55,000,000 d=3 48,603 74,615 112,968 165,540 245,245 363,940 527,868 753,941 1,058,635 1,476,008 2,046,773 d=10 18,496 34,761 62,042 105,574 172,052 266,961 405,349 618,124 911,070 1,336,967 1,919,774 and graphically: 500.00 1.000.0 1.500.0 2.000.0 0 00 00 00 d=3 d=10 0 value Graf. 1 45.000.000 47.000.000 49.000.000 51.000.000 strike 93 53.000.000 55.000.000 We observe that the price obtained with fat tails (d=3) dominates the price with low tails (d=10). Actually, in the first case, extreme credit events have a stronger impact. Nevertheless, the difference reduces as strike price increases. We examined then the migrations sensibility. The results are: Tab. 7 - Put value for different strike prices with (or without) migrations Strike 45,000,000 46,000,000 47,000,000 48,000,000 49,000,000 50,000,000 51,000,000 52,000,000 53,000,000 54,000,000 55,000,000 migr. 48,603 74,615 112,968 165,540 245,245 363,940 527,868 753,941 1,058,635 1,476,008 2,046,773 no migr. 37,049 54,993 85,758 130,236 190,831 284,083 419,043 612,745 878,839 1,257,922 1,815,539 and graphically: Graf. 2 2.500.000 value 2.000.000 migr. no migr. 1.500.000 1.000.000 500.000 0 45.000.000 47.000.000 49.000.000 51.000.000 53.000.000 55.000.000 strike We observe that allowing migrations increases the price of the derivative. 94 We examined then absence of correlation (independence hypothesis). The results are: Tab. 8 - Put value for different strike prices with (or without) correlation Strike 45,000,000 46,000,000 47,000,000 48,000,000 49,000,000 50,000,000 51,000,000 52,000,000 53,000,000 54,000,000 55,000,000 corr. 48,603 74,615 112,968 165,540 245,245 363,940 527,868 753,941 1,058,635 1,476,008 2,046,773 indep. 23,863 40,870 67,713 114,748 189,698 294,214 464,632 721,107 1,061,336 1,514,079 2,131,606 and graphically: Graf. 3 2.500.000 correlation independence value 2.000.000 1.500.000 1.000.000 500.000 0 45.000.000 47.000.000 49.000.000 51.000.000 53.000.000 55.000.000 strike We observe that the price with no correlation dominates the price with correlation only for high values of the strike price. Indeed a positive correlation between obligors increases the probability of extreme portfolio values. 95 3.2.2. First-to-default option The first-to-default option is a contract where the protection buyer pays a periodic premium S to the protection seller and the protection seller pays the protected buyer at the time of the first default in the basket the non recovered part of the defaulted credit. The contract ends at the predetermined maturity (if no default occurs) or at the time of the first default. Pricing techniques use standard risk neutral pricing technology (complete markets framework). We require that the expected discounted payments of premia should equal the expected payment of the insurance (under the risk neutral measure F). The general pricing formula requires to solve the following equation: ⎡ T − r ( s ) ds − ∫ ∫ F ⎢ E ∑e 0 ⋅ S ⋅ 1τ (1)>k − e 0 ⎢ k =0 ⎣⎢ τ (1) k r ( s ) ds ⎤ ⋅ VN ⋅ (1 − R(1) ) ⋅ 1τ (1)<T ⎥ = 0 ⎥ ⎦⎥ (3.2) where S is the premium, VN is the notional value of the defaulted credit, R(1) is the recovery rate of the defaulted credit, τ (1) is the first default time, 1 f ( x ) is the counting function and r(t) is the risk free rate curve. As no closed pricing forms are available, we set up as usual a Monte Carlo simulation. We obtained the following results varying degrees of freedom, and taking into account independence situation and absence of migrations ( T ≤ 5 ). Tab. 9 - Premium for different First-to-default options d=3 d = 10 d = 3 (indep.) d = 3 (no migr.) d = 3 (ind., no migr.) T=1 303 905 363 637 366 643 306 871 328 036 T=2 425 285 450 977 487 030 413 301 447 610 T=3 471 865 497 057 539 862 466 865 502 066 T=4 499 392 524 083 565 302 496 577 530 991 T=5 520 299 543 412 583 465 511 019 548 894 The premium calculated with 10 degrees of freedom dominates the premium calculated with 3 degrees of freedom. Indeed, taking into consideration fatter tails (i.e. decreasing degrees of freedom), more extreme joint credit events are allowed thus the price requested to buy/sell protection decreases. We also observe that migrations influence marginally the price of the derivative. Finally we performed a correlation sensibility. The results are the following: 96 Tab. 1014 - Premium correlation sensibility Correlation 0% 10% 20% 30% 40% 50% Premium 327.285 312.988 302.665 273.896 256.005 218.718 We observe that the option value is decreasing with respect to the correlation. We can explain this property by simple no-arbitrage argument. If the correlation between the obligors is null (assuming a flat term structure for CD premia), it is possible to perfectly hedge a short position on a first-todefault contract by holding a long position on each of the credit reference of the basket. Indeed, upon default, the payment required on the first-to-default contract will be compensated by the positive cash flow on the corresponding single counterpart. Besides, with no correlation, the default of one obligor will not influence the credit speads of the other credits in the portfolio. Conversely, the higher the correlation, the higher the probability of multiple defaults and hence lower the degree of protection (thus the premium required lowers). Moreover, we observed that the mean first-to-default time is increasing with respect to correlation. We get graphically: Graf. 5 - First time-until-default 4.4 4.2 tud 4.0 3.8 3.6 3.4 0% 20% 40% 60% correlation 80% 100% Thus, the discounted pay-off decreases with respect to correlation. 14 We consider T=1 and we assume the same correlation between each pair of obligors. 97 3.2.3. Collateralized debt obligation (CDO) This kind of product consists in a tranche structure on a portfolio of credit default names. The protection seller promises to cover the range of collateral losses defined by a particular tranche, and receives periodic premia payments in exchange. Various structures are possible. ¾ As a simpler form we consider a percentile basket derivative. The protection seller will compensate the protection buyer for the losses registered on certain portfolios of credit names, up to the first α % . In our application we considered the following pay-off at the end of each sub-period j: Pj = Max ( L j − α ⋅ E(V j );0 ) (3.3) where L j is the simulated loss, E(V j ) is the expected portfolio value and α ∈ (0,1) . Pricing results are obtained with Monte Carlo simulation. We got the following results varying degrees of freedom, and taking into account independence situation and absence of migrations. Tab. 11 Premium for different Collateralized debt obligations α 1% 5% 10% d=3 1.731.820 1.294.740 668.076 d=3 (indep.) 1.770.030 1.267.740 606.218 d = 10 1.760.100 1.264.440 584.084 d=3 (no migr.) 1.544.160 1.031.960 541.194 d = 10 (no migr.) 1.587.780 1.006.820 497.862 We also performed a correlation sensibility. The results are the following: 98 Tab. 12 - Premium correlation sensibility 15 Correlation 0% 10% 20% 30% 40% 50% Premium 90.684 97.922 113.426 116.243 82.785 73.917 ¾ We consider finally the following tranche structure determined by the two bounds Γ and ∆ (percentual fraction of the expected loss of the portfolio). Denoting L j the simulated loss in the scenario j, we define the following pay-off: LΓj , ∆ ⎧0 if L j < Γ ⎪ = ⎨ L j − Γ if Γ < L j < ∆ ⎪ ⎩∆ − Γ if L j ≥ ∆ The seniority of the tranche is defined by the relative location of the thresholds Γ and ∆ . If Γ = 0 , the tranche is called equity tranche, if Γ > 0 and ∆ < N ∑ VN i =1 i the tranche is called mezzanine tranche, finally if N ∆ = ∑ VN i the tranche is called senior tranche. i=1 We still use Monte Carlo simulation, the pricing assumes that the expected value of discounted pay-offs equals the expected value of discounted premia. We obtain the following results, assuming different hypothesis: 15 We consider T=1, α = 10% and we assume the same correlation between each pair of obligors. 99 Tab. 13 - Premium for different Collateralized debt obligations with tranches structure tranche 0% - 3% 3% - 6% 6% - 9% 9% - 12% 12% - 15% 15% - 20% 20% - 100% d=3 942.007 446.077 247.310 130.121 69.167 44.536 15.144 d = 10 923.058 524.316 242.499 131.296 58.987 41.277 20.569 indep. 968.028 542.607 258.537 105.179 61.854 32.418 11.355 no migr. 909.503 439.717 207.065 114.642 50.223 30.940 9.536 4. Conclusions From numerical results, we observe that our pricing model is sensible to correlation, credit migrations and tail fatness. Credit migrations. Generally increase derivative values, especially in multi-periods time horizons. Small impact on first-to-default. Tail fatness. Lowers first-to-default basket derivative value (due to the increasing probability of extreme events). Opposite conclusion in the other two applications. Correlation. Increasing correlation lowers first-to-default basket derivative value. In the other applications, independence provides lower results but values doesn’t increase monotonically (a maximum value is attained). Finally, we pointed out that our model is able to tackle with different kinds of basket credit derivatives, which are usually hard to price. 100 REFERENCES BIELECKI, T. – RUTKOWSKI, M. (2003), Dependent default and credit migrations, Working paper. BÜRGISSER, P. – KURTH, A. – WAGNER, A. (2001), Incorporating severity variations into credit risk, Working paper. CARTY, L.V. – LIEBERMAN, D. (1996b), “Defaulted bank loan recoveries”, Moody’s Investors Service, November. CHERUBINI, U. – LUCIANO, E. (2002), Pricing and hedging vulnerable credit derivatives with copulas. Working paper. CHERUBINI, U. (2004), Pricing swap credit risk with copulas. Working paper. CREDIT SUISSE (1997), Credit Risk+. A credit risk management framework, Technical document. DAS, S.R. – TUFANO, P. (1996). “Pricing credit-sensitive debt when interest rates, credit ratings and credit spreads are stochastic”, Journal of Financial Engineering 5(2), pp. 161-198. DUFFIE, D. – SINGLETON, K.J. (1999). “Modelling term structures of defaultable bonds”, Review of Financial Studies 12(4), pp. 687-720. GALIANI, S. (2003), Copula functions and their application in pricing and risk managing multiname credit derivative products, Working paper. GORDY, M.B. (2000). “A comparative anatomy of credit risk models”, Journal of Banking & Finance 24, pp. 119-149. GREGORY, J. – LAURENT, J.-P. (2002), Basket default swaps, CDO’s and factor copulas, Working paper, ISFA Actuarial School, University of Lyon. GUPTON, G. – FINGER, C. – BHATIA, M. (1997). CreditMetrics, Technical document, J. P. Morgan. HULL, J. – WHITE, A. (2000), “Valuing credit default swaps I: No counterparty default risk”, The Journal of Derivatives, pp. 29-40. JARROW, R.A. – TURNBULL, S.M. (1995), “Pricing derivatives on financial securities subject to credit risk”, Journal of Finance 50 (1), pp. 53-83. JARROW, R.A. – LANDO, D. – TURNBULL, S.M. (1997), “A Markov model for the term structure of credit risk spreads”, Review of Financial Studies 10( 2), pp. 481-523. KEALHOFER, S. (2003a), “Quantifying credit risk I: Default prediction”, Financial Analysts Journal 59 (1), pp. 30-44. KEALHOFER, S. (2003b), “Quantifying credit risk II: Debt valuation”, Financial Analysts Journal 59 (3), pp. 78-92. LANDO, D. (1998), “On Cox processes and credit risky securities”, Review of Derivative Research, 2, pp. 99-120. LI, D.X. (2000), On default correlation: a copula function approach, The RiskMetrics Group, Working paper 99/07. 101 LUCAS, D.J. (1995), “Default correlation and credit analysis”, Journal of fixed income 5 (1), pp. 32-41. MASALA, G. – MENZIETTI, M. – MICOCCI, M. (2004), A copulabased actuarial model for credit risk, Publ. of the Dept. of Economics Science 137, University of Rome “Luiss Guido Carli”. MASHAL, R. – NALDI, M. (2002), Pricing multiname credit derivatives: heavy tailed hybrid approach, Working paper, Columbia University. MENEGUZZO, D. – VECCHIATO, W. (2002), Copula sensitivity in collateralised debt obligations and basket default swaps pricing and risk monitoring, Working paper, Intesa Bank. MENZIETTI, M. (2002), Modelli di portafoglio per la gestione del rischio di credito: proposta di un modello attuariale generalizzato, Ph.D. thesis on Actuarial Science, University of Rome “La Sapienza”. MERTON, R.C. (1974), “On the pricing of corporate debt: The risk structure of interest rates”, Journal of Finance 2(2), pp. 449-470. MICOCCI, M. (2000), M.A.R.C.: An actuarial model for credit risk, XXXI International Astin Colloquium. NELSEN, R.B. (1998), “An introduction to copulas”, Lecture Notes in Statistics 139, Springer. PITACCO, E. (2000), Matematica e tecnica attuariale delle assicurazioni sulla durata di vita, Lint, Trieste. SCHÖNBUCHER, P.J. (2003), Credit derivatives pricing models, John Wiley & Sons, London. SCHÖNBUCHER, P.J. – SCHUBERT, D. (2001), Copula-dependent default risk in intensity models, Working paper, Bonn University. 102 THE ECONOMICS OF ANTI-INFLATION AGREEMENTS Enrico D’Elia° JEL Classification: D43, D83, E31, E64. Keywords: Anti-inflation policy, Imperfect information, Markup, Price dispersion, Search cost ... a hornet cannot fly due to the form and weight of its body considering its actual wingspan. But the hornet keeps flying, because it doesn't know. Igor Ivan Sikorsky 1. Introduction (*) Anti-inflation programmes have usually included some kind of price and wage controls both in developed (Capie and Wood, 2002) and in transition countries (van-Wijnbergen, 1987). Nevertheless, mainstream economic theory does not support price control; in addition, the actual outcome of such controls has been mixed, because of possible misallocation effects and the potential for black markets (Butterworth, 1994). To overcome such difficulties, in the last few years, anti-inflation policies based on moral suasion (along the tradition of monetary policies surveyed by Breton and Wintrobe, 1978) and gentlemen agreements with retailers and entrepreneurs have been made in several countries, France, and Italy and among the others. Typically, cheapest or “fair” prices are circulated for a basket of goods and services, or a list of inexpensive outlets joining the agreement is made available to the consumers. Anti-inflation policies based on moral suasion have been often successfully (Cochrane and Griepentrog, 1977, and Ma and Lynge, 1992), although traditional economic theory predicts that controlling prices is ineffective, or even counterproductive, in the long run. Indeed, having ° ISAE, Istat and Statistical Office of the City of Rome The views and opinions reported in this paper are those of the author and do not involve the institutions he is affiliated to under any respect. The author gratefully acknowledges the suggestions and criticisms come from researchers who read the first draft of the paper and attended to the seminar held in Isae in March 2005. Of course, the usual disclaimer applies. (*) 103 recourse to moral suasion against inflation is based on two economic principles. The first one is that actual markets are far from being perfectly competitive, so that prices embody unnecessary large markups on production costs. Thus, in these circumstances cutting prices simply moves the market toward its ideal competitive equilibrium, improving general welfare (Helpman, 1988). The second point is that consumers are typically uninformed, so that they are disposed to pay prices exceeding the minimum one available on the marketplace, contrary to the prediction of the huge literature on competitive markets. If this is the case, information campaigns may improve consumers’ knowledge, raise the expected gain from searching for better prices, and therefore cut the “reservation price” which makes consumer purchasing, stopping search for more inexpensive shops. Nevertheless, encouraging consumer search and reducing markups and reservation prices may bear some drawbacks. First of all, it is trivial that a reduction of the percentage of gross profit margin, say ∆µ, produces larger effects on inflation the lower is the initial markup. Thus, agreements to reduce markup unavoidably have declining anti-inflation effects over time. Secondly, price dynamics risks accelerating in the long run, as far as technology embodied in new machinery reduces production cost and investment depends on profits (Bagwell, Ramey and Spulber, 1997). In addition, higher profits, typically earned in less competitive markets, allow retailers to absorb temporary shocks on costs without raising selling prices abruptly (Mankiw and Romer, 1991). Thus, anti-inflation agreements risk being counterproductive just when production costs rise faster. Finally, publishing prices available on the market may ease anti-competitive agreements among retailers, as Stigler (1964) already stressed. As a consequence, anti-inflation policies based on moral suasion must balance many conflicting factors carefully. The aim of this paper is to analyse the likely effects on inflation of information campaigns about prices and of price cuts agreed with retailers and entrepreneurs. Policy makers will hopefully find out in what follows some suggestions to improve the effectiveness of anti-inflation agreements, reducing their possible drawbacks as well. The remainder of this paper is organised in three sections. The effects on consumer behaviour of information campaigns on prices are analysed in the next paragraph. It mainly works out the concepts of search process and reservation price, pointing out the sensitiveness of both to information framework. The foremost conclusion is that advertising “fair” prices may actually encourage searching and moderating average prices, even though only few stores join the anti-inflation agreements explicitly and information campaigns reach only a small number of consumers. The third section points out some consequences of markup pricing rule for inflation dynamics. The first (mundane) result is that moderating profit 104 margins has larger influence on prices the lower is the level of initial markup. Thus, in the long run, anti-inflation agreements are successful mainly in low profit industries. In addition, as far as large profit margin allows retailers to absorb temporary cost shocks, inflation is likely to be more volatile in low profit industries. Whereas production costs are steadily increasing, it implies that low markup may induce higher inflation. Finally, the close relation between profit level, on the one hand, and investment improving efficiency, on the other, may affect unfavourably long run price dynamics in case of long-lasting anti-inflation agreements. Few conclusive remarks close the paper. Specially, the last paragraph includes some recommendations to the policy makers and entrepreneurs associations who are promoting anti-inflation agreements. The main advice concerns how to select the “fair” prices and advertise the low-price outlets, since an inappropriate choice may be either counterproductive, when the advertised prices are too high or outlets are too expensive, or it may raise some credibility problem, when suggested prices are too low, so that consumers are finally unable to find out products at the advertised price. Finally, anti-inflation policies must be closely associated to incentives fostering the introduction of new cost reducing technologies. Otherwise, short run moderation of price dynamics will be compensated, or even overcompensated, by higher inflation and competitiveness loss in the long run. 2. Consumer search and optimal price setting Actual markets are characterised by price dispersion, even for very homogeneous products, rather than by the single equilibrium price predicted by the classical “law of one price”. Indeed, consumers acting on the market are not usually fully informed about the prices set by each retailer, and typically should sustain non-negligible search cost to find out the lowestprice store where to purchase. Hence, imperfect information allows firms to exploit their market power, by setting prices higher than the minimum one. This fact has been recognised since the seminal article by Stigler (1961). Anti-inflation agreements may help to improve consumer information, reducing price dispersion and possibly average price as well. At the same time, retailers may take advantage from a coordinated price reduction, promoted by the agreements, since more consumers join the market if all firms lower prices at the same time.1 1 Namely, Blinder (1993) reports a huge empirical evidence on the issue, and Kalai and Satterthwaite (1994) analyse price setting strategies in the framework of the game theoretic approach. 105 Therefore, analysing the search mechanisms describing consumer behaviour may shed some light on the strength and weakness of anti-inflation agreements. At least two approaches have dominated the related literature. The first one, dating back to Stigler (1961), assumes that the consumer pays a visit to n stores randomly and purchases a unit of good in the least expensive store come across during his search. According to the second approach, popularised by Burdett and Judd (1983), consumers stop visiting stores and purchase as soon as they find a price smaller than a subjective threshold, often referred to as “reservation price”. 2.1. A model of active search Following Manning and Morgan (1982), let suppose that the consumer knows the frequency distribution of prices p set by different stores, say f(p), but not the location of each price (specially the lowest one). Thus, in order to save on the purchasing price, the consumer can only visit n stores randomly and buy a unit of good in the least expensive store he found. For every visit the consumer bears a sunk cost c, say the time and money spent to get there. After n visits, the consumer expects to pay a price smaller than s with the probability P(s) = 1 – (1 – F(s)) n (2.1) where F(s) = ∞ ∫0 f ( p )dp is the cumulative distribution of prices. Since, for a random variable with probability distribution f(x) and cumulative distribution F(x), it holds E(x) = = ∫0 (1 − F ( x ))dx ,2 the expected value of the price pn ∞ paid after having visited n stores is E(pn) = n ∫0 (1 − F ( p )) dp ∞ (2.2) Hence, E(pn) is a decreasing function of n, since each term (1 – F(p)) in (2.2) is strictly larger than 0 and smaller than 1. In addition, the gain expected from one further visit is 2 In fact, integrating by parts, it reads ) (∫ dx )(∫ ∫ - ∞ f ( x )xdx = x ∫ f ( x )dx − ∫ F ( x )dx = f ( x )dx - [(∫ dx)(∫ f ( x )dx) − ∫ F( x )dx] ∞ F ( x )dx . Thus, the definite integral is (∫ dx)(∫ 0 ∫ ∞ 0 ) f ( x )dx - = 0 ∫ ∞ 0 F ( x )dx . Since ∫ ∞ 0 f ( x )dx = 1, it reads ∫ (1 − F ( x ))dx , q.e.d. ∞ 0 106 ∫ f ( x )xdx = n −1 n ∫0 (1 − F ( p )) dp - ∫0 (1 − F ( p )) dp ∞ ∞ n −1 n −1 = ∫0 (1 − F ( p )) (1 − (1 − F ( p )))dp = ∫0 (1 − F ( p )) F ( p )dp g(n) = E(pn-1) - E(pn) = ∞ ∞ = (2.3) Therefore, g(n) is a non negative function decreasing in n. A rational consumer would stop his search after n visits as soon as the unit search cost c exceeds g(n+1). Thus, by using (2.2) and (2.3), it is possible to determine both the average price paid by the consumer and the number of visited stores as functions of the unit search cost c. Figure 1 provides a graphical representation of the resulting relation among the relevant variables. Namely, the right lower graph reproduces the relation (2.3), the left lower quarter illustrates the relation (2.2), and finally the upper right graph shows the relation between the search costs and the average market price. For instance, if c raises from c0 to c1 the number of visited stores which exceeds the overall search cost falls from n0 to n1. Conformingly, the expected price raises from p0 to p1. Thus, the average price raises with the search cost sustained by consumers. However, it is worth noting that n is a discrete variable, since it counts the number of store visited, thus both g(n) and E(pn) are discrete functions. It follows that a small change of c might not affect either n, g(n) or E(pn) at all. Fig. 1 – Average market price and search cost E(p) p1 p0 45° c0 E(p) c1 g(n), c n1 n0 E(pn) g(n) = E(pn-1) - E(pn) n 107 The model described above entails a number of interesting consequences in devising anti-inflation policies. First of all, in principle, it is possible to cut average market price by reducing search costs. Thus, it is efficient including provisions to cut the cost of gathering information on stores within antiinflation agreements. However, the reduction of search cost should be sizeable enough, in order to affect the number of stores actually visited and, ultimately, the average market price. Since, typically, concavity of g(n) and E(pn) with respect to n ensures that E(pn) is convex respect to c as well, it follows that only large changes in c would be able to reduce the average market price when the latter is very high compared to c (that is reflected by larger steps in the rightmost part of the curve in the upper right quarter of Figure 1). It implies that a strategy based solely on search cost reduction can be hardly successful. A different anti-inflation program may hinge on the distribution of prices expected by consumers, that determines the shape and position of curve g(n) of expected gain from search activity. Let suppose that an advertising campaign persuades consumers that the expected gain from searching is G1 instead of G0 in the lower right quarter of Figure 2. It implies that, after the campaign, for any given search cost c the consumer is willing to visit n1 stores instead of n0. This shift of curve g(n) implies that the relation between c and E(p) moves from P0 to P1 as well, so that, finally, the same search cost c is associated to the average market price p1 instead of p0. It is worth noting that this shift does not depend on the actual distribution of prices, that is still depicted in the lower left quarter of Figure 2, but only on the change in consumers’ opinion. Of course, if consumers were fully rational and informed, the curve g(n) would be strictly consistent with the curve E(p), thus any change in the shape of g(n) also would be associated to a corresponding backshift in the curve E(p) in the lower left quarter of Figure 2, which would amplify the favourable effect of the information campaign on average price level. In any case, a change in g(n) tends to be self-fulfilling, since larger expected gain g(n) and prolonged search activity in fact reduce the actual average market price. In addition, the stepwise nature of the functions involved in this process makes that even little shifts in the curve g(n) may produce large changes in the number of stores visited. Thus an anti-inflation strategy affecting consumers’ expectations on search gain is likely to be very effective. 108 Fig. 2 – Average market price and distribution of prices expected by consumers E(p) p0 p1 P0 45° P1 c E(p) g(n), c n0 n1 g(n) = E(pn-1 ) - E(pn) E(pn) G0 G1 n The simple search model described above has also another interesting consequence for anti-inflation agreements. In fact, in order to shift the curve g(n) it is pointless to advertise the actual average market price, say pA, since it does not foster any further visit to stores. In fact pA is just consistent with a search process stopped after n visits, exactly in accordance with the current consumers’ expectation on g(n). Thus pA does not convey information to consumers that induce them searching for further, possibly more inexpensive, shops. Therefore, anti-inflation agreements should preferably disseminate information on whatever “fair” or “cheap” prices, below the actual market average, rather than pA. For instance, the average price set by the best x% inexpensive stores could be advertised. On the other hand, advertised “fair” prices must be strictly realistic as well, in the sense that consumers must have some significant chance to find out stores where prices are below the advertised threshold. Otherwise, the consumers would be disappointed, would not change their mind about g(n), and finally the agreements stop working. Hence, publishing the lowest prices available in the market, that is choosing x close to zero, is likely to be counterproductive. Indeed, Gastwirth (1976) pointed out that consumers are very sensitive to possible misperceptions of the price distribution. 109 2.2. Reservation price and equilibrium price distribution The assumption that consumers know the frequency distribution of prices, but not the location of cheapest stores is quite unrealistic, since in real word exactly the opposite typically happens. Nevertheless, some conclusions of the previous section hold even in a different framework, where consumers have in mind a “reservation price”, say R, and stop visiting stores and purchase as soon as they find a price smaller than R. Under these circumstances, no retailer is able to sell his product at a price higher than R. Of course, R may well derive from previous search processes, possibly based on the mechanism described in section 2.1. The expected gain g(R) from purchasing at the price p, smaller than R is R R R g(R)=R-E(p)= ∫0 dp − ∫0 ( 1 − F ( p ))dp = ∫0 F ( p )dp (2.4) Implicitly, one can assume that a rational consumer will stop searching when g(R) is smaller than the marginal search cost c. The first consequence of the latter approach for anti-inflation agreements is that it is possible to cut the threshold R simply by raising the number of stores charging prices smaller than R. In fact, in (2.4) any increase of F(p) within the support (0, R) contributes to reduce the threshold R that satisfies the inequality g(R) ≤ c. This fact suggests that even an agreement involving only few retailers may produce substantial effects on the maximum price R that all other stores, possibly opposing to the agreement, are allowed to charge. Of course, reservation prices may vary among different consumers. Thus, retailers can exploit these differences in order to increase their profits carrying out a “third degree” discrimination among consumers. Indeed, Diamond (1971) demonstrated that costly search for a homogeneous good, offered by stores incurring the same costs, makes it convenient for every store to set the same price, corresponding with the monopoly price for the given overall demand curve faced by the stores. In fact, if search is costly, each store has an incentive to raise his price by any amount less than the cost of a further search, since such surcharge is not large enough to make consumers to search for another cheaper shop. As a consequence, every store has a strong incentive to raise its price until the limit of the monopoly price, for which profit maximises. At least two conditions provide the stores with sufficient incentives to charge lower prices. The first one is the variability of marginal costs incurred by different stores (Reinganum, 1979). Another incentive is the existence of a number of consumers who meet null search costs and therefore continue to search in every condition. One could think of 110 them as “shoppers”, who simply enjoy to go shopping (Sthal, 1989), or “native” fully informed about their local market (Salop and Stiglitz, 1977).3 Varian (1980) demonstrated that, from the viewpoint of stores, it is optimal to set prices distributed according to a special cumulative distribution F(p), defined on the support (p*, R), where p* is the minimum production cost and R is the reservation price, already defined above. The resulting distribution of prices characterises a symmetrical Nash equilibrium, that is a situation in which no store has an incentive to change its strategy. Of course, fully informed consumers always pay the lowest price, say pm, which provides the most inexpensive store with the profit πs(p) = (p – u)(I + U) – k (2.5) where u is the marginal (fixed) cost of production; I is the quantity of product demanded by shoppers; U is the fraction of total demand coming from uninformed consumers who, in any case visit one of the n stores by chance; and k is a fixed production cost. Of course, the probability that a store is the cheapest one, so that it gains π(pm), equals the probability that n-1 other stores charge an higher price, that is (1 – F(p))n-1. On their turn, uninformed consumers are disposed to pay a price p, higher than pm, granting only the (much smaller) profit πο(p) = (p – u)U – k (2.6) with probability 1 - (1 – F(p))n-1. In the long run equilibrium, free entry of competitors ensures that profits are null,4 at every price. Thus, for every price must hold πs(p) (1 – F(p))n-1 + π ο(p) (1 - (1 – F(p))n-1) = 0 (2.7) The latter condition is sufficient to define the optimal cumulative distribution of prices F(p). In fact, from (2.7), (2.5) and (2.6) it reads 1 1 ⎛ ⎞ n −1 π o( p ) ⎛ k U ⎞ n −1 ⎟⎟ = 1 − ⎜⎜ − ⎟⎟ F(p)= 1 − ⎜⎜ ⎝ ( p − u )I I ⎠ ⎝π o( p ) −π s( p )⎠ 3 (2.8) Benabou (1993) provides a general model accounting heterogeneity of both buyers and sellers. 4 Apart from the normal remuneration of capital invested, conventionally included in the fixed cost of production. Anderson and de Palma (2003) remove this assumption, allowing for a fixed number of stores making positive (identical) profits in the long run. 111 Since the assumption of null profit holds particularly for the store setting its price to the maximum R, it holds π ο(R) = (R – u)U – k = 0 that is U = (2.9) k , hence (2.8) reads R−u 1 ⎛k ⎛ 1 1 ⎞ ⎞ n −1 ⎟⎟ ⎟⎟ = F(p) = 1 − ⎜⎜ ⎜⎜ − ⎝ I ⎝ p − u R − u ⎠⎠ As a consequence, the average market price paid by consumers is E(p) = ∫ R p* (2.10) ( 1 − F ( p ))dp = 1 = ∫ R p* ⎛k ⎛ 1 1 ⎞ ⎞ n −1 ⎜ ⎜ ⎟ − ⎜ I ⎜ p − u R − u ⎟⎟ ⎟ dp ⎠⎠ ⎝ ⎝ (2.11) The shape of the relationship between the average market price and the reservation price is obtained by differenciating (2.11) with respect to R: 1 k ∂E ( p ) = ∂R n −1 I (1 − F ( p) )2− n dp ∫p (R − u )2 R * ≥0 (2.12) and 1 k ∂ 2 E( p ) = 2 ∂R n−1 I (1 − F ( p ))2 − n ⎛ 2 − n k ( 1 − F ( p ))1− n − 2( R − u )⎞ ≤0 ⎟ ∫p (R − u )4 ⎜⎝ n − 1 I ⎠ R * (2.13) since 1 - F(R) = 0.5 The sign of (13) holds certainly for n ≥ 2, considering further that the market can exist only if R - u >0. In addition, as far as R is the maximum price that any store is able to charge to consumers and p* is the minimum price that makes the production profitable, it holds p* ≤ E(p) ≤ R, so that, particularly, E(p) = p* when R = p*. The relationship between E(p) and R, as characterised by (2.12) and (2.13), has a number of properties quite relevant in devising anti-inflation 5 For sake of simplicity, the results reported here relay on the assumption that the number of stores acting in the market is large enough not to be affected by changes in R. 112 agreements. First of all, it is apparent from (2.12) that the average market price increases with the reservation price R, but at a decreasing rate for (2.13), as showed by the curve E in Figure 3. Thus, even large reductions of reservation price may have small effects on the actual average market price. This fact could get consumers confused, undermining the credibility of agreements. Hence, anti-inflation information campaigns should contrast both excessive expectation about the effects of the agreement, and the possible disappointment of consumers in face of average price cuts smaller than their reservation price reductions. On the other hand, since E(p) is a convex function of R, owing to (2.13), the promoter of agreements can exploit the increasing effects of succeeding reservation price reductions over time as well. However, for the same reason, one should take into account that the very first effect of information campaigns is expectedly small, and only continuing the campaign may give outstanding results. According to (2.12), the larger is the demand coming from fully informed consumers the flatter is the curve E in Figure 3. Thus, even a small increase in the number of consumers who get informed about prices, thanks to the agreement, can reduce the overall average market price, spreading the benefit of their own search over other, possibly uninformed, consumers. This fact should strengthen the credibility of the agreement, making more and more consumers intensify their search for cheaper stores. Fig. 3 - Average market price and reservation price E(p) E 45° R p* 113 Solving (2.11), it is apparent that any given average market price may be associated to a range of combinations of reservation prices R, on the one hand, and demand of informed consumers I, on the other. Differenciating (2.11) with respect to I gives 1 1 n ∂ E(p) k n −1 − n − 1 1 =I ∂I n− 1 I ∫ R p* ⎛⎛ 1 1 ⎞ ⎞ n −1 ⎟ ⎜ ⎜⎜ − ⎜ p − u R − u ⎟⎟ ⎟ dp ≤ 0 ⎠⎠ ⎝⎝ (2.14) and 1 n −1 1 ∂ E(p) nk = I ∂I2 (n− 1)2 2 − 2 n −1 n −1 ∫ R p* ⎛⎛ 1 1 ⎞ ⎞ n −1 ⎟ ⎜ ⎜⎜ − ⎜ p − u R − u ⎟⎟ ⎟ dp ≥ 0 ⎠⎠ ⎝⎝ (2.15) Thus, from (2.12) and (2.14) it is apparent that, for any given average market price, say E , ∂R ∂I ∂E( p ) = − ∂I ≥0 ∂E( p ) E ( p )= E ∂R (2.16) Hence, a raise in R may be compensated by a suitable increase on the demand coming from informed consumers, potentially without affecting the average market price. Furthermore, differenciating (2.16) with respect to I, and taking into account the sign of the derivatives (2.12), (2.13), (2.14) and (2.15), it reads ∂ 2 E( p ) ∂E( p ) ∂E( p ) ∂ 2 E( p ) − 2 ∂2R ∂I ∂R 2 I R ∂ ∂ =(2.16) 2 2 ∂ I E ( p )= E ⎛ ∂E( p ) ⎞ ⎜ ⎟ ⎝ ∂R ⎠ The sign of (2.16) depends on the sign of its denominator, and supports very different strategies in devising the anti-inflation agreements. Namely, if ∂ 2 E( p ) ∂E( p ) ∂E( p ) ∂ 2 E( p ) ∂2R then ≤ 0 is negative, that is ≥ ∂I2 ∂R ∂I ∂R 2 ∂ I 2 E ( p )= E the change of I exactly compensating a raise in R decreases with I, as showed in Figure 4 for different values of E(p), say E1 > E2 >…> E6. Under 114 these circumstances, a campaign that succeeds in making informed even a small number of consumers may compensate a large increase in the reservation price prevailing among the other uninformed consumers. Hence, simply emphasizing the potential advantages of search seems much more effective than trying to lower the reservation price that consumers have in ∂2R their mind. Quite the reverse, if ≥ 0, it is more efficient to ∂ I 2 E ( p )= E persuade consumers that the maximum price at which they are disposed to purchase is actually unnecessary high. Fig. 4 – Reservation price and in formed consumers R E6 E5 E4 E3 E2 E1 I 2.3. Cutting the search costs Improving consumer information seems a powerful device both to reduce search cost and to cut reservation prices. A natural way to inform consumers is to disseminate the price lists at a very low cost. Unfortunately, this practice entails some drawbacks, since it encourages the retailers to collude to consumers’ detriment as well, as noted by Stigler (1964) and stressed later by Tirole (1988). Thus, the potential benefits for consumers of better information sometimes can be completely offset by higher prices set by colluding retailers. As matter of fact, national pro-competitive Authorities 115 and the European Commission itself always have been very cautious about the publication of price lists, as reported by Nilsson (1999). Although collusion is favoured by full and fast information about the prices of possible competitors, also the expected gain for a single store to cheat on an anti-competitive agreement is larger when price lists are publicly available. In fact, under perfect information, a store could potentially attract all the consumers just by lowering its price by a small amount. Thus perfect information encourages both the collusion and the deviation from it. Quite the reverse, if price lists are not publicly available, it is more costly for each store to control the compliance with the agreement of other stores. Nevertheless, the expected gain from deviating from the agreement is smaller as well. In fact, a single store who cuts its price may just expect to catch the additional demand from “shoppers”, since the same number of uninformed consumers would continue visiting the store in any case by chance. In addition, the deviating store would lose the difference between the agreed price and the lower one charged to uninformed consumers. Hence, an imperfect information environment makes it is less convenient both to set up and to break a collusive agreement. 6 Of course, the former considerations must be taken into account carefully in setting up a successful anti-inflation agreement. Particularly, the dissemination of price lists can be never the single or main point of an agreement. In addition, it must be complemented by monitoring the degree of competition on the market and a proper system of incentives for stores cheating on possible collusive agreements. In any case, dissemination of price lists is not the only tool to abate the search costs. For instance, Stigler (1961) pointed out that advertising can provide consumers with information about sellers and thus lower their search costs. Thus, advertising inexpensive shopping areas, possibly with parking and other facilities, can be as much efficient as the publication of simple price lists, in order to reduce the sunk costs incurred by consumers. Furthermore, some common practices deserve to be encouraged, possibly by means of tax reduction, such as stores mailing flyers reporting their best prices or committing themselves to refund clients in case they find lower prices in other stores. 3. Markup reduction and inflation Anti-inflation agreements necessarily entail some reduction of unit profit charged by producers and retailers. Usually, firms operating in a monopolistic competition framework are assumed to set (the logarithm of) 6 In addition, Nilsson (1999) and Mollgaard and Overgaard (2001) point out, in a game theoretic framework, that improving temporarily the market transparency has undoubtedly favourable effects on prices, while prolonging the publication of price lists could have adverse effects. 116 their own prices (pt) in each time period t according the following simple markup rule: pt = ct + mt (3.1) where ct is the logarithm of unit variable production cost, typically the cost of labour, energy and row materials, and mt = log(1+µt) is the logarithm of 1 plus the gross unit profit margin µt charged on unit variable costs, that is assumed to be almost stable over time. From equation (3.1), for small change of relevant variables, the following dynamics of inflation rate p& t derives p& t = c&t + m& t where x& t = xt – xt-1 stays approximately for (3.2) exp( xt ) − exp( xt −1 ) . exp( xt −1 ) 3.1. Short and long run effects of markup reduction It is apparent from (3.2) that in the short run whatever change in markup percentage, say µt- µt-1 passes on directly to inflation. However, the larger is the initial level of µt-1, the smaller is the pass through on inflation. Thus, given the dynamics of costs and margins, inflation rate turns out to be lower as the initial markup is larger. The consequence of the previous basic algebraic manipulation of (3.2) are often disregarded. nevertheless, the negative relationship between markup and inflation is supported by some empirical evidence in different developed countries (Banerjee and Russell, 2001) and various national industries (Benabou, 1992), although other studies emphasize that increasing competition among firms (reducing markups) generates lower inflation (Cavelaars, 2003), and that discretionary (and inconsistent) monetary policy, claiming to exploit possible trade off between inflation and growth, may induce a positive correlation between inflation rate and markup (Neiss, 2001). Of course, in the steady state equilibrium, when the markup reverts to its normal level µ* (possibly null, as far as the market becomes fully competitive), the inflation rate only varies with costs. Nevertheless, if firms incur in some actual or virtual cost in revising their prices, 7 as commonly 7 The so called “menu costs” of printing price lists and product labels is an example of actual cost of adjusting prices instantaneously. The risk of worsening relationship with clients and the uncertainty about demand elasticity are among virtual costs. 117 assumed in new-keynesian macroeconomics (see Mankiw and Romer, 1991, among the others), then prices are sticky even if production cost changes. For instance, firms could let the markup vary, setting prices according to the following partial adjustment mechanism pt - pt-1 = α (p*t - pt-1) (3.3) where p*t = ct + m* (3.4) is the ideal price consistent with the actual production costs and the desired markup µ* = exp(m*) – 1, so that (p*t - pt-1) is the gap between the desired price and the one set in the previous period of time and 0 < α < 1 is the fraction of the gap filled during each period of time. From (3.1), (3.3) and (3.4), it reads p& t = α c&t + αm* - mt-1) (3.5) It follows from (3.5) that when prices are sticky, as in the real world, the higher the initial markup mt-1 the lower is ongoing inflation. Thus, a counterintuitive result is that a positive shock on costs turns out to have smaller unfavourable effects on the purchasing power of consumers when actual gross profit margins are larger. On the other hand, (3.5) implies also that a larger desired markup m* tends to accelerate inflation rate. Thus, agreements with producers and retailers aimed to moderate long run profit expectations are possibly successful in slowing down inflation. 3.2. The risk of delayed technological innovation In analysing the relationship between markup level and inflation rate, one should also take into account the fact that larger markup improves cash flow of firms, and the latter possibly encourages investment, which contributes in reducing production costs in the medium and long run. Indeed, the effect of cash flow on investment contrasts with the neoclassical view popularised by Modigliani and Miller (1958), who exclude any influence on investment of the way they are financed. On the other hand, as far as financial markets are far from being fully efficient, firms often face credit rationing, that constrains their investment plans, as pointed out newly in the last decades namely by Fazzari, Hubbard and Petersen (1988) and Hubbard (1998). If this is the case, also the term c&t in (3.2) and (3.5) is inversely related to the markup level (Bagwell, Ramey and Spulber, 1997). Thus the promoters of anti-inflation 118 agreements necessarily face a trade-off between larger reduction of ongoing inflation rate in the short run, achieved by a sizable cut of present markup, and slower price dynamics in the next years, requiring larger investment financed by current profits. In addition, cutting markup directly may have even worse effects on production cost dynamics in regulated industries. In fact, Averch and Johnson (1962) demonstrated that regulated firms subject to overall profit limitation have scarce incentive to minimise production costs, since it is very difficult for any regulatory authority determining costs to be deducted from overall revenue to measure the return on capital. As a consequence, such firms tend to expand their business even in non profitable markets only to inflate costs, to the aim of meeting the required rate of return. In order to escape from such drawbacks, Vogelsang and Finsinger (1979) and Brennan (1989) popularised the “price cap” method to regulate price dynamics, which only requires the regulated firm to increase in every period of time its prices less than the overall inflation rate minus a fixed percentage, say x. Such simple rule is worth to be included in anti-inflation agreements, instead of explicit constraints on retail margins, which unavoidably correspond to direct profit regulation. As a result, the warning about the possible counterproductive effects of direct markup reduction on long run inflation is further reinforced. 4. Conclusive remarks Anti-inflation agreements represent a powerful tool to curb inflation. Nevertheless, in devising and implementing such agreements national and local authorities should carefully take into account a number of recommendations deriving from the economic theory of imperfect information and industrial organization. Above all, the agreements should be conceived explicitly as “packages” of several coordinated measures, counterbalancing the possible drawbacks of each one, instead of a set of few single interventions in favour of the consumers. As far as consumers usually pay more than the minimum possible price, since they incur in some cost to find out the best offers available on the market, it is efficient to include some provision to cut search cost in antiinflation agreements. However, since the average price reduction ultimately depends on the number of stores visited by consumers, the reduction of search cost should be sizeable enough, in order to increase the number of visits. Hence, an agreement that simply aims to reduce search costs is hardly successful. A more efficient anti-inflation program should rather persuade consumers that the expected gain from further search is large enough to make them visit more and more stores before purchasing. It is worth noticing that the propensity to search does not depend solely on the actual distribution of 119 prices, but mainly on consumers’ perception of price dispersion. In addition, the average price reduction achieved by intensifying search tends to be selffulfilling and strengthen the credibility of anti-inflation agreements, since larger gain expected by consumers and longer search in fact reduce the actual average market price. Thus informative campaigns may be very effective. However, the manner the consumers are provided with information on prices is not without consequence. Although a natural way to inform consumers is to disseminate publicly the price lists, this practice could encourages the retailers to collude, setting higher prices. In addition, in a search theoretic framework, it is pointless to advertise actual average market price, since the latter is just consistent with the actual (unsatisfactory) search process, and hence does not foster any further search, contrary to the wishes of the promoters of anti-inflation policies. Therefore, it is far better to disseminate information on “fair” or “cheap” prices, laying below the actual market average. For instance, a good candidate is the average of prices set by the best x% inexpensive stores. Of course, advertised prices must be such that consumers have some significant chance to find out stores where prices are below the advertised threshold. That is x should not be too close to zero, otherwise, the consumers would get disappointed and the agreement could fail. In any case, the promoters of anti-inflation agreements should be aware that even large reductions of “reservation price” of consumers may have small (and disappointing) effects on average market price, specially at the beginning. This fact could undermine the credibility of agreements, even if the relevant theory predicts that reservation price reductions produce increasing effects over time on overall inflation. On the other hand, it is possible to demonstrate that even if the agreement succeeds in increasing the number of informed consumers only slightly, the benefit of their search also spreads over uninformed consumers, reducing the overall average market price. Thus, it is essential to enforce the agreement over time even after the first possibly disappointing results. Another interesting prediction of the model sketched in section 2.2 is that, even if the reservation price raises, it is possible to compensate this increase by enlarging the number of informed consumers, or “shoppers”. It depends on the special shape of the relation between reservation price and the number of “shoppers” whether or not emphasizing the advantages of search is more effective than trying to lower the reservation prices underlying consumers’ behaviour. Since the effectiveness of agreements relays mainly on the information made available to the consumers, there is a risk that prices rebound just after 120 the end of information campaign.8 In this case, exactly the same mechanisms that ensured a price reduction when the agreement was in force may raise inflation again. Also, just before the agreement comes into force, it is possible that retailers anticipate some increase in their price lists in view of the next likely reduction. As a consequence, anti-inflation agreements should make provision for a very smooth and progressive way for stores and firms to join and leave the agreement. For instance, at least x months of price list invariance could be required before joining the agreement and after leaving. Anti-inflation agreements necessarily aim to reduce the profit margins earned by producers and retailers. Of course, this reduction has favourable short term effects on inflation, but it also entails some drawbacks in the medium and long run. First of all, given the dynamics of costs and profit margins, simple algebraic manipulations imply that inflation rate is lower as the initial markup is larger. In addition, as far as prices are sticky, the shocks on costs have smaller unfavourable effects on inflation when profit margins are large enough to potentially absorb such shocks. Thus, anti-inflation agreements should aim preferably to moderate the long run profit expectations of producers and retailers, that undoubtedly tends to accelerate inflation, rather than current markups. Finally, one should also take into account that larger markups improve the cash flow of retailers, which possibly, in turn, encourages investment contributing to the reduction of costs in the medium and long run. As a consequence, anti-inflation agreements should always provide some incentive to introduce new efficient technologies, in order to avoid that present short run moderation of price will be offset by higher inflation and competitiveness loss in the future. 8 For instance, a similar bad experience is well documented by the Bank of Greece (2000, p. 107-110). 121 REFERENCES ANDERSON, S.P. – DE PALMA, A. (2003), “Price Dispersion”, Virginia Economics Online Papers, n. 361, http://ideas.repec.org/p/vir/virpap/361.html. AVERCH, H. – JOHNSON, L.L. (1962), “Behaviour of the Firm under Regulatory Constraint”, American Economic Review, vol. 52, p. 1053-1069. BAGWELL, K. – RAMEY, G. – SPULBER, D.F. (1997), “Dynamic Retail Price and Investment Competition”, RAND Journal of Economics, vol. 28, n. 2, p. 207-27. BANERJEE, A. – RUSSELL, B. (2001), “The Relationship between the Markup and Inflation in the G7 Economies and Australia”, Review of Economics and Statistics, vol. 83, n. 2, p. 377-84. BANK OF GREECE (2000), Annual Report 1999, Athens. BENABOU, R. (1992), “Inflation and Markups: Theories and Evidence from the Retail Sector”, European Economic Review, vol. 36, p. 566-74. BENABOU, R. (1993), “Search Market Equilibrium, Bilateral Heterogeneity, and Repeat Purchases”, Journal of Economic Theory, vol. 60, n. 1, p. 140-58. BLINDER, A.S. (1993), “Why are Prices Sticky? Preliminary Results from an Interview Study”, in Sheshinski, E. and Weiss, Y. (eds.), Optimal pricing, inflation, and the cost of price adjustment, Cambridge and London: MIT Press, p. 409-21. BRENNAN, T.J. (1989), “Regulating by Capping Prices”, Journal of Regulatory Economics, vol. 1, p. 133-47. BRETON, A. – WINTROBE, R. (1978), “A Theory of 'Moral' Suasion”, Canadian Journal of Economics, vol. 11, n. 2, p. 210-19. BURDETT, K. – JUDD, K.L. (1983), “Equilibrium Price Dispersion”, Econometrica, vol. 51, p. 955-69. BUTTERWORTH, J. (1994), The Theory of Price Control and Black Markets, Ashgate, Avebury. CAPIE, F. – WOOD, G. (2002), “Geoffrey Price Controls in War and Peace: A Marshallian Conclusion”, Scottish Journal of Political Economy, vol. 49, n. 1, p. 39-60. CAVELAARS, P. (2003), “Does Competition Enhancement Have Permanent Inflation Effects?”, Kyklos, vol. 56, n. 1, p. 69-94. COCHRANE, J.L. – GRIEPENTROG, G.L. (1977), “Cotton Textile Prices, 1965-66: The Microeconomics of Moral Suasion”, Southern Economic Journal, vol. 44, n. 1, p. 74-84. DIAMOND, P.A. (1971), “A Model of Price Adjustment”, Journal of Economic Theory, vol. 3, p. 156-168. FAZZARI, S. – HUBBARD, G. – PETERSEN, B. (1988), “Financing Constraints and Corporate Investment”, Brookings Papers on Economic Activity, vol. 1, p. 141-95. 122 GASTWIRTH, J.L. (1976), “On Probabilistic Models of Consumer Search for Information”, Quarterly Review of Economics, vol. 90, n. 1, p. 3850. HELPMAN, E. (1988), “Macroeconomic Effects of Price Controls: The Role of Market Structure”, Economic Journal, vol. 98, n. 391, p. 340-54. HUBBARD, G. (1998), “Capital Market Imperfections and Investment”, Journal of Economic Literature, vol. 35, p. 193-225. KALAI, E. – SATTERTHWAITE, M.A. (1994), “The Kinked Demand Curve, Facilitating Practices, and Oligopolistic Coordination”, in Gilles, R. P. and Ruys, P. H. M., eds. Imperfections and behavior in economic organizations, Boston and Dordrecht, Kluwer Academic, p. 15-38. MA, C.K. – LYNGE, M.J.Jr. (1992), “Price Control versus Quantity Control: The Implication of Stabilizing Intervention”, Quarterly Review of Economics and Finance, vol. 32, n. 1, p. 84-102. MANKIW, N.G. – ROMER, D. (1991), “Imperfect Competition and Sticky Prices: Introduction”, in Mankiw, N. G. and Romer, D., eds., New Keynesian economics, MIT Press, Cambridge, vol. 1, p. 1-26. MANNING, R. – MORGAN, P.B. (1982), “Search and Consumer Theory”, Review of Economic Studies, vol. 49, p. 203-216. MODIGLIANI F. –MILLER, M. (1958), “The Cost of Capital, Corporation Finance and the Theory of Investment”, American Economic Review, vol. 48, p. 261-97. MOLLGAARD, H.P. – OVERGAARD, P.B. (2001), “Market Transparency and Competition Policy”, Rivista di politica economica, vol. 91, n. 4-5, p. 11-64. NEISS, K.S. (2001), “The Markup and Inflation: Evidence in OECD Countries”, Canadian Journal of Economics, vol. 34, n. 2, p. 570-87. NILSSON, A. (1999), “Transparency and Competition”, paper presented at the EEA Conference, held in Berlin, http://swopec.hhs.se/hastef/papers/hastef0298.rev.pdf. SALOP, S.C. – STIGLITZ, J.E. (1977), “Bargains and Ripoffs: A Model of Monopolistically Competitive Price Dispersion”, Review of Economic Studies, vol. 44, p. 493-510. STAHL, D. (1989), “Oligopolistic Pricing with Sequential Consumer Search,” American Economic Review 79, pp. 700-712. STIGLER, G.J. (1961), “The Economics of Information”, Journal of Political Economy, vol. 69, p. 213-25. STIGLER, G.J. (1964), “A Theory of Oligopoly”, Journal of Political Economy, vol. 72, p. 44-61. TIROLE, J. (1988), The Theory of Industrial Organization, MIT Press, Boston. Van-WIJNBERGEN, S. (1987), “Monopolistic Competition, Credibility and the Output Costs of Disinflation Programs: An Analysis of Price 123 Controls”, National Bureau of Economic Research Working Paper, n. 2302, June 1987. VARIAN, H.R. (1980), “A Model of Sales”, American Economic Review, vol. 70, p. 651-659. VOGELSANG, I. – FINSINGER, J. (1979), “A Regulatory Adjustment Process for Optimal Pricing by Multiproduct Monopoly Firms”, Bell Journal of Economics, vol. 10, p. 157-71. 124 REGOLE E STABILITÀ DEL SISTEMA BANCARIO+ Umberto Monarca* Classificazione JEL: L510, G380 Parole chiave: regolazione, vigilanza bancaria, panic run 1. Introduzione I notevoli processi di cambiamento che hanno caratterizzato lo scenario economico dell’ultimo decennio offrono nuovi elementi per rivedere, ampliare ed analizzare in chiave critica il ruolo dell’industria bancaria all’interno del processo di sviluppo di un territorio e, in ultima analisi, di un sistema-paese. La globalizzazione, infatti, non ha manifestato i suoi effetti solo sul sistema imprenditoriale, ma ha contributo ad innovare, mutare e, per alcuni aspetti, stravolgere, procedure operative, schemi relazionali e meccanismi di funzionamento di molti settori dell’attività economica con riflessi importanti anche in quello creditizio. Un esempio concreto e significativo di tale passaggio è nelle principali tappe che hanno caratterizzato la recente evoluzione della regolamentazione bancaria, in particolare la vigilanza e la tutela della stabilità del sistema. I mercati finanziari, infatti, specie dalla fine degli anni Ottanta, hanno conosciuto un periodo di rapida crescita nell’interscambio di strumenti ed attività tra diversi paesi, fenomeno che ha inesorabilmente posto nell’agenda del policy maker l’esigenza di armonizzare e modificare i principi sui quali era impostata la regolamentazione di stabilità del settore. I cardini del moderno sistema di safety net, ossia di qual complesso di norme e strumenti a disposizione dell’Autorità di vigilanza per garantire la stabilità del sistema finanziario, e di quello bancario in particolare, poggiano sostanzialmente su tre strumenti: il credito di ultima istanza, l’assicurazione dei depositi e i requisiti patrimoniali. Tradizionalmente, di essi il primo è il più antico e si afferma già alla fine del 1700 con la nascita della Banca Centrale inglese, mentre assicurazione dei depositi e requisiti patrimoniali si diffondono in tempi relativamente recenti. In particolare, le prime esperienze di assicurazione dei depositi furono implementate negli anni Trenta negli Stati Uniti, come risposta alla crisi finanziaria del 1929 e, per molti anni, + Questo lavoro riprende, approfondendoli, alcuni spunti di analisi critica da me sviluppati in un precedente articolo “Sulla stabilità dell’industria bancaria”, pubblicato nella raccolta Quaderni del Grif, anno 2004. * Università degli Studi di Teramo, [email protected]. 125 questo strumento è rimasto una caratteristica del sistema statunitense se si considera che, in Europa, le prime applicazioni in tal senso risalgono a poco più di venti anni fa. I requisiti patrimoniali, invece, sono lo strumento di regolazione più nuovo, istituto di fatto solo nel 1988 grazie al primo Accordo di Basilea, sulla disciplina del patrimonio di vigilanza delle banche, e sottoposti di recente ad una complessa revisione. Pur condividendo l’obiettivo primario della tutela della stabilità del settore del credito, i tre strumenti cardini del safety net agiscono con logiche e finalità diverse. In particolare, requisiti patrimoniali ed assicurazione dei depositi operano in un’ottica di regolamentazione microprudenziale, influendo in maniera diversa sulle scelte strategiche ed operative delle singole imprese bancarie; al contrario, il credito di ultima istanza è efficace in un contesto di tutela macroprudenziale, avendo il fondamentale compito di salvaguardare la stabilità del sistema e, quindi, di intervenire nel momento in cui si manifesti concretamente il rischio di contagio da una singola posizione di illiquidità dell’impresa-banca all’intero settore. Analizzando, invece, i tre strumenti regolamentari sul piano della logica operativa, è chiaro quanto i requisiti patrimoniali si differenzino nettamente dagli altri due; sia l’assicurazione dei depositi sia il credito di ultima istanza, infatti, sono strumenti che intervengono principalmente ex post, ovvero sono leve regolamentari a disposizione dell’Autorità di vigilanza per contenere una situazione di crisi concreta. Nel momento in cui viene accertata la difficoltà finanziaria di un istituto di credito, l’assicurazione dei depositi agisce a tutela del risparmiatore, la controparte debole dal punto di vista informativo nelle relazioni di credito, mentre il credito di ultima istanza è utilizzato dalle Autorità per garantire la stabilità macroeconomica non solo del settore, ma dell’intera economia, ed evitare che la crisi di un singolo istituto possa creare scompensi nel sistema dei pagamenti. I requisiti patrimoniali, invece, sono strumenti di regolamentazione “preventiva”, rispetto all’eventuale insolvenza della banca, in quanto hanno lo scopo di istituire una relazione “forte” tra il rischio sopportato dall’istituto di credito e la sua consistenza patrimoniale, al fine di garantire che le strategie operative da esso poste in essere siano comunque coerenti con un profilo di patrimonializzazione, sufficiente ad evitare l’insorgere di crisi di liquidità. L’evoluzione dei sistemi bancari ha, nei fatti, contribuito alla creazione del moderno sistema di safety net incentrato su questi tre strumenti. Se, in principio, il ruolo del regolatore era essenzialmente quello di garantire la stabilità macroprudenziale, e quindi ricorrere esclusivamente al credito di ultima istanza per la tutela della stabilità del sistema, in un secondo momento, a causa dei numerosi fallimenti bancari seguiti alle principali crisi economiche del secolo appena trascorso, si è giunti alla necessità di garantire anche una maggiore tutela ai depositanti, sviluppando così meccanismi di assicurazione dei depositi. 126 Il tema si inserisce, quindi, all’interno del più ampio dibattito sulla necessità di accordare maggiori tutele ai piccoli risparmiatori, al fine di preservare la loro fiducia nel sistema dell’intermediazione. In particolare nel paragrafo 2 sono analizzate le motivazioni individuate dalle teoria economica per giustificare l’intervento regolamentare nei mercati finanziari. I paragrafi 3 e 4, invece, approfondiscono il tema della regolazione bancaria, analizzando in chiave critica i principali modelli sulla fragilità bancaria (par. 3) e evidenziando il nesso tra fragilità e funzione di intermediazione svolta dall’impresa-banca (par. 4). L’analisi di questi modelli costituisce lo schema teorico di riferimento utilizzato per approfondire i meccanismi di funzionamento dei tradizionali strumenti del safety net, esaminati nel paragrafo 5. Infine, viene affrontato il problema della stabilità del sistema alla luce dei cambiamenti avvenuti nell’ultimo decennio, evidenziando come gli strumenti tradizionali sono destinati a giocare un ruolo sempre più marginale a favore, invece, di nuovi modelli di controllo che fanno leva sul rapporto tra rischio e patrimonio della banca (par. 6). 2. Perché c’è bisogno di regolamentazione nel credito: alcuni spunti dalla teoria dell’intermediazione finanziaria La regolamentazione è l’insieme degli interventi, a carattere non fiscale, che influiscono sull’operatività del settore privato; relativamente al credito, possiamo distinguere tre categorie: economic regulation, ossia azioni mirate al controllo dei prezzi, dei profitti e delle condizioni di entrata e di uscita da un settore economico; health-safety-environment regulation, cioè interventi deputati al controllo dei processi produttivi delle imprese, dei loro prodotti e della loro qualità; information regulation, mirati sui requisiti minimi che devono essere diffusi dal venditore di un prodotto (White, 1996). La regolamentazione nel campo finanziario, in definitiva, non costituisce nient’altro che una delle tante facce del più ampio tema del controllo pubblico dell’economia. Essa, tuttavia, in virtù delle specifiche caratteristiche delle imprese che compongono questo settore, si pone tre obiettivi: rimediare i fallimenti del mercato, assicurare la stabilità micro e macroeconomica, perseguire un’equa distribuzione delle risorse (Di Giorgio, Di Noia, 1999). Il primo obiettivo può essere ricondotto al più generale concetto di efficienza del mercato e fa principalmente riferimento alla tutela e difesa della concorrenza nel settore, tramite l’applicazione di regole antitrust in materia di intese, concentrazioni ed abusi di posizione dominante1. 1 La tutela della concorrenza nel settore bancario è anche di recente al centro del dibattito scientifico e politico italiano circa l’applicazione della legge n.287 del 1990 in merito alle intese restrittive della libertà di concorrenza, agli abusi di posizione dominante ed alle operazioni di concentrazione di concorrenza che l’affida alla Banca d’Italia, a differenza degli 127 L’obiettivo di garantire la stabilità macroeconomica è sostanzialmente nel controllo del rischio sistemico, onde evitare che perdite e crisi di liquidità da un singolo istituto possano estendersi all’intero sistema, con ovvie ripercussioni negative anche sull’economia reale. Ecco perchè le Autorità di vigilanza operano rigidi controlli sia sui mercati, in particolare valute, tassi di interesse, aggregati monetari, contrattazioni mobiliari e di prodotti derivati, sia sui singoli operatori, gli intermediari, utilizzando anche lo strumento del credito di ultima istanza. Per la microstabilità, invece, la regolamentazione degli agenti economici di questo settore non si discosta molto delle modalità generali di regolamentazione di stabilità di altre attività imprenditoriali, facendo leva su strumenti quali i requisiti di capitale minimo, l’imposizione di specifiche forme societarie, i requisiti di onorabilità dei suoi manager, i controlli sul patrimonio e sul grado di indebitamento. D’altra parte, gli intermediari finanziari svolgono un ruolo fondamentale all’interno del sistema economico. Grazie alla loro azione, infatti, si realizza più facilmente l’incontro tra soggetti in deficit (generalmente le imprese) e soggetti in surplus (le famiglie) finanziario, migliorando l’equilibrio del mercato del credito e generando, di conseguenza, ricadute positive sul settore economico nel complesso2. In virtù di questa considerazione, nonché del fatto che coloro che hanno un surplus finanziario sono soggetti che tipicamente necessitano di particolare tutela (le famiglie, i piccoli risparmiatori), la regolamentazione degli intermediari finanziari è da sempre stata caratterizzata da norme più altri settori economici regolati invece dall’Autorità Garante della Concorrenza e del Mercato (AGCM). La nuova disciplina sulla tutela del risparmio, recentemente votata alla Camera e al momento in esame al Senato, inizialmente si proponeva di rivedere questa asimmetria regolamentare tra settore del credito ed altri comparti dell’economia, che era stata a più riprese criticata. Uno degli obiettivi della riforma, infatti, sarebbe stato di ampliare le competenze dell’AGCM anche al sistema bancario. Sul tema si veda la raccolta di saggi curata da Polo (2000) e la proposta regolamentare formulata in Di Giorgio, Di Noia (2001). Per l’analisi di alcuni casi pratici antitrust che evidenziano un contrasto tra la decisione della Banca d’Italia ed il parere consultivo espresso dall’AGCM si rimanda a Bianco et altri (2000), Monarca (2003). 2 In tal senso, Bhattacharya, Takor (1993), dove le funzioni svolte dal sistema dell’intermediazione finanziaria sono distinte in due categorie, allocativa ed informativa. La prima, ossia la quality asset trasformation, consiste nella capacità degli intermediari di modificare la maturità, la liquidità e il rischio di credito delle attività da loro detenute, così da offrire contemporaneamente a risparmiatori e prenditori di fondi le passività e/o le attività che preferiscono, a breve per i risparmiatori, a lungo per le imprese. La funzione informativa, ovvero il brokerage, consiste nella raccolta e classificazione di informazioni sulle imprese (bond rating). Il rating è la valutazione da parte di un’agenzia specializzata del merito di credito di un soggetto emittente titoli di debito sui mercati finanziari istituzionali e, come tale, può essere considerato una stima della probabilità che, chi emette debito, onori puntualmente l’obbligazione. Esso fornisce agli operatori finanziari un’informazione omogenea sul grado di rischio degli emittenti e riveste una generale importanza per tutti gli investitori che non possiedono adeguate informazioni per autonome analisi di rischio di credito. 128 restrittive e capillari. Una regolamentazione “speciale” è indirizzata al settore bancario, proprio perchè le banche sono gli unici agenti economici capaci di emettere passività a vista con valore nominale certo (De Cecco, 1995). L’altro obiettivo fondamentale della regolamentazione in campo finanziario è legato al concetto di equità nella distribuzione delle risorse. All’interno del paradigma neoclassico, gli agenti con un avanzo finanziario (i risparmiatori) e quanti invece si trovano in disavanzo (le imprese) non hanno bisogno di intermediazione per raggiungere un equilibrio; in un mondo senza attriti sarebbero comunque capaci di individuare una distribuzione delle risorse Pareto-efficiente. Nello stesso contesto, inoltre, il teorema Modigliani-Miller (1958) assicura che la struttura finanziaria del prenditore di fondi è irrilevante, al punto che la diversa composizione del passivo di un’impresa non incide sul suo valore3. L’imprenditore è neutrale nel decidere se finanziare con capitale di rischio o di debito; la scelta strategica non influisce sul valore dell’attività imprenditoriale. È naturale, quindi, che la teoria tradizionale ponga particolare attenzione agli intermediari bancari, al punto da elaborare una serie di motivazioni e giustificazioni alla loro esistenza (Onado, 2000). In particolare, ne sottolinea la capacità di offrire servizi di trasformazione delle scadenze, mantenendo nei loro bilanci passività a breve ed investendo in attività a medio lungo termine, e di contribuire a ripartire il rischio concentrando i depositi dei piccoli risparmiatori ed investendoli in progetti imprenditoriali con prospettive future di rendimento non perfettamente correlate. Inoltre, la presenza di intermediari finanziari permette di ridurre i costi di transazione, sfruttando le economie di scala in relazione alla dimensione dei fondi intermediati; essi offrono servizi di pagamento e di pooling, ossia consentono anche a piccoli risparmiatori di sfruttare opportunità di investimento che, senza l’azione dell’intermediario, sarebbero disponibili solo per coloro in grado di investire capitali elevati. È proprio in virtù di questa specifica funzione svolta da questi operatori del mercato che i risparmiatori sono disposti ad accettare una remunerazione più bassa del loro surplus, di quanto lo sarebbero qualora operassero con circuiti di intermediazione diretta. L’estensione dei modelli con asimmetrie informative allo studio dei mercati finanziari ha portato a definire nuovi sviluppi e schemi teorici all’interno dei quali collocare e ridefinire la tradizionale attività bancaria (Leland, Pyle, 1977)4. 3 In un’ottica più completa del problema si veda anche Miller, Modigliani (1961) e Modigliani, Miller (1963). 4 Si fa riferimento alle idee e all'apparato formale suggerito dai contributi di Arrow (1963, 1968) per il problema di "azzardo morale" e di Akerlof (1970) per la "selezione avversa". Partendo dal ben noto modello "principale-agente", la base teorica che ad esso fa riferimento analizza come un individuo, il principale (la parte solitamente meno informata) possa congegnare un sistema di compensi (un contratto) che induca un altro, l'agente (la parte con 129 Introducendo l’ipotesi di asimmetrie informative nel mercato del credito è possibile rilanciare il ruolo dell’intermediario da due diversi punti di vista. In primo luogo, se il centro dell’analisi è lo studio sul suo passivo e quindi, principalmente, sulle funzioni di produzione di liquidità ed emissione di depositi a vista, la teoria economica ha recentemente rivisitato e ricontestualizzato alcune posizioni inerenti la sua fragilità, la possibilità di corse agli sportelli ed il conseguente rischio di crisi sistemiche. Al contrario, concentrando l’analisi sull’attivo degli intermediari, l’ipotesi di asimmetria informativa permette di individuare nuove funzioni e nuove aree di sviluppo delle loro procedure operative. Ne segue un certo rilievo del ruolo degli intermediari bancari quali produttori di informazione, selezione e monitoraggio dei potenziali prenditori di fondi, di come essi possano contribuire a migliorare l’allocazione delle risorse finanziando progetti di investimento che, causa proprio le asimmetrie informative e gli elevati costi di agenzia, rimarrebbero altrimenti inesorabilmente esclusi dal mercato (Diamond, 1984). Notevoli anche le ripercussioni sulla regolamentazione del sistema finanziario. Seguendo le indicazioni che emergono dagli studi sulla fragilità del sistema bancario, obiettivo prioritario del regolatore diventa a questo punto assicurare adeguati meccanismi di tutela per i cosiddetti “contraenti deboli”, ossia i depositanti. Quest’ultimi, infatti, usando le categorie logiche della teoria delle asimmetrie informative, si trovano in una posizione di svantaggio informativo nei confronti dell’intermediario, cosa che potrebbe indurli ad implementare comportamenti eccessivamente prudenti, come il ritiro anticipato dei loro fondi, con conseguenze negative per la stabilità dell’intero sistema. più informazioni) ad agire nel suo interesse. Un problema “principale/agente” si manifesta ogni qualvolta c’è informazione imperfetta; il risultato della transazione porta inevitabilmente ad un equilibrio di sub-ottimale. Solo quando principale e agente hanno le stesse informazioni e tutte le variabili sono contrattabili, e quindi non “costrette” al verificarsi di possibili stati di natura, sarà possibile raggiungere un equilibrio di ottimo paretiano. Si avrà allora "selezione avversa" quando in una transazione una parte, l'agente, è a conoscenza di elementi rilevanti sui termini e sugli esiti della transazione che, non solo sono ignorati dall'altra parte -il principale-, ma preesistono alla stessa e non dipendono dalla volontà dell'agente. Una possibilità di soluzione è nel comportamento delle parti se trasmettono al mercato le informazioni private in loro possesso attraverso meccanismi di signalling o di screening, rispettivamente a seconda che a volere la transazione sia l'agente o il principale. Si configura "azzardo morale", invece, quando la parte più informata, l'agente, intraprende, dopo la definizione del contratto, azioni discrezionali rilevanti per l'esito della transazione che il principale non è in grado di controllare in tutto o in parte. Qui la soluzione è il ricorso ad un meccanismo di incentivi; il principale, che non è in grado di controllare né tipo, né grado di impegno dell'agente nel rispetto degli obblighi che ad esso derivano dalla transazione, sarà interessato a strutturare la stessa al punto che l'agente abbia un incentivo “forte” ad intraprendere azioni conformi a quelle preferite dalla parte meno informata. Si rinvia, per tutti, a Ross (1973), Kreps (1990), Milgrom-Roberts (1992, parte III). 130 Scopo delle regolamentazione è, invece, evitare che l’intermediario utilizzi il suo vantaggio informativo per estrarre una rendita a svantaggio dei depositanti; in realtà, l’obiettivo è duplice, tutelare gli interessi dei risparmiatori e, allo stesso tempo, garantire la solvibilità del sistema bancario. Assicurando maggiore tutela ai depositanti si riducono le possibilità che quest’ultimi perdano fiducia nel settore dell’intermediazione finanziaria, garantendo, in definitiva, alle banche la possibilità di agire proficuamente nel mercato delle raccolta. In altre parole, la regolamentazione parte dal presupposto di tutelare i risparmiatori ma, in realtà, si carica di un compito più arduo, di elevata valenza sociale: quello di assicurare la stabilità del sistema. Solo accordando maggiore protezione ai depositanti si creano condizioni favorevoli per gli intermediari, tali da consentire loro di operare nel mercato della raccolta delle unità in surplus finanziario5. Seguendo, invece, le considerazioni teoriche emesse dagli studi sul relationship banking (Diamond, 1989; Hellwig 1989), il nodo critico per la regolamentazione diventa analizzare la condizioni di accesso al credito, quindi valutare il rapporto banca-impresa in un’ottica costi-benefici, con conseguente comparazione della superiorità, dal punto di vista dell’efficienza allocativa, dei modelli banco-centrici o mercato-centrici. La regolamentazione in questo caso ha per scopo di garantire una efficiente corporate governance del settore in grado di fornire strumenti, soluzioni e modalità operative in linea con le esigenze e le richieste di credito degli altri comparti dell’economia reale. 3. La fragilità del settore bancario e le corse agli sportelli L’attività bancaria si distingue per offrire contratti di deposito che consentano ai risparmiatori di richiedere un importo nominale fisso, indipendentemente dalle loro reali necessità di consumo. Le banche 5 La fiducia dei risparmiatori nel sistema è un valore fondamentale, base dell’intermediazione indiretta, come meglio approfondito in seguito (par. 3), proprio grazie all’applicazione della teoria delle asimmetrie informative ai modelli di intermediazione bancaria è stato evidenziato che la “crisi di fiducia” del depositante rappresenta la più elevata componente di rischio sistemico di questo mercato. Essa, inoltre, potrebbe sbilanciare le preferenze dei risparmiatori verso attività di investimento non finanziario (immobili, commodities, oro, in generale i cosiddetti “beni rifugio”), riducendo le risorse del sistema bancario e, di fatto, limitando la possibilità dell’impresa banca di sostenere il settore reale dell’economia. A riguardo, l’obiettivo della regolamentazione di tutelare gli interessi dei risparmiatori può essere anche letto nell’ottica di preservare la fiducia nel sistema, al fine di assicurare il corretto funzionamento dell’intermediazione indiretta di fondi. In questa prospettiva, si possono cogliere in pieno gli effetti negativi degli scandali finanziari degli ultimi anni, quali il caso Enron, i “tango” bond argentini, i bond Parmalat e Cirio, che hanno profondamente indebolito il rapporto risparmiatore-banca proprio sotto il profilo più delicato, quello della fiducia. Sul tema, si veda Ross (2002), Onado (2003b) e Pardolesi et altri (2004). 131 trattengono una frazione di tali depositi per far fronte alle richieste di ritiro ed utilizzano i fondi residui per erogare crediti non liquidi e, spesso, rischiosi6. L’inevitabile esistenza di un mismatching delle scadenze, tra raccolta e impieghi, crea instabilità. Infatti, nel caso in cui il ritiro anticipato dei depositi dovesse superare le aspettative di liquidità della banca, quindi la specifica frazione degli stessi detenuta come riserva libera, l’intermediario non è in grado di soddisfare le richieste dei depositanti ed è costretto a “vendere” prematuramente le attività illiquide detenute generando, una volta diffusa l’informazione, reazioni comportamentali destabilizzanti tra i depositanti. Il problema è efficacemente colto nel modello di Diamond e Dybvig (1983) che analizza l’instabilità e la fragilità di una banca che detiene una frazione dei propri depositi ed investe in attività illiquide. Tale schema costituisce ancora oggi la base all’interno della quale sono state poi sviluppate le implicazioni, sia di policy sia di regolamentazione, derivanti dal potenziale insorgere di panic run nel settore bancario. Si suppone che i prenditori di fondi investano in progetti caratterizzati da tecnologia indivisibile, ossia non realizzabile se finanziata in parte, di durata biennale. Il modello, quindi, si sviluppa in tre periodi, T=0;1;2. Ipotizzando che ogni investimento debba essere finanziato con una unità di capitale, avremo la seguente struttura di rendimenti: T=0 -1 T=1 0 1 T=2 R 0 ad indicare che l’investimento, se interrotto nel primo periodo, darà come risultato un payoff pari ad 1 e conseguentemente 0 nel periodo 2. Al contrario, qualora esso fosse sviluppato in entrambi i periodi, nel primo si ottiene un rendimento nullo e nel secondo un rendimento pari ad R, con R>1. Nel modello, poi, i consumatori sono distinti in “pazienti” ed “impazienti”; i primi preferiscono consumare in T=2, ovvero quando i progetti di investimento sono stati completati ed i prenditori di fondi hanno effettuato i loro rimborsi, gli altri, invece, decidono di consumare in T=1, prima della conclusione degli investimenti. Si verifica che nel modello ogni consumatore ha una funzione di utilità stato-dipendente: ⎧u (c ) U (c1 , c 2 ; Θ) = ⎨ 1 ⎩ ρu (c1 + c 2 ) 6 (3.1) Lo schema descritto non è altro che il classico meccanismo del moltiplicatore dei depositi, la cui prima presentazione rigorosa si deve a Phillips (1921). 132 dove, la prima funzione indica l’utilità dei soggetti “impazienti”, mentre la seconda quella dei “pazienti”. In T=0 tutti i soggetti sono identici, ed hanno la stessa probabilità p di diventare “impazienti” e effettuare il loro consumo in T=1. Un punto di ottimo per ogni consumatore si ottiene quando: c12* = c 12* = 0 (3.2) dove c12* è il consumo nel secondo periodo degli impazienti e c 12* è il consumo nel primo periodo dei pazienti. Le funzioni di utilità (1) attestano che il valore attuale del consumo effettuato nel secondo periodo è maggiore di quello del primo periodo. Essendo gli investitori avversi al rischio, essi preferiranno rinunciare a parte della loro rendita in cambio di un’assicurazione che eviti loro di diventare necessariamente consumatori impazienti. Tale assicurazione è fornita dalla banca tramite il contratto di deposito. La banca, infatti, si impegna a garantire a coloro che ritirano nel primo periodo un rendimento pari a C1*>1, mentre coloro che attendono il completamento degli investimenti finanziati riceveranno al termine del secondo C2*<R. Nel periodo iniziale (T=0), quindi, la banca raccoglie depositi presso i risparmiatori e seleziona i prenditori di fondi da finanziare. I depositanti possono ritirare i loro risparmi in qualsiasi momento e saranno soddisfatti secondo l’ordine sequenziale delle richieste (regola del first-come first served). Essi non hanno la possibilità di monitorare l’andamento dei progetti finanziati; non dispongono cioè di informazioni sufficienti per valutare privatamente se la banca è in grado di restituire loro i depositi a seguito dei rimborsi effettuati dai prenditori di fondi. La struttura completa dei payoffs diventa7: ⎧r V1 ( f j , r1 ) = ⎨ 1 ⎩0 (3.3) dove r1 è il payoff se f j ≤ f& , e 0 è il payoff se f j > f& ; V2 ( f , r1 ) = max{[R(1 − r1 f ) /(1 − f )],0} (3.4) 7 f è il numero totale di depositanti che hanno inoltrato la loro richiesta di ritiri, e fj il numero di ritiri effettuati prima dell’agente j. Cfr. Diamond, Dybvig, (1983) p.305. 133 Il contratto di deposito può far scaturire due possibili equilibri. Nel primo, tutti i depositanti valutano correttamente le informazioni del mercato, per cui solo coloro che preferiscono consumare nel primo periodo ritirano i depositi, mentre gli altri attendono il completamento degli investimenti finanziati. Nel secondo equilibrio, invece, tutti gli agenti ritirano nel primo periodo, scatenando un panic runs nei confronti della banca. In un contesto siffatto, le corse agli sportelli risultano come situazioni con equilibri multipli, collegate principalmente all’illiquidità dell’attivo bancario ed alla mancanza di coordinamento tra i depositanti. In T=1, infatti, i depositanti pazienti osservano gli impazienti ritirare i fondi depositati ma non hanno sufficienti informazioni per stabilire se tali rimborsi anticipati sono necessari per far fronte ad esigenze di consumo, oppure dovuti al fatto che gli “impazienti”, che richiedono i rimborsi, hanno una maggiore informazione sull’andamento degli investimenti della banca e, quindi, effettuano ritiri anticipati in previsione di una possibile insolvenza dell’intermediario. La regola del ritiro sequenziale dei depositi potrebbe, in questa condizione, creare instabilità tali da determinare un panic run. Infatti, qualora i depositanti pazienti dovessero perdere fiducia nell’intermediario e decidere anch’essi di ritirare anticipatamente i loro depositi, la banca non avrebbe più fondi per gli investimenti. Anzi, in virtù della tecnologia indivisibile che permette ai prenditori di fondi di rimborsare i prestiti solo in T=2, a completamento degli investimenti posti in essere, non sarebbe in grado di far fronte a tutte le richieste dei depositanti8. La crisi di liquidità di un singolo intermediario, tuttavia, può rappresentare un serio problema per la stabilità del settore bancario nel momento in cui dovesse sfociare in crisi sistemica, ossia diffondersi da un singolo intermediario ad altri, in casi estremi, all’intero sistema. Il rischio di contagio, può generalmente avvenire tramite due canali: informativo o creditizio (Schoenmaker, 1996; Bhattacharya, Thakor, 1993; Jacklin, Bhattacharya, 1988). Nel primo, si registra la diffusione di una singola corsa gli sportelli anche verso altri istituti di credito, sulla scia dei meccanismi di asimmetria informativa e mancato coordinamento dei depositanti come in Diamond e Dybvig (1983)9. Il contagio tramite canale creditizio è dovuto, 8 Come successivamente dimostrato da Postlewaite e Vives (1987), il panic run può essere associato al classico schema del dilemma del prigioniero e configurarsi a tutti gli effetti come un equilibrio di Nash negativo. Gli agenti, infatti, prelevano i fondi depositati non per esigenze di consumo ma semplicemente per tutelare i propri interessi, innescando un meccanismo di strategie dominanti tali che la crisi bancaria si identifica come l’unico equilibrio possibile del gioco. 9 Nella letteratura economica il “contagio da corsa agli sportelli” viene a sua volta distinto in due tipologie, puro e disturbato, sulla base delle motivazioni che lo generano. Il primo è quando informazioni negative relative ad un solo istituto di credito (possibili frodi o bassi rendimenti legati alle attività rischiose detenute dalla banca) influenzano le decisioni di ritiro 134 invece, principalmente alla forte interdipendenza tra istituti di credito, a causa le numerose transazioni nel mercato interbancario o nel sistema dei pagamenti. Una delle particolarità di questo settore è nella forte dipendenza tra i bilanci delle diverse imprese che in esso interagiscono, resa ancor più marcata dai recenti processi di fusione e acquisizioni; cospicue quote del passivo di una banca, infatti, spesso sono sottoscritte o detenute da un’altra impresa bancaria. Tale caratteristica se da una parte facilità lo scambio degli strumenti di pagamento per gli utenti finali, dall’altro è di per se elemento di debolezza, destabilizzante per il sistema, in quanto l’insolvenza di una banca può facilmente propagarsi o ripercuotersi su un’altra, fino a generare un effetto “domino” tale da coinvolgere l’intero settore10. Tuttavia, non vi sono consolidati schemi teorici in letteratura che formalizzino compiutamente tale eventualità. Nei modelli sulle corse agli sportelli, infatti, l’industria bancaria il più delle volte è indicata come un settore omogeneo, all’interno del quale opera un solo intermediario “rappresentativo” per cui risulta impossibile valutare in maniera formale il passaggio dal singolo bank run a forme di contagio sistemico. In effetti, solo il modello di Chari e Jagannathan (1988) potrebbe risultare utile per dimostrare formalmente il contagio. Esso, infatti, ipotizza che i depositanti di ogni singola banca si dividano in “informati” e “disinformati”, con solamente i primi a conoscenza delle prospettive di rendimento delle operazioni di prestito dell’intermediario. Il meccanismo è simile a quello di Diamond e Dybvig (1983); i “disinformati” osservano gli “informati” effettuare il ritiro anticipato ma, tuttavia, non sono in grado di stabilire se ciò sia dovuto ad esigenze di liquidità oppure al cattivo andamento degli investimenti effettuati dalla banca. Ne segue che anche i “disinformati” richiedono il rimborso anticipato, generando il panic run nei confronti di un singolo istituto. In proposito, ipotizzando una correlazione negli shock sui dei depositanti di altre banche, anche nel caso in cui quest’ultime rispondano a circuiti diversi da quelli dell’istituto in crisi. Il contagio disturbato, invece, è quando i depositanti interpretano l’insolvenza di una banca come segnale negativo riguardo la solvibilità anche di altri istituti di credito, specialmente di quelli che presentano caratteristiche giuridiche ed economiche (struttura dell’attivo e del passivo) simili alla banca insolvente. In altri termini, i depositanti temono che le motivazioni economiche che hanno portato quello specifico intermediario all’insolvenza possano ben presto ripetersi anche per le banche che custodiscono i loro depositi. Essi, quindi, optano per il ritiro anticipato, con effetti che risultano amplificati se il settore bancario è relativamente chiuso, poco differenziato, caratterizzato da numerosi istituti con struttura patrimoniale, ubicazione geografica e politiche commerciali simili (Schoenmaker, 1996). 10 A titolo di esempio, i principali strumenti di pagamento (depositi, assegni bancari, le varie forme di moneta elettronica ecc.), possono essere facilmente scambiati presso tutti gli istituti di credito, indipendentemente da quello emittente, proprio perché le banche quotidianamente regolano le proprie posizioni sul mercato interbancario, sotto la supervisione della Banca Centrale. 135 rendimenti della tecnologia di investimento delle banche, il meccanismo appena descritto potrebbe essere esteso all’analisi della diffusione dei panic run tra diversi istituti di credito. I “disinformati” che detengono depositi presso altre banche potrebbero ritirare i loro fondi, supponendo che i risultati negativi conseguiti dalla banca in crisi ben presto possano estendersi all’insieme degli investimenti posti in essere dall’intero settore dell’intermediazione11. 4. Dalla fragilità bancaria al relationship banking Il modello di Diamond e Rajan (2000) offre interessanti sviluppi ed approfondimenti sulle implicazioni di policy della fragilità bancaria sul sistema economico. Esso fa proprio sia il concetto di liquidità del passivo dell’intermediario, come specificato in Diamond e Dybvig (1983), sia i principi della letteratura sul relationship banking (in particolare Diamond, 1989), che vede nelle relazioni di clientela tra banca ed impresa un efficace metodo di monitoraggio del prenditore di fondi con conseguente miglioramento nell’allocazione delle risorse. Lo scopo è dimostrare come la struttura finanziaria fragile della banca sia la condizione necessaria affinché essa possa effettivamente creare liquidità, al fine di concedere prestiti ai prenditori di fondi o per far fronte alle temporanee esigenze di consumo dei depositanti. In altri termini, la fragilità del sistema bancario, che in passato era connotata quasi in via esclusiva come elemento di debolezza, ora è analizzata in chiave propositiva, al fine di evidenziare come da questa imprenscindibile caratteristica possano derivare rilevanti valenze di policy, nonché nuovi orientamenti per la regolamentazione del settore. Il modello ipotizza l’esistenza di asimmetrie informative tra datore e prenditore di fondi; solo quest’ultimo, infatti, dispone di informazioni e competenze necessarie a completare il progetto di investimento finanziato. Ne consegue che la banca può ottenere un profitto dal finanziamento solo mantenendo per tutta la durata dell’investimento uno stretto rapporto di collaborazione con l’impresa finanziata. Quest’ultima ottiene i fondi tramite un contratto di debito standard, per cui viene fissato ex ante il rimborso per il finanziatore e, qualora l’impresa non sia in grado di far fronte all’obbligazione, il datore di fondi può esigere il trasferimento dei diritti di controllo del progetto implementato12. La presenza di asimmetria informativa tra datore e prenditore di fondi è un vantaggio per quest’ultimo, in quanto gli 11 Si rinvia a Carletti (2000), pag. 76. Il riferimento in proposito è al modello di Gale, Hellwig (1985) dove è dimostrato che il contratto di debito standard costituisce la soluzione ottimale per ridurre i costi di monitoraggio, altrimenti onere del datore di fondi, proprio in presenza di asimmetria informativa. 12 136 conferisce la possibilità di rinegoziare i termini dell’accordo per incrementare la sua remunerazione. In virtù di questa differenza tra “abilità” e “patrimonio informativo”, infatti, l’imprenditore è capace di estrarre dal progetto una rendita pari al suo effettivo valore intrinseco. L’intermediario, invece, qualora dovesse diventare proprietario dei risultati del progetto, potrebbe solo cederli al mercato, ricavandone una remunerazione sicuramente più bassa di quella che l’imprenditore sarebbe potenzialmente in grado di estrarre (miglior uso alternativo). È per questo che, in caso di successo, l’imprenditore è incentivato a chiedere all’intermediario un extra-profitto pari alla differenza tra il miglior uso alternativo del progetto ed il suo valore intrinseco. La teoria dei contratti (Milgrom, Roberts 1994 parte V; Hart, Hollstrom, 1987) mostra che lo stesso problema di incompletezza nei rapporti contrattuali tra intermediario ed imprenditore si ripropone qualora si analizza la relazione a monte, quella tra risparmiatori ed intermediario. Quest’ultimo, infatti, raccoglie fondi presso una pluralità di soggetti, i piccoli risparmiatori, ognuno dei quali, preso singolarmente, non è in grado, da sé e anche se lo desiderasse, di finanziare per intero il progetto proposto dall’impresa. L’intermediario, in questo caso, è in una posizione di vantaggio informativo rispetto ai risparmiatori in quanto, avendo analizzato e seguito lo sviluppo del progetto con l’imprenditore, è in grado di individuare l’effettivo miglior uso alternativo del progetto che, invece, è sconosciuto ai depositanti. Tale condizione, parallelamente a quanto accadeva nel rapporto imprenditore-intermediario, permette a quest’ultimo di estrarre un extraprofitto dalla relazione con i depositanti. La banca, infatti, può minacciare di interrompere i finanziamenti all’imprenditore, compromettendo la sua possibilità di conseguire quanto originariamente pattuito e rimborsare i depositanti con i diritti di proprietà del progetto, dei quali loro ignorano il valore. È per questo che per i depositanti diventa più conveniente cedere un profitto aggiuntivo all’intermediario, dato che solo quest’ultimo è in grado di vendere il progetto ricavandone un valore pari al miglior uso alternativo. Questi complessi meccanismi contrattuali producono i loro effetti sul grado di liquidità del progetto. I depositanti, consapevoli dello svantaggio informativo sul valore degli investimenti effettuati con i loro fondi, non sono disposti a finanziare interamente i progetti imprenditoriali ma, solo, in proporzione al ricavo effettivo che essi saranno in grado di estrarre da essi. Lo stesso vale per la banca, che valuta l’entità del finanziamento da concedere al prenditore di fondi sulla base del valore dei diritti di proprietà del progetto, che acquisirebbe in caso di insolvenza, e non sull’effettivo ricavo che da esso potrebbe seguire. Conseguenza è che i progetti di ricerca sono illiquidi, ossia possono essere finanziati solo parzialmente con capitale di terzi. 137 Rimuovendo alcune ipotesi restrittive, il modello prevede la possibilità che l’intermediario debba far fronte ad esigenze impreviste di liquidità da parte dei depositanti. Nel rimborsare anticipatamente i fondi, la banca potrebbe trovarsi nella condizione di non disporre di quelle risorse necessarie per continuare l’investimento e, quindi, costretta ad utilizzare capitale proprio o ricercare nuovi depositanti. Inoltre, si ipotizza anche che l’intermediario potrebbe valutare l’opportunità di investire in altri progetti potenzialmente più remunerativi. In sintesi, l’insieme di questi due fattori, rimborsi anticipati ed esistenza di alternative più remunerative, rende di fatto il finanziamento concesso all’investitore non garantito, in quanto non esistono rigide norme contrattuali che vincolano i depositanti nella loro relazione con l’intermediario e, di conseguenza, nel suo rapporto con l’imprenditore. Ciò implica che il progetto di ricerca divenga parzialmente illiquido, poiché non può essere finanziato per il suo valore intrinseco. È il caso, ad esempio, in uno schema biperiodale, dell’esistenza di due diverse tecnologie di investimento indivisibili che, per conseguire i risultati attesi, devono necessariamente essere finanziate interamente e non in parte. Entrambe necessitano di uno stesso ammontare C di capitale iniziale che, per semplicità, si suppone pari ad 1. Ipotizzando che il tasso di sconto intertemporale sia nullo, la differenza tra le due tecnologie é data dai rispettivi rendimenti attesi. La prima consente il mantenimento nel tempo delle risorse investite, mentre le seconda, biperiodale, garantisce al termine del periodo un rendimento pari a C>1. Qualora la relazione tra intermediario e imprenditore dovesse interrompersi in t=1, ne segue che il trasferimento dei diritti di proprietà sull’investimento a favore dell’intermediario riducono il rendimento della seconda tecnologia al miglior uso alternativo, ossia xC>1, con x>1 (4.1) Quindi, causa l’instabilità della relazione contrattuale tra intermediario ed imprenditore, il progetto può essere finanziato solo per la porzione di rendimento xC e non per il suo effettivo valore intrinseco pari a C, risultando così di fatto illiquido. Qualora i diritti di proprietà fossero trasferiti ad un intermediario diverso da quello iniziale, il valore dell’utilizzo alternativo del progetto diminuirebbe, con un suo conseguente aumento dell’illiquidità. Il nodo critico è, quindi, strettamente legato all’incompletezza dei contratti, che non vincolano i fondi destinati all’investimento per tutta la durata necessaria affinché esso consegua i suoi rendimenti massimi. Tale problema è risolto nel modello di Diamond e Rajan (2000), grazie all’introduzione del contratto di deposito a vista, che caratterizza la fase di raccolta fondi dell’intermediario. Così, come già nel Diamond e Dybvig (1983), quella tipologia di contratto è strutturata su tre fondamentali 138 caratteristiche: discrezionalità nella richiesta del prelievo, valore predeterminato dello stesso, principio del servizio sequenziale (first-come first-served). Già Diamond e Dybvig (1983) avevano messo in evidenza come il diritto incondizionato di prelievo esercitabile dai depositanti creasse un problema di azione collettiva, in quanto ogni depositante è di fatto incentivato ad anticipare il comportamento degli altri agenti per evitare che, al momento della sua richiesta, la banca non disponga delle risorse necessarie per far fronte al rimborso. Su questo presupposto si fondavano le motivazioni che inducevano i depositanti a ricorrere alle corse agli sportelli, con le note conseguenze di fragilità del sistema bancario. Ora, in Diamond e Rajan (2000), l’esposizione del sistema bancario ad eventuali “reazioni collettive” è lo strumento in grado di risolvere l’incompletezza dei contratti tra intermediario e depositante; la fragilità delle banche, in ultima analisi, rappresenta un fattore chiave che consente di mitigare parzialmente il problema dell’illiquidità dei progetti da finanziare che lo stesso modello evidenzia. Infatti, utilizzando depositi a vista, nello specifico emettendone per un ammontare complessivo pari a xC, ossia al valore del miglior uso alternativo del progetto, l’intermediario si rende particolarmente vulnerabile alle richieste dei risparmiatori. Nel caso in cui, infatti, l’intermediario volesse interrompere il finanziamento con l’impresa, i depositanti potrebbero punire questo comportamento con una corsa agli sportelli. Il punto cruciale del modello è evidenziare come il panic run sia una vera strategia dei risparmiatori, una “minaccia credibile” per punire l’intermediario, vincolandolo di fatto a rispettare il contratto con gli imprenditori. Un intermediario che gode di solida reputazione verso i suoi depositanti, infatti, è in grado di reperire sul mercato nuove risorse liquide per fronteggiare le richieste di depositi garantendo allo stesso tempo ai prenditori di fondi il rispetto delle condizioni contrattuali pattuite. Eviterebbe così interruzioni dei flussi finanziari o richieste di rimborso anticipato. In sintesi, proprio grazie alla “fragilità della banca” ed alla “minaccia credibile” posta dai depositanti tramite la corsa agli sportelli, l’intermediario non è incentivato a ridiscutere la remunerazione pattuita con i suoi datori di fondi. Egli, quindi, non estrae una extra-rendita dal suo vantaggio informativo e, in ultima analisi, riesce a creare liquidità pari al miglior uso alternativo del progetto da finanziare (ovvero, alla quota xC). Qualora l’intermediario, infatti, scegliesse di raccogliere fondi tramite altri strumenti finanziari (ad esempio gli stessi depositi a vista ma senza la clausola del servizio sequenziale), egli sarebbe in grado di far leva sulla sua maggiore disponibilità di informazioni per rinegoziare i termini del contratto. Egli sarebbe altresì in grado di estrarre una rendita dalla relazione con i 139 depositanti in quanto, come definito dal modello, è solo l’intermediario che può individuare il miglior uso alternativo del progetto. In conclusione, in assenza di incertezza sulla realizzazione degli investimenti finanziati, la fragilità del sistema finanziario è un pivot che favorisce l’allocazione delle risorse e un corretto svolgimento della relazione tra depositante, intermediario e prenditore di fondi. Il rischio di corse agli sportelli, infatti, non è altro che “risposta strategica” dei depositanti all’eventuale “comportamento opportunistico” dell’intermediario. Introducendo nel modello anche l’incertezza, le principali conclusioni fin qui esposte non mutano, anche se si accentua la fragilità degli intermediari finanziari, che potrebbero subire il ritiro anticipato dei depositi indipendentemente dall’aver o meno implementato comportamenti opportunistici. L’incertezza, infatti, implica che i risultati del progetto finanziato possano variare all’interno di un intervallo conosciuto. In altri termini, il rendimento C è una variabile causale che, per semplicità, si ipotizza che possa assumere due valori: Ch (esito favorevole) Cl (esito sfavorevole) (4.2) con Ch>Cl. (4.3) Il valore effettivo di C è osservabile solo alla realizzazione dell’investimento, al tempo t=2; quindi non può essere utilizzato nel momento in cui vengono stipulati i contratti. Considerata l’incertezza sui rendimenti dell’investimento, per l’intermediario sarebbe più conveniente raccogliere capitali utilizzando sia depositi a vista sia altri strumenti finanziari che prevedano la possibilità di vincolare il capitale all’investimento effettuato (debito subordinato oppure capitale di rischio). Tuttavia, il deposito a vista è lo strumento che garantisce il trasferimento totale delle risorse dai risparmiatori al progetto finanziato, al contrario di altre forme di raccolta che permetterebbero all’intermediario di fare leva sul suo vantaggio informativo ed ottenere una rendita. La banca, infatti, è incentivata a rinegoziare i termini dell’accordo con i risparmiatori non depositanti, minacciando di non utilizzare le sue abilità specifiche e trasferire direttamente ai finanziatori i diritti di proprietà sul progetto, insieme agli obblighi verso i depositanti. I finanziatori, non avendo avuto contatti diretti con l’impresa, non possono individuare un miglior uso alternativo del progetto; il rendimento complessivo dello stesso diminuisce e, quindi, la minaccia della banca è credibile al punto da indurre i finanziatori “non depositanti” ad accordare all’intermediario una rendita per la funzione svolta. Considerando d la quota di finanziamenti raccolti sotto forma di depositi, con xC che indica il valore del miglior uso alternativo del progetto, la banca potrebbe raccogliere depositi per un valore tale che d>xC. 140 Qualora la banca scegliesse di trasferire ai depositanti i diritti di proprietà del progetto, questi sarebbero in grado di ottenere un rendimento pari a: x’C-d, (con x’<x) (4.4) Infatti, l’intermediario è incapace di individuare il miglior uso alternativo e, allo stesso tempo, obbligato a far fronte ai depositi raccolti dalla banca. L’alternativa per i finanziatori potrebbe essere di condividere con l’intermediario la rendita (x-x’)C cosa che, tuttavia, implicherebbe una forma di “quasi rendita” per la banca. È evidente che al crescere di d tale rendita tende a diminuire, fino a diventare nulla nell’eventualità in cui il prenditore di fondi non riesca ad effettuare pagamenti sufficienti per restituire i depositi, creando così le condizioni per una corsa agli sportelli. Il modello, in sintesi, evidenzia un trade-off tra rigidità della struttura finanziaria della banca-intermediario e potere contrattuale nei confronti dei prenditori di fondi. Un intermediario che dal lato dell’attivo sia caratterizzato da una struttura finanziaria rigida, quindi con quote relativamente basse di depositi a vista, rende più credibile la minaccia nei confronti del prenditore di fondi di interrompere i flussi finanziari del progetto e, di conseguenza, si pone nella condizione di poter richiedere all’imprenditore pagamenti aggiuntivi e limitare la sua rendita. Al contrario, se il passivo dell’intermediario è composto in misura prevalente da depositi a vista, la sua posizione nei confronti del prenditore di fondi è indebolita, anche se sono minori le possibilità che si verifichi una corsa agli sportelli, in quanto l’evento sarebbe generato dai depositanti solo come risposta strategica ad un eventuale comportamento opportunistico della banca. In altri termini, in assenza di fragilità il modello non è in grado di operare. Questa caratteristica si configura, quindi, come il fondamento operativo del sistema dell’intermediazione indiretta. La possibilità di subire una corsa agli sportelli, infatti, costringe le banche ad implementare comportamenti non opportunistici, corretti e sviluppati sulle relazioni di lungo periodo con i propri prenditori di fondi. Almeno due sono, a nostro avviso, il tipo di riflessioni che possono seguire da questa analisi. La prima, come implicazione di policy, evidenzia che la tutela della stabilità bancaria non può prescindere dallo sviluppo di adeguate forme di governance dello stesso settore, ossia da un assetto del mercato capace di sviluppare forti sinergie tra intermediari e prenditori di fondi (relationship banking)13. La seconda, in un’ottica più strettamente 13 L’esistenza di un rapporto esclusivo tra banca ed intermediario costituisce l’essenza del relationship banking, la cui validità a livello teorico è dimostrata da Hellwig (1989), mentre empiricamente le verifiche di tale ipotesi non consentono di giungere ad un esito univoco. In particolare, alcune indagine condotte su sistemi produttivi, come quello italiano, caratterizzati 141 regolamentare, afferma, invece, la necessità di tollerare un certo livello di fragilità del sistema bancario, che rappresenta la fondamentale variabile di contesto che permette il corretto svolgimento della relazione risparmiatorebanca-impresa. Una regolamentazione di stabilità “perfetta”, che elimini la fragilità del sistema, subordinerebbe il funzionamento dell’intermediazione indiretta ai comportamenti opportunistici delle imprese bancarie, riducendone di fatto la capacità di allocare risorse finanziarie nei settori dell’economia reale. Al contrario, una regolamentazione che trascuri eccessivamente il problema, rischierebbe di minare la fiducia dei risparmiatori nel sistema, diminuendo, ancora una volta, la portata della funzione allocativa degli istituti di credito. In sintesi, il dilemma del “regolatore finanziario” sta proprio nel mantenere un corretto equilibrio tra questi due, quasi opposti, obiettivi: rafforzare la fiducia nel sistema, garantendone la stabilità, e mantenere il controllo della fragilità finanziaria degli intermediari, tollerando, quindi, un certo grado di instabilità sistemica. 5. Quali le risposte di policy: gli strumenti tradizionali dal safety net 5.1. L’assicurazione dei depositi L’assicurazione dei depositi pubblica è stata introdotta inizialmente negli Stati Uniti nel 1933, per promuovere il rilancio del sistema finanziario dopo la Grande Crisi del 1929. A rigor di logica, il suo scopo risiede nelle già esposte motivazioni inerenti la protezione del contraente debole, il depositante, inteso come soggetto che non ha facile accesso alle informazioni utili per la valutazione del patrimonio economico e finanziario dell’intermediario a cui affida i propri risparmi. Nella pratica, invece, tale strumento di regolamentazione ha avuto un impatto rilevante sulla attività bancaria soprattutto dei piccoli istituti con operatività prevalentemente locale i quali, grazie all’assicurazione dei depositi riescono a contenere i costi di gestione della raccolta. L’esistenza del meccanismo assicurativo, infatti, fa sì che i risparmiatori non richiedano sui fondi depositati una remunerazione legata a fattori di rischio. Essi sono dalla presenza di numerose piccole e medie imprese ed una governance del sistema finanziario di tipo bancocentrico evidenziano come il meccanismo del relationship banking risulti indebolito dalla diffusione della pratica del multiaffidamento (Conigliani ed al. 1997). Tuttavia, recenti indagini effettuate su campioni di piccole imprese e microimprese attestano un rafforzamento del legame che intercorre tra imprenditore ed intermediario finanziario, riportando come la pratica del multiaffidamento tenda ad essere meno utilizzata al decrescere della dimensione d’impresa, con conseguente rafforzamento del ruolo svolto dall’intermediario bancario locale (Morelli 2004; Cacciamani, Vivace 2004). 142 consapevoli che anche in caso di insolvenza della banca, i fondi assicurativi garantiranno loro il recupero del capitale, ovviamente nei limiti della copertura concessa. Le banche, quindi, possono offrire sui depositi tassi di interesse più bassi, ossia al netto del premio per il rischio, garantendosi di fatto un canale privilegiato per la raccolta di fondi a costi contenuti14. Questa “doppia finalità” dell’assicurazione dei depositi, ovvero l’uso distorsivo di questo strumento di regolamentazione, è stata più volte sottolineata sia dalla teoria sia dai riscontri empirici. Lo stesso Greenspan (2003) ha evidenziato come la soglia di copertura assicurativa per complessivi 100.000 dollari fissata negli Stati Uniti nel 1980 avesse in realtà lo scopo di consentire alle casse di risparmio locali di eludere la normativa federale sulla remunerazione dei depositi sotto i 100.000 dollari15. Già nel 1994, con l’estensione del Mercato Unico e nella prospettiva della convergenza economica verso l’unione monetaria, la Commissione Europea ha emanato una direttiva tesa ad armonizzare le regole inerenti i sistemi di garanzia dei depositi (Direttiva 94/19CE) che prevedeva un livello minimo di garanzia di 20.000 euro per depositante. In Italia tale direttiva è stata recepita nel 1996 (D.L. 4 dicembre 1996 n. 659) e stabilito che il limite massimo di rimborso non può essere inferiore a 103.291,38 euro per depositante, un limite anche eccessivamente elevato soprattutto se rapportato al PIL procapite del nostro Paese16. Questo dato, a nostro avviso, conferma indirettamente il fatto che l’assicurazione dei depositi, anche in Italia, è intesa assicurare un canale di raccolta fondi a costi contenuti per le imprese bancarie. Se i depositi bancari si considerano come un semplice strumento di pagamento utilizzato dagli 14 Ancora oggi, infatti, il canale dei depositi rappresenta la principale fonte della raccolta bancaria; essi pesano per il 61,8% sulla raccolta delle banche italiane nel 2003, per un controvalore di circa 1.100 miliardi di euro (Banca d’Italia, 2004, pag. 184). 15 Le norme federali, infatti, stabilivano massimali di rendimento sui depositi bancari inferiori ai 100.000 dollari. Per i risparmiatori, in assenza di un meccanismo assicurativo, tali limiti di fatto rendevano lo strumento del deposito bancario meno appetibile di altri prodotti finanziari; essi avrebbero incassato bassi interessi e sostenuto interamente i rischi derivanti dalla possibile insolvenza della banca; con la copertura assicurativa proprio a 100.000 dollari, i depositi bancari non incorporavano più il rischio di default della banca, rendendo così “accettabile” per i risparmiatori la loro pur più bassa remunerazione. 16 La garanzia del rimborso è estesa anche ai depositanti delle succursali italiane di banche con sede legale in altri paesi. Il finanziamento del fondo avviene tramite versamenti degli istituti di credito consorziati, in misura compresa tra lo 0,4 e lo 0,8% dei soli fondi rimborsabili (depositi, certificati di deposito, buoni fruttiferi nominativi della clientela ordinaria). Per quanto riguarda, poi, l’indice di copertura dei depositi, calcolato come rapporto tra la copertura offerta dall’assicurazione dei depositi ed il PIL pro-capite, esso risulta per il sistema italiano pari a 6,1, quando la media dei paesi europei è di poco inferiore a 1,6. In Europa solo la Norvegia offre una copertura maggiore, con valori dell’indice pari a 7,9; sistemi finanziari di tipo banco-centrico, quindi con struttura abbastanza simile alla nostra, come Francia e Germania, attestano i valori dell’indice rispettivamente al 2,6 e 0,8 (Garcia, 2002). 143 utenti per la gestione dei loro scompensi di cassa, il massimale assicurato è al quanto elevato. Esso supera di molto il livello medio di transazioni sostenibili da ogni individuo, una sorta di velocità di circolazione della moneta della teoria quantitativa17, indicato come proxy appunto dal PIL pro-capite. Una così alta copertura assicurativa tende ad affermare i depositi bancari come vero strumento di investimento, caratterizzato da basso rendimento e rischio nullo, prospettiva che amplia il volume della raccolta bancaria. Tradizionalmente, l’assicurazione dei depositi è un utile strumento di regolamentazione del sistema bancario, tutela gli interessi dei piccoli risparmiatori i quali, data la loro incapacità di coordinarsi, non sono in grado di monitorare le azioni ed i risultati economici ottenuti dai gruppi di manager ed azionisti della banca. Tuttavia, la teoria economica ha spesso evidenziato come tale strumento possa avere conseguenze negative proprio sul comportamento di questi ultimi, in quanto la tutela accordata ad una cospicua quota del passivo della banca incentiva il suo gruppo di controllo ad assumere comportamenti improntati all’azzardo morale. Infatti, essa spinge i manager ad incrementare il rischio del portafoglio impieghi dell’istituto di credito, finanziando progetti ed investimenti caratterizzati da una maggiore volatilità degli utili, ma da possibili rendimenti futuri più elevati. Il maggior rischio assunto sugli impieghi, infatti, non genererebbe pressioni negative dal lato della raccolta in quanto i depositanti, tutelati dal fondo assicurativo, non hanno alcun incentivo a monitorare la rischiosità complessiva del proprio istituto, riducendo così la possibilità che eventuali perdite sopportate dalla banca si traducano in una corsa agli sportelli. In caso di fallimento, infatti, i depositi sono rimborsati ed i costi di tale operazione sono a carico del contribuente, proprio per le finalità pubbliche che lo strumento ricopre. È per questo che la teoria economica ha cercato di evidenziare possibili schemi di assicurazione dei depositi che, da un lato, consentissero allo strumento di assolvere il suo ruolo di tutela della micro e macrostabilità del sistema finanziario, dall’altro riducessero l’incentivo per il management della banca ad utilizzare l’azione regolamentare esclusivamente a fini speculativi. Sotto questo profilo, un primo elemento significativo è nelle modalità di finanziamento del fondo assicurativo, ex ante oppure ex post, rispetto al verificarsi di un’insolvenza. I premi pagati ex ante permettono di precostituire un fondo, alimentato dai versamenti di tutti gli istituti di credito che aderiscono al sistema di assicurazione, che può essere immediatamente utilizzato in caso di necessità. Il finanziamento ex post, invece, prevede che in caso di necessità le banche 17 Il riferimento è all’equazione degli scambi ed a quella delle scorte elaborate rispettivamente da Fisher (1911) e Pigou (1949). 144 che aderiscono al sistema concorrono alla copertura della perdita generata dall’istituto insolvente versando al fondo il proprio contributo18. Un secondo aspetto rilevante fa riferimento alle modalità di contribuzione del fondo, in particolare per gli schemi che prevedono versamenti ex ante. Tradizionalmente, ogni istituto di credito versa un premio fisso per unità di deposito, sistema che potrebbe ampliare il meccanismo di azzardo morale insito nell’assicurazione dei depositi, date le possibili conseguenze sia sul comportamento dei depositanti, sia su quello dei manager della banca. I primi, infatti, sono maggiormente disincentivati dal monitorare la rischiosità ed il comportamento tenuto dai manager, in quanto il pagamento in somma fissa rende omogeneo per tutti il costo della raccolta, appiattendo, di fatto, le condizioni di offerta del prodotto. Tale meccanismo, inoltre, rende di fatto neutrale per i depositanti la scelta tra istituti di credito dato che tutte le banche sul mercato si caratterizzano per uno stesso livello di rischiosità. I manager, allo stesso tempo, sono incentivati a perseguire politiche di investimento particolarmente rischiose in quanto, in caso di successo, tale comportamento genera elevati profitti, dove per la banca in caso di insuccesso, invece, la presenza dell’assicurazione dei depositi e dell’istituto della responsabilità limitata riduce l’onere di rimborso dei depositi alla sola parte eccedente il capitale proprio. Per superare problemi di questo tipo, sarebbe possibile elaborare schemi di assicurazione dei depositi che prevedano un causale tra versamento dell’istituto di credito e sua rischiosità intrinseca; tuttavia, soluzioni di questo tipo sono state fortemente criticate sotto il profilo teorico essenzialmente per due ordini di motivi (Goodman, Santomero, 1996). Il primo è che è possibile dimostrare che l’utilizzo di strumenti di controllo del rischio complementari all’assicurazione dei depositi (ispezioni, sanzioni, analisi degli indici patrimoniali dell’istituto di credito) renderebbe gli effetti di un premio fisso del tutto identici a quelli di un premio variabile in base al grado di rischio. Il secondo è che il premio sensibile al rischio potrebbe ampliare la prociclicità dell’azione degli istituti di credito, in quanto si genererebbe un circolo vizioso tra rischio di credito, premi assicurativi e trend economico. In fasi recessive, infatti, il rischio di credito sopportato dalle banche tende ad aumentare, proprio per la maggiore difficoltà dei prenditori di fondi di effettuare i rimborsi; tale incremento si rifletterebbe sui premi assicurativi dai versare ai fondi di tutela per i depositanti, con ulteriore aggravio per la 18 Questo schema ex post è particolarmente criticato, in quanto potrebbe concorrere ad alimentare la dimensione di eventuali crisi sistemiche all’interno del settore. Si veda anche Freixas, Parigi (1998). 145 liquidità e la gestione corrente dell’istituto quindi, in definitiva, maggiore possibilità di incorrere in una crisi di liquidità19. Oltre alle obiezioni di natura strettamente tecnico-economica appena descritte, la difficoltà principale di implementare uno schema di premi correlato alla rischiosità sopportata da ogni singolo istituto è legata alla definizione empirica di determinazione del premio variabile. A tal proposito lo schema logico più diffuso è senza dubbio quello elaborato da Merton (1977), tramite il quale si quantifica il “premio equo”, ossia quel premio che garantisce profitti nulli all’assicuratore, come il prezzo di un’opzione put emessa dall’agenzia assicurativa a favore degli azionisti sui depositi assicurati dalla banca. In caso di fallimento dell’istituto di credito, gli azionisti perdono il capitale e l’agenzia assicurativa, subentrando nel controllo, assume un obbligo nei confronti dei depositanti. In tale schema il valore dell’opzione è da un lato correlato positivamente alla probabilità di fallimento della banca, dall’utilizzo della leva finanziaria e dalla maggiore variabilità dell’attivo netto, dalla frequenza delle ispezioni, dalle quali potrebbero emergere dati ed informazioni rilevanti per determinare una possibile situazione di fallimento e dall’altro, correlato negativamente al livello dei tassi di interesse che se bassi, aumentano il valore scontato dei benefici futuri dell’esercizio dell’opzione. A rigor di logica, tuttavia, l’utilizzo del metodo delle opzioni per fissare il valore del premio assicurativo è oggetto di critiche, specie per la difficoltà di raccogliere informazioni disponibili, idonee per determinare il valore dell’opzione (Marotta, Pittaluga 1993b). Infatti, il valore delle opzioni, se calcolato in base ai prezzi di mercato, non è in grado di riflettere efficacemente la reale rischiosità della banca, in quanto tali prezzi non incorporano informazioni di tipo privilegiato a disposizione solo del gruppo di manager ed azionisti dell’istituto di credito. Inoltre, qualora la determinazione del premio fosse basata su informazioni ex post (ad esempio le quotazioni azionarie), si produrrebbero effetti avversi sotto il profilo della stabilità; risulterebbero colpite con premi più elevati proprio quelle banche in situazione finanziaria critica e, quindi, con manager più propensi ad esporsi al rischio nel tentativo di ottenere profitti. Lo schema di pagamenti ex ante con premio sensibile al rischio è stato adottato negli Stati Uniti, a seguito dell’emanazione del Federal Deposit 19 Numerosi studi hanno investigato la natura prociclica dell’attività bancaria, che potrebbe esercitare effetti di razionamento del credito sul sistema produttivo, concludendo in larga misura che le politiche delle banche tendono a seguire l’andamento del ciclo economico. Anche recenti indagini empiriche hanno evidenziato, infatti, che le banche utilizzano gli accantonamenti al fine di stabilizzare il proprio reddito nel tempo e solo l’esistenza di una relazione positiva di questi con gli utili dell’intermediario bancario contribuisce, almeno in parte, ad attenuare l’effetto prociclico delle loro politiche di bilancio. Per approfondimenti si rimanda a Berger, Udell (2002); Gambacorta, Mistrulli (2003); Quagliarello (2004). 146 Insurance Corporation Improvement Act (FDICIA) nel 1991 e del successivo Deposit Insurance Fund Act del 1996. Tali interventi normativi hanno ridisegnato il sistema dell’assicurazione dei depositi statunitense, prevedendo due fondi per l’assicurazione dei depositi che si affiancano al Bank Insurance Fund ad al Saving Association Insurance Fund. Il premio versato dalle banche ai due fondi è composto da una quota fissa, pari allo 0,0023% per deposito assicurato, ed una variabile in base alla rischiosità dell’istituto di credito20. Quest’ultimo è nullo per le banche inserite nella classe di rating più elevata e può raggiungere un massimo dello 0,0008% per deposito assicurato proprio in detta classe di rating. Il regolamento dei fondi, inoltre, prevede che una volta raggiunta la soglia minima di consistenza pari all’1,25% del totale depositi assicurati, il premio fisso diventi nullo. Tuttavia, ed in considerazione del fatto che tali valori erano già stati raggiunti nel 1995, le banche inserite nella più alta classe di rating, ovvero il 95% del totale, nel 2002, non sono soggette al pagamento di alcun premio. Non così, in Italia dove il Fondo Interbancario per la Tutela dei Depositi (FITD) prevede uno schema di pagamenti ex post a premio fisso, calcolato in percentuale (tra lo 0,4% e lo 0,8%) dei soli fondi assicurabili21. 5.2. Il credito di ultima istanza Il credito di ultima istanza è sicuramente lo strumento di regolamentazione di stabilità del sistema bancario più antico e diffuso, il cui scopo principale è sostenere istituti di credito momentaneamente in stato di illiquidità e, contemporaneamente, non in grado di ottenere prestiti dal mercato a condizioni normali. L’insieme di questi due fattori, in assenza di uno strumento di regolazione, comporterebbe il passaggio della banca dall’illiquidità all’insolvenza, con conseguenze negative sul funzionamento dell’intero sistema dei pagamenti22. 20 In particolare per il calcolo della parte variabile le banche vengo suddivise in nove classi di merito, corrispondenti alla combinazione di tre classi inerenti il livello di patrimonializzazione e tre regimi di supervisione. 21 Il FITD è stato creato nel 1987; la sua copertura è riservata ai depositi bancari e, in estensione, a tutti quei prodotti finanziari in qualche misura ad essi collegati ed utilizzati dai risparmiatori come mezzo di pagamento. Per un elenco completo degli strumenti esclusi dalla copertura, si rimanda a Fondo Interbancario Tutela dei Depositi (2004, in particolare pagg. 68). 22 In particolare, la struttura e le modalità di funzionamento del sistema dei pagamenti svolgono un ruolo fondamentale per stabilire i possibili effetti di una crisi di illiquidità bancaria. Infatti, gli effetti di uno stato di illiquidità di una banca in un sistema a regolazione lorda, con trasferimento immediato di depositi contro titoli, sono ridotti rispetto a quelli generati all’interno di sistemi a regolazione netta. In quest’ultimo caso, la mancata conclusione delle transazioni compiute da un operatore in difficoltà potrebbe generare un effetto a catena e impedire anche la chiusura di tutte le transazioni finanziarie con la banca illiquida, sia 147 Così come per l’assicurazione del depositi, anche nell’implementare il credito di ultima istanza il problema principale per il regolatore è nella possibilità che tale strumento generi comportamenti improntati all’azzardo morale da parte dei potenziali beneficiari. La presenza di un prestatore di ultima istanza, che eviti la crisi di insolvenza della banca fornendo le risorse liquide necessarie, potrebbe spingere i manager dell’istituto di credito ad adottare politiche di impieghi particolarmente rischiose, in quanto lo strumento di vigilanza svolgerebbe indirettamente il compito di sostegno in caso di crisi e difficoltà. Il dibattito sul disegno istituzionale e le opportunità di utilizzare il credito di ultima istanza è tuttavia molto articolato nelle sue posizioni e, nonostante i successivi sviluppi e raffinamenti teorici, resta fondamentalmente legato ai principi evidenziati da Bagheot (1873) secondo il quale una sua imprescindibile caratteristica risiede nella possibilità di distinguere tra banche illiquide e banche insolventi. Infatti, il credito di ultima istanza dovrebbe essere concesso solo ad intermediari bancari colpiti da crisi di liquidità, ma potenzialmente solventi, ovvero istituti che detengono un attivo di bilancio almeno pari alle loro passività ma, per il mismatching delle scadenze tra poste dell’attivo e del passivo, non sono in grado di far fronte puntualmente alle obbligazioni assunte o alle richieste di liquidità dei depositanti. In sintesi, il ragionamento verte, al solito, sulla particolarità della composizione del bilancio della banca, con passività liquide, rappresentate da depositi, e presenza dal lato dell’attivo di titoli di debito essenzialmente orientati al medio-lungo termine sulla base delle esigenze dei prenditori di fondi. La banca nello svolgere il suo compito di trasformare le scadenze ed avvicinare le richieste di depositanti ed imprenditori è tradizionalmente esposta all’illiquidità. L’intervento del credito di ultima istanza, quindi, si colloca sostanzialmente all’interno di questa problematica, configurando tale strumento regolamentare come una soluzione normativa all’illiquidità intrinseca di un bilancio bancario. Il prestatore di ultima istanza dovrebbe intervenire per garantire che temporanee crisi di illiquidità di un istituto di credito non sfocino in crisi di insolvenza, con il conseguente fallimento della banca e le inevitabili ripercussioni sull’equilibrio del sistema dei pagamenti. La crisi di una banca illiquida, seppur solvente, costituirebbe un costo elevato per la collettività. Essa, da un lato, potrebbe innescare un meccanismo di reazione nel sistema interbancario e generare pressioni sulla redditività e la direttamente che indirettamente. In altri termini, sotto il profilo della stabilità, nel sistema a regolazione netta si possono individuare due possibili inefficienze: “il contagio da insolvenza”, quando una banca solida scambia attività proprie di buona qualità contro quelle di cattiva qualità dell’istituto insolvente; “il contagio di sicurezza”, quando la banca solvente assorbe le perdite dell’istituto in crisi, permettendone la sopravvivenza nel sistema ma determinando, un costo sociale per le risorse impegnate nel salvataggio e, quindi, non incanalate verso altri utilizzi più remunerativi e produttivi (Freixas, Parigi 1998). 148 liquidità di altri istituti, dall’altro, nel caso di liquidazione, comportare la perdita del suo patrimonio informativo, inteso come conoscenza del sistema imprenditoriale nel quale opera e dei suoi specifici prenditori di fondi. Ancora una volta, il credito di ultima istanza fonda la sua ragion d’essere proprio su due pilastri: garantire la stabilità del sistema finanziario, tutelandolo da shock di liquidità e ottimizzare l’allocazione delle risorse, evitando la perdita del patrimonio informativo della banca. Infatti, l’istituto illiquido, allorché solvente, una volta ricevuta la liquidità aggiuntiva necessaria per far fronte alle proprie scadenze, sarà in grado di restituire il prestito ricevuto, grazie alla vendita di parte delle proprie attività. Si eviterebbe così la perdita di un asset prezioso, quello dei rapporti di informazione creati dalla banca con i suoi prenditori di fondi e, al tempo stesso, si tutelerebbero gli altri intermediari dal possibile propagarsi di shock di liquidità. Al contrario, qualora il credito di ultima istanza fosse erogato a favore di un istituto di credito illiquido ed anche insolvente, i suoi effetti sarebbero assolutamente nulli. Per questa banca, infatti, la crisi di liquidità tenderebbe a configurarsi non come un evento episodico, ma come qualcosa di strutturale, destinato a perdurare anche nel medio-lungo periodo a causa dell’insufficienza del suo patrimonio attivo a compensare le esposizioni assunte dal lato del passivo. Il credito di ultima istanza si connoterebbe esclusivamente come un costo sociale, in quanto comporterebbe l’impiego di risorse liquide senza ottenere i benefici previsti dallo strumento regolamentare in termini di tutela della stabilità finanziaria e delle posizioni delle controparti esposte con la banca in crisi. Il disegno istituzionale sottostante di questo strumento è molto complesso; seguendo l’analisi di Fischer (1999) non possono essere taciute alcune considerazioni di carattere generale riguardo la figura del prestatore di ultima istanza, la selezione dei potenziali beneficiari, gli strumenti ed i meccanismi da porre in essere per evitare comportamenti opportunistici da parte delle banche. Tradizionalmente, il prestatore di ultima istanza è prerogativa della Banca Centrale. Essa, come istituzione pubblica, esercita poteri di vigilanza sul settore bancario, possiede quindi una conoscenza più ampia di altre istituzioni dell’universo di questo settore e del suo controllo ma, soprattutto, emette moneta legale. Generalmente il credito di ultima istanza non sempre è concesso tramite la creazione di nuova moneta; piuttosto la Banca Centrale utilizza la propria reputazione per farsi promotrice presso altri soggetti privati per la concessione del prestito all’istituto illiquido. A tal proposito, la creazione del Sistema Europeo delle Banche Centrali (SEBC) ed il passaggio della sovranità monetaria alla Banca Centrale Europea (BCE) hanno contribuito al rilevante dibattito sulle modalità di erogazione del credito di ultima istanza all’interno dell’area euro. 149 Attualmente, come previsto dallo statuto del SEBC (art. 14.4), le singole banche centrali nazionali possono erogare questo tipo di credito nei limiti delle proprie disponibilità di bilancio, con la concessione dello stesso tra banca nazionale ed istituto in difficoltà tramite lo scambio di attività a basso profilo di rischio (prevalentemente titoli di stato) contro prestiti al settore privato. Tali attività costituiscono, successivamente, le garanzie che l’istituto in difficoltà rilascia alla BCE al fine di ottenere il rifinanziamento marginale. Il meccanismo appare, tuttavia, poco tempestivo e per tali motivi oggetto di pesanti critiche; è per questo che da più parti si ritiene opportuno istituire un Osservatorio Europeo del rischio anche all’interno della stessa BCE, così da poter garantire omogeneità tra le regole di vigilanza imposte dalle singole autorità nazionali e attribuire alla BCE un maggiore controllo e monitoraggio sui potenziali fattori di rischio dell’intero sistema bancario europeo (Schuler, 2003). Per le modalità di erogazione del credito di ultima istanza, ovvero negoziazione bilaterale oppure operazioni di mercato aperto, poi, esse tenderebbero ad alterare le regole del mercato, instaurando un meccanismo di ricorso ai creditori di ultima istanza non certo e, soprattutto, come modalità d’intervento, definizione dei tassi di interesse e tempi di rimborso, variabile sulla base della negoziazione completata. Per ovviare tali problemi, si è suggerito l’utilizzo esclusivo di operazioni di mercato aperto che, senza dubbio, garantirebbero, invece, la trasparenza dell’operazione. Esse, tuttavia, potrebbero risultare non efficaci specialmente se poste con finalità di credito di ultima istanza in condizioni di instabilità dei mercati interbancari. In questo contesto, in assenza di una negoziazione diretta, l’istituto in difficoltà potrebbe non beneficiare della liquidità in eccesso immessa sul mercato che, invece, andrebbe a vantaggio di tutti gli altri operatori23. L’aspetto principale del credito di ultima istanza, in sintesi, resta la tempestività, ossia la possibilità per l’Autorità di vigilanza di poter immediatamente ripianare uno squilibrio di mercato, di natura temporanea, che altrimenti, se non tempestivamente contrastato, potrebbe creare forti conseguenze sul funzionamento del sistema dei pagamenti. Si schiude così la possibilità che tale strumento, confinato tradizionalmente all’interno della vigilanza sul settore bancario, possa ampliare il proprio raggio d’azione a favore anche di intermediari non bancari, al fine di configurare il credito di ultima istanza come uno strumento regolamentare per il controllo degli eccessi di domanda di liquidità24. 23 Per una rassegna completa sul tema si veda Goodfriend e King (1988). A conferma di questa tesi è l’intervento congiunto promosso da FED e BCE nel settembre 2001 finalizzato a garantire sufficiente liquidità ai sistemi bancari per consentire la riapertura delle principali piazze finanziarie dopo gli attentati dell’11 settembre. Anche se l’azione non è di per sé configurabile come un intervento di credito di ultima istanza in senso stretto, non 24 150 6. Dalla vigilanza strutturale alla vigilanza prudenziale Fino agli anni Ottanta, il ruolo centrale svolto della banca all’interno del sistema economico presupponeva la necessità di regolamentare il settore, sotto due profili: tutela dei depositanti e della fiducia nel sistema, evitare un’eccessiva concentrazione di risorse nelle mani di pochi intermediari. Il primo è stato tradizionalmente perseguito attraverso il vincolo della riserva obbligatoria, oltre all’assicurazione implicita data dalla Banca Centrale in qualità di prestatore di ultima istanza. La riserva, strumento regolamentare del tutto atipico rispetto a quelli in uso in altri settori dell’economia, vincola una quota delle risorse disponibili della banca, obbligandola a depositare presso un conto aperto con la Banca Centrale una frazione della sua liquidità25. Obiettivo principale è assicurare una “scorta di capitale”, disponibile per far fronte alle eventuali richieste dei risparmiatori. Con il tempo, la riserva obbligatoria ha assunto sempre più il ruolo di strumento di politica monetaria, piuttosto che di semplice leva regolamentare, un meccanismo di fatto in grado di creare uno svantaggio competitivo tra le imprese bancarie e quelle di altri comparti dell’intermediazione finanziaria. Per tale motivo in molti paesi si è optato per eliminare o ridurre notevolmente il suo impatto sul sistema (Di Giorgio, Di Noia, 2004b). Il credito di ultima istanza, invece, come in precedenza esaminato, crea le basi per l’insorgere di problemi di moral hazard per i manager dell’impresa-banca. Se l’obiettivo primario è, quindi, perseguire un’equa distribuzione delle risorse, l’intervento regolamentare prevede due forme: le nazionalizzazioni delle banche private ed i divieti all’espansione geografica e gestionale dell’attività bancaria. Paradigma di fondo di questa impostazione è uno schema regolatorio del tipo struttura-comportamento-performance, comune a quanto accedeva anche per la regolamentazione dei principali settori dell’economia reale, almeno fino agli anni Ottanta. I controlli strutturali all’entrata del mercato del credito esercitati dalle Autorità di vigilanza, che in molti casi coincidevano con le Banche Centrali, avevano un netto predominio sulle altre possibili leve regolamentari. Entrambi questi strumenti, tuttavia, hanno costituito un fallimento per il regolatore. Le banche pubbliche, infatti, hanno evidenziato profili di inefficienza nella gestione delle risorse, tali da rendere i costi sostenuti maggiori dei potenziali benefici che, sotto il profilo della politica economica, si ricavavano dalla gestione statale del sistema di essendo finalizzata al rifinanziamento di un particolare istituto, essa presenta evidenti analogie, sia per modalità operative (l’immissione di nuova liquidità nel sistema), sia per finalità dell’intervento (tutela della stabilità del sistema dei pagamenti) (Marotta, 2003a). 25 Per un’analisi dettagliata sul funzionamento della riserva obbligatoria all’interno degli schemi di politica monetaria, si rimanda a Di Giorgio (2004, cap.3). 151 intermediazione26. Gli stessi limiti operativi, sia in senso geografico che con riferimento alla tipologia di prodotti, sono via via stati facilmente elusi grazie alla rapida introduzione di strumenti finanziari innovativi. Successivamente, le scelte di regolamentazione di stabilità sono state ricondotte nella cornice teorica offerta da Diamond e Dybvig (1983), per i panic run. Da tale impostazione, derivavano schemi regolamentari incentrati su strumenti, come l’assicurazione dei depositi ed il potenziamento della governance a favore delle banche centrali, che potrebbero essere considerati, però, di tipo “passivo”. Essi, infatti, piuttosto che affrontare in maniera diretta la relazione tra attività e passività bancarie, erano rivolti essenzialmente alla creazione di meccanismi di difesa e di tutela per le controparti deboli, i depositanti. A partire dagli anni ’90, lo scenario di riferimento muta radicalmente; tre, a nostro avviso, le principali cause di questo passaggio: la despecializzazione funzionale, il processo di concentrazione dell’industria finanziaria, il rapido sviluppo di prodotti innovativi. La despecializzazione funzionale è stata avviata con la seconda direttiva bancaria comunitaria (n. 89/646CE), che ha rimosso i vincoli, per scadenza, tipo di attività e settore di intervento che di fatto segmentavano il settore nei diversi paesi europei. Essa, infatti, ha legittimato progressivamente imposto il modello renano di banca universale, organizzato secondo una struttura operativa multidivisionale ed abilitata ad operare su una vasta gamma di prodotti finanziari. L’affermazione di tale nuovo modello gestionale ha comportato significativi aumenti del grado di concentrazione del settore finanziario; il fenomeno è stato particolarmente significativo in Europa, dove lo sviluppo del mercato unico dei servizi finanziari e la privatizzazione di numerose banche pubbliche hanno creato un ambiente favorevole ad acquisizioni e fusioni. Tra il 1995 ed il 2000, infatti, la quota di attivo gestito dai conglomerati bancari è aumentata dal 75,1 all’86,5% (De Bonis, 2003, pag. 153). Lo sviluppo ed il consolidamento sui mercati di transazioni con titoli derivati hanno fatto venir meno la tradizionale classificazione degli strumenti bancari, generando pressioni relativamente forti anche sul sistema di controllo e governo della stabilità dell’intero settore. L’innovazione finanziaria, infatti, ha permesso la diffusione di tecniche di gestione del rischio che hanno stravolto la composizione dei portafogli bancari, 26 La privatizzazione del settore bancario è stata uno dei fenomeni economici che hanno caratterizzato l’ultimo decennio nel nostro Paese. Per un esauriente trattazione del tema, si veda Bianchi (2002) e, per l’analisi degli effetti di tale processo sul sistema dell’intermediazione, i recenti lavori di Messori, Tamborini, Zazzaro (2003) e Panetta (2004). Per un confronto internazionale si rimanda ad Aoki (1994, parte IV). 152 permettendo all’impresa-banca di compiere decisivi passi in avanti sotto il profilo della diversificazione degli stessi. In particolare, grazie alla cartolarizzazione ed allo sviluppo del mercato dei prodotti derivati, ora le banche hanno la possibilità di cedere sul mercato strumenti di puro rischio di credito, che migliorano il grado di diversificazione del loro portafoglio. Il proliferare di queste operazioni ha stravolto, per alcuni aspetti, il tradizionale ruolo che gli istituti di credito occupavano nel sistema dell’intermediazione: la banca tradizionale svolgeva la funzione di interfaccia tra risparmiatore e prenditore di fondi finale laddove la banca moderna, invece, si configura come gestore di puro rischio, sia nei confronti della clientela tipica che di altri intermediari. Essa, infatti, si trova al centro di un doppio canale di intermediazione: da una parte la tipica relazione datoreprenditore di fondi, dall’altra essa opera sul mercato del trasferimento del rischio tra le sue controparti dirette come gestore di protezione e garanzia. Questa evoluzione ha accresciuto l’opacità dei bilanci dell’impresa-banca, rendendo più complessa la possibilità di monitoraggio da parte dei suoi azionisti, dei creditori e, soprattutto, dell’Autorità di vigilanza. 7. Conclusioni La specificità della banca e, per alcuni aspetti anche uno dei suoi punti di forza, come argomentano Diamond e Rajan (2000), risiede nella fragilità del suo bilancio. In estrema sintesi, si potrebbe concludere che nonostante siano mutati radicalmente i sistemi di gestione, le aree operative, gli strumenti e le finalità di un’impresa bancaria, dal punto di vita regolamentare i due primari obiettivi da perseguire restano la tutela della stabilità del sistema, e quindi dei risparmiatori, unito al controllo sulla concentrazione delle risorse. È necessario si implementi un sistema di vigilanza in grado di comprendere, valutare e regolare effettivamente il rinnovato ambiente di riferimento dei sistemi finanziari. Sotto il primo profilo, controllo della concentrazione delle risorse, si sta affermando l’idea che il sistema bancario, al pari degli altri settori economici, possa essere efficacemente controllato dalla normativa antitrust, ed è questa la direzione verso cui tende la disciplina sulla concorrenza bancaria nei principali paesi industrializzati27. 27 Fa eccezione l’Italia; va, tuttavia, specificato, la concorrenza nel settore bancario sia stata storicamente vista con sospetto dagli studiosi della bank charter value (Keeley, 1990; Booth, Takor, 1993) i quali argomento che un’eccessiva frammentazione del settore comporterebbe una riduzione del valore della licenza bancaria (la bank charter value, appunto), costringendo i manager ad assumere rischi più elevati al fine di tutelare il valore dell’impresa-banca. Altri modelli (De Palma, Gary-Bobo, 1996; Mutetes, Vives, 1996; Cordella, Yetati, 2002) invece, non individuano nell’eccesso di concorrenza un potenziale pericolo per la stabilità del settore. Per una rassegna sul tema, si veda Parigi (2000) e Monarca (2003). 153 La stabilità del sistema, invece, è perseguita da una regolazione “attiva”, che miri non esclusivamente al controllo del sistema ex post ed alla costituzione di adeguati meccanismi di assicurazione, bensì alla promozione di strumenti incentivanti che permettano alle banche di modificare radicalmente i propri meccanismi di gestione del rischio. Se la funzione primaria di un’impresa bancaria è il risk management, e non la semplice allocazione di fondi, è opportuno che la regolamentazione prudenziale sia incentrata sui modelli interni di valutazione del rischio. In questo modo, infatti, l’obiettivo di stabilità del sistema viene perseguito attraverso strumenti di “self-regulation”, improntati ad incentivare gli intermediari a selezionare la propria clientela in misura più rigorosa. Un primo tentativo di implementare una siffatta nuova regolamentazione è stato sviluppato con l’Accordo di Basilea del 1988 e, in misura molto più incisiva con la sua recente riforma, il cosiddetto Basilea 2 (Bocchi, Lusignani 2004; Morelli 2004). La disciplina dei requisiti patrimoniali è costruita, nel nuovo schema, sia sotto il profilo quantitativo, il primo pilastro, che negli aspetti più strettamente “qualitativi”, del secondo e terzo pilastro. In particolare, l’introduzione dei rating, sia interni che esterni, del primo pilastro, si pone l’obiettivo di creare proficue sinergie tra schema regolatorio e modelli per la gestione del rischio utilizzati dalle banche. Il modello di rating permette agli istituti di credito di accantonare capitale di vigilanza per ogni attività detenuta in misura commisurata alla rischiosità della controparte. Allo stesso tempo, le prescrizioni del secondo e terzo pilastro modificano l’impostazione generale dello schema, introducendo elementi di controllo sull’operato del management bancario. Le Autorità, infatti, si configurano come i veri garanti dell’Accordo, in quanto ad esse sono attribuiti maggiori poteri in tema di regolamentazione e applicazione della disciplina sul capitale di vigilanza, in particolare per la valutazione dei modelli di rating interno, nel cui ambito hanno il compito di effettuare controlli qualitativi sull’organizzazione e la gestione del rischio di ogni singola banca. Tuttavia, il nuovo Accordo potrà esprimere in pieno le proprie potenzialità solo interagendo all’interno di un contesto regolamentare solido e ben strutturato, che miri a salvaguardare gli interessi dei risparmiatori anche tramite la promozione di maggiore trasparenza nei mercati finanziari ed elevato grado di concorrenza tra i diversi operatori. A riguardo, la recente normativa sulla tutela del risparmio può essere vista come un’occasione non compiutamente sfruttata, in quanto essa conferma il ruolo della Banca d’Italia come organo preposto alla vigilanza sulla concorrenza bancaria, mantenendo così inalterata l’esistente asimmetria regolamentare tra settore del credito e settori industriali. 154 BIBLIOGRAFIA AGCM (2004), Relazione sull’attività svolta nel 2003, Roma. AKERLOF, G.A. (1970), “The market for lemons: quality, uncertainty and the market mechanisms”, Quarterly Journal of Economics, 84 (3), pp. 488-500. ALESSANDRINI, P. (a cura di) (2001b), Il sistema finanziario italiano tra globalizzazione e localismo, Il Mulino, Bologna. ALLEN, F. – GALE, D. (2000), “Financial Contagion”, Journal of Political Economy, 108 (1), pp. 1-33 ALLEN, L. – SAUNDERS, A. (2003), A survey of cyclical effects in credit risk measurement models, Bis Working Paper, 126, Basilea. AOKI, M. – HUGH, P. (1994), The Japanese main bank system, Clarendon Press Oxford, Oxford NY. ARROW, K.J. (1963), “Uncertainty and the welfare economics of medical care”, American economic review, 53 (5), pp. 941-73. ARROW, K.J. (1968), “The economics of moral hazard: further comment”, American economic review, 58, pp.537-9. BAGHEOT, W.(1873), Lombard Street, Murray, Londra. BANCA D’ITALIA, Relazione Annuale, Centro Stampa, Roma, anni vari. BERGER, A.N. – DEMSETZ, R.S. – STRAHAN, P.E. (1999), “The consolidation of financial services industry: causes, consequences, and implications for the future”, Journal of banking and finance, 23 (3-4), pp. 135-94. BERGER, A.N. – UDELL, G.F. (1995), “Relationship lending and lines of credit in small firm finance”, Journal of business, 68 (3), pp. 351-82. BERGER, A.N. – UDELL, G.F. (1998), “The economics of small business finance: the roles of private equity and debt markets in the financial growth cycle”, Journal of banking and finance, 22, pp. 613-73. BERGER, A.N. – UDELL, G.F. (2002), “The institutional memory hypothesis and the procyclicality of bank lending behaviour”, Kelly School of Business – Finance department working pape”, Bloomington. BERNANKE, B. (1993), Credit in the macroeconomy, Quarterly review, Federal Reserve Bank of New York, 18, pp. 50-70. BERNANKE, B. – GERTLER, M. (1995), Inside the black box: the credit channel of monetary policy transmission, NBER Working Paper, n. 5146. BESANKO, D.A. – THAKOR, A.V. (1987), “Collateral and rationing: sorting equilibria in monopolistic and competitive credit markets”, International economic review, 28 (3), pp. 671-89. BESTER, H. (1985), “Screening vs. rationing in credit markets with imperfect information”, American economic review, 75 (4), pp. 850-5. BESTER, H. (1987), “The role of collateral in credit markets with imperfect information”, European economic review, 31 (4), pp. 887-99. 155 BHATTACHARYA, S. – BOOT, A. – THAKOR A. (1998), “The economics of bank regulation”, Journal of money, credit and banking, 30, pp. 567-84. BHATTACHARYA, S. – THAKOR, A.V. (1993), “Contemporary banking theory”, Journal of financial intermediation, 3 (1), pp. 2-50. BIANCHI, P. (2002), La rincorsa frenata. L’industria italiana dall’unità nazionale all’unificazione europea, Il Mulino, Bologna. BIANCO, M. – GHEZZI, F. – NEGRINI, W. – SIGNORINI, P. (2000), Applicazioni della disciplina antitrust al settore bancario in Italia, in POLO (2000). BLUM, J. – HELLWIG, M. (1995), “The macroeconomic implications of capital adequacy requirements for banks”, European Economic Review, 39 (3/4), pp. 739-49. CACCIAMANI, C. – VIVACE, G. (2004), “Un’indagine empirica sul rapporto banche-imprese artigiane: la provincia di Cremona nello scenario nazionale”, in Bancaria, 60, 3, pp. 349-59. CARLETTI, E. (2000), Concorrenza, ordinamento e stabilità, in POLO M. (2000). CARRETTA, A. (a cura di) (2002), Il governo del cambiamento culturale in banca, Bancaria Editrice, Roma. CHARY, V.V. – JAGANNATHAN, R., (1988), “Banking Panics, Information and Rational Expectations Equilibrium”, Journal of Finance, 43, pp. 749-761. CIOCCA, P.L. (2000), La nuova finanza in Italia. Una difficile metamorfosi (1980-2000), Bollati Boringhieri, Torino. COMITATO DI BASILEA PER LA VIGILANZA BANCARIA (2004), International convergence of capital measurement and capital standards. A revised framework, Basilea. CONIGLIANI, C. – FERRI, G. – GENERALE, A. (1997), “La relazione banca-impresa e la trasmissione degli impulsi della politica monetaria”, Moneta e Credito, 198, pp. 139-65. CORDELLA, T. – YEYATI, E.L. (2002), “Financial opening, deposit insurance and risk in a model of banking competition”, European Economic Review, 46, pp. 471-485. DE BONIS, R. (1996), La riscoperta del debito e delle banche: progressi e questioni irrisolte, Temi di discussione, 279, Banca d’Italia, Roma. DE BONIS, R. (2003), Le concentrazioni bancarie: una sintesi, in MESSORI, TAMBORINI, ZAZZARO (2003). DE CECCO, M. (1995), “Il credito di ultima istanza”, Banca Impresa e Società, n. 1, pp. 28-58. DE PALMA, A. – GARY-BOBO, R.J. (1996), Coordination failures in the Cournot approach to deregulated bank competition, THEMA Working Paper. 156 DE YOUNG, R. – HUNTER, W.C. – UDELL, G.F. (2002), Whither the community bank? Relationship finance in the information age, Chicago Fed Letter, 178, Chicago. DETRAGIACHE, E. – GARELLA, P. – GUISO, L. (1997), Multiple versus single banking relationships, CEPR, Discussion Paper Series, 16049, London. DEWATRIPONT, M. TIROLE, J. (1994), The prudential regulation of banks, The Mit Press, Boston. DI GIORGIO, G. (2004), Lezioni di economia monetaria, seconda edizione, Cedam, Padova. DI GIORGIO, G. – DI NOIA, C. (1999), “La regolamentazione delle banche: considerazioni critiche”, Banca impresa e società, n.1, pp. 285-313. DI GIORGIO, G. – DI NOIA, C. (2001), L’impatto della tecnologia sulla regolamentazione finanziaria: il caso italiano, in MASCIANDARO D., GRACCHI G. (2001). DI GIORGIO, G. – DI NOIA, C. (a cura di) (2004a), Intermediari e mercati finanziari, Il Mulino, Bologna. DI GIORGIO G. – DI NOIA C. (2004b), Regole e vigilanza per la tutela del risparmio, in DI GIORGIO G., DI NOIA C. (2004a). DIAMOND, D.W. (1984), “Financial intermediation and delegated monitoring”, Review of Economic Studies, 51 (3), pp. 393-414. DIAMOND, D.W. (1989), “Reputation acquisition in debt market”, Journal of political economy, 97 (4), pp. 828-62. DIAMOND, D.W. – DYBVIG, P.H. (1983), “Bank runs, deposit insurance, and liquidity”, Journal political economy, 91 (3), pp. 401-19. DIAMOND, D.W. (1991), “Monitoring and reputation: the choice between bank loans and directly placed debt”, Journal of Political Economy, 99, pp. 698-721. DIAMOND, D.W. – RAJAN, R.G. (2000), “A theory of bank capital”, Journal of Finance, 55, pp. 2431-65. EDWARDS, F. – MISHKIN, F. (1995), “The decline of traditional banking: implications for financial stability and regulatory policy”, Federal Reserve Bank of New York Economic Policy Review, 1, pp. 27-45. EDWARDS, J. – FRANKS, J. – MAYER, C. – SCHAEFER, S. (eds.) (1986), Recent developments in corporate finance, Cambridge University Press, Cambridge. FAMA, E.F. (1985), “What Different about Banks?”, Journal of Monetary Economics, 15, pp.29-39. FAZZARI, S. – HUBBARD, G. – PETERSEN, B. (1988), “Financing constraints and corporate investment”, Brooking papers on economic activity, 1, pp. 141-95. FISCHER, S. (1999), On the need for an international lender of last resort, IMF Working Paper, disponibile sul sito www.imf.org. 157 FISHER, I. (1911), The purchasing power of money, Macmillan, New York. FONDO INTERBANCARIO TUTELA DEI DEPOSITI (2004), Statuto e regolamento, Roma. FREIMER, M. – GORDON, J. (1965), “Why bankers ration credit?”, Quarterly journal of economics, 79, pp. 397-410. FREIXAS, X. – PARIGI, B. (1998), “Contagion and efficiency in gross and net interbank payment system”, Journal of money, credit and banking, 7 (1), pp. 3-31. GALE, D. – HELLWIG, M. (1985), “Incentive-compatible debt contracts: the one-period problem”, Review of Economic Studies, 52 (4), pp. 647-63. GAMBACORTA, L. (2001), Bank-specific characteristics and monetary policy transmission: the case of Italy, Temi di discussione, 430, Banca d’Italia, Roma. GAMBACORTA, L. – MISTRULLI, P.E. (2003), Bank capital and lendig behaviour: empirical evidence for Italy, Temi di discussione, 486, Banca d’Italia, Roma GARCIA, G.G.H. (1999), Deposit insurance: A survey of actual and best practices, IMF working paper, 99. GARCIA, G.G.H. (2002), The effectiveness of deposit insurance, disponibile sul sito www.dnb.nl. GERTLER, M. – GILCHRIST, S. (1993), “The role of credit market imperfections in the monetary trasmission mechanism: arguments and evidence”, Scandinavian journal of economics, 95 (1), pp. 43-64. GOBBO, F. (1997), Relazione al convegno “La riforma dei mercati mobiliari italiani: il decreto di recepimento della direttiva Eurosim e il Testo Unico della finanza”, Associazione Borsisti M. Fanno, Roma, 14 gennaio. GOBBO, F. (a cura di) (2003), New perspectives in competition and regulation, Luiss University Press, Roma. GOODFRIEND, M. – KING, R. (1988), “Financial deregulation, monetary policy, and central banking”, Federal Reserve Bank of Richmond economic review, 74, pp. 3-22 GOODHART, C.A.E. (1998), Financial regulation: why, now and where now?, Routledge, Londra. GOODHART, C.A.E. – ILLING, G. (2002), Financial Crises, Contagion and the lender of last resort, Oxford University Press, Oxford NY. GRAZIANI, A. (a cura di) (1998), Lo sviluppo dell’economia italiana: dalla ricostruzione alla moneta europea, Bollati Boringhieri, Torino. GREENSPAN, A. (1998), The role of capital in optimal banking supervision and regulation, Testimony of Chairman before the Conference on Capital Regulation, Federal Reserve, Chicago, February, disponibile sul sito www.federalreserve.org 158 GREENSPAN, A. (2003), Deposit insurance, Testimony of Chairman before the Committee on Banking, Housing, and Urban Affairs, U.S. Senate, February, disponibile sul sito www.federalreserve.org. GREENWALD, B. – STIGLITZ, J. (1993), “Financial market imperfections and business cycles”, Quarterly journal of economics, pp. 77114. GROS-PIETRO, G.M. – REVIGLIO, E. – TORRISI ,A. (2001), Assetti proprietari e mercati finanziari europei, Il Mulino, Bologna. HARRISON, P. – SUSSMAN, O. – ZEIRA, J. (1999), “Finance and growth: theory and new evidence”, Finance and economics discussion series, 35, Board of Governors of the Federal Reserve System, Washington. HAUSWALD, R. – MARQUEZ, R. (2000), “Relationship banking, loan specialization and competition”, Proceedings, Federal Reserve Bank of Chicago, 5, pp. 108-31. HELLWIG, M. (1989), “”Asymmetric information, financial markets, and financial institutions, European Economic Review, 33 (2-3), pp. 277-85. HICKS, J.R. (1935), “A suggestion for simplifying the theory of money”, Economica, 2, pp. 1-19. HOLMSTROM, B. – TIROLE, J. (1997), “Financial intermediation, loanable funds and the real sector”, Quarterly journal of economics, 112 (3), pp. 663-91. JACKLIN, C.J. – BHATTACHARYA, S. (1988), “Distinguishing panic and information-based bank runs: welfare and policy implication”, Journal of political economy, 96, pp.568-592. JAFFEE, D. – MODIGLIANI, F. (1969), “A theory and test of credit rationing”, American economic review, 59 (5), pp. 850-72. JENSEN, M.C. – MECKLING, W.H. (1976), “Theory of the Firm: Managerial Behaviour, Agency Costs, and Ownership Structure”, Journal of Financial Economics, 3, pp.305-60. KEELEY, M. (1990), “Deposit insurance, risk and market power in banking”, American Economic Review, 80, pp. 1183-1200. KEELEY, M.C. – FURLONG, M.T. (1990), “A re-examination of meanvariance analysis of bank capital regulation”, Journal of Banking and Finance, 14, pp. 69-84. KIM, D. – SANTOMERO, A.M. (1988), “Risk in banking and capital regulation”, Journal of Finance, 43 (5), pp. 1219-33. KREPS, D.M. (1990), A Course in Microeconomic Theory, Princeton University Press, Princeton. LAVIOLA, S. (1998), “Struttura delle relazioni di credito e rischiosità delle imprese”, Banca impresa società, XVII, 2, pp. 275-91. LELAND, H.E. – PYLE, D.H. (1977), “Information asymmetries, financial structure and financial intermediaries”, Journal of finance, 32 (2), pp. 371-87. 159 LIMENTANI, R. (2003), “L’evoluzione del rapporto banca-impresa: dalla Hausbank al Financial Services Advisor”, Banca impresa società, 1, pp. 2338. LO, A.(a cura di) (1996), The industrial organization and regulation of the securities industry, The University of Chicago Press, Chicago. LOPES, A. – NETTI, N. (2002), “Intermediari finanziari meridionali. Efficienza e contesto ambientale negli anni Novanta”, Rivista italiana degli economisti, VII, 3, dicembre, pp. 331-62. LOWE, P. (2002), Credit risk measurement and procyclicality, Bis Working Paper, 116, Basilea. MAROTTA, G. (2003a), L’instabilità bancaria: recenti sviluppi teorici ed empirici, Università degli Studi di Modena. MAROTTA, G. (2003b), L’assetto istituzionale della regolamentazione finanziaria prudenziale, Università degli Studi di Modena. MAROTTA, G. – PITTALUGA, G.B. (a cura di) (1993a), La regolamentazione degli intermediari bancari, Bologna, Il Mulino. MAROTTA, G. – PITTALUGA, G.B. (a cura di) (1993b), La teoria degli intermediari bancari, Bologna, Il Mulino. MASERA, R. (2001), Il rischio e le banche, Il Sole 24 Ore Libri, Milano. MATTESINI, F. (1990), “Screening in the credit market: the role of collateral”, European journal of political economy, 6, pp. 1-22. MATUTES, C. – VIVES, X. (1996), “Competition for deposits, fragility and insurance”, Journal of Financial Intermediation, 5, pp. 184-216. MESSORI, M. (1998a), “Banche, riassetti proprietari e privatizzazioni”, Stato e mercato, LII, 1, pp. 94-126. MESSORI, M. – TAMBORINI, R. – ZAZZARO, A. (a cura di) (2003), Il sistema bancario italiano. Le occasioni degli anni Novanta e le sfide dell’euro, Carocci, Roma. MILGROM, P. – ROBERTS, J. (1992), Economics, Organization and Management, London, Prentice Hall, (trad. it. Economia, organizzazione e management, il Mulino, Bologna, 1994). MILLER, M. – MODIGLIANI, F. (1961), “Dividend policy, growth and the valuation of shares”, Journal of business, 34, pp. 411-33. MODIGLIANI, F. – MILLER, M. (1958), “The Cost of Capital, Corporate Finance and the Theory of Investment”, American Economic Review, 48, pp. 261-97. MODIGLIANI, F. – MILLER, M. (1963), “Corporate income taxes and the cost of capital: a correction”, American economic review, 53, pp.433-43. MONARCA, U. (2003), Financial crises, competition and bank stability, in GOBBO F. (2003). MORELLI, G. (1999), Gli istituti di credito speciale nell’evoluzione della struttura finanziaria italiana (1963-1992), 1, Franco Angeli, Milano. 160 MORELLI, G. (2003), “Banche locali, piccole imprese e gestione del rischio. Sta cambiando qualcosa?”, Credito popolare, 10, pp. 597-636. MORELLI, G. (2004), Credito, sistemi di garanzia e microimprese, Carocci, Roma. MORELLI, G. – MONARCA, U. (2003), “Le imprese minori e le nuove regole del credito: il ruolo dei consorzi di garanzia fidi e di Basilea 2”, Economia Società ed Istituzioni, 3, pp. 573-619. MYERS, S. – MAJLUF, N. (1984), “Corporate investment and financing decisions when firms have information that investors do not have”, Journal of financial economics, 13 (2), pp. 187-222. NAKAMURA, L.I. (1994), “Small borrowers and the survival of the small banks: is mouse bank mighty or mickey?”, Business review, Federal Reserve Bank of Philadelphia, pp. 3-15. ONADO, M. (1994), “Banca universale e banca mista: due modelli diversi”, Economia e politica industriale, XXI, 83, pp. 23-8. ONADO, M. (2000a), “La gestione del rischio di credito e l’ottimizzazione del capitale impiegato”, Bancaria, LVI, 2, pp. 12-5. ONADO, M. (2000b), Mercati e intermediari finanziari. Economia e regolamentazione, Il Mulino, Bologna. ONADO, M. (2003), “I risparmiatori e la Cirio: ovvero pelati alla meta. Storie di ordinaria spoliazione di azionisti e obbligazionisti”, Mercato concorrenza regole, 3, pp. 499-536. ONADO, M. (a cura di) (2004), La banca come impresa, Il Mulino, Bologna. PARDOLESI, R. - A.M.P. - PORTOLANO, A. (2004), “Latte, lacrime (da coccodrillo) e sangue (dei risparmiatori). Note minime sul caso Parmalat”, Mercato concorrenza regole, 1, pp. 193-215. PARIGI, B.M. (2000), La concorrenza nel settore bancario: una rassegna della letteratura, in POLO M. (2000). PETERSEN, M.A. – RAJAN, R.G. (1994), “The benefits of lending relationship: evidence from small business data”, Journal of finance, 49 (1), pp. 3-37. PHLIPS, L. (1988), The economics of imperfect information, Cambridge University Press, Cambridge. PHILLIPS, C.A. (1921), Bank credit: a study of the principles and factors underlying advances made banks to borrowers, MacMillan, New York. PIGOU, A.C. (1949), Employment and equilibrium, MacMillan, Londra. PIORE, M. J. – SABEL, C. (1984), The Second Industrial Divide, Basic Books, New York (trad. it. Le due vie dello sviluppo economico, Laterza, Roma-Bari, 1987). POLO, M. (a cura di) (2000), Industria bancaria e concorrenza, il Mulino Bologna 161 POSTLEWAITE, A. – VIVES, X. (1987), “Bank Runs as Equilibrium Phenomenon”, Journal of Political Economy, 95, pp. 485-491 RAJAN, R.G. – ZINGALES, L. (1994), What do we know about capital structure? Some evidence from international data, NBER, Working Paper Series 4875, Cambridge. RAJAN, R.G. – ZINGALES, L. (1998), “Financial dependence and growth”, American economic review, 88 (3), pp.559-86. RAJAN, R.G. – ZINGALES, L. (2003), Saving capitalism from the capitalists. Unleashing the power of financial markets to create and spread opportunity, Random House Business Book, London. ROSS, S. (1973), “The Economic Theory of Agency: The Principal's Problem”, American Economic Review, 63 ( 2), pp.134-9. ROSS, S. (2002), “Forensic finance: Enron ed altri”, Rivista di politica economica, 6, pp. 9-27. SALOP, S. (1979), “Monopolistic competition with outside goods”, Bell journal of economics, 10 (1), pp. 141-56. SALTARI, E. (a cura di) (1990), Informazione e teoria economica, Il Mulino, Bologna. SCHOENMAKER, D. (1996), The lender of last resort and contagion risk in banking, LSE, Financial Market Group, Londra. SCHULER, M. (2003), How do banking supervisors deal with Europewide systemic risk?, ZEW Discussion Paper, 3. SIMON, H.A. (1978), “Rationality as process and as product of thought”, American economic review, 68 (2), pp.1-16. STIGLER, G.J. (1961), “The economics of information”, Journal of political economy, 69 (2), pp. 213-55. STIGLITZ, J.E. – WEISS, A. (1986), Credit Rationing and Collateral, Edwards, Franks, Mayer, Schaefer (1986), pp. 101-36. STIGLITZ, J.E. – WIESS, A. (1981), “Credit rationing in market with imperfect information”, American economic review, 71 (3), pp. 393-410. SUSSMAN, O. – ZEIRA, J. (1998), Banking and development, CEPR Discussion Papers, 1127, London. TABAKIS, E. – VINCI, A. (2002), Analysing and combining multiple credit assessments of financial institutions, ECB Working Paper, 123, Brussels. TANAKA, M. (2002), How do bank capital and capital adequacy regulation affect the monetary transmission system?, CES IFO Working Paper, 799. TERLIZZESE, D. (1988), Delegated screening and reputation in a theory of financial intermediaries, Temi di discussione, 111, Banca d'Italia, Roma. TIROLE, J. (2001), “Corporate Governance”, Econometrica, 69 (1), pp. 1-35. 162 TOWNSEND, R. (1979), “Optimal contracts and competitive markets with costly state verification”, Journal of economic theory, 21 (2), pp. 26593. WEINBERG, J.A. (1994), “Firm Size, Finance, and Investment”, in Federal reserve bank of Richmond economic quarterly, 80 (1), pp. 19-40. WHITE, L. (1996), International regulation on securities markets: competition of harmonization?, in LO A. (a cura di) (1996). ZANETTI, G. (2001), “La competitività del sistema produttivo italiano nella prospettiva europea”, Economia Italiana, 2, pp. 299-335. 163 RICERCA PUBBLICA E SISTEMI INNOVATIVI LOCALI: IL RUOLO DELLA PROSSIMITÀ GEOGRAFICA Giovanni Abramo* e Andrea D’Angelo** JEL Classification: O33 Parole chiave: Innovazione, ricerca, economia regionale 1. Introduzione L’Europa soffre di un evidente ritardo, rispetto agli Stati Uniti, in termini di capacità innovativa e competitività tecnologica. Un notevole sforzo, per colmare questo gap, è stato realizzato negli anni scorsi attraverso i “Programmi Quadro della Ricerca”, i “Fondi Strutturali”, i “Piani Tecnologici Regionali”, ecc. in cui si dava e si continua a dare ampio risalto alla dimensione regionale degli interventi. Nel “Libro Verde sull’Innovazione” della Commissione Europea (CEC 1995) tra le 13 “routes of actions” considerate necessarie per rimuovere gli ostacoli al processo innovativo in Europa, si cita “… rafforzare la dimensione regionale dell’innovazione …”. Nell’ambito del “Sesto Programma Quadro (20022006)”, l’intervento specifico per la ricerca e lo sviluppo tecnologico individua una serie di azioni finalizzate al miglioramento delle conoscenze, della comprensione e delle capacità delle parti interessate e, cita testualmente, “… per rafforzarne l’effetto strutturante in Europa, dette azioni saranno attuate a livello regionale”. Appare dunque evidente come a livello comunitario la direzione intrapresa per accelerare la competitività delle economie degli stati membri sia quella dello sviluppo dei sistemi innovativi locali. A livello nazionale, la riforma del Titolo V della Costituzione sancisce che ricerca scientifica e tecnologica e sostegno all'innovazione sono materie di legislazione concorrente e, pertanto, in tali materie spetta alle Regioni la potestà legislativa esclusiva, salvo che per la determinazione dei principi fondamentali, riservata alla legislazione dello Stato. Tale modifica è il risultato di un processo di devoluzione che implica un maggior livello di autonomia per le Regioni e un potere davvero rilevante in termini di definizione delle politiche per l’innovazione e lo sviluppo. Si tratta di un * Consiglio Nazionale delle Ricerche e Laboratorio di Studi sul Trasferimento Tecnologico e l’Imprenditorialità dell’Università degli Studi di Roma “Tor Vergata”, [email protected] ** Laboratorio di Studi sul Trasferimento Tecnologico e l’Imprenditorialità dell’Università degli Studi di Roma “Tor Vergata”, [email protected] 165 processo di cambiamento radicale, con effetti visibili solo su tempi molto lunghi, ma comunque irreversibilmente avviato, con molti rischi, ma anche opportunità, tra cui la possibilità di avviare lo sviluppo di sistemi innovativi locali che fungano da volano per le economie regionali e, di conseguenza, per l’intera economia nazionale. In tali sistemi le Università e gli Enti pubblici di ricerca costituiscono le fonti primarie di nuova conoscenza che, attraverso le strutture di intermediazione e trasferimento tecnologico, dovrebbe fluire verso il sistema produttivo per essere incorporata in processi e prodotti innovativi da immettere nei mercati. Il presente lavoro intende analizzare se tale flusso è spazialmente limitato, ossia se la nuova conoscenza sviluppata nelle istituzioni pubbliche di ricerca tende di preferenza ad essere trasferita al sistema produttivo locale. In particolare l’analisi si focalizza su una specifica forma di codificazione della nuova conoscenza, brevetti e simili, e di trasferimento della stessa, licensing, dai laboratori pubblici di ricerca alle imprese. Se, infatti, per gli spin off e i flussi di conoscenza “tacita” la letteratura ha ampiamente dimostrato l’importanza dell’effetto “prossimità”, per i brevetti l’argomento non è stato oggetto di ricerche approfondite. A questo scopo, si farà esplicito riferimento all’attività degli Istituti del Consiglio Nazionale delle Ricerche (Cnr), esaminando i flussi di tecnologia realizzati attraverso il licensing dei diritti di proprietà intellettuale dell’ente. Il Cnr rappresenta infatti il maggior ente di ricerca del paese sia in termini di input (circa 12% della spesa totale e il 6% dei ricercatori) che di output, facendo registrare da sempre la maggiore produzione e produttività brevettuale, detenendo quasi il 60% dei brevetti europei e americani registrati dall’intero sistema di ricerca pubblico nazionale (Piccaluga e Patrono, 2001). Pertanto, il paragrafo 2 è dedicato all’analisi della letteratura riguardante le dinamiche spaziali delle esternalità generate dalle attività di ricerca in ambito pubblico. In particolare l’attenzione viene posta sul ruolo della ricerca pubblica nel processo di produzione di nuova conoscenza e sulle relative ricadute. Nel paragrafo 3 viene invece esaminata nel dettaglio l’infrastruttura tecnologica di ciascuna regione italiana con riferimento agli indicatori più significativi che la letteratura suggerisce a tale scopo. Nel paragrafo 4 viene analizzata la produzione tecnologica (brevetti) del Consiglio Nazionale delle Ricerche e l’attività di trasferimento (licensing), per valutare la rilevanza della prossimità geografica nei flussi di conoscenza così codificata e, di conseguenza, l’impatto delle attività degli Istituti Cnr sui sistemi innovativi locali. Il paragrafo conclusivo sintetizza i tratti salienti del caso analizzato e, attraverso le dovute generalizzazioni, fornisce alcune direttrici di politica della ricerca. 166 2. Ricerca pubblica, esternalità e sistemi innovativi locali La letteratura riguardante il ruolo della conoscenza e dell’innovazione nel processo di sviluppo e consolidamento della competitività di una nazione, trova un riferimento fondamentale nel lavoro di Porter (1990) in cui si sottolinea la centralità dei cosiddetti “business clusters”, caratterizzati da forti legami istituzionali tra le imprese e l’infrastruttura innovativa di supporto. Tali legami non sono necessariamente locali, ma quasi tutti gli esempi citati da Porter si riferiscono a cluster geograficamente concentrati. Nell’analisi si evidenzia come la chiave di successo sia la “cooperazione” tra gli elementi che compongono il cluster (“closely knit social-cultural links”, “willingness to cooperate”, “research networks”, ecc.). Dei diciassette fattori di vantaggio competitivo individuati da Porter, oltre la metà riguardano pratiche di cooperazione finalizzate al raggiungimento di massa critica, economie di scala e di scopo. D’altra parte sono molti i contributi nell’area della cosiddetta “nuova geografia economica” in cui si sottolinea l’importanza della prossimità fisica, quale elemento irrinunciabile per l’attivazione di legami cooperativi efficaci e duraturi. In particolare, tali contributi hanno esplorato gli aspetti geografici degli spillover di conoscenza (esternalità), le dinamiche di fertilizzazione tra R&S pubblica e privata e la localizzazione delle imprese innovative, sottolineando il ruolo fondamentale giocato dalla “prossimità” nei processi di creazione, trasferimento e appropriazione di nuova conoscenza (Jaffe 1989, Jaffe et al. 1993, Feldman 1994, Audretsch e Feldman 1996). L’ipotesi comunemente accettata è che “la conoscenza fluisce lungo i corridoi e le strade più facilmente che attraverso i continenti e gli oceani” (Feldman 1994). La conoscenza non viene più considerata come un bene completamente pubblico e liberamente diffuso come in Arrow (1962)1. A questo proposito sono esemplari i casi relativi a innovation cluster eccellenti quali Silicon Valley e Route 128 negli Stati Uniti (Rogers e Larsen 1984, Saxenian 1985) e Cambridge in Gran Bretagna (Wicksteed 1985). Mansfield e Lee (1996) dimostrano che, ceteris paribus, la probabilità che un’impresa americana finanzi le attività di ricerca di una particolare Università è inversamente proporzionale alla distanza fisica. Infatti da essa dipendono la complessità e il costo di interazione tra personale dell’azienda e ricercatori dell’Università (anche se i progressi delle tecnologie dell’informazione e delle telecomunicazioni possono fornire validi ausili). A parità di qualità delle accademie interessate, l’entità dei finanziamenti privati verso Università entro le 100 miglia è più che doppia rispetto a quella dei 1 Occorre infatti distinguere tra conoscenza codificata e conoscenza tacita: la prima può essere facilmente scambiata in modo efficace ed efficiente anche tra soggetti molto distanti geograficamente, grazie alle tecnologie di comunicazione disponibili. Al contrario, la conoscenza tacita, per definizione, è difficilmente codificabile e il suo trasferimento necessita di un livello di “condivisione” possibile solo attraverso contatti personali e relazioni face-toface. 167 finanziamenti per le Università situate a 100-1000 miglia di distanza e più che tripla rispetto a quella relativa ad atenei distanti più di 1000 miglia. Inoltre, le imprese tendono a finanziare la ricerca applicata entro le 100 miglia anche se in questa area non si trovano Università d’elite, ma solo atenei mediamente posizionati nella graduatoria della National Academy of Sciences. È plausibile ritenere che considerazioni analoghe valgano anche per le attività di trasferimento tecnologico dal momento che tali attività spesso hanno origine da accordi contrattuali e sponsorizzazioni economiche pregresse. Lo studio del caso italiano è ad oggi limitato a pochi contributi (Audretsch e Vivarelli 1994, Breschi 1998, Paci e Usai 2000, Coccia 2000). In particolare, nel suo lavoro del 1998, Breschi sostiene che, nel caso italiano, le attività innovative non si distribuiscono in modo casuale, così come ipotizzabile in assenza di esternalità localizzate, ma tendono a concentrarsi geograficamente. Esiste, al tempo stesso, una significativa variabilità fra settori industriali, con diversi settori che evidenziano solo livelli moderati di concentrazione. Basandosi sull’osservazione e l’analisi dei contatti fra Istituti del Consiglio Nazionale delle Ricerche ubicati in Piemonte e imprese fruitici nel triennio 1996-1998, Coccia verifica due ipotesi sul comportamento spaziale del trasferimento tecnologico: a) la presenza dell’effetto di prossimità; b) la riduzione di tale effetto fra Istituti di ricerca e fruitori ubicati in alcune aree produttive distanti spazialmente ma con un’economia dinamica. Dunque anche i contributi italiani sembrerebbero confermare che i processi innovativi tendono a concentrarsi geograficamente e che la prossimità fisica appare come una condizione necessaria soprattutto per le attività “tacit knowledge intensive”, come quelle caratterizzanti i processi di ricerca e innovazione2. In particolare, se per l’innovazione di prodotto e di processo esistono meccanismi di codifica strutturati, l’innovazione cosiddetta “istituzionale” (o organizzativa) ha un carattere prettamente tacito. Gli studi econometrici condotti sia negli Stati Uniti (Jaffe et al. 1993) sia in Europa (Verspagen e Schoenmakers 2000), sembrano indicare che il flusso di conoscenza misurato attraverso le citazioni di brevetti è spazialmente limitato e decade all’aumentare della distanza tra gli inventori. Gli stessi studi dimostrano che le imprese, alle prese con processi di scelta localizzativa, 2 D’altra parte, in letteratura sono rinvenibili alcuni contributi che “ridimensionano” tale tesi. In molte circostanze, ad esempio, le ICT possono ridurre il contenuto tacito insito nella conoscenza, attraverso meccanismi di “traduzione” complessi ma efficaci (expert systems, case based reasoning, ecc.). Inoltre, è stato sostenuto che la prossimità fisica è determinante solo se associata a quella “organizzativa” (Rallet e Torre 1999), derivante da una comunanza di interessi e obiettivi tra i soggetti coinvolti. 168 considerano molto rilevante la presenza sul territorio di riferimento di “fonti di conoscenza esterne” (external knowledge inputs) come le Università e gli Enti pubblici di ricerca (Audretsch e Stefan 1996, Zucker et al. 1998). La quantificazione degli effetti della ricerca pubblica (e quella accademica in particolare) sulla produzione di conoscenza e innovazione a livello locale, è stata di recente argomento di studi piuttosto approfonditi (Jaffe et al. 1993, Mansfield 1998, Anselin et al. 2000, Varga 2000, Autant-Bernard 2001, Acs et al. 2002, Tracey et al. 2003). Il modello concettuale più ricorrente per l’analisi degli spillover geografici della ricerca pubblica sulla capacità innovativa regionale è senza dubbio la funzione di produzione di nuova conoscenza (knowledge production function) di Griliches (1979) e Jaffe (1989). Tale funzione mette in relazione il tasso inventivo (spesso misurato attraverso il numero di brevetti) con il livello di spesa in ricerca pubblica in un contesto locale (aree metropolitane, distretti, regioni, ecc.). Acs et al. (2000) evidenziano come l’effetto della ricerca pubblica sulla produzione locale di innovazione vari in funzione del settore industriale considerato (basso nel “farmaceutico” e nella “meccanica”, elevato nella “elettronica” e nella “strumentazione”). Nel suo lavoro del 2000, Varga dimostra che il trasferimento di conoscenza dalle Università alle imprese private è legato alla presenza di altri fattori abilitanti tra cui, il più importante, è il numero di addetti nelle imprese dei settori high-tech3. In altre parole, la relazione tra spillover di ricerca e sviluppo locale è mediata dalla presenza di alcuni fattori e può non manifestarsi al di sotto di una certa “soglia critica di agglomerazione”. Allo stesso risultato perviene Breschi (1998), che dimostra che la mera presenza di un’Università locale, che svolge attività di ricerca, non sia una condizione sufficiente a permettere efficaci ricadute di conoscenza sull’attività innovativa delle imprese del territorio. L’effetto “prossimità” è invece ben visibile là dove sono presenti e ben sviluppati tutti gli ingredienti di un “sistema innovativo regionale”. In accordo con Cooke et al. (1997) esso può essere definito come un sistema “nel quale imprese ed altre organizzazioni sono sistematicamente impegnate in un processo di apprendimento interattivo all’interno di un ambiente caratterizzato da integrazione”. Si tratta dunque di un sistema “sociale” che implica interazioni sistematiche tra diverse categorie di soggetti (pubblici e privati) al fine di aumentare e potenziare le capacità di apprendimento dell’intero sistema. L’evidenza empirica mostra che al variare del livello di sistematicità delle relazioni tra i soggetti che lo compongono e, soprattutto, al variare dell’orientamento delle organizzazioni preposte alla definizione e attuazione delle politiche a supporto dell’innovazione, il sistema può prendere diverse forme e avere, di conseguenza, diversi esiti (distretti industriali, tecnopoli, 3 Un altro elemento determinante riguarda la presenza sul territorio di imprese di servizi specializzate in intermediazione (finanziaria, legale e commerciale). 169 innovative milieu, learning region). Tali forme, per quanto diverse, presentano un comune denominatore: la prossimità fisica. Essa risulta determinante per almeno tre motivi: a) è alla base delle cosiddette “economie di agglomerazione”, che operano riducendo i costi di accesso delle imprese agli input rilevanti per i processi innovativi (Breschi 1998); b) è alla base delle esternalità di conoscenza (spillover), ossia di flussi di conoscenze, idee e risultati di ricerca che, prodotti da una certa organizzazione, possono essere utilizzati da altri soggetti dello stesso sistema; c) è elemento di garanzia per quel che riguarda i valori e l’orientamento socio-culturale dei soggetti di un sistema: la trasmissione del contenuto tacito di nuova conoscenza necessita infatti di un ambiente caratterizzato da fiducia e comunanza di “orientamento culturale” tra i soggetti coinvolti (Rallet 2000), ovvero di condizioni in qualche modo legate anche alla prossimità fisica. Quello che non è chiaro è se l’effetto “prossimità” sia fondamentale indipendentemente dalla forma di codificazione della conoscenza oggetto di trasferimento e, in particolare, nei processi di trasferimento pubblico-privato di conoscenza codificata e proprietaria. A questo argomento è dedicato il presente lavoro. 3. L’infrastruttura tecnologica delle regioni italiane In questo paragrafo saranno presentati i tratti salienti dell’infrastruttura tecnologica regionale italiana attraverso gli indicatori di spesa per ricerca e sviluppo, numero di addetti, produzione brevettuale e flussi internazionali di tecnologia. Il dato relativo al livello di spesa in attività di R&S vede l’Italia ben distante rispetto agli altri paesi Ocse. Nel 2001 tale impegno è stato dell’1,11% del Pil, meno della metà della media dei paesi del G7. L’Italia non solo investe poco, ma presenta una spesa pubblica superiore a quella privata, caratteristica condivisa solo con altri cinque paesi Ocse (Ocse 2003). I dati Istat relativi al 2001 indicano che a livello regionale, sopra la media nazionale troviamo il Lazio (che spicca al primo posto con un rapporto tra spesa in R&S e Pil regionale pari quasi al 2%), seguito da Piemonte, FriuliVenezia Giulia, Lombardia e Liguria. Il primato del Lazio è sostanzialmente sostenuto dalla spesa pubblica che costituisce circa il 75% della spesa regionale totale. Per Piemonte e Lombardia il rapporto tra spesa pubblica e privata è nettamente diverso: gli investimenti delle imprese incidono sulla spesa complessiva per più dell’80% in Piemonte e per più del 70% in 170 Lombardia. Solo in altre 2 regioni (Emilia Romagna e Veneto) la spesa privata supera quella pubblica (vedi Fig. 1). Fig. 1 - Differenza tra spesa regionale in ricerca e sviluppo privata e pubblica nel 2001. 1.500.000 1.000.000 500.000 Lazio TOT ALE ia Sicili a Camp an Pugli a Tosc ana na Sarde g Ligur ia - Bas ilicat a Umb ria Calab ria -1.500.000 n te - -1.000.000 Piem o -500.000 Lomb ardia V. d'A osta Emil ia Ro magn a Vene to Trent ino A .A. Abru zzo Moli se Friul i V. G . Marc he 0 Elaborazione degli autori da fonte Istat (valori in migliaia di euro). In tutte le regioni del Sud, la dipendenza dagli investimenti pubblici è molto rilevante: in Sardegna il 92% della spesa di ricerca è pubblica, in Puglia e in Sicilia il 78%, in Calabria-Basilicata il 74%. Lo scenario non cambia, se si considera il numero di addetti in R&S. Se in Piemonte e in Lombardia gli addetti pubblici costituiscono, rispettivamente, il 23% e il 35% del totale, nel Lazio e in Campania sono più dei tre quarti. Nel Lazio, in particolare, trova impiego il 45% del totale dei ricercatori degli Enti pubblici di ricerca (esclusi gli universitari). Per un’analisi del livello tecnologico del tessuto industriale delle regioni (misurato in termini di addetti nei settori high-tech) si faccia riferimento alla Tab. 1. In essa vengono riportati i dati relativi al cosiddetto Location Quotient (LQ), che misura la percentuale di occupati in settori high tech (rispetto al totale di occupati) riferito alla media nazionale. Ai primi posti si collocano Piemonte (1,670), Lombardia (1,449), Emilia Romagna (1,183) e Veneto (1,095), ossia le quattro regioni in cui la spesa privata in ricerca supera in valore assoluto quella pubblica. Il Lazio (0,928), si posiziona solo all’ottavo posto e comunque al di sotto della media nazionale (1,053). 171 Tab. 1 - Location Quotient (LQ) delle regioni italiane. REGIONI Piemonte Lombardia Emilia Romagna Veneto Friuli V. Giulia Liguria Basilicata Lazio Umbria Marche Abruzzo Molise Toscana Campania Puglia Trentino A. Adige Sicilia Sardegna Calabria Valle D'Aosta TOTALE Occupati totali 1.759.235 3.848.192 1.739.731 1.920.072 478.349 589.996 182.498 1.900.848 322.995 583.175 449.093 108.888 1.407.555 1.565.819 1.209.896 412.023 1.348.263 515.147 534.250 54.110 20.930.135 Occupati settori high tech 309.459 587.209 216.796 221.502 54.179 63.542 19.436 185.736 31.117 53.432 38.934 9.177 114.180 101.849 74.732 22.294 59.619 21.081 20.028 0 2.204.302 Occupati high tech su totale occupati 0,176 0,153 0,125 0,115 0,113 0,108 0,106 0,098 0,096 0,092 0,087 0,084 0,081 0,065 0,062 0,054 0,044 0,041 0,037 0 0,1053 LQ 1,670 1,449 1,183 1,095 1,075 1,023 1,011 0,928 0,915 0,870 0,823 0,800 0,770 0,618 0,586 0,514 0,420 0,389 0,356 0 1 Elaborazione degli autori da fonte Eurostat. In essa vengono riportati i dati relativi al cosiddetto Location Quotient (LQ), che misura la percentuale di occupati in settori high tech (rispetto al totale di occupati) riferito alla media nazionale. Ai primi posti si collocano Piemonte (1,670), Lombardia (1,449), Emilia Romagna (1,183) e Veneto (1,095), ossia le quattro regioni in cui la spesa privata in ricerca supera in valore assoluto quella pubblica. Il Lazio (0,928), si posiziona solo all’ottavo posto e comunque al di sotto della media nazionale (1,053). I primi quattro posti della Tab. 1, sono confermati in Tab. 2. Essa fornisce i dati relativi ai brevetti depositati presso lo European Patent Office (Epo) nel periodo 19972001 ed evidenzia il primato della Lombardia sia per i brevetti totali che per quelli classificati “high tech”. Sempre rilevante la posizione del Piemonte, mentre Lazio e Sicilia si mettono in bella evidenza solo nella graduatoria dell’high tech4. 4 Il dato della Sicilia è molto legato alla presenza, nella regione, degli stabilimenti di una nota impresa multinazionale che opera nel settore della microelettronica, da sempre caratterizzato da pratiche diffuse di intellectual property strategy. 172 Tab. 2 - Brevetti Epo e Epo high-tech disaggregati per regione. REGIONI Lombardia Emilia Romagna Piemonte Veneto Lazio Toscana Friuli V. Giulia Liguria Marche Abruzzo Sicilia Campania Trentino A. Adige Puglia Umbria Sardegna Calabria Basilicata Valle D'Aosta Molise TOTALE Brevetti Epo* (1997-2001) 6.758,86 2.951,01 2.320,08 2.174,92 1.122,45 1.021,22 631,45 459,07 404,94 365,93 327,06 286,00 257,65 173,34 163,06 81,83 64,33 36,39 16,37 11,06 19.627,02 Brev. Epo per Brev. Epo HT Brevetti Epo high 100M di euro in per 100 Mil. di tech** R&S euro in R&S (1997-2001) (2000) (2000) 806,80 (11,94%) 53,08 6,44 119,19 (4,04%) 68,97 2,65 172,41 (7,43%) 30,23 2,00 68,19 (3,14%) 90,93 3,33 134,89 (12,02%) 9,53 1,28 58,06 (5,69%) 31,68 2,10 27,21 (4,31%) 49,25 3,14 31,72 (6,91%) 27,75 1,78 11,81 (2,92%) 69,22 2,61 22,12 (6,04%) 32,98 3,58 125,30 (38,31%) 13,60 6,03 29,68 (10,38%) 9,62 0,98 14,85 (5,76%) 50,07 5,01 16,23 (9,36%) 12,95 2,07 7,71 (4,73%) 25,26 0,21 10,61 (12,97%) 10,11 1,16 1,74 (2,70%) 24,31 0,66 9,03 (24,81%) 4,63 2,53 2,36 (14,42%) 23,08 5,38 0 (0,00%) 9,69 1.669,91 (8,51%) 35,53 3,16 * In caso di più coautori di diverse regioni, il brevetto è stato ripartito equamente tra le regioni stesse. ** La classificazione “high-tech” fa riferimento alle sottoclassi IPC (International Patent Classification, del Patent Cooperation Treaty) considerate tali. Elaborazione degli autori da fonte Eurostat. Volendo quantificare la produttività tecnologica come rapporto tra il numero di brevetti depositati e le risorse a disposizione in ogni regione (spesa totale in R&S) notiamo che per il totale dei brevetti Epo depositati nel 2000, il primato spetta al Veneto (90,93 brevetti depositati ogni 100 milioni di euro di spesa in R&S) seguito da Marche (69,22) ed Emilia Romagna (68,97). Se invece consideriamo i soli brevetti classificati come high tech il primato spetta alla Valle D’Aosta (7,82 brevetti high tech depositati ogni 100 milioni di euro di spesa in R&S) seguita dalla solita Lombardia (6,44). Da notare che in entrambi i casi la posizione in graduatoria del Lazio è molto bassa. Lo stesso dicasi per tutte le regioni del Sud, eccezion fatta per la Sicilia che per i brevetti high tech si posiziona addirittura al terzo posto (6,03 brevetti high tech depositati ogni 100.000 euro di spesa in R&S). Emerge 173 dunque un forte squilibrio tra Nord e Sud. Come indicato in Tab. 3, quasi l’80% dei brevetti depositati presso l’Epo hanno autori residenti nelle regioni del Nord, contro il 15,7% del Centro e solo il 5,2% del Sud. Restringendo il focus sui brevetti high tech la situazione non cambia, pur rilevando una leggera riduzione del gap, in particolare tra Centro e Sud. Anche il dato sulla produttività conferma il primato delle regioni del Nord. Tab. 3 - Brevetti Epo e Epo high-tech disaggregati per area geografica. Brev. Epo per Brev. Epo HT per Epo Epo high tech 100k euro di 100k euro (1997/2001) (1997/2001) spesa in R&S di spesa in R&S (2000) (2000) 3507,07 282,38 (71,8%) 51,22 4,12 Nord (79,2%) 690,16 58,02 (14,8%) 18,92 1,59 Centro (15,69%) 230,79 (5,2%) 52,82 (13,4%) 11,74 2,69 Sud Elaborazione degli autori da fonte Eurostat. La maggiore produzione e produttività brevettuale delle regioni del Nord è attribuibile al maggior peso della componente privata sul livello totale di spesa in ricerca. Infatti è evidente che le imprese hanno una maggiore propensione a brevettare rispetto ai laboratori pubblici, poiché è lecito immaginare che la ricerca ivi condotta abbia finalità più spiccatamente applicative e che la brevettazione garantisca un certo livello di protezione alla nuova conoscenza e contribuisca a difendere il conseguente vantaggio competitivo tecnologico. A questo proposito la Tab. 4 mostra il livello di correlazione tra composizione della spesa in R&S e produzione brevettuale. Si nota che la correlazione è forte per ogni tipo di categoria di brevetto considerato rispetto al livello di spesa privata, molto meno per quella pubblica. Brevetti Tab. 4 - Indici di correlazione tra produzione brevettuale e livelli di spesa regionali. Spesa Pubblica Privata Totale ITA* 0,465 0,932 0,847 Epo 0,404 0,894 0,793 Epo HT 0,425 0,886 0,802 * La categoria “ITA” si riferisce ai brevetti complessivamente depositati presso l’ufficio italiano brevetti. Elaborazione degli autori da fonte Eurostat. 174 La Bilancia Tecnologica dei Pagamenti regionale fornisce altresì un quadro interessante per quel che riguarda le transazioni relative a brevetti/invenzioni e ai relativi diritti di sfruttamento (Tab. 5). A fronte di un saldo nel complesso pesantemente negativo e pari, per il 2001, a oltre mezzo miliardo di euro, le entrate sono superiori alle uscite solo in Piemonte, Sardegna e, con cifre assai modeste, Molise. Spicca invece il dato della Lombardia che da sola concorre al 76% del deficit nazionale. Anche Lazio ed Emilia Romagna, pur avendo una spesa in R&S dello stesso ordine di grandezza del Piemonte, fanno registrare un saldo negativo. Tab. 5 - Saldi regionali della Bilancia Tecnologica dei Pagamenti (sono state considerate le sole voci “cessione/acquisizione di brevetti, invenzioni e know how, diritti di sfruttamento dei brevetti”). REGIONI Piemonte Sardegna Molise Valle D'Aosta Marche Sicilia Basilicata Umbria Calabria Abruzzo Saldo 4.414 1.012 56 -26 -135 -250 -541 -993 -1.047 -2.852 REGIONI Saldo Friuli Venezia Giulia -3.119 Trentino Alto Adige -3.165 Liguria -6.376 Toscana -10.406 Puglia -11.628 Campania -14.475 Veneto -23.384 Emilia Romagna -24.245 Lazio -38.511 Lombardia -431.146 TOTALE -566.817 Fonte: Ufficio Italiano Cambi – Anno 2001 (in migliaia di euro). Dunque, dall’analisi condotta risulta evidente l’entità della disomogeneità nella distribuzione delle risorse, il che determina potenzialità differenziate in termini di capacità innovativa per le diverse regioni. In particolare il Lazio e le regioni del Sud possono vantare una infrastruttura tecnologica quasi del tutto di natura pubblica. Piemonte e Lombardia, invece, hanno nelle imprese il motore principale dell’attività innovativa. Non a caso, considerando il dato sui brevetti depositati, emerge che Piemonte e Lombardia risultano le più produttive mentre le regioni del Sud (e in qualche misura anche il Lazio) si posizionano nelle retrovie. Inoltre, fatta eccezione per il Piemonte, le regioni meglio classificate nella graduatoria dei brevetti Epo, si posizionano nelle ultime 4 posizioni nella classifica del saldo della Bilancia Tecnologica, a dimostrazione che l’attività inventiva nelle diverse regioni, per quanto sviluppata, ancora non è in grado di soddisfare completamente la domanda di tecnologia espressa dalle imprese presenti sul territorio di riferimento. 175 4. I flussi regionali di tecnologia: il caso del Cnr Per valutare la dimensione spaziale del trasferimento di nuova conoscenza dalle istituzioni pubbliche di ricerca al sistema produttivo locale si è proceduto ad analizzare in dettaglio l’attività brevettuale e di licensing del Consiglio Nazionale delle Ricerche che, come detto, negli ultimi 20 anni ha prodotto quasi il 60% dei brevetti europei ed americani scaturiti da ricerca pubblica nazionale (Piccaluga e Patrono 2001). Il considerare come base di calcolo per gli indicatori di produzione tecnologica e di trasferimento i brevetti e le relative licenze di sfruttamento è prassi piuttosto diffusa in letteratura (Griliches 1990, Acs et al. 2002). Pertanto, con riferimento al periodo 1996-2001, si è proceduto a misurare la produzione di ricerca “tecnologica” del Cnr, in termini di brevetti depositati e la sua capacità di trasferirla, in termini di contratti di licenza stipulati. I dati sono stati elaborati su base regionale (vedi Tab. 6). Tab. 6 - Disaggregazione a livello regionale delle risorse e output Cnr. Totale Totale Brevetti Brevetti trasferiti Ricercatori Addetti** depositati*** (1996-2001) (2001) (2001) (1996-2001) Abruzzo 1,12 9 17 0 0 Basilicata 3,59 53 67 0 0 Calabria 7,73 94 138 2 0 Campania 48,90 548 887 20 1 Emilia Romagna 37,24 322 486 32,5 8 Friuli Venezia Giulia 0,92 8 14 0 0 Lazio 90,40 817 1.292 56,5 12 Liguria 14,16 123 187 9 3 Lombardia 45,34 415 610 24 6 Marche 3,57 18 37 0 0 Piemonte 22,92 242 349 10 2 Puglia 19,83 242 349 9 0 Sardegna 7,39 89 133 3 0 Sicilia 23,33 282 389 26 3 Toscana 98,72 530 842 47 11 Trentino Alto Adige 1,85 13 29 1 0 Umbria 4,40 34 61 2 2 Veneto 20,46 215 323 10 2 TOTALE 451,87 4.054 6.210 252 50 * La spesa indicata rappresenta la media (in milioni di euro valori costanti 2001) nel periodo 1996/2001 delle spese per attività di ricerca intra-murarie e non comprende la quota parte di costi generali sostenuti dalle strutture centrali dell’ente. ** Il dato comprende sia il personale inquadrato come “ricercatore” sia i “tecnici”. *** I brevetti di autori localizzati in regioni diverse sono equamente ripartiti tra le stesse. Elaborazione degli autori da fonte Cnr REGIONI Spesa* L’ente opera infatti sull’intero territorio nazionale con 108 Istituti dislocati in tutte le regioni, fatta eccezione per Molise e Valle d’Aosta. Nel periodo 1996-2001 la spesa media annuale del Cnr, a valori costanti 2001, è stata di 747,51 milioni di euro. Di questa il 60% (pari a 451,87 milioni di 176 euro) si riferisce alle attività di ricerca intra-murarie dei singoli Istituti. Nello stesso periodo il Cnr ha depositato complessivamente 252 brevetti, di cui 54 scaturiti da attività di ricerca svolte nell’ambito di Progetti Finalizzati o Strategici5. Come si evince dalla Tab. 6, il Lazio è la regione italiana con il maggior numero di brevetti depositati (56,5), seguita da Toscana (47) ed Emilia Romagna (32,5). Non fanno registrare alcun brevetto gli Istituti di quattro regioni (Abruzzo, Basilicata, Friuli Venezia Giulia e Marche). Il numero totale di brevetti trasferiti, nei sei anni del periodo di indagine, ammonta a 50 ed anche in questo caso primeggia il Lazio (12), seguito da Toscana (11) ed Emilia Romagna (8). Gli indicatori di produttività misurati (Tab. 7) sono, per l’attività di ricerca, il rapporto tra il numero di brevetti conseguiti e le spese in ricerca sostenute; per l’attività di trasferimento, il rapporto tra brevetti trasferiti e brevetti conseguiti. Il prodotto dei due fattori (ovvero il rapporto tra brevetti trasferiti e spese sostenute), fornisce un’indicazione del ritorno sull’investimento e dell’efficacia degli Istituti (e dell’intero sistema Cnr) nel contribuire alla competitività industriale (Abramo 1998). In termini di produttività di ricerca, si classificano sopra la media, nell’ordine, la Sicilia (18,57 brevetti ogni 100 milioni di euro di spesa), l’Emilia Romagna (14,55), la Liguria e il Lazio (10,42). Se invece consideriamo la produttività del lavoro (intesa come rapporto tra brevetti depositati e numero di ricercatori) il primato passa all’Emilia Romagna (con 10,09 brevetti ogni 100 ricercatori) seguita dalla Sicilia (9,22) e dalla Toscana (8,87). Tale variazione è verosimilmente legata alla diversa struttura dei costi degli Istituti operanti in settori scientifici diversi. Infatti, a parità di budget totale, un Istituto operante in un settore a più alta intensità di lavoro avrà una posizione peggiore nella classifica della produttività del lavoro rispetto a quella nella classifica della produttività di ricerca. In termini di produttività di trasferimento si distinguono invece l’Umbria, che cede in licenza tutti e due i brevetti depositati, la Liguria che trasferisce 3 dei 9 brevetti depositati e la Lombardia 6 su 24. Molto indietro si posizionano la Campania (1 brevetto trasferito su 20 depositati) e la Sicilia (3 su 26), mentre Puglia, Sardegna, Calabria e Trentino Alto Adige non trasferiscono alcuno dei brevetti che realizzano. Il ritorno sull’investimento è maggiore negli Istituti presenti in Umbria (7,58 brevetti trasferiti ogni 100 milioni di euro di spesa in ricerca), Emilia Romagna (3,58%) e Liguria (3,53%). Superiore alla media generale anche la performance di Lazio (2,21%), Lombardia (2,21) e Sicilia (2,14). Il ritorno sull’investimento è invece nullo in 8 delle 18 regioni in cui è presente l’ente. . 5 I Progetti Finalizzati, di durata quinquennale, sono programmi di ricerca congiunta tra Enti pubblici di ricerca, Università e industria su tematiche considerate strategiche. I Progetti Strategici, di durata più limitata, sono condotti per lo più internamente. 177 Tab. 7 - Indici di produttività Cnr (1996-2001) a livello regionale. REGIONI Umbria Emilia Romagna Liguria Lombardia Lazio Sicilia Toscana Veneto Piemonte Campania Puglia Calabria Trentino A. A. Sardegna Abruzzo Basilicata Friuli V. Giulia Marche MEDIA Brevetti ogni 100 ricercatori 5,88 10,09 7,32 5,78 6,92 9,22 8,87 4,65 4,13 3,65 3,72 2,13 7,69 3,37 0,00 0,00 0,00 0,00 6,22 Ranking 7 1 5 8 6 2 3 9 10 12 11 14 4 13 15 15 15 15 Brevetti ogni Ranking 100 addetti 3,28 6,69 4,81 3,93 4,37 6,68 5,58 3,10 2,87 2,25 2,58 1,45 3,45 2,26 0,00 0,00 0,00 0,00 4,06 8 1 4 6 5 2 3 9 10 13 11 14 7 12 15 15 15 15 Produttività di Ranking ricerca* 7,58% 14,55% 10,59% 8,82% 10,42% 18,57% 7,93% 8,15% 7,27% 6,82% 7,56% 4,31% 9,01% 6,77% 0,00% 0,00% 0,00% 0,00% 9,29% 6 2 3 10 4 1 10 5 8 10 7 9 10 10 10 10 10 10 Produttività di trasferimento** 100,00% 24,62% 33,33% 25,00% 21,24% 11,54% 23,40% 20,00% 20,00% 5,00% 0,00% 0,00% 0,00% 0,00% 19,84% Ranking 1 4 2 3 6 9 5 7 7 10 11 11 11 11 - Ritorno sull’investimento*** 7,58% 3,58% 3,53% 2,21% 2,21% 2,14% 1,86% 1,63% 1,45% 0,34% 0,00% 0,00% 0,00% 0,00% 0,00% 0,00% 0,00% 0,00% 1,84% Ranking 1 2 3 4 4 6 7 8 9 10 11 11 11 11 11 11 11 11 * La produttività di ricerca tecnologica è data dal rapporto tra il numero di brevetti depositati ogni anno in media nel periodo di riferimento (1996/2001) e la spesa media nello stesso periodo (espressa in centinaia di milioni di euro). ** La produttività del trasferimento é data dalla percentuale di brevetti depositati che vengono trasferiti. *** Il ritorno sull'investimento è dato dal prodotto di produttività di ricerca e produttività di trasferimento e indica i brevetti trasferiti ogni 100 milioni di euro di spesa. Elaborazione degli autori da fonte Cnr. 180 I dati di Tab. 8, riportano i risultati della correlazione, rispettivamente, tra produzione brevettale, produttività e licensing regionali del Cnr e input di risorse in termini di spese in ricerca. In particolare emerge una totale assenza di correlazione tra produzione brevettuale e spesa privata in ricerca e sviluppo. Tale risultato contrasta con la tesi nota in letteratura (Furman et al. 2002) secondo cui la spesa privata è un driver importante nei processi di creazione di nuova conoscenza nei laboratori pubblici alle imprese. La produzione brevettuale Cnr appare invece fortemente correlata alla spesa Cnr (indice di correlazione 0,949), così come pure alla spesa di ricerca universitaria (indice di correlazione 0,887). Il primo dato, piuttosto intuitivo, indica un forte legame tra input e output. Il secondo, meno intuitivo, è spiegabile in parte dalle opportunità di collaborazione che danno vita a brevetti a titolarità congiunta e in parte dalla concentrazione di Istituti Cnr in regioni dove è anche elevata la spesa universitaria. In nessun caso la produttività di ricerca è correlata alla spesa in ricerca, il che sta ad indicare l’inesistenza di rendimenti di scala crescenti. Inoltre, la correlazione tra spesa privata e licenze acquisite sembra indicare quanto era lecito attendersi, ossia che le regioni in cui la spesa privata in ricerca è più sostenuta esprimono una maggiore domanda di brevetti. Al fine di valutare l’incidenza della prossimità geografica sul trasferimento dei 50 brevetti oggetto di licensing, si è proceduto ad analizzare la corrispondenza tra le aree geografiche degli autori dei brevetti e le aree geografiche dei rispettivi licenziatari. Tab. 8 - Matrice di correlazione tra spesa regionale in ricerca e produzione brevettale, produttività e licensing regionali del Cnr (1996-2001). Brevetti Cnr Spesa* privata Spesa* Cnr Spesa* universitaria 0,365 0,949 0,887 Produttività di ricerca Cnr 0,220 0,390 0,585 Licenze acquisite ** 0,742 0,745 0,774 * A valori costanti 2001 ** Ci si riferisce alle licenze di brevetti Cnr acquisite dalle imprese di una regione Elaborazione degli autori da fonti Cnr e Istat. I dati riportati in Tab. 9 mostrano che i 50 brevetti trasferiti nel periodo 1996-2001 (di cui 8 derivanti da Progetti Finalizzati e 42 da attività ordinaria) hanno dato vita a 78 licenze, per lo più verso imprese italiane, 57. Le restanti 21 licenze (pari al 27% del totale) sono concesse ad imprese estere6 (vedi 6 Le regioni che risultano più attive nelle licenze internazionali sono il Lazio e l’Umbria, 179 Tab. 10) e si riferiscono a 9 brevetti di cui 6 (il 12% dei 50 totali) non vengono comunque concessi ad alcuna impresa sul territorio nazionale. Inoltre, solo una licenza su tre è sottoscritta da imprese presenti nella stessa regione dell’Istituto autore del brevetto. Ampliando ulteriormente l’aggregazione territoriale (Nord, Centro e Sud) risulta che sono il 42% del totale le licenze concesse a imprese ubicate nella stessa area geografica dell’Istituto autore. Gli Istituti delle regioni del Nord trasferiscono prevalentemente a imprese del Nord (17 licenze sulle 23 totali), quelli del Centro per lo più all’estero (19 su 51) e quelli del Sud non trasferiscono nulla del proprio portafoglio brevettuale alle imprese meridionali (Tab. 11). In particolare, volendo analizzare il saldo tra acquisizioni e cessioni di brevetti, si nota che la Lombardia è la regione che ha sottoscritto più licenze Cnr (12), mentre gli Istituti ivi presenti ne hanno concesse solo 6, di cui tre a imprese locali. Tale regione risulta dunque quella con una maggiore propensione ad importare brevetti Cnr (Fig. 2). All’estremo opposto troviamo nell’ordine Umbria, Lazio e Toscana con 51 licenze concesse e 18 acquisite complessivamente. Tab. 9 - Flussi tecnologici regionali relativi alle licenze di brevetti Cnr nel periodo 1996-2001. Progetti Finalizzati Totale Regione dell’Istituto autore del brevetto trasferito Piemonte 2 2 Lombardia 3 1 2 6 Veneto 2 2 Liguria 1 1 1 1 4 Emilia Romagna 3 1 4 1 9 Toscana 3 2 1 10 1 1 18 Umbria 1 2 2 12 17 Lazio 1 1 4 1 1 1 6 16 Campania 1 1 Sicilia 3 3 Totale 6 12 4 6 11 1 6 2 1 3 1 1 3 21 78 Elaborazione degli autori da fonte Cnr. Brevetti trasferiti Da attività ordinaria Piemonte Lombardia Veneto Emilia Romagna Toscana Umbria Lazio Abruzzo Campania Puglia Basilicata Calabria Sicilia ESTERO Totale Regione del soggetto licenzatario 2 3 2 3 7 9 2 10 1 3 42 0 3 0 0 1 2 0 2 0 0 8 2 6 2 3 8 11 2 12 1 3 50 rispettivamente con 7 e 12 licenze. In particolare, nel periodo analizzato, l’Umbria ha depositato solo due brevetti che hanno dato origine però a ben 17 licenze, di cui 12 all’estero, 2 in Puglia, 2 in Sicilia ed 1 in Umbria stessa. 180 Piemonte Lombardia Veneto Liguria Emilia Romagna Toscana Totale Licenze Estero Altre aree geografiche Ubicazione del licenziatario Stessa area geografica Stessa regione Tab. 10 - Origine e destinazione dei brevetti Cnr concessi in licenza nel periodo 1996-2001. 0 (0%) 0 (0%) 1 (16,7%) 2 (33,3%) 0 (0%) 0 (0%) 2 (50%) 0 (0%) 1 (11,1%) 0 (0%) 7 (38,9%) 0 (0%) 12 Umbria 1 (5,9%) 0 (0%) 4 (23,5%) (70,6%) Lazio 4 (25,0%) 0 (0%) 5 (31,3%) 7 (43,8%) Campania 0 (0%) 0 (0%) 1 (100%) 0 (0%) Sicilia 0 (0%) 0 (0%) 3 (100%) 0 (0%) 24 21 Totale 26 (33,3%) 7 (9,0%) (30,8%) (26,9%) Elaborazione degli autori da fonte Cnr. Regione dell’Istituto autore del brevetto 2 (100%) 0 (0%) 3 (50%) 0 (0%) 2 (0%) 0 (0%) 0 (0%) 2 (50%) 4 (44,4%) 4 (44,4%) 10 (55,6%) 1 (5,6%) 2 6 2 4 9 18 17 16 1 3 78 Tab. 11 - Flussi di licenze dei brevetti Cnr per area geografica (1996-2001). Ubicazione dell’Istituto autore del brevetto Nord Centr o Sud Totale Nord 17 Ubicazione del licenziatario Centro Sud Estero 3 1 2 Totale 23 8 16 8 19 51 3 28 1 20 0 9 0 21 4 78 Elaborazione degli autori da fonte Cnr. 181 Fig. 2 - Analisi regionale import-export di licenze Cnr. Export licenze Import licenze dia te Lo mb ar mo n Pie gli a Pu r uz zo Ab net o Ve ria ata Ca lab ilia Ba sili c Sic uri a ilia Ro ma gn a Ca mp a ni a Em Li g zio To sca na La Um br i a 20 18 16 14 12 10 8 6 4 2 0 Elaborazione degli autori da fonte Cnr. Dati riferiti al periodo 1996-2001. In Errore. L'autoriferimento non è valido per un segnalibro.3 è riportato il diagramma del numero di licenze concesse in funzione della distanza geografica tra l’Istituto autore del brevetto e l’impresa licenziataria. Fig. 3 - Diagramma delle distanze tra punto di origine dei brevetti Cnr e sede dei licenziatari (1996-2001). 20 Lic en 16 ze co nc 12 es se 8 4 0 <10 11-100 101200 201300 301400 401500 501600 601700 701800 801900 Distanza Istituto autore-impresa licenziataria (Km) Elaborazione degli autori da fonte Cnr. 182 9011000 Oltre 1000 Estero L’andamento evidenziato si discosta da quello esponenziale decrescente che ci si attenderebbe in presenza di effetto prossimità. Certamente, non considerando le licenze concesse all’estero e limitando l’analisi ai soli brevetti realizzati da Istituti delle regioni del Nord, l’andamento sarebbe più prossimo ad un esponenziale decrescente. A questo proposito, l’indicatore noto in letteratura come BASTT (Baricentro Spaziale del Trasferimento Tecnologico), può essere un utile riferimento per quantificare il raggio di azione degli Istituti del Cnr nelle attività di licensing7. Escludendo le licenze concesse all’estero e utilizzando le tabelle dell’Istituto Geografico De Agostini per il calcolo della distanza tra i soggetti licenziatari (aggregati per provincia) e l’Istituto licenziante, l’indice BASTT italiano è stato quantificato in 332 km circa. In particolare, il raggio d’azione degli Istituti del Nord è di 187 km, quello degli Istituti del Centro di 318 km e quello degli Istituti del Sud di 1205 km. Considerando la distanza tra le ubicazioni dell’autore del brevetto e del licenziatario, per le 57 licenze concesse a imprese nazionali, il primo quartile (caratterizzato da un valore medio della distanza pari a 13 Km) è composto per oltre il 70% da Istituti del Nord. Relativamente al trasferimento di nuova conoscenza codificata in forma brevettuale e al caso Cnr, le risultanze dell’analisi mostrano che non sussiste il cosiddetto effetto “vicinato” o “prossimità”; piuttosto, il trasferimento tecnologico sembrerebbe insensibile alla distanza, arrivando a interessare anche imprese molto lontane dalla fonte della nuova conoscenza. Questa evidenza contrasta con le conclusioni del lavoro di Coccia (2000). Con tutta probabilità tale divergenza va ricondotta a due assunti della metodologia utilizzata dall’autore. Prima di tutto viene considerato “trasferimento tecnologico” ogni tipo di interazione che implichi l’emissione di una fattura attiva da parte degli Istituti Cnr; secondo, l’analisi si limita alle attività dei soli Istituti piemontesi8. Il buon senso porterebbe ad ipotizzare che l’effetto prossimità nel trasferimento è tanto maggiore quanto più alta è la spesa privata in ricerca. Le risultanze dell’indagine condotta confermano questa ipotesi: la correlazione tra la classifica del BASTT regionale e quella relativa al livello di spesa privata è pari a 0,795 (Tab. 12). 7 Tale indicatore è tipico dell’approccio spaziale neoclassico ed è esprimibile come la distanza media tra l’Istituto autore del brevetto e l’impresa licenziataria. 8 Per il Piemonte, anche l’analisi proposta conferma la presenza dell’effetto prossimità, se si considera che le uniche due licenze concesse dagli Istituti della regione finiscono a imprese locali. Tale tesi, però, non può essere generalizzata a livello nazionale perché solo in Veneto si ripete la stessa situazione e comunque con numeri davvero esigui (due licenze per altrettanti brevetti). 183 Tab. 12 - BASTT regionali (per attività di licensing nel periodo 19962001 di brevetti Cnr) e spesa privata regionale in R&S (media nel periodo 1998-2001 a valori costanti 2001). BASTT* (Km) 10 25 161 179 216 354 401 520 621 1433 Regione Veneto Piemonte Lombardia Emilia Romagna Toscana Lazio Liguria Campania Umbria Sicilia Classifica BASTT 1 2 3 4 5 6 7 8 9 10 Spesa privata Classifica (x1.000 euro) Spesa Privata 271.717 5 1.386.367 2 2.089.477 1 541.995 4 240.049 6 709.041 3 168.466 8 233.249 7 22.658 10 118.983 9 * Tale valore si riferisce ai soli trasferimenti in ambito nazionale Elaborazione degli autori da fonte Cnr e Istat. Ciononostante, l’analisi delle singole realtà regionali (Fig. 4), mostra una certa dispersione dei dati. Piemonte Veneto Fig. 4 - Diagramma di correlazione tra trasferimenti intra-regionali di brevetti Cnr e spesa privata in R&S. 50% 40% 30% 20% 10% Lombardia 60% Lazio 70% Toscana 80% Umbria Sicilia Liguria Campania Licenze concese nella stessa regione (%) 90% Emilia Romagna 100% 0% Spesa privata in R&S (media 98-01 x 1.000K euro, a valori costanti 2001) Elaborazione degli autori da fonte Cnr. 184 In particolare, spicca la posizione della Lombardia che, pur avendo la massima spesa privata in ricerca (e un tessuto industriale dinamico, con forte concentrazione di attività high tech), si caratterizza per una produzione tecnologica Cnr e un trasferimento intra-regionale piuttosto modesto. In questo caso, visto l’elevato numero complessivo di licenze acquisite, è presumibile un certo disallineamento tra domanda privata e offerta pubblica regionale di tecnologia. Per Emilia Romagna, Toscana, Veneto e Piemonte valgono considerazioni diverse. Tali regioni presentano un trasferimento intra-regionale, in rapporto agli investimenti privati in ricerca, superiore a tutte le altre regioni italiane, segno di una più radicata cultura di collaborazione e integrazione pubblico-privato (non a caso, le stesse regioni si caratterizzano per un’alta concentrazione di distretti industriali). Il Lazio si colloca piuttosto vicino alla bisettrice, ma comunque al di sotto. La regione presenta un livello elevato di spesa privata in ricerca (rispetto alle 10 regioni considerate) e una forte concentrazione di enti, Istituti e laboratori pubblici di ricerca che però sembrano avere più nelle imprese estere che in quelle locali il loro interlocutore principale. Liguria, Sicilia e Campania formano un ultimo cluster caratterizzato da bassi livelli assoluti di investimenti privati in ricerca e operazioni di licensing mai a carattere intra-regionale, probabilmente a causa dell’assenza di interlocutori locali interessati alle invenzioni realizzate. 5. Conclusioni L’indagine condotta ha consentito di rappresentare l’infrastruttura tecnologica delle regioni italiane quantificando, da una parte, il potenziale generativo di nuova conoscenza e innovazione e, dall’altra, la capacità di sfruttare tale conoscenza da parte dei soggetti industriali presenti sul territorio. I risultati rivelano un notevole differenziale tra le regioni in termini di capacità innovativa. In particolare, le regioni del Centro-Sud mostrano un’infrastruttura tecnologica quasi del tutto di natura pubblica, mentre quelle del Nord (in particolare Piemonte e Lombardia), hanno nelle imprese il motore principale dell’attività di ricerca e sviluppo. Allo stesso tempo il dato relativo ai brevetti depositati indica che Piemonte e Lombardia risultano le più “produttive” mentre le regioni del Sud (e in qualche misura anche il Lazio) hanno performance più scadenti. Inoltre, fatta eccezione per il Piemonte, le regioni che depositano più brevetti Epo, si posizionano nelle ultime posizioni nella classifica del saldo della Bilancia Tecnologica dei Pagamenti, a dimostrazione che l’attività inventiva in Italia, per quanto sviluppata, ancora non è in grado di soddisfare la domanda interna di tecnologia. D’altra parte, la letteratura indica l’importanza degli investimenti privati in ricerca e della prossimità geografica nei processi di trasferimento di nuova conoscenza dalle Università e dagli Enti pubblici di ricerca alle 185 imprese. Invece, l’analisi dei flussi di tecnologia derivanti dal licensing di brevetti realizzati presso gli Istituti del Consiglio Nazionale delle Ricerche indica che, per questa forma di codifica della conoscenza, solo in alcune regioni del Nord il trasferimento avviene, di preferenza, su scala regionale. Per il resto delle regioni sembrerebbe verificata l’insussistenza dell’ipotesi di limitazione geografica degli spillover e del cosiddetto “effetto prossimità” per i flussi di conoscenza codificata e protetta. Infatti, gli Istituti del Cnr ubicati nelle regioni del Centro trasferiscono i propri brevetti per lo più a imprese estere e quelli ubicati al Sud non trasferiscono nulla del proprio portafoglio brevettuale alle imprese locali. L’indagine ha anche consentito di evidenziare la totale assenza di correlazione tra produzione brevettuale dell’Ente e spesa privata in ricerca e sviluppo, situazione anomala rispetto a quanto indicato in letteratura. Gli investimenti privati, semmai, “attirano” tecnologia (in termini di licenze di brevetto) e facilitano il trasferimento intra-regionale, ma non incidono sulla produzione locale di nuova conoscenza. Sebbene i numeri su cui si fondano tali evidenze siano piuttosto bassi, essi risultano tuttavia rappresentativi di un’ampia fetta del sistema di ricerca pubblico italiano. Tutto ciò evidenzia, pur con qualche eccezione, una sostanziale debolezza dei nostri sistemi innovativi locali (pubblico-privato). Le probabili cause possono essere ricondotte a tre situazioni che configurano altrettante direzioni d’indagine per ulteriori futuri approfondimenti. Forse non sempre esistono interlocutori industriali appropriati per i laboratori di ricerca pubblici ubicati in determinate regioni. Se così fosse occorrerebbe rimettere in discussione, da parte pubblica, la scelta di ubicazione degli Istituti in questione e, da parte privata, le strategie tecnologiche di localizzazione. Magari, una più attenta analisi, da parte dell’offerta, dei bisogni locali di innovazione e, da parte della domanda, delle fonti di nuova conoscenza potrebbe meglio guidare il processo di decision making politico ed aziendale. O forse gli interlocutori industriali esistono ma sono più “deboli” rispetto a quelli di altre zone. In altre parole le imprese del Nord (o quelle estere) sono in grado di esercitare un maggior potere di “attrazione” sulle invenzioni e le scoperte realizzate al Centro e al Sud. Infine, il ruolo della cultura di collaborazione ed integrazione (vedi distretti industriali) e la presenza di fattori catalizzanti il processo di trasferimento tecnologico locale quali politiche incentivanti, organizzazioni d’intermediazione, ecc. potrebbero contribuire più o meno significativamente a realizzare il connubio pubblico-privato nei sistemi innovativi locali. Dunque, se da una parte le politiche comunitarie e la “devoluzione” nazionale spingono nella direzione di uno sviluppo regionale dei sistemi innovativi, dall’altra sembra evidente che la sola presenza di laboratori pubblici di ricerca non genera sistematicamente, su un determinato territorio, innovazione, investimenti, sviluppo. Gli sforzi in termini di finanziamento e sostegno allo sviluppo locale (soprattutto per le regioni svantaggiate) 186 andrebbero indirizzati secondo logiche sistemiche. Politica della ricerca e politiche industriali non possono ignorarsi ma devono integrarsi e sostenersi a vicenda con l’obiettivo di migliorare la competitività del tessuto produttivo e generare sviluppo per il Paese. 187 BIBLIOGRAFIA ABRAMO, G. (1998), “Il sistema ricerca in Italia: il nodo del trasferimento tecnologico”, Economia e Politica Industriale, n. 99, pp. 67-98. ACS, Z. J. – ANSELIN, L. - VARGA A. (2002), “Patents and innovation counts as measures of regional production of new knowledge”, Research Policy, Vol. 31, n. 7, pp. 1069-1085. ANSELIN, L. – VARGA, A. – ACS, Z. (2000), “Geographical Spillovers and University Research: A Spatial Econometric Perspective”, Growth and Change, Vol. 31, n. 4, pp. 501-515. ARROW, K. (1962), “Economic welfare and the allocation of resources to invention”, in Nelson R. (ed.), The Rate and Direction of Inventive Activity, NBER, Princeton UP. AUDRETSCH, D. – FELDMAN, M.P. (1996), “R&D Spillovers and the Geography of Innovation and Production”, American Economic Review, Vol. 86, pp. 630-640. AUDRETSCH, D. – STEFAN, P. (1996), “Company-scientist locational links: the case of biotechnology”, American Economic Review, Vol. 83, pp. 641-652. AUDRETSCH, D. – VIVARELLI, M. (1994), “Small-firms and R&D spillover: evidence from Italy”, Discussion paper 953, Center for Economic Policy Research. AUTANT-BERNARD, C. (2001), “Science and knowledge flows: evidence from the French case”, Research Policy, Vol. 30, n. 7, pp. 10691078. BRESCHI, S. (1998), “Economie di agglomerazione e concentrazione geografica delle attività italiane: analisi del caso italiano”, LIUC Papers, n. 57, (Serie: Economia e impresa). CEC, COMUNITÀ EUROPEA (1995), Libro Verde sull’Innovazione, Office for Official Publications of the European Communities, Bruxelles, n. 688. COCCIA, M. (2000), Trasferimento Tecnologico: Analisi Spaziale, Working Paper CERIS-Cnr, Vol. 2, n. 1. COOKE, P. – URANGA, M.G. – ETXEBARRIA, G. (1997), “Regional innovation systems: Institutional and organisational dimensions”, Research Policy, Vol. 26, n. 4-5, pp. 475-491. EUROPEAN COMMISSION (1995), Green Paper, Lussemburgo. EUROPEAN COMMISSION (2003), Ricerca e innovazione: programma specifico per la ricerca, lo sviluppo tecnologico e la dimostrazione – “Strutturare lo Spazio europeo della ricerca” nell'ambito del sesto programma quadro (2002-2006), Lussemburgo. EUROSTAT (2001), R&D Annual Statistics, NewCronos Data Base. FELDMAN, M.P. (1994), The Geography of Innovation, Kluwer Academic Publisher, Dordrecht. 188 FURMAN, J.L. – PORTER, M.E. – STERN, S. (2002), “The determinants of national innovative capacity”, Research Policy, Vol. 31, n. 6, pp. 899-933. GRILICHES, Z. (1979), “Issues in assessing the contribution of Research and Development to Productivity Growth”, Bell Journal of Economics, Vol. 10, pp. 92-116. GRILICHES, Z. (1990), “Patent statistics as economic indicators: a survey”, Journal of economic literature, Vol. 28, pp. 1661-1707. ISTITUTO NAZIONALE DI STATISTICA (Istat), (2003), La Ricerca e Sviluppo in Italia: anno 2001 e previsioni per gli anni 2002-2003. ISTITUTO PER LA PROMOZIONE INDUSTRIALE (IPI), (2003), Regional innovation scoreboard: quadro di valutazione dell’innovazione regionale. JAFFE, A. (1989), “Real Effects of Academic Research”, American Economic Review, Vol. 75, pp. 957-970. JAFFE, A. – TRAJTENBERG, M. – HENDERSON, R. (1993), “Geographic localisation of knowledge spillover as evidenced by patent citations”, Quarterly Journal of Economics, Vol. 108, pp. 557-598. LEGGE COSTITUZIONALE 18 ottobre 2001, n. 3 - Modifiche al titolo V della parte seconda della Costituzione. MANSFIELD, E. (1998), “Academic research and industrial innovation: An update of empirical findings”, Research Policy, Vol. 26, n. 7-8, pp. 773776. MANSFIELD, E. – LEE, J.Y. (1996), “The modern university: contributor to industrial innovation and recipient of industrial R&D support”, Research Policy, Vol. 25, n. 7, pp. 1047-1058. OCSE (2003), “Science, Technology and Industry Scoreboard”. PACI, S. – USAI, R. (2000), “The role of specialisation and diversità externalities in the agglomeration of innovative activities”, Rivista Italiana degli Economisti, Vol. 5, n. 2, pp. 237-268. PICCALUGA, A. – PATRONO, A. (2001), “Attività brevettuale degli Enti pubblici di ricerca italiani: un’analisi sul periodo 1982-2001”, Economia e politica industriale, n. 109, pp. 81-111. PORTER, M. (1990), The Competitive Advantage of Nations, Free Press, New York. RALLET, A. – TORRE, A. (1999), “Is geographical proximity necessary in the innovation networks in the era of global economy?”, GeoJournal, vol. 49, pp 373–380 ROGERS, E. – LARSEN, J. (1984), Silicon Valley Fever, Basic Books, New York. SAXENIAN, A. (1985), Silicon Valley and Route 128: Regional Prototypes or Historic Exception?, in Castells M. (ed.), High Technology, Space and Society, Sage Pubblication, London, pp. 91-105. 189 TRACEY, P. – CLARK, G.L. (2003), “Alliances, Networks and Competitive Strategy: Rethinking Clusters of Innovation”, Growth and Change, Vol. 34, n. 1, pp. 1-16. VARGA, A. (2000), “Local academic knowledge transfers and the concentration of economic activity”, Journal of Regional Science, Vol. 40, n. 2, pp. 289-309. VERSPAGEN, B. – SCHOENMAKERS, W. (2000), The spatial dimension of Knowledge Spillovers in Europe: evidence from firm patenting data, Merit, Maastricht. WICKSTEED, S. (1985), The Cambridge Phenomenon. The Growth of High Technology Industry in a University Town, Wicksteed, Cambridge. ZUCKER, L. – DARBY, M. – BREWER, M. (1998), “Intellectual human capital and the birth of US biotecnology industry”, American Economic Review, Vol. 88, pp. 290-306. 190 NOTE PER GLI AUTORI I lavori da pubblicare devono essere inviati per posta elettronica all’indirizzo [email protected] in formato Word 7.0 per Windows 98 (o superiore), oppure consegnarli su dischetto da 3,5’’ con l’indicazione dell’indirizzo e del numero telefonico dell’Autore a: Luiss Guido Carli Redazione di Economia, Società e Istituzioni Via O. Tommasini, 1 - 00162 ROMA L’Autore deve sempre indicare la propria qualifica professionale e l’Istituzione di appartenenza, il codice di riferimento secondo la JEL Classification (consultabile all’indirizzo www.aeaweb.org./journal/jel_class_system.html, le parole chiave dell’articolo. Gli articoli pervenuti alla redazione che non rispettano le seguenti regole non saranno accettati per la pubblicazione. Testo: gli articoli devono essere impaginati ad interlinea 1 su pagine formato A4 con margine superiore di cm 4,8, inferiore cm 5,5, sinistro cm 4,3, destro cm 4,6, intestazione cm 1,25, piè di pagina cm 4,8, rientro prima riga di cm 0,5 con carattere Times New Roman punti 11 per il testo e punti nove per le note. Il titolo deve essere a lettere maiuscole centrato grassetto. Paragrafi: l’introduzione, i paragrafi, sottoparagrafi e le conclusioni devono essere numerati (con numero cardinale con carattere normale, punti 11). Le parole “Introduzione” e “Conclusioni” ed il titolo dei paragrafi devono essere in grassetto, i sottoparagrafi in corsivo. Note: devono essere numerate, con numero cardinale progressivamente dall’inizio alla fine dell’articolo ed inserite a fondo pagina. Equazioni: devono essere indicate con due numeri cardinali (a destra tra parentesi tonde): il primo coincide con il numero del paragrafo in cui compare l’equazione; il secondo è il numero progressivo dell’equazione all’interno dello stesso paragrafo. La numerazione progressiva delle equazioni, quindi, deve iniziare di nuovo in ogni paragrafo. Le equazioni vanno compilate con Equation Editor per Word (oppure con word). Non verranno accettati file in Latex. Tabelle: devono essere indicate con numero cardinale progressivo. L’indicazione (Tab. …) e il titolo della tabella (in maiuscolo solo la prima lettera della prima parola) devono essere posti al di sopra di ogni tabella. La fonte deve essere riportata al di sotto della tabella. Grafici: devono essere indicati con numero cardinale progressivo. Si ricorda agli autori che la rivista è in bianco e nero, dunque non saranno accettati articoli che contengono grafici o tabelle a colori, o contenenti grafici e tabelle in formato diverso da Word o Excel per Windows. Tabelle e grafici devono avere estensione xls, pp o jpeg. Riferimenti bibliografici: la citazione nel testo, tra parentesi tonde, deve riportare il cognome dell’Autore e l’anno di pubblicazione. Es.: (Graziani, 1986). La citazione in nota deve riportare il cognome dell’Autore, preceduto dall’iniziale del nome e, tra parentesi tonde, la data del lavoro. Es.: K. Cohen (1965). La bibliografia, in ordine alfabetico per Autore, deve essere riportata alla fine del lavoro, secondo il seguente schema: BIBLIOGRAFIA CONIGLIANI, G. – LANCIOTTI, G. (1978), “Concentrazione, concorrenza e controlli all’entrata”, in La struttura del sistema creditizio italiano, a cura di G. Carli, Il Mulino, Bologna. GRAZIANI, A. (1986), La spirale del debito pubblico, Il Mulino, Bologna. PHILIPS, L. – THISSE, J.F. (1982), “Spatial competition and the theory of differentiated markets”, Journal of Industrial Economics, n. e pp. Si devono tenere presenti le seguenti regole: la parola “bibliografia” deve essere scritta in maiuscolo grassetto al centro della pagina; il cognome dell’Autore, seguito dalla virgola e poi dall’iniziale del nome, deve essere scritto in maiuscolo; in caso di più Autori, i cognomi devono essere separati da un trattino; l’anno del lavoro va indicato, tra parentesi tonde, di seguito al cognome dell’Autore. Inoltre, per i libri, bisogna dare indicazione del titolo (corsivo), dell’editore e della città; per gli articoli, bisogna indicare il titolo tra virgolette e il nome della rivista (corsivo). Appendice: deve essere scritta in maiuscolo neretto a sinistra della pagina e va inserita dopo la bibliografia. Non va inserito il numero di pagina. CONDIZIONI DI ABBONAMENTO _____________________________________________________________________________________ LA QUOTA DI ABBONAMENTO PER L’ANNO 2005 E' DI € 40,00. Tutti coloro che desiderano ricevere la rivista potranno contrarre regolare abbonamento annuo versando € 40,00 sul c/c postale n. 39703863 intestato a: Pola s.r.l. – Luiss University Press, Viale Pola, 12 – 00198 Roma. L’abbonamento decorre dal mese di gennaio e si intenderà automaticamente rinnovato se non interviene disdetta, a mezzo lettera raccomandata, almeno un mese prima della scadenza. La disdetta comunque non è valida se l'abbonato non è in regola con i pagamenti. Il rifiuto o la restituzione dei fascicoli della rivista non costituiscono disdetta dell'abbonamento a nessun effetto. Per qualsiasi contestazione è competente il Foro di Roma. PREZZO UNITARIO € 16,00. FASCICOLI ARRETRATI € 18,00 CIASCUNO. _____________________________________________________________________________________ _____________________________________________________________________________________ Pubblicazione registrata al Tribunale di Roma, il 4/3/91 N. 121 _____________________________________________________________________________________ Pubblicazione con pubblicità inferiore al 70%