sessione libera - Dipartimento di Informatica

Transcript

sessione libera - Dipartimento di Informatica
SOCIETÀ ITALIANA DEGLI ECONOMISTI
XLVII Riunione Scientifica Annuale
SINTESI DELLE RELAZIONI
E DELLE
COMUNICAZIONI
27-28 ottobre 2006
Palazzo di Economia
Università degli Studi di Verona
Via dell’artigliere, 19
4
5
Comitato Scientifico della 47ª Riunione Scientifica Annuale
Giorgio LUNGHINI (Presidente)
Lilia COSTABILE e Marcello DE CECCO (Vicepresidenti)
Giuliano CONTI (Segretario Generale)
Giovanni DOSI, Riccardo FAINI, Luigi FILIPPINI, Elsa FORNERO, Alessandro VERCELLI
Comitato Organizzatore Locale
Diego LUBIAN (Presidente Comitato Organizzatore Locale)
Federico PERALI (Direttore Dipartimento di Scienze Economiche)
Francesco ROSSI (Preside della Facoltà di Economia)
Alessandro MAZZUCCO (Rettore dell’ Università degli Studi di Verona)
http://dse.univr.it/
Comitato di selezione delle Sessioni Libere
Riccardo FAINI (Presidente), Marco DARDI, Luigi FILIPPINI, Franco MALERBA, Franco
PERACCHI
Ringraziamenti
La 47ª Riunione Scientifica Annuale della Società Italiana degli Economisti è stata
realizzata con il contributo di
Banca Intesa
Cattolica Assicurazione
Consorzio per gli Studi Universitari Verona
Scuola di Specializzazione per l’Insegnamento Secondario
Dipartimento di Scienze Economiche
Facoltà di Economia
A queste istituzioni va il più vivo ringraziamento della Società Italiana degli Economisti e
del Comitato Organizzatore.
6
7
47ª RIUNIONE SCIENTIFICA ANNUALE
UNIVERSITA’ DEGLI STUDI DI VERONA
PALAZZO DI ECONOMIA
VIA DELL’ARTIGLIERE, 19
27-28 OTTOBRE 2006
PROGRAMMA
VENERDI’ 27 OTTOBRE
MATTINA
ore 9
Registrazione dei partecipanti
ore 9,30–10
Indirizzo di saluto del Presidente della SIE,
Giorgio LUNGHINI
ore 10–11
Lezione: Francesco GIAVAZZI,
“ Effetti non-Keynesiani delle politiche fiscali:
quanto è robusta l’evidenza empirica?”
ore 11,10–13
SESSIONI LIBERE:
RELAZIONI ACCETTATE
MACRO INTERNAZIONALE
Coordinatore: Riccardo FIORENTINI
Relazioni:
•
•
•
Euro Corporate Bonds Risk Factors: Carolina Castagnetti e Eduardo Rossi
International Reserve Glut: it is for Real?: Giulio Cifarelli e Giovanna Paladino
What is Global Excess Liquidity, and does it Matter?: Rasmus Rüffer e Livio Stracca
Discussione
8
INTERNAZIONALE REALE
Coordinatore: Luca ZARRI
Relazioni:
•
•
•
On Some Effects of International Fragmentation of Production on Comparative
Advantages, Trade Flows, and the income of Countries: Salvatore Baldone, Fabio Sdogati
e Lucia Tajoli
Le misure dell’impulso del commercio estero alla crescita: quanto conta
l’internazionalizzazione della produzione?: Emanuele Breda, Rita Cappariello e Roberta
Zizza
International Outsourcing and Productivity in Italian Manufacturing: Alessia Lo Turco
Discussione
MERCATO DEL LAVORO E ISTRUZIONE
Coordinatore: Martina MENON
Relazioni:
•
•
•
The Generation Gap: an Analysis of the Decline in the Relative Earnings of Young Male
Workers in Italy: Alfonso Rosolia e Roberto Torrini
Making the Italian Labour Market More Flexible: an Evaluation of the Treu Reform: Dario
Sciulli
Entry Regulations and Labour Market Outcomes: Evidence from the Italian Retail Trade
Sector: Eliana Viviano
Discussione
MACROECONOMIA
Coordinatore: Nicola PAVONI
Relazioni:
•
•
•
Equilibrium Existence and Policy Neutrality in Static LQ Games: Nicola Acocella e
Giovanni Di Bartolomeo
Fiscal Policy in a Monetary Economy with Capital and Finite Lifetime: Barbara
Annicchiarico, Nicola Giammarioli e Alessandro Piergallini
Determinants of Fiscal Policies in the Euro Area: Roberto Golinelli e Sandro
Momigliano
Discussione
9
CRESCITA
Coordinatore: Giam Pietro CIPRIANI
Relazioni:
•
•
•
•
Testing for Country Heterogeneity in Growth Models Using a Finite Mixture Approach:
Marco Alfò, Giovanni Trovato e Robert J. Waldmann
A Longitudinal Analysis of Venture Capital Financing and the Growth of New Technologybased Firm the Role of Investors’ Typology: Fabio Bertoni, Massimo G. Colombo e Luca
Grilli
How Do Output Growth Rate Distributions Look Like? Some Time-Series Evidence on
OECD Countries: Giorgio Fagiolo, Mauro Napoletano e Andrea Roventini
Convergence Across Italian Regions and the Role of Technological Catch-up: Marco
Maffezzoli
Discussione
INDUSTRIALE
Coordinatore: Angelo ZAGO
Relazioni:
•
•
•
•
Partial Regulation in Vertically Differentiated Industries: Angela S. Bergantino, Etienne
Billette De Villemeur e Annalisa Vinella
Restructuring Public Transit Systems: Evidence on Cost Properties and Optimal Network
Configuration from Medium and Large-Sized Companies: Carlo Cambini, Massimiliano
Piacenza e Davide Vannoni
Mixed Duopoly, Privatization and the Shadow Cost of Public Funds: Exogenous and
Endogenous Timing: Carlo Capuano e Giuseppe De Feo
L’equilibrio sul campo quando i club hanno obiettivi differenti: l’esperienza recente della
serie A di calcio: Nicola Giocoli
Discussione
ore 13,10–14
Buffet
10
POMERIGGIO
ore 14,10-16
Assemblea Annuale dei Soci
ore 16,10–18
SESSIONI LIBERE:
RELAZIONI ACCETTATE
INTERNAZIONALE REALE
Coordinatore: Luca ZARRI
Relazioni:
•
•
•
The Evolution of World Trade and the Italian “Anomaly”: a New Look: Michele Di Maio e
Federico Tamagni
On the Robustness of Robustness Checks of the Environmental Kuznets Curve: Marzio
Galeotti, Matteo Manera e Alessandro Lanza
Does Antidumping Use Contribute to Trade Liberalization? An Empirical Analysis:
Michael O. Moore e Maurizio Zanardi
Discussione
MERCATO DEL LAVORO E ISTRUZIONE
Coordinatore: Martina MENON
Relazioni:
•
•
•
Scholarships or Student Loans?: Alessandro Cigno e Annalisa Luporini
The Effect of Education on Youth Mortality: Piero Cipollone, Debora Radicchia e
Alfonso Rosolia
Be as Careful of the Books you Read as of the Company you Keep. Evidence on Peer Effects
in Educational Choices: Giacomo De Giorgi, Michele Pellizzari e Silvia Redaelli
Discussione
11
MACROECONOMIA
Coordinatore: Nicola PAVONI
Relazioni:
•
•
•
Taylor Rule under Rule-of-Thumb Consumers and External Habits: an International
Comparison: Giovanni Di Bartolomeo, Lorenza Rossi e Massimiliano Tancioni
Mortgage Lending and the Choice between Fixed and Adjustable Rate: Monica Paiella e
Alberto Franco Pozzolo
Stochastic Discount Factor Volatility and the Coskewness Puzzle in the Cross-Section of
Excess Returns: Valerio Potì
Discussione
CRESCITA
Coordinatore: Giam Pietro CIPRIANI
Relazioni:
•
•
•
Collective Norms in Basic Research and Economic Growth: Maria Rosaria Carillo e
Erasmo Papagni
Is Europe Becoming a Knowledge-Driven Economy? Evidence from EU Developed Regions:
Alessandro Sterlacchini e Francesco Venturini
The Long-Run Impact of ICT: Francesco Venturini
Discussione
INDUSTRIALE
Coordinatore: Angelo ZAGO
Relazioni:
•
•
•
The Underlying Internal Learning Processes of Incremental and Radical Innovations: An
Empirical Analysis of the Reggio Emilia Industrial Districts: Paolo Pini e Grazia D.
Santangelo
Political Economy of Mass Media: Public Good, News and Voting Behaviour: Cosimo
Scagliusi
Complementary between Heterogeneous Human Capital and R&D: can Job-Training Avoid
Low Development Traps?: Sergio Scicchitano
Discussione
12
TEORIA
Coordinatore: Eugenio PELUSO
Relazioni:
•
•
•
•
Effort Provision and Information Acquisition in Different Organizational Forms: Maria De
Paola e Vincenzo Scoppa
Optimal Information Releasing in Multidimensional Public Procurement: Nicola Doni
Su Mandler e l’indeterminatezza sraffiana: Saverio Maria Fratini e Enrico Sergio
Levrero
Uncovered Set Choice Rule: Michele Lombardi
Discussione
ore 18,10–19,30
Spazio di discussione: “L’insegnamento dell’economia nel triennio:
quale futuro?”
Coordinatore: Luigi FILIPPINI
Relazione di Andrea BELTRATTI
Intervento di Ignazio MUSU
Discussione
ore 20,30
Cena Sociale
13
SABATO 28 OTTOBRE
MATTINA
ore 9–13,30
SESSIONE AD INVITI
Coordinatori: Elsa FORNERO e Giorgio LUNGHINI
•
•
•
•
•
Contratti e mercati: quando l’economia sposa la storia: Maristella
Botticini
Crescita, istituzioni, distribuzione: Francesco Caselli
Partecipazione e mercato del lavoro sommerso: Pietro Garibaldi
Commercio internazionale e localizzazione geografica: Gianmarco
I.P. Ottaviano
Consumo e disuguaglianza: Luigi Pistaferri
Parteciperanno alla discussione:
-
Andrea Brandolini
Alfredo Gigliobianco
Fabrizio Onida
Maurizio Zenezini
14
15
LEZIONE: Francesco GIAVAZZI
“Effetti non-Keynesiani delle politiche fiscali:
quanto è robusta l’evidenza empirica”
16
“Effetti non –Keynesiani delle politiche fiscali: quanto è robusta l’evidenza empirica?”
Francesco GIAVAZZI
L’evidenza empirica su possibili effetti ʺnon-keynesianiʺ delle politiche di bilancio si fonda
per lo più su dati macroeconomici relativi ai paesi OCSE, su un periodo tra l’inizio degli
anni settanta ed oggi. La lezione, oltre a fare il punto brevemente sui risultati di questa
ricerca, illustra i risultati di due approcci diversi. Il primo continua ad usare i dati OCSE
tradizionali, ma identifica ʺinnovazioniʺ nella politica fiscale e stima gli effetti su diverse
variabili macroeconomiche e in particolare su consumi e investimenti, di tali innovazioni.
Il secondo utilizza dati micro (relativi alle famiglie tedesche) e si chiede in che misura le
loro decisioni di risparmio e di offerta di lavoro rispondano all’aspettativa di modifiche
nelle regole relative al sistema pensionistico pubblico.
17
SINTESI DELLE RELAZIONI
E DELLE COMUNICAZIONI
18
SESSIONE LIBERA
MACRO INTERNAZIONALE
Coordinatore: Riccardo FIORENTINI
Relazioni:
•
•
•
Euro Corporate Bonds Risk Factors: Carolina Castagnetti e Eduardo Rossi
International Reserve Glut: it is for Real?: Giulio Cifarelli e Giovanna Paladino
What is Global Excess Liquidity, and does it Matter?: Rasmus Rüffer e Livio Stracca
19
Euro Corporate Bonds Risk Factors
Carolina Castagnetti
Dipartimento di economia politica e metodi quantitativi
Università di Pavia
Eduardo Rossi
Dipartimento di economia politica e metodi quantitativi
Università di Pavia
The credit risk, or risk of default, of a bond arises for two reasons: the magnitude and the
timing of payoffs to investors may be uncertain. In other words, the risk of default of the
issuer is accompanied by the recovery rate uncertainty. The effects of default risks on
prices depend on how the default event is defined and the specification of the recovery in
the event of a default.
Because of this uncertainty, the corporate bonds should offer higher yields than
comparable default-free bonds, i.e. government bonds. Consequently, a corporate bond
trades at a lower price than a corresponding (in terms of maturity and coupon)
government bond. The difference between the yield on the risky bond and the yield of the
corresponding default-free bond is called the credit spread. Theoretical credit risk models
tackle with the default risk in different ways. Structural models, in their most basic form,
assume default at the first time that some credit indicator falls below a specified threshold
value. In the Merton’s model (Merton, 1974) default occurs at the maturity date of debt
provided the issuer’s assets are less than the face value of maturing debt at that time.
Reduced-form models treat default as governed by a counting (jump) process with
associated (possibly state-dependent) intensity process and, as such, whether or not an
issuer actually defaults is an unpredictable event.
The purpose of this paper is to study the determinants of credit spread changes in the
Euro Corporate Bond Market. In particular, we are interested in understanding in which
measure the implications for credit spread changes of structural credit risk models are
verified in the context of Euro corporate bond market. The delta credit spread is given by
the first difference of the spread between the corporate bond redemption yield and the
government bond redemption yield with the same maturity. The delta credit spreads can
be considered as a measure of the excess return of corporate bonds over government
bonds. Despite of their increasing importance, only recently the literature has started to
investigate the determinants of their behaviour.
Collin-Dufresne, Goldstein and Martin (2001) show that variables that in theory determine
the credit spreads changes have a rather limited explanatory power. Even though the
empirical analysis of US corporate bond market is an obvious reference, the European
market is characterized by marked differences. In this paper we provide some empirical
evidence that the factors that are supposed to drive the American market are not so
20
decisive in the European market. Using a panel data model, we try to assess the relative
importance of market and idiosyncratic factors in explaining the movement of credit
spreads. We consider different approaches to the estimation of common factors using a
panel of monthly redemption yields on a set of corporate bonds for a time span of three
years.
In the paper we refer to structural-model approach and to risk premia theory in order to
identify the main factors that drive credit spread changes. In the seminal paper of Merton
(1974) credit risk arises from the potentiality of default which occurs when the value of the
assets fall below a certain threshold value. Structural credit risk models show important
drawbacks. Besides that, they provide an intuitive framework to determine the main
factors that drive credit spread changes. In our investigation we focus on the following
determinants of credit spread changes:
• Changes in the government bond rate level
• Changes in the slope of the government yield curve
• Changes in the convexity of the government yield curve
• Changes in liquidity
• Mean and Standard Deviation of daily excess return of firm’s equity
• Changes in Credit Quality
• Changes in the Business Climate
• Changes in Credit Market Factors
• Credit Spread
Our corporate bond data are extracted from the IBOOX Euro Bond Index. This index is
issued by seven major investment banks. We consider monthly delta credit spread over
the period January 2001 through November 2004 for more than 200 issuers.
In order to evaluate the cross-section dependence we start from a simple model where the
delta credit spread depend on common observed factors, and individual specific
components,
We estimate each regression separately by OLS and then compute the correlation among
the residuals. Third, we consider all the panel data and estimate a dummy variable model.
This analysis shows that cross-section dependence is a feature of Euro delta credit spread.
This evidence is in line with the analysis conducted by Collin-Dufresne, Goldstein and
Martin (2001) for the the US corporate bond market.
Collin-Dufresne, Goldstein and Martin (2001) remark that if there are omitted explanatory
variables these must be searched among non-firm-specific factors. In order to consider the
presence of such unobserved factors we consider a linear heterogeneous panel data model
where the change in the delta credit spread is a function of observed common effects,
observed individual specific regressors, and a vector of unobserved common factors.
The unobserved factors is estimated by a two-step procedure. First, we estimate the
coefficients of the individual factors, then, using the residuals, we consistently estimate by
means of a principal component analysis the unobserved factor, and finally we reestimate
a complete fixed effect model.
First, we find that the influence of the equity market factor, measured by the
corresponding equity volatility, is much less evident and strong than that found by
Campbell and Taksler (2003) for the US corporate market. Second, we find evidence of a
21
systematic risk factor in the euro corporate bond market that is independent of the main
common factors predicted by the theory, that in our case also include the government
bond common factors. We show that this common risk factor is correlated with a market
liquidity effect variable, which could be interpreted as a supply/demand shock. This factor
seems to drive a relevant component of the systematic changes in credit spreads.
22
International Reserve Glut: It IS For Real?
Giulio Cifarelli
Dipartimento di Scienze Economiche
Università di Firenze
Giovanna Paladino
LUISS “Giudo Carli” e Sanpaolo IMI Economic Research Department
The average reserve holdings of a number of emerging markets have shown an
appreciable rise in recent years, irrespectively of their official exchange rate regime, both
in absolute terms and as percentages of GDP or of standard international trade and
finance adequacy indicators, such as the level of imports or the short term external debt.
They had reached $1.8 trillion by the end of 2004, up roughly $800 billions from 2002 and
more than four times their 1994 level, exceeding the potential requirements of any
foreseeable shock. So what is the purpose of possessing international reserves in excess of
common measures of adequacy? This puzzle has attracted considerable attention from
both practitioners and academics. Precautionary behavior on the part of the central banks,
fear of the disruptive effects of an exchange rate depreciation (motivated by the experience
of the financial crises and sudden capital reversals of the 1990s), difficult access to
international capital markets and mercantilist export support are all possible explanations
set out in a burgeoning literature.
In this paper monthly data from January 1985 to December 2004 are used to investigate the
national idiosyncratic and international determinants of reserve changes in five Asian and
five Latin American countries. Idiosyncratic explanatory variables are mostly associated
with the tenets of the benchmark buffer stock model of Frenkel and Jovanovic (1981),
while international explanatory factors reflect the pivotal role played by the U.S. monetary
authorities in emerging markets finance.
The rapid growth of short term capital flows offers a reasonable explanation for the
relevance of the precautionary demand for reserves of the buffer stock model. Capital
flows to and from emerging markets, however, have specific characteristics that go
beyond the standard approach. According to the buffer stock model, international reserves
are explained by domestic factors only – reserve volatility, and a national bond yield
which reflects the opportunity cost of holding them. This parameterization misses some
relevant determinants of reserve behavior. International financial flows involving
emerging markets are highly volatile and are affected by US monetary policy. Over the
last two decades convincing evidence shows that financial turbulence (and the ensuing
impact on reserve holdings) is not restricted to the epicentre of a crisis but tends, usually,
to spread from country to country within and even across geographical areas. The twostep estimation procedure implemented in this paper is meant to capture these aspects of
emerging markets finance.
Cointegration reserve relationships are independently estimated, at first, for each country.
The corresponding residual time series are assumed to quantify the fraction of the long
23
run reserve holdings which cannot be accounted for by the buffer stock model explanatory
variables. Their correlation is carefully analyzed in a second step and the relevance of
common drivers is assessed using principal components analysis. Geographical area comovements are identified; the behavior of the first principal component - which explains
almost 40 percent of the variability of the residuals of the Asian reserve cointegration
relationships - turns out to be affected by the U.S. federal funds and real effective
exchange rate.
The signs of the estimated coefficients suggest that reserve residual co-movements reflect
both the generalized impact of U.S. monetary policy due to a “fear of floating” reaction
(Calvo and Reinhart, 2002) and a common desire to prevent real exchange rate
appreciation. The latter may be related to a mercantilist exchange rate policy in support of
exports (Aizenman and Lee, 2005 ).
The paper improves upon previous research in the following respects:
- the empirical section includes close analysis of the time series; additive outliers that
may affect both the unit root tests and the cointegration results are disposed of using
approaches set forth by Perron and Rodríguez (2003) and Nielsen (2004).
- Reserves volatility clustering is modelled using conditional volatility techniques; the
IGARCH parameterizations produced by the data suggest that the volatility estimates
in previous research, which relied on unconditional variance estimation, may well be
biased.
- The two-step estimation approach sheds light on some controversial aspects of
exchange rate management, such as “fear of floating” and mercantilist behavior. A
distinction is drawn between the national (idiosyncratic) and the international factors
that affect reserve holdings. The former enter into the long run cointegration
relationships while the latter influence the disequilibrium residuals, which tend to comove across countries. Principal components analysis is then used to associate their
common drivers to US monetary and exchange rate policy. Contrary to common belief
and, indeed, to the implications of standard adequacy measures, our analysis suggests
that current excess reserve holdings are not consistently larger than their 1995-2004
averages.
24
What is global excess liquidity, and does it matter?
Rasmus Rüffer
European Central Bank, Directorate General Economics
Livio Stracca
European Central Bank, Counsel to the Executive Board
Over recent years, market participants and economic analysts (including policy-making
institutions such as the BIS and the ECB) have repeatedly expressed concerns about the
excessive accumulation of liquidity in the world economy by, especially in relation to its
possible implications for price and financial stability at a global level. Concerns about the
impact on asset prices, in particular, have been repeatedly voiced.
Measuring excess liquidity is not a straightforward matter, however, especially in modern
financial systems in which central bank-created (i.e. “outside”), high-powered money
often represents only a tiny fraction of monetary and credit aggregates which are normally
considered relevant for explaining aggregate demand. Some observers thus propose to
compare broad, i.e. “inside” monetary aggregates with nominal spending at a global level,
and to analyse the behaviour and effects of the resulting gap, i.e. global excess liquidity..
The contribution of this paper to this policy debate is threefold:
• First, we endeavour to provide some conceptual analysis of the meaning of “excess
liquidity” in a world of developed financial markets, where any relevant definition of
liquidity cannot be related to central bank-driven injections of high-powered money,
but rather reflects the endogenous choice of households and firms (endogenous money).
Moreover, we provide a brief survey of the existing literature on the cross-border
transmission of monetary shocks, both theoretical and empirical, in order to shed some
light on the possible channels though which shocks to excess liquidity could be
transmitted across borders.
• Second, we collect data on several measures of excess liquidity for a relatively large
number of industrialised and developing countries and we analyse the co-movement
across them by means of a dynamic factor analysis. However, more than in the comovement in this paper we are focused on studying the possible cross-country spill-over
of excess liquidity. Therefore, we also analyse whether the common dynamic factor –
which we interpret as a measure of ʺglobal excess liquidityʺ – Granger-causes excess
liquidity and nominal spending (measured by nominal GDP) in individual countries.
• Third, we estimate a global VAR model including a measure of global liquidity,
proxied by a broad monetary aggregate in the G5 countries, in order to identify the
impact of a shock to excess liquidity on output and prices at the level of the world
economy. In a further step of the analysis we extend the global VAR model by
25
including some domestic variables for the world’s two largest economies, the US and
the euro area. In particular, we analyse the impact of a shock to global excess liquidity
on a number of domestic variables. In this way, we are able to isolate the impact of a
shock to global excess liquidity that is arguably purely monetary in nature, after
controlling for the influence of other global variables, notably output and the price
level.
The main conclusions of the study are the following:
• At a global level, we find further support to the conjecture that monetary aggregates
may convey some useful information on variables (such as a “spectrum of yields”)
which matter for aggregate demand and hence inflation. Thus we conclude that excess
liquidity is a useful indicator of inflationary pressure at a global level and therefore
merits some attention in the same way as the level of interest rates, if not possibly
more.
• At the same time, the channels though which excess liquidity might be transmitted
across borders are both theoretically ambiguous and empirically rather elusive. By
means of a Granger causality analysis we are able to find only scattered evidence of
cross-border transmission. However, the SVAR analysis (thanks to the sharper focus
of the structural approach) is able to find evidence of a significant spill-over of global
liquidity on the euro area economy, which is in line with the existing empirical
literature suggesting that foreign monetary shocks have an expansionary effect.
• It is also interesting to note that the impact of global excess liquidity on the US
economy is found to be significantly more limited and less straightforward to explain.
It appears that global liquidity plays a different and more limited role for the “leader”
currency in the international monetary system. This is an issue which might be worth
taking up in future research.
26
SESSIONE LIBERA
INTERNAZIONALE REALE
Coordinatore:Luca ZARRI
Relazioni:
•
•
•
On Some Effects of International Fragmentation of Production on Comparative
Advantages, Trade Flows, and the income of Countries: Salvatore Baldone, Fabio Sdogati
e Lucia Tajoli
Le misure dell’impulso del commercio estero alla crescita: quanto conta
l’internazionalizzazione della produzione?: Emanuele Breda, Rita Cappariello e Roberta
Zizza
International Outsourcing and Productivity in Italian Manufacturing: Alessia Lo Turco
27
On some effects of international fragmentation of production on comparative advantages,
trade flows, and the income of countries
Salvatore Baldone, Fabio Sdogati, Lucia Tajoli
Department of Management, Economics and Industrial Engineering,
Politecnico di Milano
Nei modelli tradizionali di commercio internazionale, basati su differenze tecnologiche tra
paesi oppure su differenze nella dotazione fattoriale relativa, la composizione
merceologica e l’orientamento geografico degli scambi internazionali vengono derivati
dalle condizioni di equilibrio dei paesi in autarchia. Una delle ipotesi sottostanti questi
modelli tradizionali, ovvero che i processi produttivi siano integrati e avvengano
all’interno di un unico paese, risulta però sempre meno giustificata, indebolendo il
significato dell’equilibrio autarchico come termine di confronto. L’evidenza empirica
mostra, infatti, che in misura sempre maggiore processi produttivi che in passato
avvenivano in modo integrato vengono segmentati e suddivisi tra unità produttive
localizzate in paesi diversi, generando così delle reti internazionali di produzione che
collegano siti produttivi anche molto distanti. Come conseguenza di ciò, una parte
crescente di scambi commerciali tra paesi è costituita da beni intermedi, componenti e
semi-lavorati che vengono spostati da un paese all’altro per essere trasformati e
assemblati.
L’obiettivo di questo lavoro è mostrare che può essere fuorviante studiare gli scambi
internazionali tra paesi e le relative implicazioni per il benessere nazionale se non si tiene
adeguatamente conto dei processi in atto di frammentazione internazionale della
produzione, dal momento che questi processi influenzano una parte sempre maggiore
degli scambi tra paesi, scambi che risultano avere determinanti e implicazioni in parte
diversi dagli scambi tradizionali di beni finiti. In questo lavoro si illustra infatti come
questa nuova organizzazione internazionale dei processi produttivi abbia effetti rilevanti
per almeno tre aspetti della teoria del commercio internazionale e delle sue applicazioni
empiriche. Prima di tutto, è possibile dimostrare che la frammentazione internazionale
della produzione indebolisce il concetto di vantaggio comparato, così come viene
normalmente definito, quando si tratta di spiegare la specializzazione internazionale di un
paese e la direzione dei suoi scambi commerciali, mentre assumono maggiore importanza
i vantaggi assoluti dei paesi. In secondo luogo, si mostra come le misure utilizzate per
misurare empiricamente i vantaggi comparati rivelati di un paese siano sistematicamente
distorte se nel loro calcolo non viene tenuto conto delle differenze tra scambi di beni finali
e scambi di beni semi-lavorati che entrano nei processi di perfezionamento all’estero.
Infine, attraverso la stima di un modello di domanda aggregata che tiene esplicitamente
conto degli scambi di beni intermedi destinati al perfezionamento, si verifica che gli
scambi di beni finali e quelli di perfezionamento hanno un impatto diverso
sull’andamento macroeconomico, confermando la nostra ipotesi che la partecipazione di
un paese ai processi di frammentazione internazionale della produzione abbia un effetto
specifico e rilevante sui tassi annui di crescita dell’economia nazionale.
28
Le misure dell’impulso del commercio estero alla crescita: quanto conta
l’internazionalizzazione della produzione?
E. Breda, R. Cappariello, R. Zizza
Banca d’Italia, Servizio Studi
Integrazione mercati mondiali Crescente internazionalizzazione della produzione
- IDE
- acquisizione prodotti intermedi dall’estero
- modifica della natura delle importazioni (più orientata verso l’acquisizione di input
produttivi)
- aumento della quota di beni e servizi incorporati nella produzione
Letteratura
Feenstra e Hanson (1996): aumento della quota di input intermedi importati sul totale
negli Usa dal 5,5 all’ 11,6 per cento dal 1972 al 1990 (tavole I-O).
Hummels et al. (1998, 2001): crescita della quota di b/s contenuti nelle esportazioni negli
anni ottanta per paesi OCSE .
BCE (2005): aumento del contenuto di importazioni (CI) delle esportazioni tra il 1995 e il
2000 nelle maggiori economie dell’area dell’euro.
Isae (2005): riduzione dell’attivazione degli input importati da parte delle esportazioni tra
il 1990 e il 2000 per l’Italia.
Altri lavori (Feenstra e Hanson, 1996 e 1999; Amiti e Wei, 2004; Hijzen et al., 2004)
utilizzano misure dell’internazionalizzazione basate sull’uso delle tavole I-O per valutarne
l’effetto sul mercato del lavoro.
OBIETTIVO DEL LAVORO: misurare per l’Italia il valore dei beni e servizi contenuto nelle
esportazioni dei diversi settori, ottenendo così:
-
indicatori sintetici del grado di internazionalizzazione del processo produttivo a
livello settoriale
misura dell’impulso della domanda estera alla crescita alternativa e più accurata
rispetto a X e a (X-M)
Contenuto di importazioni delle esportazioni calcolato sulla base delle tavole input-output
(a prezzi correnti, anni 1995 e 2000)
CI =u M A( I − D A) −1 EXP
• si evita una classificazione arbitraria dei beni tra intermedi e altre categorie
• beni-servizi importati e incorporati nelle esportazioni indipendentemente dal tipo
di relazione instaurata dall’impresa con il fornitore estero
29
• misura esaustiva, ma non consente di distinguere tra le diverse modalità di
internazionalizzazione
Quanto conta l’aumento del prezzo del petrolio?
Esercizi alternativi:
• assumendo che l’input importato di minerali energetici sia pari a zero, ovvero che
tutti gli input provenienti da questo settore siano di origine domestica;
• ipotizzando un input di prodotti energetici nullo sia nella componente importata
che in quella domestica.
30
Il confronto internazionale
L’impulso del commercio estero alla crescita del PIL
Perché non usare X (esportazioni lorde)?
SOVRASTIMA del valore aggiunto prodotto dal canale estero, perché X di un settore
incorporano anche la sua intensità di impiego di beni intermedi importati (>
frammentazione < produzione interna attivata dalle X)
Perché non usare X-M (esportazioni nette)?
SOTTOSTIMA del valore aggiunto prodotto dal canale estero, perché le M che si
sottraggono alle X includono anche i beni destinati alla domanda finale interna
Impiego delle esportazioni al netto della sola parte di importazioni in esse contenuta
Contributo medio annuo del canale estero alla crescita del PIL (che nel periodo è stata pari
all’1,9 per cento annuo) tra il 1996 e il 2000:
-
+0,6 p.p. utilizzando X
+0,3 p.p. utilizzando X-CI
-0,5 p.p. utilizzando X-M
Analisi dei contributi dei settori manifatturieri […]
31
CONCLUSIONI
Modesta crescita del CI delle esportazioni italiane di beni e servizi tra il 1995 e il 2000.
La crescita riflette soprattutto il rialzo dei prodotti energetici.
Grado di internazionalizzazione dell’Italia minore rispetto a quella degli altri paesi.
FUTURI SVILUPPI
Aggiornamento dei risultati per l’Italia attraverso l’utilizzo delle nuove tavole I-O in via di
pubblicazione da parte dell’Istat.
Questo consentirà anche di stimare l’evoluzione più recente del processo di
internazionalizzazione dell’Italia.
32
International Outsourcing and Productivity in Italian Manufacturing
Alessia Lo Turco
Il dibattito sugli effetti dell’outsourcing internazionale non è di recente costituzione,
specialmente per l’analisi delle conseguenze del fenomeno della disuguaglianza salariale
tra lavoratori skilled e unskilled negli USA. Partendo dalla considerazione che le imprese
rispondono alla competizione internazionale spostando attività “unskilled” all’estero in
paesi con salari più bassi rispetto a quelli domestici, Feenstra e Hanson (AER 1996)
stimano, per i settori industriali (4 digit SIC) USA nel periodo 1972-1992, la relazione tra la
domanda relativa di lavoratori skilled e l’outsourcing internazionale. I risultati indicano
che l’outsourcing può spiegare tra il 30 e in 50% dell’incremento della quota di
retribuzione dei lavoratori skilled tra il 1979 e il 1992. Tuttavia, il progresso tecnologico è
stato più volte indicato come il piú probabile responsabile della crescente disuguaglianza
tra lavoratori skilled e unskilled. Quindi, Feenstra e Hanson (QJE, 1999) estendono
l’analisi al ruolo contemporaneo dell’outsourcing internazionale e del progresso
tecnologico nel determinare la disuguaglianza salariale nei paesi industrializzati.
L’outsourcing di materiali si manifesterebbe al pari del progresso tecnologico neutrale
come uno spostamento verso l’esterno della funzione di produzione (grazie alla maggior
varietá di input importati e all’aumento di produzione dovuto a stadi effettuati all’estero)
per le attivitá che continuano ad essere svolte internamente. Per di piú lo stesso,
generando una modifica della domanda relativa di lavoro a favore dei non production
workers, si manifesterebbe esattamente come skilled biased technological change per
l’accresciuta intensitá di non production workers che segue all’outsourcing. Da qui la
difficoltá in pratica di distinguere progresso tecnologico ed effetti dell’outsourcing
nell’osservazione di dati aggregati. Per questa ragione, gli autori stimano l’influenza
dell’outsourcing di materiali sulla TFP e, poi, dall’effetto su TFP e su prezzi industriali
viene isolato l’effetto della variazione dell’outsourcing e del progresso tecnologico sulla
variazione della quota di non production workers a livello industriale.
I risultati sostengono l’idea che sia l’outsourcing internazionale che la spesa in computer
hanno giocato un ruolo molto importante nell’incremento del salario relativo per i “nonproduction workers”. Egger ed Egger (2001) stimano la relazione tra international
outsourcing e produttività dei lavoratori unskilled in Europa ta il 1992 e il 1997. I risultati
mostrano un effetto negativo sulla produttività dei lavoratori unskilled nel breve periodo,
che si trasforma in un effetto positivo nel lungo periodo. Inoltre, il cambiamento
nell’intensità di outsourcing dal 1993 rende conto di un aumento del 3.3% della
produttività dei low skilled. L’effetto negativo di breve periodo viene giustificato in
diversi modi: in primo luogo, lo shift di produzione all’estero per un dato output e un
dato impiego dei fattori, riduce la produttività dei lavoratori low skilled a prescindere
dall’effetto di scala (con DRS se si riduce la produzione aumenta la produttività media del
fattore); per un dato ammontare di impiego di lavoro unskilled, il declino nello stock di
capitale per addetto alla produzione ha un impatto negativo sulla produttività dei low
skilled; infine, la discrepanza tra risultati di breve e di lungo, si può spiegare con la
rigidità nel mercato del lavoro e le pressioni sociali che possono impedire l’aggiustamento
33
istantaneo dei processi produttivi. Egger, Pfaffermayr e Wolfmayr-Schnitzer (2001),
seguono Feenstra and Hanson (1999) nell’uso del Tornqvist index per il caso dell’industra
manifatturiera austriaca: dello 0.9% d’incremento medio della TFP é possibile attribuire
all’outsourcing 0.2 punti percentuali.
Infine, Amiti e Wei (NBER 2006) analizzano la relazione tra outsurcing di materiali e di
servizi e produttivitá nei settori industriali degli Stati Uniti tra il 1992 e il 2000. Un aspetto
distintivo del lavoro è l’attenzione rivolta all’ousourcing di servizi come veicolo
importante di spillover di conoscenza. L’approccio è simile a quello di Feenstra e Hanson
(1999) nell’ipotizzare che l’outsourcing abbia un impatto sulla TFP, ed il modello empirico
evidenzian le contesto di una tipica funzione di produzione, la relazione tra la variazione
dell’intensità di outsourcing e la crescita della produttività (controllando, in alcune
specificazioni, anche per il ruolo svolto dal progresso tecnologico). Dalla stima del
modello emerge che l’outourcing dei servizi spiega l’11% della crescita della produttività
nel periodo considerato, quello di materiali spiega solo un 5%.
MetodologiaLa metodologia è simile a quella adottata da Amiti e Wei (2006): si specifica una funzione
di produzione e si ipotizza che le variabili di interesse influenzi la TFP; in tutte le
specificazioni nelle differenze prime si controlla anche per il ruolo svolto dall’investimento
settoriale in R&S e da eventuali trend temporali diversi per settore. Si studiano gli effeti
dell’outsourcing dei materiali e dei servizi dulla produttivitá dei settori manifatturieri
italiani tra il 1985 e il 1997. La disponibilitá di dati é limitata dalla scarsa disaggregazione
settoriale(13 settori manifatturieri), nella dimensione cross-section, e, nella dimensione
temporale, dalla disponibilitá dei dati sull’outsourcing(disponibili fino al 1997). L’intensitá
di outsourcing è misurata direttamente dalle tavole input-output come quota degli input
intermedi importati sul totale degli input intermedi: per i materiali sono state adottate le
definizioni “narrow” e “broad” di Feenstra e Hansen (1999), e per i servizi l’analisi si é
focalizzata sul ruolo delle importazioni dei servizi finanziari e alle imprese.
A parte l’adozione di un ampio range di misure di outsourcing, tra cui, in particolare,
l’outsourcing dei servizi, l’aspetto distintivo del lavoro é l’analisi del caso della
manifattura italiana in un arco di tempo che seppur non recentissimo si presenta
significativo per lo studio del fenomeno. Alcuni grafici mostrano come la relazione tra
outsourcing dei materiali e produttivitá del lavoro sia positiva soprattutto a partire dai
primi anni 90, per l’outsourcing dei servizi la relazione é un po’meno evidente. Se si
osservano poi le relazioni nei tassi di crescita tra produttivitá e intensitá di outsourcing nel
periodo precedente per settori e per anno, non emerge un chiaro pattern per la relazione
l’outsourcing di materiali-crescita della produttivitá, quest’ultima invece, appare maggiore
nei settori e negli anni in cui l’intensitá media dell’outsourcing dei servizi al periodo
precedente é piú bassa. Il modello viene stimato in differenze su un panel di 13 settori per
13 anni, dal 1985 al 1997; gli stimatori adottati sono il LSDV, e lo stimatore GMM nelle
differenze prime (Arellano e Bond, 1998). Nonostante la piccola dimensione del panel,
quest’ultimo stimatore é stato adoperato per controllare che i risultati ottenuti dal LSDV
non fossero inficiati dall’endogeneitá dei regressori e, in particolare, delle variabili di
interesse. Le stime infine sono state ripetute effettuando una versione robusta dell’OLS
(sempre controllando per gli effetti fissi settoriali e temporali) che corrisponde ad una
34
sorta di Weighted Least Squares, al fine di smorzare il peso di eventuali outliers nella
definizione dei risultati. Il modello é stato poi stimato, con l’ausilio dei tre stimatori
suesposti, prendendo differenze di due e tre periodi per controllare l’effetto di possibili
errori di misura nei dati e, infine, introducendo, congiuntamente o alternativamente
all’effetto contemporaneo, il ritardo primo delle variabili di interesse.
-Sintesi dei Risultati
Il ruolo dell’outsourcing dei materiali resta sempre positivo in tutte le specificazioni e per
tutti gli stimatori adottati: il coefficiente stimato per la definizione “narrow”é sempre piú
piccolo di quello stimato con la definizione “broad”, l’effetto ritardato, poi, é positivo ma
mai significativo. Con l’uso delle differenze di due e tre periodi i risulati sono confermati.
Il ruolo dell’outsourcing dei servizi finanziari e alle imprese appare piú controverso:
l’effetto contemporaneo
appare positivo tuttavia il coefficiente é piccolo e non
significativosoprattutto con l’introduzione del ritardo, mentre l’effetto di questo é negativo
e significativo in tutte le specificazioni stimate con LSDV e GMM. Con le differenze di due
periodi delle variabili l’effetto negativo si rileva giá nella specificazione senza ritardi, ed é
confermato nella specificazione con l’aggiunta del ritardo che, da solo non é mai
significativo. Con le differenze su tre periodi la variabile é scarsamente signficativa e solo
in una specificazione. Come ulteriori prove di robustezza si é stimato il modello nelle
differenze prime per il sottoperiodo 1991-1997 e sostituendo l’output al valore aggiunto
come variabile dipendente: i risultati restano sostanzialmente analoghi.
-Conclusioni
Si conferma, rispetto alla letteratura esistente, il ruolo positivo dell’outsourcing dei
materiali: l’incremento di un punto percentuale della crescita dell’intensitá di outsourcing
puó spiegare l’aumento di 0.10-0.15 del tasso di crescita della produttivitá.
Contrariamente all’evidenza emprica sugli USA, il contributo dell’outsourcing dei servizi
é piú controverso e dai risultati nelle differenze prime delle variabili, confermato, in parte,
dalle differenze di ordine superiore, il contributo sembrerebbe negativo. L’outsourcing
internazionale dei servizi non é stato oggetto di attenzione specifica da parte della
letteratura teorica esaminata. Il fenomeno in esame implica la sostituzione di attivitá ad
alta produttivitá svolte da personale “skilled”e in linea teorica l’effetto di questo tipo di
outsourcing potrebbe essere opposto a quel che si verifica con l’outsourcing di materiali.
Mentre quest’ultimo si manifesta come uno skill-biased technological progress per il suo
effetto sul salario relativo e ,dunque, sulla la produttivitá relativa degli skilled,
l’outsourcing dei servizi, ceteris paribus, potrebbe apparire equivalente ad uno skilled
biased technological regress se riduce la domanda relativa e il salario relativo dei “nonproduction workers” all’interno dei settori. L’effetto complessivo sulla produttivitá totale
potrebbe essere negativo se la sostituzione di attivitá skilled con le attivitá unskilled, meno
produttive, é tale da abbassare la produttivitá media del settore. Recente evidenza
empirica sui settori industriali italiani mostra come l’outsourcing dei servizi sia correlato
negativamente al salario di skilled e unskilled soprattutto nei settori non tradizionali.
Un possibile sviluppo della ricerca riguarda la possibilitá di indagare l’analisi degli effetti
settoriali dell’attivitá di outsourcing svolta dai settori a monte e a valle, applicando al tema in
questione una metodologia simile a quanto esposto in Mun e Nadiri (2002) per l’analisi
dell’effetto delle esternalità dell’IT attraverso backward and forward linkages negli USA.
35
SESSIONE LIBERA
MERCATO DEL LAVORO E ISTRUZIONE
Coordinatore: Martina MENON
Relazioni:
•
•
•
The Generation Gap: an Analysis of the Decline in the Relative Earnings of Young Male
Workers in Italy: Alfonso Rosolia e Roberto Torrini
Making the Italian Labour Market More Flexible: an Evaluation of the Treu Reform: Dario
Sciulli
Entry Regulations and Labour Market Outcomes: Evidence from the Italian Retail Trade
Sector: Eliana Viviano
36
Il gap generazionale: un’analisi del declino in Italia dei salari relativi
dei giovani lavoratori maschi
Alfonso Rosolia e Roberto Torrini*
Banca d’Italia
In Italia negli ultimi 10 anni la crescita dell’occupazione è stata molto elevata in rapporto
alla dinamica del prodotto e il tasso di disoccupazione è lentamente sceso sotto la media
dell’area dell’euro. Alle origini di tali risultati vi sono le politiche dei redditi avviate agli
inizi dello scorso decennio e una graduale riforma degli assetti istituzionali, che ha
favorito una crescente flessibilità contrattuale soprattutto per i nuovi entranti nel mercato
del lavoro, riducendo il costo complessivo del lavoro relativamente agli altri fattori
produttivi (Brandolini et al., 2006).
Da più parti si è tuttavia sottolineato il rischio che riforme parziali rivolte soprattutto a
favorire forme contrattuali atipiche possano dar luogo nel lungo periodo a una struttura
duale del mercato lavoro, che non permetta il pieno sviluppo professionale dei più
giovani, maggiormente interessati dai cambiamenti in atto. Allo stesso tempo una
crescente preoccupazione si è fatta strada riguardo ai costi dei crescenti squilibri
demografici. Le riforme del welfare e del sistema pensionistico non si sono mosse, infatti,
nella direzione di un riequilibrio degli oneri tra generazioni. La ricchezza pensionistica di
coloro che sono entrati nel mercato del lavoro negli ultimi 10 anni si è così nettamente
ridotta relativamente a quella dei lavoratori più anziani (Mazzaferro e Toso, 2006), mentre
le condizioni del mercato del lavoro non sembrano permettere ai più giovani una facile
transizione verso la piena indipendenza economica rispetto alle famiglie di origine (Livi
Bacci, 2005; Rosina, 2006).
Questo lavoro contribuisce al dibattito proponendo un’analisi delle dinamiche dei
differenziali salariali tra lavoratori maschi giovani e più anziani, cercando di valutare
quanto questi andamenti riflettano le condizioni di domanda e offerta e quanto invece
risentano dei cambiamenti degli assetti istituzionali. Prima di illustrare i risultati empirici
del lavoro è utile, tuttavia, richiamare i fattori sottostanti la dinamica dei salari lungo il
ciclo di vita di un individuo. La crescita dei salari può essere vista come il risultato di due
fattori principali: la dinamica aggregata dei redditi da lavoro, dovuta soprattutto ai
guadagni di produttività del sistema, e l’accumulazione di esperienza lavorativa.
Equazioni dei salari basate su dati cross-section confrontano i redditi di lavoratori
osservati in momenti diversi del loro ciclo di vita, nell’assunzione implicita che i lavoratori
con meno esperienza sperimenteranno in futuro le stesse condizioni osservate per i
lavoratori più anziani. Ci sono varie ragioni tuttavia perché diverse coorti di lavoratori
possano seguire percorsi dissimili. Per esempio, i fattori tecnologici possono determinare
un cambiamento nei rendimenti dell’esperienza lavorativa; nel caso di imperfetta
sostituibilità tra lavoratori di età diversa, le coorti più numerose possono incorrere in
riduzioni del loro salario relativo; cambiamenti nei fattori istituzionali possono influire in
maniera differenziata sui salari di lavoratori in diverse fasi del loro ciclo di vita.
*
Le opinioni qui espresse non riflettono necessariamente quelle delle Banca d’Italia.
37
I dati dell’Indagine sui Bilanci delle Famiglie della Banca d’Italia mostrano come agli inizi
degli anni ‘90 si sia verificata una drastica riduzione del salario dei lavoratori tra i 19 e i 30
anni relativamente al salario dei lavoratori in età compresa tra i 31 e i 60 anni. Nel 2004 il
differenziale in termini di salario mensile era di circa il 35 per cento a fronte del 25 per
cento alla fine degli anni settanta e del 20 per cento alla fine degli anni ottanta. Stimando
delle equazioni dei salari per singolo anno di indagine, e ricavando i rendimenti
dell’esperienza si osserva come il salario reale di ingresso, ovvero il salario dei lavoratori
senza esperienza lavorativa, sia aumentato fino alla fine degli anni ottanta per poi
diminuire fino a tornare ai livelli di partenza. Simultaneamente, a fronte di una riduzione
del livello di ingresso, la relazione tra salario ed esperienza mostra un aumento
dell’inclinazione nel corso degli anni novanta. Questo andamento deve tuttavia essere
considerato come l’effetto meccanico dell’ampliarsi del differenziale tra lavoratori più
giovani e lavoratori più anziani che, in stime cross-section, si riflette sul rendimento
apparente dell’esperienza.
Al fine di valutare correttamente gli eventuali cambiamenti nei profili per età dei salari,
abbiamo analizzato i pattern seguiti dalle coorti di lavoratori entrate nel mercato del
lavoro tra la metà degli anni settanta e l’inizio di questo decennio, avvalendoci di un panel
di lavoratori impiegati nel settore privato non agricolo, estratto dagli archivi dell’Inps.
Questi dati confermano il declino dei salari di ingresso per i giovani entrati nel mercato
del lavoro a partire dagli anni novanta. L’andamento dei salari delle diverse coorti di
lavoratori risulta ben spiegato da un modello che interpreta la dinamica salariale come il
risultato di un comune trend temporale (riassuntivo delle condizioni di crescita
macroeconomica), di un comune effetto esperienza (misurata dall’età dei lavoratori) e da
specifici effetti coorte che, tenuto conto del trend macroeconomico, misurano eventuali
traslazioni del profilo dei salari lungo il ciclo di vita. Stimando questo modello su coorti di
lavoratori entrate nel mercato del lavoro in diversi periodi ad un’età compresa tra i 21 e i
22 anni, gli effetti coorte mostrano una caduta dei salari reali di circa il 20 per cento per le
coorti più recenti rispetto a quelle entrate negli ‘80. Effetti simili sono stati ricavati dalla
stima dello stesso modello per i lavoratori entrati nel mercato del lavoro in un’età
compresa tra i 25 e i 26 anni, potenzialmente in possesso di un più elevato titolo di studio
(informazione non disponibile negli archivi dell’Inps). Al deterioramento nelle
retribuzioni all’ingresso, non sembra quindi corrispondere un’accelerazione dei percorsi di
carriera.
Venendo alle cause di questi andamenti, nel lavoro si mostra come i fattori di offerta non
siano in grado di darne conto. A meno di un implausibile deterioramento della
produttività dei lavoratori più giovani, la progressiva riduzione della dimensione delle
coorti di lavoratori che si sono affacciate nel mercato del lavoro negli anni ‘90 non è
compatibile con una riduzione del loro salario relativo. Escludendo i fattori di offerta, la
spiegazione più plausibile di questi andamenti è da ricercarsi in un cambiamento del
contesto istituzionale. Due possibili spiegazioni possono essere date degli andamenti
osservati. La riduzione del salario relativo delle coorti più giovani potrebbe essere il
risultato di un aggiustamento di squilibri maturati tra la fine degli anni settanta e gli anni
ottanta, in cui alcuni meccanismi di determinazione salariale come la scala mobile
potrebbero aver determinato un’eccessiva compressione salariale a favore dei lavoratori
38
più giovani con salari inferiori. Se questo fosse il caso, tuttavia, unitamente a una
riduzione del salario di ingresso dovremmo osservare un aumento effettivo del
rendimento dell’esperienza, con un permanente incremento del differenziale salariale tra
lavoratori giovani e anziani e con un’accelerazione della progressione salariale per i
lavoratori appartenenti a una stessa coorte. Questo però non è coerente con i dati a nostra
disposizione, che mostrano una riduzione dei salari di ingresso ma non una più rapida
crescita salariale per le coorti di lavoratori più giovani.
Gli andamenti osservati sembrano quindi meglio spiegati da un modello duale di
determinazione salariale, in cui i lavoratori con maggiore esperienza, a fronte di tassi di
disoccupazione elevati, sono protetti dalla concorrenza di giovani disoccupati. In questo
contesto, se il salario non può differire tra lavoratori con uguali caratteristiche, si osserverà
un elevato livello di disoccupazione tra i nuovi entrati nel mercato. Se invece, a parità di
produttività, si permette di fissare salari più bassi per i nuovi entrati, proteggendo al
contempo l’impiego e la remunerazione dei lavoratori più anziani, si osserverà l’aprirsi di
un differenziale a svantaggio delle nuove coorti di lavoratori. Dato che a loro si rivolge
una domanda residuale, il salario da essi percepito risulterà inferiore a quello di equilibrio
concorrenziale. Questo semplice modello di determinazione salariale potrebbe dar conto
dei fenomeni osservati nel corso degli anni ‘90: a fronte di elevate difficoltà nel mercato del
lavoro, particolarmente gravi per i giovani, sono state adottate politiche salariali e
strumenti contrattuali che si sono tradotte in una elevata moderazione dei salari reali
medi, ma che hanno agito soprattutto al margine riducendo i salari di ingresso,
determinando una permanete perdita di potere di acquisto delle retribuzioni per le nuove
coorti rispetto a quelle più anziane.
Riferimenti bibliografici
Brandolini A., Casadio P., Cipollone P., Magnani M., Rosolia A., Torrini R. (2006),
Employment Growth in Italy in the 1990s: Institutional Arrangements and Market Forces, in
Acocella N., Leoni R. (editori), Social Pacts, Employment and Growth. A Reappraisal of
Tarantelli’s Thought, Physica-Verlag, in corso di pubblicazione.
Livi Bacci M. (2005), Il Paese dei giovani vecchi, il Mulino, v. 54, pp.409-419.
Mazzaferro C., Toso S. (2006), The effects of Social Security on the Distribution of Wealth in
Italy, paper presentato alla conferenza IARIW del 2006, http://www.iariw.org/c2006.asp#S8B
Rosina A. (2006), L’Italia che invecchia e la sindrome di Dorian Gray, il Mulino, v. 55, pp. 293300.
39
Making the Italian Labour Market More Flexible:
An Evaluation of the Treu Reform
Dario Sciulli
University of Rome “Tor Vergata
Gli economisti concordano nell’attribuire all’elevata EPL (employment protection
legislation), e quindi all’elevata rigidità del mercato del lavoro, la principale causa dei
persistenti ed elevati tassi di disoccupazione rilevato nei paesi UE negli anni ‘80. La
risposta dei governi europei è stata l’introduzione di nuove forme contrattuali (contratti
atipici), che si caratterizzano per essere relazioni lavorative non permanenti e, soprattutto,
caratterizzate da ridotti costi di assunzione e licenziamento. I nuovi contratti permettono
di aumentare la flessibilità del mercato del lavoro, poiché le imprese hanno la facoltà di
adeguare la propria forza lavoro variando il numero di lavoratori atipici.
Gli effetti delle politiche di flessibilità non sono stati univoci. Da un lato hanno reso i
mercati del lavoro più dinamici, poiché sono incrementati i flussi tra disoccupazione e
occupazione. Dall’altro lato il maggior turnover non sembra aver dato luogo ad effetti
sempre positivi sui tassi di disoccupazione. Infine, effetti contrastanti sono stati rilevati su
altre dimensioni del mercato del lavoro (cfr. Dolado, Garcia-Serrano and Jimeno, 2002).
In Italia l’introduzione dei contratti atipici è stata il frutto di numerose leggi che per lungo
tempo hanno lasciato ai margini il loro utilizzo, almeno fino all’introduzione della Legge
Treu (L. 196/97).
Il mio paper prova a valutare alcuni effetti della riforma Treu sul mercato del lavoro
italiano. In particolare, studio se: ha cambiato la duration dependence relativa agli stati di
non lavoro; le precedenti esperienze di lavoro atipico influenzano la probabilità di trovare
un lavoro stabile; se la probabilità di trovare un contratto permanente (PC) è maggiore
partendo da uno stato di non lavoro (NW) o da un contratto atipico (AC). Per mia
conoscenza questo è il primo tentativo sia di valutare questo genere di riforma nel mercato
del lavoro italiano, sia di stimare i cambi della duration dependence usando dati panel.
Teoricamente si attende un incremento della duration dependence negativa, quindi un
aumento della dualità tra disoccupati di breve periodo (STU) e disoccupati di lungo
periodo (LTU). Infatti, in un mercato del lavoro rigido (come quello esistente nel periodo
pre-riforma), con poche opportunità di lavoro, l’essere LTU può non costituire un segnale
di bassa produttività. Al contrario, in un mercato del lavoro più flessibile (come nel postriforma), caratterizzato da più elevate probabilità di trovare un lavoro, l’essere LTU può
costituire un segnale di bassa produttività, che le imprese possono utilizzare come
strumento di selezione nelle scelte di assunzione. Maia Güell (2003) trovò evidenze di ciò
stimando un modello per dati cross-section. Altri paper hanno studiato gli effetti di
esperienze di lavoro atipico sulla probabilità di ottenere un impiego stabile, trovando
evidenze contrastanti. Alba-Ramirez (1998), Amuedo-Dorantes (2000), Güell and
Petrongolo (2006), and D’Addio and Rosholm (2005) trovano che gli individui con
precedenti esperienze di lavoro atipico hanno una minore probabilità di trovare un
impiego stabile, o che il tasso di conversione da un contratto atipico ad uno permanente è
40
basso e concentrato allo scadere del contratto atipico. Al contrario Zijl e al.(2004), van den
Berg e al. (2002), Booth e al. (2002) and Ichino e al. (2005), trovano che l’essere impiegato
con contratto atipico costituisce un trampolino di lancio verso un impiego stabile.
Gagliarducci (2005) mostra come la probabilità di ottenere un contratto permanente
incrementa con la durata del contratto atipico, ma decresce con il numero di esperienze di
lavoro atipico, soprattutto se intervallate da periodi di non lavoro.
I dati utilizzati nel paper sono estratti dal dataset WHIP (Work Histories Italian Panel),
fornito dal “Laboratorio R. Revelli”, che ha provveduto ad estrarre le informazioni
necessarie dall’archivio amministrativo dell’INPS. WHIP consiste in un campione
costituito da una popolazione dinamica di 370000 individui, per i quali s’identificano tutte
le relazioni lavorative degli individui e il relativo tipo di contratto per il periodo compreso
tra il 1985 e il 1999. Le informazioni sono su base mensile, cosi che è possibile determinare
la durata mensile degli spell. Il sotto-campione utilizzato nella mia analisi include
informazioni su individui con età compresa tra 15 e 32 anni. La procedura di selezione dà
luogo ad un sotto-campione di 137876 spell per 32483 individui. Il sotto-campione include
individui di cui è disponibile l’intera storia lavorativa, e quindi lo stato iniziale,
consentendo di evitare problemi legati alla conoscenza delle condizioni iniziali.
Il modello econometrico di stima consiste in un Mixed Proportional Hazard (MPH) model
con competing risks. Applicando il modello ai dati stimo le 8 probabilità di transizione:
PC-PC, PC-AC, PC-NW, AC-PC, AC-AC, AC-NW, NW-PC, NW-AC. Assumo che l’hazard
rate (λ) dallo stato k dopo un soggiorno, di durata t, allo stato j per l’individuo i è definito
come
λijk (t ic | xijk , vijk ; β ) = λ0 ijk (t ic )exp (xijk' β jk )vijk
dove, la baseline hazard (λ0) si assume seguire una distribuzione Weibull, l’eterogeneità
non osservata (v) è assunta essere distribuita secondo una Gamma e i suoi termini essere
indipendenti tra le transizioni. Infine x è un vettore di covariate non variabili nel tempo, e
β è un vettore di parametri sconosciuti. La funzione di verosimiglianza individuale
relativa alle transizioni da j a k, è:
(
)

= ∫  ∏ ∏ f (t

c
Lijk Ω | t i j , x ijk =
+∞
C ij
jk
−∞
c =1 k ≠ j
cj
i
| x ijk , v ijk ; Ω
)
c
d jkj
C ij
(
×∏Sj t
c =1
cj
i
| x ijk , v ijk ; Ω
)
cj
rj

 × dΓ (v ijk )


dove cj indica il cth spell nello j. La funzione di verosimiglianza stimata si ottiene dalla
somma su c, j e i della funzione di verosimiglianza individuale.
I miei principali risultati sono i seguenti:
1. Il maggior utilizzo degli AC, dovuto all’introduzione della riforma, fornisce un
potenziale strumento di controllo per le scelte di assunzione delle imprese. Infatti, in un
mercato del lavoro più flessibile, con maggiori opportunità di lavoro, essere LTU può
41
essere indicativo di bassa produttività. Empiricamente questa conclusione coincide con un
incremento della duration dependence negativa per gli spell NW;
2. Avere avuti precedenti esperienze di AC influenza negativamente la probabilità di
trovare un PC, se lo stato di origine è di non lavoro. L’evidenza si spiega col fatto che
trovarsi in uno stato NW dopo essere stati occupati, può costituire un segnale negativo
sull’abilità del lavoratore;
3. Non c’è evidenza che la probabilità di raggiungere un PC è maggiore partendo da un
AC piuttosto che da un NW. D’altra parte, si trova una duration dependence positiva
relativa alla transizione AC-PC, il che suggerisce l’esistenza di un effetto positivo
dell’accumulazione di capitale umano sulla probabilità di ottenere un contratto
permanente. La riforma ha ridotto l’ampiezza di questo effetto;
4. I lavoratori di sesso maschile, residenti nelle regioni settentrionali e in possesso di
maggiore qualifica sperimentano una maggiore probabilità di trovare un impiego stabile.
L’introduzione della riforma Treu sembra aver incrementato la dualità; quindi nel postriforma i lavoratori svantaggiati hanno visto diminuita la probabilità di ottenere un PC;
In termini di politiche economiche, i risultati suggeriscono la promozione di contratti di
maggiore durata e di politiche che facilitino i programmi di training durante i periodi di
inattività, allo scopo di incrementare il capitale umano. Inoltre le politiche dovrebbero
fornire supporto ai lavoratori in cerca di lavoro, contribuendo così alla riduzione della
durata degli stati di non lavoro. Infine, l’implementazione di queste politiche dovrebbe
riguardare soprattutto i lavoratori svantaggiati, la cui situazione sembra essere peggiorata
dopo l’introduzione della riforma.
42
Entry Regulations and Labour Market Outcomes:
Evidence from the Italian Retail Trade Sector
Eliana Viviano
Secondo la letteratura economica non solo le rigidità del mercato del lavoro, ma
anche quelle del mercato dei beni possono avere effetti negativi sulla crescita
dell’occupazione. Per contro, la presenza di barriere all’entrata viene spesso
giustificata dai policy makers come uno strumento per tutelare i livelli occupazionali
nel settore protetto.
Questo lavoro analizza gli effetti della regolamentazione delle aperture delle grandi
strutture di vendita sull’occupazione del settore commerciale italiano nel periodo
2000-2003. In seguito al cosiddetto decreto Bersani del 1998 (D. lgs. 114/98), il
comparto è stato per molti anni regolato da normative regionali caratterizzate da
diversi gradi di restrizione alle condizioni di entrata. Tale eterogeneità consente però
di identificare gli effetti delle diverse normative sulla crescita dell’occupazione nelle
varie aree. L’analisi econometrica è svolta mediante l’applicazione di stimatori di tipo
diff-in-diff: in particolare si compara l’evoluzione dell’occupazione in aree simili
quanto a struttura geografica, economica e socio-demografica, ma caratterizzate da
normative sostanzialmente differenti. Le aree sottoposte ad esame riguardano alcune
province delle Marche e dell’Abruzzo: le prime caratterizzate -almeno
originariamente- da una legislazione favorevole alla grande distribuzione, le seconde
da una normativa più restrittiva. Il focus dell’analisi, limitato ad alcune province, è
funzionale al rafforzamento della strategia di identificazione: data l’omogeneità delle
aree prescelte è ragionevole assumere che le differenze riscontrate nell’evoluzione
dell’occupazione siano causate da differenze di tipo regolamentare.
Date queste premesse si studiano quindi in particolare: i) l’impatto delle politiche di
liberalizzazione sull’evoluzione dell’occupazione complessiva del settore
commerciale; ii) l’effetto della liberalizzazione sull’occupazione delle piccole
strutture di vendita, potenzialmente le più danneggiate dall’espansione della grande
distribuzione.
I risultati dell’analisi econometrica suggeriscono che l’effetto complessivo della
liberalizzazione delle entrate nel segmento della grande distribuzione è positivo, con
un innalzamento della quota di occupati nel settore sul totale della popolazione in
età lavorativa stimato pari a circa un punto percentuale. Tale effetto è determinato da
una significativa crescita degli occupati nelle grandi strutture di vendita.
A differenza degli altri studi su argomenti simili si trova invece che l’occupazione
nelle strutture di piccola dimensione è sostanzialmente stazionaria. Nelle aree
interessate dalla liberalizzazione si verifica una variazione della struttura
proprietaria della rete di piccola distribuzione: diminuisce il numero di proprietari e
aumenta il lavoro dipendente. Questa evidenza è compatibile con l’ipotesi che
l’accresciuto grado di concorrenza induca le piccole imprese a intraprendere processi
di riorganizzazione in reti o in franchising.
43
I risultati sono sottoposti a diversi controlli di robustezza per supportare l’ipotesi di
casualità tra differenze nella legislazione, aperture di nuove strutture di vendita e
crescita dell’occupazione. In primo luogo di controlla per differenze nei trend anche
nel periodo antecedente agli interventi di liberalizzazione, al fine di verificare che le
differenze riscontrate nella crescita dell’occupazione non dipendano da differenze
pre-esistenti nel ciclo economico. In secondo luogo si compara l’evoluzione
dell’occupazione in aree con legislazione simile a quella adottata nelle Marche e
nell’Abruzzo e si verificare che, a parità di regolamentazione, anche la crescita
occupazionale è simile.
In termini di politica economica, i risultati indicano che l’effetto complessivo
sull’occupazione del settore delle politiche di liberalizzazione è positivo. Ne
consegue che l’occupazione nelle regioni più con regolamentazione più restrittiva, tra
cui molte meridionali, avrebbe potuto crescere a tassi più elevati se i governi
regionali avessero adottato politiche più favorevoli all’entrata di nuovi operatori. Per
contro, le politiche di liberalizzazione riducono il numero di lavoratori autonomi nel
commercio.
44
SESSIONE LIBERA
MACROECONOMIA
Coordinatore: Nicola PAVONI
Relazioni:
•
•
•
Equilibrium Existence and Policy Neutrality in Static LQ Games: Nicola Acocella e
Giovanni Di Bartolomeo
Fiscal Policy in a Monetary Economy with Capital and Finite Lifetime: Barbara
Annicchiarico, Nicola Giammarioli e Alessandro Piergallini
Determinants of Fiscal Policies in the Euro Area: Roberto Golinelli e Sandro
Momigliano
45
Equilibrium existence and policy neutrality in static LQ games
Nicola Acocella
University of Rome “La Sapienza”
Giovanni Di Bartolomeo
University of Teramo
Tinbergen (1952, 1956) first addressed the issue of the controllability of a fixed set of
targets by policymakers endowed with given instruments in a parametric context. He
stated some general conditions for policy effectiveness and the need for policymakers to
have recourse to second best solutions – by maximizing the value of their preference
function subject to the model representing the economy – in the case of a non-perfectly
controllable system, an approach later developed by Theil (see Theil, 1964). More formal
conditions for controllability both in a static and dynamic context were later asserted (see
Preston and Pagan, 1982; Hughes Hallett and Rees, 1983).
Tinbergen, Theil, and the other founding fathers of economic policy were not concerned
with analyzing the effectiveness of specific policy instruments. However, in the
framework of the classical theory of economic policymaking it is not difficult to find the
counterpart of the concepts of policy ineffectiveness and neutrality raised in the economic
literature with reference to specific instruments, monetary policy, fiscal policy or others.
The classical theory of economic policy has been the object of fierce criticism from a
number of points of view. The introduction of rational expectations led to an assertion of
the ineffectiveness of monetary policy on income more forceful than that stated by
Friedman (1968) (see Sargent and Wallace, 1975). In a similar way, Barro (1974) developed
the argument of fiscal policy neutrality based on the assumption of ultra-rational agents. A
proposition of policy neutrality or “invariance” was then stated. Apart from the critiques
advanced with reference to the effectiveness of specific instruments, Lucas (1976) raised
the more general and forceful argument according to which a Tinbergen-type decision
model is inconsistent with the assumption of rational expectations.
In more recent years a new approach to the analysis of economic policy has been
developed, that of policy games. Within this approach the questions of effectiveness and
neutrality of specific policy instruments have been raised again, mainly with reference to
monetary policy. More or less formal conditions leading to monetary policy
ineffectiveness – or neutrality – have thus been investigated.
Barro and Gordon (1983) deliver the well-known prediction of monetary neutrality as a
result of the private sector expectations of the monetary policy. The private sector forms
rational expectations of the money supply and acts to fully crowd-out monetary effects on
real output by adjusting nominal wages, thereby creating a socially inefficient inflation
bias. The same conclusion is reached if the Barro-Gordon problem is expressed in terms of
a Stackelberg game between the central bank and a monopoly union, where the latter is the
follower and trades off real wage and employment when setting the nominal wage rate.
Gylfason and Lindbeck (1994) suggest that monetary policy neutrality arises when the
private sector (labour unions) shares the objective of price stability with the central bank.
46
Acocella and Ciccarone (1997) generalize the above result by showing that monetary
policy neutrality is the result of unions sharing some objectives (not necessarily price
stability) with the monetary authorities. But this rule seems to loose ground when noncompetitive markets are introduced into the picture: Soskice and Iversen (2000), Coricelli
et al. (2000), Cukierman and Lippi (2001), and other studies show that non neutrality of
monetary policy can derive from the interaction between imperfectly competitive goods
and labour markets even when unions do not care for a common objective directly.
Acocella and Di Bartolomeo (2004) show that in this case the rule is not violated, if
reformulated in terms of unions’ sharing directly or indirectly some objective with the monetary
authorities and state more general necessary and sufficient conditions for non-neutrality to
hold.
The conditions derived by Acocella and Di Bartolomeo (2004), except for some conclusive
hints, are stated in terms apparently different from those of the classical analysis of policy
effectiveness and controllability. One reason that could explain the difference refers to the
contexts in which policy issues are examined in the two cases: a parametric one in the case
of the analysis of Tinbergen and Theil; a strategic one in the case of policy games. The
need then arises to:
1) find conditions for policy controllability in a strategic context equivalent to those valid
in a parametric context and clearly stated in the classical theory of economic policy; these
should be ex ante conditions, i.e., conditions that allow us to know whether the game leads
to a result of neutrality of economic policy before solving it, possibly by applying some
simple counting rule of the kind stated by Tinbergen;
2) check the correspondence between such conditions and those stated in the analysis of
the policy effectiveness or neutrality of specific instruments.
There have been previous attempts at performing the task under 1). This is, e.g., the case of
Holly and Hughes Hallett (1989), who consider conditions for controllability in a dynamic
model with a private sector forming rational expectations. As far as this task is concerned,
our analysis has both a narrower and a wider coverage than theirs: in fact, on the one hand
we do not consider differential games; on the other, we do not stick to the case of private
agents forming rational expectations.
We restrict ourselves to a static context and consider the case of perfect information only,
since it is well known that asymmetric information is itself a source of non-neutrality.
However our simple logic can be extended to more complex frameworks.
We formally derive conditions for policy non-neutrality in a static strategic context and
state them in terms similar to those used for asserting effectiveness in a parametric
context. We show that a revised version of Tinbergen’s traditional theory can deal with
policy neutrality and equilibrium existence problems in policy games. In a game
theoretical perspective, controllability of an economic system and neutrality of policy tools
are related concepts, e.g., in a two-player game, controllability for one player implies
neutrality for the other (if an equilibrium exists). Thus, once the concept of controllability
is appropriately reinterpreted, neutrality merely becomes an instrument/target accounting
problem.
However, neutrality of a player’s policy does not always imply that the other player
controls its targets, unless all the target variables are second-order arguments of its
47
preferences. In addition, if some targets appear only linearly in its preferences,
controllability implies non-existence. In any case, existence and neutrality can always be
detected by using a simple counting rule that takes account of the order of targets in the
players’ preferences.
We also briefly discuss the different nature of neutrality when it is associated with
controllability of the other player and when it is not. In the latter case, if the player with an
equal number of instruments and second-order targets is able to influence the action of the
other player, neutrality does not hold (e.g., in the cases of Stackelberg leadership and
cooperation).
Most limiting assumptions implicitly or explicitly used in this paper can be removed, at
least in principle, along the lines of the evolution of the traditional economic policy
approach. The simple logic of our discussion can thus be extended to more complex
contexts such as dynamic and non-linear ones; however, formal generalizations may face
computational and practical problems.
48
Fiscal Policy in a Monetary Economy with Capital and Finite Lifetime
Barbara Annicchiarico
Department of Economics, University of Rome ‘Tor Vergata’
Nicola Giammarioli
European Central Bank
Alessandro Piergallini
Department of Economics, University of Rome ‘Tor Vergata’
The implications of alternative fiscal policies and the joint role of fiscal and monetary
policies for macroeconomic stability and price developments are major topics in the
ongoing policy debate as well as in the academic research. In the European Union the
fiscal rules established by the Maastricht Treaty and the Stability and Growth Pact are
consistent with the view that fiscal discipline and sound budgetary positions are necessary
for macroeconomic and price stability, even in the presence of fully independent monetary
authorities.
This paper presents a dynamic stochastic general equilibrium model with price stickiness,
capital accumulation, investment adjustment costs and intergenerational wealth effects.
Ricardian equivalence does not hold in our framework, because the assumption of
identical infinitely-lived private agents is relaxed. In our general set-up with finitely-lived
individuals, financial wealth affects the dynamics of aggregate consumption. Hence, the
dynamics of both public debt and asset prices, as well as the money market, do matter for
the monetary and fiscal policy transmission mechanisms. The main aim of the present
paper is to investigate the role of fiscal policy for business cycle fluctuations and the
macroeconomic performance of alternative fiscal rules. In particular, fiscal policy is
described by either a debt-based tax rule or a balanced-budget rule allowing for temporary
deficits. Monetary policy is summarized by a standard Taylor rule.
When calibrated to euro area quarterly data, the model predicts that equilibrium
determinacy depends on the specification of fiscal policy. The ‘Taylor principle’ (the
prescription that the long-run increase in the nominal interest rate for each permanent
increase in inflation should be more than one-to-one) might not be sufficient for
equilibrium determinacy under a ‘passive’ feedback tax-rule of the Leeper-style, ensuring
fiscal solvency. On the other hand, under a balanced-budget fiscal rule, both ‘passive’ and
‘active’ monetary policies may be compatible with equilibrium uniqueness.
We find that fiscal expansions are likely to generate a trade-off in output dynamics
between short-term gains and medium-term losses. Specifically, positive fiscal shocks are
expansionary in the short run but are shown to induce persistent negative effects on
economic activity in the medium run. Furthermore, we show that the macroeconomic
effects of fiscal shocks crucially depend on the conduct of monetary policy. This result
provides support to the view that controlling for monetary policy is essential for an
accurate empirical characterization of the effects of fiscal shocks. Finally, simulation
49
analysis suggests that balanced-budget requirements, beyond enhancing the determinacy
properties of feedback interest rate rules à la Taylor, are suitable for guaranteeing inflation
stabilization.
50
Determinanti delle politiche di bilancio nell’area dell’euro
Sandro Momigliano
Banca d’Italia
Roberto Golinelli
Dipartimento di Scienze Economiche
Università di Bologna
Il lavoro si aggiunge ad una vasta letteratura empirica che ha analizzato le determinanti
delle politiche di bilancio dei paesi OCSE, con risultati non sempre univoci.
Il principale contributo metodologico fornito a questa letteratura è rappresentato
dall’utilizzo (ai fini della costruzione delle variabili esplicative) delle informazioni
disponibili al momento in cui le decisioni di bilancio sono state prese (dati disponibili
in tempo reale). Tali dati sono, in linea di principio, l’informazione appropriata per
studiare i comportamenti delle autorità responsabili del bilancio pubblico. Nella maggior
parte dei lavori empirici sono utilizzate invece le ultime informazioni disponibili (dati ex
post). L’uso di dati ex post permette di valutare l’adeguatezza delle politiche alle effettive
necessità, ma può non consentire di dare un giudizio corretto sulle scelte/comportamenti
dei responsabili del bilancio.
I dati ex post sarebbero appropriati se non si discostassero significativamente dalle stime
iniziali, ma questo non è il caso, almeno nel campione considerato, per le valutazioni della
situazione ciclica e dei saldi di bilancio. In un precedente lavoro (Forni e Momigliano,
2004) erano già state utilizzate informazioni disponibili in tempo reale, ma solo per la
valutazione della situazione ciclica e per un arco temporale meno ampio.
Il lavoro si distingue inoltre dalla maggior parte dei lavori precendenti per le seguenti
caratteristiche:
a) si concentra sui paesi dell’area dell’euro. Si evidenzia, al riguardo, una notevole
disomogeneità dei risultati con riferimento agli altri 8 paesi dell’OCSE per i quali le
necessarie informazioni sono disponibili.
b) Si analizza contemporaneamente il ruolo di diversi fattori: le condizioni iniziali
delle finanze pubbliche, le regole europee di bilancio, le condizioni cicliche, le
elezioni.
c) Il modello utilizzato è derivato esplicitamente da una specificazione molto generale,
sulla base di test che confermano le restrizioni imposte.
I dati disponibili in tempo reale sulla situazione ciclica.- L’indicatore utilizzato è l’output
gap, calcolato applicando il filtro presentato in Mohr (2005), che costituisce una estensione
del filtro di Hodrick e Prescott, alla serie dei tassi di crescita del PIL pubblicata
nell’Economic Outlook (EO) dell’OCSE nell’autunno dell’anno precedente le politiche di
bilancio. L’EO pubblica i dati di consuntivo e una previsione per l’anno in corso e i due
anni successivi. L’utilizzo del filtro di Mohr (2005) consente di superare il problema della
51
distorsione nella stima della componente ciclica alla fine del campione che caratterizza il
filtro HP.
I dati disponibili in tempo reale sul saldo di bilancio.- Vengono utilizzati i dati dell’EO
dell’autunno dell’anno precedente le politiche di bilancio.
La funzione di reazione stimata.- Il modello di base utilizzato si basa su due equazioni,
una “normale” (1a) e l’altra (1b) che si applica alle politiche dei paesi in una situazione di
disavanzo eccessivo.
∆capbit = φ pb pbit −1 + φ d d it −1 + φ x xit −1 + φ p e1eitp + φ p e 2 eitp+1 + u it
[1a]
In una situazione normale, le azioni discrezionali di bilancio dell’anno t, approssimate
dalla variazione del saldo primario corretto per il ciclo (∆ capb), vengono influenzate:
a) dalla situazione iniziale (anno t-1) del saldo primario (pd) e del debito pubblico (d);
b) dalla situazione ciclica (x) dell’anno t-1 (i risultati non cambiano se si utilizza la
situazione ciclica dell’anno t);
c) dalla presenza, nell’anno t o t+1, di elezioni politiche, purché la situazione ciclica sia
reputata favorevole, ossia l’output gap sia positivo (ep).
Se un paese registra un disavanzo superiore al 3 per cento, le politiche discrezionali sono
invece influenzate solo dalla variabile Maastricht (m), che misura approssimativamente la
correzione necessaria nell’anno successivo per soddisfare le regole europee. Tale
correzione è funzione del maggiore disavanzo iniziale rispetto al 3 per cento, del
contributo atteso dagli oneri per interessi e del numero di anni entro i quali occorre
rientrare.
[1b]
∆ capb it = φ m m it −1 + ε it
Su un piano generale, i principali risultati dell’analisi empirica sono i seguenti:
1) gli effetti fissi relativi ai singoli paesi non sono significativi; sono invece
globalmente significativi gli effetti temporali;
2) il modello, relativamente parsimonioso in termini di variabili esplicative (25, di
cui19 temporali), spiega quasi un terzo della variabilità temporale e tra paesi delle
politiche discrezionali, un risultato che appare di rilievo;
3) non vi è evidenza di break strutturali, distinguendo tra i sottoperiodi: 1988-1992;
1993-97 e 1998-2006.
Con riferimento alle stime dei singoli parametri, i principali risultati sono i seguenti.
Condizioni iniziali delle finanze pubbliche.- Le politiche di bilancio hanno reagito ai
livelli del saldo primario e del debito in maniera stabilizzante: viene corretto un quinto
(0.184) dello squilibrio del saldo primario, mentre la correzione associata al debito è pari
all’1 per cento di questo.
52
Regole europee.- Le stime indicherebbero che le regole europee di bilancio hanno avuto un
impatto limitato sui comportamenti dei governi, essenzialmente circoscritto alle
politiche adottate in presenza di un disavanzo eccessivo.
Le stime puntuali delle reazioni alle condizioni iniziali delle finanze pubbliche sono più
elevate (la correzione degli squilibri è maggiore) per il periodo 1993-97, ma questa
differenza non è statisticamente significativa ed è temporanea: le stime dei relativi
coefficienti per il periodo successivo (1998-2006) sono in linea con quelle degli anni che
precedono il Trattato di Maastricht (1988-92). Le regole europee avrebbero quindi
riaffermato preferenze che si possono individuare già negli anni immediatamente
precedenti il Trattato; ovviamente, è possibile che tali preferenze non sarebbero rimaste
invariate in assenza del Trattato. Una variabile costruita sulla base delle regole europee
consente di cogliere con più precisione per gli anni 1993-2006 il comportamento dei paesi
con un disavanzo superiore al 3 per cento. Tuttavia, l’esclusione della variabile non incide
in misura significativa sulla capacità esplicativa del modello e lascia le stime dei parametri
sostanzialmente invariate.
Situazione ciclica.- La reazione delle autorità di bilancio alla congiuntura è stata in
media anti-ciclica e di dimensioni apprezzabili: un output gap negativo pari all’1 per
cento induce una espansione di bilancio pari allo 0,4 per cento del PIL.
Questo risultato differisce da quello ottenuto dalla maggior parte degli studi precedenti,
che trovano reazioni pro-cicliche o a-cicliche. Tali studi, tuttavia, sono basati su dati ex
post e si riferiscono a periodi che includono anni precedenti quelli qui esaminati. Il tipo di
informazione usato sembrerebbe importante nello spiegare le differenze nei risultati. Se
replichiamo la nostra analisi utilizzando dati ex post, la reazione al ciclo diviene piccola e
statisticamente non significativa.
Non sembra quindi che il Patto di stabilità e crescita abbia distorto i comportamenti a
favore di politiche pro-cicliche, una critica frequentemente portata al Patto. Se
distinguiamo tra condizioni cicliche favorevoli e sfavorevoli, non troviamo evidenza di
asimmetria nelle reazioni delle politiche di bilancio, a differenza di alcuni studi recenti.
Ciclo elettorale.- Troviamo evidenza della presenza di un ciclo elettorale, ma
l’espansione di bilancio associata alle elezioni (pari all’1,4 per cento del PIL nell’anno in
cui esse si tengono e allo 0,6 nell’anno precedente) si manifesta solo se le condizioni
cicliche sono percepite come favorevoli al momento delle decisioni di bilancio.
53
SESSIONE LIBERA
CRESCITA
Relazioni:
•
•
•
•
Testing for Country Heterogeneity in Growth Models Using a Finite Mixture Approach:
Marco Alfò, Giovanni Trovato e Robert J. Waldmann
A Longitudinal Analysis of Venture Capital Financing and the Growth of New Technologybased Firm the Role of Investors’ Typology: Fabio Bertoni, Massimo G. Colombo e Luca
Grilli
How Do Output Growth Rate Distributions Look Like? Some Time-Series Evidence on
OECD Countries: Giorgio Fagiolo, Mauro Napoletano e Andrea Roventini
Convergence Across Italian Regions and the Role of Technological Catch-up: Marco
Maffezzoli
54
Testing for country heterogeneity in growth models using a finite mixture approach
Marco Alfò
Dipartimento di Statistica, Probabilitµa e Statistiche Applicate
Università di Roma, La Sapienza
Giovanni Trovato
Robert J. Waldmannz
Dipartimento di Economia e Istituzioni
Università di Roma, Tor Vergata
Abstract
We use an empirical model to test if the economic growth can be considered exogenous in
the Solovian sense. We apply multivariate mixture model proposed by Alf¶o and Trovato
(2004) to the Bernanke and GÄurkaynak (2001) extension of the Solow model. We ˉnd that
the explanatory power of the Solow growth model is enhanced, since growth rates are not
statistically signiˉcantly associated with investment rates, when cross-country
heterogeneity is considered. Moreover we find no sign of convergence to a single
equilibrium.
Keywords: economic growth, unobserved heterogeneity, multivariate mixture
models,poverty traps.
JEL:C14, 030, 040
1 Introduction
The present paper aims at testing the explicative capability of the MRW model when we
tryto unify through a parsimonious statistical approach dfferent sources of heterogeneity.
The proposed approach produces a classification of countries based on a set of common
latent variables (Paap et al., 2005). The prediction of the Solow model is that in the longrun steady-state, the level of real output per-worker is a function of two variables: the
saving rate and the labor force growth rate. Because saving and growth rates vary across
countries, each country has a specific steady state. In this respect, the Solow model
assumes that if the country steady state correctly describes the distribution of output per
worker, then the long-run growth rate is independent of saving rates and capital
accumulation. The empirics of economic growth have dealt with cross-country
convergence issues. Indeed, the evidence of cross-country conditioned convergence is
considered as supporting the Solow model while absence of convergence has been
considered evidence in favor of endogenous growth theories. However, Azariadis and
Drazen (1990), Durlauf and Johnson (1995), Bernard and Durlauf (1996) and Galor (1997)
demonstrate that the Solow model is consistent with the existence of convergence clubs. If
their theoretical analysis is empirically relevant, a failure to allow for unexplained
heterogeneity in country steady states can lead to spurious rejection of the Solow model.
55
Our proposal concerns both heterogeneity testing and convergence issues. We start from
the intuition of Bernanke and Gürkaynak (2001) that levels and growth rates are correlated
and thus have to be studied in a bivariate model. In this context, if convergence occurs, we
must and a negative and significant residual correlation. Since this approach to testing the
Solow model, is new,the vulnerability of the Bernanke and Gürkaynak to parameter
heterogeneity has not yet been addressed. We find strong evidence that consideration of
parameter heterogeneity
casts doubt on the conclusions of Bernanke and Gürkaynak. In contrast we find no
evidence of convergence. As we will show in the bivariate semi-parametric model, the
random terms in the mean and growth rates are positively correlated.
56
A longitudinal analysis of venture capital financing and the growth
of new technology-based firms: the role of investors’ typology
Fabio Bertoni, Massimo G. Colombo, Luca Grilli
Department of Management, Economics and Industrial Engineering,
Politecnico di Milano
Since the seminal work by Jaffee and Russell (1976) and Stiglitz and Weiss (1981), the
argument that there are frictions in capital markets that make it difficult for firms to obtain
external financing and constrain their investment decisions has increasingly been gaining
ground in the economic and financial literature (see Fazzari et al. 1988 and the studies
mentioned by Hubbard 1998). New technology based firms (NTBFs) are those most likely
to suffer from these capital market imperfections. In turn, the fact that poor access to
external financing may limit the growth and even threaten the survival of NTBFs is
worrisome because of the key role these firms play in assuring dynamic efficiency and
employment growth in the economic system (Audretsch 1995, Acs 2004).
The above arguments especially apply to bank loans (Carpenter and Petersen 2002). In
fact, banks generally do not possess the competencies required to evaluate ex ante and
monitor ex post the investment projects proposed by young high-tech firms that lack a
track record. In principle, the above mentioned adverse selection and moral hazard
problems can be alleviated through the recourse to collateralized loans (Berger and Udell
1998). Nonetheless most of high-tech investments is in intangible and/or firm-specific
assets that provide little collateral value.
Venture capital (VC)* financing is generally considered by both academics and
practitioners as a more suitable financing mode for NTBFs than bank loans. In fact, it is
contended in the financial literature that this financing mode offers a fundamental
contribution to the success of high-tech entrepreneurial ventures (see for instance Sahlman
1990, Gompers and Lerner 2001, Kaplan and Strömberg 2001, Denis 2004).
Nonetheless, whether access to VC financing spurs the growth of portfolio companies is a
matter of empirical test. As will be documented in the paper, the results of previous
studies on this issue are not unanimous. The reason may be that these studies suffer from
several methodological weaknesses. First, some of them focus on firms that went through
an IPO. The samples they analyze are not representative of the NTBF population, since
privately held firms are not considered. Moreover, these studies capture the moderating
effect of VC financing on the relationship between the IPO and firms’ growth rather than
the direct effect of VC financing on growth. Second, the results obtained by studies that
resort to cross-sectional estimates are likely to be biased due to lack of proper control for
unobserved heterogeneity across firms and reverse causality. Quite surprisingly, studies
*
The term “VC” is referred here to equity (or equity-like) financing provided by external investors to high-tech
entrepreneurial firms in the early stages of their life. It includes seed, start-up and expansion capital. The source of
financing may be independent financial intermediaries, diversified financial firms, and non-financial firms (i.e.
corporate venture capital).
57
based on longitudinal datasets are rare (see Davila et al. 2003, Alemany and Marti 2005).*
Lastly, it has recently been argued in the VC literature that especially in Europe, there is
great heterogeneity across VC investors (Tykvova 2003, Bottazzi et al. 2004). Therefore the
effect of VC financing on the growth of portfolio firms may well be contingent on the
characteristics of the investor (Tykvova and Walz 2004, Engel and Heger 2006).†
In this work we resort to a hand-collected 10 year long longitudinal dataset
composed of 550 Italian NTBFs to analyze the effect of VC financing on firm growth in the
years that follow the first round of financing. In addition, we distinguish VC-backed firms
according to whether VC financing is provided by independent VC firms (i.e. IVC) or nonfinancial firms (i.e. corporate venture capital, CVC).‡ Italian NTBFs provide a very
interesting testbed of the beneficial effects of VC financing on portfolio companies as in
Italy the VC industry is quite undeveloped and VC investors operate in a quite
unfavorable environment. Sample firms were established in 1980 or later, survived as
independent firms up to January 2004, and are observed from 1993 up to 2003. They
operate in high-tech sectors of manufacturing and services. Most of them are privately
held. In order to capture the effect of VC financing on the subsequent growth of firms, we
estimate an augmented Gibrat law type dynamic panel data model with distributed lags.
We consider growth of both employees and sales. We resort to GMM-system estimation to
control for the potentially endogenous nature of VC financing.
The results of the estimates strongly support the view that VC financing has a dramatic
positive effect on firm growth. Moreover, even though both IVC and CVC financing
positively affect firm growth, the benefits of the former mode of financing considerably
exceed those of the latter.
*
For an attempt to control for this bias in cross-sectional estimates of the relation between VC financing and firm
growth, see Engel (2002), Colombo and Grilli (2005).
†
In accordance with this argument Hsu (2004) shows that financing offers by VC firms with high reputation are more
than three times more likely to be accepted from recipient firms than other offers; in addition, these investors obtain a
discount on the purchase price of the participation ranging between 10% and 14%.
‡
In Italy US-style independent VC firms that exclusively focus on early stage financing of high-tech start-ups are rare.
So most firms included in the IVC category operate both in the early stage and late stage equity capital financing
segments. Non financial firms invest in high-tech start-ups either directly or through affiliated subsidiaries. Both types
of investment are included in the CVC category. Conversely, investments in high-tech start-ups on the part of other
financial intermediaries such as banks and insurance companies are almost inexistent in Italy. They are included neither
in the IVC nor in the CVC categories (while they are included in the VC category).
58
Sulle proprietà statistiche delle distribuzioni dei tassi di crescita
dell’output aggregato nei paesi OCSE
Giorgio Fagiolo
Department of Economics, University of Verona,
Sant’Anna School of Advanced Studies, Pisa
Mauro Napoletano
Chair of Systems Design, Zurich
Sant’Anna School of Advanced Studies, Pisa
Andrea Roventini
University of Modena and Reggio Emilia, Italy
Sant’Anna School of Advanced Studies, Pisa
Negli ultimi decenni buona parte della ricerca macroeconomica è stata diretta all’analisi
delle proprietà statistiche riguardanti la serie temporale dell’output aggregato. Un
risultato rilevante di tale ricerca è stata l’individuazione del forte grado di persistenza
caratterizzante le fluttuazioni dell’output nei principali paesi industrializzati (si veda ad
es. Nelson and Plosser, 1982; Cochrane, 1988, 1994; Blanchard and Quah, 1989; Rudebusch,
1993; Murray and Nelson, 2000).
Più recentemente l’indagine ha riguardato le proprietà della distribuzione dei tassi di
crescita tra paesi. In particolare i lavori appartenenti a quest’ultimo filone di ricerca (cfr.
Canning et al., 1998; Lee et al., 1998; Castaldi and Dosi, 2004), hanno evidenziato il
carattere leptocurtico di tale distribuzione o, in altre parole, la presenza di code grasse.
Un’evidenza simile è stata riscontrata anche a livelli di aggregazione inferiori, e ciò nel
caso della distribuzione cross-section dei tassi di crescita tra imprese e tra settori (cfr.
Stanley et al., 1996; Lee et al., 1998; Amaral et al., 1997; Bottazzi and Secchi, 2003a,b;
Castaldi and Dosi, 2004; Sapio and Thoma, 2006). L’insieme di tali risultati sembra indicare
che, indipendentemente dal livello di aggregazione adottato, la dinamica cross-section
dell’output sia caratterizzata da tassi di crescita di magnitudo elevata, statisticamente più
rilevanti rispetto a quanto previsto dalla distribuzione Normale.
Tuttavia la ricerca sulle proprietà delle distribuzioni dei tassi di crescita dell’output
aggregato ha finora considerato esclusivamente distribuzioni cross-section, cioè tra un dato
set di paesi in un dato anno, oppure la distribuzione tra paesi aggregata per un dato
intervallo di tempo, sotto l’assunzione di stazionarietà dei momenti. Diversamente da tale
letteratura, questo lavoro si concentra sulle proprietà statistiche della distribuzione timeseries dell’output aggregato, quindi in un dato intervallo temporale e all’interno di singoli
paesi. Più precisamente, il presente lavoro considera le serie temporali dei tassi di crescita
del PIL e della produzione industriale in un paese benchmark come gli Stati Uniti, e testa se
le loro distribuzioni possono essere approssimate da densità diverse dalla normale e
caratterizzate da curtosi in eccesso. Successivamente l’analisi viene estesa alle serie
59
temporali dei tassi di crescita in un campione di paesi OCSE. Così facendo, il lavoro si
propone di gettare un ponte fra la recente ricerca riguardante le distribuzioni dei tassi di
crescita dell’output con la letteratura sulla proprietà statistiche delle serie temporali
dell’output nei singoli paesi.
Il presente lavoro si differenzia dai precedenti in letteratura anche sotto altri importanti
aspetti. Primo, vengono impiegate serie temporali a frequenza trimestrale e mensile. Tale
scelta consente di avere a disposizione maggiori osservazioni, ma anche di analizzare
frequenze più adatte per lo studio dei cicli economici. Inoltre la distribuzione dei tassi di
crescita dell’output viene stimata impiegando la distribuzione di Subbotin (cfr. Subbotin,
1923), che comprende come casi speciali sia la distribuzione normale, sia la distribuzione
Laplace. In questo modo è possibile ottenere una misura precisa della distanza della
distribuzione empirica dal benchmark, rappresentato dalla distribuzione Normale. Infine, il
lavoro analizza la robustezza dei risultati sulle serie originali dei tassi di crescita
dell’output rispetto alla presenza di outliers, autocorrelazione ed eteroschedasticità in tali
serie.
Il lavoro mostra che negli Stati Uniti sia i tassi di crescita del PIL, sia i tassi di crescita della
produzione industriale, seguono la distribuzione di Laplace, caratterizzata da code grasse.
Tale regolarità viene osservata anche negli altri paesi OCSE analizzati. Inoltre l’evidenza
risulta essere robusta rispetto alla rimozione di outliers, autocorrelazione ed
eteroschedasticità. Dunque, anche la dinamica time-series della crescita in numerosi paesi
OCSE appare turbolenta: tassi di crescita di magnitudo elevata - sia positivi che negativi –
sono molto più frequenti rispetto a quanto sarebbe previsto da un modello Gaussiano.
Inoltre, la presenza di code grasse risulta essere una proprietà stessa del processo
generatore delle innovazioni nella dinamica dell’output, anziché un effetto spurio
dell’eventuale presenza di outliers, autocorrelazione ed eteroschedasticità nei dati.
Keywords: Distribuzione dei Tassi di Crescita dell’Output, Normalità, Serie Temporali,
Code Grasse, Distribuzione di Laplace, Dinamica dell’Output.
JEL Classification: C1, E3.
References
Amaral, L. A. N., Buldyrev, S. V., Havlin, S., Salinger, M. A., Stanley, H. E. and Stanley, M.
H. (1997) Scaling behavior in economics: The problem of quantifying company growth,
Physica A, 244, 1–24.
Blanchard, O. and Quah, D. (1989) The dynamic effects of aggregate demand and supply
disturbances, American Economic Review, 79, 655–673.
Bottazzi, G. and Secchi, A. (2003a) Common properties and sectoral specificities in the
dynamics of u.s. manufacturing firms, Review of Industrial Organization, 23, 217–32.
Bottazzi, G. and Secchi, A. (2003b) Why are distribution of firm growth rates tent-shaped?,
Economic Letters, 80, 415–20.
Canning, D., Amaral, L. A. N., Lee, Y., Meyer, M. and Stanley, H. E. (1998) Scaling the
volatility of GDP growth rates, Economic Letters, 60, 335–41.
60
Castaldi, C. and Dosi, G. (2004) Income levels and income growth. some new crosscountry evidence and some interpretative puzzles, Working Paper 2004/18, Laboratory of
Economics and Management (LEM), Sant’Anna School of Advanced Studies, Pisa, Italy.
Cochrane, J. (1988) How big is the random walk in GNP?, Journal of Political Economy, 96,
893–920.
Cochrane, J. (1994) Permanent and transitory components of GNP and stock prices,
Quarterly Journal of Economics, 109, 241–265.
Lee, Y., Amaral, L. A. N., Canning, D., Meyer, M. and Stanley, H. E. (1998) Universal
features in the growth dynamics of complex organizations, Physical Review Letters, 81,
3275–8.
Murray, C. J. and Nelson, C. R. (2000) The uncertain trend in U.S. GDP, Journal of
Monetary Economics, 46, 79–95.
Nelson, C. R. and Plosser, C. O. (1982) Trends and random walks in macroeconomic time
series, Journal of Monetary Economics, 10, 139–62.
Rudebusch, R. G. (1993) The uncertain unit root in real GNP, American Economic Review,
83, 264–272.
Sapio, S. and Thoma, G. (2006) The growth of industrial sectors: Theoretical insights and
empirical evidence from u.s. manufacturing, Working Paper 2006/09,
Laboratory of Economics and Management (LEM), Sant’Anna School of Advanced
Studies, Pisa, Italy.
Stanley, M. H., Amaral, L. A. N., Buldyrev, S. V., Havlin, S., Leschhorn, H., Maass, P.,
Salinger, M. A. and Stanley, H. E. (1996) Scaling behavior in the growth of companies,
Nature, 379, 804–6.
Subbotin, M. (1923) On the law of frequency of errors, Matematicheskii Sbornik, 31, 296–
301.
61
Convergence Across Italian Regions and the Role of Technological Catch-Up
Marco Maffezzoli
Università Bocconi and IGIER
The Italian case is one of the best-known examples of persistent and quantitatively
important regional divide, and has attracted attention from economists at least since
Myrdal (1957). Historically, the degree of regional inequality in GDP per worker (or per
capita) has been significantly higher than in other European countries. Moreover, the
Italian microcosm reproduces many of the contrasts and differences existing among
European countries, since the productive structure and the level of development of Italian
regions varies widely, ranging from the rich and industrialised regions of the North to the
relatively poor Southern areas.
The current consensus view is that Italian regions converged in absolute terms quite
impressively over the 1960-75 period; this convergence process, however, ended suddenly
in 1975, and the 1980s and the beginning of the 1990s witnessed the emergence of a clear
pattern of divergence and clustering, in terms of both GDP per capita and, to a certain
extent, labor productivity. Some recent contributions highlight the ongoing divergence in
GDP per capita levels, which contrasts with the convergence in labor productivity that
became increasingly evident during the 1990s.
The official Italian regional accounts have been recently reconstructed according to the
ESA95 standard, providing us with a set of detailed time-homogenous series covering the
entire 1980-2004 period. In this paper, I take advantage of this new dataset to reexamine
the process of regional convergence in Italy, focusing on labor productivity, i.e. GDP per
worker, which seems to be a better indicator of economic efficiency. More precisely, I
attempt to answer the question whether the degree of convergence in GDP per worker
across Italian regions can be attributed to convergence in relative TFP levels or to
convergence in capital-labor ratios. The answer is that the main (and possibly unique)
source of σ- and β-convergence is the change in technical and allocative efficiency, i.e.
convergence in relative TFP levels.
To obtain this result, I adapt the approach introduced in macroeconomics by Färe et al.
(1994) and extended by Kumar and Russell (2002): I estimate the degree of technical and
allocative inefficiency at the regional level by constructing an approximation of the
(national) production frontier at different points in time using a deterministic and
nonparametric method known as Data Envelope Analysis (DEA), and measuring
efficiency as the output-based distance from the frontier. This method is entirely datadriven, and does not require strong assumptions on the functional form of the aggregate
production function, on the nature of technological progress, or the structure of product
and factor markets. Once estimates of the relative TFP levels are available, changes in GDP
per worker at the regional level can be decomposed into changes in relative efficiency,
changes due to the overall technological progress, and changes due to capital deepening.
My main results are that: (i) differences in relative TFP are quantitatively important
determinants of the Italian regional divide; (ii) technological progress and capital
deepening are the main, and equally important, forces behind the rightward shift in the
62
distribution of GDP per worker, but leave the shape of the distribution totally unaffected;
(iii) convergence in relative TFP contributes little to the rightward shift of the distribution,
but is the main determinant of the change in the shape of the distribution.
These conclusions remain essentially unaltered even if the analysis is performed on a
yearly basis, allowing for variable returns to scale, or corrected for differences in human
capital stocks.
63
SESSIONE LIBERA
INDUSTRIALE
Coordinatore: Angelo ZAGO
Relazioni:
•
•
•
•
Partial Regulation in Vertically Differentiated Industries: Angela S. Bergantino, Etienne
Billette De Villemeur e Annalisa Vinella
Restructuring Public Transit Systems: Evidence on Cost Properties and Optimal Network
Configuration from Medium and Large-Sized Companies: Carlo Cambini, Massimiliano
Piacenza e Davide Vannoni
Mixed Duopoly, Privatization and the Shadow Cost of Public Funds: Exogenous and
Endogenous Timing: Carlo Capuano e Giuseppe De Feo
L’equilibrio sul campo quando i club hanno obiettivi differenti: l’esperienza recente della
serie A di calcio: Nicola Giocoli
64
Partial Regulation in Vertically Differentiated Industries
Angela S. Bergantino
Department of Economics, University of Bari
Etienne Billette de Villemeur
University of Toulouse, IDEI and GREMAQ
Annalisa Vinella
University of Toulouse, GREMAQ,
Department of Economics, University of Bari,
European University Institute, RSCAS, Florence School of Regulation, Florence
In this paper we provide a theoretical foundation to the price-and-quality cap regulation
of the recently liberalized utilities. We model a partially regulated oligopoly where
vertically differentiated services, such as high-speed and low-speed train services, are
provided by a regulated incumbent and a strategic unregulated entrant competing in price
and quality. This stylisation is rather flexible in that it may equally well represent
competition between regulated and unregulated industries, such as regulated train
operators and deregulated air carriers. We establish that the price and quality weights in
the cap need to depend also on the market served by the entrant, despite the latter is not
directly concerned by the partial regulation. The conclusion is drawn that the regulators of
the sectors under scrutiny should be allowed to use information about the overall
industries, rather than the sole incumbents.
Keywords: Price-and-Quality Cap; Partial Regulation; Vertical Differentiation
J.E.L. Classification Numbers: L11, L13, L51, L9
Executive Summary
In a seminal piece of work, Laffont and Tirole (1996) show that capping the prices of a
multiproduct monopolist by means of a constraint in which any such price is attributed a
weight equal (or proportional) to the correctly forecasted optimal quantities induces the
regulated firm to charge the Ramsey prices, so that the second-best optimum is entailed.
This result ʺrestatesʺ the one, due to Brennan (1989), that the price cap emerges as the
solution to a problem of welfare-constrained profit maximization, output quantities being
the weights to be attributed to the allowable deviations from the desirable prices.
65
The ones afore-mentioned are definitely not the sole studies about the ideal price cap.
Indeed, numerous other authors have concentrated on the subject. Some have generically
looked at industries providing services of general interest (e.g., De Fraja and Iozzi, 2000;
Iozzi, Poritz and Valentini, 2002), others have focused on specific sectors (e.g., Billette de
Villemeur, Cremer, Roy and Toledano, 2003).
Special credit deserve De Fraja and Iozzi (2004) who lay down a theoretical foundation of
the price-and-quality regulation by integrating the price cap with a quality dimension. The
concern for quality is particularly strong when utilities are subject to price cap regulation,
due to the incentive the latter provides to cost cutting, which may translate into reductions
in the level of offered quality. Indeed, according to Rovizzi and Thompson (1992), a
noticeable quality reduction was registered in British Telecom’s services as soon as the
company was subject to price cap regulation without specific quality provisions. This
evidence explains why regulators tend to exert special effort for controlling the quality
supplied by the regulated operators and illustrates the relevance of De Fraja and Iozzi
(2004)’s contribution.
The existing theoretical foundation of the ideal price(-and-quality) cap refers to
monopolistic industries. This circumstance is easily explained. After the Second World
War, almost all governments chose to structure the provision of services of general interest
as State controlled-and-owned vertically integrated monopolies. Over time, this
organizational model has generated dissatisfaction and lost momentum. In the recent
decades, utilities have either undergone a major process of privatisation (see, among
others, Martimort, 2005) or become purely commercial players to be regulated, ownership
being (formally) separated from regulatory tasks. Having in mind these real-world
scenarios, economists have devoted close attention to monopoly regulation in general, and
to price cap monopoly regulation in particular, with and without quality adjustments.
However, in a plurality of cases, the segments of the network industries that do not rely
upon sub-additive technologies have also been opened up to competition. As a
consequence of liberalization, partially regulated oligopolies arise, where the incumbents
are subject to regulation, whereas the entrants are allowed to operate uncontrolled, though
strategic (see, for instance, Helm and Jenkinson, 1998). Such policies are meant, on one
side, to promote access and (some) competition and, on the other side, to guarantee the
collectivity with a reliable supply of the concerned services at affordable prices, by making
the incumbents less market powerful but still financially viable. Biglaiser and Ma (1995)
give the example of AT&T, which operates as a regulated incumbent in the long-distance
telecommunications market, in competition with the unregulated MCI and Spring.
A crucial question arises. Can we expect the well-established monopoly regulation to be
valid also for imperfectly competitive partially regulated sectors? There is no economic
reason for this to be a priori the case. This is confirmed by the conclusions achieved by
Biglaiser and Ma (1995) who show that the regulatory programme is sensitive to the
presence of a second operator endowed with market power. New constraints and tradeoffs appear, beyond those faced in the monopoly regulation, and the result is ultimately a
third-best one. This finding conveys a lesson that applies to price cap regulation as well.
Provided that the latter lacks a normative basis with reference to the new relevant
66
situations, the necessity arises to revise the underlying theory, so that the implementation
practice can then be updated accordingly.
The ultimate goal of the present paper is to provide a theoretical foundation for the priceand-quality cap regulation in oligopolistic environments, where a regulated incumbent (a
Stackelberg leader) competes in price and quality with one (or more) unregulated
follower(s). To account for the importance quality takes in the provision of basically all
services of general interest, we focus on a market where vertically differentiated services
are supplied to a population of consumers exhibiting heterogeneous valuations for
quality.
The interpretation of our model is twofold. Firstly, it represents competition between
asymmetrically regulated operators within some given industry. To fix ideas, one may
think about a regulated dominant train operator competing with one or more unregulated
rivals, whose services display different qualities (e.g., high-speed and low-speed train
services). Secondly, our model stylises competition between regulated and unregulated
industries. Insisting on transportation, one may consider the inter-modal competition
between regulated train operators and deregulated air carriers, whose services differ as for
speed, frequency, scheduling reliability, comfort. Albeit transportation illustrates the
flexibility of our model particularly well, the model does apply to substantially all utilities.
Within the context so far described, we first characterize the (constrained) optimal partial
regulatory policy. This is the policy arising in a mixed duopoly where a welfaremaximizing firm plays as a Stackelberg leader with respect to one (or more) profitmaximizing rival(s), facing the requirement that its profits be non-negative. In this
perspective, our work is close to the mixed oligopoly models in which the public firm is
taken to be a first mover vis-à-vis the private operator(s) (e.g., Rees, 1984, and Bos, 1989).
At later stage, we illustrate how the established optimal policy should be decentralized to
the incumbent by means of an ideal price-and-quality cap. Our major finding is that,
despite partial regulation does not directly concern the follower(s), decentralization of the
optimal policy to the dominant operator requires that weights be attributed to price and
quality, which depend not only on the portion of market that is served by the incumbent,
but also on the one that is covered by the unregulated competitors as well as on the
pertaining ranges of quality valuations. It follows that the regulatory bodies of the
incumbents in liberalized industries should be allowed to use the available knowledge or
to extract information about the overall industry, rather than being restricted to solely
access and rely upon the information about the targeted operators.
67
Restructuring Public Transit Systems: Evidence on Cost Properties and
Optimal Network Configuration from Medium and Large-Sized Companies
Carlo Cambini
DISPEA , Politecnico di Torino,
Massimiliano Piacenza
Consiglio Nazionale delle Ricerche, Ceris-CNR,
Davide Vannoni
Facoltà di Economia, Università di Torino
Il settore del trasporto pubblico locale (TPL) in Italia è stato per anni caratterizzato da una
profonda crisi dovuta soprattutto ad un perdurante dissesto finanziario e ad una crisi
della domanda di trasporto collettivo. Nel corso degli anni ‘70 e ‘80 il settore ha visto i
propri costi crescere molto più dei ricavi, che in molti casi diminuivano a causa della
perdita di clientela a favore dei mezzi di trasporto privati. Per rimediare a questa
situazione si è fatto massiccio ricorso all’utilizzo di fondi pubblici nazionali e locali. In
assenza però di appropriati meccanismi di incentivazione dell’efficienza e di sufficiente
credibilità del vincolo di bilancio, regioni ed enti locali hanno lasciato crescere i disavanzi
delle imprese di TPL, con l’obiettivo di poter poi ricevere un intervento “straordinario”
dello Stato, come d’altronde è sempre avvenuto, contribuendo ulteriormente a ridurre la
credibilità dei vincoli di bilancio. La riforma strutturale del TPL, avviata con la Legge
549/1995 e completata dai Decreti Legislativi 422/1997 e 400/99, rappresenta la risposta
all’esigenza di una riorganizzazione radicale dell’intero comparto, senza la quale il
perseguimento di cospicui recuperi di efficienza e di efficacia del servizio sarebbero
risultati problematici. Tra gli elementi innovativi riconosciuti alla riforma, un punto
centrale è costituito dall’introduzione di forme di concorrenza amministrata (o “per il
mercato”), attraverso il ricorso a procedure di gara per l’affidamento dei servizi.
Alla luce di tale evoluzione del quadro regolatorio, questo lavoro analizza le
caratteristiche tecnologiche delle imprese che forniscono il servizio di TPL nelle grandi
realtà urbane, con l’obiettivo di delineare la dimensione ottimale di produzione e la
configurazione del network più appropriata, con riferimento alla definizione del bacino di
traffico da assegnare mediante gara. Lo studio di tali aspetti assume particolare rilievo
sotto il profilo dell’efficienza dei gestori, dal momento che individua la possibilità da parte
di questi ultimi di sfruttare le economie di scala e di densità del network eventualmente
presenti nella tecnologia adottata. Nello studio si tiene altresì conto dell’eventuale
diversificazione dell’offerta del servizio tra comparto urbano ed extraurbano, valutando
così la presenza di possibili vantaggi di costo associate ai bacini di tipo misto (economie di
gamma) che nella realtà italiana del TPL rappresentano un fenomeno diffuso. Dal punto di
vista metodologico, l’analisi si basa sulla stima di diversi modelli di funzione di costo di
tipo Translog: vengono considerate sia una specificazione di breve periodo (costo variabile)
sia una di lungo periodo (costo totale), tre diverse alternative misure dell’output,
l’inclusione nel modello di effetti fissi firm-specific e la possibile presenza di X-inefficienza,
68
attraverso la stima di una frontiera stocastica che ammette l’ipotesi di mancata
minimizzazione dei costi da parte delle unità produttive osservate.
L’evidenza ottenuta, che risulta robusta alla diverse specificazioni del modello, rivela la
presenza di significative economie di scala e di densità sia per l’impresa media di
riferimento sia per gli operatori di grande dimensione. Tali risultati confermano quanto
emerso in studi precedenti sul TPL in Italia che avevano rilevato l’esistenza di tali
economie per le imprese di piccola e media dimensione. La presenza di economie di
densità suggerisce la possibilità per l’impresa di poter conseguire risparmi di costo
attraverso un’intensificazione del servizio all’interno del proprio bacino di traffico: data
una certa area territoriale servita, a seguito di un incremento dell’output offerto i costi
aumentano in misura meno che proporzionale, consentendo pertanto una riduzione dei
costi medi unitari. La presenza invece di economie di scala implica che espandendo
simultaneamente sia l’output sia la dimensione del network servito, è possibile migliorare
la performance di costo a seguito del raggiungimento di una scala globale più efficiente.
Tali risultati evidenziano l’opportunità di promuovere una politica di fusioni fra i gestori
di TPL operanti su network adiacenti, soprattutto fra imprese urbane ed extraurbane, in
modo da creare nuove unità produttive che, fornendo un servizio misto, riescano anche a
sfruttare le economie di diversificazione rilevate attraverso l’analisi econometrica. Le
implicazioni di policy vanno valutate attentamente. Particolare cautela dovrebbe essere
usata nel considerare i risultati della ricerca a confronto con altre esperienze internazionali
che sembrano suggerire, in maniera indiretta, l’esistenza di scarse economie di scala. Il
riferimento è al caso di alcuni paesi europei, segnatamente la Gran Bretagna e in maggior
dettaglio Londra, dove gare che hanno avuto ad oggetto singole linee e/o sub-bacini e non
interi network hanno permesso di conseguire rilevanti risparmi di costo. Eventuali
comparazioni con altri paesi devono infatti tener conto della diversa struttura industriale,
soprattutto in termini di grado di concentrazione e integrazione verticale, oltre che del
quadro regolatorio vigente. Lo studio fornisce quindi un tassello importante, ma non
dirimente, per definire la struttura delle procedure di affidamento mediante gara. I
risultati dell’analisi sembrano suggerire gare aventi per oggetto network di ampia
estensione, che nei centri di dimensioni medie coinvolgano sia l’attività urbana sia quella
extraurbana, mentre nelle città metropolitane riguardino l’intero bacino di traffico.
Tuttavia, l’esito ottimale di una gara dal punto di vista delle offerte dipende da una
pluralità di condizioni relative al disegno della gara medesima e al grado di concorrenza
effettiva e potenziale nel mercato rilevante; in termini molto generali, quanto più grande è
il lotto da assegnare, tanto minore sarà probabilmente il numero dei partecipanti e
maggiore il rischio di comportamenti collusivi e opportunistici, con il risultato che le
offerte non rifletteranno correttamente i costi. In un contesto normativo che prevede
l’affidamento del servizio tramite gara, un approccio più prudente rispetto alle
considerazioni sopra richiamate, almeno per le grandi aree metropolitane, potrebbe quindi
essere quello di suddividere ex ante il network in un certo numero di lotti, attribuirli in
modo separato senza alcun vincolo di partecipazione, e lasciare poi al mercato la
segnalazione dell’esistenza effettiva di rendimenti crescenti di scala. Tale opzione
potrebbe risultare altresì un valido test empirico per i risultati raggiunti con l’analisi
econometrica qui proposta.
69
Mixed Duopoly, Privatization and the Shadow Cost of Public Funds:
Exogenous and Endogenous Timing
Carlo Capuano
Dipartimento di Economia, Università di Napoli Federico II
Giuseppe De Feo
CORE - Center for Operations Research and Econometrics,
Dipartimento di Economia, Università di Napoli Federico II
The purpose of this article is to investigate how the introduction of the shadow cost of
public funds in the utilitarian measure of the economy-wide welfare affects the behaviour
of a welfare maximizer public firm in a mixed duopoly. We prove that when firms play
simultaneously, the mixed-Nash equilibrium can dominate any Cournot equilibria
implemented after a privatization, with or without efficiency gains. This can be true both
in terms of welfare and of public firm’s profit.
When we consider endogenous timing, we show that either mixed-Nash, private
leadership or both Stackelberg equilibria can result as subgame-perfect Nash equilibria
(SPNE). As a consequence, the sustainability of sequential equilibria enlarges the subspace
of parameters such that the market performance with an inefficient public firm is better
than the one implemented after a full-efficient privatization. Absent efficiency gains,
privatization always lowers welfare.
More broadly, our paper deals with a mixed duopoly where a private and a public firm
are involved in a homogeneous good quantity competition. Since we refer to former public
monopoly opened to competition, we consider firms characterized by increasing returns to
scale (with fixed and constant marginal costs). In particular, the public firm is assumed to
be less inefficient than its private competitor, but, differently from Cremer et al. (1989), the
public firm’s higher cost is not a neutral transfer from firm to workers belonging to the
same economy but, as an X- inefficiency, it reduces any utilitarian measure of welfare. We
derive the mixed oligopoly equilibria and define conditions under which a privatization,
with or without efficiency gains, leads to a reduction of allocative efficiency and
profitability.
The novel contribution of this paper is twofold. First, we characterize the objective of the
public firm taking into account the shadow cost of public funds as initially analyzed in
Meade (1944) and exploited in Laffont and Tirole (1986,1993). Usually this analysis has been
used to characterize public monopolies running a deficit*. Here we apply the same
*
“[M]any public enterprises are natural monopolies, i.e. firms that exhibit increasing returns to scale. Once it has
been proved desirable to run such an enterprise at all, its product should be priced at marginal cost provided the
resulting deficit can be financed through lump-sum taxes. If there are not lump-sum, discrepancies between consumer
and producer taxes will result in inefficiencies in the rest of the economy. (...) This has been taken as an argument for
requiring the public enterprise to cover, by its own means, at least part of its deficit.” (Marchand et al., 1984).
70
reasoning to a public firm competing in an oligopoly. In our framework, with fixed cost
and constant marginal cost, the idea is that public firm’s profit - whether positive or
negative - have to be considered as a (positive or negative) transfer from the government
to the public firm. In fact, when public firm deficit occurs, government must resort to
distortionary taxes on income, capital or consumption. If government rises 1 Euro, society
pays (1+ = ) Euro. Consequently, public profits, when positive, avoid an equivalent public
transfer, reducing distortionary taxes. Public firm’s profit and deficit are not a neutral
transfer among agents of the same economy. They ought not to be weighted as private
firm’s profits or consumer net surplus in the utilitarian measure of welfare, but they
should be weighted 1+ = . Even though there is no general agreement on the objective of
the public firm (Vickers and Yarrow, 1991), we believe that our proposal, in a partial
equilibrium setting meets the intuition of Marchand et al. (1984). Moreover, there is large
empirical evidence of prices above marginal cost with soft budget constraint and also
positive profits by public firm, where the latter occurs more frequently in the mixed
oligopoly context than in natural public monopolies. Thus, we do not require the public
firm to act under hard budget constraint and the profit will be positive or negative
depending on the importance of the distortion due to taxation and the amount of fixed
costs.
Second, after having analyzed the simultaneous moving game, we consider the issue of
endogenizing the timing of competition; that is, the order of play in a given two player
game. It is worth noting that in Harris and Wiens (1980), Beato and Mas-Colell (1984), Cremer
et al. (1989) and de Fraja and Delbono (1989), the choice of the timing of competition (either
Nash-Cournot or Stackelberg) is exogenously given. On the contrary, the determination of
simultaneous (Nash-Cournot) versus sequential (Stackelberg) games and the assignment
of leader and follower roles should be the result of preplay independent and simultaneous
decisions by the players. To endogenize the timing of the game, we apply the Hamilton and
Slutsky (1990) model to our framework*: they explain the extended game as a game with
observable delay since both players choose the action in the basic game after having
observed the time decision of the other. Amir and Grilo (1999) apply this model to a private
duopoly showing that, in a quantity setting with strategic substitutability, the
simultaneous game emerges as the endogenous timing and the Cournot equilibrium as the
unique subgame-perfect Nash equilibrium of the extended game. Pal (1998) addresses the
issue of endogenous order of moves in a mixed oligopoly by adopting the same game
structure. It shows that sequential playing emerges as the endogenous timing and both
Stackelberg solutions as the subgame-perfect Nash equilibria of the extended game.
Applying the Hamilton and Slutsky’s model to our setting allows us to characterize the
different equilibria emerging in a mixed market, to analyze whether the privatization
leads to a change of the endogenous timing, and to define the overall welfare effect of
*
In their insightful paper, the authors construct an extended game adding to the basic game a preplay stage at which
players simultaneously and independently decide whether to move early or late in the basic game. Then, the basic game
is played according to these timing decisions: if both players decide to move at the same time, simultaneous play
endogenously arises; while sequential play -- with the order of moves as decided by players -- otherwise. As a
consequence, the subgame-perfect Nash equilibria of the extended game induce an endogenous sequencing of moves in
the basic game.
71
privatization. The main results of our analysis can be summed up as follows. In the
simultaneous setting:
• There exists a parameters space such that welfare is larger when the (inefficient) public
firm is a welfare maximizer than after privatization. Moreover, when the shadow cost
of public funds is not negligible, public firm’s profit are larger, too. That is, there is no
trade-off between welfare and public firm’s profit.
• The market performance with an inefficient public firm may be better than the one
implemented after a full-efficient privatization.
Extending the analysis to the endogenous timing:
• Differently from Pal (1998), in our model setting either mixed-Nash, private leadership
or both Stackelberg outcomes can result as subgame-perfect Nash equilibria (SPNE) of
the endogenous timing game.
• Absent efficiency gains, privatization always lowers welfare.
• The endogenous timing setting enlarges the parameters space such that the market
performance with an inefficient public firm is better than the one implemented after a
full-efficient privatization.
Last results rely on the fact the presence of a public firm let sequential equilibria be part of
a SPNE of the game. Conversely, with private-owned firms, only simultaneous equilibria
can be implemented. It is worth noting that our results are obtained under the assumption
that government has the bargaining power to extract all the rent of the privatized firm;
that is, the price paid for the former public firm is equal to the profit gained in the new
(Cournot) equilibrium. This assumption drives the results in favour of privatization, since
it overweighs the revenue from privatization by in any welfare comparisons.
72
L’Equilibrio sul campo quando i Club hanno obiettivi differenti:
l’esperienza recente della serie A di calcio
Nicola Giocoli
Dipartimento di Scienze Economiche, Università di Pisa
Lo scopo del lavoro è duplice. Da un lato presentare criticamente ed in lingua italiana il
modello standard di analisi economica dello sport di squadra (team sports economics, TSE) e
suggerirne una variante più adatta alla realtà del campionato italiano di calcio. Dall’altro
utilizzare in modo originale una misura empirica dell’equilibrio sul campo tra i diversi
club, recentemente proposta in letteratura al fine di verificare le implicazioni della
suddetta variante. La tesi è che il recente passaggio di alcuni club calcistici ad un
comportamento orientato al profitto ha ridotto l’equilibrio per quanto concerne le prime
posizioni della classifica di Serie A, ma ha al contempo accentuato la competizione per
evitare la retrocessione in Serie B.
Il modello di riferimento nella letteratura di TSE è costruito su ipotesi che ne rilevano
l’origine nordamericana. Si assume infatti che gli n club che compongono una lega
sportiva professionistica abbiano come obiettivo la massimizzazione del profitto, da
ottenersi come differenza tra una funzione di ricavo, il cui argomento principale è
rappresentato dal numero di vittorie conseguito dal club nel corso del campionato, ed una
funzione di costo, il cui argomento principale (e spesso unico) è la spesa per acquistare il
talento tecnico-atletico necessario a “produrre” le vittorie.
Riguardo ai ricavi, l’ipotesi è che siano concavi rispetto alle vittorie: questo per tener conto
della riduzione nell’interesse dei tifosi, e quindi nella loro disponibilità a pagare per
assistere alle partite, in presenza di incontri e campionati dall’esito scontato, in cui cioè un
club vince troppo spesso – c.d. uncertainty of outcome hypothesis (UOH). Inoltre si assume
che la capacità di generare ricavi cresca con la dimensione del club e del suo mercato di
riferimento. Riguardo al mercato del talento, le ipotesi più frequenti sono che l’offerta
totale sia fissa e che sia in vigore un meccanismo di free agency (c.d. “svincolo”) che rende il
mercato perfettamente concorrenziale, per cui la remunerazione di equilibrio della singola
unità di talento tecnico-atletico, supposta uniforme tra tutti i giocatori, si colloca al livello
del costo marginale. La relazione tra talento e numero di vittorie è univocamente
determinata da una contest success function di tipo logit, tale per cui i successi di un club –
misurati con la percentuale di incontri vinti sul totale di quelli disputati – dipendono dalla
frazione del talento totale a sua disposizione.
Il modello standard propone come indicatore di performance di una lega professionistica
il concetto di competitive balance (CB), o “equilibrio sul campo”. Un incontro perfettamente
equilibrato è quello in cui le squadre hanno uguali probabilità di prevalere; una lega
perfettamente equilibrata è quella in cui tutti i club ottengono a fine stagione la medesima
percentuale di vittorie. La letteratura offre diverse misure della CB, ma la più utilizzata è
la deviazione standard del numero di vittorie rispetto al numero medio (pari ad n – 1 ) che
si avrebbe in un campionato perfettamente equilibrato: maggiore è la deviazione standard
e minore è la CB di quel torneo. Data la relazione deterministica tra talento e vittorie, la CB
73
dipende dalla distribuzione del talento tra i diversi club. Questo, data la UOH, implica che
in caso di elevata concentrazione del talento in uno o pochi club, e quindi di un ridotto
equilibrio sul campo, si generino minori ricavi per tutti i club. Pertanto, l’orientamento al
profitto degli stessi fa sì che la decisione di acquistare talento debba tener conto del tradeoff tra vittorie e ricavi; inoltre, sarà interesse della lega proporre misure correttive per
aumentare la CB. Tuttavia, uno dei principali risultati della TSE è che, ad eccezione di un
salary cap egalitario, nessuna delle altre e più diffuse misure correttive (quali p.e. le diverse
forme di redistribuzione dei ricavi a favore dei club più piccoli) è in grado di modificare la
CB di equilibrio – c.d. proposizione di invarianza.
I limiti del modello nel catturare la realtà dello sport professionistico europeo sono
evidenti. In Europa, infatti: i) molti club non hanno come obiettivo la massimizzazione del
profitto, ma casomai del numero di vittorie; ii) almeno una parte dei tifosi non perde
interesse nel campionato anche se l’esito dello stesso, o dei singoli incontri, appare
scontato; iii) l’offerta di talento non è fissa (come nel caso di sport tipicamente
nordamericani quali il football e, in passato, il basket ed il baseball), ma elastica rispetto al
salario, con atleti che si spostano da una lega all’altra; iv) i campionati non prevedono la
partecipazione di un elenco predefinito di club (c.d. “leghe chiuse”), ma sono invece
“aperti” per effetto del meccanismo di promozioni e retrocessioni: ciò modifica
radicalmente la struttura degli incentivi per i club partecipanti. Ciascuna di tali
caratteristiche è analizzata nel paper come una possibile variante del modello standard nel
semplice caso di n = 2. E’ significativo come ognuna delle modifiche confuti la
proposizione di invarianza, ovvero le misure redistributive tra club grandi e piccoli
risultano efficaci sulla CB di equilibrio.
In particolare, si concentra l’attenzione sulla prima caratteristica, utilizzando come
riferimento la Serie A italiana di calcio. Qui l’ipotesi che i club perseguano un obiettivo
puramente economico contrasta con l’esperienza di gestioni orientate all’ottenimento del
successo sportivo (quasi) ad ogni costo, testimoniata dal ripetersi di ingenti e diffuse
perdite d’esercizio. Tuttavia, negli ultimi anni alcuni club di Serie A hanno modificato il
loro orientamento in direzione di una più corretta gestione economica, a volte con
l’esplicito obiettivo di ottenere un profitto. La semplice variante al modello standard
proposta nel paper prefigura una lega dove i due club partecipanti perseguono obiettivi
differenti: uno mira alla massimizzazione delle vittorie, l’altro, abbandonato tale obiettivo,
punta alla massimizzazione del profitto. La particolarità dell’esercizio è che il club che
mantiene l’orientamento al successo sportivo è quello grande (in termini di ricavi), mentre
quello che devia da tale comportamento è quello piccolo. Per quest’ultimo, infatti, non è
razionale inseguire un successo sul campo che comunque, dati i limiti dimensionali dei
propri ricavi, non potrà mai ottenere, rinunciando al contempo alla possibilità di ottenere
profitti.
Mantenendo per semplicità tutte le altre ipotesi del modello standard, l’esito della variante
è la riduzione della CB di equilibrio a danno del club deviante rispetto ad entrambi i casi
“puri”, in cui cioè i due club perseguono il medesimo obiettivo, sia esso la vittoria o il
profitto. Il medesimo risultato si ottiene anche in un modello con tre o più squadre: i club
che abbandonano l’obiettivo del successo sportivo e puntano al profitto vedono ridursi la
percentuale di vittorie a vantaggio degli altri club, con conseguente diminuzione della CB
74
complessiva. Se vale l’ipotesi che i club devianti siano piccoli – o più realisticamente, in
presenza di rischio di retrocessione, medio-piccoli – l’implicazione verificabile del modello
è, più specificamente, una riduzione della CB per le posizioni di vertice del campionato ed
un aumento della CB per le posizioni di coda.
Per verificare tale implicazione si utilizza una misura alternativa dell’equilibrio sul campo
recentemente ideata per tener conto del meccanismo di promozioni e retrocessioni che
caratterizza lo sport europeo. Tale meccanismo, infatti, rende non significativa una
valutazione della CB basata sulla deviazione standard del numero di vittorie: un
campionato dove le vittorie sono molte concentrate a favore di poche squadre non
necessariamente è un campionato poco “combattuto”, dato che il rischio di retrocessione
incentiva l’impegno fino alla fine del torneo – e quindi rende interessanti i relativi incontri
– anche dei club che vincono poche partite. La misura alternativa utilizza metodi
combinatori per determinare il numero teorico di squadre differenti che, in un dato
campionato ed in un arco di tempo prefissato, dovrebbero essersi classificate almeno una
volta nelle prime k o nelle ultime h posizioni della classifica: questo sotto l’ipotesi di
perfetto equilibrio sul campo e tenendo conto sia del numero reale di partecipanti alle
varie serie professionistiche che delle promozioni e retrocessioni tra le serie previste nelle
diverse stagioni. Mettendo a rapporto tale numero teorico con il numero effettivo di
squadre che si sono classificate in tali posizioni si ottiene la misura della CB per quel dato
campionato.
Osservando l’andamento nel tempo della misura per le prime e le ultime posizioni della
Serie A è possibile quindi testare la validità dell’ipotesi di modifica nel comportamento di
alcuni dei club medio-piccoli. I risultati empirici sono però solo parzialmente in linea con
le previsioni teoriche e nel paper si cerca di motivare tale esito.
75
SESSIONE LIBERA
INTERNAZIONALE REALE
Coordinatore: Luca ZARRI
Relazioni:
•
•
•
The Evolution of World Trade and the Italian “Anomaly”: a New Look: Michele Di Maio e
Federico Tamagni
On the Robustness of Robustness Checks of the Environmental Kuznets Curve: Marzio
Galeotti, Matteo Manera e Alessandro Lanza
Does Antidumping Use Contribute to Trade Liberalization? An Empirical Analysis:
Michael O. Moore e Maurizio Zanardi
76
The evolution of world trade and the Italian ‘anomaly’: a new look
Michele Di Maio
Università di Macerata
Federico Tamagni
Scuola Superiore Sant’Anna, Pisa
Obiettivo di questo lavoro è analizzare l’evoluzione del modello di specializzazione
internazionale dell’Italia nel periodo 1980-2000. In particolare, il lavoro propone una
spiegazione della ben nota ‘anomalia italiana’. Con questo termine si indıca il fatto che, a
differenza di paesi di simile reddito pro-capite, l’Italia era (ed è) fortemente specializzata
in settori ad alta intensità di lavoro e presenta un vettore delle esportazioni più simile a
quello dei paesi emergenti che a quello dei partner europei. La cosa per certi versi
sorprendente è che questa anomalia non sembra essere stata un ostacolo alla crescita del
paese, almeno fino a tempi recenti. Questo lavoro offre una spiegazione di come questo sia
stato possibile e perché, probabilmente, non lo sarà più.
L’importanza del modello di specializzazione internazionale per la crescita è ormai
ampiamente documentato nella letteratura. Non è ancora però chiaro, da un punto di vista
teorico, se ciò che maggiormente conta sia il grado assoluto di specializzazione (cioè
quanto si è specializzati nei settori nei quali si gode di vantaggi comparati), oppure se
quello che conta è essere specializzati in particolari settori. In altre parole se ciò che
importa è il grado o la qualità della specializzazione internazionale di un paese.
Rispondere a questa importante domanda è decisamente complicato anche da un punto dı
vista empirico. Il recente lavoro di Hausmann, Hwang e Rodrik (2005) propone una
metodologia che può essere utile ad affrontare la questione. Certamente la loro non è la
prima proposta in questo senso, ma di certo ha il pregio di essere molto intuitiva e
facilmente implementabile. In questo lavoro, applichiamo la metodologia da loro proposta
al fine di analizzare l’anomalia italiana. Nella prima parte del lavoro analizziamo in modo
approfondito le caratteristiche dell’indice PRODY (Hausmann et alt. (2005)) e, utilizzando
tecniche parametriche e non parametriche di stima della distribuzione, descriviamo
l’evoluzione dell’indice durante il periodo 1980-2000. I risultati indicano che durante gli
ultimi venti anni il commercio mondiale è stato caratterizzato da un forte aumento della
presenza dei paesi in via di sviluppo ın molti settori e un (debole) processo di
polarizzazione produttiva.
Nella seconda parte del lavoro descriviamo in modo approfondito le caratteristiche del
modello di specializzazione italiano e la sua evoluzione nel periodo 1980-2000 utilizzando
il classico indice di vantaggio comparato rivelato (RCA) di Balassa. L’analisi svolte
indicano che il livello di persistenza del modello di specializzazione italiano è molto alto.
Mentre questo non è un risultato che differenzia l’Italia rispetto ad altri paesi sviluppati,
ciò che è peculiare è il fatto che la correlazione intertemporale sia crescente. Le stime non
parametrica della distribuzione dell’indice RCA per il ventennio 1980-2000 indicano ,
77
confermando studi precedenti, una evidente bi-modalità nei dati e un alto grado di
persistenza. La stima congiunta delle distribuzione degli RCA nel 1980 e nel 2000 fa indica
l’esistenza di un, seppure debole, processo di polarizzazione del modello di
specializzazione: in altre parole aumentano sia il numero dei settori nei quali l’Italia è
molto specializzata sia il numero di quelli nei quali è molto de-specializzata.
Nell’ultima parte del lavoro passiamo ad analizzare la ‘qualità’ del modello di
specializzazione italiano. Infatti, mentre l’analisi fin qui svolta offe una precisa e
dettagliata descrizione del grado di specializzazione dell’Italia, nulla ci dice sulla sua
‘qualità’. Il recente articolo di Hausmann et alt. (2005) propone un nuovo indice utile a
questo scopo. L’indice EXPY è costruito come media ponderata dei PRODY settoriali,
dove i pesi sono dati dalla quota che ciascun settore rappresenta nel totale delle
esportazioni del paese in esame. Due sono gli aspetti rilevanti di questo indice. Il primo è
che questo indice risulta essere altamente correlato con il reddito pro-capite nazionale.
Quindi, i paesi ricchi (poveri) tendono ad esportare beni esportati da altri paesi ricchi
(poveri). Secondo, i paesi con più alto EXPY crescono più rapidamente. Queste due
risultati permetto ad Hausmann et alt. (2005) di concludere che le possibilità di crescita di
un paese sono in modo rilevante determinate dai settori nei quali è specializzato.
Calcolando questo indice per l’Italia si ottiene un risultato piuttosto sorprendente: l’indice
cresce durante il periodo 1980-2000. Nel lavoro di Hausmann et alt. (2005) solo 8 paesi su
un totale di 90 registrato questo risultato. Questo indicherebbe che proprio il modello di
specializzazione (seppur anomalo) avrebbe garantito all’Italia una crescita sostenuta
durante gli ultimi 20 anni: l’anomalia italiana sarebbe stata una risorsa e non una ostacolo
per la crescita. Per valutare la robustezza di questa conclusiıone, nell,ultima parte del
lavoro descriviamo l’evoluzione del PRODY dei settori nei quali l’Italia è maggiormente
specializzata. I risultati indicano chiaramente che i settori nei quali l’Italia è (come
abbiamo visto in precedente) costantemente fortemente specializzata hanno registrato, nel
periodo 1980-2000, una forte diminuzione del valore del PRODY ad essi associato In altre
parole, l’Italia è fortemente specializzata in settori che hanno visto diminuire molto la loro
importanza nel commercio mondiale. La nostra analisi indicherebbe, quindi, che il
modello di specializzazione italiano, benché anomalo, non era sbagliato: lo è diventato col
tempo non essendo stato capace dı adattarsi ai rapidi mutamenti che hanno caratterizzato
l’evoluzıone del commercio mondiale e che qui abbiamo descritto.
78
On the Robustness of Robustness Checks of the Environmental Kuznets Curve
Marzio Galeotti
Università di Milano e FEEM
Matteo Manera
Università di Milano-Bicocca e FEEM
Alessandro Lanza
Eni S.p.A. e FEEM
The relationship between economic development and environmental quality is the subject
of a long-standing debate. About thirty years ago a number of respected scholars, mostly
social and physical scientists, attracted the public attention to the growing concern that the
economic expansion of the world economy will cause irreparable damage to our planet.
The authors of the famous volume The Limits to Growth ventilated the necessity that, in
order to save the environment and even the economic activity from itself, economic
growth cease and the world make a transition to a steady-state economy.
In the last decade there has prevailed the economists’ fundamental view about the
relationship between economic growth and environmental quality: an increase in the
former does not necessarily mean deterioration of the latter; in current jargon, a decoupling or de-linking is possible, at least after certain levels of income. This is the basic
tenet at the heart of the so-called Environmental Kuznets Curve (EKC), probably the most
investigated topic in applied environmental economics.
About a decade ago a spat of initial influential econometric studies (Shafik and
Bandyopadhyay, 1992; Grossman and Krueger, 1993, 1995; Panayotou, 1993; Shafik, 1994;
Selden and Song, 1994) identified, mostly in the case of local air and water pollutants, a
bell-shaped curve for pollution plotted against GDP. This behavior implies that, starting
from low per capita income levels, per capita emissions or concentrations tend to increase
but at a slower pace. After a certain level of income (which typically differs across
pollutants) – the “turning point” – emissions or concentrations start to decline as income
further increases. It must be said that in the case of global pollutants like CO2 the evidence
is less clear-cut.
Although many authors rightly warn against the non-structural nature of the relationship,
if supported by the data, the inverted-U shape of the curve contains a powerful message:
GDP is both the cause and the cure of the environmental problem. However, being based
on no firm theoretical basis, the EKC is ill-suited for drawing policy implications. The
inverted-U relationship between economic growth and the environment cannot be simply
exported to different institutional contexts, to different countries with different degrees of
economic development, not even to different pollutants. Particularly in the case of CO2
emissions the global nature of this pollutant and its crucial role as a major determinant of
79
the greenhouse effect attribute to the analysis of the CO2 emissions-income relationship
special interest.
Our reading of this literature distinguishes two phases. The first phase can be defined as
that of enthusiasm, when the notion of EKC goes largely unquestioned. The efforts are
concentrated on verifying the shape of the relationship, measuring the income value of the
turning point(s), extending the investigation to other pollutants. The second phase
witnesses the quest for robustness. The EKC is assessed and tested in various directions,
including alternative functional forms, different econometric methods, inclusion of
additional explanatory variables. In the last couple of years the EKC has come under a
more fundamental attack, which points to the stationarity of the variables involved in EKC
regressions. According to the theory of integrated time series it is well known that
nonstationary series may or may not produce linear combinations that are stationary. If
not, all inference on the EKC leads misleading results. Thus, even before assessing the
shape or other features of the estimated EKC, the researcher should make sure that
pollutant and income, if nonstationary, are cointegrated. It is therefore necessary to run
tests of integration and cointegration to guarantee the existence of a well-defined EKC
prior to any subsequent step. The evidence of panel integration/cointegration tests – a
recent development in the econometrics literature – appears to lead to the conclusion that
the EKC is a very fragile concept.
This paper takes up this last and more fundamental difficulty in the current EKC
econometric practice. In particular it is noted that the aforementioned stationarity tests are
the standard ones (though in a panel context) where the order of integration of time series
is allowed to take on only integer values. So, for instance, a linear combination between
pollutant and income gives rise (does not give rise) to a valid EKC only if it is integrated of
order zero (one). As a matter of fact, recent progress in econometrics has led to the
formulation of the notion and tests of fractional integration and cointegration according to
which the order of integration of a series needs not be an integer. The consequence of this
fact is that there is a continuum of possibilities for time series to cointegrate – and
therefore for the existence of EKCs – thus overcoming the zero-one divide.
In this paper we carry out tests of fractional integration and of fractional cointegration
using time series and cross-sectional data. We use as an example the case of carbon
dioxide for 24 OECD countries over the period 1960-2002. The results show that more
EKCs come back into life relative to traditional integration/cointegration tests. However,
we confirm that the EKC remains a fragile concept.
80
Does Antidumping Use Contribute to Trade Liberalization?
An Empirical Analysis
Michael O. Moore
George Washington University
Elliott School
Maurizio Zanardi
Tilburg University & CentER
Provisions for antidumping duties have long been a part of the multilateral trading
system. Economists, by and large, have argued that these rules are distortionary practices
that cause more economic harm than good. Proponents of the antidumping system argue
that antidumping import restrictions are necessary to combat “unfair” trade by which
foreign firms sell below “normal” value and cause economic harm to domestic industries.
Other analysts have pointed to another potential benefit of antidumping. They argue that
broad trade liberalization efforts have been enhanced by the presence and use of
antidumping procedures. These observers argue that antidumping rules are a useful
“safety valve” by which protectionist pressure can be reduced on a narrow range of
products even as governments reduce trade barriers across the economy as a whole. If
such a relationship could be demonstrated, then economists’ almost universally critical
views of antidumping may need to be adjusted to account for one possible “upside” to the
use of antidumping.
This study represents the first attempt to evaluate empirically this safety valve argument
of antidumping on trade liberalization. We use a new antidumping data set developed by
the authors based primarily on individual governments’ antidumping publications to
assess whether the number of antidumping initiations or the final imposition of
antidumping duties have contributed to trade liberalization in a sample of 35 developed
and developing countries for the 1988 to 2004 period. We examine both initiations and
imposed measures to help ascertain whether there are any differential effects of industry
requests for duties (as proxied by initiations) or antidumping restrictions finally imposed.
We also control for macroeconomic conditions as well as for industry and country
unobservables. As for trade liberalization, in this paper it is defined as the percentage
change in applied tariffs for each country at the three-digit ISIC level. “Applied” tariffs
are those in place and actually affecting trade flows, rather than those agreed upon at
multilateral trade negotiations (i.e., “bound” rate). Changes in applied tariffs represent
the clearest and most easily interpreted modifications in trade policy in a given country.
We do not develop a formal theoretical model for the analysis. Instead, we estimate a
reduced form equation that allows for various types of influences on the degree of tariff
reduction: antidumping actions, macroeconomic conditions, initial tariff levels, and
industry level controls.
81
Initially, we only exploit variation at the national level in the explanatory variables.
Evidence for these regressions indicates that when both groups (i.e., developed and
developing) of countries are combined in a single dataset that there is some evidence that
antidumping use is correlated with later tariff reductions. In particular, the coefficients for
antidumping measures imposed in the base year for the trade liberalization, as well as for
the three year total of antidumping investigations and imposed measures prior to the tariff
changes, are all positive and significantly different from zero.
When we include sectoral variation in the controls and allow for industry/country fixed
effects, the explanatory power of antidumping use is less consistent. The econometric
results suggest that antidumping was not an important component to reducing tariffs in
the sample period for developing countries. For developed countries, the positive
relationship between antidumping use and trade liberalization found above was less
robust and consistent than in the previous specification. And this relationship was even
more tenuous when we examined the immediate pre- and post-Uruguay Round period for
developed countries. Finally, when we define trade liberalization in an alternative
fashion, we see evidence that developing countries are less likely to reduce tariffs when
they either launch investigations or impose antidumping duties in the same 3-digit ISIC
sector.
A final assessment about whether an antidumping process yields net economic benefits
because of its impact on trade liberalization would require further work. In principle, one
would need to compare the economic inefficiencies created by the entire antidumping
system with the possible increase in trade liberalization in developed countries indicated
in this study. The answer is ultimately an empirical question and our results shed little
light on this subject other than to say that there is some evidence that such a trade-off
might exist. There seem to be at least some weak and fragmentary evidence that
antidumping proponents’ arguments that the system may help trade liberalization cannot
be dismissed out of hand, at least for developed countries. Developing countries trade
reform efforts, on the other hand, seem to be, if anything, hindered by their own use of
antidumping measures.
82
SESSIONE LIBERA
MERCATO DEL LAVORO E ISTRUZIONE
Coordinatore: Martina MENON
Relazioni:
•
•
•
Scholarships or Student Loans?: Alessandro Cigno e Annalisa Luporini
The Effect of Education on Youth Mortality: Piero Cipollone, Debora Radicchia e
Alfonso Rosolia
Be as Careful of the Books you Read as of the Company you Keep. Evidence on Peer Effects
in Educational Choices: Giacomo De Giorgi, Michele Pellizzari e Silvia Redaelli
83
Scholarships or student loans?
Alessandro Cigno, Annalisa Luporini
University of Florence, CESifo e CHILD
The paper asks the following question. Given that, in the absence of full contingent
markets, a number of school leavers who would otherwise choose to invest in a higher
education will not do so, which is the best way to help these young people attend
university? The straight answer is that a scholarship scheme financed by a tax on graduate
earnings is always at least as good as a loan scheme. An income-contingent loan scheme
can at best replicate the allocation brought about by a scholarship-cum-graduate tax
scheme, and only on condition that there is nothing to stop the public authority using
tuition fees as if they were taxes. In the presence of an additional restriction, that a loan
repayment cannot be greater than the value of the loan capitalized at market interest rates,
a loan scheme will exclude not only some rich, but also some poor young people. While
the former will attend university anyway, the latter will be excluded not only from credit,
but also from university. If it cannot be larger than the value of the loan capitalized at
market interest rates, a loan repayment can be income contingent only if the policy is
subsidized out of general taxation.
Key words: higher education, scholarships, student loans, graduate
tax, tuition fees, moral hazard, agency problem.
JEL: I21, I22, I28.
84
Gli effetti dell’istruzione sulla mortalità giovanile
P. Cipollone, D. Radicchia e A. Rosolia
L’esistenza di rendimenti sociali dell’istruzione è sotto l’attenzione degli economisti da
molto tempo. Tale interesse nasce dalla considerazione che le decisioni sul proprio livello
di istruzione potrebbero risultare inefficienti dal punto di vista della società perché,
riflettendo esclusivamente i costi e i benefici privati, non tengono conto delle conseguenze
di una maggiore scolarità per la società nel complesso.
In questo lavoro studiamo l’effetto dell’istruzione sul tasso di mortalità giovanile, un
indicatore sintetico sia dello stato di salute individuale sia della tendenza a comportamenti
a rischio. I riflessi sociali di questo nesso risiedono nella considerazione che un migliore
stato di salute e una minore propensione a comportamenti a rischio di un dato individuo
hanno evidenti conseguenze per la società. A titolo di esempio, i minori costi del sistema
sanitario, un minor numero di incidenti, meno giornate lavorative perse per malattia e il
conseguente minore costo implicito di riorganizzazione delle attività quotidiane, la
conservazione del capitale umano accumulato.
Dal punto di vista empirico, il livello di istruzione è correlato positivamente con molte
misure dello stato di salute e negativamente con il tasso di mortalità e l’incidenza di
comportamenti a rischio. Queste relazioni emergono sia nei confronti tra individui sia in
quelli tra paesi. Tuttavia tali correlazioni non sono sufficienti per stabilire se lo stato di
salute, la probabilità di decesso o di comportamenti a rischio siano influenzati dal livello
di scolarità. Esse infatti potrebbero riflettere la presenza di fattori che concorrono a
determinare sia lo stato di salute sia il livello di istruzione. Per esempio, individui più
capaci potrebbero ottenere livelli di istruzione maggiori e allo stesso tempo essere più
consapevoli delle conseguenze di determinati comportamenti per il loro stato di salute.
Bisogna poi considerare la possibilità che sia lo stato di salute a influenzare il livello di
scolarità. Per esempio, vi è evidenza che una salute cagionevole nell’infanzia incida
negativamente e in modo permanente sui rendimenti scolastici.
Nel nostro lavoro mettiamo in relazione la quota di diplomati tra i nati di una specifica
coorte in un dato comune, desumibile dal censimento della popolazione del 1991, con il
tasso di mortalità successivo al 1991 per lo stesso gruppo di individui desumibile dai
certificati individuali di morte raccolti dall’Istat. Per risolvere i problemi di identificazione
illustrati sopra sfruttiamo l’esenzione dall’obbligo di leva concessa ad alcune coorti di
ragazzi residenti dei comuni colpiti dal terremoto dell’Irpinia del 1980. Riteniamo che la
cancellazione inattesa degli obblighi di leva tenda ad aumentare la frequenza scolastica: gli
incentivi a investire in istruzione aumentano poiché i benefici potranno essere goduti nel
corso di un più lungo orizzonte lavorativo. Tuttavia, l’analisi empirica deve tenere conto
del fatto che in questo particolare frangente l’esenzione fu concessa in conseguenza di un
terremoto, che potrebbe aver altresì influenzato le scelte scolastiche delle popolazioni
colpite (ed esentate). Per esempio, i danni alle scuole, non consentendo un normale
svolgimento delle attività scolastiche, potrebbero aver generato ritardi nell’avanzamento;
oppure, i fondi stanziati a copertura dei danni potrebbero aver alterato le scelte di scolarità
nelle famiglie che li ricevettero. Per ovviare a questi problemi, limitiamo la nostra analisi a
85
un campione costituito dai residenti nei soli comuni sul confine dell’area ufficialmente
dichiarata terremotata e a cui gli interventi furono indirizzati (Campania, Basilicata e
alcuni comuni della provincia di Foggia) e da quelli residenti nei comuni immediatamente
confinanti ma al di fuori di questa area (Lazio, Molise, Puglia, Calabria). Il primo gruppo
di comuni, essendo tra i più distanti dall’epicentro, registrarono solo danni minimi, un
fatto confermato dalle valutazioni ufficiali effettuate dal Ministero del Bilancio e della
Programmazione Economica. Inoltre, per entrambi i gruppi di comuni, limitiamo il
campione alle sole coorti esenti (1963-1965) e a quelle, non esenti, immediatamente
precedenti. In questo modo siamo in grado di controllare sia per l’evoluzione secolare del
livello di istruzione (dummies temporali) sia per la presenza di caratteristiche comunali non
osservabili che concorrono a determinare il livello di istruzione e la mortalità delle coorti
oggetto dell’analisi (effetti fissi di comune). Nell’analisi teniamo anche conto della
dimensione della specifica coorte, che potrebbe generare effetti di congestione, e di alcuni
tratti familiari ottenuti dal censimento del 1981 e dati dalle caratteristiche medie, a livello
di comune, dei genitori dei ragazzi appartenenti alla specifica coorte.
Il primo stadio dell’analisi quantifica gli effetti dell’esenzione sulla quota di diplomati
nella coorte. I risultati mostrano che la probabilità di completare la scuola superiore
aumenta di circa 2 punti percentuali per i ragazzi esentati dagli obblighi di leva. L’effetto è
robusto a variazioni del campione sia per quanto riguarda le coorti analizzate sia per
quanto riguarda i comuni. In particolare, limitando l’analisi ai soli comuni che, sulla base
delle valutazioni ufficiali, non registrarono alcun danno e ai soli comuni confinanti non
terremotati troviamo un effetto ancora maggiore, pari a circa 4 punti percentuali. Nel
lavoro effettuiamo altri controlli di robustezza. In particolare, replichiamo l’analisi sia
ipotizzando che l’esenzione fosse concessa alle coorti appena più vecchie negli stessi
comuni sia supponendo fosse concessa alle stesse coorti ma residenti nei comuni appena
fuori dell’area terremotata. Qualora le nostre stime catturassero un effetto di coorte o un
effetto geografico o semplicemente degli errori di misura, ci aspetteremmo di trovare (in
almeno qualcuno dei suddetti esperimenti) differenze significative tra i gruppi a
confronto. Tuttavia, in entrambi i casi i risultati non mostrano alcuna differenza
significativa nel confronto di questi campioni fittizi con appropriati gruppi di controllo,
fornendo ulteriori elementi in supporto della credibilità del disegno sperimentale adottato
nel lavoro.
Il secondo stadio dell’analisi quantifica gli effetti dell’esenzione sui tassi di mortalità a vari
orizzonti e per varie cause. Utilizziamo le informazioni su data di nascita e di decesso,
sesso e comune di nascita per costruire tassi di mortalità a livello di coorte e comune di
nascita consistenti con le unità osservazionali alla base del primo stadio dell’analisi. Il
confronto tra i tassi di mortalità complessivi tra il 1991, momento in cui osserviamo anche
la quota di diplomati per le singole coorti, e il 2001, ultimo anno per cui sono disponibili i
dati, mostra una differenza di circa 0,3 punti percentuali in meno tra le coorti esentate.
Tuttavia gli errori standard sono tali da rendere queste stime non significative ai consueti
livelli. Limitandosi invece alle sole morti attribuibili a cause naturali, la quota di decessi
tra il 1991 e il 2001 tra le coorti esentate dalla leva risulta ancora inferiore di circa 3 decimi
di punto percentuale. In questo caso, però, le stime risultano molto più precise e pertanto
significativamente diverse da zero. Questi risultati sono confermati in analisi dei tassi di
86
mortalità su orizzonti diversi: nei 15 anni tra il 1986, anno in cui l’istruzione superiore era
presumibilmente completata per le coorti esentate, e il 2001 la differenza risulta pari a circa
0,5 punti percentuali e, come prima, significativa solo limitandosi alle morti naturali.
Inoltre, le stime puntuali sono molto stabili a fronte di variazioni del campione sia nella
dimensione geografica sia in quella per età e, come per la quota di diplomati, non risultano
significative quando si effettuano analisi di esenzioni fittizie.
Dal rapporto degli effetti dell’esenzione sulla quota di diplomati e sul tasso di mortalità
tra il 1991 e il 2001 si può desumere una stima dell’effetto del completamento della scuola
superiore sulla probabilità di decesso per cause naturali nel decennio tra i 25 e i 35 anni. I
nostri risultati suggeriscono che il conseguimento del diploma implica una riduzione di
questa probabilità tra 0,15 e 0,2 punti percentuali che si confronta con una probabilità di
decesso per cause naturali tra il 25mo e il 35mo anno di età di circa il 2 per cento. Queste
stime mostrano un forte impatto del livello di scolarità sulla mortalità successiva per cause
naturali, anche in una popolazione, quale quella oggetto della nostra analisi, relativamente
giovane (25-35 anni) suggerendo che le scelte di spesa pubblica per l’istruzione debbano
tener conto anche dei significativi e pressoché immediati risparmi in termini di una
minore spesa sanitaria.
87
Be as Careful of the Books you read as of the Company you keep.
Evidence on Peer Effects in Educational Choices
Giacomo De Giorgi
Stanford University
Michele Pellizzari
IGIER – Bocconi e IZA
Silvia Redaelli
Università Bocconi
Peer behavior and peer quality are commonly believed to be among the most important
determinants of many individual outcomes, particularly so for young people and their
educational and early labour market decisions*. The identification of these effects is
however very problematic due to the presence of two well known issues: the endogenous
sorting of individuals into groups of peers and the reflection problem (Manski, 1993).
The contribution of this paper to the literature is twofold.
On the methodological side, we develop a new strategy for the identification of
endogenous peer effects by exploiting a very detailed set of data about undergraduate
students from Bocconi University and the peculiar structure of the degree programs
offered by this institution.
The second contribution is more substantial. In contrast to most studies in this literature,
which have typically looked at either academic or labour market performance, we estimate
the role of peer-effects on individuals’ choices of college major. In most industrialized
countries, skill mismatch is a major issue and, at least part of it, is thought to be due to a
slow response of educational choices to changes in the composition of labour demand
(Katz and Murphy, 1992). It is therefore important to understand how these choices are
made and peer influence is likely to play a crucial role.
The analysis of the major choice takes advantage of the peculiar structure of the two most
popular courses taught at Bocconi University: the CLEA (Corso di Laurea in Economia
Aziendale) program for a specialization Business and the CLEP (Corso di Laurea in Economia
Politica) program for a specialization in Economics.
Students who want to attend one of these two programs, initially enroll in a common
CLEA-CLEP track and only at the end of the third semester (i.e. after 1 and 1/2 years)
choose whether to specialize in business or economics. During these first 3 semesters all
students take 9 compulsory courses and attend lectures in randomly assigned teaching
classes, the allocation to which is repeated for each of the 9 compulsory courses.
This setting allows to define peer groups using information on teaching classes. In other
words, we assume that student i interacts with the students who attend lectures in the
same class and we weight peers by the number of classes taken together (up to 9). We,
*
Katz and Case, 1991; Hoxby, 2000; Sacerdote, 2001; Duflo and Saez, 2002
88
thus, obtain peer groups that vary at the individual level: student i’s peers certainly study
with i but also with other students who are not necessarily members of i’s peer group.
Consequently, the peer groups of i and i′’s peers do not coincide, thus eliminating
reflection. Moreover, since the allocation in teaching classes is random (according to an ad
hoc algorithm designed by the IT services of the university), there should be no
endogeneity issue in peer group formation.
Thus, the combination of the particularly rich dataset, the repeated randomization process
and the peculiar construction of the peer groups allows us to solve the two key
econometric problems of this literature: reflection and selection.
With this approach we are able to identify the causal effect of peers’ choice of major
(economics vs. business) on one’s own decision. Results show that, indeed, one is more
likely to choose a major when many of his/her peers make the same choice. We, then, look
at whether students who specialize in a major following the choices of their peers and
against their revealed relative ability (measured as the ratio of one’s average grade in
economics and business courses during the first three semesters) perform better (in terms
of average grades in the last three semesters, graduation mark and time to graduation)
than similar students who chose the major against the majority of their peers and
according to their revealed ability.
Our findings indicate that the decision of following one’s peers in contrast with one’s
revealed ability could lead to lower annual wages by about 52 euros, a penalty which
could go up to a sizeable 580 euros per year in the case the student just fail to obtain full
mark at graduation.
89
SESSIONE LIBERA
MACROECONOMIA
Coordinatore: Nicola PAVONI
Relazioni:
•
•
•
Taylor Rule under Rule-of-Thumb Consumers and External Habits: an International
Comparison: Giovanni Di Bartolomeo, Lorenza Rossi e Massimiliano Tancioni
Mortgage Lending and the Choice between Fixed and Adjustable Rate: Monica Paiella e
Alberto Franco Pozzolo
Stochastic Discount Factor Volatility and the Coskewness Puzzle in the Cross-Section of
Excess Returns: Valerio Potì
90
Taylor rule under rule-of-thumb consumers and external habits:
an international comparison
Giovanni Di Bartolomeo, Lorenza Rossi, Massimiliano Tancioni
Long abstract
In this paper we develop, estimate and simulate a simple New Keynesian Dynamic
Stochastic General Equilibrium (DSGE) model with rule-of-thumb consumers and
external habits.
The acknowledgement of the relevance of the presence of rule-of-thumb consumers
dates back to the contributions of Campbell and Mankiw (1989, 1990, 1991), who
provided evidence on the existence of heterogeneous consumers. The relevance of
their finding is that it raises the question of a strong violation of the permanent
income hypothesis. On the basis of their results, only a fraction of households is able
to plan consumption according to the standard Hall’s consumption function,
(Savers), while there is a relevant fraction of households that equates current
consumption to the current income period by period (Spenders).
The theoretical and policy implications of consumer heterogeneity are rather strong.
Considering the fiscal policy theory, an important consequence is that the BarroRicardo equivalence theorem does not hold if Spenders are considered*.
The role played by Spenders has been more recently analyzed with respect to its
implications for monetary policy, in New Keynesian theoretical frameworks (Amato
and Laubach, 2003; Galì et al., 2003; Bilbiie, 2005). The general finding is that the
presence of Spenders’ may alter dramatically the properties of these models and
overturn some of the conventional results found in the literature. Amato and
Laubach (2003) explore the optimal monetary rule with rule-of-thumb households
and firms, showing that, while the monetary policy implications of rule-of-thumb
firms are minimal, the optimal interest rate is sensitive to the presence of rule-ofthumb consumers.
Galì et al. (2003) show how the Taylor principle becomes a too weak criterion for
stability when the fraction of rule-of-thumb consumers is large. In particular, they
show that when the share of Spenders is sufficiently large it may not be possible to
guarantee a (locally) unique equilibrium. Bilbiie (2005) discusses the implications of
limited asset market participation (generating rule-of-thumb behaviour) for optimal
monetary policy, from both a theoretical and empirical point of view. His main point
is that when limited asset market participation is considered a passive interest rate
rule is consistent with a welfare-maximizing monetary policy.
The aim of this paper is twofold. First of all, we provide the dynamic and stability
properties of a model in which both rule-of-thumb consumers and external habits in
Savers’ consumption are considered. Second, on the basis of country-specific
*
For this reason, Savers are often referred to as Ricardian consumers and Spenders as Non-Ricardian consumers
(Mankiw, 2005).
91
estimates of the structural parameters, we evaluate the empirical relevance of our
hypotheses and the potential heterogeneity of the effects of the monetary policy.
Concerning the first objective of our research, we analytically discriminate, on the
basis of the fraction of Spenders, between two different demand regimes (i.e. two IScurves), characterized by sign inversion of the coefficient capturing the relationship
between the real interest rate and expected consumption growth, and check the
determinacy properties of the model. According to the degree of activism* of the
monetary policy, we thus identify three possible policy regimes, i.e. behaviour of the
economic variables to a monetary policy shock. More specifically, in the standard
demand regime, if monetary policy is set according to a Taylor rule augmented by a
monetary policy disturbance a negative interest rate disturbance always implies a
increase in the output gap and inflation. By contrast, in the inverse regime, two
different situations can occur. For relatively high degrees of activism, a positive
monetary disturbance will affect the economic outcomes as in the standard regime
even if the semi-elasticity of the aggregate demand with respect to the real interest
rate is positive, but when policy activism is weak, the monetary shock has a
deflationary effect as it will decreases inflation and real output.
The joint consideration of habits persistence in consumption and of Non-Ricardian
consumers increases the complexity of the model, since the monetary multiplier
becomes highly nonlinear. Employing numerical simulations we show that the
introduction of habits, by increasing the threshold fraction of Spenders for which a
sign inversion of the monetary multiplier can be obtained, reduces the probability of
obtaining a regime shift in the demand schedule.
Regarding determinacy, we find that, in the case of a positive correlation, standard
results hold, i.e. if monetary policy follows a standard Taylor rule determinacy is
always associated to the satisfaction of the Taylor principle. By contrast, if the
correlation is negative, we find different requirements for stability, that are
conditional on the magnitude of the effects of interest rates changes on the real
output. Hence, the non-conventional results stressed by Galì et al. (2003) hold only if
the relationship between expected consumption growth and real interest rate is
negative.
Concerning the second objective of our research, which we deem as particularly
relevant for the analysis of the potentially heterogeneous effects of monetary policy
shocks among countries†, we base our analysis on numerical simulations of DSGE
models parameterized employing single countries’ estimates of the structural
coefficients‡. The complexity and nonlinearity of the structure of the model suggests
the implementation of a Bayesian Monte-Carlo Markov Chain estimation procedure
(MCMC).
*
By “degree of activism” we mean the dimension of the reaction coefficient of the monetary authority to
inflation deviations from the policy target.
†
The importance of these potential drawbacks is evident in the fact that the EMU countries face a centralized
monetary policy.
‡
The values of the deep parameters are not calibrated or fixed on the basis of previous evidence, as in the
standard practice.
92
From the simulation of the estimated structural models we derive the general
efficacy of the monetary policy, even if we also find relevant asymmetries in the
monetary transmission mechanisms. The presence of asymmetries in the monetary
transmission channels stimulates a serious reconsideration of the policy
prescriptions, in particular of those that have been derived without taking into
account that the differences among economies may result decisive in the
determination of the effects of the policy, in particular with respect to their symmetry
among countries.
Despite the heterogeneous sensitivity to shocks, the dynamical properties of the
models resulted qualitatively in line with those predicted by the conventional New
Keynesian DSGE model. In particular, the estimated structural parameters rule out
the possibility of demand regime inversions due to the presence of rule-of-thumb
consumers. Even if the fraction of Spenders is relevant in many countries (0.26 on
average), in none of them this fraction is high enough to generate the regime
inversion. A further interesting result is that, despite the model is able to generate the
so-called “price puzzle” for habits and rule-of-thumb parameters values that are not
prohibitively high, the estimation has generated a parameterization that is not
consistent with this outcome.
93
Mortgage Lending and the Choice
Between Fixed and Adjustable Rate
Monica Paiella
Bank of Italy, Research Department
Alberto Franco Pozzolo
Università degli Studi del Molise e Ente Luigi Einaudi
Negli ultimi anni si è registrato in gran parte dei paesi industrializzati un sensibile
aumento dell’indebitamento delle famiglie per il finanziamento dell’acquisto di abitazioni.
Le caratteristiche tecniche dei contratti di mutuo più diffusi non sono uniformi, ma
variano da paese a paese soprattutto in ragione della durata originaria, della possibilità di
rinegoziare le condizioni inizialmente pattuite e delle modalità di determinazione del
tasso. Nonostante la liberalizzazione dei mercati finanziari abbia reso disponibile in
ciascun paese una vasta gamma di forme contrattuali, le scelte delle famiglie sembrano
ancora concentrarsi su alcuni schemi tipici (nel Regno Unito, ad esempio, prevalgono i
mutui a tasso variabile, negli Stati Uniti quelli a tasso fisso). Il modo nel quale i rischi
legati alla richiesta e alla concessione dei finanziamenti vengono ripartiti all’interno del
sistema economico è tuttavia notevolmente influenzato dalla forma contrattuale utilizzata.
Per questo motivo, si è recentemente sviluppato un filone di letteratura volto a valutare
l’ottimalità delle scelte di finanziamento utilizzate dalle famiglie, i cui contributi paiono di
notevole interesse anche ai fini delle valutazioni di politica economica.
La questione è forse ancor più rilevante nel caso dell’Italia, dove la scelta delle forme di
mutuo sembra essere caratterizzata da una forte inerzia, nonostante molti dei vincoli
normativi che le avevano imposte in passato siano venuti meno. In considerazione del
fatto che il mercato dei mutui nel nostro paese sta attraversando una fase iniziale di
sviluppo, interventi normativi adeguati potrebbero favorire, anche sulla base
dell’evidenza internazionale disponibile, la diffusione di forme contrattuali più adeguate
per distribuire equamente i rischi all’interno del sistema economico.
Il lavoro presenta i risultati della stima di un modello di domanda e offerta di mutui.
L’analisi empirica mostra che la forte crescita dei prestiti erogati alle famiglie per
l’acquisto di abitazioni è riconducibile sia alla riduzione dei tassi di interesse, come già
evidenziato in lavori precedenti, sia all’aumento della concorrenza nel settore bancario.
La principale determinante della scelta della forma contrattuale a tasso fisso o a tasso
variabile è il differenziale in termini di tasso iniziale. Diversamente dal comportamento di
un agente ottimizzante, descritto nella letteratura teorica, nell’operare questa scelta le
famiglie italiane sembrano prestare poca attenzione all’interazione tra i rischi legati alla
forma contrattuale del mutuo e i fattori di rischio non diversificabili a cui sono soggette
(ad esempio, quelli legati all’andamento del mercato del lavoro, di quello degli affitti e, in
generale, ai rischi finanziari) e attribuire invece grande importanza all’entità degli esborsi
iniziali. Ne consegue il pericolo che la scelta di mutui a tasso variabile, a cui sono
94
generalmente associati esborsi iniziali inferiori, sia sub-ottimale dal punto di vista della
gestione del rischio individuale.
Dalla stima del modello emerge inoltre che la domanda di credito di coloro che scelgono
un mutuo a tasso fisso è caratterizzata da un’elasticità ai tassi di interesse elevata e
superiore a quella della domanda di chi preferisce un tasso variabile. Questi ultimi
sembrano invece scegliere l’ammontare del finanziamento esclusivamente sulla base del
prezzo e della dimensione dell’abitazione desiderata. Dal complesso dell’evidenza
presentata si può concludere che i detentori di mutui a tasso variabile sono soggetti
relativamente più rischiosi, un dato che si riflette anche nella richiesta di premi per il
rischio mediamente più elevati da parte delle banche.
Nel complesso, l’analisi effettuata suggerisce che modifiche del contesto economico, (per
esempio, variazioni dei tassi d’interesse o shock macroeconomici) potrebbero avere
conseguenze rilevanti per il welfare delle famiglie che hanno scelto un mutuo a tasso
variabile. Dal punto di vista delle banche non vi è invece evidenza di un’eccessiva
assunzione di rischi.
Classificazione JEL: D10, G1, G21, E4.
Parole chiave: household mortgage demand, adjustable rate mortgages, fixed rate
mortgages, lender mortgage pricing, endogenous switching regression model.
95
SESSIONE LIBERA
CRESCITA
Coordinatore: Giam Pietro Cipriani
Relazioni:
•
•
•
Collective Norms in Basic Research and Economic Growth: Maria Rosaria Carillo e
Erasmo Papagni
Is Europe Becoming a Knowledge-Driven Economy? Evidence from EU Developed Regions:
Alessandro Sterlacchini e Francesco Venturini
The Long-Run Impact of ICT: Francesco Venturini
96
Collective Norms in Basic Research and Economic Growth
Maria Rosaria Carillo, Erasmo Papagni
In this paper we have put forward a model of basic research and long-run economic
growth in which the system of incentives to scientific work may produce positive
feedbacks and increasing returns. The organization of basic research presents both real
and non-real incentives to workers. The state organizes production of new knowledge - a
public good that improves firms’ technology - with resources taken from the private
sector. Scientists compete with one another to attain priority over a discovery and be
awarded both a real prize and prestige in the scientific community. Also, scientists derive
job motivation from their search for status in the community. The model shows interesting
dynamics and we focus on two locally stable steady-states. The picture that emerges
shows, on the one hand, an economy endowed with a small science sector where
researchers have high relative
income but low prestige, and competition for discoveries is weak. On the other hand, the
high growth steady-state describes an economy with a large science sector. The scientific
community rewards members who obtain new findings with high prestige, but as the
effect of creative destruction is strong, there is fierce competition among researchers.
Comparative statics shows that if the scientific infrastructure is poor, policies that increase
tha marginal benefits from a discovery have perverse effects, hile policies aimed at
improving the selection mechanism of the science sector work well.
The same policies have opposite effects at the high steady state.
97
Is Europe becoming a knowledge-driven economy?
Evidence from EU developed regions
Alessandro Sterlacchini, Francesco Venturini
Faculty of Economics
Polytechnic University of Marche
The weak European knowledge base has been recognised as one of the main causes of the
recent “Atlantic divide” in terms of economic growth. This awareness is at the roots of the
Lisbon strategy aimed at transforming Europe in “the most competitive and dynamic
knowledge-based economy in the world”. In order to assess whether this strategy will be
able to produce the expected outcomes, we examine the recent performances of the
developed European regions. Indeed, many studies have highlighted that the overall
weakness of the EU is coupled by strong regional differences in terms of innovation and
knowledge capabilities so that testing whether these differences are significantly related to
regional growth rates is useful both for analytical and policy purposes.
We then analyse, for the period 1995-2002, the change of per capita GDP (at constant
prices) across 154 NUTSII regions of the EU with a level of GDP per capita equal or above
75% of the EU25 average. There are two main reasons for confining the study to EU
developed regions. First of all, they are included in the new “competitiveness and
employment objective” of the EU regional policy for the period 2007-13 and, according to
the EC guidelines (European Commission, 2004), they should be the main carriers of the
Lisbon strategy. Secondly, the backward regions of the EU have not yet reached a
minimum threshold of knowledge and innovation activities so that, in the medium term
perspective of the present study, one cannot expect that additional investments in these
fields will generate for them substantial economic benefits.
As explanatory variables of regional growth we employ, along with the initial level of per
capita GDP, a set of innovation and knowledge indicators: the intensities of R&D and EPO
applications, the employment shares in high-tech manufacturing and services and the
percentage of adults with tertiary education. As controls for structural characteristics, we
use the population density and the shares of employment in total manufacturing and
business services. Thus, compared to previous empirical studies, in our growth regression
we employ an exhaustive set of controls and conditional variables.
Another feature differentiating our analysis from the previous ones, is that the above
regression is estimated by controlling for different specifications and econometric
procedures. The first one is an OLS regression in which all the variables are expressed as
deviations from country means: with this treatment of regional data, the Lagrange
multiplier tests for spatial error dependence and spatial lags (computed by means of a
distance matrix) indicate that OLS estimates are not affected by spatial correlation.
Without a country demeaning, instead, the presence of both kinds of spatial dependence is
detected so that, as a second estimation technique, we run two Maximum Likelihood (ML)
regressions for, respectively, a spatial error and a spatial lag model. Moreover, we provide
98
further ML estimates by treating separately the spatial interactions among domestic and
foreign regions.
All the above estimation procedures converge in showing that the regional changes of
GDP per capita over 1995-2002 are positively and significantly affected by the intensity of
R&D and the share of adults with tertiary education, measured at the beginning of the
period. Thus, our findings support the basic rationale of the Lisbon strategy, i.e. that a
sustained investment in R&D, knowledge and education is a crucial condition for a
growing Europe.
JEL codes: O18, O33, R11.
Keywords: Regional growth. Knowledge and innovation. Spatial dependence.
99
The long-run Impact of ICT
Francesco Venturini
Faculty of Economics
Polytechnic University of Marche
Capital input accumulation has been the primary source of the world’s output growth
between the end of the twentieth century and the beginning of the current one. Since 1995
the acceleration in the growth rate of output and labour productivity can be traced for a
large fraction to the advances in Information and Communication Technology (ICT). The
impressive improvement in the price-performance ratio of microelectronic components
has fuelled the rise in technical efficiency of ICT producing industries and the rapid
adoption of computers, software and communication equipment by firms and households,
as a consequence of price decline.
The growth impact of ICT has been particularly sizeable in the US as well as in some other
countries of OECD area (Finland, Korea and Australia). Also, it has been substantial even
in such developing economies as China and India. Aside from few episodes, instead,
Europe seems to have lost momentum and, for this reason, recently the EU institutions
have renewed with great emphasis their medium-term initiative towards the construction
of a common information-based economic space.
Thus far, the relevance of ICT for national performance has been detected mainly through
growth accounts, decomposing output growth into the income share-weighted rise of
various factor inputs. On the other hand, econometric literature has focussed principally
on short-run effects of ICT equipment, sometimes comparing countries on the basis of
industry data. After a decade from the advent of the often-called Information Age and, not
secondarily, a quarter of century from the first wave of investments in office machinery, it
seems useful to investigate the growth effects of ICT from a long-run perspective, through
a panel cointegration analysis. Given the nature of general purpose technology, the
productive impact of digital capital is likely to fully materialize only in a long-term
horizon, especially at the most aggregate level of analysis; by applying the usual methods
of estimation on short-differences, there is the risk that a part of its contribution remains
neglected.
This paper aims at gauging the impact of ICT capital on GDP levels for the US and the EU15 countries over the period 1980-2004. We estimate an aggregate production function
employing two newly available procedures which represent the dynamic extension of
panel ordinary least squares and seemingly unrelated regression (PDOLS and DSUR). A
considerable variation arises in the elasticity of ICT in relation to the technique of
estimation utilised. Information technology is found to indistinctly affect output within
PDOLS regression, after controlling for country-specific heterogeneity; in this case,
however, the returns to ICT capital do not differ from the ones estimated in the short-run.
By employing DSUR there is confirmation that ICT matters for growth, but not uniformly
within Europe. In line with the sound of growth accounts studies and previous
100
econometric literature, it is documented that the largest EU economies (France, Germany
Italy and UK) have not benefited significantly from digital capital. Moreover, the long-run
coefficient of digital capital is found to exceed the one obtained on short differences by
means of static SUR, stressing the importance of adopting panel cointegration techniques
to study the growth effects of ICT.
JEL Classification: C33, E20, O47.
Keywords: ICT, economic growth, panel cointegration analysis.
101
SESSIONE LIBERA
INDUSTRIALE
Coordinatore: Angelo ZAGO
Relazioni:
•
•
•
The Underlying Internal Learning Processes of Incremental and Radical Innovations: An
Empirical Analysis of the Reggio Emilia Industrial Districts: Paolo Pini e Grazia D.
Santangelo
Political Economy of Mass Media: Public Good, News and Voting Behaviour: Cosimo
Scagliusi
Complementary between Heterogeneous Human Capital and R&D: can Job-Training Avoid
Low Development Traps?: Sergio Scicchitano
102
The underlying internal learning processes of incremental and radical
innovations: An empirical analysis of the Reggio Emilia industrial districts
Paolo Pini
Facoltà di Economia, Università degli Studi di Ferrara
Grazia D. Santangelo
Facoltà di Scienze Politiche, Università degli Studi di Catania
In the economics of innovation several domains remained to be explored as far as the
relationship between innovation and organisation is concerned (Tushman and Nelson,
1990). This notwithstanding, this relationship has played a strategic role in the history of
the capitalist system when considering that firm’s internal organisation has traditionally
impact on its innovative and economic performance. This has been reflected in the shift
from old models of production organisation to new models centred on the conception of
the firm as a learning organisation (Penrose, 1958) in the sense that firms’ organisational
capabilities are a reflection of routinised practices developed over time. Along these
theoretical lines of thought, post-fordist models of production organisation (such as the
Swedish (Berggren, 1992) and Japanese (Aoki, 1988) model) are based upon functional
flexibility made operational through the active involvement of workers in production
activity. Similarly, as far as firm’s innovative activity is concerned, if the distinction
between radical and incremental innovation can be traced back to Schumpeter’s work, the
relationship between different innovation types and firms’ internal organisation has been
explored more recently mainly in the management literature. However, current studies
have missed, as far as our knowledge is concerned, to dig deeper in this relationships by
investigating the underlying learning processes. In attempting to fill this gap, the paper
can be framed within the evolutionary approach to technological change, which
understands firms’ organisation as encompassing the development of firms’ successful
routines making their knowledge operational.
As argued by Malerba (1992) different types of learning internal and external to the firms
are at work. In this study, we are interested in internal types of learning (e.g. learning by
doing related to production activity, learning by using related to the use of products,
machinery and inputs, and learning by searching mainly related to formalised activities (i.e.
R&D) aimed at generating new knowledge (Ibid.)), the ultimate aim being to understand
the role of firms’ internal organisation in shaping and orienting innovation. The question
we attempt to answer is whether the introduction of incremental and radical innovation
underlies different learning processes in terms of de-verticalised labour organisational
practises, different modes of organising R&D activity and the nature of employees’
competences. More specifically, we hold that incremental innovation is mainly grounded
on a problem-solving activity based on a learning by doing and learning by using process.
Conversely, radical innovation mainly relies on a problem-solving activity based on
learning by searching process.
103
The econometric exercise is carried out in the context of the Reggio-Emilia province
(Eurostat NUTS 3) hosting an industrial district in mechanicals, ceramics and made-in–
Italy sectors, by using a dataset stemming from a questionnaire administered to 166
industrial companies with at least 50 employees out of 257 (i.e. about 65%) firms with local
establishments in the province in question, for which balance sheets information was
available. The empirical evidence points out the heterogeneity of innovative activity as far
as incremental and radical innovations are concerned. More specifically, the adoption of
de-verticalised labour organisational practices indirectly impacts on the likelihood of
introducing incremental innovation through productivity (understood as the firm’s
problem-solving capabilities in production issues accumulated over time). That is, the
greater the adoption of de-verticalised labour organisational practices the greater the
productivity of the firm as a result of its experience translated in learning. The active
participation of workers to everyday problem-solving activity related to production issues
enhances the ability of the firm to survive in the market by both developing internal
problem-solving trajectories and then responding timely to market feedbacks and signals.
In turn, the greater the firm’s productivity, the greater the likelihood of the firm to
introduce incremental innovation as a result of the learning by doing and learning by using
process underlying this innovative activity. Similarly, being mainly an amelioration of
existing products and processes, incremental innovation is hardly the result of an R&D
activity internal to the firm. Rather, it draws on existing competences given its
competence-enhancing nature. Conversely, in the case of radical innovation the main
drivers seem to be the existence of an in-house R&D activity and new employee’s
competences, both of which reflect an internal learning by searching process. Firms
internally conducting research activity accumulate by trial and error competences grounded
on their specific learning by searching path which is feed by new employees’ competence
enabling the firm to face the competence-destroying nature of this innovation.
104
Political Economy of Mass Media:
Public Good, News and Voting Behaviour
Cosimo Scagliusi
Dipartimento di Scienze Economiche – Universita’ di Bari
Department of Economics – University of Exeter
Political Economy is one of the fastest growing sub-fields of Economics. It has been
characterized as a discipline which analyses the interaction between the political system
and the economic organization of markets, firms and consumers. Alternatively Political
Economy has been described as the discipline analysing the behaviour of the players in the
political arena with the toolbox of Economics, in particular the one of Game Theory.
Although Political Economy has started investigating incentives, behaviours and
relationships among several political institutions, one actor has been (relatively) neglected
in the analysis: mass media. In every democracy, mass media play a crucial role in
assuring the effective working of the political system. In the existing literature about
political economy of mass media three roles have been individuated regarding the
interaction of media with politicians and citizens: the “top-down” function, where media
act as a “megaphone” of the politicians; the “bottom-up” function, where media help the
citizens in airing their views and influencing the political agenda of the politicians; the
“watchdog” function, where the media supervise politicians quality and communicate
their findings to the public at large.
In this paper I focus on the role of media as ʺwatchdogʺ, by building on the previous
literature in this field and in particular on the work by Besley and Prat (2006).
Previous work has assumed that all the information about the incumbent politician is
made available to citizens through mass media uniquely. Mass media have the role of
discovering the incumbent quality and reporting their findings to the citizens. They do so
not (only) for the public-spirited role of the journalists but because media are motivated by
economic incentives: by selling information valuable to citizens in their voting decision,
media can be sure to gain some extra-profit on top of their normal one. The literature in
this field shows that the presence and the supervising activity of mass mediaundoubtedly
increase citizens’ welfare.
Moreover this literature has also dealt with the issue of collusion between media and
dishonest politician. Given that media activity increases citizens’ welfare, then when
media conceal information in exchange of bribes offered by dishonest politician this
worsens citizens’ welfare. On the other hand this raises the reelection prospects of low
quality incumbents. Empirical evidence seems to confirm that politicians are extremely
concerned about the “watchdog” role of media and willing to go a long way towards
limiting their impact on politics (see McMillan and Zoido (2004)).
Another existing strand of the literature (recently Persson and Tabellini ch.4 (2000) and
Besley and Smart (2003)) has highlighted how a good publicly supplied by the incumbent
could be informative of his quality; in turn this could help the citizens to select and/or
105
discipline the incumbent. In addition this literature has stressed the fact that low quality
incumbent can behave in an optimal way if the right incentives are in place.
This work examines how citizens’ welfare, voting decision and the collusion between
media and politicians change if information about the incumbent politician comes from
two separate sources: media information and good publicly supplied. To investigate these
issues I employ a modified version of the model by Besley and Smart (2003) which
features both adverse selection and moral hazard on part of politicians.
Politicians differ alongside a quality dimension (honesty/dishonesty). Their task is to
collect fiscal resources from the citizens and with taxes fund the production of a good
consumed by the citizens. Dishonest politicians can reap (part of) the fiscal resources as
rents. In this framework I introduce the role of media in collecting and spreading
information to the citizens which they will use in their voting decision. Moreover I
consider the possibility of collusion between media and incumbent politician and the
effect that this has on the political game.
One of my findings is that by employing both the two signals, citizens manage to sort out
high quality politicians from low quality ones more often than if they were relying on
media information only.
Moreover the existence of both signals makes collusion harder to take place than in the
case of one signal only. Intuitively, given the limited fiscal resources, the low quality
(dishonest) incumbent finds it harder than the high quality one to both corrupt the media
and implementing the policy necessary to be reelected. Since he has limited fiscal
resources to utilise, then it will be harder for him to accomplish these two tasks.
In addition, I conduct a full welfare analysis of the strategic situation under scrutiny and
find that, contrary to the previous literature, the presence of media is not always welfare
improving. My analysis stresses the fact that it is not always optimal to have media
playing the watchdogs role and that the usefulness of media for citizens depends critically
on the time parameter: when the time parameter is larger than a certain threshold, it is
optimal for the citizens to recur to media; when the time parameter is lower than the
threshold, their optimal decision is to commit not to get any information.
Given this, I argue that it would be optimal to have constitutional rules that would allow
for information or not depending on the parameters of the model. Moreover I conjecture
that if rules at the constitutional level are not possible and citizens cannot commit to have
less information, then collusion between media and politician can be welfare improving
for citizens, contrary to prior evidence.
References
Besley, T. and Prat, A. (2006) “Handcuffs for the Grabbing Hand? Media Capture and
Government Accountability”, forthcoming The American Economic Review.
McMillan, J. and Zoido, P. (2004) “How to Subvert Democracy: Montesinos in Peru”,
Journal of Economic Perspectives, American Economic Association, vol. 18(4), pages 69-92,
Fall.
Besley, T. and Smart, M. (2003) “Fiscal restraint and voter welfare”, mimeo, LSE and
University of Toronto.
106
Complementarity between Heterogeneous Human Capital and R&D:
can Job-Training Avoid Low Development Traps?
Sergio Scicchitano
Ministero dello Sviluppo Economico – Dipartimento Politiche di Sviluppo e Coesione e
Università della Calabria – Dipartimento di Economia e Statistica
1. Introduzione
Nella primavera del 2005, a metà del guado, è stata revisionata la Strategia di Lisbona.
Punti cardine della revisione sono il capitale umano eterogeneo - nelle sue articolazioni
dell’istruzione e della formazione - e l’attività di R&D. Questi sono considerati i 2 punti
chiave per far divenire, entro il 2010, l’Unione Europea (per altro con non poca enfasi)
l’area più competitiva al mondo.
Già da alcuni anni la letteratura economica sta studiando i legami fra training e R&D, a
causa della loro crescente rilevanza per le economie dei principali paesi industrializzati:
ʺTraining is most essential when new technologies are adopted, or in the process
of a radical change of environment, for example, the shift from low- to high-skill
jobs taking place in most OECD countries today.ʺ (Acemoglu, 1997, p. 446).
La complementarità fra training e innovazione è analizzata all’interno di due filoni della
letteratura economica teorica, nonché da alcuni recenti lavori empirici.
Da una parte, l’economia del lavoro, fin dagli anni ‘60 ha discusso dell’eterogeneità del
capitale umano, composto non solo dall’istruzione, ma anche dall’on-the-job training, dall’
off-the-job training, dal learning by doing. Si studiano, in particolare, le complementarità fra
le differenti componenti del capitale umano e fra esse e l’R&D.
Dall’altra parte, la teoria della crescita endogena, a partire dai modelli di prima
generazione e basati sulle complementarità fra R&D e capitale umano, non sembra tenere
in considerazione l’eterogeneità di quest’ultimo, valutando gli effetti della complementarità
fra un capitale umano omogeneo (solitamente identificato con l’istruzione) e l’attività di
ricerca sul tasso di crescita di un’economia.
Inoltre, un altro recente filone di lavori econometrici, ha fornito un supporto empirico ai
legami fra il training fornito dalle imprese ai propri lavoratori e la loro attività innovativa.
Questo modello prova a integrare questi diversi filoni: esso dimostra l’effetto
dell’eterogeneità del capitale umano – e in particolare l’effetto del training in aggiunta
all’istruzione – sul tasso di crescita di una nazione.
2. Motivazioni del lavoro e legami con la letteratura esistente
Questo paper è in relazione con alcuni filoni della letteratura economica. Innanzitutto, un
trend di teoria della crescita endogena, studia le complementarità fra R&D e capitale
107
umano. In particolare un modello sviluppato da Redding (1996), studia le low-skill, lowquality traps generate dalla complementarità fra il capitale umano omogeneo e l’R&D,
all’interno di un mercato del lavoro imperfetto.
Un secondo filone analizza gli investimenti capitale umano eterogeneo all’interno di
mercati del lavoro perfetti o non competitivi. Il lavoro originario di Becker (1964),
sviluppato con mercati del lavoro competitivi, ha introdotto la distinzione, molto usata
negli anni a venire, fra general e specific training da affiancare all’istruzione per determinare
il tasso di accumulazione di capitale umano. Più di recente, Acemoglu (1997) ha
dimostrato che, in mercati non competitivi, l’interazione fra innovazione e training causa
inefficienze nell’offerta di training e molteplicità negli equilibri.
Infine, sono stati resi noti negli ultimi anni i risultati di alcuni lavori empirici che
investigano sui legami tra training e R&D. Questa letteratura ha rilevato che (I) i
lavoratori con maggiori tassi di istruzione e occupati in mansioni high-skilled hanno
maggiori probabilità di ricevere training (II) le imprese che offrono un training specifico
per la loro attività innovativa sono anche quelle che introducono, usano e diffondono
maggiormente le tecnologie più efficienti.
Il mio lavoro riconduce alla distinzione fra general e specific training, ma la riferisce
all’attività innovativa. In particolare, il punto chiave del paper è che definisco come
technology-general (T-G T) il training adottato dalle imprese anche senza attività di R&D
e fornito a tutti i lavoratori low e high-skilled e come technology-specific (T-S T) il training
offerto dalle imprese solo quando queste innovano e solo ai lavoratori impegnati
nell’attività di R&D. Queste due definizioni di training sono differenti dalle usuali
tipologie beckeriane: le definizioni di Becker legano il training all’impresa che lo offre,
mentre queste si riferiscono ai legami fra il training e le tecnologie in uso.
3. Il modello
3.1 Descrizione dell’environment
Questo modello è basato su Redding (1996), ma lo estende introducendo l’eterogeneità del
capitale umano. È lo stesso Redding a notare il limite del suo lavoro e a suggerirne una via
d’uscita:
ʺFor the purpose of the present paper, we make the standard assumption that the
education, training and skills of an economy’s workforce may be represented by an
aggregate stock of human capital H…The many interesting issues concerning the
heterogeneity of skills are left to one sideʺ (Redding 1996, p. 458).
In particolare, in un modello a generazioni non sovrapposte, utilizziamo la Nash
Equilibrium Solution per poter ottenere un equilibrio con aspettative razionali.
3.2 Principali risultati: molteplicità negli equilibri e condizione solo necessaria ma non
sufficiente.
Contrariamente al modello di Redding (1996) che trovava due valori di equilibrio per il
tasso di crescita di un’economia, questo modello ne genera altri due e l’attuale ʺHigh-
108
Growth Equilibriumʺ, ottenuto con la contemporanea presenza di T-G T e R&D, è maggiore
dell’equilibrio corrispondente nel precedente modello.
Nel modello di Redding (1996), poi, la ʺlow development trapʺ accadeva in mancanza di
attività di R&D da parte delle imprese; la mancanza di attività innovativa era, cioè,
condizione necessaria e sufficiente per ottenere un sentiero di bassa crescita. In questo
modello la mancanza di R&D è condizione solo necessaria ma non sufficiente, perché se
le imprese forniscono T-G T, il training è in grado, pur in mancanza di R&D, di sostenere
l’accumulazione di capitale umano e in ultimo di favorire il tasso di crescita. In altre
parole, affinché si generi stagnazione è necessario che le imprese non abbiano la capacità
di innovare e che forniscano formazione solo ai lavoratori high-skilled coinvolti in una
fruttuosa attività di ricerca.
4. Indicazioni di policy: favorire la formazione professionale e renderla indipendente
dall’R&D per sostenere la crescita
Dal modello si ottengono tre indicazioni di policy. Innanzitutto, le economie che intendono
incrementare il livello medio di accumulazione di capitale umano possono supportare sia
l’istruzione che la formazione professionale. In secondo luogo, una maggiore
accumulazione di capitale umano può essere ottenuta sia direttamente con politiche per
l’istruzione o per la formazione che, indirettamente, con politiche volte a favorire l’attività
di R&D.
Inoltre, al fine di conseguire un maggior tasso di accumulazione di capitale umano e di
favorire la crescita economica, le imprese dovrebbero fornire un technology-general
training, offerto cioè anche ai lavoratori non impiegati in R&D. Anche per ragioni di
equità, poi, se il training è offerto solo ai lavoratori high-skilled, esso tende ad amplificare le
disparità generate dai tassi di istruzione; perciò i governi dovrebbero supportare le
imprese che sostengono l’accumulazione di capitale umano di tutti i lavoratori, attraverso
programmi di formazione professionale.
Così, questo modello dimostra che potrebbero essere richiesti dei sussidi pubblici per
favorire l’offerta di T-G T e attivare circoli virtuosi di accumulazione di capitale umano e
crescita economica:
Proposition 8: A subsidy towards the cost of training may induce entrepreneurs to prefer
technology-general training, allows the highest accumulation of human capital and takes the
economy to the ʺHigh-Growth Equilibriumʺ
5. Conclusioni
Questo modello ha introdotto l’eterogeneità del capitale umano all’interno di un modello
di crescita endogena con generazioni non sovrapposte.
Il lavoro ha dimostrato che la composizione del capitale umano, troppo spesso dimenticata nei
modelli di crescita endogena, è rilevante nel determinare la probabilità di innovare e il tasso di
crescita di un’economia.
109
Il modello ha concluso, come principale indicazione di politica economica, che i governi
dovrebbero sussidiare l’offerta di un technology-general training per ottenere maggiori tassi
di crescita ed evitare di accrescere le iniquità nell’accumulazione di capitale umano
generate dai sistemi per l’istruzione. È stato dimostrato, infatti, che un training
indipendente dall’attività di R&D delle imprese ed offerto a tutti i lavoratori è in grado di
evitare le low development traps in mancanza di R&D.
110
SESSIONE LIBERA
TEORIA
Coordinatore: Eugenio PELUSO
Relazioni:
•
•
•
•
Effort Provision and Information Acquisition in Different Organizational Forms: Maria De
Paola e Vincenzo Scoppa
Optimal Information Releasing in Multidimensional Public Procurement: Nicola Doni
Su Mandler e l’indeterminatezza sraffiana: Saverio Maria Fratini e Enrico Sergio
Levrero
Uncovered Set Choice Rule: Michele Lombardi
111
Effort Provision and Information Acquisition in Different Organizational Forms
Maria De Paola, Vincenzo Scoppa
Dipartimento di Economia e Statistica, Università della Calabria
In classical economic theory the firm is described as a black box transforming inputs into
outputs according to a production function. No attention is paid to the way these inputs
are organised and how decisional rights are allocated among the different agents
operating inside the firm.
This description of the firm has recently underwent some radical changes. One the one
hand, incentive theory has considered problems of asymmetric information usually
characterizing relationships taking place among the entrepreneur and her employees,
while on the other hand, another strand of research has considered the influence of the
allocation of decisional power among agents on the performance of different types of
organizations.
Thanks to these changes economic theory is now able to interpret many aspects
characterizing relationships taking place among different subjects inside the firm, such as
different types of remuneration contacts or hierarchical structures.
The allocation of decisional rights varies among firms: in some cases, firms adopt a
hierarchical organisation according to which some workers are required to provide effort
for the realization of a production process directed and organized by a superior, who
acquires the information critical to decision-making and transfers it to lower-level agents;
in other cases, firms use an organisational system that allows employees decisional power
and requires them to undertake decisions on the basis of their own information.
The organizational system prevailing until 1950 was characterised by a strong
centralisation of decisional rights and a highly specialized labour division. Recently, in all
industrialized countries, firms are experimenting a completely different organizational
structure, allowing great autonomy to workers and trying to use at best their information.
The recent literature on hierarchical systems and on the allocation of authority in
organisations provides some interesting insights for the interpretation of this phenomena.
Some authors, considering decisional processes that require a large amount of
information, which can not be processed by a single subject, analyse the influence of the
organizational structure on elaboration and communication costs and on delays and
specialization economies. In this view, the organizational change is interpreted referring to
technological change, which reducing the cost of acquiring and transmitting information
has allowed for a greater participation of workers to decision making (Bolton and
Dewatripont, 1994; Garicano, 2000; Aoki, 1986; Radner and Van Zandt, 1992).
Other works focus mainly on incentive problems. Aghion and Tirole, 1997, show that
allowing decisional power to subordinate workers may increase their effort. As a
consequence, according to this view, the diffusion of horizontal organizational systems
112
may be related to changes in workers’ task that make it more difficult to monitor their
effort and then attribute a greater importance to incentives.
In this paper we aim to consider in the same framework the process of information
acquisition, the costs of communication and incentive problems with the aim to
disentangle the interactions existing among them. We analyse the organizational structure
taking into account two distinct tasks: the acquisition of information and the provision of
effort. We assume that while the principal can decide whether to delegate the acquisition
of information to the agent or to acquire it directly, the effort necessary to implement
profitable projects must be provided by the agent. As a consequence, we describe
hierarchy as a system in which the information critical to decision-making is acquired by
superiors and used by lower-level agents, and decentralized organization as a structure in
which the agent’s activity is based on his own information since he is involved both in
effort provision and information acquisition.
In our framework, information and effort are linked by a complementarity relationiship:
the availability of valuable information has a positive effect both on the probability of
realizing good projects and on the level of effort provided by the agent. It follows that
under the hierarchical system the principal may use information acquisition as an
instrument to enhance the provision of effort by the agent. However, there are costs in the
transfers of the information acquired by the principal. Firstly, due to the fact that
knowledge is often imperfectly transferable, only part of the information transferred by
superiors is effectively used by their subordinates. Secondly, some of the acquired
information may result inadequate due to changes in the economic environment. These
communication and delay problems reflect in worse decisions and in worse incentives. On
the other hand, assigning to the agent both the acquisition of information and the
provision of effort determines agency problems not only with respect to the provision of
effort but also with respect to information acquisition. We compare profits obtained under
the two organizational choices showing that a reduction of communication costs tends to
favour hierarchy, while a reduction in the agent’s costs of information acquisition increase
the relative advantage of delegation.
In the second part of the paper we investigate the effects produced by errors in
performance evaluation on the choice among the two alternative organizational forms. We
consider that the principal may recognize the positive result obtained by agent only a
certain probability and we show that this reduces the relative advantage of the delegation
system. In fact in this case, this kind of errors depress both the incentive to acquire
information and the incentive to provide effort, while under hierarchy only effort
provision is negatively affected.
113
Optimal Information Releasing in Multidimensional Public Procurement
Nicola Doni
Università degli Studi di Firenze
I principali modelli asta multidimensionali presenti in letteratura (Che, 1993; Branco, 1997;
Asker et al., 2004) assumono che i concorrenti decidano autonomamente la qualità e il
prezzo delle loro offerte e che l’aggiudicazione del contratto avvenga in modo totalmente
automatico, senza che vi sia alcuna valutazione discrezionale del banditore. Allo stesso
tempo, ipotizzano la presentazione simultanea di offerte complete, senza indagare quale
possa essere l’esito di particolari procedure a più stadi, in cui gli aspetti qualitativi
vengono valutati prima che le imprese debbano presentare le loro richieste economiche
per la realizzazione del contratto.
Questo articolo vuole analizzare in particolare il contesto delle gare pubbliche. La
normativa europea più recente in materia di appalti ha introdotto alcuni nuovi tipi di
procedura, in cui le proposte relative a diversi aspetti dell’offerta contrattuale possono
essere formulate in momenti diversi. Il dialogo competitivo e le aste elettroniche possono
assumere le caratteristiche di aste a più stadi e le direttive richiedono esplicitamente che
nel bando siano specificate “le informazioni che saranno messe a disposizione degli
offerenti nel corso della procedura e, se del caso, il momento in cui saranno messe a loro
disposizione”.
In un’asta a più stadi, in cui l’offerta economica è formulata dopo aver presentato quella
qualitativa, la policy scelta dalla PA circa la rivelazione della sua valutazione della qualità è
molto rilevante rispetto all’esito della procedura in quanto incide direttamente sulle
strategie di offerta delle imprese. In questo lavoro confronteremo tre diverse strategie di
rivelazione, che riteniamo possano rappresentare tre casi ammessi dalla legislazione
vigente. Nel primo caso la PA mantiene un segreto assoluto circa la sua valutazione degli
aspetti qualitativi delle offerte. Nel secondo caso rivela ad ogni concorrente soltanto la
valutazione assegnata alla sua proposta. Nel terzo caso infine, assumeremo che la PA
dichiari pubblicamente la graduatoria dei punteggi assegnati agli aspetti qualitativi dei
vari partecipanti.
L’originalità di questo lavoro consiste nell’assunzione che la qualità delle offerte non è
decisa dai concorrenti, ma dipende esclusivamente dal giudizio discrezionale della PA. Il
modello che proponiamo è il più possibile semplificato: assumiamo che vi sia una PA che
vuole acquisire un bene tramite una gara a cui partecipano due sole imprese. Ipotizziamo
che l’utilità che la PA deriva dallo scambio sia pari alla differenza fra la qualità dell’offerta
e il prezzo richiesto dal venditore. La qualità dipende esclusivamente dai gusti o dalle
considerazione della PA, per cui è una sua informazione privata. I prezzi invece sono
proposti dalle imprese. La loro strategia di offerta riguarda quindi soltanto questo ultimo
elemento e vedremo che ogni impresa deciderà il prezzo richiesto in funzione del proprio
costo di produzione, che è una sua informazione privata, e delle informazioni a sua
disposizione sulla valutazione che la PA ha fatto della sua qualità e di quella del
114
concorrente. Quindi la policy scelta dalla PA circa la rivelazione delle sue informazioni
private influenza direttamente la strategia di prezzo delle imprese.
L’analisi viene finalizzata a comparare le diverse strategie sotto due diversi punti di vista:
quello della efficienza allocativa e quello della massimizzazione dell’utilità attesa della PA.
Sotto il primo punto di vista, si dimostra che il meccanismo di asta risulta efficiente dal
punto di vista allocativo solo quando la PA adotta la strategia di rivelazione privata delle
informazioni. Allo stesso tempo però, tale strategia risulta in genere subottimale rispetto
all’altro obiettivo. Si individuano infatti alcune condizioni sufficienti affinché l’utilità
attesa della PA con tale strategia sia inferiore a quello atteso con la strategia di rivelazione
pubblica delle informazioni. Infine, si dimostra che in presenza di differenze rilevanti nella
qualità delle offerte, la strategia della segretezza risulta migliore rispetto a quella della
rivelazione pubblica.
Il fatto che la strategia di rivelazione pubblica delle informazioni risulti superiore, in
genere, a quella della rivelazione privata, è molto importante in quanto ci permette di
asserire che quando i concorrenti conoscono la valutazione discrezionale della PA sulla
propria offerta, allora la migliore strategia del banditore è quella di rivelare pubblicamente
tali informazioni. Un tale risultato può essere applicato alla procedura di dialogo
competitivo, dove è plausibile pensare che nella fase di dialogo la PA sia portata ad
esprimere esplicitamente una sua valutazione sulle soluzioni tecniche prospettate dalle
diverse imprese. In tale caso quindi potrebbe essere opportuno rendere pubblica la
graduatoria delle soluzioni tecniche presentate prima di richiedere l’ultima offerta
economica.
Allo stesso modo, la conclusione secondo cui la strategia della segretezza risulta migliore
di quella della rivelazione pubblica quando la differenza potenziale nella qualità delle
offerte è molto grande ci permette di affermare che, quando il peso delle valutazioni
discrezionali della PA è molto rilevante, non è opportuna una rivelazione pubblica di tali
informazioni.In tal caso la procedura ottimale resta quindi quella della presentazione di
offerte tecniche ed economiche in modo simultaneo, come avviene in genere. Quindi un
maggior flusso di informazioni sulle preferenze della PA può essere efficace solo nel caso
in cui questa si impegni a restringere la rilevanza della sua valutazione discrezionale delle
offerte.
JEL Classification: H57, D44, D82.
115
Su Mandler e l’indeterminatezza sraffiana
Saverio Maria Fratini e Enrico Sergio Levrero
Riprendendo le critiche di Hahn ed altri al libro di Sraffa Produzioni di merci a mezzo di
merci Mandler ha argomentato che una spiegazione della distribuzione sulla base di forze
diverse da quelle in termini di domanda e offerta potrebbe essere avanzata soltanto
dimostrando l’indeterminatezza dell’equilibrio economico generale. Al contrario, sempre
secondo Mandler, Sraffa avrebbe da un lato introdotto l’indeterminatezza dei prezzi in
modo improprio, eliminando cioè le funzioni di domanda dei prodotti e dei fattori della
produzione. Dall’altro, non distinguendo i prezzi per data, Sraffa avrebbe utilizzato una
nozione di equilibrio – lo stato stazionario - in cui, “chiudendo”, come si dovrebbe fare, le
equazioni di prezzo con le condizioni di equilibrio di domanda e offerta dei beni e dei
fattori della produzione, l’indeterminatezza dei prezzi non potrebbe in genere verificarsi.
Mandler ritiene però che l’indeterminatezza che egli chiama “sraffiana” – cioè quel tipo di
indeterminatezza che renderebbe legittima una spiegazione della distribuzione sulla base
di forze “non di mercato” – potrebbe essere affermata in modo “robusto” facendo
riferimento a dei casi di equilibrio sequenziale. In particolare, Mandler considera un
modello intertemporale sequenziale su due periodi in cui, all’inizio del primo periodo, i
mercati sono incompleti, dal momento che non è possibile acquistare i beni di consumo
consegnati nel secondo periodo, ma i prezzi attesi di questi beni sono determinati
simultaneamente a quelli effettivi delle altre merci risolvendo un sistema di equilibrio di
tipo Arrow-Debreu. Poiché attraverso questo equilibrio del primo periodo si determinano
pure le quantità dei beni capitali che saranno disponibili per la produzione da svolgere nel
secondo periodo, Mandler può allora argomentare che all’inizio del secondo periodo
(quando i mercati riapriranno per consentire l’acquisto dei beni di consumo consegnati in
quel periodo) le dotazioni iniziali dei beni capitali non saranno più arbitrarie. Di
conseguenza, se la tecnologia è a coefficienti fissi ed i beni di consumo prodotti sono in
numero minore rispetto agli input, Mandler dimostra che ciò condurrà “genericamente”
alla indeterminatezza “sraffiana” dell’equilibrio del secondo periodo.
Mentre l’insoddisfazione che emerge, nei lavori di Mandler, nei confronti dell’idea – che
caratterizza le versioni neowalrasiane dell’equilibrio generale - di una arbitraria
composizione fisica iniziale del capitale ci sembra condivisibile, la nostra relazione si
propone di muovere principalmente due obiezioni all’interpretazione che Mandler dà del
contributo di Sraffa.
La prima obiezione è che l’indeterminatezza sequenziale di Mandler scaturisce da un uso
ad hoc della tendenza alla uniformità del saggio di rendimento dei beni capitale sul loro
prezzo di offerta, e non sembra dunque poter rappresentare una base solida per l’idea di
Sraffa di una determinazione di tipo istituzionale e non meccanica o “semi-naturale” della
distribuzione. Mentre infatti la composizione fisica del capitale reso disponibile all’inizio
del secondo periodo viene in Mandler determinata sulla base del legame che esiste nel
primo periodo tra il prezzo d’offerta e quello di domanda dei beni capitale; nel secondo
116
periodo, con la riapertura dei mercati, tale legame viene reciso. La composizione fisica del
capitale è ora considerata data, e prezzi di domanda diversi (o non proporzionali) a quelli
di offerta possono allora diventare compatibili con l’equilibrio del secondo periodo,
generando il risultato di indeterminatezza.
In secondo luogo, l’esigenza che secondo Mandler vi sarebbe, per poter considerare validi
almeno alcuni dei risultati raggiunti da Sraffa, di argomentare l’indeterminatezza
dell’equilibrio neoclassico ci sembra poggiare sulla negazione del fatto che il contributo di
Sraffa si muove all’interno di una impostazione teorica diversa ed alternativa a quella
neoclassica. Come egli stesso ci indica in Produzione di merci, la sua opera è volta infatti alla
ripresa della teoria classica di Smith e Ricardo – teoria in cui non si ritrovano, né
potrebbero avere un ruolo, le funzioni di domanda dei prodotti e dei fattori della
produzione, ed il salario è preso come un dato nella determinazione dei prezzi relativi
perché fissato in uno stadio distinto dell’analisi, in base a circostanze storico-sociali da
studiarsi concretamente caso per caso. Non cogliendo la struttura analitica ed il metodo di
analisi della teoria classica, Mandler non vede così che in Sraffa non si ha alcuna
indeterminatezza dei prezzi normali o naturali delle merci, nè che tale risultato può aversi,
ed è raggiunto da Sraffa, senza ricorrere ad alcuna determinazione della distribuzione in
termini di domanda e offerta.
Keywords: Rationalizability, Uncovered Set, Intransitive Choice.
J.E.L. Classification: D01.
Contact information: Address : department of economics, queen Mary, University of
London, Mile End Road, London E1 4NS, United Kingdom, E-mail:
[email protected], Phone Uk: 44-(0) 20-7882-7798
117
Uncovered Set Choice Rule
Michele Lombardi
Extended Abstract
A large body of experimental findings show that choices are cyclic and context-sensitive
[Camerer, (1994); Loomes et al., (1991); Tversky, (1969)]. This compelling evidence calls for
alternative definition of maximising choice behaviour.
I propose that a DM is always able to choose a single alternative from binary contexts.
When called upon to make a decision from larger feasible sets, the choosable alternative x
has the property to dominate every other y in the set either directly (x is chosen over y) or
in two pairwise comparisons (it exists a third alternative z such that x is chosen over z
which in turn is chosen over y - indirect dominance of x over y). I dub such procedural
rule uncovered set rule. This choice rule `rationalisesʹ the choice function if it elicits the
alternatives specified by the choice function, for any feasible choice set. When this
happens the choice function is said to be an uncovered set choice rule.
Of the existing literature on the suggested choice rule two works are particular relevant in
this context. A full characterisation of uncovered set choice rule has been provided by
means of a family of rationales, one for each feasible choice situation [Duggan, 1997]. Yet,
using a tournament it has been shown that the uncovered set choice rule is the least choice
rule obeying axioms relating choices across tournaments and choices across sets [Moulin,
1986]. By using only axioms relating decisions across situations I axiomatise the choice to
coincide with the uncovered set of a fixed tournament.
This notion of rationality explains not only cyclical and context dependent choices
observed in practice, but also provides testable restrictions on observable choice
behaviour.
Keywords: Rationalizability, Uncovered Set, Intransitive Choice.
J.E.L. Classification: D01.
118
SESSIONE AD INVITI
Coordinatori : Elsa FORNERO e Giorgio LUGHINI
Relazioni:
•
•
•
•
•
Contratti e mercati: quando l’economia sposa la storia: Maristella Botticini
Crescita, istituzioni, distribuzione: Francesco Caselli
Partecipazione e mercato del lavoro sommerso: Pietro Garibaldi
Commercio internazionale e localizzazione geografica: Gianmarco I.P. Ottaviano
Consumo e disuguaglianza: Luigi Pistaferri
119
Contratti e mercati: quando l’economia sposa la storia
Maristella Botticini
Dipartimento di Economia e Collegio Carlo Alberto, Università di Torino
In questo lavoro si illustra come il “matrimonio” tra l’economia e la storia possa arricchire
entrambe le discipline. Nella prima parte del lavoro, Norme sociali e shock demografici: il
mercato matrimoniale e i contratti di dote in Toscana, 1250-1450, è lo storico che chiede
all’economista un modello che spieghi i trend interessanti illustrati dai dati storici. Nella
seconda parte del lavoro, Mercati matrimoniali ed esternalità: modelli teorici ed analisi empirica,
è l’economista che chiede allo storico dati per sottoporre a verifica empirica un modello
economico.
Norme sociali e shock demografici: il mercato matrimoniale e i contratti di dote in Toscana, 12501450
Il punto di partenza di questo lavoro è l’analisi quantitativa di migliaia di contratti di dote
e testamenti conservati presso l’Archivio di Stato di Firenze che consentono di studiare il
“mercato” matrimoniale e i trasferimenti di ricchezza tra generazioni a Firenze e nel suo
contado dal 1250 al 1450. Il puzzle da spiegare è il seguente: pur avendo subito lo stesso
shock demografico (la peste del 1348 e successivi episodi di peste), la città e il contado di
Firenze reagiscono in modo diverso per quanto concerne il mercato matrimoniale e i
trasferimenti di ricchezza da genitori a figli? Cioè, perché i valori delle doti (che sono
simultaneamente trasferimenti di ricchezza inter vivos dai genitori alle figlie che si
sposano, e “prezzi” dei mariti nel mercato matrimoniale) nella città di Firenze e nel suo
contado mostrano tendenze molto diverse nonostante lo shock demografico sia stato
simile?
‘effetto immediato della peste del 1348 è di avere creato uno shock negativo all’offerta di
lavoro, con la conseguenza di far aumentare significativamente i salari reali sia dei
lavoratori skilled che unskilled nei mercati del lavoro urbano e rurale. Salari più alti
avrebbero permesso sia alle famiglie cittadine che a quelle del contado di elargire doti più
grandi alle figlie. Eppure i dati indicano che solo le famiglie urbane aumentano in modo
significativo le doti delle proprie figlie, mentre i valori delle doti nel contado rimangono
sostanzialmente invariati per quasi due secoli.
Per spiegare questo puzzle, viene in aiuto il modello di Cole, Mailath, e Postlewaite (JPE
1993) sul ruolo delle norme sociali nel comportamento di risparmio e di trasferimenti
intergenerazionali. Considerando due economie identiche dal punto di vista delle
preferenze, della tecnologia e delle dotazioni, ma che differiscono nella norma sociale che
regola il matching nel mercato matrimoniale, il loro modello predice che, nelle economie
con matching di tipo wealth-is-status, le famiglie risparmiano di più e trasferiscono più
ricchezza ai figli rispetto alle economie con matching di tipo aristocratico (dove cioè i figli
ereditano lo status dei genitori).
120
Applicato ai dati toscani sulle doti, questo modello aiuta a spiegare il puzzle descritto
sopra. Mentre la società urbana a Firenze si identifica con un’economia caratterizzata da
matching di tipo wealth-is-status, la società rurale era ancora di tipo feudale dove lo status
di un individuo era deciso alla nascita. Di conseguenza, la maggiore ricchezza delle
famiglie derivante dallo shock positivo sui salari a seguito della peste, si traduceva in
maggiori trasferimenti di ricchezza dai genitori alle figlie (e figli) nella città ma non nel
contado di Firenze.
Mercati matrimoniali ed esternalità: modelli teorici ed analisi empirica
A partire dal lavoro di Mortensen (1988), gli economisti hanno utilizzato search frictions e
sequential search per modellare il mercato matrimoniale. Il lavoro di Mortensen suggerisce
anche la possibilità di una thick market externality, ossia di rendimenti di scala crescenti
(IRS) nel mercato matrimoniale: un numero maggiore di partecipanti in cerca di partners
nel mercato matrimoniale farebbe aumentare il tasso di nuzialità.
Sono grata ad Onorato Castellino per i preziosi suggerimenti e commenti a questo lavoro.
Nella letteratura teorica, IRS è un’ipotesi usata di frequente, ad esempio, per motivare
l’esistenza di equilibri multipli nei tassi di nuzialità e di divorzio. In alternativa, si può
assumere l’ipotesi di rendimenti di scala costanti (CRS), nel qual caso si ipotizza che il
tasso di nuzialità non dipenda dalla dimensione del mercato matrimoniale, oppure
l’ipotesi di rendimenti di scala decrescenti (DRS), nel qual caso il tasso di nuzialità
diminuisce all’aumentare del numero di partecipanti in cerca di partners nel mercato
matrimoniale.
Nella letteratura empirica, gli studiosi hanno iniziato a studiare quale di queste tre ipotesi
caratterizzi i mercati matrimoniali nella realtà. Sulla scia dei lavori che sottopongono a
verifica empirica l’ipotesi di agglomeration effects o thick market externalities nel mercato del
lavoro, gli economisti che studiano il mercato matrimoniale sottopongono a verifica
empirica l’ipotesi di IRS regredendo il tasso di nuzialità in una città sulla dimensione del
mercato matrimoniale in quella città. Il coefficiente di questa variabile indicherebbe se il
mercato matrimoniale è caratterizzato da IRS, CRS, o DRS.
Purtroppo questo tipo di regressioni ha un ben noto problema---quello della endogenità
della variabile esplicativa. In altre parole, se gli individui che vogliono trovare un partner
e sposarsi, scelgono di migrare nelle città pensando che sia più facile trovare un partner, la
variabile indipendente (= dimensione della popolazione in età da matrimonio nelle città) è
correlata con il termine di errore della regressione, producendo stime distorte dei
coefficienti. Ci sono molti studi che confermano che gli individui migrano nelle città per
accedere a un miglior mercato matrimoniale.
In questo lavoro (scritto in collaborazione con Aloysius Siow), stimiamo il tipo di
rendimenti di scala nel mercato matrimoniale utilizzando lo stesso approccio seguito nella
letteratura ma tenendo conto e risolvendo il problema della endogenità. Ecco dove i dati
storici si rivelano un prezioso alleato per aiutare l’economista.
I dati che utilizziamo per sottoporre a verifica empirica le ipotesi di IRS, CRS, o DRS
provengono da tre società ed economie tra le più diverse quanto a caratteristiche
121
geografiche, economiche, e culturali, per di più situate in epoche storiche alquanto
distanti.
La prima società che consideriamo è la Toscana all’inizio del Rinascimento che per due
ragioni si presta ad aiutare l’economista nel sottoporre a verifica empirica l’ipotesi di IRS,
CRS o DRS. In primo luogo, grazie al Catasto di Firenze del 1427, l’economista ha a
disposizione una considerevole quantità di dati economici e demografici dettagliati su
circa 60.000 famiglie (o 260.000 individui) toscane. In secondo luogo, dato che nella
Toscana medievale e rinascimentale le figlie si trasferivano nella famiglia del marito una
volta sposate, e gli uomini non migravano nelle città per trovare moglie, l’economista può
ragionevolmente ipotizzare che il problema di endogenità non esiste.
La stessa argomentazione vale per la seconda società che prendiamo in considerazione, la
Cina descritta nel censimento del 1982. Date le leggi restrittive sulla mobilità interna in
Cina, si può ragionevolmente escludere che le persone migrino verso le città alla ricerca di
un partner matrimoniale, e dunque, anche per il mercato matrimoniale in Cina, il
problema della endogenità descritto sopra non ci sarebbe.
Questo problema esiste invece per gli Stati Uniti descritti nel censimento del 2000. E’ un
dato di fatto che negli Stati Uniti le persone migrino verso le città in cerca di un miglior
mercato matrimoniale. Per risolvere questo problema di endogenità, utilizziamo un
approccio con variabili strumentali (descritto in dettaglio nel lavoro).
Il risultato principale è che i dati delle tre economie prese in considerazione non offrono
appoggio all’ipotesi di rendimenti di scala crescenti (IRS), mentre non possiamo
respingere l’ipotesi di rendimenti di scala costanti (CRS). I risultati sono coerenti tra loro e
robusti a varie tecniche econometriche. L’implicazione del nostro lavoro è che gli
economisti che studiano il mercato matrimoniale dovrebbero utilizzare modelli che
ipotizzano rendimenti di scala costanti (CRS), questa sembrando essere l’ipotesi che
meglio rappresenta i mercati matrimoniali nella realtà.
122
Crescita, Istituzioni, Distribuzione
Francesco Caselli
London School of Economics and Political Science
Sintesi
There are enormous differences in output per worker across countries, and most of this
difference is due to differences in aggregate efficiency, or Total Factor Productivity (TFP).
There are many reasons for differences in TFP, but this lecture focuses on recent empirical
and theoretical developments that highlight the role of microeconomic misallocation. As
an illustrative example I use the case of family firms, and argue that a high incidence of
family capitalism is likely a failure of meritocracy. I also briefly discuss the economics and
politics of reforms that may have an impact on the incidence of misallocation.
123
Labour Force Participation, Unemployment and Shadow Activity
Pietro Garibaldi
Università di Torino e Collegio Carlo Alberto
L’analisi macroeconomica dei mercati del lavoro “imperfetti” si è tradizionalmente
concentrata sullo studio della disoccupazione. L’approccio macroeconomico di
riferimento, il cosiddetto approccio dei flussi o approccio di “matching” al mercato del
lavoro, ha studiato le determinanti della disoccupazione di equilibrio attraverso l’analisi
dei flussi da e verso l’occupazione e la disoccupazione. Nei modelli di “matching”, le
frizioni sul mercato del lavoro rendono lento e incerto il processo di incontro tra lavoratori
e posti vacanti, generando una “quasi rendita” per i posti di lavoro occupati. I contributi
degli anni ottanta si sono concentrati sul processo di creazione di lavoro, a cui si associa il
flusso di lavoratori tra la disoccupazione e l’occupazione (Pissarides, 1990). Negli anni
novanta, il modello è stato arricchito per analizzare la distruzione di lavoro, e i flussi
dall’occupazione alla disoccupazione. (Mortensen and Pissarides, 1994) In tutta questa
letteratura, tuttavia, l’analisi del mercato del lavoro considera esogenamente data la
dimensione della forza di lavoro, divisa in occupazione e disoccuapazione.
Empiricamente, la popolazione in età lavorativa è però classificata in tre distinti stati. Oltre
ai “disoccupati” e agli “occupati”, esistono individui “fuori dalla forza lavoro” (o
“inattivi”). La differenza tra i disoccupati e individui fuori dalla forza lavoro è
principalmente legata al fatto che i primi sono attivamente in cerca di lavoro mentre i
secondo non lavorano e non ne cercano uno. Empiricamente, i flussi da e verso la
disoccupazione appaiono quantitativamente significativi. In ogni trimestre, i flussi
dall’occupazione alla disoccupazione sono tanto grandi quanto i flussi dall’occupazione
all’inattività, sia negli Stati Uniti che in Europa. Relativamente all’Italia, dove la
disoccupazione è arrivata ormai al 7 percento (scendendo sotto il 4 percento nelle regioni
settentrionali), il numero di occupati sulla popolazione in età lavorativa è ancora tra i più
bassi tra i paesi OCSE (con un livello pari al 58 percento nel 2006). E’ quindi evidente la
necessità di studiare, a livello macroeconomico, i confini tra disoccupazione e inattività.
Nella macroeconomia del lavoro degli anni novanta, lo studio delle determinanti della
forza lavoro ha ricevuto notevole attenzione. Garibaldi e Wassmer (2004, 2005), in una
serie di contributi, hanno introdotto “la produzione domestica” nei modelli di matching, e
hanno proposto un modello di equilibrio del mercato del lavoro con flussi e stock tra
occupazione, disoccupazione e inattività. Si ipotizza che gli individui possano sia produrre
sul mercato del lavoro sia specializzarsi in attività domestiche. In presenza di eterogeneità
nella produttività domestica, la forza lavoro si divide endogenamente tra occupati,
disoccupati e individui fuori dalla forza lavoro.
Il presente lavoro presenta un semplice modello di partecipazione endogena in mercati del
lavoro imperfetti, e deriva diversi risultati. Innanzitutto determina endogenamente i
confini tra occupazione, disoccupazione e inattività. In aggiunta, mostra come gli
individui “fuori dalla forza lavoro” possano essere distinti tra individui “attached” e “non
attahced”, dove i primi sono individui che non cercano un lavoro ma ne accetterebbero uno
se gli fosse loro offerto. I lavoratori “non attached”, viceversa, rifiuterebbero un lavoro
124
anche se loro offerto. Quest’ultima categoria, che emerge in modo naturale dal modello,
appare perfettamente in linea con le più recenti determinanti empiriche della
disoccupazione. Diversi studi, (Jones and Riddel, 1999, 2005 Brandolini et al. 2006) hanno
infatti mostrato come gi individui non attached sono ben presenti nelle statistiche delle
forze lavoro, e la loro considerazione può determinare un cambiamento delle stime della
disoccupazione fino a 2-3 punti percentuali. In termini di “policy” i modelli con forza di
lavoro endogena permettono anche di studiare in modo più “completo” ed empiricamente
rilevante le istituzioni del mercato del lavoro, quali la tassazione su lavoro e i sussidi di
disoccupazione.
Nel caso dell’Italia, ma anche in molti paesi dell’Europa meridionale e nei paesi in via di
sviluppo, la bassa partecipazione nelle statistiche “ufficiali” è spesso associata a un elevata
attività di lavoro sommerso. Tecnicamente, l’attività sommersa non è illegale, ma è
sommersa in quanto sfugge alla tassazione e alla regolamentazione del mercato del lavoro.
Il modello proposto può essere esteso per considerare l’occupazione sommersa, in modo
da studiare i confini e le determinanti dell’occupazione regolare, della disoccupazione, e
dell’occupazione sommersa in un mercato imperfetto, in linea con quanto recentemente
proposto da Boeri e Garibaldi (2006). Dal punto di vista della domanda di lavoro, le
imprese creano il numero ottimale di posti di lavoro regolari e sommersi attraverso un
meccanismo simile a quello di una decisione ottimale di evasione fiscale. Dal punto di
vista dell’offerta di lavoro, lavoratori eterogenei si autoselezionano nel settore legale e
sommerso, con lavoratori maggiormente produttivi che entrano nel settore legale. Questo
tipo di autoselezione appare coerente con l’evidenza empirica sull’occupazione sommersa.
Il modello predice anche che la disoccupazione e l’occupazione sommersa siano due facce
della stessa medaglia, nel senso che rispondono in modo simile a variazioni
macroeconomiche. Il modello è anche coerente con il fatto che l’economia sommersa sia
aumentata negli ultimi 20 anni nonostante la disponibilità di tecnologie informatiche
renda più semplice individuare i lavoratori sommersi. L’evidenza empirica sul Brasile e
sull’Italia appare coerente con le previsione empiriche del modello.
Bibliografia
Brandolini, A, Cipollone P., Viviano: Doe the ILO capture all Unemployment? Journal of
the European Economic Association, 2006 MIT Press
Boeri, T. and Garibaldi, P. (2006) Shadow Sorting, NBER Macroeconomic Annual-ISOM
Conference, MIT Press
Garibaldi, P. and Wassmer, E.: Equilibrium Search Unemployment, Endogenous
Participation and Labor Market Flows, Journal of the European Economic, Association MIT
Press, vol. 3(4), pages 851-882
Garibaldi, P. and Wassmer, E.: Raising Female Employment: Reflections and Policy Tools,
joint with Etienne Wasmer, Journal of the European Economic Association MIT Press, vol. 2(2),
pages 320-330
Jones, S.R.G. and W.C. Riddell (1999): The Measurement of Unemployment: An Empirical
Approach, Econometrica, 67, 147-61.
125
Jones, S.R.G. and W.C. Riddel (2005): Employment and Non-Employment: Heterogeneities
in Labor Market States, mimeo University of British Columbia
Mortensen, D. and Pissarides, C.A.: Job Creation and Job Destruction in the Theory of
Unemployment, Review of Economic Studies
Pissarides, C.A. (1990) Equilibrium Unemployment Theory, Basil Blackwell, 1st edition
126
Commercio internazionale e localizzazione geografica*
Gianmarco I.P. Ottaviano
Università di Bologna
‘New trade theory’ (henceforth, NTT) developed rapidly from the late 1970s on with the
aim of explaining a phenomenon that could not adequately be dealt with in the standard
perfectly competitive setting: a large share of world trade takes place between countries
with relatively similar technologies and factor endowments. Such trade is not driven by
differences between countries (as Ricardian and Heckscher-Ohlin theories would predict)
but rather, it seems, by their similarity. Various theoretical explanations have been put
forward and all of them rely to varying degrees on imperfectly competitive market
structures. The first main strand of NTT gives rise to a class of models characterized by
monopolistic competition, firm-level scale economies, and differentiated products. In these
models, each firm is assumed to produce a single variety in one location only, because of
scale economies, and trade occurs because consumers in each locale value variety and
purchase a fully diversified consumption bundle. The second main strand of NTT builds
on oligopolistic competition to explain how firms’ strategic interdependence may even
generate trade in homogeneous goods between identical countries. Countries engage in
intra-industry trade because, in the presence of trade costs, firms face a higher demand
elasticity in their export market and ‘dump’ their product into that market.
One fundamental aspect distinguishing NTT from ‘traditional’ Ricardian and HeckscherOhlin theories is that firms now become important players that have to make several
strategic choices. First, and foremost, firms face the key decision of price-setting. While the
early literature has largely wrestled with this fundamental problem of market structure,
more recent extentions of NTT focus on firms that face two additional decisions: where to
locate their production activity (the ‘locational choice’ of economic geography) and how to
serve foreign markets (the ‘organizational choice’ of the multinational). The latest
advances in NTT further enrich the already complex picture by allowing for firm
heterogeneity and by introducing a new approach to the analysis of organizational choices
based on contract theory.
Given the inherent richness of the above mentioned recent extensions, different models
focus on different aspects to investigate the impacts of trade liberalization and the gains
from trade. Our aim is to assess the current state-of-the-art of NTT by distilling its main
insights on firms’ responses to globalization and their implications for the reallocation of
resources across firms and countries within a single unified framework. In particular, we
will bring theory into life through the numerical implementation of a comprehensive
theoretical framework calibrated on European data. Doing so should provide a
comprehensive background for empirical investigations and future theoretical research.
Following an incremental approach, we briefly survey the existing literature on NTT, ‘new
economic geography’, multinational firms, and firm heterogeneity. For the sake of
*
La relazione è basata sul saggio “Industry Reallocations in a Globalizing Economy” di Kristian Behrens, Gianmarco
I.P. Ottaviano e Giordano Mion, CORE, 2006.
127
conciseness, we do not review the literature on firms’ organizational choices based on
contract theory. Then we proposes a simple two-country partial equilibrium model that
highlights the key features of NTT while by-passing most of its complexities. Both exports
and foreign direct investment (henceforth, FDI) are considered. While this simple model is
a useful pedagogical tool, it falls short of being an appealing framework in which to assess
the economic impacts and the welfare implications of complex real world trade reforms, or
on which to base empirical work. To overcome these limitations, we extend the simple
model by allowing for many countries, many firms, and endogenous firm heterogeneity.
The result is a rich set of predictions on the effects of trade liberalization in terms of
industry performance measures. We finally introduce multinationals and offer a first
attempt at quantifying the impacts of trade reforms in the presence of heterogeneous
multinational firms.
The main results of NTT highlight the fundamental roles of production costs (‘cost-saving
attraction’), market size (‘market-seeking attraction’), and access to other markets
(‘accessibility’). In particular, trade liberalization induces a reallocation of resources from
less to more productive firms (‘selection’), from smaller to larger countries (‘attraction’)
and from outsiders to insiders in preferential trade agreements (‘accessibility’). This
delivers long-run efficiency gains to liberalizing countries through selection among
heterogeneous firms, which eventually leads to higher average productivity, lower
average prices, larger average firm size, higher profits, richer product variety and lower
markups. At the same time, it generates tensions between prospective short-run winners
(e.g., more efficient firms, larger and more developed countries, larger and more
developed regions within countries, insiders in preferential trade agreements) and
prospective short-run losers (e.g., less efficient firms, smaller and less developed countries,
smaller and less developed regions within countries, outsiders in preferential trade
agreements).
128
Consumption inequality and partial insurance*
Luigi Pistaferri
Stanford University
The goal of this paper is to expand our knowledge of changes in the cross-sectional
distribution of consumption across US households. There has been extensive work
documenting changes in the household and individual wage and income distributions
over the 1980s and 1990s, but relatively little work done on the corresponding changes in
the consumption distribution. Recently, some authors have noted that consumption
inequality has not increased to the same extent as income inequality (see Krueger and
Perri, 2003). Under at least some interpretations, this has been taken to imply that
inequality has not actually increased in the sense that should be most relevant to welfare.
Our paper seeks a better understanding of the extent to which consumption inequality has
changed, and intends to shed light on alternative possible interpretations of the change (or
lack of greater change) that has been observed.
We start the paper by presenting basic facts about consumption and income inequality.
Following a large literature, we decompose income into transitory (short-run) and
permanent (long-run) components, and exclude durable goods from our baseline
definition of consumption. Our data combine information from the Panel Study of Income
Dynamics (PSID) and the Consumer Expenditure Survey (CEX) to document a number of
key findings. We find a strong growth in permanent income shocks during the early 1980s.
The variance of permanent shocks thereafter levels off. The variance of transitory shocks
increases only later in the period of observation. The variance of consumption displays a
strong growth in the early 1980s and then it flats out. These trends are similar to those
found by Moffitt and Gottschalk (1995) and others.
We next provide a framework that can be used to interpret these basic facts. If changes to
income are reflected one-to-one into changes in consumption, then consumption
inequality is the mirror image of income inequality and welfare differences are moot. Thus
the need of a general dynamic framework in which to understand how consumption
responds to different types of income shocks. Economists have proposed models that
differ in their predictions regarding such response.
Under complete markets agents can sign contingent contracts providing full insurance of
consumption in the face of idiosyncratic shocks to income. Moral hazard and asymmetric
information, however, make these contracts hard to implement, and in fact they are rarely
observed in reality. Formal tests of the complete markets hypothesis have often found that
the null hypothesis of full consumption insurance is rejected.
In the textbook permanent income hypothesis the only mechanism available to agents to
smooth income shocks is personal savings. The main idea is that people attempt to keep
the expected marginal utility of consumption stable over time. Since insurance markets for
income fluctuations are assumed to be absent, the marginal utility of consumption is not
*
con Richard Blundell e Ian Preston.
129
stabilized across states. If income is shifted by permanent and transitory shocks, selfinsurance through borrowing and saving may allow intertemporal consumption
smoothing against the latter but not against the former.
Models that feature complete markets and those that allow for just personal savings as a
smoothing mechanism are clearly extreme characterization of individual behavior and of
the economic environment faced by the consumers. The framework we adopt in this paper
to explain basic facts about consumption inequality is premised on the existence of some,
but not necessarily full, insurance and consider the importance of distinguishing between
transitory and permanent income shocks and their separate impact on consumption. This
is an important distinction, as we might expect to uncover less insurance for more
persistent shocks. This point has been also emphasized in the recent wave of models with
limited commitment or moral hazard with hidden savings.
We use the term partial insurance to denote smoothing devices other than credit markets
for borrowing and saving. There is scattered evidence on the role played by such devices
on household consumption While we do not take a precise stand on the mechanisms
(other than savings) that are available to smooth idiosyncratic shocks to income, we
emphasize that our evidence can be used to uncover whether some of these mechanisms
are actually at work, how important they are quantitatively, and how they differ across
households and over time.
The framework we propose is inherently dynamic. It requires in principle good quality
longitudinal data on household consumption and income. While there are large panel data
sets that track wages and incomes for households over time, the same is not true for broad
measures of consumption. The PSID contains longitudinal income data but the
information on consumption is scanty (limited to food and few more items). Our strategy
is to impute consumption to all PSID households combining PSID data with consumption
data from repeated CEX cross-sections. We review the conditions that make this
procedure reliable and show that it is able to reproduce remarkably well the trends in the
consumption distribution.
In the last part of the paper we disaggregate the data and try to understand whether
different population groups have experienced different changes in consumption
inequality, and what mechanisms (institutions, labor market, credit market, etc.) are
behind the estimated changes. This will help us painting a general picture of the timeseries and cross-sectional evolution of consumption inequality in the US. It is also
important to understand to what extent changes in social insurance systems affect
smoothing abilities, and the consequences of this for private saving behavior.
131
INDICE
Le relazioni non presenti nel libretto potranno essere richieste alla segreteria SIE
PROGRAMMA
Lezione: Francesco GIAVAZZI
Pag.
7
“
15
“
18
“
19
SINTESI DELLE RELAZIONI E DELLE COMUNICAZIONI
SESSIONE LIBERA - Macro Internazionale
Coordinatore: Riccardo FIORENTINI
Relazioni:
• Euro Corporate Bonds Risk Factors: Carolina Castagnetti e Eduardo Rossi
• International Reserve Glut: it is for Real?: Giulio Cifarelli e Giovanna
Paladino
• What is Global Excess Liquidity, and does it Matter?: Rasmus Rüffer e Livio
Stracca
“
22
“
24
SESSIONE LIBERA - Internazionale Reale
“
26
“
27
“
28
“
32
Coordinatore: Luca ZARRI
Relazioni:
• On Some Effects of International Fragmentation of Production on
Comparative Advantages, Trade Flows, and the income of Countries:
Salvatore Baldone, Fabio Sdogati e Lucia Tajoli
• Le misure dell’impulso del commercio estero alla crescita: quanto conta
l’internazionalizzazione della produzione?: Emanuele Breda, Rita
Cappariello e Roberta Zizza
• International Outsourcing and Productivity in Italian Manufacturing:
Alessia Lo Turco
132
SESSIONE LIBERA - Mercato del lavoro e Istruzione
Pag.
35
“
36
“
39
“
42
“
44
“
45
Coordinatore: Martina MENON
Relazioni:
• The Generation Gap: an Analysis of the Decline in the Relative Earnings of
Young Male Workers in Italy: Alfonso Rosolia e Roberto Torrini
• Making the Italian Labour Market More Flexible: an Evaluation of the Treu
Reform: Dario Sciulli
• Entry Regulations and Labour Market Outcomes: Evidence from the Italian
Retail Trade Sector: Eliana Viviano
SESSIONE LIBERA - Macroeconomia
Coordinatore: Nicola PAVONI
Relazioni:
• Equilibrium Existence and Policy Neutrality in Static LQ Games: Nicola
Acocella e Giovanni Di Bartolomeo
• Fiscal Policy in a Monetary Economy with Capital and Finite Lifetime:
Barbara Annicchiarico, Nicola Giammarioli e Alessandro Piergallini
• Determinants of Fiscal Policies in the Euro Area: Roberto Golinelli e Sandro
Momigliano
“
48
“
50
SESSIONE LIBERA - Crescita
“
53
“
54
“
56
“
58
“
61
Coordinatore: Giam Pietro CIPRIANI
Relazioni:
• Testing for Country Heterogeneity in Growth Models Using a Finite Mixture
Approach: Marco Alfò, Giovanni Trovato e Robert J. Waldmann
• A Longitudinal Analysis of Venture Capital Financing and the Growth of New
Technology-based Firm the Role of Investors’ Typology: Fabio Bertoni,
Massimo G. Colombo e Luca Grilli
• How Do Output Growth Rate Distributions Look Like? Some Time-Series
Evidence on OECD Countries: Giorgio Fagiolo, Mauro Napoletano e
Andrea Roventini
• Convergence Across Italian Regions and the Role of Technological Catch-up:
Marco Maffezzoli
133
SESSIONE LIBERA - Industriale
Pag.
63
“
64
“
67
“
69
“
72
“
75
“
76
“
78
“
80
“
82
“
83
“
84
“
87
Coordinatore: Angelo ZAGO
Relazioni:
• Partial Regulation in Vertically Differentiated Industries: Angela S.
Bergantino, Etienne Billette De Villemeur e Annalisa Vinella
• Restructuring Public Transit Systems: Evidence on Cost Properties and
Optimal Network Configuration from Medium and Large-Sized Companies:
Carlo Cambini, Massimiliano Piacenza e Davide Vannoni
• Mixed Duopoly, Privatization and the Shadow Cost of Public Funds:
Exogenous and Endogenous Timing: Carlo Capuano e Giuseppe De Feo
• L’equilibrio sul campo quando i club hanno obiettivi differenti: l’esperienza
recente della serie A di calcio: Nicola Giocoli
SESSIONE LIBERA - Internazionale Reale
Coordinatore: Luca ZARRI
Relazioni:
• The Evolution of World Trade and the Italian “Anomaly”: a New Look:
Michele Di Maio e Federico Tamagni
• On the Robustness of Robustness Checks of the Environmental Kuznets Curve:
Marzio Galeotti, Matteo Manera e Alessandro Lanza
• Does Antidumping Use Contribute to Trade Liberalization? An Empirical
Analysis: Michael O. Moore e Maurizio Zanardi
SESSIONE LIBERA - Mercato del lavoro e Istruzione
Coordinatore: Martina MENON
Relazioni:
• Scholarships or Student Loans?: Alessandro Cigno e Annalisa Leporini
• The Effect of Education on Youth Mortality: Piero Cipollone, Debora
Radicchia e Alfonso Rosolia
• Be as Careful of the Books you Read as of the Company you Keep. Evidence on
Peer Effects in Educational Choices: Giacomo De Giorgi, Michele Pellizzari
e Silvia Redaelli
134
SESSIONE LIBERA - Macroeconomia
Pag.
89
“
90
“
93
“
95
Coordinatore: Nicola PAVONI
Relazioni:
• Taylor Rule under Rule-of-Thumb Consumers and External Habits: an
International Comparison: Giovanni Di Bartolomeo, Lorenza Rossi e
Massimiliano Pancioni
• Mortgage Lending and the Choice between Fixed and Adjustable Rate:
Monica Paiella e Alberto Franco Pozzolo
• Stochastic Discount Factor Volatility and the Coskewness Puzzle in the CrossSection of Excess Returns: Valerio Potì
SESSIONE LIBERA - Crescita
Coordinatore: Giam Pietro CIPRIANI
Relazioni:
• Collective Norms in Basic Research and Economic Growth: Maria Rosaria
Carillo e Erasmo Papagni
• Is Europe Becoming a Knowledge-Driven Economy? Evidence from EU
Developed Regions: Alessandro Sterlacchini e Francesco Venturini
• The Long-Run Impact of ICT: Francesco Venturini
“
96
“
“
97
99
SESSIONE LIBERA - Industriale
“
101
“
102
“
104
“
106
Coordinatore: Angelo ZAGO
Relazioni:
• The Underlying Internal Learning Processes of Incremental and Radical
Innovations: An Empirical Analysis of the Reggio Emilia Industrial Districts:
Paolo Pini e Grazia D. Santangelo
• Political Economy of Mass Media: Public Good, News and Voting Behaviour:
Cosimo Scagliusi
• Complementary between Heterogeneous Human Capital and R&D: can JobTraining Avoid Low Development Traps?: Sergio Scicchitano
135
SESSIONE LIBERA - Teoria
Pag.
110
“
111
“
113
“
“
115
117
“
118
“
“
“
119
122
123
“
“
126
128
Coordinatore: Eugenio PELUSO
Relazioni:
• Effort Provision and Information Acquisition in Different Organizational
Forms: Maria De Paola e Vincenzo Scoppa
• Optimal Information Releasing in Multidimensional Public Procurement:
Nicola Doni
• Su Mandler e l’indeterminatezza sraffiana: Saverio Maria Fratini e Enrico
Sergio Levriero
• Uncovered Set Choice Rule: Michele Lombardi
SESSIONE AD INVITI
Coordinatori: Elsa FORNERO e Giorgio LUNGHINI
•
•
•
•
Contratti e mercati: quando l’economia sposa la storia: Maristella Botticini
Crescita, istituzioni, distribuzione: Francesco Caselli
Partecipazione e mercato del lavoro sommerso: Pietro Garibaldi
Commercio internazionale e localizzazione geografica: Gianmarco I.P.
Ottaviano
• Consumo e disuguaglianza: Luigi Pistaferri
136
137
con il patrocinio e il contributo di