L`Open Source non è un assurdo economico
Transcript
L`Open Source non è un assurdo economico
Laboratorio di Economia e Management Scuola di Studi Superiori Sant’Anna Piazza dei Martiri della Libertà 33- I-56127 PISA (Italy) Tel. +39-050-883-341 Fax +39-050-883-344 Email: [email protected] Web Page: http://www.sssup.it/~LEM/ LEM Working Papers L’economia degli standard e la diffusione delle tecnologie. L’Open Source non è un assurdo economico Andrea Bonaccorsi* † Cristina Rossi * † I2001/02 Scuola Superiore S.Anna, Pisa, Italy Scuola Superiore S.Anna, Pisa, Italy Maggio 2002 L’economia degli standard e la diffusione delle tecnologie. L’Open Source non è un assurdo economico Andrea Bonaccorsi Cristina Rossi Scuola Superiore Sant'Anna Piazza Martiri della Libertà, 33 56127 Pisa, Italy Introduzione Come ha osservato Raymond (1999, 224), uno dei padri fondatori del movimento Open Source, “Linus Torvalds e i suoi compagni [hanno fornito] centinaia di megabyte di programmi, documenti ed altre risorse, persino intere suite di strumenti Internet, programmi di desktop publishing, supporto grafico, editor, giochi e così via”. D’altro lato, “nel mercato dei Web Server il 20% di Microsoft sembra sparire se paragonato al 53% di Apache” (Di Bona, Ockman, Stone, 1999, 9) Dal punto di vista della teoria economica, il fenomeno dell’Open Source sembra sfidare alcune idee consolidate. L’affermazione dell’Open Source costituisce un’importante innovazione nel processo di produzione del software in contrapposizione al tradizionale modello proprietario, proprio del mondo commerciale. Da qui il sorgere di una serie di domande non banali, idealmente collocabili lungo l’asse delle tre fasi schumpeteriane del processo innovativo dove una nuova idea nasce (invenzione), trova applicazione economica trasformandosi in un nuovo prodotto o processo (innovazione vera e propria) ed è poi introdotta tra consumatori ed imprese (diffusione). Per ciascuna delle tre fasi il fenomeno dell’Open Source genera puzzle teorici assai interessanti. Possibili linee di ricerca sono le seguenti: − Perché i programmatori scrivono codice Open Source se nessuno li paga per farlo? 1 − Come è possibile che centinaia e centinaia di soggetti sparsi in tutto il mondo riescano a coordinarsi, al punto di produrre programmi composti da milioni di righe di codice1, in assenza di una struttura gerarchica fondata sulla proprietà? − Perché i programmi Open Source si diffondono in un mondo dominato dagli standard proprietari? La prima domanda ha per oggetto la fase dell’invenzione: è certamente comprensibile che un singolo soggetto abbia inventato il concetto di free software e lo abbia proposto alla comunità dei programmatori, ma resta da spiegare il fenomeno della continua invenzione, da parte di centinaia di individui, di programmi offerti gratuitamente. Qual è il sistema di incentivi che regola la fase iniziale dell’innovazione? Quali sono le motivazioni che spingono gli agenti a comportarsi in questo modo? La seconda domanda mette a fuoco il problema del coordinamento, che è centrale per trasformare un’invenzione in innovazioni economicamente vantaggiose e commercializzabili. Il funzionamento spontaneo e decentrato della comunità Open Source costituisce una sfida a molte nozioni di coordinamento correnti. Come è possibile allineare gli incentivi di molti individui senza ricorrere sistematicamente a diritti di proprietà e contratti di subordinazione? Come è possibile specificare i compiti di ciascuno senza ricorrere alla organizzazione gerarchica? La terza domanda, infine, si concentra sulle condizioni per la diffusione dell’Open Source. Cosa determina la diffusione della nuova tecnologia in presenza di uno standard già affermato, e quindi di potenziali rendimenti crescenti di adozione della tecnologia precedente? Gran parte della teoria della diffusione di tecnologie di rete prevede l’emergenza di standard dominanti e, in seconda istanza, la coesistenza di più standard se la dinamica di diffusione parte nello stesso momento per le tecnologie in competizione. Nel caso dell’Open Source, al contrario, si ha diffusione di uno standard alternativo mentre esiste già uno standard dominante. L’obiettivo del presente lavoro è di spiegare quelli che, a prima vista, sembrano un “non senso”, utilizzando in modo originale alcuni strumenti forniti dalla scienza economica, quali la teoria dell’azione collettiva e la teoria della diffusione di tecnologie in presenza di esternalità di network. Si mostrerà come una lettura non convenzionale del fenomeno 1 Secondo J. Sanders (1998), nel 1998 il kernel del sistema operativo Linux era composto da più di un milione e mezzo di righe di codice. Nella prima versione, implementata da Linux Torvalds nel 1991, le linee erano 10.000. 2 può dare una spiegazione plausibile. Allo stesso tempo si mostrerà come il software aperto è destinato non solo a convivere con il software proprietario, ma anche a originare una serie articolata di nuove forme di organizzazione economica (contratti, licenze, tipologie di imprese) nelle quali elementi open e proprietari si combineranno variamente. 1. Software Open Source e motivazioni individuali Nel 1984 con la Free Software Foundation e l’elaborazione della General Public Licence, Stallman propone una idea innovativa, che sarà poi ribadita nel 1997 nella Open Source Definition2: chiunque deve avere la possibilità di utilizzare, studiare, modificare ed integrare il codice dei programmi per elaboratore ridistribuendo poi liberamente il risultato della sua attività. Secondo i teorici di un nuovo modello di sviluppo del software, definito bazar (Raymond, 1999), i contributi di migliaia di programmatori che lavorano in modo totalmente volontario, scambiandosi idee e file attraverso la rete Internet, giungono in assenza di autorità centrale a realizzare programmi complessi. Gli sviluppatori, sparsi in tutto il mondo, lavorano ai vari progetti in modo asincrono, spesso sacrificando il tempo libero e i fine settimana: la struttura top down, gerarchicamente organizzata e pianificata, condivisa dalla quasi totalità dei processi produttivi, è qui abbandonata a favore di un modello bottom up, non coercitivo ed ampiamente decentralizzato, anche se sottoposto a regole condivise di comportamento. Ed è proprio per questo che il movimento Open Source sembra essere un concorrente temibile per le imprese che dominano il mercato del software. Queste, infatti, si trovano a fronteggiare una minaccia che proviene dall’esterno: non si tratta di un nuovo concorrente che fa le cose nello stesso modo, anche se più velocemente o in modo più efficiente, ma di un nuovo paradigma, nettamente contrapposto a quello tradizionale. Nel paradigma proprietario gli sviluppatori, retribuiti e concentrati nello stesso luogo, lavorano contemporaneamente alla scrittura di un codice che sarà protetto da una licenza commerciale che ne vieterà la distribuzione se non in forma binaria e a fronte di 2 Open Source Definition, http://www.opensource.org 3 forti limitazioni nell’utilizzo, che ne impediranno tra l’altro la duplicazione e ogni tipo di modifica. Fornendo ai programmatori la possibilità di lavorare liberamente sul codice sorgente, la filosofia alla base del movimento Open Source facilita sia la correzione degli errori sia l’adattamento ad esigenze e piattaforme hardware diverse. Se a ciò si aggiunge l’assenza delle pressioni imposte alle software house dai loro stessi annunci di versioni più aggiornate ed efficienti non sorprende che il risultato possa essere un software qualitativamente migliore. L’affidabilità è, infatti, indicata tra le caratteristiche che fanno del software Open Source “an easy sell” (Liebovitch, 1999). La sua resistenza ai crash può essere misurata in mesi ed anni piuttosto che in giorni o settimane: il Web Server Apache equipaggiato con sistema operativo Linux, installato nel 1997 nei laboratori della Compaq Computer Corporation ha resistito per ben 267 giorni prima di “crashare” e lo ha fatto solo in seguito ad un temporale che ha privato di energia elettrica lo stabile dove esso era collocato. A ciò si affianca una notevole portabilità: “oggi Linux gira su qualunque cosa, dai PalmPilot alle workstation Alpha, ed è il sistema operativo più soggetto a porting fra quelli disponibili per PC” (Torvalds, 1999, 112) Appare quindi del tutto naturale l’interrogativo proposto da Glass (1999, 104): “Non capisco chi sono quei pazzi che vogliono scrivere, leggere e fare revisione di tutto quel codice senza ricevere nessuna ricompensa”. Le motivazioni di chi scrive in Open Source, sin dall’inizio ampiamente analizzate dai padri fondatori del movimento, hanno cominciato a suscitare crescente interesse da parte della teoria economica a mano a mano che il fenomeno usciva dalle università e dai centri di ricerca, diveniva “tremendously successful” (Lerner e Tirole, 2001, 819) e creava nuovi e spesso fortunati modelli di business. Negli scritti che hanno fatto di lui uno dei più famosi Open Source evangelist, Raymond ricollega gli incentivi di chi scrive codice open ai valori propri della hacker culture. Gli sviluppatori Open Source sarebbero gli eredi dei c.d. Real Programmer del secondo dopoguerra che “provenivano dai settori dell’ingegneria e della fisica…[e] programmavano in FORTRAN e in un’altra mezza dozzina di linguaggi ormai dimenticati” (Raymond, 1999). Formatisi nelle Università o nei centri di ricerca delle grandi società di software, l’Artificial Intelligence Lab del MIT di Boston, il 4 Laboratorio di Intelligenza Artificiale dell’Università di Stanford, il Dipartimento di Informatica di Berkeley, lo Xerox Parc, gli hacker vivono la programmazione come una forma d’arte provando una soddisfazione estetica nello scrivere codice, simile a quella che la musica dà ad un compositore e il dipingere ad un pittore. A fronte di questo occorre tuttavia ridimensionare alcuni famosi miti sul software libero: un approfondito studio dei più fortunati progetti Open Source rivela come non sempre i programmatori lavorano gratuitamente e operano in un ambiente totalmente anarchico con lo scambio di file e gli user group sulla rete Internet quali uniche forme di coordinamento. Una survey condotta dall’Institut fuer Psychologie dell’Università di Kiel, in Germania, (Hermann, Hertel e Niedner, 2001) su un campione di 141 sviluppatori del kernel del sistema operativo Linux, evidenzia come ben il 43% riceva una qualche retribuzione mentre il 20% percepisce un salario “for their Linux programming on a regular basis”. Allo stesso modo nei grandi progetti è sempre possibile individuare un “well-respected leader” (Lerner e Tirole, 2001) o un “core development group” (Mockus et al., 2000) che hanno il compito di individuare i principali problemi da risolvere, scegliere tra le molteplici soluzioni proposte dagli sviluppatori e decidere la versione ufficiale del codice prodotto dal gruppo di lavoro. Da alcune parti è stato osservato (Bezrukov, 1999) come la struttura organizzativa del gruppo degli sviluppatori del kernel Linux sia gerarchicamente organizzata attorno alla figura carismatica di Linux Torvalds che agisce come una sorta di “dittatore benevolente”. Allo stesso modo non sempre i programmatori sono migliaia: mentre la Linux kernel mailing list conta oltre 3500 iscritti i contributori effettivi non raggiungono i 500. Tutto ciò, tuttavia, non ridimensiona la necessità di comprendere a fondo la struttura degli incentivi di chi lavora a progetti Open Source. Un’attenta analisi evidenzia come sia possibile ricondurre il problema al classico calcolo costi-benefici, qualora se ne evidenzino chiaramente gli elementi costitutivi. Sul lato dei costi, si osserva come spesso l’investimento in infrastrutture necessario alla partecipazione al movimento è quasi nullo. La maggior parte dei programmatori possiede un computer per ragioni di studio o di lavoro o addirittura scrive codice Open Source sul luogo di lavoro. La sopra citata survey sugli sviluppatori del kernel Linux individua un 38% di soggetti che scrivono codice free durante il regolare orario di 5 lavoro anche se questo non fa ufficialmente parte delle loro mansioni. Allo stesso modo il collegamento alla rete Internet non costituisce per i più un problema. La presenza di contributi provenienti da tutto il mondo è poco più che un’idea romantica: la maggior parte delle LOC aggiunte ai progetti è dovuta a soggetti europei e statunitensi che hanno quindi ampia disponibilità di connettività. I principali investimenti hanno allora ad oggetto il tempo e le risorse intellettuali. A questo proposito gli studi condotti evidenziano come anche l’investimento in termini di tempo sia contenuto. In un’ analisi su oltre 1700 partecipanti ad un importante newsgroup per la risoluzione dei problemi legati al server Apache, Lakani e von Hippel (2000) trovano che oltre l’ottanta per cento dei soggetti che rispondono alle richieste di aiuto impiega un tempo medio di 5 minuti per fornire la soluzione al quesito cui ha deciso di rispondere. La ragione di ciò è semplice: gli agenti conoscono già la risposta così come conoscono il funzionamento dei newsgroup, dei principali strumenti di posta elettronica, dei programmi che zippando i file ne riducono la dimensione permettendo di farli circolare agevolmente sulla rete. La stragrande maggioranza degli sviluppatori ha avuto modo di lavorare con Unix da cui derivano molti programmi Open Source e può quindi far fruttare agevolmente le proprie competenze. Ai bassi costi si contrappone poi una serie non trascurabile di benefici. In primo luogo la già citata gratificazione intrinseca della programmazione software come esperienza estetica (“fun to program”). La motivazione edonistica (o anche ludica) è comunemente annoverata dalla sociologia e dalla psicologia sociale tra le determinanti della partecipazione ad un qualsivoglia movimento sociale così come l’altruismo è riconosciuto essere alla base di molti comportamenti umani. In questo ambito può trovare spiegazione la cessione gratuita di beni e servizi, che secondo la antropologia della “gift economy” (Mauss, 1959) è, da un lato un modo per creare e mantenere relazioni sociali, dall’altro racchiude l’obbligo tacito alla reciprocità. Ciò rimane vero anche quando la cessione avviene non a favore di soggetti conosciuti ma verso una comunità di sconosciuti dai quali, tuttavia, si spera di avere in futuro aiuto e supporto sulla base di una di tacita convenzione di reciprocità instauratasi in forza delle contribuzioni precedenti. In aggiunta si devono considerare due ulteriori benefici: reputazione e autoproduzione. 6 La possibilità di guadagnare una reputazione soprattutto attraverso la competizione con gli altri sviluppatori per lo sviluppo della più elegante ed efficiente soluzione informatica e quindi di segnalare il proprio talento è chiaramente interpretabile alla luce della teoria economica. In presenza di asimmetrie informative sulla qualità dei lavoratori, la disponibilità a programmare gratuitamente può essere interpretata come segnalazione del talento (Lerner e Tirole, 2001). La visibilità che un giovane e creativo programmatore può avere attraverso la partecipazione alla comunità open source è superiore a quella raggiungibile in una grande impresa di software. Elementi di reputazione sono da sempre il motore della comunità scientifica. La forte gratificazione intellettuale che i programmatori derivano dallo scrivere codice è del tutto analoga a quella derivante da una scoperta scientifica. Il movimento Open Source ricalca la struttura degli incentivi propria della ricerca scientifica trasferendola alla produzione di tecnologie aventi un potenziale valore commerciale Il nuovo modello di sviluppo del codice diviene così “la naturale estensione della cultura scientifica occidentale” (Stone, 1999). Il processo di scoperta scientifica prevede la condivisione dei risultati, così come i dettami dell’Open Source prevedono la condivisione del codice sorgente. Condividere i risultati permette al ricercatore di migliorarli grazie ai feedback forniti dai colleghi, dai quali egli può ricevere riconoscimento per il proprio lavoro e quindi prestigio. Analogamente condividendo il codice sorgente, si ricevono dagli altri membri del gruppo suggerimenti che consentono di perfezionarlo. Il fatto che i risultati siano sotto gli occhi di tutti, conferisce, poi, un prestigio che è tanto maggiore quanto più la comunità è ampia. D’altro canto lavorare in progetti Open Source comporta una ricaduta di prestigio e visibilità che dà ai programmatori la possibilità di essere notati dalle aziende di software. Ciascuno dei padri fondatori del movimento “ha raggiunto una reputazione tale da permettergli di pagare l’affitto e mantenere dei figli” (Di Bona, Ockman, Stone, 1999, 14). Senza contare poi che molti degli sviluppatori sono studenti di computer science che utilizzano la partecipazione a progetti Open Source come base per la loro tesi di laurea o di dottorato acquisendo un’esperienza di programmazione che potranno utilizzare al loro ingresso nel mondo del lavoro. Il nuovo paradigma di sviluppo racchiude in se un’immensa possibilità di learning: avere a disposizione il codice sorgente di un programma consente di studiarlo approfonditamente. Tra le motivazioni che spingono i partecipanti ai newsgroup 7 dedicati alla risoluzione di problemi di suite Open Source, quella dell’apprendimento derivante dalla lettura delle risposte alle domande poste dagli utenti è senza dubbio una delle principali (Lakhami e von Hippel, 2001). Molti dei progetti Open Source, infine, sono nati come autoproduzione, per soddisfare una domanda in assenza dell’offerta corrispondente, in altre parole per “fill an unfilled market” (Green, 1999). Un tipico caso è rappresentato dal linguaggio Perl. Tale linguaggio fu elaborato da un amministratore di sistema della Burroughs, che aveva sentito la necessità di qualcosa che unisse alle caratteristiche di velocità e immediatezza proprie dei linguaggi di shell di Unix, la possibilità sviluppare programmi più complessi, tipica dei linguaggi di alto livello3. Non riuscendo a trovare questo “qualcosa” l’aveva creato distribuendolo poi a tutta la comunità Open Source. Oggi Perl è un linguaggio comunemente accettato e ad esso si devono la maggior parte dei contenuti interattivi della pagine Web A quelle descritte si aggiungono una serie di motivazioni ancillari che vanno dal sospetto con cui viene valutata l’opera di “costumerizzazione del computer” (Ullman, 1998) operata da Microsoft, alla instrumentability (Hertel, 2002) ossia all’idea che il proprio contributo sia fondamentale per la riuscita di un progetto, al grande valore attribuito agli obiettivi del progetto stesso. Anche inquadrando la struttura degli incentivi in una semplice analisi costi benefici, restano i problemi legati al free rider e all’esternalità positiva che sono chiaramente individuabili nella produzione dell’informazione. Rendendo il codice sorgente accessibile a tutti, il movimento Open Source ha dato al bene software le caratteristiche proprie dei beni collettivi (Bessen, 2001). Di tali beni, una volta che sono forniti, possono liberamente beneficiare anche coloro che non hanno contribuito alla produzione o lo hanno fatto in misura inferiore al necessario. Per ciascun individuo, quindi, la strategia di risposta ottima è quella di non contribuire per niente sfruttando poi la contribuzione altrui per avere benefici senza sostenere alcun costo. Chiaramente se il suddetto ragionamento è condiviso da tutti, il bene non sarà fornito: è il problema del free riding, ciò che è vantaggioso dal punto di vista individuale porta a risultati collettivamente subottimali. 3 Si pensi ad esempio al linguaggio C. 8 Sorretto da un’ineccepibile costruzione teorica, il free riding totale (ossia con tutti i soggetti che scelgono una contribuzione nulla) si osserva assai raramente, come è noto, sia nel mondo reale sia negli esperimenti di laboratorio in cui si richiede ai soggetti di contribuire alla fornitura di beni collettivi (si veda tra gli altri Fox, Guyer e Hamburger, 1975). Nel caso specifico, tuttavia, vi è da spiegare come siano evitati comportamenti autointeressati di free riding e si mantenga una cooperazione sostenuta nel tempo anche in comunità di grandi dimensioni. Una possibile spiegazione sta nel considerare il software prodotto al di fuori dei canali commerciali come una semplice istanza del più generale problema dell’azione collettiva alla luce del quale rileggere tutte le motivazioni precedentemente analizzate. Le dimensioni assunte dal fenomeno risultano assai interessanti dal punto di vista teorico, perché sembrano sfatare la nota tesi di Olson (1965) di una relazione inversa tra ampiezza del gruppo e probabilità che un’azione collettiva sia condotta con successo. L’argomento è che all’aumento della dimensione del gruppo diminuisce la probabilità che un comportamento di defezione possa essere individuato con corrispondente aumento dell’incentivo a godere del bene senza contribuire a produrlo. In realtà, l’analisi di Olson non tiene conto di un insieme di variabili il cui effetto è, invece, determinante e come tale non può essere trascurato, prima tra tutte l’eterogeneità dei soggetti partecipanti all’azione collettiva. Hardin (1982), autore di uno dei testi più autorevoli sull’argomento, sottolinea la centralità della eterogeneità di risorse ed interesse: un piccolo insieme di soggetti molto motivati e dotati delle risorse necessarie è in grado di fornire il bene anche senza la cooperazione altrui, costituendo il c.d. sottogruppo efficace. Per il movimento Open Source si potrebbe pensare che il sottogruppo efficace teorizzato da Hardin, la cui presenza è essenziale per la riuscita dell’azione collettiva, sia composto dagli hacker. Le loro “maggiori risorse” sono rappresentate dall’incontestabile know how posseduto nel campo dell’informatica, mentre il più accentuato interesse deriva sia dalla soddisfazione intellettuale insita nella scrittura del codice sia dalle necessità di lavoro o ricerca accademica sia dalla volontà di guadagnarsi una reputazione e segnalare il proprio talento. L’azione di fornitura è resa, inoltre, più efficace dal fatto che il bene codice sorgente è non rivale nel consumo. I benefici da esso apportati sono, infatti, invarianti rispetto al 9 numero dei suoi utilizzatori: chiunque può scaricare il sorgente dalla rete, compilarlo e utilizzarlo senza che questo riduca la possibilità di farlo per altri soggetti. Questo contribuisce a confutare la tesi di Olson: Chamberlain (1974) dimostra che, nel caso di beni collettivi non rivali, l’ammontare fornito cresce al crescere della dimensione del gruppo. Le conclusioni di Hardin danno conto di come il software Open Source sia prodotto dagli hacker “più interessati”, ma non di come alla sua produzione collaborino anche altri soggetti, realizzando una cooperazione che si sta facendo sempre più estesa. A questo proposito si può allora fare riferimento alla teoria della Massa Critica, proposta inizialmente da Schelling (1978), sviluppata in sociologia da Marwell, Oliver e Prahal (1993) e ripresa in economia da Witt (1997) e Huberman (1998). La presenza dei soggetti molto interessati fa sì che si superi la fase iniziale del processo di fornitura del bene collettivo, quella in cui per la maggior parte dei soggetti il costo della contribuzione eccede il beneficio. Superata tale fase, sempre più soggetti trovano vantaggioso contribuire. Si innesca così un circolo virtuoso che fa sì che il fenomeno si autosostenga procedendo verso il nuovo equilibrio dove tutti i membri del collettivo scelgono la cooperazione. In quest’ottica il ruolo dei soggetti molto interessati non è quello di fornire interamente il bene, ma di creare le condizione necessarie perché la sua produzione diventi più agevole. Il loro compito è quello “essere i primi a cooperare”, favorendo il superamento della fase di start up dell’Azione Collettiva. Questo schema interpretativo sembra spiegare bene la dinamica dei progetti Open Source nati con un piccolo gruppo di soggetti che lavorano per raggiungere un particolare obiettivo. Se il gruppo riesce a trovare soluzioni valide in questa fase iniziale, pubblica i propri risultati su Internet pubblicizzando su mailing lists e newsgroup l’esistenza del progetto. A questo punto il progetto può imboccare due strade: attrarre un numero crescente di contributori o non destare alcun interesse. Nel primo caso si avrà un progetto Open Source ben strutturato, si pensi al caso di Linux, nel secondo il progetto andrà a morire secondo lo schema del “dying seminar” descritto da Schelling (1978). 10 2. Il problema del “non sexy work” e l’emergenza di modelli di business ibridi Lo schema fin qui presentato può essere sufficiente per spiegare le attività di sviluppo che presentano caratteri intrinseci di gratificazione assimilabili alla produzione artistica e scientifica e effetti di segnalazione del talento, ma non è assolutamente convincente per gran parte delle attività di programmazione c.d. “non sexy”, quali le interfacce grafiche, la redazione dei manuali tecnici, l’attività di supporto nei newsgroup. Nonostante su quest’ultimo punto si siano raccolti dati empirici (Lakhani, von Hippel, 2001) che evidenziano motivazioni non dissimili da quelle di chi risolve complessi problemi di programmazione, il problema della motivazione a svolgere attività di sviluppo a basso valore tecnologico all’interno di comunità nelle quali i valori della creatività, della produzione artistica e della reputazione sono fondanti è uno dei più difficili per l’intero paradigma. È appena il caso di menzionare che queste attività, mentre hanno un basso contenuto innovativo, sono viceversa fondamentali ai fini dell’adozione del software da parte degli utenti. Si pensi ad esempio alle due più famose interfacce grafiche per Linux: KDE e Gnome, ideate nel 1998, hanno messo a disposizione degli utenti Linux l’ambiente desktop mouse driver che da qualche tempo si è imposto come standard nel mondo commerciale favorendo sia l’adozione del sistema operativo di Torvalds da parte dei soggetti meno skilled sia il passaggio ad esso di parte degli utenti Window e Mac. L’analisi economica della diffusione ha chiarito da tempo, infatti, che, mentre le discontinuità tecnologiche sono responsabili dell’apertura di nuove traiettorie, la diffusione nel sistema economico dipende da una serie cumulata di modeste innovazioni incrementali, in molti casi di nessun interesse tecnologico intrinseco. Questo problema sembra essere risolto dalla nascita di nuovi modelli di business “ibridi”. Esiste, infatti, complementarità tra lo sviluppo di programmi da parte della comunità degli sviluppatori Open Source e la nascita di nuove imprese che producono software libero, lo cedono gratuitamente ai clienti e poi spostano il valore dalla licenza al service facendo pagare servizi aggiuntivi di packaging, consulenza, manutenzione, aggiornamento e training. Questo modello di business è largamente accettato in tutta la comunità di sviluppatori e utenti, attraverso una regolazione minuziosa, non priva di sviluppi giuridici innovativi, del rapporto tra prestazioni gratuite e prestazioni a 11 pagamento. Moltissime imprese di successo già affermate sul mercato adottano varianti di questo modello di business. Tra queste Red Hat non solo ha resistito all’esplosione della bolla speculativa che nella primavera del 2000 ha cancellato molte imprese tecnologiche, ma continua a fare profitti. La missione aziendale di quest’impresa, che ha fornito software per le missioni spaziali della Nasa, è paragonata a quella di un costruttore di auto. Così come nell’industria dell’auto i vari pezzi prodotti da diverse industrie sono assemblati per creare un prodotto che si adatti alle esigenze del consumatore, Red Hat riunisce e compila il codice sorgente del sistema operativo Linux ottenendo un eseguibile pronto per l’installazione che distribuisce assieme ad applicazioni accessorie (una tra tutte il programma Gimp per la gestione e la modifica delle immagini) e una ricca documentazione in un CD che ha un prezzo inferiore ai cento dollari. A Red Hat si stanno recentemente affiancando sia nuovi soggetti che forniscono servizi di supporto per software Open Source sia i giganti dell’industria del software che, preso atto che il futuro vedrà l’inevitabile coesistenza dei due paradigmi, decidono di rendere compatibili i loro prodotti con le piattaforme Open Source, di rilasciare il codice sorgente di alcuni software e, addirittura di partecipare a progetti Open Source. Così se l’Apple rilascia il codice sorgente del Mac Server OS X, Sun ha prodotto in Open Source la Suite StarOffice per opporsi allo strapotere di MS Office di Microsoft e nel dicembre 2000 IBM ha annunciato di voler investire un miliardo di dollari nello sviluppo di Linux per promuovere la diffusione delle sue piattaforme di ebusiness. I descritti modelli di business ibridi, che sono assolutamente essenziali alla diffusione dell’Open Source, sono resi possibili anche dalla proliferazione delle licenze di cessione del software che è possibile far rientrare nello schema dell’Open Source. Rispettati, infatti, i criteri fondamentali dell’Open Source, ossia il pieno accesso al codice sorgente, la piena usabilità del software da esso originato, la libertà di modificarlo e ridistribuire i risultati delle modifiche, chiunque è libero di elaborare una propria licenza OSS. Accanto alla più famosa (e più estrema) GPL sotto la quale sono rilasciati Linux e oltre l’ottanta del cento della produzione Open Source, è così stato elaborato un vasto insieme di licenze alcune delle quali, come la BSD (Berkeley Software Development), permettono l’appropriazione delle modifiche effettuate su codice Open Source. Altre licenze poi, pur non essendo Open Source perché proteggono il diritto d’autore 12 dell’impresa produttrice, prevedono la pubblicazione del codice sorgente e lo rendono utilizzabile da determinate categorie di soggetti. E’ il caso della Apple Public Source Licence di Apple e della Sun Comunity Source Licence di Sun. Oltre che per il ruolo giocato nella diffusione, l’importanza dei modelli ibridi sta nel fatto che essi risolvono simultaneamente due problemi: da un lato rassicurano i potenziali adottanti circa l’ampia disponibilità di servizi complementari, che sono percepiti come decisivi per l’affidabilità e l’effettiva usabilità dei programmi software, dall’altro forniscono incentivi monetari per lo svolgimento delle attività di sviluppo “non-sexy”, per le quali le motivazioni tipiche della comunità Open Source non sono sufficienti. Senza contare poi che l’esistenza di soggetti commerciali che impiegano software Open Source è una garanzia della futura sopravvivenza del software stesso. Un fattore chiave per la decisione di adozione è la sicurezza che il software continuerà ad essere prodotto e sviluppato evitando così agli utenti cambiamenti di applicativi e piattaforme che comportano alti costi di switching in termini di infrastrutture e training del capitale umano. La coesistenza di modalità a pagamento e gratuite è una chiave di lettura della affermazione del movimento Open Source. Appartiene quindi alla stessa dinamica di diffusione del software libero la necessità di “ibridare” forme di remunerazione diverse all’interno di modelli di business innovativi. Sotto questo profilo, lo studio dettagliato delle licenze GPL e delle sue numerose varianti sopra citate, come pure dei contratti in uso presso le nuove imprese che sull’Open Source vivono e fanno profitti rappresenta un’interessante sfida per la ricerca economica. 3. L’Open Source in cifre: la rilevanza empirica del nuovo paradigma di produzione del software La dimensione del fenomeno Open Source può essere valutata sia osservando la quantità e la natura del software prodotto sia la sua diffusione nel sistema economico e sociale. Per quanto riguarda questa seconda dimensione, un ruolo particolare è rivestito dall’adozione da parte della pubblica amministrazione. Il settore pubblico, infatti, possiede il peso necessario a far sì che i nuovi standard liberi possano imporsi in sostituzione di quelli proprietari attualmente dominanti. 13 Studi condotti nel 2001 (Ghosh, Prakash, 2001; Schimitz 2001) segnalano la presenza di circa 12.000 progetti Open Source attivi. Considerato che ad ogni progetto lavorano in media venti programmatori e che si stima che ciascuno di essi contribuisca in media a due progetti si ottiene una comunità di sviluppatori composta di circa 120.000 unità che hanno prodotto oltre 1000 megabyte di codice per un totale di circa 25 milioni di linee. Il numero di progetti posti su Internet è in continua crescita: a fronte di molti progetti che sono destinati a morire, ve ne sono altri che raccolgono un crescente successo. Tra i più citati (oltre al sistema operativo Linux e al web server Apache) vi sono BIND, il programma che opera la risoluzione del DNS e Sendmail per lo scambio di posta elettronica. Questi due software hanno rappresentato nel loro mercato le cosiddette killer application: nessun concorrente commerciale è riuscito (o ha voluto) ad intaccare la loro indiscussa supremazia. Caratteristica peculiare della produzione in Open Source è l’elevata concentrazione dei contributi, si calcola, infatti, che al primo 10% degli autori sia dovuto oltre il 70% del codice totale con ben il 20% fornito dai primi dieci autori, principalmente università e centri di ricerca. A ciò fanno riscontro grosse differenze nella produttività degli autori stessi. Mentre solo 25 autori partecipano a più di 25 progetti, la stragrande maggioranza ne segue uno solo. La medesima struttura concentrata si ritrova all’interno dei singoli progetti. Secondo Mock e al. (2000) ai 15 più prolifici sviluppatori di Apache si deve l’aggiunta di quasi il 90% delle linee di codice mentre uno studio condotto sul progetto GNOME (Koch, Schneider, 2002) evidenzia la presenza di 301 programmatori, a 52 dei quali si deve l’ottanta per cento del codice. La stessa evidenza si ritrova nello svolgimento del “non sexy work”: degli oltre 7.000 soggetti che hanno fornito help on line per il Web server Apache, solo 100 hanno fornito il 50% delle risposte. Passando poi ad esaminare la diffusione dell’Open Source software, degna di nota è la crescita di Linux la cui quota di mercato aumentava nel 1998 di oltre il 200 per cento. Nel 1999 la SuSe, la più importante società tedesca di distribuzione del sistema operativo di Torvalds, incrementava i suoi profitti del 350%. L’esplosione della bolla speculativa nella primavera del 2000, ha rallentato ma non arrestato la tendenza: il numero di utenti Open Source continua a crescere. Esistono, tuttavia, forti differenze tra il mercato dei server e quello dei client (con particolare riferimento al caso dei desktop) che sono evidenziabili sia a livello generale, 14 sia osservando l’adozione delle imprese e del settore pubblico. Mentre sul lato client la Microsoft ha potuto sfruttare la posizione dominante guadagnata con MS Dos e la famiglia dei Windows4, ciò non si è verificato nel caso dei server Web: Netcraft calcola che attualmente circa il 61% degli Internet Web server impieghi Apache. Buona è anche la diffusione nel caso dei general-purpose server (LAN o Intranet aziendali). Alle stime di Gartner Group (2001) che attribuiscono a Linux il 10% dei server esistenti negli Stati Uniti si affiancano quelle di IDC (2001) che parlano, invece, del 27%5. Dal lato server si registra anche la maggior adozione da parte della PA europea che equipaggia con software Open Source l’8% dei suoi server a fronte dell’1% dei suoi client (Schmitz, 2001). Le punte maggiori si registrano in Germania e Francia dove intere organizzazioni sono passate all’Open Source6. Per quanto riguarda il mondo business Forrester (2001) con un’indagine condotta tra le 2.500 Top Company americane, trova che il 56% di esse usa qualche forma di Open Source, la maggior parte del quale riguarda i server web (33%). Sorprendente il dato relativo ai software per la gestione di database: il 42% è Open Source a fronte dell’1% dell’impiego nei normali computer da ufficio. Ottime le prospettive di sviluppo evidenziate: si calcola che, entro il 2004, il venti per cento degli attuali investimenti in licenze sarà spostato ai servizi e al training del personale. Simile, anche se su scala minore, la situazione nelle piccole e medie imprese italiane. Una ricerca condotta per conto di SuSe Italia da Congenio s.r.l. e presentata a SMAU 2001, evidenzia come su 414 PMI industriali 16 utilizzino Linux come sistema operativo dal lato server mentre una soltanto lo fa sul lato client dominato da Windows con una quota che sfiora il 90%. E’ interessante notare, tuttavia, che quasi l’ottanta per cento degli amministratori di sistema delle intervistate dichiara di conoscere Linux e il movimento Open Source in generale con punte che sfiorano il novanta per cento se ci si concentra sulle medie imprese. Tra i fattori che spiegano l’utilizzo di Linux sul lato server predominano la stabilità e la sicurezza mentre tra le motivazioni dell’utilizzo di Windows sul lato client la facilità d’uso è dominante. Oltre il 25% dei soggetti vede la 4 Il sistema operativo Windows 3.1 che ha raccolto a pieno l’eredità di Lisa della Apple e di X Windows di Xerox Parc nello sviluppo di interfacce grafiche mouse driver, è apparso ad inizio anni Novanta le due interfacce grafiche per Linux, KDE e Gnome compaiono alla fine del medesimo decennio. 5 Le prestazioni del software Open Source sono particolarmente buone del campo dei database server con MySql e PostgreSql. 6 Il governo francese è particolarmente attivo nel promuovere la diffusione di software Open Source. Nel 1999 soluzioni Open Source erano adottate dal Ministero della Difesa, dell’Educazione, della Ricerca, delle Finanze. 15 possibilità di un mutamento di sistema operativo dal lato client e questo fornisce indicazioni circa la futura diffusione dell’Open Source in quest’ambito. In particolare la quasi totalità degli utilizzatori di Linux dal lato server è favorevole al suo impiego anche sul lato client. Del resto la piccola e media impresa sembra rappresentare il terreno di elezione per la diffusione del software libero: liberando le risorse prima deputate all’acquisto delle licenze, infatti, è possibile migliorare il parco macchine e il training del personale permettendo l’adozione di soluzioni ITC tecnologicamente avanzate anche in realtà di ridotte dimensioni che spesso possiedono un budget limitato. 4. Il Problema del Coordinamento: Modularità del Software, Reusability e Ruolo della Rete Internet E’ inevitabile che un economista, osservando i sorprendenti risultati raggiunti dal movimento Open Source si chieda: “how do coordinate the efforts of potentially hundreds of developers wordwide?” (Hecker, 1999). Questo a prima vista sembra impossibile, anche se in realtà accade: i progetti Open Source esistono e, i “relatively loosely coordinated software development products” (Hecker, 1999, 50) riescono a sfidare la concorrenza degli equivalenti commerciali. Raymond (1999, 224) osserva ironicamente che prima dell’esperimento Open Source “tutta la tradizione della progettazione del software era dominata dalla legge di Brooks secondo cui un progetto al quale abbiano contribuito migliaia di sviluppatori non può essere che un accozzaglia di codice instabile e traballante”. In cerca di una possibile spiegazione, alcuni protagonisti del movimento sono giunti a riprendere il concetto di “ordine spontaneo”(Perkins, 1999), paragonando il meccanismo di coordinamento spontaneo e decentrato a quello che sta alla base dell’incontro tra domanda e offerta nei mercati e al funzionamento della mano invisibile. Si tratta di una spiegazione che non può essere accettata in prima battuta, ma che è necessario arricchire con considerazioni che riguardano, da un lato, la tecnologia di produzione del software, dall’altro i nuovi strumenti di comunicazione resi possibili dalla rete Internet. Per quanto riguarda il primo aspetto, Glass (1999) osserva come “object orientation seemed destined to make software development a matter of fastening Lego components 16 together”. Non costituendo un’entità monolitica i programmi possono essere divisi in moduli da ricomporre e riutilizzare in vario modo. La quasi totalità degli sviluppatori del kernel Linux lavora in modo ordinato ai subsystem del kernel in cui i file hanno lo scopo di far dialogare il computer con le periferiche o di permettergli la lettura di file video o audio. I concetti di modularity e reusability (Bonaccorsi, Rossetto, 1999) stanno quindi alla base dello sviluppo del software e sono resi ancora più effettivi dalla condivisione di un protocollo comune (linguaggio di programmazione) dove gli errori sono individuati e corretti attraverso il meccanismo della compilazione. Un chiaro esempio delle suddette caratteristiche è l’utility Grep (acronimo di Generalised Regular Expression Parser), scritta in linguaggio C, che permette di individuare un file contenente un particolare testo: in sintesi una versione più sofisticata del Find di MS-DOS. Grep è una componente di Linux ma è stata scritta prima della sua nascita e può essere impiegata all’interno di altri sistemi operativi. Secondo Linus Torvalds (1999), nella modularità sta appunto la chiave del successo dell’Open Source. Parlando di Linux egli afferma che “quello che ci serve è un sistema il più possibile modulare. Il modello di sviluppo Open Source lo vuole, per non avere gente che lavori simultaneamente sugli stessi punti” e la fonte della modularità di Linux è nel suo “kernel monolitico”. Il coordinamento è reso possibile quindi da una oculata scelta tecnica che in parole semplici è quella di “tenere il kernel piccolo e limitare al minimo il numero di interfacce e di altri vincoli al suo sviluppo futuro” in modo tale che i programmatori possono aggiungere moduli senza “pestarsi i piedi l’uno con l’altro” (Torvalds, 1999, 117-118). Tuttavia anche queste premesse non sono a illuminare il problema del coordinamento, in quanto manca un tassello fondamentale: come avviene la comunicazione tra i programmatori? L’esplosione del movimento Open Source, che trova nel sistema operativo di Torvalds la sua massima espressione, ha coinciso, di fatto, con la sorprendente diffusione di Internet e con l’espansione dell’industria degli Internet Service Providers, che ha permesso la fornitura di connettività al grande pubblico a prezzi sempre più bassi. Attualmente la rete è il luogo virtuale dove i programmatori si incontrano rendendo effettivo il nuovo modello di sviluppo: “once an Open Source file is posted to the Web, talented programmers world-wide can download it and begin 17 tinkering” (Sanders, 1998, 80). In un certo senso il Word Wide Web è diventato il regno incontrastato del fenomeno Linux: si calcola che le pagine Web dedicate al sistema operativo di Torvalds sono ”in the neighborhood of three millions”(Wallich, 1999, 44). Siamo quindi di fronte ad un fenomeno di coordinamento che sfrutta profonde innovazioni intervenute: - a livello dei singoli task, che sono resi più facilmente interfacciabili dalla evoluzione della tecnologia software; - a livello della architettura, che è resa modulare in generale dall’evoluzione dei linguaggi di programmazione e in particolare dalle scelte strategiche di Linux sul kernel; - a livello dei costi di comunicazione, che sono abbattuti e resi trascurabili dall’avvento di Internet. Sotto queste condizioni il coordinamento gerarchico non è strettamente necessario. Al contrario, esso rischierebbe di deprimere le motivazioni intellettuali, estetiche e di divertimento che sembrano intrinseche alla comunità dei programmatori. Il coordinamento viene assicurato da forme di leadership basata sulle competenze di programmazione, che somigliano più alla legittimazione della comunità scientifica che alla catena di comando di una impresa. 5. Il problema della diffusione: software Open Source ed esternalità di rete I meccanismi alla base della diffusione dell’Open Source sono ancora poco chiari persino ai suoi padri fondatori. Constatando che Linux, “è usato per il controllo dei sistemi robotizzati e ha volato a bordo dello Shuttle”, Torvalds (1999) afferma: “ho avvertito sì la transizione dall’essere l’unico utente di Linux all’essercene un centinaio, ma quella da cento utenti ai milioni mi è sfuggita”. Poiché la vasta letteratura sui processi di diffusione delle tecnologie, coinvolge, oltre all’economia, discipline quali la sociologia o la geografia (Rogers, 1995), diviene importante circoscrivere l’ambito di analisi facendo riferimento alle caratteristiche del bene oggetto di diffusione e dei soggetti chiamati a domandarlo. Accettando la definizione di Varian e Shapiro (1999, 3), secondo cui “è informazione tutto ciò che può essere digitalizzato, ovvero rappresentato come sequenza di bit”, il software è 18 senz’altro informazione. Dal punto di vista economico la produzione di informazione si caratterizza per avvenire con alti costi fissi e costi marginali trascurabili: tutta la massa del costo è concentrata nella prima copia i cui costi di riproduzione sono, invece, estremamente ridotti. Dal lato della produzione il software presenta forti economie di scala: quante più copie si producono e si vendono, tanto più l’alto costo della prima sarà assorbito dal bassissimo costo delle successive. Dal lato della domanda, invece, si osserva il fenomeno dell’esternalità di network, nota anche come “demand-side economy of scale” (Bensen e Farrell, 1994). Questo tema ha dato vita ad un’immensa mole di contributi da quando, nel 1985, Katz e Shapiro ne hanno fornito la più esauriente definizione: “The utility that a user derives from consumption of the good increases with the number of other agents consuming the good”. Accanto ad essa gli autori forniscono anche un’esaustiva classificazione delle fonti di esternalità: così l’esternalità può essere diretta o indiretta a seconda che derivi dall’appartenenza “fisica” dei soggetti ad una rete o da “market-mediated effects” (Farrell e Saloner, 1985) nel caso di beni complementari. L’esempio più citato per il caso di esternalità diretta è quello delle “reti di comunicazione” quali il fax o il telefono la cui l’utilità per i potenziali adottanti dipende in maniera cruciale dal numero di altre famiglie o imprese che fanno parte delle corrispondenti reti. Chiaramente vi è l’esternalità di network diretta anche quando i consumatori appartengono una rete che non è fisica, ma virtuale come nel caso degli utenti di uno stesso sistema operativo. L’esternalità indiretta caratterizza, invece, il cosiddetto paradigma hardware-software in cui due o più beni complementari sono uniti a formare un sistema che per operare ha necessita dell’apporto di tutte le componenti. L’esternalità positiva deriva dal fatto che “un bene complementare diventa più economico e disponibile in maniera più veloce al crescere del mercato del bene con esso compatibile” (Farrell e Saloner, 1985, 71). E’ questo il caso dei computer e dei programmi per elaboratore, del giradischi e dei dischi, delle videocassette e dei videoregistratori il cui mercato è stato teatro di una delle battaglie commerciali più discusse dalla teoria economica: quella tra il VHS di Matsushita e il Beta della Sony. A queste due fonti principali se ne affianca una terza che si verifica per i beni durevoli quando “la qualità e la disponibilità dei servizi collegati al bene…dipende dal numero di unità del bene che sono state vendute”(Katz e Shapiro, 1985, 424): si pensi ai servizi di 19 manutenzione forniti dalle case automobilistiche, tanto più affidabili e facilmente reperibili quanto maggiore è il numero di auto di quella casa in circolazione. Gli utenti dei programmi per elaboratore sono sottoposti principalmente al primo tipo di esternalità: l’esempio classico è quello dello scambio di file. Chi possiede lo stesso programma per la gestione di un dato tipo file può leggere e modificare i file ricevuti da altri soggetti che, a loro volta, potranno compiere le medesime operazioni. Da ciò deriva l’importanza di condividere un particolare tipo di software: il sistema operativo al quale è deputata la gestione del “file system” dell’elaboratore. Le esternalità di network hanno rilevanti conseguenze sulla struttura del processo di diffusione che, nel caso particolare, corrisponde al problema dell’affermazione di uno standard. In particolare il processo diffusivo risulta esposto ad esiti di path dependence e di lock-in (Arthur, 1989, 1994, 1996). Situazioni in cui, cioè, un piccolo vantaggio iniziale a favore di uno standard è sufficiente perché esso si imponga, conquistando tutto il mercato che resta, in seguito, bloccato su di esso per la presenza di elevati costi di switching. I concetti di lock-in e path-dependence sono stati recentemente oggetto di un acceso dibattito rispetto al quale. proprio la natura delle tecnologie di Open Source consente di formulare alcune precisazioni rilevanti. Liebowitz e Margolis (1996), sottolineano come l’analisi degli standard da parte della teoria economica enfatizzi il rischio di incorrere nella “trappola” ben esemplificata dalle conclusioni di David (1985) riguardo alla battaglia Qwerty- Dvorak: “Se ci sono solo tastiere QWERTY, i dattilografi studieranno solo le tastiere QWERTY, ma se i dattilografi studiano solo QWERTY, ci saranno solo tastiere QWERTY”. Per spiegare come questo si verifichi, David fa riferimento ai lavori di Arthur sull’operare dei rendimenti crescenti nel processo di diffusione di due tecnologie in competizione tra loro, per cui, più una tecnologia è adottata, più alta è la probabilità che lo sarà in futuro. I rendimenti crescenti sono immediata conseguenza delle esternalità di network, tanto che Witt sostiene che i due termini possono essere utilizzati come sinonimi (1997). Data allora la presenza nel processo di diffusione del software delle esternalità di network dirette descritte in precedenza, il meccanismo del lock-in sembra essere un esito inevitabile: se un software riesce a guadagnare una fetta consistente di mercato, si innesca un circolo virtuoso per cui i consumatori avranno ancora più incentivo a 20 adottarlo, aumenterà l’offerta di prodotti complementari (applicativi, manutenzioni) e detto software dominerà il mercato divenendo lo standard. In Arthur et al. (1983) il concetto è formalizzato con la teoria delle Urne di Polya. Lo schema è quello del campionamento con ripetizione da un’urna contenente palline rosse e blu, nella quale ogni volta che si estrae una pallina di un dato colore se ne aggiunge un’altra del medesimo colore. In ogni periodo t, la probabilità di aggiungere palline rosse è una funzione crescente della proporzione di palline rosse che è presente nell’urna, mentre lo stesso vale per le palline blu. Si dimostra che, quando il numero di palline tende all’infinito, la proporzione di palline dello stesso colore converge in probabilità ad uno. Spiegato il lock-in, resta però da spiegare cosa lo innesca: Arthur fa riferimento alla presenza di “small events” (1989, 116) che possono “by chance” dare ad una delle due tecnologie il necessario vantaggio. Se così stanno le cose, non esiste nessuna difesa dalla possibile affermazione di tecnologia inefficiente a scapito di un’altra che, se adottata, sarebbe sicuramente superiore. E’ appunto quello che David sostiene essere accaduto per le macchine per scrivere QWERTY, di fatto inferiori per prestazioni alle di DSK di August Dvorak. Lo sviluppo dell’Open Source contraddice questa previsione, in quanto esso guadagna terreno sullo standard dominante rappresentato da Microsoft facendo pensare che tra i due si arriverà ad un equilibrio in cui i due paradigmi convivono fianco a fianco. Occorre quindi cercare di spiegare come un nuovo standard possa affermarsi in presenza di un altro già consolidato e come due standard possano convivere. In un articolo del 1997, Witt osserva come la dimostrazione matematica del lock-in dipenda dalle assunzioni iniziali, mutando le quali l’autore riesce a dare conto di come “a newly introduced technology can successfully disseminate in a market despite existing network externality” (Witt, 1997, 753). Le ipotesi di Arthur sono difficilmente difendibili nel caso del software. L’autore assume innanzitutto che le due tecnologie in competizione arrivino sul mercato nello stesso momento. Si tratta della “virgin market condition” (Witt, 1997, 762), certamente non sostenibile nel caso del software dove il sistema operativo Linux si trova a competere con il predominio decennale dei sistemi basati e derivati da MS-DOS. Allo stesso modo, non è mai vero che il mercato potenziale di una tecnologia è infinito (“the scope of the market for any product is limited” (Witt, 1997, 763)) e che le scelte della 21 sua adozione non sono rivedibili. Questo vale in particolare nel caso dei programmi per elaboratore che hanno un mercato in crescita ma necessariamente limitato (il loro utilizzo non è indispensabile in ogni attività umana!) e non prevedono investimenti in capitale fisso tali da determinare proibitivi costi di revisione delle scelte. Difficilmente sostenibile è poi l’indipendenza delle scelte individuali ipotizzata da Arthur. L’influenza degli altri soggetti del sistema sulle scelte di adozione delle tecnologie è ampiamente esaminata dalla teoria economica, a partire dai primi studi di matrice epidemiologica, in cui la diffusione avviene per contagio dei non adottanti da parte degli adottanti (Mansfield, 1961; Bass, 1969, 1980), fino ai recentissimi modelli di interazione locale7 in cui ogni le decisioni di ognuno sono influenzate da quelle di un sottoinsieme di soggetti, definiti a lui vicini sulla base di un’appropriata metrica. Alle interazioni locali fanno riferimento Dalle e Jullien (1999) per spiegare la diffusione del sistema Linux in sostituzione di Window NT. Secondo gli autori per un utente di un sistema operativo non è rilevante tanto il numero totale degli altri soggetti che lo utilizzano quanto il numero di coloro che lo fanno all’interno del gruppo con cui normalmente l’individuo interagisce. Emerge qui una diversa fonte di diversità tra i soggetti classificata da Manfredi et al. (2000) come “eterogeneità sociale”. Le differenze tra gli agenti non riguardano soltanto le loro caratteristiche intrinseche ma anche la rete delle relazioni sociali che sono in grado di attivare al fine di ottenere informazioni che li aiutino nel loro processo di scelta. Le caratteristiche di tale rete sono diverse a seconda che i nodi siano rappresentati da utenti di software Open Source oppure da chi impiega software commerciale. Un fenomeno diffuso nell’Open Source è, infatti, la cosiddetta “Advocacy” teorizzata dalle figure di spicco del movimento. Si tratta di una sorta di marketing one-to-one, in base al quale gli utenti dei programmi Open Source sono invitati a convincere altri membri del loro collettivo di riferimento a fare altrettanto, e ad abbandonare il mondo commerciale. L’Advocacy ha una crescita esponenziale: tra gli scopi vi è quello di trasformare un soggetto in un nuovo adepto del movimento e quindi in un potenziale “avvocato”. Il ruolo di un “Open Source advocate” è allora assai simile a quello dei “diffusion agent” discussi da Witt, che non solo diffondono informazioni circa la nuova tecnologia ma anche provano a convincere un gruppo di potenziali adottanti a farlo simultaneamente in modo da contrastare le diseconomie che, 7 Per una rassegna dei modelli di interazione locale si veda Fagiolo G. (1998) 22 in presenza di esternalità di network, penalizzano chi sceglie per primo una nuova tecnologia. Il processo di diffusione del software Open Source sembra quindi soddisfare le ipotesi che Witt dimostra essere alla base dell’esistenza di Masse Critiche nel processo di spread della nuova tecnologia e che permettono appunto l’avvicendarsi degli standard. Secondo Schelling (1978) il termine è mutuato dalla fisica ed indica la quantità di combustibile radioattivo necessaria ad innescare la fissione nucleare. Trasponendo questo concetto all’ambito economico e sociale, si parla di effetto Massa Critica quando determinate variabili che caratterizzano un processo superano una data soglia per cui il fenomeno esplode facendo sì che il sistema abbandoni l’equilibrio stabile su cui si trovava posizionato per passare ad un nuovo equilibrio altrettanto stabile. Nei modelli di diffusione di tecnologie la suddetta variabile è rappresentata dal numero di adottanti. Le simulazioni di Dalle e Jullien analizzano il fenomeno della Massa Critica, definita “thresholds effects” (1999, 14) nel sentiero di diffusione di Linux generato dal modello. Osservano che la sua emergenza dipende dal valore assunto da un particolare parametro α, che è una misura della “preferenza degli utenti per la standardizzazione” all’interno della loro rete di riferimento: più grande è α, più i potenziali utenti sono propensi a adottare lo standard attuale, ossia Window NT. Tale parametro è quindi anche una misura della forza del “proselitismo” degli utenti di Open Source: minore è α, maggiore è la loro forza all’interno di ogni rete locale. Le simulazioni evidenziano la presenza di “thresholds effects” quando il valore di α è sufficientemente basso. Altri autori sono concordi nel riconoscere l’importanza rivestita in quest’ambito dalle aspettative che possono riguardare sia le performance della tecnologia (Huberman, 1998) sia l’ampiezza finale della rete di coloro che la utilizzano. Analizzando la diffusione di due tecnologie in competizione tra loro, le cui performance crescono al crescere del numero di chi le adotta, Huberman conclude che il tempo di “attesa” prima dell’insorgenza della Massa Critica decresce quanto più sono ottimistiche le aspettative dei soggetti. La transizione dall’equilibrio iniziale in cui tutti impiegano la vecchia tecnologia a quello in cui la nuova tecnologia ha soppiantato la vecchia, è poi tanto più veloce quanto più i soggetti sono eterogenei. Le sue simulazioni mostrano che, in presenza di un piccolo gruppo di soggetti dotati di propensione ad innovare doppia della 23 media del gruppo, la Massa Critica emerge quasi subito. Di nuovo risultata evidenziato il ruolo degli hacker e della loro cultura nel movimento Open Source. 6. Conclusioni Il confronto tra il paradigma proprietario e quello libero non deve necessariamente essere svolto in termini di superiorità e di minaccia alla sopravvivenza. L’industria privata del software ha dimostrato, fin dalla affermazione della traiettoria microelettronica, di essere capace di guidare processi di progressiva disintegrazione verticale e autonomizzazione dalla industria dell’hardware (Nelson, Winter, Malerba e Orsenigo, 2001; Torrisi, 2001) e di generare notevoli aumenti di produttività e riduzione dei costi di sviluppo (Cusumano, 1998). La disponibilità di software a basso costo, sia su package che su programmi customizzati è certamente uno degli elementi che ha contribuito alla diffusione delle ICT nei paesi avanzati e, in particolare, alla lunga ondata di crescita degli anni ’90. Il paradigma proprietario ha consentito dunque imponenti processi di innovazione. In questo senso è certamente eccessivo sostenere che l’Open Source metta radicalmente in discussione la stessa esistenza di software a pagamento. L’emergenza del software libero come paradigma di produzione non significa necessariamente la fine del software proprietario, ma piuttosto la possibilità di un nuovo equilibrio di coesistenza competitiva. Appare difficile prevedere gli esiti finali di questa dinamica in termini di quote di mercato dei due paradigmi. Tuttavia alcuni elementi fanno ritenere che il paradigma proprietario debba progressivamente convergere verso una accettazione della necessità di rendere trasparente almeno in parte i codici sorgente, entrando di fatto entro un modello di business ibrido. Infatti, da un lato alcuni grandi operatori IT (si pensi a IBM) si sono mossi verso una legittimazione esplicita dell’Open Source e lo sviluppo di soluzioni compatibili sia con standard Microsoft che con Open Source, dall’altro molti grandi utilizzatori industriali e di servizi (governi, grandi imprese), soprattutto in Europa, hanno iniziato a imporre clausole di trasparenza dei codici sorgente nei capitolati di acquisto. A queste tendenze si deve aggiungere la continua nascita di piccole imprese di software che sviluppano soluzioni Open Source, trovando remunerazione nei servizi 24 aggiuntivi. Ciò allarga la base installata del software libero e inizia a creare effetti di esternalità di rete, pur in presenza di uno standard dominante. La diffusione di Open Source ha inoltre avuto dinamiche radicalmente differenziate in funzione della presenza di first mover advantage. Nel settore dei sistemi operativi lato client, sui quali Microsoft era già leader dominante quando Linux ha iniziato la sua vicenda, la quota di mercato di Window supera il 50% su gran parte dei mercati geografici. Al contrario, nel settore dei server Web, dove la tecnologia si è affermata più tardi e il vantaggio di Microsoft non era consolidato, il sistema Open Source Apache è leader incontrastato. Ciò suggerisce che chi gode del vantaggio della prima mossa e aggrega rapidamente effetti di esternalità di rete è nella posizione migliore per dominare il mercato. L’equilibrio competitivo finale si collocherà in un qualche punto intermedio tra i due monopoli, ad una distanza variabile a seconda della area applicativa e della sua storia di competizione. A conclusioni coerenti con questo impianto giunge anche la recente letteratura economica che si è occupata del rapporto tra path dependence e natura dell’equilibrio asintotico di diffusione. Nella prima famiglia di modelli à la Arthur e David, infatti, l’equilibrio dinamico prevedeva la dominanza di una tecnologia su quella concorrente, anche se tecnologicamente superiore. Il risultato era evidentemente rilevantissimo dal punto di vista teorico (affermazione di traiettorie inefficienti e lock-in), ma poco plausibile in una grande varietà di situazioni empiriche. Alcune caratteristiche della formalizzazione e delle assunzioni di base sono tuttavia responsabili di questo esito, mentre modifiche nei modelli possono portare a equilibri di coesistenza tra tecnologie, variamente configurati (Witt, 2000). In generale, la coesistenza appare una situazione più generale (Bassanini e Dosi, 2000). Analizzandone le peculiarità, questo lavoro dimostra come il movimento Open Source non sia “un assurdo” ma possa essere ricondotto all’interno della scienza economica, attraverso i più recenti contributi delle teorie dell’azione collettiva, del coordinamento in assenza di autorità centrale e della diffusione di tecnologie in presenza di esternalità di network. Ciò ha permesso di fare luce non solo su come il fenomeno nasce e trova vasta applicazione economica, ma anche sui meccanismi alla base della sua sempre più massiccia diffusione. Le questioni aperte sono tuttavia ancora molte. Occorre sicuramente una più approfondita analisi dei meccanismi di coordinamento con 25 particolare riferimento al funzionamento esatto dei progetti Open Source, al fine di comprendere il ruolo in essi rivestito sia dai “leader” del progetto sia delle “figure minori” che svolgono il “non-sexy work” Proprio nella ricerca di una spiegazione del perché il “non-sexy work” viene svolto, sta una delle sfide più interessanti verso la totale comprensione economica dell’Open Source. Mentre sia la sociologia sia la teoria economica degli incentivi, riescono a dare conto di come un ricercatore universitario finlandese abbia potuto scrivere il kernel Linux senza essere pagato, maggiori sono le difficoltà nel comprendere cosa spinge un programmatore a lavorare alla realizzazione di una noiosa interfaccia grafica che renda lo stesso Linux user-friendly. Questo punto è fondamentale per due ragioni: da una lato, la tendenza dei programmi Open Source a diventare sempre più user-friendly permetterà la loro diffusione in fasce sempre più ampie della popolazione, dall’altro i programmi user-friendly e l’assistenza all’utente sono il core business di molte delle nuove società che, riuscendo a fare profitti con l’Open Source, dimostrando che nel caso del software il termine libero ha il significato di free speech e non di free beer. Certamente il fenomeno Open Source non è l’unico della nuova società dell’informazione a creare problemi economici interessanti. La trasformazione del software da bene privato a bene collettivo, realizzata da Torvalds e dal movimento successivo sembra inverare la previsione che Kenneth Arrow aveva formulato su American Economic Review nel 1994, avvertendo che in contesti ad elevata innovazione ad intensità di conoscenza i beni non hanno più una natura fissa ma partecipano in grado diverso della natura di bene privato e appropriabile e di bene pubblico e universale. Il fatto che la teoria economica sia attrezzata per lavorare meglio sui casi semplici, con teorie specializzate per i beni privati (i mercati) o i beni pubblici (la finanza pubblica), e sia in affanno sui casi complessi, è ovviamente un suo problema. Fortunatamente, non è un problema del mondo reale, che procede speditamente anche senza la teoria economica. 26 Bibliografia Arrow K. (1994) Methodological Individualism and Social Knowledge. American Economic Review. Arthur W. B. (1989) Competing Technologies, Increasing Returns, and Lock-in by Historical Events. The Economic Journal 99, pages 116-131. Arthur W. B. (1994) Increasing Returns and Path Dependence in the Economy. University of Michigan Press, Ann Arbor. Arthur W. B. (1996) Increasing Returns and the New Word of Business. Harvard Business Review, pages 100-109. Arthur W. B., Ermeliov Y., Kaniovski Y. (1983) On Generalised Urn Schemes of Polya Kind. Cybernetics 19, pages. 61-71. Bass M. F. (1969) A New Product Growth Model for Consumer Durables. Management Science 15(5), pages 215-227. Bass M. F. (1980) The Relation between Diffusion Rate, Experience Curves, and Demand Elasticity for Consumer Durable Technological Innovations. Journal of Business 53(3), pages 551-567. Bassanini A., Dosi G. (2000) Heterogenous Agents, Complementaries, and Diffusion. Do Increasing Returns Imply Convergence to International Technological Monopolies? LEM Working Paper Bensen S. M., Farrell J. (1994) Choosing How to Compete: Strategies and Tactics in Standardisation. Journal of Economics Perspectives 8(2), pages 117-131. Bessen J. (2001) Open Source software: free provision of complex public goods. NBER Working Paper Bezroukov N., (1999) Open Source software as a special type of academic research (critique to vulgar Raymondianism). First Monday 4. Bonaccorsi A. Rossetto S. (1999) Modular Design under Market Uncertainty. Paper Presented to the University of Chicago International Conference on Real Options, July. 27 Chamberlain J. (1974) Provision of collective goods as a function of group size. American Political Science Review 68, pages 707-716. Cogenio s.r.l. (2001) Indagine circa la propensione delle PMI industriali a migrare verso sistemi operativi alternativi: il caso Linux. Report presentato a SMAU 2001. Dalle J. M., Jullien N. (1999) NT vs. Linux or Some Explanation into Economics of Free Software. Paper Presented at “Applied Evolutionary Economics”, Grenoble, June 7-9. David P. (1985) CLIO and the Economics QWERTY. American Economic Review 75, pages 332-337. Di Bona C., Ockman S., Stone M., Eds. (1999). OPENSOURCES. Voci dalla Rivoluzione Open Source. Apogeo, Milano. Economic Review, 84 (2) pages 1-9 Fagiolo G. (1998) Spatial Interactions in Dynamic Decentralised Economies. In Cohendet P., Llerena, P., Stahn, H. and Umbhauer, G. (Eds.), The Economics of Networks: Interaction and Behaviours. Springer Verlag, Berlin. Farrell J., Saloner G. (1985) Standardization, Compatibility, and Innovation. Rand Journal 16, pages 70-83. Forrester (2001) Open Source cracks the code. Fox J., Guyer M., Humburger H (1975) Group size and Cooperation. Journal of Conflict Resolution 19, pp 503-519. Gartner Group (2001) An end-user analysis. Linux server market share: where will be in 2001 and how will grow? Ghosh R., Prakash V. V.(2001) The Orbiten Free Software Survey. First Monday Glass R. L. (1999) Of Open Source, Linux and Hype. IEEE Software 16(1), pages 126128. Glass R. L. (2000) The sociology of Open Source: Of Cults and Cultures. IEEE Software 17(3), pages 104-IBC. Green L. G. (1999). Economics of Open Source Software. http://www.badtux.org/eric/editorial/economics.html. 28 Hardin R. (1982) Collective Action. John Hopkins University Press, Baltimore. Hecker F. (1999) Setting Up Shop: The Business of Open-Source Software. IEEE Software 16(1), pages 45-51. Hermann G., Hertel S., Niedner S. (2001) Motivation of software developers in Open Source projects: an Internet-based survey of contributors to the Linux kernel. University of Kiel Working Paper Hertel G. (2002) Management of virtual teams based on social psycology models. In E.H. White (Editor), Pabst Publisher, Lengerich. Hurberman B., Loch C. (1998) A Punctuated Equilibrium Model of Technology Diffusion. Xerox Palo Alto Research Centre, Palo Alto. IDC (2001) Report available at http://dailynew.yahoo.com/h/zd/20010611/new_report_questions_linux_server_claims _1.html Katz M. L., Shapiro C. (1985) Network Externalities, Competition, and Compatibility. American Economic Review 75, pages 424-444. Koch S., Schneider G. (2002) Effort, co-operation and co-ordination in an Open Source software project: GNOME. Information System Journal 12, pages 27-42. Lakani K., von Hippel E. (2000) How Opwn Source works: “Free” user-to-user assistance. MIT Sloan School of Management Working Paper #4417. Lerner J., Tirole J. (2001) The Open Source movement: key research questions. European Economic Review 45, pages 819-826. Liebovitch E. (1999) The Business Case for Linux. IEEE Software 16(1), pages 40-44. Liebowitz S. J., Margolis S. E. (1990)The Fable of Keys. Journal of Law and Economics 33, pages 1-26. Liebowitz S. J., Margolis S. E. (1996) Market Process and Selection of Standards. Harward Journal of Law and Technology 9, pages. 283-318. Malerba F., Nelson R., Orsenigo L., Winter S. (2001) History-Friendly models: An overview of the case of Computer Industry. Journal of Artificial Societies and Social Simulation 4(3) 29 Manfredi P., Bonaccorsi A., Secchi A. (2000). Heterogeneity in New Product Diffusion. LEM Working Paper. Mansfield E. (1961) Technical Change and the Rate of Imitation. Econometrica 29, pages 741-766. Marwell G., Oliver P., Prahal R. (1993) The Critical Mass in Collective Action. A Micro-social Theory. Cambridge University Press, Cambridge. Mauss M. (1959) The Gift. The form and the reason for exchange in archaic societies. Routledge, London Mockus A., Fielding R., Herbsleb J. (2000) A case study of Open Source software development: the Apache server. In Proceedings of the 22nd International Conference on Software Engineering, pages 263-272. Olson M.(1965) The Logic of Collective Action. Cambridge University Press, Cambridge Massachusetts. Perkins G. (1999) Culture Clash and the Road of Word Dominance. IEEE Software 16(1) pages 80-84. Raymond E. S. (1999) The Cathedral and the Bazaar. http://www.redhat.com/redhat/cathedral-bazar/. Roger E.M. (1995) Diffusion of innovations. Free Press, New York, 4th edition. Rossi C. (1998) Il Problema dell’Azione Collettiva nella Teoria Economica: Una Rassegna di Alcuni Recenti Contributi. Tesi di laurea non pubblicata, Università di Pisa Sanders J. (1998) Linux, Open Source and Software’s Future. IEEE Software 15(5), pages 88-91. Schelling T. (1978) Micromotives and macro behavior. New York, Norton Schimitz P.E. (2001) Study into the use of Open Source software in the public sector. An IDA Study (Interchange of Data between Administrations). Stone M. (1998) Science of the New Renaissance. http://www.edventure.com/release1/1198.html. Torrisi S. (1998) An international study of software industry. Edward Elgar Publishing 30 Torvalds L. (1999) Il vantaggio di Linux. In Open Sources: Voci dalla Rivoluzione Open Source, a cura di Chris Di Bona, Sam Ockman, Mark Stone. Apogeo, Milano. Ullman E. (1998) The Dumbing Down of Programming. 21st Salon, 13 May, http://www.salonmagazine.com. Varian H. L., Shapiro C. Information Rules. Etas Libri, Milano. Wallich P. (1999) Cyber View The Best Things in the Cyberspace Are Free. Scientific American March, page 44. Witt U. (1997) Lock-in vs. Critical Masses. Industrial Changes under Network Externalities. International Journal of Industrial Organisation, 15 pages 753-772. Witt U. (2000) Path-dependence in Institutional Change. In: K. Dopfer (ed.), The Evolutionary Principles of Economics. Cambridge, Cambridge University Press 31