Appunti - Università di Padova

Transcript

Appunti - Università di Padova
Nascita ed evoluzione di Internet 1
1. Introduzione
Da alcuni anni qualsiasi soggetto, anche del tutto privo di competenze tecniche specifiche, può entrare operativamente a far parte di una rete telematica mondiale senza preoccuparsi di come gestire le interconnessioni e garantire l'interoperability. Su questa rete può liberamente scambiare informazioni e anche effettuare transazioni
con qualunque altro soggetto, in qualunque punto del globo. L’adozione di uno standard di comunicazione globale e la convergenza tra telecomunicazioni, computer e tecnologie multimediali hanno generato Internet: un
mezzo di comunicazione estremamente efficace e flessibile, semplice e economico, abbordabile da un vastissimo numero di utenti. Questi caratteri conferiscono al nuovo mezzo enormi potenziali di crescita con orizzonti,
in termini di dimensione del fenomeno e di possibili effetti, ancora largamente inesplorati.
Le precondizioni tecnologiche alla base della rapida diffusione di Internet appaiono sostanzialmente due:
l’esistenza di un’interfaccia end user sufficientemente diffusa (il personal computer, vero terminale multimediale) e la possibilità di utilizzare una rete dagli accessi capillari (ossia di operare da una qualunque utenza telefonica, fissa o mobile, tramite un server locale). Dal punto di vista economico, la crescita di Internet è dovuta al
fatto che per la prima volta si offra a chiunque la possibilità di accedere a una rete incredibilmente estesa a costi
trascurabili, indipendentemente dal ruolo occupato nelle gerarchie sociali o economiche.
Internet è diventata così occasione di incontri virtuali non gerarchici, possibilità di libero scambio di informazione, strumento di ampliamento delle conoscenze. Dato che ad ogni accesso della rete c'è un soggetto in grado
di introdurre dati, elaborare proposte ed esprimere creatività, la rete è qualcosa di vivo e dinamico che produce
continuamente un’enorme massa di nuove informazioni. Molti ritengono che Internet rappresenti un'opportunità
culturale formidabile, rivoluzionaria in senso letterale perchè capace di modificare le prospettive di osservazione; altri, più concretamente, che possa trasformarsi in uno strumento per ottenere risposte a bisogni individuali o
locali, e soprattutto in un’opportunità economica. Si tratta in ogni caso di un fenomeno che potrebbe avere risvolti tecnologici, sociologici e culturali impressionanti. La difficoltà di condurre una valutazione di questa tecnologia ha avallato le prospettive più fantasiose; per questo motivo Internet è stata spesso (e talvolta lo è tuttora)
ancora territorio di divulgatori, di specialisti nell'arte della congettura, di diffusori di mode e (comprensibilmente, viste le implicazioni politico-sociali) di politologi e di ideologi. A questi si affiancano varie classi di operatori economici che si muovono sulla base di interessi diversificati e magari conflittuali.
Tra le difficoltà di un'analisi di potenziali e significati di Internet c'è anche il fatto che le tecnologie che la sostengono e i contenuti che vi risiedono sono soggetti ad un'evoluzione così rapida che lo stato dell'arte può cambiare in pochi giorni, un nuovo paradigma può nascere e morire in pochi mesi. Il fatto che i trend in atto vengano sconvolti da rivoluzioni continue fa cambiare non solo il tipo risposte che è possibile dare, ma modifica anche le domande: rende superati i problemi ancor prima che vengano risolti. Alcuni sostengono ad esempio che
Internet renderà rapidamente obsoleti i tradizionali media: già oggi molta musica e altri prodotti ad alta diffusione vengono distribuiti su siti web, a pagamento oppure scaricati gratuitamente (e talvolta con implicazioni di carattere normativo molto forti); i quotidiani on line sono da tempo una realtà e, nonostante vi siano ancora difficoltà, lo stesso potrebbe avvenire domani per la TV. E soprattutto Internet modificherà radicalmente ruoli e relazioni tra soggetti: di fatto la possibilità di ‘mettersi in rete’ e di stabilire interazioni dirette senza mediazioni
gerarchiche o tecnologiche ha già raggiunto una vastissima dimensione individuale.
Su Internet sono state dette moltissime altre cose: che è luogo, strumento e stimolo per l'immaginazione e per
l'espressione della creatività; che è il nucleo tecnologico di nuovi linguaggi e modelli di comunicazione (la posta
elettronica e i blog, ad esempio, hanno perfino modificato le forme, i contenuti e gli stili della comunicazione:
più intensa e rapida, più asciutta e efficiente). Sono state offerte letture ideologiche: la ‘rete’ come sogno realizzato del villaggio della comunicazione globale, luogo e linguaggio per il confronto e lo scambio one-to one a
livello planetario. In quanto caratterizzata da assoluta libertà di accesso, strumento per l’eliminazione di ogni
disuguaglianza e asimmetria informativa e, in prospettiva, economica. E sul piano sociale e politico, strumento
di democrazia diretta: con Internet è possibile realizzare vaste consultazioni a costi virtualmente nulli, raccogliere in tempo reale opinioni di milioni di persone pro o contro qualunque cosa. Ma anche tutto il contrario:
Internet come possibile mezzo per diffondere in futuro l'entertainment passivo, una cultura di massa unidirezionale e normalizzata forse ancor più della TV (oggi in molti paesi le statistiche dicono che nelle giovani
generazioni l’uso di Internet ha superato largamente la stessa TV; motori di ricerca, siti di social networking, intrattenimento, perfino giochi interattivi sono siti sempre più visitati). Una rete che potrebbe finire con l’essere
1
Questo testo è tratto, con adattamenti e integrazioni, dal capitolo curato da Ettore Bolisani e Giorgio Gottardi nel volume
Garrone P., Mariotti S. (a cura di) L’economia digitale, Il Mulino, Bologna, 2001. È redatto per il corso di Gestione
dell’Informazione e delle Aziende in rete dell’Università di Padova: ogni altro uso non è consentito.
dominata da pochi grandi operatori, e quindi portare a sostituire la gerarchia tradizionale con una, assai più efficiente, gerarchia elettronica.
Limitandoci al presente, un aspetto che viene continuamente sottolineato è che Internet offre per la prima volta a
chiunque l’accesso a un enorme volume di informazioni a costi virtualmente nulli. Le formidabili implicazioni
di questa opportunità sono tuttavia messe in discussione da altri, che sollevano il problema della natura e della
qualità dell'informazione circolante in rete: dal punto di vista del singolo utente, si tratta di informazione dotata
di valore o non piuttosto di ‘rumore’ da cui è difficile districarsi? E’ occasione solo per un generico ‘ampliamento delle conoscenze’, oppure può fornire davvero soluzioni a problemi individuali o locali? Una convinzione diffusa è che Internet, per la sua capacità di facilitare relazioni e transazioni economiche, costituisca una gigantesca occasione di business. Secondo alcuni potrebbe anzi rappresentare la strada maestra verso il mercato
globale, inteso come modello di organizzazione dell'economia e come ideologia. Buona parte della letteratura
economica attribuisce a Internet il ruolo di infrastruttura portante della digital economy, motore fondamentale
della crescita di efficienza dei sistemi economici globalizzati. Gli autori più attenti iniziano tuttavia ad esprimere
anche preoccupazioni: ad esempio che in relazione alla natura, ai contenuti e alla modalità di diffusione dei servizi distribuiti via Internet possano manifestarsi nuove gravi asimmetrie, e più in generale rischi di esclusione di
larghe fasce di popolazione. E che non siano affatto improbabili, a causa dell’assenza di mediazioni istituzionali
nell’uso delle rete, rischi di violazioni della privacy, di uso improprio dei dati personali, di diffusione di usi criminosi.
L’analisi del caso Internet è interessante anche perché ripropone alcune fondamentali domande della storia e
dell’economia delle innovazioni. Ad esempio: come nasce una "rivoluzione tecnologica"? E’ il prodotto di un
continuo processo di piccole innovazioni passo dopo passo, o emerge improvvisamente come netta discontinuità
rispetto al passato? E’ pianificabile in anticipo, oppure i risultati sono in larga parte frutto di condizioni e decisioni ‘emergenti’ non prevedibili né progettabili? E inoltre: come interagiscono i diversi attori appartenenti alla
sfera scientifica, economica e politico-istituzionale? Che peso hanno i rapporti di ruolo? Una breve storia di
Internet che richiami le condizioni della sua nascita, le ragioni della diffusione, i caratteri attuali e (cautamente)
le possibili prospettive, non può certo rispondere alla serie di interrogativi posti; tuttavia ci sembra una premessa
indispensabile per riflettere su questi interrogativi.
2. Da Arpanet ai servizi WWW
In un articolo del 1996 intitolato The accidental superhighway, The Economist sosteneva che mentre i giganti
dell'informatica e della comunicazione si confrontavano e si combattevano per imporre ciascuno la propria via
all’interconnessione globale, nello stesso periodo stava nascendo un po’ in sordina quella che sarebbe diventata
la vera infrastruttura mondiale di comunicazione. Una sorta di ‘confederazione di computer’, dominio per oltre
due decenni di militari e scienziati, viene messa alla portata del grande pubblico alla fine degli anni ‘80. Da quel
momento, scombinando opinioni e previsioni accreditate di governi, multinazionali, gestori di telecomunicazioni e ambienti accademici, esplode il fenomeno Internet. Le tappe fondamentali della sua storia possono essere
ripercorse distinguendo tre fasi: la fase militare, quella della ricerca, e quella commerciale.
2.1. La rete come applicazione militare: Arpanet (anni ’60 – ’70)
Anche se Internet è talvolta considerata la metafora del "pluralismo" creativo contrapposta alle gerarchie del
mondo delle telecomunicazioni, la sua origine è molto diversa. La ‘madre di Internet’, Arpanet, viene concepita
dall’agenzia governativa ARPA (Advanced Research Project Agency) negli anni Sessanta, in pieno clima di
guerra fredda, per rispondere al primato che i sovietici paiono aver conquistato nella gara spaziale. La missione
dell’ARPA è stimolare il progresso militare con progetti di valenza strategica, e tra questi lo sviluppo dell'interconnessione tra computer che allora sta diventando tecnicamente fattibile. Gli esperti militari cercano in particolare una soluzione che permetta di superare i limiti delle tecnologie di comunicazione dell’epoca in caso di attacco nemico. Tra le varie idee che emergono vi è quella di connettere tra loro i grandi computer (mainframe)
per rendere la condivisione di dati e risorse di calcolo più efficace di quanto possibile nelle rigide connessioni
mainframe-terminale, basate sulla tecnica time sharing 2 che allora inizia a diffondersi. Nonostante gli obiettivi
militari la tecnologia che alla fine viene sviluppata è frutto di una pluralità di contributi della vasta comunità
scientifica internazionale che lavora all’interconnessione tra computer 3 . Nell’idea di rete che emerge sono adot2. Questa tecnica viene sviluppata nei primi anni '60 per consentire a più terminali di condividere una risorsa di elaborazione centrale (il mainframe). Tra le prime grandi applicazioni il sistema SAGE per l’intercettazione radar, realizzato nel 1962
dalla IBM per conto del Dipartimento Difesa; esperienza utilizzata nel 1964 dalla stessa IBM per il primo sistema di prenotazione area online, SABRE.
3. Fin dall’inizio lo sviluppo di Internet coinvolge scienziati di provenienza diversa tra cui Baran della RAND, Roberts e
Kleinrock del MIT, Davies del British National Physical Laboratory. I vari contributi convergono al simposio del 1967
dell’Association for Computing Machinery, forse il primo confronto pubblico sulla rete globale.
tate tre soluzioni che risultano in seguito determinanti nella concezione della Internet attuale: l’impiego di una
struttura ridondante a maglia sostanzialmente priva di livelli gerarchici (consentendo la comunicazione anche in
caso di spegnimento o guasto di un nodo 4 ), l’adozione della tecnica a commutazione di pacchetto (compatibile
con la struttura a maglia e più efficiente nella comunicazione tra computer), e l’idea di connettere in rete non direttamente i singoli mainframe (gli “host” dei diversi siti che ospitano i dati) ma piuttosto unità di interfaccia tra
host e rete (ciò che facilita la soluzione di problemi di interoperability tra sistemi diversi 5 ). Sulla base di queste
specifiche ARPA indice nel 1968 una gara d’appalto per la realizzazione del progetto pilota. La gara è vinta dalla BBN Corporation, media azienda 6 di Cambridge (Mass.). La progettazione e l’implementazione avvengono
nel corso del 1969, la prima connessione sperimentale il 25 Ottobre 1969 7 .
Proprio in quel periodo, per effetto indiretto della guerra del Vietnam, ARPA subisce un consistente taglio dei
finanziamenti e si trova costretta a focalizzare la propria attività sui progetti già in corso. I responsabili di
ARPANET premono per aggiungere nuovi nodi alla rete, e già nel Luglio 1970 si connettono altri quattro nodi
(tra cui il MIT e la BBN). I primi nodi sono per lo più Università o imprese, pur se coinvolte in progetti militari
(tanto che nel 1972 ARPA, come per ridare un nuovo impulso alla sua funzione istituzionale originaria, cambia
il suo nome in DARPA - Defense ARPA). Tra le prime decisioni della nuova DARPA vi è il progetto di estendere la commutazione di pacchetto a reti wireless dato l’interesse militare di questa tecnologia 8 . La possibilità di
usare i satelliti per estendere ARPANET ad aree sempre più vaste pone anche il problema di rivedere il progetto
iniziale per facilitare la connessione di ulteriori host e delle relative sotto-reti 9 . L’obiettivo ora non è più tanto di
realizzare una rete di computer affidabile, quanto di realizzare l’internetworking, cioè di collegare qualsiasi rete
di computer esistente (il termine Internet verrebbe coniato proprio in questi anni da Kahn, ricercatore ARPA,
come contrazione del termine INTERconnected NETworks; Di Nardo, Zocchi Del Trecco, 1999). Questo richiede la riprogettazione del protocollo fino a quel momento utilizzato, in modo da disporre di un sistema capace di instradare pacchetti di dati indipendentemente dalla sotto-rete di transito 10 e senza la necessità di nodi di
controllo centrale. In questo stesso periodo si inizia a discutere delle prospettive di DARPA, che dopo aver dimostrato la fattibilità tecnica della comunicazione a pacchetto e aver messo a punto la relativa tecnologia anche
per gli apparati militari, ha in sostanza esaurito la sua missione. L’idea di un protocollo standard per connettere
qualsiasi rete interessa moltissimo il mondo scientifico e accademico, sicché un ruolo centrale nello sviluppo di
Internet viene assunto dalla National Science Foundation (NSF). Inizia la fase della rete come applicazione per
la comunità scientifica 11 .
2.2. La rete come applicazione scientifica: Internet (anni ’70 - primi anni ’90)
L’importanza strategica di una rete telematica per studiosi e ricercatori diviene sempre più evidente. La stessa
NSF sottolinea in un rapporto del 1974 che un servizio di rete per la comunità accademica avrebbe creato un
ambiente di avanguardia per la collaborazione e la condivisione di risorse (Di Nardo, Zocchi Del Trecco, 1999).
In quegli anni poi, sulla spinta del crescente successo della tecnologia, vengono sperimentate nella comunità accademica sistemi di rete indipendenti da Arpanet. Nel 1976 nasce presso gli AT&T Bell Labs il protocollo
UUCP (Unix-to-Unix Copy Protocol), che costituisce il mattone delle reti per computer Unix, le prime delle
quali (THEORYNET e USENET) furono implementate proprio da università. Nel 1981, nel tentativo di armo4. Questa struttura, scelta per assicurare la comunicazione militare anche nel caso di guerra atomica, viene proposta da Baran nel 1964 per superare i limiti della rete telefonica del tempo in cui ogni nodo è collegato ad altri di livello superiore secondo una configurazione gerarchica “stellare”: un attacco nemico a pochi hub di controllo può mettere fuori uso l’intero
sistema.
5. L’unità di interfaccia (Interface Message Processor – IMP – precursore degli attuali router) consente la connessione con
altre unità simili e al tempo stesso con il proprio host (che può quindi continuare a funzionare con i propri sistemi operativi). In questo modo si può collegare anche host incompatibili.
6. A conferma che la grande industria informatica va in altre direzioni, colossi come IBM non partecipano nemmeno alla
gara ritenendo che "la rete non avrebbe mai potuto essere costruita” (Hafner, Lyon 1998).
7. I primi quattro nodi di Arpanet sono l’UCLA, lo Stanford Research Institute, l’UCSB (University of California Santa
Barbara) e infine l’University of Utah. Ciascun centro possiede mainframe differenti, connessi tramite IMP utilizzando linee punto a punto dedicate prese in affitto dalla AT&T.
8. In questo periodo vengono realizzate le reti Packet Radio (PRNet) e Packet Satellite (SATNet); e successivamente altre
in collaborazione con enti esterni al territorio statunitense.
9. Nel 1974 Metcalfe sviluppa al centro di ricerca PARC Xerox lo standard Ethernet per reti locali (LAN); la rapida diffusione della tecnologia nel mondo industriale e scientifico contribuisce allo sviluppo di reti indipendenti in numerose organizzazioni.
10. Nella primavera del 1974 Kahn e Cerf pubblicano A protocol for Packet Network Interconnection, che pone le basi del
protocollo TCP/IP, che diverrà però ufficialmente lo standard Internet solo dal 1983.
11. Il passaggio dalla fase “militare” a quella “scientifica” non è ovviamente netto, e non è possibile identificare date precise. La stessa Arpanet rimane sotto il controllo del Dipartimento Difesa fino alla metà degli anni ’80 (Hafner, Lyon, 1998).
nizzare le diverse iniziative nascenti evitando la proliferazione di reti indipendenti, la NSF in collaborazione con
il DARPA e l’Università del Wisconsin finanzia la creazione di CSRNET, una rete agganciata a Internet per i
dipartimenti di Computer Science che avrà un grande successo nel mondo accademico 12 . Il fine di NSF è quello
di supportare la creazione di reti agganciate ad Arpanet per diffondere la tecnologia al maggior numero di ricercatori, lasciando poi che siano le singole università a finanziare i sistemi una volta che l’uso si sia diffuso a sufficienza. La tecnologia di rete assume importanza crescente nella comunità scientifica, non solo per la dimostrata facilità di condivisione di risorse di calcolo ma anche per lo sviluppo dei nuovi sistemi di comunicazione come la posta elettronica e i sistemi di conferencing 13 , che offrono agli scienziati l’opportunità di scambiare informazioni e opinioni in modo rapido, snello ed efficiente, e assolutamente nuovo rispetto agli strumenti esistenti. Queste applicazioni hanno un successo vastissimo e una diffusione rapida all’interno della comunità scientifica, tanto da diventare una forza trainante del successivo sviluppo di Internet. Ciò però pone anche problemi
nuovi di natura non tecnica riguardanti le modalità di impiego della rete e le relazioni sociali tra utenti, aspetti
questi non considerati dai primi ideatori e che anticipano l’attualissimo dibattito sulla necessità o meno di “regolamentare” la rete 14 . Durante gli anni ’70 e ’80 un numero crescente di reti di università e centri di ricerca si agganciano ad Arpanet, anche al di fuori degli Stati Uniti 15 ; alla fine degli anni ’80 la rete conta già ben 300.000
nodi. L’utilizzo sempre più diffuso da parte della comunità scientifica sostituisce quasi del tutto le comunicazioni militari, del resto progressivamente spostate nella rete militare MILNET creata appositamente nel 1982 16 . La
stessa Arpanet viene definitivamente dismessa nel 1990 e sostituita anche nelle funzioni di dorsale primaria dalla NSFNet creata nel 1986. Il passaggio da Arpanet a NSFNet, con l’istituzione di nuove regole di accesso che
prevedono esplicitamente il traffico destinato a ricerca e didattica, decreta formalmente quel che era già avvenuto di fatto.
2.3. La rete come applicazione commerciale e per il grande pubblico: il Web (seconda metà anni ’90)
Anche se i privati avevano partecipato fin dall’inizio al progetto ARPANET come fornitori di tecnologia e subsistemi, l’utenza business inizia ad assumere un ruolo attivo nello sviluppo e nell’utilizzazione di Internet solo
molto tempo dopo. I maggiori utenti business disponevano infatti (come anche oggi) di sistemi proprietari chiusi
a esclusivo uso interno, e solo dai primi anni ’90 compaiono le prime reti commerciali basate su protocollo
Internet offerte da provider privati 17 . Negli stessi anni matura negli USA in diversi ambienti la convinzione
dell’utilità di una rete di comunicazione globale che permetta all’utenza business diffusa di sfruttare le potenzialità dell'interconnessione elettronica. I primi utenti sono soprattutto i grandi Dipartimenti di R&S di imprese di
elettronica e informatica, alcune delle quali avevano connesso fin dagli inizi i propri nodi ad ARPANET. Parallelamente alla crescita di interesse per le potenzialità della rete, cresce rapidamente il numero di utilizzatori,
coinvolgendo gruppi sempre più vasti di imprese anche fuori dalle ‘aree privilegiate’. La diffusione è facilitata
dai continui progressi delle tecnologie di interconnessione, fuori e dentro l’ambiente Internet. Fuori da Internet
le novità tecnologiche più importanti sono lo sviluppo delle reti locali (LAN), e l’avvento del Personal Computer ad opera come è noto di piccole società come Apple e Commodore dalla fine degli anni ’70. All’interno
dell’ambiente Internet l’innovazione più importante è la nascita del World Wide Web (WWW), concepito nel
12. Contribuiscono al successo di CSRNET non solo l’esigenza delle università di mettersi online, ma soprattutto la precedente diffusione delle macchine con sistema operativo UNIX facilmente adattabile ai protocolli Internet (Hardy, 1998). Unix diventerà prima dello sviluppo dei PC la piattaforma più diffusa in ambito universitario, e il modello Unix-TCP/IP diventa di fatto lo standard per reti aperte superando iniziative altrove condotte per gli standard del modello ISO/OSI (Hafner, Lyon, 1998).
13. La posta elettronica per Arpanet viene sviluppata nel 1972 da Tomlison della BBN, fra l’altro inventore del segno di
interpunzione @. I sistemi di conferencing si basano sulla raccolta di messaggi e news poi inoltrati a tutti gli utenti iscritti a
determinati gruppi di interesse (newsgroup).
14. La diffusione di strumenti di comunicazione “incontrollabili” pone problemi di riservatezza e sicurezza, considerato che
la rete opera ancora nell’ambito militare. In secondo luogo le modalità di comunicazione informale che il mezzo consente
favoriscono un clima di libertà di espressione che non ha precedenti. Tale libertà solleva però problemi inaspettati. I newsgroup della rete USENET degenerano in ambienti in cui è possibile parlare in totale libertà arrivando a dibattiti che oltrepassano i limiti della decenza e costringendo gli amministratori di Usenet a proibire esplicitamente messaggi su pornografia o droga; da altri viene addirittura proposto una sorta di restrittivo “galateo della rete” (la c.d. Netiquette).
15. Tra le prime reti di ricerca al di fuori degli USA ricordiamo JANET (Joint Academic NETwork) costituita nel Regno
Unito nel 1984. Per quanto riguarda l’Italia si veda più avanti.
16. Nel 1982 Arpanet è ormai troppo grande per garantire i livelli di sicurezza necessari ai militari; la parte militare della
rete (MILNET) viene scorporata imponendole regole di accesso assai più restrittive.
17. La prima rete commerciale privata Internet-based è per la verità TELENET, creata da Roberts dopo aver lasciato
l’ARPA nel 1974. Telenet rimane peraltro un caso isolato per diversi anni.
1989 dal fisico del CERN Berners-Lee 18 . WWW permette di collegare efficacemente tutti i file residenti in rete
tramite la cosiddetta ‘struttura ipertestuale’ 19 , che facilita l’accesso e la navigazione tra documenti di tipo e formato diversi (inizialmente solo testi e immagini, e successivamente anche audio e video). Il nuovo servizio supera ben presto l’ambiente originario di applicazione, dato che si configura come un vero e proprio ambiente
multimediale globale, facilmente accessibile e utilizzabile anche da non specialisti. È su WWW che verranno
progressivamente introdotti i servizi e le applicazioni che costituiscono oggi l’ossatura della nascente economia
digitale. Oltre ai progressi tecnologici, avvengono anche diversi sviluppi in parallelo. Il crescente interesse degli
utenti si accompagna in particolare alle teorizzazioni sviluppate in vari ambienti accademici attorno ai concetti
di information economy e di information society, intesi come contesti in cui la produzione di ricchezza dipende
esplicitamente dalla capacità di trattare e scambiare informazione 20 . Dato che la diffusione delle tecnologie di
interconnessione appare offrire opportunità notevoli, diviene a questo punto sempre più pervasiva. Va comunque rilevato che il tipo di strumento tecnico più adatto non è risultato evidente fin dall'inizio: la stessa Internet
deve attendere parecchio prima di venire identificata come il possibile supporto della società dell’informazione.
Infine anche il mondo politico inizia a interessarsi direttamente alla questione. Nel 1992, subito dopo la sua elezione, Clinton annuncia l’iniziativa del suo governo per l’information highway, e due anni dopo costituisce
l’IITF (Information Infrastructure Task Force); gradualmente l’idea di I-way finisce per sovrapporsi a Internet.
Va rilevato che il modello Internet, pur con tutti i vantaggi di una rete aperta e capillarmente diffusa, evidenzia
comunque fin dall’inizio alcuni grossi limiti nell’uso commerciale, tuttora non superati (Dutton et al., 1996). E’
anche interessante notare che nello stesso periodo i grandi produttori di computer vedono in realtà il protocollo
TCP/IP come fastidioso (se non pericoloso) per il proprio business, centrato sullo sviluppo dei grandi sistemi
proprietari. Infine, le società di telecomunicazione, impegnate in quel periodo nello sviluppo della rete ISDN
(Integrated Services Digital Network) la cui logica di funzionamento è molto diversa da quella di Internet, vedono a loro volta il Web come un potenziale concorrente. Nonostante queste resistenze, il Governo federale effettua con decisione la scelta di ‘privatizzare’ Internet. Anche la NSF si convince che il Governo non avrebbe
potuto sostenere finanziariamente un ulteriore sviluppo della rete (Tanenbaum, 1997). Negli anni ’80 la NSF inizia dunque a incoraggiare lo sviluppo di reti commerciali regionali e di provider privati per la connettività
Internet a lungo raggio; tra questi in particolare ANS (Advanced Network and Services) 21 , a cui nel 1990 la rete
NSFNet viene venduta. La politica di privatizzazione culmina nel 1995 con la definitiva sospensione dei finanziamenti governativi a NSFNet. La scelta dei tempi non appare prematura perché l’esplosione del fenomeno
Internet procede poi inarrestabile, coinvolgendo tutto il pianeta.
Per quanto riguarda peraltro l'Italia, lo sviluppo avviene in ritardo. Fino agli anni '80 sono poche anche le organizzazioni (essenzialmente multinazionali o il sistema bancario) in grado di sviluppare reti chiuse su sistemi
proprietari. Le stesse reti di ricerca utilizzano sistemi tra loro incompatibili; le prime connessioni internazionali
poi (ad es. il Centro Ricerche IBM di Roma, collegato a BitNet, o i nodi italiani di HepNet per la fisica delle alte
energie) si sviluppano solo dopo la metà negli anni '80. L’offerta di servizi di trasmissione dati per il pubblico22 ,
in forte ritardo rispetto ad altri paesi, è sviluppata in pratica dal solo gestore di telefonia pubblica SIP. Per quanto riguarda Internet vera e propria, il primo nodo viene attivato solo nel maggio 1986 presso il CNR-CNUCE di
Pisa, a cui seguono gli istituti e dipartimenti di Fisica. Bisogna però attendere il 1988 perché venga riconosciuta
l’importanza di una connessione per la ricerca, con la costituzione da parte del MURST della commissione
GARR (Gruppo Armonizzazione Reti di Ricerca) la cui missione è realizzare l'interoperabilità tra le varie Università 23 . L'utilizzo della rete resta comunque fino a tempi recenti sostanzialmente riservato a impieghi scienti18. Lo scopo originario era semplicemente un sistema per facilitare ai fisici nucleari l’accesso ai risultati delle diverse ricerche disponibili in computer differenti. Per sviluppare l’idea Berners-Lee si avvale di alcuni giovani dell'Università
dell’Illinois, tra cui Clark ideatore del software MOSAIC e poi fondatore di NETSCAPE. Il progetto viene avviato dalla
Commissione Europea nel 1993, e l’anno dopo l'organismo indipendente 3W consortium (www.3wc.org) attiva la fase di
sviluppo vera e propria.
19. Il termine ipertesto è stato coniato nel 1965 da Nelson al quale si deve anche la prima implementazione informatica.
20. Sul concetto di information society si veda Webster (1997). Negli USA gli economisti discutono da tempo sulla necessità di adattare principi e teorie dell’economia, formulati con riferimento alla produzione manifatturiera, al modello di
un’economia basata sull’informazione (cfr. Machlup, 1962; Porat, 1977).
21. L’uso commerciale e l’interconnessione con operatori privati comincia a porre problemi di gestione del traffico e solleva il problema se sia corretto usare la rete scientifica per far transitare gratuitamente dati commerciali. Al crescere della rete
appare peraltro inevitabile la liberalizzazione degli accessi.
22. Ad es. la rete ITAPAC a commutazione di pacchetto su protocollo X.25, il Videotel, o la stessa ISDN che ha avuto in
Italia uno sviluppo lento e sofferto. I fornitori privati (come GEIS Italia o INTESA) hanno poi all’epoca limitazioni legislative e non possono essere proprietari di linee di trasmissione.
23. La rete, prima vera porzione italiana di Internet, è ufficialmente inaugurata il 12 Marzo 1990; nel 1997 viene approvato
il progetto GARR-B (Garr-Broadband) che entro il 2000 dovrebbe ampliare in modo consistente la capacità dell'infrastruttura (vedi www.garr.it).
fici. Dopo il 1994, con la caduta del monopolio Telecom, i grandi provider privati (ad es. Unisource e Sprint)
iniziano a offrire nodi di accesso in varie città; il mercato si apre poi a piccoli operatori (tra i primi Video On
Line, poi acquisito da Telecom Italia). Dal 1999 compaiono gli “abbonamenti a costo zero” da parte di Tiscali,
Infostrada, Tin e altri, il che accelera la diffusione nell’utenza residenziale. Recentemente, falliti i grandi progetti di cablatura del paese con reti a fibre ottiche ad alta velocità, si è assistito a una crescente attenzione per la
tecnologia ADSL e, in misura minore (visti anche gli alti costi per l’utente), delle reti wireless 24 via telefonia
cellulare. Nel complesso il nostro paese sembra scontare un certo ritardo dal punto di vista delle infrastrutture, a
fronte invece di una crescita importante sul versante di utenti e utilizzi, rispetto ai quali l’Italia è ormai allineata
ai principali paesi industrializzati.
2.4. Il Web 2.0: la Rete come “social network”
Dal 2000 in poi inizia prepotentemente ad emergere un’altra fase della storia di Internet. Dal punto di vista tecnologico, le infrastrutture di rete continuano ad estendersi, e Internet si propone ormai come il sistema “ubiquitario”: ormai per quasi tutte le imprese e le organizzazioni in tutto il mondo, la scelta se agganciare o no le proprie reti a Internet ha ormai una risposta scontata; ancora più scontata la risposta per gli utenti individuali. Tutte
le tecnologie di comunicazione (telefonia, reti dati in fibra ottica, radio e satellite, cellulare e wifi, perfino TV)
convergono verso gli standard internet, talvolta facilmente talvolta con più fatica ma con una tendenza che appare progressiva e inarrestabile.
Nascono nuove applicazioni o si sviluppano alcune tra quelle che negli anni ’90 erano più innovative. Tra queste, spiccano tutti i sistemi messi a punto da Google, e associati al motore di ricerca (ricerca di mappe, immagini, libri, ecc.). Ma anche i siti che sfruttano protocolli e sistemi già noti ma che in Internet trovano un successo
talvolta inaspettato, come i sistemi per blog, forum online e creazioni di comunità (tra cui spicca facebook), le
collezioni di video e immagini (youtube è uno degli esempi eclatanti), i sistemi di chat istantanei (come twitter),
i repertori e le enciclopedie partecipative (wikipedia) e così via.
Prende avvio quindi la stagione del Web2.0 che, secondo quanto afferma l’esperto di Internet Tim O’Reilly, uno
dei primi a usare questo termine, rappresenta: “... la rete intesa come una piattaforma che include TUTTI i computer connessi. Le applicazioni Web 2.0 sono quelle che consentono di trarre i vantaggi maggiori di questo concetto: distribuzione di software continuamente aggiornato che si sviluppa quanti più utenti lo usano, l’uso e il
remix continuo di contenuti derivati da molteplici fonti inclusi i singoli individui, i quali forniscono propri contenuti e servizi in una forma che ne consente il riutilizzo e la modifica da parte di altri, il che determina quella
cascata di effetti che possiamo definire come “architettura partecipativa”, e supera largamente quel che si riteneva già consentisse il Web 1.0 ossia fornire una grande ricchezza di contenuti esperienziali”
In pratica, nel precedente modello d’uso di Internet (definito Web1.0) era largamente preponderante l’impiego
di siti Web statici o comunque nei quali l’utente ha un ruolo passivo e i contenuti vengono veicolati in modo
monodirezionale da una fonte (il creatore del sito) agli utilizzatori. Con i software del Web2.0 la situazione
cambia nel senso che:- la facilità di reperimento e uso di contenuti da qualsiasi fonte facilita un fenomeno che si
era già notato con il Web1.0 ossia il mescolarsi (“remix”) continuo di contenuti: notizie che rimbalzano da un
sito all’altro, vengono reperite, aggiornate, integrate, riutilizzate da molteplici utenti
- tutti possono diventare non solo utenti ma fonti di contenuti, inclusi i singoli individui; le fonti di contenuti
crescono in modo esponenziale.
In questo contesto, nuovo è il modo di vedere Internet:
- Internet diventa ancor più una piattaforma paritaria per tutti i computer, ossia da un qualunque PC si può facilmente essere fruitore di contenuti ma anche generatore di nuovi contenuti;
- Internet diventa una architettura partecipativa, che supera la logica monodirezionale del Web 1.0 per diventare una grande comunità dove è più facile condividere, interagire, scambiare contenuti, modificarli, riutilizzarli
velocemente, in tutto il mondo, e senza particolari vincoli gerarchici o necessità di rivestire ruoli specifici.
- la maggior parte del contenuto su Internet è generato non da “addetti ai lavori” (imprese, giornalisti, università,
enti) ma dall’utente qualunque: si parla di “User Generated Content”; la Rete aumenta i caratteri di dinamismo e
spontaneismo che già ne caratterizzavano ormai gli utilizzi
- la Rete diventa spazio sociale, ossia non solo un luogo dove “incontrarsi” per lavoro o per affari, ma per instaurare vere e proprie relazioni sociali; si diffondono termini come comunità virtuali, social networking, etc.
- la Rete diventa sempre più “contenitore universale”, ossia non specializzato a differenza di altri media (ad es. i
giornali contengono solo notizie scritte, la TV veicola solo immagini, ecc.), in una coesistenza e sovrapposizione di usi e utilizzatori
3. Alcune riflessioni
24
Di un certo interesse anche le tecnologie wifi a scala diffusa (il cosiddetto wimax) che però non sono ancora decollate.
Abbiamo qui tentato di ricostruire, oltre all’evoluzione delle tecnologie in gioco, il ruolo dei principali attori
coinvolti, e di indicare le situazioni e i passaggi più significativi che hanno riguardato il “fenomeno Internet”.
E’ possibile innanzitutto dare un senso a questa storia? Ci sembra che su alcuni degli interrogativi posti
all’inizio sia possibile arrischiare qualche risposta; mentre altri restano questioni ancora aperte.
Un primo aspetto è legato a un tipico interrogativo relativo al processo che porta allo sviluppo di una rivoluzione tecnologica. Nella traiettoria che determina tale sviluppo, quale peso assumono gli aspetti deterministici e
pianificati, e quale quelli dovuti al caso o comunque non prevedibili? Si tratta quindi di un processo in certa misura pianificabile in anticipo, oppure i risultati sono in larga parte frutto di scelte e di condizioni ‘emergenti’? E
inoltre, quale ruolo rivestono le componenti istituzionali (governi, legislazioni, ma anche le stesse imprese)?
Diciamo subito che nel percorso che ha portato ad Internet è difficile rintracciare elementi di determinismo tecnologico in senso stretto. Come si è visto, la maggior parte delle scelte e delle decisioni degli attori che hanno
avuto un qualche ruoli (progettisti, governi e specialmente quello USA, società IT, ecc.) sono state prese quando
il senso e la portata del nuovo strumento non erano ancora chiari, ossia quando la natura degli impieghi e dei
possibili benefici non era ancora valutabile (a conferma, gli impatti di Internet non sono del tutto chiari nemmeno oggi). L’esplosione di Internet, nella forma che oggi conosciamo, si è prodotta in seguito a una serie di convergenze scientifiche e tecnologiche, economiche e politiche, che non erano affatto scontate in partenza perché
nate in ambienti e frutto di interessi diversi (Carlini, 1998).
Riguardo alle convergenze scientifiche e tecnologiche, il technology concept di Internet si basa su tre idee fondamentali: 1. controllo non gerarchico della comunicazione (pacchetti di dati smistati perifericamente versus
grandi centrali di commutazione), 2. inter-operability (rendere comunicante ogni computer con qualsiasi altro),
3. uso di terminali multimediali a basso costo (i personal computer, essenziali per poter offrire servizi al vasto
pubblico). Se da un lato non si può escludere che il modello concettuale alla base di Internet fosse noto da tempo, dall’altro la storia dimostra che la soluzione tecnica più adatta non è risultata evidente fin dall'inizio. Anche
dopo aver assunto la configurazione attuale, Internet non è stata subito identificata come possibile supporto della
cosiddetta “società dell’informazione”, anzi all’epoca della sua nascita la cosa non sembrava affatto scontata ed
è stata in discussione per molto tempo. In effetti, anche se Internet ha caratteristiche che la fanno avvicinare a un
“modello ideale di rete aperta e capillarmente diffusa”, evidenzia limiti nell’uso che sono ancora irrisolti (cfr.
più avanti).
L'espansione della rete è avvenuta solo grazie al progressivo e convergente sviluppo di applicazioni e soluzioni
tecniche, interne ed esterne all’ambiente Internet. Senza lo sviluppo del personal computer, della tecnologia delle reti locali (LAN) e dell’applicazione WWW, non sarebbe mai stato possibile realizzare ciò che ora conosciamo. Non si può magari dire che la convergenza di questi elementi sia totalmente frutto del caso, ma è certo che i
progressi in queste aree sono avvenuti in modo indipendente, e spesso perseguendo obiettivi diversi da quelli
che poi ne hanno rappresentato l’utilizzo dominante (si pensi ad es. che Internet ha origine nell’ambito dei progetti militari, e che il WWW è invece nato nel campo della ricerca nella fisica delle particelle). L’idea dell’interconnessione tra computer qualsiasi rappresenta il filo conduttore di tutta la storia della rete; ma gli obiettivi dei vari progetti di ricerca, e dei stessi soggetti promotori, sono cambiati più volte: da strettamente militari
prima, a scientifico-accademici poi, quindi economici e commerciali, e oggi di tipo “socio-partecipativo”. Questi cambiamenti di orizzonte e di finalità hanno reso necessario un continuo adattamento delle soluzioni tecniche
e organizzative, tanto che alcuni limiti della rete attuale derivano proprio da diverse impostazioni originarie.
Anche gli sviluppi recenti evidenziano la presenza di elementi di incertezza tecnologica: fino a pochi anni fa, ad
esempio, si riteneva fondatamente che l’uso di Internet sarebbe avvenuto prevalentemente da postazioni fisse,
mentre oggi una parte importante degli utilizzi inizia ad essere affidata alle reti wireless. Comunque stiano le
cose, il successo di Internet era del tutto imprevedibile fino a poco tempo fa.
Anche le convergenze economiche e politiche hanno avuto un ruolo determinante. Quando si fece strada l’idea
delle enormi potenzialità di una rete globale, le soluzioni proposte dai concorrenti più temibili di Internet (gestori di reti di telecomunicazioni e imprese informatiche) continuarono ad ispirarsi a principi tecnici e a modelli di
organizzazione caratteristici dell’era fordista. Rispetto al modello di business dei produttori di mainframe e di
grandi sistemi proprietari, il protocollo TCP/IP rappresenta infatti una totale rottura, se non elemento pericoloso.
Rispetto alle reti ISDN, su cui le società di telecomunicazioni “tradizionali” (le “Telecom”) si sono a lungo impegnate finanziariamente, Internet possiede logiche di funzionamento del tutto diverse. Per molti motivi, insomma, i settori economici più influenti non incentivano e anzi sottilmente osteggiano Internet, ben oltre la fase
dei suoi sviluppi preliminari. L’affermazione di Internet è possibile solo quando i suoi potenziali diventano così
evidenti da rendere pericoloso escluderla dalle strategie delle maggiori imprese dell’informazione e della comunicazione. Non è un caso che negli USA il numero di utilizzatori cresca parallelamente alle teorizzazioni sviluppate in ambienti accademici attorno ai concetti di information economy e di information society (intesi come
contesti in cui la produzione di ricchezza dipende esplicitamente dalla capacità di trattare e scambiare informazione), e agli interessi per le potenzialità della rete gradualmente maturati all’interno di ambienti economici. La
convinzione dell’utilità di una rete di comunicazione globale che permetta all’utenza business diffusa di sfruttare le potenzialità dell'interconnessione elettronica si accompagna infine all’entrata in campo della politica. Il fatto che il Governo americano a un dato momento intervenga direttamente per favorire la diffusione della information economy (ci riferiamo soprattutto all’iniziativa del Governo Clinton per le information highway) è importante per una larga diffusione di Internet. Ma è giusto ricordare che questa scelta appariva inizialmente
tutt’altro che scontata; esattamente come l’uso di Internet da parte dei principali Ministeri nelle relazioni commerciali interne e esterne (sistemi di e-procurement della Pubblica Amministrazione, aste pubbliche elettroniche) che oggi rappresentano la normale pratica in molti paesi e che spesso (a partire dagli USA) hanno rappresentato un potente fattore di diffusione, ma che indubbiamente hanno incontrato anche resistenze e difficoltà
specialmente agli inizi.
Si potrebbe notare che, anche se il concepimento e lo sviluppo tecnico di Internet sono il prodotto delle istituzioni pubbliche per la Ricerca, la vera espansione inizia negli anni ’90 con la privatizzazione della rete. Però in
questo processo appare cruciale non tanto la decisione in sé di ridurre i finanziamenti pubblici, ma la scelta dei
tempi: non prima (né dopo) che le condizioni economiche e tecnologiche siano risultate sufficientemente mature. Il fatto che queste scelte si siano dimostrate di successo non ne riduce incertezza e rischio intrinseco. In Europa ad esempio, Commissione e governi nazionali hanno definito politiche a favore di Internet muovendosi nella scia statunitense (quindi in un quadro apparentemente già tracciato), eppure il successo e la validità di queste
iniziative non è risultato scontato né dimostrabile in anticipo. La storia di Internet conferma che nello sviluppo
delle innovazioni, incertezza e rischio sono sempre elevati (ove si dubitasse di questa affermazione, si può ricordare il caso Iridium, il primo sistema satellitare per la telefonia cellulare, una lezione di come sia sempre incombente il rischio di fiaschi colossali).
4. Verso il futuro: tendenze e questioni aperte
Nonostante lo sforzo di ripercorrerne la storia, quella di Internet è in parte ancora da interpretare e in parte maggiore da scrivere. Che dire allora del suo futuro? La realtà è che, nonostante tutto, nessuno conosce ancora la vera natura di questo strumento, né quali usi emergeranno, e nemmeno come lo strumento stesso evolverà. Probabilmente, è proprio questo l’aspetto più affascinante di questa rivoluzione tecnologica, nella quale niente sembra
essere scontato, con infinito spazio per nuove idee e iniziative. Per concludere questo rapido esame, vale dunque
la pena di discutere alcuni aspetti che oggi sono oggetto di particolare attenzione da parte di esperti, manager,
politici, e perfino singoli utenti. Il modo in cui verranno (o non verrranno) affrontate queste questioni avrà effetti importanti sugli scenari cui in futuro ci si troverà di fronte 25 .
- Chi sosterrà la crescita
Come tutti i sistemi tecnologici, anche Internet ha un costo: richiede investimenti (i router, le reti di telecomunicazione, i software, ecc. ) e comporta costi operativi (esercizio, manutenzioni, aggiornamenti, ecc.). Un interrogativo ricorrente è dunque: chi sostiene tali costi? In realtà, nelle fasi iniziali il problema era meno critico, dato
che sostanzialmente gli investitori e gli utilizzatori appartenevano entrambi al mondo delle istituzioni o ai settori
di “pubblica utilità” e senza scopi di profitto: difesa, università, ricerca pubblica. Oggi la questione inizia ad assumere connotati diversi. Con l’apertura della rete al grande pubblico e agli operatori privati, Internet è diventata un luogo di erogazione di servizi a pagamento e un supporto per le attività commerciali: in sostanza, un mezzo per fare profitti. Dunque a fronte di una situazione in cui il settore pubblico continua a supportare Internet in
vari modi (ad es. con la gestione diretta di porzioni di rete – come in Italia la rete interuniversitaria GARR - o
con i finanziamenti alle società di telecomunicazione perché investano nelle infrastrutture) l’uso “privato” ormai
prevale rispetto a quello pubblico o “istituzionale”. È lecito ciò? È sostenibile?
Va fra l’altro ricordato che non occorre solo sostenere il funzionamento della rete, ma anche la sua crescita che
ha tuttora ritmi considerevoli come aumento nel numero degli utenti, dei computer collegati, dei contenuti, ecc.
Ciò richiede investimenti ingenti per potenziare il sistema. Una prima possibilità è che il funzionamento e la
crescita di Internet continuino a venire sostenute prevalentemente dal settore pubblico. Tuttavia, questo solleva
sia problemi di risorse (di cui il settore pubblico è sempre più carente) sia di equità (è giusto cioè che le risorse
di tutti finanzino anche grandi business privati?). Un’alternativa è la privatizzazione sostanziale della rete, ancor
più di quanto oggi sia avvenuto. Ciò significa che le singole società che fanno business in rete diventerebbero
ancor più direttamente coinvolte nella sua gestione anche in termini di risorse da investire. Questo scenario, da
qualcuno ritenuto plausibile e da altri molto difficile, porterebbe ad ogni modo a una modificazione anche nei
rapporti con i singoli utenti (privati, consumatori) i quali sarebbero ovviamente chiamati poi a contribuire pagando prezzi più alti per i servizi. Oggi però l’utente privato è abituato a non pagare per una grande varietà di
25
Anche se i punti che verranno qui trattati sono certamente rilevanti, la loro scelta è naturalmente arbitraria: tanta è la complessità di Internet che altre
ancora potrebbero essere le questioni che varrebbe la pena di citare.
servizi e applicazioni (email, ricerche su motore, navigazione), salvo ovviamente il costo di connessione che però, se si ricorre a postazioni pubbliche in cui esso è già pagato (ad es. biblioteche, scuole, università, ecc.), non è
nemmeno dovuto. Il problema è dunque se sarà accettata, in una “nuova” Internet totalmente privatizzata,
l’imposizione di un prezzo anche per i servizi più banali. Inoltre, essendo Internet un sistema distribuito tra
un’infinità di soggetti collegati tra loro, sarebbe difficile calcolare in modo preciso i costi sostenuti da ciascun
soggetto e quindi i ricarichi da applicare (a titolo di esempio: un’email può attraversare reti di operatori diversi
per giungere a destinazione).
La crescita di Internet è anche legata ad aspetti strettamente tecnici, in primo luogo la scarsità degli indirizzi IP
con cui vengono identificate le macchine collegate. L’attuale sistema di assegnazione degli indirizzi si basa sul
protocollo IPv4, che però era stato progettato in anni nei quali nemmeno le più ottimistiche previsioni lasciavano pensare all’espansione della rete che poi è avvenuta. Varie previsioni indicano che il numero di indirizzi è
prossimo alla saturazione, e da qualche anno si sta cercando di correre ai ripari. In particolare con il progetto
IPv6 si sta implementando un nuovo protocollo di indirizzamento capace di supportare un numero di indirizzi
superiore a IPv4. Tuttavia i problemi di migrazione non sono banali e comportano ancora una volta investimenti.
Infine possiamo citare un altro effetto inatteso dello sviluppo di Internet e in particolare del Web: l’introduzione
di servizi multimediali “pesanti” (ad es. streaming video o altre applicazioni che assorbono risorse di rete). Anche qui sorgono problemi che hanno notevole rilevanza economica: ad esempio è giusto fare pagare gli utenti
che usano la rete con maggiore intensità? E con quali modalità? Oppure anche: si può classificare i servizi sulla
base di parametri di priorità in base ad es. a criticità temporali (si veda a riguardo la nozione di Quality of Service – QoS)? Ad esempio, si può argomentare che molto spesso un’email può anche viaggiare “lentamente”, mentre chi sta scaricando contenuti in streaming non può attendere. Oggi questi aspetti sono sostanzialmente non regolamentati, ma c’è chi propone di farlo. Le implicazioni economiche sono evidenti: diventerà ad esempio possibile avere una maggiore priorità di servizio pagando in più? E questo è auspicabile o lecito, oppure introdurrà
nuove disparità?
Il dibattito è anche qui aperto, e ad esso si lega un ulteriore problema: chi ha il potere di assegnare e distribuire
gli indirizzi Internet, e su quale base? L’organizzazione di riferimento internazionale qui è l’ICANN (Internet
Corporation for Assigned Names and Numbers - ICANN): si tratta di un ente “privato ma senza scopo di lucro”
creato nel 1998 e registrata in California. A questa organizzazione, il cui statuto impone delle modalità di gestione “democratiche” partecipano a vario titolo i soggetti (per lo più pubblici) maggiormente coinvolti alla gestione di Internet. Fino ad oggi questa struttura, se pure sotto l’ombrello del governo USA, ha mantenuto un approccio aperto e sostanzialmente egualitario. D’altro canto, si trattava più che altro di governare uno sviluppo
che non sembrava avere limiti o porre problemi. I problemi invece hanno cominciato a porsi nel momento in cui
Internet è diventata un elemento critico per gli equilibri economici e anche di potere a livello internazionale. Chi
governerà dunque l’Internet del futuro? Si potrà ancora coniugare in modo sufficientemente equilibrato i diversi
interessi pubblici e privati, nonché interessi dei singoli, delle imprese, o delle nazioni? I recenti avvenimenti (si
pensi ai problemi di Google in Cina, trasformatisi ben presto in una questione internazionale che ha coinvolto
anche i governi delle due nazioni), offrono abbondanti spunti di riflessione.
- Effetto overload
Nella sua forma attuale Internet ha dimostrato la fattibilità di una rete per scambiare contenuti di qualsiasi tipo.
Tuttavia scambiare dati non significa scambiare informazioni o conoscenza. Anche il più sofisticato contenitore
(quale è Internet) potrebbe rivelarsi poco efficace senza sistemi complementari che permettano di rintracciare i
contenuti adatti, di filtrarli, magari addirittura interpretarli e impiegarli utilmente; in altre parole senza una funzione di intelligence. Solo così si potrà parlare davvero di reti per veicolare conoscenza. Tali strumenti non possono che essere largamente automatizzati: l’attuale sovraccarico (“overload”) di contenuti, oltretutto in continua
crescita, rende impossibile a qualunque soggetto umano la navigazione “solitaria” in questo immenso oceano.
Oggi i principali strumenti a diffusione globale che trattano questi aspetti sono i motori di ricerca (in primis Google): ma il loro funzionamento ha alcuni limiti precisi e oltretutto è continuamente sfidato dalla crescita dei
contenuti stessi e della loro varietà. Si parla anche di progetti di “strutturazione del Web” (in primis il cosiddetto
Semantic Web o Web3.0) volti a mettere ordine in questo enorme contenitore, ma i risultati pratici ancora tardano, o sono limitati a contesti molto specifici.
- Privacy
L’utente medio è poco consapevole dei rischi alla privacy che l’uso di Internet comporta. Alcuni di questi rischi
derivano dalla combinazione degli strumenti informatici moderni con le nuove modalità manageriali emergenti
– il cosiddetto marketing “one to one”: sono ormai molti gli strumenti a disposizione delle aziende (a partire dalla grande distribuzione) per “profilare” il cliente ossia conoscere dati più dettagliati sui gusti e sui
comportamenti d’acquisto del singolo: tessere fedeltà, scontrini parlanti, etichette RFID, ecc. Questi sistemi
consentono di raccogliere e manipolare un’immensa quantità di dati anche di carattere personale (ossia dati
“sensibili”) sul singolo. Naturalmente Internet offre un mezzo formidabile che si integra perfettamente con
singolo. Naturalmente Internet offre un mezzo formidabile che si integra perfettamente con queste modalità di
marketing, offrendo potenzialità enormi soprattutto alle aziende che fanno vendita online.
Ancor prima, è la stessa logica di funzionamento di Internet a minacciare la nostra privacy. Ogni volta che si
naviga sul Web è come se, sul percorso seguito dalla nostra connessione, lasciassimo ai vari host e router dei
continui “biglietti da visita” che possono permettere di identificare da dove ci connettiamo (e quindi spesso anche chi siamo), quale sito stiamo visitando, o anche quali parole chiave abbiamo cercato, ecc.: indirizzi IP, cookie, password, e altri elementi ancora sono spesso necessari per accedere a un servizio Internet, ma comportano
anche un rischio per la privacy. Gli stessi sistemi che gestiscono i siti (a partire dai motori e dai grandi contenitori – google, facebook, youtube, ecc.) registrano nei loro logfile i dati di navigazione del singolo utente, e quale
uso ne facciano non è mai del tutto chiaro (fra l’altro, alcuni operatori sono tenuti a farlo per obbligo di leggi
specifiche – antiterrorismo, anticrimine, ecc.).
Poi ci sono i veri e propri comportamenti illeciti o criminosi: il “cracking” (ossia i programmatori “cattivi” che
cercano di sottrarre dati personali o di controllare il funzionamento dei singoli PC inserendo virus, malfare e simili), le pratiche di phishing (copie di siti di banche e simili che cercano di indurre l’utente a inserire le proprie
credenziali appropriandosene), lo spamming (invio sgradito di messaggi pubblicitari a indirizzi Internet generati
casualmente o raccolti in modo improprio), ecc. La necessità di protezione da parte dell’utente è qui anche fonte
di reddito per società di servizi (ad es. le imprese che producono antivirus e sistemi di protezione).
Ci si può dunque chiedere in definitiva: l’anonimato su Internet è davvero possibile per l’utente medio? È utile,
e quando? E poi: quanto vale la nostra privacy, ed è giusto che ci venga richiesto di pagare servizi accessori per
vederla protetta?
- Libertà su Internet e controllo dei governi
Il punto precedente ne richiama un altro strettamente collegato: quello della libertà su Internet, e se il controllo
dei governi sia lecito oppure no. La privacy è sempre un elemento di garanzia: poter navigare, acquistare un
prodotto, scaricare o caricare dei contenuti senza venire rintracciati (salvo coloro dai quali vogliamo esserlo)
rappresenterebbe in teoria una libertà personale imprescindibile: la scarsa protezione della privacy è quindi ritenuta un possibile ostacolo allo sviluppo di Internet, dato che la Rete si fonda essa stessa su idee di libertà, spontaneismo, creatività personale ecc. Le minacce alla privacy sono così serie che in tutti i paesi evoluti sono state
introdotte legislazioni che tentano di proteggere il più possibile i diritti del singolo utente a tenere riservati i
propri dati personali sensibili dall’uso di malintenzionati o semplicemente dall’invasione dei servizi di marketing.
Tuttavia queste leggi si scontrano con due ostacoli: il primo è la tecnologia, che come dicevamo ha dei requisiti
di funzionamento precisi (ad es. se non si accettano i cookie può diventare difficile scaricare certi contenuti), e
in secondo luogo evolve con velocità di gran lunga superiore alla rapidità di intervento di chi deve legiferare. Il
secondo ostacolo è dovuto all’obiettivo dei governi di prevenire il crimine online. Questo obiettivo è spesso ritenuto legittimo, e in molti casi ha un certo consenso anche nei paesi democratici più avanzati: chi non si preoccuperebbe ad es. che dei terroristi siano liberi di organizzare i loro piani stragisti comunicando a piacimento via
Internet? Analogamente, Internet è oggi utilizzata massicciamente anche dai gruppi criminali (spacciatori, trafficanti di armi, ecc.), e dunque un monitoraggio della rete da parte di polizia e magistratura appare necessario.
Altri casi sono di più difficile lettura. Anche se non è facile fare statistiche, i siti di pornografia rappresentano
una porzione importante del Web, con milioni e milioni di utilizzatori. Al di là delle sensibilità personali, in
molti casi si tratta di contenuti considerati leciti dato che non sono diversi da quelli già ampliamente disponibili
in altre forme (riviste, DVD, pay tv, ecc.). Nel Web tuttavia questi contenuti sono di fatto accessibili anche da
parte dei minori, senza particolari protezioni. Inoltre, in assenza di controlli “editoriali” il confine tra “pornografia” e “pedofilia” o reati legati alla prostituzione diventa talvolta labile.
Chi è responsabile per ciò che viene immesso in rete? Non è facile stabilirlo con le attuali leggi. Recentemente
in Italia una condanna ai dirigenti di Google per non aver vigilato sull’immissione in rete di filmati tremendamente offensivi ha suscitato molto scalpore ed è stata anche aspramente contestata: è legittimo ritenere responsabile il contenitore per il contenuto che qualcuno ha immesso? O c’è il rischio (come dicono alcuni) di bloccare
lo sviluppo di quei servizi di social networking oggi considerati l’ossatura del sistema? Comunque la si voglia
vedere, leggi e magistrature appaiono impegnate in un faticoso sforzo di inseguimento di una tecnologia che evolve continuamente.
Il controllo dei governi solleva poi anche dubbi, proprio legati al labile confine tra ciò che è lecito e ciò che non
lo è: possono derivare quindi eccessi e arbitri dal controllo governativo. Negli USA ad es. hanno sollevato un
grande dibattito le modifiche introdotte dopo gli eventi dell’11 settembre 2001 dall’amministrazione Bush al cosiddetto Freedom of Information Act, la legge che regola fra l’altro il diritto di controllare le comunicazioni elettroniche per scopi di intelligence e antiterrorismo: non solo gli studiosi e i politici liberal ma anche altri hanno
segnalato il rischio di abusi. In paesi poi con più labile “cultura democratica”, il problema tocca in modo massiccio le libertà personali. In Cina (ma anche in altri paesi: Iran, Cuba, ecc.) il governo cerca di controllare le
navigazioni degli utenti, fino a proibire l’accesso a contenuti ritenuti “sgraditi” (ad es. siti che trattano
l’invasione del Tibet) o a perseguire con il carcere chi tenta di bypassare tali proibizioni.
Lo spettro di una “cinesizzazione” di Internet viene agitato ogni volta che si tentano di introdurre legislazioni
restrittive. Anche qui, un caso in discussione è quello della protezione dei diritti d’autore. In alcuni paesi (la
Francia ad es.) scaricare o copiare contenuti protetti da copyright è considerato un reato perseguito in modo assai severo, ma secondo alcuni queste misure non sarebbero molto efficaci nell’arginare il fenomeno. Il recente
processo ai gestori del sito “The Pirate Bay” ha riacceso la contrapposizione tra coloro che difendono il diritto a
copiare e scambiarsi file di qualunque tipo sulla base del fatto che l’uso di Internet non può essere messo sotto
tutele o censure, e coloro che invece difendono il diritto degli autori a vedere protetto il proprio lavoro. Il tema
appare controverso, ma sembra evidente che le tradizionali legislazioni di protezione del diritto d’autore, per
quanto aggiornate, appaiono di ben più difficile applicazione nel mondo Internet.
- Digital divide
Il divario digitale, ossia la differenza (in termini di opportunità) tra chi “è connesso” e chi “no”, è un altro tema
frequentemente all’attenzione di studiosi, politici, operatori. La diffusione presso il grande pubblico negli anni
’90 ha alimentato il “mito” di Internet come “grande equalizzatore” (the great equalizer): se in precedenza
l’accesso alle reti di trasmissione dati avanzate ma anche alle fonti di contenuto era difficile e costoso, e comunque sempre mediato da imprese o istituzioni pubbliche, con Internet chiunque sembrava poter finalmente accedere, semplicemente con un banale modem telefonico e un PC, a uno sterminato repertorio di contenuti e comunicare globalmente. Su questa base si è pensato dunque che la Rete offrisse finalmente a tutti le opportunità
prima riservate solo ai soggetti economicamente o socialmente più forti. A livello di singolo cittadino, questo
avrebbe potuto significare ad es. accedere a nuove conoscenze e opportunità di istruzione personale; per le imprese, la possibilità anche per quelle di minori dimensioni di competere ad armi pari con le grandi multinazionali sui mercati globali; a livello di interi paesi, infine, la possibilità per gli stati svantaggiati di trovare nuove strade per lo sviluppo. Cosa si è realizzato di tutto ciò?
A questo proposito, verso la fine degli anni ’90 osservando i dati estremamente difformi della diffusione di
Internet alcuni studiosi hanno iniziato a parlare del cosiddetto Digital Divide con riferimento all’aumento anziché alla diminuzione di disparità per effetto delle ICT, ossia all'emergere di nuove disuguaglianze nelle strutture
o nella distribuzione del potere tra individui, organizzazioni o aree geografiche diverse, in funzione della possibilità o meno di connettersi e di operare efficacemente sulla Rete. Tuttora il maggior numero sia di host Internet
sia di utenti si concentra nelle aree maggiormente sviluppate (Nordamerica, Europa, Australia, Giappone, Sud
Corea) dove già in precedenza si avevano i tassi di diffusione maggiori; a questi si aggiungono oggi – ma con
ritardo - le cosiddette potenze emergenti (Cina e India soprattutto – almeno le loro aree più industrializzate). In
termini assoluti ad es. ci sono più utenti nello stato della California che in tutti gli stati dell’Africa centrale; in
Finlandia la percentuale di abitanti connessi (vicina al 90%) è quasi il doppio di quella dello stato sudamericano
a più alto tasso di penetrazione (il Cile con il 50%) 26 . Un divario altrettanto evidente riguarda anche le infrastrutture di base: oggi gli USA coprono da soli circa un quinto dell’intero numero di accessi a larga banda del
mondo, a fronte di una popolazione che è inferiore al 5% del totale planetario. Anche qui, la situazione appare
molto simile a quella di qualche anno fa: alla fine degli anni ’90 si contavano in Europa e USA un telefono ogni
due abitanti, in Africa uno ogni 53, con più linee telefoniche a Manhattan che in tutta l'Africa sub-sahariana (Rifkin 2000), e più telefoni nella sola Tokyo che in tutto il continente africano (fonte ONU). In queste condizioni
era ed è ancora difficile immaginare prospettive egualitarie in termini di accesso alla tecnologia.
In effetti, se è vero che oggi con Internet l’accesso in rete è più facile del passato, sono comunque necessari alcuni prerequisiti, in primo luogo la disponibilità di un’infrastruttura di telecomunicazione minimale (cioè, per
supportare i flussi di dati delle applicazioni odierne, con prestazioni paragonabili almeno all’ADSL). Come abbiamo visto dai dati presentati sopra, il soddisfacimento di queste condizioni, non del tutto scontato nemmeno
per un cittadino medio in un paese sviluppato, non lo è assolutamente in vaste aree del pianeta: d’altro canto in
molti paesi africani, in Medio Oriente, o in vaste zone dell’Asia e del Centro-Sudamerica non solo non sono garantiti servizi telefonici essenziali o la fornitura di energia elettrica, ma spesso neppure sussistono condizioni socio-sanitarie minimali. Tale divario infrastrutturale costituisce una differenza sostanziale che Internet di per sé
certo non poteva magicamente risolvere.
Un altro tipo di divario può spiegare il permanere e l’accentuarsi delle differenze tra “chi è connesso” e chi “non
lo è” anche all’interno di uno stesso paese: il minimo di alfabetizzazione informatica che è richiesto per utilizzare proficuamente Internet. Anche in questo caso, rimane in vantaggio (e lo è sempre di più) chi può avere una
formazione scolastica adeguata. È netto il divario tra aree ricche e povere del pianeta, e un divario digitale (anche se talvolta meno evidente ma che desta preoccupazione) può manifestarsi all’interno degli stessi paesi ricchi, sia in termini di ritardo di alcune aree rispetto ad altre che, ancor più, in termini di “gap cognitivo” tra strati
26
Le fonti degli utilizzatori Internet sono tratte da www.internetworldstats.com.
diversi della popolazione. Anche se le cose sono cambiate rispetto a qualche anno fa, il maggior numero di utenti appartiene tuttora alle fasce che possono giovarsi di una combinazione favorevole di fattori (reddito, livello
d’istruzione, posizione sociale, collocazione geografica, opportunità e tempo per navigare).
Alcuni hanno ritenuto che il Digital Divide fosse automaticamente destinato a colmarsi con lo sviluppo stesso di
Internet, ritenuto progressivo e pervasivo, al massimo con la necessità di qualche incentivo pubblico o favorendo investimenti in alcune aree o industrie. Secondo altri, però, il divario digitale, che non appare assolutamente
scomparso, potrebbe permanere o addirittura ampliarsi in futuro. In effetti, i tassi di crescita maggiori si sono
verificati proprio nelle aree dove la diffusione era già in partenza molto elevata: gli investimenti di
potenziamento dell’infrastruttura, e specialmente quelli privati, sono del resto spesso localizzati nelle aree
metropolitane più ricche, e all’interno di queste nei quartieri o addirittura negli isolati dove la concentrazione
degli affari e degli operatori è maggiore e attrae ulteriori investimenti innescando un feed-back positivo che
accelera il distacco dalle altre aree. Alcuni temono che l'aggravarsi del digital divide si cristallizzerà
definitivamente in forme di esclusione senza ritorno di vasti strati sociali o intere aree del pianeta dai benefici
delle nuove tecnologie. Come si vede la questione è tutt’altro che banale; e le possibili soluzioni nient’affatto
ovvie.
Bibliografia
Carignani A., Mandelli A. (a cura di), 1999, Fare business in rete, Milano: McGraw-Hill Italia
Carlini F., 1998, Lo stile del Web. Parole e immagini nella comunicazione di rete, Torino: Einaudi.
December J., 1996, “Units of Analysis for Internet Communication”, Journal of Computer Mediated Communication, vol.
4.
Di Nardo N., Zocchi Del Trecco A.M., 1999, Internet. Storia, Tecnica, Sociologia, Torino: UTET
Dutton W.H. et al., 1996, “The Politics of Information and Communication Policy: The Information Superhighway”, in:
Dutton W.H. (ed.), Information and Communication Technologies. Visions and Realities, Oxford: Oxford University
Press.
the Economist, 1996, “The Accidental Superhighway”, 19th October
Hafner K., Lyon M. , 1998, La storia del futuro, Milano: Feltrinelli
Hardy H.H., 1998, The History of the Net, http://www.ocean.ic.net/ftp/doc/nethist.html
Machlup F., 1962, The Production and Distribution of Knowledge in the United States, Pronceton, NJ: Princeton University Press
Porat M.U., 1977. The Information Economy: Definition and Measurement, OT Special Publication 77-12, Washington:
US Department of Commerce.
Rosenberg N., 1982, Inside the Black Box: Technology and Economics, Cambridge University Press, Cambridge.
Tanenbaum A., 1997, Reti di computer, Torino: UTET
Webster F., 1997, Theories of The Information Society, London: Routledge.
v. anche il sito di Tim O’Reilly http://www.bitmama.it/articles/14-Cos-Web-2-0