La nascita di Internet.
Transcript
La nascita di Internet.
Relazione di Manfredi Nadai per il corso di Storia Economica Contemporanea, A. A. 1998/99, tenuto dal Prof. F. Piro STORIA DELL’INTERNET INTRODUZIONE ALLA RICERCA Con approccio divulgativo l'Internet è definita la rete delle reti, cioè una super-rete che connette sistemi di computer tra loro collegati. Infatti il suo nome deriva da internetworking, dove network significa "rete" o "circuito" e inter è il prefisso che indica il link , cioè il legame, il collegamento tra i vari elementi del sistema, in questo caso le reti di computer che costituiscono le articolazioni dell'Internet . Si tratta allo stesso tempo di un medium capace di diffondere informazioni in modo orizzontale, working both ways (ossia biunivoco, dove il ricevente si può in ogni momento trasformare in emittente e viceversa), e di uno strumento per far parlare computer anche lontani fra loro, prezioso per la collaborazione e l'interazione a distanza per gli scopi più diversi. O g g i s i g u a r d a a l l 'I n t e r n e t c o m e a l l a n u o v a f r o n t i e r a d e l l e telecomunicazioni, alla struttura prototipica di quella che con enfasi avveniristica il vicepresidente degli Stati Uniti Al Gore ha prefigurato come l'Information Highway , l'Autostrada dell'Informazione, creazione di là da venire del programma denominato National Information Infrastructure (NII) , poi assunto nell'agenda del G7 come Global Information Infrastructure (GII). Questo importante progetto, che si dovrebbe sviluppare utilizzando diversi supporti mediatici (cavi in fibra ottica, reti satellitari, ponti radio ecc.) e che dovrebbe consentire la comunicazione, lo scambio di dati e l'espletamento di transazioni di varia natura unificando le reti telefoniche, televisive, satellitari e telematiche in un unico grande network , è rimasto per ora lettera morta. Nonostante questa impasse l 'Internet, che di questa infrastruttura globale dovrebbe essere il nucleo essenziale, sta conoscendo una diffusione di tipo esponenziale: si stima che allo stato attuale gli utenti della Rete siano attorno ai cento milioni e la cifra è sicuramente destinata ad aumentare in modo vertiginoso. Nicholas Negroponte, il direttore del Media Lab del MIT1 e uno dei 1Acronimo del Massachusetts Institute of Technology di Boston, una delle più prestigiose istituzioni scientifiche del mondo. più insigni esperti mondiali di comunicazione digitale, ha addirittura stimato per assurdo che, se il trend attuale di diffusione dell'utenza Internet rimanesse immutato, nel 2003 il numero totale di connessioni in rete sarebbe superiore agli abitanti della Terra. Oggi la sua influenza ha ripercussioni non solo nel campo della telematica, ma incide profondamente su ogni aspetto delle relazioni sociali, dal momento che si ricorre sempre più massicciamente a strumenti online, dal marketing al commercio elettronico, all'acquisizione di informazioni, alla pura socialità nello spazio virtuale. E non è neppure troppo audace prevedere che in un futuro prossimo potremo azionare a distanza il nostro tostapane o la lavatrice, regolandone il relativo programma di cottura o di lavaggio inviando semplicemente un comando dal nostro PDA2, connesso in rete satellitare con i processori contenuti nei nostri elettrodomestici hi-tech . L'Internet non è sempre stata uguale a se stessa3, né per le dimensioni, né per la tipologia di utenti, né per le finalità e le funzioni che doveva espletare, né per il tipo di dati che venivano scambiati: oggi, dopo ventinove anni da quando alcuni ricercatori hanno collegato in via sperimentale dei computer per scambiarsi dati a distanza, l'Internet si sta nuovamente trasformando, avviandosi verso la sua quarta fase, quella del business online4. Mentre le prime tre fasi sono state conseguenti l'una all'altra e si possono raffigurare come tappe progressive di un iter evolutivo omogeneamente orientato, la quarta sta tracciando un discrimine netto che rischia di segnare un profondo mutamento 2Personal Digital Assistant , una sorta di ibrido tra un telefonino cellulare e un PC portatile, delle dimensioni di una penna stilografica, capace di ricevere e di trasmettere dati in rete. 3Ha mantenuto però alcuni tratti distintivi costanti, quelli che fanno riferimento ad aspetti tecnici e strutturali, come la tecnica di trasmissione dei dati, il cosiddetto packet switching, il supporto di base, il cosiddetto backbone, ossia la "spina dorsale" della rete, e il codice mediante il quale le macchine parlano tra loro, il protocollo Internet. Mentre il primo aspetto è stato costante fin dai primordi delle prime connessioni, gli altri due risalgono a un’epoca più recente: infatti l’attuale dorsale, costituita da NFSNet, fu inaugurata nel 1986, mentre il protoocollo TCP/IP sostituì il precedente nel 1983. 4Le periodizzazioni della Rete proposte dai vari studiosi sono diverse, a seconda del criterio di analisi usato. Qui è stata adottata la scansione evolutiva proposta da F. Carlini in Chips & Salsa, Storie e culture del mondo digitale, Manifestolibri, Roma 1995. Le categorie utilizzate da Carlini come cartina di tornasole della dinamica evolutiva della Rete sono le sue funzioni effettive, cioè gli scopi per cui è usata e il tipo di comunità virtuale che la abita, due elementi intimamente correlati fra loro. Cfr. Berretti e Zambardino Internet.Avviso ai naviganti , Donzelli Editore, Roma 1995, dove invece vengono individuate tre fasi nella storia della Rete, a seconda del tipo di policy di ingresso che, in definitiva, rimanda anch'essa alla categoria degli abitanti del ciberspazio, e L. Floridi, Internet, Il Saggiatore, Milano 1997, che ha individuato tre fasi (fase inventiva, dal 1968 al 1984, fase innovativa, dal 1984 al 1995 e della diffusione, dal 1995 in poi) a seconda delle caratteristiche dinamiche del processo di cambiamento. negli aspetti funzionali e socioculturali della Rete, ossia nella sua natura antropologica. Ma vediamo di delineare in modo analitico il contesto in cui è maturata quella che per alcuni è una "rivoluzione tecnologica", mentre per altri è semplicemente un’innovazione, ma che,comunque la si consideri, ci dovrebbe condurre verso la Società dell'Informazione, dove l'insostenibile immaterialità dei bit 5 determina la qualità della fruizione della merce-conoscenza . Precisazioni eziologiche A livello storiografico, per lo meno su un piano divulgativo, si è consolidato un luogo comune, cioè si contestualizza l’origine delle sperimentazioni di networking nell’ambito della competizione strategico-militare tra USA e URSS, facendone un tassello della Guerra Fredda: il fatto scatenante che avrebbe convinto i vertici del Pentagono a investire maggiori fondi nella ricerca scientifica e a creare un organismo ad hoc come l’ARPA6 fu, il quattro ottobre del 1957, il lancio da parte sovietica del razzo R-7 Semiorka, che portò in orbita lo Sputnik, il primo satellite artificiale della storia. L’avvenimento segnò indiscutibilmente l’immaginario occidentale, assurgendo a simbolo del paventato sorpasso tecnico-scientifico realizzato dal blocco dell’Est, prefigurazione di una superiorità militare da scongiurare. Riprese così, più virulenta che mai, la corsa agli armamenti, e sul versante della ricerca strategica, nonché dell’immagine, venne dato impulso alla sfida per 5Il bit , in inglese letteralmente "pezzo", "porzione di qualcosa", è la più piccola unità di informazione che nella tecnica di trasmissione digitale dei segnali può veicolare dati, suoni, immagini e, nei sistemi multimediali più avanzati, addirittura video, ma è anche la base del sistema numerico binario usato dai computer (Binary digIT, numero binario) e può assumere solo due valori, 0 e 1. 6Acronimo di Advanced Research Projects Agency, un'agenzia del Pentagono istituita nel 1958 dal presidente Eisenhower per promuovere e coordinare la ricerca scientifica: quest’ente fu concepito come organismo strettamente legato al presidente e al segretario della difesa, con l’obiettivo di assicurare agli USA una funzione guida nelle applicazioni tecnologiche e prevenire in tal modo sorprese dei sovietici sulla frontiera tecnologica. Dopo la creazione della NASA, alla fine dell’estate del 1958, l’ARPA si distanziò dal Pentagono, ridefinendo i suoi obiettivi e le sue competenze e focalizzandoli sulla ricerca di base: la sua attività ha riguardato soprattutto la sponsorizzazione di progetti del tipo high risk, high gain, dove il rischio e le spese sono molto alti e dove il successo può determinare importanti acquisizioni strategiche. La sua struttura è sempre stata flessibile e leggera, contrariamente alla tradizionale organizzazione militare. Dagli anni ‘80 ha mutato il suo nome in DARPA (Defense Advanced Research Proojects Agency). Cfr. <http://www.darpa.mil>. la conquista dello spazio e alla ricerca di sistemi flessibili per la gestione di un’eventuale attacco nucleare. E’ qui che viene collocata la nascita, e laratio, dell’Internet, rete che avrebbe svolto la funzione di collegare i settori strategici e capace, in virtù della sua struttura decentrata, di resistere ad un attacco nucleare e a un eventuale distruzione parziale dei suoi collegamenti fisici, in modo da continuare a garantire la comunicazione fra i centri nevralgici del paese. L’intelligenza della rete non era concepita come centralizzata, ma distribuita tra tutti i suoi nodi: viceversa, nel caso di una struttura accentrata, il fulcro del network sarebbe stato un facile bersaglio e l’intera rete di comunicazione messa fuori gioco. Questa versione, che fa della telematica dei primordi uno strumento militare del Pentagono, viene riportata da quasi tutti i testi e i saggi sulla Rete, ma viene smentita come pura mitologia dagli autori della più rilevante opera di ricostruzione storiografica che ha tracciato le linee evolutive del Net fin dalle origini, utilizzando principalmente fonti primarie (interviste e documenti d’archivio) e scritti dei diretti protagonisti di questa vicenda7. Nell’introduzione Hafner e Lyon chiariscono l’equivoco: Per anni sono continuate a circolare voci secondo cui l’ARPANET era stata costruita per proteggere la sicurezza nazionale e fronteggiare un attacco nucleare. E’ una leggenda rimasta incontestata tanto da divenire ampiamente accettata come un dato di fatto8. In realtà gli esperimenti di networking che preludono alla nascita della prima rete, l’ARPANET, non erano finalizzati a collegare centri di comando e stazioni radar, ma miravano, più semplicemente, a connettere fra loro i computer dei grandi laboratori di ricerca del paese, in modo da porre le premesse per la collaborazione a distanza tra ricercatori e per la condivisione delle risorse dei computer (software, banche dati ecc.). A quell’epoca, infatti, per utilizzare un computer a distanza, da una postazione remota , bisognava installare nel proprio ufficio un terminale (monitor e tastiera) e collegarlo a quel computer con un allacciamento dedicato . Dice Huitema, con un tono volutamente dimesso per smitizzare le origini dell’Internet: 7Katie Hafner e Mattew Lyon, Where Wizards Stay Up Late , Simon&Schuster, New York 1996. 8Ibidem, p. 10. Nel proprio ufficio, presso l’ARPA, il responsabile del progetto aveva accesso a tre computer e aveva dunque dovuto installare tre terminali con i rispettivi collegamenti. Vedendo tutti questi aggeggi non poteva fare a meno di pensare che qualcosa non andasse. Perché dunque non sostituire i tre collegamenti con un sistema di trasmissione che, a partire da un unico terminale, fornisse l’accesso ai tre computer remoti? E’ questa l’idea, tutto sommato piuttosto lontana dalle bombe 9 atomiche, che sta all’origine del progetto della rete dell’ARPA, Arpanet. La funzionalità di questo tipo di comunicazione nell’eventualità di una guerra nucleare non è infondata, ma è solo una funzionalità ex post, una conseguenza più che una causa originante, cosa ben diversa dal sostenere che la rete dell’ARPA fu creata immediatamente ed esclusivamente per quello scopo: gli ingegneri si sono sforzati di costruire un network solido, per garantirne la crescita, e la struttura decentrata rispondeva pienamente a quest’esigenza, anche se andava contro la prassi dell’epoca e, soprattutto, contraddiceva i principi dell’organizzazione militare, incentrata su una struttura rigidamente gerarchica e verticale. Continua Huitema: Indubbiamente il fatto che non ci sia un “cervellone” che possa essere annientato con un “colpo letale” costituisce una delle condizioni necessarie per resistere a una guerra nucleare. Ma non è l’unica. Bisognerebbe anche assicurare i computer della rete dall’impatto con l’onda elettromagnetica, ovvero dalla tempesta elettronica che potrebbe provocare un’esplosione nucleare ad alta quota. L’unico modo per assicurare i computer di Internet contro questo genere di rischi sarebbe la blindatura di piombo. Mi risulta che una cosa simile non sia mai stata fatta. Nondimeno, il fatto che mancasse un punto centrale era sufficientemente rivoluzionario da suggestionare gli animi.10 La responsabilità di questo grossolano misunderstanding storico si deve alla stampa divulgativa, come al solito poco scientifica e rigorosa nel vaglio delle 9C. Huitema, Et Dieu créa l’INTERNET, Editions Eyrolles, 1995 (trad. it. E Dio creò INTERNET, Muzzio, Padova, 1996, pp. 31-32). 10C. Huitema, op. cit. , p. 33. fonti: in particolare è stato un articolo di “Time”11, dedicato all’Internet, a commettere l’errore di attribuirealla primigenia ARPANET la funzione di mezzo di comunicazione concepito per l’eventualità di uno scenario nucleare. In una contingenza siffatta - scrive l’estensore dell’articolo in questione“come si potrebbero comunicare gli ordini alle forze armate?”12. E, dato che i centri nevralgici del sistema comunicativo e informativo tradizionale (centrali telefoniche e stazioni radio e TV) erano non solo vulnerabili, ma probabile oggetto di sabotaggio da parte del nemico, il Pentagoono aveva bisogno di un sistema militare di comando e controllo che avrebbe continuato a essere operativo anche nel caso in cui la maggior parte delle linee telefoniche fossero fuori uso e le centraline fossero state distrutte13. Fu così che nel 1964 un ricercatore del RAND, Paul Baran, trovò una bizzarra soluzione a questo problema: fece il progetto di una rete di computer che non prevedeva nessun centro, nessuna autorità di gestione, partendo dal presupposto che i collegamenti fra le città fossero del tutto aleatori e inaffidabili14. Dopo aver letto questa ricostruzione romanzata, uno dei padri della Rete, Bob Taylor, che all’epoca lavorava all’ARPA come supervisore della ricerca informatica, scrisse una lettera in cui sollecitava una rettifica al direttore editoriale di “Time”, che perònon venne pubblicata15. L’errore è poi stato ripreso e amplificato dalla pubblicistica successiva- se non da tutti, per lo meno dai molti che non hanno avuto lo scrupolo di ricercare riscontri su fonti primarie16. 11P. Elmer Dewitt, First Nation in Cyberspace, “Time”, December 6, 1993, pp. 56-58. 12Ibidem, p. 56, traduzione mia. 13Ibidem. 14Ibidem. 15Hafner e Lyon, op. cit., p. 10. 16Quasi tutti gli studi consultati in questo lavoro hanno propagato questa inesattezza, come Sesto Potere di Martignago, Pasteris e Romagnolo, Apogeo, Milano 1997, Internet, di L. Floridi, il Saggiatore, Milano 1997, e molti altri. Lodevoli eccezioni sono rappresentate da F. Carlini, Internet, Pinocchio e il gendarme, Manifestolibri, Roma 1995, e C. Huitema, Et Dieu Gli antefatti Verso la metà degli anni '60 si formò, sotto la supervisione dell'ARPA, una comunità di ricerca informatica, localizzata in alcune delle università più prestigiose del paese e in alcuni grandi centri di calcolo. L'IPTO era l'ufficio dell'ARPA per le tecniche di elaborazione informatica, che aveva la funzione di coordinare i progetti di ricerca; lo stretto legame che si venne a creare tra l'agenzia del Pentagono e queste realtà accademiche era simbolizzato dalla presenza all'IPTO di tre terminali connessi con altrettanti computer (uno al MIT, uno a Berkeley, e il terzo a Santa Monica). Alla fine del 1962 arrivò all'ARPA J. C. R. Licklider, uno studioso di psicoacustica con robuste conoscenze informatiche, che lavorando come ricercatore al MIT aveva elaborato una teoria radicale e visionaria per quei tempi: sosteneva infatti che i computer non fossero solo macchine da calcolo, ma una vera e propria estensione del sistema neuronale, strumento per amplificare l'intelligenza umana e le sue facoltà analitiche. Licklider immaginava già una rete di "home computer consoles"17 e set televisivi collegati insieme; in un lavoro seminariale pubblicato nel '60, Man-Computer symbiosis, sosteneva che i computer avrebbero integrato le facoltà umane, svolgendo alcune mansioni fondamentali. "La speranza è che in pochi anni computer e cervello umano si fonderanno in un rapporto che potenzi le facoltà di entrambi"18. Appena preso possesso del suo ufficio, Licklider si mise a contattare i centri di calcolo più all'avanguardia per proporre dei contratti di ricerca; trovò i migliori informatici del momento , ricercatori di Stanford, del MIT, dell'UCLA19 e créa l’INTERNET, Editions Eyrolles, 1995 (trad. it. E Dio creò INTERNET, Muzzio, Padova, 1996). 17Hafner e Lyon, op. cit. , p. 34. 18Ibidem, traduzione mia. 19Acronimo della "University of California - Los Angeles" di Berkeley, e alcune compagnie disposte a lavorare ai programmi avanzati che aveva in mente, attirandoli nella sfera dell'ARPA. Soprannominò ironicamente il suo gruppo Intergalactic Computer Network ; la prima descrizione teorica di interazioni-transazioni sociali che possono essere espletate tramite networking, cioè collegando tra loro più sistemi informativi per facilitare il lavoro in comune dei ricercatori, è contenuta in una serie di appunti e annotazioni che prefiguravano un assetto globalmente interconnesso, in cui ogni attore poteva avere accesso a dati e programmi da qualsiasi postazione. Licklider aveva in questo modo delineato a livello embrionale un modello teorico simile all'attuale configurazione dell'Internet. Fu così che, in seguito, il nome di Intergalactic Network passò a indicare non solo un gruppo di accademici, ma anche un universo di computer interconnessi tramite cui ogni ricercatore avrebbe potuto comunicare i suoi memos agli altri. Licklider lasciò l'ARPA nel 1964, dopo aver spostato l'impegno dell'agenzia dai sistemi di comando e controllo per gli scenari di guerra alla ricerca avanzata in sistemi di time sharing, computer grafica e linguaggi avanzati. Il nome del suo ufficio, Command and Control Research, era mutato in IPTO (Information Processing Techniques Office), riflettendo il cambio di policy sopravvenuto. Fu lo stesso Licklider che scelse il suo successore, Ivan Sutherland, il maggiore esperto mondiale di computer grafica; nel '65 Sutherland chiamò Bob Taylor, che prese posto nella terminal room. Come Licklider, anche Taylor era uno studioso di psicoacustica e aveva lavorato come ricercatore alla NASA; presto comunicò al direttore dell'ARPA che voleva gestire dei fondi per esperimenti di networking. La situazione che delineò al suo superiore era la seguente: le imprese appaltatrici dell'IPTO, che per gran parte lavoravano presso dipartimenti universitari, cominciavano a richiedere sempre più risorse informatiche, con costi crescenti per il DoD. Per cui costruendo un sistema di links elettronici tra macchine, i ricercatori che seguivano progetti simili in parti diverse del paese avrebbero potuto condividere risorse e risultati più facilmente. Invece di distribuire per il paese alcuni costosi mainframes deputati a supportare la ricerca grafica avanzata, l'ARPA avrebbe potuto concentrare le risorse in una o due postazioni e ideare un modo affinché ogni ricercatore potesse raggiungerle.20 In tal modo ogni università e centri di ricerca avrebbe potuto focalizzare risorse e fondi su un aspetto diverso di un progetto in comune, comunicando i risultati agli altri in tempo reale, indipendentemente dalla dislocazione geografica.Taylor propose un esperimento di connessione cominciando con quattro nodi, per poi arrivare a dodici. Nel frattempo le prime ricerche di realtà virtuale si svolgevano presso l'Università dello Utah. La ricerca esigeva spese sempre maggiori per l'informatica ed era difficile e complicato condividere le risorse: se gli scienziati che facevano grafica a Salt Lake City volevano usare i programmi sviluppati al Lincoln Lab, per esempio, dovevano volare fino a Boston. Taylor era profondamente convinto della realizzabilità di una rete di computer: questa intuizione rappresentava lo sviluppo dell'idea di Licklider di amplificare le potenzialità dell'intelletto umano; per questo progetto aveva bisogno di un program manager che potesse supervisionare il design e la costruzione della rete: scelse per questa mansione un informatico esperto in telecomunicazioni del Lincoln Lab, Larry Roberts. Ma Taylor non era l'unico che aveva in mente il progetto di una rete di computer: fin dai primi anni '60 due altri ricercatori, Paul Baran e Donald Davies, che facevano parte di due istituti di ricerca differenti, uno in Europa e l'altro in America, erano arrivati alle stesse conclusioni rivoluzionarie di Taylor indipendentemente l'uno dall'altro. Baran lavorava al dipartimento di computer science della RAND Corporation21, dove sviluppò un interesse particolare per lo 20Hafner e Lyon, op. cit. , pp. 41-42. 21RAND Corporation, detta anche RAND Institute o semplicemente RAND: era inizialmente una divisione tecnica della Douglas Aircraft. Nel 1948 si separò per divenire un'impresa nonprofit con il fine di ottenere in appalto contratti di ricerca soprattutto dall'aviazione americana, l’Air Force. E' così diventata un istituto di ricerca, con base a Santa Monica, che studio delle condizioni di resistenza dei sistemi comunicativi in caso di attacco nucleare. A quel tempo infatti le reti di comunicazione di lunga distanza erano molto vulnerabili; Baran fu il primo a capire che l'unico modo di risolvere il problema della creazione di una rete più solida era con il ricorso alla tecnologia digitale: in alcuni paper tecnici, scritti in risposta alle obiezioni del mondo della ricerca e per spiegare dettagliatamente la sua proposta, sosteneva che le reti di dati sarebbero state più solide ed efficenti grazie all'introduzione di livelli più alti di ridondanza. Questa intuizione derivava dal paragone con il cervello umano, strutturato a reti neurali e in grado di continuare a esercitare le sue funzioni anche nel caso che una sua porzione subisca dei danni, poiché la maggioranza delle funzioni cerebrali non dipende da un unico gruppo cellulare. L'idea era quella di una struttura parcellizzata e segmentata in molte parti indipendenti le une dalle altre, e con una pluralità di connessioni interne. La configurazione teorica di base della rete che aveva in mente Baran era semplice e radicalmente nuova. Fino a quel momento le tipologie di network erano due, le reti centralizzate, con tutti i collegamenti che conducono ad un unico nodo centrale, e le reti decentralizzate, caratterizzate da vari centri nervosi principali (questo è lo schema ricalcato anche dall'attuale sistema telefonico). L'idea di Baran costituiva un terzo approccio: si tratta della cosiddetta rete distribuita. Questa non ha punti di commutazione centralizzati ed è composta da moltissimi nodi collegati gli uni agli altri in modo ridondante: il redudancy level è la categoria indicante il grado di connettività tra i nodi di una rete. Una rete distribuita caratterizzata da un numero minimo di link (da ogni nodo parte un solo collegamento), convenzionalmente assunta come livello di durante la guerra fredda faceva da think tank (centro di consulenza) per il Dipartimento della Difesa, svolgendo ricerche segretissime su scenari di guerre termonucleari. Nella visione del RAND la futura ARPANET rientrava nel progetto di una rete di controllo, comando e comunicazione in grado di resistere a un attacco termonucleare. ridondanza uno, era considerata estremamente vulnerabile. Baran condusse molte simulazioni per determinare le possibilità di resistenza di una rete nell'eventualità di un attacco nucleare e concluse che un buon livello di sicurezza sarebbe stato garantito da una rete con livello di ridondanza tre o quattro (da ogni nodo si dipanano tre o quattro link). La seconda idea di Baran era ancora più rivoluzionaria e riguardava la tecnica di trasmissione dei dati, frammentati in piccole porzioni, che Baran chiamò message block. Questa modalità di trasmissione dei dati, chiamata in seguito packet switching, è diventata uno dei caratteri distintivi del networking, perfettamente adatta al principio strutturale del no central authority che informa l’architettura di un distributed network: i dati, prima di essere inviati, vengono scissi e spediti autonomamente a destinazione, dove vengono ricomposti. Una rete che utilizza tale tecnica trasmissiva è costituita da alcune connessioni fisiche (cavi commutati o dedicati), che vengono condivise contemporaneamente da più utenti, cosicché nessuna sessione in corso può monopolizzare un canale di trasmissione. Infatti una connessione aperta in maniera esclusiva tra due macchine, come avverrebbe con una commutazione di circuito, saturerebbe subito le linee disponibili, con enorme dispendio di risorse: la tecnologia del packet switching, in virtù della condivisione delle linee, semplifica e razionalizza la trasmissione dei dati. Il primo scritto sulla teoria del packet switching d i c u i s i a b b i a testimonianza risale ancora più addietro rispetto agli studi di Baran; questo paper è del luglio del '61 e si deve a Leonard Kleinrock, che convinse Roberts delle grandi potenzialità di questa tecnica, utilizzabile per il trasferimento dei dati nel futuribile circuito di mainframes 22 connessi, e della sua superiorità rispetto alla commutazione di circuito, che prevedeva una trasmissione sincronica dei dati stessi. Fino a quel momento l'unico metodo per connettere network tra loro era il 22I mainframes erano i grandi cervelloni elettronici che potevano occupare anche lo spazio di una stanza e che funzionavano come stazione di lavoro unica per più persone, che contemporaneamente lavoravano ai vari terminali secondo la modalità del time sharing, alla lettera condivisione di tempo, tecnica in base a cui un computer centrale suddivide il suo tempo macchina tra i diversi programmi lanciati dai diversi terminali dai vari utenti. Attualmente i mainframes sono stati sostituiti quasi completamente dai PC, più maneggevoli, compatti e di uso personale. circuit switching, in cui due o più reti si interconnettono tramite un circuito endto-end, che collega direttamente due terminali che si scambiano dati in modo sincronico: è la tecnologia su cui si basa la telefonia tradizionale23. Alle stesse conclusioni era arrivato, nell'autunno del 1965, Donald Davies, un fisico del British National Physical Laboratory (NPL) di Londra, che scrisse il primo dei suoi paper su una rete di computer simile a quella di Baran. Nella primavera successiva fece una conferenza pubblica e descrisse la sua idea di spedire piccoli blocchi di informazioni, che chiamò packet, su una rete digitale. La somiglianza tecnica tra il lavoro di Davies e quello di Baran era sorprendente: le loro idee non erano somiglianti solo a livello concettuale, ma anche nei dettagli tecnici. C'era solo una significativa differenza: le motivazioni che portarono Davies a concepire una rete a "commutazione di pacchetto" non avevano niente a che fare con le implicazioni militari di Baran; Davies voleva semplicemente creare un nuovo sistema pubblico di telecomunicazioni più efficiente e rapido, sfruttando i punti di forza dei sistemi digitali. La scelta di Davies a favore del termine packet non fu casuale; infatti riteneva che bisognasse adoperare un nuovo termine per indicare le piccole porzioni di dati che viaggiavano separatamenete nella rete: tutte le altre possibilità (block, unit, section, segment, frame) furono scartate e fu scelto packet, anche perché c'erano termini simili in altre lingue. Genesi del ciberspazio 23Per comunicare, un utente del telefono compone un numero che determina la commutazione di una serie di circuiti, di modo che si stabilisce una linea fisica completamente dedicata ai due interlocutori: durante tutta la comunicazione il circuito rimane permanentemente occupato dai due utenti e nessun altro può usufruire della stessa linea. A metà degli anni '60, quindi, degli studiosi facenti parte di istituti di ricerca diversi avevano messo a punto, indipendentemente gli uni dagli altri, dei progetti di rete simili, definendo anche il nuovo tipo di architettura e le tecniche trasmissive dei dati. Il passo successivo era, a questo punto, quello di far "parlare" i computer fra loro. A tal fine nel 1965, lavorando assieme a Thomas Marill, Roberts realizzò la prima connessione telematica collegando un TX-2 del Lincoln Lab, nel Massachusetts, con un SDC Q-32 a Santa Monica, California, tramite una linea telefonica commutata a bassa velocità, creando il primo Wide Area Network 24 della storia delle telecomunicazioni. Questo esperimento confermò le attese sull'effettiva utilità di una condivisione a distanza di dati e programmi, e ribadì l'intuizione di Kleinrock riguardo all'inefficacia a tal fine della rete telefonica e alla superiorità tecnica della trasmissione a pacchetti. Alla fine del 1966 Roberts arrivò all'ARPA con il piano di sviluppare il concetto di rete di computer e immediatamente delineò il proprio progetto per quella che poi si sarebbe chiamata ARPANET. Il termine pacchetto, adottato dal team dell'NPL, guidato da Davies, venne accettato anche dagli altri due gruppi che avevano lavorato nella stessa direzione di ricerca, e si concordò la velocità di trasmissione dei dati nella futura ARPANET portandola dai precedenti 2,4 kbps a 50 kbps. Nel frattempo l'ARPA aveva stanziato dei fondi per finanziare una ricerca su uno dei componenti chiave del progetto, l'Interface Message Processor (IMP) , una macchina in grado di fare da interfaccia con altre macchine per il trattamento dei messaggi e dunque finalizzata a sperimentare la tecnica di trasmissione dei dati "a commutazione di pacchetto". L'appalto fu vinto nel dicembre del 1968 da un gruppo guidato da Frank Heart, che lavorava per una piccola azienda di Cambridge (Massachusetts), la BBN (Bolt Baranek and Newmann). Così, mentre il team della BBN insieme a Bob Kahn lavorava al progetto dell'IMP, giocando un ruolo determinante nel definire l'architettura della futura ARPANET, l'aspetto topologico e le (rilevanti) questioni economiche relative al network furono affrontate da Roberts con la collaborazione di Frank 24"Rete geograficamente distribuita", in cui i computer, spesso lontani fra loro (per esempio dislocati nelle varie sedi una multinazionale) sono collegati tra loro mediante una rete telefonica commutata, mentre nelle reti locali (LAN ), di solito realizzate all’interno di uno stesso edificio per uso d’ufficio (condivisione di periferiche, scambio di messaggi tra un piano e l’altro, ecc.) i computer sono connessi direttamente tramite cavo dedicato, quasi sempre con tecnologia Ethernet. Mentre le reti locali non permettono alcun tipo di accesso dall’esterno, leWAN sono reti aperte, e hanno anzi delle procedure già predisposte per connettere nuovi eleboratori remoti, da quelli di un’eventuale nuova sede, al computer portatile di un dipendente munito di modem. Heart e del suo team presso la Network Analysis Corporation. Il sistema di misura fu infine messo a punto da Kleinrock all'UCLA. Fu grazie alla teoria del packet switching di Kleinrock che il Network Measurement Center dell'UCLA venne selezionato e scelto come primo nodo25 dell'ARPANET. Questo si verificò nel settembre del 1969, quando il primo IMP, un DDP 516 dotato di 12 kilobytes di RAM (archeologia!), realizzato dalla BBN a partire da un computer Honeywell, fu installato all'UCLA e il primo computer host26 fu connesso al mainframe centrale dell'università. Fra gli studenti che parteciparono all'esperimento c'era Vint Cerf, in seguito universalmente riconosciuto come uno dei padri dell'Internet . Nelle settimane successive altri esemplari di IMP furono installati in altre tre prestigiose università americane. Lo Stanford Research Institute (SRI) di Menlo Park, California, fece installare un secondo nodo. Solo un mese più tardi fu inviato il primo messaggio host-to-host dal laboratorio di Kleinrock allo SRI. Gli altri due campus che si collegarono furono l'Università della California di Santa Barbara (UCSB), e l’ Università dello Utah di Salt Lake City. Presso questi ultimi due nodi vennero elaborati dei progetti di applicazioni visuali, mentre alcuni ricercatori dell'UCSB studiavano un metodo per la rappresentazione di funzioni matematiche e all'università dello Utah Robert Taylor e Ivan Sutherland conducevano uno studio sui metodi possibili per realizzare rappresentazioni tridimensionali in rete. Così, prima della fine del 1969, da questi primi quattro nodi aveva avuto origine l'ARPANET, prototipo in nuce di quella che poi sarebbe diventata universalmente nota come l'Internet. Anche in questo primissimo stadio la ricerca sul networking si muoveva sul doppio binario dell'indagine tecnico-strutturale e dell'aspetto funzionale della rete, cioè sul miglioramento della struttura portante e sulle possibili applicazioni. Tradizione che tuttora continua. 25Nel gergo informatico i nodi sono i punti di connessione tra le diverse articolazioni di una rete, solitamente occupati da un computer che smista il traffico in entrata e in uscita. 26Computer connesso in rete che “ospita” dati e servizi, o accetta “visite” dall’esterno. Un host computer è qualsiasi computer sull’Internet che risponda a tre requisiti: implementi i necessari protocolli di comunicazione, inclusa la suite TCP/IP, abbia un suo indirizzo IP individuale e possieda una connessione di comunicazione che gli permette di scambiare pacchetti di informazioni con altre macchine collegate in rete. Il primo stadio: l'ARPANET Il primo stadio della storia dell’Internet si identifica quindi con la fase sperimentale dell'ARPANET, la rete dell'ARPA. Quest’agenzia del DoD, il Department of Defense del governo statunitense, era deputata al finanziamento di ricerche nei settori di punta, anche senza immediati risvolti militari, dalla linguistica alla crittografia (le tecniche per cifrare i messaggi riservati, applicabili a vari media, dal telegrafo al computer) alla microelettronica. Il connubio tra scienza e mondo militare si era fatto ancor più interdipendente con la Guerra Fredda e il Pentagono era il finanziatore implicito o esplicito di tutte le iniziative di ricerca nelle università o nei centri di studi americani. In questo caso il fine non era quello di creare un circuito informativo tra i distretti militari disseminati per il paese, giacché a tale scopo sarebbe stato sufficiente collegare i grandi laboratori di ricerca militare e strategica. L'ARPANET serviva invece a creare un collegamento nel mondo accademico, nei cui dipartimenti si svolgevano anche le ricerche finanziate dal DoD e legate al settore militare-industriale. Nell'ambito accademico si avvertiva infatti l'esigenza di avere un contatto continuo con i ricercatori che lavoravano allo stesso progetto o sperimentavano le stesse applicazioni. Far parlare fra loro computer distanti anche migliaia di chilometri rispondeva a questa precisa esigenza, piuttosto che a quella di creare una rete militare riservata, e la stessa ARPANET era un progetto di ricerca per sperimentare la tecnica di trasmissione di dati numerici detta packet switching, che sarà uno dei connotati tecnici distintivi dell'Internet. Si voleva inoltre mettere la comunità degli accademici e dei ricercatori in grado di condividere i cervelloni potentissimi dei pochi grandi centri di supercalcolo, dal momento che alcuni progetti e applicazioni richiedevano l'elaborazione in tempi brevissimi di enormi quantità di valori numerici. La struttura decentrata della rete (caratteristica, questa, che rimarrà peculiare nella storia dell'Internet) era, in seconda istanza, funzionale alle esigenze strategiche della difesa. Infatti, in caso di improvviso attacco nemico e di un sabotaggio di un tratto del circuito, le comunicazioni in rete sarebbero continuate a essere operative, mentre nell'ipotesi di un assetto accentrato con un centro direzionale dal quale fossero partiti i comandi e le informazioni verso le articolazioni periferiche, un'eventualità siffatta avrebbe messo fuori uso tutto il sistema. Negli primi anni ‘70 altri computer si collegarono, incrementando i nodi dell'ARPANET. A questo punto il lavoro dei ricercatori si indirizzava verso un protocollo27 completo host-to-host e altri software di rete. Nel dicembre del 1970 il Network Working Group (NWG), sotto la guida di S. Crocker, portò a termine le ricerche dando veste definitiva al primo protocollo ARPANET, denominato Network Control Protocol (NCP). Quando nel periodo 1971-1972 si finì di implementare NCP sui siti di rete, gli utenti poterono finalmente cominciare a sviluppare le applicazioni. Nell'ottobre del 1972 Kahn presentò all'opinione pubblica la nuova tecnologia delle comunicazioni avanzate organizzando una grande dimostrazione di successo dell'ARPANET all'International Computer Communication Conference (ICCC). A tale conferenza risale la nascita dell 'Internetwork Working Group, un gruppo di lavoro per la ricerca di un protocollo planetario per far parlare i computer fra loro, del quale Vint Cerf venne nominato presidente. Sempre in quell'anno fu messa a punto una delle applicazioni che poi si rivelarono più popolari: la posta elettronica (E-Mail ). Ray Tomlinson della BBN (l'azienda che aveva prodotto il primo computer interfacciabile con altre macchine per la trasmissione dei dati a pacchetti) scrisse un software di base per l'invio e la lettura di messaggi in posta elettronica a cui poi Roberts apportò dei miglioramenti, ottenendo un programma atto a elencare, selezionare, classificare e rispondere ai messaggi: l'E-mail era pronta per diventare l'applicazione di rete più usata per oltre un decennio. Con il passare del tempo un numero sempre maggiore di centri di ricerca si collegò all'ARPANET, delineando in modo netto la futura fisionomia dell'Internet, basata sul principio di un'architettura aperta. L'idea era quella di dar vita a numerosi network, indipendenti gli uni dagli altri, il primo dei quali sarebbe stato l'ARPANET, a cui presto si sarebbero aggiunte reti satellitari, reti radio e altri network. In quest'ottica l'opzione a favore di una specifica tecnologia di rete non è determinata da una particolare architettura di rete, ma è il frutto di una 27Un protocollo è un codice comune, un insieme di regole attraverso cui due o più computer comunicano scambiandosi messaggi, indipendentemente dal sistema operativo e dall’architetturahardware, questo speciale software s tabilisce, per esempio, qual’è l’ammontare dei dati che può essere trasmesso in ogni istante, il formato che questi dati debbono avere e i criteri che presiedono all’assegnazione degli indirizzi. libera scelta da parte del provider 28, e l'interazione con gli altri network viene garantita da un meta-livello comune detto "Internetworking Architecture"29. In un sistema ad architettura aperta ogni network ha una struttura e uno sviluppo autonomi e può avere un'interfaccia unica, inoltre non ci sono limiti all'inglobamento di ulteriori articolazioni, in una dinamica di espansione potenzialmente infinita. L'idea di un assetto di rete ad architettura aperta fu introdotta da Kahn subito dopo il suo arrivo all'ARPA nel '72; la ricerca verteva all'inizio su un programma a pacchetti radio, e solo in seguito lo studio su un'architettura aperta divenne un programma autonomo. Il sistema a pacchetti radio funzionava grazie a un protocollo che permetteva la comunicazione anche in situazioni di disturbo o di interferenze o in presenza di un black-out dovuto, per esempio, al fatto di trovarsi in un tunnel. Kahn pensava di sviluppare un protocollo locale esclusivamente per la rete a pacchetti radio, poiché questo avrebbe evitato di dover affrontare il problema della gestione di differenti sistemi operativi, mentre, per le reti di computer prevedeva di continuare a usare il protocollo NCP. Tuttavia l'NCP consentiva la comunicazione solo tra macchine IMP connesse alla rete ARPANET: si rivelò quindi necessario apportarvi qualche modifica. Inoltre non garantiva di per sé l'arrivo dei pacchetti di informazioni a destinazione, servizio che dipendeva interamente dalla rete, per cui il protocollo non aveva una funzione di controllo sugli errori (come la perdita di pacchetti), in quanto all'inizio si pensava che l'ARPANET sarebbe stata l'unica rete e avrebbe dato garanzie di totale affidabilità. Kahn si accinse quindi ad apportare alcune modifiche al protocollo di rete in modo da soddisfare le esigenze di un'architettura aperta. In quest'opera fu affiancato da Vint Cerf, all'epoca ricercatore a Stanford: il nuovo protocollo sarà il famoso Transmission Control Protocol/Internet Protocol (TCP/IP). Nonostante il fatto che allo Xerox PARC 30 d i P alo Alto stessero già sperimentando una rete Ethernet, in quel periodo nessuno prevedeva lo sviluppo delle LAN 31, e, meno ancora, dei PC e delle workstation . Il modello che si 28Internet Service Provider (ISP) è il sistema telematico che affitta parte della sua connettività con la rete Internet al privato cittadino o alle piccole aziende. Il provider è uno dei milioni di nodi della Rete, connesso all’Internet in modo permanente con delle linee dedicate acquistate o affittate (in Italia l’unico fornitore di infrastrutture fisiche è per il momento la Telecom). 29<http//info.isoc.org/internet-history>. 30Palo Alto Research Center, centro di ricerca della Xerox. 31Vedi sopra, nota 10. prefigurava era un circuito numericamente limitato di reti nazionali come l'ARPANET, a cui si sarebbero applicati indirizzi di 32 bit , i cui primi otto indicavano la rete di appartenenza e gli altri ventiquattro si riferivano al computer host connesso a quel network Evidentemente si prevedeva lo sviluppo di non più di 256 reti32, e quando alla fine degli anni '70 cominciarono a nascere le LAN , questo paradigma di addressing dovette essere riformulato. La prima elaborazione del tandem Cerf-Kahn fu un protocollo denominato TCP, che provvedeva ai servizi di invio e trasporto in Internet con la completa garanzia dell'arrivo dei dati a destinazione nella stessa sequenza in cui erano stati inviati. I primi tentativi di implementare il nuovo protocollo resero evidenti le sue potenzialità per quanto riguardava le applicazioni di file transfer (trasferimento di file) e di remote login (la futura telnet)33, ma svelarono la sua inadeguatezza per le prime applicazioni di rete avanzate, in particolare la voce a pacchetti. Si giunse quindi a organizzare l'originario TCP in due distinti protocolli: il semplice IP venne concepito con la funzione di suddividere i dati in uscita in pacchetti di dimensioni variabili (da 200 a 1500 byte), e di inviare e indirizzare i singoli pacchetti a destinazione, mentre il set TCP era deputato al controllo del flusso dei dati, al corretto riassemblaggio finale e al recupero dei pacchetti persi. I pacchetti sono preceduti da un’intestazione (header), contenente l’indicazione della provenienza e della destinazione dei dati e un numero progressivo che contrassegna la posizione del pacchetto nell’insieme dei dati. Una volta suddivisi i dati in pacchetti, il protocollo li invia ad un router 34 che legge l’indirizzo contenuto negliheader e li instrada sul percorso libero più diretto alla destinazione finale. La direzione di questo instradamento cambia continuamente a seconda delle condizioni di traffico della rete: si tratta di un routing dinamico, in cui il tragitto viene ridisegnato continuamente in tempo reale. Nonostante il file transfer e il remote login siano applicazioni fondamentali, è tuttavia l'E-mail che ha avuto un impatto determinante sul modello delle 322 elevato all’ottava fa 256, dove 2 rappresenta il numero dei valori (0 e 1) che può assumere ogni bit., per cui se un network è indicato da un ottetto di bit, si possono numerare fino a 256 reti. 33Telnet è un'applicazione di rete che consente di connettersi a un computer host agendo dalla propria postazione come se fosse un terminale di quel computer. 34“Instradatore”: è un computer situato in un nodo della rete che svolge il compito di indirizzare alla stazione successiva, a monte o a valle, i pacchetti in transito, secondo le regole del protocollo TCP/IP. comunicazioni interpersonali, sulle comunicazioni e sull'organizzazione del lavoro, nonché sullo stesso sviluppo dell'Internet, essendo tuttora l’applicazionedi rete killer. Altre furono le applicazioni elaborate in questa prima fase, come la trasmissione della voce a pacchetti (prototipo della telefonia in rete). Il concetto che si è subito fatto strada è che l 'Internet non è concepita per una o più applicazioni predefinite, ma è un'infrastruttura flessibile che via via ne può assorbire di nuove, come dimostra la nascita del World Wide Web . E questo è possibile grazie al protocollo TCP/IP. L'ARPA stipulò tre differenti contratti con Stanford, dove lavorava Cerf, con la BBN, dove lavorava Ray Tomlinson e con l’ UCLA per l'implementazione di TCP/IP: nell'arco di un anno si erano realizzate tre diverse implementazioni del nuovo protocollo che potevano interagire tra loro. Non era che l'inizio di una lunga fase sperimentale in cui ai primi tre network (ARPANET, rete radio e rete satellitare) si sono aggiunti altri circuiti di ogni tipo con le loro comunità scientifiche. Lo sviluppo delle LAN , d e i P C e d e l l e workstation durante anni '80 corrispose a una grande spinta espansiva dell'Internet; la tecnologia Ethernet, nata allo Xerox PARK nel 1973, è ora probabilmente la tecnologia di rete dominante nell'Internet e i PC i computer più diffusi. Il passaggio da un modello con pochi network (l'originaria ARPANET) a uno con molti network ha avuto delle ripercussioni a livello delle tecnologie e dei concetti di base. Innanzitutto le reti sono state ripartite in tre categorie: la classe A delle reti nazionali, la classe B delle reti regionali e la classe C delle reti locali, che erano un folto numero di network con relativamente pochi host . Per rendere più semplice l'uso della rete agli utenti furono assegnati agli host dei nomi che andavano a sostituire gli indirizzi numerici. Il secondo stadio: la rete della comunità scientifica La prima fase della storia dell'Internet copre all'incirca gli anni '70: è il periodo in cui l'ARPANET comprende solo qualche decina di nodi, tutti negli Stati Uniti o in qualche base americana all'estero, e risponde alla funzione di coordinare la ricerca scientifica su progetti sponsorizzati dai militari, oltre a quella di sperimentare le nuove tecnologie del networking. In questa fase sperimentale le regole d'accesso alla rete venivano dettate dalle autorità militari competenti. Una delle sfide che segnò lo spartiacque nell'evoluzione dell'Internet fu la transizione dell’ARPANET dal protocollo NCP al nuovo TCP/IP, programmata a partire dal primo gennaio 1983: in questo giorno-simbolo tutti gli host dovettero contemporaneamente convertire il proprio protocollo di comunicazione al fine di consentire l’internetworking planetario. La logica del nuovo protocollo è quella di superare le barriere fra le varie reti, che aprono dei varchi, i gateways, per comunicare fra loro. ARPANET diventa ARPA Internet e poi semplicemente Internet Il nuovo protocollo in realtà era già stato adottato tre anni prima in via sperimentale come standard della Difesa: questo permise all'ARPA di condividere quella che sarebbe divenuta la futura tecnologia Internet. Ormai i tempi erano maturi per la separazione della comunità militare dalla comunità accademica. La transizione dell'ARPANET al nuovo protocollo TCP/IP, nel 1983, segnò quindi lo scorporo della rete più prettamente militare usata per fini specificamente operativi e chiamata Milnet , dall’ARPANET, che continuò a essere la rete della comunità accademica finalizzata al sostegno della ricerca. Mentre il numero dei centri di ricerca connessi all'ARPANET stava conoscendo un incremento vistoso presso i ricercatori informatici, altri network erano nati presso altre comunità fin dalla fine degli anni '70: il Dipartimento dell'Energia aveva costituito MFENet per i suoi ricercatori addetti alla ricerca sull'energia della fusione magnetica, mentre i fisici delle alte energie, sempre appartenenti alla stessa istituzione, avevano creato HEPNet; i fisici della NASA si erano connessi in una rete denominata SPAN, e la comunità informatica accademica e industriale aveva creato CSNet (Computer Science Network). Nel 1979 tre studenti dell’Università del North Carolina e della Duke University idearono una connessione per ospitare gruppi di discussione senza collegarsi all’ARPANET: nacque così una rete, che inizialmente collegava computer dotati del sistema operativo UNIX, denominata USENET, una “BBS flottante”35; con questa modalità di connessione un computer chiama un altro via modem e gli trasferisce il contenuto di tutte le News in questione e così via, in un tam tam telematico.36; nel 1981 nacque BITNet, che in un primoo momento 35G. Salza, Che cosa ci faccio in Internet, Edizioni Theoria, Roma-Napoli, 1995, p. 19. 36Fu Christensen a scoprire che ogni computer può connettersi online con un altro grazie al modem, che permette di convogliare i bit su una linea telefonica commutata. Era necessario, però, un programma in grado di correggere gli errori causati dal telefono: il protocollo di trasmissione inventato da Christensen si chiama XModem: fu così che, nel 1978, insieme a connetteva solo mainframe IBM e aveva la funzione di trasferimento di file e di gestione della posta elettronica. Nonostante la tecnologia arcaica la policy d'accesso estremamente aperta decretò la diffusione e il successo di questa rete anche fuori dagli Stati Uniti; oggi tuttavia BITNet è una rete in declino essendo i suoi nodi anche nell'Internet . Questi primi network, a eccezione di USENet e di BITNet, erano comunità estremamente chiuse la cui attività era finalizzata alla ricerca accademica. Oltre alla posta elettronica presto prese piede un'altra applicazione di largo impiego presso gli studiosi, la conference on line, una sorta di agenda elettronica per le discussioni in rete tra ricercatori che conducevano uno studio in un ambito comune. Nel 1986 la National Science Foundation, un ente governativo federale con il compito di promuovere, di concerto con le istituzioni accademiche, la ricerca scientifica, fece partire il programma NSFNet, affidato a Dennis Jennings, che era venuto a tal fine dall'Irlanda: il progetto prevedeva un'infrastruttura di tipo WAN 37 ad alta velocità (58 Kbps) che facesse da supporto alla comunità accademica della ricerca, divenendo un’arteria portante dell’intera Rete. In tal modo vennero messe a disposizione di istituzioni non commerciali risorse enormi, concentrate in sei centri di calcolo e di elaborazione dotati di supercomputer. La NSF decise anche di sostenere finanziariamente l'infrastruttura organizzativa della rete esistente, gerarchicamente subordinata all'Internet Activities Board (IAB). Varie altre policy furono decise in aggiunta a quel programma; le agenzie federali avrebbero diviso i costi delle infrastrutture comuni, come i cavi transoceanici. Per coordinare tale cooperazione fu creato un organismo ad hoc , il Federal Networking Council. La NSF stimolò i propri network regionali connessi all'NSFNet (inizialmente esclusivamente accademici) a cercare clienti commerciali, a creare servizi adatti a questo tipo di utenza e ad abbassare i costi di abbonamento in un'ottica di espansione commerciale, mentre a livello federale rafforzò una "Acceptable Use un amico, diede vita alla prima BBS, area di libero dibattito ospitata su un computer che fa da server per tutti quelli che si connettono via modem. 37Vedi sopra, nota 10. Policy " che riservava l'uso del backbone 38 (il segmento su scala nazionale di NSFNet) solo per fini "di ricerca e di istruzione"39. Incoraggiando il traffico commerciale di rete a livello locale e regionale, mentre si negava l'accesso al troncone di trasporto nazionale, si mirava a incentivare la nascita o la crescita di network "privati e competitivi"40 di lunga portata come PSI e UUNet 41. Il fatto che non esistessero strutture centrali direttive, e che ogni nuovo circuito connesso fosse responsabile, sotto un profilo finanziario e amministrativo, dei propri host e del proprio tratto di rete, fu il fattore istituzionale che permise la crescita libera e spontanea dell’Internet. Nel 1989 NSFNet venne potenziata attraverso una rete T1 della portata trasmissiva di 1,544 Mbps, per poi passare, nel 1992, a una linea T3 a 44,736 Mbps42. Il processo di commercializzazione della Rete, che stava lentamente portando a un potenziamento dell'uso del mezzo ai fini del business on line, si è imposto all'attenzione degli analisti a partire dal 1988 con un ciclo di conferenze organizzate dalla NSF presso la Kennedy School of Government a Harvard.sul tema della “Commercialization and Privatization of the Internet”; le politiche di liberalizzazione sono culminate nell’aprile del 1995, quando la NSF deliberò il taglio dei finanziamenti del backbone. I.VI. Il terzo stadio: l'Internet viaggia world wide e diventa strumento di socialità Il backbone ha segnato la transizione dalla rete della comunità accademica a un'utenza contraddistinta dai caratteri dell'universalità43: in soli otto anni, dal 1986 al 1994, ha visto crescere la propria articolazione dai primi sei nodi a 38E' la "spina dorsale", lo scheletro delle principali articolazioni di una rete, compooste da linee dedicate ad altissima velocità, che collegano alcuni supercomputer nevralgici dislocati anche a grande distanza fra loro. 39<htto//info.isoc.org/internet-history>, traduzione mia. 40Ibidem. 41Ibidem. 42M. Calvo, F. Ciotti, G. Roncaglia, M. A. Zela, Internet ‘97, Laterza, Bari 1997, p. 17. 43Berretti e Zambardino, op. cit., 1995. ventuno nodi, mentre l'Internet nel suo complesso è arrivata a connettere oltre cinquantamila network in tutti e cinque i continenti, di cui ventinovemila solo negli Stati Uniti44: il peso del programma di NSFNet sia a livello di finanziamenti (sono stati investiti ben duecento milioni di dollari dall'86 al '95) sia di promozione politico-culturale è stato così determinante che alla fine del '90, quando l'ARPANET, la prima rete della storia delle telecomunicazioni avanzate, venne smantellata, TCP/IP aveva già soppiantato o comunque marginalizzato tutti gli altri protocolli di rete a diffusione "ampia", e IP era sulla strada giusta per diventare la chiave per la Global Information Infrastructure. In Italia il primo ente collegato all’Internet è stato l’Istituto Nazionale di Fisi ca Nucleare; poi, con la creazione dell GARR (Gruppo per l’Armonizzazione delle Reti e la Ricerca) si sono collegate università e centri di ricerca, mentre l’accesso universale offerto daiprovider privati è giunto a metà degli anni ‘90. Il passaggio alla fase dell'universalità non è netto, come non lo era stato nemmeno il precedente: in fondo le transizioni dalla rete dell'ARPA a quella della comunità accademica, del tutto svincolata da una funzionalità strategico-militare (che comunque non era stata immediata nemmeno nella primissima fase) e infine alla rete delle comunità virtuali 45 sono snodi graduali di un'evoluzione senza alcuna soluzione di continuità. I primi abitanti della rete, i ricercatori delle università e dei centri di studi, quasi subito hanno cominciato a usare l'Internet per scopi non istituzionali, come scambiarsi messaggi e creare aree di libero dibattito e confronto sui subject più disparati; così è successo che sono stati gli utenti che hanno piegato il mezzo, originariamente concepito per finalità nettamente differenti, a nuove funzioni che hanno finito per connotarlo in modo egemonico. E, dato che tutto nel nostro mondo viene trasformato in merce e consumo, la formazione di questo nuovo tipo di utenza di massa ha attirato anche venditori vari di merce-informazione (immateriale) e anche di mercemerce (materialissima) - lasciando da parte la diffusione amatoriale o a scopo di lucro di materiale pornografico, che essendo comunque marginale rispetto alla quantità di dati e informazioni scambiati in rete46 (e comunque non differendo in nulla dalla pornografia cartacea o in video), serve soltanto a rinfocolare le pulsioni censorie dei postmoderni Catoni alla Gringrich. 44<http//info.isoc.org/internet-history>. 45Si tratta di una categoria sociologica abbastanza controversa formulata dallo studioso americano Howard Rheingold, la cui opera The Virtual Community è diventata un libro di culto tra gli appassionati del surfing digitale e si può anche leggere, opportunamente riadattata, online . 46Vedi F. Carlini, Internet, Pinocchio e il gendarme , Manifestolibri, Roma 1996. Se comunque volessimo individuare uno spartiacque convenzionale per segnare il passaggio alla fase della rete universale, network della galassia delle comunità virtuali, potremmo fare riferimento alla scansione proposta da Berretti e Zambardino47, i quali suggeriscono come data chiave il 1988, quando la MCI, la holding americana delle telecomunicazioni, propose alla NSF, l'agenzia che gestiva la rete, di connettere il proprio servizio di posta elettronica all'Internet. In questo modo si interrompeva il monopolio della rete da parte della comunità scientifica, aprendo totalmente l'accesso all'utenza di massa. Si pensava così che il conseguente aumento di connettività sarebbe stato un vantaggio per tutti, ed effettivamente il boom dell’Internet ha confermato questa intuizione: come sostiene Rutkowsky48, "connectivity is its own reward", vale a dire "la connettività è una ricompensa, un bene in se stessa", da perseguire in quanto aumenta il valore intrinseco della Rete che, più viene navigata , maggiormente acquista valore per un'utenza sempre più allargata. Il ciberspazio diventa così la babele dove, con la stessa velocità e fluidità magmatica, si aggregano e si disaggregano comunità virtuali, talvolta sulla base di un interesse effimero o molto settoriale, tal'altra sulla base di valori o ideali condivisi, se non addirittura di un progetto comune di azione politica, sociale o culturale. La Rete è il medium di controinformazione di gruppi politici libertari di sinistra, si è prestata a veicolare e propagare l'urlo di rivolta degli indios chiapanechi del Subcomandante Marcos, prima guerriglia dell'era (postmoderna) dell'informazione, ma ospita anche siti di propaganda neo-nazista dove vengono divulgate tesi negazioniste o revisioniste. La Rete è insomma diventata un reale terreno di ricerca, in grado di farsi cornice di attività sociali, come testimonia la prima conferenza internazionale sulle comunità virtuali, “Virtual Communities 97”, tenutasi a Sidney nella primavera del ‘9749: il meeting ha analizzato i risvolti sociali delle varie comunità formatesi in rete negli ultimi anni, passando in rassegna i casi più emblematici. Ne è emersa l’idea non di un’entità separata dalla vita reale50, ma una estensione e ampliamento di questa, un nuovo spazio di interazione sociale sul paradigma di “società aperta” formulato da Popper: il futuro della Rete - pare di capire - sarà la risultante di due linee-forza che rappresentano il grado di interattività e di 47Op. cit. 48Citato da C. Huitema, Et Dieu créa l'Internet , Editions Eyrolle, 1995 (trad. it. E Dio creò Internet , Muzzio, Padova 1996). 49P. Rosati (Hobo), Il mercato delle identità, in “Alì Babà” n.3 , inserto settimanale de“il Manifesto” del 7 maggio 1997. 50RL, cioè Real Life, come la chiamano gli americani. accesso al Net: le ipotesi limite sono rappresentate dal “Net shock” (massima interattività e accesso), che presumibilmente potrebbe indurre delle trasformazioni sociali radicali, al “Niche Medium” (passività totale e accesso limitato), situazione in cui solo un’élite rimane depositaria del sapere hi-tech; tutti gli altri esiti, con una diversa declinazione delle due variabili determinanti, sono delle soluzioni intermedie tra questi due estremi: il processo, dunque, è lungi dall’essersi concluso. I.VII. La prospettiva di un suq virtuale In una società di mercato post-fordista, dove è sulla via del tramonto l'economia di scala fondata sui beni di largo consumo e dove i mercati sono saturi51, un'utenza di rete, divenuta ormai di massa, rappresenta un enorme e nuovo bacino di potenziali consumatori, facilmente raggiungibile. La prima fase di commercializzazione della rete ha riguardato le compagnie che vendono prodotti deputati a implementare la tecnologia Internet, innanzitutto software e applicazioni di rete, e le compagnie che offrono la connettività e i servizi Internet di base, i cosiddetti provider (fornitori di accessi in rete), che vendono all'utenza privata (singoli cittadini e imprese) un abbonamento (in genere di tipo forfetario a scadenza annuale) per l'ingresso in rete. Poi ci sono le aziende, per giunta in Europa monopolistiche fino al primo gennaio 1998, che gestiscono i servizi telefonici e che realizzano ingenti profitti, oltre che sulla telefonia tradizionale, anche sul traffico Internet, in quanto gli abbonati si connettono in rete arrivando al provider tramite il doppino 52 telefonico. Allo stato attuale, pur se si tratta di fenomeni tuttora allo stato embrionale e di tendenze ancora da verificare, l'attenzione degli operatori economici è puntata sull'uso di questa infrastruttura globale informativa come veicolo di altri servizi commerciali, quelli che tradizionalmente si sono serviti di altri media d i promozione-informazione. 51P. Ingrao e R. Rossanda, Appuntamenti di fine secolo , Manifestolibri, Roma 1996. 52Si chiama così il cavo che trasporta i segnali analogici della telefonia tradizionale, contenente due fili di rame. Talune attività economiche attraverso la Rete possono trovare un inedito ed efficace medium che consente di effettuare le transazioni in tempo reale: si può trattare di un'impresa che tramite il suo sito presenta tutti i propri prodotti e servizi, con l'opzione per il consumatore di fare un ordinativo comodamente da casa propria con un semplice click, oppure di un servizio finanziario offerto da una società fornitrice di accessi, che consente all'utente di accedere alla piazza azionaria online con la possibilità di acquistare o vendere azioni o titoli di credito (questa possibilità è offerta solo dalla Borsa di Wall Street, mentre per Piazza Affari è disponibile unicamente un servizio informativo), o ancora sono molti i casi di piccoli esercizi commerciali che incrementano notevolmente il proprio fatturato aggiungendo alla vendita al dettaglio la vendita a domicilio previo ordinativo in rete, raggiungendo una fascia di consumatori altrimenti irraggiungibile. La maggioranza dei drugstore coreani o delle pizzerie italiane di New York ha una home page 53 in Internet. Sempre tramite rete un'agenzia di viaggi, se non direttamente l'interessato, può tele-prenotare una stanza d'albergo o un'automobile da noleggio che lo attenda all'aeroporto. Insomma l’Internet rischia una totale mutazione di identità a livello di utenza e a livello di funzioni, diventando un mercato virtuale potenzialmente illimitato in cui ogni sorta di venditore cerca di piazzare merci di ogni tipo: già alla fine del 1993 il numero degli host commerciali aveva superato il numero di quelli accademici e dedicati alla ricerca, diventando al forza trainante della crescita del network., mentre nel 1995 l’NSFNet tornò a essere una rete esclusivamente dedicata alla ricerca e il traffico principale sulla dorsale americana iniziò a essere gestito esclusivamente da provider commerciali. Resta da vedere se si tratti di una semplice evoluzione all'interno di un percorso che non viene stravolto, come sostengono Berretti e Zambardino54, che anzi auspicano che il mercato entri nella Rete con i propri meccanismi dinamici e stimolanti, oppure se la longa manus di forti interessi privati non determini uno stravolgimento che snatura le caratteristiche di un medium che, per la sua gratuità e orizzontalità, ha permesso e favorito processi comunicativi improntati alla libertà e all'interattività. 53E' la pagina Web di presentazione di un sito, dove di solito vengono presentati in modo sintetico l'attività o l'oggetto in questione, corredata da dati multimediali (testo e immagini, ma anche suoni o immagini in movimento): dalla home page di un sito si diramano i link alle altre pagine del sito o ad altri siti.E’ così chiamata anche perché inizialmente rappresentava in modo stilizzato l’edificio in cui si stava entrando (un’università, un’azienda, un ente). 54Berretti e Zambardino, op. cit. Chiaramente qui si scontrano categorie interpretative radicalmente diverse, che rimandano a opzioni culturali e politiche che interrogano l'intera società da punti di vista opposti. Il primo di questi punti di vista, che può essere definito tecno-liberale , vede l'economia di mercato come il motore vitale di tutte le attività umane, in grado, nonostante alcuni costi sociali evidenti, di imprimere una spinta dinamica alla società nel suo insieme: la Rete e le sue nuove tecnologie riceverebbero così solo input benefici dall'interazione con il mercato, che favorirebbe il sorgere di nuovi prodotti, nuovi servizi e nuova utenza. Il secondo, che può essere definito tecno-libertario , vede il mercato come la giungla della sopraffazione dei più deboli da parte dei più forti, in grado di piegare alle proprie logiche alienanti di mercificazione e di profitto l'intero campo dell'esperienza umana, e a esso contrappone una tensione politica ed esistenziale verso una comunità di liberi e uguali, regolata da pratiche di autogestione e di autoorganizzazione: finora l'Internet ha così rappresentato per questo filone ciberlibertario il prototipo di comunità virtuale improntato all'eguaglianza e alla mutua cooperazione, anziché alla disuguaglianza e alla competitività che regolano il mondo reale, una sorta di società parallela priva di centro e di controllo, che per qualche strana combinazione storica si è sottratta alla legge opprimente della funzionalità sistemica, sfuggendo di mano ai suoi creatori e costituendo un'occasione preziosa come strumento di comunicazione e di aggregazione libero e orizzontale (la metafora della rete, simbolo di relazionalità orizzontale e di potere distribuito, contrapposta a quella della piramide o dell'albero, simbolo di un principio gerarchico e di autorià verticale, gioca, in questo senso, un grandissimo ruolo nell'ordine simbolico). L'arrivo di interessi privati e il profilarsi di strategie commerciali in rete a opera delle grandi corporation viene visto di conseguenza come una colonizzazione indebita da parte di una forza, il mercato, che risponde a una legge interna opposta a quella che informa la Rete. C'è così il pericolo attualissimo e per nulla virtuale di una transustanziazione dell 'Internet in una Businessnet55, una sorta di grande ipermercato virtuale dove gli utenti della rete sono ridotti alla semplice categoria di consumatori e non più agenti di comunicazione. Tutto ciò è stato accelerato dal World Wide Web , l'ultima applicazione di rete che, con la propria struttura ipertestuale colorata e multimediale, si presta a veicolare un'informazione unidirezionale, nella quale 55Il termine è di Carlini, op. cit, 1995. l'approccio diventa quasi di tipo televisivo e la navigazione da una pagina all'altra (un surfing nei meandri del ciberspazio che ricorda lo zapping nell'etere) esaurisce sempre più spesso la fruizione della Rete, lasciando inesplorate per i più le enormi potenzialità comunicative del medium e confinando le sue pressoché infinite virtù interattive alla scelta da parte dell'utente del link da effettuare: favorendo un contesto comunicativo, che privilegia gli effetti spettacolari e determina una fruizione essenzialmente ricettiva, il Web risulta funzionalissimo alle più avanzate strategie di marketing e si può facilmente trasformare in una galleria di vetrine per l'esposizione di prodotti. Nel 1995 la FNC ha votato all'unanimità una risoluzione che definisce l'Internet come segue: "Internet si riferisce al sistema globale di informazione che è connesso in un unico spazio globale di indirizzi basato sul protocollo Internet (IP) o su altri protocolli IP-compatibili, espleta funzioni di comunicazione usando il Transmission Control Protocol/Internet Protocol (TCP/IP) o altri protocolli IP-compatibili e fornisce, usa o rende accessibili servizi telematici e le relative infrastrutture"56. Internet: sostanza o accidente? Se usciamo dall'ambito divulgativo bisogna notare come l'Internet in realtà non esista in sé, cioè come organizzazione unica e come struttura fisica. Da un punto di vista fisico, infatti, l'Internet è un groviglio di reti locali (le LAN ), che generalmente sono network di aziende o di università e che, per la maggior parte, sono di tipo Ethernet, una delle modalità di connessione più efficienti. Queste reti si connettono con le altre tramite delle passerelle (gateways ) che consentono il passaggio dei dati usando canali diversi che normalmente sono le linee telefoniche dette commutate, utilizzate per uno scopo differente da quello usuale, che è il trasporto di segnali analogici veicolanti la voce, le quali, a loro volta, si servono di condotti fisici diversi, che possono essere i cavi di rame, i cavi in fibra ottica, i cavi sottomarini, i ponti radio a microonde e i satelliti. 56<http//info.isoc.org/internet-history/#Introduction>. Dunque buona parte delle strutture che trasportano i pacchetti di bit è di proprietà delle compagnie telefoniche. Generalmente le linee telefoniche commutate, specie se utilizzano il doppino di rame, sono molto lente nel trasporto dei dati57, così, nei casi in cui siano richieste prestazioni più efficienti, cioè una maggiore velocità nel trasferimento dei dati e un'assenza di disturbi sulla linea, si fa ricorso a tratti di rete appositamente costruiti o affittati esclusivamente per tale scopo dalle aziende che gestiscono i cavi telefonici (si tratta delle cosiddette linee telefoniche dedicate). Questi tronconi ad alta velocità sono la dorsale (il backbone ) d e l l 'Internet, che dovrebbe costituire il prototipo per il futuro cablaggio universale del programma GII, il quale però presenta l'inconveniente di essere molto costoso, circa mille dollari per ogni utente raggiunto. Per il momento, quindi, la Rete è formata da tronchi a essa espressamente dedicati, ma anche da tutta una serie di collegamenti estemporanei che si stabiliscono attraverso canali diversi, grazie alla suite 58 TCP/IP, open standard implementabile su ogni sistema operativo e piattaforma esistente, e su ogni tipo di supporto di rete, che sia una rete locale Ethernet, o una linea telefonica, o una rete satellitare, o un cavo in fibra ottica. A livello istituzionale l’Internet è una struttura federativa con alcuni organi di controllo che gestiscono l’evoluzione tecnica della Rete: l’ Internet Society (ISOC) è un’organizzazione internazionale deputata alla cooperazione e al coordinamento mondiale delle tecnologie e delle applicazioni Internet, costituita da migliaia di membri provenienti da società private, enti pubblici e fondazioni che in parte sono gli stessi che hanno contribuito alla nascita e allo sviluppo della Rete. L’Internet Architecture Board (IAB), precedentemente noto come Internet Activity Board, è invece un organismo che si occupa dei differenti aspetti tecnici, e si compone di due task force , l’Internet Engineering Task Force (IETF), comunità internazionale aperta a ricercatori, network designer, operatori commerciali, con la funzione di coordinare l’evoluzione tecnica dell’Internet nel 57Un normale cavo telefonico in rame trasporta 36 kb al secondo, velocità accettabile se si tratta di un testo, ma che diventa estenuante se a essere trasferiti sono un'immagine o un video. 58Suite in quanto si tratta in realtà di un insieme di protocolli di comunicazione, ognuno con una funzioone specifica, organizzati in maniera gerarchica: in termini tecnici si dice che è un “protocollo a strati di servizi” (layers of services ). breve periodo, e l’Internet Research Task Force (IRTF), che studia la Rete in una prospettiva evolutiva di lungo periodo59. Ogni sottorete ha una propria autorità amministrativa, è responsabile del proprio traffico interno e gestisce l’instradamento dei dati all’esterno. La nascita della ragnatela multimediale A livello di divulgazione giornalistica si usano le dizioni di Internet, Rete e World Wide Web (abbreviato in Web) come sinonimi, ma ciò non è esatto. L'Internet, o la Rete, indica quella complessa struttura asimmetrica e disomogenea fatta di migliaia di reti locali e di WAN, mentre il World Wide Web (W W W ) o, come dicono gli americani, il W3 (doppia V al cubo), è una particolare applicazione di rete che consiste in un protocollo, ossia in un insieme di regole per gestire le informazioni su Internet, che va a integrare il protocollo di base, che è il TCP/IP, permettendo di accedere a documenti integrati in rete tramite il linguaggio per la descrizione di ipertesti (HTML). Questa particolare interfaccia visuale della Rete è stata ideata nel 1990 da Tim Berners-Lee come supporto ai fisici del CERN60 di Ginevra, il laboratorio internazionale di ricerca sulle particelle ad alta velocità, che stavano studiando un modo per comunicare in rete dati non solo testuali, ma anche audio e video. Naturalmente esisteva già il modo di inviare immagini, tabelle e grafici, nonché suoni, ma era necessario creare un sistema unificato per trattare la multimedialità, e il Web corrisponde pienamente a tale esigenza. Nelle pagine Web, infatti, è possibile inserire i linguaggi di tutti gli altri media: suoni, immagini ferme e in movimento, addirittura filmati. Il linguaggio HTML61 in cui sono scritte le pagine W W W è diventato il veicolo di nuove professionalità e di nuovi linguaggi finora separati nei generi dei 59E. Guidotti, Internet e comunicazione. Per capire come cambia il modo di comunicare l’impresa con Internet, FrancoAngeli, Milano 1997, pp. 21-23. 60Conseil Européen pour la Recherche Nucléaire. 61Acronimo di HyperText Markup Language. media . Alla base di tale linguaggio ci sono due concetti, quello di ipertesto 62 e quello di networked information (informazione distribuita in rete). L'ipertesto è un documento fatto di testo, immagini, suoni, in cui alcuni dei suoi elementi (appunto una parola o una icona), visualizzati in modo particolare, per esempio con una sottolineatura, un colore diverso o caratteri in grassetto, sottendono dei rimandi ad altre pagine localizzate nello stesso sito o addirittura in un sito diverso, magari a migliaia di chilometri di distanza. Cliccando su queste "àncore", come si dice in gergo Web (in inglese hyperlink ) che funzionano come i rimandi testuali di una enciclopedia, si passa automaticamente alla nuova pagina in un percorso che risulta del tutto personalizzato, a seconda dei link che si decida di stabilire. Infatti il server63 a cui siamo connessi provvede a inviare il documento collegato all'àncora, prelevandolo anche da una postazione lontana. Il risultato è una navigazione labirintica da una pagina Web all'altra senza neppure la percezione visiva di collegamenti istantanei e differenziati con siti dislocati geograficamente anche in diverse parti del globo, dal momento che la connessione è immersa direttamente nel documento, rendendo così l'informazione distribuita in rete. Se in precedenza, quindi, l 'Internet poteva essere immaginata come un sistema di computer collegati, ognuno dotato di un archivio di informazioni, ora si può immaginare il Web come uno spazio virtuale aggregato, e allo stesso tempo disomogeneo, in cui galleggiano le informazioni. Da qui la pregnante metafora della ragnatela ipertestuale, che sembra avvolgere la rete e che disegna le connessioni in modo intricatissimo, anche se ha ragione Carlini64 nell'evidenziare l'improprietà di questa immagine, in quanto la tela di ragno è simmetrica e ha un centro dal quale si dipana, laddove il Web è del tutto irregolare e acefalo e non ha un centro unificante, come, del resto, la struttura della rete che ricalca. Tecnicamente parlando, quindi, il W W W è un insieme di protocolli che identificano i documenti tramite la loro collocazione in rete, indicano il modo di attribuire gli indirizzi ai documenti impiegando il linguaggio HTML, specificano il 62Questo termine è stato usato per la prima volta da Theodor H. Nelson negli anni Sessanta per indicare “una serie di brani di testo tra cui sono definiti dei collegamenti che consentono al lettore differenti cammini” (brano tratto da Literary Machines , citato in MartignagoPasteris-Romagnolo, Sesto Potere , Apogeo, Milano 1997, p. 72.). 63E’ il computer che offre dei servizi centralizzati, per esempio mettendo a disposizione programmi o dati, a diversi client che gli chiedono delle prestazioni. 64F. Carlini, op. cit., 1995, p. 183. modo di richiedere e trasferire un documento in rete (è l'HTTP, HyperText Transfer Protocol). Per navigare in questo sistema di iperdocumenti multimediali servono degli appositi software detti browser , cioè "sfogliatori" di pagine Web. Il primo, denominato Mosaic, fu creato nell'autunno del 1993 al National Center for Supercomputing Applications (NCSA) dell'università di Urbana-Champaign nell'Illinois65. Il grande successo di questo programma è dipeso da due ordini di fattori: si tratta di uno strumento facile e intuitivo (funziona a finestre apribili e chiudibii solo a colpi di mouse ) e si applica a tre diversi sistemi di hardwaresoftware , c i o è a l l e workstation di fascia alta che impiegano un sistema operativo Unix e il sistema client server detto X-Windows, ai Mac e ai PC. Da quando Mosaic è stato lanciato in rete il traffico sull'Internet ha subito un incremento di tre ordini di grandezza nei primi dieci mesi e il settore che ha conosciuto una maggiore espansione è proprio quello costituito da Web server; chi apre un sito sull'Internet è quasi scontato che lo doti dell'applicazione WWW, e anche i nodi creati prima del 1990 si stanno riprogettando in linguaggio HTML. In conclusione si può affermare che la storia della Rete è multiforme e complessa: nacque all'epoca dei mastodontici mainframe e si è sviluppata con i PC e i client-server , venne progettata quando ancora le LAN non esistevano e ha poi integrato tutte le nuove tecnologie di rete fino alla più recente ATM, era stata pensata come supporto alle funzioni di remote login e condivisione di file e risorse e invece le applicazioni con le quali è assurta a medium universale sono la posta elettronica e il W W W ; ma, fatto ancora più rimarchevole, all'inizio fu una creazione di un ristretto gruppo di ricercatori e poi è divenuta un successo commerciale con investimenti di miliardi di dollari. Essa differisce radicalmente dalle reti tradizionali, come quella telefonica, in quanto la sua veloce evoluzione segue di pari passo i cambiamenti a velocità esponenziale dell'informatica: le trasformazioni in atto riguardano tutti i nuovi servizi legati alle comunicazioni mobili come i PDA 66, i telefoni cellulari e i PC portatili, che, insieme alle tecnologie di rete sempre più pervasive, stanno rendendo possibile un nuovo paradigma dell'informazione e delle comunicazioni basato su una struttura nomade. Il problema centrale del futuro dell'Internet riguarda non tanto la direzione che prenderà la sua evoluzione tecnologica, ma piuttosto il modo in cui tale 65Questa istituzione scientifica è famosa tra i cibernauti in quanto continua a offrire sul proprio sito materiali, software e informazioni che possono essere prelevati gratuitamente. 66Vedi sopra, nota 3. evoluzione verrà gestita: infatti l'architettura dell'Internet è sempre stata determinata da un gruppo di ingegneri che via via è cambiato e il numero delle parti in gioco è aumentato. Nel dibattito sul controllo dei domain name 67 e sulla forma degli indirizzi della prossima generazione IP si materializza in realtà la lotta per i futuri equilibri della struttura sociale della Rete68. L’internet e il suo impatto sull’economia globale Con il passaggio alla fase caratterizzata da una policy di accesso improntata all’universalità l’Internet si è aperta ai privati, singoli e imprese: la crescita esponenziale della Rete, con l’aumento di connettività che ha innescato un circolo virtuoso69, e l’amplificazione mediatica seguita all’annuncio della nascitura Info-highway dato dalla prima amministrazione Clinton hanno attirato ingenti interessi economici facendo apparire il Web come un inesplorato e sconfinato bacino di mercato virtuale, tanto più attraente in quanto globale e raggiungibile senza bisogno di intermediari. Anzi c’era chi vedeva dietro l’imponente (e ancora irrealizzato) progetto clintoniano l’ombra di interessi 67Il domain name è l’identificativo di un computerhost. Infatti il sistema degli indirizzi IP, che è numerico, e quindi complicato per l’utente, è stato integrato da un sistema di indirizzamento simbolico, il Domain Name Service (DNS), in virtù del quale ogni host dell’Internet è dotato di u n n o m e ( domain name ) , composto da stringhe di caratteri separati da punti. Quest’articolazione rispecchia la struttura gerarchica del Domain Name Service, che suddivide il Net in settori, denominati “domini”, a loro volta ripartiti in “sottodomini”, ecc, fino ad arrivare ai singoli host. L’identificativo di unhost riassume le varie gerarchie di “domini” a cui appartiene e ogni sottostringa rappresenta o un “dominio” o un “sottodominio” o il nome del server. L’ordine di scrittura è inverso all’ordine gerarchico, cioè la parte di indirizzo più a destra nella stringa indica il “dominio” più alto nella gerarchia, ossia il paese o, per gli USA, il tipo di ente che possiede il computer. I “domini” di primo livello sono di due tipi: “domini” di organizzazioni o “domini” nazionali. Infatti, quando il DNS è stato creato, l’Internet eradiffusa, salvo eccezioni, solo negli Stati Uniti: per questo i domini statunitensi, e alcuni “domini” non geografici, sono stati divisi per tipo di organizzazione (.edu sta per università ed enti di ricerca, .com sta per soggetti commerciali, .gov sta per istituzioni governative, .mil sta per enti militari, e .org sta per organizzazioni ed enti di diritto privato, come assoociazioni non-profit , organizzazioni non governative, ecc.). Quando la Rete si è diffusa a livello internazionale sono stati creati altri “domini” di primo livello, suddivisi per paesi. Recentemente sono stati annunciati altri “domini” di primo livello internazionali che estendono l’originaria ripartizione. Cfr. M Calvo, F. Ciotti, G. Roncaglia, M. A. Zela, Internet ‘97, Laterza, Bari 1997, pp. 24-32. 68 Cfr. F. Carlini, La democrazia perde i pezzi, in “Alì Babà” n. 5, inserto de “il Manifesto” del 21 maggio 1997. 69Secondo Anthony Rutkowsky “connectivity is its own reward”, la connettività, l’essere connessi, costituisce il valore aggiunto della Rete (v. C. Huitema, op. cit. ). tangibili che poco avevano a che fare con la sbandierata nuova frontiera dei diritti di cittadinanza e che potevano compromettere le peculiarità comunicative di questo sfuggente e anarchico strumento di informazione e di comunicazione, cioè l’orizzontalità della comunicazione da molti a molti e la mutualità che ispira i legami sociali originati nel ciberspazio. Oggi che le transazioni economiche online sono una realtà operativa lo spettro di questa omologazione che quasi snaturerebbe un’oasi di socialità miracolosamente sottratta alle leggi del profitto e del mercato si è molto attenuato, essendo visibile in modo inequivocabile che l’uso del Net a fini economici, e la presenza di veri e propri mall virtuali in rete, non hanno alterato la socialità e la libertà espressiva di cui godono i cibernauti, ossia non hanno depauperato la ricchezza comunicativa di cui gode la Rete. Insomma gli affari in rete non hanno modificato in modo sostanziale gli equilibri del ciberspazio, e anzi, nella misura in cui veicolano investimenti che apportano migliorie nella architettura strutturale e quindi nella funzionalità del mezzo, cominciano a essere considerati, anche dai più diffidenti, fonti di dinamicità che hanno ricadute positive sull’intera comunità telematica. La maggior parte delle innovazioni commerciali nella Rete sono nate in due luoghi simbolo, lontani più di cinquemila chilometri l’uno dall’altro, e cioè Silicon Valley, nella Bay Area di San Francisco, dove è nata e si è sviluppata l’industria informatica e le sue applicazioni, e la Silicon Alley, nel distretto di Soho, a New York, dove nascono nuove aziende a ritmo incessante70. Questi soggetti imprenditoriali stanno sviluppando le opportunità offerte dalle nuove tecnologie del digitale, e in un certo senso, al pari dei pionieri che battevano percorsi inediti, stanno essi stessi creando delle nuove possibilità per 70Di solito si tratta di piccole imprese chiamate SOHO (small office, home office) o “gazzelle”, per la loro agilità e mobilità. nuovi business , di cui si assumono i rischi, ma anche le prospettive di ingenti guadagni. Le imprese hanno cominciato ad aprire i primi siti Web commerciali nel 199571: con l’avvento della piena interattività il fenomeno si è consolidato, e le aziende si sono rese conto delle infinite applicazioni economiche dell’Internet. Molte imprese consolidate hanno cominciato a guardare alla Rete come a un nuovo strumento per ampliare le loro attività tradizionali, e per raggiungere in modo più diretto nuovi bacini di utenza; le nuove aziende che cominciano la loro attività direttamente sul Web e con il Web sono avvantaggiate in quanto , non avendo attività precedenti, possono cogliere e potenziare tutte le opportunità che si presentano via via, dalla creazione di nuove tecnologie, alla produzione di nuovi beni e servizi per imprese e consumatori: è così che sono nate imprese divenute poi famose, per essere state create dal nulla e aver fatturato miliardi di dollari, come Netscape, produttore del più celebre browser di navigazione ipertestuale, o le aziende specializzate nelle tecnologie di ricerca delle informazioni, come Yahoo!, Lycos, InfoSeek, Excite, o come le innumerevoli aziende che hanno creato nuovi contenuti e fornito possibilità di accesso a prodotti e servizi. Il primo e più immediato settore economico cui è stata applicata la telematica è stata la finanza: la virtualità dell’economia finanziaria, con i suoi ingenti spostamenti di capitali da una piazza all’altra tutti giocati su un piano nominale, dipende direttamente dal valore simbolico e rappresentativo del denaro; in questo caso si capisce bene il significato di virtuale, ossia immateriale, relativo alla dimensione telematica, e per nulla antitetico a reale: il broker che da Wall Street acquista la quota azionaria di una compagnia quotata a Piazzaffari, o Soros che acquista o vende valuta sulla piazza di Hong Kong, 71C. Martin, The Digital Estate , McGraw Hill,1997 (trad. it. L’era digitale, McGraw Hill, Milano 1997). fanno operazioni realissime, e con effetti e ricadute materialissime, ma in sé immateriali e intangibili. Con l’Internet la globalizzazione fa un salto di qualità: per quanto riguarda i mercati finanziari, la stessa possibilità di interconnessione e mobilità operativa di cui prima godevano soltanto particolari soggetti economici, come istituti e banche, governi e grandi società, viene estesa ai singoli investitori, con un abbattimento dei costi dell’informazione finanziaria e delle transazioni, che avvengono in rete. Con la sua interfaccia colorata e multimediale il Web si è poi prestato al marketing e alla pubblicità di prodotti e servizi da parte di imprese che hanno aperto i loro siti strutturandoli come delle vetrine o dei cataloghi, e ha offerto lo spazio per la nascita di nuovi servizi e prodotti interamente fruibili online , ma è anche diventato un emporio dove si vende e si compra di tutto, dai gioielli, a prodotti alimentari, ai gadget più improbabili, a prezzi competitivi, saltando mediazioni e distribuzione, con un unico passaggio dal produttore al consumatore. Nell’attività di venditaonline si sono lanciate molte piccole e medie imprese, per le quali anche un incremento di fatturato modesto dovuto all'uso del nuovo medium ha un impatto significativo. In questo modo la globalizzazione ha davvero riguardato tutti, non solo multinazionali e colossi finanziari. Qualsiasi sia il business online , ammonisce un esperto72, le strategie con cui ci si muove nella nuova economia digitale sono radicalmente differenti da quelle consolidate nelle attività economiche tradizionali. Le modalità di pagameno in rete e i problemi relativi alla sicurezza 72C. Martin, op. cit. I pagamenti in rete possono essere effettuati mediante sistemi flessibili che consentano di addebitare a distanza la spesa dell’acquirente e accreditarne il valore sul conto del venditore. Finora la piena diffusione delle transazioni online ha incontrato un serio ostacolo nei problemi riguardanti la sicurezza e l’autenticità che i dati, veicolanti per esempio il numero di una carta di credito, possono incontrare nel viaggiare sulla Rete; la questione non è se effettivamente si affermeranno forme di commercio elettronico nella vita di tutti i giorni, , ma quanto velocemente, e con quale incisività, si diffonderà il commercio online 73. Il fattore chiave che accelererà o meno questo processo è la capacità di creare fiducia nei consumatori, ancora restii ad affidarsi ai mezzi telematici per le transazioni commerciali: solo il 5% degli utenti Internet reputa sicuro affidare gli estremi della propria carta di credito ai cavi74; questa diffidenza è il portato di un pregiudizio culturale destinato a essere progressivamente marginalizzato da un’alfabetizzazione informatica più capillare, non essendoci in realtà, secondo gli analisti più attenti75, nessun pericolo nell’utilizzo in rete della carta di credito, o per lo meno nessun rischio in più rispetto a qualsiasi transazione reale . Fino a poco tempo fa i pagamenti di acquisti fatti in rete avvenivano attraverso modalità e sistemi estranei al circuito telematico, come il bonifico bancario o il ricorso al sistema postale: insomma le televendite in rete seguivano lo stesso iter delle vendite per corrispondenza o le televendite televisive. Si è poi sviluppato il sistema di pagamento attraverso carta di credito, in cui i dati venivano inizialmente comunicati per telefono; attualmente il mezzo più 73Ibidem, p. 157. 74B. Ovink, Un futuro per i pagamenti elettronici. Il nuovo standard SET di Visa e Mastercard , in “Ingenium” n. 21, 21 dicembre 1996, p. 68. 75V. Zambardino, Tutto il bello di pagare on line , “Il Venerdì” n. 490, supplemento a “la Repubblica” del 25 luglio 1997, p. 112, e B. Ovink, direttore produzione e marketing per l’Europa di Visa Inernational,cit. usato come veicolo per comunicare gli estremi della carta di credito è la Rete stessa: la sicurezza che i dati rimangano riservati e non vengano contraffatti viene garantita dall’utilizzo di sistemi crittografici, cioè di codici per cifrare i dati rendendoli così inintellegibili a chi non possieda la chiave di decodificazione; in tal modo si garantisce la segretezza di ciò che si comunica, che risulta comprensibile solo al mittente e al destinatario76. Il codice generalmente utilizzato, detto metaforicamente “chiave”, è un numero o un insieme di numeri, e soltanto chi è a conoscenza della stessa sequenza numerica è in grado di decodificare i dati (è per questo che si parla di messaggi “cifrati”). I sistemi tradizionali di crittografia si basano su una chiave unica, che il mittente e il ricevente utilizzano in modo inverso ; la segretezza ovviamente è funzione di due requisiti, e cioè che sia il mittente che il ricevente non rivelino a terzi il codice, e che questo non sia facilmente prevedibile, ossia alteri la frequenza delle lettere77. In un sistema crittografico perfetto il testo cifrato non dovrebbe fornire nessuna informazione sul messaggio originale: questo fine è teoricamente raggiungibile, ma l’iter è così complesso da risultare impraticabile, per cui tutti i sistemi in circolazione sono un compromesso, la cui garanzia di sicurezza non è assoluta ma altamente probabile, dipendendo dalla condizione che la chiave resti assolutamente segreta, o che la sua scoperta richieda troppo tempo78, anche ricorrendo a sofisticati e veloci software . Oggi sono in uso 76Si tratta di una tecnica nata in ambito militare, durante la seconda guerra mondiale, quando gli Angloamericani cercavano di decifrare tempestivamente i messaggi in codice che il comando tedesco inviava via radio alle proprie truppe: oggi la crittografia viene usata per proteggere i segreti militari di uno stato o quelli commerciali di un’azienda, o , più spesso, per inviare dati che si vogliono tenere riservati; cfr. F. Carlini, op. cit., 1995, pp. 213 e segg; La crittografia, a c u r a d i w w w . G a l i l e o n e t . i t , i n <http://www.mediamente.rai.it/home/tv2rete/mm9798>. 77Infatti i diversi fonemi hanno una frequenza diversa nelle varie lingue, per cui, nel caso di una serie di dati cifrati in cui la frequenza delle diverse lettere è rimasta inalterata, è sufficiente fare un’analisi della ricorrenza di queste per risalire alla chiave e quindi decodificare l’intero messaggio. 78Carlini, op. cit., 1995. Lo standard crittografico ufficiale del governo americano è detto “DES” (Data Encryption Standard) ed è un sistema, ideato dai ricercatori della IBM, a chiave unica. Il metodo su cui si basa è pubblico e ampiamente noto, ma esistono 256 chiavi, il che lo rende difficile da decifrare. Comunque questo sistema di crittazione viene utilizzato per i sistemi di codici detti “a doppia chiave”79, o “Public Key”, che garantiscono la riservatezza e l’autenticità dei messaggi: ognuno dispone di una “chiave pubblica”, che rende nota a tutti, e che può essere contenuta in un elenco simile a quello telefonico, e di una “chiave privata”, di cui è a conoscenza solo lui. Se un mittente “X” desidera inviare un messaggio a un ricevente “Y”, userà la “chiave pubblica” di “Y” per codificare i dati, che però non possono essere decifrati, nel processo inverso, disponendo solo della “chiave pubblica”, ma bisognerà ricorrere anche alla “chiave privata” del ricevente, c h e n o n è conosciuta da nessun altro al di fuori dell’interessato. Per garantire l’autenticità di un messaggio, il mittente “X” userà la propria “chiave privata”, mentre il ricevente “Y” verificherà l’origine del messaggio usando la “chiave pubblica” del mittente80. La prima applicazione pratica di un sistema “a doppia chiave” è un algoritmo matematico, trasferibile su un software , detto “RSA”81: una politica fortemente restrittiva del governo americano ne proibisce però l’esportazione, documeni riservati, ma non quelli “classificati”, cioè quelli protetti da segreto di stato, decifrabili con un po' di pazienza e con una strumentazione apposita. Il punto debole dei sistemi a chiave unica risiede nel fatto che mittente e ricevente devono in qualche modo passarsi la chiave, e se non possono incontrarsi direttamente, e ricorrono quindi ad un sistema di trasmissioone indiretta, questa può essere intercettata. 79La svolta risale al 1976, quando il programmatore Whitfield Diffie e un docente della Stanford University, Martin Hellman, annunciarono pubblicamente l’invenzione della chiave pubblica, strumento imprescindibile per la privacy delle masse: si vanificava così il rigido controllo che la National Security Agency (NSA) aveva sino ad allora esercitato sulla diffusione dei programmi di crittografia, stabilendo complesse procedure per i brevetti ed equiparandoli alle armi pesanti. 80Questo sistema si basa su alcune funzioni matematiche che si possono utilizzare solo in un senso, essendo la funzione inversa molto difficile da calcolare: i sistemi a “doppia chiave” si basano infatti su alcune operazioni matematiche realizzate sui numeri primi. 81Dalle iniziali dei cognomi degli inventori: l’affidabilità di questo sistema si fondava sulla valutazione che per scindere un numero di 129 cifre nei due numeri primi che lo compongono sono necessari un numero astronomico di anni di elaborazioni al computer. In realtà nel 1994 si è raggiunto un tale risultato: non si è trattato però dell’opera di un singolo o di un’ équipe di ricercatori, bensì, grazie alle possibilità di cooperazione offerte dall’Internet, di seicento gruppi, disseminati in venticinque paesi, dotati di circa 1600 macchine da calcolo, dai PC ai supercomputer, una potenza di calcolo inimmaginabile. Il lavoro è durato otto mesi, e il successo che lo ha coronato dipende in massima parte nell’organizzazione e nella ripartizione della ricerca. Il sistema “RSA” è comunque quasi perfetto, in quanto le condizioni in cui è stata trovata la sua soluzione sono pressoché irriproducibili, e chi ricorre oggi a questo sistema utilizza numeri di 200 o 300 cifre. suscitando le proteste dei produttori di software 82. Un nuovo sistema di codifica è stato comunque diffuso via Internet, ed è stato chiamato dal suo autore, Philip Zimmermann (un fervido sostenitore della libera circolazione dei software in rete) “PGP”, cioè “Pretty GoodPrivacy”83. Oltre a essere usati per la posta elettronica, i metodi di encriptazione sono sempre più diffusi in ambito commerciale, per lo shopping online e l e transazioni finanziarie, per cifrare i dati riguardanti la carta di credito in rete, ma non esiste un accordo su standard comuni e sull’autorità che dovrebbe fare da garanzia di certificazione Una possibile soluzione dei problemi di pagamento in rete consisterebbe nell’adozione di uno standard crittografico di carattere internazionale, adottato da tutti gli operatori economici e gli utenti, un “codice di crittazione universale” che dia piena garanzia che il numero di carta di credito viaggi sicuro sulla Rete: in questa direzione va il progetto di standard comune a cui stanno lavorando congiuntamente Visa e MasterCard, il SET (Secure Electronic Transaction ), sistema ancora in prova che dovrebbe diventare ufficiale prossimamente84 e che prevede che il software sia installato sia sul computer dell’acquirente che sul server del venditore. 82Lo scontento dei produttori è ancora maggiore in quanto “RSA” è stato brevettato dai suoi inventori, anche se diversi software ispirati a quell’algoritmo circolano liberamente fuori dagli Stati Uniti, dove non sono coperti da brevetto e lontano dalla possibilità di azione dei funzionari della giustizia americana. 83Zimmermann è stato citato in tribunale dalla RSA per violazione del brevetto e non per esportazione indebita, in quanto inizialmente si era limitato a distribuire poche copie del sofware a degli amici, che le diffusero tramite vari sistemi telematici californiani. La causa si è poi conclusa con la vittoria di Zimmermann, grazie all’intervento mediatore del MIT, che spinse i due avversari alla collaborazione per la realizzazioone di nuove versioni di “PGP”, le quali vennero poi diffuse in rete, contravvenendo impunemente ai divieti di esportazione. Nel 1992, con la presentazione di un Manifesto, è nato un movimento “crypto-anarchico”, fautore dell’uso diffuso e massiccio dei sistemi crittografici a difesa dellaprivacy . V. Carlini, op. cit., 1995. 84Ernesto Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento settimanale a “la Repubblica” del 30 ottobre 1997, pp. 13-14. Questa collaborazione, preludio a un accordo generalizzato tra istituti finanziari e produttori informatici85, è in ogni caso recente e dovuta all’impellenza delle nuove esigenze coommerciali legate al Web : infatti fino al febbraio del 1996 Visa e MasterCard, rispettivamente con Microsoft e con Netscape, guidavano due consorzi in competizione fra loro per la definizione di uno standard di sicurezza per i pagamenti con carta di credito e avevano sviluppato due standard differenti, STT per Visa e SEPP per MasterCard86. L’eventuale soluzione di uno standard universale, tuttavia, non sarebbe pienamente soddisfacente, in quanto ammettebbe alle transazioni solo i possessori di carta di credito. Inoltre ne deriverebbe un pericolo per la privacy, poiché le aziende operatrici di televendite incrementerebbero il già immenso data base in cui sono catalogati i gusti e i consumi degli utenti. Quindi, ai fini dello sviluppo di un mercato elettronico di massa, è indispensabile la disponibilità di sistemi di pagamento alternativi alla carta di credito per le piccole transazioni. A quest’esigenza risponde la seconda generazione di mezzi di pagamento 87: uno dei primi servizi sull’Internet, quelli basati sull’intermediario elettronico finanziari di questo genere è stato quello offerto da First Virtual Holding Incorporated, intermediario californiano tra venditori e acquirenti di beni e servizi. Questo sistema non è immediato e pratico, in quanto presuppone che i due agenti della transazione abbiano già stipulato un contratto con il fornitore del servizio, che in pratica si limita a fare da garante dell’operazione: l’utente infatti, una volta concluso l’accordo, comunica per telefono o per fax il proprio numero di conto e gli estremi della propria carta di credito, quindi riceve un numero di 85Anche American Express ha deciso di adottare il sistema di protezione dei dati SET. 86E. Trondsen, Commercio elettronico: un interesse crescente. Tecnologie e mercato, lo scenario degli USA , in “Ingenium” n. 21, 21 dicembre 1996, pp. 54-59 e B. Ovink, art. cit 87Ernesto Assante, I pagamenti sulla Rete , in “Computer Valley” n. 5, supplemento settimanale a “La Repubblica” del 30 ottobre 1997, p. 14. codice, il Virtual PIN, che lo identificherà nelle future transazioni sulla Rete88. First Virtual è una vera e propria azienda virtuale, che trova nel ciberspazio la sua ragion d’essere, e sebbene la sua forte crescita abbia implicato un allargamento dell’organico e una relativa centralizzazione della forza lavoro89, rimane tuttora fortemente virtuale, sia nella pratica, sia negli obiettivi. Nonostante i problemi di coordinamento, First Virtual non sarebbe potuta nascere in modo differente, poiché i soci fondatori erano professionisti di successo che vivevano in parti del paese lontane, e uno di loro è affetto da un grave handicap e non avrebbe mai potuto partecipare all’impresa se l’organizzazione fosse stata diversa. Una terza generazione di sistemi di pagamento online è rappresentato dalla cosiddetta moneta elettronica (E-money): si tratta dello schema proposto da DigiCash, Mondex, E-cash, CyberCash, NetCash, società che offrono un servizio d’avanguardia, cioè l’emissione di una vera e propria moneta elettron ica, dove ogni banconota corrisponde a un numero unico generato ad hoc, così come ogni banconota reale viene emessa dalla Zecca di Stato in formato unico. Il servizio è riservato ai possessori di un conto corrente presso una banca, che acquistano dei “cyberdollars” presso la società che offre un tal servizio, che costituiscono il “portafoglio elettronico”. La banca trasferisce la somma richiesta alla società che offre questo servizio, che a sua volta la accredita, tramite specifici software , s u l c o m p u t e r dell’utente sotto forma di banconote elettroniche, spendibili nei mall virtuali, o presso gli esercizi commerciali che 88L’intermediario, che coordina tutto il sistema e garantisce la regolarità delle operazioni, trattiene una commissione su ogni transazione. 89I quattro soci fondatori vivevano anche molto lontani l’uno dall’altro, e i primi assunti erano anch’essi dislocati in diversi stati degli USA: ancora dopo quindici mesi l’azienda non disponeva di nessun ufficio fisico, e tutto veniva organizzato, gestito e coordinato per via telematica. Tuttavia, con la crescita dell’azienda, si rese necessaria la centralizzazione delle attività in un ristretto numero di uffici. Per una valutazione esaustiva delle opportunità e delle insidie che può incontrare un’attività economica nell’ambiente digitale cfr.Perils of Practical Internet Commerce: A Comprehensive View of First Virtual’s First Year, disponibile all’indirizzo telematico <http://www.fv.com/company/index.htm??perils >. operano in rete, che accettano questa forma di pagamento. La società olandese Digicash ha scelto di utilizzare gettoni elettronici convalidati dalle banche: il sistema prevede l’uso dicashcard intelligenti su cui vengono memorizzati tutti i movimenti finanziari dell’utente. L’utilizzo della moneta digitale si sta diffondendo anche nelle “microtransazioni” o “micropagamenti”: molti siti che offrono servizi online , come SportsLine, che dà la possibilità di accedere a sessioni di discussione con i big dello sport90, o siti che mettono a disposizione banche dati e informazioni varie91 o offrono entertainment 92, basano il loro profitto sulla riscossione di moneta digitale, trasferita dal “portafoglio elettronico” dell’utente. Nella sua versione più semplice il sistema della doppia chiave permette di verificare l’autenticità della banconota, mentre la sua versione più articolata e complessa consente anche il totale anonimato nelle transazioni, realizzando a livello virtuale la peculiarità del denaro reale, che garantisce la privacy e l’impersonalità nelle transazioni economiche. Sono questi, insieme alla sua praticità, gli indubbi vantaggi di questo sistema di fronte agli altri due sistemi di pagamento online , quello basato sulla carta di credito e quello basato sull’intermediario finanziario. Secondo un sondaggio effettuato in Gran Bretagna, l’81,9 per cento degli intervistati ha dichiarato di essere favorevole all’utilizzo della moneta digitale, mentre l’8,8 per cento è sfavorevole93; l’indagine rivela anche che il 18,5 per cento delle persone ha già effettuato almeno un pagamento in rete, soprattutto con carta di credito (nel 43,9 per cento dei casi) o attraverso le formule 90C. Martin, op. cit. , p. 31. 91Ad esempio NLighN, un database di ricerca, che applica una tariffa ad ogni articolo scaricato, o InfoAccess, che vende oltre dieci milioni di profili aziendali (attività dell’azienda, numero impiegati, volume di vendite stimato) al prezzo di tre dollari l’uno. 92Rocket Science Games, in collaborazione con CyberCash, gestisce una sala giochi virtuale. 93Il sondaggio è disponibile online all’indirizzo telematico <http://www.hyperion.co.uk/??? >. elettroniche DigiCash (26,8 per cento) e First Virtual (12,2 per cento). Da quest’inchiesta emerge un dato sociologico cruciale, e cioè che la maggioranza delle risposte proviene da studenti universitari: la predisposizione alle transazioni online dipende, più che dall’estrazione sociale o dalle disponibilità finanziarie, dall’abitudine a muoversi con disinvoltura negli ambienti virtuali e dalla familiarità nell’uso della strumentazionehi-tech . Come rileva Carlini94, la moneta elettronica pone però dei problemi di difficile soluzione, come quello dell’imposizione fiscale sugli incassionline basati su questo tipo di pagamento, mentre le transazioni tramite carta di credito, debitamente registrate, sono facilmente soggette ad essere fiscalizzate. Probabilmente, almeno nel futuro prossimo, la maggior parte delle aziende continuerà a seguire i metodi tradizionali di gestione del denaro: infatti, essendoci ancora delle incertezze su quali saranno gli standard del futuro, molte aziende hanno deciso di aspettare, mentre altre, le più aggressive e audaci, sfidano il mercato tentando strade poco battute: in fondo, la regola della Rete “first come, first served” (“chi primo arriva viene servito”, con riferimento alla precedenza nel traffico dei pacchetti di bit ) è valida anche nel business online. Il commercio online Secondo i reportage sensazionalistici dell’informazione cartacea l’ Ecommerce , cioè l’acquisto e la vendita di beni e servizi,virtuali , cioè che hanno a che fare con l’immaterialità deibit e godono di vita propria solo nel ciberspazio, e materiali, è destinato a rappresentare la frontiera delle future 94F. Carlini,op. cit., 1995, pp. 227 e segg. relazioni economiche, per cui si acquisteranno merci o informazioni entrando in mall virtuali, e pagando con moneta digitale. A parte l’enfasi e il tono iperbolico deimass media , sicuramente il mercato online avrà uno sviluppo impetuoso, e il fatto che l’Internet non sia ancora un ipermercato compiuto è dovuto più a fattori strutturali, politici e culturali, cioè all’ampiezza di banda, ancora troppo limitata, che rende lente e tortuose le connessioni, alle tariffe praticate dalle compagnie di telecomunicazioni e alla relativamente scarsa alfabetizzazione informatica, che a un limite funzionale del mezzo in sé. A ogni modo, soltanto nel 1996 il complesso delle transazioni commerciali che hanno viaggiato sulla Rete ammonterebbe da un minimo di 530 milioni di dollari, secondo le stime della Forrester Research, ad un massimo di 1200 milioni di dollari, stimati dalla Jupiter Communication95, cifre non proprio irrilevanti, considerando che si tratta di semplici pionieri che stanno battendo strade inesplorate e che il vero sviluppo commerciale della Rete deve ancora arrivare. Le stime salgono vertiginosamente per il 1997, con un forte picco per il periodo natalizio, attestando una maggiore fiducia degli utenti di rete verso gli strumenti telematici e i nuovi standard di sicurezza per i pagamenti online : la Forrester Research ha stimato, escludendo le vendite di auto e di proprietà immobiliari, anch’esse in crescita, che le transazioni commerciali in rete hanno raggiunto nello scorso anno un fatturato di 2,4 miliardi di dollari96, quasi cinque volte quello dell’anno precedente (sempre secondo la stessa azienda di rilevamenti sul Web), mentre secondo l’altra casa specializzata in questi servizi, 95E. Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento de “la Repubblica” del 30 ottobre 1997, p. 12. 96E. Visconti, Babbo Natale viaggia on line, “AliBabà” n. 28, inserto settimanale de “il Manifesto”, 3 dicembre 1997, p. IV. la Jupiter Communications, il totale della merce venduta online sarebbe addirittura superiore, ammontando a 2,6 miliardi di dollari. La percentuale degli stessi consumatori che prediligono il mezzo telematico per i loro acquisti è notevolmente aumentata: anche se l’incremento delle transazioni commerciali online non ha seguito lo stesso trend dell’espansione della Rete e dei suoi utenti, è stato comunque apprezzabile: i netsurfer che nel 1995 utilizzavano l’Internet per il loro shopping erano il 19% del totale, percentuale che oggi è salita al 39% (dati Nielsen97). La diffusione esponenziale della connettività ha spostato il consumo elettronico dalla cyber élite iniziale alle famiglie: gli analisti prevedono che nel giro di una decina d’anni circa il venti per cento degli acquisti delle famiglie americane saranno effettuati in rete98. Nella sua versione commerciale l’Internet assomiglia a un enormesuq , uno di quei mercati arabi, come quello, grande e famoso, di Marrakech, in cui si vende di tutto, dai beni di prima necessità alle futilità più improbabili99, dai gadget all’alta tecnologia; gli ambienti virtuali in cui sono contestualizzate queste attività di compravendita assumono la conformazione di un enorme e labirintico mall , un centro commerciale onnicomprensivo, o di una bottega specializzata, che si rivolge a una clientela di nicchia, che riproduce la relazione diretta dal produttore al consumatore. Il fattore unificante è dato dal livello inferiore dei prezzi dovuto all’annullamento della mediazione distributiva e dall’agevolazione di forme di produzione e di pagamento just in time; molte aziende hanno incrementato notevolmente i loro fatturati attraverso l’Internet, soprattutto le piccole imprese, 97E. Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento de “la Repubblica” del 30 ottobre 1997, p. 12. 98Ibidem . 99La metafora si riferisce alla estrema eterogeneità dei prodotti che si possono acquistare in rete, e non certo alla loro tipologia, che nella maggior pare dei casi non ha nulla a che vedere con le merci, di fattura artigianale, che vengono vendute nei suq. che non hanno un sistema distributivo strutturato, e che in questo modo abbattono i costi della distribuzione e acquisiscono un bacino di utenza infinitamente più ampio del loro target usuale, che è locale, o le imprese che producono beni particolari che incontrano una domanda massiccia presso i navigatori telematici, come i produttori di hardware o d i software: la Dell Computer nel 1995 registrava introiti pari a circa un milione di dollari al giorno solo grazie alle vendite attraverso la Rete100, fatturato che in soli due anni è raddoppiato101. Oracle 7, prodotto tradizionale della omonima software house, è stato commercializzato principalmente in rete, strategia che consente di distribuire i propri programmi in tutto il mondo con la massima rapidità e raggiungendo i maggior numero di clienti possibile: il prodotto è prelevabile dal Web server della Oracle e concesso in prova gratuitamente per un periodo di novanta giorni. Soltanto nel primo anno sono state scaricate duecentomila copie del programma, e circa metà degli utenti si sono registrati. In questo caso la politica promozionale della Oracle non si è basata sull’appeal del marchio, quanto sul valore in sé del prodotto e sulla possibilità di testarlo gratuitamente, imput principale ad avviare il ciclo di vendita. La stessa strategia di diffusione, basata sul prelevamento gratuito del software e sull’uso delWeb come canale distribuivo a livello mondiale, senza costi di intermediazioni e rivendite, è stata seguita con successo dalla Netscape, che è riuscita in tal modo a conquistare il 75% del mercato dei browser . Le società di hardware e software beneficeranno soprattutto dello sviluppo delle transazioni business-to-business, cioè con le imprese, che in 100E. Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento de “la Repubblica” del 30 ottobre 1997, p. 12. 101Tra le voci di spesa che hanno maggiormente incrementato il fatturato totale del commercio online per il 1997 ci sono i nuovi PC venduti esclusivamene in rete a prezzi inferiori ai 1000 dollari da case come Compaq, Dell e IBM: i prezzi così bassi, fattore di tale successo commerciale, sono dovuti al risparmio sui canali della mediazione distributiva, reso possibile dal commercio elettronico; Cfr. E. Visconti, art. cit. questo settore riceveranno un grande impulso proprio dalla crescita dell’Ecommerce. Per volume di affari, dopo i prodotti informatici troviamo i servizi legati al settore turistico e dell’entertainment , come la prenotazione di aerei, alberghi, concerti e spettacoli, gioielli, fiori, libri e dischi. Creor, un produttore di gioielli, ha aperto un sito102 dove offre monili in stile etrusco e collezioni di designer italiani: gli utenti interessati possono compilare un modulo, specificando il tipo di oro desiderato, le gemme selezionate e il modello su cui si vorrebbe che fossero montate. L’offerta di musica da acquistare in rete è particolarmente ampia: fino a poco tempo fa c’erano due punti vendita online, CDnow 103 e M u s i c Boulevard104, mentre oggi tutte le principali Major , come la Bmg e la Sony hanno il loro sito in rete dove vendono i loro prodotti105. Il commercio di libri è un altro settore che ha trovato nell’Internet una nuova via di diffusione: Amazon, grande rivenditore di libri fondato nel 1994, è diventato un cyberbookstore106 solo due anni fa, e in pochi mesi di attività ha convinto decine di migliaia di persone ad acquistare libri in rete, offrendo un’amplissima scelta - praticamente tutte le pubblicazioni in lingua inglese - disponibile al pubblico in qualsiasi momento e a prezzi ridotti. La crescita del fatturato di Amazon, da quando ha esportato la propria attività di rivendita nel ciberspazio, ha seguito un trend del 34 per cento al mese, e del 3000 per cento all’anno107. Il successo di questo sito, che registra mediamente un milione e seicentomila 102<http://www.creor.com/index.htm>. 103<http://www.cdnow.com>. 104<http://www.musicboulevard.com>. 105Addirittura i singoli artisti si organizzano autonomamente, quando sono anche produttori di se stessi: per esempio Prince vende in rete il suo disco, “Crystall Ball”, che si può acquistare all’indirizzo telematico <http://www.love4oneanother.com>. 106<http://www.amazon.com>. 107E. Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento a “la Repubblica” del 30 ottobre 1997, p. 14. contatti al giorno ed è uno dei più frequentati del W W W , si fonda sull’aver compreso, e messo in pratica, il principio comunitario della Rete: Amazon, prima di essere un punto vendita virtuale, è una comunità di utenti-lettori che si incontrano e discorrono tra loro e usufruiscono dei servizi gratuiti predisposti nel server del sito (saggi, biografie, incontri online con gli autori ecc.). Addirittura un settore come quello alimentare, tradizionalmente legato a un approccio tattile e immediato, ha trovato la sua nicchia nel ciberspazio: la Peapod, una società con sede nell’Illinois e una filiale nell’area di San Francisco, offre un servizio di vendita online di generi alimentari. I suoi fondatori, avendo letto da una statistica che il 60 per cento dei consumatori non fa mai acquisti nei negozi di frutta e verdura, hanno avuto l’intuizione di attirare la domanda di quel 60 per cento di potenziali clienti108. Hanno stretto così un accordo con la Jewel Food Store di Chicago e poi con la Safeway di San Francisco, due operatori della grande distribuzione: in poco tempo la Peapod aveva raggiunto, tra l’Illinois e la California, tredicimila clienti, stabilendo un rapporto di fidelizzazione con i mercati locali fondato sull’alta qualità del servizio. In questo caso il supermercato alimentare elettronico risponde all’esigenza, particolarmente viva nelle aree urbane, di risparmiare tempo, e un tal servizio a domicilio viene anche pagato profumatamente109. A corredare il servizio di vendita vero e proprio ci sono una serie di servizi accessori, come l’offerta di buoni- sconto, l’accesso aidatabase e ai cataloghi di numerosi supermercati ( e quindi la possibilità di una valutazione comparativa dei prezzi dei vari prodotti), l’accesso a informazioni di tipo dietetico-alimentare, la possibilità di ordinare i prodotti in base a vari criteri come il prezzo o categorie dietologiche (calorie, grassi, proteine ecc. ) che mirano a fidelizzare i potenziali 108C. Martin, The Digital Estate , McGraw-Hill, 1997 (trad. it. L’era digitale, McGraw-Hill, Milano, 1997, p.73). 109L’originaria tariffa di abbonamento, pari a 29,95$, è stata eliminata, ma sono ancora in vigore la tariffa mensile di 4,95$ e l’addebito di 7,95$ per ordine più il 5% sul totale degli acquisti. clienti e a stimolare una dinamica “comunitaria”. Difatti, qualsiasi sia il prodotto o il servizio offerto o anche semplicemente pubblicizzato, l’intento primo dell’operatore economicoonline è quello di creare una comunità intorno al proprio business , offrendo dei servizi gratuiti, con cui si rafforza un legame, determinando un processo di identificazione tra utente-cliente e marchio, e al contempo facendo un’operazione di immagine. Come hanno fatto i siti di alcuni produttori e fornitori di aragoste, dove, oltre alla possibilità di effettuare un ordine con la garanzia di ricevere la consegna a domicilio entro le ventiquattro ore, si forniscono ricette e un bollettino di informazioni spedito direttamente nella mailbox di ogni cliente110. Rileva giustamente Chuck Martin: Oltre a mettere a disposizione dei consumatori uno strumento che consente di risparmiare tempo prezioso, le aziende possono anche creare nuove comunità tra gli utenti . La consegna a domicilio è legata alla capacità dell’azienda di diventare parte della vita sociale del consumatore. Questo particolare aspetto rende il Web più simile alle vecchie piazze di paese piuttosto che al moderno centro commerciale. Le persone fanno la spesa e conversano, condividono esperienze e spendono soldi. I servizi a valore aggiuno necessari per promuovere queste comunità danno alle aziende l’opportunità di creare relazioni profonde e stabili con i clienti.111 In questi servizi di vendita elettronica non c’è nessuna struttura fisica in cui si svolge la transazione, se non un server di rete, e il servizio offerto consiste nel far incontrare la domanda e l’offerta. L’occasione di risparmiare, molla che induce all’acquisto di un bene anche superfluo, è alla base dell’idea del “buono-sconto”, incentivo che ha trovato spazio anche sul Web, dove anzi questa pratica è molto diffusa: Money Mailer, che negli Stati Uniti distribuisce ogni settimana buoni- sconto a più di cento 110Ibidem. 111Ibidem. milioni di famiglie, ha aperto un proprio sito Web, dove offre un servizio, denominato H.O.T., di distribuzione gratuita di milioni di buoni-sconto di prodotti e servizi a diffusione locale, regionale e nazionale. Questa pratica di marketing ha incontrato il favore dell’utenza dell’Internet, tanto che il ventaglio dei buoni-sconto disponibili su rete è in espansione: per esempio, in occasione dei giochi olimpici del 1996 ad Atlanta, la Reebok ha lanciato una serie di buoni-sconto globali destinati ai mercati di Taiwan, della Corea e di Hong Kong, oltre che spendibili nella sede centrale di Atlanta. La fluidità e la flessibilità della Rete risultano particolarmente funzionali a un tipo di commercio estemporaneo che colga in modo immediato gli umori del mercato. Un certo prodotto viene commercializzato a tempo determinato, cioè finché dura la domanda: il commercio temporaneo rappresenta in questo modo l’alternativa postfordista, flessibile al mutare della domanda, ai modelli commerciali tradizionali incentrati sull’offerta a lungo termine. In Italia l’incidenza economica delle transazioni in rete è meno accentuata che in America: sono comunque più di seimila le aziende che hanno aperto siti sul Web, anche se solo una sparuta minoranza offre le proprie merci direttamente online, i più limitandosi a una promozione commerciale e di immagine112. Si tratta in questo caso di vetrine elettroniche dove le società, grazie alla multimedialità, mettono in mostra i loro prodotti e offrono un servizio di customer care, uno spazio d’incontro tra clienti e azienda produttrice, che offre supporto online rapido e diretto. L’esperienza più importante di commercio elettronico in Italia è quella rappresentata dal Cybermercato di Italia On Line, creato da Olivetti Telemedia nel febbraio del ‘96, che ha un’offerta di oltre ventimila beni, dai libri, agli articoli da regalo, ai CD-ROM, ai prodotti gastronomici, ai PC 113. L a f orma di 112E. Assante, art. cit. 113Ibidem . pagamento avviene, a discrezione del cliente, online , tramite carta di credito, oppure alla consegna, in contanti o tramite assegno114. Un altro circuito italiano di acquisti compleamente online è nato all’inizio del 1997 su iniziativa della CM Telecommunications, e ha demandato alle banche la funzione di distributori commerciali, nonché di garanti delle transazioni finanziarie115, che avvengono completamente online tramite carta di credito. Chuck Martin prevede che non appena gli utenti avranno preso familiarità con le procedure dello shopping online , assisteremo alla piena e massiccia diffusione del commercio elettronico e dell’uso della moneta digitale per i grandi e piccoli acquisti116: questa previsione è fondata su un dato di fatto, e cioè l’impegno da parte di istituti bancari e finanziari, fornitori di tecnologie per i pagamenti, produttori di software , società di carte di credito, che hanno siglato numerose alleanze per risolvere il problema della sicurezza, e sulla constatazione intuitiva che, in una civiltà sempre più urbanizzata e congestionata, la possibilità di risparmiare tempo e denaro sarà un’esigenza sempre più avvertita. I prezzi delle merci vendute online sono inferiori a quelli della rivendita al dettaglio, anche se vi vanno aggiunte le spese postali e di spedizione - che possono diventare ingenti nel caso dell’acquisto dikit completi di prodotti hi-tech - e tutte le tasse e i dazi doganali. Si prevede che entro il nuovo millennio il mercato del commercio elettronico su scala globale raggiungerà i 775 miliardi di dollari, di cui 7 miliardi rappresenteranno micropagamenti. 114Intervista ad A. Amoroso, direttore marketing gruppo Rinascente, in “Ingenium” n. 21, 21 dicembre 1996, p. 110. 115B. Croce, Alla conquista del Web. Da Internet a businessnet, in “Ingenium” n. 21, 21 dicembre 1996, p. 9, e intervista a S. Pula, direttore commerciale di CM Telecommunications, in “Ingenium”,cit. 116C. Martin, op. cit. , p.203. Il terziario del futuro: i servizi in linea L’Internet è diventata anche lo strumento attraverso cui operano molte società di servizi, da quelli legati al turismo, a quelli legati allo spettacolo, a quelli legati alla merce informazione , come i servizi personalizzati fondati sulle tecnologie push : è proprio quest’ultimo il settore dove si esplicano più compiutamente le potenzialità interattive e comunicative della Rete, e che costituisce il vettore d’avanguardia dei nuovi servizi digitali. La Internet Profiles di Palo Alto, California, detta più semplicemente I/PRO, può essere assunta come paradigma della produzione di nuovi servizi legati al Web: fondata nel 1995, in meno di un anno è divenuta la principale azienda fornitrice di servizi e software per il calcolo e l’analisi sull’uso dei sitiWeb. L’azienda, che impiega ormai ottantacinque persone, ha stretto un’alleanza strategica con la Nielsen Media Research, impresa di sondaggi nota per i rilevamenti dell’audience televisiva117, e la EIT, un fornitore di tecnologie Web impegnato nello sviluppo di standard commerciali sull’Internet; tra i clienti dell’azienda figurano Microsoft, che ha commissionato allaI/PRO l’analisi dei dati relativi al lancio di Windows 95, e CompuServe, Sun, Netscape e Yahoo!, ma anche Ziff-Davis e Playboy. Il suo successo deriva da un’intuizione felice, quella di aver individuato un problema che, con lo sviluppo commerciale della Rete, si avviava a diventare di primaria importanza, e cioè la domanda di un sistema di analisi digitale capace di memorizzare ed elaborare dati di ogni tipo. Così viene presentata l'attività aziendale: 117Tra le altre cose, ha realizzato due importanti studi sulla demografia della Rete. Il gestore potrà capire come e da chi il suo sito è stato usato. Il sistema I/Pro consente ai pubblicitari e coloro che acquistano spazi sui media di determinare i siti ottimali per trasmettere i loro messaggi.118 La I/Pro ha messo cioè a punto un sistema di rilevazione per individuare chi accede a un sito. Per un' informazione in dettaglio ha creato I/CODE, un sistema che procede all'autoregistrazione una volta per tutte, vincolato al rispetto della privacy 119 degli utenti che si sottopongono a questa capillare registrazione. Il fatto di non disporre di un modello commerciale ben definito alla lunga si è rivelato un requisito positivo per il management dell’azienda, consentendo una maggiore flessibilità di fronte al mutare delle richieste di mercato. Infatti, come molte altre imprese legate al Web, la I/PRO ha aggiustato la propria strategia commerciale sul campo anziché progettare e mettere a punto il prodotto anticipatamente al suo lancio sul mercato, secondo le strategie seguite dalle grandi imprese tradizionali: Martin rileva in questo una delle peculiarità di quella che lui chiama nuova era digitale , mentre altri autori120 lo riconducono alla matrice organizzativa dell’impresa post-fordista, fondata sulla lean production e sul just in time . In questa prospettiva i cambiamenti in direzione di una sempre maggiore flessibilità vengono visti come il portato più evidente del “cambio di paradigma”121. S i t r a t t e r e b b e d i u n n u o v o m o d o d i p r o d u r r e , d i c u i l’informatizzazione sarebbe solo uno dei connotati, e nemmeno quello fondante: la produzione di servizi online costituirebbe un settore di un’economia perlopiù materiale , e non la punta leader di una nuova economia immateriale che avrebbe nella virtualità del ciberspazio il suo contesto più proprio. 118R. Staglianò, op. cit. , p. 57. 119Il regolamento stabilisce che i siti che implementano I/CODE si impegnano a rispettare la privacy dell'utente finale, trattenendosi dallo spedire lettere o e-mail ai membri I/CODE senza il loro esplicito permesso, e a non trasferire o rivendere informazioni ad altre compagnie. 120Tra questi Revelli (saggio contenuto in P. Ingrao e R. Rossanda, Appuntamenti di fine secolo , Manifestolibri, Roma 1995), P. Ingrao e R. Rossanda (op. cit. ) e M. Agostinelli (Tempo e spazio nell’impresa postfordista, Manifestolibri, Roma 1997). 121Cioè della transizione dall’economia di scala, fondata sulla grande fabbrica fordista, rigida e gerarchizzata, al nuovo modello denominato postfordista . Mentre le imprese tradizionali - possiamo dire le grandi fabbriche strutturate sul modello fordista - seguono un iter teso a garantire azionisti e proprietari, nell’epoca postfordista, caratterizzata da cicli produttivi veloci e da una domanda non più estendibile su una scala potenzialmente infinita, la strategia di perfe z i o n a m e n t o del prodotto coincide con quella della sua commercializzazione, e il prodotto viene sperimentato direttamente sul mercato, affinché le migliorie apportate in itinere seguano in modo più aderente le richieste dell’utenza. Lo stesso procedimento viene seguito dai produttori di software c o n l’immissione della “versione beta” di un nuovo programma, che viene provata gratuitamente e poi perfezionata a seconda dei suggerimenti e delle indicazioni relative agli eventuali punti di forza e debolezze emersi nell’uso. Complementare al servizio offerto dalla I/PRO di San Francisco è quello offerto da operatori che svolgono in rete la funzione delle tradizionali agenzie pubblicitarie, cioè sono deputati a promuovere un prodotto o un servizio online . Anche questo servizio è molto richiesto da chi intraprende un’attività commerciale sul Web: una delle imprese più affermate in questo campo è la SiteSpecific, nata in occasione della campagna della Duracell, che affidò a colui che sarebbe divenuto il suo fondatore - che in quel momento collaborava con un’altra agenzia interattiva- la commessa per organizzare e promuovere la sua presenza sul Web. La campagna riscosse un grande successo in virtù dell’originalità dell’impostazione e della creatività dei moduli espressivi: i siti la cui utenza coincideva approssimativamente con i mercati a cui intendeva rivolgersi la Duracell vennero disseminati di pile, ma queste non si configuravano come icone pubblicitarie tradizionali che, poste sulla home page di un sito, una volta selezionate e cliccate, visualizzano immagini e rimandano informazioni sul prodotto, bensì apparivano come il sostrato strutturale della pagina, che, quando si cliccava un’immagine, si capovolgeva, rivelando una serie di circuiti elettrici alimentati da pile Duracell. Oltre alla pubblicità interattiva la SiteSpecific svolge altre attività sul Web, considerato una fonte preziosa per creare nuovi strumenti di lavoro: ha predisposto un calendario elettronico, un sistema di gestione della contabilità, tutti prodotti software vendibili ad altre agenzie di pubblicità; inoltre offre servizi complementari a quelli pubblicitari, come ricerche dei mercati potenziali, sviluppo e test di prodotti, analisi di fedeltà della clientela ecc. Una società che vende spazi pubblicitari, svolgendo attività promozionali molto mirate, è la DoubleClick, nata dalla fusione di due società che operavano nello stesso settore, quello della promozione: Double Click vende agli inserzionisti la sua tecnologia per organizzare campagne mirate a categorie di utenti individuate in base a diversi criteri. Martin vede il Web come la fibra connettiva che collega milioni di individui, ciascuno dei quali è in ogni momento un consumatore: quest’intuizione è alla base dell’eccezionale sviluppodei servizi rivolti a gruppi individuati da interessi molto specifici o addirittura ad personam ; la struttura sociale della Rete, articolata nelle comunità virtuali descritte puntualmente da Reinghold, viene messa a profitto per coagulare aggregazioni di utenti considerati nella loro veste di consumatori di una certa tipologia di prodotti o di servizi: infatti si formano spontaneamente comunità di persone sulla base di un interesse comune, e per chi voglia intraprendere un business in rete, è sufficiente individuare il servizio appropriato da offrire loro sulla base dell’interesse che condividono, che è in definitiva la categoria che definisce la nicchia: insomma le comunità virtuali hanno un valore sociale che può divenire fonte di valore commerciale, opportunità di creare valore aggiunto122, e il successo delle aziende online 122E’ l’ana l isi, proposta a fondamento di un manifesto di una nuova generazione di imprenditori, di A. Armstrong e J. Hagel III, Net Gain, Harvard Business School Press, 1997. dipende dalla loro capacità di “trasformare i clienti in comunità e le comunità in clienti”123. Un esempio di questo genere è rappresentato da Women’s Wire, un’azienda di San Franciscoche gestisce una serie di siti dedicati alle donne124, e che, avendo individuato la specificità di alcuni interessi tradizionalmente femminili, promuove aree di discussione (forum e chat ) dedicate al lavoro, alla carriera, alla salute, alla casa, alla bellezza, ai bambini ecc., raccogliendo pubblicità da Levi’s e Revlon. Rivolta esplicitamente all’aggregazione di comunitàonline fondate su un senso di appartenenza collettiva, principio basilare della vita telematica, è la strategia di un’azienda della Silicon Alley, la iVillage, che su America Online gestisce siti rivolti a gruppi di persone aggregate in base a un interesse condiviso. Uno di questi è ParentSoup, un sito rivolto ai genitori, dove chiunque può intervenire ponendo questioni o dando suggerimenti: il contenuto è prodotto direttamente dagli utenti e il servizio è finanziato da grandi gruppi come MGM, Nissan, Starbucks e Toyota. Un servizio che sta diventando egemone con la diffusione delle informazioni in tempo reale è quello degli annunci personali in linea, più immediato e semplice del sistema tradizionale degli annunci a mezzo stampa: una delle aziende leader in questo settore è la Electric Classfield, che ha creato Match.com, un servizio di annunci personali in linea interattivo e multimediale, che solo nel primo anno di attività ha raggiunto il traguardo di ottantamila abbonati. I manager d i quest’impresa sapevano che prima di poter applicare delle tariffe sugli abbonamenti dovevano raggiungere la cosiddetta “massa critica” di utenti, cioè 123S. Campanella, Le aggregazioni a valore aggiunto, in “Alì Babà” n.17, inserto de “il Manifesto” del 17 settembre 1997, p. IV. 124Oltre al suo sito Web, gestisce alcuni spazi su circuiti commerciali come CompuServe e Microsoft Network. un nucleo consistente di utenza stabile che avrebbe costituito il valore aggiunto di un servizio siffatto: il servizio fu quindi inizialmente gratuito, aggiornato continuamente con il profilo dei nuovi abbonati, fino a quando venne introdota un’iscrizionea pagamento. La Electric Classfield gestisce anche un servizio di annunci economici in linea che sfrutta pienamente le potenzialità tecnologiche e interattive della Rete: l’azienda applica una tariffa per ogni transazione effettuata, ricavando un utile ogni volta che un acquirente e un venditore si scambiano un messaggio di posta elettronica o concludono un affare. Un’altrobusiness focalizzato su un mercato di nicchia è quello messo a punto dalla Independent Film Channel, che si è alleata con la 777-Film per fornire gli elenchi dei film in programmazione regione per regione, offrendo agli utenti che si collegano la possibilità di vedere quali film vengono proiettati nei cinema locali, visionare i trailer ed eventualmente prenotare i biglietti. Tra i vari servizi, quello delle spedizioni ha trovato nel Net il suo supporto principale: la Federal Express, società che gestisce il trasporto di “colli” da una destinazione all’altra, è stata una delle prime ad aprire un sitoWeb e trasporta ogni giorno più di 2,5 milioni di colli in 210 paesi tramite una rete propria, Powership, e un sistema di gestione centrale molto efficiente, un data base in connessione continua con i centri di smistamento regionali, a loro volta collegati ai computer installati sui furgoni della compagnia. Si stabilisce così un flusso continuo di informazioni, dal centro alla periferia, che segue tutto il processo di spedizione fino alla consegna della merce; in questo modo la società consente ai propri clienti di seguire la corrispondenza spedita: infatti è sufficiente indicare il numero che si trova sulla ricevuta rilasciata dal corriere che ha prelevato il pacco, e sul monitor compare l’ultima posizione registrata. Anche il settore turistico e quello legato allo spettacolo hanno trasferito con successo le loro attività in rete, specialmente nell’ambito delle prenotazioni e dell’assistenza alla clientela, che ha sviluppato una interattività notevole. La Hyatt, una catena di alberghi, ha creato un sito dove l’utente può visualizzare tutte e l informazioni relative alle proprietà del gruppo, con le offerte speciali e la possibilità di effettuare prenotazioni online ; molte compagnie aeree offrono online il servizio di prenotazione e scelta del posto, nonché prospetti informativi su tutte le tratte coperte: tra queste, la American Airlines non solo fornisce tutti i servizi di prenotazione aerea, compresa la possibilità di prenotare alberghi e auto a noleggio, ma dispone di programmi che mirano a consolidare i legami con la clientela, come aste di biglietti di prima classe, i cui proventi vengono devoluti in opere di beneficenza. Biztravel.com offre un servizio basato sull’uso di agenti intelligenti, delegando molte funzioni ai clienti: vengono compilati dei moduli che riportano varie informazioni, come la destinazione e alcune preferenze (a livello di cibo, sport preferito ecc.), dopodiché gli agenti elettronici elaborano un pacchetto di viaggio sulla base delle informazioni rilasciate dal cliente. Anche le agenzie immobiliari, nonostante il probabile ridimensionamento della loro attività di intermediazione dovuto alla diffusione della telematica, stanno trovando nella Rete un mezzo di rilancio ed espansione della loro attività, combinando servizi di ricerca con una serie di mappe interattive delle città e consentendo agli acquirenti di consultare più data base . Il Web si appresta a divenire un veicolo di sperimentazione, in vista di una nuova espansione, anche per i servizi più tradizionali, come quelli assicurativi: il Gruppo RAS, uno dei primi in Italia nell’offerta di servizi assicurativi e finanziari e parte del Gruppo Allianz, primo in Europa in questo settore, sta studiando l’eventualità di vendere pensioni integrativeonline, con la definizione di un breve questionario interattivo che consenta di profilare soluzioni ad hoc per ogni cliente, mentre un progetto ancora più semplice, dato il contesto della Rete, sarebbe la fornitura di garanzie assicurative sui computer in uso. In ogni caso la compravendita di servizi assicurativi online, richiedendo particolare affidabilità e confidenzialità, sarà pienamente attuabile solo quando ci sarà piena garanzia 125. dell’autenticità della firma elettronica dell’assicurato L’impresa nella Rete I primi siti commerciali risalgono al 1995 e inizialmente fornivano soltanto informazione: la loro funzione era cioè esclusivamente quella di rappresentare l’impresa nel nuovo ambiente telematico (missione aziendale,policy , biografie d e i manager) e pubblicizzarne i prodotti. La ripercussione sulla struttura produttiva e aziendale era limitata dunque al settore del marketing e della pubblicità. Poi nelle pagine Web delle aziende sono stati inseriti servizi come chat room , forum , E-mail: il sito Web delle aziende diveniva in questo modo, oltre che strumento di informazione e di promozione aziendale, una fonte di conoscenza degli usi e delle abitudini del proprio segmento di utenti-consumatori I siti successivi, quelli cosiddetti di “seconda generazione”126, non si limitano a fornire soltanto informazioni sulla produzione e sulle iniziative aziendali, ma offrono la possibilità di transazioni online , in genere vendendo un prodotto o un servizio a chi visita il sito. Il carattere transattivo di questi nuovi siti implica il mutamento strutturale dell’organizzazione aziendale: offrendo un prodotto direttamente sul Web, dove 125Intervista a M. Arrighi, direttore commerciale del Gruppo RAS, in “Ingenium” n. 21, 21 dicembre 1996. 126In C. Martin, op. cit. , p.X. tutto avviene secondo un modello sincronico, l’impresa vede innanzittuto mutare i suoi tempi. I cicli produttivi diventano estremamente veloci, e i prodotti vengono immessi sul mercato prima di essere testati: sia la concezione e il lancio, che il perfezionamento del prodotto avvengono in tempo reale, e revisioni e adattamenti sono successivi al lancio stesso. Poiché il Web, che è l’ambiente in cui queste imprese lavorano, subisce un’evoluzionesenza soluzione di continuità, le aziende decidono di seguire il cambiamento di pari passo per accumulare conoscenze, diventando parte integrante della Rete e di questo processo evolutivo. Martin sostiene che il mercato ha nei confronti di queste aziende un atteggiamento benevolo, per cui l’utenza è incline ad accettare l’eventuale aggiustamento di un prodotto già immesso sul mercato, come se fosse in fase di prova, mentre un’impresa consolidata, che ha sempre operato secondo strategie tradizionali, non si può permettere di verificare l’eventuale inadeguatezza del suo prodotto, che lederebbe la sua immagine di affidabilità, minando la fiducia dell’utenza; le grandi imprese tradizionali, quindi, sono costrette ad adottare strategie meno flessibili. Le nuove aziende che hanno impostato la loro attività imprenditoriale sul Web operano in piena sintonia con l’ambiente telematico: il protocollo TCP/IP rappresenta lo standard comune e lo strumento che consente la comunicazione diretta e in tempo reale con il personale e la clientela. La SiteSpecific, per esempio, è riuscita a sfruttare la diffusione delle intranet nelle imprese statunitensi e a farne il cardine della propria strategia di marketing per entrare in contatto con i potenziali clienti del servizio. L’organizzazione interna non è strutturata secondo lo schema fordista del line management , cioè di una struttura piramidale e verticistica, dove i ruoli sono rigidamente prefissati in base alla gerarchia di comando, ma secondo quello postfordista del team , cioè di una squadra , un gruppo dove i ruoli sono fluidi e intercambiabili e l’apporto individuale, essendo svincolato da uno schema formalmente determinato, si esprime in tutte le sue risorse. Identificandosi totalmente con gli obiettivi dell’impresa,secondo il modello toyotista, il lavoratore è assorbito nel ciclo produttivo anima e corpo, e questa nuova posizione rende estremamente efficiente l’organizzazione del lavoro e della produzione, fondata sulla cooperazione orizzontale anziché sul comando verticale. Alla SiteSpecific i gruppi di lavoro vengono creati ad hoc in base alle esigenze del cliente e continuamente rinnovati, in una flessibilizzazione dell’organico funzionale alla filosofia produttiva deljust in time : un gruppo di lavoro si costituisce per una specifica campagna, e non necessariamente lavorerà, almeno nella stessa composizione, alla campagna successiva della stessa impresa. In questo modo le risorse vengono allocate in modo estremamente mirato laddove sono necessarie e in modo efficiente, per abolire i tempi morti che inevitabilmente si verificano nell’attesa di fornire il servizio a un dato cliente. Le caratteristiche del Web, cioè la sua fluidità e flessibilità, si riflettono sull’attività e sull’organizzazione di queste imprese:il modello commerciale non può essere fisso e rigido, la crescita è in genere rapida e fulminea, si stabiliscono alleanze con altre aziende che operano sulla Rete, link che si rendono operativi anche nelle interconnessioni e nei rimandi della ragnatela multimediale. In un mercato caratterizzato da una crescita così elevata i vantaggi della collaborazione superano quelli della competizione; l’alleanza con un’azienda che presenta caratteristiche complementari si rivela fondamentale per crescere e radicarsi nell’ambiente digitale: le aziende più giovani, per le quali la crescita si rivela talvolta difficile, spesso cercano di stringere alleanze con imprese più grandi, dotate di infrastrutture solide; per le aziende più grandi queste alleanze sono utili perché le nuove realtà imprenditoriali sono più agili: questo fattore è dovuto in parte all’età dei dirigenti, spesso neanche trentenni, e anche alla mancanza di un’esperienza consolidata, all’origine di un atteggiamento più audace, flessibile e incline alla sperimentazione. Secondo i dirigenti delle nuove imprese che operano sul Web , le imprese consolidate, sia di grandi dimensioni che di dimensioni medie o piccole, godono di un indubbio vantaggio rispetto all’imprenditoria emergente, dovuto al fatto che dispongono di mezzi e risorse, ma non lo sfruttano adeguatamente, perché si limitano a considerare la Rete solo come un ulteriore mezzo di comunicazione per promuovere i marchi o i servizi già esistenti nell’ambito delle attività tradizionali, e non colgono le m i mense potenzialità interattive del Net. Anche i grandi gruppi danno vita a nuove società o consorzi per lo sviluppo di contenuti interattivi online : s i t r a t t a d i partnership tra aziende con competenze disparate e complementari, come i gestori di telecomunicazioni che costituiscono una joint venture con i fornitori di contenuti. Esempi di questo tipo sono Americast (Ameritech, Bell South, GTE, SBC, Disney) e Tele TV (Pacbell, Ninex, Bell Atlantic, CAA)127. La Rete viene percepita come ambiente altamente competitivo; è quindi fondamentale il tempismo che consente di anticipare le mosse strategiche dei concorrenti sul mercato: è per questo che le aziende entrano sul mercato il prima possibile, anche se il prodotto non è perfezionato. Anzi la fase di perfezionamento si basa sull’apporto critico dell’utenza, che nel momento stesso in cui ricorre a un prodotto o a un servizio, lo testa. Le procedure di bilancio e i piani quinquennali tipici delle grandi aziende non possono essere applicati alle nuove aziende in rete: i piani coommerciali 127S. Santini, Internet e Intranet. Nuovi scenari per le strategie aziendali , in “Ingenium” n. 21, 21 dicembre 1996, p. 25. vengono considerati semplicemente un parametro di riferimento, da aggiustare continuamente. Grazie alla telematica il mercato è diventato globale a tutti gli effetti: sulla Rete è possibile vendere qualsiasi prodotto e servizio a chiunque, e una fabbrica di utensili del Connecticut può vendere i suoi prodotti in Cina o in Russia. Ogni azienda che accede al Web entra nel mercato globale: la portata dirompente di quest’innovazione tecnologica si fa sentire soprattutto per le piccoleimprese, dotate di scarsi mezzi e tradizionalmente operanti in un bacino di mercato geograficamente limitato. Con l’Internet la globalizzazione dei mercati è effettiva per tutti, multinazionali e piccole imprese. Una trasformazione importante che riguarda le imprese che operano sul Web è la scomparsa della figura dell’intermediario, che ospita e gestisce la transazione, trait d’union tra fornitori e consumatori: la Rete consente la comunicazione diretta tra chi offre un prodotto o un servizio e gli interessati, con grande contrazione di costi. Tuttavia la scomparsa di alcune figure professionali è accompagnata dall’affermazione di nuove professionalità emergenti legate ai nuovi saperi: il webmaster, per esempio, è una figura aziendale che ormai gestisce una pluralità di attività, tra cui la definizione di una strategia aziendale per il Web, la scelta delle opzioni tecnologiche per il server (architetture, collegamenti Internet, ecc.), la gestione della programmazione HTML e la comunicazione al CdA dei risultati raggiunti dall’azienda in rete. Questa nuova figura professionale è ancora in via di definizione, e la sua progressiva evoluzione porterà probabilmente alla sua progressiva integrazione nella compagine aziendale, dal momento che di solito non fa ancora parte del settore sistemi informativi. Le Intranet Stiamo assistendo al delinearsi di un grande mercato virtuale, un solo mercato finanziario, azionario, assicurativo mondiale, accessibile istantaneamente da centinaia di milioni di risparmiatori; un solo mercato editoriale e mediatico, per il software e per larghi settori di servizi (dalla vendita di biglietti alle prenotazioni aeree...); profonde trasformazioni pubblicitarie, di distribuzione.128 Attori di questo cambiamento sono le aziende informatiche e di telecomunicazioni, i colossi dell’elettronica di consumo, come Siemens e Sony, dell’entertainment , i fornitori di informazione, le banche e le società finanziarie; ma oltre a questi grandi soggetti economici, migliaia di imprese di tutte le dimensioni stanno facendo propria la tecnologia Internet sia creando un proprio sito Web , sia dotandosi di reti interne a uso privato con protocollo TCP/IP, denominate Intranet. Infatti l’uso dell’Internet a fini aziendali è enormemente vantaggioso, pe rché le reti hanno un’articolazione globale e costi infimi, ma pone il problema della sicurezza, in quanto un data base contenente l’elenco dei prodotti può essere pubblico, mentre un archivio contabile o altre informazioni interne riservate hanno bisogno di un sistema di sicurezza che dia garanzia da eventuali violazioni esterne: la soluzione è offerta dalle Intranet, che usano un firewall di sbarramento, che consente agli interni di navigare nella rete pubblica e viceversa non permette agli esterni di accedere. Alcune aziende hanno collegato le proprie Intranet all’Internet, altre al contrario, le hanno create a partire da reti chiuse (LAN , reti locali) già esistenti. Questo sistema di comunicazione aziendale o interaziendale ha incontrato un successo addirittura superiore a quello della rete pubblica, se alla fine del 1995 oltre il 20% delle prime mille imprese USA per fatturato aveva adottato 128Articolo di G. Caravita tratto dal “Sole 24 Ore” e citato in B. Croce, Alla conquista del Web. Da Internet a businessnet, “Ingenium” n. 21, 21 dicembre 1996, p. 6. un’architettura Intranet, e si prevede che entro il 1999 la spesa per host computer e software per Intranet sarà sei volte superiore a quella per le applicazioni Internet129. L’affermazione di queste reti private con protocollo Internet è dovuta al fatto che il protocollo TCP/IP è compatibile con qualunque sistema operativo e permette la comunicazione a distanza di qualunque computer, e rispetto alle tradizionali applicazioni groupware ( software per la gestione del lavoro di gruppo, molto usati dalle aziende), la tecnologia Intranet consente l’istallazione di sistemi meno costosi130. L’adozione di tecnologie Internet per le reti aziendali non è comunque esente da limiti, alcuni dei quali, dovuti allo stadio iniziale delle applicazioni, sono superabili a breve o a medio termine, mentre altri sono più strutturali e riportano al carattere originario del Web , concepito dall’èquipe di Tim Berners Lee al Cern di Ginevra per la pubblicazione elettronica di documenti multimediali, e quindi con una funzionalità focalizzata sull’accesso all’informazione distribuita in rete (networked information ). Le tecnologie Internet, in particolare il linguaggio HTML, sono perciò adatte al network publishing in una rete aziendale, ma producono pagine statiche, in cui l’informazione non può essere trattata e modificata in modo fluido, immediato e interattivo, non essendo i server H T T P scalabili , cioè ricofigurabili dinamicamente al modificarsi del carico di lavoro131. Il nuovo paradigma telematico trascina con sé una nuova cultura, imprimendo un cambiamento nella cultura aziendale e mettendo in discussione il sistema di gerarchie e abitudini consolidate: è la cultura della comunicazione, del 129Ibidem, p. 7. 130S. Santini, Internet e Intranet. Nuovi scenari per le strategie aziendali , in “Ingenium” n. 21, 21 dicembre 1996, p. 27. 131Una parziale soluzione a queste carenze è offerta dall’introduzione del linguaggio di programmazione Java; per una trattazione più specifica delle prospettive e degli sviluppi più “tecnici” v. O. Viele, Si fa presto a dire Intranet, in “Ingenium” n. 21, 21 dicembre 1996, pp. 48-53. confronto continuo con clienti e fornitori, della trasparenza dei processi burocratici132; inoltre il sistema Intranet ha l’effetto di rafforzare la capacità di controllo del centro aziendale sull’interaattività dell’impresa: le Intranet divengono così uno dei pilastri della ristrutturazione organizzativa interna con funzione di coordinamento. Imprese a ramificazione nazionale o internazionale si sono dotate di uno strumento per coordinare la fitta trama di transazioni quotidiane tra le centinaia di agenti diretti e indiretti; molte delle aziende che hanno installato sistemi Intranet hanno messo a disposizione la propria rete a clienti e fornitori per accedere a informazioni sui prodotti e listini, o per monitorare le fasi del processo produttivo, e hanno installato sui laptop o presso l’abitazione dei dipendenti gli stessi sistemi groupware utilizzati in azienda, in modo che possano svolgere il loro lavoro da una postazione remota , andando nella direzione della creazione di work site alternatives. Hewlett Packard dispone di una delle Intranet più estese del mondo, con 140.000 host che trasmettono più di cinque terabyte di informazioni al mese: la nuova struttura comunicativa reticolare ha accelerato i cicli di produzione, migliorato le relazioni con la clientela, reso fluide e veloci le comunicazioni tra il management e il personale e immediato l’accesso dei dipendenti alle informazioni aziendali. La telematica è dunque uno dei fattori principali dei poderosi processi di ristrutturazione aziendale che hanno segnato il cambio di paradigma, il passaggio epocale dall’economia fordista a quella postfordista: uno dei cardini del re-engineering, cioè della riprogettazione delle strutture, è l’outsourcing , ossia il ricorrere a forniture esterne laddove l’azienda non dispone di competenze specifiche, snellendo la produzione e alleggerendo la struttura 132V. i casi dell’ENEA e della Camera di Commercio di Milano, i cui dipendenti hanno la possibilità di controllare in rete in quale ufficio si trovi una pratica e a che punto sia dell’iter burocratico. aziendale. Il 40% delle prime 500 aziende di “Fortune” che hanno perso il loro primato negli ultimi venti anni 133, h anno compiuto una virata strategica concentrando le risorse sul proprio core business. Emblematico è il caso dell’industria automobilistica, paradigma della produzione fordista che ha dominato il ‘900, che produceva al suo interno tutte le componenti dell’auto, fino agli accessori, mentre ora, nella maggior parte dei casi, ha demandato ad aziende satellite la fornitura di varie componenti, focalizzando le risorse sulle proprie competenze specifiche: le Intranet sono il veicolo di coordinamento del lavoro dei diversi gruppi, sia interni che esterni all’azienda, e in questo modo i fornitori lavorano in modo integrato come se i diversi anelli della catena produttiva fossero localizzati all’interno della casa automobilistica. In questo consiste la virtualità dell’azienda, nella segmentazione della produzione e nella deterritorializzazione dell’impresa, che non è più concettualizzabile nella grande fabbrica fordista radicata e identificata con il territorio. Dal momento che si prevede che a livello commerciale il volume maggiore di affari sarà assorbito dalle transazioni business-to-business piuttosto che da quelle con l’utenza di consumo (business-to-consumer ) 134, le Intranet, che di questi processi transattivi si avviano a divenire il veicolo principale, acquisiranno sempre più importanza, avviandosi a diventare una delle infrastrutture portanti della extended enterprise, l’impresa che si estende oltre i propri dipendenti fino a comprendere tutti i soggetti che compongono il sistema aziendale, fornitori, clienti e consulenti. Come per le altre transazioni online, anche per lo scambio di documenti via Intranet (fatture di pagamento, ordini, ecc.) si pone la questione della sicurezza e quindi dell’impiego di firme digitali e sistemi crittografici: Bank 133M. Righetti, Azienda virtuale ed economia in rete. Un nuovo modello per fare business, in “Ingenium” n. 21, 21 dicembre 1996, pp. 43-44. 134B. Croce, Alla conquista del Web. Da Internet a businessnet, in “Ingenium” n. 21, 21 dicembre 1996. of America sta sperimentando con i Lawrence Livermore Laboratories135 la prima applicazione EDI (Electronic Document Interchange) automatizzata, con l’ausilio di firme digitali e sistemi di encriptazione136. Advertising on the Net Gli analisti americani sostengono la radicale trasformazione, la "distruzione creatrice", per dirla con una categoria schumpeteriana, indotta dall'Internet, che starebbe rivoluzionando l'intera società: da questo rivoluzione sarebbero emersi una cultura digitale, una nuova economia digitale, financo un nuovo modo di essere digitali e di relazionarsi che sarebbe la cifra antropologica della nascente civiltà dei bit, contrapposta in modo quasi manicheo all'ormai sorpassato mondo degli atomi 137, pesante, rigido e staticamente materiale. Martin, per esempio, vede l’avvento di una nuova era digitale che sta già facendo sentire i suoi effetti rivoluzionari anche nell’economia: la connettività di massa, con investimenti miliardari nelle infrastrutture delle telecomunicazioni, sarà, con la sua capacità aggregativa e trainante su scala globale, il vettore dello sviluppo economico di una regione, svolgendo nel XXI sec. le stesse funzioni che nel XX ha svolto l’apparato militare. In tutte queste iperboli è facile rintracciare l'enfasi tipica di ogni periodo di grandi trasformazioni, unita ad un determinismo tutto positivistico, per cui 135Laboratorio nazionale che fa capo al Department of Energy del governo USA. 136B. Croce, Alla conquista del Web. Da Internet a businessnet, in “Ingenium” n. 21, 21 dicembre 1996. 137N. Negroponte, op. cit. un'innovazione tecnologica viene caricata di aspettative palingenetiche e vista come motore di processi di radicali trasformazioni sociali. In ambito economico le discontinuità qualitative sono in ogni caso molte, soprattutto in alcuni settori basati sulla comunicazione, quali la pubblicità e le politiche relative alla comunicazione aziendale, in cui i nuovi mezzi, e i relativi linguaggi, hanno portato un cambiamento nelle strategie e nelle leggi interne a questi ambiti per alcuni versi profondissimo. Il cambio di paradigma è dovuto non tanto alla novità tecnologica della trasmissione digitale dei dati e delle informazioni - che ha sostituito la trasmissione analogica dei segnali elettrici o delle onde radio - quanto alla peculiarità del nuovo modello di comunicazione, che è interattiva e diretta da molti a molti. La cesura sta qui, e in questa novità, tutta qualitativa, sta l'origine della desuetudine dell’ analisi e della critica tradizionale dei mass media, che ha avuto in McLuhan il suo capostipite: tramonta il timore - per lo meno quello fondato - di un Grande Fratello e di un controllo unico, fonte dell'eterodirezione oltre che nel modo di pensare anche in quello di consumare, e si prospetta la garanzia di una pluralità delle fonti delle informazioni, che circolano orizzontalmente in un circuito in cui ciascun destinatario dei messaggi si può trasformare in ogni momento in mittente. La pubblicità, con le reti telematiche, ha cambiato codici e strategie consolidate in quasi ottanta anni di società dei consumi di massa, e, in virtù della gratuità e dell'apertura del ciberspazio, assurgerà a pilastro basilare del sostegno economico del content providing in rete: per mantenere un sito Web, la promozione commerciale è il mezzo più efficace e meno rischioso, almeno finché non verrà falsificato.l'assunto di Staglianò138, per cui l'utenza di rete 138R. Staglianò, Pubblicità interattiva. La pubblicità al tempo di Internet , Castelvecchi, Roma 1996. raramente è disposta a pagare per accedere a un sito. In realtà quella che Staglianò definisce come la "prima legge" della nuova economia digitale, che chiama "webonomics", è mutuata da un articolo-manifesto apparso su Realise 1.0 e riportato da "Wired" del luglio '95, in cui l'autrice, Esther Dyson, sosteneva che il contenuto, qualsiasi esso fosse, avrebbe fatto da pubblicità per altri servizi, cioè sarebbe stato il veicolo di attrazione verso servizi e prodotti da vendere. Le informazioni, distribuite gratuitamente, dovrebbero cioè attirare utenza verso servizi collegati, per i quali si potrebbe chiedere una qualche forma di pagamento. La modalità alternativa di sostegno economico è che, una volta costituita la massa critica di utenza di un sito, si vendano degli spazi pubblicitari a degli sponsor. La forma più semplice di pubblicità sul Web è quella rappresentata da un banner , strumento visivo rettangolare posto sulla home page di un sito, che riporta il logo di un'azienda, normalmente contenente il link con uno spazio pubblicitario vero e proprio, di solito il sito dell'azienda stessa. L'Internet non veicola solo comunicazione interattiva e non implica solo un approccio di tipo attivo e funzionale: secondo un'esperta139 la possibilità di stabilire una relazione con il pubblico di tipo consumer si deve proprio al fatto che il Net non è solo e sempre interattivo. Nell'epoca del Web, colorato e multimediale, la navigazione ipermediale in rete diviene spesso uno zapping di tipo televisivo, e quest'approccio passivo rende la pubblicità online efficace. Inizialmente le agenzie pubblicitarie creavano degli “striscioni” pubblicitari digitali e li posizionavano sulle home page di moltissimi siti Web, cercando di attirare l'attenzione degli utenti il più possibile: questa strategia promozionale era focalizzata sul volume di traffico, all’incremento del quale sarebbe corrisposto un 139Andreina Mandelli, docente all'Università Bocconi di Milano, come riportato in R. Staglianò, Comunicazione interattiva. La pubblicità al tempo di Internet , Castelvecchi, Roma 1996. aumento delle probabilità che qualche utente cliccasse sul banner e accedesse direttamente alle informazioni pubblicitarie. Tuttavia i messaggi pubblicitari troppo invadenti e chiassosi non funzionano in rete, poiché questa è un mezzo di attrazione, e il modello della pubblicità televisiva e cartacea, che mira ad essere incisiva e a imprimersi subliminalmente nell’inconscio dell’utente -consumatore, non si può trasferire sul Web, che oltre a essere un mezzo di comunicazione è un ambiente, un contesto relazionale, e in quanto tale determinato anche dall’utente: quando furono disponibili agenti di analisi del traffico Web si comprese che la strategia ricalcata sulla pubblicità televisiva e cartacea non faceva i conti con la basilare differenza che nel ciberspazio è l’utente che decide a quali contenuti e a quali informazioni accedere; si è capito che bisognava quindi creare contenuti e informazioni interessanti in modo da attirare i navigatori, che visitano siti commerciali per accedere a contenuti (software, informazioni e servizi). Infatti sono gli utenti che scelgono le informazioni da visualizzare, compresi anche i messaggi pubblicitari e le icone promozionali, che debbono essere in grado di attirare l’utenza. E’ per questo che Martin parla di “comunicazione attrattiva”140, in quanto la finalità non è rendere il consumatore consapevole del marchio, ma indurlo a voler recepire le informazioni che lo veicolano. Il problema maggiore è quello di convincere i visitatori di un sito a ritornare, catturando il loro interesse, e a trattenerli per un tempo sufficiente a convincerli della validità del prodotto o del servizio offerto, essendo lo zapping nel ciberspazio addirittura più frenetico e dispersivo di quello nell’etere. Il grande vantaggio rispetto alla pubblicità sui media tradizionali, come la TV generalista via etere, è la possibilità di una personalizzazione del messaggio, che passa tramite la tecnologia push: nel momento in cui un utente riceve gratuitamente un servizio informativo corredato da inserzioni pubblicitarie, queste 140C. Martin, op. cit. , p. 58. risultano spesso personalizzate in base alle preferenze e ai consumi.dell’utente In alcuni casi la personalizzazione dell'online advertising passa per il tipo di pubblicità che viene proposta quando si accede a un sito: ogni volta che la stessa persona si collega alla pagina Web contenente il banner in questione, un programma appositamente predisposto cambia il logo dell'azienda da sponsorizzare; è il tipo di pubblicità praticata dal sito Firefly, dove un agente software memorizza le preferenze degli utenti e fornisce consigli personalizzati nel campo dello spettacolo e della musica. Questo agente intelligente è anche lo strumento di creazione di comunità, in quanto ha la funzione di mettere in contatto utenti con gli stessi gusti musicali o cinematografici, che comunicheranno in chat o forum. In questo caso i pubblicitari creano dei messaggi ad hoc da indirizzare alle diverse categorie di utenti, individuate in base a diversi criteri selettivi, come le preferenze nel campo dello spettacolo, l’età, il genere, l’appartenenza geografica, il dominio ecc. In questo modo, dopo aver definito il profilo dell’utente che si collega, l’agente esegue una ricerca nel suo data base e invia solo i messaggi pubblicitari appropriati. Anche la CNET, società multimediale che offre un servizio di TV tematica via cavo e di programmazione su Web sulle tecnologie digitali, utilizza applicazioni sofisticate per inviare determinati messaggi pubblicitari a segmenti di utenti con caratteristiche comuni. La commercializzazione selettiva di un prodotto o di un servizio rivolto ad un settore di utenza ben individuato e specifico risulta più efficace rispetto alla pubblicità generica di alto profilo: la pervasività del Web e lo sviluppo di agenti intelligenti hanno facilitato estremamente la diffusione di prodotti e servizi online destinati a un’utenza di nicchia, in genere offerti da piccole imprese nate sulla Rete. L'interattività nella pubblicità implica un canale comunicativo tra l'azienda e i potenziali utenti, con uno spazio aperto a suggerimenti, richieste di informazioni e dettagli, problemi, accessibile all'utenza di rete, e una pronta ricezione da parte del personale addetto dell'azienda: quello che, nel linguaggio di impresa, si chiama customer care, e che, se organizzato con personale qualificato, e articolato in più lingue, esige l'impiego di risorse notevoli. Viceversa, un eventuale servizio scadente va a detrimento dell'immagine dell'impresa, e si rivela quindi addirittura controproducente, come ha dimostrato il caso della Volvo141. La casa automobilistica aveva aperto un bellissimo sito, in cui però il feedback con l'utenza non era funzionale: l’effetto, lungi dall'incrementare la domanda di auto, ha determinato un danno all'immagine aziendale. Secondo la nostra esperta: Un'impresa di successo funziona come un sistema aperto e dinamico verso l'ambiente. Per poterlo essere ha bisogno di comunicare con quest'ambiente; di poter cioè acquisire informazioni e feedback e di poter ridisegnare dinamicamente i contenuti della propria offerta e del proprio ambito competitivo in tempi molto brevi...142 Molti operatori mettono a disposizione servizi e informazioni come forma di ricompensa per gli utenti che concedono informazioni personali sulle proprie abitudini, i propri gusti, i propri consumi, pacchetti di informazioni che per le agenzie di pubblicità risultano preziosissimi: ormai molti siti predispongono un percorso di navigazione che prima di accedere a delle informazioni passa per la registrazione di dati personali. In ogni caso l'offerta del servizio in cambio delle informazioni non deve mai assumere la forma di uno scambio coatto, ma quella di una scelta opzionale; l'utente, cioè, deve sentirsi ricompensato per fornire un surp l u s informativo e non obbligato alla registrazione per accedere a un'informazione; ne fa fede la storia della versione elettronica di "Wired"143, che all'inizio aveva previsto un accesso condizionato a una registrazione minuziosa, e, preso atto di una considerevole contrazione del numero dei visitatori, nonché delle rimostranze degli inserzionisti pubblicitari, ha optato per una registrazione 141R. Staglianò, op. cit. , p. 23. 142A. Mandelli, cit. 143R. Staglianò, op. cit. , pp. 25-26. facoltativa, ricompensata da un servizio personalizzato in virtù del quale, grazie a un sistema di memoria presente nel server, ogni visitatore, scegliendo l'opzione delle novità, riceve ogni volta informazioni differenti, ossia quelle che non sono state visualizzate nei collegamenti precedenti. Le strategie di marketing più efficaci passano per l'offerta di software o di servizi: grazie a questa formula il sito di Netscape risulta uno dei più visitati, dal momento che i visitatori possono scaricare gratuitamente il browser, e questo ha reso particolarmente appetibili, e dunque costosi, gli spazi pubblicitari disponibili sulla home page della software house californiana. Nella classifica relativa agli introiti dovuti alla pubblicità144 seguono Lycos e InfoSeek, le due compagnie che gestiscono i motori di ricerca omonimi, che offrono gratuitamente un servizio indispensabile per i netsurfer , mentre Jumbo ha creato un sito con 60000 software di tipo shareware per varie funzioni, dagli affari, ai giochi alla grafica, disseminati di messaggi pubblicitari. Il ciberspazio ha comunque stimolato la fantasia degli agenti pubblicitari e dei fornitori di servizi: la Juno Online Services di New York ha deciso di offrire un servizio gratuito di posta elettronica a chi è disposto a ricevere e a scrivere messaggi che riportano il logo di uno sponsor; Geocities, invece, offre una home page personale a chi si registra online, finanziandosi con la pubblicità e con gli introiti provenienti dai clienti che hanno aperto siti commerciali. L'attrattiva maggiore è però esercitata dai contenuti informativi: esemplari, per le informazioni offerte e i servizi collegati, sono i siti di HotWired145, versione digitale della rivista "Wired", "Time"146, "The Economist", siti che raccolgono milioni di dollari di pubblicità. 144Internet Advertising a cura del Center for Digital Multimedia - Center for Advanced Technology della New York University, disponibile all'indirizzo Internet <http://found.cs.nyu.edu/found.a/CAT/misc/welz/internetmm/10ads/ads5.html>. 145<http://www.hotwired.com>. 146<http://www.pathfinder.com> . Interessante è il caso della prima versione elettronica di "Usa Today", che prevedeva addirittura un software apposito per accedere ai contenuti della rivista. I responsabili del settore marketing e promozione avevano però previsto un abbonamento mensile di dodici dollari e novantacinque per tre ore complessive di consultazione, e una tariffa di due dollari e cinquanta per ogni ora supplementare di collegamento. Il risultato fu fallimentare e costrinse il management a rendere gratuita la fruizione della rivista online 147. Un modo per attirare utenti-consumatori è quello delle ricompense o dei premi in palio, mutuato sia dalla TV che dalla carta stampata: quando il cliente esegue molte delle operazioni direttamente, le aziende offrono una forma di incentivo, come American Airlines che dà la possibilità di vincere due biglietti di prima classe per una destinazione a scelta, o la I/Pro che ricompensa gli utenti che forniscono informazioni con premi in denaro e vacanze a prezzi stracciati. Una società californiana, la Play4Prizes, sta facendo ingenti profitti con il gioco del puzzle da ricostruire, ritrovando le tessere sparse in rete: le indicazioni iniziali sono elencate sul sito della Play4Prizes, e rinviano ai siti dei quattro committenti che hanno stipulato un contratto di pubblicità. Per ogni visita al loro sito, le società committenti devono corrispondere una cifra pattuita alla Play4Prizes. Una metodologia di promozione analoga è stata seguita dalla Swatch al momento del lancio sul Web: l'evento promozionale era stato una caccia al tesoro telematica, in cui l'oggetto da ritrovare erano i frammenti di un modello prodotto in serie limitata, disegnato da un famoso videoartista coreano, 147Ci sono vistose eccezioni, come quelle rappresentate dal "Wall Street Journal" e dal "New York Times", che riscuotono un abbonamento mensile per la fruizione della versione online : in questo caso la qualità e il prestigio delle testate le rendono agli occhi dei lettori insostituibili nel loro genere, valutazione che spinge anche a pagare la subscription , soprattutto fuori dai confini statunitensi, dove risulta più difficile e costoso reperire una copia cartacea. disponibile all’acquisto solo per quelli che avrebbero riempito un modulo via Internet.148 Tuttavia la strategia più efficace per fidelizzare l'utenza è quella che fa perno sulla creazione di un senso di comunità: il mezzo più diretto passa per la predisposizione di aree di discussione asincroniche (i newsgroup) o in tempo reale (le chat room), dedicate agli argomenti più vari: secondo un analista di Forrester Research "la chat crea un cliente molto affezionato: sta più a lungo e ritorna spesso...Entro diciotto mesi sarà difficile trovare un sito Web con qualche ambizione che non abbia occasioni di chat integrate con i propri contenuti"149: le sponsorizzazioni, corredate da banner colorati e intermittenti, sono adeguate al contenuto discusso. Resta la questione delle metodologie di rilevazione dell'afflusso di visitatori di un sito Web: delle inchieste della Nielsen e del sistema della I/Pro si è già fatto cenno, ma questi due casi non esauriscono l'ampio ventaglio di opzioni che attualmente offre il mercato nell'ambito dello studio dei flussi che si muovono nel ciberspazio. La NetCount, una società di Hollywood, ha messo a punto un sofisticato sistema, denominato AdCount, in grado di determinare in modo preciso sia le esposizioni del banner (exposures o impressions o ad views), cioè quante volte è stata vista l'inserzione pubblicitaria, sia le richieste (clicks on banners), cioè il numero di coloro che hanno risposto positivamente allo stimolo cliccando sul banner, nonché i click-throughs , ossia quante volte il link è attivato e cliccato per raggiungere effettivamente il sito Web del committente150: grazie a questo 148R. Staglianò, op. cit. , pp. 42-43. 149Ibidem , pp. 45-46. 150Bisogna distinguere i clicks on banners o inquiries , che corrispondono a quante volte una pubblicità viene cliccata, da quelli che in gergo vengono denominati click-throughs , ossia il numero di volte che un utente, attivando il link , si trasferisce effettivamente dal sito del publisher (del fornitore di spazio pubblicitario) a quello dell'advertiser (del marchio pubblicitario): infatti è abbastanza frequente cliccare su un hyperlink e vedere visualizzato sul monitor un messaggio di "server busy", che indica che il server che il nostro browser sta contattando è per il momento impegnato in altre transazioni, o "DNS look-up failed", che sistema chi commissiona il servizio può risalire a dati molto preziosi per un pubblicitario, e cioè alle pagine più richieste di un sito, all'andamento dell'afflusso a seconda dell'orario e del giorno, alla classificazione dei visitatori per dominio di provenienza ecc. Un'altra società che analizza i flussi sul Net è la Web Track, compagnia newyorkese rilevata di recente dalla Jupiter Communications, prestigioso centro studi sui new media: l'attività che l'ha resa più famosa è la classifica periodica dei Top Ten Publishers & Advertisers online, cioè dei maggiori venditori di spazi pubblicitari elettronici e inserzionisti. La varietà nell’offerta di questi servizi dimostra come non si sia ancora affermata una metodologia univoca per computare gli indici rilevanti ai fini di una valutazione del traffico sul W eb; per esempio il servizio Nielsen-I/Pro stabilisce il numero di visite ai siti Internet e non il numero di hit: questa distinzione non è oziosa, in quanto il numero delle hit si riferisce ai files trasferiti, e ogni singolo click può determinare molte hit151, mentre l'ammontare delle visite si riferisce al numero effettivo delle persone che hanno navigato il sito, in quanto indica le volte che una singola pagina Web è stata scaricata. L’analisi dei flussi in rete è ulteriormente complicata da altri fattori che hanno a che fare con elementi tecnico-strutturali: le pagine che vengono viste una seconda o una terza volta ricorrendo all’opzione di ritorno indietro (back) non sono contabilizzate in quanto non vengono scaricate dal server a cui ci si è connessi, ma dalla memoria cache del nostro computer; gli utenti che si indica che il server da contattare non è stato identificato dal nostro Domain Name Server di riferimento (un data base che ha la funzione di tradurre i nomi degli host di rete nei relativi indirizzi numerici, poiché la comunicazione effettiva tra gli host avviene sempre attraverso gli indirizzi numerici). Per cui, nonostante l'utente non sia mai giunto al sito dell'advertiser, tuttavia il server d e l publisher ha registrato il click, e se l'utente prova ripetutamente a cliccare sul link quando il server risulta occupato, numerosi inquiries corrisponderanno a un unico click-through . 151Il numero di hit dipende dalla quantità di grafica che una pagina contiene, per cui la request di una pagina composta da due immagini, un file di testo e un file audio al server che la ospita produrrà quattro hit . collegano all’Internet tramite legateways, le passerelle di connessione con l’esterno dei servizi commercialionline come AOL o Prodigy, per rimanere negli Stati Uniti, vengono registrati con un’identità collettiva, in quanto questi servizi non assegnano a ogni utente un proprio indirizzo Internet, per cui la transazione si svolge tra il server e l’host che inoltra la request come un “agente collettivo”, lasciando sconosciute le generalità dei singoli utenti. Un altro elemento di distorsione è rappresentato dai browser off line , cioè delle applicazioni come Freeloader, WebWhaker, ecc, che consentono lo scaricamento multiplo di file senza dover restare collegati e assistere così a tutta la procedura, spesso lunga e costosa: in questo caso non si tratta di un utenteconsumatore che sta davanti al monitor, ma di un software impersonale, che tra l’altro ha spesso inserita l’opzione di non scaricamento delle immagini, e quindi dei banner . Secondo un esperto del settore, Gotfredson, direttore media alla Woolward &Partners Advertising di San Francisco e autore di uno studio intitolato Is Web Advertising efficient? , la relazione costi-benefici dell’attivià promozionale su Web sarebbe nettamente svantaggiosa, e la pubblicità online costerebbe circa quaranta volte in più dell’equivalente su carta stampata: infatti- argomenta il nostro analista152- il pubblico medio di una rivista di settore, per esempio di un magazine informatico, in un lasso di tempo di due settimane, è di poco più di 3.200.000, mentre la sua versione elettronica catalizzerebbe non più di 200.000 visite. La pubblicità sul Web non sarebbe efficace in quanto non è “intrusiva”, cioè non si impone con quella pervasività che conraddistingue l’advertising televisivo e cartaceo. La situazione, però, ha registrato una notevole evoluzione nella direzione di un’affermazione sempre maggiore delle transazioni economiche online e della crescita di una massa critica di utenti, che costituiranno via via un bacino di consumo appetibile per i pubblicitari: la 152Riportato in R. Staglianò, op. cit., p. 70. valutazione dell’inefficacia della Rete a fini pubblicitari risulta, in questo caso, inficiata da uno sguardo di brevissimo periodo. Il percorso è ormai già tracciato: secondo un analista della Simba la crescita degli introiti derivanti dalla pubblicità in rete seguirà l’andamento esponenziale dell’incremento demografico del Net, dell’aumento del trafficoWeb e delle pagine viste; lo studio di questa compagnia stima che il mercato pubblicitario sarà monopolizzato per i tre quarti da quattordici siti “pigliatutto”, tra cui quelli della CNN, Yahoo! e Ziff Davis153: si profila quindi il rischio di un oligopolio del ciberspazio, anche perché solo i soggetti in grado di reggere gli ingenti investimenti iniziali e le spese correnti, e di aspettare il tempo necessario a far maturare i profitti, si possono permettere la presenza sul Web. I primi a ricorrere a campagne pubblicitarie sul Web sono stati i produttori di auto e di computer e verosimilmente, secondo Staglianò, saranno seguiti dai fornitori di informazione, dalle società di servizi, dalle agenzie di viaggi e dai venditori al dettaglio: preccupato per le sorti della libertà espressiva in rete, Staglianò si chiede quanto influiranno gli sponsor nel confezionamento della notizia e nel tipo di servizio offerto. Nella Rete risulterà effettivamente difficile discernere i messaggi promozionali dalle unità di contenuto e di informazione o di entertainment : è la cosiddetta “pubblicità integrale”, portato anch’essa del post- fordismo, segnato dalla contrazione dei consumi, dalla competitività globale e dal ricorso delle aziende a tutti gli strumenti offerti dal marketing : questa forma più subdola di pubblicità, inscindibile dal contesto in cui è inserita, si sta già affermando sulla carta stampata, soprattutto sulle riviste specializzate154, e nella televisione di intrattenimento. 153W e b A d v e r t i s i n g : M a r k e t A n a l y s i s & F o r e c a s t , p u b b l i c a t o d a S i m b a (<http://www.simbanet.com>). 154Per esempio i magazine femminili, dove tutti gli articoli relativi alle cure del corpo sono corredati da consigli e ricette che invitano all’usodi determinati prodotti cosmetici, di cui sono dettagliatamente descritte le caratteristtiche e le virtù, o le riviste medico-salutiste, dove si Servizi finanziari online : l’home banking Un settore economico in cui la diffusione della telematica porterà enormi vantaggi per la quotidianità di milioni di persone è quello finanziario, la cui traslazione nella dimensione virtuale e asettica del ciberspazio ben si coniuga con la sua natura immateriale: molti servizi, che implicano un dispendio di tempo del tutto inutile, si possono espletare in remoto, tramite PC e modem, garantendo all’utenza accesso diretto, risparmio di tempo, flessibilità degli orari, possibilità di eleborare i dati sul proprio PC. Un primo passo in questa direzione era stato fatto con l’automatizzazione degli sportelli, grazie alla quale l’utenza è in grado di effettuare operazioni bancarie in modo immediato e senza fare file inutili; il fatto che finora non si sia affermata la modalità di operare direttamente da casa, in rete, è dovuto alle forti resistenze delle banche, fortemente diffidenti verso il mezzo telematico, ma ora, con i nuovi standard di sicurezza sperimentati da Visa e Mastercard, i nuovi servizi finanziarionline. si stanno diffondendo velocemente; secondo Chuck Martin, addirittura, Clienti e aziende daranno presto per scontata la possibilità di effettuare operazioni bancarie da qualsiasi luogo e in qualsiasi momento. Non più vincolati da sedi fisiche, i consumatori digitali potranno fare acquisti ovunque scegliendo il servizio migliore. Se le banche tradizionali non provvederanno a queste richieste, essi si rivolgeranno altrove.155 Con home banking si indica genericamente l’espletamento di operazioni finanziarie da casa (ordini di pagamento, richiesta di estratto conto, possono leggere reportage informativi che citano, o addirittura spiegano compiutamente, la tal cura offerta dal tal specialista ecc. 155C. Martin, op. cit., pp. 157-158. compravendita di azioni), che non richiedano una transazione fisica, come il rilascio di un libretto degli assegni, anche se è possibile prenotare un carnet via modem e poi riceverlo direttamente a domicilio. Gli Stati Uniti sono il paese che ha sperimentato per primo servizi finanziari online: dalla fine del 1995 i clienti di Security First Network Bank (SFNB), usando il loro PC o Mac, possono aprire un conto, richiedere una carta di credito, firmare assegni e inviare ordini di pagamento in rete; hanno diritto ai tassi di interesse correnti e tutte le loro operazioni finanziarie sono contabilizzate in valuta in real time, senza soluzione di continuità, ogni giorno della settimana e a qualunque ora. La SFNB156 di Pinville, Kentucky, è stata creata dal management di una società di software, la Secure Ware, nata a metà degli anni ‘80 e fornitrice di programmi per la protezione dei dati dell’esercito americano: si tratta della prima banca virtuale del mondo, certificata dall’Office of Thrift Supervision (OTS), l’agenzia federale statunitense deputata alla sicurezza del sistema bancario nazionale157: si tratta di una banca che esiste solo sulla Rete, e che offre la maggior parte dei servizi delle banche tradizionali, e quelli che non possono essere trasferiti in rete, come mutui, Travelers’ Checks, cassette di sicurezza, vengono espletati presso gli sportelli della filiale di Atlanta, Georgia, aperti recentemente proprio per rispondere a questo tipo di esigenza. La banca ha attratto subito oltre duemila clienti senza ricorrere ad alcuna forma di pubblicità, grazie alle commesse particolarmente convenienti e all’interfacciauser friendly, e da quando ha iniziato la sua attività ha aperto circa diecimila conti bancari158. 156<http://www.sfnb.com>. 157E. Dazzan, Tutti i servizi on-line e a prova di sicurezza. Security First Network Bank, la prima banca virtuale, “Ingenium” n. 21, 21 dicembre 1996, p. 62. 158A. Vaccaro, La prima volta dello sportello virtuale, “Virtual”, anno 5, n. 44, luglio/agosto 1997. Il sito è stato concepito in modo da far sentire l’utente in un ambiente familiare: sulla home page un’interfaccia grafica avanzata, ilVirtual Bank Manager, presenta una tradizionale filiale bancaria, una hall centrale piena di sportelli e operatori addetti a servizi differenti. Per accedere a un servizio specifico il cliente clicca con il mouse sull’icona corrispondente e subito viene visualizzato un menu con delle opzioni per le varie operazioni. Con l’ausilio di u n a smart card, un codice crittografico e l’immediata verifica della sua esposizione di conto viene autorizzata la transazione voluta. S e c u r i t y F i r s t N e t w o r k B a n k è u n a b a n c a m e d i o -piccola che precedentemente disponeva di sistemi phone banking: dalla fine del ‘95 la banca ha inaugurato i nuovi servizi online, basati su un sistema sviluppato da Secure Ware e da Hewlett-Packard. Il management ha scelto di implementare tutti i servizi, compreso quello di consulenza; il servizio di phone banking non è stato sospeso ma integrato con quello su Web . Si tratta quindi di un sistema misto, sebbene su sportello virtuale è ormai possibile fare quasi tutto, compresa la compravendita di azioni. Con il trasferimento delle operazioni finanziarie in rete vengono a decadere tutti i paradigmi tradizionali che strutturano i rapporti tra privati e banche: i privati eseguono delle operazioni direttamente da casa, risparmiando tempo e fatica, e le banche riducono i costi di struttura e si aprono a un bacino di utenza potenzialmente globale. Chiunque, da qualunque postazione, potrebbe diventare cliente di SFNB, se non vi fossero delle limitazioni legali, come le firme informatiche: infatti all’atto di apertura di un conto corrente, l’intestatario deve recarsi personalmente nella sede della banca per apporre la propria firma, mentre per le operazioni successive che comportano l’utilizzo dellapropria firma la banca mostra sul monitor l’oggetto firmato, chiedendo al cliente di verificare se riconosce la propria firma. Secondo il presidente della nuova banca virtuale159 i rischi di sicurezza sono stati completamente superati grazie alla combinazione di tre ordini di fattori, l’utilizzo di tecniche crittografiche, di barriere di sicurezza (firewall) e di un particolare sistema operativo: infatti per garantire la sicurezza dei dati è stata adottata una soluzione innovativa basata su un sistema di public encryption, cioè di doppia chiave, quella pubblica che il cliente sceglie personalmente e usa per tutte le sue transazioni, e una chiave segreta, sconosciuta anche al cliente e memorizzata sulla sua smart card160, mentre la protezione da eventuali intrusioni esterne è garantita da un firewall161. Dopo SFNB, anche le banche tradizionali americane hanno trasferito su Web molti dei loro servizi: Bank of America e Wells Fargo, per esempio, offrono la maggior parte dei loro servizi online. In Italia, invece, è solo da qualche mese che si sono organizzati servizi di autentica banca telematica tramite Internet: il ritardo è dovuto alla scarsa fiducia nei confronti delle garanzie di sicurezza offerte dalla Rete, soprattutto nel mondo della finanza. Sebbene siano un centinaio i siti Web attivati dagli istituti di credito italiani e poco più di cinquanta quelli creati da compagnie di assicurazioni tradizionali e a matrice bancaria162, si trattava, fino a poco tempo fa, di semplici depliant elettronici, che contenevano informazioni sommarie sulla storia della banca, il suo capitale sociale, indirizzi e recapiti di agenzie e filiali, e in casi più rari, qualche servizio informativo gratuito, come le quotazioni delle valute o collegamenti con la borsa valori. 159E. Dazzan, art. cit., p. 63. 160Nel nuovo progetto la chiave segreta viene modificata al termine di ogni transazione. 161Computer host deputato alla difesa del sistema contro eventuali utenti che cerchino di accedere alla rete in modo doloso. 162K. Ferri e M. Giuntoni, La banca domestica, “Virtual”, anno 5, n. 44, luglio/agosto 1997, p. 52. In seguito alcune banche hanno aperto una vetrina su un centro commerciale virtuale, il Mall Italy Lab, creato da Benetton, Banca Antoniana Popolare Veneta e SSB (Società per i servizi bancari), in cui l’utenza può usare il borsellino elettronico Telepay realizzato da SSB. Pionieri verso la nuova frontiera elettronica sono le Casse di Risparmio, cioè gli istituti di credito minori, radicati in una dimensione locale163: le prime a offrire un servizio di home banking sono state la Cariplo164, che non è più esattamente una banca locale, e la Cassa di Risparmio di Firenze165, che ha sviluppato un sistema proprio166; la Banca Sella167, una piccola realtà locale, ha reso addirittura possibile, sul suo sito, aprire un conto corrente direttamente online. La prospettiva più ambita resta comunque quella di servizi più remunerativi per le banche, come la possibilità di investire online o di richiedere un mutuo per la casa, operazioni attualmente realizzabili sia per gli standard di sicurezza raggiunti, sia per la maturità del mercato italiano, attestata da molte inchieste condotte recentemente168. Negli USA gli investimenti online sono già una realtà, dal momento che la Rete consente di effettuare ricerche, accedere a database aziendali ed emettere ordini direttamente, senza mediazioni e commissioni: quest’ampia 163Sono le Casse di Risparmio che hanno inaugurato in Italia uno dei servizi hi-tech più efficienti, il bancomat, tramite cui si può ritirare denaro liquido dallo sportello di qualsiasi altra banca: questa soluzione è stata sviluppata dall’Ipacri, società specializzata deputata alla gestione di servizi informatici per le Casse di Risparmio, per risolvere il problema dei correntisti che, una volta fuori dalla propria zona, non potevano trovare facilmente uno sportello della propria banca. Ora l’Ipacri ha sviluppato un sistema per servizi bancarionline abbastanza sicuro, che potrà essere adottato da tutte le Casse di risparmio che ne faranno richiesta. 164<http://www.cariplo.it>. 165<http://www.carifi.it/h_info.htm>. 166G . M o n c a d a , H o m e b a n k i n g , p u b b l i c a t o s u l s i t o R A I d i M e d i a m e n t e , <http://www.mediamente.rai.it/home/tv2rete/mm9798>. 167<http://www.bansel.it/hmbnk.htm>. 168K. Ferri e M. Giuntoni, La banca domestica, “Virtual”, anno 5, n. 44, luglio/agosto 1997, p. 53; cfr. G. Moncada, Home banking, <http://www.mediamente.rai.it/home/tv2rete/mm9798>. opportunità di effettuare investimenti in linea è stata sfruttata per la prima volta dal proprietario di una piccola impresa produttrice di birra, la Spring Street, che ha ottenuto 1,6 milioni di dollari da 3500 piccoli investitori nella prima offerta pubblica realizzata in rete. L’esperimento è stato ripetuto, con la raccolta di 3,3 milioni di dollari: da qui è nato Wit-Trade, un sistema di transazione in linea che evita il ricorso a intermediari finanziari e a commissioni, una sorta di borsa digitale. Gli investimenti si stanno diffondendo sul Web per la velocità delle transazioni e la facilità nell’acquisizione e nell’analisi delle informazioni: in rete intermediari di professione e singoli utenti hanno le stesse possibilità e gli stessi strumenti. Conclusioni La diffusione globale delle reti telematiche ha inciso profondamente su ogni aspetto della vita sociale, non ultima la relazione dell’uomo con sé e i processi della conoscenza. Secondo qualcuno ha addirittura prodotto una frattura antropologica, capovolgendo i termini della dinamica cognitiva, per cui non è più l’uomo viaggiatore che esplora il mondo, ma questo è portato, via cavo, dentro le mura di casa, ridotte a un container: in realtà la nostra esperienza si nutrirebbe, in questo caso, di immagini, e quindi di frammenti di apparenza.. Quest’approccio ha il difetto di assimilare la comunicazione telematica, e l’informazione acquisita tramitenetsurfing, a quella televisiva, senza considerare la fondamentale differenza costituita dalla pluralità di fonti e dall’interattività, cioè la possibilità, per nulla remota e sempre attuale, che il destinatario si trasformi in ogni istante in emittente di comunicazione: sta qui la vera cesura qualitativa introdotta dalle nuove tecnologie digitali nella comunicazione, e qui risiedono le immense possibilità di crescita civile e culturale per l’umanità intera, nonché il potenziale democratico di esprimere istanze diverse e scompaginare poteri e assetti acquisiti: ogni scambio informativo è una forma di interazione sociale aperta, non rivolta a un gruppo precostituito e ristretto di persone, ma potenzialmente universale. “Ho visto emarginati conquistare una finestra sul mondo...Resto un ottimista sul futuro digitale”, così sentenzia Nicholas Negroponte1, mentre un altro americano, George Gilder, economista e teorico dei new media, autore di un famoso libello sulla presunta fine della televisione, arriva quasi a delineare una metafisica dell’hi-tech. Senza indulgere minimamente a un ottimismo acritico e a tratti visionario, tipico di alcuni analisti americani, e senza negare i lati oscuri rappresentati dalle contraddizioni 1Intervista a N. Negroponte, “la Repubblica”, 14 gennaio 1997, p. 36. indotte dal nuovo medium ( overload di informazioni indecifrabili e senza senso, discrimine tra Have e Have-nots , ecc.), non si può negare la novità di un mezzo che offre inedite possibilità di espressione plurale e di accesso a un bacino illimitato di conoscenze. L’Internet è stata concausa, insieme ad altri fattori, di un vero e proprio cambio di paradigma, ma non a livello antropologico, bensì nell’ambito della produzione, dello scambio e della distribuzione di beni e servizi: le reti sono state il veicolo della globalizzazione dei mercati, non più soltanto delle monete e dei capitali, virtuali per definizione, ma anche delle merci, e hanno favorito quella ristrutturazione delle modalità e dei processi produttivi che è stata individuata come fattore fondante del postfordismo. Non si tratta di una nuova economia digitale, imperniata sulla produzione di nuovi beni e servizi immateriali e radicata nel ciberspazio, dove sono leader le nuove imprese virtuali, ma di un nuovo assetto produttivo basato sull’impresa a rete e caratterizzato da nuovi moduli struttural-organizzativi come lalean production e l’outsourcing. L’unificazione del mondo ha il suo risvolto economico nella deterritorializzazione dei processi produttivi, traslati su scala sovranazionale e distribuiti, che continuano a immettere sul mercato principalmente merci e servizi materiali, anche se l’ipotesi di una produzione, e di una crescita, potenzialmente infinita è del tutto tramontata. In questo quadro inedito, caratterizzato dalla saturazione dei mercati tradizionali, l’Internet si sta rivelando un prezioso strumento per raggiungere bacini di mercato sconfinati, permettendo anche alle piccole realtà produttive di essere presenti sul mercato globale in modo competitivo e favorendo così una sopravvivenza e uno sviluppo del tessuto economico locale.