La nascita di Internet.

Transcript

La nascita di Internet.
Relazione di Manfredi Nadai per il corso di
Storia Economica Contemporanea, A. A. 1998/99,
tenuto dal Prof. F. Piro
STORIA DELL’INTERNET
INTRODUZIONE ALLA RICERCA
Con approccio divulgativo l'Internet è definita la rete delle reti, cioè una
super-rete che connette sistemi di computer tra loro collegati. Infatti il suo nome
deriva da internetworking, dove network significa "rete" o "circuito" e inter è il
prefisso che indica il link , cioè il legame, il collegamento tra i vari elementi del
sistema, in questo caso le reti di computer che costituiscono le articolazioni
dell'Internet .
Si tratta allo stesso tempo di un medium capace di diffondere informazioni
in modo orizzontale, working both ways (ossia biunivoco, dove il ricevente si
può in ogni momento trasformare in emittente e viceversa), e di uno strumento
per far parlare computer anche lontani fra loro, prezioso per la collaborazione e
l'interazione a distanza per gli scopi più diversi.
O g g i s i g u a r d a a l l 'I n t e r n e t c o m e a l l a n u o v a f r o n t i e r a d e l l e
telecomunicazioni, alla struttura prototipica di quella che con enfasi avveniristica
il vicepresidente degli Stati Uniti Al Gore ha prefigurato come l'Information
Highway , l'Autostrada dell'Informazione, creazione di là da venire del
programma denominato National Information Infrastructure (NII) , poi assunto
nell'agenda del G7 come Global Information Infrastructure (GII). Questo
importante progetto, che si dovrebbe sviluppare utilizzando diversi supporti
mediatici (cavi in fibra ottica, reti satellitari, ponti radio ecc.) e che dovrebbe
consentire la comunicazione, lo scambio di dati e l'espletamento di transazioni di
varia natura unificando le reti telefoniche, televisive, satellitari e telematiche in un
unico grande network , è rimasto per ora lettera morta.
Nonostante questa impasse l 'Internet, che di questa infrastruttura globale
dovrebbe essere il nucleo essenziale, sta conoscendo una diffusione di tipo
esponenziale: si stima che allo stato attuale gli utenti della Rete siano attorno ai
cento milioni e la cifra è sicuramente destinata ad aumentare in modo
vertiginoso. Nicholas Negroponte, il direttore del Media Lab del MIT1 e uno dei
1Acronimo del Massachusetts Institute of Technology di Boston, una delle più prestigiose
istituzioni scientifiche del mondo.
più insigni esperti mondiali di comunicazione digitale, ha addirittura stimato per
assurdo che, se il trend attuale di diffusione dell'utenza Internet rimanesse
immutato, nel 2003 il numero totale di connessioni in rete sarebbe superiore agli
abitanti della Terra.
Oggi la sua influenza ha ripercussioni non solo nel campo della telematica,
ma incide profondamente su ogni aspetto delle relazioni sociali, dal momento che
si ricorre sempre più massicciamente a strumenti online, dal marketing al
commercio elettronico, all'acquisizione di informazioni, alla pura socialità nello
spazio virtuale. E non è neppure troppo audace prevedere che in un futuro
prossimo potremo azionare a distanza il nostro tostapane o la lavatrice,
regolandone il relativo programma di cottura o di lavaggio inviando
semplicemente un comando dal nostro PDA2, connesso in rete satellitare con i
processori contenuti nei nostri elettrodomestici hi-tech .
L'Internet non è sempre stata uguale a se stessa3, né per le dimensioni, né
per la tipologia di utenti, né per le finalità e le funzioni che doveva espletare, né
per il tipo di dati che venivano scambiati: oggi, dopo ventinove anni da quando
alcuni ricercatori hanno collegato in via sperimentale dei computer per
scambiarsi dati a distanza, l'Internet si sta nuovamente trasformando, avviandosi
verso la sua quarta fase, quella del business online4. Mentre le prime tre fasi
sono state conseguenti l'una all'altra e si possono raffigurare come tappe
progressive di un iter evolutivo omogeneamente orientato, la quarta sta
tracciando un discrimine netto che rischia di segnare un profondo mutamento
2Personal Digital Assistant , una sorta di ibrido tra un telefonino cellulare e un PC portatile,
delle dimensioni di una penna stilografica, capace di ricevere e di trasmettere dati in rete.
3Ha mantenuto però alcuni tratti distintivi costanti, quelli che fanno riferimento ad aspetti
tecnici e strutturali, come la tecnica di trasmissione dei dati, il cosiddetto packet switching, il
supporto di base, il cosiddetto backbone, ossia la "spina dorsale" della rete, e il codice
mediante il quale le macchine parlano tra loro, il protocollo Internet. Mentre il primo aspetto è
stato costante fin dai primordi delle prime connessioni, gli altri due risalgono a un’epoca più
recente: infatti l’attuale dorsale, costituita da NFSNet, fu inaugurata nel 1986, mentre il
protoocollo TCP/IP sostituì il precedente nel 1983.
4Le periodizzazioni della Rete proposte dai vari studiosi sono diverse, a seconda del criterio
di analisi usato. Qui è stata adottata la scansione evolutiva proposta da F. Carlini in Chips &
Salsa, Storie e culture del mondo digitale, Manifestolibri, Roma 1995. Le categorie utilizzate
da Carlini come cartina di tornasole della dinamica evolutiva della Rete sono le sue funzioni
effettive, cioè gli scopi per cui è usata e il tipo di comunità virtuale che la abita, due elementi
intimamente correlati fra loro. Cfr. Berretti e Zambardino Internet.Avviso ai naviganti , Donzelli
Editore, Roma 1995, dove invece vengono individuate tre fasi nella storia della Rete, a
seconda del tipo di policy di ingresso che, in definitiva, rimanda anch'essa alla categoria degli
abitanti del ciberspazio, e L. Floridi, Internet, Il Saggiatore, Milano 1997, che ha individuato
tre fasi (fase inventiva, dal 1968 al 1984, fase innovativa, dal 1984 al 1995 e della diffusione,
dal 1995 in poi) a seconda delle caratteristiche dinamiche del processo di cambiamento.
negli aspetti funzionali e socioculturali della Rete, ossia nella sua natura
antropologica.
Ma vediamo di delineare in modo analitico il contesto in cui è maturata
quella che per alcuni è una "rivoluzione tecnologica", mentre per altri è
semplicemente un’innovazione, ma che,comunque la si consideri, ci dovrebbe
condurre verso la Società dell'Informazione, dove l'insostenibile immaterialità dei
bit 5 determina la qualità della fruizione della merce-conoscenza .
Precisazioni eziologiche
A livello storiografico, per lo meno su un piano divulgativo, si è consolidato
un luogo comune, cioè si contestualizza l’origine delle sperimentazioni di
networking nell’ambito della competizione strategico-militare tra USA e URSS,
facendone un tassello della Guerra Fredda: il fatto scatenante che avrebbe
convinto i vertici del Pentagono a investire maggiori fondi nella ricerca scientifica
e a creare un organismo ad hoc come l’ARPA6 fu, il quattro ottobre del 1957, il
lancio da parte sovietica del razzo R-7 Semiorka, che portò in orbita lo Sputnik, il
primo satellite artificiale della storia.
L’avvenimento segnò indiscutibilmente l’immaginario occidentale,
assurgendo a simbolo del paventato sorpasso tecnico-scientifico realizzato dal
blocco dell’Est, prefigurazione di una superiorità militare da scongiurare.
Riprese così, più virulenta che mai, la corsa agli armamenti, e sul versante
della ricerca strategica, nonché dell’immagine, venne dato impulso alla sfida per
5Il bit , in inglese letteralmente "pezzo", "porzione di qualcosa", è la più piccola unità di
informazione che nella tecnica di trasmissione digitale dei segnali può veicolare dati, suoni,
immagini e, nei sistemi multimediali più avanzati, addirittura video, ma è anche la base del
sistema numerico binario usato dai computer (Binary digIT, numero binario) e può assumere
solo due valori, 0 e 1.
6Acronimo di Advanced Research Projects Agency, un'agenzia del Pentagono istituita nel
1958 dal presidente Eisenhower per promuovere e coordinare la ricerca scientifica:
quest’ente fu concepito come organismo strettamente legato al presidente e al segretario
della difesa, con l’obiettivo di assicurare agli USA una funzione guida nelle applicazioni
tecnologiche e prevenire in tal modo sorprese dei sovietici sulla frontiera tecnologica. Dopo
la creazione della NASA, alla fine dell’estate del 1958, l’ARPA si distanziò dal Pentagono,
ridefinendo i suoi obiettivi e le sue competenze e focalizzandoli sulla ricerca di base: la sua
attività ha riguardato soprattutto la sponsorizzazione di progetti del tipo high risk, high gain,
dove il rischio e le spese sono molto alti e dove il successo può determinare importanti
acquisizioni strategiche. La sua struttura è sempre stata flessibile e leggera, contrariamente
alla tradizionale organizzazione militare. Dagli anni ‘80 ha mutato il suo nome in DARPA
(Defense Advanced Research Proojects Agency). Cfr. <http://www.darpa.mil>.
la conquista dello spazio e alla ricerca di sistemi flessibili per la gestione di
un’eventuale attacco nucleare. E’ qui che viene collocata la nascita, e laratio,
dell’Internet, rete che avrebbe svolto la funzione di collegare i settori strategici e
capace, in virtù della sua struttura decentrata, di resistere ad un attacco
nucleare e a un eventuale distruzione parziale dei suoi collegamenti fisici, in
modo da continuare a garantire la comunicazione fra i centri nevralgici del
paese. L’intelligenza della rete non era concepita come centralizzata, ma
distribuita tra tutti i suoi nodi: viceversa, nel caso di una struttura accentrata, il
fulcro del network sarebbe stato un facile bersaglio e l’intera rete di
comunicazione messa fuori gioco.
Questa versione, che fa della telematica dei primordi uno strumento militare
del Pentagono, viene riportata da quasi tutti i testi e i saggi sulla Rete, ma viene
smentita come pura mitologia dagli autori della più rilevante opera di
ricostruzione storiografica che ha tracciato le linee evolutive del Net fin dalle
origini, utilizzando principalmente fonti primarie (interviste e documenti
d’archivio) e scritti dei diretti protagonisti di questa vicenda7.
Nell’introduzione Hafner e Lyon chiariscono l’equivoco:
Per anni sono continuate a circolare voci secondo cui l’ARPANET
era stata costruita per proteggere la sicurezza nazionale e fronteggiare
un attacco nucleare. E’ una leggenda rimasta incontestata tanto da
divenire ampiamente accettata come un dato di fatto8.
In realtà gli esperimenti di networking che preludono alla nascita della
prima rete, l’ARPANET, non erano finalizzati a collegare centri di comando e
stazioni radar, ma miravano, più semplicemente, a connettere fra loro i computer
dei grandi laboratori di ricerca del paese, in modo da porre le premesse per la
collaborazione a distanza tra ricercatori e per la condivisione delle risorse dei
computer (software, banche dati ecc.).
A quell’epoca, infatti, per utilizzare un computer a distanza, da una
postazione remota , bisognava installare nel proprio ufficio un terminale (monitor
e tastiera) e collegarlo a quel computer con un allacciamento dedicato . Dice
Huitema, con un tono volutamente dimesso per smitizzare le origini dell’Internet:
7Katie Hafner e Mattew Lyon, Where Wizards Stay Up Late , Simon&Schuster, New York
1996.
8Ibidem, p. 10.
Nel proprio ufficio, presso l’ARPA, il responsabile del progetto
aveva accesso a tre computer e aveva dunque dovuto installare tre
terminali con i rispettivi collegamenti. Vedendo tutti questi aggeggi non
poteva fare a meno di pensare che qualcosa non andasse. Perché
dunque non sostituire i tre collegamenti con un sistema di trasmissione
che, a partire da un unico terminale, fornisse l’accesso ai tre computer
remoti? E’ questa l’idea, tutto sommato piuttosto lontana dalle bombe
9
atomiche, che sta all’origine del progetto della rete dell’ARPA, Arpanet.
La funzionalità di questo tipo di comunicazione nell’eventualità di una
guerra nucleare non è infondata, ma è solo una funzionalità ex post, una
conseguenza più che una causa originante, cosa ben diversa dal sostenere che
la rete dell’ARPA fu creata immediatamente ed esclusivamente per quello scopo:
gli ingegneri si sono sforzati di costruire un network solido, per garantirne la
crescita, e la struttura decentrata rispondeva pienamente a quest’esigenza,
anche se andava contro la prassi dell’epoca e, soprattutto, contraddiceva i
principi dell’organizzazione militare, incentrata su una struttura rigidamente
gerarchica e verticale.
Continua Huitema:
Indubbiamente il fatto che non ci sia un “cervellone” che possa
essere annientato con un “colpo letale” costituisce una delle condizioni
necessarie per resistere a una guerra nucleare. Ma non è l’unica.
Bisognerebbe anche assicurare i computer della rete dall’impatto con
l’onda elettromagnetica, ovvero dalla tempesta elettronica che potrebbe
provocare un’esplosione nucleare ad alta quota. L’unico modo per
assicurare i computer di Internet contro questo genere di rischi sarebbe
la blindatura di piombo. Mi risulta che una cosa simile non sia mai stata
fatta. Nondimeno, il fatto che mancasse un punto centrale era
sufficientemente rivoluzionario da suggestionare gli animi.10
La responsabilità di questo grossolano misunderstanding storico si deve
alla stampa divulgativa, come al solito poco scientifica e rigorosa nel vaglio delle
9C. Huitema, Et Dieu créa l’INTERNET, Editions Eyrolles, 1995 (trad. it. E Dio creò
INTERNET, Muzzio, Padova, 1996, pp. 31-32).
10C. Huitema, op. cit. , p. 33.
fonti: in particolare è stato un articolo di “Time”11, dedicato all’Internet, a
commettere l’errore di attribuirealla primigenia ARPANET la funzione di mezzo
di comunicazione concepito per l’eventualità di uno scenario nucleare.
In una contingenza siffatta - scrive l’estensore dell’articolo in questione“come si potrebbero comunicare gli ordini alle forze armate?”12. E, dato che i
centri nevralgici del sistema comunicativo e informativo tradizionale (centrali
telefoniche e stazioni radio e TV) erano non solo vulnerabili, ma probabile
oggetto di sabotaggio da parte del nemico,
il Pentagoono aveva bisogno di un sistema militare di comando e
controllo che avrebbe continuato a essere operativo anche nel caso in
cui la maggior parte delle linee telefoniche fossero fuori uso e le
centraline fossero state distrutte13.
Fu così che nel 1964 un ricercatore del RAND, Paul Baran, trovò una
bizzarra soluzione a questo problema:
fece il progetto di una rete di computer che non prevedeva nessun
centro, nessuna autorità di gestione, partendo dal presupposto che i
collegamenti fra le città fossero del tutto aleatori e inaffidabili14.
Dopo aver letto questa ricostruzione romanzata, uno dei padri della Rete,
Bob Taylor, che all’epoca lavorava all’ARPA come supervisore della ricerca
informatica, scrisse una lettera in cui sollecitava una rettifica al direttore
editoriale di “Time”, che perònon venne pubblicata15.
L’errore è poi stato ripreso e amplificato dalla pubblicistica successiva- se
non da tutti, per lo meno dai molti che non hanno avuto lo scrupolo di ricercare
riscontri su fonti primarie16.
11P. Elmer Dewitt, First Nation in Cyberspace, “Time”, December 6, 1993, pp. 56-58.
12Ibidem, p. 56, traduzione mia.
13Ibidem.
14Ibidem.
15Hafner e Lyon, op. cit., p. 10.
16Quasi tutti gli studi consultati in questo lavoro hanno propagato questa inesattezza, come
Sesto Potere di Martignago, Pasteris e Romagnolo, Apogeo, Milano 1997, Internet, di L.
Floridi, il Saggiatore, Milano 1997, e molti altri. Lodevoli eccezioni sono rappresentate da F.
Carlini, Internet, Pinocchio e il gendarme, Manifestolibri, Roma 1995, e C. Huitema, Et Dieu
Gli antefatti
Verso la metà degli anni '60 si formò, sotto la supervisione dell'ARPA, una
comunità di ricerca informatica, localizzata in alcune delle università più
prestigiose del paese e in alcuni grandi centri di calcolo. L'IPTO era l'ufficio
dell'ARPA per le tecniche di elaborazione informatica, che aveva la funzione di
coordinare i progetti di ricerca; lo stretto legame che si venne a creare tra
l'agenzia del Pentagono e queste realtà accademiche era simbolizzato dalla
presenza all'IPTO di tre terminali connessi con altrettanti computer (uno al MIT,
uno a Berkeley, e il terzo a Santa Monica).
Alla fine del 1962 arrivò all'ARPA J. C. R. Licklider, uno studioso di
psicoacustica con robuste conoscenze informatiche, che lavorando come
ricercatore al MIT aveva elaborato una teoria radicale e visionaria per quei
tempi: sosteneva infatti che i computer non fossero solo macchine da calcolo,
ma una vera e propria estensione del sistema neuronale, strumento per
amplificare l'intelligenza umana e le sue facoltà analitiche. Licklider immaginava
già una rete di "home computer consoles"17 e set televisivi collegati insieme; in
un lavoro seminariale pubblicato nel '60, Man-Computer symbiosis, sosteneva
che i computer avrebbero integrato le facoltà umane, svolgendo alcune mansioni
fondamentali. "La speranza è che in pochi anni computer e cervello umano si
fonderanno in un rapporto che potenzi le facoltà di entrambi"18.
Appena preso possesso del suo ufficio, Licklider si mise a contattare i
centri di calcolo più all'avanguardia per proporre dei contratti di ricerca; trovò i
migliori informatici del momento , ricercatori di Stanford, del MIT, dell'UCLA19 e
créa l’INTERNET, Editions Eyrolles, 1995 (trad. it. E Dio creò INTERNET, Muzzio, Padova,
1996).
17Hafner e Lyon, op. cit. , p. 34.
18Ibidem, traduzione mia.
19Acronimo della "University of California - Los Angeles"
di Berkeley, e alcune compagnie disposte a lavorare ai programmi avanzati che
aveva in mente, attirandoli nella sfera dell'ARPA. Soprannominò ironicamente il
suo gruppo Intergalactic Computer Network ; la prima descrizione teorica di
interazioni-transazioni sociali che possono essere espletate tramite networking,
cioè collegando tra loro più sistemi informativi per facilitare il lavoro in comune
dei ricercatori, è contenuta in una serie di appunti e annotazioni che
prefiguravano un assetto globalmente interconnesso, in cui ogni attore poteva
avere accesso a dati e programmi da qualsiasi postazione. Licklider aveva in
questo modo delineato a livello embrionale un modello teorico simile all'attuale
configurazione dell'Internet.
Fu così che, in seguito, il nome di Intergalactic Network passò a indicare
non solo un gruppo di accademici, ma anche un universo di computer
interconnessi tramite cui ogni ricercatore avrebbe potuto comunicare i suoi
memos agli altri.
Licklider lasciò l'ARPA nel 1964, dopo aver spostato l'impegno dell'agenzia
dai sistemi di comando e controllo per gli scenari di guerra alla ricerca avanzata
in sistemi di time sharing, computer grafica e linguaggi avanzati. Il nome del suo
ufficio, Command and Control Research, era mutato in IPTO (Information
Processing Techniques Office), riflettendo il cambio di policy sopravvenuto. Fu
lo stesso Licklider che scelse il suo successore, Ivan Sutherland, il maggiore
esperto mondiale di computer grafica; nel '65 Sutherland chiamò Bob Taylor,
che prese posto nella terminal room.
Come Licklider, anche Taylor era uno studioso di psicoacustica e aveva
lavorato come ricercatore alla NASA; presto comunicò al direttore dell'ARPA che
voleva gestire dei fondi per esperimenti di networking. La situazione che delineò
al suo superiore era la seguente: le imprese appaltatrici dell'IPTO, che per gran
parte lavoravano presso dipartimenti universitari, cominciavano a richiedere
sempre più risorse informatiche, con costi crescenti per il DoD. Per cui
costruendo un sistema di links elettronici tra macchine, i ricercatori
che seguivano progetti simili in parti diverse del paese avrebbero potuto
condividere risorse e risultati più facilmente. Invece di distribuire per il
paese alcuni costosi mainframes deputati a supportare la ricerca grafica
avanzata, l'ARPA avrebbe potuto concentrare le risorse in una o due
postazioni e ideare un modo affinché ogni ricercatore potesse
raggiungerle.20
In tal modo ogni università e centri di ricerca avrebbe potuto focalizzare
risorse e fondi su un aspetto diverso di un progetto in comune, comunicando i
risultati agli altri in tempo reale, indipendentemente dalla dislocazione
geografica.Taylor propose un esperimento di connessione cominciando con
quattro nodi, per poi arrivare a dodici.
Nel frattempo le prime ricerche di realtà virtuale si svolgevano presso
l'Università dello Utah. La ricerca esigeva spese sempre maggiori per
l'informatica ed era difficile e complicato condividere le risorse: se gli scienziati
che facevano grafica a Salt Lake City volevano usare i programmi sviluppati al
Lincoln Lab, per esempio, dovevano volare fino a Boston.
Taylor era profondamente convinto della realizzabilità di una rete di
computer: questa intuizione rappresentava lo sviluppo dell'idea di Licklider di
amplificare le potenzialità dell'intelletto umano; per questo progetto aveva bisogno
di un program manager che potesse supervisionare il design e la costruzione
della rete: scelse per questa mansione un informatico esperto in
telecomunicazioni del Lincoln Lab, Larry Roberts.
Ma Taylor non era l'unico che aveva in mente il progetto di una rete di
computer: fin dai primi anni '60 due altri ricercatori, Paul Baran e Donald Davies,
che facevano parte di due istituti di ricerca differenti, uno in Europa e l'altro in
America, erano arrivati alle stesse conclusioni rivoluzionarie di Taylor
indipendentemente l'uno dall'altro. Baran lavorava al dipartimento di computer
science della RAND Corporation21, dove sviluppò un interesse particolare per lo
20Hafner e Lyon, op. cit. , pp. 41-42.
21RAND Corporation, detta anche RAND Institute o semplicemente RAND: era inizialmente
una divisione tecnica della Douglas Aircraft. Nel 1948 si separò per divenire un'impresa
nonprofit con il fine di ottenere in appalto contratti di ricerca soprattutto dall'aviazione
americana, l’Air Force. E' così diventata un istituto di ricerca, con base a Santa Monica, che
studio delle condizioni di resistenza dei sistemi comunicativi in caso di attacco
nucleare.
A quel tempo infatti le reti di comunicazione di lunga distanza erano molto
vulnerabili; Baran fu il primo a capire che l'unico modo di risolvere il problema
della creazione di una rete più solida era con il ricorso alla tecnologia digitale: in
alcuni paper tecnici, scritti in risposta alle obiezioni del mondo della ricerca e
per spiegare dettagliatamente la sua proposta, sosteneva che le reti di dati
sarebbero state più solide ed efficenti grazie all'introduzione di livelli più alti di
ridondanza. Questa intuizione derivava dal paragone con il cervello umano,
strutturato a reti neurali e in grado di continuare a esercitare le sue funzioni
anche nel caso che una sua porzione subisca dei danni, poiché la maggioranza
delle funzioni cerebrali non dipende da un unico gruppo cellulare.
L'idea era quella di una struttura parcellizzata e segmentata in molte parti
indipendenti le une dalle altre, e con una pluralità di connessioni interne. La
configurazione teorica di base della rete che aveva in mente Baran era semplice
e radicalmente nuova. Fino a quel momento le tipologie di network erano due, le
reti centralizzate, con tutti i collegamenti che conducono ad un unico nodo
centrale, e le reti decentralizzate, caratterizzate da vari centri nervosi principali
(questo è lo schema ricalcato anche dall'attuale sistema telefonico). L'idea di
Baran costituiva un terzo approccio: si tratta della cosiddetta rete distribuita.
Questa non ha punti di commutazione centralizzati ed è composta da moltissimi
nodi collegati gli uni agli altri in modo ridondante: il redudancy level è la
categoria indicante il grado di connettività tra i nodi di una rete.
Una rete distribuita caratterizzata da un numero minimo di link (da ogni
nodo parte un solo collegamento), convenzionalmente assunta come livello di
durante la guerra fredda faceva da think tank (centro di consulenza) per il Dipartimento della
Difesa, svolgendo ricerche segretissime su scenari di guerre termonucleari. Nella visione del
RAND la futura ARPANET rientrava nel progetto di una rete di controllo, comando e
comunicazione in grado di resistere a un attacco termonucleare.
ridondanza uno, era considerata estremamente vulnerabile. Baran condusse
molte simulazioni per determinare le possibilità di resistenza di una rete
nell'eventualità di un attacco nucleare e concluse che un buon livello di sicurezza
sarebbe stato garantito da una rete con livello di ridondanza tre o quattro (da
ogni nodo si dipanano tre o quattro link).
La seconda idea di Baran era ancora più rivoluzionaria e riguardava la
tecnica di trasmissione dei dati, frammentati in piccole porzioni, che Baran
chiamò message block.
Questa modalità di trasmissione dei dati, chiamata in seguito packet
switching, è diventata uno dei caratteri distintivi del networking, perfettamente
adatta al principio strutturale del no central authority che informa l’architettura di
un distributed network: i dati, prima di essere inviati, vengono scissi e spediti
autonomamente a destinazione, dove vengono ricomposti. Una rete che utilizza
tale tecnica trasmissiva è costituita da alcune connessioni fisiche (cavi
commutati o dedicati), che vengono condivise contemporaneamente da più
utenti, cosicché nessuna sessione in corso può monopolizzare un canale di
trasmissione.
Infatti una connessione aperta in maniera esclusiva tra due macchine,
come avverrebbe con una commutazione di circuito, saturerebbe subito le linee
disponibili, con enorme dispendio di risorse: la tecnologia del packet switching,
in virtù della condivisione delle linee, semplifica e razionalizza la trasmissione dei
dati.
Il primo scritto sulla teoria del packet switching d i c u i s i a b b i a
testimonianza risale ancora più addietro rispetto agli studi di Baran; questo paper
è del luglio del '61 e si deve a Leonard Kleinrock, che convinse Roberts delle
grandi potenzialità di questa tecnica, utilizzabile per il trasferimento dei dati nel
futuribile circuito di mainframes 22 connessi, e della sua superiorità rispetto alla
commutazione di circuito, che prevedeva una trasmissione sincronica dei dati
stessi. Fino a quel momento l'unico metodo per connettere network tra loro era il
22I mainframes erano i grandi cervelloni elettronici che potevano occupare anche lo spazio
di una stanza e che funzionavano come stazione di lavoro unica per più persone, che
contemporaneamente lavoravano ai vari terminali secondo la modalità del time sharing, alla
lettera condivisione di tempo, tecnica in base a cui un computer centrale suddivide il suo
tempo macchina tra i diversi programmi lanciati dai diversi terminali dai vari utenti.
Attualmente i mainframes sono stati sostituiti quasi completamente dai PC, più maneggevoli,
compatti e di uso personale.
circuit switching, in cui due o più reti si interconnettono tramite un circuito endto-end, che collega direttamente due terminali che si scambiano dati in modo
sincronico: è la tecnologia su cui si basa la telefonia tradizionale23.
Alle stesse conclusioni era arrivato, nell'autunno del 1965, Donald Davies,
un fisico del British National Physical Laboratory (NPL) di Londra, che scrisse il
primo dei suoi paper su una rete di computer simile a quella di Baran. Nella
primavera successiva fece una conferenza pubblica e descrisse la sua idea di
spedire piccoli blocchi di informazioni, che chiamò packet, su una rete digitale.
La somiglianza tecnica tra il lavoro di Davies e quello di Baran era sorprendente:
le loro idee non erano somiglianti solo a livello concettuale, ma anche nei dettagli
tecnici.
C'era solo una significativa differenza: le motivazioni che portarono Davies
a concepire una rete a "commutazione di pacchetto" non avevano niente a che
fare con le implicazioni militari di Baran; Davies voleva semplicemente creare un
nuovo sistema pubblico di telecomunicazioni più efficiente e rapido, sfruttando i
punti di forza dei sistemi digitali. La scelta di Davies a favore del termine packet
non fu casuale; infatti riteneva che bisognasse adoperare un nuovo termine per
indicare le piccole porzioni di dati che viaggiavano separatamenete nella rete:
tutte le altre possibilità (block, unit, section, segment, frame) furono scartate e
fu scelto packet, anche perché c'erano termini simili in altre lingue.
Genesi del ciberspazio
23Per comunicare, un utente del telefono compone un numero che determina la
commutazione di una serie di circuiti, di modo che si stabilisce una linea fisica completamente
dedicata ai due interlocutori: durante tutta la comunicazione il circuito rimane
permanentemente occupato dai due utenti e nessun altro può usufruire della stessa linea.
A metà degli anni '60, quindi, degli studiosi facenti parte di istituti di ricerca
diversi avevano messo a punto, indipendentemente gli uni dagli altri, dei progetti
di rete simili, definendo anche il nuovo tipo di architettura e le tecniche
trasmissive dei dati. Il passo successivo era, a questo punto, quello di far
"parlare" i computer fra loro. A tal fine nel 1965, lavorando assieme a Thomas
Marill, Roberts realizzò la prima connessione telematica collegando un TX-2 del
Lincoln Lab, nel Massachusetts, con un SDC Q-32 a Santa Monica, California,
tramite una linea telefonica commutata a bassa velocità, creando il primo Wide
Area Network 24 della storia delle telecomunicazioni. Questo esperimento
confermò le attese sull'effettiva utilità di una condivisione a distanza di dati e
programmi, e ribadì l'intuizione di Kleinrock riguardo all'inefficacia a tal fine della
rete telefonica e alla superiorità tecnica della trasmissione a pacchetti.
Alla fine del 1966 Roberts arrivò all'ARPA con il piano di sviluppare il
concetto di rete di computer e immediatamente delineò il proprio progetto per
quella che poi si sarebbe chiamata ARPANET.
Il termine pacchetto, adottato dal team dell'NPL, guidato da Davies, venne
accettato anche dagli altri due gruppi che avevano lavorato nella stessa direzione
di ricerca, e si concordò la velocità di trasmissione dei dati nella futura
ARPANET portandola dai precedenti 2,4 kbps a 50 kbps.
Nel frattempo l'ARPA aveva stanziato dei fondi per finanziare una ricerca
su uno dei componenti chiave del progetto, l'Interface Message Processor
(IMP) , una macchina in grado di fare da interfaccia con altre macchine per il
trattamento dei messaggi e dunque finalizzata a sperimentare la tecnica di
trasmissione dei dati "a commutazione di pacchetto". L'appalto fu vinto nel
dicembre del 1968 da un gruppo guidato da Frank Heart, che lavorava per una
piccola azienda di Cambridge (Massachusetts), la BBN (Bolt Baranek and
Newmann). Così, mentre il team della BBN insieme a Bob Kahn lavorava al
progetto dell'IMP, giocando un ruolo determinante nel definire l'architettura della
futura ARPANET, l'aspetto topologico e le (rilevanti) questioni economiche
relative al network furono affrontate da Roberts con la collaborazione di Frank
24"Rete geograficamente distribuita", in cui i computer, spesso lontani fra loro (per esempio
dislocati nelle varie sedi una multinazionale) sono collegati tra loro mediante una rete
telefonica commutata, mentre nelle reti locali (LAN ), di solito realizzate all’interno di uno
stesso edificio per uso d’ufficio (condivisione di periferiche, scambio di messaggi tra un piano
e l’altro, ecc.) i computer sono connessi direttamente tramite cavo dedicato, quasi sempre
con tecnologia Ethernet. Mentre le reti locali non permettono alcun tipo di accesso
dall’esterno, leWAN sono reti aperte, e hanno anzi delle procedure già predisposte per
connettere nuovi eleboratori remoti, da quelli di un’eventuale nuova sede, al computer
portatile di un dipendente munito di modem.
Heart e del suo team presso la Network Analysis Corporation. Il sistema di
misura fu infine messo a punto da Kleinrock all'UCLA.
Fu grazie alla teoria del packet switching di Kleinrock che il Network
Measurement Center dell'UCLA venne selezionato e scelto come primo nodo25
dell'ARPANET. Questo si verificò nel settembre del 1969, quando il primo IMP,
un DDP 516 dotato di 12 kilobytes di RAM (archeologia!), realizzato dalla BBN a
partire da un computer Honeywell, fu installato all'UCLA e il primo computer
host26 fu connesso al mainframe centrale dell'università. Fra gli studenti che
parteciparono all'esperimento c'era Vint Cerf, in seguito universalmente
riconosciuto come uno dei padri dell'Internet .
Nelle settimane successive altri esemplari di IMP furono installati in altre tre
prestigiose università americane. Lo Stanford Research Institute (SRI) di Menlo
Park, California, fece installare un secondo nodo. Solo un mese più tardi fu
inviato il primo messaggio host-to-host dal laboratorio di Kleinrock allo SRI. Gli
altri due campus che si collegarono furono l'Università della California di Santa
Barbara (UCSB), e l’ Università dello Utah di Salt Lake City. Presso questi ultimi
due nodi vennero elaborati dei progetti di applicazioni visuali, mentre alcuni
ricercatori dell'UCSB studiavano un metodo per la rappresentazione di funzioni
matematiche e all'università dello Utah Robert Taylor e Ivan Sutherland
conducevano uno studio sui metodi possibili per realizzare rappresentazioni
tridimensionali in rete.
Così, prima della fine del 1969, da questi primi quattro nodi aveva avuto
origine l'ARPANET, prototipo in nuce di quella che poi sarebbe diventata
universalmente nota come l'Internet. Anche in questo primissimo stadio la ricerca
sul networking si muoveva sul doppio binario dell'indagine tecnico-strutturale e
dell'aspetto funzionale della rete, cioè sul miglioramento della struttura portante e
sulle possibili applicazioni. Tradizione che tuttora continua.
25Nel gergo informatico i nodi sono i punti di connessione tra le diverse articolazioni di una
rete, solitamente occupati da un computer che smista il traffico in entrata e in uscita.
26Computer connesso in rete che “ospita” dati e servizi, o accetta “visite” dall’esterno. Un
host computer è qualsiasi computer sull’Internet che risponda a tre requisiti: implementi i
necessari protocolli di comunicazione, inclusa la suite TCP/IP, abbia un suo indirizzo IP
individuale e possieda una connessione di comunicazione che gli permette di scambiare
pacchetti di informazioni con altre macchine collegate in rete.
Il primo stadio: l'ARPANET
Il primo stadio della storia dell’Internet si identifica quindi con la fase
sperimentale dell'ARPANET, la rete dell'ARPA. Quest’agenzia del DoD, il
Department of Defense del governo statunitense, era deputata al finanziamento
di ricerche nei settori di punta, anche senza immediati risvolti militari, dalla
linguistica alla crittografia (le tecniche per cifrare i messaggi riservati, applicabili
a vari media, dal telegrafo al computer) alla microelettronica. Il connubio tra
scienza e mondo militare si era fatto ancor più interdipendente con la Guerra
Fredda e il Pentagono era il finanziatore implicito o esplicito di tutte le iniziative di
ricerca nelle università o nei centri di studi americani. In questo caso il fine non
era quello di creare un circuito informativo tra i distretti militari disseminati per il
paese, giacché a tale scopo sarebbe stato sufficiente collegare i grandi
laboratori di ricerca militare e strategica. L'ARPANET serviva invece a creare un
collegamento nel mondo accademico, nei cui dipartimenti si svolgevano anche le
ricerche finanziate dal DoD e legate al settore militare-industriale. Nell'ambito
accademico si avvertiva infatti l'esigenza di avere un contatto continuo con i
ricercatori che lavoravano allo stesso progetto o sperimentavano le stesse
applicazioni. Far parlare fra loro computer distanti anche migliaia di chilometri
rispondeva a questa precisa esigenza, piuttosto che a quella di creare una rete
militare riservata, e la stessa ARPANET era un progetto di ricerca per
sperimentare la tecnica di trasmissione di dati numerici detta packet switching,
che sarà uno dei connotati tecnici distintivi dell'Internet.
Si voleva inoltre mettere la comunità degli accademici e dei ricercatori in
grado di condividere i cervelloni potentissimi dei pochi grandi centri di
supercalcolo, dal momento che alcuni progetti e applicazioni richiedevano
l'elaborazione in tempi brevissimi di enormi quantità di valori numerici.
La struttura decentrata della rete (caratteristica, questa, che rimarrà
peculiare nella storia dell'Internet) era, in seconda istanza, funzionale alle
esigenze strategiche della difesa. Infatti, in caso di improvviso attacco nemico e
di un sabotaggio di un tratto del circuito, le comunicazioni in rete sarebbero
continuate a essere operative, mentre nell'ipotesi di un assetto accentrato con un
centro direzionale dal quale fossero partiti i comandi e le informazioni verso le
articolazioni periferiche, un'eventualità siffatta avrebbe messo fuori uso tutto il
sistema.
Negli primi anni ‘70 altri computer si collegarono, incrementando i nodi
dell'ARPANET. A questo punto il lavoro dei ricercatori si indirizzava verso un
protocollo27 completo host-to-host e altri software di rete. Nel dicembre del
1970 il Network Working Group (NWG), sotto la guida di S. Crocker, portò a
termine le ricerche dando veste definitiva al primo protocollo ARPANET,
denominato Network Control Protocol (NCP). Quando nel periodo 1971-1972 si
finì di implementare NCP sui siti di rete, gli utenti poterono finalmente cominciare
a sviluppare le applicazioni.
Nell'ottobre del 1972 Kahn presentò all'opinione pubblica la nuova
tecnologia delle comunicazioni avanzate organizzando una grande dimostrazione
di successo dell'ARPANET all'International Computer Communication
Conference (ICCC). A tale conferenza risale la nascita dell 'Internetwork
Working Group, un gruppo di lavoro per la ricerca di un protocollo planetario per
far parlare i computer fra loro, del quale Vint Cerf venne nominato presidente.
Sempre in quell'anno fu messa a punto una delle applicazioni che poi si
rivelarono più popolari: la posta elettronica (E-Mail ). Ray Tomlinson della BBN
(l'azienda che aveva prodotto il primo computer interfacciabile con altre
macchine per la trasmissione dei dati a pacchetti) scrisse un software di base
per l'invio e la lettura di messaggi in posta elettronica a cui poi Roberts apportò
dei miglioramenti, ottenendo un programma atto a elencare, selezionare,
classificare e rispondere ai messaggi: l'E-mail era pronta per diventare
l'applicazione di rete più usata per oltre un decennio.
Con il passare del tempo un numero sempre maggiore di centri di ricerca
si collegò all'ARPANET, delineando in modo netto la futura fisionomia
dell'Internet, basata sul principio di un'architettura aperta. L'idea era quella di dar
vita a numerosi network, indipendenti gli uni dagli altri, il primo dei quali sarebbe
stato l'ARPANET, a cui presto si sarebbero aggiunte reti satellitari, reti radio e
altri network. In quest'ottica l'opzione a favore di una specifica tecnologia di rete
non è determinata da una particolare architettura di rete, ma è il frutto di una
27Un protocollo è un codice comune, un insieme di regole attraverso cui due o più computer
comunicano scambiandosi messaggi, indipendentemente dal sistema operativo e
dall’architetturahardware, questo speciale software s tabilisce, per esempio, qual’è
l’ammontare dei dati che può essere trasmesso in ogni istante, il formato che questi dati
debbono avere e i criteri che presiedono all’assegnazione degli indirizzi.
libera scelta da parte del provider 28, e l'interazione con gli altri network viene
garantita da un meta-livello comune detto "Internetworking Architecture"29.
In un sistema ad architettura aperta ogni network ha una struttura e uno
sviluppo autonomi e può avere un'interfaccia unica, inoltre non ci sono limiti
all'inglobamento di ulteriori articolazioni, in una dinamica di espansione
potenzialmente infinita.
L'idea di un assetto di rete ad architettura aperta fu introdotta da Kahn
subito dopo il suo arrivo all'ARPA nel '72; la ricerca verteva all'inizio su un
programma a pacchetti radio, e solo in seguito lo studio su un'architettura aperta
divenne un programma autonomo. Il sistema a pacchetti radio funzionava grazie
a un protocollo che permetteva la comunicazione anche in situazioni di disturbo
o di interferenze o in presenza di un black-out dovuto, per esempio, al fatto di
trovarsi in un tunnel. Kahn pensava di sviluppare un protocollo locale
esclusivamente per la rete a pacchetti radio, poiché questo avrebbe evitato di
dover affrontare il problema della gestione di differenti sistemi operativi, mentre,
per le reti di computer prevedeva di continuare a usare il protocollo NCP.
Tuttavia l'NCP consentiva la comunicazione solo tra macchine IMP
connesse alla rete ARPANET: si rivelò quindi necessario apportarvi qualche
modifica. Inoltre non garantiva di per sé l'arrivo dei pacchetti di informazioni a
destinazione, servizio che dipendeva interamente dalla rete, per cui il protocollo
non aveva una funzione di controllo sugli errori (come la perdita di pacchetti), in
quanto all'inizio si pensava che l'ARPANET sarebbe stata l'unica rete e avrebbe
dato garanzie di totale affidabilità.
Kahn si accinse quindi ad apportare alcune modifiche al protocollo di rete
in modo da soddisfare le esigenze di un'architettura aperta. In quest'opera fu
affiancato da Vint Cerf, all'epoca ricercatore a Stanford: il nuovo protocollo sarà
il famoso Transmission Control Protocol/Internet Protocol (TCP/IP).
Nonostante il fatto che allo Xerox PARC 30 d i P alo Alto stessero già
sperimentando una rete Ethernet, in quel periodo nessuno prevedeva lo sviluppo
delle LAN 31, e, meno ancora, dei PC e delle workstation . Il modello che si
28Internet Service Provider (ISP) è il sistema telematico che affitta parte della sua connettività
con la rete Internet al privato cittadino o alle piccole aziende. Il provider è uno dei milioni di
nodi della Rete, connesso all’Internet in modo permanente con delle linee dedicate
acquistate o affittate (in Italia l’unico fornitore di infrastrutture fisiche è per il momento la
Telecom).
29<http//info.isoc.org/internet-history>.
30Palo Alto Research Center, centro di ricerca della Xerox.
31Vedi sopra, nota 10.
prefigurava era un circuito numericamente limitato di reti nazionali come
l'ARPANET, a cui si sarebbero applicati indirizzi di 32 bit , i cui primi otto
indicavano la rete di appartenenza e gli altri ventiquattro si riferivano al computer
host connesso a quel network
Evidentemente si prevedeva lo sviluppo di non più di 256 reti32, e quando
alla fine degli anni '70 cominciarono a nascere le LAN , questo paradigma di
addressing dovette essere riformulato.
La prima elaborazione del tandem Cerf-Kahn fu un protocollo denominato
TCP, che provvedeva ai servizi di invio e trasporto in Internet con la completa
garanzia dell'arrivo dei dati a destinazione nella stessa sequenza in cui erano
stati inviati. I primi tentativi di implementare il nuovo protocollo resero evidenti le
sue potenzialità per quanto riguardava le applicazioni di file transfer
(trasferimento di file) e di remote login (la futura telnet)33, ma svelarono la sua
inadeguatezza per le prime applicazioni di rete avanzate, in particolare la voce a
pacchetti. Si giunse quindi a organizzare l'originario TCP in due distinti
protocolli: il semplice IP venne concepito con la funzione di suddividere i dati in
uscita in pacchetti di dimensioni variabili (da 200 a 1500 byte), e di inviare e
indirizzare i singoli pacchetti a destinazione, mentre il set TCP era deputato al
controllo del flusso dei dati, al corretto riassemblaggio finale e al recupero dei
pacchetti persi.
I pacchetti sono preceduti da un’intestazione (header), contenente
l’indicazione della provenienza e della destinazione dei dati e un numero
progressivo che contrassegna la posizione del pacchetto nell’insieme dei dati.
Una volta suddivisi i dati in pacchetti, il protocollo li invia ad un router 34 che
legge l’indirizzo contenuto negliheader e li instrada sul percorso libero più
diretto alla destinazione finale. La direzione di questo instradamento cambia
continuamente a seconda delle condizioni di traffico della rete: si tratta di un
routing dinamico, in cui il tragitto viene ridisegnato continuamente in tempo
reale.
Nonostante il file transfer e il remote login siano applicazioni fondamentali,
è tuttavia l'E-mail che ha avuto un impatto determinante sul modello delle
322 elevato all’ottava fa 256, dove 2 rappresenta il numero dei valori (0 e 1) che può
assumere ogni bit., per cui se un network è indicato da un ottetto di bit, si possono numerare
fino a 256 reti.
33Telnet è un'applicazione di rete che consente di connettersi a un computer host agendo
dalla propria postazione come se fosse un terminale di quel computer.
34“Instradatore”: è un computer situato in un nodo della rete che svolge il compito di
indirizzare alla stazione successiva, a monte o a valle, i pacchetti in transito, secondo le
regole del protocollo TCP/IP.
comunicazioni interpersonali, sulle comunicazioni e sull'organizzazione del
lavoro, nonché sullo stesso sviluppo dell'Internet, essendo tuttora l’applicazionedi
rete killer.
Altre furono le applicazioni elaborate in questa prima fase, come la
trasmissione della voce a pacchetti (prototipo della telefonia in rete). Il concetto
che si è subito fatto strada è che l 'Internet non è concepita per una o più
applicazioni predefinite, ma è un'infrastruttura flessibile che via via ne può
assorbire di nuove, come dimostra la nascita del World Wide Web . E questo è
possibile grazie al protocollo TCP/IP.
L'ARPA stipulò tre differenti contratti con Stanford, dove lavorava Cerf, con
la BBN, dove lavorava Ray Tomlinson e con l’ UCLA per l'implementazione di
TCP/IP: nell'arco di un anno si erano realizzate tre diverse implementazioni del
nuovo protocollo che potevano interagire tra loro.
Non era che l'inizio di una lunga fase sperimentale in cui ai primi tre
network (ARPANET, rete radio e rete satellitare) si sono aggiunti altri circuiti di
ogni tipo con le loro comunità scientifiche.
Lo sviluppo delle LAN , d e i P C e d e l l e workstation durante anni '80
corrispose a una grande spinta espansiva dell'Internet; la tecnologia Ethernet,
nata allo Xerox PARK nel 1973, è ora probabilmente la tecnologia di rete
dominante nell'Internet e i PC i computer più diffusi.
Il passaggio da un modello con pochi network (l'originaria ARPANET) a
uno con molti network ha avuto delle ripercussioni a livello delle tecnologie e dei
concetti di base. Innanzitutto le reti sono state ripartite in tre categorie: la classe
A delle reti nazionali, la classe B delle reti regionali e la classe C delle reti locali,
che erano un folto numero di network con relativamente pochi host .
Per rendere più semplice l'uso della rete agli utenti furono assegnati agli
host dei nomi che andavano a sostituire gli indirizzi numerici.
Il secondo stadio: la rete della comunità scientifica
La prima fase della storia dell'Internet copre all'incirca gli anni '70: è il
periodo in cui l'ARPANET comprende solo qualche decina di nodi, tutti negli Stati
Uniti o in qualche base americana all'estero, e risponde alla funzione di
coordinare la ricerca scientifica su progetti sponsorizzati dai militari, oltre a
quella di sperimentare le nuove tecnologie del networking. In questa fase
sperimentale le regole d'accesso alla rete venivano dettate dalle autorità militari
competenti.
Una delle sfide che segnò lo spartiacque nell'evoluzione dell'Internet fu la
transizione dell’ARPANET dal protocollo NCP al nuovo TCP/IP, programmata a
partire dal primo gennaio 1983: in questo giorno-simbolo tutti gli host dovettero
contemporaneamente convertire il proprio protocollo di comunicazione al fine di
consentire l’internetworking planetario. La logica del nuovo protocollo è quella di
superare le barriere fra le varie reti, che aprono dei varchi, i gateways, per
comunicare fra loro. ARPANET diventa ARPA Internet e poi semplicemente
Internet Il nuovo protocollo in realtà era già stato adottato tre anni prima in via
sperimentale come standard della Difesa: questo permise all'ARPA di
condividere quella che sarebbe divenuta la futura tecnologia Internet. Ormai i
tempi erano maturi per la separazione della comunità militare dalla comunità
accademica. La transizione dell'ARPANET al nuovo protocollo TCP/IP, nel 1983,
segnò quindi lo scorporo della rete più prettamente militare usata per fini
specificamente operativi e chiamata Milnet , dall’ARPANET, che continuò a
essere la rete della comunità accademica finalizzata al sostegno della ricerca.
Mentre il numero dei centri di ricerca connessi all'ARPANET stava
conoscendo un incremento vistoso presso i ricercatori informatici, altri network
erano nati presso altre comunità fin dalla fine degli anni '70: il Dipartimento
dell'Energia aveva costituito MFENet per i suoi ricercatori addetti alla ricerca
sull'energia della fusione magnetica, mentre i fisici delle alte energie, sempre
appartenenti alla stessa istituzione, avevano creato HEPNet; i fisici della NASA si
erano connessi in una rete denominata SPAN, e la comunità informatica
accademica e industriale aveva creato CSNet (Computer Science Network).
Nel 1979 tre studenti dell’Università del North Carolina e della Duke
University idearono una connessione per ospitare gruppi di discussione senza
collegarsi all’ARPANET: nacque così una rete, che inizialmente collegava
computer dotati del sistema operativo UNIX, denominata USENET, una “BBS
flottante”35; con questa modalità di connessione un computer chiama un altro via
modem e gli trasferisce il contenuto di tutte le News in questione e così via, in un
tam tam telematico.36; nel 1981 nacque BITNet, che in un primoo momento
35G. Salza, Che cosa ci faccio in Internet, Edizioni Theoria, Roma-Napoli, 1995, p. 19.
36Fu Christensen a scoprire che ogni computer può connettersi online con un altro grazie al
modem, che permette di convogliare i bit su una linea telefonica commutata. Era necessario,
però, un programma in grado di correggere gli errori causati dal telefono: il protocollo di
trasmissione inventato da Christensen si chiama XModem: fu così che, nel 1978, insieme a
connetteva solo mainframe IBM e aveva la funzione di trasferimento di file e di
gestione della posta elettronica. Nonostante la tecnologia arcaica la policy
d'accesso estremamente aperta decretò la diffusione e il successo di questa rete
anche fuori dagli Stati Uniti; oggi tuttavia BITNet è una rete in declino essendo i
suoi nodi anche nell'Internet .
Questi primi network, a eccezione di USENet e di BITNet, erano comunità
estremamente chiuse la cui attività era finalizzata alla ricerca accademica. Oltre
alla posta elettronica presto prese piede un'altra applicazione di largo impiego
presso gli studiosi, la conference on line, una sorta di agenda elettronica per le
discussioni in rete tra ricercatori che conducevano uno studio in un ambito
comune.
Nel 1986 la National Science Foundation, un ente governativo federale con
il compito di promuovere, di concerto con le istituzioni accademiche, la ricerca
scientifica, fece partire il programma NSFNet, affidato a Dennis Jennings, che
era venuto a tal fine dall'Irlanda: il progetto prevedeva un'infrastruttura di tipo
WAN 37 ad alta velocità (58 Kbps) che facesse da supporto alla comunità
accademica della ricerca, divenendo un’arteria portante dell’intera Rete. In tal
modo vennero messe a disposizione di istituzioni non commerciali risorse
enormi, concentrate in sei centri di calcolo e di elaborazione dotati di
supercomputer. La NSF decise anche di sostenere finanziariamente
l'infrastruttura organizzativa della rete esistente, gerarchicamente subordinata
all'Internet Activities Board (IAB).
Varie altre policy furono decise in aggiunta a quel programma; le agenzie
federali avrebbero diviso i costi delle infrastrutture comuni, come i cavi
transoceanici. Per coordinare tale cooperazione fu creato un organismo ad hoc
, il Federal Networking Council.
La NSF stimolò i propri network regionali connessi all'NSFNet (inizialmente
esclusivamente accademici) a cercare clienti commerciali, a creare servizi adatti
a questo tipo di utenza e ad abbassare i costi di abbonamento in un'ottica di
espansione commerciale, mentre a livello federale rafforzò una "Acceptable Use
un amico, diede vita alla prima BBS, area di libero dibattito ospitata su un computer che fa da
server per tutti quelli che si connettono via modem.
37Vedi sopra, nota 10.
Policy " che riservava l'uso del backbone 38 (il segmento su scala nazionale di
NSFNet) solo per fini "di ricerca e di istruzione"39.
Incoraggiando il traffico commerciale di rete a livello locale e regionale,
mentre si negava l'accesso al troncone di trasporto nazionale, si mirava a
incentivare la nascita o la crescita di network "privati e competitivi"40 di lunga
portata come PSI e UUNet 41. Il fatto che non esistessero strutture centrali
direttive, e che ogni nuovo circuito connesso fosse responsabile, sotto un profilo
finanziario e amministrativo, dei propri host e del proprio tratto di rete, fu il
fattore istituzionale che permise la crescita libera e spontanea dell’Internet.
Nel 1989 NSFNet venne potenziata attraverso una rete T1 della portata
trasmissiva di 1,544 Mbps, per poi passare, nel 1992, a una linea T3 a 44,736
Mbps42.
Il processo di commercializzazione della Rete, che stava lentamente
portando a un potenziamento dell'uso del mezzo ai fini del business on line, si è
imposto all'attenzione degli analisti a partire dal 1988 con un ciclo di conferenze
organizzate dalla NSF presso la Kennedy School of Government a Harvard.sul
tema della “Commercialization and Privatization of the Internet”; le politiche di
liberalizzazione sono culminate nell’aprile del 1995, quando la NSF deliberò il
taglio dei finanziamenti del backbone.
I.VI. Il terzo stadio: l'Internet viaggia world wide e
diventa strumento di socialità
Il backbone ha segnato la transizione dalla rete della comunità accademica
a un'utenza contraddistinta dai caratteri dell'universalità43: in soli otto anni, dal
1986 al 1994, ha visto crescere la propria articolazione dai primi sei nodi a
38E' la "spina dorsale", lo scheletro delle principali articolazioni di una rete, compooste da
linee dedicate ad altissima velocità, che collegano alcuni supercomputer nevralgici dislocati
anche a grande distanza fra loro.
39<htto//info.isoc.org/internet-history>, traduzione mia.
40Ibidem.
41Ibidem.
42M. Calvo, F. Ciotti, G. Roncaglia, M. A. Zela, Internet ‘97, Laterza, Bari 1997, p. 17.
43Berretti e Zambardino, op. cit., 1995.
ventuno nodi, mentre l'Internet nel suo complesso è arrivata a connettere oltre
cinquantamila network in tutti e cinque i continenti, di cui ventinovemila solo
negli Stati Uniti44: il peso del programma di NSFNet sia a livello di finanziamenti
(sono stati investiti ben duecento milioni di dollari dall'86 al '95) sia di promozione
politico-culturale è stato così determinante che alla fine del '90, quando
l'ARPANET, la prima rete della storia delle telecomunicazioni avanzate, venne
smantellata, TCP/IP aveva già soppiantato o comunque marginalizzato tutti gli
altri protocolli di rete a diffusione "ampia", e IP era sulla strada giusta per
diventare la chiave per la Global Information Infrastructure.
In Italia il primo ente collegato all’Internet è stato l’Istituto Nazionale di Fisi
ca
Nucleare; poi, con la creazione dell GARR (Gruppo per l’Armonizzazione delle
Reti e la Ricerca) si sono collegate università e centri di ricerca, mentre
l’accesso universale offerto daiprovider privati è giunto a metà degli anni ‘90.
Il passaggio alla fase dell'universalità non è netto, come non lo era stato
nemmeno il precedente: in fondo le transizioni dalla rete dell'ARPA a quella della
comunità accademica, del tutto svincolata da una funzionalità strategico-militare
(che comunque non era stata immediata nemmeno nella primissima fase) e
infine alla rete delle comunità virtuali 45 sono snodi graduali di un'evoluzione
senza alcuna soluzione di continuità. I primi abitanti della rete, i ricercatori delle
università e dei centri di studi, quasi subito hanno cominciato a usare l'Internet
per scopi non istituzionali, come scambiarsi messaggi e creare aree di libero
dibattito e confronto sui subject più disparati; così è successo che sono stati gli
utenti che hanno piegato il mezzo, originariamente concepito per finalità
nettamente differenti, a nuove funzioni che hanno finito per connotarlo in modo
egemonico. E, dato che tutto nel nostro mondo viene trasformato in merce e
consumo, la formazione di questo nuovo tipo di utenza di massa ha attirato
anche venditori vari di merce-informazione (immateriale) e anche di mercemerce (materialissima) - lasciando da parte la diffusione amatoriale o a scopo
di lucro di materiale pornografico, che essendo comunque marginale rispetto alla
quantità di dati e informazioni scambiati in rete46 (e comunque non differendo in
nulla dalla pornografia cartacea o in video), serve soltanto a rinfocolare le
pulsioni censorie dei postmoderni Catoni alla Gringrich.
44<http//info.isoc.org/internet-history>.
45Si tratta di una categoria sociologica abbastanza controversa formulata dallo studioso
americano Howard Rheingold, la cui opera The Virtual Community è diventata un libro di
culto tra gli appassionati del surfing digitale e si può anche leggere, opportunamente
riadattata, online .
46Vedi F. Carlini, Internet, Pinocchio e il gendarme , Manifestolibri, Roma 1996.
Se comunque volessimo individuare uno spartiacque convenzionale per
segnare il passaggio alla fase della rete universale, network della galassia delle
comunità virtuali, potremmo fare riferimento alla scansione proposta da Berretti
e Zambardino47, i quali suggeriscono come data chiave il 1988, quando la MCI,
la holding americana delle telecomunicazioni, propose alla NSF, l'agenzia che
gestiva la rete, di connettere il proprio servizio di posta elettronica all'Internet. In
questo modo si interrompeva il monopolio della rete da parte della comunità
scientifica, aprendo totalmente l'accesso all'utenza di massa. Si pensava così
che il conseguente aumento di connettività sarebbe stato un vantaggio per tutti,
ed effettivamente il boom dell’Internet ha confermato questa intuizione: come
sostiene Rutkowsky48, "connectivity is its own reward", vale a dire "la connettività
è una ricompensa, un bene in se stessa", da perseguire in quanto aumenta il
valore intrinseco della Rete che, più viene navigata , maggiormente acquista
valore per un'utenza sempre più allargata.
Il ciberspazio diventa così la babele dove, con la stessa velocità e fluidità
magmatica, si aggregano e si disaggregano comunità virtuali, talvolta sulla base
di un interesse effimero o molto settoriale, tal'altra sulla base di valori o ideali
condivisi, se non addirittura di un progetto comune di azione politica, sociale o
culturale. La Rete è il medium di controinformazione di gruppi politici libertari di
sinistra, si è prestata a veicolare e propagare l'urlo di rivolta degli indios
chiapanechi del Subcomandante Marcos, prima guerriglia dell'era (postmoderna) dell'informazione, ma ospita anche siti di propaganda neo-nazista dove
vengono divulgate tesi negazioniste o revisioniste.
La Rete è insomma diventata un reale terreno di ricerca, in grado di farsi
cornice di attività sociali, come testimonia la prima conferenza internazionale
sulle comunità virtuali, “Virtual Communities 97”, tenutasi a Sidney nella
primavera del ‘9749: il meeting ha analizzato i risvolti sociali delle varie comunità
formatesi in rete negli ultimi anni, passando in rassegna i casi più emblematici.
Ne è emersa l’idea non di un’entità separata dalla
vita reale50, ma una estensione
e ampliamento di questa, un nuovo spazio di interazione sociale sul paradigma di
“società aperta” formulato da Popper: il futuro della Rete - pare di capire - sarà
la risultante di due linee-forza che rappresentano il grado di interattività e di
47Op. cit.
48Citato da C. Huitema, Et Dieu créa l'Internet , Editions Eyrolle, 1995 (trad. it. E Dio creò
Internet , Muzzio, Padova 1996).
49P. Rosati (Hobo), Il mercato delle identità, in “Alì Babà” n.3 , inserto settimanale de“il
Manifesto” del 7 maggio 1997.
50RL, cioè Real Life, come la chiamano gli americani.
accesso al Net: le ipotesi limite sono rappresentate dal “Net shock” (massima
interattività e accesso), che presumibilmente potrebbe indurre delle
trasformazioni sociali radicali, al “Niche Medium” (passività totale e accesso
limitato), situazione in cui solo un’élite rimane depositaria del sapere hi-tech;
tutti gli altri esiti, con una diversa declinazione delle due variabili determinanti,
sono delle soluzioni intermedie tra questi due estremi: il processo, dunque, è
lungi dall’essersi concluso.
I.VII. La prospettiva di un suq virtuale
In una società di mercato post-fordista, dove è sulla via del tramonto
l'economia di scala fondata sui beni di largo consumo e dove i mercati sono
saturi51, un'utenza di rete, divenuta ormai di massa, rappresenta un enorme e
nuovo bacino di potenziali consumatori, facilmente raggiungibile.
La prima fase di commercializzazione della rete ha riguardato le compagnie
che vendono prodotti deputati a implementare la tecnologia Internet, innanzitutto
software e applicazioni di rete, e le compagnie che offrono la connettività e i
servizi Internet di base, i cosiddetti provider (fornitori di accessi in rete), che
vendono all'utenza privata (singoli cittadini e imprese) un abbonamento (in
genere di tipo forfetario a scadenza annuale) per l'ingresso in rete. Poi ci sono
le aziende, per giunta in Europa monopolistiche fino al primo gennaio 1998, che
gestiscono i servizi telefonici e che realizzano ingenti profitti, oltre che sulla
telefonia tradizionale, anche sul traffico Internet, in quanto gli abbonati si
connettono in rete arrivando al provider tramite il doppino 52 telefonico.
Allo stato attuale, pur se si tratta di fenomeni tuttora allo stato embrionale e
di tendenze ancora da verificare, l'attenzione degli operatori economici è puntata
sull'uso di questa infrastruttura globale informativa come veicolo di altri servizi
commerciali, quelli che tradizionalmente si sono serviti di altri media d i
promozione-informazione.
51P. Ingrao e R. Rossanda, Appuntamenti di fine secolo , Manifestolibri, Roma 1996.
52Si chiama così il cavo che trasporta i segnali analogici della telefonia tradizionale,
contenente due fili di rame.
Talune attività economiche attraverso la Rete possono trovare un inedito ed
efficace medium che consente di effettuare le transazioni in tempo reale: si può
trattare di un'impresa che tramite il suo sito presenta tutti i propri prodotti e
servizi, con l'opzione per il consumatore di fare un ordinativo comodamente da
casa propria con un semplice click, oppure di un servizio finanziario offerto da
una società fornitrice di accessi, che consente all'utente di accedere alla piazza
azionaria online con la possibilità di acquistare o vendere azioni o titoli di credito
(questa possibilità è offerta solo dalla Borsa di Wall Street, mentre per Piazza
Affari è disponibile unicamente un servizio informativo), o ancora sono molti i
casi di piccoli esercizi commerciali che incrementano notevolmente il proprio
fatturato aggiungendo alla vendita al dettaglio la vendita a domicilio previo
ordinativo in rete, raggiungendo una fascia di consumatori altrimenti
irraggiungibile. La maggioranza dei drugstore coreani o delle pizzerie italiane di
New York ha una home page 53 in Internet. Sempre tramite rete un'agenzia di
viaggi, se non direttamente l'interessato, può tele-prenotare una stanza d'albergo
o un'automobile da noleggio che lo attenda all'aeroporto. Insomma l’Internet
rischia una totale mutazione di identità a livello di utenza e a livello di funzioni,
diventando un mercato virtuale potenzialmente illimitato in cui ogni sorta di
venditore cerca di piazzare merci di ogni tipo: già alla fine del 1993 il numero
degli host commerciali aveva superato il numero di quelli accademici e dedicati
alla ricerca, diventando al forza trainante della crescita del network., mentre nel
1995 l’NSFNet tornò a essere una rete esclusivamente dedicata alla ricerca e il
traffico principale sulla dorsale americana iniziò a essere gestito esclusivamente
da provider commerciali.
Resta da vedere se si tratti di una semplice evoluzione all'interno di un
percorso che non viene stravolto, come sostengono Berretti e Zambardino54, che
anzi auspicano che il mercato entri nella Rete con i propri meccanismi dinamici
e stimolanti, oppure se la longa manus di forti interessi privati non determini uno
stravolgimento che snatura le caratteristiche di un medium che, per la sua
gratuità e orizzontalità, ha permesso e favorito processi comunicativi improntati
alla libertà e all'interattività.
53E' la pagina Web di presentazione di un sito, dove di solito vengono presentati in modo
sintetico l'attività o l'oggetto in questione, corredata da dati multimediali (testo e immagini, ma
anche suoni o immagini in movimento): dalla home page di un sito si diramano i link alle
altre pagine del sito o ad altri siti.E’ così chiamata anche perché inizialmente rappresentava
in modo stilizzato l’edificio in cui si stava entrando (un’università, un’azienda, un ente).
54Berretti e Zambardino, op. cit.
Chiaramente qui si scontrano categorie interpretative radicalmente diverse,
che rimandano a opzioni culturali e politiche che interrogano l'intera società da
punti di vista opposti.
Il primo di questi punti di vista, che può essere definito tecno-liberale ,
vede l'economia di mercato come il motore vitale di tutte le attività umane, in
grado, nonostante alcuni costi sociali evidenti, di imprimere una spinta dinamica
alla società nel suo insieme: la Rete e le sue nuove tecnologie riceverebbero
così solo input benefici dall'interazione con il mercato, che favorirebbe il sorgere
di nuovi prodotti, nuovi servizi e nuova utenza.
Il secondo, che può essere definito tecno-libertario , vede il mercato come
la giungla della sopraffazione dei più deboli da parte dei più forti, in grado di
piegare alle proprie logiche alienanti di mercificazione e di profitto l'intero campo
dell'esperienza umana, e a esso contrappone una tensione politica ed
esistenziale verso una comunità di liberi e uguali, regolata da pratiche di
autogestione e di autoorganizzazione: finora l'Internet ha così rappresentato per
questo filone ciberlibertario il prototipo di comunità virtuale improntato
all'eguaglianza e alla mutua cooperazione, anziché alla disuguaglianza e alla
competitività che regolano il mondo reale, una sorta di società parallela priva di
centro e di controllo, che per qualche strana combinazione storica si è sottratta
alla legge opprimente della funzionalità sistemica, sfuggendo di mano ai suoi
creatori e costituendo un'occasione preziosa come strumento di comunicazione
e di aggregazione libero e orizzontale (la metafora della rete, simbolo di
relazionalità orizzontale e di potere distribuito, contrapposta a quella della
piramide o dell'albero, simbolo di un principio gerarchico e di autorià verticale,
gioca, in questo senso, un grandissimo ruolo nell'ordine simbolico).
L'arrivo di interessi privati e il profilarsi di strategie commerciali in rete a
opera delle grandi corporation viene visto di conseguenza come una
colonizzazione indebita da parte di una forza, il mercato, che risponde a una
legge interna opposta a quella che informa la Rete. C'è così il pericolo
attualissimo e per nulla virtuale di una transustanziazione dell 'Internet in una
Businessnet55, una sorta di grande ipermercato virtuale dove gli utenti della rete
sono ridotti alla semplice categoria di consumatori e non più agenti di
comunicazione. Tutto ciò è stato accelerato dal World Wide Web , l'ultima
applicazione di rete che, con la propria struttura ipertestuale colorata e
multimediale, si presta a veicolare un'informazione unidirezionale, nella quale
55Il termine è di Carlini, op. cit, 1995.
l'approccio diventa quasi di tipo televisivo e la navigazione da una pagina
all'altra (un surfing nei meandri del ciberspazio che ricorda lo zapping
nell'etere) esaurisce sempre più spesso la fruizione della Rete, lasciando
inesplorate per i più le enormi potenzialità comunicative del medium e
confinando le sue pressoché infinite virtù interattive alla scelta da parte dell'utente
del link da effettuare: favorendo un contesto comunicativo, che privilegia gli
effetti spettacolari e determina una fruizione essenzialmente ricettiva, il Web
risulta funzionalissimo alle più avanzate strategie di marketing e si può facilmente
trasformare in una galleria di vetrine per l'esposizione di prodotti.
Nel 1995 la FNC ha votato all'unanimità una risoluzione che definisce
l'Internet
come segue: "Internet si riferisce al sistema globale di informazione
che è connesso in un unico spazio globale di indirizzi basato sul protocollo
Internet (IP) o su altri protocolli IP-compatibili, espleta funzioni di comunicazione
usando il Transmission Control Protocol/Internet Protocol (TCP/IP) o altri
protocolli IP-compatibili e fornisce, usa o rende accessibili servizi telematici e le
relative infrastrutture"56.
Internet: sostanza o accidente?
Se usciamo dall'ambito divulgativo bisogna notare come l'Internet in realtà
non esista in sé, cioè come organizzazione unica e come struttura fisica. Da un
punto di vista fisico, infatti, l'Internet è un groviglio di reti locali (le LAN ), che
generalmente sono network di aziende o di università e che, per la maggior
parte, sono di tipo Ethernet, una delle modalità di connessione più efficienti.
Queste reti si connettono con le altre tramite delle passerelle (gateways ) che
consentono il passaggio dei dati usando canali diversi che normalmente sono le
linee telefoniche dette commutate, utilizzate per uno scopo differente da quello
usuale, che è il trasporto di segnali analogici veicolanti la voce, le quali, a loro
volta, si servono di condotti fisici diversi, che possono essere i cavi di rame, i
cavi in fibra ottica, i cavi sottomarini, i ponti radio a microonde e i satelliti.
56<http//info.isoc.org/internet-history/#Introduction>.
Dunque buona parte delle strutture che trasportano i pacchetti di bit è di
proprietà delle compagnie telefoniche.
Generalmente le linee telefoniche commutate, specie se utilizzano il
doppino di rame, sono molto lente nel trasporto dei dati57, così, nei casi in cui
siano richieste prestazioni più efficienti, cioè una maggiore velocità nel
trasferimento dei dati e un'assenza di disturbi sulla linea, si fa ricorso a tratti di
rete appositamente costruiti o affittati esclusivamente per tale scopo dalle
aziende che gestiscono i cavi telefonici (si tratta delle cosiddette linee
telefoniche dedicate). Questi tronconi ad alta velocità sono la dorsale (il
backbone ) d e l l 'Internet, che dovrebbe costituire il prototipo per il futuro
cablaggio universale del programma GII, il quale però presenta l'inconveniente di
essere molto costoso, circa mille dollari per ogni utente raggiunto.
Per il momento, quindi, la Rete è formata da tronchi a essa espressamente
dedicati, ma anche da tutta una serie di collegamenti estemporanei che si
stabiliscono attraverso canali diversi, grazie alla suite 58 TCP/IP, open standard
implementabile su ogni sistema operativo e piattaforma esistente, e su ogni tipo
di supporto di rete, che sia una rete locale Ethernet, o una linea telefonica, o una
rete satellitare, o un cavo in fibra ottica.
A livello istituzionale l’Internet è una struttura federativa con alcuni organi di
controllo che gestiscono l’evoluzione tecnica della Rete: l’
Internet Society
(ISOC) è un’organizzazione internazionale deputata alla cooperazione e al
coordinamento mondiale delle tecnologie e delle applicazioni Internet, costituita
da migliaia di membri provenienti da società private, enti pubblici e fondazioni
che in parte sono gli stessi che hanno contribuito alla nascita e allo sviluppo della
Rete.
L’Internet Architecture Board (IAB), precedentemente noto come Internet
Activity Board, è invece un organismo che si occupa dei differenti aspetti
tecnici, e si compone di due task force , l’Internet Engineering Task Force
(IETF), comunità internazionale aperta a ricercatori, network designer, operatori
commerciali, con la funzione di coordinare l’evoluzione tecnica dell’Internet nel
57Un normale cavo telefonico in rame trasporta 36 kb al secondo, velocità accettabile se si
tratta di un testo, ma che diventa estenuante se a essere trasferiti sono un'immagine o un
video.
58Suite in quanto si tratta in realtà di un insieme di protocolli di comunicazione, ognuno con
una funzioone specifica, organizzati in maniera gerarchica: in termini tecnici si dice che è un
“protocollo a strati di servizi” (layers of services ).
breve periodo, e l’Internet Research Task Force (IRTF), che studia la Rete in
una prospettiva evolutiva di lungo periodo59.
Ogni sottorete ha una propria autorità amministrativa, è responsabile del
proprio traffico interno e gestisce l’instradamento dei dati all’esterno.
La nascita della ragnatela multimediale
A livello di divulgazione giornalistica si usano le dizioni di Internet, Rete e
World Wide Web (abbreviato in Web) come sinonimi, ma ciò non è esatto.
L'Internet,
o la Rete, indica quella complessa struttura asimmetrica e
disomogenea fatta di migliaia di reti locali e di WAN, mentre il World Wide Web
(W W W ) o, come dicono gli americani, il W3 (doppia V al cubo), è una
particolare applicazione di rete che consiste in un protocollo, ossia in un insieme
di regole per gestire le informazioni su Internet, che va a integrare il protocollo di
base, che è il TCP/IP, permettendo di accedere a documenti integrati in rete
tramite il linguaggio per la descrizione di ipertesti (HTML).
Questa particolare interfaccia visuale della Rete è stata ideata nel 1990 da
Tim Berners-Lee come supporto ai fisici del CERN60 di Ginevra, il laboratorio
internazionale di ricerca sulle particelle ad alta velocità, che stavano studiando
un modo per comunicare in rete dati non solo testuali, ma anche audio e video.
Naturalmente esisteva già il modo di inviare immagini, tabelle e grafici, nonché
suoni, ma era necessario creare un sistema unificato per trattare la
multimedialità, e il Web corrisponde pienamente a tale esigenza. Nelle pagine
Web, infatti, è possibile inserire i linguaggi di tutti gli altri media: suoni, immagini
ferme e in movimento, addirittura filmati.
Il linguaggio HTML61 in cui sono scritte le pagine W W W è diventato il
veicolo di nuove professionalità e di nuovi linguaggi finora separati nei generi dei
59E. Guidotti, Internet e comunicazione. Per capire come cambia il modo di comunicare
l’impresa con Internet, FrancoAngeli, Milano 1997, pp. 21-23.
60Conseil Européen pour la Recherche Nucléaire.
61Acronimo di HyperText Markup Language.
media . Alla base di tale linguaggio ci sono due concetti, quello di ipertesto 62 e
quello di networked information (informazione distribuita in rete). L'ipertesto è un
documento fatto di testo, immagini, suoni, in cui alcuni dei suoi elementi
(appunto una parola o una icona), visualizzati in modo particolare, per esempio
con una sottolineatura, un colore diverso o caratteri in grassetto, sottendono dei
rimandi ad altre pagine localizzate nello stesso sito o addirittura in un sito
diverso, magari a migliaia di chilometri di distanza. Cliccando su queste
"àncore", come si dice in gergo Web (in inglese hyperlink ) che funzionano
come i rimandi testuali di una enciclopedia, si passa automaticamente alla nuova
pagina in un percorso che risulta del tutto personalizzato, a seconda dei link
che si decida di stabilire.
Infatti il server63 a cui siamo connessi provvede a inviare il documento
collegato all'àncora, prelevandolo anche da una postazione lontana. Il risultato è
una navigazione labirintica da una pagina Web all'altra senza neppure la
percezione visiva di collegamenti istantanei e differenziati con siti dislocati
geograficamente anche in diverse parti del globo, dal momento che la
connessione è immersa direttamente nel documento, rendendo così
l'informazione distribuita in rete. Se in precedenza, quindi, l 'Internet poteva
essere immaginata come un sistema di computer collegati, ognuno dotato di un
archivio di informazioni, ora si può immaginare il Web come uno spazio virtuale
aggregato, e allo stesso tempo disomogeneo, in cui galleggiano le informazioni.
Da qui la pregnante metafora della ragnatela ipertestuale, che sembra
avvolgere la rete e che disegna le connessioni in modo intricatissimo, anche se
ha ragione Carlini64 nell'evidenziare l'improprietà di questa immagine, in quanto
la tela di ragno è simmetrica e ha un centro dal quale si dipana, laddove il Web è
del tutto irregolare e acefalo e non ha un centro unificante, come, del resto, la
struttura della rete che ricalca.
Tecnicamente parlando, quindi, il W W W è un insieme di protocolli che
identificano i documenti tramite la loro collocazione in rete, indicano il modo di
attribuire gli indirizzi ai documenti impiegando il linguaggio HTML, specificano il
62Questo termine è stato usato per la prima volta da Theodor H. Nelson negli anni Sessanta
per indicare “una serie di brani di testo tra cui sono definiti dei collegamenti che consentono
al lettore differenti cammini” (brano tratto da Literary Machines , citato in MartignagoPasteris-Romagnolo, Sesto Potere , Apogeo, Milano 1997, p. 72.).
63E’ il computer che offre dei servizi centralizzati, per esempio mettendo a disposizione
programmi o dati, a diversi client che gli chiedono delle prestazioni.
64F. Carlini, op. cit., 1995, p. 183.
modo di richiedere e trasferire un documento in rete (è l'HTTP, HyperText
Transfer Protocol).
Per navigare in questo sistema di iperdocumenti multimediali servono degli
appositi software detti browser , cioè "sfogliatori" di pagine Web. Il primo,
denominato Mosaic, fu creato nell'autunno del 1993 al National Center for
Supercomputing Applications (NCSA) dell'università di Urbana-Champaign
nell'Illinois65. Il grande successo di questo programma è dipeso da due ordini di
fattori: si tratta di uno strumento facile e intuitivo (funziona a finestre apribili e
chiudibii solo a colpi di mouse ) e si applica a tre diversi sistemi di hardwaresoftware , c i o è a l l e workstation di fascia alta che impiegano un sistema
operativo Unix e il sistema client server detto X-Windows, ai Mac e ai PC.
Da quando Mosaic è stato lanciato in rete il traffico sull'Internet ha subito un
incremento di tre ordini di grandezza nei primi dieci mesi e il settore che ha
conosciuto una maggiore espansione è proprio quello costituito da Web server;
chi apre un sito sull'Internet è quasi scontato che lo doti dell'applicazione WWW,
e anche i nodi creati prima del 1990 si stanno riprogettando in linguaggio HTML.
In conclusione si può affermare che la storia della Rete è multiforme e
complessa: nacque all'epoca dei mastodontici mainframe e si è sviluppata con i
PC e i client-server , venne progettata quando ancora le LAN non esistevano e
ha poi integrato tutte le nuove tecnologie di rete fino alla più recente ATM, era
stata pensata come supporto alle funzioni di remote login e condivisione di file
e risorse e invece le applicazioni con le quali è assurta a medium universale
sono la posta elettronica e il W W W ; ma, fatto ancora più rimarchevole, all'inizio
fu una creazione di un ristretto gruppo di ricercatori e poi è divenuta un
successo commerciale con investimenti di miliardi di dollari.
Essa differisce radicalmente dalle reti tradizionali, come quella telefonica,
in quanto la sua veloce evoluzione segue di pari passo i cambiamenti a velocità
esponenziale dell'informatica: le trasformazioni in atto riguardano tutti i nuovi
servizi legati alle comunicazioni mobili come i PDA 66, i telefoni cellulari e i PC
portatili, che, insieme alle tecnologie di rete sempre più pervasive, stanno
rendendo possibile un nuovo paradigma dell'informazione e delle comunicazioni
basato su una struttura nomade.
Il problema centrale del futuro dell'Internet riguarda non tanto la direzione
che prenderà la sua evoluzione tecnologica, ma piuttosto il modo in cui tale
65Questa istituzione scientifica è famosa tra i cibernauti in quanto continua a offrire sul
proprio sito materiali, software e informazioni che possono essere prelevati gratuitamente.
66Vedi sopra, nota 3.
evoluzione verrà gestita: infatti l'architettura dell'Internet è sempre stata
determinata da un gruppo di ingegneri che via via è cambiato e il numero delle
parti in gioco è aumentato.
Nel dibattito sul controllo dei domain name 67 e sulla forma degli indirizzi
della prossima generazione IP si materializza in realtà la lotta per i futuri equilibri
della struttura sociale della Rete68.
L’internet e il suo impatto sull’economia globale
Con il passaggio alla fase caratterizzata da una policy di accesso
improntata all’universalità l’Internet si è aperta ai privati, singoli e imprese: la
crescita esponenziale della Rete, con l’aumento di connettività che ha innescato
un circolo virtuoso69, e l’amplificazione mediatica seguita all’annuncio della
nascitura Info-highway dato dalla prima amministrazione Clinton hanno attirato
ingenti interessi economici facendo apparire il Web come un inesplorato e
sconfinato bacino di mercato virtuale, tanto più attraente in quanto globale e
raggiungibile senza bisogno di intermediari. Anzi c’era chi vedeva dietro
l’imponente (e ancora irrealizzato) progetto clintoniano l’ombra di interessi
67Il domain name è l’identificativo di un computerhost. Infatti il sistema degli indirizzi IP, che è
numerico, e quindi complicato per l’utente, è stato integrato da un sistema di indirizzamento
simbolico, il Domain Name Service (DNS), in virtù del quale ogni host dell’Internet è dotato di
u n n o m e ( domain name ) , composto da stringhe di caratteri separati da punti.
Quest’articolazione rispecchia la struttura gerarchica del Domain Name Service, che
suddivide il Net in settori, denominati “domini”, a loro volta ripartiti in “sottodomini”, ecc, fino
ad arrivare ai singoli host. L’identificativo di unhost riassume le varie gerarchie di “domini” a
cui appartiene e ogni sottostringa rappresenta o un “dominio” o un “sottodominio” o il nome
del server. L’ordine di scrittura è inverso all’ordine gerarchico, cioè la parte di indirizzo più a
destra nella stringa indica il “dominio” più alto nella gerarchia, ossia il paese o, per gli USA, il
tipo di ente che possiede il computer. I “domini” di primo livello sono di due tipi: “domini” di
organizzazioni o “domini” nazionali. Infatti, quando il DNS è stato creato, l’Internet eradiffusa,
salvo eccezioni, solo negli Stati Uniti: per questo i domini statunitensi, e alcuni “domini” non
geografici, sono stati divisi per tipo di organizzazione (.edu sta per università ed enti di
ricerca, .com sta per soggetti commerciali, .gov sta per istituzioni governative, .mil sta per enti
militari, e .org sta per organizzazioni ed enti di diritto privato, come assoociazioni non-profit ,
organizzazioni non governative, ecc.). Quando la Rete si è diffusa a livello internazionale
sono stati creati altri “domini” di primo livello, suddivisi per paesi. Recentemente sono stati
annunciati altri “domini” di primo livello internazionali che estendono l’originaria ripartizione.
Cfr. M Calvo, F. Ciotti, G. Roncaglia, M. A. Zela, Internet ‘97, Laterza, Bari 1997, pp. 24-32.
68 Cfr. F. Carlini, La democrazia perde i pezzi, in “Alì Babà” n. 5, inserto de “il Manifesto” del
21 maggio 1997.
69Secondo Anthony Rutkowsky “connectivity is its own reward”, la connettività, l’essere
connessi, costituisce il valore aggiunto della Rete (v. C. Huitema, op. cit. ).
tangibili che poco avevano a che fare con la sbandierata nuova frontiera dei
diritti di cittadinanza e che potevano compromettere le peculiarità comunicative
di questo sfuggente e anarchico strumento di informazione e di comunicazione,
cioè l’orizzontalità della comunicazione da molti a molti e la mutualità che ispira i
legami sociali originati nel ciberspazio.
Oggi che le transazioni economiche online sono una realtà operativa lo
spettro di questa omologazione che quasi snaturerebbe un’oasi di socialità
miracolosamente sottratta alle leggi del profitto e del mercato si è molto attenuato,
essendo visibile in modo inequivocabile che l’uso del Net a fini economici, e la
presenza di veri e propri mall virtuali in rete, non hanno alterato la socialità e la
libertà espressiva di cui godono i cibernauti, ossia non hanno depauperato la
ricchezza comunicativa di cui gode la Rete.
Insomma gli affari in rete non hanno modificato in modo sostanziale gli
equilibri del ciberspazio, e anzi, nella misura in cui veicolano investimenti che
apportano migliorie nella architettura strutturale e quindi nella funzionalità del
mezzo, cominciano a essere considerati, anche dai più diffidenti, fonti di
dinamicità che hanno ricadute positive sull’intera comunità telematica.
La maggior parte delle innovazioni commerciali nella Rete sono nate in due
luoghi simbolo, lontani più di cinquemila chilometri l’uno dall’altro, e cioè Silicon
Valley, nella Bay Area di San Francisco, dove è nata e si è sviluppata l’industria
informatica e le sue applicazioni, e la Silicon Alley, nel distretto di Soho, a New
York, dove nascono nuove aziende a ritmo incessante70.
Questi soggetti imprenditoriali stanno sviluppando le opportunità offerte dalle
nuove tecnologie del digitale, e in un certo senso, al pari dei pionieri che
battevano percorsi inediti, stanno essi stessi creando delle nuove possibilità per
70Di solito si tratta di piccole imprese chiamate SOHO (small office, home office) o “gazzelle”,
per la loro agilità e mobilità.
nuovi business , di cui si assumono i rischi, ma anche le prospettive di ingenti
guadagni.
Le imprese hanno cominciato ad aprire i primi siti Web commerciali nel
199571: con l’avvento della piena interattività il fenomeno si è consolidato, e le
aziende si sono rese conto delle infinite applicazioni economiche dell’Internet.
Molte imprese consolidate hanno cominciato a guardare alla Rete come a
un nuovo strumento per ampliare le loro attività tradizionali, e per raggiungere in
modo più diretto nuovi bacini di utenza; le nuove aziende che cominciano la loro
attività direttamente sul Web e con il Web sono avvantaggiate in quanto , non
avendo attività precedenti, possono cogliere e potenziare tutte le opportunità che
si presentano via via, dalla creazione di nuove tecnologie, alla produzione di
nuovi beni e servizi per imprese e consumatori: è così che sono nate imprese
divenute poi famose, per essere state create dal nulla e aver fatturato miliardi di
dollari, come Netscape, produttore del più celebre browser di navigazione
ipertestuale, o le aziende specializzate nelle tecnologie di ricerca delle
informazioni, come Yahoo!, Lycos, InfoSeek, Excite, o come le innumerevoli
aziende che hanno creato nuovi contenuti e fornito possibilità di accesso a
prodotti e servizi.
Il primo e più immediato settore economico cui è stata applicata la
telematica è stata la finanza: la virtualità dell’economia finanziaria, con i suoi
ingenti spostamenti di capitali da una piazza all’altra tutti giocati su un piano
nominale, dipende direttamente dal valore simbolico e rappresentativo del
denaro; in questo caso si capisce bene il significato di virtuale, ossia
immateriale, relativo alla dimensione telematica, e per nulla antitetico a reale: il
broker che da Wall Street acquista la quota azionaria di una compagnia quotata
a Piazzaffari, o Soros che acquista o vende valuta sulla piazza di Hong Kong,
71C. Martin, The Digital Estate , McGraw Hill,1997 (trad. it. L’era digitale, McGraw Hill, Milano
1997).
fanno operazioni realissime, e con effetti e ricadute materialissime, ma in sé
immateriali e intangibili. Con l’Internet la globalizzazione fa un salto di qualità: per
quanto riguarda i mercati finanziari, la stessa possibilità di interconnessione e
mobilità operativa di cui prima godevano soltanto particolari soggetti economici,
come istituti e banche, governi e grandi società, viene estesa ai singoli
investitori, con un abbattimento dei costi dell’informazione finanziaria e delle
transazioni, che avvengono in rete.
Con la sua interfaccia colorata e multimediale il Web si è poi prestato al
marketing e alla pubblicità di prodotti e servizi da parte di imprese che hanno
aperto i loro siti strutturandoli come delle vetrine o dei cataloghi, e ha offerto lo
spazio per la nascita di nuovi servizi e prodotti interamente fruibili online , ma è
anche diventato un emporio dove si vende e si compra di tutto, dai gioielli, a
prodotti alimentari, ai gadget più improbabili, a prezzi competitivi, saltando
mediazioni e distribuzione, con un unico passaggio dal produttore al
consumatore. Nell’attività di venditaonline si sono lanciate molte piccole e medie
imprese, per le quali anche un incremento di fatturato modesto dovuto all'uso del
nuovo medium ha un impatto significativo. In questo modo la globalizzazione ha
davvero riguardato tutti, non solo multinazionali e colossi finanziari.
Qualsiasi sia il business online , ammonisce un esperto72, le strategie con
cui ci si muove nella nuova economia digitale sono radicalmente differenti da
quelle consolidate nelle attività economiche tradizionali.
Le modalità di pagameno in rete e i problemi relativi alla sicurezza
72C. Martin, op. cit.
I pagamenti in rete possono essere effettuati mediante sistemi flessibili che
consentano di addebitare a distanza la spesa dell’acquirente e accreditarne il
valore sul conto del venditore.
Finora la piena diffusione delle transazioni online ha incontrato un serio
ostacolo nei problemi riguardanti la sicurezza e l’autenticità che i dati, veicolanti
per esempio il numero di una carta di credito, possono incontrare nel viaggiare
sulla Rete; la questione non è se effettivamente si affermeranno forme di
commercio elettronico nella vita di tutti i giorni, , ma quanto velocemente, e con
quale incisività, si diffonderà il commercio online 73.
Il fattore chiave che accelererà o meno questo processo è la capacità di
creare fiducia nei consumatori, ancora restii ad affidarsi ai mezzi telematici per
le transazioni commerciali: solo il 5% degli utenti Internet reputa sicuro affidare
gli estremi della propria carta di credito ai cavi74; questa diffidenza è il portato di
un pregiudizio culturale destinato a essere progressivamente marginalizzato da
un’alfabetizzazione informatica più capillare, non essendoci in realtà, secondo gli
analisti più attenti75, nessun pericolo nell’utilizzo in rete della carta di credito, o
per lo meno nessun rischio in più rispetto a qualsiasi transazione reale .
Fino a poco tempo fa i pagamenti di acquisti fatti in rete avvenivano
attraverso modalità e sistemi estranei al circuito telematico, come il bonifico
bancario o il ricorso al sistema postale: insomma le televendite in rete seguivano
lo stesso iter delle vendite per corrispondenza o le televendite televisive.
Si è poi sviluppato il sistema di pagamento attraverso carta di credito, in cui
i dati venivano inizialmente comunicati per telefono; attualmente il mezzo più
73Ibidem, p. 157.
74B. Ovink, Un futuro per i pagamenti elettronici. Il nuovo standard SET di Visa e Mastercard
, in “Ingenium” n. 21, 21 dicembre 1996, p. 68.
75V. Zambardino, Tutto il bello di pagare on line , “Il Venerdì” n. 490, supplemento a “la
Repubblica” del 25 luglio 1997, p. 112, e B. Ovink, direttore produzione e marketing per
l’Europa di Visa Inernational,cit.
usato come veicolo per comunicare gli estremi della carta di credito è la Rete
stessa: la sicurezza che i dati rimangano riservati e non vengano contraffatti
viene garantita dall’utilizzo di sistemi crittografici, cioè di codici per cifrare i dati
rendendoli così inintellegibili a chi non possieda la chiave di decodificazione; in
tal modo si garantisce la segretezza di ciò che si comunica, che risulta
comprensibile solo al mittente e al destinatario76. Il codice generalmente
utilizzato, detto metaforicamente “chiave”, è un numero o un insieme di numeri, e
soltanto chi è a conoscenza della stessa sequenza numerica è in grado di
decodificare i dati (è per questo che si parla di messaggi “cifrati”).
I sistemi tradizionali di crittografia si basano su una chiave unica, che il
mittente e il ricevente utilizzano in modo inverso ; la segretezza ovviamente è
funzione di due requisiti, e cioè che sia il mittente che il ricevente non rivelino a
terzi il codice, e che questo non sia facilmente prevedibile, ossia alteri la
frequenza delle lettere77. In un sistema crittografico perfetto il testo cifrato non
dovrebbe fornire nessuna informazione sul messaggio originale: questo fine è
teoricamente raggiungibile, ma l’iter è così complesso da risultare impraticabile,
per cui tutti i sistemi in circolazione sono un compromesso, la cui garanzia di
sicurezza non è assoluta ma altamente probabile, dipendendo dalla condizione
che la chiave resti assolutamente segreta, o che la sua scoperta richieda troppo
tempo78, anche ricorrendo a sofisticati e veloci software . Oggi sono in uso
76Si tratta di una tecnica nata in ambito militare, durante la seconda guerra mondiale,
quando gli Angloamericani cercavano di decifrare tempestivamente i messaggi in codice che
il comando tedesco inviava via radio alle proprie truppe: oggi la crittografia viene usata per
proteggere i segreti militari di uno stato o quelli commerciali di un’azienda, o , più spesso, per
inviare dati che si vogliono tenere riservati; cfr. F. Carlini, op. cit., 1995, pp. 213 e segg; La
crittografia,
a
c u r a
d i
w w w . G a l i l e o n e t . i t ,
i n
<http://www.mediamente.rai.it/home/tv2rete/mm9798>.
77Infatti i diversi fonemi hanno una frequenza diversa nelle varie lingue, per cui, nel caso di
una serie di dati cifrati in cui la frequenza delle diverse lettere è rimasta inalterata, è
sufficiente fare un’analisi della ricorrenza di queste per risalire alla chiave e quindi
decodificare l’intero messaggio.
78Carlini, op. cit., 1995. Lo standard crittografico ufficiale del governo americano è detto
“DES” (Data Encryption Standard) ed è un sistema, ideato dai ricercatori della IBM, a chiave
unica. Il metodo su cui si basa è pubblico e ampiamente noto, ma esistono 256 chiavi, il che
lo rende difficile da decifrare. Comunque questo sistema di crittazione viene utilizzato per i
sistemi di codici detti “a doppia chiave”79, o “Public Key”, che garantiscono la
riservatezza e l’autenticità dei messaggi: ognuno dispone di una “chiave
pubblica”, che rende nota a tutti, e che può essere contenuta in un elenco simile
a quello telefonico, e di una “chiave privata”, di cui è a conoscenza solo lui.
Se un mittente “X” desidera inviare un messaggio a un ricevente “Y”, userà
la “chiave pubblica” di “Y” per codificare i dati, che però non possono essere
decifrati, nel processo inverso, disponendo solo della “chiave pubblica”, ma
bisognerà ricorrere anche alla “chiave privata” del ricevente, c h e n o n è
conosciuta da nessun altro al di fuori dell’interessato.
Per garantire l’autenticità di un messaggio, il mittente “X” userà la propria
“chiave privata”, mentre il ricevente “Y” verificherà l’origine del messaggio
usando la “chiave pubblica” del mittente80.
La prima applicazione pratica di un sistema “a doppia chiave” è un
algoritmo matematico, trasferibile su un software , detto “RSA”81: una politica
fortemente restrittiva del governo americano ne proibisce però l’esportazione,
documeni riservati, ma non quelli “classificati”, cioè quelli protetti da segreto di stato,
decifrabili con un po' di pazienza e con una strumentazione apposita. Il punto debole dei
sistemi a chiave unica risiede nel fatto che mittente e ricevente devono in qualche modo
passarsi la chiave, e se non possono incontrarsi direttamente, e ricorrono quindi ad un
sistema di trasmissioone indiretta, questa può essere intercettata.
79La svolta risale al 1976, quando il programmatore Whitfield Diffie e un docente della
Stanford University, Martin Hellman, annunciarono pubblicamente l’invenzione della chiave
pubblica, strumento imprescindibile per la privacy delle masse: si vanificava così il rigido
controllo che la National Security Agency (NSA) aveva sino ad allora esercitato sulla
diffusione dei programmi di crittografia, stabilendo complesse procedure per i brevetti ed
equiparandoli alle armi pesanti.
80Questo sistema si basa su alcune funzioni matematiche che si possono utilizzare solo in un
senso, essendo la funzione inversa molto difficile da calcolare: i sistemi a “doppia chiave” si
basano infatti su alcune operazioni matematiche realizzate sui numeri primi.
81Dalle iniziali dei cognomi degli inventori: l’affidabilità di questo sistema si fondava sulla
valutazione che per scindere un numero di 129 cifre nei due numeri primi che lo compongono
sono necessari un numero astronomico di anni di elaborazioni al computer. In realtà nel 1994
si è raggiunto un tale risultato: non si è trattato però dell’opera di un singolo o di un’
équipe
di ricercatori, bensì, grazie alle possibilità di cooperazione offerte dall’Internet, di seicento
gruppi, disseminati in venticinque paesi, dotati di circa 1600 macchine da calcolo, dai PC ai
supercomputer, una potenza di calcolo inimmaginabile. Il lavoro è durato otto mesi, e il
successo che lo ha coronato dipende in massima parte nell’organizzazione e nella ripartizione
della ricerca. Il sistema “RSA” è comunque quasi perfetto, in quanto le condizioni in cui è
stata trovata la sua soluzione sono pressoché irriproducibili, e chi ricorre oggi a questo
sistema utilizza numeri di 200 o 300 cifre.
suscitando le proteste dei produttori di software 82. Un nuovo sistema di codifica
è stato comunque diffuso via Internet, ed è stato chiamato dal suo autore, Philip
Zimmermann (un fervido sostenitore della libera circolazione dei software in
rete) “PGP”, cioè “Pretty GoodPrivacy”83.
Oltre a essere usati per la posta elettronica, i metodi di encriptazione sono
sempre più diffusi in ambito commerciale, per lo shopping online e l e
transazioni finanziarie, per cifrare i dati riguardanti la carta di credito in rete, ma
non esiste un accordo su standard comuni e sull’autorità che dovrebbe fare da
garanzia di certificazione
Una possibile soluzione dei problemi di pagamento in rete consisterebbe
nell’adozione di uno standard crittografico di carattere internazionale, adottato da
tutti gli operatori economici e gli utenti, un “codice di crittazione universale” che
dia piena garanzia che il numero di carta di credito viaggi sicuro sulla Rete: in
questa direzione va il progetto di standard comune a cui stanno lavorando
congiuntamente Visa e MasterCard, il SET (Secure Electronic Transaction ),
sistema ancora in prova che dovrebbe diventare ufficiale prossimamente84 e che
prevede che il software sia installato sia sul computer dell’acquirente che sul
server del venditore.
82Lo scontento dei produttori è ancora maggiore in quanto “RSA” è stato brevettato dai suoi
inventori, anche se diversi software ispirati a quell’algoritmo circolano liberamente fuori dagli
Stati Uniti, dove non sono coperti da brevetto e lontano dalla possibilità di azione dei
funzionari della giustizia americana.
83Zimmermann è stato citato in tribunale dalla RSA per violazione del brevetto e non per
esportazione indebita, in quanto inizialmente si era limitato a distribuire poche copie del
sofware a degli amici, che le diffusero tramite vari sistemi telematici californiani. La causa si è
poi conclusa con la vittoria di Zimmermann, grazie all’intervento mediatore del MIT, che
spinse i due avversari alla collaborazione per la realizzazioone di nuove versioni di “PGP”, le
quali vennero poi diffuse in rete, contravvenendo impunemente ai divieti di esportazione. Nel
1992, con la presentazione di un Manifesto, è nato un movimento “crypto-anarchico”, fautore
dell’uso diffuso e massiccio dei sistemi crittografici a difesa dellaprivacy . V. Carlini, op. cit.,
1995.
84Ernesto Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento settimanale a
“la Repubblica” del 30 ottobre 1997, pp. 13-14.
Questa collaborazione, preludio a un accordo generalizzato tra istituti
finanziari e produttori informatici85, è in ogni caso recente e dovuta all’impellenza
delle nuove esigenze coommerciali legate al Web : infatti fino al febbraio del
1996 Visa e MasterCard, rispettivamente con Microsoft e con Netscape,
guidavano due consorzi in competizione fra loro per la definizione di uno
standard di sicurezza per i pagamenti con carta di credito e avevano sviluppato
due standard differenti, STT per Visa e SEPP per MasterCard86.
L’eventuale soluzione di uno standard universale, tuttavia, non sarebbe
pienamente soddisfacente, in quanto ammettebbe alle transazioni solo i
possessori di carta di credito. Inoltre ne deriverebbe un pericolo per la privacy,
poiché le aziende operatrici di televendite incrementerebbero il già immenso
data base in cui sono catalogati i gusti e i consumi degli utenti.
Quindi, ai fini dello sviluppo di un mercato elettronico di massa, è
indispensabile la disponibilità di sistemi di pagamento alternativi alla carta di
credito per le piccole transazioni.
A quest’esigenza risponde la seconda generazione di mezzi di pagamento
87: uno dei primi servizi
sull’Internet, quelli basati sull’intermediario elettronico
finanziari di questo genere è stato quello offerto da First Virtual Holding
Incorporated, intermediario californiano tra venditori e acquirenti di beni e
servizi. Questo sistema non è immediato e pratico, in quanto presuppone che i
due agenti della transazione abbiano già stipulato un contratto con il fornitore del
servizio, che in pratica si limita a fare da garante dell’operazione: l’utente infatti,
una volta concluso l’accordo, comunica per telefono o per fax il proprio numero
di conto e gli estremi della propria carta di credito, quindi riceve un numero di
85Anche American Express ha deciso di adottare il sistema di protezione dei dati SET.
86E. Trondsen, Commercio elettronico: un interesse crescente. Tecnologie e mercato, lo
scenario degli USA , in “Ingenium” n. 21, 21 dicembre 1996, pp. 54-59 e B. Ovink, art. cit
87Ernesto Assante, I pagamenti sulla Rete , in “Computer Valley” n. 5, supplemento
settimanale a “La Repubblica” del 30 ottobre 1997, p. 14.
codice, il Virtual PIN, che lo identificherà nelle future transazioni sulla Rete88.
First Virtual è una vera e propria azienda virtuale, che trova nel ciberspazio la
sua ragion d’essere, e sebbene la sua forte crescita abbia implicato un
allargamento dell’organico e una relativa centralizzazione della forza lavoro89,
rimane tuttora fortemente virtuale, sia nella pratica, sia negli obiettivi. Nonostante
i problemi di coordinamento, First Virtual non sarebbe potuta nascere in modo
differente, poiché i soci fondatori erano professionisti di successo che vivevano
in parti del paese lontane, e uno di loro è affetto da un grave handicap e non
avrebbe mai potuto partecipare all’impresa se l’organizzazione fosse stata
diversa.
Una terza generazione di sistemi di pagamento online è rappresentato
dalla cosiddetta moneta elettronica (E-money): si tratta dello schema proposto da
DigiCash, Mondex, E-cash, CyberCash, NetCash, società che offrono un
servizio d’avanguardia, cioè l’emissione di una vera e propria moneta elettron
ica,
dove ogni banconota corrisponde a un numero unico generato ad hoc, così
come ogni banconota reale viene emessa dalla Zecca di Stato in formato unico.
Il servizio è riservato ai possessori di un conto corrente presso una banca, che
acquistano dei “cyberdollars” presso la società che offre un tal servizio, che
costituiscono il “portafoglio elettronico”. La banca trasferisce la somma richiesta
alla società che offre questo servizio, che a sua volta la accredita, tramite
specifici software , s u l c o m p u t e r dell’utente sotto forma di banconote
elettroniche, spendibili nei mall virtuali, o presso gli esercizi commerciali che
88L’intermediario, che coordina tutto il sistema e garantisce la regolarità delle operazioni,
trattiene una commissione su ogni transazione.
89I quattro soci fondatori vivevano anche molto lontani l’uno dall’altro, e i primi assunti erano
anch’essi dislocati in diversi stati degli USA: ancora dopo quindici mesi l’azienda non
disponeva di nessun ufficio fisico, e tutto veniva organizzato, gestito e coordinato per via
telematica. Tuttavia, con la crescita dell’azienda, si rese necessaria la centralizzazione delle
attività in un ristretto numero di uffici. Per una valutazione esaustiva delle opportunità e delle
insidie che può incontrare un’attività economica nell’ambiente digitale cfr.Perils of Practical
Internet Commerce: A Comprehensive View of First Virtual’s First Year, disponibile all’indirizzo
telematico <http://www.fv.com/company/index.htm??perils >.
operano in rete, che accettano questa forma di pagamento. La società olandese
Digicash ha scelto di utilizzare gettoni elettronici convalidati dalle banche: il
sistema prevede l’uso dicashcard intelligenti su cui vengono memorizzati tutti i
movimenti finanziari dell’utente.
L’utilizzo della moneta digitale si sta diffondendo anche nelle
“microtransazioni” o “micropagamenti”: molti siti che offrono servizi online ,
come SportsLine, che dà la possibilità di accedere a sessioni di discussione con
i big dello sport90, o siti che mettono a disposizione banche dati e informazioni
varie91 o offrono entertainment 92, basano il loro profitto sulla riscossione di
moneta digitale, trasferita dal “portafoglio elettronico” dell’utente.
Nella sua versione più semplice il sistema della doppia chiave permette di
verificare l’autenticità della banconota, mentre la sua versione più articolata e
complessa consente anche il totale anonimato nelle transazioni, realizzando a
livello virtuale la peculiarità del denaro reale, che garantisce la privacy e
l’impersonalità nelle transazioni economiche. Sono questi, insieme alla sua
praticità, gli indubbi vantaggi di questo sistema di fronte agli altri due sistemi di
pagamento online , quello basato sulla carta di credito e quello basato
sull’intermediario finanziario.
Secondo un sondaggio effettuato in Gran Bretagna, l’81,9 per cento degli
intervistati ha dichiarato di essere favorevole all’utilizzo della moneta digitale,
mentre l’8,8 per cento è sfavorevole93; l’indagine rivela anche che il 18,5 per
cento delle persone ha già effettuato almeno un pagamento in rete, soprattutto
con carta di credito (nel 43,9 per cento dei casi) o attraverso le formule
90C. Martin, op. cit. , p. 31.
91Ad esempio NLighN, un database di ricerca, che applica una tariffa ad ogni articolo
scaricato, o InfoAccess, che vende oltre dieci milioni di profili aziendali (attività dell’azienda,
numero impiegati, volume di vendite stimato) al prezzo di tre dollari l’uno.
92Rocket Science Games, in collaborazione con CyberCash, gestisce una sala giochi
virtuale.
93Il sondaggio è disponibile online all’indirizzo telematico <http://www.hyperion.co.uk/??? >.
elettroniche DigiCash (26,8 per cento) e First Virtual (12,2 per cento). Da
quest’inchiesta emerge un dato sociologico cruciale, e cioè che la maggioranza
delle risposte proviene da studenti universitari: la predisposizione alle transazioni
online dipende, più che dall’estrazione sociale o dalle disponibilità finanziarie,
dall’abitudine a muoversi con disinvoltura negli ambienti virtuali e dalla familiarità
nell’uso della strumentazionehi-tech .
Come rileva Carlini94, la moneta elettronica pone però dei problemi di
difficile soluzione, come quello dell’imposizione fiscale sugli incassionline basati
su questo tipo di pagamento, mentre le transazioni tramite carta di credito,
debitamente registrate, sono facilmente soggette ad essere fiscalizzate.
Probabilmente, almeno nel futuro prossimo, la maggior parte delle aziende
continuerà a seguire i metodi tradizionali di gestione del denaro: infatti,
essendoci ancora delle incertezze su quali saranno gli standard del futuro, molte
aziende hanno deciso di aspettare, mentre altre, le più aggressive e audaci,
sfidano il mercato tentando strade poco battute: in fondo, la regola della Rete
“first come, first served” (“chi primo arriva viene servito”, con riferimento alla
precedenza nel traffico dei pacchetti di bit ) è valida anche nel business online.
Il commercio online
Secondo i reportage sensazionalistici dell’informazione cartacea l’
Ecommerce , cioè l’acquisto e la vendita di beni e servizi,virtuali , cioè che
hanno a che fare con l’immaterialità deibit e godono di vita propria solo nel
ciberspazio, e materiali, è destinato a rappresentare la frontiera delle future
94F. Carlini,op. cit., 1995, pp. 227 e segg.
relazioni economiche, per cui si acquisteranno merci o informazioni entrando in
mall virtuali, e pagando con moneta digitale.
A parte l’enfasi e il tono iperbolico deimass media , sicuramente il mercato
online avrà uno sviluppo impetuoso, e il fatto che l’Internet non sia ancora un
ipermercato compiuto è dovuto più a fattori strutturali, politici e culturali, cioè
all’ampiezza di banda, ancora troppo limitata, che rende lente e tortuose le
connessioni, alle tariffe praticate dalle compagnie di telecomunicazioni e alla
relativamente scarsa alfabetizzazione informatica, che a un limite funzionale del
mezzo in sé.
A ogni modo, soltanto nel 1996 il complesso delle transazioni commerciali
che hanno viaggiato sulla Rete ammonterebbe da un minimo di 530 milioni di
dollari, secondo le stime della Forrester Research, ad un massimo di 1200
milioni di dollari, stimati dalla Jupiter Communication95, cifre non proprio
irrilevanti, considerando che si tratta di semplici pionieri che stanno battendo
strade inesplorate e che il vero sviluppo commerciale della Rete deve ancora
arrivare.
Le stime salgono vertiginosamente per il 1997, con un forte picco per il
periodo natalizio, attestando una maggiore fiducia degli utenti di rete verso gli
strumenti telematici e i nuovi standard di sicurezza per i pagamenti online : la
Forrester Research ha stimato, escludendo le vendite di auto e di proprietà
immobiliari, anch’esse in crescita, che le transazioni commerciali in rete hanno
raggiunto nello scorso anno un fatturato di 2,4 miliardi di dollari96, quasi cinque
volte quello dell’anno precedente (sempre secondo la stessa azienda di
rilevamenti sul Web), mentre secondo l’altra casa specializzata in questi servizi,
95E. Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento de “la Repubblica”
del 30 ottobre 1997, p. 12.
96E. Visconti, Babbo Natale viaggia on line, “AliBabà” n. 28, inserto settimanale de “il
Manifesto”, 3 dicembre 1997, p. IV.
la Jupiter Communications, il totale della merce venduta online sarebbe
addirittura superiore, ammontando a 2,6 miliardi di dollari.
La percentuale degli stessi consumatori che prediligono il mezzo telematico
per i loro acquisti è notevolmente aumentata: anche se l’incremento delle
transazioni commerciali online non ha seguito lo stesso trend dell’espansione
della Rete e dei suoi utenti, è stato comunque apprezzabile: i netsurfer che nel
1995 utilizzavano l’Internet per il loro shopping erano il 19% del totale,
percentuale che oggi è salita al 39% (dati Nielsen97).
La diffusione esponenziale della connettività ha spostato il consumo
elettronico dalla cyber élite iniziale alle famiglie: gli analisti prevedono che nel
giro di una decina d’anni circa il venti per cento degli acquisti delle famiglie
americane saranno effettuati in rete98.
Nella sua versione commerciale l’Internet assomiglia a un enormesuq , uno
di quei mercati arabi, come quello, grande e famoso, di Marrakech, in cui si
vende di tutto, dai beni di prima necessità alle futilità più improbabili99, dai
gadget all’alta tecnologia; gli ambienti virtuali in cui sono contestualizzate queste
attività di compravendita assumono la conformazione di un enorme e labirintico
mall , un centro commerciale onnicomprensivo, o di una bottega specializzata,
che si rivolge a una clientela di nicchia, che riproduce la relazione diretta dal
produttore al consumatore.
Il fattore unificante è dato dal livello inferiore dei prezzi dovuto
all’annullamento della mediazione distributiva e dall’agevolazione di forme di
produzione e di pagamento just in time; molte aziende hanno incrementato
notevolmente i loro fatturati attraverso l’Internet, soprattutto le piccole imprese,
97E. Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento de “la Repubblica”
del 30 ottobre 1997, p. 12.
98Ibidem .
99La metafora si riferisce alla estrema eterogeneità dei prodotti che si possono acquistare in
rete, e non certo alla loro tipologia, che nella maggior pare dei casi non ha nulla a che
vedere con le merci, di fattura artigianale, che vengono vendute nei suq.
che non hanno un sistema distributivo strutturato, e che in questo modo
abbattono i costi della distribuzione e acquisiscono un bacino di utenza
infinitamente più ampio del loro target usuale, che è locale, o le imprese che
producono beni particolari che incontrano una domanda massiccia presso i
navigatori telematici, come i produttori di hardware o d i software: la Dell
Computer nel 1995 registrava introiti pari a circa un milione di dollari al giorno
solo grazie alle vendite attraverso la Rete100, fatturato che in soli due anni è
raddoppiato101. Oracle 7, prodotto tradizionale della omonima software house, è
stato commercializzato principalmente in rete, strategia che consente di
distribuire i propri programmi in tutto il mondo con la massima rapidità e
raggiungendo i maggior numero di clienti possibile: il prodotto è prelevabile dal
Web server della Oracle e concesso in prova gratuitamente per un periodo di
novanta giorni. Soltanto nel primo anno sono state scaricate duecentomila copie
del programma, e circa metà degli utenti si sono registrati. In questo caso la
politica promozionale della Oracle non si è basata sull’appeal del marchio,
quanto sul valore in sé del prodotto e sulla possibilità di testarlo gratuitamente,
imput principale ad avviare il ciclo di vendita. La stessa strategia di diffusione,
basata sul prelevamento gratuito del software e sull’uso delWeb come canale
distribuivo a livello mondiale, senza costi di intermediazioni e rivendite, è stata
seguita con successo dalla Netscape, che è riuscita in tal modo a conquistare il
75% del mercato dei browser .
Le società di hardware
e software beneficeranno soprattutto dello
sviluppo delle transazioni business-to-business, cioè con le imprese, che in
100E. Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento de “la Repubblica”
del 30 ottobre 1997, p. 12.
101Tra le voci di spesa che hanno maggiormente incrementato il fatturato totale del
commercio online per il 1997 ci sono i nuovi PC venduti esclusivamene in rete a prezzi
inferiori ai 1000 dollari da case come Compaq, Dell e IBM: i prezzi così bassi, fattore di tale
successo commerciale, sono dovuti al risparmio sui canali della mediazione distributiva, reso
possibile dal commercio elettronico; Cfr. E. Visconti, art. cit.
questo settore riceveranno un grande impulso proprio dalla crescita dell’Ecommerce.
Per volume di affari, dopo i prodotti informatici troviamo i servizi legati al
settore turistico e dell’entertainment , come la prenotazione di aerei, alberghi,
concerti e spettacoli, gioielli, fiori, libri e dischi.
Creor, un produttore di gioielli, ha aperto un sito102 dove offre monili in stile
etrusco e collezioni di designer italiani: gli utenti interessati possono compilare
un modulo, specificando il tipo di oro desiderato, le gemme selezionate e il
modello su cui si vorrebbe che fossero montate.
L’offerta di musica da acquistare in rete è particolarmente ampia: fino a
poco tempo fa c’erano due punti vendita online, CDnow 103 e M u s i c
Boulevard104, mentre oggi tutte le principali Major , come la Bmg e la Sony
hanno il loro sito in rete dove vendono i loro prodotti105.
Il commercio di libri è un altro settore che ha trovato nell’Internet una nuova
via di diffusione: Amazon, grande rivenditore di libri fondato nel 1994, è diventato
un cyberbookstore106 solo due anni fa, e in pochi mesi di attività ha convinto
decine di migliaia di persone ad acquistare libri in rete, offrendo un’amplissima
scelta - praticamente tutte le pubblicazioni in lingua inglese - disponibile al
pubblico in qualsiasi momento e a prezzi ridotti. La crescita del fatturato di
Amazon, da quando ha esportato la propria attività di rivendita nel ciberspazio,
ha seguito un trend del 34 per cento al mese, e del 3000 per cento all’anno107. Il
successo di questo sito, che registra mediamente un milione e seicentomila
102<http://www.creor.com/index.htm>.
103<http://www.cdnow.com>.
104<http://www.musicboulevard.com>.
105Addirittura i singoli artisti si organizzano autonomamente, quando sono anche produttori
di se stessi: per esempio Prince vende in rete il suo disco, “Crystall Ball”, che si può
acquistare all’indirizzo telematico <http://www.love4oneanother.com>.
106<http://www.amazon.com>.
107E. Assante, Il Cybermercato , in “Computer Valley” n. 5, supplemento a “la Repubblica”
del 30 ottobre 1997, p. 14.
contatti al giorno ed è uno dei più frequentati del W W W , si fonda sull’aver
compreso, e messo in pratica, il principio comunitario della Rete: Amazon, prima
di essere un punto vendita virtuale, è una comunità di utenti-lettori che si
incontrano e discorrono tra loro e usufruiscono dei servizi gratuiti predisposti nel
server del sito (saggi, biografie, incontri online con gli autori ecc.).
Addirittura un settore come quello alimentare, tradizionalmente legato a un
approccio tattile e immediato, ha trovato la sua nicchia nel ciberspazio: la
Peapod, una società con sede nell’Illinois e una filiale nell’area di San Francisco,
offre un servizio di vendita online di generi alimentari.
I suoi fondatori, avendo letto da una statistica che il 60 per cento dei
consumatori non fa mai acquisti nei negozi di frutta e verdura, hanno avuto
l’intuizione di attirare la domanda di quel 60 per cento di potenziali clienti108.
Hanno stretto così un accordo con la Jewel Food Store di Chicago e poi con la
Safeway di San Francisco, due operatori della grande distribuzione: in poco
tempo la Peapod aveva raggiunto, tra l’Illinois e la California, tredicimila clienti,
stabilendo un rapporto di fidelizzazione con i mercati locali fondato sull’alta
qualità del servizio. In questo caso il supermercato alimentare elettronico
risponde all’esigenza, particolarmente viva nelle aree urbane, di risparmiare
tempo, e un tal servizio a domicilio viene anche pagato profumatamente109.
A corredare il servizio di vendita vero e proprio ci sono una serie di servizi
accessori, come l’offerta di buoni- sconto, l’accesso aidatabase e ai cataloghi
di numerosi supermercati ( e quindi la possibilità di una valutazione comparativa
dei prezzi dei vari prodotti), l’accesso a informazioni di tipo dietetico-alimentare,
la possibilità di ordinare i prodotti in base a vari criteri come il prezzo o categorie
dietologiche (calorie, grassi, proteine ecc. ) che mirano a fidelizzare i potenziali
108C. Martin, The Digital Estate , McGraw-Hill, 1997 (trad. it. L’era digitale, McGraw-Hill,
Milano, 1997, p.73).
109L’originaria tariffa di abbonamento, pari a 29,95$, è stata eliminata, ma sono ancora in
vigore la tariffa mensile di 4,95$ e l’addebito di 7,95$ per ordine più il 5% sul totale degli
acquisti.
clienti e a stimolare una dinamica “comunitaria”. Difatti, qualsiasi sia il prodotto o
il servizio offerto o anche semplicemente pubblicizzato, l’intento primo
dell’operatore economicoonline è quello di creare una comunità intorno al
proprio business , offrendo dei servizi gratuiti, con cui si rafforza un legame,
determinando un processo di identificazione tra utente-cliente e marchio, e al
contempo facendo un’operazione di immagine. Come hanno fatto i siti di alcuni
produttori e fornitori di aragoste, dove, oltre alla possibilità di effettuare un ordine
con la garanzia di ricevere la consegna a domicilio entro le ventiquattro ore, si
forniscono ricette e un bollettino di informazioni spedito direttamente nella
mailbox di ogni cliente110.
Rileva giustamente Chuck Martin:
Oltre a mettere a disposizione dei consumatori uno strumento che
consente di risparmiare tempo prezioso, le aziende possono anche
creare nuove comunità tra gli utenti . La consegna a domicilio è legata
alla capacità dell’azienda di diventare parte della vita sociale del
consumatore. Questo particolare aspetto rende il Web più simile alle
vecchie piazze di paese piuttosto che al moderno centro commerciale. Le
persone fanno la spesa e conversano, condividono esperienze e
spendono soldi. I servizi a valore aggiuno necessari per promuovere
queste comunità danno alle aziende l’opportunità di creare relazioni
profonde e stabili con i clienti.111
In questi servizi di vendita elettronica non c’è nessuna struttura fisica in cui
si svolge la transazione, se non un server di rete, e il servizio offerto consiste
nel far incontrare la domanda e l’offerta.
L’occasione di risparmiare, molla che induce all’acquisto di un bene anche
superfluo, è alla base dell’idea del “buono-sconto”, incentivo che ha trovato
spazio anche sul Web, dove anzi questa pratica è molto diffusa: Money Mailer,
che negli Stati Uniti distribuisce ogni settimana buoni- sconto a più di cento
110Ibidem.
111Ibidem.
milioni di famiglie, ha aperto un proprio sito Web, dove offre un servizio,
denominato H.O.T., di distribuzione gratuita di milioni di buoni-sconto di prodotti
e servizi a diffusione locale, regionale e nazionale.
Questa pratica di marketing ha incontrato il favore dell’utenza dell’Internet,
tanto che il ventaglio dei buoni-sconto disponibili su rete è in espansione: per
esempio, in occasione dei giochi olimpici del 1996 ad Atlanta, la Reebok ha
lanciato una serie di buoni-sconto globali destinati ai mercati di Taiwan, della
Corea e di Hong Kong, oltre che spendibili nella sede centrale di Atlanta.
La fluidità e la flessibilità della Rete risultano particolarmente funzionali a un
tipo di commercio estemporaneo che colga in modo immediato gli umori del
mercato. Un certo prodotto viene commercializzato a tempo determinato, cioè
finché dura la domanda: il commercio temporaneo rappresenta in questo modo
l’alternativa postfordista, flessibile al mutare della domanda, ai modelli
commerciali tradizionali incentrati sull’offerta a lungo termine.
In Italia l’incidenza economica delle transazioni in rete è meno accentuata
che in America: sono comunque più di seimila le aziende che hanno aperto siti
sul Web, anche se solo una sparuta minoranza offre le proprie merci
direttamente online, i più limitandosi a una promozione commerciale e di
immagine112. Si tratta in questo caso di vetrine elettroniche dove le società,
grazie alla multimedialità, mettono in mostra i loro prodotti e offrono un servizio di
customer care, uno spazio d’incontro tra clienti e azienda produttrice, che offre
supporto online rapido e diretto.
L’esperienza più importante di commercio elettronico in Italia è quella
rappresentata dal Cybermercato di Italia On Line, creato da Olivetti Telemedia
nel febbraio del ‘96, che ha un’offerta di oltre ventimila beni, dai libri, agli articoli
da regalo, ai CD-ROM, ai prodotti gastronomici, ai PC 113. L a f orma di
112E. Assante, art. cit.
113Ibidem .
pagamento avviene, a discrezione del cliente, online , tramite carta di credito,
oppure alla consegna, in contanti o tramite assegno114.
Un altro circuito italiano di acquisti compleamente online è nato all’inizio
del 1997 su iniziativa della CM Telecommunications, e ha demandato alle banche
la funzione di distributori commerciali, nonché di garanti delle transazioni
finanziarie115, che avvengono completamente online tramite carta di credito.
Chuck Martin prevede che non appena gli utenti avranno preso familiarità
con le procedure dello shopping online , assisteremo alla piena e massiccia
diffusione del commercio elettronico e dell’uso della moneta digitale per i grandi
e piccoli acquisti116: questa previsione è fondata su un dato di fatto, e cioè
l’impegno da parte di istituti bancari e finanziari, fornitori di tecnologie per i
pagamenti, produttori di software , società di carte di credito, che hanno siglato
numerose alleanze per risolvere il problema della sicurezza, e sulla constatazione
intuitiva che, in una civiltà sempre più urbanizzata e congestionata, la possibilità
di risparmiare tempo e denaro sarà un’esigenza sempre più avvertita.
I prezzi delle merci vendute online sono inferiori a quelli della rivendita al
dettaglio, anche se vi vanno aggiunte le spese postali e di spedizione - che
possono diventare ingenti nel caso dell’acquisto dikit completi di prodotti hi-tech
- e tutte le tasse e i dazi doganali.
Si prevede che entro il nuovo millennio il mercato del commercio elettronico
su scala globale raggiungerà i 775 miliardi di dollari, di cui 7 miliardi
rappresenteranno micropagamenti.
114Intervista ad A. Amoroso, direttore marketing gruppo Rinascente, in “Ingenium” n. 21, 21
dicembre 1996, p. 110.
115B. Croce, Alla conquista del Web. Da Internet a businessnet, in “Ingenium” n. 21, 21
dicembre 1996, p. 9, e intervista a S. Pula, direttore commerciale di CM Telecommunications,
in “Ingenium”,cit.
116C. Martin, op. cit. , p.203.
Il terziario del futuro: i servizi in linea
L’Internet è diventata anche lo strumento attraverso cui operano molte
società di servizi, da quelli legati al turismo, a quelli legati allo spettacolo, a quelli
legati alla merce informazione , come i servizi personalizzati fondati sulle
tecnologie push : è proprio quest’ultimo il settore dove si esplicano più
compiutamente le potenzialità interattive e comunicative della Rete, e che
costituisce il vettore d’avanguardia dei nuovi servizi digitali.
La Internet Profiles di Palo Alto, California, detta più semplicemente I/PRO,
può essere assunta come paradigma della produzione di nuovi servizi legati al
Web: fondata nel 1995, in meno di un anno è divenuta la principale azienda
fornitrice di servizi e software per il calcolo e l’analisi sull’uso dei sitiWeb.
L’azienda, che impiega ormai ottantacinque persone, ha stretto un’alleanza
strategica con la Nielsen Media Research, impresa di sondaggi nota per i
rilevamenti dell’audience televisiva117, e la EIT, un fornitore di tecnologie Web
impegnato nello sviluppo di standard commerciali sull’Internet; tra i clienti
dell’azienda figurano Microsoft, che ha commissionato allaI/PRO l’analisi dei dati
relativi al lancio di Windows 95, e CompuServe, Sun, Netscape e Yahoo!, ma
anche Ziff-Davis e Playboy. Il suo successo deriva da un’intuizione felice, quella
di aver individuato un problema che, con lo sviluppo commerciale della Rete, si
avviava a diventare di primaria importanza, e cioè la domanda di un sistema di
analisi digitale capace di memorizzare ed elaborare dati di ogni tipo.
Così viene presentata l'attività aziendale:
117Tra le altre cose, ha realizzato due importanti studi sulla demografia della Rete.
Il gestore potrà capire come e da chi il suo sito è stato usato. Il
sistema I/Pro consente ai pubblicitari e coloro che acquistano spazi sui
media di determinare i siti ottimali per trasmettere i loro messaggi.118
La I/Pro ha messo cioè a punto un sistema di rilevazione per individuare
chi accede a un sito. Per un' informazione in dettaglio ha creato I/CODE, un
sistema che procede all'autoregistrazione una volta per tutte, vincolato al rispetto
della privacy 119 degli utenti che si sottopongono a questa capillare registrazione.
Il fatto di non disporre di un modello commerciale ben definito alla lunga si
è rivelato un requisito positivo per il management dell’azienda, consentendo una
maggiore flessibilità di fronte al mutare delle richieste di mercato. Infatti, come
molte altre imprese legate al Web, la I/PRO ha aggiustato la propria strategia
commerciale sul campo anziché progettare e mettere a punto il prodotto
anticipatamente al suo lancio sul mercato, secondo le strategie seguite dalle
grandi imprese tradizionali: Martin rileva in questo una delle peculiarità di quella
che lui chiama nuova era digitale , mentre altri autori120 lo riconducono alla
matrice organizzativa dell’impresa post-fordista, fondata sulla lean production e
sul just in time . In questa prospettiva i cambiamenti in direzione di una sempre
maggiore flessibilità vengono visti come il portato più evidente del “cambio di
paradigma”121. S i t r a t t e r e b b e d i u n n u o v o m o d o d i p r o d u r r e , d i c u i
l’informatizzazione sarebbe solo uno dei connotati, e nemmeno quello fondante:
la produzione di servizi online costituirebbe un settore di un’economia perlopiù
materiale , e non la punta leader di una nuova economia immateriale che
avrebbe nella virtualità del ciberspazio il suo contesto più proprio.
118R. Staglianò, op. cit. , p. 57.
119Il regolamento stabilisce che i siti che implementano I/CODE si impegnano a rispettare la
privacy dell'utente finale, trattenendosi dallo spedire lettere o e-mail ai membri I/CODE senza
il loro esplicito permesso, e a non trasferire o rivendere informazioni ad altre compagnie.
120Tra questi Revelli (saggio contenuto in P. Ingrao e R. Rossanda, Appuntamenti di fine
secolo , Manifestolibri, Roma 1995), P. Ingrao e R. Rossanda (op. cit. ) e M. Agostinelli
(Tempo e spazio nell’impresa postfordista, Manifestolibri, Roma 1997).
121Cioè della transizione dall’economia di scala, fondata sulla grande fabbrica fordista, rigida
e gerarchizzata, al nuovo modello denominato postfordista .
Mentre le imprese tradizionali - possiamo dire le grandi fabbriche strutturate
sul modello fordista - seguono un iter teso a garantire azionisti e proprietari,
nell’epoca postfordista, caratterizzata da cicli produttivi veloci e da una domanda
non più estendibile su una scala potenzialmente infinita, la strategia di
perfe z i o n a m e n t o
del prodotto coincide con quella della sua
commercializzazione, e il prodotto viene sperimentato direttamente sul mercato,
affinché le migliorie apportate in itinere seguano in modo più aderente le
richieste dell’utenza.
Lo stesso procedimento viene seguito dai produttori di software c o n
l’immissione della “versione beta” di un nuovo programma, che viene provata
gratuitamente e poi perfezionata a seconda dei suggerimenti e delle indicazioni
relative agli eventuali punti di forza e debolezze emersi nell’uso.
Complementare al servizio offerto dalla I/PRO di San Francisco è quello
offerto da operatori che svolgono in rete la funzione delle tradizionali agenzie
pubblicitarie, cioè sono deputati a promuovere un prodotto o un servizio online .
Anche questo servizio è molto richiesto da chi intraprende un’attività
commerciale sul Web: una delle imprese più affermate in questo campo è la
SiteSpecific, nata in occasione della campagna della Duracell, che affidò a colui
che sarebbe divenuto il suo fondatore - che in quel momento collaborava con
un’altra agenzia interattiva- la commessa per organizzare e promuovere la sua
presenza sul Web.
La campagna riscosse un grande successo in virtù dell’originalità
dell’impostazione e della creatività dei moduli espressivi: i siti la cui utenza
coincideva approssimativamente con i mercati a cui intendeva rivolgersi la
Duracell vennero disseminati di pile, ma queste non si configuravano come icone
pubblicitarie tradizionali che, poste sulla home page di un sito, una volta
selezionate e cliccate, visualizzano immagini e rimandano informazioni sul
prodotto, bensì apparivano come il sostrato strutturale della pagina, che, quando
si cliccava un’immagine, si capovolgeva, rivelando una serie di circuiti elettrici
alimentati da pile Duracell.
Oltre alla pubblicità interattiva la SiteSpecific svolge altre attività sul Web,
considerato una fonte preziosa per creare nuovi strumenti di lavoro: ha
predisposto un calendario elettronico, un sistema di gestione della contabilità,
tutti prodotti software vendibili ad altre agenzie di pubblicità; inoltre offre servizi
complementari a quelli pubblicitari, come ricerche dei mercati potenziali, sviluppo
e test di prodotti, analisi di fedeltà della clientela ecc.
Una società che vende spazi pubblicitari, svolgendo attività promozionali
molto mirate, è la DoubleClick, nata dalla fusione di due società che operavano
nello stesso settore, quello della promozione: Double Click vende agli inserzionisti
la sua tecnologia per organizzare campagne mirate a categorie di utenti
individuate in base a diversi criteri.
Martin vede il Web come la fibra connettiva che collega milioni di individui,
ciascuno dei quali è in ogni momento un consumatore: quest’intuizione è alla
base dell’eccezionale sviluppodei servizi rivolti a gruppi individuati da interessi
molto specifici o addirittura ad personam ; la struttura sociale della Rete,
articolata nelle comunità virtuali descritte puntualmente da Reinghold, viene
messa a profitto per coagulare aggregazioni di utenti considerati nella loro veste
di consumatori di una certa tipologia di prodotti o di servizi: infatti si formano
spontaneamente comunità di persone sulla base di un interesse comune, e per
chi voglia intraprendere un business in rete, è sufficiente individuare il servizio
appropriato da offrire loro sulla base dell’interesse che condividono, che è in
definitiva la categoria che definisce la nicchia: insomma le comunità virtuali
hanno un valore sociale che può divenire fonte di valore commerciale,
opportunità di creare valore aggiunto122, e il successo delle aziende online
122E’ l’ana
l isi, proposta a fondamento di un manifesto di una nuova generazione di
imprenditori, di A. Armstrong e J. Hagel III, Net Gain, Harvard Business School Press, 1997.
dipende dalla loro capacità di “trasformare i clienti in comunità e le comunità in
clienti”123.
Un esempio di questo genere è rappresentato da Women’s Wire,
un’azienda di San Franciscoche gestisce una serie di siti dedicati alle donne124,
e che, avendo individuato la specificità di alcuni interessi tradizionalmente
femminili, promuove aree di discussione (forum e chat ) dedicate al lavoro, alla
carriera, alla salute, alla casa, alla bellezza, ai bambini ecc., raccogliendo
pubblicità da Levi’s e Revlon.
Rivolta esplicitamente all’aggregazione di comunitàonline fondate su un
senso di appartenenza collettiva, principio basilare della vita telematica, è la
strategia di un’azienda della Silicon Alley, la iVillage, che su America Online
gestisce siti rivolti a gruppi di persone aggregate in base a un interesse
condiviso.
Uno di questi è ParentSoup, un sito rivolto ai genitori, dove chiunque può
intervenire ponendo questioni o dando suggerimenti: il contenuto è prodotto
direttamente dagli utenti e il servizio è finanziato da grandi gruppi come MGM,
Nissan, Starbucks e Toyota.
Un servizio che sta diventando egemone con la diffusione delle informazioni
in tempo reale è quello degli annunci personali in linea, più immediato e semplice
del sistema tradizionale degli annunci a mezzo stampa: una delle aziende leader
in questo settore è la Electric Classfield, che ha creato Match.com, un servizio di
annunci personali in linea interattivo e multimediale, che solo nel primo anno di
attività ha raggiunto il traguardo di ottantamila abbonati. I manager d i
quest’impresa sapevano che prima di poter applicare delle tariffe sugli
abbonamenti dovevano raggiungere la cosiddetta “massa critica” di utenti, cioè
123S. Campanella, Le aggregazioni a valore aggiunto, in “Alì Babà” n.17, inserto de “il
Manifesto” del 17 settembre 1997, p. IV.
124Oltre al suo sito Web, gestisce alcuni spazi su circuiti commerciali come CompuServe e
Microsoft Network.
un nucleo consistente di utenza stabile che avrebbe costituito il valore aggiunto di
un servizio siffatto: il servizio fu quindi inizialmente gratuito, aggiornato
continuamente con il profilo dei nuovi abbonati, fino a quando venne introdota
un’iscrizionea pagamento.
La Electric Classfield gestisce anche un servizio di annunci economici in
linea che sfrutta pienamente le potenzialità tecnologiche e interattive della Rete:
l’azienda applica una tariffa per ogni transazione effettuata, ricavando un utile
ogni volta che un acquirente e un venditore si scambiano un messaggio di posta
elettronica o concludono un affare.
Un’altrobusiness focalizzato su un mercato di nicchia è quello messo a
punto dalla Independent Film Channel, che si è alleata con la 777-Film per
fornire gli elenchi dei film in programmazione regione per regione, offrendo agli
utenti che si collegano la possibilità di vedere quali film vengono proiettati nei
cinema locali, visionare i trailer ed eventualmente prenotare i biglietti.
Tra i vari servizi, quello delle spedizioni ha trovato nel Net il suo supporto
principale: la Federal Express, società che gestisce il trasporto di “colli” da una
destinazione all’altra, è stata una delle prime ad aprire un sitoWeb e trasporta
ogni giorno più di 2,5 milioni di colli in 210 paesi tramite una rete propria,
Powership, e un sistema di gestione centrale molto efficiente, un data base in
connessione continua con i centri di smistamento regionali, a loro volta collegati
ai computer installati sui furgoni della compagnia. Si stabilisce così un flusso
continuo di informazioni, dal centro alla periferia, che segue tutto il processo di
spedizione fino alla consegna della merce; in questo modo la società consente ai
propri clienti di seguire la corrispondenza spedita: infatti è sufficiente indicare il
numero che si trova sulla ricevuta rilasciata dal corriere che ha prelevato il
pacco, e sul monitor compare l’ultima posizione registrata.
Anche il settore turistico e quello legato allo spettacolo hanno trasferito con
successo le loro attività in rete, specialmente nell’ambito delle prenotazioni e
dell’assistenza alla clientela, che ha sviluppato una interattività notevole. La Hyatt,
una catena di alberghi, ha creato un sito dove l’utente può visualizzare tutte e
l
informazioni relative alle proprietà del gruppo, con le offerte speciali e la
possibilità di effettuare prenotazioni online ; molte compagnie aeree offrono
online il servizio di prenotazione e scelta del posto, nonché prospetti informativi
su tutte le tratte coperte: tra queste, la American Airlines non solo fornisce tutti i
servizi di prenotazione aerea, compresa la possibilità di prenotare alberghi e
auto a noleggio, ma dispone di programmi che mirano a consolidare i legami con
la clientela, come aste di biglietti di prima classe, i cui proventi vengono devoluti
in opere di beneficenza.
Biztravel.com offre un servizio basato sull’uso di agenti intelligenti,
delegando molte funzioni ai clienti: vengono compilati dei moduli che riportano
varie informazioni, come la destinazione e alcune preferenze (a livello di cibo,
sport preferito ecc.), dopodiché gli agenti elettronici elaborano un pacchetto di
viaggio sulla base delle informazioni rilasciate dal cliente.
Anche le agenzie immobiliari, nonostante il probabile ridimensionamento
della loro attività di intermediazione dovuto alla diffusione della telematica, stanno
trovando nella Rete un mezzo di rilancio ed espansione della loro attività,
combinando servizi di ricerca con una serie di mappe interattive delle città e
consentendo agli acquirenti di consultare più data base .
Il Web si appresta a divenire un veicolo di sperimentazione, in vista di una
nuova espansione, anche per i servizi più tradizionali, come quelli assicurativi: il
Gruppo RAS, uno dei primi in Italia nell’offerta di servizi assicurativi e finanziari e
parte del Gruppo Allianz, primo in Europa in questo settore, sta studiando
l’eventualità di vendere pensioni integrativeonline, con la definizione di un breve
questionario interattivo che consenta di profilare soluzioni ad hoc per ogni
cliente, mentre un progetto ancora più semplice, dato il contesto della Rete,
sarebbe la fornitura di garanzie assicurative sui computer in uso. In ogni caso la
compravendita di servizi assicurativi online, richiedendo particolare affidabilità e
confidenzialità, sarà pienamente attuabile solo quando ci sarà piena garanzia
125.
dell’autenticità della firma elettronica dell’assicurato
L’impresa nella Rete
I primi siti commerciali risalgono al 1995 e inizialmente fornivano soltanto
informazione: la loro funzione era cioè esclusivamente quella di rappresentare
l’impresa nel nuovo ambiente telematico (missione aziendale,policy , biografie
d e i manager) e pubblicizzarne i prodotti. La ripercussione sulla struttura
produttiva e aziendale era limitata dunque al settore del marketing e della
pubblicità.
Poi nelle pagine Web delle aziende sono stati inseriti servizi come chat
room , forum , E-mail: il sito Web delle aziende diveniva in questo modo, oltre
che strumento di informazione e di promozione aziendale, una fonte di
conoscenza degli usi e delle abitudini del proprio segmento di utenti-consumatori
I siti successivi, quelli cosiddetti di “seconda generazione”126, non si
limitano a fornire soltanto informazioni sulla produzione e sulle iniziative
aziendali, ma offrono la possibilità di transazioni online , in genere vendendo un
prodotto o un servizio a chi visita il sito.
Il carattere transattivo di questi nuovi siti implica il mutamento strutturale
dell’organizzazione aziendale: offrendo un prodotto direttamente sul Web, dove
125Intervista a M. Arrighi, direttore commerciale del Gruppo RAS, in “Ingenium” n. 21, 21
dicembre 1996.
126In C. Martin, op. cit. , p.X.
tutto avviene secondo un modello sincronico, l’impresa vede innanzittuto mutare i
suoi tempi.
I cicli produttivi diventano estremamente veloci, e i prodotti vengono
immessi sul mercato prima di essere testati: sia la concezione e il lancio, che il
perfezionamento del prodotto avvengono in tempo reale, e revisioni e adattamenti
sono successivi al lancio stesso.
Poiché il Web, che è l’ambiente in cui queste imprese lavorano, subisce
un’evoluzionesenza soluzione di continuità, le aziende decidono di seguire il
cambiamento di pari passo per accumulare conoscenze, diventando parte
integrante della Rete e di questo processo evolutivo.
Martin sostiene che il mercato ha nei confronti di queste aziende un
atteggiamento benevolo, per cui l’utenza è incline ad accettare l’eventuale
aggiustamento di un prodotto già immesso sul mercato, come se fosse in fase di
prova, mentre un’impresa consolidata, che ha sempre operato secondo strategie
tradizionali, non si può permettere di verificare l’eventuale inadeguatezza del suo
prodotto, che lederebbe la sua immagine di affidabilità, minando la fiducia
dell’utenza; le grandi imprese tradizionali, quindi, sono costrette ad adottare
strategie meno flessibili.
Le nuove aziende che hanno impostato la loro attività imprenditoriale sul
Web operano in piena sintonia con l’ambiente telematico: il protocollo TCP/IP
rappresenta lo standard comune e lo strumento che consente la comunicazione
diretta e in tempo reale con il personale e la clientela. La SiteSpecific, per
esempio, è riuscita a sfruttare la diffusione delle intranet nelle imprese
statunitensi e a farne il cardine della propria strategia di marketing per entrare
in contatto con i potenziali clienti del servizio.
L’organizzazione interna non è strutturata secondo lo schema fordista del
line management , cioè di una struttura piramidale e verticistica, dove i ruoli
sono rigidamente prefissati in base alla gerarchia di comando, ma secondo
quello postfordista del team , cioè di una squadra , un gruppo dove i ruoli sono
fluidi e intercambiabili e l’apporto individuale, essendo svincolato da uno schema
formalmente determinato, si esprime in tutte le sue risorse.
Identificandosi totalmente con gli obiettivi dell’impresa,secondo il modello
toyotista, il lavoratore è assorbito nel ciclo produttivo anima e corpo, e questa
nuova posizione rende estremamente efficiente l’organizzazione del lavoro e
della produzione, fondata sulla cooperazione orizzontale anziché sul comando
verticale. Alla SiteSpecific i gruppi di lavoro vengono creati ad hoc in base alle
esigenze del cliente e continuamente rinnovati, in una flessibilizzazione
dell’organico funzionale alla filosofia produttiva deljust in time : un gruppo di
lavoro si costituisce per una specifica campagna, e non necessariamente
lavorerà, almeno nella stessa composizione, alla campagna successiva della
stessa impresa. In questo modo le risorse vengono allocate in modo
estremamente mirato laddove sono necessarie e in modo efficiente, per abolire i
tempi morti che inevitabilmente si verificano nell’attesa di fornire il servizio a un
dato cliente.
Le caratteristiche del Web, cioè la sua fluidità e flessibilità, si riflettono
sull’attività e sull’organizzazione di queste imprese:il modello commerciale non
può essere fisso e rigido, la crescita è in genere rapida e fulminea, si
stabiliscono alleanze con altre aziende che operano sulla Rete, link che si
rendono operativi anche nelle interconnessioni e nei rimandi della ragnatela
multimediale.
In un mercato caratterizzato da una crescita così elevata i vantaggi della
collaborazione superano quelli della competizione; l’alleanza con un’azienda che
presenta caratteristiche complementari si rivela fondamentale per crescere e
radicarsi nell’ambiente digitale: le aziende più giovani, per le quali la crescita si
rivela talvolta difficile, spesso cercano di stringere alleanze con imprese più
grandi, dotate di infrastrutture solide; per le aziende più grandi queste alleanze
sono utili perché le nuove realtà imprenditoriali sono più agili: questo fattore è
dovuto in parte all’età dei dirigenti, spesso neanche trentenni, e anche alla
mancanza di un’esperienza consolidata, all’origine di un atteggiamento più
audace, flessibile e incline alla sperimentazione. Secondo i dirigenti delle nuove
imprese che operano sul Web , le imprese consolidate, sia di grandi dimensioni
che di dimensioni medie o piccole, godono di un indubbio vantaggio rispetto
all’imprenditoria emergente, dovuto al fatto che dispongono di mezzi e risorse,
ma non lo sfruttano adeguatamente, perché si limitano a considerare la Rete solo
come un ulteriore mezzo di comunicazione per promuovere i marchi o i servizi
già esistenti nell’ambito delle attività tradizionali, e non colgono le m
i mense
potenzialità interattive del Net.
Anche i grandi gruppi danno vita a nuove società o consorzi per lo sviluppo
di contenuti interattivi online : s i t r a t t a d i partnership tra aziende con
competenze disparate e complementari, come i gestori di telecomunicazioni che
costituiscono una joint venture con i fornitori di contenuti. Esempi di questo tipo
sono Americast (Ameritech, Bell South, GTE, SBC, Disney) e Tele TV (Pacbell,
Ninex, Bell Atlantic, CAA)127.
La Rete viene percepita come ambiente altamente competitivo; è quindi
fondamentale il tempismo che consente di anticipare le mosse strategiche dei
concorrenti sul mercato: è per questo che le aziende entrano sul mercato il
prima possibile, anche se il prodotto non è perfezionato. Anzi la fase di
perfezionamento si basa sull’apporto critico dell’utenza, che nel momento stesso
in cui ricorre a un prodotto o a un servizio, lo testa.
Le procedure di bilancio e i piani quinquennali tipici delle grandi aziende
non possono essere applicati alle nuove aziende in rete: i piani coommerciali
127S. Santini, Internet e Intranet. Nuovi scenari per le strategie aziendali , in “Ingenium” n.
21, 21 dicembre 1996, p. 25.
vengono considerati semplicemente un parametro di riferimento, da aggiustare
continuamente.
Grazie alla telematica il mercato è diventato globale a tutti gli effetti: sulla
Rete è possibile vendere qualsiasi prodotto e servizio a chiunque, e una fabbrica
di utensili del Connecticut può vendere i suoi prodotti in Cina o in Russia. Ogni
azienda che accede al Web entra nel mercato globale: la portata dirompente di
quest’innovazione tecnologica si fa sentire soprattutto per le piccoleimprese,
dotate di scarsi mezzi e tradizionalmente operanti in un bacino di mercato
geograficamente limitato. Con l’Internet la globalizzazione dei mercati è effettiva
per tutti, multinazionali e piccole imprese.
Una trasformazione importante che riguarda le imprese che operano sul
Web è la scomparsa della figura dell’intermediario, che ospita e gestisce la
transazione, trait d’union tra fornitori e consumatori: la Rete consente la
comunicazione diretta tra chi offre un prodotto o un servizio e gli interessati, con
grande contrazione di costi.
Tuttavia la scomparsa di alcune figure professionali è accompagnata
dall’affermazione di nuove professionalità emergenti legate ai nuovi saperi: il
webmaster, per esempio, è una figura aziendale che ormai gestisce una
pluralità di attività, tra cui la definizione di una strategia aziendale per il Web, la
scelta delle opzioni tecnologiche per il server (architetture, collegamenti
Internet, ecc.), la gestione della programmazione HTML e la comunicazione al
CdA dei risultati raggiunti dall’azienda in rete. Questa nuova figura professionale
è ancora in via di definizione, e la sua progressiva evoluzione porterà
probabilmente alla sua progressiva integrazione nella compagine aziendale, dal
momento che di solito non fa ancora parte del settore sistemi informativi.
Le Intranet
Stiamo assistendo al delinearsi di un grande mercato virtuale,
un solo mercato finanziario, azionario, assicurativo mondiale,
accessibile istantaneamente da centinaia di milioni di risparmiatori; un
solo mercato editoriale e mediatico, per il software e per larghi settori di
servizi (dalla vendita di biglietti alle prenotazioni aeree...); profonde
trasformazioni pubblicitarie, di distribuzione.128
Attori di questo cambiamento sono le aziende informatiche e di
telecomunicazioni, i colossi dell’elettronica di consumo, come Siemens e Sony,
dell’entertainment , i fornitori di informazione, le banche e le società finanziarie;
ma oltre a questi grandi soggetti economici, migliaia di imprese di tutte le
dimensioni stanno facendo propria la tecnologia Internet sia creando un proprio
sito Web , sia dotandosi di reti interne a uso privato con protocollo TCP/IP,
denominate Intranet.
Infatti l’uso dell’Internet a fini aziendali è enormemente vantaggioso, pe
rché
le reti hanno un’articolazione globale e costi infimi, ma pone il problema della
sicurezza, in quanto un data base contenente l’elenco dei prodotti può essere
pubblico, mentre un archivio contabile o altre informazioni interne riservate
hanno bisogno di un sistema di sicurezza che dia garanzia da eventuali
violazioni esterne: la soluzione è offerta dalle Intranet, che usano un firewall di
sbarramento, che consente agli interni di navigare nella rete pubblica e viceversa
non permette agli esterni di accedere. Alcune aziende hanno collegato le proprie
Intranet all’Internet, altre al contrario, le hanno create a partire da reti chiuse
(LAN , reti locali) già esistenti.
Questo sistema di comunicazione aziendale o interaziendale ha incontrato
un successo addirittura superiore a quello della rete pubblica, se alla fine del
1995 oltre il 20% delle prime mille imprese USA per fatturato aveva adottato
128Articolo di G. Caravita tratto dal “Sole 24 Ore” e citato in B. Croce, Alla conquista del
Web. Da Internet a businessnet, “Ingenium” n. 21, 21 dicembre 1996, p. 6.
un’architettura Intranet, e si prevede che entro il 1999 la spesa per host
computer e software per Intranet sarà sei volte superiore a quella per le
applicazioni Internet129.
L’affermazione di queste reti private con protocollo Internet è dovuta al fatto
che il protocollo TCP/IP è compatibile con qualunque sistema operativo e
permette la comunicazione a distanza di qualunque computer, e rispetto alle
tradizionali applicazioni groupware
( software per la gestione del lavoro di
gruppo, molto usati dalle aziende), la tecnologia Intranet consente l’istallazione di
sistemi meno costosi130. L’adozione di tecnologie Internet per le reti aziendali
non è comunque esente da limiti, alcuni dei quali, dovuti allo stadio iniziale delle
applicazioni, sono superabili a breve o a medio termine, mentre altri sono più
strutturali e riportano al carattere originario del Web , concepito dall’èquipe di
Tim Berners Lee al Cern di Ginevra per la pubblicazione elettronica di documenti
multimediali, e quindi con una funzionalità focalizzata sull’accesso
all’informazione distribuita in rete (networked information ). Le tecnologie
Internet, in particolare il linguaggio HTML, sono perciò adatte al network
publishing in una rete aziendale, ma producono pagine statiche, in cui
l’informazione non può essere trattata e modificata in modo fluido, immediato e
interattivo, non essendo i server H T T P scalabili , cioè ricofigurabili
dinamicamente al modificarsi del carico di lavoro131.
Il nuovo paradigma telematico trascina con sé una nuova cultura,
imprimendo un cambiamento nella cultura aziendale e mettendo in discussione il
sistema di gerarchie e abitudini consolidate: è la cultura della comunicazione, del
129Ibidem, p. 7.
130S. Santini, Internet e Intranet. Nuovi scenari per le strategie aziendali , in “Ingenium” n.
21, 21 dicembre 1996, p. 27.
131Una parziale soluzione a queste carenze è offerta dall’introduzione del linguaggio di
programmazione Java; per una trattazione più specifica delle prospettive e degli sviluppi più
“tecnici” v. O. Viele, Si fa presto a dire Intranet, in “Ingenium” n. 21, 21 dicembre 1996, pp.
48-53.
confronto continuo con clienti e fornitori, della trasparenza dei processi
burocratici132; inoltre il sistema Intranet ha l’effetto di rafforzare la capacità di
controllo del centro aziendale sull’interaattività dell’impresa: le Intranet divengono
così uno dei pilastri della ristrutturazione organizzativa interna con funzione di
coordinamento.
Imprese a ramificazione nazionale o internazionale si sono dotate di uno
strumento per coordinare la fitta trama di transazioni quotidiane tra le centinaia
di agenti diretti e indiretti; molte delle aziende che hanno installato sistemi
Intranet hanno messo a disposizione la propria rete a clienti e fornitori per
accedere a informazioni sui prodotti e listini, o per monitorare le fasi del
processo produttivo, e hanno installato sui laptop o presso l’abitazione dei
dipendenti gli stessi sistemi groupware utilizzati in azienda, in modo che possano
svolgere il loro lavoro da una postazione remota , andando nella direzione della
creazione di work site alternatives.
Hewlett Packard dispone di una delle Intranet più estese del mondo, con
140.000 host che trasmettono più di cinque terabyte di informazioni al mese: la
nuova struttura comunicativa reticolare ha accelerato i cicli di produzione,
migliorato le relazioni con la clientela, reso fluide e veloci le comunicazioni tra il
management e il personale e immediato l’accesso dei dipendenti alle
informazioni aziendali.
La telematica è dunque uno dei fattori principali dei poderosi processi di
ristrutturazione aziendale che hanno segnato il cambio di paradigma, il
passaggio epocale dall’economia fordista a quella postfordista: uno dei cardini
del re-engineering, cioè della riprogettazione delle strutture, è l’outsourcing ,
ossia il ricorrere a forniture esterne laddove l’azienda non dispone di
competenze specifiche, snellendo la produzione e alleggerendo la struttura
132V. i casi dell’ENEA e della Camera di Commercio di Milano, i cui dipendenti hanno la
possibilità di controllare in rete in quale ufficio si trovi una pratica e a che punto sia dell’iter
burocratico.
aziendale. Il 40% delle prime 500 aziende di “Fortune” che hanno perso il loro
primato negli ultimi venti anni 133, h anno compiuto una virata strategica
concentrando le risorse sul proprio core business.
Emblematico è il caso dell’industria automobilistica, paradigma della
produzione fordista che ha dominato il ‘900, che produceva al suo interno tutte le
componenti dell’auto, fino agli accessori, mentre ora, nella maggior parte dei
casi, ha demandato ad aziende satellite la fornitura di varie componenti,
focalizzando le risorse sulle proprie competenze specifiche: le Intranet sono il
veicolo di coordinamento del lavoro dei diversi gruppi, sia interni che esterni
all’azienda, e in questo modo i fornitori lavorano in modo integrato come se i
diversi anelli della catena produttiva fossero localizzati all’interno della casa
automobilistica. In questo consiste la virtualità dell’azienda, nella segmentazione
della produzione e nella deterritorializzazione dell’impresa, che non è più
concettualizzabile nella grande fabbrica fordista radicata e identificata con il
territorio.
Dal momento che si prevede che a livello commerciale il volume maggiore
di affari sarà assorbito dalle transazioni business-to-business piuttosto che da
quelle con l’utenza di consumo (business-to-consumer ) 134, le Intranet, che di
questi processi transattivi si avviano a divenire il veicolo principale, acquisiranno
sempre più importanza, avviandosi a diventare una delle infrastrutture portanti
della extended enterprise, l’impresa che si estende oltre i propri dipendenti fino
a comprendere tutti i soggetti che compongono il sistema aziendale, fornitori,
clienti e consulenti. Come per le altre transazioni online, anche per lo scambio di
documenti via Intranet (fatture di pagamento, ordini, ecc.) si pone la questione
della sicurezza e quindi dell’impiego di firme digitali e sistemi crittografici: Bank
133M. Righetti, Azienda virtuale ed economia in rete. Un nuovo modello per fare business, in
“Ingenium” n. 21, 21 dicembre 1996, pp. 43-44.
134B. Croce, Alla conquista del Web. Da Internet a businessnet, in “Ingenium” n. 21, 21
dicembre 1996.
of America sta sperimentando con i Lawrence Livermore Laboratories135 la
prima applicazione EDI (Electronic Document Interchange) automatizzata, con
l’ausilio di firme digitali e sistemi di encriptazione136.
Advertising on the Net
Gli analisti americani sostengono la radicale trasformazione, la "distruzione
creatrice", per dirla con una categoria schumpeteriana, indotta dall'Internet, che
starebbe rivoluzionando l'intera società: da questo rivoluzione sarebbero emersi
una cultura digitale, una nuova economia digitale, financo un nuovo modo di
essere digitali e di relazionarsi che sarebbe la cifra antropologica della
nascente civiltà dei bit, contrapposta in modo quasi manicheo all'ormai
sorpassato mondo degli atomi 137, pesante, rigido e staticamente materiale.
Martin, per esempio, vede l’avvento di una nuova era digitale che sta già facendo
sentire i suoi effetti rivoluzionari anche nell’economia: la connettività di massa,
con investimenti miliardari nelle infrastrutture delle telecomunicazioni, sarà, con
la sua capacità aggregativa e trainante su scala globale, il vettore dello sviluppo
economico di una regione, svolgendo nel XXI sec. le stesse funzioni che nel XX
ha svolto l’apparato militare.
In tutte queste iperboli è facile rintracciare l'enfasi tipica di ogni periodo di
grandi trasformazioni, unita ad un determinismo tutto positivistico, per cui
135Laboratorio nazionale che fa capo al Department of Energy del governo USA.
136B. Croce, Alla conquista del Web. Da Internet a businessnet, in “Ingenium” n. 21, 21
dicembre 1996.
137N. Negroponte, op. cit.
un'innovazione tecnologica viene caricata di aspettative palingenetiche e vista
come motore di processi di radicali trasformazioni sociali.
In ambito economico le discontinuità qualitative sono in ogni caso molte,
soprattutto in alcuni settori basati sulla comunicazione, quali la pubblicità e le
politiche relative alla comunicazione aziendale, in cui i nuovi mezzi, e i relativi
linguaggi, hanno portato un cambiamento nelle strategie e nelle leggi interne a
questi ambiti per alcuni versi profondissimo.
Il cambio di paradigma è dovuto non tanto alla novità tecnologica della
trasmissione digitale dei dati e delle informazioni - che ha sostituito la
trasmissione analogica dei segnali elettrici o delle onde radio - quanto alla
peculiarità del nuovo modello di comunicazione, che è interattiva e diretta da
molti a molti.
La cesura sta qui, e in questa novità, tutta qualitativa, sta l'origine della
desuetudine dell’ analisi e della critica tradizionale dei mass media, che ha avuto
in McLuhan il suo capostipite: tramonta il timore - per lo meno quello fondato - di
un Grande Fratello e di un controllo unico, fonte dell'eterodirezione oltre che nel
modo di pensare anche in quello di consumare, e si prospetta la garanzia di una
pluralità delle fonti delle informazioni, che circolano orizzontalmente in un circuito
in cui ciascun destinatario dei messaggi si può trasformare in ogni momento in
mittente.
La pubblicità, con le reti telematiche, ha cambiato codici e strategie
consolidate in quasi ottanta anni di società dei consumi di massa, e, in virtù della
gratuità e dell'apertura del ciberspazio, assurgerà a pilastro basilare del sostegno
economico del content providing in rete: per mantenere un sito Web, la
promozione commerciale è il mezzo più efficace e meno rischioso, almeno
finché non verrà falsificato.l'assunto di Staglianò138, per cui l'utenza di rete
138R. Staglianò, Pubblicità interattiva. La pubblicità al tempo di Internet , Castelvecchi, Roma
1996.
raramente è disposta a pagare per accedere a un sito. In realtà quella che
Staglianò definisce come la "prima legge" della nuova economia digitale, che
chiama "webonomics", è mutuata da un articolo-manifesto apparso su Realise
1.0 e riportato da "Wired" del luglio '95, in cui l'autrice, Esther Dyson, sosteneva
che il contenuto, qualsiasi esso fosse, avrebbe fatto da pubblicità per altri servizi,
cioè sarebbe stato il veicolo di attrazione verso servizi e prodotti da vendere.
Le informazioni, distribuite gratuitamente, dovrebbero cioè attirare utenza
verso servizi collegati, per i quali si potrebbe chiedere una qualche forma di
pagamento.
La modalità alternativa di sostegno economico è che, una volta costituita la
massa critica di utenza di un sito, si vendano degli spazi pubblicitari a degli
sponsor.
La forma più semplice di pubblicità sul Web è quella rappresentata da un
banner , strumento visivo rettangolare posto sulla home page di un sito, che
riporta il logo di un'azienda, normalmente contenente il link con uno spazio
pubblicitario vero e proprio, di solito il sito dell'azienda stessa.
L'Internet non veicola solo comunicazione interattiva e non implica solo un
approccio di tipo attivo e funzionale: secondo un'esperta139 la possibilità di
stabilire una relazione con il pubblico di tipo consumer si deve proprio al fatto
che il Net non è solo e sempre interattivo. Nell'epoca del Web, colorato e
multimediale, la navigazione ipermediale in rete diviene spesso uno zapping di
tipo televisivo, e quest'approccio passivo rende la pubblicità online efficace.
Inizialmente le agenzie pubblicitarie creavano degli “striscioni” pubblicitari
digitali e li posizionavano sulle home page di moltissimi siti Web, cercando di
attirare l'attenzione degli utenti il più possibile: questa strategia promozionale era
focalizzata sul volume di traffico, all’incremento del quale sarebbe corrisposto un
139Andreina Mandelli, docente all'Università Bocconi di Milano, come riportato in R.
Staglianò, Comunicazione interattiva. La pubblicità al tempo di Internet , Castelvecchi, Roma
1996.
aumento delle probabilità che qualche utente cliccasse sul banner e accedesse
direttamente alle informazioni pubblicitarie.
Tuttavia i messaggi pubblicitari troppo invadenti e chiassosi non funzionano
in rete, poiché questa è un mezzo di attrazione, e il modello della pubblicità
televisiva e cartacea, che mira ad essere incisiva e a imprimersi subliminalmente
nell’inconscio dell’utente
-consumatore, non si può trasferire sul Web, che oltre a
essere un mezzo di comunicazione è un ambiente, un contesto relazionale, e in
quanto tale determinato anche dall’utente: quando furono disponibili agenti di
analisi del traffico Web si comprese che la strategia ricalcata sulla pubblicità
televisiva e cartacea non faceva i conti con la basilare differenza che nel
ciberspazio è l’utente che decide a quali contenuti e a quali informazioni
accedere; si è capito che bisognava quindi creare contenuti e informazioni
interessanti in modo da attirare i navigatori, che visitano siti commerciali per
accedere a contenuti (software, informazioni e servizi). Infatti sono gli utenti che
scelgono le informazioni da visualizzare, compresi anche i messaggi pubblicitari
e le icone promozionali, che debbono essere in grado di attirare l’utenza. E’ per
questo che Martin parla di “comunicazione attrattiva”140, in quanto la finalità non
è rendere il consumatore consapevole del marchio, ma indurlo a voler recepire le
informazioni che lo veicolano.
Il problema maggiore è quello di convincere i visitatori di un sito a ritornare,
catturando il loro interesse, e a trattenerli per un tempo sufficiente a convincerli
della validità del prodotto o del servizio offerto, essendo lo zapping nel
ciberspazio addirittura più frenetico e dispersivo di quello nell’etere.
Il grande vantaggio rispetto alla pubblicità sui media tradizionali, come la
TV generalista via etere, è la possibilità di una personalizzazione del messaggio,
che passa tramite la tecnologia push: nel momento in cui un utente riceve
gratuitamente un servizio informativo corredato da inserzioni pubblicitarie, queste
140C. Martin, op. cit. , p. 58.
risultano spesso personalizzate in base alle preferenze e ai consumi.dell’utente
In alcuni casi la personalizzazione dell'online advertising passa per il tipo di
pubblicità che viene proposta quando si accede a un sito: ogni volta che la
stessa persona si collega alla pagina Web contenente il banner in questione, un
programma appositamente predisposto cambia il logo dell'azienda da
sponsorizzare; è il tipo di pubblicità praticata dal sito Firefly, dove un agente
software memorizza le preferenze degli utenti e fornisce consigli personalizzati
nel campo dello spettacolo e della musica. Questo agente intelligente è anche lo
strumento di creazione di comunità, in quanto ha la funzione di mettere in
contatto utenti con gli stessi gusti musicali o cinematografici, che
comunicheranno in chat o forum. In questo caso i pubblicitari creano dei
messaggi ad hoc da indirizzare alle diverse categorie di utenti, individuate in
base a diversi criteri selettivi, come le preferenze nel campo dello spettacolo,
l’età, il genere, l’appartenenza geografica, il dominio ecc. In questo modo, dopo
aver definito il profilo dell’utente che si collega, l’agente esegue una ricerca nel
suo data base e invia solo i messaggi pubblicitari appropriati. Anche la CNET,
società multimediale che offre un servizio di TV tematica via cavo e di
programmazione su Web sulle tecnologie digitali, utilizza applicazioni sofisticate
per inviare determinati messaggi pubblicitari a segmenti di utenti con
caratteristiche comuni. La commercializzazione selettiva di un prodotto o di un
servizio rivolto ad un settore di utenza ben individuato e specifico risulta più
efficace rispetto alla pubblicità generica di alto profilo: la pervasività del Web e lo
sviluppo di agenti intelligenti hanno facilitato estremamente la diffusione di
prodotti e servizi online destinati a un’utenza di nicchia, in genere offerti da
piccole imprese nate sulla Rete.
L'interattività nella pubblicità implica un canale comunicativo tra l'azienda e i
potenziali utenti, con uno spazio aperto a suggerimenti, richieste di informazioni
e dettagli, problemi, accessibile all'utenza di rete, e una pronta ricezione da parte
del personale addetto dell'azienda: quello che, nel linguaggio di impresa, si
chiama customer care, e che, se organizzato con personale qualificato, e
articolato in più lingue, esige l'impiego di risorse notevoli. Viceversa, un
eventuale servizio scadente va a detrimento dell'immagine dell'impresa, e si rivela
quindi addirittura controproducente, come ha dimostrato il caso della Volvo141.
La casa automobilistica aveva aperto un bellissimo sito, in cui però il feedback
con l'utenza non era funzionale: l’effetto, lungi dall'incrementare la domanda di
auto, ha determinato un danno all'immagine aziendale.
Secondo la nostra esperta:
Un'impresa di successo funziona come un sistema aperto e
dinamico verso l'ambiente. Per poterlo essere ha bisogno di comunicare
con quest'ambiente; di poter cioè acquisire informazioni e feedback e di
poter ridisegnare dinamicamente i contenuti della propria offerta e del
proprio ambito competitivo in tempi molto brevi...142
Molti operatori mettono a disposizione servizi e informazioni come forma di
ricompensa per gli utenti che concedono informazioni personali sulle proprie
abitudini, i propri gusti, i propri consumi, pacchetti di informazioni che per le
agenzie di pubblicità risultano preziosissimi: ormai molti siti predispongono un
percorso di navigazione che prima di accedere a delle informazioni passa per la
registrazione di dati personali. In ogni caso l'offerta del servizio in cambio delle
informazioni non deve mai assumere la forma di uno scambio coatto, ma quella
di una scelta opzionale; l'utente, cioè, deve sentirsi ricompensato per fornire un
surp l u s informativo e non obbligato alla registrazione per accedere a
un'informazione; ne fa fede la storia della versione elettronica di "Wired"143, che
all'inizio aveva previsto un accesso condizionato a una registrazione minuziosa,
e, preso atto di una considerevole contrazione del numero dei visitatori, nonché
delle rimostranze degli inserzionisti pubblicitari, ha optato per una registrazione
141R. Staglianò, op. cit. , p. 23.
142A. Mandelli, cit.
143R. Staglianò, op. cit. , pp. 25-26.
facoltativa, ricompensata da un servizio personalizzato in virtù del quale, grazie a
un sistema di memoria presente nel server, ogni visitatore, scegliendo l'opzione
delle novità, riceve ogni volta informazioni differenti, ossia quelle che non sono
state visualizzate nei collegamenti precedenti.
Le strategie di marketing più efficaci passano per l'offerta di software o di
servizi: grazie a questa formula il sito di Netscape risulta uno dei più visitati, dal
momento che i visitatori possono scaricare gratuitamente il browser, e questo ha
reso particolarmente appetibili, e dunque costosi, gli spazi pubblicitari disponibili
sulla home page della software house californiana. Nella classifica relativa agli
introiti dovuti alla pubblicità144 seguono Lycos e InfoSeek, le due compagnie che
gestiscono i motori di ricerca omonimi, che offrono gratuitamente un servizio
indispensabile per i netsurfer , mentre Jumbo ha creato un sito con 60000
software di tipo shareware per varie funzioni, dagli affari, ai giochi alla grafica,
disseminati di messaggi pubblicitari.
Il ciberspazio ha comunque stimolato la fantasia degli agenti pubblicitari e
dei fornitori di servizi: la Juno Online Services di New York ha deciso di offrire
un servizio gratuito di posta elettronica a chi è disposto a ricevere e a scrivere
messaggi che riportano il logo di uno sponsor; Geocities, invece, offre una
home page personale a chi si registra online, finanziandosi con la pubblicità e
con gli introiti provenienti dai clienti che hanno aperto siti commerciali.
L'attrattiva maggiore è però esercitata dai contenuti informativi: esemplari,
per le informazioni offerte e i servizi collegati, sono i siti di HotWired145, versione
digitale della rivista "Wired", "Time"146, "The Economist", siti che raccolgono
milioni di dollari di pubblicità.
144Internet Advertising a cura del Center for Digital Multimedia - Center for Advanced
Technology della New York University, disponibile all'indirizzo Internet
<http://found.cs.nyu.edu/found.a/CAT/misc/welz/internetmm/10ads/ads5.html>.
145<http://www.hotwired.com>.
146<http://www.pathfinder.com> .
Interessante è il caso della prima versione elettronica di "Usa Today", che
prevedeva addirittura un software apposito per accedere ai contenuti della
rivista. I responsabili del settore marketing e promozione avevano però previsto
un abbonamento mensile di dodici dollari e novantacinque per tre ore
complessive di consultazione, e una tariffa di due dollari e cinquanta per ogni
ora supplementare di collegamento. Il risultato fu fallimentare e costrinse il
management a rendere gratuita la fruizione della rivista online 147.
Un modo per attirare utenti-consumatori è quello delle ricompense o dei
premi in palio, mutuato sia dalla TV che dalla carta stampata: quando il cliente
esegue molte delle operazioni direttamente, le aziende offrono una forma di
incentivo, come American Airlines che dà la possibilità di vincere due biglietti di
prima classe per una destinazione a scelta, o la I/Pro che ricompensa gli utenti
che forniscono informazioni con premi in denaro e vacanze a prezzi stracciati.
Una società californiana, la Play4Prizes, sta facendo ingenti profitti con il
gioco del puzzle da ricostruire, ritrovando le tessere sparse in rete: le
indicazioni iniziali sono elencate sul sito della Play4Prizes, e rinviano ai siti dei
quattro committenti che hanno stipulato un contratto di pubblicità. Per ogni visita
al loro sito, le società committenti devono corrispondere una cifra pattuita alla
Play4Prizes.
Una metodologia di promozione analoga è stata seguita dalla Swatch al
momento del lancio sul Web: l'evento promozionale era stato una caccia al
tesoro telematica, in cui l'oggetto da ritrovare erano i frammenti di un modello
prodotto in serie limitata, disegnato da un famoso videoartista coreano,
147Ci sono vistose eccezioni, come quelle rappresentate dal "Wall Street Journal" e dal "New
York Times", che riscuotono un abbonamento mensile per la fruizione della versione online :
in questo caso la qualità e il prestigio delle testate le rendono agli occhi dei lettori insostituibili
nel loro genere, valutazione che spinge anche a pagare la subscription , soprattutto fuori dai
confini statunitensi, dove risulta più difficile e costoso reperire una copia cartacea.
disponibile all’acquisto solo per quelli che avrebbero riempito un modulo via
Internet.148
Tuttavia la strategia più efficace per fidelizzare l'utenza è quella che fa
perno sulla creazione di un senso di comunità: il mezzo più diretto passa per la
predisposizione di aree di discussione asincroniche (i newsgroup) o in tempo
reale (le chat room), dedicate agli argomenti più vari: secondo un analista di
Forrester Research "la chat crea un cliente molto affezionato: sta più a lungo e
ritorna spesso...Entro diciotto mesi sarà difficile trovare un sito Web con qualche
ambizione che non abbia occasioni di chat integrate con i propri contenuti"149: le
sponsorizzazioni, corredate da banner colorati e intermittenti, sono adeguate al
contenuto discusso.
Resta la questione delle metodologie di rilevazione dell'afflusso di visitatori
di un sito Web: delle inchieste della Nielsen e del sistema della I/Pro si è già fatto
cenno, ma questi due casi non esauriscono l'ampio ventaglio di opzioni che
attualmente offre il mercato nell'ambito dello studio dei flussi che si muovono nel
ciberspazio.
La NetCount, una società di Hollywood, ha messo a punto un sofisticato
sistema, denominato AdCount, in grado di determinare in modo preciso sia le
esposizioni del banner (exposures o impressions o ad views), cioè quante volte
è stata vista l'inserzione pubblicitaria, sia le richieste (clicks on banners), cioè il
numero di coloro che hanno risposto positivamente allo stimolo cliccando sul
banner, nonché i click-throughs , ossia quante volte il link è attivato e cliccato
per raggiungere effettivamente il sito Web del committente150: grazie a questo
148R. Staglianò, op. cit. , pp. 42-43.
149Ibidem , pp. 45-46.
150Bisogna distinguere i clicks on banners o inquiries , che corrispondono a quante volte
una pubblicità viene cliccata, da quelli che in gergo vengono denominati click-throughs ,
ossia il numero di volte che un utente, attivando il link , si trasferisce effettivamente dal sito
del publisher (del fornitore di spazio pubblicitario) a quello dell'advertiser (del marchio
pubblicitario): infatti è abbastanza frequente cliccare su un hyperlink e vedere visualizzato
sul monitor un messaggio di "server busy", che indica che il server che il nostro browser sta
contattando è per il momento impegnato in altre transazioni, o "DNS look-up failed", che
sistema chi commissiona il servizio può risalire a dati molto preziosi per un
pubblicitario, e cioè alle pagine più richieste di un sito, all'andamento dell'afflusso
a seconda dell'orario e del giorno, alla classificazione dei visitatori per dominio
di provenienza ecc.
Un'altra società che analizza i flussi sul Net è la Web Track, compagnia
newyorkese rilevata di recente dalla Jupiter Communications, prestigioso centro
studi sui new media: l'attività che l'ha resa più famosa è la classifica periodica
dei Top Ten Publishers & Advertisers online, cioè dei maggiori venditori di
spazi pubblicitari elettronici e inserzionisti.
La varietà nell’offerta di questi servizi dimostra come non si sia ancora
affermata una metodologia univoca per computare gli indici rilevanti ai fini di una
valutazione del traffico sul W eb; per esempio il servizio Nielsen-I/Pro stabilisce il
numero di visite ai siti Internet e non il numero di hit: questa distinzione non è
oziosa, in quanto il numero delle hit si riferisce ai files trasferiti, e ogni singolo
click può determinare molte hit151, mentre l'ammontare delle visite si riferisce al
numero effettivo delle persone che hanno navigato il sito, in quanto indica le volte
che una singola pagina Web è stata scaricata.
L’analisi dei flussi in rete è ulteriormente complicata da altri fattori che
hanno a che fare con elementi tecnico-strutturali: le pagine che vengono viste
una seconda o una terza volta ricorrendo all’opzione di ritorno indietro (back)
non sono contabilizzate in quanto non vengono scaricate dal server a cui ci si è
connessi, ma dalla memoria cache del nostro computer; gli utenti che si
indica che il server da contattare non è stato identificato dal nostro Domain Name Server di
riferimento (un data base che ha la funzione di tradurre i nomi degli host di rete nei relativi
indirizzi numerici, poiché la comunicazione effettiva tra gli host avviene sempre attraverso gli
indirizzi numerici). Per cui, nonostante l'utente non sia mai giunto al sito dell'advertiser,
tuttavia il server d e l publisher ha registrato il click, e se l'utente prova ripetutamente a
cliccare sul link quando il server risulta occupato, numerosi inquiries corrisponderanno a un
unico click-through .
151Il numero di hit dipende dalla quantità di grafica che una pagina contiene, per cui la
request di una pagina composta da due immagini, un file di testo e un file audio al server
che la ospita produrrà quattro hit .
collegano all’Internet tramite legateways, le passerelle di connessione con
l’esterno dei servizi commercialionline come AOL o Prodigy, per rimanere negli
Stati Uniti, vengono registrati con un’identità collettiva, in quanto questi servizi
non assegnano a ogni utente un proprio indirizzo Internet, per cui la transazione
si svolge tra il server e l’host che inoltra la request come un “agente collettivo”,
lasciando sconosciute le generalità dei singoli utenti.
Un altro elemento di distorsione è rappresentato dai browser off line , cioè
delle applicazioni come Freeloader, WebWhaker, ecc, che consentono lo
scaricamento multiplo di file senza dover restare collegati e assistere così a tutta
la procedura, spesso lunga e costosa: in questo caso non si tratta di un utenteconsumatore che sta davanti al monitor, ma di un software impersonale, che tra
l’altro ha spesso inserita l’opzione di non scaricamento delle immagini, e quindi
dei banner .
Secondo un esperto del settore, Gotfredson, direttore media alla Woolward
&Partners Advertising di San Francisco e autore di uno studio intitolato Is Web
Advertising efficient? , la relazione costi-benefici dell’attivià promozionale su
Web sarebbe nettamente svantaggiosa, e la pubblicità online costerebbe circa
quaranta volte in più dell’equivalente su carta stampata: infatti- argomenta il
nostro analista152- il pubblico medio di una rivista di settore, per esempio di un
magazine informatico, in un lasso di tempo di due settimane, è di poco più di
3.200.000, mentre la sua versione elettronica catalizzerebbe non più di 200.000
visite. La pubblicità sul Web non sarebbe efficace in quanto non è “intrusiva”,
cioè non si impone con quella pervasività che conraddistingue l’advertising
televisivo e cartaceo. La situazione, però, ha registrato una notevole evoluzione
nella direzione di un’affermazione sempre maggiore delle transazioni
economiche online e della crescita di una massa critica di utenti, che
costituiranno via via un bacino di consumo appetibile per i pubblicitari: la
152Riportato in R. Staglianò, op. cit., p. 70.
valutazione dell’inefficacia della Rete a fini pubblicitari risulta, in questo caso,
inficiata da uno sguardo di brevissimo periodo. Il percorso è ormai già tracciato:
secondo un analista della Simba la crescita degli introiti derivanti dalla pubblicità
in rete seguirà l’andamento esponenziale dell’incremento demografico del Net,
dell’aumento del trafficoWeb e delle pagine viste; lo studio di questa compagnia
stima che il mercato pubblicitario sarà monopolizzato per i tre quarti da
quattordici siti “pigliatutto”, tra cui quelli della CNN, Yahoo! e Ziff Davis153: si
profila quindi il rischio di un oligopolio del ciberspazio, anche perché solo i
soggetti in grado di reggere gli ingenti investimenti iniziali e le spese correnti, e
di aspettare il tempo necessario a far maturare i profitti, si possono permettere la
presenza sul Web.
I primi a ricorrere a campagne pubblicitarie sul Web sono stati i produttori
di auto e di computer e verosimilmente, secondo Staglianò, saranno seguiti dai
fornitori di informazione, dalle società di servizi, dalle agenzie di viaggi e dai
venditori al dettaglio: preccupato per le sorti della libertà espressiva in rete,
Staglianò si chiede quanto influiranno gli sponsor nel confezionamento della
notizia e nel tipo di servizio offerto.
Nella Rete risulterà effettivamente difficile discernere i messaggi
promozionali dalle unità di contenuto e di informazione o di entertainment : è la
cosiddetta “pubblicità integrale”, portato anch’essa del post- fordismo, segnato
dalla contrazione dei consumi, dalla competitività globale e dal ricorso delle
aziende a tutti gli strumenti offerti dal marketing : questa forma più subdola di
pubblicità, inscindibile dal contesto in cui è inserita, si sta già affermando sulla
carta stampata, soprattutto sulle riviste specializzate154, e nella televisione di
intrattenimento.
153W e b A d v e r t i s i n g : M a r k e t A n a l y s i s & F o r e c a s t , p u b b l i c a t o d a S i m b a
(<http://www.simbanet.com>).
154Per esempio i magazine femminili, dove tutti gli articoli relativi alle cure del corpo sono
corredati da consigli e ricette che invitano all’usodi determinati prodotti cosmetici, di cui sono
dettagliatamente descritte le caratteristtiche e le virtù, o le riviste medico-salutiste, dove si
Servizi finanziari online : l’home banking
Un settore economico in cui la diffusione della telematica porterà enormi
vantaggi per la quotidianità di milioni di persone è quello finanziario, la cui
traslazione nella dimensione virtuale e asettica del ciberspazio ben si coniuga
con la sua natura immateriale: molti servizi, che implicano un dispendio di tempo
del tutto inutile, si possono espletare in remoto, tramite PC e modem, garantendo
all’utenza accesso diretto, risparmio di tempo, flessibilità degli orari, possibilità di
eleborare i dati sul proprio PC.
Un primo passo in questa direzione era stato fatto con l’automatizzazione
degli sportelli, grazie alla quale l’utenza è in grado di effettuare operazioni
bancarie in modo immediato e senza fare file inutili; il fatto che finora non si sia
affermata la modalità di operare direttamente da casa, in rete, è dovuto alle forti
resistenze delle banche, fortemente diffidenti verso il mezzo telematico, ma ora,
con i nuovi standard di sicurezza sperimentati da Visa e Mastercard, i nuovi
servizi finanziarionline. si stanno diffondendo velocemente; secondo Chuck
Martin, addirittura,
Clienti e aziende daranno presto per scontata la possibilità di
effettuare operazioni bancarie da qualsiasi luogo e in qualsiasi momento.
Non più vincolati da sedi fisiche, i consumatori digitali potranno fare
acquisti ovunque scegliendo il servizio migliore. Se le banche tradizionali
non provvederanno a queste richieste, essi si rivolgeranno altrove.155
Con home banking si indica genericamente l’espletamento di operazioni
finanziarie da casa (ordini di pagamento, richiesta di estratto conto,
possono leggere reportage informativi che citano, o addirittura spiegano compiutamente, la
tal cura offerta dal tal specialista ecc.
155C. Martin, op. cit., pp. 157-158.
compravendita di azioni), che non richiedano una transazione fisica, come il
rilascio di un libretto degli assegni, anche se è possibile prenotare un carnet via
modem e poi riceverlo direttamente a domicilio.
Gli Stati Uniti sono il paese che ha sperimentato per primo servizi finanziari
online: dalla fine del 1995 i clienti di Security First Network Bank (SFNB),
usando il loro PC o Mac, possono aprire un conto, richiedere una carta di
credito, firmare assegni e inviare ordini di pagamento in rete; hanno diritto ai
tassi di interesse correnti e tutte le loro operazioni finanziarie sono contabilizzate
in valuta in real time, senza soluzione di continuità, ogni giorno della settimana e
a qualunque ora.
La SFNB156 di Pinville, Kentucky, è stata creata dal management di una
società di software, la Secure Ware, nata a metà degli anni ‘80 e fornitrice di
programmi per la protezione dei dati dell’esercito americano: si tratta della prima
banca virtuale del mondo, certificata dall’Office of Thrift Supervision (OTS),
l’agenzia federale statunitense deputata alla sicurezza del sistema bancario
nazionale157: si tratta di una banca che esiste solo sulla Rete, e che offre la
maggior parte dei servizi delle banche tradizionali, e quelli che non possono
essere trasferiti in rete, come mutui, Travelers’ Checks, cassette di sicurezza,
vengono espletati presso gli sportelli della filiale di Atlanta, Georgia, aperti
recentemente proprio per rispondere a questo tipo di esigenza.
La banca ha attratto subito oltre duemila clienti senza ricorrere ad alcuna
forma di pubblicità, grazie alle commesse particolarmente convenienti e
all’interfacciauser friendly, e da quando ha iniziato la sua attività ha aperto circa
diecimila conti bancari158.
156<http://www.sfnb.com>.
157E. Dazzan, Tutti i servizi on-line e a prova di sicurezza. Security First Network Bank, la
prima banca virtuale, “Ingenium” n. 21, 21 dicembre 1996, p. 62.
158A. Vaccaro, La prima volta dello sportello virtuale, “Virtual”, anno 5, n. 44, luglio/agosto
1997.
Il sito è stato concepito in modo da far sentire l’utente in un ambiente
familiare: sulla home page un’interfaccia grafica avanzata, ilVirtual Bank
Manager, presenta una tradizionale filiale bancaria, una hall centrale piena di
sportelli e operatori addetti a servizi differenti. Per accedere a un servizio
specifico il cliente clicca con il mouse sull’icona corrispondente e subito viene
visualizzato un menu con delle opzioni per le varie operazioni. Con l’ausilio di
u n a smart card, un codice crittografico e l’immediata verifica della sua
esposizione di conto viene autorizzata la transazione voluta.
S e c u r i t y F i r s t N e t w o r k B a n k è u n a b a n c a m e d i o -piccola che
precedentemente disponeva di sistemi phone banking: dalla fine del ‘95 la banca
ha inaugurato i nuovi servizi online, basati su un sistema sviluppato da Secure
Ware e da Hewlett-Packard. Il management ha scelto di implementare tutti i
servizi, compreso quello di consulenza; il servizio di phone banking non è stato
sospeso ma integrato con quello su Web . Si tratta quindi di un sistema misto,
sebbene su sportello virtuale è ormai possibile fare quasi tutto, compresa la
compravendita di azioni.
Con il trasferimento delle operazioni finanziarie in rete vengono a decadere
tutti i paradigmi tradizionali che strutturano i rapporti tra privati e banche: i privati
eseguono delle operazioni direttamente da casa, risparmiando tempo e fatica, e
le banche riducono i costi di struttura e si aprono a un bacino di utenza
potenzialmente globale. Chiunque, da qualunque postazione, potrebbe diventare
cliente di SFNB, se non vi fossero delle limitazioni legali, come le firme
informatiche: infatti all’atto di apertura di un conto corrente, l’intestatario deve
recarsi personalmente nella sede della banca per apporre la propria firma,
mentre per le operazioni successive che comportano l’utilizzo dellapropria firma
la banca mostra sul monitor l’oggetto firmato, chiedendo al cliente di verificare se
riconosce la propria firma.
Secondo il presidente della nuova banca virtuale159 i rischi di sicurezza
sono stati completamente superati grazie alla combinazione di tre ordini di fattori,
l’utilizzo di tecniche crittografiche, di barriere di sicurezza (firewall) e di un
particolare sistema operativo: infatti per garantire la sicurezza dei dati è stata
adottata una soluzione innovativa basata su un sistema di public encryption, cioè
di doppia chiave, quella pubblica che il cliente sceglie personalmente e usa per
tutte le sue transazioni, e una chiave segreta, sconosciuta anche al cliente e
memorizzata sulla sua smart card160, mentre la protezione da eventuali intrusioni
esterne è garantita da un firewall161.
Dopo SFNB, anche le banche tradizionali americane hanno trasferito su
Web molti dei loro servizi: Bank of America e Wells Fargo, per esempio, offrono
la maggior parte dei loro servizi online.
In Italia, invece, è solo da qualche mese che si sono organizzati servizi di
autentica banca telematica tramite Internet: il ritardo è dovuto alla scarsa fiducia
nei confronti delle garanzie di sicurezza offerte dalla Rete, soprattutto nel mondo
della finanza.
Sebbene siano un centinaio i siti Web attivati dagli istituti di credito italiani
e poco più di cinquanta quelli creati da compagnie di assicurazioni tradizionali e
a matrice bancaria162, si trattava, fino a poco tempo fa, di semplici depliant
elettronici, che contenevano informazioni sommarie sulla storia della banca, il
suo capitale sociale, indirizzi e recapiti di agenzie e filiali, e in casi più rari,
qualche servizio informativo gratuito, come le quotazioni delle valute o
collegamenti con la borsa valori.
159E. Dazzan, art. cit., p. 63.
160Nel nuovo progetto la chiave segreta viene modificata al termine di ogni transazione.
161Computer host deputato alla difesa del sistema contro eventuali utenti che cerchino di
accedere alla rete in modo doloso.
162K. Ferri e M. Giuntoni, La banca domestica, “Virtual”, anno 5, n. 44, luglio/agosto 1997, p.
52.
In seguito alcune banche hanno aperto una vetrina su un centro
commerciale virtuale, il Mall Italy Lab, creato da Benetton, Banca Antoniana
Popolare Veneta e SSB (Società per i servizi bancari), in cui l’utenza può usare
il borsellino elettronico Telepay realizzato da SSB.
Pionieri verso la nuova frontiera elettronica sono le Casse di Risparmio,
cioè gli istituti di credito minori, radicati in una dimensione locale163: le prime a
offrire un servizio di home banking sono state la Cariplo164, che non è più
esattamente una banca locale, e la Cassa di Risparmio di Firenze165, che ha
sviluppato un sistema proprio166; la Banca Sella167, una piccola realtà locale, ha
reso addirittura possibile, sul suo sito, aprire un conto corrente direttamente
online.
La prospettiva più ambita resta comunque quella di servizi più remunerativi
per le banche, come la possibilità di investire online o di richiedere un mutuo
per la casa, operazioni attualmente realizzabili sia per gli standard di sicurezza
raggiunti, sia per la maturità del mercato italiano, attestata da molte inchieste
condotte recentemente168.
Negli USA gli investimenti online sono già una realtà, dal momento che la
Rete consente di effettuare ricerche, accedere a database aziendali ed
emettere ordini direttamente, senza mediazioni e commissioni: quest’ampia
163Sono le Casse di Risparmio che hanno inaugurato in Italia uno dei servizi hi-tech più
efficienti, il bancomat, tramite cui si può ritirare denaro liquido dallo sportello di qualsiasi altra
banca: questa soluzione è stata sviluppata dall’Ipacri, società specializzata deputata alla
gestione di servizi informatici per le Casse di Risparmio, per risolvere il problema dei
correntisti che, una volta fuori dalla propria zona, non potevano trovare facilmente uno
sportello della propria banca. Ora l’Ipacri ha sviluppato un sistema per servizi bancarionline
abbastanza sicuro, che potrà essere adottato da tutte le Casse di risparmio che ne faranno
richiesta.
164<http://www.cariplo.it>.
165<http://www.carifi.it/h_info.htm>.
166G . M o n c a d a , H o m e b a n k i n g , p u b b l i c a t o s u l s i t o R A I d i M e d i a m e n t e ,
<http://www.mediamente.rai.it/home/tv2rete/mm9798>.
167<http://www.bansel.it/hmbnk.htm>.
168K. Ferri e M. Giuntoni, La banca domestica, “Virtual”, anno 5, n. 44, luglio/agosto 1997, p.
53; cfr. G. Moncada, Home banking, <http://www.mediamente.rai.it/home/tv2rete/mm9798>.
opportunità di effettuare investimenti in linea è stata sfruttata per la prima volta
dal proprietario di una piccola impresa produttrice di birra, la Spring Street, che
ha ottenuto 1,6 milioni di dollari da 3500 piccoli investitori nella prima offerta
pubblica realizzata in rete. L’esperimento è stato ripetuto, con la raccolta di 3,3
milioni di dollari: da qui è nato Wit-Trade, un sistema di transazione in linea che
evita il ricorso a intermediari finanziari e a commissioni, una sorta di borsa
digitale.
Gli investimenti si stanno diffondendo sul Web per la velocità delle
transazioni e la facilità nell’acquisizione e nell’analisi delle informazioni: in rete
intermediari di professione e singoli utenti hanno le stesse possibilità e gli stessi
strumenti.
Conclusioni
La diffusione globale delle reti telematiche ha inciso profondamente su ogni
aspetto della vita sociale, non ultima la relazione dell’uomo con sé e i processi della
conoscenza. Secondo qualcuno ha addirittura prodotto una frattura antropologica,
capovolgendo i termini della dinamica cognitiva, per cui non è più l’uomo viaggiatore
che esplora il mondo, ma questo è portato, via cavo, dentro le mura di casa, ridotte a
un container: in realtà la nostra esperienza si nutrirebbe, in questo caso, di immagini,
e quindi di frammenti di apparenza..
Quest’approccio ha il difetto di assimilare la comunicazione telematica, e
l’informazione acquisita tramitenetsurfing, a quella televisiva, senza considerare la
fondamentale differenza costituita dalla pluralità di fonti e dall’interattività, cioè la
possibilità, per nulla remota e sempre attuale, che il destinatario si trasformi in ogni
istante in emittente di comunicazione: sta qui la vera cesura qualitativa introdotta dalle
nuove tecnologie digitali nella comunicazione, e qui risiedono le immense possibilità di
crescita civile e culturale per l’umanità intera, nonché il potenziale democratico di
esprimere istanze diverse e scompaginare poteri e assetti acquisiti: ogni scambio
informativo è una forma di interazione sociale aperta, non rivolta a un gruppo
precostituito e ristretto di persone, ma potenzialmente universale.
“Ho visto emarginati conquistare una finestra sul mondo...Resto un ottimista sul
futuro digitale”, così sentenzia Nicholas Negroponte1, mentre un altro americano,
George Gilder, economista e teorico dei new media, autore di un famoso libello sulla
presunta fine della televisione, arriva quasi a delineare una metafisica dell’hi-tech.
Senza indulgere minimamente a un ottimismo acritico e a tratti visionario, tipico di
alcuni analisti americani, e senza negare i lati oscuri rappresentati dalle contraddizioni
1Intervista a N. Negroponte, “la Repubblica”, 14 gennaio 1997, p. 36.
indotte dal nuovo medium ( overload di informazioni indecifrabili e senza senso,
discrimine tra Have e Have-nots , ecc.), non si può negare la novità di un mezzo che
offre inedite possibilità di espressione plurale e di accesso a un bacino illimitato di
conoscenze.
L’Internet è stata concausa, insieme ad altri fattori, di un vero e proprio cambio
di paradigma, ma non a livello antropologico, bensì nell’ambito della produzione, dello
scambio e della distribuzione di beni e servizi: le reti sono state il veicolo della
globalizzazione dei mercati, non più soltanto delle monete e dei capitali, virtuali per
definizione, ma anche delle merci, e hanno favorito quella ristrutturazione delle
modalità e dei processi produttivi che è stata individuata come fattore fondante del
postfordismo. Non si tratta di una nuova economia digitale, imperniata sulla
produzione di nuovi beni e servizi immateriali e radicata nel ciberspazio, dove sono
leader le nuove imprese virtuali, ma di un nuovo assetto produttivo basato sull’impresa
a rete e caratterizzato da nuovi moduli struttural-organizzativi come lalean production
e l’outsourcing.
L’unificazione del mondo ha il suo risvolto economico nella deterritorializzazione
dei processi produttivi, traslati su scala sovranazionale e distribuiti, che continuano a
immettere sul mercato principalmente merci e servizi materiali, anche se l’ipotesi di
una produzione, e di una crescita, potenzialmente infinita è del tutto tramontata.
In questo quadro inedito, caratterizzato dalla saturazione dei mercati tradizionali,
l’Internet si sta rivelando un prezioso strumento per raggiungere bacini di mercato
sconfinati, permettendo anche alle piccole realtà produttive di essere presenti sul
mercato globale in modo competitivo e favorendo così una sopravvivenza e uno
sviluppo del tessuto economico locale.