Adriano Alippi - Dipartimento di Comunicazione e Ricerca Sociale

Transcript

Adriano Alippi - Dipartimento di Comunicazione e Ricerca Sociale
1
Alberto Marinelli
Internet e World
Wide Web
In senso tecnico, Internet è un network di
computer network: è infatti costituita da una
serie di reti, private, pubbliche, aziendali,
universitarie, commerciali, connesse tra di loro
fino a raggiungere una dimensione di accesso
globale. Le reti sono interconnesse in senso
fisico (wired e wireless: differenti tipologie di
cavi e di radiofrequenze) e in senso logico
(distributed network); trasportano i dati e li
indirizzano su una pluralità di devices terminali
(host, end system; dunque non solo computer in
senso stretto) facendo ricorso a un medesimo
gruppo di protocolli, l‟Internet protocol suite.
L‟Internet protocol (IP) identifica i nodi della
rete, mentre il trasporto viene generalmente
gestito mediante uno standard di commutazione
a pacchetto (packet switching).
I dati, tutti in formato digitale, comprendono
le più svariate tipologie di informazioni,
contenuti e servizi, come la posta elettronica (email), le comunicazioni interpersonali sincrone
formato testo (chat) e video (videoconference),
lo streaming audiovideo, lo scambio di file tra
terminali (peer-to-peer) e, infine, le pagine e
tutte le altre forme di documenti/repertori
connesse tra di loro mediante rimandi
ipertestuali (hiperlink) e forme di indirizzamento
univoco (URL – Uniform resource locator) che
compongono il servizio più conosciuto, il World
Wide Web.
Appare evidente che Internet e il Web non
possono essere considerati sinonimi. Il World
Wide Web è solo uno dei servizi supportati da
Internet e, dal punto di vista della configurazione
del network complessivo, rinvia al sottoinsieme
di server che gestiscono documenti in formato
HTML (Hypertext markup language), destinati a
essere letti su terminali utente dai browser
(Explorer, Netscape, Opera ecc.), attraverso un
protocollo dedicato al trasferimento dati in
formato ipertestuale HTTP (Hypertext transfer
protocol).
Solo nel 1995, a distanza di oltre trent‟anni
dalle prime sperimentazioni, il Federal
Networking Council (FNC) ha formulato una
definizione di Internet (consultabile all‟indirizzo
http://www.nitrd.gov/fnc/Internet_res.html) che
costituisce un riferimento comune. «Internet si
riferisce al sistema di informazione globale che
(a) è logicamente interconnesso attraverso un
address space (spazio degli indirizzi) unico e
2
globale, basato sull‟Internet protocol (IP o
protocollo di Internet) o le sue successive
estensioni/sviluppi; (b) è in grado di supportare
comunicazioni mediante la suite Transmission
Control Protocol/Internet Protocol (TCP/IP) o le
sue successive estensioni/sviluppi, e/o altri
protocolli compatibili con l‟IP; (c) fornisce,
utilizza e rende accessibili, sia pubblicamente
che privatamente, servizi di alto livello che
poggiano sui differenti strati di comunicazioni e
di infrastrutture a esse correlate».
1. Le caratteristiche strutturali
Rispetto alla molteplicità di reti digitali, Internet si
differenzia storicamente e si caratterizza soprattutto
in quanto standard, ovvero per il comune riferimento
a protocolli di comunicazione pubblici: la suite di
Protocolli Internet non ha un proprietario, è
ampiamente documentata da istituzioni pubbliche
sovranazionali e comunemente utilizzata da alcuni
decenni a livello globale. Tutte le comunicazioni
digitali basate su Internet hanno dunque un comune
riferimento agli standard ma ciò non limita la
variabilità e la possibile evoluzione nel tempo di
singole applicazioni e servizi, così come l‟ulteriore
differenziazione dei protocolli. Il network dei
dispositivi connessi a Internet presenta infatti una
molteplicità di strati, i cui livelli inferiori usano
sempre i medesimi protocolli di rete, per garantire lo
scambio di informazione tra i terminali collegati,
mentre i livelli superiori si differenziano per meglio
soddisfare specifici obiettivi di comunicazione. Si
avrà così un unico protocollo a livello di rete (IP,
Internet Protocol nelle versioni IPv4 e IPv6 cui
faremo riferimento in seguito), pochi protocolli a
livello di trasporto (soprattutto TCP, ma anche altri
tra cui UDP – User datagram protocol impiegato per
lo streaming audiovideo e il VoIP- Voice over IP),
molti protocolli a livello applicativo (come per
esempio, SMTP e POP3, impiegati per la posta
elettronica e HTTP che caratterizza l‟ambiente Web).
Il groviglio di termini tecnici, la complessità delle
architetture, la pluralità di sistemi tecnologici e la
estrema differenziazione dei servizi descrive un
universo in continua, accelerata trasformazione che
sembra in grado di inglobare al suo interno
tecnologie, sistemi mediali, forme culturali, stili di
relazione sociale una volta rigorosamente segmentati
e distinti. Ma questo universo complesso,
storicamente prodotto per successive integrazioni e
senza un‟autorità centrale che ne orientasse in
maniera univoca lo sviluppo, fonda le sue enormi
potenzialità di ulteriore espansione su principi
assolutamente semplici: la univocità dei protocolli, la
modularità della trasmissione dati per pacchetti, la
struttura distribuita e ridondante del network. Questi
principi non rappresentano solo componenti
dell‟ingegneria di sistema ma hanno ispirato e sono
stati a loro volta piegati in forme del tutto impreviste
dagli usi sociali, dando vita a un ecosistema
composto da reti di macchine e reti persone.
3
Internet dunque non è solo una infrastruttura
comunicativa veloce e affidabile ma anche un
ambiente comunicativo e mediale aperto e
tendenzialmente
paritario
che
non
pone
istituzionalmente vincoli di accesso. In virtù della sua
architettura
decentralizzata
può
assicurare
connettività ubiqua in un contesto tecnologico
flessibile e adattivo, senza fare riferimento ad alcun
criterio gerarchico e ad alcuna necessità strutturale di
controllo centralizzato. La metafora della „rete‟,
applicata sia a Internet che al suo principale servizio,
il World Wide Web, sottolinea: (a) la possibilità per
ogni nodo (inteso sia come computer o altro device
terminale sia come utente) di essere sia emittente che
destinatario di comunicazioni; (b) l‟assenza di un
unico centro, vale a dire di un unico autore, di un
unico progetto, di una gerarchia prestabilità tra aree
più o meno importanti.
In una rete, infatti, tutti gli elementi, pur essendo
efficacemente interconnessi, mantengono un alto
grado di autonomia. Nel modello originario del
mainframe computing, invece, diverse macchine
lavorano congiuntamente ai medesimi task, come un
unico organismo. Ma questo non significa che
nell‟ecosistema di Internet non si siano determinate
forme di gerarchizzazione funzionali alla gestione
delle applicazioni e dei servizi. Anche se l‟Internet
protocol rende tutti i nodi della rete potenzialmente
uguali, i mercati, i contenuti, le tecnologie e i loro usi
sociali hanno strutturato nel corso del tempo nette
differenze dal punto di vista gerarchico e funzionale
tra i vari nodi. L‟architettura di molti servizi (a
partire dai più noti, come il Web e la posta
elettronica) prevede infatti una distinzione dei nodi
della rete tra server e client, tra sistemi (hardware e
software) che mettono a disposizione contenuti e
servizi e altri che li utilizzano attraverso i loro
terminali connessi alla rete. Il caso in cui diversi
terminali dialoghino effettivamente tra pari (peer to
peer), al di fuori della logica client-server, riguarda
un numero ristretto di applicazioni, anche se genera
volumi di traffico tra i nodi della rete sempre più
rilevanti in conseguenza della diffusione delle
pratiche di file sharing: la condivisione e lo scambio
di contenuti (musica, filmati, giochi ecc.) tra i
terminali di singoli utenti, spesso aggirando le norme
del copyright. La dimensione pubblica della rete
Internet, in ogni caso, deriva non solo dalla
condivisione di regole (protocolli) di comunicazione,
ma anche dalla struttura di macchine server che
rendono disponibili risorse e servizi per una
molteplicità di terminali e per le esigenze
differenziate degli utenti.
2. Origini e sviluppo di Internet
La configurazione che abbiamo descritto è
originata da una serie di ipotesi scientifiche
convergenti ma anche da istanze ideali spesso in forte
contrapposizione, come le motivazioni di tipo
altruistico di un piccolo gruppo di ricercatori rispetto
agli interessi strategici del Dipartimento della Difesa
USA. Queste matrici differenti hanno trovato
4
storicamente una composizione e hanno contribuito a
forgiare una struttura tecnologica, economica,
culturale e sociale assolutamente unica che si fonda,
in estrema sintesi su un diagramma (distributed
network), una tecnologia (digital computer) e logica
di gestione (protocol), che consente di organizzare il
problema del dialogo e del reciproco controllo tra i
nodi di una rete distribuita.
All‟origine di tutto, probabilmente, può essere
posta la riflessione sulle diverse topologia delle reti
di comunicazione e sulla loro specifica vulnerabilità
rispetto a un attacco esterno, anche di tipo nucleare.
Siamo alla fine degli anni Cinquanta del secolo
scorso e Paul Baran, appena insediatosi alla Rand
Corporation, lavora per un quinquennio (pubblica i
suoi risultati nel 1964) su incarico del Governo USA
per risolvere il problema. Dopo aver scartato la
topologia a stella, allora in vigore, perché in una rete
centralizzata è sufficiente distruggere l‟unico nodo
centrale per interrompere qualsiasi forma di dialogo
tra i nodi periferici, si orienta verso lo studio delle
reti a maglie, con un‟architettura distribuita in cui
ciascun nodo è insieme centro e periferia. In questo
specifico caso la sopravvivenza – il funzionamento
del network – è assicurata dalla ridondanza: come in
un sistema stradale, la momentanea indisponibilità di
alcuni nodi consente comunque di formulare percorsi
alternativi, anche se più lunghi e originariamente
imprevisti.
La
leggenda
giornalisticamente
tramandata narra dunque di una Internet inventata per
sopravvivere a un attacco nucleare sovietico. In
realtà, le ipotesi di Baran furono ignorate dagli
apparati militari anche perché il corollario implicito
nel modello di rete distribuita prevedeva la
commutazione a pacchetto: l‟idea cioè che i messaggi
(l‟informazione) potessero essere scomposti in
piccoli pacchetti di dimensioni uniformi in grado di
viaggiare indipendentemente l‟uno dall‟altro tra i
nodi del network e di ricomporsi solo al termine del
percorso, sul computer cui sono destinati. Lo
sviluppo di questa tecnologia avrebbe comportato la
transizione dal sistema analogico, allora usato nelle
reti di telecomunicazione, al sistema digitale e né
l‟industria civile né quella militare erano preparati a
una simile trasformazione.
Per il sistema militare le idee di Baran tornano utili
a distanza di un decennio, nel 1969, quando
l‟Advanced Research Projects Agency (ARPA, in
seguito DARPA) del Dipartimento della Difesa avvia
il progetto del primo network (ARPANET) che
utilizza la commutazione a pacchetto per condividere
risorse e trasferire file tra computer di istituzioni
scientifiche e degli enti dell‟amministrazione. Molti
altri ricercatori nel corso degli anni Sessanta hanno
nel frattempo lavorato in parallelo a comporre il
quadro tecnologico e progettuale che consente ad
ARPA di fungere da capofila nella sperimentazione
del primo network di computer. In un certo senso, lo
sviluppo della ricerca nella direzione delle „computer
sciences‟ fu segnata dalla necessità per la stessa
ARPA – agenzia creata da Eisenhower come risposta
al lancio sovietico dello Sputnik – di trovare una
5
nuova mission dopo che la NASA le succede nella
gestione dei programmi spaziali e acquista crescente
notorietà e accesso a cospicui fondi di dotazione. La
nascente disciplina informatica si rivela fondamentale
per le ricerche a lungo termine finalizzate a scopi
bellici e Bob Taylor, direttore della divisione
informatica dell‟ ARPA nel 1965, si trova di fronte al
problema di riuscire a far parlare tra di loro
costosissime apparecchiature, che a volte risiedono
nello stesso edificio, per aumentare l‟efficienza e
ridurre i costi. L‟ambiente di lavoro in cui opera è
assolutamente effervescente e le relazioni con gli altri
centri di ricerca universitari si svolgono in un clima
di aperta collaborazione. A capo dell‟Information
Processing Techniques Office dell‟ ARPA siede
Joseph Carl Robnett Licklider, uno straordinario
pensatore che, sulla scia di Vannevar Bush e del suo
Memex, ha redatto nel 1960 un paper dal titolo ManComputer Symbiosis, che riflette sulla necessità di
individuare le interfacce tecnologiche per favorire
un‟interazione più semplice e immediata tra il
computer e i suoi utenti. Si deve a Licklider anche la
prima descrizione delle interazioni sociali possibili
attraverso la pratica del networking, in una serie di
appunti scritti nell‟agosto del 1962 sul concetto di
Galactic Network: un set di computer interconnessi
attraverso i quali chiunque può facilmente accedere a
dati e programmi da qualsiasi luogo fisico della terra.
Un‟idea che, perlomeno nel suo spirito, appare molto
simile all‟Internet che conosciamo oggi.
Anche la sperimentazione delle modalità per far
„parlare‟ i computer tra loro compie in quel periodo
molti passi in avanti: sempre nel 1965 Lawrence G.
Roberts riesce a connettere il computer TX-2 dal
Massachussets al computer Q-32 in California
attraverso una linea telefonica dial-up a bassa
velocità. L‟esperimento conferma che i computer
sono in grado di lavorare insieme ma non attraverso il
tradizionale sistema di switch telefonici che si rivela
inadeguato per questo scopo. L‟attenzione dei
ricercatori torna dunque sull‟idea del packet
switching formulata non solo da Paul Baran ma da
altri ricercatori come Donald Davies del National
Physical Laboratory di Londra e Leonard Kleinrock
che, a partire dal 1961 nei laboratori del MIT, aveva
cominciato a riflettere sulla fattibilità teorica della
costruzione di un network di computer che si
scambiano pacchetti di dati. Roberts inizia a
collaborare nel 1966 con il gruppo di Bob Taylor e
l‟ARPA assicura i finanziamenti necessari per
sviluppare il prototipo di network tra computer che si
avvale della commutazione a pacchetto e assicura una
velocità di trasmissione di 50 kbps. Il Network
Measurement Center della UCLA, il laboratorio
allora diretto da Kleinrock, è individuato come primo
nodo della nascente ARPANET; il secondo nodo è
collocato presso lo Stanford Research Institute, dove
Doug Engelbart lavora al suo progetto Augmentation
of human intellect (che include NLS, il primo
prototipo di sistema ipertestuale): tra questi computer
avviene nel 1969 la sperimentazione del primo
messaggio host-to-host. Negli anni seguenti vengono
6
aggiunti rapidamente molti altri computer
appartenenti a centri di ricerca e nel dicembre 1970 il
Network Working Group termina lo sviluppo primo
protocollo host-to-host di ARPANET, che prende il
nome di Network control protocol (NCP). La prima
dimostrazione pubblica di ARPANET viene
organizzata da Robert Kahn nel 1972 alla
International Computer Communication Conference;
nello stesso anno Ray Tomlinson scrive e sperimenta
la versione originaria del software che diventerà la
principale applicazione della rete: la posta elettronica
(e-mail).
Si può a ragione sostenere che ARPANET si è
evoluta fino a diventare l‟Internet che conosciamo
sulla base di una configurazione che ha consentito la
formazione di un network di network: l‟open
architecture networking. Secondo questo approccio,
gli snodi (e i network) individuali possono essere
sviluppati indipendentemente l‟uno dall‟altro (tutta la
prima sperimentazione di Kahn è compiuta su un
packet radio network) con interfacce personalizzate
in relazione agli usi e vengono connessi agli altri
network tramite un funzione di meta-livello:
l‟Internetworking architecture. Questa idea di un
network ad architettura libera, introdotta nel 1972 da
Kahn, e sperimentata attraverso il protocollo NCP, si
sostiene sul principio che ciascun nodo della rete non
agisce in quanto componente subordinata di un altro
ma su base paritaria (in quanto peer) nella funzione
di offrire agli altri nodi servizi end-to-end. Kahn si
rende rapidamente conto della necessità di sviluppare
una nuova versione del protocollo di controllo del
network (NCP) che non ha la possibilità di definire
gli indirizzi delle macchine cui sono destinate le
comunicazioni né di recuperare gli eventuali
pacchetti andati perduti nella trasmissione. Il nuovo
protocollo, che sarà più in avanti chiamato TCP/IP,
agirà come un protocollo di comunicazione, alla cui
base sono posti quattro principi fondamentali:
(a) i singoli network, pubblici o privati, che si
connettono a Internet mantengono la loro autonomia
e a nessuno sarà permesso di richiedere cambiamenti
al loro interno;
(b) le comunicazioni tra i nodi del network
seguono il criterio del best effort: se un pacchetto non
raggiunge la sua destinazione finale, sarà
immediatamente ritrasmesso dal nodo sorgente;
(c) in funzione di connessione tra i network
verranno utilizzate delle black boxes che non
manterranno alcuna traccia dei singoli pacchetti di
dati che i nodi si scambiano (i dispositivi di rete ora
conosciuti con termini quali gateway e router);
(d) non ci sarà alcuna forma di controllo globale
rispetto al livello delle singole operazioni.
A questi principi si aggiungono una serie di
corollari di estrema rilevanza:
(e) il network può funzionare solo sulla base di un
sistema unitario e univoco di indirizzamento dei
pacchetti di dati;
(f) gli algoritmi debbono gestire sulla macchina
emettitene e sulla macchina destinataria il controllo
7
dei pacchetti di dati mancanti o deteriorati in modo
da consentirne la ritrasmissione in modo efficace;
(g) il network si deve interfacciare con terminali
che utilizzano sistemi operativi diversi.
Per sviluppare il protocollo di trasmissione Kahn
chiede aiuto a Vinton Cerf dell‟Università di
Stanford, che aveva maturato un lunga esperienza
con NCP, il protocollo fino ad allora utilizzato nelle
sperimentazioni. Allo loro collaborazione si deve la
decisione di dividere il protocollo in due parti: il
protocollo
Internet
(IP)
che
si
occupa
dell‟indirizzamento, cioè di inviare il pacchetto e di
instradarlo attraverso gateway e router fino a farlo
giungere a destinazione; il TCP (Transmission
control protocol) che si occupa, invece, di segmentare
le informazioni in pacchetti con una ampiezza
massima di 1500 byte, di indicare l‟applicazione che
ha prodotto i dati e di verificare che i pacchetti siano
arrivati correttamente all‟end-system, dove possono
essere ricomposti e ordinati secondo la esatta
sequenza di origine. Nello stesso contesto di ricerca
viene definito anche un protocollo alternativo l‟UDP
(User datagram protocol) per la gestione di traffico a
pacchetti in ambiente IP, che rappresenta il primo
embrione del processo di differenziazione nelle
tecnologie di trasporto dati.
La suite TCP/IP costituisce la grammatica di base
che consente a network e a dispositivi terminali
eterogenei di parlare la stessa lingua nel momento in
cui si scambiano informazioni. La commutazione a
pacchetto rappresenta anche l‟estensione del
principio della modularità, proprio dei formati
digitali, all‟ambito delle connessioni di rete. I singoli
pacchetti, per arrivare alla piattaforma hardware e
software cui sono destinati, possono seguire percorsi
che toccano nodi differenti della rete e viaggiare sulla
stessa connessione insieme ad altri pacchetti
assolutamente eterogenei per origine, destinazione
finale e contenuto informativo (per esempio:
immagine in movimento insieme a testo). Il
principale vantaggio tecnologico della commutazione
a pacchetto rispetto a una commutazione punto-punto
(in cui la linea è vincolata per lo scambio di
informazioni tra i due end-system, indipendentemente
dal traffico generato) è che si riesce a saturare la
larghezza di banda della linea di connessione
disponibile e a flessibilizzare il traffico tra i nodi
della rete.
Il lavoro sui protocolli svolto da Kahn e Cerf nei
primi anni Settanta determina le componenti
tecnologiche di base che consentiranno la
sperimentazione di Internet prima nei centri di ricerca
militari e civili (sotto il nome di ARPANET) e,
successivamente la sua trasformazione in una rete
pubblica utilizzabile anche per scopi commerciali. La
natura aperta dei protocolli e la configurazione non
centralizzata e paritaria dei nodi, ispirata dai loro
principi, ha contrassegnato in maniera indelebile il
successivo sviluppo di Internet: l‟assenza di vincoli e
barriere ha favorito lo sviluppo internazionale della
rete; il coinvolgimento delle istituzioni accademiche
e dei centri di ricerca ha stimolato la crescita di
8
comunità autonome sul piano della capacità di
innovazione e orientate al lavoro cooperativo sugli
standard e gli applicativi. La configurazione aperta ha
consentito dunque, che questo nuovo ambiente
comunicativo evolvesse, a differenza di quasi tutti gli
altri sistemi mediali, senza un progetto centralizzato
ma sulla base delle scelte, delle professionalità e della
sensibilità di chi vi operava e contribuiva a costruirlo.
Ne è scaturito un sistema di rete semplice – forse
addirittura „stupido‟ e ridondante se paragonato a una
rete telefonica progettata nello stesso periodo –
perché finalizzato a una sola operazione: lo
smistamento fino al destinatario (end-to-end) di un
pacchetto di dati, senza la necessità di alcun
intervento o controllo. Un sistema a intelligenza
distribuita tra i nodi, che può sopportare molto più
agevolmente incidenti o guasti e crescere in maniera
modulare: basta aggiungere un nodo e non occorre
riconfigurare ogni volta l‟architettura complessiva del
sistema.
La necessità di costruire un sistema di meta-regole
pubbliche, che potesse essere utilizzato da qualsiasi
organizzazione o società commerciale interessata a
rendere interoperabili i sistemi e interscambiabili le
informazioni, era già molto chiara al gruppo di lavoro
che sperimenta negli anni Settanta la suite TCP/IP e
che accompagna la migrazione, avvenuta il primo
gennaio 1983, di ARPANET verso il TCP/IP. In quel
preciso momento, pur nell‟ambito di una strategia di
ininterrotta cooperazione tra i centri di ricerca civili e
militari, viene creata una seconda rete, MILNET, a
uso esclusivo delle strutture del Dipartimento della
Difesa USA. L‟ambiente iniziale di ARPANET,
formato da tre nodi, si accresce rapidamente e punta a
incorporare differenti forme di network e di comunità
di ricerca e sviluppo. L‟ampio sviluppo di LAN
(Local area network) e la veloce diffusione del
personal computer nel corso degli anni ottanta fanno
da volano alla sperimentazione di Internet, ma il
passaggio dalla piccola ARPANET a un sistema
composto da network fortemente differenziati impone
una serie di sfide assolutamente inedite. I network
sono divisi in classi di ampiezza e agli indirizzi
numerici degli host sono assegnati univocamente dei
nomi attraverso il DNS (Domain name system; cfr.
ora www.acm.org), sistema creato da Paul
Mockapetris, che trasforma gli host name gerarchici
in indirizzi Internet tramite un meccanismo scalabile
ripartito.
Procede in parallelo il lavoro per rendere
effettivamente interoperabile e aperto il network,
cercando di ricondurre a una tecnologia di
interconnessione universale e pubblica le reti che
impiegano sistemi di protocollazione differenti. La
gran parte di questi network è promosso da agenzie
pubbliche o da università; esistono però anche
iniziative commerciali come USENET, il network
creato dalla compagnia telefonica AT&T e basato sul
protocollo di trasmissione UUCP (Unix to unix copy
protocol) per i sistemi operativi Unix. Lo stesso
utilizzo del termine Internet (con l‟iniziale
maiuscola) si accredita per operare una
9
differenziazione tra le reti che impiegano il TCP/IP
rispetto alle altre non ancora convertite a quello che
si avvia ad essere lo standard pubblico e universale.
Nel 1985 la National Science Foundation decide di
utilizzare lo standard TCP/IP per il suo network
(NSFNET),
con
l‟obiettivo
di
estendere
l‟infrastruttura di rete a un‟area molto più estesa e
supportare la comunità accademica e di ricerca: nasce
così la prima dorsale (backbone) Internet degli Stati
Uniti. Lo sviluppo decisivo della connettività di rete è
assicurato per tutti gli anni Ottanta dall‟intervento
delle agenzie governative statunitensi e europee che
si preoccupano di finanziare i costi per la messa in
opera dei collegamenti transoceanici, di creare e
mantenere la rete dei Network access point nei
campus universitari e nei centri di ricerca, di
promuovere la riflessione e la formulazione dei primi
documenti che pongono le regole del nuovo ambiente
comunicativo in formazione. La National Science
Foundation, sotto la direzione di Kahn e Kleinrock,
produce due report, Towards a national research
network nel 1988 e Realizing the information future:
The internet and beyond, nel 1994, che pongono con
grande chiarezza il problema di favorire lo sviluppo
della società dell‟informazione promuovendo la
realizzazione di reti a larga banda, iniziativa
comunemente identificata attraverso l‟etichetta di
„autostrade dell‟informazione‟.
La costruzione di un sistema di protocolli aperti
assicura le basi per la rapida diffusione delle dorsali
di rete Internet a livello planetario e per il progressivo
assorbimento di servizi concorrenti come il Minitel in
Francia o il network commerciale AOL (American on
line) negli Stati Uniti, strutturati come sistemi di rete
chiusi, proprietari. In modo assolutamente coerente,
le organizzazioni che si sono assunte la responsabilità
di espandere e regolamentare Internet come rete ad
accesso pubblico e universale progettano le regole
della coabitazione con iniziative di natura
commerciale, sia nella gestione delle dorsali di rete,
progressivamente affidate per la manutenzione e lo
sviluppo a società di telecomunicazioni private (il
backbone NSFNET viene privatizzato nel 1995), sia
nella valorizzazione di nuove opportunità di
remunerazione di contenuti e servizi. Il sistema di
regolamentazione viene affidato nei primi anni
Novanta a organismi di natura pubblica come l‟IAB
(Internet architecture board), che opera d‟intesa con
l‟Internet Society nella definizione e nella revisione
degli standard. Sono poste in questo modo le basi per
lo sviluppo di quel grande servizio, il World Wide
Web, in cui confluiscono attività commerciali e
attività senza fini di lucro, che si diffonde a livello
planetario e che nella considerazione dei non esperti
di fatto coincide con la stessa Internet.
3. La nascita del World Wide Web
Il World Wide Web (conosciuto anche come Web
o W3) – come abbiamo richiamato nella definizione
proposta all‟inizio della voce – è un sistema di
documenti in formato ipertestuale, posti in relazione
10
per mezzo di link e accessibili mediante Internet. Per
mezzo di un applicativo che prende il nome di web
browser, istallato su una macchina client (non solo un
Personal Computer ma anche uno schermo televisivo,
un palmare, un telefono cellulare ecc.), l‟utente può
scaricare (downoload) dai web server e navigare
(sfogliare) interattivamente attraverso link i repertori
ipertestuali organizzati in pagine web, che
contengono testo, immagini, video e altri formati
multimediali (suoni, animazioni, slide show ecc.). Il
Web è stato concepito in Europa, al CERN di
Ginevra, sulla base degli studi portati avanti nel corso
degli anni Ottanta da Tim Berners-Lee sul progetto
ENQUIRE e formulati in una prima stesura in un
documento del 1989 sulla gestione ipertestuale in rete
dei documenti dello stesso centro di ricerca. La
proposta viene formalizzata con il contributo di un
altro ricercatore CERN, Robert Cailliau, in un paper
dal titolo WorldWideWeb: Proposal for a HyperText
Project nel novembre 1990. Entro Natale dello stesso
anno lo sviluppo laboratoriale dell‟ipotesi progettuale
è concluso: il primo web server è in grado di
rilasciare la prima web page con la descrizione del
progetto al primo web browser che è in grado sia di
visualizzare sia di editare documenti ipertestuali. Il 6
agosto del 1991 Berners-Lee „posta‟ (la nuova forma
verbale fa riferimento all‟atto di rendere disponibile
un testo in uno spazio di pubblicazione condiviso in
rete) una sintesi del progetto World Wide Web sul
newsgroup (uno specifico spazio di discussione in
rete creato per discutere di un argomento ben
determinato) alt.hypertext e segna ufficialmente il
debutto del Web come servizio pubblicamente
accessibile.
L‟idea di un sistema di documenti in formato
ipertestuale non nasce con il lavoro di ricerca di
Berners-Lee ma affonda le sue radici negli anni
Sessanta, nel progetto Xanadu proposto da Ted
Nelson, il primo a utilizzare l‟espressione „ipertesto‟,
e nel citato NLS (oN-Line system) di Douglas
Engelbart. Alcune delle idee portanti possono però
essere fatte risalire alle straordinarie riflessioni
proposte nel 1945 da Vannevar Bush nel saggio As
we may think, in cui viene proposta una
«meccanizzazione della conoscenza scritta» in modo
da rendere la memoria planetaria completamente
accessibile e utilizzabile da ciascun individuo. Bush
pensa la sua macchina, il Memex come
«un‟estensione personale della memoria»: un
dispositivo tecnologico (allora basato su leve, tastiera
e proiettore di microfilm) in grado di memorizzare
tutte le documentazioni e le comunicazioni personali
per richiamarle e manipolarle con efficienza e facilità
d‟uso, seguendo i principi della indicizzazione
associativa, propria di ciascun utilizzatore della
macchina. Berners-Lee sviluppa in modo coerente le
intuizioni sulla matrice ipertestuale e sulla logica
associativa sottostante alla funzione del link e le
innesta all‟interno del nascente ambiente di rete. Il
nuovo modello differisce dai precedenti sistemi
ipertestuali perché i link sono esclusivamente
unidirezionali e puntano verso una risorsa di rete,
11
univocamente indirizzata attraverso la sintassi del
sistema URI (Uniform resource identifier). Se da un
lato, questa scelta progettuale semplifica la gestione
delle pagine web e valorizza l‟autonomia dei singoli
nodi, dall‟altro pone strutturalmente il problema dei
link interrotti, nel caso in cui la risorsa non è più
disponibile o ha cambiato indirizzo sulla rete.
Il 30 aprile 1993 il CERN dichiara che il World
Wide Web è un ambiente assolutamente libero e
gratuito, mentre in parallelo sui server Internet che
utilizzano Gopher, un protocollo sviluppato
dall‟Università del Minnesota per cercare e
rintracciare risorse di rete, fino ad allora
comunemente impiegato, vengono poste alcune
limitazioni. Si determina così una migrazione dei
server Internet che rendono disponibili risorse da un
sistema all‟altro, mentre contemporaneamente si
diffonde il primo Web browser dotato di interfaccia
grafica utente: Mosaic, progettato da Marc
Andreessen dell‟Università dell‟Illinois UrbanaChampaign, sulla base di un finanziamento dell‟High
Performance Computing and Communication Act,
promosso nel 1991 dall‟allora Vice Presidente Al
Gore. L‟insieme di eventi fa da detonatore per la
rapidissima diffusione del Web e traccia la sua
successiva evoluzione da sistema di supporto alla
ricerca frequentato da alcune migliaia di tecnici in
spazio pubblico aperto anche a informazioni e servizi
commerciali,
accessibile
da
utenti
non
necessariamente esperti all‟uso del computer. La
responsabilità dell‟evoluzione e della dichiarazione di
conformità dei protocolli e degli standard associati al
Web è attribuita nel settembre del 1994, al World
Wide Web Consortium (W3C), una organizzazione
costituita presso il Massachusetts Institute of
Technology e diretta da Tim Berners-Lee.
Nel corso degli anni Novanta in tutti i paesi del
mondo si diffondono gli ISP (Internet service
provider), organizzazioni commerciali che offrono a
singoli utenti residenziali o a imprese l‟accesso a
Internet e alcuni servizi collaterali, come la gestione
delle caselle personali di posta elettronica, la gestione
di spazio (hosting) per la pubblicazione on line di
pagine web, la registrazione e la manutenzione di un
„dominio‟, cioè di un indirizzo univoco nel sistema
URI (per es., http://www.comune.roma.it) che
appartiene a un proprietario e costituisce un nodo di
rete in cui sono disponibili a vario titolo risorse e
servizi di cui è (anche) legalmente responsabile. Le
società di telecomunicazione, che esercitano il
controllo sulle reti fisiche, svolgono normalmente la
funzione di ISP di primo livello, anche perché
assicurano la messa in opera e l‟aggiornamento delle
dorsali Internet. Gli utenti privati vengono allacciati
direttamente dalle società di TLC o da rivenditori del
servizio di accesso al Web attraverso il modem, un
dispositivo che rende possibile il traffico dati tra
sistemi informatici (web client/web server),
attraverso la normale rete telefonica per il traffico
voce o altre tipologie di cavo o radiofrequenza. Il
caratteristico rumore del modem, che compone il
numero di telefono dell‟ISP e proietta il computer in
12
rete, accompagna le esperienze pionieristiche degli
early adopters (knowledge workers, appassionati di
computer, etc.) che si affacciano nel cyberspazio (una
sincrasi di cibernetica e spazio): così viene etichettato
il nuovo ambiente facendo ricorso al termine coniato
da William Gibson, autore canadese di fantascienza.
4. Lo sviluppo del Web
Nell‟arco di pochissimi anni (dal 1996 al 2000)
emerge con estrema rapidità l‟ecosistema composto
da tecnologie, processi comunicativi, modelli di
business che ora possiamo contrassegnare con
l‟espressione Web 1.0. È un Web composto
prevalentemente da documenti di tipo testuale con
qualche immagine e pochissimi suoni o video,
organizzati in pagine HTML statiche; un Web
accessibile
mediante
connessioni
dial-up,
normalmente fatturate a tempo, che supportano non
oltre 50k di larghezza di banda, del tutto insufficienti
per i formati multimediali. Molti sono gli elementi
sfavorevoli: la instabilità della tecnologia, le
imprecisioni delle pagine costruite con il linguaggio
di formattazione HTML, i costi orari del servizio di
accesso e l‟impossibilità di telefonare mentre si usa il
modem. Non sono però tali da ostacolare un
immediato successo che dal mondo dell‟accademia e
della ricerca – interessato soprattutto alle possibilità
di free publishing e di diffusione universale della
conoscenza – travalica in quello commerciale e
dell‟informazione, facendo crescere in ogni ambito
sociale l‟esigenza di essere presenti e attivi
nell‟emergente mondo della Rete. Cresce a dismisura
il numero degli host (i server che ospitano i domini
registrati) e il numero delle pagine pubblicate on line;
le società commerciali scoprono che la loro presenza
in rete non è un optional e che le possibilità
assicurate da un sistema di comunicazione interattiva
vanno oltre la semplice duplicazione on line delle
brochure aziendali: attraverso il Web si possono
gestire facilmente relazioni con gli utenti/clienti e
attivare vere e proprie attività transattive (ecommerce), non solo per beni e servizi immateriali
(come per es., la prenotazione e l‟emissione di
biglietti) ma anche per delocalizzare completamente
la propria sede di vendita (come per es., i libri
comprati su Amazon.com il più grande bookstore del
mondo).
Il grande successo commerciale scatena la prima
guerra dei browser in cui Microsoft, dominante nei
sistemi operativi dei Pc e nelle suite di software per il
lavoro d‟ufficio, riesce ad affermare la sua
supremazia anche nell‟emergente ambiente Web: il
browser Explorer viene incluso in Windows e,
nonostante la battaglia legale che si trascina per anni
negli Stati Uniti e in Europa, conquista la grande
maggioranza del mercato, trovando un punto di forza
nella crescente integrazione delle risorse disponibili
sul Web nella normale routine di lavoro nelle
imprese, nella pubblica amministrazione, nella scuola
e nell‟università. Il crescente interesse dei mercati
finanziari dei paesi avanzati nella nascente Web
13
economy dà anche origine a una crescita repentina e
quasi incontrollata del valore di borsa delle società
che operano nelle tecnologie informatiche e, in
particolare, dei nuovi settori che controllano
l‟accesso alla rete (ISP), l‟offerta e il recupero di
informazioni (portali, motori di ricerca), i servizi
commerciali (vendite, aste on line). Le nuove imprese
prendono il nome di dot-com (dal suffisso che le
identifica nel sistema URI in quanto servizi
commerciali) e mettono in pratica una strategia
opposta rispetto a quelle diffuse nei mercati
tradizionali: puntare sull‟espansione rapidissima della
base dei propri clienti e dunque, della quota di
mercato controllata, indipendentemente dalla
redditività immediata. La scommessa degli investitori
si alimenta sulla fiducia nelle potenzialità
economiche derivanti dall‟esuberante sviluppo del
nuovo ambiente di rete, sulla disponibilità di venture
capital, sull‟attività speculativa che porta le dot-com
a incrementare il loro valore di borsa a ritmi così
veloci da sfuggire a qualsiasi controllo razionale dei
mercati. La dot-com bubble tocca il suo apice agli
inizi del 2000, a ridosso di un evento emblematico: in
virtù del valore raggiunto sul mercato azionario
(Nasdaq), America Online, il più grande fornitore di
accessi alla rete negli USA, si fonde alla pari e
acquisisce il controllo operativo di Time Warner, la
più grande media company, proprietaria di giornali,
reti televisive, case di produzione cinematografica,
libreries musicali. La rottura della bolla speculativa
nei mesi successivi comporterà un clamoroso
ridimensionamento dei valori di borsa, spazzerà via
entità meramente speculative ma lascerà sopravvivere
imprese come Yahoo e Google (recupero
dell‟informazione, servizi di community), Amazon
(vendita di libri), E-bay (aste on line) che
manterranno un ruolo da protagonisti nella nuova
fase di sviluppo del Web.
La fase di passaggio dal Web 1.0 al Web 2.0 è
contrassegnata da tendenze di grande rilievo: dalle
macerie della bolla speculativa emergono nuovi
assetti
tecnologici
ma
soprattutto
nuovi
comportamenti sociali che trasformano ancora una
volta radicalmente l‟ecosistema di rete. La diffusione
di sistemi di connettività a maggiore ampiezza di
banda (su cavo a fibra ottica o su rete telefonica
tradizionale mediante aDSL – Asymmetric digital
subscriber loop), avviata dalle società di
telecomunicazione, evita la sovrapposizione nelle
utenze domestiche e commerciali tra traffico voce e
traffico dati; consente di visualizzare formati
multimediali con accettabile qualità, anche se non
ancora a pieno schermo; e soprattutto fa da volano
alla pratica della condivisione di file (file sharing) tra
utenti in modalità peer-to-peer: all‟interno della rete
Internet non esistono posizioni fisse di client e server
(come nel classico modello Web 1.0), ma singoli
nodi equivalenti (peer) che svolgono entrambe le
funzioni. La pratica del file sharing emerge tra il
1999 e il 2000 con il caso Napster, un servizio che,
facendo ricorso a un indirizzario costantemente
aggiornato su un server centrale, consente con grande
14
facilità agli utenti il reperimento, la condivisione e lo
scambio di file musicali in formato MP3 (uno
standard di compressione che riduce notevolmente, a
circa 1/10, le dimensioni del file in formato digitale,
mantenendo pressoché inalterata la qualità percepita
dall‟orecchio umano). Napster provoca il primo
fenomeno di aggiramento di massa delle leggi sul
copyright ed è costretto a interrompere la propria
attività a settembre del 2001 a seguito di una azione
legale intentata dalle major discografiche. Si
diffondono però con estrema rapidità negli anni
seguenti sistemi peer-to-peer alternativi (Gnutella,
Bittorrent, eDonkey), che rinunciano a qualsiasi
forma di registro centralizzato e sono più difficili da
perseguire sul piano legale. Il traffico generato su
Internet
da
questi
sistemi
è
cresciuto
vertiginosamente ed è stimato da alcune fonti
(novembre 2007) ormai uguale se non superiore al
tradizionale traffico Web. Certamente la pratica del
file sharing ha rivoluzionato le modalità di accesso e
di consumo dei contenuti digitalizzati e coinvolge un
gruppo sempre più vasto di utenti Internet e la quasi
totalità dei giovani: si è infatti progressivamente
estesa dalla musica a tutti i prodotti dell‟industria
culturale (film, televisione, giochi, registrazione di
eventi dal vivo ecc.); ha generato nuovi bisogni tra le
persone e alimentato la crescita e la diffusione di
competenze; ha indicato un nuovo modello
potenziale di mercato e di distribuzione dei beni
digitali.
Anche in altri ambiti, l‟evoluzione tecnologica ha
favorito comportamenti sociali di tipo collaborativo
tra gli utenti di tecnologie di rete. L‟originaria
staticità delle pagine Web è stata superata attraverso
l‟introduzione di linguaggi di scripting (come
JavaScript), dal lato dei sistemi client, e attraverso lo
sviluppo di linguaggi integrati di nuova generazione
dal lato dei Web Server (JSP, PHP, ASP). La
diffusione di queste soluzioni sposta l‟asse di
sviluppo in direzione dei Web Service, alla cui
realizzazione e diffusione lavorano non solo le
imprese commerciali che rilasciano software
proprietario ma anche la comunità degli sviluppatori
Open Source. Il movimento si è inizialmente diffuso
nel processo di sviluppo cooperativo di Linux (un
kernel,
divenuto
ora
sistema
operativo,
originariamente impostato e distribuito via Internet
dallo studente finlandese Linus Torvalds), sulla base
del principio che il codice sorgente del software
debba essere reso disponibile e che tutti gli utenti
debbano godere dei vantaggi dell‟attività collettiva di
stesura e continuo miglioramento dei programmi.
Sotto la guida di Bruce Perens e Eric S. Raymond, il
movimento Open Source si differenzia dalle
posizioni radicali del free software con cui Richard
Stallman aveva in modo pionieristico fin dagli anni
Ottanta impostato la battaglia contro la posizione di
monopolio dei produttori di software commerciali, e
si apre alla collaborazione con grandi imprese quali
IBM, Sun Microsystems, HP. La tensione
collaborativa non coinvolge solo il ristretto universo
degli sviluppatori ma si riverbera su una molteplicità
15
di attività e servizi che vengono attivati nell‟ambiente
di rete. I sistemi di gestione dei contenuti (CMS –
Content management system), molti dei quali
sviluppati in ambito Open Source, rendono più
dinamico e aperto il mondo Web facilitando la
creazione
collaborativa
dei
contenuti
e
l‟organizzazione del lavoro redazionale. Nel gennaio
del 2001 viene lanciata Wikipedia, un‟enciclopedia
on line strutturata come un ipertesto e basata su un
software collaborativo (wiki) che permette agli
utilizzatori di trasformarsi in redattori ampliando e/o
integrando le voci presenti sulla base di procedure di
revisione e controllo basate a loro volta sulla
condivisione delle funzioni.
Sempre negli stessi anni comincia a diffondersi la
pratica di costruire e aggiornare Blog, pagine web
dinamiche gestite mediante un CMS offerto
gratuitamente da molti fornitori di servizi e
personalizzate attraverso una serie di template (una
funzione di programmazione che descrive lo schema
di visualizzazione prescindendo dai contenuti che
vengono richiamati solo al momento dell‟esecuzione)
che ne delineano il layout grafico. Il Blog diviene
l‟espressione
dell‟autonomia
individuale
nell‟ambiente di rete e uno dei contesti comunicativi
che contribuisce a ridefinire il confine tra spazio
privato e spazio pubblico: è il luogo dove si
raccontano storie ed esperienze, generalmente in
forma di diario, si forniscono informazioni e si
esprimono opinioni, si tiene una traccia (log) dei
propri pensieri e dei propri stati d‟animo. Ma non è
uno spazio vissuto in isolamento: ogni contributo
lasciato on line è generalmente riferito a una o più
tag (elementi sintattici con cui si marcano i
documenti al fine di organizzarli e renderne più
agevole il reperimento e la fruizione) e può essere
letto e commentato in tempo reale da tutti gli
interessati e dallo stesso autore, che può intervenire
quando desidera sui commenti altrui. La dimensione
relazionale si esprime non solo nella partecipazione
alle discussioni ma anche nello scambio di link: si
segnalano nel blogroll i Blog degli amici o di chi si
ritiene in sintonia con il proprio pensiero o comunque
utile da consultare; si aggiungono contenuti o risorse
disponibili nell‟ambiente di rete; si consente a chi lo
desidera di importare liberamente i contenuti del Blog
e di valorizzarli autonomamente in altri contesti
comunicativi della rete.
In maniera più o meno graduale la diffusione delle
connessioni veloci always on e di standard per
l‟interoperabilità ha permesso di creare un ambiente
on line dove, a differenza di quanto accadeva nella
configurazione del primo Web, sfumano i confini tra i
ruoli di server e client, di „autore‟ e „lettore‟.
L‟interattività su cui da sempre si fondano Internet e
Web diventa sempre più semplice da sperimentare,
accessibile a un‟utenza sempre più ampia; sistemi
orizzontali in cui i contenuti vengono prodotti „dal
basso‟, direttamente dagli utenti, si rivelano sempre
più diffusi e coinvolgenti; la distribuzione dei beni
digitali via Internet offre nuove opportunità di
mercato, incontra sensibilità e interessi fortemente
16
differenziati degli utenti, determina in modo
radicalmente diverso il ciclo di vita e le possibilità di
remunerazione dei contenuti. In questo clima, nel
2004, Tim O‟Really promuove la prima Web 2.0
Conference, con l‟obiettivo di riflettere sulle
trasformazioni
che
stanno
contrassegnando
l‟ambiente delle tecnologie di rete e di renderne
evidente la differenziazione evolutiva. In realtà il
cambiamento non è segnato tanto dall‟introduzione di
tecnologie di rete assolutamente innovative (per
questo motivo Berners-Lee contesta la possibilità
stessa di usare l‟espressione Web 2.0), quanto
dall‟affermazione di standard e idee progettuali in cui
gli utenti sembrano riconoscersi al punto da
decretarne uno straordinario successo.
Dal punto di vista dell‟evoluzione tecnologica, il
Web 2.0 si inscrive all‟interno di una più generale
tendenza verso la multicanalità: i medesimi contenuti
vengono erogati in forme molteplici, su diversi
canali, con diverse interfacce, variamente ricombinati
e ibridati. Secondo questo principio i contenuti di un
Blog possono essere automaticamente importati da un
qualsiasi altro Blog; i principali portali di
informazione e servizi sviluppano interfacce dedicate
a dispositivi trasportabili (palmari, smart phone); i
proprietari di raffinati servizi on line (come Google o
Yahoo) li mettono gratuitamente a disposizione di
chiunque (mediante tecnologie che gestiscono Open
Api – Application programming interface). La
sostenibilità tecnologica dei Web Service che puntano
sull‟interscambio tra piattaforme è affidata allo
sviluppo e alla diffusione di XML (eXtensible
markup language), un metalinguaggio estremamente
flessibile e particolarmente efficace per la
condivisione di dati tra sistemi diversi. Linguaggi
derivati dall‟XML (come Soap, Xml-Rpc, Wsdl)
permettono di scambiare informazioni strutturate tra
terminali connessi a Internet, basandosi generalmente
sul protocollo HTTP e consentendo a una
molteplicità di operatori di distribuire con facilità
servizi per i quali non detengono il software, che
invece risiede altrove, secondo il principio del
network as a platform. L‟XHTML, linguaggio per
descrivere pagine HTML in conformità agli standard
XML, permette una più efficace separazione di
contenuti e layout, e quindi la possibilità di
personalizzare facilmente l‟aspetto con cui una
medesima risorsa viene presentata a differenti
terminali utente. Ricorre a XML anche il formato
RSS (Resource description framework Site
Summary), con cui vengono esposti i contenuti di un
sito frequentemente aggiornato (per es., di news), di
modo che l‟utente possa scegliere come e quando
leggerli o aggregarli sul proprio terminale, senza
dover digitare l‟URL del sito in questione e navigare
l‟originale pagina Web. Oltre alla diffusione di
standard che facilitano la collaborazione tra
piattaforme, il Web 2.0 comporta decise innovazioni
anche rispetto alle interfacce di navigazione, che si
allontanano sempre più dal modello della pagina di
testo e si avvicinano all‟esperienza di immediatezza
propria del lavoro sul desktop del computer, in
17
particolare estendendo il ricorso alla multimedialità e
alla possibilità di manipolare oggetti con un feedback
in tempo reale. Tale tendenza viene favorita da una
particolare combinazione di Javascript e XML, detta
Ajax (Asynchronous javascript and XML) grazie alla
quale il flusso di dati tra server e client scorre in
background, senza necessariamente determinare ciò
che compare sullo schermo, ed è possibile per
l‟utente svolgere una serie di piccole operazioni sulla
pagina ottenendo un feedback immediato, senza
attendere che la pagina venga ricaricata dal browser
per intero.
L‟evoluzione dei Web Service consente
l‟elaborazione di piattaforme per il web marketing
che puntano a remunerare non solo servizi/contenuti
che intercettano l‟interesse del maggior numero di
utenti ma anche quelli che inseguono i bisogni di
nicchie di mercato sufficientemente ristrette e
specifiche, fino al limite della relazione one-to-one.
La flessibilità delle piattaforme on line rende in
questo modo sostenibili modelli di business che
contemplano un numero molto limitato di
utenti/clienti, purché precisamente identificati: da un
lato, infatti, la distribuzione on line e l‟abbattimento
degli
oneri
di
intermediazione
riducono
drasticamente i costi di entrata e di permanenza sul
mercato; dall‟altro, la comunicazione pubblicitaria
può essere selettivamente orientata e puntare
sull‟interesse e il coinvolgimento di destinatari non
indifferenziati, come avviene sui media di massa. Su
questo nuovo modello distributivo è costruito il
concetto di Long Tail (coda lunga) descritto nel 2004
da Chris Anderson in un articolo sulla più famosa
rivista on line, Wired: nel “mondo dell‟abbondanza”
in cui tutti i contenuti possono essere esposti sugli
“scaffali” on line, i proventi non derivano tanto dagli
incassi dei best sellers destinati al consumo di massa
quanto dalla vendita di tanti diversi articoli di
nicchia, dei quali vengono distribuite poche copie a
costi comprensibilmente contenuti. Puntando sulla
autonoma selettività dei pubblici e sulla loro capacità
di aggregarsi in communities, si riesce ad allungare a
dismisura il tempo di vita dei prodotti, a suddividere i
profili di remunerazione, ad assicurare attenzione e
rilancio a contenuti originariamente sottovalutati dal
pubblico di massa, a valorizzare contenuti realizzati
ma non sfruttati dalla distribuzione tradizionale,
provenienti da produttori indipendenti o dalla
creatività degli stessi utenti.
La crescente diffusione delle connessioni veloci e
degli strumenti per produrre foto, video e audio in
formato digitale ha moltiplicato il numero dei Web
Service basati sulla distribuzione di contenuti
multimediali, che hanno a disposizione un pubblico
sempre più vasto, che si prende spesso carico anche
della produzione, classificazione e ridistribuzione
degli stessi. Si fa ricorso in questo caso
all‟espressione economie di rete perché il
coinvolgimento di un numero sempre maggiore di
utenti nel ciclo di produzione e pubblicazione non
solo non incide sull‟andamento dei costi (economie
di scala) ma comporta anche un allargamento
18
dell‟offerta, della quale ogni utente si va vettore e
promotore, ulteriore canale distributivo. Le nuove
dot-com, che sono state in grado di intercettare le
esigenze degli utenti della rete e hanno lanciato Web
Service innovativi, hanno avuto un successo
straordinario e hanno dato vita a un nuovo ciclo
economico positivo legato alle tecnologie di rete.
Il motore di ricerca Google, per esempio, è per
tutti gli utenti web il punto di riferimento per
rintracciare
l‟informazione,
è
perfettamente
compatibile con i dispositivi mobili e ha lanciato
servizi in grado di rivoluzionare l‟esperienza degli
utenti come Google Earth, un sistema di mappatura
della superficie terrestre per mezzo di fotografie
satellitari che gli utenti possono attraversare in volo,
analizzare attraverso le informazioni aggiuntive e i
repertori linkati ai singoli luoghi, contribuire a
arricchire aggiungendo il proprio contributo (una
foto, una scheda su una risorsa naturale, etc.). Google
ha anche acquisito YouTube, il portale di video
sharing che cumula oltre 100 milioni di download al
giorno (novembre 2007) e ha reso evidente sia le
potenzialità del video on demand (l‟accesso
individuale ai repertori audiovisivi), sia la strategicità
del coinvolgimento degli utenti che concorrono ad
arricchire con i loro contributi video il patrimonio
condiviso e reagiscono commentando e votando
quanto reso disponibile da altri. La dimensione di
social networking è amplificata in piattaforme che
puntano esplicitamente a configurarsi come luogo per
l‟espressione della propria personalità e per la
gestione di relazioni sociali mediate dalle tecnologie.
In ambienti come Myspace e Facebook milioni di
giovani utenti fanno upload (cioè pubblicano on line)
delle proprie gallerie fotografiche e dei propri video,
rendendoli disponibili per i propri amici oppure, a
diversi livelli, per un pubblico più ampio se puntano
a far conoscere e valorizzare la propria creatività; allo
stesso tempo, si tengono in costante contatto con gli
amici presenti in rete mediante sistemi di instant
messaging (messaggi in formato testuale rivolti a
singoli o gruppi).
In parallelo all‟espansione dei web services, gli
utenti stanno sperimentando la possibilità di accedere
alle risorse Internet in condizione di mobilità (mobile
networking) facendo ricorso a tecnologie di
trasmissione wireless. Il volano per questo processo è
dato dalla crescente diffusione di dispositivi mobili
che non sono più semplici telefonini ma terminali
Internet in grado di accedere a tutte le risorse e i
servizi: web, e-mail, streaming audiovideo, chat,
instant messaging, videocomunicazione, etc. Le
funzionalità multimediali dei device mobili sono
perfettamente integrate in questo contesto: ad
esempio, la foto scattata con la fotocamera del
telefonino può essere facilmente inviata per e-mail
oppure indirizzata direttamente alla stampante, a un
pc o a un altro telefonino via Bluetooth (sistema a
radiofrequenza attivo nel raggio di alcuni metri). La
disponibilità di connettività wireless per il traffico
dati (Internet) non poggia solo sulle opportunità
offerte dalle società telefoniche attraverso le
19
tecnologie di trasmissione a pacchetto (GPRS e
HSDPA), ma si espande alla famiglia 802.11 WiFi e
WiMax rese disponibili da una pluralità di operatori
pubblici e/o privati. Lo scenario sta evolvendo verso
una nuova modalità di contatto con le tecnologie di
rete racchiusa nell‟espressione always on: l‟accesso a
Internet è indipendente dalle dimensioni spaziali (si
accede indifferentemente da posizione fissa,
nomadica o in mobilità) o temporali (di fatto una sola
modalità: sempre connesso alla rete); dal tipo di
terminale (pc, palmare, telefono mobile) o dalla
tipologia di connessione (aDSL, fibra ottica, WiFI,
WiMax, HSDPA, etc.).
5. Verso l’Internet degli oggetti
L‟evoluzione verso il Web 3.0, già oggetto di
discussione tra gli esperti di tecnologie, lascia aperti
diversi orizzonti. Per alcuni, il punto di svolta è
legato semplicemente all‟ampliamento della capacità
di trasmissione fino a 10, 20 o 40 Mb, in modo da
consentire una totale integrazione delle reti sotto
protocollo IP con il mondo televisivo e la diffusione
di sistemi video a alta definizione. Per altri, il tratto
distintivo del processo evolutivo segnerà il passaggio
a quello che viene chiamato Internet of Things:
l‟integrazione progressiva nella rete di tutti gli oggetti
dispersi nell‟ambiente fisico (elettrodomestici, porte,
codici a barre dei prodotti, etc.) che vengono dotati
della capacità di scambiare informazione e pertanto
diventano smart. Gli utilizzi potenziali sono infiniti:
spaziano dalla domotica, che elabora strategie per
rendere “intelligenti” le funzioni degli ambienti in cui
abitiamo (luci e energia, porte, elettrodomestici); alla
logistica, che renderà più semplice (e privo di errori)
rintracciare le nostre valigie negli aeroporti, i libri di
cui abbiamo bisogno nelle biblioteche, le medicine a
noi destinate negli ospedali; al sostegno alle
disabilità, attraverso percorsi “virtuali” destinati agli
ipovedenti negli ambienti urbani, in cui la funzione di
guida è affidata a una rete di sensori che dialoga con i
dispositivi
trasportabili;
ed
infine,
alla
semplificazione di atti quotidiani come pagare il
biglietto dell‟autobus o del parcheggio mediante il
telefonino, attraversare le porte della metropolitana e
delle autostrade con un “bip and go”, avere un sms
che funge da biglietto e prenotazione del posto per il
viaggio in Eurostar.
L‟integrazione del mobile networking e del
pervasive computing in un ambiente in cui la banda
larga è sempre più diffusa e accessibile apre questioni
che, dietro l‟apparente carattere tecnico, nascondono
un dibattito sull‟opportunità di mantenere
sostanzialmente intatta la configurazione aperta e
pubblica della rete. La scommessa tecnologica non è
di poco conto: si tratta di includere progressivamente
in Internet miliardi di device mobili e un numero
assolutamente inimmaginabile di “oggetti” quotidiani
(elettrodomestici, cartelloni pubblicitari, cartelli
stradali, codici a barre, etc.), indipendentemente dal
tipo di connessione per il trasporto dati (fisica e/o
wireless) e dai sistemi operativi di ogni singolo
20
apparato. Il supporto di rete servirà per fruire
contenuti e servizi multimediali interattivi (non solo
dal Pc, ma dal televisore, dal telefono, etc.) e inoltre
per le comunicazioni (a) tra persone e persone
(indirizzari e archivio dei messaggi integrati, sistemi
in sincrono per testo, voce, immagine, etc.); (b) tra
persone e “oggetti” (istruzioni rivolte a apparati
tecnologici, richieste di informazioni, ticketing, etc.);
(c) tra “oggetti” e persone (schermi e cartelloni
pubblicitari che riconoscono gli interlocutori, etc.) (d)
e, infine, tra “oggetti” e “oggetti” (codici a barre che
dialogano con il carrello della spesa e la cassa, etc.).
Come risulta chiaro, si tratta di modalità di utilizzo
della risorse di rete che sono lontane anni luce dalla
interpretazione dello slogan “mobile Internet” per
qualche tempo alimentata dal dibattito giornalistico e
dalla pubblicità delle società telefoniche: non si
tratta, infatti, di sfogliare pagine web quando si è
lontani dall‟ufficio ma di fare, con le tecnologie di
rete che trasportiamo in tasca e/o che ci circondano,
cose radicalmente diverse. La logica evolutiva
implicita nell‟Internet of Thing punta a esportare nel
nostro ambiente quotidiano, ai contatti con gli oggetti
e con le persone, i principi della modularità e della
intelligenza
distribuita
che
appartengono
storicamente allo sviluppo della rete.
Il principale problema tecnico da risolvere è
relativo al sistema di protocolli che gestisce gli
indirizzi Internet: per rendere operativa la nuova fase
delle tecnologie di rete si dovrà, infatti, attribuire un
indirizzo fisico (stabile) a ciascun dispositivo. Il
sistema in funzione, in sigla IPv4, secondo la stima
della IETF (Internet Engineering Task Force)
gestisce circa 4 miliardi e 300 milioni di indirizzi ed
è prossimo all‟esaurimento. Si sta provvedendo,
pertanto, a mettere in esercizio il nuovo sistema IPv6
che dovrebbe risolvere alla radice il problema,
assicurando un numero di indirizzi vicino ai limiti
dell‟immaginabile, almeno per i comuni mortali: il
sistema sfrutta 128 bit, rispetto ai precedenti 32 e
consente fino a circa 3,4x1038 indirizzi fisici Internet.
Secondo altre prospettive di ricerca (in particolare
per Berners-Lee e il gruppo di lavoro del W3C) la
sfida dei prossimi anni riguarda il tentativo di rendere
le informazioni tracciate nel Web non solo
comprensibili agli umani - come avviene, seppur con
molte limitazioni, attraverso i motori di ricerca - ma
anche alle macchine (machine-understandable).
Nell‟etichetta di Semantic Web è racchiusa l‟idea di
raggiungere la piena interoperabilità attraverso un
sistema di metadati che poggia su RDF (Resource
Description Framework), un data model per la
descrizione univoca delle risorse identificate
attraverso il sistema URI (Universal Resource
Identifier). In realtà le tendenze che abbiamo
delineato - disponibilità illimitata e ubiqua di
connettività, estrema pervasività delle tecnologie
informatiche, procedure di information retrieval
interoperabili - non si escludono vicendevolmente ma
evolvono in parallelo e descrivono i tratti
caratterizzanti della prossima generazione delle
tecnologie di rete.
21
Internet degli oggetti esprime la tendenza verso un
ambiente tecnologico in cui la capacità di calcolo e di
gestione della potenzialità connettiva si autonomizza
rispetto alla macchina personal computer e si innesta
negli spazi fisici, diventando pervasiva e ubiqua. Le
basi di questo approccio sono state tracciate da Mark
Weiser, nei Laboratori dello Xerox Park, seguendo
l‟idea che si dovesse rimettere il computer e il suo
schermo interattivo «al posto giusto» nella vita degli
esseri umani: in una collocazione dove non si
producessero interferenze o sottrazioni di attenzione
rispetto agli obiettivi dell‟azione, a causa di continue
e sempre più complesse richieste di dialogo avanzate
dalla macchina. La logica dell‟ubiquitous computing
punta ad una forma espansa di «embodied virtuality»,
in cui l‟intero mondo fisico acquisisce le capacità di
calcolo e di dialogo normalmente assegnate
all‟artefatto cognitivo personal computer. Agli
oggetti inanimati è assegnata una vita artificiale in
funzione della loro capacità di venire incontro ai
nostri bisogni: noi rimaniamo fermi, in senso letterale
e figurato, mentre i computer nascosti e dispersi nel
mondo (cioè la potenzialità di trattare informazione)
si agitano freneticamente per venirci in aiuto, facendo
affidamento sulla memoria, la precisione, l‟accesso
alle risorse di network, per anticipare le nostre
esigenze e suggerire le alternative più opportune per
venire incontro ai nostri desideri. Ma i processi di
recupero e gestione delle informazioni rilevanti in
ogni singolo contesto debbono presentarsi in modo
semplice e naturale ed avere effetti “calmanti” sugli
utenti umani. Se questa scommessa avrà buon esito si
riuscirà a dare concretezza al progetto che Weiser
enunciava nel 1991, in un mondo in cui le tecnologie
di rete erano ancora in stato embrionale:
«Durante una passeggiata nel bosco si rende
disponibile di fronte alla punta delle nostre dita molta
più informazione di quanta ne presenti un qualsiasi
sistema computerizzato. Ciononostante le persone
considerano rilassante la passeggiata tra gli alberi e
frustrante interagire con un computer. Se avremo
macchine che si adattano all‟ambiente umano, invece
di costringere gli umani a entrare nel loro, questo
renderà usare un computer tanto rilassante quanto
fare una passeggiata nel bosco». (Weiser 1991:104).
Riferimenti bibliografici
Barry M. Leiner, Vinton G. Cerf, David D. Clark,
Robert E. Kahn, Leonard Kleinrock, Daniel C.
Lynch, Jon Postel, Larry G. Roberts, Stephen
Wolff , «A Brief History of the Internet», The
Internet Society, disponibile all‟indirizzo:
http://www.isoc.org/internet/history/brief.shtml
Weiser M., «The Computer for The Twenty-FirstCentury», Scientific American, September 1991,
pp. 94-104
T. Berners-Lee, «Weaving the Web. The Original
Design and Ultimate Destiny of the World Wide
Web by Its Inventor», Harper, San Francisco
22
1999; tr. it. «L‟architettura del nuovo Web»,
Feltrinelli, Milano 2001
K. Hafner, M. Lyon, «Where the Wizards Stay up
Late. The Origins of the Internet», Simon &
Schuster, New York 1996; tr. it. «La storia del
futuro. Le origini di Internet», Feltrinelli, Milano
1998
A.L. Barabási, «Linked. The New Science of
Networks», Perseus, Cambridge Mass.2002; tr. it.
«Link. La nuova scienza delle reti», Einaudi,
Torino 2004
A. R. Galloway, «Protocol. How Control Exists after
Decentralization», The MIT Press, Cambridge
Mass., 2004
B. Wellman, C. Haythornthwaite (eds.), «The
Internet and Everyday Life», Blackwell
Publishers, Oxford 2002,
W3C Technical Report and Pubblications, disponibili
all‟indirizzo http://www.w3.org/TR/
Internet Society – Histories of the Internet,
disponibili
all‟indirizzo
http://www.isoc.org/internet/history/
Wikipedia – voce Internet e risorse linkate ,
disponibili
all‟indirizzo
http://it.wikipedia.org/wiki/Internet
http://en.wikipedia.org/wiki/Internet