Da Arpanet al Web 2.0 - Informatica e diritto
Transcript
Da Arpanet al Web 2.0 - Informatica e diritto
CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE DA ARPANET AL WEB 2.0* Dott. Gianluigi Fioriglio 1. Premessa La rete Internet ha avuto uno sviluppo repentino e forse inimmaginabile: nata quale strumento militare, in pochi anni è diventata risorsa di uso comune e fonte di inesauribile conoscenza, in quanto permette la diffusione in tutto il mondo di idee, proprie ed altrui, e dunque consente una libertà praticamente infinita di informare ed informarsi. Fino a pochi anni fa, infatti, la diffusione delle informazioni era deputata ai mass media tradizionali, ossia ai sistemi radio-televisivi ed alle riviste e ai quotidiani, con la conseguenza di dover effettuare un vaglio di ciò che si poteva o doveva far conoscere; tali mezzi sono inoltre caratterizzati da univocità, relegando l’ascoltatore, lo spettatore od il lettore a meri recettori passivi di informazioni, mentre la Rete consente l’interazione dell’utente con la realtà virtuale che gli si pone davanti, offrendo una prima impensabile possibilità di dialogo e di confronto fra soggetti lontani sia dal punto di vista meramente fisico che culturale. L’espansione di Internet e la facilità, oltre che l’economicità, di poter usufruire di servizi e di offrirne di ulteriori consentono di superare quelle difficoltà di ordine pratico connesse ai tradizionali sistemi di trasmissione delle informazioni, ma pongono tuttavia problematiche nuove, le quali si presentano stimolanti per lo studioso, difficoltose per gli operatori del diritto (giudici ed avvocati), rischiose per l’uomo comune. Bisogna infatti considerare che alla grande libertà di cui tutti possiamo godere, purché dotati di un computer (anche di modesta potenza elaborativa) e di una connessione alla Rete, fa tuttavia da contraltare il rischio di lesione di diritti, nostri ed altrui, fra cui spicca certamente il diritto alla privacy. Infatti, le conseguenze di una condotta delittuosa consistente nell’illecita diffusione di informazioni, di qualsiasi tipo, che sarebbero dovute rimanere riservate, escono dalla sfera di controllo del soggetto agente qualora la condotta medesima venga posta in essere su Internet; pertanto, la diffusione di tali dati è potenzialmente illimitata, senza che, di fatto, nessuno possa eliminare le conseguenze lesive del fatto o limitarne l’incidenza. Bisogna tuttavia considerare che le frequenti istanze di “criminalizzazione” di Internet mirano a cercare di porre un freno a quella libertà senza precedenti di cui oggi gode l’uomo e a ristabilire un controllo statuale sulla diffusione delle proprie idee e sulle attività svolte on line da cittadini di qualsiasi stato, anche diverso da quello di appartenenza del navigatore. L’annullamento delle distanze ha difatti messo in crisi i tradizionali ambiti di giurisdizione statuale, provocando, quale reazione, l’anzidetta pretesa di controllo ben al di fuori dei normali limiti di competenza nazionale, la quale provoca poi, in alcuni casi, fenomeni di disobbedienza civile elettronica1, riconducibili, talvolta, ai c.d. hackers, che non sono certo dei criminali, al contrario dei c.d. crackers, ossia coloro che commettono crimini informatici.2 Non si può e non si deve, comunque, né criminalizzare né censurare Internet: il Web deve rimanere libero, pur considerando che le condotte che si realizzano nel cyberspace si riverberano nel mondo materiale e che dunque una regolamentazione, per quanto minima, debba esserci. Non si può tuttavia centralizzare questa immensa risorsa, il cui punto di forza è proprio la decentralizzazione, che impedisce, in linea generale, la possibilità di instaurare un monopolio teso al controllo globale dei flussi dati che viaggiano sulla Rete. In particolare, il carattere di universalità del World Wide Web, che * Estratto, con modificazioni, da G. FIORIGLIO, Temi di informatica giuridica, Aracne, Roma, 2004 (l’intero volume è liberamente scaricabile da www.dirittodellinformatica.it). 1 Sulla disobbedienza civile (compresa quella elettronica) v. T. SERRA, La disobbedienza civile. Una risposta alla crisi della democrazia?, Torino 2002. 2 Su tali argomenti, sia consentito rinviare a G. FIORIGLIO, Hackers, Nuova Cultura, Roma, 2010. 1 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE non si identica con l’intera Rete, ma che ne costituisce una componente oggi primaria, è stato acquisito proprio grazie all’assenza di un controllo centrale, che avrebbe potuto limitarne la crescita e con essa le potenzialità di mezzo di espressione del pensiero umano. È di tutta evidenza, pertanto, che l’importanza di Internet va ben oltre quella di una qualsiasi altra invenzione: a memoria d’uomo, nulla ha permesso di creare quella sorta di universo parallelo in cui essa si concretizza3. Difatti, la crescita del cyberspazio corrisponde «a un desiderio di comunicazione reciproca e d’intelligenza collettiva»; esso «non è una particolare infrastruttura tecnica di telecomunicazione, ma una certa maniera di servirsi delle infrastrutture esistenti, per quanto imperfette siano. [Esso] mira, attraverso collegamenti fisici di qualsiasi genere, a un tipo particolare di rapporto tra le persone»4. Questo rapporto è nuovo, può costituire un nuovo terreno di dibattito e di confronto fra persone e culture diverse, grazie all’abbattimento delle distanze, e può contribuire alla nascita di vere e proprie comunità, formate dagli individui più diversi, resi simili dal perseguimento di un obiettivo comune. 2. Nascita ed evoluzione di Internet Ricostruire la storia di Internet, partendo dai primordi per arrivare sino agli ultimi sviluppi, è compito improbo e dalle molteplici impostazioni: bisognerebbe infatti analizzare non solo i motivi politici, ma anche la passione e gli ideali che hanno spinto gli scienziati statunitensi a creare quel sistema che avrebbe poi rivoluzionato il mondo. Un’analisi completa richiederebbe, dunque, di analizzare le vicende relative ad Internet da più punti di vista: politico, sociologico, tecnico, giuridico, ma in questa sede si ritiene più utile fornire delle nozioni di base e accennare a quei testi il cui esame appare imprescindibile per l’approfondimento di tematiche assai interessanti5. Le basi per lo sviluppo tecnologico che avrebbe poi portato alla realizzazione della Rete sono state poste nel 1958, nel periodo della «guerra fredda», con la costituzione dell’Advanced Research Projects Agency (ARPA6) da parte degli Stati Uniti, allo scopo di stimolare la ricerca scientifica anche in ambito militare nonché di ristabilire la supremazia tecnologica nei confronti dell’Unione Sovietica, che un anno prima aveva messo in orbita il satellite spaziale Sputnik. Nel 1962 Jack Ruina, all’epoca direttore dell’ARPA, chiamava Joseph Carl Robnett Licklider (detto «Lick») alla guida dell’Information Processing Techniques Office (IPTO), che avrebbe fornito un apporto determinante per la progettazione e lo sviluppo della rete che oggi è Internet. Già nel medesimo anno, infatti, l’illustre studioso parlava di un «galactic network», ossia di un insieme di computer interconnessi cui sarebbe stato possibile accedere da qualsiasi luogo. 3 «La rivoluzione in atto non trova le sue radici in movimenti culturali, filosofici o politici (sebbene, come era facile prevedere, abbia dato luogo a movimenti di tal fatta), in quanto essa è determinata, più semplicemente, dall’utilizzazione diffusa del nuovo strumento di comunicazione (il medium […]). È forse la prima volta nella storia recente dell’umanità che un’innovazione di processo influenza in modo tanto diretto i comportamenti umani al punto di determinare così importanti trasformazioni culturali e sociali» (F. DI CIOMMO, Internet e crisi del diritto privato: tra globalizzazione, dematerializzazione e anonimato virtuale, in «Riv. crit. dir. priv»., 2003, 1, p. 122). 4 P. LEVY, Cybercultura. Gli usi sociali della nuova tecnologia, trad. it, Milano 2001, p. 120. Paul Virilio si pone in senso contrario e afferma, fra l’altro, che «i più giovani, […] incollati allo schermo fin dalla scuola materna, sono già colpiti da disturbi ipercinetici dovuti a una disfunzione del cervello che genera un’attività sconnessa, gravi disturbi dell’attenzione, brusche scariche motorie incontrollabili. Aspettando, con la banalizzazione dell’accesso alle autostrade dell’informazione, la moltiplicazione dei viaggiatori a domicilio, questi lontani rampolli del lettore silenzioso, che soffriranno da soli dell’insieme dei disturbi della comunicazione, acquisiti nel corso degli ultimi secoli dalla tecnica» (La bomba informatica, tr. it., Milano 2000, p. 37). Tuttavia, l’osservazione empirica della realtà, per quanto non ci offra un quadro idilliaco dell’umanità odierna, consente, per fortuna, di ritenere eccessive e generalizzanti queste affermazioni, che probabilmente costituiscono più che altro una forte provocazione ed una denuncia verso uno sviluppo tecnologico a volte più involutivo che evolutivo, perché non finalisticamente orientato ma fine a sé stesso, nel cui ambito spesso ciò che è realizzabile è lecito proprio perché è realizzabile. 5 Sulla storia di Internet v.: C. GUBITOSA, La storia di Internet, Milano 1999; sulla storia del World Wide Web v. T. BERNERS–LEE, L’architettura del nuovo Web, trad. it, Milano 2001. 6 Oggi Defense Advanced Research Projects Agency (DARPA). 2 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE Nello stesso anno si verificava anche la crisi cubana e si riteneva assai probabile lo scoppio di una guerra nucleare, per cui l’U.S. Air Force incaricava Paul Baran7, del RAND, di progettare un sistema di comunicazioni che potesse funzionare anche in caso di guerra e che dunque potesse sopportare eventuali danneggiamenti. Un risultato fondamentale di tali studi è da individuarsi nella progettazione della c.d. «commutazione di pacchetto» (packet switching), ossia la possibilità di suddividere un messaggio in più parti («pacchetti»), inviabili separatamente, con la conseguenza di non dover occupare una intera linea di collegamento per la trasmissione di dati, i quali così viaggiano in parallelo. Nello stesso periodo il packet switching veniva teorizzato anche da Leonard Kleinrock8, del MIT (Massachusetts Institute of Technology), e da Donald Davies, del National Physical Laboratory (NPL) inglese. È alquanto singolare che le ricerche sul punto vennero portate avanti parallelamente (e su presupposti diversi) senza che i ricercatori del RAND, del MIT e del NPL avessero notizia dei reciproci progetti. Al progresso degli studi sinora menzionati si accompagnava l’evoluzione del progetto del galactic network di Licklider, portato avanti dal suo successore Lawrence G. Roberts, ricercatore al MIT. Nel 1967 Roberts presentava pubblicamente il progetto «ARPAnet», suscitando reazioni contrastanti ed ottenendo altresì alcune importanti adesioni al progetto, come quella di Douglas Engelbart (poi noto anche per la creazione del mouse) dello Stanford Research Institute. Nel 1969 lo Stanford Research Institute e le Università dello Utah e della California (a Los Angeles e a Santa Barbara) aprivano quattro nodi stabilendo una connessione e denominando ARPAnet la rete così ottenuta. In particolare, la prima connessione veniva effettuata fra l’Università della California a Los Angeles, sotto la guida di Kleinrock, e lo Stanford Research Institute, sotto la guida di Engelbart. Negli anni settanta il DARPA continuava a sostenere ARPAnet, finanziando le ricerche necessarie per perfezionarne il funzionamento. Tali sforzi venivano progressivamente premiati, e in tal senso è di fondamentale importanza la creazione del protocollo TCP/IP (sviluppato, fra gli altri, da Bob Kahn e da Vinton Cerf), che sostituiva il protocollo di rete utilizzato dal 1970 sino a quel momento, denominato Network Control Program (NCP). Nel 1983 il TCP/IP veniva adottato come Military Standard (MIL STD) e veniva prescritto il suo utilizzo su tutti i server della rete. Per agevolarne la diffusione, il DARPA sosteneva economicamente la creazione della ditta «Bolt Boranek and Newman Inc.» (BBN) affinché il TCP/IP venisse implementato nel sistema operativo BSD Unix. Nello stesso anno ARPAnet veniva divisa in MILNET e in una ARPAnet di minori dimensioni e veniva utilizzato il termine Internet per designare l’intere rete (ossia MILNET e ARPAnet), cui nel 1985 si univa NSFnet, creata dalla National Science Foundation (NSF). La NSF voleva rivoluzionare il modo di intendere la Rete, consentendo l’interconnessione fra gli elaboratori di tutti gli scienziati statunitensi. Per questo motivo nel 1987 creava una nuova e più veloce struttura centrale di collegamento (backbone), creando inoltre reti regionali e locali. La velocità del backbone della NSF aumentava vertiginosamente in pochissimi anni: 56 Kbps nel 1986, 1.5 Mbps (T1) nel 1988, 45 Mbps (T3) nel 1990. Nel 1986, intanto, era stato attivato il primo nodo Internet in Italia presso il CNUCE (Centro Nazionale Universitario per il Calcolo Elettronico): per il collegamento internazionale veniva utilizzato un canale satellitare da 64 Kb/s, condiviso fra cinque stazioni terrestri. L’anno successivo iniziava la cooperazione fra CNR, INFN, ENEA, CILEA, CINECA, CSATA, che avrebbe poi portato alla formazione del “Gruppo Armonizzazione Reti per la Ricerca” (GARR). Al fine di potenziare la rete scientifica italiana, nel 1989 veniva finanziato il progetto di creazione di una dorsale italiana da 2 Mb/s, attivata l’anno successivo. Proprio in quegli anni avveniva la vera svolta nell’evoluzione della Rete, con una crescita esponenziale del numero degli elaboratori collegati ad Internet; un primo cambiamento epocale si verificava nel 1990, da un lato con la chiusura di ARPAnet, dall’altro con la creazione di World 7 P. BARAN, On distributed communications, 1964, oggi in http://www.rand.org /publications/RM/baran.list.html. L. KLEINROCK, Information Flow in Large Communications Nets, Proposal for a Ph.D Thesis, Cambridge 1961, reperibile in http://www.lk.cs.ucla.edu/LK/Bib/REPORT/PhD/. 8 3 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE comes on-line, il primo fornitore (provider) privato di accesso ad Internet per mezzo della normale connessione telefonica. Fra il 1990 e il 1991 Tim Berners-Lee, del CERN (Conseil Europèen pour la Recherche Nuclèaire), creava il World Wide Web, rendendo semplice e veloce la consultazione dei documenti posti su Internet. L’illustre studioso partiva dal presupposto che tutti i computer fossero interconnessi e programmati in modo tale da consentire la condivisione e il reperimento delle informazioni contenute in essi, creando così una rete di informazioni. Per definire il suo progetto avrebbe utilizzato «un termine usato in matematica per denotare un complesso di nodi e maglie in cui ogni nodo può essere collegato a un altro, [che] rifletteva la natura distribuita delle persone e dei computer che il sistema poteva mettere in collegamento, offrendo la promessa di un sistema potenzialmente globale»: WWW, World Wide Web9. Berners-Lee realizzava così un linguaggio ipertestuale (l’HTML, HyperText Markup Language), in modo da permettere una lettura non sequenziale delle informazioni contenute in ciascun computer connesso alla Rete e da consentire il passaggio da un computer all’altro mediante i link (collegamenti) esterni, mentre i documenti sono identificati da un Uniform Resource Locator (URL)10, grazie al quale essi sono reperibili da chiunque sia on line: l’URL svolge nel web la stessa funzione svolta da un indirizzo nel mondo fisico e consente di specificare quale protocollo debba essere utilizzato e dove trovare la risorsa utilizzata11. Veniva inoltre sviluppato un software (il c.d. browser12) che consentiva di leggere e scrivere le pagine in formato HTML nonché di navigare nel web grazie al protocollo HTTP (HyperText Transfer Protocol), ossia il protocollo grazie al quale i diversi sistemi possono dialogare e mediante il quale avviene il trasferimento dei dati da un computer all’altro. Alla decentralizzazione del Web si contrapponeva e si contrappone tuttora la centralizzazione dell’attività di assegnazione dei «nomi di dominio», ossia dei nomi di un servizio, di un sito web o di un computer, inserito in un sistema gerarchico di autorità delegata detto Domain Name System (DNS). Ai primi browser inizialmente sviluppati (nel 1993 erano già più di cinquanta) faceva seguito (nel febbraio del 1993) il «Mosaic», sviluppato da Marc Andreessen, studente nel National Center for Supercomputing Applications (NCSA). Andreessen si era dimostrato molto attento alle esigenze degli utenti, riuscendo così a creare un software assai semplice da utilizzare; gli sforzi profusi nella sua creazione non sarebbero stati vani, perché nel 1994 il gruppo di ricerca confluiva in una nuova azienda denominata «Netscape», che nello stesso anno (il 15 dicembre) presentava un nuovo browser denominato «Navigator», distribuito gratuitamente su Internet13. Nell’ottobre del 1994, in seno al CSL (Computer Science Laboratory) del MIT, Berners-Lee fondava il World Wide Web Consortium (W3C, http://www.w3.org), allo scopo di «spingere il Web al suo pieno potenziale», sviluppando protocolli comuni che ne assicurino l’evoluzione e l’interoperabilità. Il W3C poteva inoltre godere dell’appoggio del DARPA, del CERN, della Commissione Europea e dell’INRIA (Institut National de Recherche en Informatique et en Automatique). Nello stesso periodo l’Università del Minnesota esprimeva l’intenzione di pretendere il 9 T. BERNERS–LEE, op. cit., p. 34. In realtà Tim Berners–Lee aveva proposto l’utilizzo dell’espressione «Universal Resource Identifier», ma si erano levate proteste da parte di alcuni componenti della IETF (Internet Engineering Task Force) a causa del termine «Universal», per cui si decise di utilizzare l’espressione citata nel testo. 11 Un esempio di URI: “http://www.parlamento.it/senato.htm”. Le prime lettere dicono al browser quale protocollo di comunicazione è utilizzato, la parte “www.parlamento.it” identifica il server ove reperire il documento, mentre “senato.htm” è il documento specifico contenuto nel server. La prima parte è separata dai due punti e dal doppio slash (/), mentre gli slash singoli che seguono separano le singole parti; all’interno del server i file e le directory sono dunque disposti ad albero. 12 Il primo browser web è stato creato da Berners–Lee su un elaboratore NeXT e denominato “WorldWideWeb”. 13 La scelta di distribuire gratuitamente il software evidenzia l’intento della Netscape di trarre profitto non dal «Navigator», ma piuttosto dalla pubblicità posta sul suo sito (che ovviamente costituiva la prima pagine cui il browser si connetteva, per quanto si potesse modificare tale opzione), compresa quella agli ulteriori servizi offerti (a pagamento) dalla Netscape. 10 4 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE pagamento di un canone da parte delle aziende private che utilizzavano «Gopher», con la conseguenza di decretarne l’abbandono da parte di questa fascia di utenza. Per evitare che anche la tecnologia alla base del Web potesse subire il medesimo destino, il CERN, accettando la proposta di Berners–Lee, permetteva a tutti di usare gratuitamente il protocollo e il codice del Web. Dal 1995 la NSF non costituisce più la struttura centrale (backbone) primaria di Internet, che è oggi gestita da provider commerciali a livello nazionale (tier–one) e regionale, i quali gestiscono le infrastrutture. Gli Internet service providers (ISP) forniscono invece l’accesso locale e i servizi agli utenti. Le varie reti confluiscono poi nei Network Access Point (NAPs), ossia nei punti di interconnessione. Nel 1998 la ICANN (Internet Corporation for Assigned Names and Numbers) ha preso il posto della IANA: è una organizzazione no–profit, che dunque gestisce l’attività relativa all’assegnazione degli indirizzi IP, sia con riferimento alla loro componente numerica che ai nomi a dominio14 (ossia l’indirizzo espresso in lettere di una risorsa su Internet). In Italia tale attività è svolta dalla Naming Authority, che stabilisce le procedure operative, e dalla Registration Authority, detta anche Italian Network Information Center (it–nic). Nel rispetto delle regole previste dalla Naming Authority, la Registration Authority assegna, gestisce e mantiene il database dei nomi a dominio. Anche oggi Internet non è gestita a livello centrale, ma accanto ai soggetti sinora citati se ne pongono altri, che ne definiscono e gestiscono il funzionamento15. 3. Internet: aspetti tecnici L’analisi dell’effettivo funzionamento della rete Internet richiede conoscenze specifiche frutto di una preparazione, anche interdisciplinare, che normalmente il giurista non possiede, anche a causa dell’estrema rapidità con cui è avvenuta la rivoluzione tecnologica, che in pochi anni ha mutato la società. All’enorme diffusione dei computer, molti dei quali connessi alla Rete, si accompagna una molteplicità di fatti «avvenuti» nel cyberspace che producono conseguenze giuridicamente 14 I domini sono suddivisi in più livelli: all’apice si trovano i domini di primo livello (Top Level Domain, TLD), a loro volta suddivisibili in domini di secondo livello, anch’essi ulteriormente suddivisibili secondo lo stesso criterio. Ad esempio, nell’indirizzo web “www.parlamento.it”, “.it” rappresenta il TLD, “parlamento.it” il dominio di secondo livello. All’epoca di ARPAnet i TLD erano solo sette: “.com”, “.edu”, “.gov”, “.mil”, “.net”, “.org”, “.int”. Successivamente sono stati creati i domini di primo livello nazionale (Country Code Top Level Domain, ccTLD), come “.it”, “.de”, cui se ne sono aggiunti altri, come “.biz”, “.info”, ecc. 15 Bisogna dunque ricordare l’Internet Society (ISOC, http://www.isoc.org) il cui scopo è facilitare lo sviluppo degli standard, dei protocolli e delle infrastrutture tecniche di Internet, grazie ad un dibattito aperto sulla sua evoluzione, in un ambiente caratterizzato da una cooperazione internazionale e nel rispetto del principio di un uso aperto e libero della Rete, respingendo dunque interventi regolamentativi censori che possano violare il diritto alla libera manifestazione del pensiero. Essa è stata fondata nel 1992, per fornire il supporto economico necessario allo sviluppo degli standard nel caso in cui i finanziatori avessero diminuito l’entità dei propri contributi. Nel suo ambito operano altre organizzazioni: l’Internet Architecture Board (IAB, http://www.iab.org), che monitorizza lo sviluppo di Internet ed effettua pianificazioni a lungo termine con riferimento all’evoluzione della sua struttura, oltre a coordinare i vari settori della IETF (v. infra); l’Internet Engineering Steering Group (IESG, http://www.ietf.org/iesg.html), che gestisce proceduralmente le attività tecniche dei gruppi, approva le specifiche e ne cura la pubblicazione; l’Internet Research Task Force (IRTF, http://www.irtf.org), che istituisce piccoli gruppi di ricerca che si occupano dell’evoluzione di vari aspetti tecnici della Rete, come i protocolli e la sua architettura; infine, l’Internet Engineering Task Force (IETF, http://www.ietf.org), creata nel 1986. La IETF organizza gli incontri finalizzati alla realizzazione e alla discussione degli standard; essa è una comunità che si prefigge l’obiettivo di contribuire all’evoluzione di Internet. È suddivisa in otto aree tecniche, al cui vertice è posto un direttore di area (AD); gli AD sono membri dello IESG. Non ci si può iscrivere allo IETF, ma si può partecipare alle mailing lists e agli incontri, tenuti tre volte l’anno in posti diversi del mondo: infatti tutte le sue attività sono pubbliche ed aperte a tutti. I singoli lavori sono invece svolti da vari working groups, creati ad hoc per ciascun obiettivo specifico. Chi eccelle nelle attività e nei gruppi di lavoro dello IETF può essere eletto nello IAB e nello IESG. Le specifiche approvate nello IETF vengono pubblicate come Requests for Comment (RFC), e nel corso del loro sviluppo le versioni di lavoro divengono di pubblico dominio e prendono il nome di Internet Drafts, i quali durano sei mesi, dopo i quali possono essere rimossi, approvati come RFC o riproposti (anche se modificati). Le specifiche evolvono attraverso una serie di livelli conosciuti come standard tracks e se una di esse viene diffusamente valutata in maniera positiva in base all’uso ed alle implementazioni che ne vengono fatte, diviene un Internet Standard. 5 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE rilevanti. Non si può tuttavia guardare unicamente alla conseguenza della condotta, ma bisogna pure prendere in considerazione le modalità con cui essa si realizza, al fine di una corretta sussunzione del fatto entro le eventuali norme giuridiche applicabili. Pertanto, affinché anche l’operatore del diritto possa interessarsi con cognizione di causa alla disciplina delle norme relative all’informatica, è assolutamente necessaria una conoscenza di base di alcuni elementi teorico-pratici di questa materia, e ciò sia in prospettiva de jure condito che de jure condendo, al fine di poter offrire una valutazione delle varie fattispecie basata non su preconcetti o convinzioni personali ma piuttosto sulla realtà, senza dover comunque prendere in considerazione quegli aspetti squisitamente tecnici che ovviamente costituiscono l’oggetto di studio di altre discipline. Un’analisi, seppur sommaria, degli aspetti tecnici di Internet deve necessariamente partire dal concetto di rete, certamente non esclusivo del campo informatico: basti pensare alle reti elettriche o telefoniche. Una rete è composta da «nodi» e «connessioni» che legano due nodi, ognuno dei quali può avere più connessioni, che, a loro volta, possono essere fisiche o wireless. Proprio le reti elettriche e telefoniche sono esempi di reti del primo tipo, mentre quelle televisive e di telefonia mobile sono di tipo wireless. Con precipuo riferimento alle reti che collegano i computer, bisogna primariamente distinguere fra reti «locali» (Local Area Network, LAN) e «geografiche» (Wide Area Network, WAN). Le LAN collegano elaboratori posti a distanza ridotta, ad esempio in un medesimo edificio, mentre le WAN collegano siti o reti geograficamente distanti: Internet è, dunque, una WAN che collega più LAN. Gli elaboratori possono essere interconnessi mediante dispositivi che consentono la trasmissione e la ricezione di informazioni: ciò può avvenire sia mediante cavi di varia tipologia che tramite periferiche wireless. Nel primo caso la velocità sarà assai maggiore, ma ovviamente è necessario collegare materialmente le periferiche, mentre nel secondo basterà porre i dispositivi alla distanza corretta, tenendo presente che la qualità del segnale (e di conseguenza la velocità) diminuirà con l’aumentare della distanza. Una volta realizzato il collegamento fra gli elaboratori è necessario che questi possano dialogare fra loro, sia per potersi reciprocamente «vedere» che scambiare dati; come l’uomo comunica con il linguaggio, cioè con un protocollo conosciuto fra chi dialoga, così i computer dialogano fra loro utilizzando un protocollo comune: nel caso di Internet, il TCP/IP (Transmission Control Protocol/Internet Protocol) (che, invero, è una suite di protocolli). Tale standard ha consentito una diffusione della Rete tanto capillare, perché è assolutamente indipendente dal modo in cui la rete è realizzata, sia a livello hardware che software, ed è inoltre uno standard aperto, utilizzabile senza limitazioni da chiunque su qualsiasi computer e su tutti i sistemi operativi, che oramai lo supportano in maniera nativa. In Internet gli elaboratori devono poter essere identificati univocamente e ciò avviene mediante l’assegnazione di un indirizzo IP16, composto da quattro triplette di numeri che arrivano, ciascuna, sino a 255. Il protocollo IP17 consente la trasmissione di dati tra due computer identificati 16 Riguardo l’indirizzamento, bisogna sottolineare che «a distinction is made between names, addresses, and routes. A name indicates what we seek. An address indicates where it is. A route indicates how to get there. The internet protocol deals primarily with addresses» (RFC 791, september 1981, p. 6). 17 Oggi questo protocollo è implementato nella sua versione 4, ormai in uso da più di vent’anni. Il suo problema principale è costituito dal limitato numero di indirizzi IP teoricamente disponibili, per cui nelle ricerche relative al suo sviluppo ci si è concentrati sul superamento di tale limite e si è giunti al c.d. IPv6, sviluppato nell’ambito della IETF. Prima della sua diffusione globale è prevista una fase transitoria in cui coesisteranno entrambe le versioni del protocollo, per giungere poi ad una graduale sostituzione della versione precedente. Nell’IPv4, il sistema di indirizzamento è definito da un numero di 32 bit che permette fino a 4.294.967.295 indirizzi e, come detto, l’indirizzo IP è rappresentato da quattro gruppi di numeri decimali di otto bit (bytes) divisi da punti; nell’IPv6 il numero di cui sopra passa da 32 bit a 128 bit (16 ottetti), rendendo così disponibile un numero enorme di possibili combinazioni (addirittura 340.282.366. 920.938.463.463.374.607.431.768.211.456 indirizzi, ossia trecentoquaranta miliardi di miliardi di miliardi). Per quanto i circa quattro miliardi di indirizzi consentiti dall’IPv4 possano sembrare più che sufficienti per le esigenze attuali della società, bisogna considerare che il numero di quelli effettivamente utilizzabili è assai inferiore. L’indirizzo IP è suddiviso in due campi, dei quali l’uno identifica la rete, l’altro l’host. Gli indirizzi sono 6 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE univocamente tramite l’indirizzo IP: tali dati sono suddivisi in pacchetti di una certa dimensione ai quali vengono assegnati gli indirizzi del mittente e del destinatario. Il protocollo TCP assicura l’arrivo a destinazione dei pacchetti inviati e verifica che i pacchetti ricevuti siano sistemati secondo l’ordine di trasmissione, provvedendo a riordinare quelli che non hanno seguito l’ordine corretto. Lo stesso protocollo garantisce, dunque, che la trasmissione sia andata a buon fine ed eventualmente chiede di nuovo quei dati che non sono giunti all’altro calcolatore, provvedendo, in ogni caso, a ricostruire l’esatta sequenza dei dati inviati dal mittente. L’enorme espansione di Internet si è riverberata anche sulle reti locali, dal momento che nella maggior parte delle LAN viene utilizzato proprio il protocollo TCP/IP per permettere la comunicazione fra i computer collegati, consentendo di superare i problemi di una eccessiva proliferazione di standard diversi, che consistono nella difficoltà di far dialogare sistemi differenti cui necessariamente consegue un aumento dei costi di configurazione e di gestione18. Attualmente, il protocollo TCP/IP è supportato da tutti i sistemi operativi (Windows, Linux, Unix, Macintosh), per cui il suo utilizzo rende possibile la comunicazione fra più computer aventi caratteristiche ben differenti. Anche il linguaggio con cui sono scritte le pagine web è comprensibile da elaboratori differenti, essendo oramai uno standard, seppur in lenta evoluzione: alcuni siti sono scritti in «Flash», che consente la creazione di effetti grafici molto avanzati, rendendo dunque la navigazione in Internet molto gradevole, ma la maggioranza dei siti è scritta in HTML (Hypertext Markup Language), un linguaggio ipertestuale. L’ipertesto presenta numerosi vantaggi rispetto al tradizionale metodo di predisposizione delle informazioni, come avviene, ad esempio, in un libro: utilizzando un ipertesto, infatti, il lettore può saltare da una parte all’altra del testo con un semplice click del mouse, saltando automaticamente quella mole di informazioni ritenute non rilevanti, mentre leggendo un libro si è vincolati ad una lettura sequenziale. È inoltre possibile spostarsi da un documento all’altro sempre con le stesse modalità: ad esempio, in un ipertesto dedicato al diritto civile, l’art. 2050 cod. civ. potrebbe essere collegato alle leggi che utilizzano il regime di responsabilità ivi delineato, come il «Codice in materia di protezione dei dati personali», e da qui, eventualmente, essere collegati alla relativa giurisprudenza. Questo breve esempio permette di comprendere come un ipertesto possa rendere assai più proficua un’attività di studio e di ricerca, automatizzando quelle attività collaterali che distraggono dall’obiettivo concreto e dunque consentendo di concentrarsi solo sull’aspetto centrale. Quando tali informazioni sono accessibili on line, la loro consultazione è resa possibile mediante la connessione ad un sito web, che si verifica quando il proprio computer (detto client) si collega ad un altro elaboratore (detto server), nel quale sono memorizzate le pagine che si intende visitare. Il World Wide Web (WWW) non si identifica tuttavia con Internet, per quanto venga sovente utilizzato come sinonimo: rappresenta invece quella componente di facile accesso che ha grandemente contribuito alla diffusione della Rete e che la ha fatta diventare un ipertesto di infinite dimensioni. Accanto al protocollo HTTP si pongono anche altre tipologie di interscambio dei dati (non così divisi in tre classi principali (A, B, C), che si differenziano in base al numero dei byte utilizzati per identificare la rete e l’host. In particolare, nella classe A (rappresentata dagli indirizzi IP compresi tra 1.0.0.0 e 127.255.255.255) il primo byte identifica la rete, mentre i tre byte successivi identificano l’host. Si possono pertanto ottenere 127 reti, ciascuna costituita da 16.777.216 host. Nella classe B (costituita dagli indirizzi IP compresi tra 128.0.0.0 e 191.255.255.255) la rete è identificata nei primi due byte, mentre i due successivi fanno riferimento agli host per un totale di 16.384 reti composte da 65.536 host. Nella classe C (composta dagli indirizzi compresi tra 192.0.0.0 e 223.255.255.255) l’host è identificato solo dall'ultimo byte mentre i primi tre rappresentano la rete, per cui è possibile gestire 2.097.152 reti composte da 256 host. Le reti appartenenti alle suddette classi possono essere suddivise in sottoreti (subnets), al fine di agevolare le operazioni di routing e di gestione degli indirizzi, nonché per ottimizzare l’utilizzo degli indirizzi IP in ragione della loro intrinseca finitezza. La suddivisione di una rete in due o più sottoreti si esegue attraverso la netmask, che stabilisce quali indirizzi IP possono essere usati nelle sottoreti. Inoltre, sono stati predisposti alcuni indirizzi IP privati che non possono essere utilizzati dai vari provider (ossia 10.254.254.254, dal 172.16.0.0 al 172.31.254.254 e dal 192.168.0.0 al 192.168.254.254). Infine, alle tre classi citate se ne affiancano altre due (D, E): gli indirizzi di classe D identificano infatti un indirizzo multicast (nelle trasmissioni in multicast un solo host trasmette e tutti gli altri ricevono), mentre gli indirizzi di classe E sono utilizzati a fini sperimentali. 18 Fra i vari standard si possono qui ricordare: NetBEUI (IBM e Microsoft); IPX/SPX (Novell); AppleTalk (Apple). 7 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE sostitutivi del TCP/IP, cui si affiancano) come il File Transfer Protocol (FTP), il Telnet, il Simple Mail Transfer Protocol (SMTP). L’FTP rappresenta lo standard su Internet per il trasferimento di file, ossia la trasmissione di file completi da un sistema all’altro. Per poter accedere al sistema che ospita il file è necessaria un’autorizzazione preventiva, a meno che il server non sia impostato per consentire anche l’accesso anonimo come guest. Questo protocollo è supportato da pressoché tutti i sistemi operativi, per cui il trasferimento di file è possibile fra computer totalmente diversi, sia dal punto di vista hardware che software. Il Telnet consente ad un computer connesso ad un altro elaboratore di operare come un suo terminale ad esso direttamente collegato, permettendo di controllarlo in remoto19. Infine, l’SMTP è il protocollo più utilizzato nell’ambito della posta elettronica e consente il trasferimento delle e–mail da un server di posta all’altro20. La posta elettronica, insieme al WWW, costituisce certamente una delle componenti fondamentali che ha contribuito all’odierna diffusione di Internet, perché ha consentito una celerità di comunicazione ed una flessibilità senza pari21. Alla riservatezza dei messaggi di posta elettronica si contrappone il carattere di pubblicità dei «newsgroups», o «gruppi di discussione» o «forum», i quali consistono in una sorta di bacheca elettronica, in cui chiunque può, tramite elaboratore elettronico, leggere i messaggi apposti da altri utenti e aggiungere i propri contributi22; il loro numero è elevatissimo (svariate migliaia) e coprono argomenti di varia natura; si distinguono in moderati e non, a seconda della presenza o meno del c.d. moderatore, che analizza i messaggi in arrivo ed elimina gli interventi non in linea, per forma o contenuto, con le tematiche e i requisiti del gruppo23. Fra le nuove frontiere bisogna citare i programmi di file sharing (condivisone di file), detti anche software di peer to peer. Essi consentono uno scambio diretto fra i file ospitati sulle macchine di ciascun utente e stanno diventando sempre più evoluti, grazie all’apporto di vere e proprie comunità di utenti che portano avanti l’idea della condivisione delle risorse. Il primo software di file sharing di massa è l’ormai celebre Napster, del 1999, assai primitivo se paragonato ai sistemi attuali: consentiva la sola condivisione di file musicali, divenuta possibile grazie alla nascita del formato mp3, che ne consente un’ottima compressione garantendo al tempo stesso un’eccellente qualità del file compresso, paragonabile alla qualità garantita dalla registrazione su supporti di tipo CD audio. Nei confronti di Napster è stata posta in essere una forte battaglia legale da parte delle major discografiche24, ma dopo la sua chiusura sono stati creati altri programmi, ben più flessibili e non 19 Nei software telnet viene implementata l’emulazione di varie tipologie di terminali. Il funzionamento del protocollo SMTP è alquanto semplice: dopo la creazione di un messaggio di posta elettronica, ad esso viene apposto l’indirizzo di destinazione e subito inviato dall’applicazione locale (Mail User Agent) a quella SMTP, che memorizza il messaggio. Ad intervalli periodici il server controlla se ci sono nuovi messaggi da inviare e, in caso positivo, procede in tal senso. Se ciò non risulta possibile riprova per un certo numero di volte e se la situazione di impossibilità della consegna persiste, provvede alla cancellazione del messaggio oppure alla sua restituzione al mittente. 21 Basti pensare alla possibilità di allegare file di qualsiasi tipo a ciascun messaggio, che giungono a destinazione in pochi secondi (il tempo varia, ovviamente, in relazione alla dimensione complessiva del messaggio nonché alla velocità del server e del client). Per inviare una e–mail, oltre, ovviamente, la connessione ad Internet, è necessario conoscere solamente l’indirizzo del destinatario (del tipo [email protected]), similmente a quanto avviene con le spedizioni effettuate a mezzo del servizio postale. 22 Si distinguono dalle mailing lists perché esse sono costituite da comunicazioni effettuate mediante posta elettronica, pertanto leggibili solo dagli iscritti (subscribers), mentre i messaggi inviati nei newsgroups sono leggibili da chiunque vi abbia accesso. 23 Il protocollo utilizzato per la distribuzione dei messaggi nei newsgroup è detto Network News Transfer Protocol (NTTP). In linea di principio, i newsgroup sono ospitati su un unico elaboratore (server), al fine di limitare sia la circolazione di messaggi duplicati sia l’occupazione dello spazio su disco in tutti gli host client. Il computer centrale serve, generalmente, una cospicua fascia di utenza (ad esempio, tutti i clienti di un provider), consentendo l’accesso all’archivio dei messaggi e memorizzando quelli messaggi che gli vengono inviati via NTTP. Il medesimo protocollo è utilizzato dai vari newsfeed per realizzare l’interscambio dei messaggi ospitati da ciascuno di essi. 24 Le varie majors stanno conducendo svariate battaglie legali non solo contro i produttori dei software in oggetto, ma hanno anche proceduto all’identificazione degli utenti sospettati di aver scambiato opere protette da copyright. Tale attività si è realizzata, per forza di cose, mediante un monitoraggio dell’attività degli utenti, ivi compresi coloro che mai 20 8 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE più basati su server centrali. Difatti, nonostante i file ospitati dagli utenti di Napster si trovassero sui propri computer, era stata creata una rete di server centrali che facevano da tramite fra gli utenti stessi. Con i moderni sistemi è possibile fare a meno dei server centrali, costituendo reti server–less o creando una galassia di mini-server, facendo sì, ad esempio, che ogni utente sia allo stesso tempo server e client oppure che un grosso numero di utenti faccia da server, in modo da essere difficilmente rintracciabili e dunque sottoposti a controlli, di per sé inefficaci, a meno di non controllare tutte le comunicazioni effettuate on line al fine di individuare quelle illecite, ledendo tuttavia la privacy di tutti coloro che vengono sottoposti ad indebiti controlli e dunque ponendo in essere un illecito ben più grave perché lesivo dei diritti fondamentali della persona. 4. I motori di ricerca su Internet I motori di ricerca (o search engines) consentono di individuare pagine e/o siti web di interesse, mediante ricerche testuali o navigazione in categorie predefinite. Costituiscono uno strumento insostituibile per qualunque navigatore, posta l’immensità del World Wide Web, la cui fortissima espansione è dovuta in parte anche alla loro efficienza ed alla loro semplicità di utilizzo. Un sistema di ricerca è formato da tre componenti principali: - un sistema finalizzato alla ricerca ed all’analisi delle pagine web; - un archivio nel quale sono contenute le informazioni sulle pagine catalogate; - una interfaccia che consente la consultazione delle informazioni reperite. Esistono tre tipologie di motori di ricerca: automatici (o crawlers), directory engines (o indici), metacrawlers. I primi sono basati su dei software (detti spiders, o robots, o bots) che automaticamente reperiscono pagine web, le analizzano e le classificano. In linea generale, l’utente può effettuare ricerche sui siti web mediante la digitazione dei termini di ricerca all’interno di un’apposita mascherina. L’utilizzo degli spider consente un aggiornamento costante del database che contiene l’elenco dei siti, ma sussiste il problema della precisione e dell’attinenza dei risultati dell’operato di tali software, che non sempre riescono a fornire una corretta classificazione dei siti. I crawlers si differenziano l’uno dall’altro per i criteri seguiti dai propri spider, criteri basati su algoritmi che non vengono resi pubblici e sovente modificati. Fra i motori di ricerca automatici un posto di assoluto rilievo è occupato da «Google» (http://www.google.com), il cui indice contiene più di tre miliardi di URL. Il nucleo principale di Google è costituito da un particolare sistema di classificazione, detto «PageRank», sviluppato presso l’Università di Stanford da Larry Page e Sergey Brin. Tale sistema fa in realtà parte di una struttura più complessa, che oggi consente una classificazione di ottimo livello dei vari siti grazie all’utilizzo di una molteplicità di variabili che prendono in considerazione il contenuto delle singole pagine, i collegamenti ad un sito effettuati da altri siti nonché il contesto in cui sono posti gli stessi link25. hanno commesso illeciti; poiché l’intercettazione di flussi di dati è generalmente considerata un reato, in quanto lede la privacy individuale, risulta palese la ben più grave illiceità cui portano simili condotte, considerando che, sempre in linea di principio, la riservatezza è un diritto fondamentale dell’individuo, che non può sopportate lesioni generalizzate da parte di soggetti privati al di fuori del controllo dell’autorità giudiziaria, perché la sua violazione può essere disposta solo per gravi motivi, eventualmente qualora confligga con un diritto di rango pari o superiore. 25 Più specificatamente, Google interpreta un collegamento dalla pagina A alla pagina B come un «voto» espresso dalla prima in merito alla seconda. Oltre al calcolo del numero dei voti così assegnati a una pagina, il sistema prende in esame la pagina che ha assegnato il voto, dando maggiore perso ai voti espressi da pagine c.d. «importanti». A tali siti, infatti, PageRank assegna un «voto» più elevato di cui Google tiene conto ogni volta che esegue una ricerca. A questo criterio «soggettivo» è affiancato da sofisticate procedure di ricerca testuale per il reperimento delle pagine rispondenti ai criteri di ricerca indicati, effettuando un’analisi contenutistica della pagina cercata nonché delle pagine ad essa collegate. Oltre Google è doveroso menzionare anche Altavista (http://www.altavista.com), creato nel 1995 e subito divenuto famosissimo, fra l’altro, sia perché per la prima volta consentiva di formulare le interrogazioni secondo il linguaggio naturale e sia per la sua velocità nel fornire i risultati delle ricerche, dovuta alla potenza degli elaboratori utilizzati. 9 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE La seconda tipologia di motori di ricerca è costituita dai directory engines, nei quali la ricerca delle pagine da indicizzare non viene svolta in maniera automatizzata, ma viene effettuata manualmente da personale umano, che provvede a classificare i siti secondo le linee tematiche, offrendo all’utente finale la possibilità di fare ricerche mediante l’inserimento delle parole chiave nella mascherina di ricerca oppure di sfogliare le singole categorie, organizzate in classi tematiche e ripartite in altre sottoclassi secondo una classica suddivisione ad albero. Ovviamente, essendo basati su una valutazione umana, tali sistemi sono più precisi rispetto ai crawlers, ma questa maggiore accuratezza non consente né l’aggiornamento tanto rapido di cui possono invece fruire i secondi né una simile ampiezza di database26. Il più importante motore di ricerca in questa categoria è senza dubbio «Yahoo» (http://www.yahoo.com), creato nel 1994 da David Filo e Jerry Yang dell’Università di Stanford. La disposizione dei siti all’interno delle directory di Yahoo è sempre stata svolta manualmente, mentre la possibilità di ricerca consisteva inizialmente in una ricerca semplice all’interno del database. Successivamente è stata automatizzata una parte del processo di raccolta e classificazione delle informazioni, rendendo più labile la distinzione fra le prime due categorie. Oggi Yahoo, ferma restando la suddivisione in directory, si affida a Google per l’effettuazione delle ricerche, mentre anche il secondo presenta una suddivisione per categorie, finalizzata alla realizzazione dell’Open Directory Project, ossia alla creazione della più completa directory del Web. La terza categoria è quella dei metacrawlers, costituita da quei motori di ricerca che non hanno un proprio database da interrogare, ma che invece svolgono la propria attività sui motori di ricerca veri e propri. Pertanto, una volta inviata la query, il sistema provvede ad effettuare la ricerca simultaneamente su più motori di ricerca, comparando automaticamente i risultati di ciascuno e dunque consentendo, in linea teorica, di giungere ai migliori esiti. Il primo esempio di questa tipologia è proprio «Metacrawler» (http://www.metacrawler.com), creato nel 1994 da Erik Selberg e Oran Etzioni dell’Università di Washington e tuttora funzionante. 5. Il provider L’accesso ad Internet è reso possibile dalla predisposizione di un servizio da parte di un soggetto denominato Internet access provider, anche se, accanto a tale fondamentale prestazione, sempre più spesso si accompagnano servizi accessori, come la concessione di uno spazio web o di una o più caselle di posta elettronica: in tal caso si parla, più propriamente, di Internet Service Provider (ISP). Pertanto, qualsiasi attività posta in essere su Internet, come la semplice visione di un sito web o l’invio di un messaggio di posta elettronica, è sempre posta in essere per mezzo del provider, dal momento che tutti i dati da e verso i computer dei suoi clienti passano tramite i suoi elaboratori. Quando l’ISP fornisce uno spazio web alla propria clientela può semplicemente mettere a disposizione un determinato spazio o creare e gestire il sito secondo i desideri della clientela stessa, ma comunque con un’attività propria. Nel primo caso si parla di host provider, nel secondo di content provider. Queste distinzioni sono di importanza fondamentale per la ricostruzione del regime di responsabilità applicabile all’ipotesi di comportamenti illeciti effettuati via Internet attraverso gli elaboratori del provider. Difatti, nel caso in cui l’autore dell’illecito risulti anonimo27, per 26 Per quanto l’osservazione possa sembrare di scuola, è doveroso puntualizzare che, in astratto, i sistemi basati sulla valutazione umana potrebbero eguagliare o superare i crawler, a patto di utilizzare un numero enorme di persone deputate alla ricerca ed alla indicizzazione dei siti; ovviamente tale numero sarebbe così elevato da rendere praticamente irrealizzabile tale ipotesi. 27 «L’anonimato, infatti, può essere usato per violare la privacy altrui»; così S. RODOTÀ, Tecnopolitica, Roma–Bari 1997, p. 145; tuttavia «la possibilità di rimanere anonimi è indispensabile per garantire nel cyberspazio il rispetto dei diritti fondamentali alla riservatezza e alla libertà di espressione» (G. SANTANIELLO, Privacy telematica e utilizzo di Internet, reti e servizi di telecomunicazioni, in http://www.privacy.it/ convirisant.html); B. DONATO, La responsabilità dell’operatore di sistemi telematici, in «Dir. inf.», 1996, 1, p. 146, da un lato considera che «l’anonimato della connessione costituisce un incentivo al reato informatico», dall’altro esprime la preoccupazione che estendendo il 10 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE consentire il risarcimento al danneggiato è necessario configurare la responsabilità del provider. Nella maggior parte dei casi è possibile risalire al nome dell’utente che ha commesso la violazione: ciò è realizzabile tramite l'utilizzo dei file di log28, anche se al riguardo si pone l’ulteriore problema dell’utilizzo abusivo di user ID e password altrui29. Il primo caso europeo rilevante in subiecta materia si è verificato in Francia ed è stato deciso dalla Corte d’appello di Parigi il 10 febbraio 199930: i giudici d’oltralpe hanno stabilito che il provider che offre ospitalità anonima e senza restrizioni di accesso, consentendo la diffusione di segni, scritti, immagini, suoni e messaggi, estranei alla corrispondenza privata, eccede il ruolo tecnico di semplice trasmettitore di informazioni ed è direttamente responsabile nei confronti dei terzi del compimento di atti illeciti all’interno dei siti che gestisce. Un altro caso straniero molto celebre (Godfrey v. Demon) è stato originato dalla diffamazione nei confronti del dott. Laurence Godfrey, avvenuta in un newsgroup: in questa occasione, è stata riconosciuta la responsabilità in capo al provider per l’immissione di dichiarazioni diffamatorie da parte di un soggetto rimasto anonimo31. In Italia, la responsabilità del provider ha trovato una prima disciplina solo con il d.lgs. 9 aprile 2003, n. 70 e la mancanza di una normativa di settore ha in alcuni casi portato la giurisprudenza ad applicare analogicamente la legge sulla stampa nei confronti del provider32, anche se non sono mancate le pronunce in senso opposto33. In realtà, i tentativi di estendere alle comunicazioni telematiche la normativa sulla stampa hanno costituito «maldestre operazioni di disciplina giuridica di realtà assai diverse e ben più complesse. Un sistema può ben vivere con delle lacune e l’horror vacui nasconde spesso solo una radicata vocazione dirigistica degli apparati statali cui nulla deve e può sfuggire»34. L’estensione della suddetta normativa anche ai provider li graverebbe di una regime della responsabilità oggettiva nei confronti del provider, venga giustificata l’intrusione di questi finanche nelle caselle di posta elettronica. 28 Il log file memorizza lo user ID (o login, o nome di accesso), la password e tutte le azioni compiute da un determinato soggetto per mezzo dell’elaboratore elettronico con cui questi si collega alla Rete. 29 Si pensi al caso, tutt’altro di scuola, del tecnico che apprende le suddette informazioni durante la sua opera di configurazione o di riparazione di un determinato computer (anche se in tal caso sussiste la colpa del cliente, il quale dovrebbe subito cambiare la password o in ogni modo non comunicarla); in tal caso, comunque, troverebbe applicazione l’art. 615 ter cod. pen. 30 In «Danno e resp.», 1999, 7, p. 754, con nota di F. DI CIOMMO, Internet, diritti della personalità e responsabilità aquiliana del provider, pp. 756–765, e in «Dir. Inf.», 1999, 4–5, p. 926, con nota di G. M. RICCIO, La responsabilità del provider nell’esperienza francese: il caso Hallyday, pp. 929–941. Il caso riguardava la pubblicazione, sul sito http://altern.org/ silversurfer, di fotografie di nudo ritraenti la sig.ra Estelle Hallyday, senza il suo consenso. 31 Per una analisi più dettagliata del caso v. Y. AKDENIZ, Case Analysis: Laurence Godfrey v. Demon Internet Limited, in «Journal of Civil liberties», 1999, 4 (2), e in http://www.cyber–rights.org/reports/demon.htm. Con riferimento alla responsabilità del provider in casi simili, si segnala la sentenza del Tribunale di Roma 4 luglio 1998 (in «Dir inf.», 1998, 4–5, p. 807, con nota di P. COSTANZO, I newsgoups al vaglio dell’autorità giudiziaria (ancora a proposito della responsabilità degli attori d’Internet), pp. 811–816), nella quale correttamente si afferma che «nel caso di un newsgroup, ed in particolare di un newsgroup non moderato, il news server si limita a mettere a disposizione degli utenti lo spazio virtuale dell’area di discussione e non ha alcun potere di controllo e vigilanza sugli interventi che vi vengono inseriti e deve pertanto escludersi la legittimazione passiva del suo gestore». 32 Trib. Napoli 8 agosto 1997, in «Giust. civ.», 1998, 1, I, p. 259, con nota di L. ALBERTINI, Le comunicazioni via Internet di fronte ai giudici: concorrenza sleale ed equiparabilità alle pubblicazioni a stampa, pp. 261–267; inoltre, va segnalata l’ord. 23 giugno 1998 (reperibile in http://www.interlex.com/regole/sequestr.htm), con la quale la Procura della Repubblica presso la Pretura di Vicenza ha disposto il sequestro preventivo del server di “Isole nella rete”. 33 Trib. Teramo 11 dicembre 1997, in «Dir. inf.», 1998, 2, p. 370, con nota di P. COSTANZO, Libertà di manifestazione del pensiero e «pubblicazione» in Internet, pp. 372–378; Trib. Roma 4 luglio 1998, cit.; G.U.P. Trib. Oristano 25 maggio 2000, in «Dir. inf.», 2000, 4–5, p. 653, con nota di P. COSTANZO, Ancora a proposito dei rapporti tra diffusione in Internet e pubblicazione a mezzo stampa, pp. 657–664. 34 V. ZENO–ZENCOVICH, La pretesa estensione della telematica al regime della stampa: note critiche, in «Dir. inf.», 1998, p. 28. L’estensione della disciplina dettata in tema di stampa anche nei confronti del provider non sembra comunque sostenibile per più motivi: innanzi tutto, «le cause di responsabilità oggettiva sono un numerus clausus e le stesse non possono essere oggetto di interpretazione analogica» (R. RISTUCCIA, L. TUFARELLI, La natura giuridica di Internet e le responsabilità del provider, in http://www.interlex.it/regole/ristufa.htm); inoltre, se il legislatore è dovuto intervenire esplicitamente con la legge 6 agosto 1990, n. 223 per attribuire gli stessi obblighi dell’editore di una testata giornalistica al gestore di una stazione radiofonica o di una emittente televisiva, non si vede perché dovrebbe ritenersi 11 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE responsabilità eccessiva ed essi potrebbero o dovrebbero diventare una sorta di «censori istituzionali»35, il cui operato censorio potrebbe tuttavia essere sindacato, cadendo in un’impasse difficilmente superabile. Inoltre, anche se si volesse far rispondere il provider per culpa in vigilando, non si terrebbe conto dell’impossibilità tecnica di controllare tutto ciò che transita fra questi e l’utente che accede ad Internet36. In linea di principio, il provider dovrebbe invece rispondere qualora rimanga inerte o rifiuti di rimuovere dal proprio server messaggi, immagini, filmati o quant’altro denunciati quali lesivi di diritti altrui, qualora essi si appalesino tali, in base ad un giudizio sereno ed obiettivo: sul provider deve dunque gravare l’obbligo di attivarsi al più presto in caso di illecito conosciuto o conoscibile commesso tramite il proprio server37. Un obbligo siffatto dovrebbe ritenersi inoltre previsto dall’art. 1176 cod. civ., ai sensi del quale «nell’adempimento delle obbligazioni inerenti all’esercizio di un’attività professionale la diligenza deve valutarsi con riguardo alla natura dell’attività esercitata»: dunque, il provider dovrebbe seguire delle regole di buona condotta tecnica che possono qualificare il suo comportamento quale “professionalmente diligente”, con ovvie ripercussioni sul piano della responsabilità civile. L’emanazione del d.lgs. 70/03, di recepimento della direttiva 2000/31/CE38, avrebbe dovuto sopire il dibattito in materia39, perché esso, come si è accennato, ha disciplinato anche la applicabile tale normativa al provider senza un esplicito atto legislativo (in questo senso V. ZENO–ZENCOVICH, op. ult. cit., p. 17 e D. MINOTTI, Diffamazione, Internet e stampa: quando la legge non lascia comunque impuniti, in http://www.penale.it/giuris/meri_051.htm); ancora, sussistono pesanti diversità contenutistiche e strutturali fra la fornitura del servizio di accesso alla rete e l’editoria; si pensi poi al preciso disposto dell’art. 1 legge 47/48 (che reca la rubrica “Definizioni di stampa o stampato”): «sono considerate stampe o stampati, ai fini di questa legge, tutte le riproduzioni tipografiche o comunque ottenute con mezzi meccanici o fisico–chimici, in qualsiasi modo destinate alla pubblicazione»; risulta dunque palese l’assoluta incompatibilità della descrizione di cui all’art. 1 con la modalità di diffusione delle pubblicazioni a mezzo Internet (G.u.p. Trib. Oristano 25 maggio–6 giugno 2000, cit.) e poiché le norme della stessa legge che sanciscono la responsabilità civile dell’editore (art. 11) e l’obbligo della riparazione pecuniaria da parte dei diffamatori (art. 12) hanno come presupposto l’accertamento di un reato commesso col mezzo della stampa, necessariamente deve ritenersi che l’illecito commesso tramite una comunicazione telematica non integra in alcun modo la fattispecie (V. ZENO–ZENCOVICH, op. ult. cit., p. 25). 35 S. RODOTÀ, Libertà, opportunità, democrazia, informazione, relazione presentata al Convegno Internet e privacy, quali regole?, 8/9 maggio 1998, in http://www.garanteprivacy.it; nello stesso senso G. M. RICCIO, op. cit., in «Dir. inf.», 1999, p. 941. In questo senso anche P. COSTANZO, Le nuove forme di comunicazione in rete: Internet, in F. BRUGALETTA, F. M. LANDOLFI (a cura di), Il Diritto nel Cyberspazio, Napoli 1999, p. 91–131; M. L. DE GRAZIA, Il giurista ed Internet: ovvero come è possibile passare dalle interconnessioni tra informatica, telematica e diritto al ruolo del giurista nella regolamentazione di Internet, in F. BRUGALETTA, F. M. LANDOLFI (a cura di), Il Diritto nel Cyberspazio, cit., pp. 187–188; M. DE MARI, op. cit., p. 643. Inoltre in Trib. Roma 1 marzo 1999, segnalata in «Danno e resp.», 1999, 10, p. 1048, incidentalmente si afferma che «il provider non può e non deve verificare il sito che gli si chieda di attivare». 36 S. BARIATTI, Internet e il diritto internazionale privato: aspetti relativi alla disciplina del diritto d’autore, in AIDA, 1996, p. 61; F. LOLLI, Il contenuti in rete tra comunicazione e informazione, in «Resp. com. impr.», 1999, 3, p. 447; R. RISTUCCIA, L. TUFARELLI, op. cit.. Proprio questa è la ragione che non permette di accogliere l’idea dell’obbligatorietà di un controllo «da parte del distributore, del contenuto dei messaggi, prima che questi possano essere immessi in Rete» (C. DE MARTINI, op. cit., p. 864). Sul punto, nell’intervento tenuto al Convegno Internet e privacy, quali regole?, 8/9 maggio 1998 (in http://www.garanteprivacy.it), Marco Barbuti, presidente dell’Associazione Italiana Providers, afferma che il provider non può conoscere «tutto ciò che passa attraverso la propria rete» e non ha i mezzi per effettuare un tale controllo. 37 F. DI CIOMMO, op. cit., p. 761, op. ult. cit., p. 761; P. SAMMARCO, Atti di concorrenza sleale attraverso Internet e responsabilità del provider, in «Dir. inf.», 2002, 1, p. 107. In questo senso anche Trib. Napoli 4 settembre 2002: «Affinché il “provider”, che si limiti ad ospitare sui propri “server” i contenuti di un sito Internet predisposto dal cliente, possa rispondere per le attività illecite poste in essere da quest’ultimo, non è possibile ravvisare un’ipotesi di colpa presunta, ma è necessario che sussista la colpa in concreto, ravvisabile, ad esempio, laddove venuto a conoscenza del contenuto diffamatorio di alcune pagine “web”, non si attivi immediatamente per farne cessare la diffusione in rete». 38 «Relativa a taluni aspetti giuridici dei servizi della società dell’informazione, in particolare il commercio elettronico, nel mercato interno». 39 Il testo del d.lgs. 70/03 è stato definito «criptico, confuso, ridondante, con diversi passaggi che fanno rabbrividire i giuristi più attenti. […] Da una parte ci sono previsioni criptiche, incomprensibili anche nel testo originale in inglese, 12 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE responsabilità del provider. Il sistema previsto dalla direttiva, e recepito mediante il d.lgs. 70/03, sembra «essere basato su una regola di responsabilità per colpa accompagnata da una nozione di conoscenza ricostruita da più indici e collegata al sistema di esenzioni connesse ad attività specificate piuttosto che a categorie diverse di prestatori di servizi. Le esenzioni sono poi di tipo oggettivo […] o di tipo soggettivo in cui oltre a soddisfare determinati requisiti oggettivi è necessario soddisfare ulteriori requisiti soggettivi di diligenza»40. Il recepimento della direttiva è avvenuto mediante l’emanazione di un testo normativo che costituisce la mera trasposizione di quello comunitario: il legislatore italiano, infatti, non si è curato di apportare quelle modifiche che si palesano necessarie per il corretto inserimento delle disposizioni comunitarie nell’ambito dell’ordinamento giuridico italiano41. Nel sistema delineato dal d.lgs. 70/03 si distinguono tre tipologie principali: - responsabilità nell’attività di semplice trasporto (mere conduit, art. 14): si prevede l’esonero da responsabilità sia per il prestatore di un servizio consistente nella trasmissione, su una rete di comunicazione, di informazioni per conto degli utenti (mere conduit) che per un access provider, purché essi non diano origine alla trasmissione, non ne selezionino il destinatario e non selezionino né modifichino le informazioni trasmesse42; - responsabilità nell’attività di memorizzazione temporanea (caching, art. 15): si esonera da responsabilità il prestatore di un servizio di caching, ossia della memorizzazione sui propri elaboratori di determinate informazioni reperite on line, al fine di agevolarne l’accesso ai destinatari del servizio, purché il prestatore non modifichi le informazioni, si conformi alle condizioni di accesso alle informazioni ed alle norme di aggiornamento delle informazioni, non interferisca con l’uso lecito di tecnologia ampiamente riconosciuta e utilizzata nel settore per ottenere dati sull’impiego delle informazioni, agisca prontamente per rimuovere le informazioni che ha memorizzato, o per disabilitare l’accesso, non appena venga effettivamente a conoscenza del fatto che le informazioni sono state rimosse dal luogo dove si trovavano inizialmente sulla rete o che l’accesso alle informazioni è stato disabilitato oppure che un organo giurisdizionale od un’autorità amministrativa ne ha disposto la rimozione o la disabilitazione; - responsabilità nell’attività di memorizzazione delle informazioni (hosting, art. 16): si esonera da responsabilità l’host provider (ossia chi effettua la «memorizzazione di informazioni fornite da un destinatario del servizio») per le informazioni memorizzate a richiesta di un destinatario del servizio, purché il prestatore del servizio non sia effettivamente a conoscenza del fatto che l’attività o l’informazione è illecita e, per quanto attiene ad azioni risarcitorie, non sia al corrente di fatti o di circostanze che rendono manifesta l’illiceità dell’attività o dell’informazione, non appena a conoscenza di tali fatti, su comunicazione delle autorità competenti, agisca immediatamente per rimuovere le che il nostro legislatore ha ottusamente tradotto senza curarsi del loro significato, e che quindi possono significare tutto e nulla stesso tempo» (M. CAMMARATA, Le trappole nei contratti di hosting, in http://www.interlex.it/regole/trappole.htm). 40 G. COMANDÈ, Al via l’attuazione della direttiva sul commercio elettronico, ma… serve un maggiore coordinamento, in «Danno e resp.», 2003, 7–8, p. 811. 41 In questo senso anche G. M. RICCIO, La responsabilità degli internet providers nel d.lgs. n. 70/03, in «Danno e resp.», 2003, 12, p. 1157. Un ulteriore carattere che denota la scarsa qualità del testo normativo in oggetto è messa in luce dall’a., il quale osserva che «è quantomeno singolare che, nel rubricare le norme, il legislatore adotti una doppia dizione, in italiano ed in inglese, accostando ai termini [semplice trasporto, memorizzazione temporanea, memorizzazione …] rispettivamente quelli di mere conduit, caching e hosting: una aggiunta che, francamente, non si comprende, attesa la sua inutilità e la sua irrilevanza sul piano giuridico» (p. 1159). 42 «Tale previsione pare, invero, tradire una disapplicazione del principio di neutralità tecnologica della norma, giacché nella prestazione di servizi internet, a differenza di quanto avviene nei servizi telefonici, il prestatore/provider assume un ruolo “tecnicamente” attivo nella gestione e nell’instradamento delle comunicazioni in transito, adottando politiche di gerarchizzazione dei contenuti anche attraverso indici automatici, ma senza avere la possibilità di incidere specificamente sui contenuti stessi» (A. PUTIGNANI, Sul provider responsabilità differenziate, in «Guida dir.», 2003, 20, p. 48). 13 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE informazioni o per disabilitarne l’accesso. L’art. 17, infine, dispone che il provider non è assoggettato ad un obbligo generale di sorveglianza sulle informazioni che trasmette o memorizza, né ad un obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite. Il prestatore deve comunque «informare senza indugio l’autorità giudiziaria o quella amministrativa avente funzioni di vigilanza, qualora sia a conoscenza di presunte attività o informazioni illecite riguardanti un suo destinatario del servizio della società dell’informazione»; «fornire senza indugio, a richiesta delle autorità competenti, le informazioni in suo possesso che consentano l’identificazione del destinatario dei suoi servizi con cui ha accordi di memorizzazione dei dati, al fine di individuare e prevenire attività illecite. Il prestatore è civilmente responsabile del contenuto di tali servizi nel caso in cui, richiesto dall’autorità giudiziaria o amministrativa avente funzioni di vigilanza, non ha agito prontamente per impedire l’accesso a detto contenuto, ovvero se, avendo avuto conoscenza del carattere illecito o pregiudizievole per un terzo del contenuto di un servizio al quale assicura l’accesso, non ha provveduto ad informarne l’autorità competente»43. Questa norma ha dunque una notevole importanza, perché sancisce l’assenza di un obbligo di controllo da parte del provider sul contenuto dei dati immessi in rete dai propri clienti44; al disposto dell’art. 17, comunque, si poteva tranquillamente giungere per via interpretativa, per quanto in dottrina sia stato giustamente osservato che tale norma assume fondamentale importanza perché consente di porre fine al dibattito in materia45. Bisogna comunque considerare che un eventuale controllo, da parte del provider, del materiale immesso on line dai propri clienti, sarebbe da ritenersi assolutamente illecito, perché contrastante, in primis, con l’art. 21 comma 1 Cost., ai sensi del quale «tutti hanno diritto di manifestare liberamente il proprio pensiero con la parola, lo scritto e ogni altro mezzo di diffusione». Pertanto, un eventuale intervento censorio del provider concreterebbe una violazione della norma da ultimo citata. Con riferimento all’eventuale responsabilità penale del provider per illeciti commessi mediante i suoi elaboratori, bisogna considerare che l’art. 17 sancisce l’insussistenza di un obbligo giuridico di impedire l’evento nel caso di specie, per cui non può trovare applicazione l’art. 40 comma 2 cod. pen., il quale, letto congiuntamente all’art. 110 cod. pen., fonda la punibilità del concorso per omissione nel reato commissivo posto in essere da altri46, per quanto sul provider gravi, comunque, l’obbligo di attivarsi nelle ipotesi di cui sopra. La colpa assume, pertanto, un ruolo essenziale nell’ambito della responsabilità del provider, «nell’ottica di una delicata operazione di bilanciamento tra l’esigenza di individuare sicure figure cui imputare il danno onde non lasciare inascoltate le pretese risarcitorie di chi ha ingiustamente subito un pregiudizio e quella di non gravare eccessivamente sui soggetti che risultano “colpevoli” solamente di essere portatori di una particolare qualifica. Seppur nella consapevolezza dei rischi che possono derivare da facili schematismi in cui far forzatamente rientrare le evoluzioni della responsabilità civile sembra cioè che nel dibattito di questi ultimi anni la rivalutazione della colpa possa assurgere a simbolo della rinuncia sia ad un’aprioristica attribuzione di responsabilità che ad 43 Il combinato disposto degli artt. 16 e 17 rischia di creare non pochi problemi ai provider che non aggiornino le clausole inserite all’interno dei contratti di hosting¸ i quali generalmente prevedono «la facoltà del provider di verificare i dati immessi dall’utente e rimuovere quelli che appaiono illeciti o comunque non aderenti alla netiquette o alla policy dell’azienda. Clausole di questo tipo sono spesso usate proprio per mettere il fornitore al sicuro da eventuali responsabilità civili o penali. Orbene, dal momento in cui il provider dichiara di sorvegliare i contenuti immessi dai clienti si può presumere che egli possa essere effettivamente a conoscenza dell’eventuale illiceità di tali contenuti. E quindi si addossa le relative responsabilità! Dunque è necessario riformulare i contratti di hosting (e non solo di hosting) in modo di evitare questa trappola, e in qualche caso potrebbe non essere facile destreggiarsi tra le esigenze tecnico– organizzative e la necessità di tradurre il non–obbligo di sorveglianza previsto dalla legge nell’esclusione contrattuale di qualsiasi forma di sorveglianza o di “attivazione” del provider sui contenuti» (M. CAMMARATA, op. cit.). 44 L. GIACOPUZZI, La responsabilità del provider, in http://www.diritto.it/articoli/ dir_tecnologie/giacopuzzi9.html. 45 G. M. RICCIO, op. ult. cit., p. 1164. 46 D. MINOTTI, Responsabilità penale: il provider è tenuto ad “attivarsi”?, in http://www.interlex.it/regole/minotti8.htm; A. PUTIGNANI, op. cit., p. 52. 14 CORSO “INFORMATICA E DIRITTO” – A.A. 2011-2012 UNIVERSITÀ DI ROMA “SAPIENZA” – FACOLTÀ DI SCIENZE POLITICHE, SOCIOLOGIA, COMUNICAZIONE MATERIALI DIDATTICI – V LEZIONE una preconcetta negazione di risarcimento nei confronti di chi abbia subito un danno perpetrato per via telematica»47. La scelta della colpa quale regime di imputazione della responsabilità, operata dalla direttiva 2000/31/CE e recepita dal d. lgs. 70/03, consente di superare i problemi legati alle opposte estremizzazioni teorizzabili in riferimento alla posizione civilistica del provider, quale soggetto sempre responsabile oppure quale soggetto mai responsabile. In tal modo, il danneggiato può ottenere il risarcimento del danno, cui è tenuto un soggetto la cui condotta deve tuttavia essere stata caratterizzata da diligenza, imprudenza, imperizia48. 6. Web 2.0 e User Generated Content L’espressione “Web 2.0”, attribuita a Tim O’Reilly49, è diventata progressivamente sempre più popolare e contraddistingue un importante passaggio, quello dai siti web “statici” a quelli maggiormente “dinamici” ed “interattivi”. Il navigatore, da mero recettore passivo con poche possibilità di interazione (ad esempio, guest books ed invio di messaggi) se non quelle di creare, a sua volta, un sito web, diviene sempre più protagonista e provvede a creare egli stesso il contenuto dei siti che rappresentano il web 2.0 (c.d. user generated content). Perfetti esempi in tal senso sono siti come “Wikipedia”, “Facebook”, “YouTube”, “Wordpress”, ecc.. In essi, il creatore/gestore del sito provvede a creare e mantenere la piattaforma, che viene normalmente utilizzata dagli utenti a titolo apparentemente gratuito. Il modello di business della maggior parte di tali siti è basato sugli introiti ricavati dalla pubblicità: più un sito è ricco di utenti (e di contenuti), più dovrebbe attrarre inserzionisti. “Wikipedia”, invece, è sostenuta dalle donazioni e non presenta alcun tipo di pubblicità. La gratuità di molti servizi tipici del web 2.0 non deve trarre in inganno; l’acquisizione e l’utilizzo dei dati personali degli utenti costituiscono, sovente, il prezzo pagato, più o meno inconsapevolmente, da quest’ultimi in favore del fornitore del servizio, il quale, a sua volta, provvede a rendere disponibile una piattaforma gradevole e facile da utilizzare. L’usabilità e la facilità di utilizzo sono, del resto, due caratteristiche connaturate al web 2.0 e ai siti che ne rappresentano l’implementazione, decretandone il successo. La creazione del contenuto da parte degli utenti pone problemi giuridici in ordine all’imputazione di responsabilità per eventuali violazioni commesse dai medesimi utilizzando piattaforme quali “Facebook”, “YouTube”, e così via. In linea di principio, tali soggetti solitamente si pongono ed operano quali host provider, nei termini esposti al paragrafo precedente, cui si rinvia. 47 A. PIERUCCI, La responsabilità del provider per i contenuti illeciti della Rete, in «Riv. crit. dir. priv.», 2003, 1, pp. 164–165. 48 In questo senso anche G. M. RICCIO, op. ult. cit., p. 1169, cui si rinvia per un approfondimento della tematica in questione. 49 T. O’REILLY, What is Web 2.0. Design Patterns and Business Models for the Next Generation of Software, in http://oreilly.com/web2/archive/what-is-web-20.html. 15