Web 3.0 - Università degli Studi Mediterranea

Transcript

Web 3.0 - Università degli Studi Mediterranea
Università degli Studi Mediterranea di Reggio Calabria
Dipartimento di Ingegneria dell’Informazione, delle Infrastrutture e dell’Energia Sostenibile
Corso di Laurea in Ingegneria dell’Informazione Tesi di Laurea Analisi e prospettive del fenomeno “Web 3.0”
1
Relatore
Candidato
Prof. Domenico Ursino
Pasquale Versace
Anno Accademico 2013-2014
1
Dedico questo traguardo appena raggiunto a tutte le persone che mi sono state accanto in
questi anni. Ringrazio in particolare tutta la mia famiglia, i miei genitori che mi hanno
sopportato in questi anni; mia sorella Roberta onnipresente; e tutti i miei zii e cugini, alcuni
in altre città ma non per questo lontani, per il loro supporto. Ringrazio inoltre tutti i miei
amici e colleghi, che hanno reso questi anni di studio molto meno pesanti; in particolare i
miei compagni di bevute e di immense partite a carte.
Infine ringrazio le mie nonne che mi hanno dato sempre una strada da seguire, e i miei nonni che dall’alto mi proteggono.
1
1
Analisi e prospettive del fenomeno “Web 3.0”
INTRODUZIONE
1
Internet, contrazione della locuzione inglese interconnected networks, ovvero "reti inter‐
connesse", è una rete mondiale di reti di computer ad accesso pubblico. Attualmente rap‐
presenta il principale mezzo di comunicazione di massa, che offre all'utente una vasta serie di contenuti informativi e di servizi. La storia di Internet è strettamente collegata allo sviluppo delle reti di telecomunicazione. L'idea di una rete informatica, che permettesse agli utenti di differenti computer di comu‐
nicare tra loro, invece, si sviluppò solo successivamente. La somma di tutti questi sviluppi ha condotto alla “rete delle reti”, che noi oggi conosciamo come Internet, che rappresenta il frutto dello sviluppo sia tecnologico, sia dell'interconnessione delle infrastrutture di rete esistenti, sia dei sistemi di telecomunicazione. Le origini di Internet risalgono agli anni '60, in piena Guerra Fredda, quando il mondo era diviso in due grandi sfere d'influenza ,USA ed URSS. Il Ministero della Difesa americano, in continuo allarme per la minaccia sovietica, incarica l'ARPA (Advanced Research Projects Agency) di studiare un sistema di rete, in grado di preservare il collegamento via computer tra le varie basi militari in caso di guerra nucleare. Gli studiosi partono dalla convinzione che l'unico modo per assicurare la continuità nella comunicazione sia quello di prescindere da un nodo centrale la cui distruzione avrebbe compromesso il funzionamento dell'intera rete. Nasce, così, una rete decentralizzata, denominata Arpanet, studiata in modo che ogni nodo potesse continuare ad elaborare e trasmettere dati qualora i nodi vicini fossero stati danneggiati. Negli anni successivi la rete Arpanet cresce a vista d'occhio, basandosi su un sistema di protocolli TCP/IP (Transmission Control Protocol/Internet Protocol), anco‐
ra oggi utilizzati per rendere possibile lo scambio dei dati tra sistemi collegati. Inizialmente si connettono in rete solo alcune basi di missili intercontinentali; solo in seguito vengono coinvolte le principali Università Americane, aderenti all'ARPA; infine, vengono aggregati anche enti governativi come la NASA, l'NFS e il DOE. L’utilizzo della rete arrivò a tal punto che, nel 1983, si giunse alla creazione di due reti, la prima prettamente militare, che prese il nome di Milnet, la seconda, invece, denominata Internet, dal nome del protocollo principale, che venne regalata dall'ARPA alle Università e Versace Pasquale | 1 Analisi e prospettive del fenomeno “Web 3.0”
iniziò a diffondersi nelle altre sedi americane ed europee, oltre che nei più svariati centri di ricerca. Il Web è un servizio di Internet che permette di navigare sulla rete usufruendo di un insieme vastissimo di contenuti multimediali e di ulteriori servizi. La nascita del Web risale al 6 agosto 1991, giorno in cui Tim Berners‐Lee, considerato il vero e proprio creatore, mise online su Internet il primo sito Web; nonostante tutto, la tecnologia alla base dello stesso venne resa pubblica solo il 30 Aprile 1993. Il primo Web, definito successivamente come Web 1.0, si presentava semplicemente come uno spazio elettronico e digitale, destinato esclusivamente alla pubblicazione di contenuti multimediali, come testi, immagini, audio, video, etc. La principale caratteristica di tale Web è rappresentata dalla staticità; l’utente, infatti, una volta che tutte le informazioni erano state pubblicate, poteva semplicemente entrare nella pagina e leggerle, senza la possibilità di inte‐
ragirvi. Il “Web 2.0” rappresenta la seconda versione del Web, e quindi l’evoluzione del Web 1.0. Il termine fu introdotto nel 2003 durante una sessione di brainstorming, tra Tim O’Reilly, fonda‐
tore di O’Really media, e MediaLive International; da qui nacque la conferenza che prese il nome di “Conferenza Web 2.0”, in cui si notò che il crollo della bolla di dot‐com, avvenuto nel 2001, non aveva sancito la fine dal Web, ma semplicemente la necessità di evoluzione. Si tende a indicare come Web 2.0 l’insieme di tutte quelle applicazioni online che permettono uno spiccato livello di interazione tra il sito e l’utente. Si fa riferimento, quindi, a blog, forum, chat, social network e siti come Wikipedia, YouTube etc. Con questa evoluzione si passa, quindi, dal Read‐only Web al Read‐Write Web, cioè da un Web statico ad uno dinamico. Col passare degli anni, la mole dei dati nel Web è aumentata a dismisura, rendendo perfino una semplice ricerca, un lavoro molto lungo e complicato. Proprio in questa realtà si pone il Web 3.0, la nuova evoluzione del Web, che ha l’obbiettivo di riorganizzare tutti questi dati e che mira a cambiare tutta la strutture del Web. Il nuovo Web, infatti, dovrà essere organizzato per essere comprensibile non più agli utenti ma ai software. Nonostante il termine “Web 3.0” sia stato introdotto per la prima volta da Jeffrey Zeldman, il vero ideatore può essere conside‐
rato Tim Berners‐Lee, che nel maggio del 2006 ne delineò le possibili innovazioni. L’innovazione principale di questo Web è, senza dubbio, la semantica; per questo motivo, infatti, viene definito anche Semantic Web; ma alla base di questo fenomeno ci saranno anche l’ontologia, il concetto di dataWeb, cioè di un Web strutturato come un database, ed il conti‐
2 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
nuo diffondersi dell’Intelligenza Artificiale, che insieme all’evoluzione della tecnologia 3D e della realtà aumentata, ne faciliteranno l’utilizzo. In questa tesi verrà trattato il fenomeno “Web 3.0” nella sua interezza; inizialmente si descriverà il fenomeno generale, introducendone i punti chiave e i promotori. Successiva‐
mente verrà delineata la storia del Web concentrandosi sulle sostanziali differenze e sulle cause di tale evoluzione. Saranno introdotte, inoltre, le principali caratteristiche e innova‐
zioni, definendo, in particolare, i concetti base di semantica e ontologia, oltre alle tecnolo‐
gie che stanno alla base. Infine, dopo aver illustrato le possibili evoluzioni future, si tracce‐
ranno i possibili vantaggi e svantaggi di tale fenomeno. La tesi è strutturata come di seguito specificato: 


1

Nel primo capitolo sarà introdotto il fenomeno “Web 3.0”. Si descriveranno inizial‐
mente, le caratteristiche di base e, successivamente, i promotori di tale fenomeno, evidenziandone le loro citazioni più significative. Nel secondo capitolo verrà descritta la storia del Web. Si tratterà, inizialmente, il passaggio dal Web 1.0 al Web 2.0, introducendo le differenze generali; infine, verrà presentato un raffronto tra Web 2.0 e Web 3.0. Nel terzo capitolo saranno introdotte le principali caratteristiche. Si descriveranno inizialmente, i concetti di metadati e di LinkedData e, successivamente, le tecnolo‐
gie fondamentali: RDF, SPARQL ed OWL. Nel quarto capitolo saranno descritte le principali innovazioni. Si definiranno, inizial‐
mente, la semantica e l’ontologia; successivamente, verranno introdotte le applica‐
zioni mashup che possono essere considerate “il ponte” tra Web 2.0 e Web 3.0. Dopo di ciò saranno introdotte le innovazioni che verranno portate all’e‐learning e lo svi‐
luppo dell’Intelligenza Artificiale. Infine, dando uno sguardo al futuro, verranno in‐
trodotte le possibili caratteristiche del Web 4.0. 
Nel quinto capitolo si indicheranno i punti di forza e di debolezza di tale fenomeno. 
Infine, verranno tratte le dovute conclusioni. Versace Pasquale | 3 Analisi e prospettive del fenomeno “Web 3.0”
4 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
1. WHO, OVVERO….COS’È
In questo capitolo verrà descritto il concetto di Web 3.0. Partendo dal significato del termine e
delineando le sue caratteristiche generali. Successivamente, verranno trattati i promotori di
questa innovazione, partendo dalle loro citazioni e considerazioni.
1
The Future’s Web
2 I Promotori
1
Versace Pasquale | 5 Analisi e prospettive del fenomeno “Web 3.0”
1.1 THE FUTURE’S WEB
Il Web 3.0 può essere definito come la prossima evoluzione del World Wide Web riguardante collegamenti, integrazione e analisi di dati da varie sorgenti al fine di ottenere un nuovo flusso di informazioni. Inoltre, il Web 3.0 ha lo scopo di collegare più dispositivi per generare nuove tipologie di connessione al Web da diverse macchine e lo scambio di dati fra esse. Così come nel Web 2.0 si cercava di rendere il Web più comprensibile alle persone, ora il tema principale del Web 3.0 è quello di renderlo molto più comprensibile ai software. Ovviamente però non esiste una sola definizione di questo fenomeno che piano piano si sta sviluppando intorno a noi. John Markoff, famoso giornalista americano, nel New York Times nel 2006, definiva il Web 3.0 come la terza generazione di Internet, basata su servizi che collettivamente compongono quello che può essere chiamato: ‘The intelligent Web’; questo utilizza il Web semantico, microformat , ricerca in linguaggio naturale, data mining ,e tecnologie basate sull’ intelligenza artificiale al fine di facilitare la comprensione di informazioni e fornire maggiore produttività e intuitività alla user experience.
“Web3.0referstoasupposedthirdgenerationofInternet‐basedservicesthatcollective‐
lycomprisewhatmightbecalled‘theintelligentWeb’,suchasthoseusingsemanticweb,
microformats, natural language search, data‐mining, machine learning, recommenda‐
tion agents, and arti icial intelligence technologies, which emphasize machine‐
facilitated understanding of information in order to provide a more productive and
intuitiveuserexperience.”
Invece Nova Spivack, un imprenditore tecnologico statunitense lo ha definito come intel‐
ligenza connettiva, capace di connettere informazioni, concetti, applicazioni e, solo alla fine, persone. E mentre qualcuno lo ha definito Semantic Web, l’opinione di Spivack è quella che il Web semantico sia solo una delle tante tecnologie che definiranno il Web 3.0. 6 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
Egli indica la semantica e la ricerca (in linguaggio naturale) come due delle vie che rende‐
ranno più veloci e facili da usare le applicazioni Web Spivack disse: “Quandoun’applicazionevedeunapaginaWeb,nonècosìfacilecapirecosafacciaoggi
conessa;comenoiaggiungiamomoltodiquesto‘openmetadata’alWeb,cosìquest’ulti‐
mo rende il funzionamento del Web incomprensibile. Inoltre, come le applicazioni lo
rendono più veloce in quanto capiscono il linguaggio e conoscono il significato delle
parole,esseaggiungonosignificatiestrutturealWeb.”
La maggior parte delle tecnologie del Web 3.0 sono progettate per aumentare l’efficienza dell’archiviazione e la correlazione dei dati. Da qui ai prossimi 10 anni, la maggior parte delle funzioni di ricerca e compilazione ora effettuate dagli utenti, saranno condotte auto‐
maticamente. Spivack ipotizza che d’ora in poi gli utenti non dovranno preoccuparsi idi separare infor‐
mazioni, compilare wiki ed eliminare spam. Egli disse: “Tutti questi problemi stanno costrin‐
gendolepersoneaspendereinnumere‐
vole quantità di tempo effettuando
mansioniservili,chedovrebberoessere
effettuatedallemacchine”.
Tra le tante novità ci sarà, però, qualco‐
sa che rimarrà probabilmente immuta‐
to; infatti è lo stesso imprenditore a dire: “L’interfaccia utente è quello che noi
abbiamo sviluppato di più. Io non penso che noi avremmo una così grande e radicale
novità”.
Come abbiamo precedentemente detto, il Web 3.0 può essere definito come il Web intel‐
ligente. Ma cosa c’è alla base di tutto ciò?
Versace Pasquale | 7 Analisi e prospettive del fenomeno “Web 3.0”
Questi anni di sovraccarico di informazioni e contenuti sempre crescenti nel Web, hanno por‐
tato alcuni problemi quali i suggerimenti in tem‐
po reale, il Web mining, la presenza di informa‐
zioni astratte e ricerche ottimizzate basate su un unico profilo. Gli agenti intelligenti, con le loro abilità quali la capacità di elaborare una enorme mole di dati, la scalabilità, la robustezza e la capacità di apprendere dall’ambiente, risultano essere un valido candidato per risolvere questi problemi. Un agente agisce in un ambiente, che percepisce attraverso dei sensori e su cui interagisce attraverso degli attuatori. Per valu‐
tare il comportamento di questi agenti viene utilizzata una misura delle prestazioni. L’intelligenza può essere definita come la capacità di agire come esseri umani, risolvere problemi e pensare razionalmente. Un agente razionale può essere qualsiasi cosa capace di prendere decisioni, come una persona, un’azienda, un computer o un software, che agisce al fine di massimizzare la misura della prestazione stimata, data la percezione della sequenza che ha visto finora. Questo significa che un agente razionale è un agente che ha chiare preferenze, modelli di incertezza per i valori attesi, e che sceglie sempre di eseguire l'azione che si traduce nel risultato ottimale fra tutte quelle possibili. Ci sono diversi criteri che possono influenzare l'azione intrapresa da un agente razionale; questi includono la preferenza dell’agente stesso, le informazioni che esso ha sul suo ambiente (che possono derivare anche da esperienze passate), le azioni, i benefici stimati o effettivi e le possibilità di successo delle azioni. Sulla base delle definizioni e delle conoscenze fin qui esposte possiamo definire l’ agente del Web Intelligente come un sistema che utilizza dei metodi di apprendimento automatico per recuperare e/o estrarre informazioni testuali dal Web. Questo agente può accettare le pre‐
ferenze dell’utente sotto forma di istruzioni e adattare il suo comportamento quando incon‐
tra nuove informazioni. 8 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
Gli “Intelligent Web agent” saranno dei programmi che navigheranno sul Web per scandi‐
re e interpretare informazioni nelle pagine. Questi potranno essere addestrati dagli utenti per cercare tra i diversi tipi di risorse; l’agente può essere personalizzato dal suo stesso proprietario così da poter mettere su un quadro dei singoli “mi piace”, “non mi piace” e particolari informazioni di cui ha bisogno. La ricerca sarà ottimizzata in base al profilo del singolo utente. Una volta addestrato, un agente può, quindi, essere libero di vagare per il Web, ottenendo fonti di informazioni utili, mentre l’utente può continuare con lavori più urgenti, o addirittura andare off‐line. L’agente intelligente saprà di più riguardo al suo utente osservando elettronicamente le sue attività . Una ulteriore innovazione del Web 3.0 potrebbe riguardare la grafica; infatti l’evoluzione della tecnologia 3D, grazie alla sua caratteristiche intrinseche, può essere utilizzata su larga scala. In questo processo, il Web 3.0 si dovrebbe tra‐
sformare in una serie di spazi 3D, in modo analo‐
go a quanto avviene in questo momento in “Second Life Questo potrebbe aprire una nuova via di con‐
nessione e collaborazione utilizzando un nuovo spazio 3D condiviso. Versace Pasquale | 9 Analisi e prospettive del fenomeno “Web 3.0”
1.2 I PROMOTORI
Il termine “Web 3.0” fu introdotto per la prima volta da Jeffrey Zeldman, nel 2006, critico nei confronti del Web 2.0 e di tutto ciò ad esso asso‐
ciato. Nonostante tutto, avendo Zeldman utilizza‐
to questo termine solo in modo del tutto provoca‐
torio, si può affermare che il vero promotore del Web 3.0 fu Tim Berners‐Lee che, nel maggio dello stesso anno, fu il primo a creare una strada da seguire con la sua celebre affermazione: «Lepersonesicontinuanoachiederecos'èilWeb
3.0. Penso che, forse, quando si sarà ottenuta una sovrapposizione della Gra ica
VettorialeScalabile(oggituttoapparepoconitido,conpiegheedincrespature)nel
Web2.0,el'accessoadunWebsemanticointegratoattraversoungrossoquantitati‐
vodidati,sipotràottenerel'accessoadun'incredibilerisorsadidati.»
Se consideriamo quello che rappresenta concettualmente il Web 3.0, è sempre l’ inventore del World Wide Web Tim Berners‐Lee che, già nel 2000, diceva: <<IhaveadreamfortheWebinwhichcomputersbecamecapableofanalyzingall
thedataontheWeb…>>
“IohounsognoperilWeb,nelqualeicomputerdiventinocapacidianalizzaretutte
leinformazionipresentisulWeb…”.
Questa frase è stata estrapolata da “Weaving the Web”, libro autobiografico in cui l’ autore inizialmente descrive la sua storia e la fondazione del World Wide Web e, nella seconda parte, si sofferma su quelli che sono i suoi sogni; è proprio in questa parte (anche essa divisa in due parti) che descrive quelle che poi, da lì a qualche anno, sa‐
ranno le reali innovazioni del Web. In primis egli pone la sua attenzione in quello che potrebbe essere un Web più potente, dove risulterà facilitata la collaborazione tra le persone attraverso una conoscenza condivisa, e dove le persone utilizzeranno Inter‐
net per creare, e non semplicemente per curiosare. Versace Pasquale | 10 Analisi e prospettive del fenomeno “Web 3.0”
Infine, egli esprime il concetto di “Web semantico“, e quindi di macchine capaci di analizzare tutte le informazioni nel Web, i suoi contenuti, i suoi link e le operazioni tra l’ uomo e il computer. In quegli anni, però, il concetto di Web semantico non era così facile da comprendere; allora Tim, durante un’ intervista allo Scientific American, fornì un esempio molto semplice e chiaro. Lucy è una ragazzina che si trova dal dottore col fratello Pete, perché il medico deve prescrivere a loro madre delle terapie. Immediatamente Lucy istruisce, tramite il browser del suo palmare, il suo agente (del Web Semantico) che, prontamente, scambia informazioni con l’agente del dottore. Successivamente è lui stesso ad andare a cercare, su una lista di fornitori, quelli che rientrano nelle terapie che interessano alla madre, che non siano più lontani di 20 miglia dalla loro casa e che siano collegati da una eccellente rete di servizi. L’agente dà subito il risultato per lui migliore, ma questo non rientra nei piani di Pete che ritiene il luogo troppo trafficato in quelle ore; allora sincronizza il suo agente con quello della sorella, che effettua una veloce ricerca e trova un risultato più efficace. Ovviamente, questa nuova visione di Internet creò scalpore, e si iniziò a lavorare per raggiungere questa innovazione il prima possibile; ma tutto questo sarà possibile solo quando il Web passerà da un Web progettato per la lettura umana, ad uno progettato per la comprensione da parte dei programmi delle macchine. 11 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
12 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
2. WHEN/ WHY, OVVERO...LA STORIA
In questo capitolo verrà descritta la storia del Web 3.0 partendo, dalle origini e definendo
il Web 1.0 e Web 2.0. Successivamente, verranno definiti tutti i passaggi che hanno portato
a questa tecnologia, giustificandone, infine, il perché di questo progresso.
1
Le Origini
2
Il Passaggio da 1.0 a
2.0
3
Bisogno di innovazione
1
Versace Pasquale | 13 Analisi e prospettive del fenomeno “Web 3.0”
2.1 LE ORIGINI
Il termine “Web 1.0” si riferisce alla prima versione del Web, definita anche come “Informational Web”, cioè Web informativo. Esso si è sviluppato a partire dal 1991 fino ai primi anni del 2000, quando si è pas‐
sati al Web 2.0. Ovviamente la nascita del suffisso 1.0 avvenne solo dopo l’ avvento del Web 2.0, quando si ebbe la necessità di distinguere il primo dal secondo. Nonostante la prima proposta di un sistema iperte‐
stuale si possa far risalire agli studi di Vanner Bush del 1945 pubblicati nell’articolo “As We May Think”, tutto nacque ufficialmente il 6 Agosto del 1991 quando l’inglese Tim Berners‐Lee pubblicò il primo sito Internet dando vita al World Wide Web. Egli iniziò a lavorare sin dal Dicembre del 1990 insieme ad un altro fisico, Robert Cailliau; i due nonostante il poco interesse generale, continuarono a sviluppare i principali componenti del Web: HTTP, HTML e il primo Browser che venne chiamato “the World Wide Web” con la duplice funzione anche di editor di testo per il nascente Web. E fu proprio il 6 Agosto dell’anno successivo, che venne rilasciata la prima pagina Web che delineava i piani per il WWW, ma non solo: è stata la prima pagina scritta in HTML e al suo interno conteneva alcuni tag che sono tutt’oggi utilizzati, come i tags h1‐h6. Poco dopo altri Browser vennero rilasciati, ognuno con miglioramenti e diverse caratteristi‐
che, tra questi citiamo: 




Line Modern Browser (Febbraio del 1992): sviluppato da Lee fu il primo Browser multi‐
piattaforma. Viola WWW Browser (Marzo 1992): fu il primo Browser popolare nel mondo; aveva già al suo interno fogli di stile e linguaggio di scripting, parecchio tempo prima rispetto a JavaScript e CSS. Mosaic Browser (Gennaio 1993): uno fra i più apprezzati Browser, sviluppato all’univer‐
sità dell’Illinois. Netscape Navigator 1.1 (Marzo 1995): fu il primo a introdurre le tabelle in HTML. Internet Explorer 1.1 (Agosto 1995): Microsoft decise di lanciare il suo Browser contem‐
poraneamente al suo sistema operativo Windows, ed era l’unico capace di supportarlo. Per alcuni anni, comunque, il World Wide Web restò uno strumento alquanto esoterico. 14 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
L'impulso decisivo al suo sviluppo, infatti, venne solo agli inizi del 1993, dal National Center for Supercomputing Applications (NCSA) dell'Università dell'Illinois. Fin dalla sua nascita il Web si doveva presentare come uno spazio elettronico e digitale di Internet, destinato alla pubblicazione di contenuti, come testi, immagini, audio, video e iper‐
testi. Tutti questi servizi saranno resi disponibili attraver‐
so particolari computer chiamati server Web. Inizialmente la caratteristica principale del neonato Web era il fatto che le informazioni venissero pubblicate in maniera statica, cioè, come se ci fosse semplicemente un foglio Word con testo e immagini portato su Web, e l’utente, arrivato alla pagina, leggesse e se ne andasse senza nessuna interazione. Le altre caratteristiche del Web 1.0 erano le seguenti: 



1




Struttura informativa gerarchica. Esistevano due utilizzatori della Rete: quelli che fornivano notizie e quelli che ne fruiva‐
no. Infatti, il Web 1.0 è stato per molti il “Read‐Only” Web, in quanto gli utenti erano in grado soltanto di cercare informazioni e leggerle. Pagine web statiche. Le pagine che si adattavano al tipo di schermo o al tipo di dispositivo erano ancora inesistenti. I siti si programmavano in HTML puro e non si conoscevano i CMS. Basso rischio. Il rischio era quasi inesistente in quanto mancava un canale di ritorno che poteva scom‐
binare ciò che era stato pianificato. Comunicazione monodirezionale. Essendo le community limitatissime e non esistendo i social network, la comunicazione andava dall'alto verso il basso. 

Reattivo. Nel Web 1.0 la produttività non era necessaria e le correzioni del caso erano di tipo reattivo. Quando si passò al Web 2.0? Non si ha ovviamente una data precisa a cui far risalire l’avvento del Web 2.0; tuttavia, si può dire che questo passaggio avvenne approssimativamente nel 2001, con il crollo della bolla di dot‐com. Versace Pasquale | 15 Analisi e prospettive del fenomeno “Web 3.0”
Infatti, l’incredibile sviluppo che il Web ebbe tra il 1995 e il 2000, portò a raccogliere maggiori consensi soprat‐
tutto nei gruppi di business; a causa di ciò tutti gli inve‐
stitori iniziarono a riversare soldi su qualsiasi progetto relativo al Web; così facendo, tutte le aziende che era‐
no sul Web, dette aziende della “New Economy”, videro moltiplicare i loro introiti. Ovviamente, passato il perio‐
do del boom di Internet, e continuando la gente ad investire sulle start‐up senza curarsi del loro andamen‐
to, si arrivò inevitabilmente al crollo, facendo fallire moltissime aziende; quelle poche che riuscirono a resistere, come Google, E‐bay ed Amazon, divennero dei veri e propri colossi informatici. Il termine “Web 2.0” si riferisce alla seconda versione del Web, e quindi, come già detto, all’evoluzione del Web 1.o. Il concetto di Web 2.0 nacque durante una sessione di brainstorming tra due aziende O'Reilly e MediaLive International. Dale Dougherty, vicepresi‐
dente di O’Reilly, notò, infatti, che il Web era molto lontano dal crollare, anzi stava diventando molto più importante di quanto non lo fosse prima; infatti, con sorprendente regolarità continuavano ad uscire nuove applicazioni e apparire nuovi siti. Egli sosteneva che il collasso di dot‐com avesse segnato come una specie di punto di svolta per il Web, e che, quindi, potesse aver senso creare un nuovo capitolo per il Web. Nacque, così, la “Conferenza Web 2.0”, e di conseguenza il Web 2.0. “Web2.0isthebusinessrevolutioninthecomputerindustrycausedbythemovetothe
internetasplatform,andanattempttounderstandtherulesforsuccessonthatnew
platform. Chief among those rules is this: Build applications that harness network
effectstogetbetterthemorepeopleusethem.”
Ovviamente il passaggio dal Web 1.0 al Web 2.0 ha portato con sé grandissime innova‐
zioni; alcuni esempi di nuove caratteristiche che fanno parte del Web 2.o sono: 
Blog: anche conosciuti come Web logs, permettono agli utenti di “postare” nel Web pensieri e aggiornamenti sulla loro vita. 16 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”



1

Il termine “Weblog” fu proposto da Jorn Barger nel 1997. Il blog include pagine Web chiamate post che sono pubblicate cronologicamente, con la più recente prima, nello stile dei giornali. La maggior parte dei blog sono testuali, ma ne esi‐
stono altri di natura diversa, come i photoblogs o photologs, e i videoblogs o vlogs. I post del blog possono essere etichet‐
tati con delle parole chiave in modo da catalogare i soggetti dei post. Per esempio, quando dei post diventano vecchi possono essere depositati in dei menù di sistema suddivisi per tema. I collegamenti sono un’altra parte fondamentale dei blog; essi intensificano la natura discorsiva della blogosfera e il suo senso di immediatezza e aiutano a facilitare il recupero e il riferimen‐
to di informazioni da differenti blog. Wiki: siti come Wikipedia e altri, permettono agli utenti di tutto il mondo di aggiungere e caricare online contenuti. Un wiki è una pagina Web (o una serie di pagine Web) che può essere facilmente organizzata da chiunque abbia il permesso di accedervi. A differen‐
za dei blog, le precedenti versioni dei wiki possono essere esamina‐
te da una funzione di cronologia e possono essere rigenerate da una funzione di ripristino. Le principali caratteristiche dei wiki sono: una semplice struttura dei siti e una facile navigazione, dei template semplici, un linguaggio di markup, la capacità di supportare più utenti, la funzione di ricerca incorporata e un semplice flusso di lavoro. Social Networking: permette la realizzazione di reti sociali virtuali. Si tratta di siti internet o tecnologie che consentono agli utenti di condivi‐
dere contenuti testuali, immagini, video e audio e di interagire tra loro. Generalmente i Social Network prevedono una registrazione mediante la creazione di un profilo personale protetto da password nonché la possibilità di effet‐
tuare ricerche nel database della struttura informatica per localizzare altri utenti e organizzarli in gruppi e liste di contatti. Applicazioni Web: con questo termine si intende un’applicazione che risiede in un Server Web alla quale si accede tramite un Browser Internet o un altro programma con funzioni di naviga‐
zione, operante secondo gli standard del World Wide Web. Possiamo dire che il Web 2.0 fornisce un livello di interazione utente che non era stata mai disponibile prima. I siti Web sono diventati molto più dinamici e interconnessi, producendo Versace Pasquale | 17 Analisi e prospettive del fenomeno “Web 3.0”
“comunità online” e, così facendo, rendendo anche più facile la condivisione di informazioni nel Web. Molte delle funzionalità del Web 2.0 sono offerte gratuitamente, e siti come, ad esempio, Wikipedia e Facebook stanno crescendo in modo incredibilmente veloce. Mano a mano che i siti continuano a crescere, vengono aggiunte molte altre funzionalità. In definitiva, il Web 2.0 si potrebbe definire utilizzando una famosa citazione di O’Reilly: “Il Web 2.0 è la rete intesa come una piattaforma, attraverso tutti i dispositivi collegati; le
applicazioniWeb2.0sonoquellechepermettonodiottenerelamaggiorpartedeivantaggi
intrinsechi della piattaforma, fornendo il software come un servizio in continuo aggiornamentochemigliorapiùlepersoneloutilizzano,sfruttandoemescolandoidatidasorgenti
multiple,tracuigliutenti,iqualifornisconoi
propricontenutieserviziinunmododapermetterne il riutilizzo da parte di altri utenti,
creando una serie di effetti attraverso
“un’architetturadellapartecipazione”cheva
oltrelametaforadellepaginedelWeb1.0per
produrre così user experience più signi icative”.
18 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
2.2 IL PASSAGGIO DA WEB 2.0 A WEB 3.0
1
Come si può vedere dalla figura, quella del Web è un’evoluzione partita già nel 1980 ed ancora oggi in continua espansione. Ogni passaggio ha portato con se grosse innovazioni (le principali sono espresse alla destra del grafico), ma è cambiato anche e soprattutto il modo di vedere le piccole cose. Inizieremo prendendo in considerazione le principali differenze tra il Web 1.0 e il Web 2.0, delinean‐
do i diversi approcci che entrambi hanno in diversi aspetti come: la pubblicazione dei contenuti, la distribuzione delle informazioni, le enciclopedie, i Social Bookmark, gli open source e, infine, gli annunci pubblicitari. Versace Pasquale | 19 Analisi e prospettive del fenomeno “Web 3.0”
Questa è la tabella : CATEGORIA WEB 1.0 

Pubblicazione dei contenuti 
Il modello di pubblicazione pre‐
vede la presenza di un autore responsabile della pubblicazione dei contenuti e di un certo nu‐
mero di lettori che accedono a tali contenuti. Il modello di comunicazione è unidirezionale; le informazioni passano dall’autore al lettore seguendo una direzione unica. WEB 2.0 
Esistono più autori che portano il proprio contributo; il ruolo fra autore e lettore tende a confon‐
dersi. 
L’apporto del lettore è general‐
mente “passivo” limitandosi a prendere visione dei contenuti con poche possibilità di interve‐
nire sugli stessi o sulla discussio‐
ne da essi generata. 
Distribuzione delle informazioni 
20 |Versace Pasquale L’utente è costretto a collegarsi al portale d’interesse per consul‐
tare gli aggiornamenti. Il modello di comunicazione è bidirezionale e, grazie all’impie‐
go di strumenti come blog, social network e wiki, i lettori assumo‐
no un ruolo attivo potendo essi stessi valutare, commentare, annotare, modificare, creare e combinare tra loro i contenuti. I contenuti possono seguire l’utente ovunque si trovi attra‐
verso l’uso dei feed RSS e dei sistemi di podcasting. E’ possibi‐
le scaricare tali contenuti sul proprio computer, oppu‐
re decidere di veicolare questo flusso di informazioni verso i numerosi servizi esistenti sulla rete (Google reader, Goolge alert, Wikio, Bloglines). Analisi e prospettive del fenomeno “Web 3.0”


Le Enciclopedie

L’Enciclopedia si avvale esclusi‐
vamente dei suoi collaboratori e non fornisce il materiale in for‐
ma gratuita.
C’è chi ritiene questo modo di lavorare più serio e proficuo lasciando solo a chi ha effettiva‐
mente esperienza l’onere di pubblicare articoli.


Social Bookmark


I contatti “Preferiti’’ sono pre‐
senti solo nel nostro computer.
1



Open Source
Gli utenti possono scaricare il software gratuitamente ma non ne possono controllare il codice.

Wikipedia, la più conosciuta enciclopedia gratuita presente in rete, permette a chiunque di prendere parte alla realizzazione di articoli su qualunque tema (i quali verranno, poi, archiviati al suo interno).
E’ una soluzione interattiva che dà modo ad esperti, studiosi o semplici appassionati non solo di consultare liberamente i docu‐
menti e di stamparli, ma anche di partecipare attivamente alla crescita dei documenti stessi.
Sono presenti sul Web aree per‐
sonali nelle quali è possibile sal‐
vare e condividere con gli altri tutti i link che si desidera.
La classificazione dei contenuti avviene tramite parole chiave personali. C’è il vantaggio di poter usare i contenuti ovunque ci si trovi, da qualunque computer collegato a Internet o da qualunque smartphone.
Gli utenti possono scaricare il software gratuitamente, possono controllare il codice e modificar‐
lo. Gli utenti possono scrivere e condividere documenti e fogli di calcolo usando software diretta‐
mente attraverso il Web (Google Document).
Versace Pasquale | 21 Analisi e prospettive del fenomeno “Web 3.0”
Come abbiamo potuto notare, il passaggio da Web 1.0 a Web 2.0 ha portato innovazioni soprattutto lato utente, si è cercato, infatti, di aumentare la mole di dati, e trami‐
te social network e altre innovazioni, si è cercato di ren‐
derli alla portata di tutti. Il successivo passaggio mira a cambiare tutta la strutture del Web; il nuovo Web, infatti, dovrà essere organizzato per essere comprensibile non più agli utenti ma ai soft‐
ware. Questa prima e fondamentale differenza richiede‐
rà grosse e sostanziali innovazioni, le più importanti delle quali sono riportate qui sotto nella tabella: Web 2.0 Web 3.0 Read/Write Web Read, Write and Execute Web Communities Individuals Sharing Content Consolidating Dynamic Content Blogs AJAX Lifestream RDF Wikipedia, Google Dbpedia, iGoogle Tagging User engagement Come si può notare infatti, la prima e principale differenza sta proprio in quella che è la defini‐
zione del Web; quest’ultimo è definito “Read, Write and Execute”, infatti, dal 2004 in poi, quan‐
do avvenne l’ evoluzione del Read‐Write Web, o Web 2.o, il quale, al contrario della natura statica del suo predecessore, si basò totalmente sull’interazione e collaborazione. In un’ondata di sviluppo caratterizzata dai wiki, blog e social media, gli utenti poterono controllare i contenu‐
ti del Web piuttosto che leggerli semplicemente. Lo sviluppo logico di tutto ciò, pertanto, non poteva essere nient’altro che un Read‐Write‐Execute Web, una versione del Web in cui gli uten‐
ti possano creare ed eseguire i loro stessi tool e software per modificare ed estrarre informazio‐
ni, anziché usare software e siti Web di altre persone. Un’altra differenza possiamo sicuramente trovarla nella organizzazione; infatti se il Web 2.0, grazie alla sua caratteristica social, era orga‐
nizzato in comunità, ora abbiamo nuovamente l’esaltazione del singolo che può testare da solo i propri progetti. 22 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
1
Osservando i contenuti, anche qui, l’avvento dei Social Network e di siti come, appunto, Wikipedia, ci fanno tro‐
vare nel Web 2.0 contenuti condivisi; infatti tutti gli utenti possono scambiarsi liberamente informazioni. Con l’av‐
vento del Web 3.0 i contenuti saranno innanzitutto dina‐
mici; il Web verrà riorganizzato come un grande database, così da eliminare i contenuti superflui ed avere la possibili‐
tà di trovare immediatamente ciò che ci interessa. Un’ulteriore differenza riguarda il modo in cui l’utente potrà interagire con gli altri; quindi si saranno i blog (o, anche, meglio detti microblog, in quanto puntano alla brevità) che si sono sviluppati durante il Web 2.0 e i life‐
stream, un’innovazione che sta prendendo sempre più piede, e che presenta delle differenze (sebbene sottili) con i microblog. I microblog consentono di condividere pensieri, link a siti Web o qualsiasi altra cosa si stia facendo in un determinato momento della giornata; sono molto simili all'invio di un SMS dal cellulare, con la differenza che, col microblogging, si può inviare un messaggio anche a un gruppo di persone o, addirittura, a tutta una comunità online, anziché spedirlo soltanto a un singolo destinatario. A se‐
conda della piattaforma di microblogging che si utilizza, i contatti potranno controllare i messaggi dal proprio Browser, dal proprio programma di instant messagging preferito o addirittura dal pro‐
prio telefonino. La caratteristica principale di un microblogging è la brevità dei messaggi, da qui il prefisso “micro” nel termine; infatti, queste piattaforme consentono di inviare un messaggio lun‐
go al massimo 140 caratteri, un po’ come avviene per gli SMS. Uno spazio così limitato non dà la possibilità di fare discorsi lunghi; così, la maggior parte dei post che si vedono sulle piattaforme come Twitter, Jaiku e Pownce, rimandano a qualcosa che si sta facendo in un dato momento della giornata, come, ad esempio, pubblicare online foto e video, consigliare un sito Web o incontrare un amico. Anche il lifestream è incentrato sulla brevità dei contenuti, ma, mentre nel microblogging si scrive un messaggio dall'applicazione stessa, nel lifestreaming si aggregano i contenuti provenienti da vari social media e si combinano in un unico flusso di informazioni. Ad esempio, se si ha un account su diversi social media, come Facebook, Flickr, YouTube e Blogger, esso consente di creare un unico flusso in uscita importando i contenuti prodotti su tutti questi siti. In questo modo, appena viene pubblicata una foto su Flickr, un video su YouTube, un post sul proprio blog o appena viene aggior‐
nato il proprio stato personale su Facebook, la propria pagina di lifestreaming verrà aggiornata di conseguenza. Ciò semplifica notevolmente la vita di chi ci segue; egli infatti potrà vedere immedia‐
tamente le novità che pubblicate sia attraverso il profilo lifestreaming personale che seguendo il link al social media che ospita il contenuto prodotto. Quindi, concentrare la propria attività online in un'unica postazione aiuta i contatti a tenersi sempre aggiornati sulle ultime novità. Come abbiamo detto, il Web 3.0 renderà anche i suoi siti un po’ più personali; infatti, un po’ tutti i siti si rifaranno a quello che era iGoogle, che permetteva agli utenti di creare una home page personaliz‐
zata, ideale per avere una panoramica delle notizie del giorno riguardo gli argomenti che Versace Pasquale | 23 Analisi e prospettive del fenomeno “Web 3.0”
Interessavano, inserendo un box (o gadget) con le ultime notizie dai giornali, un box con gli ultimi post dai blog seguiti, un riquadro con le previsioni del tempo, uno con l'oroscopo del giorno, e tanto altro. Inoltre, le nostre ricerche non saranno più fatte su Wikipedia ma su Dbpedia. La DBpedia Italiana è un progetto aperto e collaborativo per l’estrazione e il riutilizzo di informazioni semanticamente strutturate dalla versione italia‐
na di Wikipedia. Il progetto mira a rendere riutilizzabili le informazioni di Wikipedia da parte di software e applicazioni. La DBpedia Italiana permette di eseguire query sofisticate e complesse sui contenuti di Wikipedia e di collegare altri dataset Linked Data a Wikipedia. Oggi la versione inglese di DBpedia è già disponibile ed è al centro della Linked Open Data Cloud; essa costituisce un importante riferimento per il collegamento tra diversi dataset. Se consideriamo le tecnologie che sono alla base dei due Web, abbiamo che il Web 2.0 si basa sulla tecnologia AJAX, acroni‐
mo di Asyncronous JAvascript and XML, che più che un lin‐
guaggio di programmazione, può essere visto come una mo‐
dalità di utilizzo degli standard esistenti sul mercato. Infatti, la tecnica AJAX scambia dati con il server ed aggiorna parti di una pagina Web senza la necessità di ricaricare l’intera pagina. Dunque, AJAX è asincrono e sfrutta tutti i vantaggi delle tecni‐
che asincrone, nel senso che i dati extra sono richiesti al server e caricati in background, senza interferire con il comportamento della pagina esistente. “AJAXisnotanewprogramminglanguage,butanewwaytouseexistingstandards”
La tecnica AJAX utilizza una combinazione delle seguenti tecnologie o linguaggi di programma‐
zione: 

HTML (o XHTML) e CSS per il markup e lo stile; DOM (Document Object Model) manipolato attraverso un linguaggio JavaScript o JScript per mostrare le informazioni ed interagirvi; 
l'oggetto XMLHttpRequest per l'interscambio asincrono dei dati tra il Browser dell'utente ed il Webserver. In alcuni Framework AJAX ed in determinate situazioni, può essere usato un oggetto Iframe invece di XMLHttpRequest per scambiare i dati con il server; in genere, viene utilizzato XML come formato di scambio dei dati, anche se, di fatto, qualunque formato può essere adottato, inclusi il testo semplice, l’HTML preformattato oppure altri. Questi file sono solitamente genera‐
ti dinamicamente da script lato server. 24 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
Il Web 3.0 si baserà sulla tecnologia RDF (Resource Descrip‐
tion Framework), cioè un linguaggio per la rappresentazione di informazioni su risorse di qualsiasi tipo (siti Web, articoli, libri, etc.). In senso stretto, questo linguaggio sarebbe un linguaggio astratto, cioè un insieme di elementi e regole per la descrizione di risorse. XML costituisce una delle possibili sintassi utilizzabili per descrivere risorse secondo il fra‐
mework RDF; in alternativa potrebbero essere utilizzate altre sintassi come, ad esempio, dei grafi. Le specifiche di RDF sono mantenute dal W3C e presenti tra la documentazione ufficiale su XML. 1
Versace Pasquale | 25 Analisi e prospettive del fenomeno “Web 3.0”
2.3 BISOGNO DI INNOVAZIONE
Se andassimo a cercare il perché di quello che è stato inizialmente il passaggio da Web 1.0 a Web 2.0, la rispo‐
sta è molto semplice; infatti l’enorme sviluppo e la gran‐
de fama che ebbe il primo Web, fece aumentare quello che era il numero degli utenti connessi alla rete. Questo aumento costrinse il Web a diventare sempre più incen‐
trato sugli utenti guadagnando, allo stesso tempo, in quelli che erano i contenuti. Infatti, come abbiamo già detto, il primo Web permetteva solo la letture dei contenuti che, però, restavano limitati; gli utenti non sempre riuscivano a trovare ciò che cercavano. Con il Web 2.0, invece, erano anche gli utenti che finalmente potevano aggiungere per la prima volta contenuti al Web, riuscendo, finalmente, a dare una risposta a tutte quelle domande che gli altri utenti facevano e che fino ad allora erano rimaste senza risposta. Guardando l’altra faccia della medaglia, però, col pas‐
sare del tempo, e con l’aumentare ovviamente delle informazioni inserite in rete, si è arrivati ora ad un punto in cui nel Web è presente una mole di dati troppo grande; l’utente, facendo una semplice ricerca, si troverà di fronte ad una infinità di risultati, molti dei quali saranno ben lontani da quello che aveva cercato. Ed è proprio in questo scenario che entra in scena il Web 3.0; esso si pone, appunto, l’obbiettivo di riorganizzare questa mole di dati, creando un Web come un vero e proprio database che permetterà agli utenti di avere una precisa risposta a qualsiasi loro domanda, anche le più complicate. Questo perché, come abbiamo già detto, sarà un Web semantico che, tramite programmi incentrati sui software e non più sugli utenti, riuscirà a capire il significato dei contenuti. Grazie a tutte queste innovazioni, il Web 3.0 migliorerà la user experience; infatti, essendo un Web intelligente, sarà molto più facile interagire con esso. Per capire tutto ciò basterà fare un semplice esempio, già riportato in un famoso giornale informatico: se un giorno noi decidessi‐
mo di andare al cinema e andare successivamente a mangiare qualcosa, e fossimo in vena di vedere una commedia e mangiare del cibo messicano, aprendo il nostro computer saremmo costretti a andare su Google e cercare informazioni per cinema e ristoranti; ma avremmo biso‐
gno di conoscere il film che proiettano nel cinema vicino, quindi avremmo bisogno di altro tempo per leggere recensioni e piccole descrizioni sul film. Inoltre, per andare a cercare il risto‐
rante, dovremmo andare a cercare quali sono quelli aperti e quali quelli chiusi, e quali sono quelli più vicini al nostro cinema, dando un’occhiata, magari, a quelle che sono anche le recen‐
sioni dei clienti. In totale saremmo costretti ad effettuare una dozzina di ricerche prima di effettuare la scelta migliore. Con la nuova generazione di Web noi potremmo effettuare ricer‐
che complicate come questa in modo più veloce e molto più facilmente; invece di ricerche multiple, basterà scrivere una o due frasi più complesse nel nostro Browser e il Web farà il resto. Nel nostro caso potremmo scrivere, ad esempio: 26 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
“Io voglio vedere un film divertente e dopo mangiare in un buon ristorante Messicano, quale sono le mie opzioni? ”, immediatamente il Browser cercherà su Internet tutte le possibili rispo‐
ste e organizzerà i risultati per noi. Questo non è tutto; infatti molti esperti credono che il Brow‐
ser del Web 3.0 lavorerà come un assistente personale. Nel momento in cui noi cerchiamo nel Web, il Browser impara i nostri interessi, e più noi navighiamo più il Web apprenderà di noi, fino al punto che potremmo, un giorno, effettuare delle domande aperte come: “Dove potrei andare per il pranzo?” e il nostro Browser, consul‐
tando il suo archivio, con ciò che ci piace e non ci piace, e prendendo in considerazione la nostra posizione corrente, sarà capace di suggerirci una lista di ristoranti. Si arriverà, quindi, in un momento in cui il Web non sarà più visto come un mezzo per ottenere informazioni, ma sarà esso stesso a fornircele. 1
Versace Pasquale | 27 Analisi e prospettive del fenomeno “Web 3.0”
28 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
3. WHAT, OVVERO… LE PRINCIPALI CARATTERISTICHE
In questo capitolo verranno descritte le principali caratteristiche del “Web 3.0”; verranno
inizialmente trattati i Metadati e i Linked Data, che stanno alla base del Web Semantico;
successivamente, verranno introdotte le tecnologie che rendono possibile tutto ciò, ovvero:
RDF, SPARQL e OWL
1
Concetto di metadata
2
Il dataWeb
SPARQL
5
OWL
3
RDF
1
4
Versace Pasquale | 29 Analisi e prospettive del fenomeno “Web 3.0”
3.1 IL CONCETTO DI METADATA
Con il termine “metadati” o anche “meta tag” si definiscono le informazioni che, associate ad una pagina Web o ad una porzione di essa, ne descrivono il contenuto specificandone il contesto di riferimento. La spiegazione inglese è sicuramente più semplice e concisa; infatti, essi vengono definiti come “data about data”. I metadati sono parte integrante del Web semantico con il quale si fa riferimento alla possibilità di classificare i dati pubblicati sul Web in maniera strutturata, in modo che la ricerca delle informa‐
zioni da parte degli utenti sia più efficace. Il concetto di metadati ha, in realtà, un ruolo importan‐
tissimo nella gestione di qualunque tipo di contenuto informativo o documentale, soprattutto quando l’informazione disponibile è molta e deve essere selezionata e organizzata per facilitarne il reperimento e l’uso. Non a caso, dunque, nonostante si tratti di un concetto perfettamente appli‐
cabile in tante situazioni che non hanno nulla a che fare con il mondo della rete e delle nuove tec‐
nologie, i metadati sono uno dei “mattoni” fondamentali del nuovo Web. Etimologicamente, il termine richiama l’idea di dati di secondo livello, ovvero dati utilizzati per descrivere e classificare altri dati. L’esempio tipico, e quello più comunemente utilizzato per spie‐
gare il concetto, è il catalogo di una biblioteca. Gli scaffali di una biblioteca raccolgono libri (i dati di primo livello, o “informazione primaria”), mentre il catalogo raccoglie schede che descrivono i libri sulla base di una serie di caratteristiche prefissate: il nome dell’autore, il titolo, il luogo e l’an‐
no di pubblicazione, il numero di pagine, la collocazione negli scaffali della biblioteca (o in un siste‐
ma di classificazione astratto), e così via. Le schede di un catalogo contengono, dunque, dei dati di secondo livello, dei metadati appunto, che descrivono l’informazione primaria e aiutano a gestirla e reperirla. Dal canto suo, la biblioteca comprende sia i libri sia il catalogo: una buona raccolta di risorse informative, infatti, comprende sempre anche informazione secondaria, ovvero i metadati, che permettono di descrivere, organiz‐
zare e reperire l’informazione primaria (una biblioteca, offre, infatti, al proprio utente anche molte altre cose, e, in particolare, un insieme assai ampio di strumenti e servizi che aiutano a lavorare sia sull’informazione primaria sia sui metadati). Esistono molti tipi di metadati; una distinzione abbastanza diffusa è quella fra metadati descrittivi, gestionali‐amministrativi e strutturali. Tale configurazione, però, non è, né l’unica possibile, né necessariamente esaustiva o sempre soddisfacente, e proprio come la scelta dei metadati stessi, la scelta di particolari classificazioni o organizzazioni dei metadati è legata al tipo di informazione primaria di cui ci si occupa. Sui metadati si basa il lavoro degli spider dei motori di ricerca: il loro compito consiste, infatti, nel dedurre metadati dalle pagine visitate e consentirne l’utilizzo da parte degli index software, i quali, sulla base di tali informazioni provvedono all’indicizzazione delle pagine del Web. 30 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
1
I metadati dedotti dagli spider non sempre, però, rispecchiano l’effettivo contenuto delle pagine visitate; spesso accade infatti che tra i risultati di una ricerca spuntino anche riferi‐
menti che non hanno quasi nessuna attinenza con le informazioni ricercate. Per tale motivo è preferibile dotare le pagine Web di metadati già strutturati, come suggerisce proprio Google nella sua guida per Webmaster, così da indirizzare il più possibile il lavoro degli spider, opera‐
zione particolarmente utile in un’ottica di Web marketing. Ma quali metadati è utile inserire nelle pagine Web? Uno degli standard più accreditati per la gestione dei metadati è quello messo a punto dalla Dublin Core Metadata Initiative (DCMI). Lo standard Dublin Core prevede quindici elementi fondamentali da poter inseri‐
re nell’head del codice di una pagina Web, alcuni appar‐
tenenti alla tipologia dei metadati descrittivi, ossia finalizzati al recupero della risorsa, altri a quella dei metadati strutturali e finalizzati a fornire informa‐
zioni sulle proprietà, appunto, strutturali del documen‐
ti. Tali elementi sono: 1. Title: il nome attribuito alla pagina. 2. Creator: l’autore della pagina. 3. Subject: l'argomento trattato o il contesto di riferimento 4. Description: breve descrizione del contenuto della pagina. 5. Publisher: chi pubblica la pagina o la rende accessibile. 6. Contributor: chi ha contribuito in qualche modo alla realizzazione. 7. Date: data di creazione, di pubblicazione, o di revisione. 8. Type: tipo di risorsa o tipo di contenuto. 9. Format: formato della pagina Web. 10. Identifier: identificatore della pagina (ad esempio URL). 11. Source: eventuale risorsa da cui la pagina Web corrente è derivata. 12. Language: contesto linguistico di riferimento. 13. Relation: eventuali risorse collegate. 14. Coverage: scopo della pagina Web, o eventuale periodo di validità o eventuale area geografica di riferimento. 15. Rights: eventuali diritti sull'utilizzo della risorsa. E’ possibile inserire, anche solo parzialmente, i suddetti elementi, ad esempio limitandosi ai metadati descrittivi. Il Dublin Core è uno standard flessibile e ormai consolidato al quale poter fare riferimento nella definizione di una struttura per la descrizione di risorse online, con lo scopo di renderne più agevole il reperimento, la gestione e la condivisione. Versace Pasquale | 31 Analisi e prospettive del fenomeno “Web 3.0”
L’efficacia dell’inserimento di metadati all’interno delle pagine Web ai fini di una strategia di SEO (Search Engine Optimization, cioè ottimizzazione per i motori di ricerca) è, invece, ancora ampiamente dibattuta. In passato i motori di ricerca leggevano avidamente questo tipo di dettagli; oggi, invece, in seguito alle continue evoluzioni degli spider software tali informazioni hanno un peso indubbiamente inferiore: gli algoritmi degli spider sono in grado di scandagliare l'intero contenuto delle pagine per ricavarne "parole chiave", e dunque il significato. I metadati hanno bisogno di un’ architettura a strati, flessibile ed estendibile, basata su RDF. Considerando i metadati come un continuo work in progress e permettendo metadati sog‐
gettivi, si arriva ad una nuova visione dove i metadati possono essere considerati come un’in‐
formazione in continua evoluzione, soggetta continuamente ad aggiornamenti e modifiche. Per quanto riguarda le incongruenze tra le diverse descrizioni, esse saranno gestite grazie a RDF, e saranno aggiunte differenti tipologie e contesti specifici dagli altri utenti quando, ciò risulterà necessario. Ogni piccola parte dei metadati RDF forma una parte dell’informazione network globale, dove ognuno ha la possibilità di ag‐
giungere metadati ad ogni tipo di risorsa. In questo scenario, i metadati di una singola risorsa non possono essere contenuti in un solo documento RDF, e le diffe‐
renti categorie saranno separate. La costruzione dei consensi diventerà una parte naturale del meta‐data management; i metadati potranno formare parte del progresso scientifico ancora in corso, con il risultato di un vero e proprio ecosistema globale, cioè un posto dove i metadati stessi possano fiorire ed essere riutiliz‐
zati in un nuovo contesto e dove ognuno vi possa partecipare. Si può, quindi, affermare che i metadati sono informazioni, comprensibili dalla macchina, relative a una risorsa Web o a qualche altra cosa. Il punto chiave è costituito, appunto, dal fatto che i metadati sono comprensibili dalla macchina (machine understandable);di conse‐
guenza, costituiscono un tipo di informazione che può essere utilizzata dai software agent per fare un uso appropriato delle risorse, rendendo più semplice e veloce il funzionamento del Web e aumentando, quindi, la user experience. Ad esempio, quando si reperisce un docu‐
mento (o un oggetto) sul Web, utilizzando il protocollo HTTP, è possibile che il server invii alcune informazioni sulla risorsa, quali la sua data di aggiornamento, la data massima di validità dell’ informazione, il suo autore, etc. Il Web, quindi, come insieme di risorse e di informazioni sulle risorse (cioè metadati), è già una realtà alla quale siamo abituati. Essendo i metadati dei veri e propri dati, questi possono essere memorizzati in una risorsa, che può, quindi, contenere informazioni relative a se stessa o ad un’ altra risorsa. Attualmente esistono tre modi per acquisire metadati: 1. I metadati sono contenuti nella risorsa medesima, come, per esempio, nella sezione HEAD di un documento HTML. 32 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
1
2. Al momento del trasferimento della risorsa, le informazioni vengono trasferite dal server al client (GET) o dal client al server (PUT o POST). 3. I metadati vengono estratti da un’ altra risorsa. I metadati relativi ad un documento possono essere quindi estratti dalla risorsa stessa, o da un’ altra risorsa, oppure possono essere trasferiti insieme al documento. La seconda conseguenza del fatto che i metadati siano dati, è che essi possono essere de‐
scritti da altri metadati, e così via. I metadati consistono in asserzioni sui dati, le quali ven‐
gono, quindi, rappresentate sotto forma di un nome un insieme di parametri. L’ assioma è che i metadati sono rappresentati da un insieme di asserzioni indipendenti. Nel caso vi siano più asserzioni relative alla stessa risorsa, l’asserzione risultante è quella ottenuta mediante l’ AND logico delle due asserzioni. Le asserzioni relative alle risorse vengono spesso riferite come attributi della risorsa. Per esempio, se per una risorsa vale l’ asserzione che essa ha una proprietà specifica come l’autore, il parametro è il nome dell’ autore. Analogamen‐
te, se il soggetto è un attributo della risorsa, allora il parametro è l’ argomento trattato. Gruppi di asserzioni relative alla stessa risorsa prendono spesso la forma di una lista di coppie (attributo‐
valore). Il termine “asserzione” enfatizza il fatto che la coppia (attributo‐valore), quando viene trasferita con la risorsa, è uno statement fatto da una terza parte. Questo aspetto assume una particolare rilevanza nel contesto in cui il “ Web of trust” diventa un elemento importante, in quanto permette di conoscere l’origine e l’affidabilità dei dati e dei metadati. Versace Pasquale | 33 Analisi e prospettive del fenomeno “Web 3.0”
3.2 IL DATAWEB
Il Web Semantico è stato definito “Web of data”, cioè un nuovo Web visto come un enorme data‐
base, dove le numerose tecnologie come: RDF, OWL, SPARQL e SKOS forniscono uno sviluppo tramite cui un’applicazione può creare query e inference (cioè generare nuove relazioni basate sui dati e su informazioni aggiunte sotto forma di un vocabolario). Comunque, per creare real‐
mente un Web of Data, è importante avere una grande quantità di dati nel Web, disponibile in un formato standard, raggiungibile e trattabile dai tool del Web semantico. Inoltre, questo Web non solo necessita un accesso ai dati, ma anche delle relazioni tra essi, che dovrebbero essere rese disponibili anche al fine di creare un Web di dati (al contrario di una raccolta pura di set di dati). Questa collezione di set di dati correlati sul Web può essere indicata anche come Linked Data. I Linked Data usano il Web per connettere dati che non erano precedentemente collegati. In modo più specifico i Linked Data sono definiti come: ”un termine usato per descrivere una procedura consigliata per l'esposizione, la condivisione, e la connessione di frammenti di dati, informazioni e conoscenza sul Web Semantico con URI e RDF”. Per aggiungere e creare Linked Data, le tecnologie devono essere disponibili in un format comune (RDF), al fine di consentire la conversione o l’accesso al database (relazionale, XML, HTML). Esse, inoltre, devono essere in grado di creare query per accedere ai dati nel modo più conveniente. W3C fornisce una gamma di tecnologie (RDF, GRDDL, POWDER, RDFa, il prossimo R2RML, RIF, SPARQL) per ottenere l'accesso ai dati. I Linked Data si trovano nel cuore di tutto quello che rap‐
presenta il Web Semantico, cioè integrazione su larga scala e il ragionamento in merito ai dati sul Web. Quasi tutte le applicazioni indicano una collezione di casi di studio e casi d'uso che si basano essenzialmente sulla accessibilità e l'integrazione dei Linked Data a vario livello di complessità. Una nota di Tim Berners‐Lee sui Linked Data fornisce una descrizione succinta dei loro principi. La comunità del Semantic Web mantiene, anche, una lista di libri su una pagina Wiki. Alcuni di questi libri sono stati introdotti realmente, mentre altri sono atti di convegni o libri di testo che affronta‐
no argomenti più avanzati. Tim Berners‐Lee descrisse quattro criteri sui Linked Data: 1. Usare URI per identificare oggetti. 2. Usare HTTP URI in modo che questi oggetti possano essere referenziati e cercati da persone ed user agent. 34 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
3. 4. Fornire informazioni utili sull'oggetto quando la sua URI è deferenziata, usando formati stan‐
dard come RDF. Includere link ad altre URI relative ai dati esposti per migliorare la ricerca di altre informazioni relative nel Web. I componenti che dobbiamo usare sono: 



URI (nello specifico, URI deferenziabili). Un URI, acronimo di Uniform Resource Identifier, si riferisce a una stringa che identifica univocamente una risorsa generica che può essere un indirizzo Web, un documento, un'immagine, un file, un servizio, un indirizzo di posta elettro‐
nica, etc., che rendono disponibili le risorse secondo una varietà di protocolli, tra i quali HTTP e FTP. HTTP. Resource Description Framework (RDF). Formati serializzabili (RDFa, RDF/XML, N3…). L'obiettivo del progetto Linking Open Data del W3C è quello di estendere il Web pubblicando diversi open dataset, come RDF sul Web, e di impostare link RDF tra i dati di differenti risorse. Nell'Ottobre del 2007, i dataset contenevano più di due miliardi di triple RDF, collegate da più di due milioni di link RDF. Da maggio 2009 sono cresciuti a 4,2 miliardi di triple RDF, collegate da 1
Versace Pasquale | 35 Analisi e prospettive del fenomeno “Web 3.0”
Come si è detto, quindi, i dati, se isolati, hanno poco valore; viceversa, il loro valore aumenta sensibilmente quando data set differenti, prodotti e pubblicati in modo indipendente da diversi soggetti, possono essere incrociati liberamente da terze parti. Questo è alla base del processo di creazione di valore aggiunto sui dati, ovvero delle applicazioni. Le applicazioni, di valore sociale e/
o economico, sfruttano quello che può essere visto come un grande database aperto e distribuito per offrire viste e servizi. L’interoperabilità è, dunque, un elemento chiave di uno degli aspetti più innovativi offerti dagli open data: l’uso dei dati per interscambi e interazioni nei campi più vari. Per consentire il riuso dei dati occorre poter combinare e mescolare liberamente i dataset. Occorre, cioè, collegare i dati tra loro, stabilendo un link diretto quando i dati (possibilmente provenienti da diverse sorgenti) si riferiscono a oggetti identici o comunque relazionati tra loro. Tale collegamen‐
to diretto si manifesta come la possibilità di “saltare” da un dataset all’altro, ad esempio quando si vuole accedere a dati (come i dettagli su una particolare entità) che non si possiedono all’interno. Combinare i due dataset potrebbe essere di grande utilità, ad esempio per offrire un servizio per‐
sonalizzato in base agli interessi specifici di un utente. Per fare questo, se i dati non sono “collegati”, occorre, in qualche modo, creare questi link, pro‐
cessando i dati a mano o attraverso algoritmi adatti. Questo processo può non essere banale, e sicuramente è una barriera al riuso organico dei dati. Nei cosiddetti Linked Data, questi collega‐
menti e relazioni tra le entità descritte nei dataset sono espliciti. Già sul Web sono presenti una vasta quantità di Linked Open Data. DBPedia, per esempio, espone una grande porzione di dati di Wikipedia come linked data, mentre Geonames offre descrizioni RDF di entità geografiche, fornisce un quadro dello stato corrente del “Linked data cloud”, e mostra un ecosistema di data‐
base interconnessi in rapida crescita. 36 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
3.3 RDF
E’ molto difficile automatizzare il Web restando ancorati alla sua architettura originaria, in cui tutte le informazioni erano machine‐readable ma non machine‐understandable; la soluzio‐
ne al problema arriva proprio dai metadati. L’ uso efficace dei metadati, tuttavia, richiede che vengano stabilite delle conven‐
zioni per la semantica, la sintassi e la struttura. Le singole comu‐
nità interessate alla descrizione delle loro risorse specifiche definiscono la semantica dei metadati pertinenti alle loro esi‐
genze. La sintassi, cioè l’ organizzazione sistematica dei data‐
element per l’ elaborazione automatica, facilita lo scambio e l’ utilizzo dei metadati tra applicazioni diverse. La struttura può essere vista come un vincolo formale sulla sintassi, per una rappresentazione consistente della semantica. RDF (Resource Description Framework) è lo strumento base per la codifica, lo scambio e il riutilizzo di metadati strutturati, e consente l’interoperabilità tra applicazioni che si scambiano sul Web informazioni machine‐understandable. I settori nei quali RDF può essere utiliz‐
zato e portare vantaggi sono i più vari, per esempio: 

1





descrizione del contenuto di un sito Web, o di una pagina, o di una biblioteca digitale; implementazione di intelligent software agent, per lo scambio di conoscenza e un utilizzo migliore delle risorse Web; classificazione del contenuto, per applicare criteri di selezione; descrizione di un insieme di pagine, che rappresentano un singolo documento logico; definizione dei criteri di proprietà intellettuale delle singole pagine; definizione dei criteri di privacy preference degli utenti e delle privacy policy di un sito Web; contribuire, mediante il meccanismo della digital signature, alla creazione del “Web of Trust”, per le applicazioni nel commercio elettronico, nella cooperazione, etc. RDF, quindi, non descrive la semantica, ma fornisce una base comune per poterla esprimere, per‐
mettendo di definire la semantica dei tag XML. Esso è costituito da due componenti: 1. RDF Model and Syntax: definisce il data model RDF e la sua codifica XML. 2. RDF Schema: permette di definire specifici vocabolari per i metadati. 1) RDF Model RDF fornisce un modello per descrivere le risorse. Queste ultime hanno delle proprietà o anche attributi e caratteristiche. RDF definisce una risorsa come un qualsiasi oggetto che sia identificabile univocamente mediante un Uniform Resource Identifier (URI). Il data model RDF è molto semplice, ed è basato su tre tipi di oggetti: Versace Pasquale | 37 Analisi e prospettive del fenomeno “Web 3.0”
1. 2. 3. Resources: Qualunque cosa descritta da una espressione RDF viene detta risorsa (resource). Una risorsa può essere una pagina Web, o una sua parte, o un elemento XML all’ interno del documento sorgente. Una risorsa può anche essere un’intera collezione di pagine Web, o anche un oggetto non direttamente accessibile via Web (come, ad esem‐
pio, un libro o un dipinto). Le risorse sono sempre individuate da un URI, eventualmente con un anchor id. Properties: Una proprietà è un aspetto specifico, una caratteristica, un attributo, o una relazione utilizzata per descrivere una risorsa. Ogni proprietà ha un significato specifico, definisce i valori ammissibili, i tipi di risorse che può descrivere, e le sue relazioni con altre proprietà. Le proprietà associate alle risorse sono identificate da un nome e assumono dei valori. Statements: Una risorsa, con una proprietà distinta da un nome, e un valore della proprie‐
tà , costituisce un RDF statement. Uno statement è quindi una tupla composta da un soggetto (risorsa), un predicato (proprietà) e un oggetto (valore). L’ oggetto di uno statement (cioè il property value) può essere un’ espres‐
sione (sequenza di caratteri o qualche altro tipo primitivo definito da XML) oppure un’ altra risorsa. Graficamente, le relazioni tra Resource, Property e Value vengono rappresentate mediante grafi etichettati orientati, in cui le risorse vengono identificate come nodi (graficamente delle ellissi), le proprietà come archi orientati etichettati, e i valori corrispondenti a sequenze di ca‐
ratteri come rettangoli. Un insieme di proprietà che fanno riferimento alla stessa risorsa viene detto descrizione (description). L'utilizzo di RDF può essere chiarito con qualche semplice esempio. Si considerino queste due espressioni: 1. "Oreste Signore è l'autore del DocumentoX" 2. "L'autore del DocumentoX è Oreste Signore" 38 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
Queste sono del tutto equivalenti per un essere umano, in quanto veicolano la stessa informazione, mentre verrebbero viste come due espressioni diverse da una macchina. RDF, mediante il suo sem‐
plice modello basato su resource, property e value, intende fornire un metodo non ambiguo per esprimere la semantica con una codifica comprensibile dalla macchina. Dal momento che RDF forni‐
sce un meccanismo per associare le proprietà alle risorse, per poter dare un valore alle proprietà occorre che sia dichiarata la risorsa. Quindi, per prima cosa, va dichiarata una risorsa che rappresenti il DocumentoX. Si ha quindi la tripla: “Resource http://www.w3c.it/Oreste/DocX
Property author
Value Oreste Signore“
Lo statement dell'esempio verrebbe, quindi, rappresentato come: “La risorsa http://www.w3c.it/Oreste/DocX has Author Oreste Signore” 1
La direzione dell'arco è importante: essa parte dal soggetto dello statement e punta all' oggetto. Se, invece, si vuole dire qualcosa in più riguardo all'oggetto, per esempio si vuole dire: “Oreste Signore, la cui Email è [email protected], e lavora presso il C.N.R,è l’ autore del DocumentoX” E, quindi, si desidera esprimere delle informazioni riguardo a (about) Oreste Signore, e quindi tra‐
sformare il valore della proprietà autore in una entità strutturata. In RDF, un'entità di questo tipo viene rappresentata come un'altra risorsa, poiché nello statement non viene attribuito un nome a questa entità strutturata. Versace Pasquale | 39 Analisi e prospettive del fenomeno “Web 3.0”
Questo diagramma potrebbe essere letto come: “http://www.w3c.it/Oreste/DocX has author qualcuno e questo qualcuno has Name Oreste Signo‐
re, Email [email protected], e Affiliation C.N.R.” Alla risorsa anonima “ qualcuno” potrebbe essere assegnato un identificatore univoco, per esempio il CodiceFiscale, corrispondente a un URI del tipo: “http://www.finanze.it/CF/SGNRST99A99X111Y.” Questo diagramma potrebbe essere letto come la concatenazione di due frasi: “La persona identificata dal Codice Fiscale SGNRST99A99X111Y has Name Oreste Signore, Email [email protected], e Affiliation C.N.R.. La risorsa http://www.w3c.it/Oreste/DocX has author questa persona” In questo esempio è stata creata una risorsa, identificabile univocamente, per l'autore, ma non per il nome, la e‐mail e l'affiliazione. Il modello RDF consente la creazione di risorse a più livelli. Talvolta, è necessario far riferimento a più di una risorsa, per esempio per descrivere il fatto che un libro sia stato scritto da più autori, oppure che un documento è composto da una serie di componenti, oppure, ancora, che una funzione può essere svolta da una delle persone elencate. RDF definisce tre tipi di contenitori (container): 1. Bag: È una lista non ordinata di risorse o costanti. Viene utilizzato per dichiarare che una proprietà ha valori multipli, senza alcun significato particolare attribuito al loro ordine (per esempio, i componenti di una commissione). Sono ammessi valori duplicati. 2. Sequence: È una lista ordinata di risorse o costanti. Viene utilizzato per dichiarare che una proprietà ha valori multipli, e che il loro ordine è significativo (per esempio, gli autori di un libro, un insieme di nomi di cui si voglia preservare l'ordine alfabetico). Sono ammessi valori duplicati. 40 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
3. 1
Alternative: È una lista di risorse o costanti che rappresentano un’alternativa per il valore (singolo) di una proprietà. Può essere utilizzato, per esempio, per fornire titoli alternativi in varie lingue. È possibile definire proprietà sia dell'intero container che dei singoli elementi. Si possono utiliz‐
zare anche dei Container e proprietà multiple. Infatti, una risorsa può essere soggetto in più statement, sempre con lo stesso predicato (per esempio, Calvino è autore di "Se una notte d'inverno un viaggiatore", "Le fiabe italiane", "Il barone rampante"). E’ semanticamente diverso il caso in cui si ha un singolo statement il cui oggetto è un container contenente vari esemplari. Per esempio, lo statement: "La commissione composta da X, Y e Z ha adottato una decisione", non implica che ogni membro della commissione abbia espresso lo stesso parere, come, inve‐
ce, sarebbe nel caso in cui si usasse uno statement multiplo. Per modellare gli statement, RDF definisce le seguenti quattro proprietà : 1. Subject: identifica la risorsa che viene descritta dallo statement modellato; quindi, il soggetto è la risorsa relativamente alla quale era stato formulato lo statement originale (http://www.w3c.it/Oreste/DocX, nell'esempio). 2. Predicate: identifica la proprietà originale nello statement modellato. Il valore del predi‐
cato è una risorsa che rappresenta la specifica proprietà nello statement originale (nell’esempio, Author). 3. Object: identifica il valore della proprietà nello statement modellato. Il valore di object è l'object nello statement originale (nell’esempio: "OresteSignore"). 4. Type: descrive il tipo della nuova risorsa. RDF consente alle singole comunità di definire la semantica. Tuttavia, non è possibile affidare la semantica stessa semplice‐
mente al nome, che potrebbe avere significati più o meno ampi a seconda degli interessi specifici delle singole comunità. RDF identifica univocamente le proprietà mediante il meccanismo dei namespace. Questi forniscono un metodo per appresentare in maniera non ambigua la semantica e le convenzioni che regolano l'utilizzo delle proprietà identificando l' authority che gestisce il vocabolario, come nel caso dela Dublin Core Initiati‐
ve. 2) RDF Schema Il data model RDF permette di definire un modello semplice per descrivere le relazioni tra le risorse, in termini di proprietà identificate da un nome e dai relativi valori. Tuttavia, RDF data model non fornisce nessun meccanismo per dichiarare queste proprietà, né per definire le relazioni tra esse ed altre risorse. RDF Schema permette di definire dei vocabolari; quindi l’ insieme delle proprietà semantiche individuate da una particolare comunità. RDFSchema, o Versace Pasquale | 41 Analisi e prospettive del fenomeno “Web 3.0”
anche abbreviato in RDFS, RDF(S) o RDF‐S, permette definire il significato, le caratteristiche e le relazioni di un insieme di proprietà, compresi eventuali vincoli sul dominio e sui valori delle stes‐
se; esso consente, altresì, di definire sottoclassi e tipi. Inoltre, implementando il concetto (transitivo) di classe e sottoclasse, RDFSchema consente di definire gerarchie di classi, con il conseguente vantaggio che agenti software intelligenti possono utilizzare queste relazioni per svolgere i loro compiti. In RDF si possono rappresentare le risorse come istanze di classi e definire sottoclassi e tipi. 


RDF Classi: Ogni risorsa descritta in RDF è istanza della classe rdfs:Resource. Le sottoclassi di rdfs:Resource sono: ‐ rdfs:Literal: rappresenta un letterale, una stringa di testo. ‐ rdfs:Property: rappresenta le proprietà. ‐ rdf:Class: rappresenta una classe dei linguaggi object‐oriented. RDF Proprietà: ‐ rdf:type: Indica che una risorsa è del tipo della classe che viene specificata. ‐ rdfs:subClassOf: Indica la relazione classe/sottoclasse fra due classi. L'ereditarietà può essere multipla. ‐ rdfs:subPropertyOf: Indica che una proprietà è specializzazione di un'altra. ‐ rdfs:seeAlso: Specifica che la risorsa è anche descritta in altre parti. ‐ rdfs:isDefinedBy: Indica la risorsa "soggetto dell'asserzione", ovvero chi ha fatto l'as‐
serzione. RDF Vincoli: ‐ rdfs:range (codominio): È utilizzato come proprietà di una risorsa; indica le classi che faranno parte di un’asserzione con la proprietà. ‐ rdfs:domain (dominio): Indica la classe a cui può essere applicata la proprietà. 42 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
3.4 SPARQL
1
SPARQL (acronimo di: Simple Protocol and RDF Que‐
ry Language) è un linguaggio di interrogazione per Resource Description Framework (RDF) reso standard dal Data Access Working Group, gruppo di lavoro del consorzio W3C, che lo ha reso ufficiale nel gennaio 2008. SPARQL è un elemento chiave del Web semantico e consente di estrarre informazioni dalle basi di cono‐
scenza distribuite sul Web. RDF descrive i concetti e le relazioni su di essi attraverso l'introduzione di triple (soggetto‐predicato‐oggetto); se tali triple hanno degli elementi in comune emerge un grafo di conoscenza. SPARQL non fa altro che ricercare dei sotto‐grafi corrispondenti alla richiesta dell'utente che effettua la query. L'elemento chiave di RDF sono le URI che identificano le risorse in maniera univoca consentendo a chi usa SPARQL di scrive‐
re query ben definite e non ambigue. L'elaborazione in SPARQL avviene introducendo due infor‐
mazioni: il grafo dei dati (presente sul Web) e il grafo di query (descritto attraverso triple dall'u‐
tente). L'output può essere di più tipi, ma principalmente si utilizzano interrogazioni di tipo esi‐
stenziale (esiste o meno il sotto‐grafo ricercato?) o tabellare (elencami i risultati possibili). SPARQL può essere usato per esprimere query attraverso varie fonte di dati se i dati sono memo‐
rizzati in modo nativo come RDF o visualizzati come RDF attraverso middleware. SPARQL contie‐
ne funzionalità per l'esecuzione di query su pattern graph obbligatori e facoltativi con le loro congiunzioni e disgiunzioni. SPARQL supporta anche l’esecuzione di query attraverso un grafico sorgente RDF. I risultati delle query SPARQL possono essere gruppi di risultati o grafici RDF. SPARQL adotta la sintassi Turtle, un'estensione di N‐Triple, alternativa estremamente sintetica e intuitiva al tradizionale RDF/XML. Se si considerano le seguenti triple RDF: @prefix cd: <http://example.org/cd/>
@prefix: <http://example.org/esempio/>
:Permutation cd:autore "Amon Tobin".
:Bricolage cd:autore "Amon Tobin".
:Amber cd:autore "Autechre".
:Amber cd:anno 1994.
Le asserzioni sono espresse in concise sequenze soggetto‐predicato‐oggetto e delimitate da un punto fermo. @prefix introduce prefissi e namespace; i due punti senza prefisso (seconda riga) definiscono il namespace di default. Gli URI sono inclusi tra parentesi angolari. I letterali di tipo stringa sono contrassegnati da virgolette. Versace Pasquale | 43 Analisi e prospettive del fenomeno “Web 3.0”
Da un punto di vista sintattico, SPARQL può ricordare SQL (Structured Query Language), il linguaggio per interrogare basi di dati, anche sei due modelli di rappresentazione sottostanti presentano notevoli differenze: 1. Un database relazionale è caratterizzato da record organizzati in tabelle; e il processo di identificazione degli oggetti informativi memorizzati tramite record avviene tramite le primary e foreign key. 2. In RDF, ogni risorsa è identificata da un URI. Più grafi RDF possono essere connessi in un unico grafo e l’insieme delle informazioni circa una risorsa può essere recuperato tramite un meccanismo di unificazione sulle URI. Le query SPARQL si basano sul meccanismo del "pattern matching" e, in particolare, su un costrutto, il "triple pattern". Esse definiscono un template, chiamato Graph Pattern, che deve unificare con le triple presenti nel grafo interrogato. Dati due termini, questi unificano se: 

sono identici (sono, cioè, formalmente lo stesso oggetto); i termini sono interamente rappresentati o sintatticamente costituiti da variabili e può essere effettuata una sostituzione di tali variabili in modo tale che i due termini unifichi‐
no. Una unificazione (matching) di un graph pattern GP su un grafo G è mottenuta da una sostitu‐
zione di variabili S tale che S(GP) sia un sottografo di G. Osservando una semplice query di selezione SPARQL, possiamo definire componenti generali: PREFIX cd: <http://example.org/cd/>
SELECT ?titolo ?autore ?anno
FROM <http://cd.com/listacd.ttl>
WHERE {?titolo cd:autore ?autore.
?titolo cd:anno ?anno . }
PREFIX assegna un prefisso ad un namespace. Tale prefisso può essere utilizzato per riferire tramite un qname compatto (rappresentato da <prefisso>:<resourcename>) le risorse presenti nel grafo da interrogare. SELECT fornisce l’elenco delle variabili da riportare nel risultato (nell'esempio: titolo, autore e anno). FROM indica la sorgente dei dati da interrogare (si suppone che le triple siano immagazzinate presso l'indirizzo fittizio ”http://cd.com/listacd.ttl").È, inoltre, possibile ricorrere a clau‐
sole FROM NAMED e alla parola chiave GRAPH per specificare più insiemi di dati. WHERE definisce una serie di vincoli sulle triple da estrarre attraverso un Graph Pattern da unifi‐
care sul grafo interrogato. Il termine WHERE può essere rimosso inserendo direttamente il pattern tra parentesi graffe, senza alterare il risultato della query. 44 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
1
Se si considera la sintassi generale, si può dire che la sintassi per le parole è una stringa (racchiusa tra virgolette doppie, "...", o singoli apici, '...'), con un tag di lingua opzionale (introdotto da @) oppure un tipo di dati IRI opzionale, oppure un nome prefisso (introdotto dal ^ ^). Per comodità, i numeri interi possono essere scritti direttamente (cioè senza le virgolette e senza un esplicito tipo di dati IRI) e vengono interpretati come valori letterali di tipo xsd:integer; i numeri decimali vengono scritti con il '.' nel numero, ma con nessun esponen‐
te e sono interpretati come xsd:decimal; e i numeri con esponenti sono interpretati come xsd:double. I valori di tipo xsd:boolean sono scritti come true o false. Per facilitare la scrittura di valori letterali che contengono virgolette o che sono lunghe e contengono caratte‐
ri di nuova riga, SPARQL permette di inserire tali caratteri racchiudendoli in tre singoli apici. Una variabile di query viene contrassegnata con l'uso di una "?" o "$". Questi caratteri non possono far parte del nome della variabile. In una query, $abc e ?abc identificano la stessa variabile. I nodi vuoti nei pattern grafici agiscono da variabili. I nodi vuoti sono indicati come "_:abc", o nella forma abbreviata "[]". Un nodo vuoto viene utilizzato in maniera univoca per formare il triple pattern. Un nodo vuoto con etichetta viene utilizzato come oggetto di tutte le coppie predicato‐oggetto contenute. Il nodo vuoto creato può essere utilizzato anche in altri triple pattern nelle posizioni soggetto e oggetto. Ad esempio, le forme [ :p "v" ] e [] :p "v" allocano un nodo vuoto univoco e nell’espressione [ :p "v" ] :q "w" viene utilizzato come soggetto in un triple pattern, mentre nell’espressione :x :q [ :p "v" ] viene uti‐
lizzato come oggetto del triple pattern. I triple pattern con un soggetto comune possono essere scritti in modo che quest’ultimo sia scritto solo una volta e venga utilizzato al posto di più triple pattern utilizzando la notazione ";", come ad esempio ?x foaf:name ?name ;
foaf:mbox ?mbox. Se, invece, i triple pattern condividono sia il soggetto che il predicato, allora gli oggetti possono essere separati da una “,”, come ad esempio ?x foaf:nick
"Alice" , "Alice_". Le RDF collection possono essere scritte nei triple pattern utilizzando la sintassi "(elemento1
elemento2 )". Sono assegnati triple pattern con nodi vuoti quando vengono utilizzati ele‐
menti nella collection, come ad esempio (1 ?x 3 4). Il nodo vuoto alla testa della collection può essere utilizzato come soggetto o oggetto in altri triple pattern. I nodi vuoti assegnati a una sintassi di una collection non occorrono in altre parti della query. Versace Pasquale | 45 Analisi e prospettive del fenomeno “Web 3.0”
3.5 OWL
Il Web Ontology Language (OWL) è stato progettato per fornire un linguaggio che può essere usato per descrivere le classi e le relazioni che le collegano e che sono inerenti ai documenti e alle applicazioni Web. Questo paragrafo dimostra l'uso del linguaggio OWL per: 


formalizzare un dominio definendo le classi e le corri‐
spettive proprietà ; definire individui e asserire delle proprietà su di essi; ragionare su queste classi e sugli individui fino al grado permesso dalla semantica formale del linguaggio OWL. Le sezioni sono organizzate per presentare una definizione incrementale di un insieme di classi, proprietà e individui, cominciando dai fondamenti e andando avanti con i componenti più complessi del linguaggio. OWL è un linguaggio per definire e istanziare Ontologie Web. L’ontologia è un termine preso in prestito dalla Filosofia e si riferisce alla Scienza della descrizione del tipo di Entità del Mondo e di come sono correlate tra loro. Un’ontologia OWL può includere le descrizioni del‐
le classi, delle proprietà e delle loro istanze. Una volta dato questo tipo di Ontologia, la semantica formale di OWL specifica come derivare le sue conseguenze logiche, ovvero i fatti che non sono presenti letteralmente nell'ontologia, ma che possono essere derivati logicamen‐
te dalla semantica. Queste derivazioni logiche possono essere basate su un singolo documento o su più documenti distribuiti che sono stati combinati fra loro usando dei predefini‐
ti meccanismi OWL. OWL fornisce tre sotto linguaggi con espressività crescente che sono stati progettati per essere utilizzati da determinate comunità di sviluppatori e utenti. 

OWL Lite aiuta gli utenti che hanno soprattutto bisogno di una gerarchia di classificazione e semplici restrizioni. Per esempio, nonostante sostenga limitazioni della cardinalità, esso permette soltanto valori di cardinalità di 0 o 1. Sarebbe più semplice fornire uno strumen‐
to di supporto per OWL Lite che per i suoi parenti più espressivi. OWL Lite fornisce un percorso di migrazione più rapido per i thesaurus e le altre tassonomie. OWL DL supporta tutti gli utenti che vogliono il massimo dell'espressività senza perdere la completezza computazionale (tutte le conclusioni hanno la garanzia di essere calcolabi‐
li) e la decidibilità (tutte le computazioni finiscono in un tempo definito) dei sistemi di ragionamento. OWL DL comprende tutti i costrutti del linguaggio OWL con delle restri‐
zioni, come quelle sulla separazione del tipo (una classe non può essere un individuo o una proprietà, così come una proprietà non può essere un individuo o una classe). 46 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”

OWL DL si chiama così a causa della sua corrispondenza con la logica descritti‐
va [Description Logics], un campo di ricerca che ha studiato un particolare frammento decidibile della Logica del Primo Ordine. OWL DL è stato progettato per supportare la parte relativa alla Logica Descrittiva ed ha auspicabili proprietà computazionali per i sistemi di ragionamento. OWL Full è destinato agli utenti che vogliono la massima espressività e libertà sintattica di RDF senza le garanzie computazionali. Per esempio, in OWL Full una classe può esse‐
re trattata contemporaneamente come una collezione di individui e come un individuo a pieno titolo. Un'altra differenza notevole dall'OWL DL è che una owl:DatatypeProperty può essere considerata come una owl:InverseFunctionalProperty. OWL Full permette ad un'ontologia di aumentare il significato di un vocabolario predefinito (RDF o OWL). E' improbabile che qualsiasi software di ragionamento possa sostenere un ragionamento completo per ciascuna caratteristica di OWL Full. Ciascuno di questi sotto linguaggi è un'estensione del suo modello più semplice, sia in ciò che può essere legalmente espresso sia in ciò che può essere validamente concluso. Le seguenti affermazioni sono vere. Il loro opposto no. 



Ogni ontologia OWL Lite legale è un'ontologia OWL DL legale. Ogni ontologia OWL DL legale è un'ontologia OWL Full legale. Ogni conclusione OWL Lite valida è una conclusione OWL DL valida. Ogni conclusione OWL DL è una conclusione OWL Full valida. 1
Gli sviluppatori di ontologie che adottano OWL dovrebbero considerare quale sotto linguag‐
gio si addice meglio ai loro bisogni. La scelta tra OWL Lite e OWL DL dipende da quanto gli utenti hanno o meno bisogno delle strutture più espressive fornite da OWL DL. I software di ragionamento per OWL Lite dovrebbero avere preferibilmente delle proprietà computaziona‐
li. I software di Ragionamento per OWL DL, poichè hanno a che fare con un sotto linguaggio decidibile, sono soggetti ad una complessità più alta nel caso pessimo. La scelta tra OWL DL e OWL Full dipende soprattutto da quanto gli utenti hanno o meno bisogno degli strumenti di meta‐modeling dello Sche‐
ma RDF (per esempio definizione di classi di classi). In con‐
fronto ad OWL DL, quando si usa OWL Full, il supporto di ragionamento è meno predicibile. Nel momento in cui un utente passa dall'utilizzo di RDF a quello di OWL DL o di OWL Lite deve prestare particolare attenzione, assicurandosi che il documento originale in RDF soddisfi le limitazioni imposte dall'OWL DL e dall'OWL Lite. Versace Pasquale | 47 Analisi e prospettive del fenomeno “Web 3.0”
48 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
4. HOW, OVVERO …. LE PRINCIPALI INNOVAZIONI
In questo capitolo verranno trattate le principali innovazioni del “Web 3.0”. Si inizierà col
trattare l’ontologia e la semantica che stanno alla base di questo fenomeno. Successivamente
verranno introdotte le applicazioni mashup, che possono essere considerate “il ponte” tra
Web 2.0 e Web 3.0. Dopo di ciò saranno introdotte le innovazioni che verranno portate all’e
-Learning e lo sviluppo delle Intelligenze Artificiali. In conclusione, si darà uno sguardo
al futuro e a quello che potrebbe essere il Web 4.0.
1
L’Ontologia
2
La Semantica
3
I Mashup
4
L’e-learning
5
L’intelligenza
Artificiale
6
Uno sguardo al
futuro
1
Versace Pasquale| 49 Analisi e prospettive del fenomeno “Web 3.0”
4.1 L’ONTOLOGIA
Uno dei metodi ad oggi più efficiente per rappresentare formalmente un insieme di concetti è la rappresentazione mediante ontologie. “L’Ontologia” è un termine che deriva dalla filosofia ma che, pian piano, ha as‐
sunto un ruolo specifico in diversi campi della ricerca, soprattutto nell’informatica, con la rappresentazione, la creazione di modelli qualitativi, la progettazione di database e sistemi informativi, il reperi‐
mento e l’estrazione delle informazioni, lo sviluppo di software orientati agli oggetti, la gestione e l’organizzazione della cono‐
scenza e lo sviluppo di sistemi basati su Agenti Intelligenti. T.R. Gruber definì l’ontologia come: “unaspeci icazionediunaconcettualizzazione”, in quan‐
to una rappresentazione formale di un insieme di conoscenze è una concettualizzazione, ossia un insieme di oggetti, concetti e relazioni fra di essi che esistono in una particolare area d’inte‐
resse. Con questo termine si intende, quindi, la descrizione delle entità presenti in un sistema e delle loro relazioni. Un’ontologia quindi non è un semplice vocabolario di termini, ma una rete di relazioni tra entità definite; essa ha numerose interpretazioni dipendenti dal contesto: viene, infatti, usata per descrivere realtà con livelli strutturali diversi, quali le tassonomie e gli schemi di metadati (come il Dublin Core). Alla base del Web Semantico, e della semantica in generale, ci sono le ontologie con un livello strutturale elevato poiché devono descrivere specificamente i concetti di classe (cose generi‐
che nei vari domini di interesse), di relazioni esistenti tra le classi e di proprietà o attributi. La costruzione di ontologie dovrebbe concentrarsi solo sulle qualità rilevanti per l’essenza del contenuto e valide per l’uso, tenendo in conto il numero degli utenti, quanto valore i metadati producono per loro e i costi relativi; se questi sono superiori al valore prodotto non c’è ragione di realizzare un’ontologia, anche se, in effetti, alcune qualità che valorizzano l’essenza del con‐
tenuto sono difficili da identificare. All’interno di una comunità le ontologie possono rivelarsi molto utili per strutturare e definire il significato dei termini dei metadati usati. Esse si rivelano però critiche per applicazioni che cercano o mescolano informazioni da comunità diverse: uno stesso termine può essere usato con significati diversi in contesti differenti e termini diversi possono essere usati per documenti che hanno lo stesso significato. Il processo di mapping consente di rendere compatibili contenuti diversi e i loro metadati se‐
mantici, definendo regole con cui si possono omogeneizzare i metadati forniti da fonti etero‐
genee di dati. 50 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
Il mapping può avere livelli diversi di complessità e può coinvolgere la traduzione di un’onto‐
logia nella sua controparte semanticamente equivalente in altre ontologie. Quando ontolo‐
gie di origine e di destinazione non contengono concetti semanticamente equivalenti sorgo‐
no problemi molto più complessi, come l’uso di concetti multipli o cambiamenti nell’ontolo‐
gia originaria. È comunque preferibile passare da un formato a un altro piuttosto che produr‐
re formati intermedi: più sono i formati, maggiore è il vantaggio di usare metodi riutilizzabili e un comune formato ontologico di metadati semantici originario cui tutte le parti rilevanti devono aderire, anche se è normale che diversi stadi del contenuto abbiano proprie ontolo‐
gie. La modellazione delle ontologie avviene per classi. Il meccanismo dell’ereditarietà consente di definire un’unica volta gli attributi che classi ad uno stesso livello ereditano da un padre. La possibilità di definire un’altra classe come valore di un attributo consente di stabilire qualsiasi tipo di relazione fra classi. Queste sono relazioni in quanto si può esprimere il valore di quell’attributo solo servendosi di istanze della classe a cui punta. Generalmente può essere buona norma non dare alle classi nomi a volte al plurale e a volte al singolare. Si può essere portati a utilizzare il plurale per classi che dovranno contenere più individui, il singolare per classi che indicano realtà generiche o astratte. Un’altra cosa da tenere in considerazione è il fatto che l’albero dell’ontologia deve essere bilanciato nella granularità. Il Web Semantico è un ambiente dichiarativo, in cui si specifica il significato dei dati, e non il modo in cui si intende utilizzarli. La semantica dei dati consiste nelle informazioni utili perché la macchina possa utilizzarli nel modo corretto, eventualmente convertendoli. Gli agenti informatici sono, infatti, in grado di comprendere le relazioni tra le informazioni e coordinano questa loro capacità di comprensio‐
ne con le richieste specifiche dell’u‐
tente, collegando l’informazione presente nelle pagine Web a concet‐
ti astratti organizzati in una gerar‐
chia che è, appunto, l’ontologia; a sua volta descritta in un meta docu‐
mento. L’adozione universale di standard aperti per la rappresenta‐
zione e la condivisione della meta informazione rende le macchine capaci di analizzare tutti i dati sul Web e di capirne i contenuti. L’idea del Web semantico nasce, quindi semplicemente estendendo l’idea di utilizzare schemi per descri‐
vere domini di informazione in cui i metadati mappano i dati rispetto a Versace Pasquale | 51 Analisi e prospettive del fenomeno “Web 3.0”
classi, o concetti, di un certo schema di dominio, determinando strutture capaci di descrivere e automatizzare i collegamenti esistenti fra i dati. Il Web semantico è multilivello; esso si compo‐
ne fondamentalmente di tre livelli: 1. l’informazione, quindi le risorse Web; 2. i metadati, quindi l’informazione relativa ai contenuti di una risorsa; 3. le ontologie, quindi la descrizione attraverso l’esplicitazione di una rete di relazioni del significato delle asserzioni usate relativamente alla descrizione dei dati. Un sistema così strutturato, basato sullo standard URI (Uniform Resource Identifiers) per la definizione univoca di indirizzi Internet, su XML (Extensible Markup Language) e RDF (Resource Description Framework) nonché sull’uso delle ontologie, è in grado di riconoscere le risorse che contengono ciò che noi cerchiamo e garantisce l’accesso all’informazione, stabilen‐
do la corrispondenza tra un segno e una sua certa semantica, e muovendosi in essa per reperire solo le referenze utili del segno, tralasciando quelle che non si accordano con la richiesta. Al di sopra dei metadati e RDF, quindi, si pone il livello ontologico, in cui vengono descritte le relazioni tra i tipi di elementi senza, però, fornire informazioni su come utilizzare queste ultime dal punto di vista computazionale. Il livello logico è il livello immediatamente superiore a quello ontologico, qui le asserzioni esistenti sul Web possono essere utilizzate per derivare nuova conoscenza. Il Web semantico non si basa, dunque, su una rigida gerarchizzazione degli elementi e non è un database che divide tutti i dati in rigide categorie: le ontologie che definiscono le relazioni fra elementi possono sempre essere arricchite e specificate, pur essendo auspicabile che i vari domini utilizzino una stessa semantica. E’ possibile distinguere due tipi principali di onto‐
logie, quelle di scopo o fondazionali (task ontolo‐
gy) che rappresentano la struttura dei processi, e quelle di dominio (domain ontology), che forni‐
scono gli oggetti specifici dell’applicazione. I legami esistenti tra questi due tipi sono espressi nel seguente elenco: 
Le ontologie fondazionali possono essere riutilizzate e specializzate in ontologie di dominio. 52 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”



Le ontologie di dominio hanno lo scopo di caratterizzare un dominio di analisi preciso, individuandone le primitive teoriche più adatte ad affrontare i problemi per i quali esse vengono costruite. Idealmente, le ontologie di dominio dovrebbero quindi appoggiarsi a un’ontologia fon‐
dazionale che mostri e indirizzi le scelte di modellazione. Solo alla fine di questo processo di specializzazione si possono costruire ontologie orientate alle applicazioni veramente funzionali. Versace Pasquale | 53 Analisi e prospettive del fenomeno “Web 3.0”
4.2 LA SEMANTICA
Per Semantica si intende quel ramo della linguistica che si occupa dei fenomeni del linguaggio, non dal punto di vista fonetico e morfologico, ma guardando al loro significato. Nel mondo informatico, si parla di intelligenza semantica per indicare quelle tecnologie in grado di trasformare informazioni non strutturate, come, ad esempio, i contenuti di un sito Web, in un insieme, e quindi un database, di informazioni strutturate, che può essere interpre‐
tato ed elaborato automaticamente sulla base delle proprietà semantiche dei dati. In altre parole, l'intelligenza semantica è in grado di lavorare con i "concetti", ciò è reso possibile dalla combinazione di analisi semantica e codici di mark‐up, che riescono a tradurre in linguaggio informatico i domini della conoscenza ottenendo le ontologie, uno schema concettuale esau‐
stivo e rigoroso che rappresenta tutte le entità di contenuto rilevanti all'interno di un determi‐
nato dominio e le relazioni esistenti fra di esse. L'intelligenza semantica è il paradigma alla base della fase 3.0 del Web. In questa estensione, il World Wide Web si trasforma in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini e così via) diventano interpretabili, vengono cioè associati ad informazioni e metada‐
ti che ne specificano il contesto semantico in un formato adatto all'interrogazione, all'interpre‐
tazione e, più in generale, all'elaborazione automatica. Per fare ciò Il Web Semantico si basa sul paradigma che qualunque tipo di fonte, e in particolare le fonti informative non strutturate, siano codificate tutte con gli stessi criteri. I documenti dovranno, quindi, condividere la lingua in cui sono scritti, ad esempio il Web Ontology Language (OWL), un linguaggio di markup che rappresenta esplicitamente significato e semantica dei termini con vocabolari e relazioni tra essi, o l'RDF (Resource Description Framework), lo strumento base proposto dal W3C per la codifica, lo scambio e il riutilizzo di metadati strutturati e che consente l’interoperabilità tra applicazioni che si scambiano informazioni sul Web. Grazie all'interpretazione del contenuto dei documenti, il Web Semantico renderà possibili ricerche molto più evolute delle attuali, ed altre operazioni specialistiche, come la costruzione di reti di relazioni e connessioni tra docu‐
menti secondo logiche più elaborate del semplice link ipertestuale. 54 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
Ad esempio, se oggi una ricerca su Google tramite la parola "libro" restituisce le occorrenze del termine, in un contesto semantico la stessa ricerca sarà in grado di restituire il documento che effettivamente corrisponde ad un libro. Xmanager è un Enterprise Content Manager di nuova generazione per lo sviluppo del Web 3.0 e del Mobile Internet. Attraverso intuitive interfacce Web consente di raccoglie‐
re, produrre, pubblicare ed aggiornare le informazioni in modo lineare e rapido. Esso, inoltre, permette di gestire con un’unica applicazione diversi canali di comunicazione, dal Web tradizionale, al Mobile Internet, alla Web TV. Fonti dati di origine diversa possono essere organizzate, messe in relazione ed utilizzate secondo diverse destinazioni d’uso, e ripubblicate sotto forma di servizi Web. Xmanager lavora in modo semantico secondo un percorso di sviluppo che prevede: 1. L'utilizzo di un modello relazionale dei dati. Con Xmanager l'utente è in grado di trasformare il dato da non strutturato a strutturato assegnando ad esso un modello che ne definisce gli attributi e ne ricostruisce le relazioni logiche con altre tipologie di dati; il dato è modellabile in maniera totalmente libera e flessibile; la struttura delle informazioni può variare a seconda delle esigenze e della destinazioni d'uso. Pochi sono oggi i CMS che lavorano con dati relazionali. 2. L'implementazione di un dato propriamente e pienamente semantico. Xmanager è in grado di produrre in output un dato che potrà essere letto automaticamente dalle macchine (machine‐readable) e da applicazioni esterne. Tutto ciò avviene in due step: 
All'interno del codice HTML, Xmanager incorpora dei tag che forni‐
scono informazioni semantiche codificate secondo gli standard condivisi del Web 3.0 come, ad esempio, i microformat (una parte di mark‐up che consente espressioni semantiche in una pagina Web HTML). Versace Pasquale | 55 Analisi e prospettive del fenomeno “Web 3.0”

Il dato utilizzato da Xmanager, oltre ad essere relazionale, diventa di fatto un'ontologia, caratterizzata da relazioni di livello più alto e capace di dare origine a "ragionamenti automatici" e inferenze che estraggono dal dato proprietà non esplicite. Alla fine di questo percorso di sviluppo la modellazione del dato diventerà più facile e flessibile e soprattutto aperta a infinite possibilità di riutilizzo e condivisione delle informazioni e della conoscenza sulla rete. 56 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
4.3 I MASHUP
Il termine “mashup” deriva dall’inglese, e vuol dire letteral‐
mente “poltiglia”. Con questo termine, infatti, si indicano applicazioni nate dall'unione di dati e informazioni provenienti da varie fonti con l'obiettivo di offrire all'utente nuove funzioni e servizi raccolti in un'unica interfaccia. Le applicazioni mashup posso‐
no essere definite come il ponte tra il Web 2.0 e il Web 3.0, infat‐
ti, queste, nonostante siano nate e si siano iniziate a sviluppare nell’ era del Web 2.0, portano con loro i concetti base del Web 3.0, e proprio per questo motivo potrebbero essere alla base dello sviluppo dello stesso, rappresentando un punto di partenza per tutte le sue innovazioni. Per capire meglio cosa sono le applicazioni mashup basta fare un semplice esempio; infatti, un’applicazione di questo tipo potrebbe aiutare un utente nella ricerca di un ristorante, com‐
binando Google Maps a una rivista di ristoranti; così facendo, l’utente non solo potrebbe leggere e vedere foto e informazioni sui ristoranti, ma potrebbe perfino vedere la loro posi‐
zione e le indicazioni su come raggiungerli. Un ruolo fondamentale per i mashup è rivestito dagli open data; infatti, se gli sviluppatori indipendenti non potessero accedere a grandi archivi di dati (cosa permessa e garantita, invece, grazie agli open data) sarebbe per loro impossibile combinarli per creare nuove tipolo‐
gie di applicazione. Un ruolo altrettanto importante è stato rivestito dai blog, ma anche dai forum e dai siti Internet di rating e recensioni, che hanno permesso agli utenti di esprimere liberamente i propri pensieri e le proprie opinioni. Le caratteristiche salienti delle applicazioni di mashup sono la combinazione, la visualizzazio‐
ne e l'aggregazione. È fondamentale, in quest’ottica, riuscire a creare nuovi prodotti che utilizzino una combinazione di dati già esistenti, rendendoli più utili sia a livello personale che a livello professionale. Affinché sia possibile accedervi sempre e da qualsiasi luogo, le applica‐
zioni sono conservate online. Ci sono diverse tipologie di mashup; è possibile, infatti, suddividere questo tipo di applicazio‐
ni in quattro macro‐categorie, ovvero mapping, multimedia, shopping e ricerca e notizie. 1. I mashup di mappe sono tra i più conosciuti e utilizzati: servono a combinare dati geo‐
grafici con informazioni e statistiche di tutt'altro genere. Utilizzando, ad esempio, le API di Google Maps, o qualsiasi altro servizio di cartografia digitale, sarà possibile realizzare delle cartine interattive, grazie alle quali mostrare dati statistici e demografici collegati direttamente con le zone di rilevazione. Il fatto che queste API fossero pubbli‐
che ed aperte ha permesso, quindi, agli sviluppatori Web di combinare tutti questi tipi di dati e di mostrarli su delle mappe. Versace Pasquale | 57 Analisi e prospettive del fenomeno “Web 3.0”

2. 3. 4. Sulla scia della Google, anche altre società come Microsoft (con Virtual Earth), Yahoo (con Yahoo Maps), e AOL (MapQuest) si sono mosse in tal senso. L'emergere di piattaforme che, da una parte, consentono la conddivisione di fotografie, e , dall’altra, fungono da social network (basti pensare a Pinterest, Instagram e Flickr), ha portato alla nascita di mashup multimediali, dove foto e video vengono legati a dati e informazioni di natura eterogenea. Sfruttando la presenza di metadati legati alle immagi‐
ni e ai video (descrizioni, geolocalizzazioni, tag, etc.) è possibile creare, per esempio, un’applicazione che potrebbe analizzare canzoni o poesie e creare dei mosaici o dei colla‐
ge di foto in tema, oppure visualizzare un grafico del social networking basandosi sui metadati più comuni nelle foto (soggetto, data di scatto, etc.), oppure, ancora, di un sito Web (come un sito di news tipo CNN) che estrae dalle news le foto da visualizzare nelle news sfruttando l'analisi del confronto fra le parole contenute nella news e i tag delle foto. I mashup di ricerca e shopping precedono di molto la stessa comparsa del termine “mashup”. Sin dagli albori dell'informatica, molti motori di ricerca e servizi analoghi (come BizRate,PriceGrabber, MySimon, e Google's Froogle) permettevano di combinare tra loro tecnologie B2B (business‐to‐business) e screen‐scraping per ottenere la più ampia comparazione di prezzi possibile. Oggi, grazie al mashup, gli utenti possono usufruire di servizi di ricerca legati allo shopping sempre più efficienti e utili, che vanno dalla compa‐
razione dei prezzi sino all'indicazione del punto vendita più vicino dove acquistare ciò che si sta cercando. La combinazione di flussi di notizie e di feed RSS e Atom provenienti da varie fonti ha permesso di dare vita a mashup informativi dove è l'utente stesso a scegliere gli argo‐
menti o le sezioni di interesse; in questa categoria Flipboard e Feedly rappresentano esempi importanti. In questo modo chiunque sarà in grado di creare un quotidiano perso‐
nalizzato da sfogliare ogni mattina sul proprio smartphone o tablet; infatti, questo tipo di applicazioni permette di aggregare i feed dell’utente, di presentarli sul Web, in modo tale da consentire la creazione di un giornale personalizzato che si rivolge a particolari interes‐
si del lettore. Un esempio potrebbe essere Diggdot.us, che combina i feed provenienti da fonti di news tecnologiche come Digg.com, Slashdot.org, e Del.icio.us. 58 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
L'architettura di un mashup è composta da tre parti principali, logicamente e fisicamente distinte, e che sono probabilmente separate sia da limiti di network che organizzativi; queste tre parti sono: 1) i fornitori di contenuti/API; 2) il sito mashup; 3) il Browser Web dell'utente. 

I fornitori di contenuti/API sono talvolta, anche inconsapevolmente, i creatori di conte‐
nuti che vengono uniti. Per permettere la ricezione dei dati, i fornitori spesso rendono pubblici i loro contenuti attraverso opportuni protocolli Web come REST, Web Service, e RSS/Atom chiaramente, ancora molte fonti potenziali di dati hanno deciso di non rendere pubbliche le loro API. I mashup che estraggono contenuti da siti come Wikipe‐
dia, TV Guide, e virtualmente tutti i siti di pubblico dominio e governativi, riescono a farlo attraverso una tecnica chiamata screen scraping che si può definire come il proces‐
so che usa degli strumenti software per analizzare contenuto originalmente scritto per essere letto da esseri umani con la finalità di estrarne strutture di dati semantici che rappresentano queste informazioni in modo tale da consentire il loro utilizzo e la loro manipolazione in modo pragmatico. Il sito mashup è il luogo nel quale il mashup viene ospitato. E’ qui che risiede la sua logi‐
ca, ma non il luogo nel quale viene eseguito. Da un lato, un mashup può essere imple‐
mentato allo stesso modo delle tradizionali applicazioni Web che sfruttano le tecnolo‐
gie lato‐server per generare contenuto dinamico, quali Java servlet, CGI, PHP o ASP. In alternativa, il contenuto può essere generato direttamente nel Browser dell'utente attraverso un linguaggio di scripting lato client (JavaScript) o delle applet. Questa logica lato‐client rappresenta, spesso, la combinazione di codice direttamente incorporato nella pagina Web del mashup come librerie o applet di scripting API riferite ad essa. I mashup che utilizzano tale approccio sono chiamati Rich Internet Application (RIA), volendo sottolineare il fatto che sono molto orientate all'inte‐
rattività con l’utente. I benefici del ma‐
shing lato‐client includono un minor carico nelle risorse del server (i dati ven‐
gono ricevuti direttamente da chi forni‐
sce i contenuti) e un'esperienza utente più fluida (si possono richiedere degli aggiornamenti su porzioni di una pagina senza doverla ricaricare tutta ). MASHUP
Versace Pasquale | 59 Analisi e prospettive del fenomeno “Web 3.0”

Le API di Google Maps sono progettate per accedere, tramite JavaScript, a livello Brow‐
ser, e questo è un perfetto esempio della tecnologia lato‐client. Spesso i mashup combi‐
nano la logica lato server e client per riuscire ad aggregare i dati. Molte applicazioni ma‐
shup usano dei dati forniti direttamente dalla loro basi di utenti, mantenendo almeno un database in locale. Inoltre, fare delle query complesse su fonti di dati multiple richiede‐
rebbe dei calcoli che sarebbero impossibili da effettuare nel Browser dell'utente. 
l Browser Web dell'utente, sono i punti in cui l'applicazione prende corpo a livello grafico e dove ha luogo l'interazione con l'utente. Come già detto precedentemente, i mashup fanno spesso uso della logica lato‐client per assemblare e ricomporre il contenuto assem‐
blato. 60 |Versace Pasquale M A S H U P Analisi e prospettive del fenomeno “Web 3.0”
4.4 L’E-LEARNING
Gli studiosi, con l’avvento del Web 3.0, hanno iniziato a introdurre il termine e
‐learning 3.0; esso rappresenta la mo‐
dalità di istruzione che hanno alla base i concetti del Web 3.0. Infatti, l’emergere del cloud computing e la disponibilità di nuove tecnologie, come il collaborative filtering intelli‐
gent, una maggiore affidabilità e capa‐
cità di archiviazione dati, una risoluzio‐
ne dello schermo più elevate, dispositivi multi‐gesture e un'interfaccia utente sia touch che3D ci stanno portando nella prossima generazione di e‐Learning. Alla base di questa generazione ci sarà l'accesso onnipresente alle risorse didattiche con l'utilizzo di dispositivi mobili che permetteranno, inoltre di accedere a praticamente qualsiasi cosa, in qualsiasi momento e da qualsiasi parte. Gli studiosi suggeriscono, inoltre, l'uso dell’ Intelligenza Artificiale e del Data Mining per la costruzione dei sistemi di e‐learning che abbiano la capacità di vagliare e ordinare grandi moli di dati (big data), e fornendo al discente una comprensione migliore e più profonda. Inoltre, si ritiene che il concetto alla base della nuova educazione che si può definire “anytime, anywhere and anybody”, cioè in qualsiasi momento, ovunque e per chiunque, sarà sostenuto dall’ “anyhow”, cioè dal “comunque”, che sarà fornito da mondi virtuali 3D. Con il passaggio dalle tecnologie ben consolidate del Web 2. 0 al Web 3.0,ci sarà, quindi, una nuova visione riguardo l’apprendimento personale (PLE), che sarà basato sulla personalizzazione. "La personalizzazione è vista come l'approccio chiave per gestire la sovrabbondanza di
informazioninellasocietàd’oggi,basatasullaconoscenza".
Nonostante non siano presenti ufficialmente molti sistemi basati totalmente sull’e‐learning 3.0, si possono trovare alcuni prototipi funzionanti. Uno dei primi servizi on‐line per usare in modo automatico e intelligente il Web Semantico, organizzando le informazioni sugli inte‐
ressi specifici dell’utente, è Twine. Un altro esempio di un vero e proprio sistema di e‐learning 3.0 è AHKME (Adaptive Hypermedia Knowledge Management E‐Learning Platform), un e‐
Learning Information System che ha esigenze di apprendimento compatibile con una filoso‐
fia Web 3.0. Se si considerano le diverse generazioni del Web, si può creare un quadro completo. Infatti, se il Web 1.0 è stato definito come il Web di sola lettura ed il Web 2.0 come il Web di lettura e scrittura, il Web 3.0 può essere definito come il Web di lettura, scrittura e collaborazione. Allo stesso tempo, l’e‐Learning 1.0 si concentra sul fornire all'utente semplicemente l’accesso ad 3.0
Versace Pasquale | 61 Analisi e prospettive del fenomeno “Web 3.0”
informazioni; con l’e‐Learning 2.0, in aggiunta a tutte le funzionalità dell’e‐Learning 1.0 vengo‐
no fornite all’utente l’authoring e la capacità di interagire con gli altri. Infine, l’e‐Learning 3.0, abilitato e arricchito con le tecnologie del Web 3.0 promuoverà in modo intelligente la collaborazione, ricca di apprendimento virtuale in ambienti 3D, che porteranno gli studenti a stare insieme e, utilizzando le funzionalità semantiche, analizzare i database globali della conoscenza. Il rapporto tra le generazioni del Web e di e‐Learning sono riassunti nella seguente tabella: 62 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
4.5 L’INTELLIGENZA ARTIFICIALE
Durante il periodo del Web 2.0, il volume di contenuti, le comunicazioni sul Web e le vie digi‐
tali su cui sono consegnate, sono cresciuti in modo significativo, costringendo gli utenti a cercare, attraverso una crescente montagna di dati disorganizzati, memorizzati in una varie‐
tà di formati, le informazioni di interesse. In questa realtà si inserisce il Web 3.0, e l'Intelligenza Artificiale (AI), che supporterà il suo controllo e il suo utilizzo. Con AI si intende lo studio dei sistemi finalizzati a far svolgere ai computer funzioni e ragiona‐
menti tipici della mente umana; il termine "Intelligenza Artificiale” è stato coniato dal mate‐
matico americano John McCarthy negli anni '50 al fine di raggruppare tutti quegli studi che mirano a "far fare alle macchine delle cose che richiederebbero l'intelligenza se fossero
fattedagliuomini". I maggiori colossi informatici in questi ultimi anni si sono mossi per facilitare la user experien‐
ce; ad esempio, Gmail recentemente ha aggiunto una nuova caratteristica che analizza le e‐
mail precedenti e formula consigli nel momento in cui si deve nuovamente inviare una email. Allo stesso modo, LinkedIn identifica le persone che l’utente potrebbe conoscere consultan‐
do una rete di collegamenti, e Facebook fa lo stesso al fine di aiutare gli utenti a identificare i contatti utili nell’ambito di una grande mole di informazioni. La prima azienda a promuovere l'Intelligenza Artificiale come un vantaggio competitivo fu la Apple con l'iPhone 4S, appositamente per la sua caratteristica Siri, un bot di intelligenza artificiale che raccoglie le richieste fatte dall'utente, che siano una domanda, un commento, o un comando. Questa tecnologia è stata pian piano trasferita anche in molte funzioni online, al punto che il Web 3.0 può potenzialmente offrire una navigazione senza mai toccare la tastiera. Lo scopo della maggior parte delle tecnologie odierne, infatti, è quello di fare di più per l’utente, affinché quest’ultimo possa fare il meno possibile. Versace Pasquale | 63 Analisi e prospettive del fenomeno “Web 3.0”
Ed è proprio basandosi su questo progetto, che Google ha già integrato la possibilità di parlare per effettuare ricerche nel proprio browser Chrome, attraverso Google Now. Sempre Google ha recentemente presentato una macchina auto‐guida capace di effettuare escursioni senza che l’utente debba toccare il volante. In questa linea ricadono, anche, le molte auto che hanno le caratteristiche di parcheggio automatico installate. Associato al concetto di Intelligenza Artificiale è quello di realtà aumentata; basti pensare ai Google Glass e a quello che permettono di fare. 64 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
4.6 UNO SGUARDO AL FUTURO
Il Web 4.0 è ancora soltanto un'idea e pertanto, non esiste una definizione abbastanza precisa di come dovrebbe essere. Con molta probabilità, però, è possibile affermare che il Web 4.0 sarà anche conosciuto come Symbiotic Web. Viene definito in tale modo perché il sogno del Web 4.0 è di arrivare all’inte‐
razione tra esseri umani e macchine, in simbiosi. Sarà possibile costruire inter‐
facce più potenti, come interfacce che tramite Web 4.0 controllino la mente. In parole semplici, le macchine sarebbero più abili nel leggere il contenuto del Web, e nel reagire decidendo cosa eseguire prima di caricare i siti Web, in modo più veloce e con maggiore qualità e prestazioni, costruendo più interfacce per il comando. Il Web 4.0 sarà il Web di lettura, scrittura, esecuzione e concorrenza. Si può affermare quasi con certezza che raggiungerà una massa critica di partecipanti a reti online che offriranno la trasparenza globale, il controllo, la distribuzione, la partecipazione e la collaborazione in comunità chiave per la vita sociale. IlWeb 4.0 sarà come un middleware che inizierà a funzionare come un sistema operativo, che sarà parallelo al cervello umano e implicherà una massiccia rete di interazioni intelligenti. Sebbene non vi sia alcuna idea esatta per quanto riguarda il Web 4.0 e le sue tecnologie, si ha la certezza che ci si sta muovendo verso l'uso dell’Intelligenza Artificiale per arrivare ad un Web ancora più intelligente del precedente. Versace Pasquale | 65 Analisi e prospettive del fenomeno “Web 3.0”
66 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
5. PROS E CONS, OVVERO ….I PUNTI DI FORZA E DI DEBOLEZZA
In questo capitolo verranno trattati i punti di forza e di debolezza del Web 3.0. Si inizierà con il
descrivere gli aspetti positivi di questo fenomeno ed, in conclusione analizzeremo i suoi aspetti
negativi.
1
I Pro
2
I Contro
Web 3.0
1
Web 3.0
Versace Pasquale | 67 Analisi e prospettive del fenomeno “Web 3.0”
5.1 I PRO
Dopo aver introdotto tutte le caratteristiche e le principali innovazioni del fenomeno Web 3.0, si farà un bilancio generale sottolinean‐
do gli aspetti positivi e quelli negativi. Si inizierà analizzando gli aspetti positivi. Alla base del Web 3.0, come detto, c’è la semantica; pertanto, il vantaggio più grande sarà rappresentato dal fatto che il Web sarà effettivamente come un enorme database, portando al miglioramento della user expe‐
rience. L’utente, infatti, si troverà di fronte ad un Web capace di rispondere ad una qual‐
siasi sua richiesta, in modo più veloce e, sicuramente più pertinente. Finalmente, quindi, si potranno effettuare ricerche molto più complesse e specifiche, e, allo stesso tempo, ottenere risultati molto più concreti, in quanto non sarà più necessario navigare attraverso diverse pagine prima di trovare il risultato desiderato, ma sarà lo stesso Web che, cogliendo il significato della domanda, restituirà soltanto i risultati inerenti. La conoscenza sarà alla portata di tutti; infatti, con lo sviluppo dell’Intelligenza Artificiale, navigare sarà sempre più comodo e facile, arrivando ad una situazione in cui l’utente sarà sempre connesso. Tutto ciò favorirà lo scambio di informazioni tra i diversi utenti, tramite i diversi blog e social network, che continueranno a crescere sia per quantità che per numero di partecipanti. Questo Web risulterà, inoltre, molto più semplice ed intuitivo, così da favori‐
re anche gli utenti meno esperti. Oltre a semantico, il Web 3.0 è stato definito intelligente; questo perché, nel momento in cui un utente cercherà nel Web, il browser imparerà i suoi interessi, e più un utente conti‐
nuerà nella navigazione e più il Web apprenderà da lui, fino al punto che, un giorno, nel momento in cui si effettueranno delle domande aperte e specifiche, sarà lo stesso browser che, consultando il suo archivio, e basandosi su ciò che allo stesso utente piace e non piace, sarà in grado di suggerire una lista di opzioni valide. Si arriverà, quindi, in un momento in cui il Web non sarà più visto come un mezzo per ottenere informazioni, ma sarà esso stesso a fornircele. 68 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
5.2 I CONTRO
Nonostante siano molti gli aspetti positivi, ogni innovazione porta con sé qualche aspetto negativo; nel presente paragrafo verranno trattati questi ultimi. Il primo aspetto negativo è associato, ovviamente, alla tempistica; infatti, ci vorrà una lunga ristrutturazione dei siti Web affinché si possa passare da un Web “caotico” come il Web 2.0, ad uno altrettanto ricco di informazioni, ma ordinato, come il Web 3.0. Inoltre, come si è precedentemente detto, il fenomeno Web 3.0 porterà con se uno sviluppo ancor più massiccio dei Social Network, soprattutto per quanto riguarda il numero di utenti iscritti. Tutto ciò, da una parte, sarà utile in quanto creerà un collegamento universale, ma, allo stesso tempo, porterà all’emarginazione di chiunque non vi sia iscritto. Ovviamente, tale diffusione porterà, inoltre, all’addio delle barriere della privacy; infatti, basteranno pochi click per trovare qualsiasi tipo di informazione di chiunque sia iscritto. Tutto ciò sarà causa di un altro svantaggio; infatti, le aziende potrebbero sfruttare le nostre informazioni e le nostre ricerche nel marketing. Un ultimo aspetto negativo sarà causato dalla semplicità di connessione; questo porterà le persone a spendere sempre più tempo su Internet, portandole a vivere in simbiosi con il loro computer o cellulare, e allontanandole sempre di più dalla vita reale. Versace Pasquale | 69 Analisi e prospettive del fenomeno “Web 3.0”
70 |Versace Pasquale Analisi e prospettive del fenomeno “Web 3.0”
CONCLUSIONI
1
In questa tesi è stato introdotto il Web 3.0, ovvero il Web del futuro. Esso rappresenta l’evoluzione del Web 2.0 ed è basato sulla semantica, che renderà il Web molto più sem‐
plice e intuitivo per l’utente. Questa importante caratteristica, infatti, permetterà all’u‐
tente, una volta effettuata una ricerca, di ottenere immediatamente i risultati più signifi‐
cativi e in linea con ciò che ha realmente cercato. Nella tesi è stato inizialmente introdotto tale fenomeno, e i suoi promotori, Jeffrey Zeld‐
man, che fu il primo ad utilizzare questo nome, e Tim Berners‐Lee, che ne fu il vero idea‐
tore. Successivamente è stata descritta la storia del Web, approfondendo il passaggio che ha portato a tale fenomeno e le sostanziali differenze con le generazioni precedenti. Sono state trattate, inoltre, le principali innovazioni e caratteristiche del Web 3.o, defi‐
nendo, innanzitutto, la semantica e l’ontologia, che stanno alla base del fenomeno stes‐
so, e quindi le tecnologie, ovvero RDF, SPARQL ed OWL, che renderanno possibile tutto ciò. Ci si è soffermati, inoltre, sulle applicazioni mashup, che, nonostante siano nate durante il periodo del Web 2.0, portano con loro i concetti base del Web 3.0, e che, quin‐
di ,potrebbero rappresentare delle linea guida per tale fenomeno. Nell’ultima parte della tesi sono stati esposti i possibili pro e contro del Web 3.0, e si è dato uno sguardo al futuro, delineando quello che, con molta probabilità, potrebbe esse‐
re il Web 4.0 . Versace Pasquale | 71 Analisi e prospettive del fenomeno “Web 3.0”
1
Versace Pasquale | 72 Analisi e prospettive del fenomeno “Web 3.0”
BIBLIOGRAFIA
1. 2. Artificial Intelligence. http://www.webtop.com.au/web-3, 2014. Confronto tra Web 2.0 e Web 3.0. http://www.slideshare.net/valerie_sinti/
web-20-and-web-30,
3. 4. 2014. Definition of Web 3.0. http://howtosplitanatom.com/news/how-to-define-web
-30-2/, 2014. E‐learning 3.0. http://www.informationexperts.com/index.php/coming-soon
-elearning-3-0/, 2014. 1
5.
Introduction to Web 3.0. https://www.questia.com/magazine/1P3-1730564921/
web-3-0-the-next-step-for-the-internet, 2014.
6. Learning. http://www.edtechmagazine.com/k12/article/2012/10/what-web30-really-and-what-does-it-mean-education, 2014. 7. LinkedOpenData. http://www.linkedopendata.it/semantic-web, 2014. 8.
Metadata. http://www2002.org/CDROM/alternate/744/, 2014.
9.
Ontologie. http://www.html.it/articoli/costruiamo-le-ontologie-per-il
-web-semantico-1/, 2014.
10. OWL. http://digilander.libero.it/giovannideangelis/OWL WebOntologyLanguageGuida.htm, 2014
11. Readwrite. http://readwrite.com/2007/03/19
web_30_when_web_sites_become_web_services, 2014. 12. Semantica. http://www.pcmag.com/article2/0%2c2817%2c2102859%
2c00.aspv, 2014. 13. Storia del Web. http://reteparcosud.wordpress.com/le-imprese/
comunicazione/piacenza-maurizio/dal-web-1-0-al-web-3-0/, 2014. Versace Pasquale| 73 Analisi e prospettive del fenomeno “Web 3.0”
14. The Intelligent Web. http://lifeboat.com/ex/web.3.0, 2014. 15. Weaving The Web. http://news.slashdot.org/story/99/09/20/1642241/
weaving-the-web, 2014. 16. Web 1.0. https://e-language.wikispaces.com/web1.0, 2014. 17. Web 2.0. http://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html,
2014. 18. Web 3.0 Approaches. http://computer.howstuffworks.com/web-303.htm, 2014. 19. Web 3.0. http://www.cogknit.com/tags.html, 2014.
20. Web 3.0. https://www.linkedin.com/today/post/article/2014032405573014091619-effects-of-web-3-0-in-the-new-digital-world, 2014. 21. D. Nandini. Semantic Web And Ontology, Bookboon,2014. 22. G. Wu. Semantic Web, IN‐TECH, 2010. 23. T. Heath, C. Bizer. Linked Data: Evolving the Web into a Global Data Space,
Morgan & Claypool Publishers, 2011. 24. G. Antoniou, F. van Harmelen. A Semantic Web Primer, The MIT Press ,2008. 74 |Versace Pasquale 

Documenti analoghi

Strutturare la conoscenza: XML, RDF, Semantic Web

Strutturare la conoscenza: XML, RDF, Semantic Web nella realizzazione delle nuove applicazioni Web, in cui i dati costituisconoo un elemento essenziale (data-centric Web applications). XML è stato quindi il primo passo per assegnare una semantica ...

Dettagli

Metadati - E-LIS repository

Metadati - E-LIS repository Un'efficace gestione dell'informazione digitale deve necessariamente includere la presentazione delle risorse, la gestione degli accessi basata sulle informazioni sui diritti di proprietà, la conse...

Dettagli

03 Discussioni 4-04

03 Discussioni 4-04 solo rappresentazione della conoscenza. Sopra questo livello si colloca il livello logico che, tramite certi linguaggi (come SWRL, RuleML) e ragionamenti inferenziali automatici, estrae dalle asser...

Dettagli

laurea magistrale in ingegneria del cinema e dei mezzi di - e-Lite

laurea magistrale in ingegneria del cinema e dei mezzi di - e-Lite email o altre operazioni su cui operano sempre più le macchine, pensiamo ai crawler6 dei motori di ricerca o agli RSS feed7 generati da macchine per altre macchine, per le quali sono state standard...

Dettagli