Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni

Transcript

Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
I MEDIA DIGITALI
di Enrico Menduni
PARTE I : - L’ERA ELETTRONICA CAPITOLO 1
- L’ERA DEI MASS MEDIA –
1.1 Che cosa sono stati i mass media
I mezzi di comunicazione di massa hanno in comune il fatto di essere prodotti culturali realizzati
industrialmente, riprodotti e diffusi grazie alle tecnologie in un gran numero di pezzi simili, e
portano a conoscenza dei loro utenti determinati contenuti anche essi in forma industriale.
Con l’avvento della radio e della televisione non c’è più un prodotto materiale da distribuire, ma
attraverso le onde elettromagnetiche un insieme di contenuti è ricevuto direttamente a casa dal
consumatore. Queste presentavano un’offerta di contenuti sempre più vasta e un più forte
rapporto domestico con il pubblico (anche se negli anni 50 la radio diventa un medium mobile).
Si definisce “broadcasting” (letteralmente “semina larga”) la diffusione radiotelevisiva da un’unica
stazione emittente a tanti apparecchi riceventi dislocati all’interno di un’area di ricezione. Si tratta
di una comunicazione “da uno a molti”.
Anche per Internet si parla di “modalità broadcast” quando un contenuto viene erogato in forma
uguale per tutti, senza possibilità ne di modifica ne di interazione da parte dei riceventi.
1.2 Media alfabetici, suoni e immagini
Fino a metà dell’800 i media erano prevalentemente alfabetici: cioè soprattutto testi scritti,
stampati, come i giornali e i libri. In seguito sono comparsi i media non alfabetici, cioè in grado di
riprodc urre le immagini, come la fotografia e il cinema, o i suoni, come i cilindri e i dischi
fonografici. La diffusione di questi è stata molto più ampia nel 900’ anche grazie alla loro
connessione con l’intrattenimento (esecuzioni musicali, teatro) e la possibilità di raggiungere gli
analfabeti.
1.3 A chi appartengono i media
Con la proprietà pubblica un medium è gestito dallo Stato o da un’azienda statale, o anche da un
soggetto formalmente privato finanziato però dallo Stato. Spesso tale gestione è sorretta da
un’ideologia contrari alla proprietà privata.
Nel modello di “proprietà privata” invece ci sono tre tipologie. La prima è quella degli editori (detti
“puri”) che producono media per venderli e trarne profitto. La seconda è quella delle
organizzazioni sociali (partiti e sindacati) che danno vita a media per diffondere le proprie idee.
La terza è quella delle grandi industrie p gruppi finanziari che si dotano di mass media non per
guadagnare sulle vendite ma per esercitare un’influenza economica e politica
1
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Il broadcasting telefonico nasce negli Usa nel 1922 come iniziativa privata, dove le imprese si
finanziavano vendendo pubblicità nei loro programmi. In seguito tale modello si estende alla
televisione. In Europa invece si passò quasi subito al monopolio pubblico.
L’inglese John Reith primo direttore della BBC, stabilì che gli obiettivi della radio di servizio
pubblico erano: educare informare, intrattenere. Questo modello fu mutuato anche alla
televisione e negli anni 70’ si passò ad un sistema misto fra pubblico e privato.
Nonostante le leggi antitrust la concentrazione dei media rimane un problema irrisolto: il fatto di
essere seguite da un grande pubblico dà alle imprese mediali la possibilità di interagire con il
mondo della cultura, della politica, con il mercato e dell’economia, tutelando adeguatamente i
propri interessi.
1.4. Dopo i mass media
Il ruolo centrale dei mass media è stato messo in discussione dagli sviluppi dell’informatica. Negli
anni 80’ si diffonde il personal computer ma era ancora una rarità. Dieci anni dopo, invece, con il
pc si potevano svolgere i compiti più vari.
I personal computer adottano il linguaggio digitale. Si sviluppano nuovi software per specifici
settori e nuovi hardware (Joystick, scanner ecc), e dal contatto con i nuovi media nascono media
digitali del tutto nuovi ( es i videogiochi) o rimodellati dal passato (es la tv digitale) modificando
progressivamente il sistema complessivo dei media.
1.5. Nella rete di Internet
Negli anni 80’ i pc cominciano a connettersi tra loro in rete. Un semplice apparecchio, il modem,
consente il transito di dati fra i computer attraverso le reti telefoniche già esistenti. Il
collegamento in rete, prima risorsa gelosamente custodita da parte dei militari, poi appannaggio
della comunità scientifica e delle grandi organizzazioni, diventerà negli anni 90’ un patrimonio
accessibile a tutti ( o “quasi”, a causa della disparità nell’accesso all’informazioni).
Come il pc, da cui nasce, e come i mass media, Internet è allo stesso tempo strumento di
informazione e di conoscenza, ma anche di intrattenimento e di gioco. L’insieme di queste
caratteristiche, per la prima volta sommate tutte dentro lo stesso strumento, conferisce subito ad
Internet un ruolo centrale nella società.
Inoltre Internet permette una comunicazione da pari a pari sia in senso conversazionale ( es
messaggeria e posta elettronica) sia come possibilità per chiunque di pubblicare contenuti e
renderli accessibili a tutti, sia come possibilità di modificare e selezionare in base ai propri bisogni
ciò che si trova nella rete.
1.6. Un unico linguaggio: il digitale
Nel 900’ ogni medium aveva un proprio linguaggio specifico, fino a che non è nato il computer.
Questo infatti è riuscito a tradurre tanti linguaggi diversi in un unico linguaggio, quello digitale,
fatto cioè da due numeri (digit), zero e uno, che in un circuito elettrico vengono tradotti in due
posizioni: acceso e spento. Così un testo musicale, un testo scritto, una foro ecc sono tutti file
diversi ma composti dagli stessi numeri, cioè zero e uno, e sono più facilmente trasferibili da un
ambito all’altro. I “nuovi media” nati dalla tecnologia digitale quindi (es realtà virtuale, videogiochi)
sostituiscono i vecchi mezzi di comunicazione di massa.
2
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
1.7. Rapporti di familiarità
Il trasferimento di un contenuto da un medium all’altro e la cooperazione dei media alla creazione
di contenuti “multimediali” (immagini, suoni, testi) viene spesso chiamata “convergenza
multimediale”, in un processo che implica uno stretto rapporto tra tre ambiti considerati, nell’era
analogica, in modo distinto: media, telecomunicazioni e informatica. Nel mondo digitale la
distinzione tra questi tre settori non ha più senso
____________________________________________________________________
3
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 2
- LE TELECOMUNICAZIONI 2.1 Comunicazione P2P e telecomunicazioni
Oltre alla comunicazione “uno a molti” tipica dei media esiste anche la comunicazione “uno a uno”,
o “uno a pochi”, detta anche “P2P” (peer to peer,da pari a pari). Questo tipo di comunicazione, di
cui fa parte anche la comunicazione orale ha un carattere privato, è richiesta una forma di
interazione da parte del ricevente che a sua volta diventa emittente.
Oltre alla comunicazione orale ci sono anche forme si comunicazione uno a uno a distanza, e un
esempio classico, che esiste da molto tempo è il servizio postale. L’evoluzione di questo servizio è
rappresentata dalle telecomunicazioni (telegrafo,telefono e derivati) che si sviluppa nell’800,
prima dei mass media, e nel 900.
2.2 Dal servizio postale al telegrafo in tempo reale
Il telegrafo elettrico fu un’ invenzione brevettata nel 1837 dagli inglesi Samuel Morse e Charles
Wheatstone, ma fu l’americano Morse a inventare il codice composto di punti e linee in cui sono
convertite le lettere dell’alfabeto, e a semplificare l’apparecchio trasmittente favorendone una
larga applicazione.
Il telegrafo non diffonde contenuti propri, come un giornale,ma quelli dei suoi clienti che
mandando un telegramma affittano i suoi servizi. Inoltre è indifferente ai contenuti. Non fa quindi
parte in senso stretto dei mass media, ma il suo contributo alla diffusione mondiale
dell’informazione è stato molto importante. Negli stessi anni si creano le agenzie di stampa con la
missione di distribuire notizie ai giornali e la notizia è in realtà un breve telegramma che un
corrispondente invia all’agenzia e questa distribuisce ai suoi abbonati.
Il telegrafo elettrico è la prima comunicazione simultanea, in tempo reale, perché i tempi di
codifica e trasmissione sono trascurabili.
2.3 La cultura della simultaneità
Grazie alla cultura della simultaneità si ha la possibilità di seguire a distanza un evento lontano
proprio mentre si svolge. Con il telegrafo la politica,l’economia, la finanza, subiscono una drastica
accellerazionee notizie che provengono anche dall’altro lato del globo vengono conosciute subito
e hanno immediati effetti su paesi lontani
2.4 Pubblico e privato nel telegrafo. Il gestore unico
Le linee telegrafiche vengono realizzate secondo due modelli: il modello di ispirazione francese,
dove è lo Stato ad impiantare ed amministrare le linee; e il modello anglosassone, dove è
l’iniziativa privata, sorvegliata dallo Stato, a organizzare i servizi traendone un utile.
In America è sempre prevalsa l’iniziativa privata. La prima fase è stata contraddistinta da una
rapida crescita e da una forte competizione, a cui segue una gran confusione tra i vari gestori
ciascuno con regole proprie. Dopo questo primo periodo emerge un gestore unico o dominante
privato (Western Union per il telegrafo, At&t per il telefono), mentre lo Stato si riserve il ruolo di
regolatore.
4
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
In Europa, dopo un primo periodo lasciato all’iniziativa privata, con problemi di coordinamento,
interessi e tariffe, si passa quasi ovunque a un gestore unico statale, generalmente controllato
dall’amministrazione delle Poste. I motivi dell’intervento dello Stato sono vari:
1. Il livello del servizio offerto sulle reti è importante per il consenso dei cittadini e quindi per
governare;
2. Lo Stato e l’esercito sono anche i principali clienti delle reti;
3. Il controllo statale permette di proteggere l’industria nazionale che produce l’hardware
(cavi, apparecchi telegrafici, telefoni, rotaie ecc), spesso su licenza estere e per sbarrare la
strada a investitori stranieri;
4. Le reti interessano fisicamente il territorio, richiedendo lavori scavi ecc e quindi un
coinvolgimento della politica.
Naturalmente per i paesi poveri non esiste l’alternativa tra pubblico e privato, o ci pensa lo Stato o
nessun privato troverà mai convenienza a organizzare servizi in perdita. E’ il caso dell’Italia
Ottocentesca.
Aldilà della proprietà pubblica o privata nella seconda metà dell’ 800 in tutto il mondo si afferma il
concetto del gestore unico, nelle ferrovie, nel telegrafo e nel telefono. In Italia purtroppo avremo
un gestore unico solo nel 1994, con conseguenze gravi su tutto il paese: già nelle altre nazioni si
avviava la concorrenza.
2.5 Comunicazione pubblica, di affari e privata
L’influenza del telegrafo sulla vita pubblica, a partire da metà dell’800, è stata enorme ( si usava
per dare ordini agli eserciti, notizie ai giornali, quotazioni di borsa ecc) ed ha avviato la spinta
verso la “cultura della simultaneità”.
Minore invece è stato il suo utilizzo nella sfera privata. Questo a causa del costo elevato del
servizio, ma anche per la procedura troppo macchinosa ( recarsi ad un ufficio postale dove un
operatore convertiva la nostra richiesta in alfabeto Morse, poi lo spediva ad un altro ufficio
telegrafico da cui, scritto su un apposito modulo, veniva recapitato a domicilio da un fattorino).
Tale procedura era inoltre inadatta a messaggi privati e intimi in quanto gli impiegati telegrafici
leggevano tutti i testi, anzi li scandivano in presenza del mittente per contare il numero delle
parole (il telegramma si pagava un tanto a parola). La segretezza delle comunicazioni per
telegramma era impossibile. Pere questo il telegramma è stato usato nella comunicazione privata
sopratutto per inviare auguri, congratulazioni, condoglianze.
2.6 Il telefono
Lo strumento che ha velocizzato la vita privata è il telefono. Nasce nella seconda metà dell’800 e si
sviluppa decisamente nel 900. Si tratta di un sistema a filo che permette una comunicazione
vocale a due vie tra due apparecchi remoti attraverso una centrale che smista la chiamata di un
abbonato a un altro. Ha la rapidità del telegrafo ma non richiede un operatore professionale,
chiunque può fare da se una telefonata.
Per questo il telefono ha avuto fin da subiti un’utenza pubblica e un’utenza affari come il telegrafo,
ma a queste si è aggiunta un’utenza domiciliare di privati e famiglie. Invenzione contesa tra
l’immigrato italiano in America Antonio Meucci (1871), che però non ha il denaro per rinnovare il
brevetto, ed Elisha Gray e Alexander Graham Bell, che depositano così i loro brevetti il 14 Febbraio
1876.
5
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Bell, esperto di acustica, chiese ed ottenne il brevetto. Tuttavia il funzionamento era incerto.
Insorsero decine di cause e i finanziatori di Bell, spaventati, nel 1876 offrirono in vendita il
brevetto alla Western Union, l’azienda che aveva il monopolio dei telegrafi, per 100.000 dollari. La
Western Union però rifiutò. L’anno dopo però ci ripensò e si mise in concorrenza con la Bell
Telephone Company che però la citò in giudizio per violazione di brevetto. La sentenza, nel 1879,
diede torto alla Western Union che sconfitta uscì dal settore cedendo alla Bell i suoi brevetti e i
suoi clienti.
La Bell nel 1885 creò l’At&t (American Telephone and Telegraph Corporation), società per il
traffico interurbano.
Oggi la Western Union esiste ancora ma si limita al settore dell’invio a distanza di denaro, un
servizio per immigrati inventato nel 1871 e ancora molto usato anche oggi in Italia. La At&t è
invece una delle più grandi imprese al mondo.
2.7 La commutazione automatica
Verso il 1880 il telefono era già completo di molti accessori: la cornette, il campanello. Non si
poteva però telefonare direttamente ad un altro abbonato: si doveva chiamare una centralinista
che metteva in contatto con l’utenza richiesta: ella aveva davanti a se un pannello con tanti
spinotti che andavano inseriti per chiudere il circuito del telefono destinatario. La privacy in questa
fase era molto ridotta.
La commutazione automatica fu inventata dall’americano Almon Strowger. Nella centrale
telefonica da lui inventata una lamina di rame veniva fatta scattare senza intervento umano da un
circuito elettrico, facendo contatto con l’utenza desiderata. Un sistema definito perciò
“elettromeccanico”. La prima centrale automatica è del 1892 nell’Indiana, con 75 utenti. Nella
cornetta dell’apparecchio si sentiva un segnale se la linea era libera e un altro se era occupata.
Poco dopo fu inventato anche il disco combinatore (nel 1896 da Alexander Keith e i fratelli
Erickson).
Infine, la commutazione automatica permetteva, con un contatore, di segnare gli “scatti” che
l’abbonato doveva pagare. Il telefono era il primo medium a contatore, che prevedeva al suo
interno un sistema automatico di fatturazione (billing), e anche il primo ad essere disponibile a
tutti, per la strada. I primi telefoni a moneta risalgono alla fine dell’800.
Tuttavia c’era il problema che il segnale telefonico si affievoliva notevolmente con le lunghe
distanze. L’invenzione da parte di Lee De Forest nel 1906 del “triodo”, la prima valvola elettronica,
non solo contribuì alla storia della radio ma diede alla telefonia lo strumento che le mancava per
potenziare il segnale nelle lunghe distanze, e ciò permise di realizzare reti nazionali di telefoni e di
connetterle tra loro, come era avvenuto per le reti ferroviarie e telegrafiche.
2.8 Teletex e telescriventi
Alla fine dell’800 cominciano a svilupparsi sistemi telegrafici in grado di superare il tasto unico su
cui il telegrafista batteva l’alfabeto Morse. Il francese Emile Baudot,, brevettò nel 1874 il suo
sistema di telegrafia rapida. Grazie a un codice di sua invenzione fondato su 0 e 1 (e quindi
progenitore del codice Ascii dei computer), riusciva a rappresentare con 5 elementi tutte le lettere
e i numeri, che venivano codificati battendo su una tastiera di cinque tasti e inviati come impulsi
sulla linea telegrafica.. In ricezione cinque elettrocalamite memorizzavano il segnale in arrivo, che
veniva decodificato e stampato su lunghe strisce di carta.
6
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Il sistema Baudot di telegrafia rapida si diffuse largamente anche se, con una tastiera a cinque tasti,
l’onere della codifica rimaneva integralmente alla professionalità del telegrafista. Poco più tardi si
diffusero le macchine da scrivere (1896). L’efficacia della tastiera alfabetica fu immediata, e si
cominciò a pensare a un dispositivo elettromeccanico scrivente per trasmettere messaggi testuali
attraverso la rete telegrafica, che sarà la telescrivente.
Il problema del telegrafo era che i messaggi una volta arrivati alla stazione telegrafica dovevano
essere portati a destinazione dai fattorini. Si cominciò così negli anni 30’del 900’a pensare di
collegare telescriventi direttamente nelle sedi dei grandi utenti del telegrafo (es amministrazioni
pubbliche e imprese), connettendole con i loro corrispondenti in modo da avere un fitto scambio
di messaggi senza il passaggio dalla centrale telegrafica e il trasporto fisico dei dispacci.
Il telex era una combinazione tra il telegrafo e il telefono. Del primo prendeva il carattere scritto
della comunicazione, del secondala commutazione automatica verso l’utente. Il telex era però
riservato a pochi grandi utenti. Fino agli anni 80 ha rappresentato la modalità principale per la
comunicazione dei messaggi di agenzia alle testate giornalistiche e la loro diffusione nelle
redazioni. In Italia il telex, tecnologia elettromeccanica e rappresentativo di un’era analogica, è
stato ufficialmente abolito nel Novembre 2001 e sostituito dalla scrittura elettronica a video e
quindi da Internet.
2.9 Telefoto e fax
La telefoto è l’immagine ricevuta a distanza con una qualità elevata, che la rende utilizzabile
nell’industria editoriale. La qualità è ottenuta convertendo l’immagine in segnali acustici e in
ricezione trasformandoli in segnali luminosi che impressionano un rullo di carta fotografica
regolarmente sviluppato. Padre della telefoto (1907) è considerato il francese Belin che l’applicò
nel 1914 alle foto giornalistiche di attualità. Nel 1921 Belin inventò anche un metodo per il
trasferimento di fotografie via radio. Tra le due guerre la trasmissione delle foto giornalistiche
divenne una pratica quotidiana. Anche la telefoto è un ibrido tra telegrafo, telefono e radio. Sarà
poi soppiantata dalla fotografia digitale.
Il telefax rappresenta lo sforzo di andare oltre al limite della comunicazione telefonica (che non
prevedeva la registrazione di ciò che si comunicava, non dava la possibilità alla voce di essere
archiviata, conservata), riproducendo a distanza un testo scritto che può essere letto ma anche
conservato. La sua paternità risale alla metà dell’800 (contesa tra Bain e l’italiano Caselli) e la sua
diffusione risale agli anni 70’ del 900’. Inizialmente gli apparecchi erano ingombranti,
successivamente sono apparsi gli apparecchi collegabili direttamente al telefono di casa di
proporzioni e prezzi ridotti, dotati di una stampante con carta termica. Il fax è stato assorbito ed
eliminato da Internet. Oggi comunicare via fax è considerato indice di bassa alfabetizzazione
tecnologica.
2.10 Theodore Vail e il servizio universale
Lo sviluppo del telefono è stato ampio perché organizzato come un “servizio universale”,
accessibile a tutti in qualsiasi parte remota del mondo, rappresentando così un completamento
dei diritti di cittadinanza. Questa idea è stata concepita da Vail, direttore della Bell Company, che
investiva parti dei ricavi della società per espandere il servizio anche in paesi dove c’era poca
possibilità di guadagno. Egli creò un gruppo di imprese, il Bell System, e nel 1931 fece un accordo
con il governo americano per consentire alle piccole imprese telefoniche indipendenti, in nome del
“servizio universale”, l’interconnessione a pagamento con la rete interurbana della Bell, (At&T).
7
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Quindi Vail di garantì un monopolio della telefonia americana. Nel 1925 molto importante fu
l’invenzione da parte della Bell di un gran laboratorio di ricerca, il Bell Labs, da cui uscirono
invenzioni come il transistor e i satelliti per le telecomunicazioni. Il monopolio della Bell durò fino
al 1982, quando un la sentenza di un tribunale americano condannò la società per violazione delle
norme antitrust e impose la sua divisione in un corpo centrale per il traffico a lunga distanza e
sette società regionali (Baby Bells).
2.11 Il telefono i Europa e in Italia
La prima centrale telefonica europea fu quella tedesca di Colonia del 1877.
Il Italia il telefono giunse poco dopo e all’inizio fu sviluppato da imprenditori privati sulla base di
concessioni attribuite dal governo. Le prime concessioni sono del 1881 e riguardano reti urbane.
Lo sviluppo del servizio in Italia fu lento e debole. Quando l’evoluzione tecnologica permise la
comunicazione interurbana, ,l’orientamento che prevalse fu quello di una gestione mista: statale
per le linee interurbane, internazionali, e principali reti urbane, privata per le reti urbane
secondarie. Nel 1907 una legge consegnò la gestione dei telefoni a una Direzione generale del
ministero delle Poste.
Dopo la prima guerra mondiale, nel 1925, la situazione cambiò. Lo Stato tenne per se i
collegamenti interurbani, costituendo l’Azienda di Stato per i servizi telefonici (Asst), autonoma
rispetto al ministero delle poste, e il resto della rete fu diviso in cinque società private per diverse
regioni: Stipel, Telve, Timo, Teti, Set.
Con la crisi economica del 1929 le concessionarie telefoniche andarono in crisi. Fu costituito così
l’Iri (Istituto per la Ricostruzione Industriale), che continuò la sua attività anche dopo la guerra.
Nel 1933-34 le concessionarie telefoniche Stipel, Telve e Timo, investite dalla crisi passarono all’Iri,
che costituì una holding di settore, la Stet (la quale appunto per conto di un ente più grande, cioè
l’Iri, si occupa del coordinamento e l’indirizzo delle società controllate). Nel 1955 l’Iri acquisì anche
le due restanti società telefoniche, Teti e Set. A quel punto il servizio telefonico era totalmente in
mani pubbliche ma diviso in tante società.
Nel 1962 una società elettrica, la Sip (Società Idroelettrica Piemonte) , di proprietà dell’Iri, viene
indennizzata per l’esproprio degli impianti dopo che l’industria Enel viene nazionalizzata e diventa
Ente pubblico. Così l’Istituto approfitta e nel 1964 le cinque concessionarie telefoniche di fondono
per incorporazione nella Sip (che diventa “Società Italiana per l’esercizio telefonico), controllata
dalla Stet.
Dal 1970 è possibile la teleselezione in tutta Italia (prima le interurbane si svolgevano ancora
tramite operatore). Tuttavia ci sono ancora tanti gestori, tutti pubblici, uno per i collegamenti
intercontinentali (Italcable), satelittari (Telespazio), e l’Asst (Azienda di stato per i servizi telefonici).
Solo tra il 1992 e il 1993 tutte le società pubbliche i fonderanno nella nuova società Telecom Italia,
gestore unico delle telecomunicazioni, che però gli altri paesi Europei avevano già dalla seconda
metà dell’Ottocento!!!
2.12 La deregulation delle telecomunicazioni
I monopoli nazionali delle telecomunicazioni si dissolvono negli anni 80 del 900. I motivi sono
4:tecnologico, di mercato, di internazionalizzazione, di convergenza.
1. Da un punto di vista tecnologico non c’è più un’unica rete ma una pluralità di sistemi di
trasmissione, inoltre si sono molteplice le tecnologie di comunicazione (cavi in fibra ottica,
satelliti per telecomunicazioni,ponti radio ecc).
8
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
2. mercato profitevvole e di grande liquidità, quindi quando cìè guadagno si tende a
richiedere la privatizzazione;
3. l’aumento della capacità di connessione, il ribasso dei prezzi, fa si che un operatore
straniero è in grado di fare concorrenza sul suo territorio a un operatore italiano.
4. convergemza multimediale a due: la tv e l’informatica, che voglione entrambe convergere
con le telecomunicazioni. Con il monopolio ciò non era possibile.
La Gran Bretagna nel 1981 è il primo paese che i accinge a privatizzare il proprio sistema di
telecom ubicazioni, e una legge divide i sistemi postali da quelli delle telecomunicazioni.
Negli Stati Uniti, nel 1982, la At&t è divisa in sette società.
In Giappone nel 1985 viene privatizzata la Ntt.
Queste tre date, 1981,82,85,segnano l’inizio della deregulation nelle telecomuiicazioni e
l’integrazione tra informatica e telefonia.
L’Europa ha definito nel 1990 la liberalizzazione del settore, per gradi. Ultima ad essere
liberalizzata la telefonia vocale nbel gennaio 98. Dopo il 1990 i paesi europei adeguano la loro
legislazione alla normativa europea:le poste vengono distinte dalle telecomu8nicazioni e si inizia
ad introdurre la concorrenza.
2.13 La privatizzazione delle telecomunicazioni in Italia
Nel 1992 l’Italia avvia la privatizzazione dell’Iri e della sua controllata Stet, proprietaria di Telecom.
Telecom Italia tenta un prioogetti di cablaggio s a fibre ottiche (Progetto Socrate, ma abbandonato
perccè troppo costoso), costituisce una società per realizzare contenuti multimediali, la Stream, e
la concessionaria per pubblicità si tv e giornali Mmp. Cerca di occuparsi quindi anche di contenuti.
Intanto il servizio che cresce di più è la telefonia cellulare, nel 95 è affidata da Telecom alla società
Tim, che gestisce i cellulari analogici di prima generazione (Tacs); dal 93 compaioni i primi cellulari
digitali, sempre esclusivi di Tim. Solo alla fine del 95 è ammesso un secondo gestore, Omnitel, del
gruppo Olivetti.
Nel 97 Prodi decide la privatizzazione di Telecom Italia. Presidente è Guido Rossi, e il modello è
quello della Pubblic Company. Questa è una società in realtà privata, il cui capitale è diffuso tra
moltissimi azionisti, nessuno dei quali può però influire sull’andamento della società, la quale è
amministrata completamente dai suoi manager.
Lo Stato ne mantiene un certo controllo con solo il 3,5% delle azioni. Ciò avviene attraverso la cd
golden share, (azione d’oro). Lo Stato si riserva cioè alcuni poteri speciali:possibilità di veto su
determinate scelte e gradimento sull’ingresso di soci in posizioni fondamentali.
La Public Company però dura poco. Dopo nemmeno un anno Guido Rossi si dimette. Come
amministratore delegato giunge Franco Bernabè ma pochi mesi dopo il modello della public
company è del tutto infranto.
Nel 1999 il finanziere Roberto Colaninno lancia un’offerta pubblica di acquisto di azion i Telecom
Italia. Nel 2001 Telecom si espande acquistando dall gruppo Cecchi Gori, in gravi crisi, le reti Tmc e
Tmc2, che diventeranno La7 e Mtv Italia.
Nel 2001 il controllo di Telecom passa alla finanziaria Olimpia (Pirelli e Benetton), con l’appoggio di
Banca Intesa e Unicredito.
Marco Tronchetti Provera, nuovo presidente Telecom, si dedica alla riduzione del debito. A tal fine
è rivolto il riacquisto di circa metà delle azioni Tim, tra il 2004 e il 2005, ma ciò causa un enorme
esborso finanziario e il debito cresce.
9
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Nel settembre 2006 Telecom vende ancora proprie aziende e decide di organizzare l’azienda in tre
divisioni: la prima dedicata a telefonia fissa e mass media, la seconda al mobile, la terza alla rete
telefonica. Intanto si apre un’inchiesta giudiziaria per attività e spionaggio di telefonate cellulari.
Tronchetti è così costretto alle dimissioni e la presidenza del consiglio d’amministrazione è di
nuovo affidata a Guido Rossi (15 Settembre 2006). Il 12 Marzo 2007 Tronchetti Provera vende le
azioni in possesso della finanziaria Olimpia e rinuncia al controllo del gruppo.
_________________________________________________
10
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 3
- L’INFORMATICA E IL COMPUTER 3.1 Calcolare e controllare in una società complessa
Il calcolo fino a 50 anni fa costituiva un vero problema. Solo nel dopoguerra sono apparse le prime
calcolatrici scriventi di dimensioni e costi ridotti.
Oggi sono affidati al computer problemi non solo quantitativi ma anche quesiti logici (es giocare a
scacchi, sorteggiare partite di calcio ecc) che il computer interprete e legge comunque in forma
numerica. Oggi il computer può:
a) effettuare calcoli complessi
b) ordinare e tenere in memoria dati
c) utilizzare le prime due funzioni per risolvere problemi logici
d) utilizzare tutte le funzioni precedenti per controllare e programmare altre macchine e altri
computer.
3.2 Nascita del calcolo automatico
Le prime macchine per calcolare furono realizzata nell’Europa del 600. Pascal e Leibniz avevano
concepito macchine calcolatrici basate su ruote dentate che riproducevano il procedimento della
somma.
Nell’800 Bobbage con la sua “analytical engine” si avvicinò ai moderni calcolatori in quanto il suo
macchinario aveva anche una memoria e un metodo dio immissione dei dati fondato su schede
perforate, con le quali Bobbage inseriva i dati nella sua macchina. I principi della macchina di
Bobbage ispirarono nel 1889 Herman Hollerith la cui macchina era in grado di contare ed
elaborare dati anagrafici riportati su schede perforate. Prima di questa invenzione i censimento
della popolazione erano lentissimi. La tabulatrice di Hollerith fu utilizzata per il censimento del
1890, che stavolta durò solo due anni e mezzo. Lo strumento ebbe un gran successo, fu prodotto
in serie e venduto a pubbliche amministrazioni, società ed enti, da una società fondata proprio
per lo sfruttamento dell’invenzione, che nel 1924 assume il nome di International Business
Machine, IBM.
Negli stessi anni l’industria e il commercio richiedono sempre più macchine per il calcolo e la
registrazione di dati. Nel 1879 viene inventato in America il primo registratore di cassa per i negozi,
e nel 1896 la prima moderna machina da scrivere dalla Underwood. Con la macchina da scrivere fa
la sua comparsa la tastiera (quella inglese è detta “qwerty”, quella italiana “qzerty”, la prima ha
prevalso quando mla tastiera è passata al computer).
3.3 Oltre i limiti fisici dell’elettromeccanica
La macchina di Hollerith aveva comunque dei limiti fisici delle schede e del loro trattamento
elettromeccanico.
Trasportare non un oggetto fisico ma un impulso elettrico poteva essere più facile. Nel 1927 entra
in funzione al Mit (Masssachussets Institute of Technology) una macchina denominata “differential
analyzer”), realizzata da Vannevar Bush e altri.
E’ un sistema analogico, parzialmente elettromeccanico e parzialmente elettronico, che utilizza
come commutatori valvole termoioniche. Ci volevano però diversi giorni per impostare il
programma necessario per il calcolo.
11
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Nel 1936 il matematico inglese Alan Turing sostiene la commutabilità (calcolabilità) dei problemi
attraverso una macchina algoritmica, che traduce cioè i problemi in algoritmi, di uso generale e
universale.
Durante la guerra Turino e altri studiosi fondano un centro interamente dedicato alla decifrazione
dei messaggi cifrati nazisti. I tedeschi disponevano di una macchina crittografica chiamata
“Enigma”. A Bletchley Park il gruppo inglese costruì quindi con la supervisione di Turing un
enorme calcolatrice elettromeccanica, Colossus, che decifrava migliaia di messaggi nemici ogni
giorno. Nel dopoguerra Turino si dedicò all’intelligenza artificiale.
Intanto si affermarono centri di ricerca americani, come quello dell’Univresita di Pennsylvania in
cui nacque il primo calcolatore americano Eniac, per il calcolo delle tabelle balistiche. L’ibm
realizza nel 1942 il suo calcolatore Mark1.
Tuttavia nessuno aveva ancora pensato di vendere i calcolatori per scopi commerciali. Essi erano
ritenuti adatti solo
alla ricerca scientifica o ai programmi militari.
3.4 La diffusione dei grandi computer
Nel dopoguerra determinante fu nello sviluppo dei computer il gruppo dell’Università di Princeton
e in particolare John Von Neumann, matematico di origine ungherese che indicò come era
possibile immettere nel calcolatore delle “istruzioni di funzionamento” mamorizzate allo stesso
modo dei dati all’interno della memoria centrale. I computer di questo tipo saranno chiamati
“macchine di Von Neumann”. Fino ad allora i computer eseguivano solo le istruzioni per cui erano
state costruite, adesso si potevano immettere nel computer, di volta in volta, i programmi per
affrontare un compito determinato, o conservarli nella memoria. Von Neumann partecipò al
gruppo che aveva ideato le bombe atomiche sganciate su Hiroshima e Nagasaki, suo è il calcola
dell’altezza dal suolo a cui dovevano esplodere per creare più danni possibili. La sua influenza
contribuì inoltre alla diffusione del computer nelle alte sfere del governo e nell’industria. Nel 1950
inoltre i progettisti dell’Eniac costituirono una società, l’Univac, per la commercializzazione dei
calcolatori, fu allora che l’Ibm so alleo con la Remighton Rand e produsse il modello 701 nel 1953 e
io 650 nel 1954, che eggìbbe un gran successo e fu venduto in più di mille esemplari. Comincia così
la diffusione dei grandi computer, la cd “mainframe”.
Essa fu favorita dalla sostituzione delle ingombranti valvole con i transistor, inventati nei laboratori
Bell nel 1948 e applicati in tutte e tre le tecnologie: telecomunicazioni, broadcasting e computer.
La scoperta dei metalli semiconduttori permetterà poi la sostituzione dei transitor con quelli che
diventeranno chip e microchip.
I grandi calcolatori sono stati una specialità americana. La Bull francese viene ceduta all’americana
General Eletric nel 1964 e un mese dopo anche l’Olivetti viene acquistata dalla società americana.
Intanto si diffonde la parola “informatica” (1962), che indica l’insieme delle scienze e delle
tecnologie per il trattamento automatico delle informazioni, in ambiente anglosassone si parla
invece di Ict ( Informtaion and Communication Tecnology”), e circola negli stessi anni anche il
termine “intelligenza artificiale”.
3.5 I computer negli anni 60 e 70
Negli anni 60 i grandi computer, i mainframe, erano ormai collocati negli uffici delle pubbliche
amministrazioni, in istituti statistici, nelle Forze Armate, università, centri di ricerca, e in seguito
12
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
banche, aziende erogatrici di acqua, gas e luce alle prese con bollette e fatture, aziende di
trasporto con problemi di orari e coincidenze, istituzioni con personale, fatture, fornitori ecc.
Per funzionare il computer aveva bisogno di programmi (ovvero sequenze di istruzioni che lo
guidano nell’elaborazione di dati) molto complessi prodotti da esperti programmatori (system
analist). Tra il linguaggi più usati c’era anche il Basic (1964), il più semplice, che diventerà per
questo linguaggio di programmazione dei primi personal computer. Tuttavia la presenza dei
computer nella vita quotidiana della gente comune era ancora quasi nulla.
3.6 Verso il personal computer
Dal 1961 si diffonde il “time sharing”, ovvero l’idea di gestie un computer in condominio: una
logica cooperativa, ad esempio un’università comprava un solo computer e poi creava un centro di
calcolo collegato con cavi ai vari edifici dotati di “terminali” (una console con tastiera collegata al
computer). Era una visione gerarchica definita master/slave, perché i terminali avevano possibilità
di accesso ridotte e dunque autonomia limitata.
Tuttavia si faceva comunque strada l’idea che era necessaria una cooptazione sociale attorno al
computer e che rivolgersi ad un pubblico più ampio significava sviluppare altri possibili usi del
computer. Il computer poteva così entrare in una sfera privata aumentando le quote di P2P e
anche le esigenze di intrattenimento. Rimanevano tuttavia barriere come i costi, le dimensioni, e il
problema della alfabettizzazione sociale: poche persone sapevano usarlo. Negli anni 70 quasi tutte
queste barriere furono frantumate.
Nel 1970 Intel presenta una memoria Ram fatta con semiconduttori che ha dimensioni e costi
ridotti e diventerà la memoria standard dei futuri pc. Nel 1971, dalla Intel arriva un’Invenzione
ancora più importante, il microprocessore, un minuscolo circuito integrato 3x4mm. Questa
drastica riduzione di scala permetterà di realizzare computer molto più piccolina anche di
collocare computer in altri apparecchi e processi.
Ma la strada verso il personal computer, grazie allla RAM e al microprocessore, non fu sbarrata
tanto dalla Ibm e le altre imprese di computer quanto da latri soggetti: gli studenti universitari.
Giovani californiani contigui alla cultura hippie che lavorano in garage, teatro dell’inventore
geniale,e fondano una specie di distretto industriale diffuso con caratteristiche insieme amicali
cooperative e competitive: la Silicon Valley.
Fu chiamata così nel 1971, ed è la Santa Clara Valley nella parte meridionale della Baia di San
Francisco.. Nella Silicon Vallry, la valle del silicio (metallo usato per i semiconduttori) nascono
migliaia di imprese legate ai computer e a componenti elettronici, e dove si stabilirono imprese
come Apple, Intel, Adobe, Google, Yahoo, Cisco, eBay, Pixar, Sun Microsistem, Logitech e altre.
Negli stessi anni molte imprese che progettano software e scuole di ingegneria informatica si
spostano in paesi dove il lavoro costa poco ma si parla inglese e c’è una buona formazione, come
l’India.
3.7 Giovani appassionati e scatole di montaggio
Nel 1972 nasce una piccola società, Atari, il cui inventore, Nolan Bushnell, aveva realizzato un
videogioco, Computer Space, definito “arcade”, ovvero destinato alle sale giochi. Tuttavia il gioco
era troppo complicato per la cultura popolare, allora Busnell inventò un gioco semplicissimo: Pong
(1972), la simulazione di una vera partita a tennis in bianco e nero. Nel 1975 Atari ne produce una
versione domestica, Home Pong, che si gioca sul televisore. Nel 1978 Atari produrrà il computer
Atari 400 e poi 800.
13
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Atari non esiste più ma è curioso che il personal computer discenda direttamente dal gioco e
dall’intrattenimento.
Negli stessi anni il film lascia le sale cinematografiche per entrare nello schermo del televisore, si
afferma così una logica “consumer”, vendere i propri prodotti (economici e replicabili in milioni di
copie) non solo più a clienti professionali ma a persone qualsiasi dotate di strumenti necessari
(computer, tv, videoregistratori, console per videogiochi).
In seguito una piccola impresa di Albuquerque nel New Mexico,la Mits, lancia il computer Altair
8800, dal costo di 498 dollari montato e collaudato. Gli accessori però erano a parte e costavano
cari, si potevano però usare di seconda mano, e ciò sviluppò la capacità adattiva tipica degli
hobbysti..
La vera novità di Altair era il linguaggio di programmazione: un adattamento semplificato del Basic
scritto da Paul Allen e Bill Gates, i quali appunto rendono il Basic compatibile con Altair, registrano
il prodotto e lo offrono in licenza alla Mits. Il nome Microsoft viene registrato ad Albuquerque nel
novembre 1976.
Simile ad Altair ma più potente è l’IMSAI 8080, realizzato nel 1975, ma non disponeva di un
sistema operativo avanzato come Altair, protetto da copyright: il software comincia a fare la
differenza.
Hardware e software cominciano a differenziare la loro strada: “Hardware” -> ferramenta, parte
del computer fisicamente costruita, stampanti, monitor, tastiera ecc. “Software” -> tutto ciò che è
“soffice”, immateriale, ovvero il sistema operativo e i programmi.
3.8 Apple, Ibm, Microsoft
La storia di Apple è una leggenda americana. Nel 1976 a Palo Alto, due ragazzi, Steve Jobs (un
hippie che lavora all’Atari) e Stephen Wozniak, nel garage del primo realizzano il loro primo
computer, Apple 1. Nel 1977 arriva Apple II, dal disegno molto curato come sarà tradizione della
casa, e un terzo socio, Mike Makkula, che apporta molto capitale.
Nel 1977 un arbitrato tra Mit e Microsoft permette a quest’ultima di vendere il programma ad altri
fabbricanti di computer, Apple compresa.
Intanto nel 1976 è stato inventato il termine “personal computer”. L’anno successivo appaiono le
feritoie (slot) per inserire i floppy disk e viene realizzato anche il primo modem (modulatordemodulator) per personal computer, l’apparecchio che permette di utilizzare le linee telefoniche
per collegare fra loro i pc. Nel 1980 una ditta inglese, la Sinclair, mette in commercio personal
computer a prezzi stracciati suscitando una guerra di prezzi che taglierà drasticamente i prezzi
dell’informatica.
Ibm è fuori dalla cultura del personal computer, non riuscendo a comprenderne inizialmente
l’utilità.
Poi nel 1981, il lancio di un pc con un processore di grande velocità, monitor, tastiera separata,
stampante ad aghi, slot per floppy, sarà un gran successo, e riuscirà a imporre il suo standard. Ibm
(così come aveva fatto Apple) rende aperta l’architettura del proprio sistema e affida alla piccola
Microsoft l’incarico di creare un sistema operativo per i futuri pc Ibm. Gates ed Allen così in sole
otto settimane realizzano l’MS-DOS che saràfprnito di corredo ai personal computer dell’Ibm.
L’anno successivo la Microsoft mette in commercio una versione migliorata dell’MS-DOS che può
essere acquistata anche da chi non ha un computer Ibm. Inizia così il fenomeno degli “Ibm
compatibili”: computer che, grazie all’architettura aperta del pc Ibm, ne imitano l’hardware e
utilizzano il sistema operativo Microsoft. Solo Apple non cede alla compatibilità con Ibm e presidia
con successo una fascia alta di utilizzatori conquistati dalla potenza, semplicità e capacità grafica
14
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
delle sue macchine dal raffinato design. Il resto dei costruttori di pc imita l’architettura Ibm e si
rivolge a Microsoft perché il funzionamento delle loro macchine esige l’MS-DOS
3.9 Le interfacce grafiche utente
L’ MS-DOS è nettamente inferiore al sistema operativo di Apple e il divario si accentua quando nel
1984 viene messo in vendita il Macintosh ( o Mac). Il sistema operativo del Macintosh ha una
facilità d’uso prima sconosciuta. Esso è fondato sulla semplificazione dell’interfaccia macchinautente, in modo che sarà possibile user-friendly, semplice e gradevole per l’utilizzatore. Viene
scelta per la prima volta un’interfaccia grafica (GUI) basata su disegni intuitivi . Il Mac infatti adotta
la metafora della scrivania dell’ufficio su cui si mettono documenti (file) e cartelle (folder) con un
nome e da cui si butta nel cestino ciò che non serve più. Ogni elemento è rappresentato da
un’icona . Questo tipo di interfaccia grafica viene chiamata WYSIWYG (acronimo per “what you
see is what you get”).
Contemporaneamente, Macintosh fa propria la metafora delle finestre: più documenti, cartelle e
programmi possono essere aperte contemporaneamente, e ciò conferisce all’operatività del
computer un carattere ipertestuale. Tutto ciò nel 1984 era una novità assoluta.
Nel 1985 Microsoft lancia in grande stile Windows. Come dice la parola stessa, anche questo un
sistema operativo con un’interfaccia grafica a finestre che usa il mouse. Solo dalla versione 3 del
1990 Windows sarà competitivo con Macintosh. Tuttavia Microsoft si afferma nettamente perché
il suo software è fornito all’origine da Ibm e praticamente da tutti i fabbricanti di computer Ibm
compatibili, e può essere acquistato separatamente a soli 99 dollari. Windows è un programma
integratore: cioè una piattaforma che fornisce all’origine alcuni programmi elementari: una
calcolatrice, ujn blocco note, giochi, un semplice programma di scrittura e uno di disegno. Se si
vuole avere di più, bisogna integrare il sistema operativo con programmi costruiti
specificatamente per quella piattaforma acquistandoli separatamente. I programmi di Microsoft
hanno una versione anche per il Mac, e conquisterà così una posizione dominante.
Nel frattempo il sistema operativo deve avere una potenza sempre maggiore per garantire la
semplicità d’uso dell’interfaccia grafica. I programmi si devono così continuamente adeguare a
questa nuova potenza richiesta.
Nel 1987 Apple introduce il software applicativo Hyper Card, principale programma per creare
ipertesti (un contenuto con un sistema di detti link), prima della diffusione di massa di HTML.
Prima di Power Point Hypercard era usato per le presentazioni multimediali. Tuttavia HyperCard
sarà travolto appunto da HTML, PowerPoint e Microsoft Word.
3.10 Scrivere, calcolare, disegnare, ordinare
I programmi applicativi erano necessari affinché il computer risultasse utile anche alla gente
comune. Alla fine degli anni 70 compaiono i primi antenati del foglio di calcolo Excel, i modelli più
difusi sono VisiCalc e Lotus. Nel 1979 escono Word Perfect e Word Star, entrambi per scrivere. Nel
1983 l’azienda di Bill Gates produce l’attuale Word e intanto si è imposto anche Excel.
Nel 1987 con l’arrivo di Windows, Excel, Word e altri programmi minori vengono prodotti in nuove
edizioni compatibili con Windows, mentre Microsoft compra una piccola azienda che produce
PowerPoint. Nel 1989 compare il pacchetto Office con Word, Excel, Power Point e altri programmi
insieme, per la prima volta venduti in un cd-rom. Ad essi si aggiungerà anche Access. Ad ogni
nuova edizione di Windows vengono presuntate nuove edizioni dei programmi e di Office che
spinge gli utenti a comprare gli aggiornamenti spesso e a cambiare computer.
15
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
La privatizzazione del software, che viene comprato e venduto, provoca la reazione di coloro che
nell’università e nei centeri di ricerca avevano lavorato in modo cooperativo sul software e si
erano scambiato i prodotti del loro lavoro. Nasce così l’ideologia hacker , che non ha il significato
negativo che le daranno i media, ma indica una comunità di appassionati della programmazione.
C’era un sistema operativo largamente disponibile, Unix, elaborato dalla At&T. Nel 1983 Stallman
dek Mit fonda il progetto Gnu e la Free Software Foundation, per sviluppare e condividere il
software free, libero e gratuito insieme. Stallman rende il software Gnu compatibile con il sistema
operativo Unix, in modo da aumentarne la diffusione libera che viene chiamata copyleft. Nel 1991,
uno studente, Linus Torvalds, mette a punto cooperativamente con molti sviluppatori sparsi nel
mondo un kernel (nucleo del sistema operativo) compatibile con Unix particolarmente efficiente,
che sarà chiamato Linux. Nel 1997 Perens, Raymond e altri ridefiniscono il software libero come
open source , mettendo l’accento sulla “condivisione del codice” più che sulla cessione gratuita di
un bene.
Gli anni 90’ vedono comunque il predominio di Microsoft nel software. Nasce però nell’ambito di
Mac il programma Adobe Acrobat che permette la confezione di testi molto curati, che sono
leggibili e copiabili da chi dispone di Acrobate Reader. Sempre dall’ambiente Mac nasce Adobe
Photoshop.
Contemporaneamente nasce l’espressione “realtà virtuale”, coniata nel 1989 da Jason Lanier.
Questa è la situazione prima dell’avvento di Internet come pratica diffusa e popolare. Nei primi
anni 90 Microsoft è tra l’altro piuttosto scettica nei confronti di Internet e della posta elettronica.
Solo nel 95 verrà lanciato Windows 95 che comprende il browser Explorer e il programma di posta
Outlook.
3.11 Prove tecniche di convergenza: computer e quotidiani
Il giornale quotidiano è il primo fra i media ad essere trasformato dall’arrivo dei computer in
redazione e in tipografia.
Negli anni 60 del 900 le macchine compositrici sono state modificate in modo da non produrre più
righe di piombo ma incidere direttamente il testo su una pellicola fotografica. Questo processo,
chiamato “fotocomposiziopne”è stato presto assistito dal computer. La fotocomposizione è la
premessa per trasmettere a distanza le pagine già impaginate e composte, in modo che possono
trasmettere a distanza le pagine già impaginate e composte, in modo da poter essere stampate in
un’altra tipografia: è la “teletrasmissione”. Il primo esperimento lo fece il New York Times nel 1960
e nel 64 “La Stampa” in Italia. Il risparmio era evidente.
Tuttavia, con la diffusione crescente di software per la composizione (come Aldus Pacemaker e
QuarkXPress in ambiente Mac), l’impaginatura poteva avvenire direttamente al computer,
comandata direttamente da un caporedattore, o dal giornalista stesso che scriveva il pezzo.
L’organizzazione del giornale veniva drasticamente cambiata. I giornalisti battevano i loro articoli
non alla macchina da scrivere ma a una tastiera di computer. Il caporedattore di ogni pagina la
componeva ordinando i varo articoli, scegliendo da un repertorio di formati-tipo l’impaginazione
che meglio si adattava . Altri addetti inserivano direttamente dal computer le foto, pubblicità,
grafica ecc. A questo punto l’impaginato del quotidiano veniva inviato ai vari stabilimenti di
stampa. Questo nuovo assetto da un lato ha fatto sentire molti giornalisti sminuiti nella loro
funzione, dall’altro però ha fatto diminuire le spese di produzione e quindi ha consentito maggiori
possibilità di sopravvivenza.
16
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Infatti si è potenziato il “desk”, ovvero il lavoro giornalistico alla scrivania, rispetto all’acquisizione
di notizie sui luoghi in cui avvengono i fatti, e ciò a discapito un po’ della personalizzazione
dell’articolo. . Queste tendenze nascono negli anni 80’ ma saranno potenziate da Internet.
______________________________________________________________
17
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 4
- NASCITA E DESTINO DI INTERNET 4.1 Come una rete militare diventò il WWW
Gli Stati Uniti, nel mezzo della guerra fredda, crearono il progetto Arpa, (1958)un ente governativo
per promuovere e finanziare le ricerca nei settori strategici. Nel 1966 l’Arpa mise in cantiere il
progetto di una rete per la comunicazione tra i computer che lavoravano per l’agenzia, che si
chiamerà Arpanet. Lo scopo della rete per alcuni era il lavoro comune tra i computer delle
università e dei centri di ricerca, per altri la sua struttura era adatta all’uso in guerra, nell’ipotesi di
un attacco nucleare di sorpresa. La rete infatti non aveva un centro, che sarebbe stato vulnerabile
e facile bersaglio, ogni nodo era collegato ad almeno altri quattro e poteva comunicare anche se
una parte della rete fosse stata messa fuori uso. Inoltre all’interno di Arpanet le comunicazioni
viaggiavano da un nodo all’altro non in un blocco unico, ma “spacchettate”, divise in tanti
elementi più piccoli che si muovevano separatamente, scegliendo tra gli itinerari che risultavano
liberi in quel momento: è la cd “commutazione a pacchetto”. Queste due caratteristiche
(mancanza di un centro e commutazione a pacchetto) rendevano la rete affidabile anche in caso di
guerra.
I primi due nodi della rete (“host”) furono collegati nel 1969. Fondamentali per il funzionamento
della rete erano i “protocolli”, le specifiche per i collegamenti tra i vari host. Nel 1973 viene
realizzato il protocollo ancora in uso TCP/IP, che poteva connettere anche altre reti fuori da
Arpanet, come reti civili di tipo consortile, per il collegamento di università e centri di ricerca
(siamo agli inizi degli anni 80). La rete stava diventando troppo pubblica e i militari la
abbandonarono creandone una loro, la Milnet. Arpanet fu invece sostituita, nel 1985, da Nsfnet,
una rete di telecomunicazioni veloce che fu però chiusa nell’89.
E’ questo il periodo in cui i gestori di reti di telecomunicazioni cominciarono ad interessarsi alla
rete, vendendo accessi e collegamenti veloci. Nel 1988 la società di telecomunicazioni Mci ottenne
di poter interconnettere il proprio sistema di posta elettronica, Mc Mail, con Internet. Per la prima
volta un consistente numero di utenti né militari né ricercatori affluirono alla rete.
Nel 1986 il collegamento con le reti interconnesse arriva in Italia. Il Cnuce di Pisa è connesso via
satellite con Arpanet; l’anno successivo allo stesso Cnuce viene affidato l’incarico di assegnare gli
indirizzi IP per l’Italia; questo centro diventerà poi il punto di riferimento nazionale per Internet.
Nel 1988 le reti già esistenti in Europa si interconnettono con gli Stati Uniti.
Nel 1991 Tim Bernerts Lee , nei laboratori di fisica nucleare Cern di Ginevra, mette a punto il
World Wide Web, un sistema che permette di pubblicare sui nodi della rete documenti ipertestuali
accessibili in qualsiasi parte del mondo . Il WWW è quindi un insieme di protocolli che permettono
la circolazione attraverso la rete di informazioni ipertestuali (che contengono dei link). I più
importanti sono:
a) linguaggio HTML -> “generatore di ipertestualità”, formato per rendere disponibili
informazioni connesse in forma di link;
b) protocollo per il trasferimento delle rappresentazioni così formattate, e cioè l’ HTTP
( Hyper Text Transfer Protocol ).
Naturalmente provenendo da un istituto pubblico di ricerca, HTML e http sono di libero uso per
tutti.
Nel 1993 due studenti dell’Università dell’Illinoise realizzano il software Mosaic, il primo
programma di navigazione per non esperti, diffuso gratuitamente, ma comunque all’interno di una
cerchia ristretta di accademici e ricercatori.
18
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
L’anno successivo Marc Andressen lancia Netscape, il primo browser commerciale, che sarà poi
sostituito dall’Explorer di Windows95. Internet finalmente esce così dalla ristretta cerchia degli
addetti ai lavori.
4.2 Morfologia di Internet
Internet un vero e proprio medium, e si può definire anche “metamedium” per la sua proprietà di
assumere su di se la funzioni di quasi tutti gli altri media. Il tragitto di Interent si può dividere in tra
fasi: 1 la prima che inizia con i primi collegamenti ad Arpanet (1969) e dura circa fino al 1995 con il
lancio di Explorer, è un medium ancora“di nicchia”; 2 la seconda, di impetuoso sviluppo tra il 1995
e il 2001, ma non è ancora propriamente un medium di massa come tv e giornali; 3 è un ambiente
convergente e maturo, composta da una serie infinita di nicchie in parte sovrapposte.
La realizzazione del WWW fa nascere un oggetto mediale del tutto nuovo. La pubblicazione di un
sito è un atto pubblico, politico, esposto alle reazioni degli altri. La grande forza di Internet è unire
insieme, in modo accessibile, una forma di comunicazione pubblica (i siti web) e una forma di
comunicazione privata, che è rappresentata dalla posta elettronica. Queste due dimensioni prima
erano incarnate in media differenti (es spot in tv per comunicazioni pubbliche e telefono per
comunicazioni private). I rapporti tra dimensione pubblica e privata risultano quindi modificati
all’insegna di una circolarità fra i due momenti. Con Internet la soglia di accesso alla
comunicazione in pubblico si abbassa a favore anche della gente comune. Chiunque può
pubblicare un sito. Le applicazioni dunque della prima Internet sono siti web e posta elettronica.
Tutte le altre unzioni sono derivate da queste due originarie caratteristiche della rete.
4.3 La “fase amatoriale” di Internet
Nella seconda metà degli anni 90 Internet si diffonde in Europa fuori dalla cerchia degli addetti ai
lavori. Tuttavia rimaneva prerogativa di coloro che per motivi di lavoro avevano una connessione
in ufficio o di appassionati che lo utilizzavano a casa nel tempo libero. Si crearono così dei gruppi di
persone che discutevano tra loro: Le Bbs (Bullettin Board System) erano comunità cresciute negli
anni 80 che portavano avanti discussioni via computer su argomenti di loro interesse.
Le Bbs richiedevano abilità informatiche e attrezzature e furono sostituite quindi da semplici
programmi di posta elettronica e connessioni commerciali a Internet. Le Bbs erano inoltre
asincrone, le chat invece erano sincrone, ovvero istantanee,quindi più adatte alla comunicazione a
due oltre che in gruppi.
La rete all’inizio ha avuto le sue comunità e i suoi guru. L’esempio più celebre è il californiano
Rheingold che ha descritto le “comunità virtuali” in termini esoterici e mistici. La rete individuava
una dimensione parallela ed esclusiva che si definiva allora cyberspazio. Poi progressivamente
questa identità si è attenuata. Internet oggi lo usano tutti e quotidianamente, è più una
commodity.
In rete si era noti con il proprio “nickname”, un soprannome che si usava per presentarsi agli altri
con un’identità fittizia. Oggi, con l’adozione della webcam, queste interazioni alla cieca
diminuiscono
4.4 I siti web
Il Worl Wide Web è un sistema che permette di pubblicare sui nodi della rete raccolte di
documenti testuali (e ovviamente immagini, suoni e grafica) in modo da renderli pubblici per chi
ne conosca l’indirizzo.
19
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Il linguaggio HTML consente di presentare una “pagina” iniziale (home page), una schermata dalla
quale si è condotto ad altre pagine aliccando su un testo o un oggetto “sensibile” , ovvero
contenente in se un collegamento ipertestuale (detto tag, cioè tagliano, contrassegno). La forma
con cui queste raccolte di dati in linguaggio HTML sono presentate in Internet è quella del “sito
web”, che è organizzato in pagine. Chiunque vuole creare un sito web (definito tecnicamente
anche “dominio”) deve innanzitutto trovare un nome attraente e semplice da ricordare,
descrittivo del contenuto, che sarà collegato all’indirizzo IP assegnato al sito. L’uso del nome (DNS)
ha semplificato molto la navigazione.
Bisogna poi trovare un “web host”, cioè una società commerciale che a pagamento ospiti il
contenuto del nostro sito sui suoi server, e poi procedere alla registrazione. Prima di tutto bisogna
anche verificare che il nome da noi scelto non sia già stato registrato. Il suffisso finale “.it” sta per
“Italia”, ce ne sono anche altri più generici come “.com”; “.org”, “.info”; “.biz” ecc. L’autorità di
certificazione verifica poi se siano rispettati degli standard tecnici nella scelta del nome.
Dopodiché ci si può dedicare alla costruzione del sito. C’è una pagina iniziale, l’home page, che
può essere anche l’unica per siti molto semplici, ma nella maggioranza dei casi ci sono dei
collegamenti ipertestuali. Il sito va programmato nel linguaggio HTML messo a punto da Tim
Berners-Lee.
Una volta programmato il sito, è necessario metterlo on-line. Per questo è necessario un altro
programma software di tipo FTP che lo mandi in rete (uplink). Ogni volta che dovremo aggiornarlo
utilizzeremo lo stesso programma.
Le principali variabili di un sito web sono l’”usabilità”, ossia la facilità con cui un utente anche
inesperto e disabile può esplorare il sito (user friendly), e la “leggerezza”, ovvero la capacità di un
sito di non ingombrare le linee di comunicazione con un eccessivo numero di bit e di essere quindi
accessibile anche a chi abbia un collegamento lento e antiquato alla rete. Un sito leggero è dunque
anche più “democratico”, capace cioè di rivolgersi agli utenti più svantaggiati.
4.5 A cosa serve un sito web
Si può costruire un “sito vetrina”, per illustrare ad esempio l’attività di un’organizzazione, di tipo
“statico” e poco interattivo; oppure un sito dedicato ad una particolare nicchia di appassionati che
si riconoscono nella grafica e nei termini usati.
Possiamo fare un sito “di servizio”, mettendo a disposizione molti dati e documenti di difficile
reperibilità e permettendo agli utenti di aggiungere a loro volta materiale; oppure un sito
commerciale per mostrare e vendere qualcosa a una nicchia di appassionati o alla generalità del
pubblico.
Si può quindi cercare di attirare un pubblico indiscriminato, oppure ci si può rivolgere a persone
che condividono la nostra identità.
4.6 .L’offerta di informazione e le banche dati
L’usabilità però non basta. La quantità e la qualità delle informazioni contenute in un sito sono
altre doti che un sito deve avere per essere apprezzato. La pubblicazioni di banche dati in se non è
una novità (vedi ad esempio anche il televideo). Internet però non è solo una banca dati dedicata a
un particolare tema, permette anche di esplorare moltissime tipologie di dati diversi saltando,
grazie al sistema a finestre, dall’una all’altra. Inoltre su Internet c’è interattività , ad esempio si può
consultare l’orario dei treni ma anche acquistare il biglietto.
20
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
E inoltre si possono aggiungere nuovi dati. Internet infatti è un sistema aperto in cui è facile
collaborare, esprimersi, aprire un proprio
sito. I sistemi aperti però hanno anche il difetto che la qualità dei dati, poco controllata, ha un
livello di competenza e di attendibilità inferiore. La capacità di aggiornamento è però elevatissima,
ma è sempre necessario un lavoro di verifica e confronto, perché spesso il materiale che
preleviamo può essere di cattiva qualità, nascondere fini promozionali ecc. Un uso inappropriato
di Internet può dunque abbassare la soglia del pensiero critico.
4.7 Portali, sponsor e pubblicità
Un numero crescente di grandi organizzazioni si è avvicinato a Internet non solo per offrire i propri
servizi ma anche alla ricerca di popolarità, cercando in particolare che l’immagine attiva e
tecnologica di Internet si proiettasse su di loro. I loro siti inoltre sono sempre più lontani dai siti
vetrina e si avvicinano al modello dei portali.
I portali sono siti web particolarmente complessi, nei quali si fornisce un vero mosaico di
informazioni non strettamente attinente all’organizzazione che ha creato il sito. Inoltre si da la
possibilità di avere un proprio indirizzo di posta elettronica.
Il portale più diffuso è Yahoo, fondato nel 1994 da Jerry Yang e David Filo.
Il motivo di questa abbondanza di offerte è convincere gli utenti a fare di questi siti la pagina
iniziale, per suggerire itinerari ulteriori abbondantemente sponsorizzati. Il tentativo è quello di
ritagliare all’interno degli utenti di Interet un’ampia nicchia unita da interessi omogenei e da un
profilo interessante per la pubblicità. Si cerca inoltre di capire chi sono i visitatori spesso
richiedendo la registrazione al sito in modo che il visitatore fornisce consensualmente informazioni
su di se.
Spesso succede che il percorso dei nostri itinerari la scelta di pagine e siti, dice molto su chi siamo
e sui nostri gusti, e qualcuno in questo modo può tracciare il nostro profilo di possibile cliente.
Sono utilizzazione dei dati, a fine pubblicitario, illecite, che è difficile arrestare.
Allo stesso tempo ha fatto la sua comparsa in Internet bla comunicazione di impresa. Il “banner”
(“striscione”), reclamizza una determinata merce come un cartellone stradale, ma a differenza di
esso può essere ciccato conducendoci nel sito di chi produce o vende quella merce, è una forma
di pubblicità esplicita, così come lo sono i “pop up”, riquadri non richiesti che si aprono
suggerendoci comportamenti di consumo e che sono anche essi ciccabili.
Ci sono però ance forma implicite di pubblicità redazionale,cioè travestita da informazione neutra.
Un’altra pratica riguarda i link, spesso sponsorizzati.
Dalla rete però ci si aspetta qualcosa di più interattivo e meno unidirezionale, e per questo
rispetto al portale si sono affermati con maggior successo i motore di ricerca come Google (che da
comunque spazio a contenuti sponsorizzati).
4.8 La posta elettronica
Inviando un messaggio di posta elettronica a un interlocutore, tramite un programma di posta
elettronica (Outlook Express, Eudora, Thunderbird) esso viene recapitato al server del destinatario
che lo conserva finchè non lo scarica sul proprio computer. E’ quindi un tipo di comunicazione
asincrona, che permette una risposta in tempo differito. Si può inoltre mandare lo stesso
messaggio a più di un destinatario, e si possono mandare messaggi per conoscenza (cc,carbon
copy) oppure in forma nascosta (bcc,blind carbon copy).Questa grande ridondanza comunicativa,
l’abitudine di inviare tutto a tutti, può diventare eccessiva.
21
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
La posta elettronica rappresenta un canale meno formale della posta via terra. Nella mail ci
possono essere più facilmente abbreviazioni e errori di ortografia, spesso neanche ci si firma,
ritenendosi identificati dall’indirizzo di mittente. Le pubbliche amministrazioni hanno introdotto
anche la “firma elettronica”. La posta elettronica inoltre rappresenta una comunicazione più
informale e meno impegnativa, anche perché non richiede un’immediatezza nella risposta, e
quindi nel dare ad esempio giustificazioni per l’assenza a una riunione si può essere più vaghi,
quindi la mail nasconde meglio le intenzione di chi parla anche rispetto alla conversazione
telefonica. La mail implica un impegno limitato, una partecipazione condizionata.
Il fatto di avere più indirizzi ( uno lavorativo, uno personale, uno per casa ecc) e di assegnare ad
ognuno una parte limitata della nostra personalità, rappresenta una moltiplicazione di se stessi.
Ciò ribadisce la collocazione della posta elettronica nella sfera privata.
4.9 Libertà e abuso
Internet rappresenta dunque un’espansione della libertà e della sfera privata, ma anche un luogo
dove si possono compiere abusi e reati. Si è rafforzato il diritto alla comunicazione e la libertà di
esprimere il proprio pensiero. Tuttavia si divulgano anche contenuti come la pornografia, sia a
livello di diffusione di foto e video, sia a livello di incontro tra domanda e offerta. La pedofilia
continua a fare uso di questa possibilità. Il fanatismo politico estremista e il terrorismo si
avvalgono di Internet per siti propagandistici, per la loro comunicazione interna (criptata) e per le
rivendicazioni di attentati.. Ci sono poi una serie di frodi e truffe, derivate anche dalla possibilità di
pagare con carta di credito, e l’uso di fintemail truffaldine da parte della banca che richiedono il
numero della carta di credito, pin e altre informazioni personali. Questa tecnica, detta “phishing”,
può comprendere il collegamento a un sito falso uguale a un sito ufficiale di una banca nel quale
gli ingenui immettono informazioni molto riservate.
4.10 Il divario digitale
Internet non arriva dappertutto e a tutti. L’insieme delle disuguaglianze che frenano l’accesso a
Internet e in generale alle nuove tecnologie dell’informazione è chiamato digital divide.
Nella prima fase si pensa che Internet avrebbe ridotto le disuguaglianze. Verso il 1999 si comincia
a pensare che Internet non solo non abbatte le disuguaglianze ma potrebbe aggravarle, dato che
chi si trova in condizioni sociali migliori proprio con Internet può crescere ancora. Anche la
conoscenza dell’inglese è una discriminante.
A livello internazionale, la cittadinanza di un paese del primo mondo appare la condizione che
favorisce l’accesso. A livello sociale, le variabili più incidenti sono il genere, l’età, l’istruzione, la
regione geografica, la residenza in zone urbane o rurali, montane, insulari e isolate. E ancora il
reddito, l’etnia, la condizione familiare e lavorativa.
A parità di reddito e condizioni alcuni paesi si muovono meglio degli altri, e cio suggerisce che il
digital divide dipende anche dalle politiche dei vari Stati, ovvero la governance di Internet. Anche
le tariffe per le telecomunicazioni sono un prerequisito, quindi i paesi che hanno ammesso la
concorrenza fra gli operatori hanno un livello maggiore di penetrazione. Anche se inoltre potrebbe
sembrare che la diffusione di Internet coincida con la democrazia politica, in realtà il caso della
Cina dimostra che non è così. In questi casi i regimi autoritari in forte sviluppo economico sono
interessati alla diffusione di Internet per rafforzare la loro presenza sui mercati. Nello stesso
tempo si temono gli effetti politici dell’esposizione della popolazione a contenuti democratici e
antigovernativi che circolano sulla rete.
22
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Così la vertenza tra Google e il governo cinese si è conclusa con l’accettazione di un filtro
governativo sul motore di ricerca. Google ha preferito subire questa limitazione che precludersi il
promettente mercato cinese.
23
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
PARTE II:
- FORMATI E PRATICHE SOCIALI DEI MEDIA DIGITALI CAPITOLO 5
- GIOCARE E VIDEOGIOCARE 5.1 Dal computer al videogioco
Nell’informatica è sempre esistita una componente ludica. Negli anni 70 le componenti
elettroniche si miniaturizzano e permettono di creare giochi destinati non più solo alle sale giochi
ma ai singoli giocatori. Abbiamo già ricordato Computer Space e Pong di Bushnell (1971-72). Nel
75 Atari lancia la console Home Pong, dal design rudimentale ma di gran fascino. Nel 1978
compare nelle sale gioco Space Invaders della giapponese Taito, antesignano di tutti i giochi in cui
lo scopo fondamentale è sparare al nemico. Poco dopo appare anche nelle case dotate di console
Pacman (1980): ci si nutre di pastiglie che danno energia dentro un labirinto insidioso.
Nel 1983 la società giapponese Nintendo lancia un nuovo personaggio, l’idraulico italiano Mario
( poi SuperMario), grintoso e furbo, pronto a superare tutti i trabocchetti che la vita/videogioco gli
propone. Mario entrerà in tutte le case grazie anche al suo aspetto pulito e domestico, ed è il
definitivo lancio della console, anche attraverso la sua console portatile GameBoy (1989), fino
all’arrivo della Sony PlayStation (1994), contrastata dal GameCube di Nintendo (2001) e da Xbox di
Microsoft. Nintendo introduce anche il joypad, il controller con la croce direzionale.
I videogiochi hanno trainato le vendite dei primi personal. Tuttavia il computer ha dovuto
contendersi lo spazio con la console, anche perché dotata di una dimensione portatile che
permetterà di giocare sul palmare o sul cellulare. A sua volta, la console di casa cerca di diventare
un medium di intrattenimento, dotandosi della possibilità di collegarsi ad Internet e di riprodurre
cd e dvd. Oggi Sony, Nintendo e Microsoft sono gli unici produttori di console e controllano anche
l’edizioni dei giochi, create da software house.
Si è stabilita così una netta divisione. Sono migrati verso le console collegate al televisore e verso
quelle portatili i giochi nei quali c’è una forte componente manipolativa (sparare,
correre,saltare,guidare ecc)e in cui si può giocare con un amico. Il computer invece rimane la sede
privilegiata per i giochi in cui la componente privilegiata è la strategia, si gioca da soli o contro il
computer, emulando giochi esistenti (bridge, scacchi,ecc), o in giochi di simulazione più complessi,
giochi di ruolo. Con Internet ci si confronta con compagni di gioco lontani,spesso mai visti.
Il successo dei videogiochi è dovuto alla loro generosa offerta di interattività e di realtà virtuale,
compresa la sua versione “immersiva”: la totale simulazione di uno spazio nel quale il giocatore,
non più spettatore, viene incluso.
5.2 Giochi di azione, di strategia, e di abilità
La grande varietà di giochi ha trovato con il computer una grande congenialità, forse per la
capacità di riprodurre quella casualità che il gioco spesso presuppone.
La bravura infatti sta spesso nell’ammortizzare il caso negativo, nel fugare nelle possibilità, nel
desiderio di illudersi che la vittoria nel gioco significhi qualcosa nella vita. Nel gioco di azione
inoltre conta la destrezza nell’interagire efficacemente con ciò che lo schermo rappresenta. Anche
la dimensione tattile della manipolazione dei bottoni contribuisce al piacere del gioco.
24
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Con Internet si apre la possibilità di trovare sulla rete persone con interessi simili disposte a
giocare con noi. Il videogioco, soprattutto nell’ambito dei giochi di ruolo, ha dato vita a comunità
riunite intorno a una particolare pratica di gioco, con tutto il contorno di discussioni, assunzioni di
identità particolari da parte dei giocatori, vere realtà virtuali.
5.3 I giochi di ruolo
Nei giochi di ruolo (Rpg, Role-Playng Game) ciascuno dei giocatori assume una particolare identità
all’interno di un sistema di regole. Nel quadro fornito dalle regole e determinato dal caso ciascuno
dei partecipanti esercita proprie strategie, collegate alla sua personalità, per affermarsi
akk0interno di un’ambientazione ricca e articolata in un mondo virtuale o simulato.
In Internet si è diffusa la proposta di luoghi virtuali, spesso trasportati in tempi lontani, in cui
ciascun giocatore sceglie per se il ruolo modellando il proprio personaggio. Le regole definiscono
lo scopo del gioco e cosa bisogna fare per vincere e per perdere. Si entra nel gioco generalmente
in forma gratuita, e si costituisce progressivamente il proprio personaggio anche attraverso esborsi
di denaro (tramite carta di credito) per acquistare le attrezzature necessarie (es armi, casa) per
affermarsi. Questo personaggio viene in genere definito “avatar”. Alcuni dei personaggi invece non
sono avatar ma vere “comparse” create dagli amministratori del gioco
Una volta all’interno, lo svolgimento del gioco coinvolge i giocatori (sia in modo sincrono che
asincrono) che possono essere anche molto numerosi, quindi si interagisce spesso con personaggi
sconosciuti. Un’assiduità nel frequentare l’ambiente è indispensabile per trarre piacere dal gioco.
Molti giochi si basano su misticismo e spiritualità, con una coesistenza di esseri mortali e divinità.
I giochi che raggiungono una complessità di rimandi tra realtà e virtualità sono detti Mud, Multi
User Dungeon. ( dove Dungeon sta per “torrione”): Il medioevo è l’ambientazione ideale per un
misticismo dai toni gotici, misto di umani, maghi e santoni, figure fantastiche , oggetti magici. Ogni
personaggio segue un percorso iniziatici per diventare anche esso, dopo anni assidui di gioco, una
divinità. Il giocatore anziano (quest) proporrà a questo punto sfide e tornei (quest) per gli altri
partecipanti.Dai Mud il passo successivo è il Mmog (Massively Multiplayer Ondine Game) in cui
migliaia di giocatori si affrontano sulla stessa piattaforma contemporaneamente.
Altri giochi portano avanti un’imitazione virtuale della vita metropolitana contemporanea. The
Sims porta il giocatore ad abitare in una città virtuale e iperrealista e a gestire relazioni amicali,
familiari e di lavoro; i personaggi non sono eroi ma persone comuni, anche se ognuno sceglie la
sua skin, ovvero il suo aspetto e i suoi vestiti, oltre ad altri dettagli. Nel gioco si può aprire
un’attività commerciale,avere dei dipendenti comprare e vendere. E’ un gioco esistenziale, non
bisogna corree per affermarsi, l’obiettivo è trascorrere bene il tempo e cercare la felicità.
Questi principi sono ancora più evidenti in Second Life, creato nel 2003 dalla Linden Lab. I
partecipanti sono dei “residenti” che acquistano il terreno per costruirsi una casa in questa nuova
nazione di cui acquistano la cittadinanza. Le regole sono molto elastiche, gli abitanti possono
aggiungere e modificare contenuti grafici e audiovisivi. Tutti queti aspetti alla base del gioco sono
presenti nella cultura popolare americana.
Le vicende dei personaggi si svolgono in un mondo simulato, con gerarchie complesse, con città
virtuali dotate di più svariati servizi (a pagamento), dallo psichiatra all’arredatore, e i personaggi
stessi possono farsi pagare per prestazioni e consulenze. Diversamente da altri giochi in Second
Life ogni avatar corrisponde a un reale giocatore, e le loro interazioni sono dunque incontri virtuali
tra esseri umani ( i residenti sarebbero già 5 milioni provenienti da tutto il mondo).
25
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
5.4 Dal videogioco al film ( e viceversa)
L’ambientazione tridimensionale dei videogiochi appartiene, da un punto di vista tecnologico, alla
stessa postproduzione digitale del cinema, dei cartoni animati e tv. La condizione dello spettatore
cinematografico è sempre più intrecciata con quella del giocatore. Si assiste sempre più spesso a
un videogioco che diventa film e a un film che diventa videogioco. Le ambientazioni immersive in
particolare possono essere comuni ai due media. Il videogioco cerca di incorporare la narratività
propria del cinema, che a sua volta fa i conti con una giovane generazione di potenziali spettatori
sempre più segnati dall’estetica e dal ritmo dei videogame. , con una complessa catena di
merchandising legata alla saga mediale, e con una crossmedialità per cui dalla stessa idea
scaturiscono videoclip e film, videogiochi, passaggi televisivi, libri e oggetti. Jurassik Park e Indiana
Jones da film diventano videogiochi, Resident Hill e Silent Hill da videogiochi diventano film.
Un caso è quello di Lara Croft, inventata nel 1996 per il gioco Tomb Raider che gira su PlayStation,
è un personaggio che modifica l’impostazione prevalente, tutta al maschile, dei videogiochi. In
realtà è un gioco in terza persona: il giocatore non vede con gli occhi di Lara ma vede Lara. La Croft
comunque è un grande successo: la prima serie vende 500.000 copie. In seguito Lara Croft appare
in riviste, posa come modella, nasce una linea di abbigliamento “firmata” da lei, è testimonial della
Nike, e infine due film realizzati su di lei: Tomb Raider e Lara Croft Tomb Raider: The Cradle of Life.
Gli U2 firmano la colonna sonora del film e Lara compare nel loro videoclip. E’ ciò che è stata
chiamata una narrazione transmediale (transmedia storytelling), lo sviluppo di una storia
introdotta attraverso un medium, rilanciata da altri e ampliata da altri ancora.
Lo stretto rapporto tra cinema e videogioco emerge nel momento in cui la struttura del videogioco
si fa più complessa: dal cinema sono mutuate le inquadrature e i movimenti di macchina, i raccordi
narrativi necessari alla compattezza della vicenda, e all’immaginario cinematografico fanno
riferimento i suoi eroi e eroine.
A sua volta il cinema si è ispirato al videogioco ispirandosi alle ambientazioni dei videogame, come
in Tron, Nirvana, eXistenZ e Matrix, ma soprattutto alla ricerca di più livelli, tra i quali si salta in
maniera ipertestuale, come ancora Matrix ma anche Sliding Doors e Amnesia.
______________________________________________________________________
26
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 6
-LA TELEFONIA CELLULARE6.1 Che cos’è e come funziona
La telefonia cellulare fornisce un servizio radiomobile, dividendo il territorio in una rete di celle
esagonali. Alla congiunzione di tre celle è situati un apparato radio ricetrasmittente . Questo
apparato capta le telefonate provenienti dai cellulari che si trovano nel suo territorio e le inoltra a
una stazione di controllo centrale ( Bsc, Base Station Controller), che le indirizza a destinazione e
memorizza tutti i dati delle telefonate: questa operazione, necessaria per la tariffazione, è il punto
delicato per la questione della privacy.
Se l’utente è in movimento, ad es in treno, la comunicazione si sposta da una cella all’altra, senza
che ci siano interferenze, in quanto la potenza dei trasmettitori è molto bassa. Il sistema funziona
anche in presenza di operatori telefonici differenti, grazie al roaming ( la possibilità per un
operatore telefonico di avvalersi, a pagamento, di un segmento della rete di un altro).
La telefonia cellulare è nata dopo la seconda guerra mondiale nei Laboratori Bell, ma ha proceduto
lentamente perché gli operatori di telefonia fissa non erano intenzionati a fare concorrenza a se
stessi. Le tecnologie radiomobili erano pensate per particolari esigenze: forze dell’ordine, militari,
luoghi irraggiungibili dal filo telefonico, qualche vip. Solo negli anni 80 si sono create le condizioni
per la tecnologia cellulare: la competizione tra gli operatori di telecomunicazione, la domanda di
reperibilità, la disponibilità di microprocessori, la saturazione delle frequenze tradizionali che
richiedeva un migliore uso dello spettro elettromagnetico e quindi il passaggio al digitale. Nessuno
prevedeva però che un oggetto di lusso sarebbe diventato un bene di largo consumo.
6.2 Trasformazioni della reperibilità
La vita metropolitana comporta continui spostamenti e una minore reperibilità, e il poter essere
rintracciato ogni momento, oppure controllare continuamente la reperibilità di una persona cara,
sono nevrosi della contemporaneità.
Una prima esperienza di telecomunicazione mobile è stata il pager (Teledrin in Italia): un servizio
unidirezionale analogico, che avvisa se qualcuno ci sta cercando, e nelle versioni più evolute
mostra su un display il numero del chiamante. Il pager può solo ricevere e non permette la
conversazione. Introdotto negli anni 60, fu particolarmente usato dai medici per essere sempre
reperibili. Il suo servizio fu però cessato alla fine del 2005 insieme al cellulare analogico, e fu
soppiantato dai telefono cellulari.
Servizi sperimentali di telefonia cellulare iniziarono nel 1979 in Giappone e a Chicago. La
procedura per attribuire le licenze per la telefonia mobile cominciò negli Usa nel 1981. Nel 1983 la
Motorola lancia il primo telefono portatile di serie, il DynaTac 800: 3995 dollari, 800 grammi, 35
minuti di autonomia, 10 ore di ricarica, soprannome “il mattone” (brick) . La risposta dei
consumatori fu lenta, per i costi elevati. In Europa la telefonia cellulare arriva nel 1986.
6.3 La via italiana al cellulare
In Italia il servizio radiomobile venne introdotto dalla Sip nel 1973 e progredì lentamente, per i
costi elevati e la copertura insufficiente. Il cellulare arriva nel 1990.
Erano cellulari analogici detti TACS, i migliori erano i Motorola MicroTAC. Piccoli e leggeri, si
aprivano in due parti come una conchiglia (clamshell, o flip phone), ma c’erano anche molti Nec:
non entravano in tasca,pesanti, scomodi. I prezzi erano da capogiro, vero status symbol per ricchi.
27
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Nel 1991 viene lanciato in tutta Europa il GSM (Global Sistem for Mobile Communication), un
sistema di telefonia mobile digitale che sostituirà i vari sistemi analogici. L’adozione di un’unica
rete per tutti i cittadini dell’Unione Europea avrebbe permesso di spostarsi da un paese all’altro
senza dover cambiare telefono. Il sistema digitale inoltre, consente non solo di trasferire la voce
ma anche di spedire e ricevere messaggi di testo (sms), ma anche supportare altri servizi come la
scelta di suonerie polifoniche personalizzate ecc.
Dentro ogni telefono digitale c’è una SIM (Subscriber Identity Module) card. E’ una memoria
estraibile di minuscole dimensioni, a cui si accede con un codice personalizzato pin. Nella SIM card
ci sono i dati dell’utente
In Italia, la prima fase sperimentale del GSM parte alla fine del 1992, nel mezzo della
trasformazione della Sip in Telecom Italia, ma procede con lentezza : il servizio commerciale
inizierà nell’Aprile 1995. Nel 93 viene emanato il,bando di gara per l’assegnazione da parte dello
Stato della concessione per un secondo gestore privato di telefonia mobile GSM: la gara viene
vinta dalla società Omnitel Pronto Italia (gruppo Olivetti). Intanto Telecom scorpora Tim
mantenendone la proprietà (1995), mentre Omnitel inizia il suo servizio nel 1996, e si affermerà
rapidamente gestendo più del 35% dei telefonini italiani.
Intanto la diffusione dei telefonini procede in maniera esponenziale. Da 1,2 milioni nel 93
diventeranno 11,7 milioni nel 97. Il sorpasso sulle linee fisse avviene nel 2000 e nel 2007 ci sono
più cellulari che abitanti!
Nel 1993 il cellulare finisce di essere un bene di fascia alta: Telecom lancia un piano di
abbonamenti “family” a costi ridotti. Con l’arrivo del GSM si diffondono le carte prepagate: linee
telefoniche che si ottengono dal negozio e si pagano secondo il consumo con una carta che si
gratta e si compra dal tabaccaio. Pian piano si stanno diffondendo anche le seconde e le terze
linee, ognuno ha un cellulare personale e uno per l’ufficio, si usa una diversa SIM a seconda del
gestore del telefono da chiamare ecc.
Il maggior traffico satura le frequenze: nel 97 viene aggiunta la frequenza a 1800 mhz e nascono i
telefoni dual band. Con questa ulteriore disponibilità di frequenze viene attribuita nel 99 una terza
concessione GSM a Wind. Nel 1999 Olivetti acquisisce Telecom Italia e deve cedere Omnitel e
Infostrada alla scocietà tedesca Mannesmann. Omnitel esce così di scena. Nel 2001 Mannesmann
vende a sua volta al gruppo inglese Vodafone, multinazionale della telefonia.
Una quarta concessione viene attribuita nel 99 a Blu che però non decollerà. Il parco clienti e parte
della rete sarà venduta nel 2002 Wind. L’avvento dell’UMTS vede così in Italia, attorno al 2002,
una situazione matura: tre gestori di telefonia mobile, di cui uno pubblico e molto forte anche
all’estero, TIM,con oltre la metà dei contratti, e due privati, Vodafone e Wind, controllati da
multinazionali e che detengono rispettivamente il 35% e 15% del mercato.
6.4 Usi e pratiche del cellulare
Quindi il cellulare tra il 93 e il 2000 diventa una pratica di massa. Diventa un oggetto che rispecchia
la nostra personalità, una protesi del nostro corpo. Anche con il cellulare riusciamo a creare una
“bolla comunicazionale” (di cui parla Flichy nel 91, relativamente all’uso itinerante di alcuni
apparecchi come anche il walkman all’interno di uno spazio pubblico) e alla sua capacità di
“permettere contemporaneamente il ripiegamento sul sé e la gestione di alcune interazioni sociali
con la gente che sta intorno”. Si tende a una privatizzazione dello spazio pubblico (con il cellulare
ci ritagliamo uno spazio per noi anche in uno spazio affollato) e a una pubblicizzazione dello spazio
privato ( spesso agito ed esibito in mezzo agli altri).
28
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Il telefono è anche diventato uno strumento di localizzazione per incontrarsi con il nostro
interlocutore. Il telefono inoltre è sempre personale e legato alla persona specifica.
Rispetto al telefono fiso inoltre ci possono essere interferenze che possono non permettere la
conversazione, ci può essere “poco campo”, oppure possiamo trovarci in un contesto non adatto
per parlare, ci possono essere rumori che disturbano la conversazione. Inoltre il cellulare dichiara
sempre il nome della persona che chiama,ma possiamo non svelare la nostra identità, possiamo
fare uno squillo per far capire qualcosa di precedentemente concordato al nostro interlocutore. La
chiamata al cellulare inoltre è raramente conclusiva: la conversazione è sempre rinviata a quando
si potrà parlare più tranquillamente . Il cellulare inoltre permette di fare più cose insieme (es
guidare), di riempire i tempi morti .
6.5 Sms, il cellulare per scrivere
Lo standard GSM permette l’invio di sms (short message service), brevi messaggi testuali con non
più di 200 caratteri.
Pensati inizialmente come sistema di comunicazione di servizio per gli operatori della telefonia
mobile,diventano rapidamente un fenomeno di costume. Nokia, che ha assunto la guida per la
telefonia cellulare (mentre Motorola quella analogica), ha sviluppato anche il sistema di scrittura
intuitivo T9.
Gli sms rappresentano una forma di comunicazione del tutto nuova: sono asincroni, ovvero non
producono necessariamente una risposta immediata, ma implicitamente comportano l’attesa di
una reazione rapida, imbarazzano meno in determinate situazioni, come per la mail permettono di
prendere decisioni per approssimazioni successive. Gli sms hanno anche una funzione pubblica
( con un sms possiamo mandare a più oersone insieme un invito, fare propaganda elettorale ecc).
Le funzioni dell’sms sono anche altre: possiamo ricevere la conferma di una prenotazione fatta su
Internet, da un po’ di tempo in alcune città si può pagare il biglietto dell’auto, si può votare nelle
trasmissioni televisive, o fare piccoli versamenti in beneficenza.
6.6 Umts
Dopo l’avvento del GSM sono stati introdotti vari standard migliorativi in particolare per la
connessione a Internet, scattare ed inviare foto e brevi video: WAP, (Wireless Application
Protocol); GPRS (General Packet Radio System); EDGE ( Enhanced Data Rates for GSM Evolution).
Un’efficiente e rapida connessione ad Internet e una gestione migliore di video più lunghi sono
state assicurate solo dalla terza generazione dei cellulari, l’UMTS, che ha permesso anche altri
servizi come i messaggi multimediali, contenenti foto, clip audio o video, registrazione e
visualizzazione di video, il download di file musicali, le videotelefonate, la videoconferenza. Esso
ha dato vita ad un ibrido fra cellulare e computer palmare, lo smartphone. Infine l’UMTS converge
con la televisione : non più il semplice streaming di contenuti video dunque, ma un vero servizio
televisivo, anche in diretta, sullo schermo di appositi “tvfonini” (marchio registrato da 3)
attraverso le reti digitali terrestri, grazie allo standard DVB-H. Le trasmissioni tv sui cellulari sono
state introdotte da Samsung in occasione delle Olimpiadi di Atene del 2004.
Con l’UMTS la voce passa in secondo piano e le telefonate vere e proprie non sono più il core
business. In Italia l’UMTS fa la sua comparsa nel 2000, in pieno entusiasmo tecnologico. Nel Luglio
dello stesso anno viene pubblicato il bando per attribuire cinque licenze nazionali UMTS, e vincono
Tim, Vodafone, Wind, Andala e Ipse. Andala ha cambiato proprietario, che ora è il gruppo cinese
Hutchison Whampoa, e il nome cambia subito in H3g. Ipse non parte maie chiude nel 2001.
29
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Hutchison Whampoa nel 2002 lancia il marchio 3 e inizia con gran battage pubblicitarioil servizio di
videochiamata; nel 2004 comincia ad offrire anche programmi tv in streaming video su quello che
è ancora un videofonino.
Gli altri gestori invece si tengono al di fuori della videochiamata e dalla videoconferenza, e
diffidano della tv. Il videotelefono fisso non ebbe successo per motivi sociali, gli utenti non
amavano farsi vedere in situazioni imbarazzanti come in pigiama o con i bigodini! Il contesto del
videofonino è diverso ma il suo successo è stato tiepido, nessun altro gestore dopo 3 lo ha più
adottato. Con i telefonini UMTS si possono anche produrre e distribuire audiovisivi. Con l’UMTS si
possono anche inserire nella programmazione audiovisiva video autoprodotti dagli utenti con i
loro cellulari: 3 ci ha provato ma ha dovuto sospendere il servizio per l’esibizionismo di contenuti
inopportuni.
La tecnologiaUMTS comunque non ha ancora ottenuto uni incontrovertibile successo e non è
usata per tutte le sue potenzialità. In particolare non si conosce quale sia il gradimento effettivo
dei servizi televisivi e della videochiamata
6.7 Wireless, seamless
L’integrazione fisso-mobile è destinata a crescere: il concetto di cui ora si parla è “seamless”, senza
cucitura, ovvero la possibilità di passare indifferentemente da reti fisiche a reti senza filo e
viceversa, senza che l’utente neanche se ne accorga. Spingono in questa direzione le pratiche
sociali e le tecnologie.
La prima tecnologia senza fili dopo il cellulare è stato il Bluetooth, lanciato dalla Ericsson nel 99 per
connettere tra loro senza fili apparati elettronici (computer, microfoni, cellulari e periferiche) e
scambiarsi informazioni. Uno standard dai costi molto ridotti che usa le onde radio, il cui segnale
copre però solo un raggio di pochi metri in ambienti chiusi.
Nel 2002 è invece nato il Wi-Fi, una tecnologia di rete senza fili che arriva a qualche decina di metri
e utilizza frequenze libere e gratuitamente disponibili. Serve per connettere senza fili apparati
elettronici nelle diverse stanze di una casa o ufficio a costi molto ridotti, ma è stato convertito
nella fornitura di accessi a Internet per computer, cellulari o palmari che si trovino in prossimità di
un access point, che può essere anche pubblico (hotspot). Quest’ultimi possono essere gratuiti o a
pagamento, e sono diffusi in aeroporti, alberghi, biblioteche, parchi pubblici, e anche esercizi
commerciali (come McDonald). Nel 2004 è stato introdotto il WiMax, una tecnologia senza fili che
ha un’estensione da 30 a 50 km a vista. Non è però ancora pienamente maturo e in Italia le
frequenze necessarie (3,4-3,6 GHz) sono detenute dalle forze armate che a fatica hanno
acconsentito a cederle. Quando sarà operativo il WiMax farà concorrenza all’adsl in cavo.
Una variante del WiMax è il WiBro sviluppato da costruttori coreani e sperimentato insieme a
Telecom durante le Olimpiadi di Torino 2006, con un raggio di 120 km, anche in mobilità. Tra
pochi anni potrebbero attenuarsi le differenze tra le varie reti di trasmissione fisse e mobili, con
un’interoperabilità quasi totale.
___________________________________
30
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 7
-I MEDIA SONORI DIGITALI7.1 Quando i media diventano digitali
Ci sono molti vantaggi nel passaggio al digitale.
Il primo vantaggio è a livello della produzione, che avviene sempre al computer. La
rappresentazione numerica semplifica e potenzia la produzione e il trattamento dei dati.
I media digitali sono inoltre modulari, si compongono cioè di parti indipendenti e standardizzate,
che possono facilmente essere cancellate o sostituite. Possiamo incollare dentro un documento
scritto un’immagine o un video. I vari contenuti, essendo tutti digitalizzati, sono trasferibili da
un’applicazione all’altra, da un database all’altro, da un formato all’altro, indipendentemente che
si tratti di un testo, di un’immagine fisa o in movimento, di un suono (transcodifica).
La produzione è facilitata anche perché possono essere automatizzate molte operazioni di
creazione, manipolazione e archiviazione. Il controllo ortograficodi un testo può segnalare
automaticamente gli errori di ortografia e correggerli, i programmi di acquisizione audio e video
possono filtrare automaticamente i disturbi o regolare la messa a fuoco.
Altri vantaggi si collocano a livello della conservazione di dati all’interno di memorie sempre più
capienti.
La riproduzione dei contenuti in un numero infinito di esemplari, senza mai perdere nulla della
qualità originaria, fa si che il concetto di originale e copia ne esca stravolto. La loro natura digitale
permette infine la loro diffusione in tempo reale attraverso Internet. I media digitali sono inoltre
soggetti a una grande variabilità.
In definitiva i vantaggi dei media digitali sono: codifica numerica; modularità dei contenuti;
automazione, transcodifica; archiviazione semplificata e indicizzata; riproduzione illimitata;
trasporto in tempo reale; variabilità.
7.2 La musica digitale
Per “suono digitale” si intende qualsiasi brano musicale, o sequenza di suoni, rumori, voci, che sia
convertito in forma numerica. La “musica elettronica” invece è quella creata utilizzando
strumentazioni elettroniche (come i sintetizzatori e i computer). La conversione del suono in
digitale si fonda su un processo di campionamento dell’onda sonora attraverso una funzione
matematica. La funzione può essere segmentata in frammenti abbastanza piccoli da poter esser
considerati singoli punti, ciascuno dei quali identificato dai suoi valori su un asse cartesiano ed è
rappresentabile attraverso i numeri.
La successione di questi valori (la frequenza di campionamento) misura l’efficienza della nostra
trascrizione: più è breve l’intervallo tra una campionatura e l’altra, più la digitalizzazione è
accurata. L’acquisizione digitale del suono avviene nel computer attraverso una scheda di
acquisizione sonora, presente ormai all’origine nei PC.
7.3 La pratica di massa della musica digitale
La diffusione della musica digitale coincide con quella di Internet. Nel 91 grazie al software
QuickTime è possibile eseguire un file audio digitale su un Macintosh della Apple. Nel 95 viene
presentato il formato mp3.
31
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Nello stesso anno nel pacchetto Windows è compreso Windows Media Player, per eseguire un file
audio su un Ibm compatibile. Nello stesso anno nasce RealAudio, il più noto e diffuso software per
lo streaming.
“Streaming” significa riprodurre un file audio (e in seguito video) prima che sia stato
completamente scaricato. Lo streaming permette di ascoltare quasi subito il file, appena trascorso
il tempo di scaricamento di una prima porzione di brano.
Quando si diffonde Internet mp3 si afferma come formato principale per la compressione dei file
audio. La diffusione del suono attraverso la rete trasformerà drasticamente la distribuzione e la
cultura della musica. I software per lo streaming e la diffusione del suono esprimono il desiderio
sociale di costituire Internet come medium totale, un metamedium che acquisendo linguaggi
sonori e audiovisivi si dota di capacità di comunicazione e scambio, grazie alla sua natura
“anarchica” e sottratta alle regole del mercato. Le conseguenze sono che:
1 Chiunque può divenire un broadcaster audio, un emittente, sia di musica registrata che dal vivo,
compresa quella creata in proprio. Tra emittente e ascoltatore si crea infatti un rapporto p2p.
2 Le stazioni radiofoniche possono trasmettere in webcast (cioè attraverso la rete), aggirando così
i limiti di spazio e tempo nonché determinate forme di controllo e di censura.
Lo streaming indebolisce il monopolio dell’industria radiofonica con la sua possibilità di
trasmettere dal vivo.
7.4 Web radio
Dalla metà degli anni 90 in poi hanno cominciato a nascere, prima negli Usa poi ovunque,
emittenti radiofoniche che trasmettono in rete. Le web radio si dividono in quattro tipologie:
1 Siti web di stazioni radiofoniche via etere già esistenti. Siti che ripetono il contenuto audio già
trasmesso via etere
2 Emittenti esclusivamente via web , senza antenna e senza segnale via etere, che possono così
evitare i principali ostacoli alla creazione di emittenti via etere. Gli ostacoli sono relativi alle licenze,
alla burocrazia, politici.
3 Radio tematiche, molti portali web alla fine del secolo scorso, offrivano numerose rassegne di
musica tematica, vennero decimate dal 2000 con l’inizio dello scambio della musica in rete.
4 Siti Internet, che occasionalmente, ad esempio in caso di appuntamenti musicali o politici
importanti, permettono lo streaming della “diretta” dell’evento.
Il fenomeno della web radio non ha rappresentato una svolta così importante. Innanzitutto si deve
per forza avere una connessione veloce e un computer potente per usufruirne. Si ripropone quindi
la questione del digital divide .Inoltre il pubblico è molto minore rispetto a quello della radio
tradizionale.
Inoltre, al contrario della tv, la radio per digitalizzarsi deve per forza “appoggiarsi” ad Internet, che
è ancora prevalentemente una tecnologia “statica”. Questo far venir meno proprio quella che è la
caratteristica della radio: ovvero il suo essere un mezzo mobile, che ci accompagna quando siamo
in movimento.
7.5 Musica gratis
Uno dei limiti delle web radio è quindi rappresentato dal “filesharing”, cioè la condivisione di file
musicali attraverso siti Internet. Il filesharing tradizionale è un’attività gratuita P2P, che poi è stata
trasformata in una transazione commerciale. Usa prevalentemente lo standard mp3 e un nuovo
hardware personale e portatile: il lettore mp3.
32
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Napster, il primo sito per lo scambio di musica in filesharing, appare nell’autunno 1999 creato da
Shaw Fanning.
E’ una transazione p2p tra privati, senza l’intervento di un server. La Riaa nel 99 gli fa causa per
infrazione dei diritti del copyright. Le pratiche di filesharing gratuito diminuirono, anche per
l’arrivo di nuovi attori come iPod e iTunes di Apple. Quindi l’età dell’oro della musica gratis va dal
95 al 2000 e trova in Napster la sua metafora.
Con la diffusione dello straming e del filesharing la musica perde il conatto con un supporto
materiale, che l’aveva accompagnata nel 900. La musica diventa sempre più un’arte riprodotta,
registrata, accessibile a tutti, e il suo consumo si sposta sempre più dai luoghi pubblici a quelli
domestici e infine negli spazi aperti grazie a radio e walkman.
Con lo streaming e il filesharing la differenza tra musica istantanea ( quella in diretta, trasmessa
dalle radio,quindi effimera, non registrabile, caratteristiche della musica dal vivo) e permanente
(quella delle collezioni di dischi, la musica dentro casa, istantanea) viene ridefinita. La musica
rinuncia a un supporto materiale, si rivela di nuovo immateriale, come nell’arte dal vivo, ma può
adesso essere riprodotta, scambiata, trasportata, infrangendo i confini della prigione di casa.
7.6 L’iPod e il “Digital Rights Management”
Mentre Napster chiude, nell’ottobre 2001 Apple Computer lancia l’iPod, un sofisticato lettore
audio e video portatile, compatibile con più standard (non solo mp3), dal design elegante, e su un
potente disco fisso. Sarà un gran successo che lo renderà l’erede del walkman della Sony.
Con la sua ampia memoria, l’iPod consente di immettere 20.000 canzoni nelle sue versioni recenti
(25000 foto e 100 h di video), ha un display a colori e serve anche da videogame portatile. La
versione più economica può contenere 240 canzoni. Dal 2004 può contenere anche foto e dal
2005 video.
L’iPod porta con se una nuova idea dei rapporti tra i detentori dei diritti sulla musica e e i diritto
dei consumatori. Apple afferma di perseguire una terza via tra le crociate dei discografici contro la
pirateria e la musica gratuita di Napster, quella del prezzo equo:realizza accordi con le cae
discografiche spuntando condizioni ,migliori (99 cent per una canzone) e inaugura il lancio di
iTunes Music Stores. Attraverso il software iTunes, distribuito gratuitamente da Apple, l’iPod
collegato al computer entra nel sito di iTunes in cui è possibile scaricare musica pagando con carta
di credito a prezzi più ragionevoli.
7.7 Il podcasting
Pagare per la musica è la premessa del “podcasting”, ovvero una forma di distribuzione di
contenuti audio che si possono ricevere periodicamente , previa abbonamento,sul proprio
computer iscrivendosi a una lista di distribuzione, grazie a speciali software chiamati “feed”. Dopo
aver scaricato i brani sul proprio pc, si possono copiare, modificare, passare all’iPod o a un altro
lettore. Introduce quindi una forma intermedia tra radio (che offre in forma ripetuta) , e il
download di un singolo brano da un sito, consentendo l’aggregazione dei contenuti musicali in una
playlist e una maggiore fidelizzazione degli utenti. Le stesse stazioni radiofoniche passano al
podcasting per seguire le tendenze correnti e aggirare i limiti spaziali e temporali: il podcasting
permette di estendersi oltre la copertura delle antenne e i tempi di programmazione. E’ un mezzo
per ampliare l’audience e favorirne la fidelizzazioone.
Attraverso l’Ipod e l’mp3 gli ascoltatori possono combinare l’ascolto musicale e io consumo in
differita di programmi radiofonici, fruendone in modalità mobile.
33
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Emerge la componente manipolativa, la possibilità di scegliere musica in modo interattivo e il
gusto di produrre la propria colonna sonora.
7.8 Vivere in cuffia
L’iPod è il vero erede delle esplorazioni urbane del walkmann, mentre la radio via Interet è
fortemente statica, radicata all’ambiente domestico. Ancora una volta l’apparecchio musicale non
offre più soltanto l’ambiente sonoro , ma crea nuove connessioni tra il corpo e la musica. Per il
walkman si era parlato di una “bolla comunicazionela” che isola il ragazzo con le cuffie
dall’ambiente urbano, di una sfera privata che egli si porta dietro mentre attraversa òla sfera
pubblica, con un rimescolamento continuo, il messaggio che egli manda è che la sua appartenenza
alla società non è una resa senza condizioni, che lui continua a portarsi dietro la sua cultura. Con
l’iPod, come con il telefonino, questa tendenza si accentua.
________________________________________________________________________________
34
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 8
- LA FOTOGRAFIA DIGITALE8.1 L’immagine digitale
Un’immagine digitale i può ottenere o realizzandola direttamente in digitale, oppure convertendo
in digitale un’immagine tradizionale, analogica, attraverso uno scanner. In entrambe i casi
l’immagine digitale può essere archiviata, modificata, inviata attraverso le reti di
telecomunicazioni, senza aver mai bisogno di stamparla e fissarla su un supporto materiale. Oggi
lo scanner è la periferica da collegare al computer su cui applichiamo la foto, il disegno, , la pagina
di un libro, il negativo fotografico ecc, da digitalizzare su un vetro, sotto al quale un sistema ottico
di scansione esplora linea dopo linea tutta la superficie da acquistare, salvata poi sul computer
come file grafico. Lo scanner può acquisire anche dei testi e poi attraverso un software OCR
trasformarli in file di testo come Word.
Per realizzare invece un’immagine direttamente in digitale ci sono due possibilità: disegnarla al
computer con un file grafico; oppure servirsi di una macchina fotografica digitale: un dispositivo
ottico, dotato di un obiettivo e un microchip interno, collegabile al computer o altri strumenti
come una stampante. La macchina al suo interno non ha più la pellicola fotografica ma dei sensori
fissi che vengono colpiti dalla luce. Questi rilevano il colore e le caratteristiche di un minuscolo
rettangolo dell’immagine, che è loro assegnato, e lo convertono in degnale digitale. Il risultato è il
pixel. (picture element). Ogni sensore genera i dati di un pixel. L’immagine fotografica è composta
da un grandissimo numero di pixel. I pixel non li vediamo a occhio nudo, tuttavia se ingrandiamo
l’immagine si vedranno tanti rettangolini di diverso colore. La qualità di una macchinette digitale è
data dal numero di pixel che offre ( in genere dai 5 agli 8 megapixel). Si chiama risoluzione il
numero di pixel contenuti in un pollice (PPI, pixel per inch). Più alto è il PPI, più elevata sarà la
qualità della foto.
8.2 Immagine e fotografia
La differenza tra i vari modi di produrre un’immagine digitale è rilevante. Disegnando al computer,
al contrario del disegno e della pittura tradizionale, la rielaborazione è in parte mentale ma in
parte anche tecnica, in quanto si agisce su file digitali di immagini precedenti.
La fotografia digitale , in quanto tale, richiederebbe , come quella tradizionale analogica, la
presenza sul luogo degli eventi del fotografo. In realtà per quanto riguarda la forografia digitale
non sempre è così. Spesso le tecniche di elaborazione e fotoritocco digitale sono così raffinate che
permettono di creare un’immagine che assomiglia in tutto e per tutto a una fotografia ed è
indistinguibile da essa.:una mimèsi di fotografia. . Una foto digitale può dunque essere frutto di
pura invenzione o della rielaborazione di altre immagini. Si parla in questi casi di “immagine
sintetica”. La fotografia digitalizzandosi ha però sicuramente perso nalla sua autorevolezza di
testimone oculare informato sui fatti.
8.3 La fotografia si distacca dalla realtà
Tuttavia fin dall’origine la fotografia si è allontanata dalla realtà. Tecnicamente molti erano i
passaggi che lo consentivano:
a) la messa in posa: una volta era obbligatoria, perché i tempi di esposizione erano lunghi e il
soggetto doveva rimanere immobile.
35
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Quando i tempi di esposizione diventano inferiori al secondo è possibile prendere foto che
come dice la parola stessa sono “istantanee”. Esse hanno un sapore di autenticità, ma
spesso anche queste sono “costruite”, come in un set cinematografico si sceglie
l’inquadratura giusta per dare un maggior effetto di istantaneità.
b) L’esposizione: esponendo successivamente molteplici soggetti nella stessa pellicola si
potevano simulare apparizioni di spettri e fantasmi, oppure produrre veri giochi fotografici;
c) Lo sviluppo: Modificando i tempi, l’illuminazione e i reagenti chimici dello sviluppo in
camera oscura, si potevano modificare le caratteristiche della foto ad esempio rendendola
più o meno “morbida”,sfumata.
d) Il ritocco: con tecniche grafiche, come la matita da ritocco sul negativo o direttamente sulla
copia si potevano cancellare o aggiungere dettegli, eliminare parti della foto, cambiare
l’espressione di un volto ecc.
e) Il montaggio: con tecniche di collage si potevano giustapporre foto, incollare la testa di
qualcuno sul corpo di qualcun altro, ambientare la scena in un luogo diverso da dove era
stata ripresa ecc.
Quindi già in epoca analogica la foto poteva staccarsi dal vero, anche se non sempre dichiarandolo
8.4 I primi passi della fotografia digitale
Soltanto negli anni 80 le tecnologie digitali incontrano il computer come moderna camera oscura e
luogo per la visione, riproduzione, modifica e archiviazione delle immagini.
La prima vera foto digitale è stata probabilmente realizzata nei laboratori Kodak nel 1975: era la
foto in bianco e nero di un’assistente di laboratorio. Ci sono voluti vari anni perché la qualità delle
immagini fosse accettabile. Negli anni 70 mancando ancora il personal computer la ricerca era
concentrata sulla possibilità di memorizzare le fotografie su qualche supporto magnetico e magari
rivederle sul televisore di casa, saltando la fase dello sviluppo della pellicola.
Nel 1888, Eastman aveva lanciato una macchina fotografica molto innovativa anche per il nome,
Kodak, che diventerà il simbolo delle macchine fotografiche semplici ad uso amatoriale, anche di
tipo usa e getta e le polaroid.
Eastman nel 1989 decise anche il formato delle fotografie, 35 mm. Dopo aver scattato un rullo di
100 fotografie si poteva inviare la macchina ai grandi laboratori Kodak che provvedevano allo
sviluppo. L’innovazoone della Kodak però era soprattutto la sua semplicità d’uso, la portabilità e il
prezzo modesto che avvio una dimensione hobbistica della fotografia, alla portata di tutti e fuori
dall’ambito strettamente professionale.
8.5 Diffusione di massa e nuove funzioni della foto digitale
Soltanto a metà degli anni 90 si sono determinate le condizioni per la diffusione della macchina
fotografica digitale.
Essa dispone da subito di un livello di automatismo molto elevato, nascendo in una cultura
elettronica.
Lo scetticismo dei fotografi professionisti nei confronti della foto digitale è stato all’origine molto
accentuato. Al sospetto nei confronti degli automatismi e alla constatazione che la foto digitale
aveva una qualità inferiore rispetto alla “grana” della pellicola si aggiungeva la consapevolezza che
il digitale riduceva l’esclusività delle loro competenze. L’elaborazione digitale delle immagini erano
alla portata di chiunque.
36
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Al contrario ad esempio del telefonino, la macchina fotografica digitale quindi ha iniziato
conquistando, per la sua semplicità e praticità, semplici hobbisti. Solo successivamente, con
l’introduzione di macchine di fascia alta simili alle reflex professionali, la fotografia digitale è
penetrata all’interno della categoria dei fotografi professionisti. Le prime macchine fotografiche
digitali sono comparse nei negozi nei primi anni 90, i prezzi hanno cominciato a scendere nella
seconda metà del decennio, travolgendo prima le macchine analogiche di basso prezzo, poi le altre,
e lasciando spazio infine solo per una ristretta fascia alta, quasi artigianale, di macchine analogiche
professionali.
8.6 Nuove funzioni sociali
Si può dire che le funzioni sociali della fotografia digitale siano collocate in modo diverso dalla
fotografia tradizionale.
Grazie al telefonino (nel 2002 compaiono le prime macchine fotografiche digitali accoppiate ai
telefonini, Casio e Samsung, in Giappone e Corea) milioni di persone hanno sempre una macchina
fotografica con se, possono così dar testimonianza di fatti a cui assistono, possono fotografare
segretamente un soggetto senza che questo se ne accorga, e la foto è immediatamente disponibile.
La gente comune si abitua, nella quotidianità, a fotografare quello che gli capita. Sono tutti
passaggi verso una sempre più larga sostituzione dell’immagine allo scritto, o di un’immagine alla
realtà.
8.7 La fotografia tra pubblico e privato
Quando inizia la produzione industriale della pellicola (1884) la fotografia è ormai un medium,
consolidato, e si discute se la fotografia debba ritenersi un arte, una testimonianza del vero, o
un’attività industriale tecnicamente riprodotta. In realtà è un po’ di tutto questo. Quello che
colpisce è la sua versatilità, la possibilità di portare un contributo a svariati campi della vita
culturale e civile. Essa si trova in forte sintonia con il giornalismo specialmente dopo il 1880,
quando si ha una convergenza della fotografia con la stampa. I giornali si riempiono di foto e si
avrà sempre più uno slittamento di significato dallo scritto all’immagine. La notizia è una
“fotonotizia”: un’immagine con didascalia che spiega e commenta luoghi e e personaggi
rappresentati. Articoli di cronaca, reportage, ma anche la foto scandalistica.
La fotografia occuperà anche altri settori della sfera pubblica: la comunicazione politica ed
elettorale, foto di denuncia e segnaletiche, foto mediche come le radiografie. Ma è anche
strumento di archiviazione di opere d’arte, monumenti,costumi di popli lontani, La foto è
protagonista inoltre della pubblicità, della moda, dello sport.
La fotografia ha però anche però grande rilievo all’interno della vita privata e familiare, in
particolare dopo l’avvento della Kodak e la foto amatoriale. Più che attività comunicaticìva è in
questo caso attività documentaria, estensione della nostra memoria. La foto amatoriale si ha
anche in contesti come le vacanze, i viaggi, ma ancge la guerra.
8.8 Fotografia o post-fotografia?
La fotografia prende si di se l’onere di rappresentare la realtà e svincola la pittura dal realismo
obbligatorio. La foto è la realtà , ,mentre la pittura ci consegna emozioni e sentimenti. La foto a
questo punto deve sacrificare ogni forma di soggettività. Stando a questa concezione, la foto
digitale, con la sua origine sintetica, appare come una “post-fotografia” .
37
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
In realtà la rilevanza della foto digitale sta nel portare all’estreme conseguenze caratteristiche
originali già presenti in questo medium e nella sua riproducibilità tecnica. Dieci anni di immagini
digitali sembrano contenere in forma compressa nello stile del digitale, un secolo e mezzo di
fotografia.
___________________________________________________________
38
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 9
- IL CINEMA DIGITALE9.1 Macchine da presa e telecamere
La telecamera digitale è un perfezionamento della macchina fotografica digitale. Con lo stesso
sistema con cui si scatta una singola foto è possibile registrare una sequenza di fotogrammi: la luce
che l’obiettivo fa entrare nella camera colpisce la superficie sensibile alla luce di un sensore allo
stato solido fatto generalmente di silicio, il CCD. Nelle telecamere di pregio ci sono tre sensori CCD
per ogni colore primario RGB ( Red Green Blue).
I precedenti sistemi per registrare le immagini in movimento sono la macchina da presa del
cinema e la telecamera televisiva. Inoltre esistono due possibilità di creare un’immagine sintetica:
il cartone animato e l’animazione Stop Motion (animazione di manichini di personaggi e animali).
La macchina da presa cinematografica è un dispositivo ottico-meccanico dotato di un obiettivo.
Attraverso le lenti la luce entra , passa nel diaframma e poi arriva all’otturatore, impressionando
una pellicola di celluloide. La sensazione del movimento è data da rapido scorrimento di 24
fotogrammi al secondo.
La telecamera televisiva tradizionale ha anche essa un obiettivo, che convoglia la luce su un
sensore contenuto al duo interno. Un pennello elettronico scansiona l’immagine focalizzata
dall’obiettivo e la converte in un segnale elettrico analogico, il segnale video. Tale segnale,
accoppiato con quello audio, può essere registrato con un videoregistratore e conservato su
videocassetta, oppure messo in onda via etere o altri mezzi come il cavo e il satellite. I fotogrammi
al secondo in televisione sono 25, uno in più rispetto al cinema.
La diversità dei due apparati produce immagini in movimento molto diverse tra loro. Oltre che
nell’inquadratura, la grande differenza è nella definizione, che è data dal numero di punti di cui è
composta un’immagine.
L’immagine televisiva analogica ha una bassa definizione, non paragonabile a quella del film a 35
mm e inferiore anche ai 16 mm, e una gamma di colori meno accurata. Quello che salva
l’immagine televisiva è la ridotta superficie dello schermo dei televisori domestici; infatti se
presentata su uno schermo più grande l’immagine si sgrana. L’immagine cinematografica dà il
meglio di se quando viene proiettata su un grande schermo.
Queste differenze hanno segnato la storia dei due mezzi, contribuendo a stabilire due contratti
spettatoriali. Nelle sale del cinema ci attendiamo un’elevata qualità della visione, cosa che non
pretendiamo dalla televisione.
9.2 Limiti e prospettive della ripresa cinematografica digitale
Le telecamere digitali si sono diffuse alla fine degli anni 80 ed hanno avuto le loro prime
applicazioni in televisione,pubblicità,videoclip. Sono offerte all’interno di una cultura
prevalentemente televisiva, dove veniva impiegata non solo in postproduzione, in quanto veniva
girato tutto in digitale.
Dal mercato professionale televisivo la telecamera digitale ha intrapreso, negli anni 90, la
conquista di un mercato amatoriale di alto livello. Non solo quindi filmini delle vacanze, ma anche
giovani free lance, che girano servizi di giornalismo d’inchiesta e lavorano per piccole emittenti e
canali satellitare che non possono permettersi la troupe.
La definizione delle immagini digitali era molto superiore a quella delle telecamere analogiche, ma
ancora lontana dalle pellicole a 35 mm, e dai 2milioni di pixel contro i 6-8 milioni dei 35mm.
39
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
La pellicola cinematografica ha una maggiore capacità di registrare le sfumature dal bianco al nero,
dalla luce piena all’ombra. Le immagini sembrano meno “reali” di quelle del cinema in pellicola. Il
fatto è che i sensori presenti nel CCD sono collocati in modo simmetrico e tutti allo stesso piano,
mentre i sali d’argento spalmati sulla pellicola, che sono gli elementi fotosensibili, sono disposti in
modo casuale e non sullo stesso piano, cosicchè la sensibilità e simile a quella dell’occhio umano.
La telecamera digitale ha però un costo minore e dimensioni più ridotte, la registrazione in digitale
inoltre permette un’immediata riproduzione senza la necessità dello sviluppo. Girare in digitale
abbatte il costo dei supporti e della cattura delle immagini, di sviluppo e stampa. Inoltre un film in
digitale può essere realizzato in media in quattro mesi, contro i 6 di un film in pellicola.
Nel cinema digitale la necessità di illuminazione della scena è molto inferiore rispetto alla pellicola,
anche perché il digitale non riuscirebbe comunque a rendere molte sfumature, e quindi si possono
usare più camere contemporaneamente utilizzando il set a 360 gradi. La preparazione del set
quindi è meno lunga. Inoltre le telecamere digitali non fanno rumore e ciò facilita la cattura del
suono e permette la presa diretta senza doppiaggio.
Infine il video digitale è già pronto per la postproduzione digitale, in cui è possibile anche
effettuare la correzione del colore e cancellare dettagli errati, ma soprattutto accedere al
trattamento elettronico degli effetti speciali.
Infatti la prima applicazione della ripresa digitale al cinema è stata limitata alle sequenze in cui
c’erano forti esigenze di postproduzione ed effetti speciali. Una sorta di “digitale per necessità”, in
cui spicca il caso del Corvo (1994), il cui attore protagonista Brandon Lee muore prima di aver
completato le riprese: vero in cubo per un regista, per il rischio di dover buttare via tutto. Il
digitale permette viene in aiuto e permette di realizzare le scene mancanti inserendo in
postproduzione, al computer, l’attore defunto.
Vi è un filone di cinematografia digitalizzata al servizio degli effetti speciali, molto congeniale ad
Hollywood che l’ha utilizzata sempre più largamente in grandi produzioni come Star Wars ,Titanic,
e l’Attacco dei cloni di Gorge Lucas.
Nel caso di Star Wars serviva a creare sinteticamente personaggi e situazioni di fantasia che non
esistono in realtà, mentre nel caso di Titanic serve a ricreare situazioni reali impossibili da
riprodurre con tecniche tradizionali.
9.3 Il digitale come mezzo espressivo
Nel 2000 la regista Agnès Varda realizza in Francia uno dei suoi documentari, Les glaneurs et la
glaneus, sul tema degli homeless, Il documentario è girato in solo 29 giorni usando telecamere
digitali, fra cui una Mini dv utilizzata dalla stessa regista. Il digitale i n questo caso serve a
osservare la realtà senza essere intrusivi, senza intimidire persone in difficoltà che chiedono di
essere guardati in faccia, cosa che la piccola telecamera tenuta nella mano consente. Varda rivolge
la telecamera anche su se stessa in un discorso sulla vecchiaia e sulla morte.
Il carattere leggero e spartano del digitale sembra intercettare le prescrizioni del movimento
Dogma 95 di Lars Von Trier e Vintenber, di un cinema che “costringa la verità ad uscire dai
personaggi e dalle ambientazioni…a discapito di ogni considerazione di buongusto o di carattere
estetico”. Un cinema che deve essere gurato nei luoghi , con i suoni e le luci del luogo che
rappresenta, senza sofisticazioni.
Un altro esempio di cinema digitale è proprio Dancer in the Dark di Von Trier. Qui ci sono 100
telecamere che operano contemporaneamente nelle scene di danza, prevale il desiderio di non
perdersi nessuno dei possibili punti di vista e nessuna inquadratura. Il regista si lega addosso la
camera perché nulla gli sfugga.
40
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Ripreso in digitale nel 99 è stato anche il documentario Buena Vista Social Club, di Wim Wenders,
dove l’uso del digiutale leggero sottolinea gli aspetti di inchiesta, si insinua senza disturbare e dare
nell’occhip.
Aleksandr Sokurov nel 2001 gira l’Arca Russa, un pianosequenza di 90 minuti compiuto da una
steadicam attraverso il salone del museo dell’Hermitage affollati da 2000 personaggi in costume.
Cosa realizzabile solo in digitale.
Giuseppe Bertolucci in L’amore probabilmente (2000) consegna le telecamere digitali direttamente
alla protagonista, allieva di una scuola di recitazione alla ricerca di una sua verità, e la
preparazione, le prove, fanno parte del film.
Con il digitale l’ampiezza del set è sfruttata interamente (non solo la porzione illuminata occupata
dalle macchine), questo permette una maggiore improvvisazione degli attori, la quantità del girato
aumenta, più che girare in senso tradizionale, si procede ad una complessa cattura del senso,
mettendo in campo tutti i mezzi e angolazioni, prospettive possibili.
9.4 La crisi dell’occhio
La centralità dell’uomo e del suo punto di vista (ovvero dell’operatore che azionava la macchina da
presa, e del regista che segue sul mirino), va in crisi con il digitale, perché esso permette di
assumere punti di vista impossibili per un operatore in carne ed ossa e per lo stesso occhio umano.
La stessa specializzazione dell’operatore è messa in discussione: adesso la telecamere ce l’hanno
in mano tutti, il regista e gli stessi attori. Il suo mestiere non è più quello di azionare una
macchina ma di governare un parco di apparati di ripresa.
Il cinema rappresentava attraverso una distanza, l’oggetto era mostrato, ma alla distanza
necessaria tecnicamente per la messa a fuoco. Con il digitale questa distanza può essere travolta
sia tecnicamente che culturalmente. Iol cinema spettacolare, da Guerre Stellari di Gorge Lucas in
poi. Tende ad immergersi nel film, come se fosse un’unica soggettiva, Il digitale inoltre permette
l’adozione di punti di vista impossibili e movimenti di macchina che danno allo spettatore
l’impressione di tuffarsi dentro la scena, essere parte di essa, modificando quella sorta di
“transenna”, di divisione spazio-temporale che lo separa dalla scena.
9.5 Corpi e cartoni
Già in epoca analogica il cartone rappresenta una forma di immagine sintetica. Il digitale si adatta
particolarmente al disegno animato. L’animazione al computer, è yna variante della computer
graphics. Personaggi e oggetti in movimento sono generati al computer tramite appositi software
che permettono di determinare i movimenti di un modello già esistente.
Un ruolo impostante ha la Divisione Computer Graphics della Lucasfilm, acquistata nel 1986 da
Steves Jobs,, e ribattezzata Pixar, fecendone una società per produzione di cartoni animati digitali.
Nel 95 c’è il primo grande successo, Toy Story, distribuito dalla Disney che nel 95 acquisterà la
Pixar, con cui aveva continuato a collaborare realizzando A Bug’s Life (1998), Shrek e Monsters
(2001), Nemo (2003); The Incredibles (2004). Alla guida c’è ancora Jobs.
Toy Story è il primo lungometraggio commerciale di cartoni animati realizzato in 3D interamente
digitale. Prima ancora . Chi ha incastrato Roger Rabbit (1988), aveva mostrato la convivenza tra
azione e animazione. Anche The Mask di Chuck Russel (1994), utilizza il morphing per piegare il
corpo dell’uomo alla sua duplice natura di impiegato di anca e superuomo.
41
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
9.6 Il digitale nell’esercizio e nella distribuzione
Oggi la distribuzione di un film, indipendentemente dalla tecnologia con cui è girato, è
interamente analogica. Esso deve essere riversato in pellicola, perché tutte le sale del mondo sono
attrezzate per la pellicola.
Il vero problema è cosa fare di queste pellicole quando finisce il loro ciclo di sfruttamento. Nei
magazzini si “ammucchiano” le di vecchie “pizze” di film che finiscono poi per deteriorarsi. Un vero
spreco.
Vari esperimenti di proiezione digitale si stanno svolgendo in tutto il mondo. Al momento, la
qualità della visione di un dvd proiettato su un grande schermo è ancora inferiore rispetto alla
qualità della pellicola tradizionale, anche se in via di miglioramento. Se si troverà il modo per
finanziare l’adeguamento tecnologico delle sale non è impossibile una distribuzione criptata del
film via satellite o via Internet.
_______________________________________________________________________
42
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 10
-LA TELEVISIONE DIGITALE10.1 La tv di fronte al digitale
Per quanto riguarda la tv la digitalizzazione è comparsa all’orizzonte quando si è constatato che
essa offriva ai sistemi televisivi non tanto un’immagine particolarmente nitida quanto un mezzo
per moltiplicare il numero dei canali. Per offrire questa ricca scelta di canali è necessario disporre
di spazi di trasmissione (frequenze nello spettro elettromagnetico, cavi) che sono saturi e non
disponibili. La tv digitale può comprimere i propri file, facendo passare sulla stessa frequenza più
canali, cosa che la trasmissione analogica non permette di fare. Dunque la tecnologia digitale
fornisce alle istituzioni televisive la possibilità di espandere la propria offerta e reclutare nuovi
clienti paganti.
Fino a metà anni 90 la tv digitale non decolla perché non si sa come mandarla in onda, le
frequenze terrestri (lo spettro elettromagnetico) sono già tutte prese e pochi paesi, certo non
l’Italia, dispongono di un efficace cablaggio a larga banda del territorio.
La “banda larga” (broadband) è un tipo di connessione via cavo che porta nella casa dell’utente
una grande quantità di dati, sufficiente a svolgere un servizio televisivo.
Il cablaggio a larga banda ottimale utilizza interamente la fibra ottica. Di fronte alle difficoltà e ai
costi di cablaggio si sono introdotti sistemi di compressione sul tradizionale “doppino”, il filo
telefonico che arriva dentro le abitazioni per realizzare connessioni veloci come l’Adsl. L’Adsl ha i
vantaggio di consentire lo svolgimento simultaneo della telefonia vocale e del collegamento
permanente ad Internet o del servizio televisivo, ,ma si è diffusa in Italia solo di recente.
10.2 Il satellite digitale a diffusione diretta
Per la tv digitale l’alternativa praticabile è stata rappresentata dal satellite a diffusione diretta,
ricevibile cioè direttamente nelle abitazioni con una piccola antenna parabolica.
Nel 94, negli Stati Uniti, con Direct Tv, si ebbe la prima esperienza riuscita di televisione digitale a
diffusione diretta via satellite, ricevibile da piccole antenne domestiche. Contemporaneamente
furono lanciati i satelliti europei Eutelsat, classe Early Bird. Il numero 2 della serie sorvolò il
Mediterraneo dal 1996, rendendo possibile la televisione digitale in tutta Italia.
Per evitare che chiunque possa usufruire dei canali senza pagare, mettendo un antenna sul
balcone, i programmi sono criptati; il decoder assicura agli abbonati la decodifica e la conversione
in analogico compatibile col televisore. Una smart card è inserita nel decoder, collegato, come un
modem, alla linea telefonica. Il telefono fornisce una linea di ritorno che il satellite, diversamente
da un cavo a banda larga, non prevede. Un’interfaccia grafica gestita dal telecomando permette di
ordinare,sempre via telefono, programmi in pay per view.
Il complesso dei sistemi di distribuzione, programmazione, e fatturazione di una televisione a
pagamento digitale, che operano con uno standard comune, sono chiamati “piattaforma digitale”.
Ancora non si è riusciti a definire uno standard mondiale. Il gestore di una piattaforma digitale si
trova a disposizione una grande quantità di canali che deve riempire. Cercherà innanzitutto
un’alleanza internazionale che gli permetta di accedere a prodotti televisivi globalizzati; stipulerà
poi contratti con alcuni content provider per realizzare canali che portano il suo marchio.Ne
rimangono altri che possono essere affittati a organizzazioni, commerciali o no, in grado di
produrre contenuti e con un pubblico di riferimento.
43
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Un broadcasting tradizionale è fortemente connotato dai programmi che manda in onda, e di cui
ha l’intera responsabilità; per il gestore della piattaforma, per cui è stato inventato il neologismo
narrowcasting, questa identificazione è assai più debole, egli controlla solo una parte della
“sua”programmazione.
10.3 I contenuti della tv digitale
I canali televisivi proposti a pagamento sulle piattaforme digitali hanno modalità produttive e
formato diversi dalla televisione in chiaro. Il cliente a casa del resto deve percepire che sta
pagando per un prodotto di nicchia alta.
La minore invadenza della pubblicità è il primo dato che la clientela può percepire. La tv a
pagamento del resto è una tecnologia pull che rende disponibili elenchi di contenuti, da cui lo
spettatore preleva, spinge verso di se, solo ciò che è di suo gradimento (al contrario della
tecnologia “push” della tv a pagamento che spinge i contenuti verso l’utente). Quindi non c’è
flusso, non c’è necessità di inglobare ne di raggiungere la maggioranza di spettatori, o di essere
sempre graditi. Da qui la sua sobrietà, che porta a considerarla una tv di maggiore qualità.
Tuttavia nonha sostituito la tv generalista perché sarà sempre comunque quest’ultima che
svolgerà la funzione di “collante sociale”, e a dare il senso di ciò che accade nel mondo.
La tv a pagamento sceglie contenuti che la tv generalista non da,contenuti organizzati in canali
dedicati a un tema specifico, per questo detti “tematici”.
10.4 La televisione a pagamento in Europa e in Italia
Le esperienze di riferimento nel campo della tv a pagamento europea sono la francese Canal Plus
e l’inglese Sky. La prima, a cui è stata attribuita la concessione nel 1983, è diventata un
aproduttrice cinematografica di prima grandezza.
Sky è proprietà di Rupert Murdoch, proprietario anche del “Times”, del nwtwork “Fox” ecc.
In Italia la tv a pagamento nasce nel 1990, ed è diffusa su frequenze Fininvest, poi Mediaset. Si
chiama Tele+, avrà tre reti: la prima destinata a trasmettere cinema, la seconda mirata allo sport,
la terza per la cultura. E’ una tv via etere, criptata, che fa molta fatica a raccogliere abbonamenti
oerchè il cinema e lo sport sono offerti largamente dalle reti in chiaro. La società comunque non
fallirà. Un tentativo per rivitalizzarla si avrà nel 95 con Tele+ Calcio, che già si avvale di un satellite
per moltiplicare i canali e offrire cinque partite di serie A contemporaneamente. Tuttavia
l’iniziativa non avrà un gran ritorno commerciale.
Intanto la Stet, nella fase della transazione in cui diventerà Telecom Italia, lancia un ambizioso
progetto di cablaggio integrale a fibre ottiche dell’Italia, il “Progetto Socrate”. Nell’ambito di
questo progetto essa costituisce nel 1993 la società Stream in funzione di content provider della
futura televisione via cavo. Stram faticosamente si converte a una televisione prevalentemente via
satellite, lanciando nel 97 una sua piattaforma digitale. Le piattaforme in Italia sono quindi due,
entrambe in forte perdita.
Nel 1999 Murdoch, che sta cercando da tempo di en trare nei media italiani, acquisisce da
Telecom ITALIA IL CONTROLLO DI Stream puntando molto sul calcio. Alcuni club di calcio cui è
stato consentito di diventare società per azioni, diventano socie di Sky e le loro partite
costituiscono l’offerta calcistica pay per view di Stream. Nel 2001 Murdoch le acquista
interamente.
Nel 2003 Tele+ e Stram, già di fatto unificate, si fondono in Sky Italia.
44
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
10.5 Sport e tv digitale
In Italia lo sport ha fatto decollare la tv a pagamento. Questo grazie alla possibilità di avere canali
sufficienti per la trasmissione contemporanea di quasi un intero campionato. La tv a pagamento
ha acquistato e sequestrato i diritti di trasmissione degli eventi sportivi, obbligandoli a migrare
dalla tv in chiaro a quella a pagamento.
La tv ha imposto al calcio le sue esigenze e i suoi calendari. Ha fatto diventare il calcio da occasione
festiva a occasione quotidiana moltiplicando il numero delle partite trasmesse anche nei giorni
feriali, e trasmettendo anche il cd “teatrino del calcio”, ovvero tutto quello che sta dietro,
chiacchiere, pronostici, liti fra presidenti di squadre ecc. Grazie al replay e al ralenti si è inoltre
messa in discussione l’inappellabilità dell’arbitro, sostituendolo con la moviola.
Si afferma lo sport spettacolo e legato anche molto alla pubblicità, e uno sport molto tecnologico,
come il caso del mondiale di calcio 2006 in cui per la prima volta è stata disponibile la tv digitale ad
alta definizione, fruibile su schermi piatti a cristalli liquidi (Lcd) o al plasma.
10.6 “All news”
Un formato presente in tutte le piattaforme digitali è quello “all news”, un canale telematico
interamente dedicato all’informazione. Capostipite è la Cnn, fondata ad Atalanta nel
1980dall’imprenditore dei medi Ted Turner.
La Cnn è fin da subito contraddistinta da una rotation di tipo radiofonico con notiziari cadenziato
24 ore su 24. e una gran cura nell’aggiornamento delle notizie.
Trovano inoltre molto spazio i notiziari tematici e “breaking news”, ovvero notizie dell’ultimo
momento. Durante la prima guerra nel Golfo nel 91 la Cnn investe massicciamente nella copertura
diretta degli avvenimenti ed è l’unica a raccontare in diretta tv i bombardamenti americani
sull’Iraq.
Dopo il 91 compaioino altri esempi di tv “all news” come Sky tv di Murdoch, e BBc Word, dedito
all’approfondimento.
Verso la fine degli anni 90 tutte le reti tv di informazione internazionale si sono dotate di siti web:
all’inizio vetrine per le rispettive emittenti, si sono poi resi autonomi trasformandoli in portali e
seguendo il percorso dell’informazione on line, soffermandosi sulla modalità pull e sul carattere
ipertestuale delle notizie trattate.
In italia inizia nel 99 l’esperienza di Rai News 24 , un “all news” 24 ore su 24 pubblicato in Interet.
Lo schermo appare diviso in piu parti, una parte con gli aggiornamenti e gli indicatori economici,
una parte con immagini e grafici, un’altra con titoli delle notizie e link.
10.7 Il digitale terrestre
La tv digitale terrestre si è servita prevalentemente di satelliti a diffusione diretta e in misura
minore del cavo a larga banda, ma esiste anche un’altra forma di diffusione: la sua trasmissione
attraverso le reti terrestri, cioè sulle stesse frequenze su cui viene distribuito il canale televisivo.
Introdotto in Italia nel 2004 dalla “Legge Gasparri”, allora fu contestata dall’opposizione in quanto
vedeva nella moltiplicazione delle frequenze un modo per tutelare Mediaset.
Il digitale terrestre rappresenta un’evoluzione necessaria con risvolti interessanti per laoroduzione
televisiva. Con il digitale si distingue fra “fornitori di contenuti” (cioè gli editori dei canali tv) e gli
“operatori di rete”, ossia coloro che installano gli impianti necessari alla trasmissione dei canali
televisivi in tecnica digitale.
45
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
Essi non vengono emessi singolarmente, uno per ogni frequenza, come nella tv tradizionale, ma
sono sistemati in una successione temporale all’interno di un “multiplex”. Tale operazione è detta
“modulazione”.
Sono gli operatori di rete ad allestire i “multiplex”, nei quali possono trovare posto diversi canali
televisivi, preparati dai “fornitori do contenuti”. Quest’ultimi, per poter operare, devono
presentare un a domanda di abilitazione, gli operatori di rete devono richiedere il rilascio di una
licenza. Sono ritenuti “fornitori di contenuti di particolare valore” quelli che dedicano almeno il 70%
della propria programmazione alla formazione, informazione ecc.
Il digitale terrestre è destinato a rafforzare l’attività di società di content providing, specializzate in
particolari nicchie di genere e di pubblico, ma anche a privilegiare coloro che riescono ad
immettere maggiori forme di interattivita e ipertestualità.
10.8 “Switchover”
Per essere usato efficacemente il digitale terrestre richiede lo spegnimento delle trasmissioni
analogiche (switchover) e una nuova pianificazione delle frequenze. E’ collocato oltre il 2010.
Nel digitale terrestre si è vista un’occasione per l’emittenza locale, la più penalizzata dalla penuria
di frequenze.
Tuttavia l’avvio del digitale terrestre non è stato travolgente dal punto di vista dell’offerta. In
totale i canali non più ricevibili in analogico sono dodici, ma di interesse non eccelso, e comunque
meno rispetto ai canali proposti da Sky.
Del resto poi i multiplex appartengono prevalentemente a broadcaster tradizionali (Rai, Mediaset,
La7). Obbligati a posizionarsi sul digitale terrestre ma che non vogliono perdere la centralità nella
profìgrammazione generalista.
L’avvio del digitale inoltre è stato discutibile anche dal punto di vista della gestione delle frequenze.
Prevedendo il passaggio al digitale sulla base di frequenze gia a disposizione di ciascuna emittente
la legge Gasparri infatti non ha consentito una nuova pianificazione delle frequenze e quindi si è
preclusa il risparmio che il passaggio al digitale permette . Infatti con le frequenze risparmiate
sarebbe possibile una migliore gestione di altri servizi (radiofonia, telecomunicazioni ecc).
10.9 Il paradosso della tv interattiva
E’ stata molto enfatizzata la vocazione interattiva della televisione digitale, in cui si vorrebbe
vedere un superamento della passività dello spettatore. In realtà l’interattività della tv digitale si
risolve nella scelta pay per view da un menù piuttosto piatto.
Vi sono vari livelli di interattività:
1 interattività di accesso: la tv va accesa
2 interattività di regolazione: adattare le caratteristiche tecniche audio e video del programma che
stiamo guardando
3 interattività di scelta: cambiare programma, e nella tv digitale , acquistarlo
4 accesso ai servizi evoluti
La scommessa della tv interattiva sta nell’ultima forma di interattività. Per questa forma di
interattività però prende il sopravvento il computer ed Internet, mentre la tv ne esce sconfitta.
L’unico campo in cui potrebbe aver successo è la vendita di beni e servizi, ma dovrebbe trovare
comunque un sistema efficiente per i pagamenti.
46
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
10.10 Mosaico e ipertestualità
L’interattività che non tramonterà mai è l’interattività di scelta, quella che ci permette di decidere
in merito a cos a vedere e come. Nella tv digitale questa facoltà tende ad ampliarsi.
Stiamo assistendo a forme di ipertestualità televisiva; un sistema di organizzazione delle
informazioni non gerarchica e rigida, che permette all’utilizzatore di raccogliere un insieme di
informazioni a sua scelta come e quando lo desidera.
Si afferma inoltre un’estetica a mosaico: uno schermo televisivo diviso, in vari riquadri, in cui
appaiono contemporaneamente vari canali, o angoli visuali dello stesso evento tra cui è possibile
scegliere.
La componente ludica inoltre emerge sempre di piu. Sulla tv digitale si possono effettuare
scommesse.
Inoltre sono da tenere d’occhio gli Epg , le guide elettroniche ai programmi
10.11 La televisione via Internet e a banda larga
Si è cominciato a parlare di web tv intorno al 2000. Poiché fare tv sul web ha una soglia di accesso
bassissima, essa è l’ideale per una comunicazione non mainstream, non generalista. Non è però
accessibile però a un pubblico o popolare e sociale, dato che la sua modalità di fruizione è il
computer collegato ad Internet, e con connessioni veloci e costose.
La tv via Interne è finanziata prevalentemente con banner pubblicitari e sponsorizzazioni. E’ frutto
di un desiderio di testimonianza, di avanguardia culturale, consigliabile a chi vuole sperimentare
nuovi linguaggi.
Tutt’altra cosa è la tv a banda larga (IPTV): UN SERVIZIO TELEVISIVO CON PROTOCOLLO IP, via
Interet, fruita prevalentemente tramite un televisore e l’accesso a una connessione a banda larga,
fornita da grandi operatori delle telecomunicazioni. Il principale operatore italiano è Fastweb, che
offre un’unica fattura per telefoni, tv ed Internet.
Per avere una sua riconoscibilità la tv broadband deve avere anche un’offerta sua propria,
valorizzando i vantaggi del cavo sul satellite, che sono due: efficienza del canale di ritorno e la
possibilità di forme video on demand.
I linguaggi della IPTV sono vicini a quelli della tv a pagamento: devono trasmettere al proprio
utente-cliente la percezione di avvalersi di un servizio innovativo, di fascia alta, hitech.
Il video on demand (streaming) è una caratteristica addizionale importante, che la distingue dalla
pay per view a cui siamo abituati. La fruizione in Internet accorcia molto i formati, cura le
interfacce grafiche, dando un’estetica del videogioco.
La risposta del mercato per ora è molto cauta. La disponibilità del servizio non coincide con la
propensione della clientela a servirsene.
Nella IPTV sono però presenti caratteristiche assenti nella tv tradizionale che sono essenzialmente
quattro: contatto diretto ed univoco tra operatore ed utente finale con la possibilità di fornire in
streaming servizi personalizzati; piena interattività del cliente per l’esistenza di un canale di ritorno
sul cavo; possibilità di memorizzare, fruire in forma ritardata, modificare i contenuti ricevuti;
tracciabilità delle scelte del cliente senza bisogno di nessun auditel.
________________________________________________________________________________
47
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 11
-I SISTEMI DI LOCALIZZAZIONE E IL NUOVO SENS DEL LUOGO11.1 Il GPS
Il sistema GPS, (Global Positioning System), è un sistema di rilevamento satelittare della posizione
di un punto (persona, edificio,veicolo in movimento), realizaato dal Dipartimento della Difesa degli
Stati Uniti negli anni 70 e completato nel 1993. Mandano verso terra segnali radio digitali che
consentono a chi è dotato di un apparecchio ricevente speciale di rilevare la propria posizione.
Il GPS utilizza 24 satteliti artificiali , divisi in gruppi di quattro, che ruotano intorno alla Terra alla
distanza di 20.200 km.
Fin dall’antichità esistono metodi per determinare la propria posizione orientandosi con le stelle e
utilizzando strumenti come l’astrolabio e il sestante. Il GPS è un’evoluzione di questi sistemi. La
posizione è determinata non più rispetto alle stelle ma ai satelliti artificiali, i quali mandano segnali
radio digitali che il nostro ricevitore GPS riesce a captare: un chip di calcolo al suo interno
determina , in base ai dati ricevuti, la nostra posizione. Ciò avviene misurando il tempo impiegato
dal segnale radio per percorrere la distanza fra satellite e ricevitore. Quattro satelliti sono
sufficienti per determinare la posizione con esattezza.
I segnali digitali generati dai satelliti GPS permettono un’approssimazione minore di un metro. .
Fino al 91 le informazioni, cripate, erano solo di uso militare. Il segnale è stato poi liberalizzato per
uso civile con una versione “degradata” per evitare usi impropri (con approssimazioni di 100-150
mt), ma dal 2000 l’approssimazione nell’uso civile è scesa a 10 metri, anche se con restrizioni. Le
informazioni complete sono accessibili solo all’uso militare, per il quale il servizio è rivolto alla
sicurezza nazionale, es soccorrere navi,aerei,sommergibili ecc, ma è evidente come possa essere
utile anche per guidare missili o “bombe intelligenti”.
L’Europa sta cercando di realizzare con altri Stati, tra cui la Cina, un proprio sistema di
localizzazione, detto “Galileo”, con 30 satelliri, che dovrebbe essere operativo dal 2010, per essere
indipendente dal sistema americano.
Un sistema GPS ha le dimensioni di un cellulare, con un antenna regolabile puntata verso l’alto.
Non riceve però nei locali chiusi ma solo all’aperto. Collocandolo con un database che contiene
mappe digitali di un territorio è possibile non solo individuare la posizione tramite le sue
coordinate geografiche e l’altitudine, ma anche mostrarla geograficamente su una carta geografica
sia come posizione fissa che come postazione in movimento (es se collegato a un veicolo). Una
conoscenza e leggibilità così vasta e immediata della superficie terrestre è assolutamente nuova
per il genere umano.
Un applicazione pratica di questi concetti è il navigatore satellitare per auto: un apparecchio che
ha in memoria una dettagliata cartografia stradale, informazioni aggiuntive sulla toponomastica,
sullo stato delle strade, distanza fra i vari centri. Grazie a una potente capacità di elaborazione e
resa grafica, esso può ricercare una determinata strada e indicare il tragitto per raggiungerla, la
distanza e il tempo per coprirla. Dotato di sintetizzatore vocale, il navigatore fornisce al guidatore
istruzioni vocali per raggiungere il luogo richietsto. Accoppiando il navigatore con una connessione
ad Internet (es telefonino Umts) , è possibile aggiornare in tempo reale il database dell’auto,
corredandolo dei lavori in corso, delle deviazioni sul posto, condizioni del traffico, e addirittura
posizione degli Autovelox.
Adottando la stessa tecnica, sono stati realizzati sistemi antifurto satellitari per auto e camion. Il
veicolo rubato in cui è montato un GPS in posizione nascosta, emette un segnale che trasmette
alla centrale la propria posizione.
48
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
E’ stato già realizzato l’inserimento del GPS neglii smart phones , consentendo di usarli come
navigatori. All’inizio il ricevitore GPS impiegava del tempo per trovare i satelliti. Poi si è pensato
che le informazioni sulla posizione dei satelliti rispetto alla cella in cui si trova il telefono corredato
di GPS possono essere inviati direttamente al terminaòle attraverso la rete di telefonia mobile,
assumendo che i satelliti in vista dalla cella siano gli stessi visibili daoi terminali che si trovano sul
territorio. In questo modo il telefono con GPS RICAVA IN POCHI SECONDI LA PROPRIA POSIZIONE.
L’abbinamento di UMTS e GSM è MOLTO RECENTE E NON HA ANCORA PRODOTTO EFFETTI
SOCIALI RILEVANTI al di fuori della nicchia di appassionati. Tuttavia con quati sistemi cambierà il
senso del luogo:quella percezione dello spazio già modificata dai media elettronici, e che si avvia
ora a una nuova e più pervasiva modellizzazione.
11.2 Google Earth e il “buco della serratura”
Nell’Ottobre 2004 Google, compra una piccola società, Keyhole (“buco della serratura”). Leader
mondiale nel digital mapping su Internet. Questa ha realizzato un modello 3d dell’intera superfice
terrestre, continuamente aggiornato con nuovi dati, e soprattutto un software che permette ai
suoi 10000 clienti professionali di elaborare e modificare sui computer dì ufficio una
rappresentazione grafica molto accurata di porzioni della superficie terrestre, combinando una
grafica tridimensionale di qualità e tecniche innovative di streaming. La soluzione elaborata da
Keyhole è caratterizzata dalla ricchezza dei dati cartografici, dall’efficienza della loro trasmissione
in dtreaming su Internt, e facilità d’uso. Incorporando nello stesso programma più tecnologie, esso
permette di modificare la carta geografica, collocarci progetti di edifici, strade, cambiarne il punto
di vista ecc.
Google prende il software di Keyhole e lo ribattezza Google Earth, ma ne cambia il modello di
business. Mentte prima si trattava di vendere a clienti professionali l’accesso in abbonamento
delle rappresentazioni cartografiche digitali, adesso Google Earth diventa un motore di ricerca che
invece do cercare siti web cerca rappresentazioni digitali di un punto determinato della supoerfice
terrestre. Inoltre fornisce la capacità di navigazione e grafica di Keyhole, a cui aggiunge la propria
esperienza nel ricercare e fornire al proprio utilizzatore luoghi,monumenti,strade ecc.
Mentre prima si pagava per acceder al software, Google abbatte i prezzi, prima della fornitura
gratuita offerta nel 2005. Ora Google metaforicamente spalanca la porta a tutti. Inoltre la
rappresentazione della superficie terrestre ( non in tempo reale comunque) assume un livello alto
di definizione anche per le aree molto sviluppate del mondo, superando in un certo modo il digital
divide (anche se nomi e misure seguono comunque le convenzioni anglosassoni).
_________________________________________________________________
49
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
CAPITOLO 12
- SUPER INTERNET12.1 “Always on”
Una forte domanda di collegamenti veloci determina alla fine degli anni 90. Essa permette un
collegamento continuo ad Internet (always on).
Le reti sono sature e devono quido essere realizzate reti di nuova generazione ( NGN, Next
Generation Networks) che trasportino servizi sia fissi che mobili adottando il protocollo IP in tutto
il loro percorso, dotandosi di standard comuni per la loro intyeroperabilità. Le fibre ottiche sono
considerate la materia prima delle reti NGN. In ogni caso queste reti non richiedono fortissimi
investimenti. Attorno alla diffusione dei collegamenti alwats on si sviluppa una nuova generazione
di servizi web, che abbiamo chiamato “Super Internet”, caratterizzati da una forte interattività,
transazioni complesse, collegamenti multimediali p2p sincroni, con effetti sociali molto rilevanti.
12.2 Il commercio elettronico dopo la bolla: la costruzione della reputazione
Il commercio elettronico muta i suoi caratteri cooptando i suoi clienti nelle valutazioni commerciali.
Il capofila è eBay, un sito per il commercio elettronico p2p. Questo offre una piattaforma per
transazioni commerciali ta privati. Navigare nel sito è gratuito, per vendere e comprare è
necessaria la registrazione, sempre gratuita. Il sito vive della percentuale sulle vendite; inoltre i
pagamenti avvengono con una speciale tecnologia di prelievo, PayPal. Gli oggetti possono essere
acquistati al prezzo indicato ma la modalità tipica di eBay è l’asta on line. Il potenziale utente
indica l’importo massimo che è disposto a pagare ed eBay effettua automaticamente i rilanci.
eBay non offre alcuna garanzia sulla reputazione del venditore e del compratore. Tuttavia il tasso
di frodi è molto basso. Ciò avviene perché le due parti, e specialmente i venditori, sono valutate
nella loro reputazione. Il punteggio del venditore è collocato accanto alla sua identità e sono
accessibili i commenti dei precedenti compratori in termini di affidabilità e qualità dei prodotti. Un
venditore abituale riceve così un danno se l’insoddisfazione dei suoi clienti viene resa di pubblico
dominio e dunque cerca di trattarli bene.
La valutazione della reputazione del venditore si è dimostrata capace di sostituire la conoscenza
personale nell’offrire al potenziale acquirente òa fiducia necessaria all’acquisto. Qualcosa del
genere succede in Amazon,libreria on line.
12.3 L’informazione on line e i blog
Internet modifica il concetto di notizia. Le fonti e lw agenzie di stampa non sono privilegio dei
giornalisti ma sono offerte ai comuni cittadini da una molteplicità di siti web che le aggiornano in
tempo reale. Molti siti si presentano come pubblicazioni on-line.
Oggi tutti i media e le agenzie di informazione dispongono di siti web in cui vengono presentati
aggiornamenti e approfondimenti delle notizie presentate nell’edizione cartacea o trasmessa in
radio e tv. Il flusso di notizie è costante anche sui cellulari, con servizi in abbonamento, e in
schermi di outdoor television diffusi in stazioni,locali pubblici ecc.
I blog sono siti personali, di osservatori e operatori dell’informazione, aggiornati generalmente con
scadenza giornaliera, in cui sono presentate osservazioni, commenti, link, contenuti multimediali,a
perti alla collaborazione di interlocutori.
50
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
I primi asono apparsi in America verso il 97 e in Italia dopo il 2000. Questi possono aggregare
comunità di utenti sulla base di comunanza di idee o condivisione di interessi, e si basano su una
relazione di fiducia (vd blog di Grillo).
Negli stessi anni si sono diffusi molti programmi opensource che permettono di creare il proprio
blog anche senza conoscere il linguaggio HTML. Conyrmporaneamente si sono diffuso gli
aggregatori (feed) RRS (Real Simple Syndication) che permettono di distribuire in rete i contenuiti
di un sito e di riaggregarli sotto altre forme.
12.4 “Data mining”: Google
Il più diffuso ed efficiente motore di ricerca è nato nel 1998 a opera di due giovani californiani:
Larry Page e Sergey Brin. I motoro di ricerca sono siti a cui ci si rivolge digitando ciò che ci interessa
e che riescono a fornire un elenco di link attinenti alla nostra ricerca , attingendo a un proprio
database.
Il problema è il modo in cui questi link spesso molto numerosi sono elencati. Un ordine casuale è
di scarso aiuto. Determinante è che i siti siano elencati in ordine di rilevanza. In Google i siti ad
apparire per prima sono quelli che hannop più link che rimandano a siti connessi via link
all’oggetto di ricerca.
L’utente di Google non paga nulla, chi paga è la pubblicità. La forma dell’inserzioni è una colonna
di rimandi sponsorizzati e siti attinenti l’oggetto di ricerca presentati separatamente alla colonna
dei risultati. La tariffa delle inserzioni è determinata mettendo all’asta le parole chiave indicate
nella ricerca dell’utente.
Google è diffuso in 35 lingue , è accessibile dai telefonini, dispone della traduzione automtica. Dal
2002 Google News genera raccolte di articoli e notizie e li visualizza in base agli interessi di ciascun
utente; Google Earth si aggiunge nel 2004. La scelta di impegnarsi nel WiMax a S.Francisco e
l’acquisizione nel 2006 di You Tube fanno parte del data mining, dell’acquisizione contunua di
lucrose informazioni sul profilo di ciascun interlocutore(il sito web, l’investitore pubblicitario,
l’utente che ricerca), attravers tecniche di analisi statistica automatizzata.
12.5 Conoscere on line: lo spirito wiki
Molte enciclopedie e dizionari possono essere consultabili in rete. Wikipedia ha un aposizione
particolare perché è consultabile liberamente, non ha pubblicità e non genera profitti, è
multilingue, e soprattutto chiunque può aggiungere o modificare una voce in modo collaborativi,
nello spirito con cui viene creato il software open source.
Su Wikipedia non esiste una redazione o un comoitato scientifico che controllino i contributi prima
di pubblicarli, le sue voci dovrebbero adottare un punto di vista neutrale. Spesso attorno alla
modifica di voci si scatenano vive discussioni, che rappresentano un esercizio di ricerca collettiva.
Nessuna voce è considerata mai definitiva.
Wikipedia inoltre misura di ogni voce la storia, con tutte le successive modifiche. Il fondatore è
Jimmy “Jimbo” Wales, nato in Alabama nel 1966.
Nel 2000 lancia un’enciclopdia on line, Nupedia aperta a collaborazioni esterne ma con controllo
dei contributi, e poco dopo viene a contatto con il movimento wiki e nasce Wikipedia. Nel 2003
fonda la Wikipedia Foundation, proprietaria di Wikipedia senza scopi di lucro. Viene esclusa la
pubblicità e la fondazione vive di fondazioni. Il lavoro più importante è svolto, in forma volontaria,
dagli amministratori, eletti tra gli utentio registrati. Essi possono cancellare una voce, o vietare ad
alcuni utenti di modificarla, quando sono contrarie allo spirito wiki, o fanno pubblicità a qualche
51
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
prodotto, o sono scorrette. Wikipedia si sviluppa rapidamente, nonostante le critiche alla sua
autorevolezza.
12.6 “Instant messaging”
L’istant messanging è un servizio che permette di dialogare in tempo reale con utenti predefiniti,
presenti in liste di contatto personalizzate. Il servizio monitorizza la contemporanea presenza on
line dei nostri interlocutori abituali e il computer ci avverte che se voliamo possiamo cominciare a
scambiare messaggi. Il sistema di Instant messangin che si è più affernato di recente è Msn
Messenger di Microsoft. Il messaggio è una miscela di sms e mail, il programma inoltre indica il
nostro stato (in linea, occupato ecc), il nostro stato d’animo attraverso le emoticons, e c’è anche
possibilità di mentire ad esempio definendosi sconnessi anche se non lo siamo, o filtrando i
contatti con i vari interlocutori. Ci si può inoltre scambiare messaggi testuali, audio e video.
12.7 Social networking: My Space
My Space è un sito che consente ad ognuno di creareun proprio spazio personale e condividerlo
con altri: l’utente si descrive, si racconta, parla di se, esibisce foto, video, file musicali. Sito come
My Space si definiscono di “social networking”, e sono indirizzati alla costruzione di relazioni
sociali. In mySpacew ciascuno trova la possibilità di costruire nella gaina un blog, di disporre di un
servizio di istant messaging o di posta elettronica. L’iscrizione è gratuita, perché il sito vive di
pubblicità. Ciascun utente di MySpace può andare alla ricerca di potenziali amici inviando un
“friend request” e attendere il suo consenso.Se la persona acconsente, il suo nome e profilo
appaiono nella lista dell’utenye che ha effettuato la richiesta, insieme alla foto. Nella pagina di
ogni utente sono scritti i nomi dei suoi amici. Si crano così network plurimi di persone legate da
affinità e gusti comuni. In MySpace ci sono anche profili di persone famose e il sito offre la
possibilità di entrare in contatto con loro. Meno impegnativo del blog, MySpace consente di
restare a metà strada tra la vita che si ha e quella che si vorrebbe avere. E di esprimere una
personalità virtuale. E’ stato acquistato nel 2006 dalla News Corporation di Murdoch e
successivamente ha stipulato un accordo con Google.
12.8 Telefonare su Internet
Il primo software per telefonare via Internet ( Voip, Voice Over Internet Protocol) fu elaborato da
un’azienda israeliana, Vocal Tec, nel 1995. Essa è legata soprattutto al software Skyoe, diffuso
gratuitamente nel 2002. La chiamata è gratuita se si telefona da un computer dotato di microfono
e cuffia a un altro utente davanti al suo computer; a pagamento (SkypeOut) se avviene tra
apparecchi telefonici.
Le telefonate sono criptate all’origine per proteggere la riservatezza delle conversazioni e sono
possibili anche videochiamate con una webcam collegata al computer, purchè si dispoe di una
connessione a banda larga. Gli effetti di Skype sono dirompenti per le compagnie telefoniche. E’
stata comprata da eBay a fine 2005.
12.9 You Tube
“Broadcast yourself” è il motto di You Tube, un sito nato nel 2005 che raccoglie video amatoriali
originali e frammenti di televisioni di tutto ilo mondo, suddivisi in categorie e canali e distribuiti
52
Riassunti del testo: “I MEDIA DIGITALI”
- Enrico Menduni –
Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA
agli utenti registrati secondo il loro profilo. Un grande filesharing video, in cui ciascuno può
inserire il proprio video stabilendo se renderlo pubblico o condividerlo con i propri amici. I video
pubblici possono essere visti anche da chi non è registrato. Il materiale coperto da copyright viene
rintracciato attraverso un softyware antipirateria e rimosso. Il sito offre materiale originale di
bassa qualità, ma i frequentatori cercano proprio l’immagine “sporca”, intesa come testimonianza
personale, talvolta “rubata”, secondo un estetica che rimanda alla webcam. Situazioni familiari,
scenette, vacanze, spettacoli che ricordano la fotografia amatoriale di anni fa. Spesso vengono
inderiti in blog e siti. Sono presenti inoltre i commenti dei visitatori e le classifiche dei più visti. Alla
fine del 2006 You Tube è stato comprato da Google, e ciò ha aumentato la visibilità del sito, che è
anche diventato una forma di pubblicazione di video influenti sulla sfera pubblica come
l’eecuzione di Saddam Hussein nel 30 dicembre 2006.
Attraverso la pubblicazione dei propri video si manifesta talvolta un desiderio esibizionistico di
mostrare le proprie gesta, ad esempio nei tristi episodi di bullismo.
53