Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni
Transcript
Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni
Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA I MEDIA DIGITALI di Enrico Menduni PARTE I : - L’ERA ELETTRONICA CAPITOLO 1 - L’ERA DEI MASS MEDIA – 1.1 Che cosa sono stati i mass media I mezzi di comunicazione di massa hanno in comune il fatto di essere prodotti culturali realizzati industrialmente, riprodotti e diffusi grazie alle tecnologie in un gran numero di pezzi simili, e portano a conoscenza dei loro utenti determinati contenuti anche essi in forma industriale. Con l’avvento della radio e della televisione non c’è più un prodotto materiale da distribuire, ma attraverso le onde elettromagnetiche un insieme di contenuti è ricevuto direttamente a casa dal consumatore. Queste presentavano un’offerta di contenuti sempre più vasta e un più forte rapporto domestico con il pubblico (anche se negli anni 50 la radio diventa un medium mobile). Si definisce “broadcasting” (letteralmente “semina larga”) la diffusione radiotelevisiva da un’unica stazione emittente a tanti apparecchi riceventi dislocati all’interno di un’area di ricezione. Si tratta di una comunicazione “da uno a molti”. Anche per Internet si parla di “modalità broadcast” quando un contenuto viene erogato in forma uguale per tutti, senza possibilità ne di modifica ne di interazione da parte dei riceventi. 1.2 Media alfabetici, suoni e immagini Fino a metà dell’800 i media erano prevalentemente alfabetici: cioè soprattutto testi scritti, stampati, come i giornali e i libri. In seguito sono comparsi i media non alfabetici, cioè in grado di riprodc urre le immagini, come la fotografia e il cinema, o i suoni, come i cilindri e i dischi fonografici. La diffusione di questi è stata molto più ampia nel 900’ anche grazie alla loro connessione con l’intrattenimento (esecuzioni musicali, teatro) e la possibilità di raggiungere gli analfabeti. 1.3 A chi appartengono i media Con la proprietà pubblica un medium è gestito dallo Stato o da un’azienda statale, o anche da un soggetto formalmente privato finanziato però dallo Stato. Spesso tale gestione è sorretta da un’ideologia contrari alla proprietà privata. Nel modello di “proprietà privata” invece ci sono tre tipologie. La prima è quella degli editori (detti “puri”) che producono media per venderli e trarne profitto. La seconda è quella delle organizzazioni sociali (partiti e sindacati) che danno vita a media per diffondere le proprie idee. La terza è quella delle grandi industrie p gruppi finanziari che si dotano di mass media non per guadagnare sulle vendite ma per esercitare un’influenza economica e politica 1 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Il broadcasting telefonico nasce negli Usa nel 1922 come iniziativa privata, dove le imprese si finanziavano vendendo pubblicità nei loro programmi. In seguito tale modello si estende alla televisione. In Europa invece si passò quasi subito al monopolio pubblico. L’inglese John Reith primo direttore della BBC, stabilì che gli obiettivi della radio di servizio pubblico erano: educare informare, intrattenere. Questo modello fu mutuato anche alla televisione e negli anni 70’ si passò ad un sistema misto fra pubblico e privato. Nonostante le leggi antitrust la concentrazione dei media rimane un problema irrisolto: il fatto di essere seguite da un grande pubblico dà alle imprese mediali la possibilità di interagire con il mondo della cultura, della politica, con il mercato e dell’economia, tutelando adeguatamente i propri interessi. 1.4. Dopo i mass media Il ruolo centrale dei mass media è stato messo in discussione dagli sviluppi dell’informatica. Negli anni 80’ si diffonde il personal computer ma era ancora una rarità. Dieci anni dopo, invece, con il pc si potevano svolgere i compiti più vari. I personal computer adottano il linguaggio digitale. Si sviluppano nuovi software per specifici settori e nuovi hardware (Joystick, scanner ecc), e dal contatto con i nuovi media nascono media digitali del tutto nuovi ( es i videogiochi) o rimodellati dal passato (es la tv digitale) modificando progressivamente il sistema complessivo dei media. 1.5. Nella rete di Internet Negli anni 80’ i pc cominciano a connettersi tra loro in rete. Un semplice apparecchio, il modem, consente il transito di dati fra i computer attraverso le reti telefoniche già esistenti. Il collegamento in rete, prima risorsa gelosamente custodita da parte dei militari, poi appannaggio della comunità scientifica e delle grandi organizzazioni, diventerà negli anni 90’ un patrimonio accessibile a tutti ( o “quasi”, a causa della disparità nell’accesso all’informazioni). Come il pc, da cui nasce, e come i mass media, Internet è allo stesso tempo strumento di informazione e di conoscenza, ma anche di intrattenimento e di gioco. L’insieme di queste caratteristiche, per la prima volta sommate tutte dentro lo stesso strumento, conferisce subito ad Internet un ruolo centrale nella società. Inoltre Internet permette una comunicazione da pari a pari sia in senso conversazionale ( es messaggeria e posta elettronica) sia come possibilità per chiunque di pubblicare contenuti e renderli accessibili a tutti, sia come possibilità di modificare e selezionare in base ai propri bisogni ciò che si trova nella rete. 1.6. Un unico linguaggio: il digitale Nel 900’ ogni medium aveva un proprio linguaggio specifico, fino a che non è nato il computer. Questo infatti è riuscito a tradurre tanti linguaggi diversi in un unico linguaggio, quello digitale, fatto cioè da due numeri (digit), zero e uno, che in un circuito elettrico vengono tradotti in due posizioni: acceso e spento. Così un testo musicale, un testo scritto, una foro ecc sono tutti file diversi ma composti dagli stessi numeri, cioè zero e uno, e sono più facilmente trasferibili da un ambito all’altro. I “nuovi media” nati dalla tecnologia digitale quindi (es realtà virtuale, videogiochi) sostituiscono i vecchi mezzi di comunicazione di massa. 2 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA 1.7. Rapporti di familiarità Il trasferimento di un contenuto da un medium all’altro e la cooperazione dei media alla creazione di contenuti “multimediali” (immagini, suoni, testi) viene spesso chiamata “convergenza multimediale”, in un processo che implica uno stretto rapporto tra tre ambiti considerati, nell’era analogica, in modo distinto: media, telecomunicazioni e informatica. Nel mondo digitale la distinzione tra questi tre settori non ha più senso ____________________________________________________________________ 3 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 2 - LE TELECOMUNICAZIONI 2.1 Comunicazione P2P e telecomunicazioni Oltre alla comunicazione “uno a molti” tipica dei media esiste anche la comunicazione “uno a uno”, o “uno a pochi”, detta anche “P2P” (peer to peer,da pari a pari). Questo tipo di comunicazione, di cui fa parte anche la comunicazione orale ha un carattere privato, è richiesta una forma di interazione da parte del ricevente che a sua volta diventa emittente. Oltre alla comunicazione orale ci sono anche forme si comunicazione uno a uno a distanza, e un esempio classico, che esiste da molto tempo è il servizio postale. L’evoluzione di questo servizio è rappresentata dalle telecomunicazioni (telegrafo,telefono e derivati) che si sviluppa nell’800, prima dei mass media, e nel 900. 2.2 Dal servizio postale al telegrafo in tempo reale Il telegrafo elettrico fu un’ invenzione brevettata nel 1837 dagli inglesi Samuel Morse e Charles Wheatstone, ma fu l’americano Morse a inventare il codice composto di punti e linee in cui sono convertite le lettere dell’alfabeto, e a semplificare l’apparecchio trasmittente favorendone una larga applicazione. Il telegrafo non diffonde contenuti propri, come un giornale,ma quelli dei suoi clienti che mandando un telegramma affittano i suoi servizi. Inoltre è indifferente ai contenuti. Non fa quindi parte in senso stretto dei mass media, ma il suo contributo alla diffusione mondiale dell’informazione è stato molto importante. Negli stessi anni si creano le agenzie di stampa con la missione di distribuire notizie ai giornali e la notizia è in realtà un breve telegramma che un corrispondente invia all’agenzia e questa distribuisce ai suoi abbonati. Il telegrafo elettrico è la prima comunicazione simultanea, in tempo reale, perché i tempi di codifica e trasmissione sono trascurabili. 2.3 La cultura della simultaneità Grazie alla cultura della simultaneità si ha la possibilità di seguire a distanza un evento lontano proprio mentre si svolge. Con il telegrafo la politica,l’economia, la finanza, subiscono una drastica accellerazionee notizie che provengono anche dall’altro lato del globo vengono conosciute subito e hanno immediati effetti su paesi lontani 2.4 Pubblico e privato nel telegrafo. Il gestore unico Le linee telegrafiche vengono realizzate secondo due modelli: il modello di ispirazione francese, dove è lo Stato ad impiantare ed amministrare le linee; e il modello anglosassone, dove è l’iniziativa privata, sorvegliata dallo Stato, a organizzare i servizi traendone un utile. In America è sempre prevalsa l’iniziativa privata. La prima fase è stata contraddistinta da una rapida crescita e da una forte competizione, a cui segue una gran confusione tra i vari gestori ciascuno con regole proprie. Dopo questo primo periodo emerge un gestore unico o dominante privato (Western Union per il telegrafo, At&t per il telefono), mentre lo Stato si riserve il ruolo di regolatore. 4 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA In Europa, dopo un primo periodo lasciato all’iniziativa privata, con problemi di coordinamento, interessi e tariffe, si passa quasi ovunque a un gestore unico statale, generalmente controllato dall’amministrazione delle Poste. I motivi dell’intervento dello Stato sono vari: 1. Il livello del servizio offerto sulle reti è importante per il consenso dei cittadini e quindi per governare; 2. Lo Stato e l’esercito sono anche i principali clienti delle reti; 3. Il controllo statale permette di proteggere l’industria nazionale che produce l’hardware (cavi, apparecchi telegrafici, telefoni, rotaie ecc), spesso su licenza estere e per sbarrare la strada a investitori stranieri; 4. Le reti interessano fisicamente il territorio, richiedendo lavori scavi ecc e quindi un coinvolgimento della politica. Naturalmente per i paesi poveri non esiste l’alternativa tra pubblico e privato, o ci pensa lo Stato o nessun privato troverà mai convenienza a organizzare servizi in perdita. E’ il caso dell’Italia Ottocentesca. Aldilà della proprietà pubblica o privata nella seconda metà dell’ 800 in tutto il mondo si afferma il concetto del gestore unico, nelle ferrovie, nel telegrafo e nel telefono. In Italia purtroppo avremo un gestore unico solo nel 1994, con conseguenze gravi su tutto il paese: già nelle altre nazioni si avviava la concorrenza. 2.5 Comunicazione pubblica, di affari e privata L’influenza del telegrafo sulla vita pubblica, a partire da metà dell’800, è stata enorme ( si usava per dare ordini agli eserciti, notizie ai giornali, quotazioni di borsa ecc) ed ha avviato la spinta verso la “cultura della simultaneità”. Minore invece è stato il suo utilizzo nella sfera privata. Questo a causa del costo elevato del servizio, ma anche per la procedura troppo macchinosa ( recarsi ad un ufficio postale dove un operatore convertiva la nostra richiesta in alfabeto Morse, poi lo spediva ad un altro ufficio telegrafico da cui, scritto su un apposito modulo, veniva recapitato a domicilio da un fattorino). Tale procedura era inoltre inadatta a messaggi privati e intimi in quanto gli impiegati telegrafici leggevano tutti i testi, anzi li scandivano in presenza del mittente per contare il numero delle parole (il telegramma si pagava un tanto a parola). La segretezza delle comunicazioni per telegramma era impossibile. Pere questo il telegramma è stato usato nella comunicazione privata sopratutto per inviare auguri, congratulazioni, condoglianze. 2.6 Il telefono Lo strumento che ha velocizzato la vita privata è il telefono. Nasce nella seconda metà dell’800 e si sviluppa decisamente nel 900. Si tratta di un sistema a filo che permette una comunicazione vocale a due vie tra due apparecchi remoti attraverso una centrale che smista la chiamata di un abbonato a un altro. Ha la rapidità del telegrafo ma non richiede un operatore professionale, chiunque può fare da se una telefonata. Per questo il telefono ha avuto fin da subiti un’utenza pubblica e un’utenza affari come il telegrafo, ma a queste si è aggiunta un’utenza domiciliare di privati e famiglie. Invenzione contesa tra l’immigrato italiano in America Antonio Meucci (1871), che però non ha il denaro per rinnovare il brevetto, ed Elisha Gray e Alexander Graham Bell, che depositano così i loro brevetti il 14 Febbraio 1876. 5 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Bell, esperto di acustica, chiese ed ottenne il brevetto. Tuttavia il funzionamento era incerto. Insorsero decine di cause e i finanziatori di Bell, spaventati, nel 1876 offrirono in vendita il brevetto alla Western Union, l’azienda che aveva il monopolio dei telegrafi, per 100.000 dollari. La Western Union però rifiutò. L’anno dopo però ci ripensò e si mise in concorrenza con la Bell Telephone Company che però la citò in giudizio per violazione di brevetto. La sentenza, nel 1879, diede torto alla Western Union che sconfitta uscì dal settore cedendo alla Bell i suoi brevetti e i suoi clienti. La Bell nel 1885 creò l’At&t (American Telephone and Telegraph Corporation), società per il traffico interurbano. Oggi la Western Union esiste ancora ma si limita al settore dell’invio a distanza di denaro, un servizio per immigrati inventato nel 1871 e ancora molto usato anche oggi in Italia. La At&t è invece una delle più grandi imprese al mondo. 2.7 La commutazione automatica Verso il 1880 il telefono era già completo di molti accessori: la cornette, il campanello. Non si poteva però telefonare direttamente ad un altro abbonato: si doveva chiamare una centralinista che metteva in contatto con l’utenza richiesta: ella aveva davanti a se un pannello con tanti spinotti che andavano inseriti per chiudere il circuito del telefono destinatario. La privacy in questa fase era molto ridotta. La commutazione automatica fu inventata dall’americano Almon Strowger. Nella centrale telefonica da lui inventata una lamina di rame veniva fatta scattare senza intervento umano da un circuito elettrico, facendo contatto con l’utenza desiderata. Un sistema definito perciò “elettromeccanico”. La prima centrale automatica è del 1892 nell’Indiana, con 75 utenti. Nella cornetta dell’apparecchio si sentiva un segnale se la linea era libera e un altro se era occupata. Poco dopo fu inventato anche il disco combinatore (nel 1896 da Alexander Keith e i fratelli Erickson). Infine, la commutazione automatica permetteva, con un contatore, di segnare gli “scatti” che l’abbonato doveva pagare. Il telefono era il primo medium a contatore, che prevedeva al suo interno un sistema automatico di fatturazione (billing), e anche il primo ad essere disponibile a tutti, per la strada. I primi telefoni a moneta risalgono alla fine dell’800. Tuttavia c’era il problema che il segnale telefonico si affievoliva notevolmente con le lunghe distanze. L’invenzione da parte di Lee De Forest nel 1906 del “triodo”, la prima valvola elettronica, non solo contribuì alla storia della radio ma diede alla telefonia lo strumento che le mancava per potenziare il segnale nelle lunghe distanze, e ciò permise di realizzare reti nazionali di telefoni e di connetterle tra loro, come era avvenuto per le reti ferroviarie e telegrafiche. 2.8 Teletex e telescriventi Alla fine dell’800 cominciano a svilupparsi sistemi telegrafici in grado di superare il tasto unico su cui il telegrafista batteva l’alfabeto Morse. Il francese Emile Baudot,, brevettò nel 1874 il suo sistema di telegrafia rapida. Grazie a un codice di sua invenzione fondato su 0 e 1 (e quindi progenitore del codice Ascii dei computer), riusciva a rappresentare con 5 elementi tutte le lettere e i numeri, che venivano codificati battendo su una tastiera di cinque tasti e inviati come impulsi sulla linea telegrafica.. In ricezione cinque elettrocalamite memorizzavano il segnale in arrivo, che veniva decodificato e stampato su lunghe strisce di carta. 6 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Il sistema Baudot di telegrafia rapida si diffuse largamente anche se, con una tastiera a cinque tasti, l’onere della codifica rimaneva integralmente alla professionalità del telegrafista. Poco più tardi si diffusero le macchine da scrivere (1896). L’efficacia della tastiera alfabetica fu immediata, e si cominciò a pensare a un dispositivo elettromeccanico scrivente per trasmettere messaggi testuali attraverso la rete telegrafica, che sarà la telescrivente. Il problema del telegrafo era che i messaggi una volta arrivati alla stazione telegrafica dovevano essere portati a destinazione dai fattorini. Si cominciò così negli anni 30’del 900’a pensare di collegare telescriventi direttamente nelle sedi dei grandi utenti del telegrafo (es amministrazioni pubbliche e imprese), connettendole con i loro corrispondenti in modo da avere un fitto scambio di messaggi senza il passaggio dalla centrale telegrafica e il trasporto fisico dei dispacci. Il telex era una combinazione tra il telegrafo e il telefono. Del primo prendeva il carattere scritto della comunicazione, del secondala commutazione automatica verso l’utente. Il telex era però riservato a pochi grandi utenti. Fino agli anni 80 ha rappresentato la modalità principale per la comunicazione dei messaggi di agenzia alle testate giornalistiche e la loro diffusione nelle redazioni. In Italia il telex, tecnologia elettromeccanica e rappresentativo di un’era analogica, è stato ufficialmente abolito nel Novembre 2001 e sostituito dalla scrittura elettronica a video e quindi da Internet. 2.9 Telefoto e fax La telefoto è l’immagine ricevuta a distanza con una qualità elevata, che la rende utilizzabile nell’industria editoriale. La qualità è ottenuta convertendo l’immagine in segnali acustici e in ricezione trasformandoli in segnali luminosi che impressionano un rullo di carta fotografica regolarmente sviluppato. Padre della telefoto (1907) è considerato il francese Belin che l’applicò nel 1914 alle foto giornalistiche di attualità. Nel 1921 Belin inventò anche un metodo per il trasferimento di fotografie via radio. Tra le due guerre la trasmissione delle foto giornalistiche divenne una pratica quotidiana. Anche la telefoto è un ibrido tra telegrafo, telefono e radio. Sarà poi soppiantata dalla fotografia digitale. Il telefax rappresenta lo sforzo di andare oltre al limite della comunicazione telefonica (che non prevedeva la registrazione di ciò che si comunicava, non dava la possibilità alla voce di essere archiviata, conservata), riproducendo a distanza un testo scritto che può essere letto ma anche conservato. La sua paternità risale alla metà dell’800 (contesa tra Bain e l’italiano Caselli) e la sua diffusione risale agli anni 70’ del 900’. Inizialmente gli apparecchi erano ingombranti, successivamente sono apparsi gli apparecchi collegabili direttamente al telefono di casa di proporzioni e prezzi ridotti, dotati di una stampante con carta termica. Il fax è stato assorbito ed eliminato da Internet. Oggi comunicare via fax è considerato indice di bassa alfabetizzazione tecnologica. 2.10 Theodore Vail e il servizio universale Lo sviluppo del telefono è stato ampio perché organizzato come un “servizio universale”, accessibile a tutti in qualsiasi parte remota del mondo, rappresentando così un completamento dei diritti di cittadinanza. Questa idea è stata concepita da Vail, direttore della Bell Company, che investiva parti dei ricavi della società per espandere il servizio anche in paesi dove c’era poca possibilità di guadagno. Egli creò un gruppo di imprese, il Bell System, e nel 1931 fece un accordo con il governo americano per consentire alle piccole imprese telefoniche indipendenti, in nome del “servizio universale”, l’interconnessione a pagamento con la rete interurbana della Bell, (At&T). 7 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Quindi Vail di garantì un monopolio della telefonia americana. Nel 1925 molto importante fu l’invenzione da parte della Bell di un gran laboratorio di ricerca, il Bell Labs, da cui uscirono invenzioni come il transistor e i satelliti per le telecomunicazioni. Il monopolio della Bell durò fino al 1982, quando un la sentenza di un tribunale americano condannò la società per violazione delle norme antitrust e impose la sua divisione in un corpo centrale per il traffico a lunga distanza e sette società regionali (Baby Bells). 2.11 Il telefono i Europa e in Italia La prima centrale telefonica europea fu quella tedesca di Colonia del 1877. Il Italia il telefono giunse poco dopo e all’inizio fu sviluppato da imprenditori privati sulla base di concessioni attribuite dal governo. Le prime concessioni sono del 1881 e riguardano reti urbane. Lo sviluppo del servizio in Italia fu lento e debole. Quando l’evoluzione tecnologica permise la comunicazione interurbana, ,l’orientamento che prevalse fu quello di una gestione mista: statale per le linee interurbane, internazionali, e principali reti urbane, privata per le reti urbane secondarie. Nel 1907 una legge consegnò la gestione dei telefoni a una Direzione generale del ministero delle Poste. Dopo la prima guerra mondiale, nel 1925, la situazione cambiò. Lo Stato tenne per se i collegamenti interurbani, costituendo l’Azienda di Stato per i servizi telefonici (Asst), autonoma rispetto al ministero delle poste, e il resto della rete fu diviso in cinque società private per diverse regioni: Stipel, Telve, Timo, Teti, Set. Con la crisi economica del 1929 le concessionarie telefoniche andarono in crisi. Fu costituito così l’Iri (Istituto per la Ricostruzione Industriale), che continuò la sua attività anche dopo la guerra. Nel 1933-34 le concessionarie telefoniche Stipel, Telve e Timo, investite dalla crisi passarono all’Iri, che costituì una holding di settore, la Stet (la quale appunto per conto di un ente più grande, cioè l’Iri, si occupa del coordinamento e l’indirizzo delle società controllate). Nel 1955 l’Iri acquisì anche le due restanti società telefoniche, Teti e Set. A quel punto il servizio telefonico era totalmente in mani pubbliche ma diviso in tante società. Nel 1962 una società elettrica, la Sip (Società Idroelettrica Piemonte) , di proprietà dell’Iri, viene indennizzata per l’esproprio degli impianti dopo che l’industria Enel viene nazionalizzata e diventa Ente pubblico. Così l’Istituto approfitta e nel 1964 le cinque concessionarie telefoniche di fondono per incorporazione nella Sip (che diventa “Società Italiana per l’esercizio telefonico), controllata dalla Stet. Dal 1970 è possibile la teleselezione in tutta Italia (prima le interurbane si svolgevano ancora tramite operatore). Tuttavia ci sono ancora tanti gestori, tutti pubblici, uno per i collegamenti intercontinentali (Italcable), satelittari (Telespazio), e l’Asst (Azienda di stato per i servizi telefonici). Solo tra il 1992 e il 1993 tutte le società pubbliche i fonderanno nella nuova società Telecom Italia, gestore unico delle telecomunicazioni, che però gli altri paesi Europei avevano già dalla seconda metà dell’Ottocento!!! 2.12 La deregulation delle telecomunicazioni I monopoli nazionali delle telecomunicazioni si dissolvono negli anni 80 del 900. I motivi sono 4:tecnologico, di mercato, di internazionalizzazione, di convergenza. 1. Da un punto di vista tecnologico non c’è più un’unica rete ma una pluralità di sistemi di trasmissione, inoltre si sono molteplice le tecnologie di comunicazione (cavi in fibra ottica, satelliti per telecomunicazioni,ponti radio ecc). 8 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA 2. mercato profitevvole e di grande liquidità, quindi quando cìè guadagno si tende a richiedere la privatizzazione; 3. l’aumento della capacità di connessione, il ribasso dei prezzi, fa si che un operatore straniero è in grado di fare concorrenza sul suo territorio a un operatore italiano. 4. convergemza multimediale a due: la tv e l’informatica, che voglione entrambe convergere con le telecomunicazioni. Con il monopolio ciò non era possibile. La Gran Bretagna nel 1981 è il primo paese che i accinge a privatizzare il proprio sistema di telecom ubicazioni, e una legge divide i sistemi postali da quelli delle telecomunicazioni. Negli Stati Uniti, nel 1982, la At&t è divisa in sette società. In Giappone nel 1985 viene privatizzata la Ntt. Queste tre date, 1981,82,85,segnano l’inizio della deregulation nelle telecomuiicazioni e l’integrazione tra informatica e telefonia. L’Europa ha definito nel 1990 la liberalizzazione del settore, per gradi. Ultima ad essere liberalizzata la telefonia vocale nbel gennaio 98. Dopo il 1990 i paesi europei adeguano la loro legislazione alla normativa europea:le poste vengono distinte dalle telecomu8nicazioni e si inizia ad introdurre la concorrenza. 2.13 La privatizzazione delle telecomunicazioni in Italia Nel 1992 l’Italia avvia la privatizzazione dell’Iri e della sua controllata Stet, proprietaria di Telecom. Telecom Italia tenta un prioogetti di cablaggio s a fibre ottiche (Progetto Socrate, ma abbandonato perccè troppo costoso), costituisce una società per realizzare contenuti multimediali, la Stream, e la concessionaria per pubblicità si tv e giornali Mmp. Cerca di occuparsi quindi anche di contenuti. Intanto il servizio che cresce di più è la telefonia cellulare, nel 95 è affidata da Telecom alla società Tim, che gestisce i cellulari analogici di prima generazione (Tacs); dal 93 compaioni i primi cellulari digitali, sempre esclusivi di Tim. Solo alla fine del 95 è ammesso un secondo gestore, Omnitel, del gruppo Olivetti. Nel 97 Prodi decide la privatizzazione di Telecom Italia. Presidente è Guido Rossi, e il modello è quello della Pubblic Company. Questa è una società in realtà privata, il cui capitale è diffuso tra moltissimi azionisti, nessuno dei quali può però influire sull’andamento della società, la quale è amministrata completamente dai suoi manager. Lo Stato ne mantiene un certo controllo con solo il 3,5% delle azioni. Ciò avviene attraverso la cd golden share, (azione d’oro). Lo Stato si riserva cioè alcuni poteri speciali:possibilità di veto su determinate scelte e gradimento sull’ingresso di soci in posizioni fondamentali. La Public Company però dura poco. Dopo nemmeno un anno Guido Rossi si dimette. Come amministratore delegato giunge Franco Bernabè ma pochi mesi dopo il modello della public company è del tutto infranto. Nel 1999 il finanziere Roberto Colaninno lancia un’offerta pubblica di acquisto di azion i Telecom Italia. Nel 2001 Telecom si espande acquistando dall gruppo Cecchi Gori, in gravi crisi, le reti Tmc e Tmc2, che diventeranno La7 e Mtv Italia. Nel 2001 il controllo di Telecom passa alla finanziaria Olimpia (Pirelli e Benetton), con l’appoggio di Banca Intesa e Unicredito. Marco Tronchetti Provera, nuovo presidente Telecom, si dedica alla riduzione del debito. A tal fine è rivolto il riacquisto di circa metà delle azioni Tim, tra il 2004 e il 2005, ma ciò causa un enorme esborso finanziario e il debito cresce. 9 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Nel settembre 2006 Telecom vende ancora proprie aziende e decide di organizzare l’azienda in tre divisioni: la prima dedicata a telefonia fissa e mass media, la seconda al mobile, la terza alla rete telefonica. Intanto si apre un’inchiesta giudiziaria per attività e spionaggio di telefonate cellulari. Tronchetti è così costretto alle dimissioni e la presidenza del consiglio d’amministrazione è di nuovo affidata a Guido Rossi (15 Settembre 2006). Il 12 Marzo 2007 Tronchetti Provera vende le azioni in possesso della finanziaria Olimpia e rinuncia al controllo del gruppo. _________________________________________________ 10 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 3 - L’INFORMATICA E IL COMPUTER 3.1 Calcolare e controllare in una società complessa Il calcolo fino a 50 anni fa costituiva un vero problema. Solo nel dopoguerra sono apparse le prime calcolatrici scriventi di dimensioni e costi ridotti. Oggi sono affidati al computer problemi non solo quantitativi ma anche quesiti logici (es giocare a scacchi, sorteggiare partite di calcio ecc) che il computer interprete e legge comunque in forma numerica. Oggi il computer può: a) effettuare calcoli complessi b) ordinare e tenere in memoria dati c) utilizzare le prime due funzioni per risolvere problemi logici d) utilizzare tutte le funzioni precedenti per controllare e programmare altre macchine e altri computer. 3.2 Nascita del calcolo automatico Le prime macchine per calcolare furono realizzata nell’Europa del 600. Pascal e Leibniz avevano concepito macchine calcolatrici basate su ruote dentate che riproducevano il procedimento della somma. Nell’800 Bobbage con la sua “analytical engine” si avvicinò ai moderni calcolatori in quanto il suo macchinario aveva anche una memoria e un metodo dio immissione dei dati fondato su schede perforate, con le quali Bobbage inseriva i dati nella sua macchina. I principi della macchina di Bobbage ispirarono nel 1889 Herman Hollerith la cui macchina era in grado di contare ed elaborare dati anagrafici riportati su schede perforate. Prima di questa invenzione i censimento della popolazione erano lentissimi. La tabulatrice di Hollerith fu utilizzata per il censimento del 1890, che stavolta durò solo due anni e mezzo. Lo strumento ebbe un gran successo, fu prodotto in serie e venduto a pubbliche amministrazioni, società ed enti, da una società fondata proprio per lo sfruttamento dell’invenzione, che nel 1924 assume il nome di International Business Machine, IBM. Negli stessi anni l’industria e il commercio richiedono sempre più macchine per il calcolo e la registrazione di dati. Nel 1879 viene inventato in America il primo registratore di cassa per i negozi, e nel 1896 la prima moderna machina da scrivere dalla Underwood. Con la macchina da scrivere fa la sua comparsa la tastiera (quella inglese è detta “qwerty”, quella italiana “qzerty”, la prima ha prevalso quando mla tastiera è passata al computer). 3.3 Oltre i limiti fisici dell’elettromeccanica La macchina di Hollerith aveva comunque dei limiti fisici delle schede e del loro trattamento elettromeccanico. Trasportare non un oggetto fisico ma un impulso elettrico poteva essere più facile. Nel 1927 entra in funzione al Mit (Masssachussets Institute of Technology) una macchina denominata “differential analyzer”), realizzata da Vannevar Bush e altri. E’ un sistema analogico, parzialmente elettromeccanico e parzialmente elettronico, che utilizza come commutatori valvole termoioniche. Ci volevano però diversi giorni per impostare il programma necessario per il calcolo. 11 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Nel 1936 il matematico inglese Alan Turing sostiene la commutabilità (calcolabilità) dei problemi attraverso una macchina algoritmica, che traduce cioè i problemi in algoritmi, di uso generale e universale. Durante la guerra Turino e altri studiosi fondano un centro interamente dedicato alla decifrazione dei messaggi cifrati nazisti. I tedeschi disponevano di una macchina crittografica chiamata “Enigma”. A Bletchley Park il gruppo inglese costruì quindi con la supervisione di Turing un enorme calcolatrice elettromeccanica, Colossus, che decifrava migliaia di messaggi nemici ogni giorno. Nel dopoguerra Turino si dedicò all’intelligenza artificiale. Intanto si affermarono centri di ricerca americani, come quello dell’Univresita di Pennsylvania in cui nacque il primo calcolatore americano Eniac, per il calcolo delle tabelle balistiche. L’ibm realizza nel 1942 il suo calcolatore Mark1. Tuttavia nessuno aveva ancora pensato di vendere i calcolatori per scopi commerciali. Essi erano ritenuti adatti solo alla ricerca scientifica o ai programmi militari. 3.4 La diffusione dei grandi computer Nel dopoguerra determinante fu nello sviluppo dei computer il gruppo dell’Università di Princeton e in particolare John Von Neumann, matematico di origine ungherese che indicò come era possibile immettere nel calcolatore delle “istruzioni di funzionamento” mamorizzate allo stesso modo dei dati all’interno della memoria centrale. I computer di questo tipo saranno chiamati “macchine di Von Neumann”. Fino ad allora i computer eseguivano solo le istruzioni per cui erano state costruite, adesso si potevano immettere nel computer, di volta in volta, i programmi per affrontare un compito determinato, o conservarli nella memoria. Von Neumann partecipò al gruppo che aveva ideato le bombe atomiche sganciate su Hiroshima e Nagasaki, suo è il calcola dell’altezza dal suolo a cui dovevano esplodere per creare più danni possibili. La sua influenza contribuì inoltre alla diffusione del computer nelle alte sfere del governo e nell’industria. Nel 1950 inoltre i progettisti dell’Eniac costituirono una società, l’Univac, per la commercializzazione dei calcolatori, fu allora che l’Ibm so alleo con la Remighton Rand e produsse il modello 701 nel 1953 e io 650 nel 1954, che eggìbbe un gran successo e fu venduto in più di mille esemplari. Comincia così la diffusione dei grandi computer, la cd “mainframe”. Essa fu favorita dalla sostituzione delle ingombranti valvole con i transistor, inventati nei laboratori Bell nel 1948 e applicati in tutte e tre le tecnologie: telecomunicazioni, broadcasting e computer. La scoperta dei metalli semiconduttori permetterà poi la sostituzione dei transitor con quelli che diventeranno chip e microchip. I grandi calcolatori sono stati una specialità americana. La Bull francese viene ceduta all’americana General Eletric nel 1964 e un mese dopo anche l’Olivetti viene acquistata dalla società americana. Intanto si diffonde la parola “informatica” (1962), che indica l’insieme delle scienze e delle tecnologie per il trattamento automatico delle informazioni, in ambiente anglosassone si parla invece di Ict ( Informtaion and Communication Tecnology”), e circola negli stessi anni anche il termine “intelligenza artificiale”. 3.5 I computer negli anni 60 e 70 Negli anni 60 i grandi computer, i mainframe, erano ormai collocati negli uffici delle pubbliche amministrazioni, in istituti statistici, nelle Forze Armate, università, centri di ricerca, e in seguito 12 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA banche, aziende erogatrici di acqua, gas e luce alle prese con bollette e fatture, aziende di trasporto con problemi di orari e coincidenze, istituzioni con personale, fatture, fornitori ecc. Per funzionare il computer aveva bisogno di programmi (ovvero sequenze di istruzioni che lo guidano nell’elaborazione di dati) molto complessi prodotti da esperti programmatori (system analist). Tra il linguaggi più usati c’era anche il Basic (1964), il più semplice, che diventerà per questo linguaggio di programmazione dei primi personal computer. Tuttavia la presenza dei computer nella vita quotidiana della gente comune era ancora quasi nulla. 3.6 Verso il personal computer Dal 1961 si diffonde il “time sharing”, ovvero l’idea di gestie un computer in condominio: una logica cooperativa, ad esempio un’università comprava un solo computer e poi creava un centro di calcolo collegato con cavi ai vari edifici dotati di “terminali” (una console con tastiera collegata al computer). Era una visione gerarchica definita master/slave, perché i terminali avevano possibilità di accesso ridotte e dunque autonomia limitata. Tuttavia si faceva comunque strada l’idea che era necessaria una cooptazione sociale attorno al computer e che rivolgersi ad un pubblico più ampio significava sviluppare altri possibili usi del computer. Il computer poteva così entrare in una sfera privata aumentando le quote di P2P e anche le esigenze di intrattenimento. Rimanevano tuttavia barriere come i costi, le dimensioni, e il problema della alfabettizzazione sociale: poche persone sapevano usarlo. Negli anni 70 quasi tutte queste barriere furono frantumate. Nel 1970 Intel presenta una memoria Ram fatta con semiconduttori che ha dimensioni e costi ridotti e diventerà la memoria standard dei futuri pc. Nel 1971, dalla Intel arriva un’Invenzione ancora più importante, il microprocessore, un minuscolo circuito integrato 3x4mm. Questa drastica riduzione di scala permetterà di realizzare computer molto più piccolina anche di collocare computer in altri apparecchi e processi. Ma la strada verso il personal computer, grazie allla RAM e al microprocessore, non fu sbarrata tanto dalla Ibm e le altre imprese di computer quanto da latri soggetti: gli studenti universitari. Giovani californiani contigui alla cultura hippie che lavorano in garage, teatro dell’inventore geniale,e fondano una specie di distretto industriale diffuso con caratteristiche insieme amicali cooperative e competitive: la Silicon Valley. Fu chiamata così nel 1971, ed è la Santa Clara Valley nella parte meridionale della Baia di San Francisco.. Nella Silicon Vallry, la valle del silicio (metallo usato per i semiconduttori) nascono migliaia di imprese legate ai computer e a componenti elettronici, e dove si stabilirono imprese come Apple, Intel, Adobe, Google, Yahoo, Cisco, eBay, Pixar, Sun Microsistem, Logitech e altre. Negli stessi anni molte imprese che progettano software e scuole di ingegneria informatica si spostano in paesi dove il lavoro costa poco ma si parla inglese e c’è una buona formazione, come l’India. 3.7 Giovani appassionati e scatole di montaggio Nel 1972 nasce una piccola società, Atari, il cui inventore, Nolan Bushnell, aveva realizzato un videogioco, Computer Space, definito “arcade”, ovvero destinato alle sale giochi. Tuttavia il gioco era troppo complicato per la cultura popolare, allora Busnell inventò un gioco semplicissimo: Pong (1972), la simulazione di una vera partita a tennis in bianco e nero. Nel 1975 Atari ne produce una versione domestica, Home Pong, che si gioca sul televisore. Nel 1978 Atari produrrà il computer Atari 400 e poi 800. 13 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Atari non esiste più ma è curioso che il personal computer discenda direttamente dal gioco e dall’intrattenimento. Negli stessi anni il film lascia le sale cinematografiche per entrare nello schermo del televisore, si afferma così una logica “consumer”, vendere i propri prodotti (economici e replicabili in milioni di copie) non solo più a clienti professionali ma a persone qualsiasi dotate di strumenti necessari (computer, tv, videoregistratori, console per videogiochi). In seguito una piccola impresa di Albuquerque nel New Mexico,la Mits, lancia il computer Altair 8800, dal costo di 498 dollari montato e collaudato. Gli accessori però erano a parte e costavano cari, si potevano però usare di seconda mano, e ciò sviluppò la capacità adattiva tipica degli hobbysti.. La vera novità di Altair era il linguaggio di programmazione: un adattamento semplificato del Basic scritto da Paul Allen e Bill Gates, i quali appunto rendono il Basic compatibile con Altair, registrano il prodotto e lo offrono in licenza alla Mits. Il nome Microsoft viene registrato ad Albuquerque nel novembre 1976. Simile ad Altair ma più potente è l’IMSAI 8080, realizzato nel 1975, ma non disponeva di un sistema operativo avanzato come Altair, protetto da copyright: il software comincia a fare la differenza. Hardware e software cominciano a differenziare la loro strada: “Hardware” -> ferramenta, parte del computer fisicamente costruita, stampanti, monitor, tastiera ecc. “Software” -> tutto ciò che è “soffice”, immateriale, ovvero il sistema operativo e i programmi. 3.8 Apple, Ibm, Microsoft La storia di Apple è una leggenda americana. Nel 1976 a Palo Alto, due ragazzi, Steve Jobs (un hippie che lavora all’Atari) e Stephen Wozniak, nel garage del primo realizzano il loro primo computer, Apple 1. Nel 1977 arriva Apple II, dal disegno molto curato come sarà tradizione della casa, e un terzo socio, Mike Makkula, che apporta molto capitale. Nel 1977 un arbitrato tra Mit e Microsoft permette a quest’ultima di vendere il programma ad altri fabbricanti di computer, Apple compresa. Intanto nel 1976 è stato inventato il termine “personal computer”. L’anno successivo appaiono le feritoie (slot) per inserire i floppy disk e viene realizzato anche il primo modem (modulatordemodulator) per personal computer, l’apparecchio che permette di utilizzare le linee telefoniche per collegare fra loro i pc. Nel 1980 una ditta inglese, la Sinclair, mette in commercio personal computer a prezzi stracciati suscitando una guerra di prezzi che taglierà drasticamente i prezzi dell’informatica. Ibm è fuori dalla cultura del personal computer, non riuscendo a comprenderne inizialmente l’utilità. Poi nel 1981, il lancio di un pc con un processore di grande velocità, monitor, tastiera separata, stampante ad aghi, slot per floppy, sarà un gran successo, e riuscirà a imporre il suo standard. Ibm (così come aveva fatto Apple) rende aperta l’architettura del proprio sistema e affida alla piccola Microsoft l’incarico di creare un sistema operativo per i futuri pc Ibm. Gates ed Allen così in sole otto settimane realizzano l’MS-DOS che saràfprnito di corredo ai personal computer dell’Ibm. L’anno successivo la Microsoft mette in commercio una versione migliorata dell’MS-DOS che può essere acquistata anche da chi non ha un computer Ibm. Inizia così il fenomeno degli “Ibm compatibili”: computer che, grazie all’architettura aperta del pc Ibm, ne imitano l’hardware e utilizzano il sistema operativo Microsoft. Solo Apple non cede alla compatibilità con Ibm e presidia con successo una fascia alta di utilizzatori conquistati dalla potenza, semplicità e capacità grafica 14 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA delle sue macchine dal raffinato design. Il resto dei costruttori di pc imita l’architettura Ibm e si rivolge a Microsoft perché il funzionamento delle loro macchine esige l’MS-DOS 3.9 Le interfacce grafiche utente L’ MS-DOS è nettamente inferiore al sistema operativo di Apple e il divario si accentua quando nel 1984 viene messo in vendita il Macintosh ( o Mac). Il sistema operativo del Macintosh ha una facilità d’uso prima sconosciuta. Esso è fondato sulla semplificazione dell’interfaccia macchinautente, in modo che sarà possibile user-friendly, semplice e gradevole per l’utilizzatore. Viene scelta per la prima volta un’interfaccia grafica (GUI) basata su disegni intuitivi . Il Mac infatti adotta la metafora della scrivania dell’ufficio su cui si mettono documenti (file) e cartelle (folder) con un nome e da cui si butta nel cestino ciò che non serve più. Ogni elemento è rappresentato da un’icona . Questo tipo di interfaccia grafica viene chiamata WYSIWYG (acronimo per “what you see is what you get”). Contemporaneamente, Macintosh fa propria la metafora delle finestre: più documenti, cartelle e programmi possono essere aperte contemporaneamente, e ciò conferisce all’operatività del computer un carattere ipertestuale. Tutto ciò nel 1984 era una novità assoluta. Nel 1985 Microsoft lancia in grande stile Windows. Come dice la parola stessa, anche questo un sistema operativo con un’interfaccia grafica a finestre che usa il mouse. Solo dalla versione 3 del 1990 Windows sarà competitivo con Macintosh. Tuttavia Microsoft si afferma nettamente perché il suo software è fornito all’origine da Ibm e praticamente da tutti i fabbricanti di computer Ibm compatibili, e può essere acquistato separatamente a soli 99 dollari. Windows è un programma integratore: cioè una piattaforma che fornisce all’origine alcuni programmi elementari: una calcolatrice, ujn blocco note, giochi, un semplice programma di scrittura e uno di disegno. Se si vuole avere di più, bisogna integrare il sistema operativo con programmi costruiti specificatamente per quella piattaforma acquistandoli separatamente. I programmi di Microsoft hanno una versione anche per il Mac, e conquisterà così una posizione dominante. Nel frattempo il sistema operativo deve avere una potenza sempre maggiore per garantire la semplicità d’uso dell’interfaccia grafica. I programmi si devono così continuamente adeguare a questa nuova potenza richiesta. Nel 1987 Apple introduce il software applicativo Hyper Card, principale programma per creare ipertesti (un contenuto con un sistema di detti link), prima della diffusione di massa di HTML. Prima di Power Point Hypercard era usato per le presentazioni multimediali. Tuttavia HyperCard sarà travolto appunto da HTML, PowerPoint e Microsoft Word. 3.10 Scrivere, calcolare, disegnare, ordinare I programmi applicativi erano necessari affinché il computer risultasse utile anche alla gente comune. Alla fine degli anni 70 compaiono i primi antenati del foglio di calcolo Excel, i modelli più difusi sono VisiCalc e Lotus. Nel 1979 escono Word Perfect e Word Star, entrambi per scrivere. Nel 1983 l’azienda di Bill Gates produce l’attuale Word e intanto si è imposto anche Excel. Nel 1987 con l’arrivo di Windows, Excel, Word e altri programmi minori vengono prodotti in nuove edizioni compatibili con Windows, mentre Microsoft compra una piccola azienda che produce PowerPoint. Nel 1989 compare il pacchetto Office con Word, Excel, Power Point e altri programmi insieme, per la prima volta venduti in un cd-rom. Ad essi si aggiungerà anche Access. Ad ogni nuova edizione di Windows vengono presuntate nuove edizioni dei programmi e di Office che spinge gli utenti a comprare gli aggiornamenti spesso e a cambiare computer. 15 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA La privatizzazione del software, che viene comprato e venduto, provoca la reazione di coloro che nell’università e nei centeri di ricerca avevano lavorato in modo cooperativo sul software e si erano scambiato i prodotti del loro lavoro. Nasce così l’ideologia hacker , che non ha il significato negativo che le daranno i media, ma indica una comunità di appassionati della programmazione. C’era un sistema operativo largamente disponibile, Unix, elaborato dalla At&T. Nel 1983 Stallman dek Mit fonda il progetto Gnu e la Free Software Foundation, per sviluppare e condividere il software free, libero e gratuito insieme. Stallman rende il software Gnu compatibile con il sistema operativo Unix, in modo da aumentarne la diffusione libera che viene chiamata copyleft. Nel 1991, uno studente, Linus Torvalds, mette a punto cooperativamente con molti sviluppatori sparsi nel mondo un kernel (nucleo del sistema operativo) compatibile con Unix particolarmente efficiente, che sarà chiamato Linux. Nel 1997 Perens, Raymond e altri ridefiniscono il software libero come open source , mettendo l’accento sulla “condivisione del codice” più che sulla cessione gratuita di un bene. Gli anni 90’ vedono comunque il predominio di Microsoft nel software. Nasce però nell’ambito di Mac il programma Adobe Acrobat che permette la confezione di testi molto curati, che sono leggibili e copiabili da chi dispone di Acrobate Reader. Sempre dall’ambiente Mac nasce Adobe Photoshop. Contemporaneamente nasce l’espressione “realtà virtuale”, coniata nel 1989 da Jason Lanier. Questa è la situazione prima dell’avvento di Internet come pratica diffusa e popolare. Nei primi anni 90 Microsoft è tra l’altro piuttosto scettica nei confronti di Internet e della posta elettronica. Solo nel 95 verrà lanciato Windows 95 che comprende il browser Explorer e il programma di posta Outlook. 3.11 Prove tecniche di convergenza: computer e quotidiani Il giornale quotidiano è il primo fra i media ad essere trasformato dall’arrivo dei computer in redazione e in tipografia. Negli anni 60 del 900 le macchine compositrici sono state modificate in modo da non produrre più righe di piombo ma incidere direttamente il testo su una pellicola fotografica. Questo processo, chiamato “fotocomposiziopne”è stato presto assistito dal computer. La fotocomposizione è la premessa per trasmettere a distanza le pagine già impaginate e composte, in modo che possono trasmettere a distanza le pagine già impaginate e composte, in modo da poter essere stampate in un’altra tipografia: è la “teletrasmissione”. Il primo esperimento lo fece il New York Times nel 1960 e nel 64 “La Stampa” in Italia. Il risparmio era evidente. Tuttavia, con la diffusione crescente di software per la composizione (come Aldus Pacemaker e QuarkXPress in ambiente Mac), l’impaginatura poteva avvenire direttamente al computer, comandata direttamente da un caporedattore, o dal giornalista stesso che scriveva il pezzo. L’organizzazione del giornale veniva drasticamente cambiata. I giornalisti battevano i loro articoli non alla macchina da scrivere ma a una tastiera di computer. Il caporedattore di ogni pagina la componeva ordinando i varo articoli, scegliendo da un repertorio di formati-tipo l’impaginazione che meglio si adattava . Altri addetti inserivano direttamente dal computer le foto, pubblicità, grafica ecc. A questo punto l’impaginato del quotidiano veniva inviato ai vari stabilimenti di stampa. Questo nuovo assetto da un lato ha fatto sentire molti giornalisti sminuiti nella loro funzione, dall’altro però ha fatto diminuire le spese di produzione e quindi ha consentito maggiori possibilità di sopravvivenza. 16 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Infatti si è potenziato il “desk”, ovvero il lavoro giornalistico alla scrivania, rispetto all’acquisizione di notizie sui luoghi in cui avvengono i fatti, e ciò a discapito un po’ della personalizzazione dell’articolo. . Queste tendenze nascono negli anni 80’ ma saranno potenziate da Internet. ______________________________________________________________ 17 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 4 - NASCITA E DESTINO DI INTERNET 4.1 Come una rete militare diventò il WWW Gli Stati Uniti, nel mezzo della guerra fredda, crearono il progetto Arpa, (1958)un ente governativo per promuovere e finanziare le ricerca nei settori strategici. Nel 1966 l’Arpa mise in cantiere il progetto di una rete per la comunicazione tra i computer che lavoravano per l’agenzia, che si chiamerà Arpanet. Lo scopo della rete per alcuni era il lavoro comune tra i computer delle università e dei centri di ricerca, per altri la sua struttura era adatta all’uso in guerra, nell’ipotesi di un attacco nucleare di sorpresa. La rete infatti non aveva un centro, che sarebbe stato vulnerabile e facile bersaglio, ogni nodo era collegato ad almeno altri quattro e poteva comunicare anche se una parte della rete fosse stata messa fuori uso. Inoltre all’interno di Arpanet le comunicazioni viaggiavano da un nodo all’altro non in un blocco unico, ma “spacchettate”, divise in tanti elementi più piccoli che si muovevano separatamente, scegliendo tra gli itinerari che risultavano liberi in quel momento: è la cd “commutazione a pacchetto”. Queste due caratteristiche (mancanza di un centro e commutazione a pacchetto) rendevano la rete affidabile anche in caso di guerra. I primi due nodi della rete (“host”) furono collegati nel 1969. Fondamentali per il funzionamento della rete erano i “protocolli”, le specifiche per i collegamenti tra i vari host. Nel 1973 viene realizzato il protocollo ancora in uso TCP/IP, che poteva connettere anche altre reti fuori da Arpanet, come reti civili di tipo consortile, per il collegamento di università e centri di ricerca (siamo agli inizi degli anni 80). La rete stava diventando troppo pubblica e i militari la abbandonarono creandone una loro, la Milnet. Arpanet fu invece sostituita, nel 1985, da Nsfnet, una rete di telecomunicazioni veloce che fu però chiusa nell’89. E’ questo il periodo in cui i gestori di reti di telecomunicazioni cominciarono ad interessarsi alla rete, vendendo accessi e collegamenti veloci. Nel 1988 la società di telecomunicazioni Mci ottenne di poter interconnettere il proprio sistema di posta elettronica, Mc Mail, con Internet. Per la prima volta un consistente numero di utenti né militari né ricercatori affluirono alla rete. Nel 1986 il collegamento con le reti interconnesse arriva in Italia. Il Cnuce di Pisa è connesso via satellite con Arpanet; l’anno successivo allo stesso Cnuce viene affidato l’incarico di assegnare gli indirizzi IP per l’Italia; questo centro diventerà poi il punto di riferimento nazionale per Internet. Nel 1988 le reti già esistenti in Europa si interconnettono con gli Stati Uniti. Nel 1991 Tim Bernerts Lee , nei laboratori di fisica nucleare Cern di Ginevra, mette a punto il World Wide Web, un sistema che permette di pubblicare sui nodi della rete documenti ipertestuali accessibili in qualsiasi parte del mondo . Il WWW è quindi un insieme di protocolli che permettono la circolazione attraverso la rete di informazioni ipertestuali (che contengono dei link). I più importanti sono: a) linguaggio HTML -> “generatore di ipertestualità”, formato per rendere disponibili informazioni connesse in forma di link; b) protocollo per il trasferimento delle rappresentazioni così formattate, e cioè l’ HTTP ( Hyper Text Transfer Protocol ). Naturalmente provenendo da un istituto pubblico di ricerca, HTML e http sono di libero uso per tutti. Nel 1993 due studenti dell’Università dell’Illinoise realizzano il software Mosaic, il primo programma di navigazione per non esperti, diffuso gratuitamente, ma comunque all’interno di una cerchia ristretta di accademici e ricercatori. 18 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA L’anno successivo Marc Andressen lancia Netscape, il primo browser commerciale, che sarà poi sostituito dall’Explorer di Windows95. Internet finalmente esce così dalla ristretta cerchia degli addetti ai lavori. 4.2 Morfologia di Internet Internet un vero e proprio medium, e si può definire anche “metamedium” per la sua proprietà di assumere su di se la funzioni di quasi tutti gli altri media. Il tragitto di Interent si può dividere in tra fasi: 1 la prima che inizia con i primi collegamenti ad Arpanet (1969) e dura circa fino al 1995 con il lancio di Explorer, è un medium ancora“di nicchia”; 2 la seconda, di impetuoso sviluppo tra il 1995 e il 2001, ma non è ancora propriamente un medium di massa come tv e giornali; 3 è un ambiente convergente e maturo, composta da una serie infinita di nicchie in parte sovrapposte. La realizzazione del WWW fa nascere un oggetto mediale del tutto nuovo. La pubblicazione di un sito è un atto pubblico, politico, esposto alle reazioni degli altri. La grande forza di Internet è unire insieme, in modo accessibile, una forma di comunicazione pubblica (i siti web) e una forma di comunicazione privata, che è rappresentata dalla posta elettronica. Queste due dimensioni prima erano incarnate in media differenti (es spot in tv per comunicazioni pubbliche e telefono per comunicazioni private). I rapporti tra dimensione pubblica e privata risultano quindi modificati all’insegna di una circolarità fra i due momenti. Con Internet la soglia di accesso alla comunicazione in pubblico si abbassa a favore anche della gente comune. Chiunque può pubblicare un sito. Le applicazioni dunque della prima Internet sono siti web e posta elettronica. Tutte le altre unzioni sono derivate da queste due originarie caratteristiche della rete. 4.3 La “fase amatoriale” di Internet Nella seconda metà degli anni 90 Internet si diffonde in Europa fuori dalla cerchia degli addetti ai lavori. Tuttavia rimaneva prerogativa di coloro che per motivi di lavoro avevano una connessione in ufficio o di appassionati che lo utilizzavano a casa nel tempo libero. Si crearono così dei gruppi di persone che discutevano tra loro: Le Bbs (Bullettin Board System) erano comunità cresciute negli anni 80 che portavano avanti discussioni via computer su argomenti di loro interesse. Le Bbs richiedevano abilità informatiche e attrezzature e furono sostituite quindi da semplici programmi di posta elettronica e connessioni commerciali a Internet. Le Bbs erano inoltre asincrone, le chat invece erano sincrone, ovvero istantanee,quindi più adatte alla comunicazione a due oltre che in gruppi. La rete all’inizio ha avuto le sue comunità e i suoi guru. L’esempio più celebre è il californiano Rheingold che ha descritto le “comunità virtuali” in termini esoterici e mistici. La rete individuava una dimensione parallela ed esclusiva che si definiva allora cyberspazio. Poi progressivamente questa identità si è attenuata. Internet oggi lo usano tutti e quotidianamente, è più una commodity. In rete si era noti con il proprio “nickname”, un soprannome che si usava per presentarsi agli altri con un’identità fittizia. Oggi, con l’adozione della webcam, queste interazioni alla cieca diminuiscono 4.4 I siti web Il Worl Wide Web è un sistema che permette di pubblicare sui nodi della rete raccolte di documenti testuali (e ovviamente immagini, suoni e grafica) in modo da renderli pubblici per chi ne conosca l’indirizzo. 19 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Il linguaggio HTML consente di presentare una “pagina” iniziale (home page), una schermata dalla quale si è condotto ad altre pagine aliccando su un testo o un oggetto “sensibile” , ovvero contenente in se un collegamento ipertestuale (detto tag, cioè tagliano, contrassegno). La forma con cui queste raccolte di dati in linguaggio HTML sono presentate in Internet è quella del “sito web”, che è organizzato in pagine. Chiunque vuole creare un sito web (definito tecnicamente anche “dominio”) deve innanzitutto trovare un nome attraente e semplice da ricordare, descrittivo del contenuto, che sarà collegato all’indirizzo IP assegnato al sito. L’uso del nome (DNS) ha semplificato molto la navigazione. Bisogna poi trovare un “web host”, cioè una società commerciale che a pagamento ospiti il contenuto del nostro sito sui suoi server, e poi procedere alla registrazione. Prima di tutto bisogna anche verificare che il nome da noi scelto non sia già stato registrato. Il suffisso finale “.it” sta per “Italia”, ce ne sono anche altri più generici come “.com”; “.org”, “.info”; “.biz” ecc. L’autorità di certificazione verifica poi se siano rispettati degli standard tecnici nella scelta del nome. Dopodiché ci si può dedicare alla costruzione del sito. C’è una pagina iniziale, l’home page, che può essere anche l’unica per siti molto semplici, ma nella maggioranza dei casi ci sono dei collegamenti ipertestuali. Il sito va programmato nel linguaggio HTML messo a punto da Tim Berners-Lee. Una volta programmato il sito, è necessario metterlo on-line. Per questo è necessario un altro programma software di tipo FTP che lo mandi in rete (uplink). Ogni volta che dovremo aggiornarlo utilizzeremo lo stesso programma. Le principali variabili di un sito web sono l’”usabilità”, ossia la facilità con cui un utente anche inesperto e disabile può esplorare il sito (user friendly), e la “leggerezza”, ovvero la capacità di un sito di non ingombrare le linee di comunicazione con un eccessivo numero di bit e di essere quindi accessibile anche a chi abbia un collegamento lento e antiquato alla rete. Un sito leggero è dunque anche più “democratico”, capace cioè di rivolgersi agli utenti più svantaggiati. 4.5 A cosa serve un sito web Si può costruire un “sito vetrina”, per illustrare ad esempio l’attività di un’organizzazione, di tipo “statico” e poco interattivo; oppure un sito dedicato ad una particolare nicchia di appassionati che si riconoscono nella grafica e nei termini usati. Possiamo fare un sito “di servizio”, mettendo a disposizione molti dati e documenti di difficile reperibilità e permettendo agli utenti di aggiungere a loro volta materiale; oppure un sito commerciale per mostrare e vendere qualcosa a una nicchia di appassionati o alla generalità del pubblico. Si può quindi cercare di attirare un pubblico indiscriminato, oppure ci si può rivolgere a persone che condividono la nostra identità. 4.6 .L’offerta di informazione e le banche dati L’usabilità però non basta. La quantità e la qualità delle informazioni contenute in un sito sono altre doti che un sito deve avere per essere apprezzato. La pubblicazioni di banche dati in se non è una novità (vedi ad esempio anche il televideo). Internet però non è solo una banca dati dedicata a un particolare tema, permette anche di esplorare moltissime tipologie di dati diversi saltando, grazie al sistema a finestre, dall’una all’altra. Inoltre su Internet c’è interattività , ad esempio si può consultare l’orario dei treni ma anche acquistare il biglietto. 20 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA E inoltre si possono aggiungere nuovi dati. Internet infatti è un sistema aperto in cui è facile collaborare, esprimersi, aprire un proprio sito. I sistemi aperti però hanno anche il difetto che la qualità dei dati, poco controllata, ha un livello di competenza e di attendibilità inferiore. La capacità di aggiornamento è però elevatissima, ma è sempre necessario un lavoro di verifica e confronto, perché spesso il materiale che preleviamo può essere di cattiva qualità, nascondere fini promozionali ecc. Un uso inappropriato di Internet può dunque abbassare la soglia del pensiero critico. 4.7 Portali, sponsor e pubblicità Un numero crescente di grandi organizzazioni si è avvicinato a Internet non solo per offrire i propri servizi ma anche alla ricerca di popolarità, cercando in particolare che l’immagine attiva e tecnologica di Internet si proiettasse su di loro. I loro siti inoltre sono sempre più lontani dai siti vetrina e si avvicinano al modello dei portali. I portali sono siti web particolarmente complessi, nei quali si fornisce un vero mosaico di informazioni non strettamente attinente all’organizzazione che ha creato il sito. Inoltre si da la possibilità di avere un proprio indirizzo di posta elettronica. Il portale più diffuso è Yahoo, fondato nel 1994 da Jerry Yang e David Filo. Il motivo di questa abbondanza di offerte è convincere gli utenti a fare di questi siti la pagina iniziale, per suggerire itinerari ulteriori abbondantemente sponsorizzati. Il tentativo è quello di ritagliare all’interno degli utenti di Interet un’ampia nicchia unita da interessi omogenei e da un profilo interessante per la pubblicità. Si cerca inoltre di capire chi sono i visitatori spesso richiedendo la registrazione al sito in modo che il visitatore fornisce consensualmente informazioni su di se. Spesso succede che il percorso dei nostri itinerari la scelta di pagine e siti, dice molto su chi siamo e sui nostri gusti, e qualcuno in questo modo può tracciare il nostro profilo di possibile cliente. Sono utilizzazione dei dati, a fine pubblicitario, illecite, che è difficile arrestare. Allo stesso tempo ha fatto la sua comparsa in Internet bla comunicazione di impresa. Il “banner” (“striscione”), reclamizza una determinata merce come un cartellone stradale, ma a differenza di esso può essere ciccato conducendoci nel sito di chi produce o vende quella merce, è una forma di pubblicità esplicita, così come lo sono i “pop up”, riquadri non richiesti che si aprono suggerendoci comportamenti di consumo e che sono anche essi ciccabili. Ci sono però ance forma implicite di pubblicità redazionale,cioè travestita da informazione neutra. Un’altra pratica riguarda i link, spesso sponsorizzati. Dalla rete però ci si aspetta qualcosa di più interattivo e meno unidirezionale, e per questo rispetto al portale si sono affermati con maggior successo i motore di ricerca come Google (che da comunque spazio a contenuti sponsorizzati). 4.8 La posta elettronica Inviando un messaggio di posta elettronica a un interlocutore, tramite un programma di posta elettronica (Outlook Express, Eudora, Thunderbird) esso viene recapitato al server del destinatario che lo conserva finchè non lo scarica sul proprio computer. E’ quindi un tipo di comunicazione asincrona, che permette una risposta in tempo differito. Si può inoltre mandare lo stesso messaggio a più di un destinatario, e si possono mandare messaggi per conoscenza (cc,carbon copy) oppure in forma nascosta (bcc,blind carbon copy).Questa grande ridondanza comunicativa, l’abitudine di inviare tutto a tutti, può diventare eccessiva. 21 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA La posta elettronica rappresenta un canale meno formale della posta via terra. Nella mail ci possono essere più facilmente abbreviazioni e errori di ortografia, spesso neanche ci si firma, ritenendosi identificati dall’indirizzo di mittente. Le pubbliche amministrazioni hanno introdotto anche la “firma elettronica”. La posta elettronica inoltre rappresenta una comunicazione più informale e meno impegnativa, anche perché non richiede un’immediatezza nella risposta, e quindi nel dare ad esempio giustificazioni per l’assenza a una riunione si può essere più vaghi, quindi la mail nasconde meglio le intenzione di chi parla anche rispetto alla conversazione telefonica. La mail implica un impegno limitato, una partecipazione condizionata. Il fatto di avere più indirizzi ( uno lavorativo, uno personale, uno per casa ecc) e di assegnare ad ognuno una parte limitata della nostra personalità, rappresenta una moltiplicazione di se stessi. Ciò ribadisce la collocazione della posta elettronica nella sfera privata. 4.9 Libertà e abuso Internet rappresenta dunque un’espansione della libertà e della sfera privata, ma anche un luogo dove si possono compiere abusi e reati. Si è rafforzato il diritto alla comunicazione e la libertà di esprimere il proprio pensiero. Tuttavia si divulgano anche contenuti come la pornografia, sia a livello di diffusione di foto e video, sia a livello di incontro tra domanda e offerta. La pedofilia continua a fare uso di questa possibilità. Il fanatismo politico estremista e il terrorismo si avvalgono di Internet per siti propagandistici, per la loro comunicazione interna (criptata) e per le rivendicazioni di attentati.. Ci sono poi una serie di frodi e truffe, derivate anche dalla possibilità di pagare con carta di credito, e l’uso di fintemail truffaldine da parte della banca che richiedono il numero della carta di credito, pin e altre informazioni personali. Questa tecnica, detta “phishing”, può comprendere il collegamento a un sito falso uguale a un sito ufficiale di una banca nel quale gli ingenui immettono informazioni molto riservate. 4.10 Il divario digitale Internet non arriva dappertutto e a tutti. L’insieme delle disuguaglianze che frenano l’accesso a Internet e in generale alle nuove tecnologie dell’informazione è chiamato digital divide. Nella prima fase si pensa che Internet avrebbe ridotto le disuguaglianze. Verso il 1999 si comincia a pensare che Internet non solo non abbatte le disuguaglianze ma potrebbe aggravarle, dato che chi si trova in condizioni sociali migliori proprio con Internet può crescere ancora. Anche la conoscenza dell’inglese è una discriminante. A livello internazionale, la cittadinanza di un paese del primo mondo appare la condizione che favorisce l’accesso. A livello sociale, le variabili più incidenti sono il genere, l’età, l’istruzione, la regione geografica, la residenza in zone urbane o rurali, montane, insulari e isolate. E ancora il reddito, l’etnia, la condizione familiare e lavorativa. A parità di reddito e condizioni alcuni paesi si muovono meglio degli altri, e cio suggerisce che il digital divide dipende anche dalle politiche dei vari Stati, ovvero la governance di Internet. Anche le tariffe per le telecomunicazioni sono un prerequisito, quindi i paesi che hanno ammesso la concorrenza fra gli operatori hanno un livello maggiore di penetrazione. Anche se inoltre potrebbe sembrare che la diffusione di Internet coincida con la democrazia politica, in realtà il caso della Cina dimostra che non è così. In questi casi i regimi autoritari in forte sviluppo economico sono interessati alla diffusione di Internet per rafforzare la loro presenza sui mercati. Nello stesso tempo si temono gli effetti politici dell’esposizione della popolazione a contenuti democratici e antigovernativi che circolano sulla rete. 22 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Così la vertenza tra Google e il governo cinese si è conclusa con l’accettazione di un filtro governativo sul motore di ricerca. Google ha preferito subire questa limitazione che precludersi il promettente mercato cinese. 23 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA PARTE II: - FORMATI E PRATICHE SOCIALI DEI MEDIA DIGITALI CAPITOLO 5 - GIOCARE E VIDEOGIOCARE 5.1 Dal computer al videogioco Nell’informatica è sempre esistita una componente ludica. Negli anni 70 le componenti elettroniche si miniaturizzano e permettono di creare giochi destinati non più solo alle sale giochi ma ai singoli giocatori. Abbiamo già ricordato Computer Space e Pong di Bushnell (1971-72). Nel 75 Atari lancia la console Home Pong, dal design rudimentale ma di gran fascino. Nel 1978 compare nelle sale gioco Space Invaders della giapponese Taito, antesignano di tutti i giochi in cui lo scopo fondamentale è sparare al nemico. Poco dopo appare anche nelle case dotate di console Pacman (1980): ci si nutre di pastiglie che danno energia dentro un labirinto insidioso. Nel 1983 la società giapponese Nintendo lancia un nuovo personaggio, l’idraulico italiano Mario ( poi SuperMario), grintoso e furbo, pronto a superare tutti i trabocchetti che la vita/videogioco gli propone. Mario entrerà in tutte le case grazie anche al suo aspetto pulito e domestico, ed è il definitivo lancio della console, anche attraverso la sua console portatile GameBoy (1989), fino all’arrivo della Sony PlayStation (1994), contrastata dal GameCube di Nintendo (2001) e da Xbox di Microsoft. Nintendo introduce anche il joypad, il controller con la croce direzionale. I videogiochi hanno trainato le vendite dei primi personal. Tuttavia il computer ha dovuto contendersi lo spazio con la console, anche perché dotata di una dimensione portatile che permetterà di giocare sul palmare o sul cellulare. A sua volta, la console di casa cerca di diventare un medium di intrattenimento, dotandosi della possibilità di collegarsi ad Internet e di riprodurre cd e dvd. Oggi Sony, Nintendo e Microsoft sono gli unici produttori di console e controllano anche l’edizioni dei giochi, create da software house. Si è stabilita così una netta divisione. Sono migrati verso le console collegate al televisore e verso quelle portatili i giochi nei quali c’è una forte componente manipolativa (sparare, correre,saltare,guidare ecc)e in cui si può giocare con un amico. Il computer invece rimane la sede privilegiata per i giochi in cui la componente privilegiata è la strategia, si gioca da soli o contro il computer, emulando giochi esistenti (bridge, scacchi,ecc), o in giochi di simulazione più complessi, giochi di ruolo. Con Internet ci si confronta con compagni di gioco lontani,spesso mai visti. Il successo dei videogiochi è dovuto alla loro generosa offerta di interattività e di realtà virtuale, compresa la sua versione “immersiva”: la totale simulazione di uno spazio nel quale il giocatore, non più spettatore, viene incluso. 5.2 Giochi di azione, di strategia, e di abilità La grande varietà di giochi ha trovato con il computer una grande congenialità, forse per la capacità di riprodurre quella casualità che il gioco spesso presuppone. La bravura infatti sta spesso nell’ammortizzare il caso negativo, nel fugare nelle possibilità, nel desiderio di illudersi che la vittoria nel gioco significhi qualcosa nella vita. Nel gioco di azione inoltre conta la destrezza nell’interagire efficacemente con ciò che lo schermo rappresenta. Anche la dimensione tattile della manipolazione dei bottoni contribuisce al piacere del gioco. 24 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Con Internet si apre la possibilità di trovare sulla rete persone con interessi simili disposte a giocare con noi. Il videogioco, soprattutto nell’ambito dei giochi di ruolo, ha dato vita a comunità riunite intorno a una particolare pratica di gioco, con tutto il contorno di discussioni, assunzioni di identità particolari da parte dei giocatori, vere realtà virtuali. 5.3 I giochi di ruolo Nei giochi di ruolo (Rpg, Role-Playng Game) ciascuno dei giocatori assume una particolare identità all’interno di un sistema di regole. Nel quadro fornito dalle regole e determinato dal caso ciascuno dei partecipanti esercita proprie strategie, collegate alla sua personalità, per affermarsi akk0interno di un’ambientazione ricca e articolata in un mondo virtuale o simulato. In Internet si è diffusa la proposta di luoghi virtuali, spesso trasportati in tempi lontani, in cui ciascun giocatore sceglie per se il ruolo modellando il proprio personaggio. Le regole definiscono lo scopo del gioco e cosa bisogna fare per vincere e per perdere. Si entra nel gioco generalmente in forma gratuita, e si costituisce progressivamente il proprio personaggio anche attraverso esborsi di denaro (tramite carta di credito) per acquistare le attrezzature necessarie (es armi, casa) per affermarsi. Questo personaggio viene in genere definito “avatar”. Alcuni dei personaggi invece non sono avatar ma vere “comparse” create dagli amministratori del gioco Una volta all’interno, lo svolgimento del gioco coinvolge i giocatori (sia in modo sincrono che asincrono) che possono essere anche molto numerosi, quindi si interagisce spesso con personaggi sconosciuti. Un’assiduità nel frequentare l’ambiente è indispensabile per trarre piacere dal gioco. Molti giochi si basano su misticismo e spiritualità, con una coesistenza di esseri mortali e divinità. I giochi che raggiungono una complessità di rimandi tra realtà e virtualità sono detti Mud, Multi User Dungeon. ( dove Dungeon sta per “torrione”): Il medioevo è l’ambientazione ideale per un misticismo dai toni gotici, misto di umani, maghi e santoni, figure fantastiche , oggetti magici. Ogni personaggio segue un percorso iniziatici per diventare anche esso, dopo anni assidui di gioco, una divinità. Il giocatore anziano (quest) proporrà a questo punto sfide e tornei (quest) per gli altri partecipanti.Dai Mud il passo successivo è il Mmog (Massively Multiplayer Ondine Game) in cui migliaia di giocatori si affrontano sulla stessa piattaforma contemporaneamente. Altri giochi portano avanti un’imitazione virtuale della vita metropolitana contemporanea. The Sims porta il giocatore ad abitare in una città virtuale e iperrealista e a gestire relazioni amicali, familiari e di lavoro; i personaggi non sono eroi ma persone comuni, anche se ognuno sceglie la sua skin, ovvero il suo aspetto e i suoi vestiti, oltre ad altri dettagli. Nel gioco si può aprire un’attività commerciale,avere dei dipendenti comprare e vendere. E’ un gioco esistenziale, non bisogna corree per affermarsi, l’obiettivo è trascorrere bene il tempo e cercare la felicità. Questi principi sono ancora più evidenti in Second Life, creato nel 2003 dalla Linden Lab. I partecipanti sono dei “residenti” che acquistano il terreno per costruirsi una casa in questa nuova nazione di cui acquistano la cittadinanza. Le regole sono molto elastiche, gli abitanti possono aggiungere e modificare contenuti grafici e audiovisivi. Tutti queti aspetti alla base del gioco sono presenti nella cultura popolare americana. Le vicende dei personaggi si svolgono in un mondo simulato, con gerarchie complesse, con città virtuali dotate di più svariati servizi (a pagamento), dallo psichiatra all’arredatore, e i personaggi stessi possono farsi pagare per prestazioni e consulenze. Diversamente da altri giochi in Second Life ogni avatar corrisponde a un reale giocatore, e le loro interazioni sono dunque incontri virtuali tra esseri umani ( i residenti sarebbero già 5 milioni provenienti da tutto il mondo). 25 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA 5.4 Dal videogioco al film ( e viceversa) L’ambientazione tridimensionale dei videogiochi appartiene, da un punto di vista tecnologico, alla stessa postproduzione digitale del cinema, dei cartoni animati e tv. La condizione dello spettatore cinematografico è sempre più intrecciata con quella del giocatore. Si assiste sempre più spesso a un videogioco che diventa film e a un film che diventa videogioco. Le ambientazioni immersive in particolare possono essere comuni ai due media. Il videogioco cerca di incorporare la narratività propria del cinema, che a sua volta fa i conti con una giovane generazione di potenziali spettatori sempre più segnati dall’estetica e dal ritmo dei videogame. , con una complessa catena di merchandising legata alla saga mediale, e con una crossmedialità per cui dalla stessa idea scaturiscono videoclip e film, videogiochi, passaggi televisivi, libri e oggetti. Jurassik Park e Indiana Jones da film diventano videogiochi, Resident Hill e Silent Hill da videogiochi diventano film. Un caso è quello di Lara Croft, inventata nel 1996 per il gioco Tomb Raider che gira su PlayStation, è un personaggio che modifica l’impostazione prevalente, tutta al maschile, dei videogiochi. In realtà è un gioco in terza persona: il giocatore non vede con gli occhi di Lara ma vede Lara. La Croft comunque è un grande successo: la prima serie vende 500.000 copie. In seguito Lara Croft appare in riviste, posa come modella, nasce una linea di abbigliamento “firmata” da lei, è testimonial della Nike, e infine due film realizzati su di lei: Tomb Raider e Lara Croft Tomb Raider: The Cradle of Life. Gli U2 firmano la colonna sonora del film e Lara compare nel loro videoclip. E’ ciò che è stata chiamata una narrazione transmediale (transmedia storytelling), lo sviluppo di una storia introdotta attraverso un medium, rilanciata da altri e ampliata da altri ancora. Lo stretto rapporto tra cinema e videogioco emerge nel momento in cui la struttura del videogioco si fa più complessa: dal cinema sono mutuate le inquadrature e i movimenti di macchina, i raccordi narrativi necessari alla compattezza della vicenda, e all’immaginario cinematografico fanno riferimento i suoi eroi e eroine. A sua volta il cinema si è ispirato al videogioco ispirandosi alle ambientazioni dei videogame, come in Tron, Nirvana, eXistenZ e Matrix, ma soprattutto alla ricerca di più livelli, tra i quali si salta in maniera ipertestuale, come ancora Matrix ma anche Sliding Doors e Amnesia. ______________________________________________________________________ 26 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 6 -LA TELEFONIA CELLULARE6.1 Che cos’è e come funziona La telefonia cellulare fornisce un servizio radiomobile, dividendo il territorio in una rete di celle esagonali. Alla congiunzione di tre celle è situati un apparato radio ricetrasmittente . Questo apparato capta le telefonate provenienti dai cellulari che si trovano nel suo territorio e le inoltra a una stazione di controllo centrale ( Bsc, Base Station Controller), che le indirizza a destinazione e memorizza tutti i dati delle telefonate: questa operazione, necessaria per la tariffazione, è il punto delicato per la questione della privacy. Se l’utente è in movimento, ad es in treno, la comunicazione si sposta da una cella all’altra, senza che ci siano interferenze, in quanto la potenza dei trasmettitori è molto bassa. Il sistema funziona anche in presenza di operatori telefonici differenti, grazie al roaming ( la possibilità per un operatore telefonico di avvalersi, a pagamento, di un segmento della rete di un altro). La telefonia cellulare è nata dopo la seconda guerra mondiale nei Laboratori Bell, ma ha proceduto lentamente perché gli operatori di telefonia fissa non erano intenzionati a fare concorrenza a se stessi. Le tecnologie radiomobili erano pensate per particolari esigenze: forze dell’ordine, militari, luoghi irraggiungibili dal filo telefonico, qualche vip. Solo negli anni 80 si sono create le condizioni per la tecnologia cellulare: la competizione tra gli operatori di telecomunicazione, la domanda di reperibilità, la disponibilità di microprocessori, la saturazione delle frequenze tradizionali che richiedeva un migliore uso dello spettro elettromagnetico e quindi il passaggio al digitale. Nessuno prevedeva però che un oggetto di lusso sarebbe diventato un bene di largo consumo. 6.2 Trasformazioni della reperibilità La vita metropolitana comporta continui spostamenti e una minore reperibilità, e il poter essere rintracciato ogni momento, oppure controllare continuamente la reperibilità di una persona cara, sono nevrosi della contemporaneità. Una prima esperienza di telecomunicazione mobile è stata il pager (Teledrin in Italia): un servizio unidirezionale analogico, che avvisa se qualcuno ci sta cercando, e nelle versioni più evolute mostra su un display il numero del chiamante. Il pager può solo ricevere e non permette la conversazione. Introdotto negli anni 60, fu particolarmente usato dai medici per essere sempre reperibili. Il suo servizio fu però cessato alla fine del 2005 insieme al cellulare analogico, e fu soppiantato dai telefono cellulari. Servizi sperimentali di telefonia cellulare iniziarono nel 1979 in Giappone e a Chicago. La procedura per attribuire le licenze per la telefonia mobile cominciò negli Usa nel 1981. Nel 1983 la Motorola lancia il primo telefono portatile di serie, il DynaTac 800: 3995 dollari, 800 grammi, 35 minuti di autonomia, 10 ore di ricarica, soprannome “il mattone” (brick) . La risposta dei consumatori fu lenta, per i costi elevati. In Europa la telefonia cellulare arriva nel 1986. 6.3 La via italiana al cellulare In Italia il servizio radiomobile venne introdotto dalla Sip nel 1973 e progredì lentamente, per i costi elevati e la copertura insufficiente. Il cellulare arriva nel 1990. Erano cellulari analogici detti TACS, i migliori erano i Motorola MicroTAC. Piccoli e leggeri, si aprivano in due parti come una conchiglia (clamshell, o flip phone), ma c’erano anche molti Nec: non entravano in tasca,pesanti, scomodi. I prezzi erano da capogiro, vero status symbol per ricchi. 27 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Nel 1991 viene lanciato in tutta Europa il GSM (Global Sistem for Mobile Communication), un sistema di telefonia mobile digitale che sostituirà i vari sistemi analogici. L’adozione di un’unica rete per tutti i cittadini dell’Unione Europea avrebbe permesso di spostarsi da un paese all’altro senza dover cambiare telefono. Il sistema digitale inoltre, consente non solo di trasferire la voce ma anche di spedire e ricevere messaggi di testo (sms), ma anche supportare altri servizi come la scelta di suonerie polifoniche personalizzate ecc. Dentro ogni telefono digitale c’è una SIM (Subscriber Identity Module) card. E’ una memoria estraibile di minuscole dimensioni, a cui si accede con un codice personalizzato pin. Nella SIM card ci sono i dati dell’utente In Italia, la prima fase sperimentale del GSM parte alla fine del 1992, nel mezzo della trasformazione della Sip in Telecom Italia, ma procede con lentezza : il servizio commerciale inizierà nell’Aprile 1995. Nel 93 viene emanato il,bando di gara per l’assegnazione da parte dello Stato della concessione per un secondo gestore privato di telefonia mobile GSM: la gara viene vinta dalla società Omnitel Pronto Italia (gruppo Olivetti). Intanto Telecom scorpora Tim mantenendone la proprietà (1995), mentre Omnitel inizia il suo servizio nel 1996, e si affermerà rapidamente gestendo più del 35% dei telefonini italiani. Intanto la diffusione dei telefonini procede in maniera esponenziale. Da 1,2 milioni nel 93 diventeranno 11,7 milioni nel 97. Il sorpasso sulle linee fisse avviene nel 2000 e nel 2007 ci sono più cellulari che abitanti! Nel 1993 il cellulare finisce di essere un bene di fascia alta: Telecom lancia un piano di abbonamenti “family” a costi ridotti. Con l’arrivo del GSM si diffondono le carte prepagate: linee telefoniche che si ottengono dal negozio e si pagano secondo il consumo con una carta che si gratta e si compra dal tabaccaio. Pian piano si stanno diffondendo anche le seconde e le terze linee, ognuno ha un cellulare personale e uno per l’ufficio, si usa una diversa SIM a seconda del gestore del telefono da chiamare ecc. Il maggior traffico satura le frequenze: nel 97 viene aggiunta la frequenza a 1800 mhz e nascono i telefoni dual band. Con questa ulteriore disponibilità di frequenze viene attribuita nel 99 una terza concessione GSM a Wind. Nel 1999 Olivetti acquisisce Telecom Italia e deve cedere Omnitel e Infostrada alla scocietà tedesca Mannesmann. Omnitel esce così di scena. Nel 2001 Mannesmann vende a sua volta al gruppo inglese Vodafone, multinazionale della telefonia. Una quarta concessione viene attribuita nel 99 a Blu che però non decollerà. Il parco clienti e parte della rete sarà venduta nel 2002 Wind. L’avvento dell’UMTS vede così in Italia, attorno al 2002, una situazione matura: tre gestori di telefonia mobile, di cui uno pubblico e molto forte anche all’estero, TIM,con oltre la metà dei contratti, e due privati, Vodafone e Wind, controllati da multinazionali e che detengono rispettivamente il 35% e 15% del mercato. 6.4 Usi e pratiche del cellulare Quindi il cellulare tra il 93 e il 2000 diventa una pratica di massa. Diventa un oggetto che rispecchia la nostra personalità, una protesi del nostro corpo. Anche con il cellulare riusciamo a creare una “bolla comunicazionale” (di cui parla Flichy nel 91, relativamente all’uso itinerante di alcuni apparecchi come anche il walkman all’interno di uno spazio pubblico) e alla sua capacità di “permettere contemporaneamente il ripiegamento sul sé e la gestione di alcune interazioni sociali con la gente che sta intorno”. Si tende a una privatizzazione dello spazio pubblico (con il cellulare ci ritagliamo uno spazio per noi anche in uno spazio affollato) e a una pubblicizzazione dello spazio privato ( spesso agito ed esibito in mezzo agli altri). 28 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Il telefono è anche diventato uno strumento di localizzazione per incontrarsi con il nostro interlocutore. Il telefono inoltre è sempre personale e legato alla persona specifica. Rispetto al telefono fiso inoltre ci possono essere interferenze che possono non permettere la conversazione, ci può essere “poco campo”, oppure possiamo trovarci in un contesto non adatto per parlare, ci possono essere rumori che disturbano la conversazione. Inoltre il cellulare dichiara sempre il nome della persona che chiama,ma possiamo non svelare la nostra identità, possiamo fare uno squillo per far capire qualcosa di precedentemente concordato al nostro interlocutore. La chiamata al cellulare inoltre è raramente conclusiva: la conversazione è sempre rinviata a quando si potrà parlare più tranquillamente . Il cellulare inoltre permette di fare più cose insieme (es guidare), di riempire i tempi morti . 6.5 Sms, il cellulare per scrivere Lo standard GSM permette l’invio di sms (short message service), brevi messaggi testuali con non più di 200 caratteri. Pensati inizialmente come sistema di comunicazione di servizio per gli operatori della telefonia mobile,diventano rapidamente un fenomeno di costume. Nokia, che ha assunto la guida per la telefonia cellulare (mentre Motorola quella analogica), ha sviluppato anche il sistema di scrittura intuitivo T9. Gli sms rappresentano una forma di comunicazione del tutto nuova: sono asincroni, ovvero non producono necessariamente una risposta immediata, ma implicitamente comportano l’attesa di una reazione rapida, imbarazzano meno in determinate situazioni, come per la mail permettono di prendere decisioni per approssimazioni successive. Gli sms hanno anche una funzione pubblica ( con un sms possiamo mandare a più oersone insieme un invito, fare propaganda elettorale ecc). Le funzioni dell’sms sono anche altre: possiamo ricevere la conferma di una prenotazione fatta su Internet, da un po’ di tempo in alcune città si può pagare il biglietto dell’auto, si può votare nelle trasmissioni televisive, o fare piccoli versamenti in beneficenza. 6.6 Umts Dopo l’avvento del GSM sono stati introdotti vari standard migliorativi in particolare per la connessione a Internet, scattare ed inviare foto e brevi video: WAP, (Wireless Application Protocol); GPRS (General Packet Radio System); EDGE ( Enhanced Data Rates for GSM Evolution). Un’efficiente e rapida connessione ad Internet e una gestione migliore di video più lunghi sono state assicurate solo dalla terza generazione dei cellulari, l’UMTS, che ha permesso anche altri servizi come i messaggi multimediali, contenenti foto, clip audio o video, registrazione e visualizzazione di video, il download di file musicali, le videotelefonate, la videoconferenza. Esso ha dato vita ad un ibrido fra cellulare e computer palmare, lo smartphone. Infine l’UMTS converge con la televisione : non più il semplice streaming di contenuti video dunque, ma un vero servizio televisivo, anche in diretta, sullo schermo di appositi “tvfonini” (marchio registrato da 3) attraverso le reti digitali terrestri, grazie allo standard DVB-H. Le trasmissioni tv sui cellulari sono state introdotte da Samsung in occasione delle Olimpiadi di Atene del 2004. Con l’UMTS la voce passa in secondo piano e le telefonate vere e proprie non sono più il core business. In Italia l’UMTS fa la sua comparsa nel 2000, in pieno entusiasmo tecnologico. Nel Luglio dello stesso anno viene pubblicato il bando per attribuire cinque licenze nazionali UMTS, e vincono Tim, Vodafone, Wind, Andala e Ipse. Andala ha cambiato proprietario, che ora è il gruppo cinese Hutchison Whampoa, e il nome cambia subito in H3g. Ipse non parte maie chiude nel 2001. 29 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Hutchison Whampoa nel 2002 lancia il marchio 3 e inizia con gran battage pubblicitarioil servizio di videochiamata; nel 2004 comincia ad offrire anche programmi tv in streaming video su quello che è ancora un videofonino. Gli altri gestori invece si tengono al di fuori della videochiamata e dalla videoconferenza, e diffidano della tv. Il videotelefono fisso non ebbe successo per motivi sociali, gli utenti non amavano farsi vedere in situazioni imbarazzanti come in pigiama o con i bigodini! Il contesto del videofonino è diverso ma il suo successo è stato tiepido, nessun altro gestore dopo 3 lo ha più adottato. Con i telefonini UMTS si possono anche produrre e distribuire audiovisivi. Con l’UMTS si possono anche inserire nella programmazione audiovisiva video autoprodotti dagli utenti con i loro cellulari: 3 ci ha provato ma ha dovuto sospendere il servizio per l’esibizionismo di contenuti inopportuni. La tecnologiaUMTS comunque non ha ancora ottenuto uni incontrovertibile successo e non è usata per tutte le sue potenzialità. In particolare non si conosce quale sia il gradimento effettivo dei servizi televisivi e della videochiamata 6.7 Wireless, seamless L’integrazione fisso-mobile è destinata a crescere: il concetto di cui ora si parla è “seamless”, senza cucitura, ovvero la possibilità di passare indifferentemente da reti fisiche a reti senza filo e viceversa, senza che l’utente neanche se ne accorga. Spingono in questa direzione le pratiche sociali e le tecnologie. La prima tecnologia senza fili dopo il cellulare è stato il Bluetooth, lanciato dalla Ericsson nel 99 per connettere tra loro senza fili apparati elettronici (computer, microfoni, cellulari e periferiche) e scambiarsi informazioni. Uno standard dai costi molto ridotti che usa le onde radio, il cui segnale copre però solo un raggio di pochi metri in ambienti chiusi. Nel 2002 è invece nato il Wi-Fi, una tecnologia di rete senza fili che arriva a qualche decina di metri e utilizza frequenze libere e gratuitamente disponibili. Serve per connettere senza fili apparati elettronici nelle diverse stanze di una casa o ufficio a costi molto ridotti, ma è stato convertito nella fornitura di accessi a Internet per computer, cellulari o palmari che si trovino in prossimità di un access point, che può essere anche pubblico (hotspot). Quest’ultimi possono essere gratuiti o a pagamento, e sono diffusi in aeroporti, alberghi, biblioteche, parchi pubblici, e anche esercizi commerciali (come McDonald). Nel 2004 è stato introdotto il WiMax, una tecnologia senza fili che ha un’estensione da 30 a 50 km a vista. Non è però ancora pienamente maturo e in Italia le frequenze necessarie (3,4-3,6 GHz) sono detenute dalle forze armate che a fatica hanno acconsentito a cederle. Quando sarà operativo il WiMax farà concorrenza all’adsl in cavo. Una variante del WiMax è il WiBro sviluppato da costruttori coreani e sperimentato insieme a Telecom durante le Olimpiadi di Torino 2006, con un raggio di 120 km, anche in mobilità. Tra pochi anni potrebbero attenuarsi le differenze tra le varie reti di trasmissione fisse e mobili, con un’interoperabilità quasi totale. ___________________________________ 30 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 7 -I MEDIA SONORI DIGITALI7.1 Quando i media diventano digitali Ci sono molti vantaggi nel passaggio al digitale. Il primo vantaggio è a livello della produzione, che avviene sempre al computer. La rappresentazione numerica semplifica e potenzia la produzione e il trattamento dei dati. I media digitali sono inoltre modulari, si compongono cioè di parti indipendenti e standardizzate, che possono facilmente essere cancellate o sostituite. Possiamo incollare dentro un documento scritto un’immagine o un video. I vari contenuti, essendo tutti digitalizzati, sono trasferibili da un’applicazione all’altra, da un database all’altro, da un formato all’altro, indipendentemente che si tratti di un testo, di un’immagine fisa o in movimento, di un suono (transcodifica). La produzione è facilitata anche perché possono essere automatizzate molte operazioni di creazione, manipolazione e archiviazione. Il controllo ortograficodi un testo può segnalare automaticamente gli errori di ortografia e correggerli, i programmi di acquisizione audio e video possono filtrare automaticamente i disturbi o regolare la messa a fuoco. Altri vantaggi si collocano a livello della conservazione di dati all’interno di memorie sempre più capienti. La riproduzione dei contenuti in un numero infinito di esemplari, senza mai perdere nulla della qualità originaria, fa si che il concetto di originale e copia ne esca stravolto. La loro natura digitale permette infine la loro diffusione in tempo reale attraverso Internet. I media digitali sono inoltre soggetti a una grande variabilità. In definitiva i vantaggi dei media digitali sono: codifica numerica; modularità dei contenuti; automazione, transcodifica; archiviazione semplificata e indicizzata; riproduzione illimitata; trasporto in tempo reale; variabilità. 7.2 La musica digitale Per “suono digitale” si intende qualsiasi brano musicale, o sequenza di suoni, rumori, voci, che sia convertito in forma numerica. La “musica elettronica” invece è quella creata utilizzando strumentazioni elettroniche (come i sintetizzatori e i computer). La conversione del suono in digitale si fonda su un processo di campionamento dell’onda sonora attraverso una funzione matematica. La funzione può essere segmentata in frammenti abbastanza piccoli da poter esser considerati singoli punti, ciascuno dei quali identificato dai suoi valori su un asse cartesiano ed è rappresentabile attraverso i numeri. La successione di questi valori (la frequenza di campionamento) misura l’efficienza della nostra trascrizione: più è breve l’intervallo tra una campionatura e l’altra, più la digitalizzazione è accurata. L’acquisizione digitale del suono avviene nel computer attraverso una scheda di acquisizione sonora, presente ormai all’origine nei PC. 7.3 La pratica di massa della musica digitale La diffusione della musica digitale coincide con quella di Internet. Nel 91 grazie al software QuickTime è possibile eseguire un file audio digitale su un Macintosh della Apple. Nel 95 viene presentato il formato mp3. 31 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Nello stesso anno nel pacchetto Windows è compreso Windows Media Player, per eseguire un file audio su un Ibm compatibile. Nello stesso anno nasce RealAudio, il più noto e diffuso software per lo streaming. “Streaming” significa riprodurre un file audio (e in seguito video) prima che sia stato completamente scaricato. Lo streaming permette di ascoltare quasi subito il file, appena trascorso il tempo di scaricamento di una prima porzione di brano. Quando si diffonde Internet mp3 si afferma come formato principale per la compressione dei file audio. La diffusione del suono attraverso la rete trasformerà drasticamente la distribuzione e la cultura della musica. I software per lo streaming e la diffusione del suono esprimono il desiderio sociale di costituire Internet come medium totale, un metamedium che acquisendo linguaggi sonori e audiovisivi si dota di capacità di comunicazione e scambio, grazie alla sua natura “anarchica” e sottratta alle regole del mercato. Le conseguenze sono che: 1 Chiunque può divenire un broadcaster audio, un emittente, sia di musica registrata che dal vivo, compresa quella creata in proprio. Tra emittente e ascoltatore si crea infatti un rapporto p2p. 2 Le stazioni radiofoniche possono trasmettere in webcast (cioè attraverso la rete), aggirando così i limiti di spazio e tempo nonché determinate forme di controllo e di censura. Lo streaming indebolisce il monopolio dell’industria radiofonica con la sua possibilità di trasmettere dal vivo. 7.4 Web radio Dalla metà degli anni 90 in poi hanno cominciato a nascere, prima negli Usa poi ovunque, emittenti radiofoniche che trasmettono in rete. Le web radio si dividono in quattro tipologie: 1 Siti web di stazioni radiofoniche via etere già esistenti. Siti che ripetono il contenuto audio già trasmesso via etere 2 Emittenti esclusivamente via web , senza antenna e senza segnale via etere, che possono così evitare i principali ostacoli alla creazione di emittenti via etere. Gli ostacoli sono relativi alle licenze, alla burocrazia, politici. 3 Radio tematiche, molti portali web alla fine del secolo scorso, offrivano numerose rassegne di musica tematica, vennero decimate dal 2000 con l’inizio dello scambio della musica in rete. 4 Siti Internet, che occasionalmente, ad esempio in caso di appuntamenti musicali o politici importanti, permettono lo streaming della “diretta” dell’evento. Il fenomeno della web radio non ha rappresentato una svolta così importante. Innanzitutto si deve per forza avere una connessione veloce e un computer potente per usufruirne. Si ripropone quindi la questione del digital divide .Inoltre il pubblico è molto minore rispetto a quello della radio tradizionale. Inoltre, al contrario della tv, la radio per digitalizzarsi deve per forza “appoggiarsi” ad Internet, che è ancora prevalentemente una tecnologia “statica”. Questo far venir meno proprio quella che è la caratteristica della radio: ovvero il suo essere un mezzo mobile, che ci accompagna quando siamo in movimento. 7.5 Musica gratis Uno dei limiti delle web radio è quindi rappresentato dal “filesharing”, cioè la condivisione di file musicali attraverso siti Internet. Il filesharing tradizionale è un’attività gratuita P2P, che poi è stata trasformata in una transazione commerciale. Usa prevalentemente lo standard mp3 e un nuovo hardware personale e portatile: il lettore mp3. 32 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Napster, il primo sito per lo scambio di musica in filesharing, appare nell’autunno 1999 creato da Shaw Fanning. E’ una transazione p2p tra privati, senza l’intervento di un server. La Riaa nel 99 gli fa causa per infrazione dei diritti del copyright. Le pratiche di filesharing gratuito diminuirono, anche per l’arrivo di nuovi attori come iPod e iTunes di Apple. Quindi l’età dell’oro della musica gratis va dal 95 al 2000 e trova in Napster la sua metafora. Con la diffusione dello straming e del filesharing la musica perde il conatto con un supporto materiale, che l’aveva accompagnata nel 900. La musica diventa sempre più un’arte riprodotta, registrata, accessibile a tutti, e il suo consumo si sposta sempre più dai luoghi pubblici a quelli domestici e infine negli spazi aperti grazie a radio e walkman. Con lo streaming e il filesharing la differenza tra musica istantanea ( quella in diretta, trasmessa dalle radio,quindi effimera, non registrabile, caratteristiche della musica dal vivo) e permanente (quella delle collezioni di dischi, la musica dentro casa, istantanea) viene ridefinita. La musica rinuncia a un supporto materiale, si rivela di nuovo immateriale, come nell’arte dal vivo, ma può adesso essere riprodotta, scambiata, trasportata, infrangendo i confini della prigione di casa. 7.6 L’iPod e il “Digital Rights Management” Mentre Napster chiude, nell’ottobre 2001 Apple Computer lancia l’iPod, un sofisticato lettore audio e video portatile, compatibile con più standard (non solo mp3), dal design elegante, e su un potente disco fisso. Sarà un gran successo che lo renderà l’erede del walkman della Sony. Con la sua ampia memoria, l’iPod consente di immettere 20.000 canzoni nelle sue versioni recenti (25000 foto e 100 h di video), ha un display a colori e serve anche da videogame portatile. La versione più economica può contenere 240 canzoni. Dal 2004 può contenere anche foto e dal 2005 video. L’iPod porta con se una nuova idea dei rapporti tra i detentori dei diritti sulla musica e e i diritto dei consumatori. Apple afferma di perseguire una terza via tra le crociate dei discografici contro la pirateria e la musica gratuita di Napster, quella del prezzo equo:realizza accordi con le cae discografiche spuntando condizioni ,migliori (99 cent per una canzone) e inaugura il lancio di iTunes Music Stores. Attraverso il software iTunes, distribuito gratuitamente da Apple, l’iPod collegato al computer entra nel sito di iTunes in cui è possibile scaricare musica pagando con carta di credito a prezzi più ragionevoli. 7.7 Il podcasting Pagare per la musica è la premessa del “podcasting”, ovvero una forma di distribuzione di contenuti audio che si possono ricevere periodicamente , previa abbonamento,sul proprio computer iscrivendosi a una lista di distribuzione, grazie a speciali software chiamati “feed”. Dopo aver scaricato i brani sul proprio pc, si possono copiare, modificare, passare all’iPod o a un altro lettore. Introduce quindi una forma intermedia tra radio (che offre in forma ripetuta) , e il download di un singolo brano da un sito, consentendo l’aggregazione dei contenuti musicali in una playlist e una maggiore fidelizzazione degli utenti. Le stesse stazioni radiofoniche passano al podcasting per seguire le tendenze correnti e aggirare i limiti spaziali e temporali: il podcasting permette di estendersi oltre la copertura delle antenne e i tempi di programmazione. E’ un mezzo per ampliare l’audience e favorirne la fidelizzazioone. Attraverso l’Ipod e l’mp3 gli ascoltatori possono combinare l’ascolto musicale e io consumo in differita di programmi radiofonici, fruendone in modalità mobile. 33 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Emerge la componente manipolativa, la possibilità di scegliere musica in modo interattivo e il gusto di produrre la propria colonna sonora. 7.8 Vivere in cuffia L’iPod è il vero erede delle esplorazioni urbane del walkmann, mentre la radio via Interet è fortemente statica, radicata all’ambiente domestico. Ancora una volta l’apparecchio musicale non offre più soltanto l’ambiente sonoro , ma crea nuove connessioni tra il corpo e la musica. Per il walkman si era parlato di una “bolla comunicazionela” che isola il ragazzo con le cuffie dall’ambiente urbano, di una sfera privata che egli si porta dietro mentre attraversa òla sfera pubblica, con un rimescolamento continuo, il messaggio che egli manda è che la sua appartenenza alla società non è una resa senza condizioni, che lui continua a portarsi dietro la sua cultura. Con l’iPod, come con il telefonino, questa tendenza si accentua. ________________________________________________________________________________ 34 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 8 - LA FOTOGRAFIA DIGITALE8.1 L’immagine digitale Un’immagine digitale i può ottenere o realizzandola direttamente in digitale, oppure convertendo in digitale un’immagine tradizionale, analogica, attraverso uno scanner. In entrambe i casi l’immagine digitale può essere archiviata, modificata, inviata attraverso le reti di telecomunicazioni, senza aver mai bisogno di stamparla e fissarla su un supporto materiale. Oggi lo scanner è la periferica da collegare al computer su cui applichiamo la foto, il disegno, , la pagina di un libro, il negativo fotografico ecc, da digitalizzare su un vetro, sotto al quale un sistema ottico di scansione esplora linea dopo linea tutta la superficie da acquistare, salvata poi sul computer come file grafico. Lo scanner può acquisire anche dei testi e poi attraverso un software OCR trasformarli in file di testo come Word. Per realizzare invece un’immagine direttamente in digitale ci sono due possibilità: disegnarla al computer con un file grafico; oppure servirsi di una macchina fotografica digitale: un dispositivo ottico, dotato di un obiettivo e un microchip interno, collegabile al computer o altri strumenti come una stampante. La macchina al suo interno non ha più la pellicola fotografica ma dei sensori fissi che vengono colpiti dalla luce. Questi rilevano il colore e le caratteristiche di un minuscolo rettangolo dell’immagine, che è loro assegnato, e lo convertono in degnale digitale. Il risultato è il pixel. (picture element). Ogni sensore genera i dati di un pixel. L’immagine fotografica è composta da un grandissimo numero di pixel. I pixel non li vediamo a occhio nudo, tuttavia se ingrandiamo l’immagine si vedranno tanti rettangolini di diverso colore. La qualità di una macchinette digitale è data dal numero di pixel che offre ( in genere dai 5 agli 8 megapixel). Si chiama risoluzione il numero di pixel contenuti in un pollice (PPI, pixel per inch). Più alto è il PPI, più elevata sarà la qualità della foto. 8.2 Immagine e fotografia La differenza tra i vari modi di produrre un’immagine digitale è rilevante. Disegnando al computer, al contrario del disegno e della pittura tradizionale, la rielaborazione è in parte mentale ma in parte anche tecnica, in quanto si agisce su file digitali di immagini precedenti. La fotografia digitale , in quanto tale, richiederebbe , come quella tradizionale analogica, la presenza sul luogo degli eventi del fotografo. In realtà per quanto riguarda la forografia digitale non sempre è così. Spesso le tecniche di elaborazione e fotoritocco digitale sono così raffinate che permettono di creare un’immagine che assomiglia in tutto e per tutto a una fotografia ed è indistinguibile da essa.:una mimèsi di fotografia. . Una foto digitale può dunque essere frutto di pura invenzione o della rielaborazione di altre immagini. Si parla in questi casi di “immagine sintetica”. La fotografia digitalizzandosi ha però sicuramente perso nalla sua autorevolezza di testimone oculare informato sui fatti. 8.3 La fotografia si distacca dalla realtà Tuttavia fin dall’origine la fotografia si è allontanata dalla realtà. Tecnicamente molti erano i passaggi che lo consentivano: a) la messa in posa: una volta era obbligatoria, perché i tempi di esposizione erano lunghi e il soggetto doveva rimanere immobile. 35 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Quando i tempi di esposizione diventano inferiori al secondo è possibile prendere foto che come dice la parola stessa sono “istantanee”. Esse hanno un sapore di autenticità, ma spesso anche queste sono “costruite”, come in un set cinematografico si sceglie l’inquadratura giusta per dare un maggior effetto di istantaneità. b) L’esposizione: esponendo successivamente molteplici soggetti nella stessa pellicola si potevano simulare apparizioni di spettri e fantasmi, oppure produrre veri giochi fotografici; c) Lo sviluppo: Modificando i tempi, l’illuminazione e i reagenti chimici dello sviluppo in camera oscura, si potevano modificare le caratteristiche della foto ad esempio rendendola più o meno “morbida”,sfumata. d) Il ritocco: con tecniche grafiche, come la matita da ritocco sul negativo o direttamente sulla copia si potevano cancellare o aggiungere dettegli, eliminare parti della foto, cambiare l’espressione di un volto ecc. e) Il montaggio: con tecniche di collage si potevano giustapporre foto, incollare la testa di qualcuno sul corpo di qualcun altro, ambientare la scena in un luogo diverso da dove era stata ripresa ecc. Quindi già in epoca analogica la foto poteva staccarsi dal vero, anche se non sempre dichiarandolo 8.4 I primi passi della fotografia digitale Soltanto negli anni 80 le tecnologie digitali incontrano il computer come moderna camera oscura e luogo per la visione, riproduzione, modifica e archiviazione delle immagini. La prima vera foto digitale è stata probabilmente realizzata nei laboratori Kodak nel 1975: era la foto in bianco e nero di un’assistente di laboratorio. Ci sono voluti vari anni perché la qualità delle immagini fosse accettabile. Negli anni 70 mancando ancora il personal computer la ricerca era concentrata sulla possibilità di memorizzare le fotografie su qualche supporto magnetico e magari rivederle sul televisore di casa, saltando la fase dello sviluppo della pellicola. Nel 1888, Eastman aveva lanciato una macchina fotografica molto innovativa anche per il nome, Kodak, che diventerà il simbolo delle macchine fotografiche semplici ad uso amatoriale, anche di tipo usa e getta e le polaroid. Eastman nel 1989 decise anche il formato delle fotografie, 35 mm. Dopo aver scattato un rullo di 100 fotografie si poteva inviare la macchina ai grandi laboratori Kodak che provvedevano allo sviluppo. L’innovazoone della Kodak però era soprattutto la sua semplicità d’uso, la portabilità e il prezzo modesto che avvio una dimensione hobbistica della fotografia, alla portata di tutti e fuori dall’ambito strettamente professionale. 8.5 Diffusione di massa e nuove funzioni della foto digitale Soltanto a metà degli anni 90 si sono determinate le condizioni per la diffusione della macchina fotografica digitale. Essa dispone da subito di un livello di automatismo molto elevato, nascendo in una cultura elettronica. Lo scetticismo dei fotografi professionisti nei confronti della foto digitale è stato all’origine molto accentuato. Al sospetto nei confronti degli automatismi e alla constatazione che la foto digitale aveva una qualità inferiore rispetto alla “grana” della pellicola si aggiungeva la consapevolezza che il digitale riduceva l’esclusività delle loro competenze. L’elaborazione digitale delle immagini erano alla portata di chiunque. 36 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Al contrario ad esempio del telefonino, la macchina fotografica digitale quindi ha iniziato conquistando, per la sua semplicità e praticità, semplici hobbisti. Solo successivamente, con l’introduzione di macchine di fascia alta simili alle reflex professionali, la fotografia digitale è penetrata all’interno della categoria dei fotografi professionisti. Le prime macchine fotografiche digitali sono comparse nei negozi nei primi anni 90, i prezzi hanno cominciato a scendere nella seconda metà del decennio, travolgendo prima le macchine analogiche di basso prezzo, poi le altre, e lasciando spazio infine solo per una ristretta fascia alta, quasi artigianale, di macchine analogiche professionali. 8.6 Nuove funzioni sociali Si può dire che le funzioni sociali della fotografia digitale siano collocate in modo diverso dalla fotografia tradizionale. Grazie al telefonino (nel 2002 compaiono le prime macchine fotografiche digitali accoppiate ai telefonini, Casio e Samsung, in Giappone e Corea) milioni di persone hanno sempre una macchina fotografica con se, possono così dar testimonianza di fatti a cui assistono, possono fotografare segretamente un soggetto senza che questo se ne accorga, e la foto è immediatamente disponibile. La gente comune si abitua, nella quotidianità, a fotografare quello che gli capita. Sono tutti passaggi verso una sempre più larga sostituzione dell’immagine allo scritto, o di un’immagine alla realtà. 8.7 La fotografia tra pubblico e privato Quando inizia la produzione industriale della pellicola (1884) la fotografia è ormai un medium, consolidato, e si discute se la fotografia debba ritenersi un arte, una testimonianza del vero, o un’attività industriale tecnicamente riprodotta. In realtà è un po’ di tutto questo. Quello che colpisce è la sua versatilità, la possibilità di portare un contributo a svariati campi della vita culturale e civile. Essa si trova in forte sintonia con il giornalismo specialmente dopo il 1880, quando si ha una convergenza della fotografia con la stampa. I giornali si riempiono di foto e si avrà sempre più uno slittamento di significato dallo scritto all’immagine. La notizia è una “fotonotizia”: un’immagine con didascalia che spiega e commenta luoghi e e personaggi rappresentati. Articoli di cronaca, reportage, ma anche la foto scandalistica. La fotografia occuperà anche altri settori della sfera pubblica: la comunicazione politica ed elettorale, foto di denuncia e segnaletiche, foto mediche come le radiografie. Ma è anche strumento di archiviazione di opere d’arte, monumenti,costumi di popli lontani, La foto è protagonista inoltre della pubblicità, della moda, dello sport. La fotografia ha però anche però grande rilievo all’interno della vita privata e familiare, in particolare dopo l’avvento della Kodak e la foto amatoriale. Più che attività comunicaticìva è in questo caso attività documentaria, estensione della nostra memoria. La foto amatoriale si ha anche in contesti come le vacanze, i viaggi, ma ancge la guerra. 8.8 Fotografia o post-fotografia? La fotografia prende si di se l’onere di rappresentare la realtà e svincola la pittura dal realismo obbligatorio. La foto è la realtà , ,mentre la pittura ci consegna emozioni e sentimenti. La foto a questo punto deve sacrificare ogni forma di soggettività. Stando a questa concezione, la foto digitale, con la sua origine sintetica, appare come una “post-fotografia” . 37 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA In realtà la rilevanza della foto digitale sta nel portare all’estreme conseguenze caratteristiche originali già presenti in questo medium e nella sua riproducibilità tecnica. Dieci anni di immagini digitali sembrano contenere in forma compressa nello stile del digitale, un secolo e mezzo di fotografia. ___________________________________________________________ 38 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 9 - IL CINEMA DIGITALE9.1 Macchine da presa e telecamere La telecamera digitale è un perfezionamento della macchina fotografica digitale. Con lo stesso sistema con cui si scatta una singola foto è possibile registrare una sequenza di fotogrammi: la luce che l’obiettivo fa entrare nella camera colpisce la superficie sensibile alla luce di un sensore allo stato solido fatto generalmente di silicio, il CCD. Nelle telecamere di pregio ci sono tre sensori CCD per ogni colore primario RGB ( Red Green Blue). I precedenti sistemi per registrare le immagini in movimento sono la macchina da presa del cinema e la telecamera televisiva. Inoltre esistono due possibilità di creare un’immagine sintetica: il cartone animato e l’animazione Stop Motion (animazione di manichini di personaggi e animali). La macchina da presa cinematografica è un dispositivo ottico-meccanico dotato di un obiettivo. Attraverso le lenti la luce entra , passa nel diaframma e poi arriva all’otturatore, impressionando una pellicola di celluloide. La sensazione del movimento è data da rapido scorrimento di 24 fotogrammi al secondo. La telecamera televisiva tradizionale ha anche essa un obiettivo, che convoglia la luce su un sensore contenuto al duo interno. Un pennello elettronico scansiona l’immagine focalizzata dall’obiettivo e la converte in un segnale elettrico analogico, il segnale video. Tale segnale, accoppiato con quello audio, può essere registrato con un videoregistratore e conservato su videocassetta, oppure messo in onda via etere o altri mezzi come il cavo e il satellite. I fotogrammi al secondo in televisione sono 25, uno in più rispetto al cinema. La diversità dei due apparati produce immagini in movimento molto diverse tra loro. Oltre che nell’inquadratura, la grande differenza è nella definizione, che è data dal numero di punti di cui è composta un’immagine. L’immagine televisiva analogica ha una bassa definizione, non paragonabile a quella del film a 35 mm e inferiore anche ai 16 mm, e una gamma di colori meno accurata. Quello che salva l’immagine televisiva è la ridotta superficie dello schermo dei televisori domestici; infatti se presentata su uno schermo più grande l’immagine si sgrana. L’immagine cinematografica dà il meglio di se quando viene proiettata su un grande schermo. Queste differenze hanno segnato la storia dei due mezzi, contribuendo a stabilire due contratti spettatoriali. Nelle sale del cinema ci attendiamo un’elevata qualità della visione, cosa che non pretendiamo dalla televisione. 9.2 Limiti e prospettive della ripresa cinematografica digitale Le telecamere digitali si sono diffuse alla fine degli anni 80 ed hanno avuto le loro prime applicazioni in televisione,pubblicità,videoclip. Sono offerte all’interno di una cultura prevalentemente televisiva, dove veniva impiegata non solo in postproduzione, in quanto veniva girato tutto in digitale. Dal mercato professionale televisivo la telecamera digitale ha intrapreso, negli anni 90, la conquista di un mercato amatoriale di alto livello. Non solo quindi filmini delle vacanze, ma anche giovani free lance, che girano servizi di giornalismo d’inchiesta e lavorano per piccole emittenti e canali satellitare che non possono permettersi la troupe. La definizione delle immagini digitali era molto superiore a quella delle telecamere analogiche, ma ancora lontana dalle pellicole a 35 mm, e dai 2milioni di pixel contro i 6-8 milioni dei 35mm. 39 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA La pellicola cinematografica ha una maggiore capacità di registrare le sfumature dal bianco al nero, dalla luce piena all’ombra. Le immagini sembrano meno “reali” di quelle del cinema in pellicola. Il fatto è che i sensori presenti nel CCD sono collocati in modo simmetrico e tutti allo stesso piano, mentre i sali d’argento spalmati sulla pellicola, che sono gli elementi fotosensibili, sono disposti in modo casuale e non sullo stesso piano, cosicchè la sensibilità e simile a quella dell’occhio umano. La telecamera digitale ha però un costo minore e dimensioni più ridotte, la registrazione in digitale inoltre permette un’immediata riproduzione senza la necessità dello sviluppo. Girare in digitale abbatte il costo dei supporti e della cattura delle immagini, di sviluppo e stampa. Inoltre un film in digitale può essere realizzato in media in quattro mesi, contro i 6 di un film in pellicola. Nel cinema digitale la necessità di illuminazione della scena è molto inferiore rispetto alla pellicola, anche perché il digitale non riuscirebbe comunque a rendere molte sfumature, e quindi si possono usare più camere contemporaneamente utilizzando il set a 360 gradi. La preparazione del set quindi è meno lunga. Inoltre le telecamere digitali non fanno rumore e ciò facilita la cattura del suono e permette la presa diretta senza doppiaggio. Infine il video digitale è già pronto per la postproduzione digitale, in cui è possibile anche effettuare la correzione del colore e cancellare dettagli errati, ma soprattutto accedere al trattamento elettronico degli effetti speciali. Infatti la prima applicazione della ripresa digitale al cinema è stata limitata alle sequenze in cui c’erano forti esigenze di postproduzione ed effetti speciali. Una sorta di “digitale per necessità”, in cui spicca il caso del Corvo (1994), il cui attore protagonista Brandon Lee muore prima di aver completato le riprese: vero in cubo per un regista, per il rischio di dover buttare via tutto. Il digitale permette viene in aiuto e permette di realizzare le scene mancanti inserendo in postproduzione, al computer, l’attore defunto. Vi è un filone di cinematografia digitalizzata al servizio degli effetti speciali, molto congeniale ad Hollywood che l’ha utilizzata sempre più largamente in grandi produzioni come Star Wars ,Titanic, e l’Attacco dei cloni di Gorge Lucas. Nel caso di Star Wars serviva a creare sinteticamente personaggi e situazioni di fantasia che non esistono in realtà, mentre nel caso di Titanic serve a ricreare situazioni reali impossibili da riprodurre con tecniche tradizionali. 9.3 Il digitale come mezzo espressivo Nel 2000 la regista Agnès Varda realizza in Francia uno dei suoi documentari, Les glaneurs et la glaneus, sul tema degli homeless, Il documentario è girato in solo 29 giorni usando telecamere digitali, fra cui una Mini dv utilizzata dalla stessa regista. Il digitale i n questo caso serve a osservare la realtà senza essere intrusivi, senza intimidire persone in difficoltà che chiedono di essere guardati in faccia, cosa che la piccola telecamera tenuta nella mano consente. Varda rivolge la telecamera anche su se stessa in un discorso sulla vecchiaia e sulla morte. Il carattere leggero e spartano del digitale sembra intercettare le prescrizioni del movimento Dogma 95 di Lars Von Trier e Vintenber, di un cinema che “costringa la verità ad uscire dai personaggi e dalle ambientazioni…a discapito di ogni considerazione di buongusto o di carattere estetico”. Un cinema che deve essere gurato nei luoghi , con i suoni e le luci del luogo che rappresenta, senza sofisticazioni. Un altro esempio di cinema digitale è proprio Dancer in the Dark di Von Trier. Qui ci sono 100 telecamere che operano contemporaneamente nelle scene di danza, prevale il desiderio di non perdersi nessuno dei possibili punti di vista e nessuna inquadratura. Il regista si lega addosso la camera perché nulla gli sfugga. 40 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Ripreso in digitale nel 99 è stato anche il documentario Buena Vista Social Club, di Wim Wenders, dove l’uso del digiutale leggero sottolinea gli aspetti di inchiesta, si insinua senza disturbare e dare nell’occhip. Aleksandr Sokurov nel 2001 gira l’Arca Russa, un pianosequenza di 90 minuti compiuto da una steadicam attraverso il salone del museo dell’Hermitage affollati da 2000 personaggi in costume. Cosa realizzabile solo in digitale. Giuseppe Bertolucci in L’amore probabilmente (2000) consegna le telecamere digitali direttamente alla protagonista, allieva di una scuola di recitazione alla ricerca di una sua verità, e la preparazione, le prove, fanno parte del film. Con il digitale l’ampiezza del set è sfruttata interamente (non solo la porzione illuminata occupata dalle macchine), questo permette una maggiore improvvisazione degli attori, la quantità del girato aumenta, più che girare in senso tradizionale, si procede ad una complessa cattura del senso, mettendo in campo tutti i mezzi e angolazioni, prospettive possibili. 9.4 La crisi dell’occhio La centralità dell’uomo e del suo punto di vista (ovvero dell’operatore che azionava la macchina da presa, e del regista che segue sul mirino), va in crisi con il digitale, perché esso permette di assumere punti di vista impossibili per un operatore in carne ed ossa e per lo stesso occhio umano. La stessa specializzazione dell’operatore è messa in discussione: adesso la telecamere ce l’hanno in mano tutti, il regista e gli stessi attori. Il suo mestiere non è più quello di azionare una macchina ma di governare un parco di apparati di ripresa. Il cinema rappresentava attraverso una distanza, l’oggetto era mostrato, ma alla distanza necessaria tecnicamente per la messa a fuoco. Con il digitale questa distanza può essere travolta sia tecnicamente che culturalmente. Iol cinema spettacolare, da Guerre Stellari di Gorge Lucas in poi. Tende ad immergersi nel film, come se fosse un’unica soggettiva, Il digitale inoltre permette l’adozione di punti di vista impossibili e movimenti di macchina che danno allo spettatore l’impressione di tuffarsi dentro la scena, essere parte di essa, modificando quella sorta di “transenna”, di divisione spazio-temporale che lo separa dalla scena. 9.5 Corpi e cartoni Già in epoca analogica il cartone rappresenta una forma di immagine sintetica. Il digitale si adatta particolarmente al disegno animato. L’animazione al computer, è yna variante della computer graphics. Personaggi e oggetti in movimento sono generati al computer tramite appositi software che permettono di determinare i movimenti di un modello già esistente. Un ruolo impostante ha la Divisione Computer Graphics della Lucasfilm, acquistata nel 1986 da Steves Jobs,, e ribattezzata Pixar, fecendone una società per produzione di cartoni animati digitali. Nel 95 c’è il primo grande successo, Toy Story, distribuito dalla Disney che nel 95 acquisterà la Pixar, con cui aveva continuato a collaborare realizzando A Bug’s Life (1998), Shrek e Monsters (2001), Nemo (2003); The Incredibles (2004). Alla guida c’è ancora Jobs. Toy Story è il primo lungometraggio commerciale di cartoni animati realizzato in 3D interamente digitale. Prima ancora . Chi ha incastrato Roger Rabbit (1988), aveva mostrato la convivenza tra azione e animazione. Anche The Mask di Chuck Russel (1994), utilizza il morphing per piegare il corpo dell’uomo alla sua duplice natura di impiegato di anca e superuomo. 41 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA 9.6 Il digitale nell’esercizio e nella distribuzione Oggi la distribuzione di un film, indipendentemente dalla tecnologia con cui è girato, è interamente analogica. Esso deve essere riversato in pellicola, perché tutte le sale del mondo sono attrezzate per la pellicola. Il vero problema è cosa fare di queste pellicole quando finisce il loro ciclo di sfruttamento. Nei magazzini si “ammucchiano” le di vecchie “pizze” di film che finiscono poi per deteriorarsi. Un vero spreco. Vari esperimenti di proiezione digitale si stanno svolgendo in tutto il mondo. Al momento, la qualità della visione di un dvd proiettato su un grande schermo è ancora inferiore rispetto alla qualità della pellicola tradizionale, anche se in via di miglioramento. Se si troverà il modo per finanziare l’adeguamento tecnologico delle sale non è impossibile una distribuzione criptata del film via satellite o via Internet. _______________________________________________________________________ 42 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 10 -LA TELEVISIONE DIGITALE10.1 La tv di fronte al digitale Per quanto riguarda la tv la digitalizzazione è comparsa all’orizzonte quando si è constatato che essa offriva ai sistemi televisivi non tanto un’immagine particolarmente nitida quanto un mezzo per moltiplicare il numero dei canali. Per offrire questa ricca scelta di canali è necessario disporre di spazi di trasmissione (frequenze nello spettro elettromagnetico, cavi) che sono saturi e non disponibili. La tv digitale può comprimere i propri file, facendo passare sulla stessa frequenza più canali, cosa che la trasmissione analogica non permette di fare. Dunque la tecnologia digitale fornisce alle istituzioni televisive la possibilità di espandere la propria offerta e reclutare nuovi clienti paganti. Fino a metà anni 90 la tv digitale non decolla perché non si sa come mandarla in onda, le frequenze terrestri (lo spettro elettromagnetico) sono già tutte prese e pochi paesi, certo non l’Italia, dispongono di un efficace cablaggio a larga banda del territorio. La “banda larga” (broadband) è un tipo di connessione via cavo che porta nella casa dell’utente una grande quantità di dati, sufficiente a svolgere un servizio televisivo. Il cablaggio a larga banda ottimale utilizza interamente la fibra ottica. Di fronte alle difficoltà e ai costi di cablaggio si sono introdotti sistemi di compressione sul tradizionale “doppino”, il filo telefonico che arriva dentro le abitazioni per realizzare connessioni veloci come l’Adsl. L’Adsl ha i vantaggio di consentire lo svolgimento simultaneo della telefonia vocale e del collegamento permanente ad Internet o del servizio televisivo, ,ma si è diffusa in Italia solo di recente. 10.2 Il satellite digitale a diffusione diretta Per la tv digitale l’alternativa praticabile è stata rappresentata dal satellite a diffusione diretta, ricevibile cioè direttamente nelle abitazioni con una piccola antenna parabolica. Nel 94, negli Stati Uniti, con Direct Tv, si ebbe la prima esperienza riuscita di televisione digitale a diffusione diretta via satellite, ricevibile da piccole antenne domestiche. Contemporaneamente furono lanciati i satelliti europei Eutelsat, classe Early Bird. Il numero 2 della serie sorvolò il Mediterraneo dal 1996, rendendo possibile la televisione digitale in tutta Italia. Per evitare che chiunque possa usufruire dei canali senza pagare, mettendo un antenna sul balcone, i programmi sono criptati; il decoder assicura agli abbonati la decodifica e la conversione in analogico compatibile col televisore. Una smart card è inserita nel decoder, collegato, come un modem, alla linea telefonica. Il telefono fornisce una linea di ritorno che il satellite, diversamente da un cavo a banda larga, non prevede. Un’interfaccia grafica gestita dal telecomando permette di ordinare,sempre via telefono, programmi in pay per view. Il complesso dei sistemi di distribuzione, programmazione, e fatturazione di una televisione a pagamento digitale, che operano con uno standard comune, sono chiamati “piattaforma digitale”. Ancora non si è riusciti a definire uno standard mondiale. Il gestore di una piattaforma digitale si trova a disposizione una grande quantità di canali che deve riempire. Cercherà innanzitutto un’alleanza internazionale che gli permetta di accedere a prodotti televisivi globalizzati; stipulerà poi contratti con alcuni content provider per realizzare canali che portano il suo marchio.Ne rimangono altri che possono essere affittati a organizzazioni, commerciali o no, in grado di produrre contenuti e con un pubblico di riferimento. 43 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Un broadcasting tradizionale è fortemente connotato dai programmi che manda in onda, e di cui ha l’intera responsabilità; per il gestore della piattaforma, per cui è stato inventato il neologismo narrowcasting, questa identificazione è assai più debole, egli controlla solo una parte della “sua”programmazione. 10.3 I contenuti della tv digitale I canali televisivi proposti a pagamento sulle piattaforme digitali hanno modalità produttive e formato diversi dalla televisione in chiaro. Il cliente a casa del resto deve percepire che sta pagando per un prodotto di nicchia alta. La minore invadenza della pubblicità è il primo dato che la clientela può percepire. La tv a pagamento del resto è una tecnologia pull che rende disponibili elenchi di contenuti, da cui lo spettatore preleva, spinge verso di se, solo ciò che è di suo gradimento (al contrario della tecnologia “push” della tv a pagamento che spinge i contenuti verso l’utente). Quindi non c’è flusso, non c’è necessità di inglobare ne di raggiungere la maggioranza di spettatori, o di essere sempre graditi. Da qui la sua sobrietà, che porta a considerarla una tv di maggiore qualità. Tuttavia nonha sostituito la tv generalista perché sarà sempre comunque quest’ultima che svolgerà la funzione di “collante sociale”, e a dare il senso di ciò che accade nel mondo. La tv a pagamento sceglie contenuti che la tv generalista non da,contenuti organizzati in canali dedicati a un tema specifico, per questo detti “tematici”. 10.4 La televisione a pagamento in Europa e in Italia Le esperienze di riferimento nel campo della tv a pagamento europea sono la francese Canal Plus e l’inglese Sky. La prima, a cui è stata attribuita la concessione nel 1983, è diventata un aproduttrice cinematografica di prima grandezza. Sky è proprietà di Rupert Murdoch, proprietario anche del “Times”, del nwtwork “Fox” ecc. In Italia la tv a pagamento nasce nel 1990, ed è diffusa su frequenze Fininvest, poi Mediaset. Si chiama Tele+, avrà tre reti: la prima destinata a trasmettere cinema, la seconda mirata allo sport, la terza per la cultura. E’ una tv via etere, criptata, che fa molta fatica a raccogliere abbonamenti oerchè il cinema e lo sport sono offerti largamente dalle reti in chiaro. La società comunque non fallirà. Un tentativo per rivitalizzarla si avrà nel 95 con Tele+ Calcio, che già si avvale di un satellite per moltiplicare i canali e offrire cinque partite di serie A contemporaneamente. Tuttavia l’iniziativa non avrà un gran ritorno commerciale. Intanto la Stet, nella fase della transazione in cui diventerà Telecom Italia, lancia un ambizioso progetto di cablaggio integrale a fibre ottiche dell’Italia, il “Progetto Socrate”. Nell’ambito di questo progetto essa costituisce nel 1993 la società Stream in funzione di content provider della futura televisione via cavo. Stram faticosamente si converte a una televisione prevalentemente via satellite, lanciando nel 97 una sua piattaforma digitale. Le piattaforme in Italia sono quindi due, entrambe in forte perdita. Nel 1999 Murdoch, che sta cercando da tempo di en trare nei media italiani, acquisisce da Telecom ITALIA IL CONTROLLO DI Stream puntando molto sul calcio. Alcuni club di calcio cui è stato consentito di diventare società per azioni, diventano socie di Sky e le loro partite costituiscono l’offerta calcistica pay per view di Stream. Nel 2001 Murdoch le acquista interamente. Nel 2003 Tele+ e Stram, già di fatto unificate, si fondono in Sky Italia. 44 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA 10.5 Sport e tv digitale In Italia lo sport ha fatto decollare la tv a pagamento. Questo grazie alla possibilità di avere canali sufficienti per la trasmissione contemporanea di quasi un intero campionato. La tv a pagamento ha acquistato e sequestrato i diritti di trasmissione degli eventi sportivi, obbligandoli a migrare dalla tv in chiaro a quella a pagamento. La tv ha imposto al calcio le sue esigenze e i suoi calendari. Ha fatto diventare il calcio da occasione festiva a occasione quotidiana moltiplicando il numero delle partite trasmesse anche nei giorni feriali, e trasmettendo anche il cd “teatrino del calcio”, ovvero tutto quello che sta dietro, chiacchiere, pronostici, liti fra presidenti di squadre ecc. Grazie al replay e al ralenti si è inoltre messa in discussione l’inappellabilità dell’arbitro, sostituendolo con la moviola. Si afferma lo sport spettacolo e legato anche molto alla pubblicità, e uno sport molto tecnologico, come il caso del mondiale di calcio 2006 in cui per la prima volta è stata disponibile la tv digitale ad alta definizione, fruibile su schermi piatti a cristalli liquidi (Lcd) o al plasma. 10.6 “All news” Un formato presente in tutte le piattaforme digitali è quello “all news”, un canale telematico interamente dedicato all’informazione. Capostipite è la Cnn, fondata ad Atalanta nel 1980dall’imprenditore dei medi Ted Turner. La Cnn è fin da subito contraddistinta da una rotation di tipo radiofonico con notiziari cadenziato 24 ore su 24. e una gran cura nell’aggiornamento delle notizie. Trovano inoltre molto spazio i notiziari tematici e “breaking news”, ovvero notizie dell’ultimo momento. Durante la prima guerra nel Golfo nel 91 la Cnn investe massicciamente nella copertura diretta degli avvenimenti ed è l’unica a raccontare in diretta tv i bombardamenti americani sull’Iraq. Dopo il 91 compaioino altri esempi di tv “all news” come Sky tv di Murdoch, e BBc Word, dedito all’approfondimento. Verso la fine degli anni 90 tutte le reti tv di informazione internazionale si sono dotate di siti web: all’inizio vetrine per le rispettive emittenti, si sono poi resi autonomi trasformandoli in portali e seguendo il percorso dell’informazione on line, soffermandosi sulla modalità pull e sul carattere ipertestuale delle notizie trattate. In italia inizia nel 99 l’esperienza di Rai News 24 , un “all news” 24 ore su 24 pubblicato in Interet. Lo schermo appare diviso in piu parti, una parte con gli aggiornamenti e gli indicatori economici, una parte con immagini e grafici, un’altra con titoli delle notizie e link. 10.7 Il digitale terrestre La tv digitale terrestre si è servita prevalentemente di satelliti a diffusione diretta e in misura minore del cavo a larga banda, ma esiste anche un’altra forma di diffusione: la sua trasmissione attraverso le reti terrestri, cioè sulle stesse frequenze su cui viene distribuito il canale televisivo. Introdotto in Italia nel 2004 dalla “Legge Gasparri”, allora fu contestata dall’opposizione in quanto vedeva nella moltiplicazione delle frequenze un modo per tutelare Mediaset. Il digitale terrestre rappresenta un’evoluzione necessaria con risvolti interessanti per laoroduzione televisiva. Con il digitale si distingue fra “fornitori di contenuti” (cioè gli editori dei canali tv) e gli “operatori di rete”, ossia coloro che installano gli impianti necessari alla trasmissione dei canali televisivi in tecnica digitale. 45 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA Essi non vengono emessi singolarmente, uno per ogni frequenza, come nella tv tradizionale, ma sono sistemati in una successione temporale all’interno di un “multiplex”. Tale operazione è detta “modulazione”. Sono gli operatori di rete ad allestire i “multiplex”, nei quali possono trovare posto diversi canali televisivi, preparati dai “fornitori do contenuti”. Quest’ultimi, per poter operare, devono presentare un a domanda di abilitazione, gli operatori di rete devono richiedere il rilascio di una licenza. Sono ritenuti “fornitori di contenuti di particolare valore” quelli che dedicano almeno il 70% della propria programmazione alla formazione, informazione ecc. Il digitale terrestre è destinato a rafforzare l’attività di società di content providing, specializzate in particolari nicchie di genere e di pubblico, ma anche a privilegiare coloro che riescono ad immettere maggiori forme di interattivita e ipertestualità. 10.8 “Switchover” Per essere usato efficacemente il digitale terrestre richiede lo spegnimento delle trasmissioni analogiche (switchover) e una nuova pianificazione delle frequenze. E’ collocato oltre il 2010. Nel digitale terrestre si è vista un’occasione per l’emittenza locale, la più penalizzata dalla penuria di frequenze. Tuttavia l’avvio del digitale terrestre non è stato travolgente dal punto di vista dell’offerta. In totale i canali non più ricevibili in analogico sono dodici, ma di interesse non eccelso, e comunque meno rispetto ai canali proposti da Sky. Del resto poi i multiplex appartengono prevalentemente a broadcaster tradizionali (Rai, Mediaset, La7). Obbligati a posizionarsi sul digitale terrestre ma che non vogliono perdere la centralità nella profìgrammazione generalista. L’avvio del digitale inoltre è stato discutibile anche dal punto di vista della gestione delle frequenze. Prevedendo il passaggio al digitale sulla base di frequenze gia a disposizione di ciascuna emittente la legge Gasparri infatti non ha consentito una nuova pianificazione delle frequenze e quindi si è preclusa il risparmio che il passaggio al digitale permette . Infatti con le frequenze risparmiate sarebbe possibile una migliore gestione di altri servizi (radiofonia, telecomunicazioni ecc). 10.9 Il paradosso della tv interattiva E’ stata molto enfatizzata la vocazione interattiva della televisione digitale, in cui si vorrebbe vedere un superamento della passività dello spettatore. In realtà l’interattività della tv digitale si risolve nella scelta pay per view da un menù piuttosto piatto. Vi sono vari livelli di interattività: 1 interattività di accesso: la tv va accesa 2 interattività di regolazione: adattare le caratteristiche tecniche audio e video del programma che stiamo guardando 3 interattività di scelta: cambiare programma, e nella tv digitale , acquistarlo 4 accesso ai servizi evoluti La scommessa della tv interattiva sta nell’ultima forma di interattività. Per questa forma di interattività però prende il sopravvento il computer ed Internet, mentre la tv ne esce sconfitta. L’unico campo in cui potrebbe aver successo è la vendita di beni e servizi, ma dovrebbe trovare comunque un sistema efficiente per i pagamenti. 46 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA 10.10 Mosaico e ipertestualità L’interattività che non tramonterà mai è l’interattività di scelta, quella che ci permette di decidere in merito a cos a vedere e come. Nella tv digitale questa facoltà tende ad ampliarsi. Stiamo assistendo a forme di ipertestualità televisiva; un sistema di organizzazione delle informazioni non gerarchica e rigida, che permette all’utilizzatore di raccogliere un insieme di informazioni a sua scelta come e quando lo desidera. Si afferma inoltre un’estetica a mosaico: uno schermo televisivo diviso, in vari riquadri, in cui appaiono contemporaneamente vari canali, o angoli visuali dello stesso evento tra cui è possibile scegliere. La componente ludica inoltre emerge sempre di piu. Sulla tv digitale si possono effettuare scommesse. Inoltre sono da tenere d’occhio gli Epg , le guide elettroniche ai programmi 10.11 La televisione via Internet e a banda larga Si è cominciato a parlare di web tv intorno al 2000. Poiché fare tv sul web ha una soglia di accesso bassissima, essa è l’ideale per una comunicazione non mainstream, non generalista. Non è però accessibile però a un pubblico o popolare e sociale, dato che la sua modalità di fruizione è il computer collegato ad Internet, e con connessioni veloci e costose. La tv via Interne è finanziata prevalentemente con banner pubblicitari e sponsorizzazioni. E’ frutto di un desiderio di testimonianza, di avanguardia culturale, consigliabile a chi vuole sperimentare nuovi linguaggi. Tutt’altra cosa è la tv a banda larga (IPTV): UN SERVIZIO TELEVISIVO CON PROTOCOLLO IP, via Interet, fruita prevalentemente tramite un televisore e l’accesso a una connessione a banda larga, fornita da grandi operatori delle telecomunicazioni. Il principale operatore italiano è Fastweb, che offre un’unica fattura per telefoni, tv ed Internet. Per avere una sua riconoscibilità la tv broadband deve avere anche un’offerta sua propria, valorizzando i vantaggi del cavo sul satellite, che sono due: efficienza del canale di ritorno e la possibilità di forme video on demand. I linguaggi della IPTV sono vicini a quelli della tv a pagamento: devono trasmettere al proprio utente-cliente la percezione di avvalersi di un servizio innovativo, di fascia alta, hitech. Il video on demand (streaming) è una caratteristica addizionale importante, che la distingue dalla pay per view a cui siamo abituati. La fruizione in Internet accorcia molto i formati, cura le interfacce grafiche, dando un’estetica del videogioco. La risposta del mercato per ora è molto cauta. La disponibilità del servizio non coincide con la propensione della clientela a servirsene. Nella IPTV sono però presenti caratteristiche assenti nella tv tradizionale che sono essenzialmente quattro: contatto diretto ed univoco tra operatore ed utente finale con la possibilità di fornire in streaming servizi personalizzati; piena interattività del cliente per l’esistenza di un canale di ritorno sul cavo; possibilità di memorizzare, fruire in forma ritardata, modificare i contenuti ricevuti; tracciabilità delle scelte del cliente senza bisogno di nessun auditel. ________________________________________________________________________________ 47 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 11 -I SISTEMI DI LOCALIZZAZIONE E IL NUOVO SENS DEL LUOGO11.1 Il GPS Il sistema GPS, (Global Positioning System), è un sistema di rilevamento satelittare della posizione di un punto (persona, edificio,veicolo in movimento), realizaato dal Dipartimento della Difesa degli Stati Uniti negli anni 70 e completato nel 1993. Mandano verso terra segnali radio digitali che consentono a chi è dotato di un apparecchio ricevente speciale di rilevare la propria posizione. Il GPS utilizza 24 satteliti artificiali , divisi in gruppi di quattro, che ruotano intorno alla Terra alla distanza di 20.200 km. Fin dall’antichità esistono metodi per determinare la propria posizione orientandosi con le stelle e utilizzando strumenti come l’astrolabio e il sestante. Il GPS è un’evoluzione di questi sistemi. La posizione è determinata non più rispetto alle stelle ma ai satelliti artificiali, i quali mandano segnali radio digitali che il nostro ricevitore GPS riesce a captare: un chip di calcolo al suo interno determina , in base ai dati ricevuti, la nostra posizione. Ciò avviene misurando il tempo impiegato dal segnale radio per percorrere la distanza fra satellite e ricevitore. Quattro satelliti sono sufficienti per determinare la posizione con esattezza. I segnali digitali generati dai satelliti GPS permettono un’approssimazione minore di un metro. . Fino al 91 le informazioni, cripate, erano solo di uso militare. Il segnale è stato poi liberalizzato per uso civile con una versione “degradata” per evitare usi impropri (con approssimazioni di 100-150 mt), ma dal 2000 l’approssimazione nell’uso civile è scesa a 10 metri, anche se con restrizioni. Le informazioni complete sono accessibili solo all’uso militare, per il quale il servizio è rivolto alla sicurezza nazionale, es soccorrere navi,aerei,sommergibili ecc, ma è evidente come possa essere utile anche per guidare missili o “bombe intelligenti”. L’Europa sta cercando di realizzare con altri Stati, tra cui la Cina, un proprio sistema di localizzazione, detto “Galileo”, con 30 satelliri, che dovrebbe essere operativo dal 2010, per essere indipendente dal sistema americano. Un sistema GPS ha le dimensioni di un cellulare, con un antenna regolabile puntata verso l’alto. Non riceve però nei locali chiusi ma solo all’aperto. Collocandolo con un database che contiene mappe digitali di un territorio è possibile non solo individuare la posizione tramite le sue coordinate geografiche e l’altitudine, ma anche mostrarla geograficamente su una carta geografica sia come posizione fissa che come postazione in movimento (es se collegato a un veicolo). Una conoscenza e leggibilità così vasta e immediata della superficie terrestre è assolutamente nuova per il genere umano. Un applicazione pratica di questi concetti è il navigatore satellitare per auto: un apparecchio che ha in memoria una dettagliata cartografia stradale, informazioni aggiuntive sulla toponomastica, sullo stato delle strade, distanza fra i vari centri. Grazie a una potente capacità di elaborazione e resa grafica, esso può ricercare una determinata strada e indicare il tragitto per raggiungerla, la distanza e il tempo per coprirla. Dotato di sintetizzatore vocale, il navigatore fornisce al guidatore istruzioni vocali per raggiungere il luogo richietsto. Accoppiando il navigatore con una connessione ad Internet (es telefonino Umts) , è possibile aggiornare in tempo reale il database dell’auto, corredandolo dei lavori in corso, delle deviazioni sul posto, condizioni del traffico, e addirittura posizione degli Autovelox. Adottando la stessa tecnica, sono stati realizzati sistemi antifurto satellitari per auto e camion. Il veicolo rubato in cui è montato un GPS in posizione nascosta, emette un segnale che trasmette alla centrale la propria posizione. 48 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA E’ stato già realizzato l’inserimento del GPS neglii smart phones , consentendo di usarli come navigatori. All’inizio il ricevitore GPS impiegava del tempo per trovare i satelliti. Poi si è pensato che le informazioni sulla posizione dei satelliti rispetto alla cella in cui si trova il telefono corredato di GPS possono essere inviati direttamente al terminaòle attraverso la rete di telefonia mobile, assumendo che i satelliti in vista dalla cella siano gli stessi visibili daoi terminali che si trovano sul territorio. In questo modo il telefono con GPS RICAVA IN POCHI SECONDI LA PROPRIA POSIZIONE. L’abbinamento di UMTS e GSM è MOLTO RECENTE E NON HA ANCORA PRODOTTO EFFETTI SOCIALI RILEVANTI al di fuori della nicchia di appassionati. Tuttavia con quati sistemi cambierà il senso del luogo:quella percezione dello spazio già modificata dai media elettronici, e che si avvia ora a una nuova e più pervasiva modellizzazione. 11.2 Google Earth e il “buco della serratura” Nell’Ottobre 2004 Google, compra una piccola società, Keyhole (“buco della serratura”). Leader mondiale nel digital mapping su Internet. Questa ha realizzato un modello 3d dell’intera superfice terrestre, continuamente aggiornato con nuovi dati, e soprattutto un software che permette ai suoi 10000 clienti professionali di elaborare e modificare sui computer dì ufficio una rappresentazione grafica molto accurata di porzioni della superficie terrestre, combinando una grafica tridimensionale di qualità e tecniche innovative di streaming. La soluzione elaborata da Keyhole è caratterizzata dalla ricchezza dei dati cartografici, dall’efficienza della loro trasmissione in dtreaming su Internt, e facilità d’uso. Incorporando nello stesso programma più tecnologie, esso permette di modificare la carta geografica, collocarci progetti di edifici, strade, cambiarne il punto di vista ecc. Google prende il software di Keyhole e lo ribattezza Google Earth, ma ne cambia il modello di business. Mentte prima si trattava di vendere a clienti professionali l’accesso in abbonamento delle rappresentazioni cartografiche digitali, adesso Google Earth diventa un motore di ricerca che invece do cercare siti web cerca rappresentazioni digitali di un punto determinato della supoerfice terrestre. Inoltre fornisce la capacità di navigazione e grafica di Keyhole, a cui aggiunge la propria esperienza nel ricercare e fornire al proprio utilizzatore luoghi,monumenti,strade ecc. Mentre prima si pagava per acceder al software, Google abbatte i prezzi, prima della fornitura gratuita offerta nel 2005. Ora Google metaforicamente spalanca la porta a tutti. Inoltre la rappresentazione della superficie terrestre ( non in tempo reale comunque) assume un livello alto di definizione anche per le aree molto sviluppate del mondo, superando in un certo modo il digital divide (anche se nomi e misure seguono comunque le convenzioni anglosassoni). _________________________________________________________________ 49 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA CAPITOLO 12 - SUPER INTERNET12.1 “Always on” Una forte domanda di collegamenti veloci determina alla fine degli anni 90. Essa permette un collegamento continuo ad Internet (always on). Le reti sono sature e devono quido essere realizzate reti di nuova generazione ( NGN, Next Generation Networks) che trasportino servizi sia fissi che mobili adottando il protocollo IP in tutto il loro percorso, dotandosi di standard comuni per la loro intyeroperabilità. Le fibre ottiche sono considerate la materia prima delle reti NGN. In ogni caso queste reti non richiedono fortissimi investimenti. Attorno alla diffusione dei collegamenti alwats on si sviluppa una nuova generazione di servizi web, che abbiamo chiamato “Super Internet”, caratterizzati da una forte interattività, transazioni complesse, collegamenti multimediali p2p sincroni, con effetti sociali molto rilevanti. 12.2 Il commercio elettronico dopo la bolla: la costruzione della reputazione Il commercio elettronico muta i suoi caratteri cooptando i suoi clienti nelle valutazioni commerciali. Il capofila è eBay, un sito per il commercio elettronico p2p. Questo offre una piattaforma per transazioni commerciali ta privati. Navigare nel sito è gratuito, per vendere e comprare è necessaria la registrazione, sempre gratuita. Il sito vive della percentuale sulle vendite; inoltre i pagamenti avvengono con una speciale tecnologia di prelievo, PayPal. Gli oggetti possono essere acquistati al prezzo indicato ma la modalità tipica di eBay è l’asta on line. Il potenziale utente indica l’importo massimo che è disposto a pagare ed eBay effettua automaticamente i rilanci. eBay non offre alcuna garanzia sulla reputazione del venditore e del compratore. Tuttavia il tasso di frodi è molto basso. Ciò avviene perché le due parti, e specialmente i venditori, sono valutate nella loro reputazione. Il punteggio del venditore è collocato accanto alla sua identità e sono accessibili i commenti dei precedenti compratori in termini di affidabilità e qualità dei prodotti. Un venditore abituale riceve così un danno se l’insoddisfazione dei suoi clienti viene resa di pubblico dominio e dunque cerca di trattarli bene. La valutazione della reputazione del venditore si è dimostrata capace di sostituire la conoscenza personale nell’offrire al potenziale acquirente òa fiducia necessaria all’acquisto. Qualcosa del genere succede in Amazon,libreria on line. 12.3 L’informazione on line e i blog Internet modifica il concetto di notizia. Le fonti e lw agenzie di stampa non sono privilegio dei giornalisti ma sono offerte ai comuni cittadini da una molteplicità di siti web che le aggiornano in tempo reale. Molti siti si presentano come pubblicazioni on-line. Oggi tutti i media e le agenzie di informazione dispongono di siti web in cui vengono presentati aggiornamenti e approfondimenti delle notizie presentate nell’edizione cartacea o trasmessa in radio e tv. Il flusso di notizie è costante anche sui cellulari, con servizi in abbonamento, e in schermi di outdoor television diffusi in stazioni,locali pubblici ecc. I blog sono siti personali, di osservatori e operatori dell’informazione, aggiornati generalmente con scadenza giornaliera, in cui sono presentate osservazioni, commenti, link, contenuti multimediali,a perti alla collaborazione di interlocutori. 50 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA I primi asono apparsi in America verso il 97 e in Italia dopo il 2000. Questi possono aggregare comunità di utenti sulla base di comunanza di idee o condivisione di interessi, e si basano su una relazione di fiducia (vd blog di Grillo). Negli stessi anni si sono diffusi molti programmi opensource che permettono di creare il proprio blog anche senza conoscere il linguaggio HTML. Conyrmporaneamente si sono diffuso gli aggregatori (feed) RRS (Real Simple Syndication) che permettono di distribuire in rete i contenuiti di un sito e di riaggregarli sotto altre forme. 12.4 “Data mining”: Google Il più diffuso ed efficiente motore di ricerca è nato nel 1998 a opera di due giovani californiani: Larry Page e Sergey Brin. I motoro di ricerca sono siti a cui ci si rivolge digitando ciò che ci interessa e che riescono a fornire un elenco di link attinenti alla nostra ricerca , attingendo a un proprio database. Il problema è il modo in cui questi link spesso molto numerosi sono elencati. Un ordine casuale è di scarso aiuto. Determinante è che i siti siano elencati in ordine di rilevanza. In Google i siti ad apparire per prima sono quelli che hannop più link che rimandano a siti connessi via link all’oggetto di ricerca. L’utente di Google non paga nulla, chi paga è la pubblicità. La forma dell’inserzioni è una colonna di rimandi sponsorizzati e siti attinenti l’oggetto di ricerca presentati separatamente alla colonna dei risultati. La tariffa delle inserzioni è determinata mettendo all’asta le parole chiave indicate nella ricerca dell’utente. Google è diffuso in 35 lingue , è accessibile dai telefonini, dispone della traduzione automtica. Dal 2002 Google News genera raccolte di articoli e notizie e li visualizza in base agli interessi di ciascun utente; Google Earth si aggiunge nel 2004. La scelta di impegnarsi nel WiMax a S.Francisco e l’acquisizione nel 2006 di You Tube fanno parte del data mining, dell’acquisizione contunua di lucrose informazioni sul profilo di ciascun interlocutore(il sito web, l’investitore pubblicitario, l’utente che ricerca), attravers tecniche di analisi statistica automatizzata. 12.5 Conoscere on line: lo spirito wiki Molte enciclopedie e dizionari possono essere consultabili in rete. Wikipedia ha un aposizione particolare perché è consultabile liberamente, non ha pubblicità e non genera profitti, è multilingue, e soprattutto chiunque può aggiungere o modificare una voce in modo collaborativi, nello spirito con cui viene creato il software open source. Su Wikipedia non esiste una redazione o un comoitato scientifico che controllino i contributi prima di pubblicarli, le sue voci dovrebbero adottare un punto di vista neutrale. Spesso attorno alla modifica di voci si scatenano vive discussioni, che rappresentano un esercizio di ricerca collettiva. Nessuna voce è considerata mai definitiva. Wikipedia inoltre misura di ogni voce la storia, con tutte le successive modifiche. Il fondatore è Jimmy “Jimbo” Wales, nato in Alabama nel 1966. Nel 2000 lancia un’enciclopdia on line, Nupedia aperta a collaborazioni esterne ma con controllo dei contributi, e poco dopo viene a contatto con il movimento wiki e nasce Wikipedia. Nel 2003 fonda la Wikipedia Foundation, proprietaria di Wikipedia senza scopi di lucro. Viene esclusa la pubblicità e la fondazione vive di fondazioni. Il lavoro più importante è svolto, in forma volontaria, dagli amministratori, eletti tra gli utentio registrati. Essi possono cancellare una voce, o vietare ad alcuni utenti di modificarla, quando sono contrarie allo spirito wiki, o fanno pubblicità a qualche 51 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA prodotto, o sono scorrette. Wikipedia si sviluppa rapidamente, nonostante le critiche alla sua autorevolezza. 12.6 “Instant messaging” L’istant messanging è un servizio che permette di dialogare in tempo reale con utenti predefiniti, presenti in liste di contatto personalizzate. Il servizio monitorizza la contemporanea presenza on line dei nostri interlocutori abituali e il computer ci avverte che se voliamo possiamo cominciare a scambiare messaggi. Il sistema di Instant messangin che si è più affernato di recente è Msn Messenger di Microsoft. Il messaggio è una miscela di sms e mail, il programma inoltre indica il nostro stato (in linea, occupato ecc), il nostro stato d’animo attraverso le emoticons, e c’è anche possibilità di mentire ad esempio definendosi sconnessi anche se non lo siamo, o filtrando i contatti con i vari interlocutori. Ci si può inoltre scambiare messaggi testuali, audio e video. 12.7 Social networking: My Space My Space è un sito che consente ad ognuno di creareun proprio spazio personale e condividerlo con altri: l’utente si descrive, si racconta, parla di se, esibisce foto, video, file musicali. Sito come My Space si definiscono di “social networking”, e sono indirizzati alla costruzione di relazioni sociali. In mySpacew ciascuno trova la possibilità di costruire nella gaina un blog, di disporre di un servizio di istant messaging o di posta elettronica. L’iscrizione è gratuita, perché il sito vive di pubblicità. Ciascun utente di MySpace può andare alla ricerca di potenziali amici inviando un “friend request” e attendere il suo consenso.Se la persona acconsente, il suo nome e profilo appaiono nella lista dell’utenye che ha effettuato la richiesta, insieme alla foto. Nella pagina di ogni utente sono scritti i nomi dei suoi amici. Si crano così network plurimi di persone legate da affinità e gusti comuni. In MySpace ci sono anche profili di persone famose e il sito offre la possibilità di entrare in contatto con loro. Meno impegnativo del blog, MySpace consente di restare a metà strada tra la vita che si ha e quella che si vorrebbe avere. E di esprimere una personalità virtuale. E’ stato acquistato nel 2006 dalla News Corporation di Murdoch e successivamente ha stipulato un accordo con Google. 12.8 Telefonare su Internet Il primo software per telefonare via Internet ( Voip, Voice Over Internet Protocol) fu elaborato da un’azienda israeliana, Vocal Tec, nel 1995. Essa è legata soprattutto al software Skyoe, diffuso gratuitamente nel 2002. La chiamata è gratuita se si telefona da un computer dotato di microfono e cuffia a un altro utente davanti al suo computer; a pagamento (SkypeOut) se avviene tra apparecchi telefonici. Le telefonate sono criptate all’origine per proteggere la riservatezza delle conversazioni e sono possibili anche videochiamate con una webcam collegata al computer, purchè si dispoe di una connessione a banda larga. Gli effetti di Skype sono dirompenti per le compagnie telefoniche. E’ stata comprata da eBay a fine 2005. 12.9 You Tube “Broadcast yourself” è il motto di You Tube, un sito nato nel 2005 che raccoglie video amatoriali originali e frammenti di televisioni di tutto ilo mondo, suddivisi in categorie e canali e distribuiti 52 Riassunti del testo: “I MEDIA DIGITALI” - Enrico Menduni – Autore : CLAUDIA SCIARRA / Impaginazione e distribuzione: SHAKIRA agli utenti registrati secondo il loro profilo. Un grande filesharing video, in cui ciascuno può inserire il proprio video stabilendo se renderlo pubblico o condividerlo con i propri amici. I video pubblici possono essere visti anche da chi non è registrato. Il materiale coperto da copyright viene rintracciato attraverso un softyware antipirateria e rimosso. Il sito offre materiale originale di bassa qualità, ma i frequentatori cercano proprio l’immagine “sporca”, intesa come testimonianza personale, talvolta “rubata”, secondo un estetica che rimanda alla webcam. Situazioni familiari, scenette, vacanze, spettacoli che ricordano la fotografia amatoriale di anni fa. Spesso vengono inderiti in blog e siti. Sono presenti inoltre i commenti dei visitatori e le classifiche dei più visti. Alla fine del 2006 You Tube è stato comprato da Google, e ciò ha aumentato la visibilità del sito, che è anche diventato una forma di pubblicazione di video influenti sulla sfera pubblica come l’eecuzione di Saddam Hussein nel 30 dicembre 2006. Attraverso la pubblicazione dei propri video si manifesta talvolta un desiderio esibizionistico di mostrare le proprie gesta, ad esempio nei tristi episodi di bullismo. 53