Mondovisione – il villaggio globale

Transcript

Mondovisione – il villaggio globale
ANDREA MACCARINI
V c LST
TESINA DI MATURITA’
Mondovisione – il villaggio globale
INDICE:
Introduzione: il villaggio globale e la globalizzazione
Storia: la nascita del villaggio globale
(Pagine 2-3)
Italiano: Pasolini e Sartori
(Pagine: 4-7)
Informatica: l’avvento di internet
(Pagine: 8-12)
Biologia: il protocollo di Kyoto
(Pagine: 13-16)
Chimica: il metano
(Pagine: 17-18)
Fisica: la fibra ottica
(Pagine:19-22)
Il concetto di villaggio globale è un termine contraddittorio. Se con villaggio si intende un luogo in cui le
persone vivono circoscritte in un area piccola, il termine globale conferisce al concetto uno spazio
incredibilmente più vasto, venutosi a formare in seguito alla globalizzazione. Il villaggio globale è un
termine che viene utilizzato a partire dagli anni ’70 del ‘900 quando la globalizzazione entra a far parte
della vita di tutti gli esseri umani. Nel villaggio globale infatti, mercati, produzioni, consumi e anche modi di
vivere e di pensare divengono connessi su scala mondiale, grazie ad un continuo flusso multidirezionale di
scambi che li rende interdipendenti e tende a unificarli secondo modelli comuni.
Il villaggio globale ha portato dunque, una crescente omologazione nella vita sul pianeta. Questo concerne
una lampante eliminazione dei piccoli particolari che differenziano varie culture. Al giorno d’oggi è
normalissimo che un modo di vestito possa essere diffuso in Italia come in un qualsiasi altro paese del
mondo. Un discorso analogo può essere fatto per il cibo. Le diete locali e regionali hanno subito
un'involuzione, schiacciate dal peso delle proposte dell'industria alimentare e dei supermercati.
Questa omologazione ha alle spalle l’omologazione imposta dai mezzi di comunicazione. La televisione
impone a tutti gli abitanti di uno stesso Paese lo stesso flusso di informazioni appiattendo le differenze
tra le idee di più persone. Queste informazioni viaggiano sempre a velocità più alte e con maggiore
sicurezza grazie al miglioramento delle tecnologie. La rete di internet permette a tutto il mondo di
connettere le proprie idee. Ognuno può esprimere su internet una propria idea su qualsiasi argomento.
Chiunque altro, in qualsiasi altra posizione del globo, può informarsi grazie al file del primo soggetto.
Questo scambio continuo di idee non porta direttamente ad appiattire l’opinione pubblica. Ha come
conseguenza principale una confusione che spesso ci spinge, in un secondo momento, ad accontentarci
delle idee seguite dai più, generalmente le idee propinate dalla televisione stessa.
Queste sono le conseguenze negative del fenomeno ma è anche grazie a un continuo fluire di informazioni
e al progresso tecnologico se al giorno d’oggi sono di estrema attualità le tematiche della salvaguardia
ambientale. È grazie alla globalizzazione se siamo consapevoli di fenomeni come: la desertificazione, lo
scioglimento delle calotte polari e più in generale del concetto di inquinamento e di ciò che ognuno di noi
può fare per limitarne gli effetti.
È difficile esprimere un giudizio di valore riguardo la globalizzazione: come ogni cosa ha i suoi vantaggi e i
suoi svantaggi. Sicuramente la globalizzazione responsabilizza ogni soggetto e in quest’ottica diventa
fondamentale principalmente scegliere autonomamente come informarsi e come agire nel contesto
internazionale.
1
Dall’ Europa al mondo: le cause storiche della globalizzazione
La globalizzazione insedia le sue radici storiche nella crisi petrolifera del 1973.
1970: il prezzo del petrolio è fermo da dieci anni a 1,80 dollari al barile. I Paesi industrializzati ne sfruttano
la convenienza come se il petrolio fosse una risorsa illimitata. Iniziano le trattative per aumentare il prezzo
del petrolio e, contemporaneamente, i Paesi produttori dell’OEPEC( prevalentemente arabi ) avanzano le
richieste di acquisire quote delle compagnie straniere che estraevano il petrolio dai loro territori.
1973/Ottobre: guerra del Kippur( gli israeliani respingono l’invasione egiziana e mantengono le aree
occupate nel precedente conflitto del 1967).
In seguito alla guerra del Kippur i prezzi del petrolio vengono elevati bruscamente fino ad arrivare a 11,51
dollari al barile( 1975).Questi aumenti hanno un fortissimo impatto sui rapporti politici ed economici
internazionali, incrinando per la prima volta il potere illimitato delle multinazionali in campo petrolifero.
Inoltre, i conti dei paesi industrializzati andarono tutti in passivo.
1974: nasce il concetto di “petrodollari”( redditi petroliferi ) e anche il problema dell’inedito decollo
economico per i Paesi OEPEC che investono nei mercati monetari internazionali e nei Paesi del capitalismo
maturo. Vengono acquistati pacchetti azionari di grandi gruppi industriali ( 10% Fiat al Libano) .
In seguito a questo scenario, cambiano i rapporti di forza tra gli Stati produttori di materie prime e quelli
acquirenti con un notevole vantaggio per i primi. Nell’Occidente industrializzato si presenta la recessione
economica. Per i Paesi in via di sviluppo aumentano i ricavi delle esportazioni. Si stima che in pochi mesi 50
miliardi di dollari passano dai Paesi ricchi a quelli poveri. La fiammata è effimera e in breve tempo il prezzo
del petrolio scende vertiginosamente. Nonostante ciò, i Paesi dell’ OEPEC si sono resi conto dell’importanza
del petrolio.
La seconda e più importante conseguenza della crisi del ’73 è l’impennata improvvisa dei prezzi che porto i
livelli di inflazione al 13 %-14% l’anno. L’inflazione rende allora vantaggioso indebitarsi perché con
l’aumento dei tassi di interesse che regolarmente vengono superati dall’aumento del costo della vita, alla
fine il denaro restituito vale molto meno di quello preso a prestito inizialmente. Inoltre, il denaro
proveniente dalle banche aumenta di prezzo. Questa scelta di diminuire quindi la circolazione del denaro è
interpretata come una politica deflattiva. Più che la produzione, si genera una speculazione borsistica con
conseguenti stagnazione e stagflazione per cui le ricchezze create non coincidono con un aumento
dell’occupazione. Il denaro che le banche prestano alle aziende o alle famiglie resta in azioni in attesa di
aumenti di valore e questo genera la caduta in termini di occupazione.
l circolo incontrollabile di moneta in tutto il mondo generatosi in seguito alle rivoluzioni scientifiche, ha
indotto gli Stati Uniti a stampare carta moneta (dollaro) senza che ci sia più una corrispondenza in oro.
2
Saltano così gli accordi di Bretton Woods. L’economia occidentale non è più un grado di crescere secondo le
modalità dello Stato assistenziale. Si assiste al crollo del Welfare State con un conseguente scollamento tra
il territorio di produzione e quello della proprietà. Allo stato viene chiesto inoltre di avviare una
liberalizzazione economica che comporti la riduzione delle imposte, la vendita ai privati dei settori bancari e
industriali di proprietà statale e più in generale lo smantellamento dello stato assistenziale. Si entra nella
fase neoliberista della politica economica mondiale che viene sanzionata dalle scelte operate dal Fondo
monetario internazionale che inizia a concedere prestiti ai Paesi in via di sviluppo, a patto che questi
riducano la presenza dello Stato nelle attività economiche.
La rivoluzione telematica permette l’esperienza della simultaneità della comunicazione in tempo reale
garantita dal telefono, dal fax e da internet. La ricerca e lo sviluppo di nuove tecnologie diventano il fulcro
della crescita economica, un indicatore importante per stabilire le gerarchie tra Paesi. Proprio grazie alle
nuove tecnologie dell’informatica e della telematica causano il declino delle lavorazioni basate su grandi
concentrazioni di manodopera. La presenza umana diviene meno importante sia nel produrre che
nell’erogare servizi. Dagli inizi degli anni Settanta, partendo dagli Stati Uniti d’America, prende piede il
nuovo sistema di fabbrica del toyotismo, caratterizzato da una miriade di nuove aziende di dimensioni
ridotte. Si forma una rete di punti produttivi diffusi su territori molto vasti. Cambiano anche i grandi
stabilimenti industriali grazie all’AUTOMATIZZAZIONE che porta la modifica delle lavorazioni a catena. La
nuova fabbrica si sviluppa secondo le regole del downsizing(riduzione di stabilimenti e di forza lavoro) e
dell’outsourcing(spostamento all’esterno di intere fasi produttive) con conseguente diminuzione del
numero degli operai. Ad esempio, la FIAT portò numerosi stabilimenti in Paesi come Brasile, Argentina e
Polonia in cui la manodopera è un costo inferiore.
Lo sviluppo tecnologico ha portato anche un circolo di persone da una parte all’altra del globo. I fenomeni
migratori sono dovuti principalmente al fatto che i Paesi ricchi non azzerano il credito che possiedono nei
confronti dei Paesi in via di Sviluppo. I Paesi in via di sviluppo producono una ricchezza sufficiente per
coprire soltanto gli interessi del debito e ciò non permette loro uno sviluppo effettivo. L’azzeramento del
debito dei Paesi del Sud del mondo, o comunque dei Paesi poveri, è una delle richieste che nasce dai gruppi
No Global.
3
Omologazione culturale
Pier Paolo Pasolini: il teorico dell’ omologazione
Pier Paolo Pasolini è stato per il nostro Paese il teorico dell’omologazione. L’omologazione è un processo
che prende piede di pari passo con la globalizzazione. Pasolini riesce, con grande spirito critico, ad
anticipare e ad analizzare i caratteri dell’omologazione all’interno della società italiana e non solo. Si
scontra così con quel mondo di perbenismo e conformismo che è responsabile del degrado culturale della
società.
Scritti corsari è una raccolta di articoli che Pier Paolo Pasolini pubblicò sulle colonne del quotidiano Corriere
della Sera, Tempo illustrato, Il Mondo, Nuova generazione e Paese Sera, tra il 1973 ed il 1975.
Il “discorso” dei capelli
Pubblicato il 7 gennaio del 1973.
Pasolini prende in considerazione il linguaggio dei capelli lunghi. Non è il linguaggio logico delle parole e per
questo motivo Pasolini, sostenitore di un mondo organizzato su basi razionali, nutre antipatia nei
confronti dei giovani capelloni.
I capelli lunghi simboleggiano una protesta radicale nei confronti della società borghese e consumistica. La
critica che i giovani muovono verso la società è una critica nettamente di sinistra e dichiaratamente
intransigente. Per il primo motivo in particolare, i capelloni vengono spesso attaccati dalla polizia e dai
provocatori fascisti. Pasolini per via del suo spirito democratico non può far altro che difendere i capelloni
che si contraddistinguevano per la non violenza.
Negli anni tra il ’68 e il ’70 i capelli lunghi vengono declassati a una funzione distintiva. I capelloni tornano
ad esprimersi tramite l’ars retorica della comunicazione verbale che diventa fuorviante il messaggio di
sinistra. Vi sono due conseguenze che inevitabilmente allontanano Pasolini dai capelloni.
1) I capelloni attribuiscono all’azione una superiorità di carattere sottoculturale. Elemento tipico
della destra.
2) I capelli lunghi vengono adottati anche dai fascisti e dai provocatori mescolati ai rivoluzionari
proprio per il linguaggio che porta a un’ azione mitizzata proprio dal linguaggio stesso. Si crea così
una maschera che omologa tutte le facce mischiando la destra e la sinistra.
Poco tempo dopo Pasolini si reca in viaggio ad Isfahan, una città della Persia. Il paese è sottosviluppato ma
il progresso sta per arrivare anche li. Pasolini incontra due giovani con i capelli tagliati all’europea, lunghi
dietro e corti sulla fronte e appiccicati di lato. I due ragazzi affermano che loro non sono rimasti all’età delle
barbarie ma, essendo dei borghesi si sono sviluppati, hanno letto e dunque conoscono l’Europa. Affermano
di essere dei privilegiati che a differenza degli altri persiani vivono in una condizione di internazionalità.
Si tratta di affermazioni di destra e così il ciclo si è chiuso. La sottocultura al potere è riuscita ad assorbire
la sottocultura all’opposizione facendone una moda, un fascismo.
Le conclusioni di Pasolini sono amare. I giovani hanno bloccato il rapporto dialettico con i loro padri e si
sono chiusi in un ghetto riservato alla gioventù. Questo ha portato un enorme regresso nella loro
condizione sociale. La loro condizione è caratterizzata da terrore e conformismo, da convenzioni che
parevano essere state superate per sempre. Si sono adattati alle acconciature che la televisione ha previsto
4
per loro privandosi di una libertà. Pasolini associa dunque il linguaggio dei capelli lunghi a una dialettica
volgare e servile, un male che gli stessi giovani devono estirpare dalla società.
Acculturazione e acculturazione
Pubblicato il 9 dicembre 1973.
In questo testo Pasolini analizza l’acculturazione imposta dal centralismo della civiltà dei consumi ai modelli
culturali pre-esistenti delle periferie. Gli agenti che hanno reso possibile in cambiamento culturale preso in
considerazione da Pasolini sono: la televisione, il potere politico e la costruzione di infrastrutture che
collegano il centro alle periferie. E’ un fenomeno che ha riguardato tutto l’occidente.
La prima cosa che salta all’occhio di Pasolini è il fatto che nemmeno il fascismo era riuscito ad omologare
la popolazione italiana come è successo nel dopo guerra. Le strade e la motorizzazione hanno annullato le
distanze tra le periferie ed il centro ma il fattore determinante la nuova acculturazione è stata la rivoluzione
delle informazioni dettata dalla televisione. Con l’avvento della programmazione televisiva non c’è più , da
parte dei singoli individui, la rivendicazione di uno spazio tutto proprio. La programmazione televisiva
scandisce i tempi della vita di casa. L’uomo acculturato dalla televisione ha come unico scopo il
consumismo e questo edonismo neo-laico senza alcun valore umanistico diventa l’unica fede della società.
Gli italiani hanno accettato i modelli imposti dalla televisione perché quest’ultima propina un messaggio di
salvezza dalla miseria. Ma gli italiani non sono in grado di realizzare questo modello di benessere:
frustrazione e ansia nevrotica diventano così dei comportamenti collettivi.
Pasolini prende come esempio i figli della classe proletaria che è passata dalla fierezza delle proprie
origini alla abiura di queste stesse. Sono passati dall’esaltare il proprio modello culturale a cercare di
imitare il modello borghese fino ad arrivare a sostituire il proprio mestiere con quello dello studente.
Contemporaneamente hanno cominciato a disprezzare la cultura, come hanno fatto i ragazzi borghesi che
sono diventati individui rozzi e infelici.
“Se i sottoproletari si sono imborghesiti, i borghesi si sono sottoproletarizzati. La cultura che essi producono,
essendo di carattere tecnologico e strettamente pragmatico, impedisce al vecchio "uomo" che è ancora in
loro di svilupparsi. Da ciò deriva in essi una specie di rattrappimento delle facoltà intellettuali e morali.”
[cit.]
La responsabilità va attribuita alla televisione ma, soprattutto al potere che se ne serve per contestualizzare
un modello di vita che altrimenti non troverebbe un’altra collocazione. La televisione è riuscita a
omologare alla cultura precedente buttando via per sempre l’animo del popolo italiano, come neanche il
fascismo era riuscito a fare.
5
Giovanni Sartori: videocrazia, la televisione come strumento “antropogenico”
“Non pretendo di fermare la tecnologia ma non credo nemmeno che debba essere mitizzata in modo
acritico" "In Francia e Inghilterra ci sono ancora notiziari seri. Noi abbiamo un personale più scadente" "Ora
spero in una scuola capace di salvare la lettura e in giornali migliori”. *cit.+
Sartori analizza con una critica feroce il mondo dominato dalla Tv. L’analisi è basata sulla politica ridotta a
puro spettacolo. La causa di questo fenomeno culturale è da ricercarsi in chi gestisce e manipola i media.
Sartori parla di una generazione priva di cultura, molto deviata rispetto agli ideali del ’68. Il risultato di ciò
sono un opinione pubblica standardizzata, appiattita, facilmente impressionabile dalle stesse notizie che
poi vengono troppo facilmente dimenticate.
Di quest’ultimo dato di fatto non si può però incolpare chi gestisce i media prima ancora di essersi resi
conto di quanto lo strumento televisione sia sfuggito di mano. L’homo videns è la generazione cresciuta
davanti al teleschermo, limitando le sue facoltà al vedere. Una generazione la cui capacità di pensiero
critico è stata annullata dall’immagine scelta con il telecomando. Per Sartori ormai la televisione è
diventata una divinità cattiva che plasma individui a propria immagine e somiglianza.
Non ci troviamo di fronte a uno strumento di comunicazione ma, a uno strumento antropogenico in grado
di cambiare la natura dell’uomo. Il bambino che riceve lo stampo formativo dalla televisione atrofizza la
capacità di capire e lo rammollisce in modo che il bambino si limiti a vedere. L’uomo perde così la sua
capacità di astrazione e dunque la capacità di plasmare un linguaggio che esprime concetti non tangibili (
nazione, stato, popolo, burocrazia).La televisione riporta tutto al puro e semplice vedere.
"La Tv può mentire come qualsiasi altro strumento di comunicazione. Ma la forza dell'immagine rende la
menzogna più efficace e quindi più pericolosa". Ciò non giova alla democrazia. Le opinioni vengono
omologate dalla televisione. La televisioni rende più importante il volto di un politico che il suo
programma, attribuisce un peso esagerato alle testimonianze di attori e soubrette, privilegia le emozioni
rispetto ai ragionamenti e utilizza i sondaggi per influenzare l’opinione.
Lo ammette lo stesso Sartori: "In Francia, in Inghilterra e altrove continuano a esistere notiziari seri che
scelgono le notizie serie... Il livello al quale è scaduta la nostra televisione è soprattutto dovuto a un
personale scadente, di bassissimo livello".
Il dramma dell'Italia, secondo il politologo, è stata l'ascesa al potere della generazione del Sessantotto.
"Prima abbiamo fabbricato, con il diplomificio educativo un proletariato intellettuale di nessuna consistenza
intellettuale. Questo proletariato... ha penetrato a mano a mano la scuola, ha rotto tutti gli argini con la
"rivoluzione culturale" del 1968 (la nostra, non quella di Mao) e ha trovato il suo terreno di cultura ideale
nella rivoluzione mass - mediale... I media, e soprattutto la televisione, sono oramai gestiti dalla
sottocultura, da persone senza cultura". Discorso simile per internet: "Ingorga, ci ammazza di messaggi.
Insomma, una gran perdita di tempo".
6
Sartori si augura però un cambiamento a partire dai genitori delle nuove generazioni. Questi dovranno
essere in grado di non sostituire la balia col televisore. Non per questo Sartori pretende di fermare la
tecnologia, esprime il suo dissenso verso la mitizzazione acritica che ne è stata fatta. Anche la scuola ha il
compito di salvare la lettura, evitando l’uso sfrenato dei filmati nell’insegnamento.
Per proseguire la sua critica verso uno strumento in grado di plasmare un nuovo tipo di essere umano
Sartori non si limita a mettere in violenza la brutalità e la violenza che la tv mostra abitualmente come uno
spettacolo. La tv è in grado di portare in casa il mondo, di divertire, di informare ma il sapere che ci giunge
a domicilio è il frutto della cultura televisiva destinata ai più. La cultura televisiva è regolata proprio dalla
legge dello spettacolo. Dunque, i fatti su cui è chiamata a esprimersi l’opinione pubblica devono basarsi sul
principio dell’anormalità: in video finiscono persone che danno spettacolo. Niente di grave, se non fosse
che ormai questo principio regolatore ha finito per contaminare anche la politica. In quest’ottica ci si
rende conto di come i media non siano più i semplici canali di veicolo per le notizie ma sono diventati essi
stessi i produttori di notizie sempre meno razionali e sempre più legate alla sfera emotiva.
Sartori evidenzia che questo fenomeno di trasformazione delle ideologie è in atto ormai su scala planetaria.
La trasformazione sta portando al tramonto delle ideologie e secondo qualcuno al tramonto della storia.
L’amara conclusione di Sartori è la seguente: “Mentre la realtà si complica e le complessità aumentano
vertiginosamente, le menti si semplicizzano e noi stiamo allevando un video - bambino che non cresce, un
adulto che si configura per tutta la vita come un ritornante bambino. E questo è il malpasso,il malissimo
passo, nel quale ci stiamo attorcigliando”.
7
L’avvento di Internet : l’esperienza della simultaneità
Date principali della storia di Internet
1960: Avvio delle ricerche di ARPA, progetto del Ministero della Difesa degli Stati Uniti
1971: La rete ARPANET connette tra loro 23 computer
1972: Nascita dell'InterNetworking Working Group, organismo incaricato della gestione di Internet. Ray
Tomlinson propone l'utilizzo del segno @ per separare il nome utente da quello della macchina.
1982: Definizione del protocollo TCP/IP e della parola "Internet"
1983: Appaiono i primi server con i nomi per indirizzarsi ai siti
1984: La rete conta ormai mille computer collegati
1985: Sono assegnati i domini nazionali: .it per l'Italia, .de per la Germania, .fr per la Francia, ecc.
1987: Sono connessi 10 000 computer. Il 23 dicembre viene registrato “cnr.it”, il primo dominio con la
denominazione geografica dell'Italia; è il sito del Consiglio Nazionale delle Ricerche.
1989: Sono connessi centomila computer
1990: Scomparsa di ARPANET; apparizione del linguaggio HTML
1991: Il CERN (Centro Europeo di Ricerca Nucleare) annuncia la nascita del World Wide Web; il Crs4 (Centro
di ricerca, sviluppo e studi superiori in Sardegna) crea il primo sito web italiano, secondo in Europa.[2] [3]
1993: Apparizione del primo browser pensato per il web, Mosaic
1995: al CRS4 (Centro di ricerca, sviluppo e studi superiori in Sardegna) viene sviluppato il primo servizio di
webmail
1996: Sono connessi 10 milioni di computer
1999: Viene pubblicato Napster, il primo sistema di file sharing di massa. Gli utenti di Internet sono 200
milioni in tutto il mondo.
2008: Gli utenti di Internet sono circa 600 milioni in tutto il mondo.
2009: Gli utenti di Internet sono circa 1 miliardo in tutto il mondo.
2011: Gli utenti di Internet sono circa 2 miliardi in tutto il mondo
8
La rete di internet è un insieme di risorse che risiedono su computer chiamati server, i quali forniscono
queste stesse risorse ad altri computer che vengono utilizzati per navigare in internet e prendono il nome di
client. Possiamo immaginarci Internet come una ragnatela grazie alla quale viaggiano le risorse che molto
spesso sono di tipo software ed in particolare sono siti web.
MOTORI DI RICERCA: Un motore di ricerca è un programma (un software) che è in continuo contatto con i
server di tutta la rete e aggiorna continuamente gli indirizzi e i contenuti e contemporaneamente, ha
un'interfaccia con la quale interagisce con l'utente, chiedendo le chiavi della ricerca, effettuando la ricerca
nel database e presentando i risultati in una lista di link.
WWW( World Wide Web) è l’insieme di pagine ipermediali di internet. In queste pagine esistono risorse
come pagine multimediali, documenti testuali, audio e video, collegati tra di loro. Le pagine Web sono
scritte con un linguaggio convenzionale di contrassegni chiamato HTML. I documenti html contengono le
informazioni e collegandosi a loro volta ad altre risorse costituiscono l’ossatura degli ipertesti.
La comunicazione del WWW è dettata da un client che fornisce a un server le richieste per un determinato
oggetto. Di conseguenza, il server risponde alla richiesta inviando i dati in formato html.
Per la comunicazione via internet è fondamentale il ruolo svolto dal browser: si tratta del programma usato
dal client per effettuare richieste, attraverso il protocollo http, ad un server web. Più precisamente il
browser è in grado di individuare la posizione di una pagina internet nella rete e di interpretarne le righe
di codice sorgente (scritte in html ). Le ultime versioni interpretano anche gli script di Visual basic e Java.
browser più conosciuti sono: Internet Explorer, Firefox, Chrome e Opera.
Il browser ha anche il compito di salvare le pagine visitate dal client in una memoria temporanea dell’ hard
disk detta CACHE. Questa memoria migliora le prestazioni del computer velocizzandone gli accessi ai siti
frequentati più spesso dal computer. I SEGNALIBRI o preferiti salvano invece gli url dei siti di interesse in
vista di future consultazioni.
I nodi della rete possono essere divisi in tre principali categorie : ROUTER, ISP, HOST.
1) ROUTER: sono gli instradatori della rete che permettono ai pacchetti di dati di essere rimbalzati da
una sottorete all’altra fino a raggiungere la destinazione mediante particolare algoritmi detti di
routing.
2) ISP: Internet Service Provider cioè un server in grado di distribuire connessione ai clienti che ne
fanno richiesta. Ciò è possibili grazie ai POP( Point Of Preference )
3) HOST: sono i computer che ospitano le risorse software della rete e che quindi contengono le
informazioni memorizzate su internet.
I dispositivi delle diverse reti per comunicare tra loro utilizzano regole comuni e convenzionali chiamate
STANDARD DI INTERNET:
1) Si tratta di documenti pubblici numerati e chiamati RFC( Request For Comments)
2) L’organismo che coordina la stesura degli RFC è IETF ( Internet Engineering Task Force)
HTTP (Hyper Text Transfer Protocol) definito negli RFC 1945 (versione 1.0) e RFC 2068 (versione 1.1).
9
Sviluppato a livello applicativo è un protocollo per definire la struttura e lo scambio all’interno di un
meccanismo richiesta-risposta tra client e server web. Il client richiede una pagina web attraverso l’URL (
Uniform Resource Locator definito da RFC 2396 per stabilire il formato utilizzato per identificare le risorse)
esempio di URL: (http://www.nomeserver.it/paginarichiesta.html).
Si è stabilito il contatto tra le due parti, http attiva una connessione col server di tipo TCP sulla porta 80( il
messaggio passa dal livello applicativo al livello di trasporto)
Il protocollo http garantisce l’assenza di errori in comunicazione. E’ un processo stateless per cui ad ogni
richiesta viene riattivato il processo di risposta. I messaggi http sono strutturati da un header( intestazione)
e da un body message( corpo del messaggio, opzionale), separati tra loro da una linea vuota.
Qualora si desiderasse che il server sia in grado di identificare gli utenti il protocollo http prevede l’utilizzo
dei COOKIE che permettono di mantenere la traccia del client. I cookie sono file di testo che il server
inserisce nella risposta in una posizione strategica predefinita e che il browser aggiunge come riga di codice
in un file. Nella riga troviamo:
-nome del cookie (obbligatorio),
- nome del dominio del server che ha inviato il cookie,
-percorso (non obbligatorio),
-scadenza cioè quando il cookie sarà cancellato, può anche essere mai,
-sicuro, indica se il cookie va criptato con http,
-modalità di accesso (non obbligatorio) e rende invisibile il cookie a linguaggi diversi da html, esempio
javascript,
-contenuto del cookie: è una stringa di testo di varia lunghezza, che raccoglie le informazioni generate dal
server a propria futura memoria.
I diversi utilizzi dei cookie sono, principalmente:
-permettere il login a un sito solo a specifici utenti,
-personalizzare una pagina web secondo i desideri dell'utente,
-riempire il carrello della spesa virtuale nei siti commerciali,
-tracciare i percorsi dell'utente durante la sua navigazione sul web
FTP( File Transfer Protocol, standard RFC 949) è un protocollo di comunicazione studiato per il
trasferimento di file binari o di testo tra due computer collegati in rete. Con ftp è possibile sia l’upload che
il download. Un client ftp è diverso e più limitato di un browser. Per attivare la connessione l’utente
inserisce l’indirizzo del server ftp nel client che provvede ad instaurare una connessione tcp col server in
ascolto sulla porta 21.
L’utente di identifica con nome e password che vengono inviati come parte dei comandi ftp. Con questi dati
il server può autorizzare l’utente che dunque, può navigare sulla parte di file system che gli viene resa
visibile. Nel momento in cui il server riceve comando di trasferimento di un file, inizia una connessione tcp
verso il client sulla porta 20: attraverso questa porta ftp trasferisce un solo file in una sola direzione.
Terminato il trasferimento viene chiusa la connessione.
Ftp utilizza dunque due connessioni tcp parallele: una invia informazioni di controllo e l’altra è per i dati.
Con ftp la connessione di controllo è aperta durante tutta la sessione mentre per ogni file da trasferire
bisogna aprire una nuova connessione. Ftp non è stateless perché mantiene traccia dell’utente nella
propria directory. Esempi di url per ftp:ftp://nomehost/cartellaprincipale.
10
Comunicazione trans nazionale: la posta elettronica e-mail
Caratteristica principale della posta elettronica è la comunicazione asincrona che la differenzia dalle chat. I
percorsi di invio e di ricezione sono indipendenti tra di loro e possono utilizzarsi server differenti.
Esempio di indirizzo : [email protected].
L’indirizzo può contenere qualsiasi carattere ad accezione di lettere accentate e simboli come underscore e
punto. Per la gestione della posta si utilizzano dei browser che devono essere allineati ai protocolli di invio (
SMTP) e di ricezione ( POP3 o IMPAP). L’alternativa è consultare la posta secondo il protocollo http.
SMTP: protocollo che gestisce l'invio della posta( messaggi in formato ASCII 7 bit ).
Tre sono le componenti principali:
1) agente utente: mail reader che permette la composizione, la lettura e l’editing di posta elettronica.
Esempi di agenteutente sono: Eudora, Outlook, Mozilla, Thunderbird.
2) server di posta: contiene la mail box( casella di posta) per i messaggi in arrivo per l’utente e la coda di
messaggi da trasmettere .
3) SMTP (Simple Mail Transfer Protocol descritto dallo standard RFC 5321).
Il protocollo SMTP non gestisce il recupero della posta. Quando si scrive un messaggio l’applicazione di
posta elettronica lo chiude in una sorta di busta contente l’indicazione di mittente, destinatario e oggetto
della comunicazione.
Il procollo SMTP si occupa dell’invio al server cui è abbinato l’account di posta attraverso la porta 25. Il
server SMTP che ha ricevuto il messaggio si comporta come un client e instaura una connessione tcp con il
server indicato nell’indirizzo del destinatario. Dopo la connessione avviene il trasferimento dal server
mittente a quello del destinatario. Il trasferimento avviene in tre fasi:1) handshaking, 2)trasferimento,
3)chiusura.
POP3permette una connessione tcp sulla porta 110 del server di posta da cui vengono recuperati i
messaggi. E’ costituito da 3 fasi successive alla connessione: 1) autorizzazione tramite nome utente e
password 2) transazione con cui l’utente recupera i messaggi ed eventualmente li marca per l’eliminazione
3) aggiornamento: in seguito alla chiusura della connessione avviene l’eliminazione dei messaggi marcati.
Si tratta di un protocollo che non mantiene traccia di informazioni di stato tra due differenti sessioni. La
gestione dei messaggi avviene nel client locale dell’utente, perciò cambiando client cambia la gestione dei
messaggi.
IMAP mantiene tutti i messaggi nel server. Imap utilizza la porta 143 e consente all’utente di organizzare i
messaggi in cartelle, di conservare lo stato dell’utente stesso tra le varie sessioni. Un server imap associa a
una cartella INBOX ogni messaggio in arrivo dal server. Il protocollo fornisce comandi agli utenti per creare
e spostare messaggi da una cartella all’altra e anche di effettuare ricerche nelle cartelle remote. Inoltre il
procollo imap permette al client di visualizzare anche solo la testata del messaggio.
11
Certificati digitali
Si tratta di file con validità temporanea che hanno la stessa funzione dei documenti di identità nella vita
reale. Servono a garantire l’identità di un soggetto che sia un server o una persona. I certificati vengono
rilasciati dalle autorità di certificazione( C.A.) che rilascia i certificati dopo aver attestato le identità in gioco.
La C.A. si fa garante delle identità di pubblica sicurezza (prefettura, comune,etc..) che emettono i veri e
propri documenti di identità. Le C.A. devono mantenere un registro pubblico dei certificati emessi e dei
certificati revocati.
Esistono due tipi di C.A. :
1) Pubbliche che sono enti riconosciuti su internet, abilitati all’emissione univoca dei certificati che a
loro volta sono pubblicamente riconosciuti per i vari servizi che svolgono (firmare posta, firmare
documenti e certificare dei siti).
2) Private che sono enti che emettono certificati per servizi circoscritti in un dominio specifico
(all’interno di una intranet )
CRITTOGRAFIA a chiave simmetrica ed asimmetrica
La crittografia a chiave simmetrica funziona grazie a un codice che cripta il messaggio e una chiave
condivisa dai possessori che decifra il messaggio. Il problema principale è nella distribuzione a più parti:
quando viene distribuita è necessario che non venga catturata da nessun utente indesiderato.
L’innovazione della crittografia asimmetrica consiste nell’utilizzo di due chiavi diverse, una pubblica e una
privata. Ogni chiave è in grado di decodificare quello che l’altra chiave ha codificato. La chiave privata resta
segreta l’altra è pubblica. Si elimina così il problema della distribuzione. Il messaggio viene cifrato con la
chiave pubblica del destinatario che può leggerlo soltanto tramite la sua chiave privata.
Un certificato emesso da una CA tipicamente contiene: la chiave pubblica del possessore; il nome del
possessore, se il possessore è una persona fisica si tratterà di nome e cognome, data di nascita ecc... se
invece è un server web sarà presente l'indirizzo web e il nome della compagnia titolare del dominio; la data
di scadenza della chiave pubblica; il nome della CA che ha emesso il certificato; la firma digitale della CA che
ha emesso il certificato.
Solitamente vengono emessi certificati per identificare:
- l'Autorità di Certificazione, questi dovrebbero essere precaricati nei browser, cosicché sia possibile
riconoscere, come validi, tutti i certificati emessi da quella CA;
-un sito, garantisce che il server che sta rispondendo corrisponde al dominio certificato (per
esempio:alloggiatiweb.poliziadistato.it);
-un soggetto, contengono informazioni quali nome, cognome, indirizzo, casella e-mail, ecc...; possono
essere utilizzati per garantire la provenienza di una email, per usufruire di servizi personali, ecc...
-un software, garantisce la provenienza del software, è importante specialmente se questo viene
distribuito in rete.
12
Sostenibilità ambientale: il protocollo di Kyoto
Il protocollo di Kyoto è un trattato internazionale in materia ambientale riguardante il riscaldamento
globale sottoscritto nella città giapponese di Kyoto l'11 dicembre 1997. Il trattato è entrato in vigore il 16
febbraio 2005, dopo la ratifica anche da parte della Russia.
Emissioni inquinanti
Il trattato prevede l'obbligo di operare una riduzione delle emissioni di elementi di inquinamento (biossido
di carbonio ed altri cinque gas serra, ovvero metano, ossido di azoto idrofluorocarburi, perfluorocarburi ed
esafluoruro di zolfo) in una quantità minima dell’8% rispetto alle emissioni registrate nel 1990 durante il
periodo 2008-2013.
I gas climalteranti (GHG – GreenHouse Gases) oggetto degli obiettivi di riduzione sono:
- la CO2 (anidride carbonica), prodotta dall’impiego dei combustibili fossili in tutte le attività energetiche e
industriali oltre che nei trasporti;La quantità di carbonio sulla terra non è illimitata e, come l’acqua, il
carbonio ha un suo ciclo. Si tratta di un sistema nel quale il carbonio passa attraverso l’atmosfera, la
biosfera terrestre e gli oceani. Le piante assorbonoCO2 dall’atmosfera durante la fotosintesi, utilizzano il
carbonio per sviluppare i loro tessuti, e lo restituiscono all’atmosfera quando muoiono e si decompongono.
Anche il corpo degli animali (e degli uomini) contiene carbonio proveniente dai vegetali e dagli animali di
cui si nutrono. Questo carbonio viene rilasciato sotto forma di CO2 durante la respirazione e, dopo la morte,
durante la decomposizione. I carburanti fossili si formano dai resti di piante e animali fossilizzati nel corso di
milioni di anni e appunto per questo sono così ricchi di carbonio. In generale, il carbone è quanto resta
delle foreste seppellite mentre il petrolio deriva dalla conversione della vita sottomarina. Gli oceani
assorbono CO2 che, in forma disciolta, è utilizzato nella fotosintesi delle forme di vita acquatiche.)
Quotidianamente vengono scambiati naturalmente molti miliardi di tonnellate di carbonio fra l’atmosfera,
gli oceani e la vegetazione terrestre. I livelli di anidride carbonica sembrano avere subito variazioni massime
del 10% durante i 10.000
Altri gas serra sono:
- il CH4 (metano), prodotto dalle discariche dei rifiuti, dagli allevamenti zootecnici e dalle coltivazioni di
riso;
- l’N2O (protossido di azoto), prodotto nel settore agricolo e nelle industrie chimiche;
- gli HFC (idrofluorocarburi), impiegati nelle industrie chimiche e manifatturiere;
- i PFC (perfluorocarburi), impiegati nelle industrie chimiche e manifatturiere;
13
- l’SF6 (esafluoruro di zolfo), impiegato nelle industrie chimiche e manifatturiere.
Condizioni per gli Stati aderenti
Affinché fosse possibile l’entrata in vigore del trattato, venne richiesto che fosse ratificato da non meno di
55 nazioni firmatarie e che le nazioni che lo avessero ratificato producessero almeno il 55% delle emissioni
inquinanti; quest'ultima condizione è stata raggiunta solo nel novembre del 2004, quando anche la Russia
ha perfezionato la sua adesione. L’ atmosfera terrestre contiene 3 milioni di megatonnellate (Mt) di CO2, il
protocollo prevede che i Paesi industrializzati riducano del 5% le proprie emissioni di questo gas. Le
attività umane immettono 6.000 Mt di CO2, di cui 3.000 dai Paesi industrializzati e 3.000 da quelli in via di
sviluppo; per cui, con il protocollo di Kyoto, se ne dovrebbero immettere 5.850 anziché 6.000, su un
totale di 3 milioni. Ad oggi, 174 Paesi e un'organizzazione di integrazione economica regionale (EEC) hanno
ratificato il protocollo o hanno avviato le procedure per la ratifica. Questi Paesi contribuiscono per il 61,6%
alle emissioni globali di gas serra.
Meccanismi flessibili di mercato per l’attuazione del protocollo
Il protocollo di Kyoto prevede inoltre, per i Paesi aderenti, la possibilità di servirsi di un sistema di
meccanismi flessibili per l'acquisizione di crediti di emissioni:
- Clean Development Mechanism (CDM): consente ai Paesi industrializzati e ad economia in transizione di
realizzare progetti nei Paesi in via di sviluppo, per produrre benefici ambientali in termini di riduzione
delle emissioni di gas-serra e di sviluppo economico e sociale dei Paesi ospiti. Nello stesso tempo devono
essere generati crediti di emissione (CER) per i Paesi che promuovono gli interventi.
- Joint Implementation (JI): consente ai Paesi industrializzati e ad economia in transizione di realizzare
progetti per la riduzione delle emissioni di gas-serra in un altro paese dello stesso gruppo e di utilizzare i
crediti derivanti, congiuntamente con il paese ospite.
- Emissions Trading (ET): consente lo scambio di crediti di emissione tra Paesi industrializzati e ad economia
in transizione; un paese che abbia conseguito una diminuzione delle proprie emissioni di gas serra
superiore al proprio obiettivo può così cedere (ricorrendo all’ET) tali "crediti" a un paese che, al contrario,
non sia stato in grado di rispettare i propri impegni di riduzione delle emissioni di gas-serra.
La situazione italiana
Il Protocollo di Kyoto prevede una riduzione emissiva per le Parti che mediamente vale il – 5% (rispetto alla
baseline emissiva del 1990), da conseguire entro il 2012. Alcuni stati Europei già nel 2009 hanno superato il
proprio target di riduzione emissiva: questo è segno che non si tratta di obiettivi impossibili, e che gli Stati
che hanno voluto investire nell’economiacosiddetta low carbon hanno agevolmente conseguito risultati di
alto livello (con positive ricadute sull’economia nazionale).
Nell’ambito del Protocollo di Kyoto, l’Italia ha sottoscritto un obiettivo di riduzione emissiva del -6,5%:
questo obiettivo di riduzione è stato scelto sulla base delle indicazioni di Enti di ricerca nazionali, che lo
avevano quantificato come risultato necessario per l’ammodernamento del Paese e per lo stimolo
dell’economia nazionale. Questo valore corrisponde ad una riduzione assoluta di 33,9 MtCO2eq, in
riferimento ad un livello emissivo (baseline) italiano di 521 MCO2teq al 1990 e ad un obiettivo di emissione
al 2012 pari a 487,1 MtCO2eq.
14
L’uscita degli U.S.A.
Pur essendoi responsabili del 36,2% del totale delle emissioni di biossido di carbonio (annuncio del marzo
2001), non figurano tra i Paesi aderenti al Protocollo. In principio, il presidente Bill Clinton, incoraggiato dal
vice Al Gore aveva firmato il protocollo durante gli ultimi mesi del suo mandato, ma George W. Bush, poco
tempo dopo il suo insediamento alla Casa Bianca portò gli U.S.A al di fuori del protocollo. Alcuni stati e
grandi municipalità americane, come Chicago e Los Angeles, stanno studiando la possibilità di emettere
provvedimenti che permettano a livello locale di applicare il trattato. Anche se il provvedimento
riguardasse solo una parte del paese, non sarebbe un evento insignificante: regioni come il New England,
da sole, producono tanto biossido di carbonio quanto un grande paese industrializzato europeo come la
Germania.
I casi di India e Cina
L'India e la Cina, che hanno ratificato il protocollo, non sono tenute a ridurre le emissioni di anidride
carbonica nel quadro del presente accordo, nonostante la loro popolazione relativamente grande. Cina,
India e altri Paesi in via di sviluppo sono stati esonerati dagli obblighi del protocollo di Kyoto perché essi
non sono stati tra i principali responsabili delle emissioni di gas serra durante il periodo di
industrializzazione che si crede stia provocando oggi il cambiamento climatico. I Paesi non aderenti sono
responsabili del 40% dell'emissione mondiale di gas serra.
Considerazioni postume
Il Protocollo di Kyoto è un trattato importante, anche se si tratta solo di un primo passo, insufficiente per
contenere i cambiamenti climatici in atto. Si tratta di un inizio importante, nella speranza che i futuri
obiettivi di riduzione identificati dagli scienziati si trasformino in accordi globali ed in politiche efficaci,
necessariamente molto più ambiziosi rispetto a quelli passati.
Kyoto 2: la conferenza di Doha e il limite di incremento fissato a +2°C
A dicembre 2012 si è conclusa la deludente Cop 18 di Doha (in Quatar), dove è stato approvato un
documento finale (“Doha climate gateway”) che si costituisce come una specie di “ponte” che dovrebbe far
passare al climate change basato sul Protocollo di Kyoto (e sui suoi impegni vincolanti), al nuovo sistema
“Kyoto 2″ basato in buona parte su obiettivi meno vincolanti (e comunque non ancora definito a livello di
contenuti).
Tutto ciò nonostante la scienza concordi nel dire che entro il 2015 le emissioni debbano necessariamente
calare per poter sperare di restare entro i + 2°C di riscaldamento del clima del pianeta (ed avere così
effetti climatici relativamente contenuti), dovendo quindi avviare da subito azioni importanti per la
salvaguardia del clima globale.
Gli impegni di riduzione emissiva definiti a Doha sono ampiamente inferiori a quelli che sarebbero
necessari per garantire una riduzione emissiva idonea a limitare l’aumento delle temperature medie
globali al di sotto dei + 2°C (rispetto ai livelli pre-industriali).Le preoccupazioni sono molte dal momento
che ad oggi, avviato il secondo periodo di impegno del Protocollo di Kyoto, sono usciti dal Protocollo anche
Giappone, Nuova Zelanda, Canada e Russia: ad oggi, quindi, il nuovo trattato “Kyoto 2″ copre solo il 15%
circa delle emissioni di gas serra globali, con Unione Europea, Australia, Norvegia e Svizzera al primo posto.
15
Il rimanente 85% delle emissioni (comprese quelle di USA e Cina), saranno gestite all’interno del percorso
negoziale definito alla Cop 17 di Durban nel dicembre 2011. A Durban è stato deciso di dare il via ai
negoziati per un nuovo trattato globale, per la prima volta. La forma giuridicamente vincolante sarà
decisa nel 2015 e entrerà in vigore a partire dal 2020. Il processo, chiamato Piattaforma d' azione di
Durban, porterebbe a un "nuovo protocollo, un altro strumento giuridico o concordato" (queste le tre
opzioni legali) applicabile a tutte le Parti della Convenzione sul clima dell'Onu. I lavori sono portati avanti da
un gruppo di lavoro che ha iniziato a operare nel 2012.
Al momento, entro il 2015 abbiamo però purtroppo solo il poco concreto impegno di Doha per poter
stabilire modalità e strumenti per colmare il gap tra emissioniattese (58 GtCO2eq), quelle raggiungibili con
gli attuali impegni (52-57 GtCO2eq) ed il limite di 44 GtCO2eq che gli scienziati considerano invalicabile
per sperare di limitare il riscaldamento climatico a + 2°C: si tratta di un gap enorme, che varia tra gli 8 e i
13 miliardi di tonnellate di CO2eq, un valore che ci porterebbe in maniera irreversibile verso un
riscaldamento stimato tra i 3.5°C e i 6°C, e che sostanzialmente renderebbe invivibile il nostro Pianeta.
Per questo motivo oltre ad aumentare l’ambizione riguardo la riduzione delle emissioni sono state prese in
considerazione due nuove misure da adottare:
TRASPARENZA: nuove disposizioni per rendere più trasparente le azioni intraprese dai paesi in via di
sviluppo;
FONDO VERDE: definizione del Fondo verde per il clima che prevede fino a 100 miliardi di dollari all'anno
entro il 2020 a favore delle nazioni più povere. Manca però la fonte di finanziamento.
Inoltre, via libera a meccanismi per la protezione delle foreste, il trasferimento di tecnologie, e le misure
sull'adattamento. Novità per la cattura e lo stoccaggio della Co2 i cui risparmi di emissione sono stati inclusi
nel conteggio dei credito nel mercato delle emissioni.
16
Gas serra: il metano
La molecola si presenta in forma tetraedrica perché l’atomo di carbonio è ibridizzato sp3. Gli angoli di
legame sono di 109,5°. L’ibridizzazione è una combinazione di un numero di orbitale con contenuto
energico simile tesa a ottenere nuovi orbitali ibridi isoenergetici i cui lobi saranno orientati lungo le
direzioni dei possibili legame che l’atomo centrale può formare con altri atomi. Il numero di orbitali ibridi,
infatti, sarà uguale al numero di quelli combinati in partenza cosicché non cambi la valenza dell’atomo.
L’ibridizzazione sp3 è accompagnata dalla promozione di un elettrone s in un livello orbitalico più alto(p).
L’energia spesa inizialmente verrà compensata da quella derivante dalla formazione dei legami. L’energia
totale del sistema risulterà inferiore e ciò conferirà stabilità alla nuova molecola.
Il metano è conosciuto anche come il gas della terra ed è il secondo tra i maggiori responsabili dell’effetto
serra. E’ considerato responsabile dell’incremento del 18% dell’effetto serra. Rispetto alla CO2 è presente in
concentrazioni molto inferiori, eppure ha un potenziale di riscaldamento addirittura 23 volte superiore . La
sua concentrazione in atmosfera è aumentata del 150% dal 1750 fino ad arrivare a 1750 ppb(parti per
miliardo ) nel 2000. Nei paesi industrializzati il metano è responsabile in media del 15% delle emissioni.
Caratteristiche fisiche importanti : è incolore e inodore e ha una densità molto minore rispetto al petrolio.
A temperatura ambiente inoltre è molto infiammabile. Il metano (CH4) è considerato responsabile per
circa 8% delle emissioni di gas serra. La sua capacità nel trattenere il calore è 30 volte maggiore a quella
dell’anidride carbonica. Inoltre, la sua concentrazione atmosferica sta aumentando con un tasso medio
annuo valutato tra l’1.1% e l’1.4%.
Per la verità il composto non è molto sfruttato ( due terzi del metano estratto non viene utilizzato per le
difficoltà di trasporto nei gas dotti dovuti alla scarsa densità del gas). Il metano è presente sia nei giacimenti
di petrolio che in giacimenti di metano(solitamente abbinato ad altri idrocarburi). Deriva dalle rocce madri
da cui derivano tutti gli idrocarburi. Viene generato in seguito al craking del kerogene.Le rocce madri sono
caratterizzate da abbondanza di materia organica, derivata dall'accumulo di resti di organismi viventi in
condizioni di scarsa ossigenazione. In queste condizioni, la materia organica non viene ossidata e può
essere seppellita con il graduale accumulo dei sedimenti, dando origine ad una massa amorfa definita
cherogene. Con l'aumentare della profondità di seppellimento, l'aumento della temperatura (oltre la soglia
dei 100 °C), provoca la progressiva "rottura" (cracking) dei legami molecolari del cherogene, che si
trasforma in composti più semplici: gli idrocarburi.Il legame covalente carbonio-idrogeno nel metano è uno
dei più forti tra tutti gli idrocarburi, per questo motivo il suo uso come materia prima in chimica è limitato.
17
Il metano è il risultato della decomposizione anaerobica di sostanze organiche e perciò è definito come un
biogas. La maggior parte dei giacimenti sono caratterizzati dalla decomposizione di sostanze organiche
sepolte in profondità in tempi preistorici.
Le principali fonti di emissione di metano in atmosfera sono:
1) Decomposizioni di rifiuti urbani in discarica
2) Fonti naturali(paludi, processo di digestione degli animali, batteri delle risaie, riscaldamento delle
biomasse
3) Estrazione di combustibili fossili
Si stima che le emissioni di origine umana del gas in atmosfera siano tra il 60% e l’80%. Le principali
attività sono : discariche, gasdotti, agricoltura, attività petrolifere ed estrazione del carbone. L’estrazione
del petrolio comporta la risalita in superficie di una medesima quantità di metano. Non potendo però
essere sfruttato lontano dai luoghi di estrazione ci sono due alternative di utilizzo del metano : o viene
bruciato all’uscita dai pozzi o viene pompato nuovamente nei giacimenti per favorire l’uscita del greggio
grazie all’aumento di pressione.
CH4 + 2O2 → CO2 + 2H2O
Il calore di combustione della reazione è negativo (essendo la reazione di combustione una reazione
esotermica); considerando come sistema chiuso la stessa reazione dicombustione del metano, il calore di
reazione è pari a -891 kJ/mol.
18
Fibre ottiche: comunicazioni ad alta velocità
Le fibre ottiche sono filamenti di materiali vetrosi o di polimeri, realizzati per essere dei conduttori della
luce a propagazione guidata e che trovano importanti applicazioni in telecomunicazioni e diagnosti
mediche. I cavi della fibra ottica sono flessibili, immuni ai disturbi elettrici, agli sbalzi di temperatura e più in
generale, alle condizioni atmosferiche avverse. Il loro diametro è di circa 125 micrometri(circa un capello) e
sono leggerissimi escludendo la guaina che le ricopre. Sono utilizzate per guidare un campo magnetico
solitamente di frequenza prossima all’infrarosso(lunghezza d'onda compresa tra 700 nm e 1 mm) per
distribuire una connessione a banda larga su una determinata rete di telecomunicazioni.
Costituzione
Una fibra ottica è così composta:
1)
2)
3)
4)
Core: nucleo cilindrico di diametro di circa 10 micrometri, realizzato in silice o in polimeri plastici
Cladding: mantello di diametro circa 125 micrometri, realizzato in silice o in polimeri plastici
Buffer: diametro di 250 micrometri.
Jacket: guaina protettiva realizzata con polimeri per dare resistenza alla corrosione ed evitare il
contatto con l’esterno. Diametro di 400 micrometri
Cladding e core vengono realizzati con un indice di rifrazione diverso: per il cladding è di 1,475 mentre per
il core è di 1,5. Inoltre, il cladding deve riuscire a catturare la luce che non viene riflessa nel core. La luce
che entra nel core ad un determinato angolo limite, si propaga mediante una serie di riflessioni alla
superficie di separazione fra il core e il cladding.
Le fibre vengono distinte per il diametro del core, per gli indici di rifrazione, per le caratteristiche del
materiale e per il drogaggio(atto a modificare le caratteristiche ottiche della fibra).
I materiali distinguono le fibre ottiche nelle seguenti condizioni:
1) Il silicio è più difficile da maneggiare e solitamente viene drogato con germano nel core per
aumentare l’indice di rifrazione. E’ più resistente al calore ma meno facile da raccordare su più
nodi.
2) Le fibre ottiche polimeriche sono più maneggevoli di quelle in vetro. Hanno un core che può
arrivare a 1 mm in più rispetto alla silice e dunque, si ha un’apertura numerica più
elevata(possibilità di raccordare più nodi). Inoltre, trasmettono dati con grandi capacità (la banda
permette fino 1 gigabyte al secondo). Ma, sono scarsamente resistenti alle variazioni di calore.
19
Nelle fibre ottiche, avviene una rifrazione totale interna, fino a quando della fibra è abbastanza radente.
All’interno della fibra il segnale può propagarsi in modo rettilineo(ordine zero) oppure un numero molto
elevato di volte. A seconda che le fibre permettano una o entrambi i tipi di propagazione vengono
rispettivamente definiti come: monomodali(diametro del core compreso tra 8 µm e 10 µm) o
multimodali(diametro del core di 50 µm o 62.5 µm, i più comuni delle fibre polimeriche).
È possibile conoscere a priori il numero possibile per una radiazione con lunghezza d’onda diametro e
apertura numera NA definita quando la radiazione attraversa una fibra step-index(multimodale).
M=
Le fibre multimodali sono più economiche ma subiscono dispersione intermodale per i diversi modi di
propagazione e ciò limita la distanza che il segnale può percorrere. Possono essere distinte in:
1) Step index: indice di rifrazione costante lungo tutta la sezione del core, cambia all’incontro col cladding in
modo improvviso
2) Graded index: l’indice di rifrazione cambia gradualmente dal core al cladding. Ciò permette l’uso di luce
multicromatica.
Le fibre monomodali sono più costose, anche vista la differenza di distanza che queste riescono a
percorrere.
Il fenomeno dell’attenuazione
Le fibre ottiche sono un mezzo di trasmissione perfetto solo in via ideale. Non risentono di disturbi
elettromagnetici. Se sono strutturate per garantire la riflessione totale del segnale d’ingresso, permettono
di trasferire la potenza in uscita, teoricamente.
In pratica esistono fenomeni fisici che portano a perdite di attenuazione lungo la fibra; queste perdite
dipendono da:
1) Proprietà fisiche del mezzo
20
2) Presenza di impurità nel materiale
3) Proprietà specifiche delle guide dielettriche aperte
Perdite per proprietà fisiche del mezzo
Il materiale è costituito da macromolecole che interagiscono tramite forza di van der Waals. Queste
molecole ruotano intorno a un asse oppure vibrano. La rotazione porta le molecole ad assorbire la
radiazione e la vibrazione porta ad emettere una seconda radiazione. Ciò è possibile solo per determinate
lunghezze d’onda.Il vetro è trasparente nel campo visibile mentre risulta opaco nell’infrarosso. Con le
fibre realizzate in vetro sono utilizzabili soltanto sorgenti di luce visibile e non sorgenti infrarosse.
Perdite per proprietà specifiche delle guide dielettriche
Dipendono dalle deformazioni e dalle discontinuità presenti nella guida. Per avere effetti rilevanti è
necessaria una grande variazione di periodicità della radiazione rispetto a quella prevista.
Curvatura della guida dielettrica
Una grande curvatura non ha grandi influenze sulla distribuzione del campo del modo guidato. La perdita è
legata all’angolo di curvatura della guida. Gli effetti sul segnale ottico sono :
1) Deformazione della distribuzione del campo magnetico del modo guidato
2) Eccitazione di componenti dello spettro non desiderati
Perdite per impurità
Queste vengono generate nel processo di fabbricazione in cui le particelle vengono inserite nella fibra. Se
queste particelle hanno lunghezza d’onda paragonabile a quelle del segnale si genera assorbimento o
diffrazione.
Nella lavorazione della guida si possono generare anche corrugazioni lungo le pareti esterne. Esse possono
generare una perdita di potenza che viene irradiata all’esterno.
Dispersione
A generare la dispersione del segnale sono fattori fisici che limitano la velocità di trasmissione in una fibra
ottica. La distanza determina in genere una minore qualità del segnale trasmesso.
Esistono tre dispersioni:
1) Dispersione modale: dovuta al fatto che il raggio luminoso viaggia in più modi nella fibra. Vi sono
quindi differenti velocità secondo cui viaggia il segnale. Il cammino rettilineo favorisce il modo
mentre l’entrata con angolo identico all’angolo di accettazione è il più lento. Se la frequenza del
segnale è troppo alta, il primo si confonde con l’impulso seguente(interferenza intersimbiotica). Si
utilizzano in questi casi fibre multi modali graded index oppure fibre monomodali.
2) Dispersione cromatica: dovuta al fatto che la luce trasmessa non è monocromatica e ciò genera
differenti lunghezze d’onda o frequenze e velocitò diverse. Si utilizzano led monocromatici per
risolvere l’interferenza intersimbiotica.
21
3) Dispersione di polarizzazione: dovuta alle asimmetrie del core generate da stress meccanici o
imperfezioni di produzione. Genera una bifrangenza dell’onda elettromagnetica guidata.
Utilizzo delle fibre ottiche nelle telecomunicazioni:
Negli anni ’70 erano utilizzate come oggetto decorativo per la produzione di lampade. Oggi sono utilizzate
nelle telecomunicazioni; le dorsali principali delle reti telefoniche e di internet, sono in fibra ottica,
compresi i collegamenti intercontinentali sottomarini. Hanno sostituito dunque il cavo coassiale.
I vantaggi sono:
1) Bassa attenuazione: rende possibile trasmissione a lunga distanza senza ripetitore
2) Grande capacità di trasporto e velocità di trasmissione grazie alla bassa attenuazione
3) Immunità da interferenze elettromagnetiche e conseguente assenza di diafonia
4) Alta resistenza elettrica
5) Peso e ingombro modesto
6) Buona flessibilità
7) Resistenza alle condizioni climatiche avverse
8) Maggiore possibilità di monitoraggio e minore possibilità di intercettazione
9) Possibilità di sostituirsi al satellitare in città “cablate”
Finestre di trasmissione
Esistono 3 finestre di trasmissione:
1) 850 nanometri: usata per i laser economici; permette collegamenti di 275 m su fibre 62.5/125 e di
550 su fibre 50/125.
2) 1310 nanometri: usata con laser monomodali o multimodali. Permette di realizzare le distanze
maggiori. Collegamenti di 5-10 km, relativamente economici.
3) 1550 nanometri: usata con laser monomodali. Permette collegamenti fino a 100 km
Due fibre ottiche dello stesso tipo possono formare un collegamento bidirezionale detto full duplex. Viene
realizzato utilizzando una coppia di fibre per ognuna delle due direzioni. Le fibre sono collegate agli
apparati di telecomunicazione mediante connettori che allineano il core della fibra col laser e col ricevitore.
Il connettore comporta una attenuazione ed è molto sensibile alla polvere per cui i cavi vengono coperti per
evitare infiltrazioni. Esistono più tipi di connettori:
1) SC,LC in plastica e quadrati
2) ST in metallo, tondi, con innesto a baionetta
3) FC in metallo, tondi, con innesto a vite
22