Fantascienza, ovvero l`altra letteratura - Home page

Transcript

Fantascienza, ovvero l`altra letteratura - Home page
Fantascienza,
ovvero l'altra
letteratura
di Andrea Greco
La fantascienza, abbreviata con la sigla FS (il termine inglese è science fiction, coniato da Hugo
Gernsback), è un genere letterario che ha antenati illustri rintracciabili in molti miti senza tempo. I
suoi temi ed approcci sono talmente vari ed uniformi da rendere difficile una definizione univoca:
è un ramo della fantasia identificabile dal fatto che allevia la voluta interruzione dell’incredulità da
parte dei lettori utilizzando un’atmosfera di credulità scientifica per le sue speculazioni
immaginifiche nelle scienze fisiche, nello spazio, nel tempo, nelle scienze sociali e nella filosofia.
La fantascienza è un "genere" letterario che ha antenati illustri, che si intreccia a molti miti senza
tempo del nostro immaginario, e che tende sempre di più a sfuggire al confinamento in strettoie
predefinite e rigide. I temi e gli approcci che confluiscono sotto la dicitura "science fiction" (o
"fantascienza" per il pubblico italiano) sono talmente vari e multiformi da rendere difficile una
definizione unilaterale. Ciò nonostante "fantascienza" è la parola che richiama l'attenzione e
l'interesse di un vastissimo pubblico, sia in ambito letterario che cinematografico (ma oggi
dovremmo sempre di più agire in un contesto multimediale, considerando anche il fumetto, i
giochi per computer, gli ipertesti e così via). Questa vitalità è dovuta al nodo centrale della
fantascienza, cioè la scienza stessa, le sue innovazioni, i rischi e le incognite accanto al fascino per
le scoperte meravigliose. Al tema della scienza si è sempre accompagnato quello del futuro, della
immaginazione degli sviluppi possibili o probabili. E dell'ignoto in generale, soprattutto quando
1
questo ignoto proviene o è localizzato in altri pianeti. I due lati indivisibili del successo di ogni
fantascienza stanno quindi nell'inquietudine per lo sconosciuto e nella speranza per le capacità
scientifiche dell'ingegno umano. Questi due lati accompagnano la fantascienza dai primi passi fino
al cyberpunk attuale. Ormai, il realismo (o una riproposta di neo-realismo) non è più in grado né di
descrivere efficacemente né di aiutare a capire la realtà di oggi. Anzi, solo una narrativa estrema,
che dilata ed esaspera le contraddizioni e le tensioni reali, può far emergere meglio i contorni del
mondo in cui viviamo. Tra l'altro, nell'epoca della simulazione informatica e della realtà virtuale,
la realtà "normale" è solo uno dei livelli della realtà, a volte riduttivo se non fuorviante. E la stessa
realtà quotidiana, oggi, ha raggiunto una complessità tale da rendere inadeguata la chiave di lettura
del vecchio realismo. Questo nuovo approccio alla realtà viene ottenuto attraverso la
contaminazione tra le diverse letterature di genere. Giallo, thriller e neo-noir, come sguardo alla
violenza nei rapporti umani, come volontà di non chiudere gli occhi di fronte al "lato oscuro" della
realtà, si coniugano con il cyber come aggiornamento e sviluppo della fantascienza, alla ricerca di
un immaginario tecnologico che affronti il mutamento della realtà di fronte all'irruzione delle alte
tecnologie.
“La fantascienza propone un superamento in chiave non conflittuale della dicotomia tra civiltà
umanistica classica e civiltà scientifica moderna”.
Ugo Malaguti
“La fantascienza consiste delle speranze, dei sogni e dei timori (perché alcuni sono incubi) di una
società fondata sulla tecnica”.
John W. Campbell
“Si potrebbe dire che la fantascienza è composta di scritti soprannaturali per materialisti”.
Groff Conklin
“La fantascienza gioca direttamente con l'immaginario, esplora i campi del possibile”.
Antonio Caronia
"La fantascienza è un'archeologia del futuro”.
Sergio Solmi
2
Letteratura Latina
La Prosa scientifica
Durante la prima età imperiale, dissoltasi l’eredità politica di Augusto, si registra una progressiva
involuzione del principatus in dominatus, con il risultato di veder svanire la possibilità delle classi
dirigenti (nobiltà e cavalieri) di godere delle prerogative formalmente consentite, del governo della
res publica per il Senato e del
controllo della burocrazia per gli
equites, di fronte a un princeps
che si arroga ben più del solo
potere decisionale riservatogli
dalle leggi. Principato e libertà
appaiono
inconciliabili,
all’età
così
sempre
più
di Nerva e Traiano,
l’ordine infranto e ritrovata una
quando
almeno
verrà
fino
ripristinato
felicitas temporum che sembrava
irrimediabilmente perduta.
Di fronte a questi fenomeni, si
verifica
quello che è lecito attendersi in
ogni epoca di repressione della
libertà
individuale:
e
della
creatività
sul
piano
un
culturale
progressivo
scollamento degli intellettuali dal
potere, con atteggiamenti di
aperta e fiera opposizione o di
rinuncia a ogni speranza di poter
incidere
contemporanei
sulle
coscienze
dei
con
messaggi
forti e moralmente motivati.
Tale atteggiamento si esprime nel
gusto dell’orrido o del macabro,
nella ricerca di effetti suggestivi
o nei colores intrisi di pathos,
ma anche nel rifugio in un
mondo
scientifici ed eruditi, di evasione
dalla realtà col ricorso alla
fantasia o tramite la ricerca
razionale
del
significato
dell’esistenza (favolistica, poesia
bucolica,
satira,
storiografia,
prosa scientifica, poesia epica e
didascalica).
Tra gli aspetti più significativi
della cultura del I secolo va
certamente annoverato l’interesse
per le scienze: di mentalità
molto pragmatica e utilitaristica,
i Romani si preoccupavano poco
di addentrarsi nella scienza pura
e
all’applicazione
principi già intuiti e approfonditi
pratica
dei
fatto
badavano
di
interessi
invece
dai Greci, concependo il discorso scientifico come un’esposizione di tecniche piuttosto che come
un’argomentazione di ipotesi finalizzata alla dimostrazione di una verità. In questo senso, la scienza
non è una branca autonoma ma è piuttosto un aspetto dell’indagine filosofica.
3
Quello che viene coltivato e che si afferma è quindi un complesso di tecniche che interessano le
materie più diverse, dalla medicina all’architettura, dall’arte militare alle scienze naturali.
In generale, però, a causa della carenza di strumenti precisi e della mancanza di una approfondita
conoscenza del mondo naturale, ogni tecnica veniva completata, arricchita e infarcita con elementi
attinti dal patrimonio fantastico, leggendario e mitico a disposizione degli studiosi, che quindi non
possono essere considerati pienamente “scienziati”.
Nell’ambito della medicina, ci è pervenuto un trattato, in otto libri, il De Medicina, composto da
Aulo Cornelio Celso, erudito vissuto nell’epoca di Tiberio e morto nel 38 d.C. Le sue Artes, ampio
trattato enciclopedico di cultura pratica, sono andate in massima parte perdute. Sopravvive la
sezione De Medicina, che tratta l’intero campo della materia, dalla dietetica alla patologia, dalla
chirurgia alla terapia. Ben nota è la sua pagina sul chirurgo ideale, ritratto eseguito con aderenza
concreta alla sua missione e alla sua pratica professionale; non a torto è stato chiamato “l’Ippocrate
Latino”. Testimonianza degli interessi in campo geografico è l’opera dello spagnolo Pomponio
Mela (I secolo d.C.), autore di un De Chorographia (“Descrizione della terra”), in tre libri, in cui
viene descritto il mondo conosciuto, con particolare riguardo per i paesi più lontani e meno noti,
rivelando viva curiosità per l’esotico e il selvaggio, in uno stile vivace e saporoso. Suo è il merito
d’essere stato il primo geografo della latinità.
Anche Seneca annovera, nella sua produzione letteraria, trattati di argomento scientifico, in gran
parte perduti. L’unico salvatosi è il trattato di storia naturale, in sette libri, intitolato Naturales
Quaestiones, che si occupa di problemi astronomici, geografici e meteorologici, secondo una
prospettiva che attiene più alla filosofia che all’ambito scientifico propriamente detto. L’interesse
per la scienza non è in Seneca fine a se stesso, ma, secondo la concezione provvidenzialistica degli
stoici, è funzionale all’evidenziazione dell’intrinseca razionalità del cosmo (frutto di una mente
ordinatrice), alla comprensione dell’Essere divino immanente nel mondo e nell’animo umano.
Il più vasto e completo “scienziato” di quest’epoca è comunque Caio Plinio Secondo, detto il
Vecchio. Dotato di una curiosità “onnivora”, oltre che di eccezionale capacità di applicazione allo
studio, Plinio il Vecchio compose un numero incredibile di opere sui più disparati argomenti.
L’unica opera sopravvissuta è comunque la Naturalis Historia, in trentasette libri, qualificabile
come un trattato enciclopedico di scienze della natura, dedicato all’imperatore Tito. Come rivela il
termine istoria del titolo, l’opera si ripromette di passare in rassegna le diverse branche delle scienze
naturali sulla base della consultazione di non meno di duemila volumi di almeno cento autori
importanti, soprattutto greci. Plinio accumula però questa massa ingente di notizie senza un preciso
criterio scientifico, ma piuttosto badando a cogliere dei diversi argomenti gli aspetti e i dettagli più
curiosi, a rischio di sacrificare l’esattezza scientifica alle pure fantasie. Nonostante questo Plinio
4
vuole perseguire l’utilitas piuttosto che la gratia: questo spiega l’esclusione di tutto quanto possa
attenere a forze e qualità non immediatamente soggiogabili da parte dell’uomo, come la magia,
l’astrologia e la religione, con l’incresciosa consapevolezza che molte delle infinite cose da dire
rimangano anche per lui inesplorate.
5
Letteratura Greca
Il Romanzo e la Fantascienza
La narrativa fantastica, sia sotto forma di vera e propria fantascienza quale oggi la intendiamo (cioè
con intenzionali riferimenti scientifici o parascientifici), sia sotto forma di fantasy o di space opera,
è molto attivamente presente in tutta la cultura greca. La rappresentazione di una realtà storica
atemporale e di una dimensione spaziale che esula dai confini sicuri del
proprio mondo e della propria terra è già presente nell’Odissea di Omero,
che si può dire costituisca la prima narrazione fantasy: il mare nel quale si
svolge il viaggio di Odisseo infatti potrebbe essere, o è, il Mediterraneo,
ma in realtà è il “mare” o meglio “l’ipermare” con la stessa funzione
crono-spaziale che ha lo “spazio” o “l’iperspazio” nella fantascienza di
oggi. Le avventure che Odisseo vive nel suo viaggio interspaziale lo
portano in un mondo lontano da quello umano, in cui gli esseri che lo
vivono sono così lontani e diversi da noi sì da essere in fondo degli alieni
(i Lotofagi, Polifemo, gli abitanti dell’isola del Sole). La curiositas verso
il diverso e il lontano fu così connaturata alla cultura e alla mentalità dei Greci, grandi navigatori e
commercianti, che la storiografia greca (Erodoto) nacque come resoconto geo-etnografico di usi,
costumi, tradizioni, siti, terre di popoli lontani e diversi dai Greci. Tale atteggiamento di interesse
verso mondi lontani rimarrà una costante per tutta la civiltà greca: si pensi all’utopia platonica
dell’Atlantide, il continente idealizzato che elaborò una perfetta e potentissima civiltà, e che, dopo
essere stato sconfitto da Atene, si inabissò nelle profondità dell’Oceano. Nel periodo ellenistico, con
la grande avventura di Alessandro Magno che giunge nel favoloso e lontano Oriente si realizzò un
vero e proprio boom di viaggi e di esplorazioni nelle terre dell’Oriente e nei mari del NordEuropa e
del Sud (Africa), testimoniati sia attraverso i diari di viaggio dei vari esploratori (Piteas di
Marsiglia), sia attraverso le narrazioni fantastiche o utopiche che ci portano in isole e terre lontane
abitate da esseri diversi da noi sia culturalmente che fisicamente. In questo filone si inseriscono nei
secoli successivi molti romanzi fantascientifici, quali quello di Antonio Diogene che ci porta
fantasticamente nelle terre al di là di Thule e quello di Luciano (Storia Vera) che, scritto come
parodia della narrazione fantasiosa cui si abbandonava la storiografia del tempo, diventa il migliore
esempio di narrativa fantascientifica, in quanto contiene tutti gli elementi caratteristici del genere: il
viaggio, l’ipermare, l’iperspazio, la luna, la guerra interstellare tra alieni lunatici ed elioti,
l’ammaraggio e l’inghiottimento nel ventre della balena, il mare di latte, la banchisa, il Maelstrom,
gli alieni (i Fellopodi, i Bucefali, le Onoscelee), etc.
6
Il romanzo Le Meraviglie al di là di Thule scritto da Antonio Diogene (I sec. d.C.) assomma in sé
gli aspetti più caratterizzanti del romanzo di avventura, di quello d’amore e di quello fantasy. La
narrazione è strutturata secondo la tecnica della scatola cinese del racconto nel racconto e condotta
dal protagonista in prima persona.
La Storia Vera di Luciano (II sec. d.C.) può
considerarsi a tutti gli effetti il romanzo che
precorre
perfettamente
la
narrativa
fantascientifica. Nato come parodia di tutta la
narrativa pseudostorica e utopistica, il romanzi
si abbandona funambolescamente al gusto del
racconto fantastico e surreale, echeggiando, sia
pure parodicamente, le meraviglie e le trovate
di Omero, di Erodono e tutti i narratori
fantastici. Il racconto, narrato in prima persona, prende l’avvio con in viaggio intrapreso, con alcuni
compagni, dal protagonista che, varcate le colonne d’Ercole, affronta con piacere l’ignoto. Ma una
tromba marina trasforma la nave in una navicella spaziale che raggiunge la Luna; qui gli astronauti
trovano il popolo degli alieni seleniti pronti a una guerra stellare con i nemici Elioti. Rientrata sulla
terra la nave viene inghiottita da un’enorme balena, il cui ventre costituisce un mondo di sorprese e
una brulicante vita di esseri umani e di alieni marini in lotta fra loro. Ripreso il viaggio, il gruppo
prima raggiunge il Polo, poi si impantana in un mare di latte, finché raggiunge l’isola dei Beati,
dove incontra gli eroi del mito e i filosofi impegnati in diatribe filosofico-letterarie. Dall’isola dei
Sogni, evanescente e sfumata, si susseguono altre mirabolanti avventure con alieni antropofagi, con
uomini-nave e infine con le Onoscelee, belle e ammalianti vampire che circuiscono e mangiano le
carni dei forestieri.
La fortuna di Luciano presso il grande pubblico è affidata inoltre ad alcune raccolte di brevi
dialoghi (i Dialoghi degli Dèi, i Dialoghi marini, i Dialoghi dei morti e i Dialoghi delle
Cortigiane), in cui gli dèi sono posti a diretto confronto fra loro e fatti dialogare in situazioni di
fantasia, inventate però secondo un rapporto di verosimiglianza nei confronti del patrimonio
mitologico greco e ricorrendo anche al repertorio della commedia “di mezzo” e “nuova”.
Infine il breve romanzo Lucio o L’asino narra le vicende di un tale Lucio, trasformato in asino
anziché in uccello per un fatale errore nell’uso di magici unguenti, che al termine di varie peripezie
ritorna uomo dopo avere mangiato petali di rosa. Si tratta di un tema ripreso nelle Metamorfosi di
Apuleio, e che sappiamo trattato anche nell’opera perduta di un tale Lucio di Patre.
7
Letteratura Italiana
Italo Calvino
Nella seconda metà del novecento il più significativo autore italiano di opere fantastiche è senza
dubbio Italo Calvino (1923-1985). Anche se la sua produzione letteraria è caratterizzata da una
grande varietà di esperimenti e temi, la scelta della trasfigurazione fantastica del reale è quella che
più la contraddistingue ed è presente già nel suo romanzo d’esordio, Il sentiero dei nidi di ragno
(1947), che pure è concepito nel clima neorealistico del secondo dopoguerra. L’opzione fantastica
assume un peso sempre più preponderante nella narrativa di Calvino soprattutto a partire da Il
visconte dimezzato (1952), man mano che il sentimento dell’inerzia della realtà sostituisce la fiducia
post-bellica nella sua trasformazione. La cultura di Calvino – al di là dell’adesione giovanile al
marxismo a di quella allo strutturalismo e alla semiotica degli anni Sessanta – presenta come
elementi costanti di fondo il gusto cosmopolita, l’interesse per le scienze, la tendenza illuministica
alla chiarezza e all’esattezza. L’illuminismo di Calvino non è un’ideologia che tenta di spiegare la
realtà, ma un metodo che fa ricorso all’analisi razionale per descrivere un mondo che appare,
soprattutto verso gli anni Sessanta e Settanta, sempre più labirintico e insondabile. L’illuminismo
calviniano può perciò combinarsi con la fantasia e affidarsi a ipotesi fantascientifiche, al gioco, alla
fiaba. Già a partire dagli anni Cinquanta, però, la produzione narrativa di Calvino sperimenta strade
nuove. Pur restando fedele ad un impegno etico-politico, egli tende ad abbandonare i moduli del
Neorealismo e a tentare uno sperimentalismo per cui gli elementi costitutivi del primo romanzo –
quello realistico e quello fantastico – si scindono in due filoni diversi: uno è quello fantasticoallegorico, ispirato ad Ariosto e a Voltaire, l’altro quello sociale volto a una conoscenza critica della
storia e della realtà italiana del dopoguerra. Sulla base di una percezione della natura complicata del
reale e dell’impossibilità di ridurlo ad unità, Calvino (nel celebre saggio La sfida al labirinto, 1962)
sottolinea la sostanza magmatica del mondo contemporaneo e la responsabilità della letteratura di
non banalizzarlo e ridurlo a formule semplificate. Accettare la sfida del labirinto significa entrarvi
dentro, ma non arrendersi ad esso. Tuttavia più si arricchisce il suo approccio alla realtà, più questa
diventa inestricabile e piano piano si fa strada nello scrittore la convinzione che sia impossibile
vincere la sfida lanciata dal labirinto. L’ambizione di fare della letteratura la coscienza del mondo,
la “mappa della complessità”, cede sempre più ad un’idea della letteratura come attività assoluta,
svincolata da qualsiasi impegno nei confronti della realtà: la scrittura, che egli aveva concepito
come traduzione dell’ordine del mondo nell’ordine del linguaggio, diventa essenzialmente gioco di
possibilità, di punti di vista diversi, e non più lettura unitaria del mondo. E’ questo dunque il
significato della definizione calviniana della letteratura come “gioco combinatorio.
8
Il secondo periodo dell’attività letteraria di Calvino prende avvio da due libri di racconti, Le
cosmicomiche (1965) e Ti con zero (1967). E’ un periodo di vivo interesse per le teorie scientifiche
relative alla nascita e alla costituzione del cosmo, all’origine della vita, alla struttura della materia.
Mentre però la fantascienza sviluppa le proprie storie nel futuro e rappresenta il fantastico come
normale, Calvino le ambienta nel passato e trasforma il normale in fantastico: di qui l’effetto
comico, denunciato dal titolo, e straniante. Le Cosmicomiche sono dodici racconti le cui fonti sono
disparate e vanno da Leopardi a Borges, da Giordano Bruno ai comics di Popeye (Braccio di ferro).
Ti con zero contiene ancora quattro cosmicomiche e altri testi accomunati ad esse dalla riflessione
scientifica sulla vita delle cellule e sulla combinazione dei possibili. Il cosmo, infatti, si presenta qui
come una combinazione di eventi possibili. La scienza non rivela certezze, ma mette a nudo
problemi. Ne deriva un senso estremo di relatività: l’evoluzione del cosmo non segue un percorso
sicuro, me una delle tante strade possibili e interscambiabili. La combinatoria narrativa rispecchia
dunque una combinatoria universale. Il mondo del linguaggio tende anzi a porsi come unico e
assoluto, ed è visto da Calvino come sistema di segni che rinvia soltanto a se stessi. La realtà è in sé
inconoscibile. Il fulcro delle Cosmicomiche e di Ti con zero è infatti il protagonista Qfwfq (si
osservi la simmetrica disposizione delle lettere con l’incognita “w” al centro delle particelle
sillabiche “qf” e “fq”). Chi è questo personaggio? Lo stesso Calvino dice: ”Non è nemmeno detto
che sia un uomo; ha partecipato a lungo della vita animale, ha più o meno l’età dell’universo. Non è
nemmeno un personaggio: è solo una voce, un punto di vista, un occhio umano proiettato nella
realtà di un mondo che appare sempre più refrattario alla parola e all’immagine”. Con Qfwfq
Calvino porta alle estreme conseguenze quella che potremmo chiamare la “crisi del personaggio”,
gia così avanzata col Cavaliere inesistente (simbolo dell’uomo artificiale che, essendo tutt’uno coi
prodotti e con le situazioni, è inesistente), presentando qualcosa che sfugge a ogni umana
definizione. Tuttavia Calvino, in concreto, facendo commentare a Qfwfq le varie ipotesi
scientifiche, mostra di proiettarsi sul problema dei rapporti umani e sociali. I temi di fondo della
raccolta sono quelli calviniani di sempre, vale a dire i rapporti tra soggetto e oggetto colti nella
dimensione non più storica ma conoscitiva. Il rapporto è però capovolto negli ultimi racconti di Ti
con zero, dove non compaiono protagonisti fantascientifici, ma persone comuni che, di fronte a
problemi concreti, tentano di applicare paradigmi scientifici alla loro soluzione. Il senso profondo
però non cambia. La ragione e la scienza fino a che punto possono incidere sulla vita dell’uomo, nei
suoi rapporti col mondo? E’ dalla ragione e dalla scienza che possiamo attenderci quelle risposte
significative che gettino una prospettiva nel labirinto dell’esistenza? Il ricorso alla scienza e alla
fantascienza risponde così al problema essenziale dell’uomo: dare un senso all’esistere, nel palese
contrasto tra spinte biologiche ed esigenze razionali.
9
Filosofia
L’intelligenza artificiale (IA)
(b. 1932, Denver, CO; Ph.D. philosophy, Oxford; currently Professor of Philosophy, UC Berkeley.)
Una delle principali caratteristiche della fantascienza moderna è l’idea che una macchina possa
sostituire interamente l’uomo: pensare come lui, muoversi come lui provare sentimenti come lui.
L’accostamento della mente alle macchine è una
costante della storia del pensiero: basti pensare a
Cartesio, che nel ‘600 descriveva il cervello come un
sistema idraulico e a K.Pearson che alla fine dell’800, lo
paragonava a un sistema telefonico. Il binomio mentemacchina è stato utilizzato in due direzioni diverse: da
una parte nella costruzione di macchine che funzionino
come la mente e dall’altra nello studiare e analizzare la
mente come una macchina.
La prima tendenza ha portato alla costruzione di macchine che elaborano dati utilizzando i
procedimenti del calcolo e della logica e un linguaggio specifico. La seconda si è manifestata come
corrente filosofica che, oggi, ha dato un contributo notevole alle scienze cognitive. A partire dagli
anni Cinquanta molti filosofi e scienziati diedero avvio alle ricerche sull’Intelligenza Artificiale,
fondata sulle seguenti correnti scientifiche:
Ø Quella logico-matamatica che si era sviluppata negli anni Trenta ad opera di Turino e Von
Neumann.
Ø Quella biologico-antropologica che puntava sullo studio della natura del comportamento
intelligente e che veniva portata avanti da biologi e psicologi (come Simon).
Le basi scientifiche dell’Intelligenza Artificiale ruotano tutte intorno alla teoria del modello
computazionale della mente, basato su tre concetti fondamentali:
1) I processi mentali consistono nella ricezione delle informazioni dall’ambiente,
nell’elaborazione autonoma, secondo propri algoritmi, schemi e modelli, e nella
costruzione di risposte.
2) Ogni elaborazione di informazioni può essere espressa in forma computazionale. Su
questo principio si fonda l’ipotesi dell’I.A. secondo la quale è possibile realizzare un
comportamento intelligente attraverso i computer, dato che questi hanno elevate capacità
computazionali.
3) Ogni sistema di elaborazione è costituito da sottoinsiemi diversi collegati fra loro.
10
Da queste premesse è possibile spiegare l’importanza che il modello computazionale ricopre come
paradigma di ricerca in Intelligenza Artificiale. Esso infatti consente di stabilire una forte analogia
relativa al funzionamento dei computer e del cervello umano. Se infatti si prescinde dal substrato
fisico che opera la computazione (e che è elettronico nei computer e biologico-neuronale nel
cervello) i due sistemi sembrano avere caratteristiche simili: entrambi ai livelli alti sono in grado di
attuare processi superiori, ai livelli bassi funzionano grazie alle leggi fisico-chimiche dei loro
componenti (basti pensare all’elettronica nel calcolatore e alla biochimica nelle cellule
celebrali).Quest’analogia rappresenta il superamento del dualismo cartesiano tra “res cogitans” e
“res estensa” proprio perché stabilisce un ponte di collegamento tra i fenomeni mentali e il sistema
computazionale. Il modello computazionale, infatti, attraverso i legami d’interpretazione reciproca
che stabilisce tra i vari livelli del sistema, fornisce proprio quel ponte tra mente e corpo che
mancava a Cartesio. Naturalmente tutti i ricercatori dell’Intelligenza Artificiale sono convinti
dell’enorme complessità del cervello e della relativa semplicità degli attuali computer, e vedono tra
i due sistemi ancora delle differenze abissali. Tuttavia se tale ipotesi fosse verificata e se in effetti
esistesse tra i due sistemi una somiglianza di modello, allora la fantascienza diventerebbe a tutti gli
effetti realtà, e si dovrebbe ammettere che anche i computer pensano. A questo punto mancherebbe
loro solo la capacità di provare sentimenti.
Da questa non più tanto utopica “speranza” deriva la
formulazione dell’ipotesi forte dell’Intelligenza Artificiale: “con
le macchine è possibile imitare e simulare i comportamenti
intelligenti”. Uno dei fautori più noti di tale teoria è Douglas
Hofstader, il quale sostiene che è molto complicato e difficile
imitare l’intelligenza umana nella sua complessità. E’ invece più
semplice imitare solo alcune singole capacità mentali (il
linguaggio, la visione, la capacità di dimostrare teoremi, etc.). Lo
studioso parla di scremabilità o separabilità. E’ pertanto possibile estrarre alcune capacità della
nostra mente dal cervello e realizzarle con altri substrati elettronici e logici.
Nello sviluppare le ricerche e le sperimentazioni, i ricercatori di Intelligenza Artificiale si sono
imbattuti in molti problemi di tipo pratico e teorico. Tra questi ultimi due sono particolarmente
interessanti:
·
Il problema dell’esplosione combinatoria: per rappresentare le azioni che si possono attuare
in una certa situazione il numero delle possibili azioni da studiare per scegliere quella
migliore è molto elevato. Di fronte a numeri così grandi anche il calcolatore si trova in
difficoltà.
11
·
Il problema della complessità delle situazioni reali: gli uomini devono definire strategie di
comportamento in tutte le situazioni reali, le quali sono sempre complesse.
Diverse sono state, negli ultimi anni, le strade intraprese dai ricercatori per superare queste enormi
difficoltà:
-
L’aumento delle capacità di calcolo dei computer;
-
La teoria del connessionismo: è difficile imitare una struttura così complessa come il
cervello umano; è necessario quindi imitare i modi con cui esso lavora. E poiché le cellule
sono collegate in modo tale da realizzare reti neurali molto complesse, non basta più
utilizzare gli algoritmi a schema sequenziale dei computer attualmente in uso, ma algoritmi
che si propagano in parallelo in una rete di varie unità di elaborazione. Per i connessionisti,
pertanto, i computer usati fino ad oggi sono inadeguati, perché non si tiene conto del
meccanismo di funzionamento della mente umana;
-
L’uso di procedure euristiche: Simon distingue tra scelta ottima e scelta soddisfacente, dove
soddisfacente indica un risultato adeguato a un certo livello di aspirazione, pur non essendo
il migliore in assoluto. Non è necessario per Simon effettuare scelte ottimali per raggiungere
uno scopo; è sufficiente invece usare strategie razionali, anche se solo soddisfacenti. Di
conseguenza la computazione nel computer deve essere guidata e orientata alla scelta di
strategie razionali: tali procedure sono dette euristiche. Ciò ha consentito, negli ultimi anni,
un aumento notevole delle prestazioni intelligenti.
Le difficoltà pratiche incontrate recentemente nello sviluppo dei programmi intelligenti hanno
aumentato il numero delle obiezioni rivolte alla teoria dell’Intelligenza Artificiale.
L’obiezione radicale può essere formulata così: “i computer si comportano come se fossero
intelligenti, ma in effetti essi seguono procedure meccaniche, anche se molto sofisticate, e in realtà
non capiscono effettivamente nulla delle risposte che danno”.
Secondo Winograd e Flores i fenomeni mentali non possono essere separati dal vivere nella e
dentro la realtà (“Esserci”). Ai calcolatori manca proprio la capacità di “Esserci”. Di conseguenza il
comportamento intelligente è legato alla capacità di entrare in relazione con gli altri e di partecipare
alla vita sociale.
Secondo Searle i computer non posseggono l’intenzionalità tipica dell’uomo e non comprendono i
significati dei simboli che utilizzano. Per lui, quindi, non possono pensare. A differenza, però, di
Winograd e Flores, secondo i quali le macchine non possono pensare in senso assoluto, Searle non
esclude che in futuro si potranno costruire macchine pensanti, ma afferma che con i metodi attuali
non si possa fare pensare una macchina.
12
Storia ed Economia
Il primo dopoguerra:
L’innovazione tecnologica e la robotizzazione
In questi ultimi anni gli economisti si sono posti il problema di come valutare il nuovo ruolo della
moderna impresa di tipo manageriale in relazione alle problematiche legate all’innovazione
tecnologica. Fino ai primi anni Sessanta, gli economisti si sono preoccupati solo raramente del
progresso tecnologico, ma da allora si sono verificati cambiamenti notevoli nell’attività economica
e nell’occupazione, e si possono ripercorrere attraverso due filoni:
-
la teoria sull’innovazione di Schumpeter;
-
la scuola neo-classica.
L’evoluzione delle teorie sull’innovazione tecnologica
Secondo Schumpeter il trend dello sviluppo economico (ovvero il suo andamento
statistico nel lungo periodo) è segnato dal succedersi di invenzioni che rompono
l’equilibrio del mercato concorrenziale e determinano una situazione di forte
competitività. L’intero processo di sviluppo si presenta discontinuo, casuale,
innescato da cause esogene al sistema economico, quali la genialità e la casualità
dell’invenzione. A differenza del marginalismo, Schumpeter, pur considerando la teoria walrasiana
dell’equilibrio economico generale una realizzazione mirabile, la reputa astratta e incapace di
rendere conto della manifestazione più caratteristica e vitale dell’economia capitalistica:
l’innovazione. Infatti, il modello dell’equilibrio economico generale richiede, come condizione di
validità, il postulato della costanza tanto delle capacità tecniche del sistema produttivo quanto degli
orientamenti dei consumatori. La rottura del processo stazionario, cui l’economia necessariamente
tende quando la tecnologia e le preferenze dei consumatori restano immutate, è determinata dal
sopravvenire delle “innovazioni”, a opera di specifiche figure che Schumpeter definisce
“imprenditori” o “business leaders”. Lo sviluppo, secondo Schumpeter, essenziale per lo stesso
realizzarsi del profitto; nel sistema statico dell’equilibrio generale il profitti tende ad assottigliarsi
(tematica caratteristica degli economisti classici: si pensi alla tesi marxiana della “caduta
tendenziale del saggio di profitto”) perché i prezzi raggiungono la massima vicinanza ai costi; le
innovazioni, o perché abbassano i costi, o perché traggono la domanda verso beni nuovi e migliori,
generano, almeno inizialmente, alti tassi di profitto. La logica della concorrenza, portando tutte le
aziende a incorporare innovazioni, distribuisce queste ultime in tutto il settore produttivo e
ridimensiona radicalmente, nel lungo periodo, il profitto aziendale. Senza continue innovazioni,
13
dunque, il sistema economico non cresce, non si modernizza e non genera profitti sufficienti. Infine,
secondo Schumpeter, lo sviluppo capitalistico procede secondo cicli: il
concentrarsi delle innovazioni aumenta la concorrenzialità e la capacità
produttiva del sistema, nonché l’offerta delle merci; concentra inoltre gran
parte del risparmio, sotto forma di credito, nell’attività imprenditoriale;
quest’ultima si fa tuttavia, con il generalizzarsi delle innovazioni, sempre
meno favorevole agli alti profitti e insieme, pertanto, più pericolosamente
esposta, quale debitrice, ai propri creditori e finanziatori; di qui la fase
discendente del ciclo, a natura deflativa (diminuzione dei profitti, ravvicinamento dei prezzi ai costi,
etc.).
Il filone neo-classico, invece, esclude che l’innovazione sia casuale e possa provenire da elementi
esterni. L’innovazione viene considerata cioè, come una serie di atti collegati al progresso inventivo
e non isolatamente. Oggi l’adozione di una innovazione determina una modificazione che a sua
volta spinge a innovare, finché si riproduce, su spinte cumulative sequenziali, una nuova
invenzione. Se un settore produttivo è tecnologicamente avanzato, tende a coinvolgere i settori a
esso collegati determinando una sorta di complementarietà tecnologica, che consente di diffondere
il mutamento dalla singola impresa all’intero settore e da questo agli altri.
Innovazione tecnologica significa quindi:
·
controllo del processo produttivo;
·
utilizzo di modelli decisionali automatizzati
·
robotizzazione delle mansioni esecutive
Il ruolo dell’automazione
E’ intuitivo come l’automazione rappresenti una “rivoluzione” del modo di produzione che investe
l’impresa complessivamente, dalla composizione organica del capitale all’organizzazione del
lavoro, con conseguenze sull’occupazione e sul sistema sociale.
L’automazione è:
Ø uno strumento per accrescere la circolazione del capitale e per far fronte all’aumentata
complessità dell’ambiente esterno sotto forma di nuovi mercati e nuovi prodotti;
Ø una strategia per rendere il processo produttivo più flessibile;
Ø una risposta ad alcune esigenze avanzate dai lavoratori per eliminare la nocività, la
ripetitività e la ricomposizione di alcune mansioni.
14
La catena di montaggio
Simbolo per eccellenza dell’automazione nella storia è senza dubbio la catena di montaggio. Questa
trova la sua origine teorica nel taylorismo, la teoria economica dell’organizzazione scientifica del
lavoro elaborata all’inizio del Novecento dall’ingegnere statunitense Frederick Taylor. Si fonda sul
principio che “la migliore produzione si determina quando a ogni lavoratore è affidato un compito
specifico, da svolgere in un determinato tempo e in un determinato modo”. Lo scopo è di
razionalizzare il ciclo produttivo, eliminando sforzi inutili e tempi morti. La funzione del manager è
appunto quella di definire con precisione tali compiti, tempi e modi. L’applicazione pratica di questi
principi aprì la strada alla catena di montaggio che, introdotta nel 1913 da Henry Ford per la
fabbricazione dell’automobile Ford modello T, modificò profondamente l’organizzazione del lavoro
nelle industrie. Esso diventò un vero e proprio principio di organizzazione sociale: la figura
dell’operaio ne risultò intimamente trasformata, dal momento che egli perse ogni discrezionalità sui
tempi e i modi del suo lavoro. La figura dell’operaio professionale fu progressivamente sostituita
dall’operaio-macchina, mero esecutore di compiti rigorosamente prestabiliti.
“La precondizione necessaria per la produzione in serie – ha scritto Henry Ford – è il consumo di
massa, latente o sviluppato, e la capacità di assorbire un’ampia produzione. Le due cose procedono
insieme.” Ciò significa che la gran parte dei lavoratori doveva essere messa nella condizione di
acquistare i beni di consumo posti sul mercato. Non solo i ceti medi dunque, ma anche i ceti
popolari dovevano essere in grado di accedere al consumo di massa. Affinché questo avvenisse,
Henry Ford applicò una politica di alti salari e soprattutto di incentivi salariali agganciati alla
quantità di lavoro svolto.
15
La crisi del ‘29
Oltre alla folle corsa alla speculazione che aveva caratterizzato le banche americane negli anni
venti, gli studiosi sono concordi nel ritenere che la causa strutturale del grande crollo fu l’eccesso di
capacità produttiva: la sovrapproduzione latente che era cresciuta insieme allo sviluppo durante il
ciclo espansivo della seconda metà degli anni venti. L’aspetto saliente che lo aveva determinato era
stata la profonda riorganizzazione dei sistemi produttivi, basata essenzialmente sull’innovazione
tecnologica e sulla diffusione del taylorismo. Le conseguenze di questi ultimi due fenomeni,
strettamente correlati, furono certamente di ridurre la fatica e di incrementare la produttività, ma
anche di disintegrare la personalità operaia. L’uso su larga scala di macchine sempre più
“intelligenti” e la diffusione del sistema di produzione taylorista, con la scomposizione delle
mansioni e la semplificazione del lavoro, portarono alle estreme conseguenze il processo di
suddivisione del lavoro iniziato nel Settecento in Inghilterra con la Rivoluzione Industriale.
16
Letteratura Inglese
J.Swift, H.G.Wells e H.P.Lovecraft
Nella letteratura inglese la fantascienza è strettamente legata al binomio Utopia-Distopia e al genere
horror, entrambi caratteristici dell’età contemporanea.
Ci sono due differenti teorie sull’origine del termine “utopia”: alcuni critici affermano che esso
deriva dal greco “ou + topos”significando quindi una “terra che non esiste”; altri lo collegano
invece al greco “eu + topos”, e si riferirebbe così a un mondo migliore del nostro.
Il termine apparse comunque in Inghilterra per la prima volta solo nel 1516, quando fu pubblicata
l’opera “Utopia” di Thomas More. Platone fu il principale modello per More, che prese dal filosofo
greco l’idea di uno stato del benessere basato sul comunismo. Utopia è il primo di una lunga serie
di opere simili, come “New Atlantis” (1626) di Bacon o “Pilgrim’s Progress” (1675) di Bunyan.
Nel diciottesimo secolo nacque il genio letterario di Jonathan Swift, scrittore irlandese noto
soprattutto per le sue satire e per l’opera “I viaggi di Gulliver”, una parodia della travel literature.
Quest’opera può essere letta a vari livelli: è un libro di viaggi, una storia allegorica, un saggio
satirico, una favola per bambini. “I viaggi di Gulliver” ha infatti l’indubbio merito di essere diretta
agli adulti, per il forte contenuto satirico e politico, come ai bambini, per le avventure fantastiche
che racconta. Non dimentichiamo, comunque, che l’opera è anche una satira politica, usata da Swift
per criticare le istituzioni dell’Inghilterra del diciottesimo secolo. L’abilità di Swift sta infatti nel
fare satira tramite l’ironia, uno strumento molto difficile da usare, poiché deve mostrare la
differenza fra ciò che una frase sembra dire e ciò che sta effettivamente dicendo. Swift è un vero
maestro della satira e dell’ironia, come è dimostrato dalla sua abilità di descrivere le situazioni più
orribili e disgustanti nel modo più naturale e semplice.
L’arte di Swift fu ripresa dall’inglese H.G.Wells, che unì gli elementi fantastici tipici delle
avventure di Swift con descrizioni scientifiche. A differenza di Swift, comunque, Wells non fu un
vero e proprio scrittore “utopico”, in quanto le sue novelle
“utopiche” sono in realtà trattati socio-politici e i suoi
lavori più famosi sono romanzi pseudoscientifici. Il suo
interesse per il futuro dell’umanità, tuttavia, lo porta
all’idealistico sogno di un utopico Stato Mondiale,
governato da una nuova razza di tecnici superintelligenti e
altamente qualificati, i cosiddetti Samurai Scientifici
(A Modern Utopia, 1905). Nell’ultimo periodo della sua vita il suo grande sogno si trasformò in
pessimistica paura per il futuro dell’umanità (Mind at the End of its Tether, 1945), tale che egli
17
potrebbe anche essere compreso tra quegli scrittori che furono poi chiamati “distopici”. Il ventesimo
secolo vide infatti un cambiamento nel concetto di “utopia”: spaventati dalla possibile
trasformazione degli ideali utopici in spaventose realtà totalitaristiche, alcuni scrittori inglesi
introdussero la cosiddetta letteratura distopica, lontana dal descrivere ideali terre di pace e
fratellanza. Opere come “1984” e “Animal Farm” di Gorge Orwell dipingono una società in cui
l’ottimismo delle precedenti favole fu sostituito da una triste visione del futuro e da una distorta
visione del presente. Nonostante il loro contenuto pessimistico, queste opere accrebbero
l’apprezzamento della critica: la letteratura utopica e distopica, infatti, è ormai considerata un vero
e proprio genere letterario, con caratteristiche proprie, insieme ad altri generi come i generi di
spionaggio e horror.
A quest’ultimo è strettamente legato il nome di H.P.Lovecraft, scrittore americano nato nel 1890 nel
Rhode Island che scrisse un’ottantina di racconti, tre romanzi non lunghi e un gran numero di
liriche e saggi, per la quasi totalità nell’ambito della narrativa fantastica, onirica e dell’orrore. La
sua vita onirica incredibilmente ricca fu la fonte principale delle sue storie. Filosoficamente era
peraltro un razionalista, e non credeva in nulla di soprannaturale, neppure dal punto di vista
religioso. E’ un paradosso, perciò, che sia divenuto autore di alcune delle più famose storie del
soprannaturale che siano mai state scritte, dando vita addirittura ad una vera e propria mitologia
letteraria (quella dei “Miti di Cthulhu”, dal nome di una delle divinità fantastiche da lui inventate),
che oggi ha un’infinità di seguaci in tutto il mondo, e persino gruppi di persone che aderiscono ad
essa come ad un vero e proprio culto. Ma forse la ragione del suo successo sta proprio nel radicale
scetticismo del suo pensiero: non considerando fonti di terrore, nel mondo moderno, esseri come i
fantasmi, i dèmoni e i mostri della narrativa gotica tradizionale, spostò le fonti dell’orrore verso
l’infinito, negli abissi insondabili del tempo e dello spazio e della mente umana. In tal modo, attuò
un vero e proprio rovesciamento dei canoni tradizionali della Horror Story, tanto da essere definito
un “Copernico letterario”. Il punto di osservazione di Lovecraft non è più antropocentrico, ma
cosmico: nella sua opera ricorrono tematiche come l’impotenza e l’inessenzialità dell’uomo in un
universo rigidamente meccanicistico, la ricerca di sogni impossibili, la sospensione delle leggi
naturali.
18
English Literature
J.Swift, H.G.Wells and H.P.Lovecraft
In the English Literature the science-fiction is strictly connected with the binomial Utopia-Dystopia
and with the horror genre, both typical of the contemporary age.
There are two different theories about the origin of the term “utopia”: some critics say it derives
from the Greek “ou + topos” (and so mean a Nowhere Land); others consider it a derivation from
the form “eu + topos” (a better place than the present one).
The term, however, derives from Sir Thomas More’s Utopia (1516). Plato was the most important
model for More, who derived from him the idea of a commonwealth based on communism.
Utopia was the first of a long series of other similar books, continuing with Bacon’s New Atlantis
(1626) and Bunyan’s Pilgrim’s Progress (1675).
The 18th century produced Swift’s Gulliver’s Travels (1726), where the imaginary setting was now
combined with satire. Gulliver’s Travels represents a parody of the traditional travel literature. This
work can be read at various levels: it’s a travel book, an allegorical story, a satirical essay, a tale for
children. This book had indeed the rare merit of appealing both to adults, because of its satirical
content, and to children, because of its fantasy and imagination. Let us not forget, however that
Gulliver’s Travels is also a political satire, used by Swift in order to satirize 18th century English
political, social and legal institutions.
Swift’s most powerful instrument is irony, one of the most difficult to use: it requires very great
skill, as it’s based on the discrepancy between what the sentences seem to be saying and what they
are really saying. Swift is a true master of irony and satire, as he is able to say the most shocking
themes in the most natural possible way.
Swift’s art influenced the English writer H.G.Wells, who combined the fantastic elements typical of
Swift works with scientific descriptions. Wells, however, was not a “pure” utopian writer, since his
“utopian” socialist novels border on socio-political treatises and his best-known works are actually
pseudoscientific romances. His concern with the future of mankind, nevertheless, led him to dream
of a utopian World State, governed by a new “race” of qualified technicians, the Scientific Samurai
(A Modern Utopia, 1905). By the end of his life his dream has darkened into pessimism about the
prospects of mankind’s future, so that he may also be ranked among the writers of what would later
be defined as “dystopias”, or negative utopias. The 20th century, in fact, saw a change in the concept
of “utopia”. Frightened by the translation of utopian ideals into totalitarian realities, some English
writers wrote anti-utopian, or dystopian, works. Far from describing ideal lands of peace and
brotherhood, Orwell’s Animal Farm (1945) and 1984 (1948) depicted societies where the optimism
of the previous fables was replaced by a gloomy vision of the future and a warning for the present.
19
Despite their pessimistic contents, however, these books increased the critical appreciation of
utopian works. Utopian literature, in fact, is now increasingly considered a literary genre, with laws
and features of its own, together with other genres such as the “spy story” or the “horror story”.
The “horror story” is strictly connected with the name of H.P.Lovecraft, an American writer born in
1890 in the Rhode Island. He wrote about eighty tales, three long romances and many essays, all
wholly belonging to the science, oneiric and horror fiction. His very rich oneiric life was the
principal source of inspiration for his stories. Philosophically he was a rationalist and he believed in
nothing supernatural, above all from the religious point of view. It’s a paradox, for this reason, that
he’s famous for his supernatural stories, in which he created a literary mythology (the “Cthulhu
Miths”) that, nowadays, has a great number of followers and people who believe in it as a real
religious cult. However the true origin of Lovecraft’s success had be founded in his scepticism: he
didn’t consider, as sources of terror, in the contemporary world, beings such as ghosts, demons and
monsters characteristics of the traditional gothic literature, and looked for the real horror land in the
infinite space, in the abysses of time and space and in those of mankind. In this way he did a real
revolution in the traditional Horror Story and Science Fiction tradition, so that he was called
“a literary Copernicus”. His literary point of view is no more anthropocentric, but cosmic: in his
works there are themes such as the man’s powerlessness and inessentiality in a “mechanicistic”
universe, the look for impossible dreams, the suspension of every natural law.
20
Fisica
La scienza ha fatto un altro passo avanti verso la frontiera della fantascienza. Spostarsi da un luogo
all’altro istantaneamente, smaterializzando e rimaterializzando a piacere il nostro corpo. E a dare
ancora più corpo a queste fantasie c’è la serie di fantascienza Star Trek, in cui il teletrasporto appare
una pratica quotidiana. Teletrasportare un essere vivente è giudicato per ora impossibile, ma se
consideriamo il nostro corpo un semplice insieme di particelle, un sogno del genere diventa solo un
traguardo da raggiungere, anche se lontano. Perché il teletrasporto di una singola particella è già
avvenuto, grazie all’evoluzione di una ricerca basata sulla teoria dei quanti, una parte della fisica
dove anche i fenomeni più incredibili possono verificarsi. Il primo a condurre con successo un
teletrasporto, sia pure nell’ambito delle particelle subatomiche, è stato il fisico americano Jeff
Kimble, nell’ottobre del 1998. Successivamente, Anton Zeilinger dell’Università di Vienna, ha
perfezionato la tecnica teletrasportando istantaneamente le caratteristiche di un fotone (il suo stato
di polarizzazione, cioè l’oscillazione dello stesso su un determinato piano) su un altro fotone, senza
che le due particelle fossero in contatto. E teletrasportare le caratteristiche di una particella su
un’altra equivale a teletrasportare la particella stessa.
La scienza che ha reso possibile il teletrasporto, la fisica quantistica, si occupa del mondo delle
particelle elementari, e in particolare dei suoi aspetti straordinari, a volte inquietanti. Uno di questi è
il non localismo, cioè la possibilità di azioni dirette a distanza. Le più importanti scoperte
scientifiche del Ventesimo secolo si basano proprio sulle “bizzarrie” di questa teoria. La
radioattività (e quindi la fisica atomica), il laser, i superconduttori, i superfluidi, i semiconduttori, (e
cioè la tecnologia elettronica e dei computer) derivano tutti da particolari effetti quantistici.
Secondo la teoria quantistica, prima della sperimentazione, cioè prima che un osservatore misuri i
valori degli elementi in questione, le particelle si trovano in uno stato indefinito, detto entangled
(intrecciato). Gli stati entangled sono un particolare fenomeno che si riscontra quando due o più
21
particelle manifestano proprietà fisiche sovrapposte, intrecciate appunto, come se fossero parte di
un unico corpo. Un’azione condotta su una di queste ha una ripercussione immediata anche
sull’altra, anche se sono fisicamente separate. Nel mondo “normale”, quello in cui viviamo tutti i
giorni, non esiste niente di simile. Ma nell’universo microscopico descritto dalla fisica quantistica,
succedono molte cose che hanno dell’incredibile.
Per la teoria quantistica, le caratteristiche oggettive di qualsiasi particella o coppia di particelle
vengono definite solo nel momento in cui si compie l’atto di osservazione. Il fisico tedesco Werner
Heisenberg (1901-1976) stabilì che prima di un qualsiasi esperimento volto a determinare le
caratteristiche fisiche (velocità, posizione, energia, etc.) di una particella, questa “vive” soltanto in
una dimensione potenziale. E’ l’osservazione che “costringe” la particella a passare dallo “stato
potenziale” allo “stato reale”, a mostrarsi al mondo come un elemento che ha velocità, posizione ed
energia definite. Prendiamo in esame una coppia di particelle”gemelle” (o particelle “correlate”),
per esempio due protoni nati contemporaneamente dalla disgregazione di un atomo. Il buon senso ci
direbbe che se le due particelle gemelle sono distanti l’una dall’altra e non c’è alcun contatto tra le
due, un eventuale esperimento condotto su uno dei due protoni non dovrebbe avere effetti sull’altro.
Era questa la convinzione anche di alcuni fisici come Albert Einstein, che, riguardo al non
localismo previsto dalla teoria quantistica, scriveva: “Un aspetto essenziale delle cose della fisica è
che a un certo momento esse possono affermare la loro esistenza indipendente le une dalle altre,
purchè situate in parti diverse dello spazio. Se non si fa questo tipo di ipotesi, il pensiero fisico, nel
senso familiare del termine, diventa impossibile”. Ad Einstein rispose un altro premio Nobel, tra i
massimi esponenti della fisica quantistica, Niels Bohr (1885-1962): “Anche se due fotoni correlati
si trovassero su due diverse galassie continuerebbero pur sempre a rimanere un’unica identità e
l’azione compiuta su uno di essi avrebbe effetti anche sull’altro”. La disputa si trascinò per circa
cinquant’anni, finché nel 1982 comparve sulla scena un fisico dell’Università di Parigi, Alain
Aspect, che con una serie di esperimenti dimostrò che i fisici quantistici avevano ragione. Gli
esperimenti condotti da Aspect prevedevano che una coppia di fotoni correlati (nati dalla
disintegrazione di un atomo di calcio) venissero separati e lanciati verso rivelatori lontani, i quali a
loro volta dovevano misurare il comportamento dei fotoni dopo che lungo la traiettoria di uno di
essi veniva casualmente inserito un “filtro” che ne modificava la direzione. Il risultato dei test
dimostrò che, quando uno dei due fotoni deviava in seguito all’interazione col filtro,
istantaneamente deviava anche l’altro, benché si trovasse spazialmente separato (per l’esattezza
lontano tredici metri: una distanza enorme per particelle di dimensioni subnucleari). Il fatto
straordinario non si rivelò tanto la conferma del non localismo, quanto l’evidenza che queste azioni
avvenivano contemporaneamente, quasi ci fosse tra le particelle correlate una trasmissione di
22
informazioni istantanea. Fu proprio quest’ultimo aspetto la conseguenza più inquietante, poiché
presupponeva una trasmissione di informazioni istantanea, e quindi a velocità infinita, mentre la
Teoria della Relatività stabilisce che nulla, neppure un’informazione, può viaggiare a velocità
superiore a quella della luce. Per fortuna la relatività rimane salva, in quanto, se anche il
teletrasporto avviene a velocità infinita, il suo controllo richiede comunque una comunicazione che
non può viaggiare a una velocità superiore a quella della luce.
Per ora nessuno è riuscito a teletrasportare più dello stato di polarizzazione di un fotone, particella
che peraltro è priva di massa e quindi non può essere considerata materia.
Ma il 12 settembre scorso Eugene Polzik,
professore di fisica dell’Università danese di
Aarhus, ha concluso un esperimento che apre
nuovi orizzonti, perché è riuscito a ottenere uno
stato entangled di un milione di miliardi di atomi.
Fino ad oggi gli scienziati erano in grado di
produrre solo coppie, o al massimo “quartetti” di
particelle in stato intrecciato. Il gruppo guidato da
Polzik, invece, è riuscito a produrre un sistema
entangled di un milione di miliardi di atomi.
Quando non sono oggetto di alcuna forza esterna,
i fotoni intrecciati hanno proprietà fisiche
simmetriche o opposte. Per esempio, hanno la
stessa polarizzazione, ma hanno spin opposti.
Prima di qualsiasi esperimento volto a misurare lo
spin di uno dei due fotoni entangled, ciascuna
particella ha allo stesso tempo due spin “contrari”
(destro e sinistro). Ma nel momento in cui si misura lo spin di una delle due particelle, e si trova che
ha spin destro (o sinistro), allora l’altro fotone assumerà istantaneamente e a distanza lo spin sinistro
(o destro). L’atto di osservare lo spin di un componente della coppia conferisce realtà oggettiva a
distanza allo spin totale della coppia intrecciata. Inoltre, se uno dei fotoni viene deviato nel suo
cammino da un ostacolo, anche il secondo cambia direzione (esperimento di Aspect).
Sfruttando l’esperienza di Polzik, si potrebbe adattare l’apparecchiatura usata per il teletrasporto dei
fotoni per teletrasportare lo spin totale di una nube di atomi.
Sarebbe il primo passo per il teletrasporto del futuro: presto anche elementi più complessi potranno
spostarsi nello spazio senza viaggiare.
23
Biologia
Biotecnologie e Clonazione
Con il termine "biotecnologia" si indica l'utilizzazione in modo programmato di sistemi biologici
per la produzione di beni e servizi. I sistemi biologici possono essere costituiti da organismi
interi,singole cellule (eucariotiche o procariotiche) o loro componenti molecolari (enzimi)..
Tuttavia, nonostante tecnologie produttive fossero molto fiorenti durante l'antichità, è stato
necessario attendere la seconda metà dell'800 perché Pasteur ponesse final- mente le biotecnologie
su rigorose basi razionali e scientifiche. La seconda metà dell'800 è ricca di scoperte e intuizioni
basilari per la biotecnologia moderna: Mendel formula le leggi fondamentali della genetica e poi
Miescher scopre l’esistenza di acidi nucleici nelle cellule. Nel 1953 Watson e Francis Crick
concepiscono un modello di DNA a doppia elica che permette di ipotizzare il meccanismo della
duplicazione del materiale genetico, ponendo così le basi molecolari dell'ereditarietà. Nel 1963
Edward L.Tatum, fondatore della genetica biochimica suddivide l'ingegneria genetica in tre
categorie principali per modificare gli organismi:
·
Eugenica (ricombinazione di geni esistenti);
·
Ingegneria genetica (produzione di nuovi geni per un processo di mutazione diretta);
·
Ingegneria Eufenica (modificazione o controllo dell' espressione genetica).
Alle tecnologie "classiche" si sono affiancate biotecnologie innovative in cui vengono utilizzate
tecniche di manipolazione del materiale genetico (ingegneria genetica) con numerose applicazioni
in campo scientifico e industriale. Negli anni '60 si sapeva che nei batteri vi erano degli enzimi
specificatamente preposti alla riparazione
del DNA e che tali enzimi erano anche
impiegati nel processo di ricombinazione
genetica che consente l'inserimento di
materiale genetico virale nel DNA di un
batterio. Viene scoperto, infatti, il processo
di riparazione per "taglio e rattoppo" di
lesioni a carico del DNA. Degli enzimi di
restrizione, nucleasi, tagliano la parte di
DNA lesionata per azione di raggi
ultravioletti, poi l'enzima DNA polimerasi
inserisce i nucleotidi complementari che
24
vengono fissati dall'enzima DNA ligasi. E' così che verso la fine degli anni '70, nasce l'ingegneria
genetica, che, sfruttando la tecnica del DNA ricombinante, permette di creare nuove molecole di
DNA attraverso l'unione di frammenti di DNA provenienti da specie diverse. Solitamente uno dei
due frammenti di DNA che viene unito rappresenta il gene che interessa e l'altro un semplice
vettore. Questa molecola di DNA ricombinante risultante può essere introdotta in cellule batteriche
e quindi fatta riprodurre in migliaia di copie identiche (clonazione genica). Nel 1972 viene ottenuta
la prima ricombinazione. Ciò viene ritenuto come l'atto di fondazione dell'ingegneria genetica. Essi
ottengono in vitro una molecola ibrida. Una volta individuato il metodo per creare un DNA
ricombinante nel 1973 Cohen, Boyer, Helling e Clang costituiscono in vitro un plasmide
ricombinante che reinserito nel batterio si dimostra biologicamente funzionante sia che vengono
inseriti geni della stessa specie, sia di specie diversa e superiore, come ad esempio i geni umani. Di
conseguenza diventa possibile analizzare il DNA di organismi superiori. Sempre in questo periodo
vengono intraprese due strade per ottenere l'identificazione dei geni da replicare e il loro
isolamento una volta che sono stati identificati e replicati: una tradizionale, cercando di risalire dalle
proteine ai geni identificando gli RNA messaggeri per le proteine sintetizzate in modo abbondante,
e costruendo, quindi, il relativo DNA (cDNA) con l'enzima trascrittasi inversa, oppure si può
procedere perseguendo la strategia della "genetica al contrario", clonando i geni in modo casuale
per creare delle banche di cloni da esplorare con particolari tecniche che consentono
l'identificazione del gene. La prima strategia viene presto abbandonata, mentre ha grande successo
la tecnica del clonaggio. Sempre in questo periodo abbiamo nuove varietà di piante alimentari,
manipolate dall'ingegneria genetica, capaci di fabbricare concimi di cui hanno bisogno e di resistere
alla siccità e alla malattia. Qualche anno fa ha avuto inizio il progetto Genoma che si è posto un
obiettivo ambizioso: prendere due metri di DNA che ognuno di noi porta in ogni sua cellula,
strettamente avvolti in 46 cromosomi, srotolarli e "decodificarli". Disseminati lungo la catena si
trovano centomila geni umani,tutte le istruzioni che servono per costruire e tenere in vita ognuno di
noi. Non solo: c'è scritto anche a quali malattie siamo predisposti,quanto a lungo possiamo
vivere,che tipo di personalità abbiamo. Sulla catena c'è perfino la storia della nostra specie. Gli
scienziati studiano i geni umani per ripararli in caso di malfunzionamento in mo do da eliminare le
malattie ereditarie. La totale conoscenza del DNA equivale a capire come funziona l'organismo nei
piccoli dettagli,cioè ad entrare nei meccanismi della vita e della morte e chissà...magari a
cambiarli.....
25
L'Eugenetica
L'eugenetica è una disciplina che si propone di ottenere un miglioramento della specie umana
attraverso le generazioni, in modo analogo a quanto si fa per le piante e gli animali in allevamento.
Base di ogni tecnica di eugenetica è la distinzione dei caratteri ereditari in caratteri favorevoli o
eugenici e sfavorevoli o disgenici. Il fine dell'eugenetica è di favorire la diffusione dei primi e di
impedire quella dei secondi. I metodi di eugenetica positiva consisterebbero nel favorire
direttamente la diffusione dei caratteri migliori. Ma due gravi difficoltà limitano le possibilità di
applicazioni di tale tecnica:in primo luogo non è facile trovare l'accordo, in sede pratica, su quali
siano da considerarsi i caratteri più favorevoli; è facile, invece, che, in base a idee preconcette, si
affermino superiorità di tipi o di razze o di caste con conseguenze, talvolta, assai gravi, come
dimostrano molti avvenimenti storici antichi e recenti. In secondo luogo, quand'anche si fosse
trovato l'accordo, non è pensabile che si possa arrivare a restringere così gravemente la libertà
individuale, sino alla coercizione per quanto riguarda la scelta del coniuge. Diverso è il discorso per
le pratiche di eugenetica negativa, intese a limitare la trasmissione di gravi tare ereditarie al fine di
ridurne la frequenza nelle generazioni successive. E' ovvio però che interventi di eugenetica
negativa possono essere presi in considerazione solo quando li giustificano i dati della genetica
umana: a questo proposito va osservato che nell'ambito stesso della patologia mentale che è quello
che ha maggiormente attirato l'attenzione dell' eugenetica , l'intervento di una trasmissione
ereditaria, nelle singole forme non rappresenta la regola e, quando sussiste, obbedisce a leggi
ancora non ben conosciute.
La Clonazione
Il momento più affascinante della vita degli organismi di ogni ordine e grado, è la riproduzione. Gli
unicellulari si dividono in due cellule figlie identiche, mentre negli organismi superiore la
riproduzione è per lo più sessuale: prevede cioè l'unione di gameti (cellula uovo e spermatozoo) in
una sola cellula (lo zigote), che suddividendosi diventerà l'embrione e poi il nuovo individuo.
Si possono clonare animali utilizzando due diverse tecniche:
Splitting: i biotecnologi suddividono un embrione molto precoce (che non abbia più di otto cellule)
in due, quattro o otto cellule e ottengono da queste altrettanti embrioni geneticamente uguali fra
loro, un pò come succede quando si formano naturalmente dei gemelli: lo zigote si divide in due
nell'utero della madre e nascono due esseri identici, o quasi. In genere lo fanno alcuni allevatori per
26
ottenere più esemplari di bestiame pregiato: i singoli embrioni, dopo essere stati suddivisi, vengono
poi inseriti nell'utero di madri che porteranno a termine la gravidanza. Alcuni ricercatori
preferiscono chiamare la clonazione applicata agli animali da allevamento riproduzione embrionale,
ma in realtà è una vera e propria clonazione, se rispettiamo la definizione data, vale a dire
l'ottenimento di individui identici, a partire da un unico progenitore (che in questo caso è
l'embrione).
Clonazione mediante trapianto nucleare: In natura
l'unico caso di trapianto di nucleo avviene al momento
della fecondazione; nel trapianto nucleare, per clonare
embrioni, un nucleo, più precisamente una singola cellula
o blastomero ottenuto da un embrione allo stato di
morula, viene trasferito su un oocita dal quale sono stati
rimossi i cromosomi. Il nucleo appena trasferito si
riprogramma, cancellando cioè tutte le precedenti
informazioni e diventando così totipotente, ovvero
riprendere a svilupparsi dalle fasi iniziali. Come donatori
di nuclei vengono normalmente impiegati embrioni allo
stato di morula composti da 16-32 blastomeri. Tutti i
nuclei presenti nei blastomeri sono geneticamente identici per cui verranno artificialmente
ricostituiti 16-32 zigoti con la stessa informazione genetica, ottenendo cosi un clone. Poiché le
dimensioni dell'oocita e quelle dell'embrione sono al limite della risoluzione dell'occhio umano,
tutte le manipolazioni vengono effettuate con l'ausilio di un microscopio. La prima fase consiste
nella rimozione del rivestimento glicoproteico dell'embrione o Zona Pellucida: quest'operazione
viene generalmente effettuata con un sottile ago di vetro dopo aver immobilizzato l'embrione
applicando una lieve pressione negativa alla pipetta "holding". La successiva dissociazione dei
blastomeri viene realizzata esponendo l'embrione a soluzioni prive di ioni calcio che attenuano
l'adesività cellulare. La seconda fase consiste nell'enucleazione degli oociti: esse possono essere
prodotte in vivo da madri superovulate o da oociti maturati in vitro.
27
Storia dell’arte
Cinematografia e fantascienza
Il cinema si può considerare un nuovo mezzo espressivo, un’arte “nuova” resa possibile da un
mezzo meccanico che ha fatto proprie altre forme espressive, diventando la più rappresentativa del
nostro tempo. Il cinema si basa sulla possibilità di riprodurre immagini fotografiche in rapida
successione, consentendo così la resa di effetti di moto, continuità e profondità, capaci di rendere la
vita vissuta meglio di ogni altra rappresentazione. Le caratteristiche che rendono questo mezzo
espressivo più specificamente artistico sono le tecniche del linguaggio filmico: la proiezione dei
corpi in superficie, la limitazione del quadro, le deformazioni prospettiche derivanti dalla
bidimensionalità e il veloce ingrandimento degli oggetti che sostituisce la vera e propria prospettiva.
Due sono comunque gli elementi che definiscono e precisano il cinema come arte autonoma:
·
L’inquadratura, cioè quella particolare composizione dell’immagine filmica che vale adarle
personalità e pregnanza;
·
Il montaggio, ossia l’insieme coordinato e ritmico delle diverse inquadrature.
L’elemento che comunque fa rientrare il cinema nel campo dell’arte è senza dubbio l’inquadratura.
Partiamo, per comodità, da quella che possiamo
chiamare
un’analisi
“statica”
dell’immagine:
“tagliamo” cioè “a pezzettini” il film, indicando
l’esatte
definizione
delle
singole
inquadrature
(importante considerare che l’inquadratura non
coincide con il fotogramma: per ogni secondo di
proiezione, di fotogrammi ne occorrono 24; le inquadrature possono avere durate varie, da alcune
frazioni di secondo fino anche a diversi minuti).
Se lo schermo ci pone di fronte a un’immagine particolarmente vasta, “aperta”, allora parliamo di
Campo totale (sigla C.T.), o anche (le espressioni sono equivalenti) di Campo lungo (C.L.).
Qualsiasi regista, però, sente ovviamente il bisogno di “stringere” più da vicino i suoi soggetti, a
partire dai personaggi. Restringendo la “porzione di realtà” inquadrata, abbiamo in successione il
Campo medio (C.M.), quando vediamo una figura umana ben visibile, anche se immersa
nell’ambiente circostante; la Figura intera (F.I.), allorché il personaggio, dalla testa ai piedi, è al
centro dello schermo; il Piano americano (P.A.), con la figura umana ripresa, all’incirca, dalle
ginocchia in su; il Primo piano (P.P.), dal busto in su; il Primissimo piano (P.P.P.), ovvero soltanto
il volto; il Dettaglio (DETT.) o Particolare (PART.), che ci offre la vista ravvicinatissima di una
parte della figura umana (occhi, orecchie, mani) o di un oggetto.
28
E’ inoltre importante sottolineare gli “angoli di ripresa”, che possono essere “frontali”, sia in senso
orizzontale che verticale, oppure “angolati”, da destra a sinistra, o dall’alto al basso. L’autore,
quando sceglie una determinata angolazione, non lo fa mai a caso.
Un’ultima notazione, importante per leggere al meglio l’inquadratura, riguarda la “messa a fuoco”.
Si indica così la “quantità” di realtà che viene vista in modo ottimale, senza fastidiosi effetti di
sdoppiamento. La “messa a fuoco” dipende, insieme, dal tipo di obiettivo montato sulla macchina
da presa, dall’apertura del diaframma, dalla sensibilità della pellicola e dall’illuminazione del set.
Quando tutta la scena ripresa è a fuoco si parla di “profondità di campo”.
Per il montaggio possiamo individuare diversi tipi cime l’antitesi, il parallelismo, l’analogia, il
sincronismo, la dissolvenza. Per alcuni critici il montaggio è tanto più efficace quanto meno è
percepibile da un normale spettatore; alcuni autori, invece, affidano il proprio stile all’espressività
del montaggio.
Cinema e letteratura
Il cinema ha attinto a piene mani dalla letteratura: idee, soggetti, modi espressivi delle
sceneggiature. Tuttavia il cinema ha esercitato a sua volta una significativa influenza sulla
letteratura, soprattutto sul romanzo moderno. Leggendo alcuni testi di narrativa contemporanea
abbiamo la sensazione di aver sotto gli occhi un soggetto che chiede solo di diventare
sceneggiatura: è quello che avviene spesso per film di grande successo, soprattutto nel campo della
fantascienza. E’ il caso di romanzi come “Super-Toys Last All Summer Long” di Brian Aldiss, “A
Space Odissey” (1968) di Arthur C. Clarke, “Do Androids Dream of Electric Sheep?” (1968) di
Philip K.Dick, che hanno inspirato, rispettivamente, i capolavori cinematografici di A.I Artificial
Intelligence, 2001: Odissea nello Spazio e Blade Runner.
·
Blade Runner - Blade Runner è ambientato nella Los Angeles del 2019, dove la Tyrell
Corporation ha sviluppato nuove tecnologie che consentono di
fabbricare "Replicanti", cioè organismi viventi uguali in tutto
agli essere umani, ma con una forza superiore e privi di
sentimenti, anche se i progettisti stimarono che dopo qualche
anno avrebbero sviluppato sentimenti propri. I Replicanti
venivano usati nelle colonizzazioni di altri pianeti e nelle
esplorazioni pericolose. Rick Deckard (Harrison Ford), expoliziotto, ex-cacciatore di replicanti, ex-killer, viene costretto, dal capo della polizia Bryant,
a riprendere il suo vecchio lavoro di cacciatore di replicanti. Gli viene assegnato l'incarico di
eliminare quattro replicanti fuggiti dalla schiavitù delle colonie e venuti sulla Terra. Prima di
29
iniziare il lavoro Deckard si reca alla Tyrell Corporation e qui conosce Rachel, una ragazza
replicante frutto di un esperimento, della quale poi si innamorerà. Dopo alcune indagini,
riesce a scoprire il primo dei quattro replicanti: Zhora. Scatta un accanito inseguimento nelle
vie della metropoli nel quale Deckard riesce ad eliminarla ma viene attaccato da un secondo:
Leon. Quando Deckard è sul punto di morire interviene Rachel, che sparando al replicante,
gli salva la vita. Ne rimangono due: Pris e Roy, il più evoluto di tutti, il leader. Il confronto
con essi sarà spettacolare, con un finale assolutamente da non perdere.
·
2001:Odissea nello spazio - Clarke scrisse la sceneggiatura del celebre film di Stanley
Kubrick, sulla base di un proprio racconto,
quindi
ne
trasse
questa
novelization
(riduzione a romanzo): film e romanzo sono
perciò solo due diversi mezzi espressivi per
la stessa storia. Come nel romanzo di Clarke
i dialoghi sono ridotti al minimo, così nel suo film Kubrick riproduce il medesimo effetto
narrando la storia dall’esterno, in modo quasi neutro. Il primo tema principale del film ruota
intorno al principio di evoluzione, che Clarke portò alle estreme conseguenze. In secondo
luogo 2001 parla dell’entità meccanica costruita dall’uomo per simulare non solo la memoria
ma anche la coscienza: un’entità che poi diventa davvero cosciente e incontra tutti i problemi
connessi con questo stato. Quando l’unico sopravvissuto della Discovery toglie i contatti opera perciò una sorta di lobotomia - al computer HAL, questo torna alla propria infanzia
intonando una canzoncina per bambini.
solitudine,
che
in
qualche
modo
Il terzo tema è quello dell’esploratore nella sua
rimanda
all’Odissea. Tra i molti significati allegorici di
2001 emerge il monolito, un simbolo molto
potente. Quando la missione dello scienziato
Floyd viene chiamata sulla Luna per esaminare il
monolito ritrovato nel cratere Tycho, uno degli
scienziati che lo accompagnano afferma che si tratta della prima prova dell’esistenza di
un’intelligenza extraterrestre. E così “nel monolito si può leggere indifferentemente la Radice
dell’Essere, Dio, il Numero, la Coscienza, la Tavola della Legge, il Primo mattone
dell’Universo” (Giovanni Grazzini).
30
·
A.I. Artificial Intelligence - A.I. rappresenta uno stano e straordinario punto di incontro tra
gli stili di due film i cui diversi punti di vista sono
convogliati in un unico “impasto” che produce risultati
affascinanti. Questa favola di fantascienza vede infatti
incontrarsi la storia di Pinocchio (1940) e le visioni
distopiche sulla rovina dell’umanità che animano alcuni film
futuristici come Blade Runner. In un futuro in cui l’umanità
ha subito immani cataclismi causati dallo scioglimento della
calotta polare, la tecnologia ha compiuto passi da gigante. Si
è ormai in grado di riprodurre esseri simili in tutto agli
umani tranne che nel provare amore. David appartiene all'ultimissima generazione di robot:
può anche amare. Viene affidato a una coppia il cui figlio, affetto da un male apparentemente
incurabile, è stato ibernato in attesa di una cura. Vinte le
resistenze iniziali David riesce a farsi amare da Monica, la
sua “mamma”. Ma la guarigione del figlio naturale rimette
tutto in discussione. David deve essere abbandonato in un
bosco per liberarsene e, al contempo, salvarlo dalla
distruzione.
31
Indice
1
Introduzione
3
Letteratura latina: La prosa scientifica
6
Letteratura greca: Il romanzo e la fantascienza
8
Letteratura italiana: Italo Calvino
10
Filosofia: L’intelligenza artificiale (IA)
11
Storia ed Economia: Il primo dopoguerra: l’innovazione tecnologica e la robotizzazione
17
Letteratura inglese: J.Swift, H.G.Wells e H.P.Lovecraft
21
Fisica: Teletrasporto: la realtà
24
Biologia: Biotecnologie e clonazione
28
Storia dell’arte: cinematografia e fantascienza
32
Indice
Realizzato da Andrea Greco VAsp., a.s.2001/2002
32