Fantascienza, ovvero l`altra letteratura - Home page
Transcript
Fantascienza, ovvero l`altra letteratura - Home page
Fantascienza, ovvero l'altra letteratura di Andrea Greco La fantascienza, abbreviata con la sigla FS (il termine inglese è science fiction, coniato da Hugo Gernsback), è un genere letterario che ha antenati illustri rintracciabili in molti miti senza tempo. I suoi temi ed approcci sono talmente vari ed uniformi da rendere difficile una definizione univoca: è un ramo della fantasia identificabile dal fatto che allevia la voluta interruzione dell’incredulità da parte dei lettori utilizzando un’atmosfera di credulità scientifica per le sue speculazioni immaginifiche nelle scienze fisiche, nello spazio, nel tempo, nelle scienze sociali e nella filosofia. La fantascienza è un "genere" letterario che ha antenati illustri, che si intreccia a molti miti senza tempo del nostro immaginario, e che tende sempre di più a sfuggire al confinamento in strettoie predefinite e rigide. I temi e gli approcci che confluiscono sotto la dicitura "science fiction" (o "fantascienza" per il pubblico italiano) sono talmente vari e multiformi da rendere difficile una definizione unilaterale. Ciò nonostante "fantascienza" è la parola che richiama l'attenzione e l'interesse di un vastissimo pubblico, sia in ambito letterario che cinematografico (ma oggi dovremmo sempre di più agire in un contesto multimediale, considerando anche il fumetto, i giochi per computer, gli ipertesti e così via). Questa vitalità è dovuta al nodo centrale della fantascienza, cioè la scienza stessa, le sue innovazioni, i rischi e le incognite accanto al fascino per le scoperte meravigliose. Al tema della scienza si è sempre accompagnato quello del futuro, della immaginazione degli sviluppi possibili o probabili. E dell'ignoto in generale, soprattutto quando 1 questo ignoto proviene o è localizzato in altri pianeti. I due lati indivisibili del successo di ogni fantascienza stanno quindi nell'inquietudine per lo sconosciuto e nella speranza per le capacità scientifiche dell'ingegno umano. Questi due lati accompagnano la fantascienza dai primi passi fino al cyberpunk attuale. Ormai, il realismo (o una riproposta di neo-realismo) non è più in grado né di descrivere efficacemente né di aiutare a capire la realtà di oggi. Anzi, solo una narrativa estrema, che dilata ed esaspera le contraddizioni e le tensioni reali, può far emergere meglio i contorni del mondo in cui viviamo. Tra l'altro, nell'epoca della simulazione informatica e della realtà virtuale, la realtà "normale" è solo uno dei livelli della realtà, a volte riduttivo se non fuorviante. E la stessa realtà quotidiana, oggi, ha raggiunto una complessità tale da rendere inadeguata la chiave di lettura del vecchio realismo. Questo nuovo approccio alla realtà viene ottenuto attraverso la contaminazione tra le diverse letterature di genere. Giallo, thriller e neo-noir, come sguardo alla violenza nei rapporti umani, come volontà di non chiudere gli occhi di fronte al "lato oscuro" della realtà, si coniugano con il cyber come aggiornamento e sviluppo della fantascienza, alla ricerca di un immaginario tecnologico che affronti il mutamento della realtà di fronte all'irruzione delle alte tecnologie. “La fantascienza propone un superamento in chiave non conflittuale della dicotomia tra civiltà umanistica classica e civiltà scientifica moderna”. Ugo Malaguti “La fantascienza consiste delle speranze, dei sogni e dei timori (perché alcuni sono incubi) di una società fondata sulla tecnica”. John W. Campbell “Si potrebbe dire che la fantascienza è composta di scritti soprannaturali per materialisti”. Groff Conklin “La fantascienza gioca direttamente con l'immaginario, esplora i campi del possibile”. Antonio Caronia "La fantascienza è un'archeologia del futuro”. Sergio Solmi 2 Letteratura Latina La Prosa scientifica Durante la prima età imperiale, dissoltasi l’eredità politica di Augusto, si registra una progressiva involuzione del principatus in dominatus, con il risultato di veder svanire la possibilità delle classi dirigenti (nobiltà e cavalieri) di godere delle prerogative formalmente consentite, del governo della res publica per il Senato e del controllo della burocrazia per gli equites, di fronte a un princeps che si arroga ben più del solo potere decisionale riservatogli dalle leggi. Principato e libertà appaiono inconciliabili, all’età così sempre più di Nerva e Traiano, l’ordine infranto e ritrovata una quando almeno verrà fino ripristinato felicitas temporum che sembrava irrimediabilmente perduta. Di fronte a questi fenomeni, si verifica quello che è lecito attendersi in ogni epoca di repressione della libertà individuale: e della creatività sul piano un culturale progressivo scollamento degli intellettuali dal potere, con atteggiamenti di aperta e fiera opposizione o di rinuncia a ogni speranza di poter incidere contemporanei sulle coscienze dei con messaggi forti e moralmente motivati. Tale atteggiamento si esprime nel gusto dell’orrido o del macabro, nella ricerca di effetti suggestivi o nei colores intrisi di pathos, ma anche nel rifugio in un mondo scientifici ed eruditi, di evasione dalla realtà col ricorso alla fantasia o tramite la ricerca razionale del significato dell’esistenza (favolistica, poesia bucolica, satira, storiografia, prosa scientifica, poesia epica e didascalica). Tra gli aspetti più significativi della cultura del I secolo va certamente annoverato l’interesse per le scienze: di mentalità molto pragmatica e utilitaristica, i Romani si preoccupavano poco di addentrarsi nella scienza pura e all’applicazione principi già intuiti e approfonditi pratica dei fatto badavano di interessi invece dai Greci, concependo il discorso scientifico come un’esposizione di tecniche piuttosto che come un’argomentazione di ipotesi finalizzata alla dimostrazione di una verità. In questo senso, la scienza non è una branca autonoma ma è piuttosto un aspetto dell’indagine filosofica. 3 Quello che viene coltivato e che si afferma è quindi un complesso di tecniche che interessano le materie più diverse, dalla medicina all’architettura, dall’arte militare alle scienze naturali. In generale, però, a causa della carenza di strumenti precisi e della mancanza di una approfondita conoscenza del mondo naturale, ogni tecnica veniva completata, arricchita e infarcita con elementi attinti dal patrimonio fantastico, leggendario e mitico a disposizione degli studiosi, che quindi non possono essere considerati pienamente “scienziati”. Nell’ambito della medicina, ci è pervenuto un trattato, in otto libri, il De Medicina, composto da Aulo Cornelio Celso, erudito vissuto nell’epoca di Tiberio e morto nel 38 d.C. Le sue Artes, ampio trattato enciclopedico di cultura pratica, sono andate in massima parte perdute. Sopravvive la sezione De Medicina, che tratta l’intero campo della materia, dalla dietetica alla patologia, dalla chirurgia alla terapia. Ben nota è la sua pagina sul chirurgo ideale, ritratto eseguito con aderenza concreta alla sua missione e alla sua pratica professionale; non a torto è stato chiamato “l’Ippocrate Latino”. Testimonianza degli interessi in campo geografico è l’opera dello spagnolo Pomponio Mela (I secolo d.C.), autore di un De Chorographia (“Descrizione della terra”), in tre libri, in cui viene descritto il mondo conosciuto, con particolare riguardo per i paesi più lontani e meno noti, rivelando viva curiosità per l’esotico e il selvaggio, in uno stile vivace e saporoso. Suo è il merito d’essere stato il primo geografo della latinità. Anche Seneca annovera, nella sua produzione letteraria, trattati di argomento scientifico, in gran parte perduti. L’unico salvatosi è il trattato di storia naturale, in sette libri, intitolato Naturales Quaestiones, che si occupa di problemi astronomici, geografici e meteorologici, secondo una prospettiva che attiene più alla filosofia che all’ambito scientifico propriamente detto. L’interesse per la scienza non è in Seneca fine a se stesso, ma, secondo la concezione provvidenzialistica degli stoici, è funzionale all’evidenziazione dell’intrinseca razionalità del cosmo (frutto di una mente ordinatrice), alla comprensione dell’Essere divino immanente nel mondo e nell’animo umano. Il più vasto e completo “scienziato” di quest’epoca è comunque Caio Plinio Secondo, detto il Vecchio. Dotato di una curiosità “onnivora”, oltre che di eccezionale capacità di applicazione allo studio, Plinio il Vecchio compose un numero incredibile di opere sui più disparati argomenti. L’unica opera sopravvissuta è comunque la Naturalis Historia, in trentasette libri, qualificabile come un trattato enciclopedico di scienze della natura, dedicato all’imperatore Tito. Come rivela il termine istoria del titolo, l’opera si ripromette di passare in rassegna le diverse branche delle scienze naturali sulla base della consultazione di non meno di duemila volumi di almeno cento autori importanti, soprattutto greci. Plinio accumula però questa massa ingente di notizie senza un preciso criterio scientifico, ma piuttosto badando a cogliere dei diversi argomenti gli aspetti e i dettagli più curiosi, a rischio di sacrificare l’esattezza scientifica alle pure fantasie. Nonostante questo Plinio 4 vuole perseguire l’utilitas piuttosto che la gratia: questo spiega l’esclusione di tutto quanto possa attenere a forze e qualità non immediatamente soggiogabili da parte dell’uomo, come la magia, l’astrologia e la religione, con l’incresciosa consapevolezza che molte delle infinite cose da dire rimangano anche per lui inesplorate. 5 Letteratura Greca Il Romanzo e la Fantascienza La narrativa fantastica, sia sotto forma di vera e propria fantascienza quale oggi la intendiamo (cioè con intenzionali riferimenti scientifici o parascientifici), sia sotto forma di fantasy o di space opera, è molto attivamente presente in tutta la cultura greca. La rappresentazione di una realtà storica atemporale e di una dimensione spaziale che esula dai confini sicuri del proprio mondo e della propria terra è già presente nell’Odissea di Omero, che si può dire costituisca la prima narrazione fantasy: il mare nel quale si svolge il viaggio di Odisseo infatti potrebbe essere, o è, il Mediterraneo, ma in realtà è il “mare” o meglio “l’ipermare” con la stessa funzione crono-spaziale che ha lo “spazio” o “l’iperspazio” nella fantascienza di oggi. Le avventure che Odisseo vive nel suo viaggio interspaziale lo portano in un mondo lontano da quello umano, in cui gli esseri che lo vivono sono così lontani e diversi da noi sì da essere in fondo degli alieni (i Lotofagi, Polifemo, gli abitanti dell’isola del Sole). La curiositas verso il diverso e il lontano fu così connaturata alla cultura e alla mentalità dei Greci, grandi navigatori e commercianti, che la storiografia greca (Erodoto) nacque come resoconto geo-etnografico di usi, costumi, tradizioni, siti, terre di popoli lontani e diversi dai Greci. Tale atteggiamento di interesse verso mondi lontani rimarrà una costante per tutta la civiltà greca: si pensi all’utopia platonica dell’Atlantide, il continente idealizzato che elaborò una perfetta e potentissima civiltà, e che, dopo essere stato sconfitto da Atene, si inabissò nelle profondità dell’Oceano. Nel periodo ellenistico, con la grande avventura di Alessandro Magno che giunge nel favoloso e lontano Oriente si realizzò un vero e proprio boom di viaggi e di esplorazioni nelle terre dell’Oriente e nei mari del NordEuropa e del Sud (Africa), testimoniati sia attraverso i diari di viaggio dei vari esploratori (Piteas di Marsiglia), sia attraverso le narrazioni fantastiche o utopiche che ci portano in isole e terre lontane abitate da esseri diversi da noi sia culturalmente che fisicamente. In questo filone si inseriscono nei secoli successivi molti romanzi fantascientifici, quali quello di Antonio Diogene che ci porta fantasticamente nelle terre al di là di Thule e quello di Luciano (Storia Vera) che, scritto come parodia della narrazione fantasiosa cui si abbandonava la storiografia del tempo, diventa il migliore esempio di narrativa fantascientifica, in quanto contiene tutti gli elementi caratteristici del genere: il viaggio, l’ipermare, l’iperspazio, la luna, la guerra interstellare tra alieni lunatici ed elioti, l’ammaraggio e l’inghiottimento nel ventre della balena, il mare di latte, la banchisa, il Maelstrom, gli alieni (i Fellopodi, i Bucefali, le Onoscelee), etc. 6 Il romanzo Le Meraviglie al di là di Thule scritto da Antonio Diogene (I sec. d.C.) assomma in sé gli aspetti più caratterizzanti del romanzo di avventura, di quello d’amore e di quello fantasy. La narrazione è strutturata secondo la tecnica della scatola cinese del racconto nel racconto e condotta dal protagonista in prima persona. La Storia Vera di Luciano (II sec. d.C.) può considerarsi a tutti gli effetti il romanzo che precorre perfettamente la narrativa fantascientifica. Nato come parodia di tutta la narrativa pseudostorica e utopistica, il romanzi si abbandona funambolescamente al gusto del racconto fantastico e surreale, echeggiando, sia pure parodicamente, le meraviglie e le trovate di Omero, di Erodono e tutti i narratori fantastici. Il racconto, narrato in prima persona, prende l’avvio con in viaggio intrapreso, con alcuni compagni, dal protagonista che, varcate le colonne d’Ercole, affronta con piacere l’ignoto. Ma una tromba marina trasforma la nave in una navicella spaziale che raggiunge la Luna; qui gli astronauti trovano il popolo degli alieni seleniti pronti a una guerra stellare con i nemici Elioti. Rientrata sulla terra la nave viene inghiottita da un’enorme balena, il cui ventre costituisce un mondo di sorprese e una brulicante vita di esseri umani e di alieni marini in lotta fra loro. Ripreso il viaggio, il gruppo prima raggiunge il Polo, poi si impantana in un mare di latte, finché raggiunge l’isola dei Beati, dove incontra gli eroi del mito e i filosofi impegnati in diatribe filosofico-letterarie. Dall’isola dei Sogni, evanescente e sfumata, si susseguono altre mirabolanti avventure con alieni antropofagi, con uomini-nave e infine con le Onoscelee, belle e ammalianti vampire che circuiscono e mangiano le carni dei forestieri. La fortuna di Luciano presso il grande pubblico è affidata inoltre ad alcune raccolte di brevi dialoghi (i Dialoghi degli Dèi, i Dialoghi marini, i Dialoghi dei morti e i Dialoghi delle Cortigiane), in cui gli dèi sono posti a diretto confronto fra loro e fatti dialogare in situazioni di fantasia, inventate però secondo un rapporto di verosimiglianza nei confronti del patrimonio mitologico greco e ricorrendo anche al repertorio della commedia “di mezzo” e “nuova”. Infine il breve romanzo Lucio o L’asino narra le vicende di un tale Lucio, trasformato in asino anziché in uccello per un fatale errore nell’uso di magici unguenti, che al termine di varie peripezie ritorna uomo dopo avere mangiato petali di rosa. Si tratta di un tema ripreso nelle Metamorfosi di Apuleio, e che sappiamo trattato anche nell’opera perduta di un tale Lucio di Patre. 7 Letteratura Italiana Italo Calvino Nella seconda metà del novecento il più significativo autore italiano di opere fantastiche è senza dubbio Italo Calvino (1923-1985). Anche se la sua produzione letteraria è caratterizzata da una grande varietà di esperimenti e temi, la scelta della trasfigurazione fantastica del reale è quella che più la contraddistingue ed è presente già nel suo romanzo d’esordio, Il sentiero dei nidi di ragno (1947), che pure è concepito nel clima neorealistico del secondo dopoguerra. L’opzione fantastica assume un peso sempre più preponderante nella narrativa di Calvino soprattutto a partire da Il visconte dimezzato (1952), man mano che il sentimento dell’inerzia della realtà sostituisce la fiducia post-bellica nella sua trasformazione. La cultura di Calvino – al di là dell’adesione giovanile al marxismo a di quella allo strutturalismo e alla semiotica degli anni Sessanta – presenta come elementi costanti di fondo il gusto cosmopolita, l’interesse per le scienze, la tendenza illuministica alla chiarezza e all’esattezza. L’illuminismo di Calvino non è un’ideologia che tenta di spiegare la realtà, ma un metodo che fa ricorso all’analisi razionale per descrivere un mondo che appare, soprattutto verso gli anni Sessanta e Settanta, sempre più labirintico e insondabile. L’illuminismo calviniano può perciò combinarsi con la fantasia e affidarsi a ipotesi fantascientifiche, al gioco, alla fiaba. Già a partire dagli anni Cinquanta, però, la produzione narrativa di Calvino sperimenta strade nuove. Pur restando fedele ad un impegno etico-politico, egli tende ad abbandonare i moduli del Neorealismo e a tentare uno sperimentalismo per cui gli elementi costitutivi del primo romanzo – quello realistico e quello fantastico – si scindono in due filoni diversi: uno è quello fantasticoallegorico, ispirato ad Ariosto e a Voltaire, l’altro quello sociale volto a una conoscenza critica della storia e della realtà italiana del dopoguerra. Sulla base di una percezione della natura complicata del reale e dell’impossibilità di ridurlo ad unità, Calvino (nel celebre saggio La sfida al labirinto, 1962) sottolinea la sostanza magmatica del mondo contemporaneo e la responsabilità della letteratura di non banalizzarlo e ridurlo a formule semplificate. Accettare la sfida del labirinto significa entrarvi dentro, ma non arrendersi ad esso. Tuttavia più si arricchisce il suo approccio alla realtà, più questa diventa inestricabile e piano piano si fa strada nello scrittore la convinzione che sia impossibile vincere la sfida lanciata dal labirinto. L’ambizione di fare della letteratura la coscienza del mondo, la “mappa della complessità”, cede sempre più ad un’idea della letteratura come attività assoluta, svincolata da qualsiasi impegno nei confronti della realtà: la scrittura, che egli aveva concepito come traduzione dell’ordine del mondo nell’ordine del linguaggio, diventa essenzialmente gioco di possibilità, di punti di vista diversi, e non più lettura unitaria del mondo. E’ questo dunque il significato della definizione calviniana della letteratura come “gioco combinatorio. 8 Il secondo periodo dell’attività letteraria di Calvino prende avvio da due libri di racconti, Le cosmicomiche (1965) e Ti con zero (1967). E’ un periodo di vivo interesse per le teorie scientifiche relative alla nascita e alla costituzione del cosmo, all’origine della vita, alla struttura della materia. Mentre però la fantascienza sviluppa le proprie storie nel futuro e rappresenta il fantastico come normale, Calvino le ambienta nel passato e trasforma il normale in fantastico: di qui l’effetto comico, denunciato dal titolo, e straniante. Le Cosmicomiche sono dodici racconti le cui fonti sono disparate e vanno da Leopardi a Borges, da Giordano Bruno ai comics di Popeye (Braccio di ferro). Ti con zero contiene ancora quattro cosmicomiche e altri testi accomunati ad esse dalla riflessione scientifica sulla vita delle cellule e sulla combinazione dei possibili. Il cosmo, infatti, si presenta qui come una combinazione di eventi possibili. La scienza non rivela certezze, ma mette a nudo problemi. Ne deriva un senso estremo di relatività: l’evoluzione del cosmo non segue un percorso sicuro, me una delle tante strade possibili e interscambiabili. La combinatoria narrativa rispecchia dunque una combinatoria universale. Il mondo del linguaggio tende anzi a porsi come unico e assoluto, ed è visto da Calvino come sistema di segni che rinvia soltanto a se stessi. La realtà è in sé inconoscibile. Il fulcro delle Cosmicomiche e di Ti con zero è infatti il protagonista Qfwfq (si osservi la simmetrica disposizione delle lettere con l’incognita “w” al centro delle particelle sillabiche “qf” e “fq”). Chi è questo personaggio? Lo stesso Calvino dice: ”Non è nemmeno detto che sia un uomo; ha partecipato a lungo della vita animale, ha più o meno l’età dell’universo. Non è nemmeno un personaggio: è solo una voce, un punto di vista, un occhio umano proiettato nella realtà di un mondo che appare sempre più refrattario alla parola e all’immagine”. Con Qfwfq Calvino porta alle estreme conseguenze quella che potremmo chiamare la “crisi del personaggio”, gia così avanzata col Cavaliere inesistente (simbolo dell’uomo artificiale che, essendo tutt’uno coi prodotti e con le situazioni, è inesistente), presentando qualcosa che sfugge a ogni umana definizione. Tuttavia Calvino, in concreto, facendo commentare a Qfwfq le varie ipotesi scientifiche, mostra di proiettarsi sul problema dei rapporti umani e sociali. I temi di fondo della raccolta sono quelli calviniani di sempre, vale a dire i rapporti tra soggetto e oggetto colti nella dimensione non più storica ma conoscitiva. Il rapporto è però capovolto negli ultimi racconti di Ti con zero, dove non compaiono protagonisti fantascientifici, ma persone comuni che, di fronte a problemi concreti, tentano di applicare paradigmi scientifici alla loro soluzione. Il senso profondo però non cambia. La ragione e la scienza fino a che punto possono incidere sulla vita dell’uomo, nei suoi rapporti col mondo? E’ dalla ragione e dalla scienza che possiamo attenderci quelle risposte significative che gettino una prospettiva nel labirinto dell’esistenza? Il ricorso alla scienza e alla fantascienza risponde così al problema essenziale dell’uomo: dare un senso all’esistere, nel palese contrasto tra spinte biologiche ed esigenze razionali. 9 Filosofia L’intelligenza artificiale (IA) (b. 1932, Denver, CO; Ph.D. philosophy, Oxford; currently Professor of Philosophy, UC Berkeley.) Una delle principali caratteristiche della fantascienza moderna è l’idea che una macchina possa sostituire interamente l’uomo: pensare come lui, muoversi come lui provare sentimenti come lui. L’accostamento della mente alle macchine è una costante della storia del pensiero: basti pensare a Cartesio, che nel ‘600 descriveva il cervello come un sistema idraulico e a K.Pearson che alla fine dell’800, lo paragonava a un sistema telefonico. Il binomio mentemacchina è stato utilizzato in due direzioni diverse: da una parte nella costruzione di macchine che funzionino come la mente e dall’altra nello studiare e analizzare la mente come una macchina. La prima tendenza ha portato alla costruzione di macchine che elaborano dati utilizzando i procedimenti del calcolo e della logica e un linguaggio specifico. La seconda si è manifestata come corrente filosofica che, oggi, ha dato un contributo notevole alle scienze cognitive. A partire dagli anni Cinquanta molti filosofi e scienziati diedero avvio alle ricerche sull’Intelligenza Artificiale, fondata sulle seguenti correnti scientifiche: Ø Quella logico-matamatica che si era sviluppata negli anni Trenta ad opera di Turino e Von Neumann. Ø Quella biologico-antropologica che puntava sullo studio della natura del comportamento intelligente e che veniva portata avanti da biologi e psicologi (come Simon). Le basi scientifiche dell’Intelligenza Artificiale ruotano tutte intorno alla teoria del modello computazionale della mente, basato su tre concetti fondamentali: 1) I processi mentali consistono nella ricezione delle informazioni dall’ambiente, nell’elaborazione autonoma, secondo propri algoritmi, schemi e modelli, e nella costruzione di risposte. 2) Ogni elaborazione di informazioni può essere espressa in forma computazionale. Su questo principio si fonda l’ipotesi dell’I.A. secondo la quale è possibile realizzare un comportamento intelligente attraverso i computer, dato che questi hanno elevate capacità computazionali. 3) Ogni sistema di elaborazione è costituito da sottoinsiemi diversi collegati fra loro. 10 Da queste premesse è possibile spiegare l’importanza che il modello computazionale ricopre come paradigma di ricerca in Intelligenza Artificiale. Esso infatti consente di stabilire una forte analogia relativa al funzionamento dei computer e del cervello umano. Se infatti si prescinde dal substrato fisico che opera la computazione (e che è elettronico nei computer e biologico-neuronale nel cervello) i due sistemi sembrano avere caratteristiche simili: entrambi ai livelli alti sono in grado di attuare processi superiori, ai livelli bassi funzionano grazie alle leggi fisico-chimiche dei loro componenti (basti pensare all’elettronica nel calcolatore e alla biochimica nelle cellule celebrali).Quest’analogia rappresenta il superamento del dualismo cartesiano tra “res cogitans” e “res estensa” proprio perché stabilisce un ponte di collegamento tra i fenomeni mentali e il sistema computazionale. Il modello computazionale, infatti, attraverso i legami d’interpretazione reciproca che stabilisce tra i vari livelli del sistema, fornisce proprio quel ponte tra mente e corpo che mancava a Cartesio. Naturalmente tutti i ricercatori dell’Intelligenza Artificiale sono convinti dell’enorme complessità del cervello e della relativa semplicità degli attuali computer, e vedono tra i due sistemi ancora delle differenze abissali. Tuttavia se tale ipotesi fosse verificata e se in effetti esistesse tra i due sistemi una somiglianza di modello, allora la fantascienza diventerebbe a tutti gli effetti realtà, e si dovrebbe ammettere che anche i computer pensano. A questo punto mancherebbe loro solo la capacità di provare sentimenti. Da questa non più tanto utopica “speranza” deriva la formulazione dell’ipotesi forte dell’Intelligenza Artificiale: “con le macchine è possibile imitare e simulare i comportamenti intelligenti”. Uno dei fautori più noti di tale teoria è Douglas Hofstader, il quale sostiene che è molto complicato e difficile imitare l’intelligenza umana nella sua complessità. E’ invece più semplice imitare solo alcune singole capacità mentali (il linguaggio, la visione, la capacità di dimostrare teoremi, etc.). Lo studioso parla di scremabilità o separabilità. E’ pertanto possibile estrarre alcune capacità della nostra mente dal cervello e realizzarle con altri substrati elettronici e logici. Nello sviluppare le ricerche e le sperimentazioni, i ricercatori di Intelligenza Artificiale si sono imbattuti in molti problemi di tipo pratico e teorico. Tra questi ultimi due sono particolarmente interessanti: · Il problema dell’esplosione combinatoria: per rappresentare le azioni che si possono attuare in una certa situazione il numero delle possibili azioni da studiare per scegliere quella migliore è molto elevato. Di fronte a numeri così grandi anche il calcolatore si trova in difficoltà. 11 · Il problema della complessità delle situazioni reali: gli uomini devono definire strategie di comportamento in tutte le situazioni reali, le quali sono sempre complesse. Diverse sono state, negli ultimi anni, le strade intraprese dai ricercatori per superare queste enormi difficoltà: - L’aumento delle capacità di calcolo dei computer; - La teoria del connessionismo: è difficile imitare una struttura così complessa come il cervello umano; è necessario quindi imitare i modi con cui esso lavora. E poiché le cellule sono collegate in modo tale da realizzare reti neurali molto complesse, non basta più utilizzare gli algoritmi a schema sequenziale dei computer attualmente in uso, ma algoritmi che si propagano in parallelo in una rete di varie unità di elaborazione. Per i connessionisti, pertanto, i computer usati fino ad oggi sono inadeguati, perché non si tiene conto del meccanismo di funzionamento della mente umana; - L’uso di procedure euristiche: Simon distingue tra scelta ottima e scelta soddisfacente, dove soddisfacente indica un risultato adeguato a un certo livello di aspirazione, pur non essendo il migliore in assoluto. Non è necessario per Simon effettuare scelte ottimali per raggiungere uno scopo; è sufficiente invece usare strategie razionali, anche se solo soddisfacenti. Di conseguenza la computazione nel computer deve essere guidata e orientata alla scelta di strategie razionali: tali procedure sono dette euristiche. Ciò ha consentito, negli ultimi anni, un aumento notevole delle prestazioni intelligenti. Le difficoltà pratiche incontrate recentemente nello sviluppo dei programmi intelligenti hanno aumentato il numero delle obiezioni rivolte alla teoria dell’Intelligenza Artificiale. L’obiezione radicale può essere formulata così: “i computer si comportano come se fossero intelligenti, ma in effetti essi seguono procedure meccaniche, anche se molto sofisticate, e in realtà non capiscono effettivamente nulla delle risposte che danno”. Secondo Winograd e Flores i fenomeni mentali non possono essere separati dal vivere nella e dentro la realtà (“Esserci”). Ai calcolatori manca proprio la capacità di “Esserci”. Di conseguenza il comportamento intelligente è legato alla capacità di entrare in relazione con gli altri e di partecipare alla vita sociale. Secondo Searle i computer non posseggono l’intenzionalità tipica dell’uomo e non comprendono i significati dei simboli che utilizzano. Per lui, quindi, non possono pensare. A differenza, però, di Winograd e Flores, secondo i quali le macchine non possono pensare in senso assoluto, Searle non esclude che in futuro si potranno costruire macchine pensanti, ma afferma che con i metodi attuali non si possa fare pensare una macchina. 12 Storia ed Economia Il primo dopoguerra: L’innovazione tecnologica e la robotizzazione In questi ultimi anni gli economisti si sono posti il problema di come valutare il nuovo ruolo della moderna impresa di tipo manageriale in relazione alle problematiche legate all’innovazione tecnologica. Fino ai primi anni Sessanta, gli economisti si sono preoccupati solo raramente del progresso tecnologico, ma da allora si sono verificati cambiamenti notevoli nell’attività economica e nell’occupazione, e si possono ripercorrere attraverso due filoni: - la teoria sull’innovazione di Schumpeter; - la scuola neo-classica. L’evoluzione delle teorie sull’innovazione tecnologica Secondo Schumpeter il trend dello sviluppo economico (ovvero il suo andamento statistico nel lungo periodo) è segnato dal succedersi di invenzioni che rompono l’equilibrio del mercato concorrenziale e determinano una situazione di forte competitività. L’intero processo di sviluppo si presenta discontinuo, casuale, innescato da cause esogene al sistema economico, quali la genialità e la casualità dell’invenzione. A differenza del marginalismo, Schumpeter, pur considerando la teoria walrasiana dell’equilibrio economico generale una realizzazione mirabile, la reputa astratta e incapace di rendere conto della manifestazione più caratteristica e vitale dell’economia capitalistica: l’innovazione. Infatti, il modello dell’equilibrio economico generale richiede, come condizione di validità, il postulato della costanza tanto delle capacità tecniche del sistema produttivo quanto degli orientamenti dei consumatori. La rottura del processo stazionario, cui l’economia necessariamente tende quando la tecnologia e le preferenze dei consumatori restano immutate, è determinata dal sopravvenire delle “innovazioni”, a opera di specifiche figure che Schumpeter definisce “imprenditori” o “business leaders”. Lo sviluppo, secondo Schumpeter, essenziale per lo stesso realizzarsi del profitto; nel sistema statico dell’equilibrio generale il profitti tende ad assottigliarsi (tematica caratteristica degli economisti classici: si pensi alla tesi marxiana della “caduta tendenziale del saggio di profitto”) perché i prezzi raggiungono la massima vicinanza ai costi; le innovazioni, o perché abbassano i costi, o perché traggono la domanda verso beni nuovi e migliori, generano, almeno inizialmente, alti tassi di profitto. La logica della concorrenza, portando tutte le aziende a incorporare innovazioni, distribuisce queste ultime in tutto il settore produttivo e ridimensiona radicalmente, nel lungo periodo, il profitto aziendale. Senza continue innovazioni, 13 dunque, il sistema economico non cresce, non si modernizza e non genera profitti sufficienti. Infine, secondo Schumpeter, lo sviluppo capitalistico procede secondo cicli: il concentrarsi delle innovazioni aumenta la concorrenzialità e la capacità produttiva del sistema, nonché l’offerta delle merci; concentra inoltre gran parte del risparmio, sotto forma di credito, nell’attività imprenditoriale; quest’ultima si fa tuttavia, con il generalizzarsi delle innovazioni, sempre meno favorevole agli alti profitti e insieme, pertanto, più pericolosamente esposta, quale debitrice, ai propri creditori e finanziatori; di qui la fase discendente del ciclo, a natura deflativa (diminuzione dei profitti, ravvicinamento dei prezzi ai costi, etc.). Il filone neo-classico, invece, esclude che l’innovazione sia casuale e possa provenire da elementi esterni. L’innovazione viene considerata cioè, come una serie di atti collegati al progresso inventivo e non isolatamente. Oggi l’adozione di una innovazione determina una modificazione che a sua volta spinge a innovare, finché si riproduce, su spinte cumulative sequenziali, una nuova invenzione. Se un settore produttivo è tecnologicamente avanzato, tende a coinvolgere i settori a esso collegati determinando una sorta di complementarietà tecnologica, che consente di diffondere il mutamento dalla singola impresa all’intero settore e da questo agli altri. Innovazione tecnologica significa quindi: · controllo del processo produttivo; · utilizzo di modelli decisionali automatizzati · robotizzazione delle mansioni esecutive Il ruolo dell’automazione E’ intuitivo come l’automazione rappresenti una “rivoluzione” del modo di produzione che investe l’impresa complessivamente, dalla composizione organica del capitale all’organizzazione del lavoro, con conseguenze sull’occupazione e sul sistema sociale. L’automazione è: Ø uno strumento per accrescere la circolazione del capitale e per far fronte all’aumentata complessità dell’ambiente esterno sotto forma di nuovi mercati e nuovi prodotti; Ø una strategia per rendere il processo produttivo più flessibile; Ø una risposta ad alcune esigenze avanzate dai lavoratori per eliminare la nocività, la ripetitività e la ricomposizione di alcune mansioni. 14 La catena di montaggio Simbolo per eccellenza dell’automazione nella storia è senza dubbio la catena di montaggio. Questa trova la sua origine teorica nel taylorismo, la teoria economica dell’organizzazione scientifica del lavoro elaborata all’inizio del Novecento dall’ingegnere statunitense Frederick Taylor. Si fonda sul principio che “la migliore produzione si determina quando a ogni lavoratore è affidato un compito specifico, da svolgere in un determinato tempo e in un determinato modo”. Lo scopo è di razionalizzare il ciclo produttivo, eliminando sforzi inutili e tempi morti. La funzione del manager è appunto quella di definire con precisione tali compiti, tempi e modi. L’applicazione pratica di questi principi aprì la strada alla catena di montaggio che, introdotta nel 1913 da Henry Ford per la fabbricazione dell’automobile Ford modello T, modificò profondamente l’organizzazione del lavoro nelle industrie. Esso diventò un vero e proprio principio di organizzazione sociale: la figura dell’operaio ne risultò intimamente trasformata, dal momento che egli perse ogni discrezionalità sui tempi e i modi del suo lavoro. La figura dell’operaio professionale fu progressivamente sostituita dall’operaio-macchina, mero esecutore di compiti rigorosamente prestabiliti. “La precondizione necessaria per la produzione in serie – ha scritto Henry Ford – è il consumo di massa, latente o sviluppato, e la capacità di assorbire un’ampia produzione. Le due cose procedono insieme.” Ciò significa che la gran parte dei lavoratori doveva essere messa nella condizione di acquistare i beni di consumo posti sul mercato. Non solo i ceti medi dunque, ma anche i ceti popolari dovevano essere in grado di accedere al consumo di massa. Affinché questo avvenisse, Henry Ford applicò una politica di alti salari e soprattutto di incentivi salariali agganciati alla quantità di lavoro svolto. 15 La crisi del ‘29 Oltre alla folle corsa alla speculazione che aveva caratterizzato le banche americane negli anni venti, gli studiosi sono concordi nel ritenere che la causa strutturale del grande crollo fu l’eccesso di capacità produttiva: la sovrapproduzione latente che era cresciuta insieme allo sviluppo durante il ciclo espansivo della seconda metà degli anni venti. L’aspetto saliente che lo aveva determinato era stata la profonda riorganizzazione dei sistemi produttivi, basata essenzialmente sull’innovazione tecnologica e sulla diffusione del taylorismo. Le conseguenze di questi ultimi due fenomeni, strettamente correlati, furono certamente di ridurre la fatica e di incrementare la produttività, ma anche di disintegrare la personalità operaia. L’uso su larga scala di macchine sempre più “intelligenti” e la diffusione del sistema di produzione taylorista, con la scomposizione delle mansioni e la semplificazione del lavoro, portarono alle estreme conseguenze il processo di suddivisione del lavoro iniziato nel Settecento in Inghilterra con la Rivoluzione Industriale. 16 Letteratura Inglese J.Swift, H.G.Wells e H.P.Lovecraft Nella letteratura inglese la fantascienza è strettamente legata al binomio Utopia-Distopia e al genere horror, entrambi caratteristici dell’età contemporanea. Ci sono due differenti teorie sull’origine del termine “utopia”: alcuni critici affermano che esso deriva dal greco “ou + topos”significando quindi una “terra che non esiste”; altri lo collegano invece al greco “eu + topos”, e si riferirebbe così a un mondo migliore del nostro. Il termine apparse comunque in Inghilterra per la prima volta solo nel 1516, quando fu pubblicata l’opera “Utopia” di Thomas More. Platone fu il principale modello per More, che prese dal filosofo greco l’idea di uno stato del benessere basato sul comunismo. Utopia è il primo di una lunga serie di opere simili, come “New Atlantis” (1626) di Bacon o “Pilgrim’s Progress” (1675) di Bunyan. Nel diciottesimo secolo nacque il genio letterario di Jonathan Swift, scrittore irlandese noto soprattutto per le sue satire e per l’opera “I viaggi di Gulliver”, una parodia della travel literature. Quest’opera può essere letta a vari livelli: è un libro di viaggi, una storia allegorica, un saggio satirico, una favola per bambini. “I viaggi di Gulliver” ha infatti l’indubbio merito di essere diretta agli adulti, per il forte contenuto satirico e politico, come ai bambini, per le avventure fantastiche che racconta. Non dimentichiamo, comunque, che l’opera è anche una satira politica, usata da Swift per criticare le istituzioni dell’Inghilterra del diciottesimo secolo. L’abilità di Swift sta infatti nel fare satira tramite l’ironia, uno strumento molto difficile da usare, poiché deve mostrare la differenza fra ciò che una frase sembra dire e ciò che sta effettivamente dicendo. Swift è un vero maestro della satira e dell’ironia, come è dimostrato dalla sua abilità di descrivere le situazioni più orribili e disgustanti nel modo più naturale e semplice. L’arte di Swift fu ripresa dall’inglese H.G.Wells, che unì gli elementi fantastici tipici delle avventure di Swift con descrizioni scientifiche. A differenza di Swift, comunque, Wells non fu un vero e proprio scrittore “utopico”, in quanto le sue novelle “utopiche” sono in realtà trattati socio-politici e i suoi lavori più famosi sono romanzi pseudoscientifici. Il suo interesse per il futuro dell’umanità, tuttavia, lo porta all’idealistico sogno di un utopico Stato Mondiale, governato da una nuova razza di tecnici superintelligenti e altamente qualificati, i cosiddetti Samurai Scientifici (A Modern Utopia, 1905). Nell’ultimo periodo della sua vita il suo grande sogno si trasformò in pessimistica paura per il futuro dell’umanità (Mind at the End of its Tether, 1945), tale che egli 17 potrebbe anche essere compreso tra quegli scrittori che furono poi chiamati “distopici”. Il ventesimo secolo vide infatti un cambiamento nel concetto di “utopia”: spaventati dalla possibile trasformazione degli ideali utopici in spaventose realtà totalitaristiche, alcuni scrittori inglesi introdussero la cosiddetta letteratura distopica, lontana dal descrivere ideali terre di pace e fratellanza. Opere come “1984” e “Animal Farm” di Gorge Orwell dipingono una società in cui l’ottimismo delle precedenti favole fu sostituito da una triste visione del futuro e da una distorta visione del presente. Nonostante il loro contenuto pessimistico, queste opere accrebbero l’apprezzamento della critica: la letteratura utopica e distopica, infatti, è ormai considerata un vero e proprio genere letterario, con caratteristiche proprie, insieme ad altri generi come i generi di spionaggio e horror. A quest’ultimo è strettamente legato il nome di H.P.Lovecraft, scrittore americano nato nel 1890 nel Rhode Island che scrisse un’ottantina di racconti, tre romanzi non lunghi e un gran numero di liriche e saggi, per la quasi totalità nell’ambito della narrativa fantastica, onirica e dell’orrore. La sua vita onirica incredibilmente ricca fu la fonte principale delle sue storie. Filosoficamente era peraltro un razionalista, e non credeva in nulla di soprannaturale, neppure dal punto di vista religioso. E’ un paradosso, perciò, che sia divenuto autore di alcune delle più famose storie del soprannaturale che siano mai state scritte, dando vita addirittura ad una vera e propria mitologia letteraria (quella dei “Miti di Cthulhu”, dal nome di una delle divinità fantastiche da lui inventate), che oggi ha un’infinità di seguaci in tutto il mondo, e persino gruppi di persone che aderiscono ad essa come ad un vero e proprio culto. Ma forse la ragione del suo successo sta proprio nel radicale scetticismo del suo pensiero: non considerando fonti di terrore, nel mondo moderno, esseri come i fantasmi, i dèmoni e i mostri della narrativa gotica tradizionale, spostò le fonti dell’orrore verso l’infinito, negli abissi insondabili del tempo e dello spazio e della mente umana. In tal modo, attuò un vero e proprio rovesciamento dei canoni tradizionali della Horror Story, tanto da essere definito un “Copernico letterario”. Il punto di osservazione di Lovecraft non è più antropocentrico, ma cosmico: nella sua opera ricorrono tematiche come l’impotenza e l’inessenzialità dell’uomo in un universo rigidamente meccanicistico, la ricerca di sogni impossibili, la sospensione delle leggi naturali. 18 English Literature J.Swift, H.G.Wells and H.P.Lovecraft In the English Literature the science-fiction is strictly connected with the binomial Utopia-Dystopia and with the horror genre, both typical of the contemporary age. There are two different theories about the origin of the term “utopia”: some critics say it derives from the Greek “ou + topos” (and so mean a Nowhere Land); others consider it a derivation from the form “eu + topos” (a better place than the present one). The term, however, derives from Sir Thomas More’s Utopia (1516). Plato was the most important model for More, who derived from him the idea of a commonwealth based on communism. Utopia was the first of a long series of other similar books, continuing with Bacon’s New Atlantis (1626) and Bunyan’s Pilgrim’s Progress (1675). The 18th century produced Swift’s Gulliver’s Travels (1726), where the imaginary setting was now combined with satire. Gulliver’s Travels represents a parody of the traditional travel literature. This work can be read at various levels: it’s a travel book, an allegorical story, a satirical essay, a tale for children. This book had indeed the rare merit of appealing both to adults, because of its satirical content, and to children, because of its fantasy and imagination. Let us not forget, however that Gulliver’s Travels is also a political satire, used by Swift in order to satirize 18th century English political, social and legal institutions. Swift’s most powerful instrument is irony, one of the most difficult to use: it requires very great skill, as it’s based on the discrepancy between what the sentences seem to be saying and what they are really saying. Swift is a true master of irony and satire, as he is able to say the most shocking themes in the most natural possible way. Swift’s art influenced the English writer H.G.Wells, who combined the fantastic elements typical of Swift works with scientific descriptions. Wells, however, was not a “pure” utopian writer, since his “utopian” socialist novels border on socio-political treatises and his best-known works are actually pseudoscientific romances. His concern with the future of mankind, nevertheless, led him to dream of a utopian World State, governed by a new “race” of qualified technicians, the Scientific Samurai (A Modern Utopia, 1905). By the end of his life his dream has darkened into pessimism about the prospects of mankind’s future, so that he may also be ranked among the writers of what would later be defined as “dystopias”, or negative utopias. The 20th century, in fact, saw a change in the concept of “utopia”. Frightened by the translation of utopian ideals into totalitarian realities, some English writers wrote anti-utopian, or dystopian, works. Far from describing ideal lands of peace and brotherhood, Orwell’s Animal Farm (1945) and 1984 (1948) depicted societies where the optimism of the previous fables was replaced by a gloomy vision of the future and a warning for the present. 19 Despite their pessimistic contents, however, these books increased the critical appreciation of utopian works. Utopian literature, in fact, is now increasingly considered a literary genre, with laws and features of its own, together with other genres such as the “spy story” or the “horror story”. The “horror story” is strictly connected with the name of H.P.Lovecraft, an American writer born in 1890 in the Rhode Island. He wrote about eighty tales, three long romances and many essays, all wholly belonging to the science, oneiric and horror fiction. His very rich oneiric life was the principal source of inspiration for his stories. Philosophically he was a rationalist and he believed in nothing supernatural, above all from the religious point of view. It’s a paradox, for this reason, that he’s famous for his supernatural stories, in which he created a literary mythology (the “Cthulhu Miths”) that, nowadays, has a great number of followers and people who believe in it as a real religious cult. However the true origin of Lovecraft’s success had be founded in his scepticism: he didn’t consider, as sources of terror, in the contemporary world, beings such as ghosts, demons and monsters characteristics of the traditional gothic literature, and looked for the real horror land in the infinite space, in the abysses of time and space and in those of mankind. In this way he did a real revolution in the traditional Horror Story and Science Fiction tradition, so that he was called “a literary Copernicus”. His literary point of view is no more anthropocentric, but cosmic: in his works there are themes such as the man’s powerlessness and inessentiality in a “mechanicistic” universe, the look for impossible dreams, the suspension of every natural law. 20 Fisica La scienza ha fatto un altro passo avanti verso la frontiera della fantascienza. Spostarsi da un luogo all’altro istantaneamente, smaterializzando e rimaterializzando a piacere il nostro corpo. E a dare ancora più corpo a queste fantasie c’è la serie di fantascienza Star Trek, in cui il teletrasporto appare una pratica quotidiana. Teletrasportare un essere vivente è giudicato per ora impossibile, ma se consideriamo il nostro corpo un semplice insieme di particelle, un sogno del genere diventa solo un traguardo da raggiungere, anche se lontano. Perché il teletrasporto di una singola particella è già avvenuto, grazie all’evoluzione di una ricerca basata sulla teoria dei quanti, una parte della fisica dove anche i fenomeni più incredibili possono verificarsi. Il primo a condurre con successo un teletrasporto, sia pure nell’ambito delle particelle subatomiche, è stato il fisico americano Jeff Kimble, nell’ottobre del 1998. Successivamente, Anton Zeilinger dell’Università di Vienna, ha perfezionato la tecnica teletrasportando istantaneamente le caratteristiche di un fotone (il suo stato di polarizzazione, cioè l’oscillazione dello stesso su un determinato piano) su un altro fotone, senza che le due particelle fossero in contatto. E teletrasportare le caratteristiche di una particella su un’altra equivale a teletrasportare la particella stessa. La scienza che ha reso possibile il teletrasporto, la fisica quantistica, si occupa del mondo delle particelle elementari, e in particolare dei suoi aspetti straordinari, a volte inquietanti. Uno di questi è il non localismo, cioè la possibilità di azioni dirette a distanza. Le più importanti scoperte scientifiche del Ventesimo secolo si basano proprio sulle “bizzarrie” di questa teoria. La radioattività (e quindi la fisica atomica), il laser, i superconduttori, i superfluidi, i semiconduttori, (e cioè la tecnologia elettronica e dei computer) derivano tutti da particolari effetti quantistici. Secondo la teoria quantistica, prima della sperimentazione, cioè prima che un osservatore misuri i valori degli elementi in questione, le particelle si trovano in uno stato indefinito, detto entangled (intrecciato). Gli stati entangled sono un particolare fenomeno che si riscontra quando due o più 21 particelle manifestano proprietà fisiche sovrapposte, intrecciate appunto, come se fossero parte di un unico corpo. Un’azione condotta su una di queste ha una ripercussione immediata anche sull’altra, anche se sono fisicamente separate. Nel mondo “normale”, quello in cui viviamo tutti i giorni, non esiste niente di simile. Ma nell’universo microscopico descritto dalla fisica quantistica, succedono molte cose che hanno dell’incredibile. Per la teoria quantistica, le caratteristiche oggettive di qualsiasi particella o coppia di particelle vengono definite solo nel momento in cui si compie l’atto di osservazione. Il fisico tedesco Werner Heisenberg (1901-1976) stabilì che prima di un qualsiasi esperimento volto a determinare le caratteristiche fisiche (velocità, posizione, energia, etc.) di una particella, questa “vive” soltanto in una dimensione potenziale. E’ l’osservazione che “costringe” la particella a passare dallo “stato potenziale” allo “stato reale”, a mostrarsi al mondo come un elemento che ha velocità, posizione ed energia definite. Prendiamo in esame una coppia di particelle”gemelle” (o particelle “correlate”), per esempio due protoni nati contemporaneamente dalla disgregazione di un atomo. Il buon senso ci direbbe che se le due particelle gemelle sono distanti l’una dall’altra e non c’è alcun contatto tra le due, un eventuale esperimento condotto su uno dei due protoni non dovrebbe avere effetti sull’altro. Era questa la convinzione anche di alcuni fisici come Albert Einstein, che, riguardo al non localismo previsto dalla teoria quantistica, scriveva: “Un aspetto essenziale delle cose della fisica è che a un certo momento esse possono affermare la loro esistenza indipendente le une dalle altre, purchè situate in parti diverse dello spazio. Se non si fa questo tipo di ipotesi, il pensiero fisico, nel senso familiare del termine, diventa impossibile”. Ad Einstein rispose un altro premio Nobel, tra i massimi esponenti della fisica quantistica, Niels Bohr (1885-1962): “Anche se due fotoni correlati si trovassero su due diverse galassie continuerebbero pur sempre a rimanere un’unica identità e l’azione compiuta su uno di essi avrebbe effetti anche sull’altro”. La disputa si trascinò per circa cinquant’anni, finché nel 1982 comparve sulla scena un fisico dell’Università di Parigi, Alain Aspect, che con una serie di esperimenti dimostrò che i fisici quantistici avevano ragione. Gli esperimenti condotti da Aspect prevedevano che una coppia di fotoni correlati (nati dalla disintegrazione di un atomo di calcio) venissero separati e lanciati verso rivelatori lontani, i quali a loro volta dovevano misurare il comportamento dei fotoni dopo che lungo la traiettoria di uno di essi veniva casualmente inserito un “filtro” che ne modificava la direzione. Il risultato dei test dimostrò che, quando uno dei due fotoni deviava in seguito all’interazione col filtro, istantaneamente deviava anche l’altro, benché si trovasse spazialmente separato (per l’esattezza lontano tredici metri: una distanza enorme per particelle di dimensioni subnucleari). Il fatto straordinario non si rivelò tanto la conferma del non localismo, quanto l’evidenza che queste azioni avvenivano contemporaneamente, quasi ci fosse tra le particelle correlate una trasmissione di 22 informazioni istantanea. Fu proprio quest’ultimo aspetto la conseguenza più inquietante, poiché presupponeva una trasmissione di informazioni istantanea, e quindi a velocità infinita, mentre la Teoria della Relatività stabilisce che nulla, neppure un’informazione, può viaggiare a velocità superiore a quella della luce. Per fortuna la relatività rimane salva, in quanto, se anche il teletrasporto avviene a velocità infinita, il suo controllo richiede comunque una comunicazione che non può viaggiare a una velocità superiore a quella della luce. Per ora nessuno è riuscito a teletrasportare più dello stato di polarizzazione di un fotone, particella che peraltro è priva di massa e quindi non può essere considerata materia. Ma il 12 settembre scorso Eugene Polzik, professore di fisica dell’Università danese di Aarhus, ha concluso un esperimento che apre nuovi orizzonti, perché è riuscito a ottenere uno stato entangled di un milione di miliardi di atomi. Fino ad oggi gli scienziati erano in grado di produrre solo coppie, o al massimo “quartetti” di particelle in stato intrecciato. Il gruppo guidato da Polzik, invece, è riuscito a produrre un sistema entangled di un milione di miliardi di atomi. Quando non sono oggetto di alcuna forza esterna, i fotoni intrecciati hanno proprietà fisiche simmetriche o opposte. Per esempio, hanno la stessa polarizzazione, ma hanno spin opposti. Prima di qualsiasi esperimento volto a misurare lo spin di uno dei due fotoni entangled, ciascuna particella ha allo stesso tempo due spin “contrari” (destro e sinistro). Ma nel momento in cui si misura lo spin di una delle due particelle, e si trova che ha spin destro (o sinistro), allora l’altro fotone assumerà istantaneamente e a distanza lo spin sinistro (o destro). L’atto di osservare lo spin di un componente della coppia conferisce realtà oggettiva a distanza allo spin totale della coppia intrecciata. Inoltre, se uno dei fotoni viene deviato nel suo cammino da un ostacolo, anche il secondo cambia direzione (esperimento di Aspect). Sfruttando l’esperienza di Polzik, si potrebbe adattare l’apparecchiatura usata per il teletrasporto dei fotoni per teletrasportare lo spin totale di una nube di atomi. Sarebbe il primo passo per il teletrasporto del futuro: presto anche elementi più complessi potranno spostarsi nello spazio senza viaggiare. 23 Biologia Biotecnologie e Clonazione Con il termine "biotecnologia" si indica l'utilizzazione in modo programmato di sistemi biologici per la produzione di beni e servizi. I sistemi biologici possono essere costituiti da organismi interi,singole cellule (eucariotiche o procariotiche) o loro componenti molecolari (enzimi).. Tuttavia, nonostante tecnologie produttive fossero molto fiorenti durante l'antichità, è stato necessario attendere la seconda metà dell'800 perché Pasteur ponesse final- mente le biotecnologie su rigorose basi razionali e scientifiche. La seconda metà dell'800 è ricca di scoperte e intuizioni basilari per la biotecnologia moderna: Mendel formula le leggi fondamentali della genetica e poi Miescher scopre l’esistenza di acidi nucleici nelle cellule. Nel 1953 Watson e Francis Crick concepiscono un modello di DNA a doppia elica che permette di ipotizzare il meccanismo della duplicazione del materiale genetico, ponendo così le basi molecolari dell'ereditarietà. Nel 1963 Edward L.Tatum, fondatore della genetica biochimica suddivide l'ingegneria genetica in tre categorie principali per modificare gli organismi: · Eugenica (ricombinazione di geni esistenti); · Ingegneria genetica (produzione di nuovi geni per un processo di mutazione diretta); · Ingegneria Eufenica (modificazione o controllo dell' espressione genetica). Alle tecnologie "classiche" si sono affiancate biotecnologie innovative in cui vengono utilizzate tecniche di manipolazione del materiale genetico (ingegneria genetica) con numerose applicazioni in campo scientifico e industriale. Negli anni '60 si sapeva che nei batteri vi erano degli enzimi specificatamente preposti alla riparazione del DNA e che tali enzimi erano anche impiegati nel processo di ricombinazione genetica che consente l'inserimento di materiale genetico virale nel DNA di un batterio. Viene scoperto, infatti, il processo di riparazione per "taglio e rattoppo" di lesioni a carico del DNA. Degli enzimi di restrizione, nucleasi, tagliano la parte di DNA lesionata per azione di raggi ultravioletti, poi l'enzima DNA polimerasi inserisce i nucleotidi complementari che 24 vengono fissati dall'enzima DNA ligasi. E' così che verso la fine degli anni '70, nasce l'ingegneria genetica, che, sfruttando la tecnica del DNA ricombinante, permette di creare nuove molecole di DNA attraverso l'unione di frammenti di DNA provenienti da specie diverse. Solitamente uno dei due frammenti di DNA che viene unito rappresenta il gene che interessa e l'altro un semplice vettore. Questa molecola di DNA ricombinante risultante può essere introdotta in cellule batteriche e quindi fatta riprodurre in migliaia di copie identiche (clonazione genica). Nel 1972 viene ottenuta la prima ricombinazione. Ciò viene ritenuto come l'atto di fondazione dell'ingegneria genetica. Essi ottengono in vitro una molecola ibrida. Una volta individuato il metodo per creare un DNA ricombinante nel 1973 Cohen, Boyer, Helling e Clang costituiscono in vitro un plasmide ricombinante che reinserito nel batterio si dimostra biologicamente funzionante sia che vengono inseriti geni della stessa specie, sia di specie diversa e superiore, come ad esempio i geni umani. Di conseguenza diventa possibile analizzare il DNA di organismi superiori. Sempre in questo periodo vengono intraprese due strade per ottenere l'identificazione dei geni da replicare e il loro isolamento una volta che sono stati identificati e replicati: una tradizionale, cercando di risalire dalle proteine ai geni identificando gli RNA messaggeri per le proteine sintetizzate in modo abbondante, e costruendo, quindi, il relativo DNA (cDNA) con l'enzima trascrittasi inversa, oppure si può procedere perseguendo la strategia della "genetica al contrario", clonando i geni in modo casuale per creare delle banche di cloni da esplorare con particolari tecniche che consentono l'identificazione del gene. La prima strategia viene presto abbandonata, mentre ha grande successo la tecnica del clonaggio. Sempre in questo periodo abbiamo nuove varietà di piante alimentari, manipolate dall'ingegneria genetica, capaci di fabbricare concimi di cui hanno bisogno e di resistere alla siccità e alla malattia. Qualche anno fa ha avuto inizio il progetto Genoma che si è posto un obiettivo ambizioso: prendere due metri di DNA che ognuno di noi porta in ogni sua cellula, strettamente avvolti in 46 cromosomi, srotolarli e "decodificarli". Disseminati lungo la catena si trovano centomila geni umani,tutte le istruzioni che servono per costruire e tenere in vita ognuno di noi. Non solo: c'è scritto anche a quali malattie siamo predisposti,quanto a lungo possiamo vivere,che tipo di personalità abbiamo. Sulla catena c'è perfino la storia della nostra specie. Gli scienziati studiano i geni umani per ripararli in caso di malfunzionamento in mo do da eliminare le malattie ereditarie. La totale conoscenza del DNA equivale a capire come funziona l'organismo nei piccoli dettagli,cioè ad entrare nei meccanismi della vita e della morte e chissà...magari a cambiarli..... 25 L'Eugenetica L'eugenetica è una disciplina che si propone di ottenere un miglioramento della specie umana attraverso le generazioni, in modo analogo a quanto si fa per le piante e gli animali in allevamento. Base di ogni tecnica di eugenetica è la distinzione dei caratteri ereditari in caratteri favorevoli o eugenici e sfavorevoli o disgenici. Il fine dell'eugenetica è di favorire la diffusione dei primi e di impedire quella dei secondi. I metodi di eugenetica positiva consisterebbero nel favorire direttamente la diffusione dei caratteri migliori. Ma due gravi difficoltà limitano le possibilità di applicazioni di tale tecnica:in primo luogo non è facile trovare l'accordo, in sede pratica, su quali siano da considerarsi i caratteri più favorevoli; è facile, invece, che, in base a idee preconcette, si affermino superiorità di tipi o di razze o di caste con conseguenze, talvolta, assai gravi, come dimostrano molti avvenimenti storici antichi e recenti. In secondo luogo, quand'anche si fosse trovato l'accordo, non è pensabile che si possa arrivare a restringere così gravemente la libertà individuale, sino alla coercizione per quanto riguarda la scelta del coniuge. Diverso è il discorso per le pratiche di eugenetica negativa, intese a limitare la trasmissione di gravi tare ereditarie al fine di ridurne la frequenza nelle generazioni successive. E' ovvio però che interventi di eugenetica negativa possono essere presi in considerazione solo quando li giustificano i dati della genetica umana: a questo proposito va osservato che nell'ambito stesso della patologia mentale che è quello che ha maggiormente attirato l'attenzione dell' eugenetica , l'intervento di una trasmissione ereditaria, nelle singole forme non rappresenta la regola e, quando sussiste, obbedisce a leggi ancora non ben conosciute. La Clonazione Il momento più affascinante della vita degli organismi di ogni ordine e grado, è la riproduzione. Gli unicellulari si dividono in due cellule figlie identiche, mentre negli organismi superiore la riproduzione è per lo più sessuale: prevede cioè l'unione di gameti (cellula uovo e spermatozoo) in una sola cellula (lo zigote), che suddividendosi diventerà l'embrione e poi il nuovo individuo. Si possono clonare animali utilizzando due diverse tecniche: Splitting: i biotecnologi suddividono un embrione molto precoce (che non abbia più di otto cellule) in due, quattro o otto cellule e ottengono da queste altrettanti embrioni geneticamente uguali fra loro, un pò come succede quando si formano naturalmente dei gemelli: lo zigote si divide in due nell'utero della madre e nascono due esseri identici, o quasi. In genere lo fanno alcuni allevatori per 26 ottenere più esemplari di bestiame pregiato: i singoli embrioni, dopo essere stati suddivisi, vengono poi inseriti nell'utero di madri che porteranno a termine la gravidanza. Alcuni ricercatori preferiscono chiamare la clonazione applicata agli animali da allevamento riproduzione embrionale, ma in realtà è una vera e propria clonazione, se rispettiamo la definizione data, vale a dire l'ottenimento di individui identici, a partire da un unico progenitore (che in questo caso è l'embrione). Clonazione mediante trapianto nucleare: In natura l'unico caso di trapianto di nucleo avviene al momento della fecondazione; nel trapianto nucleare, per clonare embrioni, un nucleo, più precisamente una singola cellula o blastomero ottenuto da un embrione allo stato di morula, viene trasferito su un oocita dal quale sono stati rimossi i cromosomi. Il nucleo appena trasferito si riprogramma, cancellando cioè tutte le precedenti informazioni e diventando così totipotente, ovvero riprendere a svilupparsi dalle fasi iniziali. Come donatori di nuclei vengono normalmente impiegati embrioni allo stato di morula composti da 16-32 blastomeri. Tutti i nuclei presenti nei blastomeri sono geneticamente identici per cui verranno artificialmente ricostituiti 16-32 zigoti con la stessa informazione genetica, ottenendo cosi un clone. Poiché le dimensioni dell'oocita e quelle dell'embrione sono al limite della risoluzione dell'occhio umano, tutte le manipolazioni vengono effettuate con l'ausilio di un microscopio. La prima fase consiste nella rimozione del rivestimento glicoproteico dell'embrione o Zona Pellucida: quest'operazione viene generalmente effettuata con un sottile ago di vetro dopo aver immobilizzato l'embrione applicando una lieve pressione negativa alla pipetta "holding". La successiva dissociazione dei blastomeri viene realizzata esponendo l'embrione a soluzioni prive di ioni calcio che attenuano l'adesività cellulare. La seconda fase consiste nell'enucleazione degli oociti: esse possono essere prodotte in vivo da madri superovulate o da oociti maturati in vitro. 27 Storia dell’arte Cinematografia e fantascienza Il cinema si può considerare un nuovo mezzo espressivo, un’arte “nuova” resa possibile da un mezzo meccanico che ha fatto proprie altre forme espressive, diventando la più rappresentativa del nostro tempo. Il cinema si basa sulla possibilità di riprodurre immagini fotografiche in rapida successione, consentendo così la resa di effetti di moto, continuità e profondità, capaci di rendere la vita vissuta meglio di ogni altra rappresentazione. Le caratteristiche che rendono questo mezzo espressivo più specificamente artistico sono le tecniche del linguaggio filmico: la proiezione dei corpi in superficie, la limitazione del quadro, le deformazioni prospettiche derivanti dalla bidimensionalità e il veloce ingrandimento degli oggetti che sostituisce la vera e propria prospettiva. Due sono comunque gli elementi che definiscono e precisano il cinema come arte autonoma: · L’inquadratura, cioè quella particolare composizione dell’immagine filmica che vale adarle personalità e pregnanza; · Il montaggio, ossia l’insieme coordinato e ritmico delle diverse inquadrature. L’elemento che comunque fa rientrare il cinema nel campo dell’arte è senza dubbio l’inquadratura. Partiamo, per comodità, da quella che possiamo chiamare un’analisi “statica” dell’immagine: “tagliamo” cioè “a pezzettini” il film, indicando l’esatte definizione delle singole inquadrature (importante considerare che l’inquadratura non coincide con il fotogramma: per ogni secondo di proiezione, di fotogrammi ne occorrono 24; le inquadrature possono avere durate varie, da alcune frazioni di secondo fino anche a diversi minuti). Se lo schermo ci pone di fronte a un’immagine particolarmente vasta, “aperta”, allora parliamo di Campo totale (sigla C.T.), o anche (le espressioni sono equivalenti) di Campo lungo (C.L.). Qualsiasi regista, però, sente ovviamente il bisogno di “stringere” più da vicino i suoi soggetti, a partire dai personaggi. Restringendo la “porzione di realtà” inquadrata, abbiamo in successione il Campo medio (C.M.), quando vediamo una figura umana ben visibile, anche se immersa nell’ambiente circostante; la Figura intera (F.I.), allorché il personaggio, dalla testa ai piedi, è al centro dello schermo; il Piano americano (P.A.), con la figura umana ripresa, all’incirca, dalle ginocchia in su; il Primo piano (P.P.), dal busto in su; il Primissimo piano (P.P.P.), ovvero soltanto il volto; il Dettaglio (DETT.) o Particolare (PART.), che ci offre la vista ravvicinatissima di una parte della figura umana (occhi, orecchie, mani) o di un oggetto. 28 E’ inoltre importante sottolineare gli “angoli di ripresa”, che possono essere “frontali”, sia in senso orizzontale che verticale, oppure “angolati”, da destra a sinistra, o dall’alto al basso. L’autore, quando sceglie una determinata angolazione, non lo fa mai a caso. Un’ultima notazione, importante per leggere al meglio l’inquadratura, riguarda la “messa a fuoco”. Si indica così la “quantità” di realtà che viene vista in modo ottimale, senza fastidiosi effetti di sdoppiamento. La “messa a fuoco” dipende, insieme, dal tipo di obiettivo montato sulla macchina da presa, dall’apertura del diaframma, dalla sensibilità della pellicola e dall’illuminazione del set. Quando tutta la scena ripresa è a fuoco si parla di “profondità di campo”. Per il montaggio possiamo individuare diversi tipi cime l’antitesi, il parallelismo, l’analogia, il sincronismo, la dissolvenza. Per alcuni critici il montaggio è tanto più efficace quanto meno è percepibile da un normale spettatore; alcuni autori, invece, affidano il proprio stile all’espressività del montaggio. Cinema e letteratura Il cinema ha attinto a piene mani dalla letteratura: idee, soggetti, modi espressivi delle sceneggiature. Tuttavia il cinema ha esercitato a sua volta una significativa influenza sulla letteratura, soprattutto sul romanzo moderno. Leggendo alcuni testi di narrativa contemporanea abbiamo la sensazione di aver sotto gli occhi un soggetto che chiede solo di diventare sceneggiatura: è quello che avviene spesso per film di grande successo, soprattutto nel campo della fantascienza. E’ il caso di romanzi come “Super-Toys Last All Summer Long” di Brian Aldiss, “A Space Odissey” (1968) di Arthur C. Clarke, “Do Androids Dream of Electric Sheep?” (1968) di Philip K.Dick, che hanno inspirato, rispettivamente, i capolavori cinematografici di A.I Artificial Intelligence, 2001: Odissea nello Spazio e Blade Runner. · Blade Runner - Blade Runner è ambientato nella Los Angeles del 2019, dove la Tyrell Corporation ha sviluppato nuove tecnologie che consentono di fabbricare "Replicanti", cioè organismi viventi uguali in tutto agli essere umani, ma con una forza superiore e privi di sentimenti, anche se i progettisti stimarono che dopo qualche anno avrebbero sviluppato sentimenti propri. I Replicanti venivano usati nelle colonizzazioni di altri pianeti e nelle esplorazioni pericolose. Rick Deckard (Harrison Ford), expoliziotto, ex-cacciatore di replicanti, ex-killer, viene costretto, dal capo della polizia Bryant, a riprendere il suo vecchio lavoro di cacciatore di replicanti. Gli viene assegnato l'incarico di eliminare quattro replicanti fuggiti dalla schiavitù delle colonie e venuti sulla Terra. Prima di 29 iniziare il lavoro Deckard si reca alla Tyrell Corporation e qui conosce Rachel, una ragazza replicante frutto di un esperimento, della quale poi si innamorerà. Dopo alcune indagini, riesce a scoprire il primo dei quattro replicanti: Zhora. Scatta un accanito inseguimento nelle vie della metropoli nel quale Deckard riesce ad eliminarla ma viene attaccato da un secondo: Leon. Quando Deckard è sul punto di morire interviene Rachel, che sparando al replicante, gli salva la vita. Ne rimangono due: Pris e Roy, il più evoluto di tutti, il leader. Il confronto con essi sarà spettacolare, con un finale assolutamente da non perdere. · 2001:Odissea nello spazio - Clarke scrisse la sceneggiatura del celebre film di Stanley Kubrick, sulla base di un proprio racconto, quindi ne trasse questa novelization (riduzione a romanzo): film e romanzo sono perciò solo due diversi mezzi espressivi per la stessa storia. Come nel romanzo di Clarke i dialoghi sono ridotti al minimo, così nel suo film Kubrick riproduce il medesimo effetto narrando la storia dall’esterno, in modo quasi neutro. Il primo tema principale del film ruota intorno al principio di evoluzione, che Clarke portò alle estreme conseguenze. In secondo luogo 2001 parla dell’entità meccanica costruita dall’uomo per simulare non solo la memoria ma anche la coscienza: un’entità che poi diventa davvero cosciente e incontra tutti i problemi connessi con questo stato. Quando l’unico sopravvissuto della Discovery toglie i contatti opera perciò una sorta di lobotomia - al computer HAL, questo torna alla propria infanzia intonando una canzoncina per bambini. solitudine, che in qualche modo Il terzo tema è quello dell’esploratore nella sua rimanda all’Odissea. Tra i molti significati allegorici di 2001 emerge il monolito, un simbolo molto potente. Quando la missione dello scienziato Floyd viene chiamata sulla Luna per esaminare il monolito ritrovato nel cratere Tycho, uno degli scienziati che lo accompagnano afferma che si tratta della prima prova dell’esistenza di un’intelligenza extraterrestre. E così “nel monolito si può leggere indifferentemente la Radice dell’Essere, Dio, il Numero, la Coscienza, la Tavola della Legge, il Primo mattone dell’Universo” (Giovanni Grazzini). 30 · A.I. Artificial Intelligence - A.I. rappresenta uno stano e straordinario punto di incontro tra gli stili di due film i cui diversi punti di vista sono convogliati in un unico “impasto” che produce risultati affascinanti. Questa favola di fantascienza vede infatti incontrarsi la storia di Pinocchio (1940) e le visioni distopiche sulla rovina dell’umanità che animano alcuni film futuristici come Blade Runner. In un futuro in cui l’umanità ha subito immani cataclismi causati dallo scioglimento della calotta polare, la tecnologia ha compiuto passi da gigante. Si è ormai in grado di riprodurre esseri simili in tutto agli umani tranne che nel provare amore. David appartiene all'ultimissima generazione di robot: può anche amare. Viene affidato a una coppia il cui figlio, affetto da un male apparentemente incurabile, è stato ibernato in attesa di una cura. Vinte le resistenze iniziali David riesce a farsi amare da Monica, la sua “mamma”. Ma la guarigione del figlio naturale rimette tutto in discussione. David deve essere abbandonato in un bosco per liberarsene e, al contempo, salvarlo dalla distruzione. 31 Indice 1 Introduzione 3 Letteratura latina: La prosa scientifica 6 Letteratura greca: Il romanzo e la fantascienza 8 Letteratura italiana: Italo Calvino 10 Filosofia: L’intelligenza artificiale (IA) 11 Storia ed Economia: Il primo dopoguerra: l’innovazione tecnologica e la robotizzazione 17 Letteratura inglese: J.Swift, H.G.Wells e H.P.Lovecraft 21 Fisica: Teletrasporto: la realtà 24 Biologia: Biotecnologie e clonazione 28 Storia dell’arte: cinematografia e fantascienza 32 Indice Realizzato da Andrea Greco VAsp., a.s.2001/2002 32