Indice - ISIS "GIULIO NATTA"
Transcript
Indice - ISIS "GIULIO NATTA"
Indice • Premessa: Come funziona davvero la scienza? (Filosofia) 2 • Introduzione 7 • Opera 1: H. G. Wells, The Time Machine (Inglese) 9 • Teoria della relatività (Fisica) 11 • Appendice matematica: energia cinetica relativistica, derivazione (Matematica) 16 • Evoluzione tramite selezione naturale (Biologia) 17 • Opera 2: P. K. Dick, Do Androids Dream of Electric Sheep? (Inglese) 22 • Artificial Intelligence e reti neurali (Informatica) 24 • Bibliografia, sitografia e filmografia 29 1 Prologo: Come funziona davvero la scienza? Popper non è un filosofo, è un pedante (P. K. Feyerabend, Dialogo sul metodo) L'epistemologia, ovvero l’analisi del metodo scientifico, è stato uno dei rami più fecondi nel corso della storia della filosofia, a partire da Galileo e Bacone, anche se lo stesso Aristotele può essere considerato un precursore. Un ulteriore e crescente interesse si ha nel corso del XX secolo, a causa della rivoluzione scientifica operata dalla teoria della relatività e dalla meccanica quantistica che dimostrarono che la meccanica newtoniana non era la descrizione definitiva della realtà, e a causa della scoperta delle geometrie non euclidee che mise in discussione le conoscenze matematiche sviluppate fino a quel momento. Il filosofo novecentesco che più di tutti ha influenzato e continua a influenzare la riflessione sulla scienza è il filosofo austriaco Popper. Popper tentando di definire ciò che caratterizza una teoria scientifica, distinguendola dalla metafisica e dalle pseudoscienze, giunse a porre il principio di falsificabilità, alla base di tutta la sua teoria epistemologica. Una teoria per essere considerata scientifica deve poter essere falsificata. Le teorie che, secondo Popper, sono da considerarsi vere sono quelle non ancora falsificate. In tal modo non potremo mai essere certi della sua verità, ma saremo certi della sua falsità nel caso di un osservazione contraria. All'epoca questo concetto rivoluzionò l'epistemologia. Infatti, fino ad allora il principio dominante era quello di verificabilità teorizzato dai neopositivisti, il quale afferma che una teoria deve permettere esperimenti che ne dimostrino la veridicità. Questo criterio si basa sull'induzione quale metodo per ottenere la verità scientifica, ma solleva un grave problema: anche possedendo un numero enorme di casi che confermano la teoria, non potremo mai essere sicuri della sua correttezza, in quanto non sappiamo con certezza se non esistano casi che la contraddicano. Questo è noto come problema dell'induzione e fu sollevato per la prima volta da Hume. Al contrario basta una sola prova negativa, nell'ottica falsificazionista, per eliminare una teoria1. Il principio di falsificabilità ha influenzato non solo molti filosofi successivi, ma anche molti scienziati che credettero di vedere nell'analisi popperiana la spiegazione del loro lavoro. Popper inoltre fu il primo a far notare che i fatti puri non esistono: i fatti sono sempre intrisi di teorie. Ad esempio, si consideri l'osservazione che non percepiamo il moto della terra intorno al Sole. Per un astronomo medievale questa era un’ulteriore prova a conferma della veridicità del modello tolemaico. Il fatto era intriso dalla teoria tolemaica. Galileo Galilei però insistette sul fatto che è possibile percepire solo un moto relativo a noi stessi. Riuscendo a imporre questa idea egli modificò l'interpretazione dell'osservazione: noi non percepiamo il moto della terra intorno al sole perché siamo in moto con la Terra, eliminando una delle maggiori obiezioni al modello copernicano. Si noti come l'interpretazione imposta da Galileo non fosse basata su osservazioni, ma 1 Un esempio spesso portato per mostrare il problema dell'induzione consiste nell'idea che tutti i cigni siano bianchi, convinzione basata sull'osservazione dei cigni europei. Eppure con l'arrivo di Cook in Australia si è scoperta l'esistenza di cigni neri: la teoria induttivista sul colore dei cigni è stata smentita dall'osservazione di casi in contraddizione. 2 fosse necessario per supportare la teoria copernicana. Torneremo su questo più avanti. Per quanto il principio di falsificazione sembri corretto, esso non rispecchia il reale funzionamento della scienza. La maggioranza degli scienziati, infatti, ha un comportamento conservatore: non si abbandona una teoria che fino a un certo punto ha dato buoni frutti solo perché dei fatti non coincidono con le previsioni. Anzi, uno scienziato tende a non considerare e a marginalizzare questi fatti in contrapposizione. Thomas Kuhn, riconoscendo la natura conservatrice dell'opera scientifica, sviluppa la propria teoria epistemologica delle rivoluzioni scientifiche. Egli teorizza che la scienza attraversi fasi alternate di scienza normale e scienza rivoluzionaria. Una disciplina, quando nasce, è dominata dalla lotta tra gruppi di studiosi rivali, ognuno dei quali tenta di far diventare la propria teoria quella dominante, che Kuhn chiama paradigma. Nel momento in cui una teoria riesce a imporsi come paradigma, la disciplina entra nella sua prima fase di scienza normale. Gli scienziati ora hanno un paradigma attraverso cui interpretare e spiegare i fenomeni. Ovviamente non tutti i fenomeni sono riconducibili al paradigma, perché non è una teoria completa della realtà. Attraverso l'osservazione si accumulano fatti in contrapposizione al paradigma, ma durante la fase di scienza normale gli scienziati si occupano di riconoscere e catalogare questi fenomeni, applicando in modo sempre più stringente il paradigma in modo da considerare il campo di applicazione. Alla fine, i fatti in contrapposizione saranno così numerosi oppure talmente importanti da determinare la crisi del paradigma: si entra allora nella fase di scienza rivoluzionaria. Questa è molto simile alla fase pre – paradigmatica, in cui diverse teorie si combattono per ottenere lo status di paradigma. Per Kuhn però una teoria non viene accettata per particolari meriti riguardo alla spiegazione dei fenomeni, ma per motivi fideistici. Infatti, le teorie rivali sono differenti anche nelle premesse di base, di conseguenza sono differenti anche nell'interpretazione delle osservazioni, quindi, secondo Kuhn, le teorie sono incommensurabili, ovvero non confrontabili. Ciò che permette l'imposizione della teoria come paradigma è la forza di persuasione degli scienziati. Imre Lakatos rigetta l'idea di un avanzamento fideistico e ipotizza l'esistenza di programmi di ricerca. Ciò che chiamiamo teorie, per Lakatos sono in realtà gruppi di teorie leggermente differenti che condividono un nucleo comune di ipotesi che costituiscono le basi della teoria. Questi gruppi sono chiamati programmi di ricerca. Gli scienziati sono conservatori nei confronti del nucleo di ipotesi, difendendolo dalle falsificazioni con ipotesi ausiliarie. Popper rigettava queste “ipotesi ad hoc”, ma Lakatos mostra come esse siano fondamentali nello sviluppo della scienza. A partire da questo egli distingue programmi di ricerca progressivi e degenerativi: i primi sono quelli che scoprono nuovi fatti e progrediscono nello sviluppo, i secondi, invece, per proteggere il nucleo, devono continuare ad accumulare ipotesi ad hoc senza spiegare nulla di nuovo. Quando si lavora con un programma di ricerca progressivo, gli scienziati lo proteggono e lo “aggiornano” rispetto alle anomalie osservate modificando o aggiungendo ipotesi ausiliarie, ma quando il programma diventa degenerativo si preferisce abbandonarlo in favore di altri programmi, modificando il nucleo di ipotesi stesso. Questo corrisponde per Lakatos alle rivoluzioni scientifiche di Kuhn. Tra gli epistemologi postmoderni, Lakatos è ancora un fautore dell'esistenza di un metodo 3 scientifico. A opporsi a ciò, Paul K. Feyerabend nega non solo che un metodo scientifico unico e condiviso esista, ma soprattutto che un metodo simile sia utile allo sviluppo scientifico. Feyerabend è un sostenitore del cosiddetto anarchismo metodologico, anche se lui stesso afferma che Lakatos è un “anarchista camuffato” in quanto non fornisce alcuna direttiva agli scienziati su come comportarsi riguardo alle teorie. Per Feyerabend la scienza non è un'attività razionale pura. Essa dipende, infatti, da componenti storiche, culturali, sociali e persino ideologiche. Ciò che guida il cammino del sapere umano sono interessi e fini pratici, non astrazioni teoriche. Siccome la scienza è un'attività che non può essere estratta dal proprio contesto storico, essa muta anche dal punto di vista metodologico. Mentre l'epistemologia popperiana dà un'immagine astratta di una scienza che funzione sempre allo stesso modo, il filosofo postmoderno sottolinea la mutevolezza dei principi, dei metodi, ma anche degli obiettivi e delle domande della scienza2. Per questo Feyerabend compie anche analisi della storia della scienza, in particolare analizzando il “caso Galileo”, trattato nella sua opera magna Contro il metodo. Galileo Galilei, per Feyerabend, non segue per nulla il metodo scientifico ipotizzato da popperiani e neopositivisti. Le osservazioni empiriche al telescopio non sarebbero state scientificamente accettabili in assenza di una corretta teoria dell'ottica che garantisse che le osservazioni rispecchiassero correttamente la realtà. Lo scienziato, fidandosi del telescopio, assumeva molte ipotesi ad hoc riguardo allo strumento, ipotesi implicite nel suo lavoro. Non ci si dimentichi inoltre che, egli rifaceva le proprie lenti più volte fino a che non riusciva a compiere le osservazioni. I filosofi aristotelici avevano perfettamente ragione a rifiutarsi di guardare nel telescopio: nulla garantiva che le immagini osservate non fossero effetti ottici prodotti dallo strumento. Inoltre Galilei, come ho già mostrato in precedenza, cambia i concetti con cui si interpretavano i fenomeni meccanici, sostituendo il concetto di moto con quello di moto locale, relativo all'osservatore. Analizzando gli scritti dello scienziato si può vedere come questo sia stato un lavoro di retorica: si tentava di convincere il lettore attraverso artifici dialettici e argomenti circolari, non con prove scientifiche, che infatti erano impossibili da produrre. Feyerabend arriva a dire che erano più aderenti al metodo scientifico i filosofi che sostenevano le posizioni aristotelico-tolemaiche. Si tenga presente che, con la sua analisi, il filosofo postmoderno non voleva screditare il lavoro di Galileo, al contrario voleva dimostrare come, se lo scienziato non avesse trasgredito alle regole epistemologiche, non sarebbe giunto alle proprie dimostrazioni. Cosa è meglio fare in tal caso? Rigettare le scoperte galileiane come non scientificamente valide o accettare che le stringenti regole epistemologiche possano essere aggirate? Il filosofo arriva a teorizzare come fondamentali in scienza il principio di tenacia e quello di proliferazione. Il principio di tenacia è già presente in Kuhn, ma riferito esclusivamente ai periodi di scienza normale. Esso, in contrapposizione a Popper, richiede che una teoria sia conservata nonostante l'esistenza di fenomeni in contrapposizione ad essa. Senza di esso saremmo costretti ad abbandonare una teoria prima ancora che dia frutti, non 2 La fisica aristotelica tentava di rispondere alla domanda “Perché avvengono i fenomeni?”. Uno dei cambiamenti fondamentali operati dalla cosiddetta “rivoluzione scientifica” è stato modificare la domanda in “Come avvengono i fenomeni?”. Per molti è stato proprio questo cambiamento di obiettivo a far nascere la scienza moderna, infatti, la fisica aristotelica, pur essendo basata sull'osservazione non è generalmente ritenuta scientifica in quanto dava spiegazioni metafisiche sul motivo dei fenomeni. 4 necessariamente nel campo in cui era stata inizialmente prodotta, ma anche riguardo ad altri campi del sapere. Se la abbandonassimo, perderemmo ciò che di buono ha da offrirci, fosse anche il semplice sviluppo di nuovi metodi matematici da sfruttare in teorie diverse. Si consideri inoltre che nessuna teoria appena sviluppata è in grado, secondo Feyerabend, di spiegare ogni fenomeno nel suo campo di applicazione. Ogni teoria andrebbe quindi abbandonata subito3. Il principio di proliferazione afferma che la scienza non può identificarsi con un'unica teoria e un unico metodo, al contrario è proprio attraverso la dialettica tra teorie differenti che il sapere progredisce. Di conseguenza, pur se una teoria fosse in grado di spiegare ottimamente le osservazioni, è bene che vi siano scienziati non conservatori che creino teorie alternative, perché la scienza progredirebbe attraverso questo confronto. Radicalizzando le proprie posizioni, l'epistemologo arriva ad affermare che la scienza non solo non può non trasgredire le regole del metodo, ma che addirittura trae beneficio a farlo. Leggiamo infatti: “Ci sono circostanze nelle quali è consigliato introdurre, elaborare e difendere ipotesi ad hoc, o ipotesi il cui contenuto sia minore rispetto a quello delle ipotesi alternative esistenti e adeguate empiricamente, oppure ancora ipotesi autocontradditorie, ecc. "(P. K. Feyerabend, Contro il metodo). Sulla base di tutto ciò egli giunge alla formulazione della teoria dell'anarchismo metodologico. Essa si basa sulla negazione di una qualsiasi utilità di un metodo stringente e sull'idea che in scienza “anything goes”, “qualsiasi cosa va bene”, ovvero che anche le più disparate e trasgressive “astuzie della ragione” sono utili per l'avanzamento della scienza. Chiaramente questa teoria lascia sconcertati chi possiede posizioni strettamente razionaliste, in quanto tutto ciò indica come la scienza sia anch'essa un'attività irrazionale. Feyerabend sostiene, inoltre, la tesi della varianza del significato. Egli afferma che un termine utilizzato in una teoria è definito strettamente da come esso è utilizzato e dai presupposti della teoria stessa. Come tale un termine dipende dalla teoria e lo stesso termine utilizzato in più teorie differenti può acquisire un significato differente4. In questo modo si va a riprendere il concetto kuhniano dell'incommensurabilità delle teorie. Come lo stesso Kuhn affermava, teorie differenti sono incommensurabili quindi, nella scelta tra varie teorie, intervengono fattori irrazionali e non un confronto scientificamente valido. Ciò mette in crisi anche il concetto di progresso come definito da Popper e dai neopositivisti. Popper definiva il progresso come un continuo accumulo di conoscenze. Egli si basava sull'idea che una teoria potesse comprendere la teoria percedente come caso particolare. Feyerabend fa notare che, se le teorie sono incommensurabili, non è possibile affermare che una includa l'altra, di conseguenza l'idea di progresso così intesa non è valida. Feyerabend dà una definizione di progresso completamente differente a quella di Popper. Il progresso è inteso come emancipazione etico-politica dell'umanità. Sulla base delle sue idee epistemologiche afferma che non vi è motivo per cui la sienza sia preferita 3 In realtà anche Popper si rendeva conto di ciò affermando di conseguenza che il principio di falsificazione andrebbe applicato solo dopo che la teoria avesse iniziato a svilupparsi. 4 Un esempio molto chiaro è l'uso del termine massa. In meccanica classica essa è una proprietà costante di un corpo, ma in meccanica relativistica la massa può variare a seconda della velocità (vedi cap. Teoria della relatività). Il termine massa ha significati completamente differenti nelle due teorie. 5 a livello politico rispetto ad altre tradizioni culturali, anche più antiche. Perché, riprendendo un suo esempio, uno stato deve sostenere la medicina scientifica e non quelle alternative? Arriva quindi a definire il relativismo democratico. I nostri Stati, secondo il filosofo, influenzano troppo i bambini tramite l'educazione, imponendo loro una cultura scientifica, ma anche principi morali e di convivenza civile. In tal modo una persona non crescerebbe libera, ma condizionata da fattori imposti tramite l'educazione. Per Feyerabend l'educazione deve essere invece il più libera possibile, senza alcuna imposizione di schemi mentali; addirittura non si dovrebbe neppure educare a seguire una morale precostituita ma ognuno dovrebbe sviluppare autonomamente una propria morale. Tuttavia, per evitare che questa “società libera” cada nell'anarchia, le persone dovrebbero essere controllate tramite un fortissimo corpo di polizia. Al contrario di altri filosofi, Feyerabend aveva il pregio di non prendersi troppo sul serio, come lui stesso afferma in Dialogo sul metodo. Di conseguenza è sempre difficile stabilire cosa nei suoi scritti è provocazione e cosa è proposto seriamente. Nonostante le sue radicalizzazioni e i suoi attacchi al sapere scientifico non siano molto condivisibili, la principale lezione di questo epistemologo fuori dagli schemi è più che mai valida: l'idea di poter imporre un unico metodo, valido per tutti e in ogni epoca storica, da seguire in modo stringente per fare buona scienza è sbagliata e controproducente. Inoltre, ci ha mostrato che la scienza è un'attività umana e, come tale, anch'essa in fondo è un'attività irrazionale. Ciò non toglie che essa resta il principale strumento a nostra disposizione per comprendere la realtà. 6 Introduzione Una cultura prevalentemente umanistica e a tratti crociana ci presenta la scienza come un'attività che, essendo totalmente razionale, non riguarda cose come i sentimenti e l'immaginazione e quindi è inumana. Ciò è falso. La scienza è di fatto un'attività specificatamente umana e come tale non è priva né di sentimenti né tantomeno di immaginazione. Inoltre, come ho descritto nel prologo, la scienza non è completamente razionale, ma possiede numerose componenti irrazionali. La scienza, oltre a essere l'attività umana che forse più di tutte influenza le altre, è essa stessa influenzata dalle più disparate discipline, anche da quelle da cui non ci si aspetterebbe. In questa breve trattazione esploreremo e analizzeremo una di tali reciproche influenze: quella con la letteratura e cinema di genere fantascientifico. Un lettore occasionale può immaginare che la fantascienza abbia poco a che vedere con la vera scienza, non molto di più di quanto opere fantastoriche abbiano a che vedere con la storia vera e propria; per certe opere di basso livello, ma non solo, è certamente così. Le opere di fantascienza hard5 al contrario attingono a piene mani al contesto scientifico del periodo in cui sono state scritte e sebbene non si permettano di violare fatti accertati, analizzano a fondo quel confine tra il noto e lo sconosciuto ricavando da esso tecnologie al limite dell'immaginazione, ma comunque scientificamente plausibili. L'influenza che la scienza ha sulla letteratura è ben visibile; ma possiamo per converso trovare un'influenza della letteratura sulla scienza? In molte opere di fantascienza sono proposte tecnologie che sembrano assurde per il tempo in cui sono state immaginate, eppure pochi anni dopo diventano una realtà. Così come le biotecnologie che anni fa erano solo nell'immaginazione di scrittori oggi sono parte della nostra vita. Così nel '45 su Hiroshima viene sganciata “Little Boy” realizzando le inquietanti previsioni di H. G. Wells nel suo “Il mondo liberato”. Anche sull'ideazione di teorie e non solo di tecnologie possiamo vedere come questo genere letterario abbia precorso i tempi. Un esempio su tutti, come vedremo anche nella successiva trattazione, l'idea, sempre di Wells, che il tempo sia una 4 a dimensione, che troverà validità scientifica nella teoria della relatività. Questo è particolarmente interessante. Certamente la semplice constatazione che un fatto precede un altro cronologicamente non è garanzia che tra i due si intrattenga un rapporto causale, eppure viene spontaneo chiedersi se esista almeno un'influenza reciproca. Rispondere che si tratta della normale tendenza dell'uomo a vedere correlazioni anche dove esse non sono presenti è plausibile ma non fuga tutti i dubbi. È quindi effettivamente possibile che le opere di genere abbiano avuto un ruolo nel successivo corso della scienza? La scienza, nell'ottica degli epistmologi post-moderni è, come abbiamo visto, simile al lavoro di un artigiano. Lo scienziato si lascia influenzare da ciò che lo circonda nella stessa formazione delle proprie ipotesi. Probabilmente non potremo mai sapere se effettivamente uno scienziato fosse stato al corrente delle idee espresse in opere di genere fantascientifico, soprattutto per quanto riguarda scienziati e teorie ormai vecchie di un secolo, come la teoria della relatività, quindi l'ipotesi di una possibile influenza non potrà mai essere confermata. Resta comunque un'idea affasicinante e, se anche non fosse 5 Esiste una classificazione delle opere di genere fantascientifico, basata sulla loro aderenza a fatti scientifici comprovati e sull'importanza che gli avanzamenti futuri in campo tecnico-scientifico hanno nel corso della trama. Maggiore è l'importanza di queste immaginarie conquiste future, più l'opera è “hard”. Al contrario, se alcune conoscenze scientifiche vengono ignorate, senza un adeguata spiegazione, l'opera è detta “soft”. La classificazione è graduale e non stringente. 7 corretta, non possiamo bollarla come falsa a causa di un pregiudizio sulla natura del processo di formazione delle teorie, che vede la scienza come isolata da ciò che la circonda. Pregiudizio che possiede chiunque la elevi su una torre di avorio o, per converso, la getti nell'abisso delle attività indegne per l'umanità. Che esista o meno quest'ipotetica influenza, il legame tra scienza e letteratura, ma anche cinema, fantascientifici esiste ed è estremamente interessante. Nel seguito vedremo il rapporto tra due opere, The time machine e Do androids dream of electric sheep?, e il rapporto tra queste e diverse teorie appartenenti a diverse discipline scientifiche. 8 Herbert G. Wells, The Time Machine The Time machine is one of the first and most famous sci-fi novella ever written. The Time Traveller, whose name is not told us, is a Victorian age English inventor. The first narrator is a friend of him and he tells that during a weekly dinner with some friends, the traveller uses to explain his theory that time is a fourth dimension. This is permitting to us to travel throughout time, just as we travel in the other three dimensions. To demonstrate his ideas the inventor uses a tabletop model of a time machine that he sents a few minutes ahead in the future under the eyes of the presents. The narrator also tells that the traveller used to build another version of his machine, capable of carrying a person throughout time. The narrator becomes now the traveller himself. The Time Traveller uses the machine to travel to year 802701 A.D. and here he meets a pacific evolution of humanity, the Eloi. The Eloi are small and elegant humans who live in small communities in large and futuristic, but deteriorated, buildings. They do not work and show lack of curiosity so the traveller figures that living without any kind of worries thanks to advanced technology led to involution of intelligence. He then discovers that his machine has been dragged inside a strange, Sphinx-like building. During the night he is approached by Morlocks, another evolution of humans, resembling apes that live underground. Exploring their dwellings the inventor discovers that the underground work of Morlocks makes possible the life of the Eloi on the surface. He also realizes that they care and feed the Eloi to grow them as their own food. The traveller speculates that Eloi are the involution of ancient dominating class living with no problems and worries and the Morlocks are the involution of the worker class. During time, class relations changed and former dominators became food for formers workers. Back on the surface he saves from drowning the Eloi Weena, while noticing that no other Eloi tried to save her. In a few days, the English and Weena develop an each other attractive relation, and the inventor plannes to take the girl back to his time. Trying to find weapons to use against Morlocks to recover the time machine, he discovers a museum where he finds matches. Matches are very useful against Morlocks, because living underground they fear light and fire. With fire in their hands, the traveller and Weena approach the Morlocks galleries. Suddenly the Morlocks discover them and during the battle the forest is catching fire and whiles the traveller is successful to save himself Weena dies. So, with no more interest in this epoch, the traveller enters the Sphinx building and finds the time machine; the Morlocks try to kill him, but he escapes thanks to the machine. He travels 30 million years in future and sees that there are only crab-like and butterfly-like creatures. He continues in future and sees last moment of Sun's life. Then he turns back in his laboratory, three hours after his left. He finds his friends waiting for him to start the weekly dinner and he tells them his experience, producing as evidence the strange flower given to him by Weena. 9 The novel ends with the first narrator telling that the following day he finds the traveller preparing another voyage, with the promise to come back half an hour later. Three hours pass and the narrator asks himself if the traveller will ever come back. In spite The Time Machine is not the first novel in which we find the concept of time travel, (this idea is used by Wells himself in a previous work, The Chronic Argonaut), the original content of this work deals with the problems of the Victorian industrial society. It also expresses Wells' socialist ideas, specifically referred to the problems of class division: if in future this division won't disappear and workers won't gain better living conditions, humanity will degenerate. Others literature works of this period deals with similar items, particularly works by Charles Dickens. Writing his novella, Wells was strongly influenced by the Darwinist theory of evolution. Basing on Darwinist ideas of the English physician and zoologist Edwin Ray Lankester about degeneration of species, he imagined that Homo sapiens will undergo involution caused by both inert and no fatigue life on one side as far as on the opposite by terrible working and living conditions. 10 Teoria della relatività Alla fine dell’ottocento, in fisica vi era la convinzione che fosse già stato scoperto tutto ciò che c’era da scoprire, ad esclusione di due piccole “nuvole all’orizzonte”, come disse lord Kelvin. Da una di queste “nuvole”, l’assorbimento del corpo nero e la catastrofe ultravioletta, nacque la teoria dei quanti. Dall’altra “nuvola”, il problema dell’etere e dell’invarianza della velocità della luce, derivò la teoria della relatività. Nel 1905 un impiegato dell’ufficio brevetti di Berna, Albert Einstein, pubblicò sei importanti articoli: fra questi l’articolo intitolato “Zur Elektrodynamik bewegter Körper“ e un secondo articolo in cui viene espressa la famosa equazione E=mc2, trattano appunto della teoria della relatività speciale che lo renderà famoso. I fisici di fine '800 pensavano di poter spiegare ogni fenomeno grazie alle due teorie della meccanica classica (basata sui tre principi di Newton e sulla legge di gravitazione universale) e dell'elettromagnetismo di Maxwell. Quest'ultima permetteva di unificare i campi elettrico e magnetico e di spiegare con sole 4 equazioni tutti i fenomeni ad essi correlati. Mentre però la meccanica usava le trasformazioni6 di Galileo per modificare le equazioni cambiando il sistema di riferimento, esse non potevano essere applicate alle equazioni di Maxwell senza che esse dovessero essere modificate completamente nella loro forma. Ciò significava che, se si ritenevano valide le trasformazioni di Galileo, le equazioni di Maxwell cambiavano con il sistema di riferimento. Il matematico e fisico Lorentz trovò delle trasformazioni che risultavano valide per la teoria dell'elettromagnetismo, ma che non erano applicabili alla meccanica classica. Esse però risultarono essere quelle corrette nel contesto della teoria della relatività. Le vedremo più avanti nella nostra trattazione. Inoltre, la teoria dell’elettromagnetismo di Maxwell prevedeva l’esistenza di onde elettromagnetiche dovute alla produzione di campi elettrici e magnetici autosostenuti. In particolare 1 c= √ ε 0 μ 0 [1], con ε0 permittività elettrica del la velocità di tali onde nel vuoto deve essere pari a vuoto e μ0 permeabilità magnetica del vuoto. Quindi c = 299 792 458 m/s, valore pari a quello della velocità della luce. Maxwell propose (correttamente) che la luce fosse semplicemente un tipo di onda elettromagnetica7. Propose inoltre l’esistenza di un mezzo, l’etere, in cui le onde elettromagnetiche si trasmettessero e che avesse inoltre la funzione di sistema di riferimento assoluto per definire il moto assoluto dei corpi. Eppure un famoso esperimento eseguito da Michelson e Morley mostrava che la velocità della luce non varia nel tempo, mentre se l’etere esistesse la luce dovrebbe viaggiare con velocità relativa diversa a causa della diversa velocità assoluta della terra nell’arco dell’anno. Per questo motivo Einstein scrisse la propria teoria basandosi sui seguenti postulati: 1. Principio di relatività galileiano: non è possibile discriminare uno stato di quiete da uno stato di moto rettilineo uniforme con esperimenti di fisica. 2. Invarianza della velocità della luce: per ogni osservatore inerziale (su cui la risultante 6 Per descrivere un fenomeno necessitiamo di un sistema di riferimento spaziotemporale che ci dia le coordinate del fenomeno. Cambiando sistema di riferimento per la descrizione dei fenomeni, chiaramente le coordinate spaziali e temporali del fenomeno devono essere modificate. Conoscendo le velocità relative dei due sistemi di riferimento e le coordinate in uno dei due sistemi, le trasformazioni sono le equazioni che permettono di trovare le coordinate nel secondo sistema. 7 Michael Faraday aveva in precedenza dimostrato con un esperimento che un campo magnetico è in grado di modificare la polarizzazione di un raggio di luce che attraversa un pezzo di vetro, mostrando così l'esistenza di un legame tra campo elettromegnetico e luce. Maxwell confermò questo dal punto di vista matematico. 11 delle forze è nulla) la velocità di un’onda elettromagnetica è uguale a c. Quindi, mentre nella fisica classica le velocità si compongono con la semplice somma algebrica, nella teoria della relatività questo non è più vero, infatti, se così fosse due osservatori a velocità differenti dovrebbero osservare diversi valori di c. Come concetto è estremamente poco intuitivo, infatti noi siamo abituati a velocità di 7 o 8 ordini di grandezza inferiori a quella della luce, alle quali la fisica classica è un'approssimazione più che valida. Einstein nella sua analisi parte dall'esperimento concettuale dell'orologio di luce. Questo è un orologio formato da due specchi A e B su cui si riflette un raggio di luce. Siccome essa ha una velocità finita e costante, impiega un tempo finito, non nullo e costante per viaggiare da A a B e tornare indietro. Questo tempo costituisce un tic 2d Δt 0 = c [2]. dell'orologio ed è Chiamiamo tempo proprio Δt0 quello misurato dal corpo in movimento. Una definizione formalmente più corretta di tempo proprio è: il tempo che separa due eventi che avvengono nella stessa posizione. Se l'orologio viene osservato da un osservatore non solidale, però, lo spazio che la luce percorre cambia. Infatti durante il viaggio della luce, partendo dal punto iniziale, l'orologio si sposta di una v Δt 2 quantità pari a , quindi la luce non percorre un tragitto verticale, ma obliquo, di conseguenza il tempo aumenta. Stesso ragionamento può essere fatto per il ritorno verso il primo specchio. ( c Δt 2 v Δt 2 2 ) =d +( ) 2 2 dalla quale Applicando il teorema di Pitagora possiamo ottenere la relazione 2d Δt = 2 v c 1− 2 c e ricordando la [2] otteniamo: ricaviamo algebricamente il tempo. Esso è Δt 0 [3] Δt = 2 v 1− 2 c Questo fenomeno è chiamato dilatazione del tempo. √ √ 12 In meccanica relativistica si definiscono concisamente si scrive: β= v c γ= e il fattore lorentziano 1 √ 1−β 2 [4], quindi più Δt =Δt 0 γ [3] Ovviamente, per il primo postulato della teoria della relatività questa dilatazione deve valere per ogni sistema, esseri viventi inclusi; se così non fosse, infatti, potremmo discriminare uno stato di quiete da uno di moto rettilineo uniforme semplicemente osservando l'orologio a luce. Questo però implica che accorgersi della dilatazione del tempo sia impossibile. Inoltre, mentre un osservatore non solidale con noi osserva un nostro “rallentamento” a causa di questo effetto, noi vediamo lo stesso effetto per l'osservatore: lo stato di quiete e di moto, infatti, dipendono esclusivamente dalla velocità relativa dei due sistemi e non hanno nulla di assoluto. Consideriamo ora le lunghezze. È possibile misurare una lunghezza semplicemente facendo partire un raggio di luce è misurare il tempo che esso impiega a percorrere la lunghezza e tornare indietro. Siccome però il tempo si modifica in relazione alla velocità relativa di due sistemi, anche le lunghezze si modificano. Due sistemi in moto rettilineo uniforme osservano dunque una contrazione delle lunghezze. l= l0 γ [5] È importante notare che questo effetto esiste solo lungo la direzione del moto del sistema. Utilizzando questi due effetti è ora possibile ricavare le corrette trasformazioni da utilizzare nel contesto della teoria della relatività. Si ricava che le trasformazioni valide coincidono con quelle di Lorentz, che sono quelle corrette per l'elettromagnetismo di Maxwell. La teoria della relatività si dimostra quindi essere perfettamente compatibile con l'elettromagnetismo, al contrario della meccanica newtoniana. Considerando il caso particolare di due sistemi di riferimento in moto relativo lungo l'asse x, le trasformazioni di Lorentz sono: x ' =γ ( x−v t ) y' =y z ' =z t '=γ (t− vx ) 2 c Date queste, si modifica anche la composizione delle velocità. Nella meccanica classica le velocità si componevano facendo a semplice somma algebrica delle singole velocità. Ora nella meccanica relativistica la formula è più complessa: v +v v 13= 12 23 v 12 v 23 1+ 2 c indicando con vnm la velocità di un corpo n rispetto a m. Gli effetti di contrazione dei tempi e dilatazione delle lunghezze implicano un altro rimarchevole effetto. Immaginiamo un corpo di massa m0 e velocità v rispetto a terra: noi osserveremo una quantità di moto p=m0 v . Se passasse un osservatore inerziale a velocità relativistica, con moto perpendicolare a quello del primo corpo, per effetto della dilatazione dei tempi esso osserverà una velocità di tale corpo notevolmente inferiore. Per il principio di conservazione della quantità di 13 moto, però, la quantità di moto deve apparire uguale anche a questo osservatore. Ciò significa che oltre alla velocità deve variare anche un altro parametro, cioè la massa. Questo è un risultato sconcertante. Viene così a cadere un altro caposaldo della scienza pre-novecentesca: la conservazione della massa. Infatti, se la velocità osservata è pari a v'=v/γ 8, e dovendo noi ottenere che m0v=mv', con m la massa osservata, detta massa inerziale, e m 0 la massa a riposo, allora m0v=m'v/γ. Otteniamo, dunque, che la massa inerziale deve essere m=m 0γ [6]. Ciò significa che all'aumentare della velocità relativa la massa osservata sarà maggiore. Possiamo notare come al tendere della velocità a quella della luce, il fattore lorentziano (si veda la [4]), e dunque la massa inerziale, tende all'infinito! La massa che compare nell'espressione della quantità di moto relativistica non è quindi la massa a riposo, ma quella inerziale. Esprimendo la quantità di moto relativistica in termini della massa a riposo: p=m0 v γ [7] Come può “crearsi” nuova massa? Se noi imprimiamo una forza a un corpo, questo subirà un'accelerazione, secondo il 2o principio della dinamica di Newton, F=ma. Imprimendo una forza noi spostiamo il corpo, quindi effettuiamo un lavoro L=Fs, ma per farlo noi dobbiamo fornire un uguale quantità di energia al corpo, che esso immagazzina sotto forma di energia cinetica. Se però la massa del corpo aumenta all'aumentare della velocità, questo significa che, a parità di forza impressa, quindi di energia fornita, man mano che accelero la velocità crescerà sempre più lentamente. Infatti, per il 2o principio, maggiore è la massa, minore è l'accelerazione. Ciò significa però che se noi calcoliamo l'energia cinetica in modo classico, essa aumenta sempre più lentamente, ma l'energia che noi forniamo è sempre la stessa: l'energia sembra allora scomparire. Ecco quindi da dove deriva la massa: essa non viene creata, ma è la stessa energia che si trasforma in massa. La massa è una forma di energia. Questa analisi mostra anche come mai sia impossibile raggiungere la velocità della luce: l'accelerazione diminuisce fino a tendere a zero all'aumentare della velocità, rendendo impossibile un continuo aumento di velocità. Qual è dunque la corretta espressione dell'energia? Essa richiede l'uso del calcolo differenziale (vedi appendice). Si ricava che l'energia totale relativistica è uguale a E=m 0c2γ [8]. Espandendo in serie, essa risulta uguale a E=m0c2 + ½ m0v2 + 3/8 m0v4/c2 + … Per basse velocità, i termini successivi al secondo diventano irrilevanti, contenendo potenze della velocità della luce al denominatore. Il secondo termine corrisponde, infatti, alla forma dell'energia cinetica nella meccanica classica. Il primo termine invece non contiene la velocità nella sua espressione a esclusivamente la massa a riposo. L'energia di un corpo a riposo non è quindi nulla, a differenza della teoria classica 9. A cosa è dovuta? Abbiamo precedentemente osservato come la massa sia una forma di energia. Anche la massa a riposo deve quindi contenere energia e questa è data dal primo termine: E0=m0c2, con E0 energia della massa a riposo. L'energia contenuta nella massa è spaventosamente grande e lo dimostra quando si converte in altre forme di energia, come ad esempio durante la fissione o la fusione nucleare. Ora si consideri il concetto di tempo come dimensione, presente nel libro di Wells. Nella teoria della relatività ci si rende conto che non si può considerare lo spazio separatamente dal tempo. Ogni modifica dello spazio corrisponde, infatti, una modifica del tempo. Di conseguenza non si può non considerare il tempo come un'ulteriore dimensione, intrinsecamente unita allo spazio. Minkowskij 8 Infatti vale solo l'effetto di dilatazione dei tempi e non quello di contrazione delle lunghezze, in quanto i moti sono perpendicolari quindi non si osserva questo effetto. 9 In questo caso si considera solo l'energia dovuta alla velocità o alla massa e non l'energia potenziale, termica oppure chimica, che possono essere non nulle per un corpo a riposo anche nella teoria di Newton. 14 introdusse lo spaziotempo quadridimensionale con le coordinate x, y, z (spaziali) e ict (temporale), dove i= √−1 . Applicando il teorema di Pitagora a uno spaziotempo con coordinate così definite, si ottiene che la distanza di un evento nello spaziotempo dall'osservatore (le cui coordinate sono O(0;0;0;0)) si calcola: d = √ x + y + z −( ct ) 2 2 15 2 2 Appendice matematica: energia cinetica relativistica, derivazione Dalla definizione di energia cinetica: v v E k =∫ F ds=∫ 0 ricordando che 0 v d ( mv)ds=∫ v d (mv) dt 0 dp ds F= per la seconda legge della dinamica e che v= . dt dt Integrando per parti e sfruttando la [6], definizione di massa inerziale: v v m0 v 2 m0 v m0 v 2 v2 2 E k =mv −∫ mv dv= −∫ dv= +m0 c 2 1− 2 −m0 c 2= c 0 v2 0 v2 v2 1− 2 1− 2 1− 2 c c c Sommando i primi due termini: m0 v 2+m0 c 2−m0 v 2 m0 c 2 2 = −m0 c = −m0 c 2=mc 2−m0 c 2=( m−m0 )c 2 2 2 v v 1− 2 1− 2 c c √ √ √ √ √ √ E k =(m−m0 )c2 Da questa possiamo vedere come un guadagno in energia può essere interpretato come un guadagno di massa. Questo risultato è generale e può essere considerato valido per una qualunque variazione di energia. Di conseguenza di può scrivere: 2 ΔE k =( Δm)c La quantità m0c2 è chiamata energia a riposo e sommandola all'energia cinetica si ottiene l'energia totale: 2 m0 c 2 2 E=E k +m0 c = =mc 2 v 1− 2 c √ Si noti che l'energia totale così definita contiene l'enegia cinetica e quella a riposo ma non quella potenziale. 16 Evoluzione delle specie tramite selezione naturale “Come è nata la vita?” e “Come si sono formate tutte le specie viventi?” sono tra le domande che l'umanità si pone da sempre. Da quando l'uomo ha iniziato a speculare su ciò che lo circonda, ha immaginato risposte di carattere mitico-religioso, risposte che implicavano che ogni specie vivente fosse sempre esistita fin dalla creazione del mondo. Quando in Grecia si iniziò a dare spiegazioni di tipo filosofico-scientifico alle domande dell'uomo, i sistemi filosofici più diffusi, in particolare quello aristotelico, avevano una visione fissista delle specie viventi, ovvero non consideravano la possibilità che le specie nascano, si modifichino e si estinguano. Idee evoluzioniste, che ipotizzavano che le specie possano modificarsi, appunto evolversi, erano comunque già presenti in sistemi filosofici precedenti a Aristotele, quali in Democrito ed Epicuro. L'influenza della visione aristotelica del mondo però è stata talmente potente in ogni branca del sapere, che il fissismo ha dominato la biologia fino all'Ottocento. A questo si è aggiunta l'influenza della dottrina delle Chiese cristiane che per secoli ha diffuso una visione creazionista del mondo, strettamente legata ad una interpretazione letterale della Genesi secondo la quale le specie sono state create da Dio nella loro forma attuale. La principale obiezione a visioni fissiste è l'esistenza dei fossili. Aristotele non aveva assolutamente capito cosa fossero, ma quando nel Settecento si accende l'entusiasmo per la paleontologia si inizia a capire che essi sono esseri viventi morti, molti dei quali appartenenti a specie ormai estinte. Inoltre si trovano fossili di esseri simili a specie oggi esistenti, ma certamente non appartenenti a esse. Si sviluppano così le prime teorie evoluzioniste sull'origine delle specie basate su osservazioni scientifiche: tra queste è importante ricordare la teoria di Jean-Baptiste de Lamarck (1774 – 1829). Questa si basa sul presupposto che ogni caratteristica fenotipica acquisita dai genitori si trasmette ai figli. Lamarck pensava che le necessità dovuta all'ambiente portasse a un maggiore uso di uno o più organi per superare i problemi, portando così al miglioramento di quegli organi nell'individuo. Tali miglioramenti si trasmettono quindi ai figli e, mano a mano che ciò accade e le variazioni si accumulano, le specie si differenziano. L'evoluzione delle specie, in questa teoria, avviene a causa di una tendenza quasi metafisica delle forme viventi verso una maggiore complessità. Non è contemplata la possibilità di una degenerazione. L'esempio classico portato a dimostrazione della teoria di Lamarck riguarda la lunghezza del collo della giraffa. Studi paleontologici hanno mostrato come gli antenati della moderna giraffa avessero un collo molto più corto. La teoria lamarckiana spiega questa evoluzione ipotizzando che, per raggiungere i germogli più alti, le giraffe sforzassero il collo allungandolo. Tale variazione è stata poi trasmessa ai discendenti e di generazione in generazione il collo ha continuato ad allungarsi. A ostacolare le teorie creazioniste e fissiste arrivò inoltre la scoperta del passato antico della Terra. A fine '700 la teoria geologica più diffusa era il catastrofismo che ipotizzava che il pianeta fosse nato in tempi abbastanza recenti e che le formazioni geologiche fossero dovute a “catastrofi”. Questi grandi sconvolgimenti avrebbero da soli determinato un significativo cambiamento della morfologia geologica della Terra, formando montagne e canyon. Tuttora gruppi creazionisti credono in una simile spiegazione della geologia terrestre. Tra Settecento e Ottocento inizia a diffondersi la teoria dell'attualismo. Questa afferma che le 17 formazioni geologiche sono dovute al lento e costante effetto, tuttora esistente, di agenti fisici interni e esterni alla crosta terrestre. Uno dei presupposti chiave di questa idea, che la opponeva alle teorie fissiste, era che il nostro pianeta e, di conseguenza la vita, avessero un'età estremamente superiore rispetto a quella ipotizzata finora, infatti l'effetto degli agenti è cumulativo e un pianeta troppo giovane non avrebbe le formazioni geologiche maestose che oggi osserviamo. Di conseguenza, se l'attualismo è corretto, la vita ha avuto molto tempo per svilupparsi e per evolversi. L'attualismo era stato ipotizzato da James Hutton, ma fu Charles Lyell (1797 – 1875) il primo geologo a spiegare chiaramente e a diffondere nella comunità scientifica questa teoria. Il trattato Principi di geologia di Lyell non influenzò solo il mondo accademico, ma anche un giovane medico che si avviava a una carriera ecclesiastica, Charles Darwin (1809 – 1882). Darwin era un appassionato naturalista, interessato di biologia e geologia. Nel 1831 si imbarcò sul brigantino HSM Beagle come naturalista non pagato10, portando con se il primo volume del trattato di Lyell e facendosi spedire il secondo mentre era in viaggio. Il viaggio con il brigantino gli permise di raccogliere osservazioni sulle specie viventi che incontrava, osservazioni che gli permetteranno poi di sviluppare la propria teoria che verrà pubblicata per la prima volta il 24 novembre del 1859 nel saggio L'origine delle specie (titolo completo: Sull'origine delle specie per mezzo della selezione naturale o la preservazione delle razze favorite nella lotta per la vita) che da allora costituisce una delle opere cardine della storia scientifica. Un altro naturalista che viaggiò in Sud America e nel Borneo e dalle sue osservazioni ricavò una teoria evolutiva fu Alfred R. Wallace (1823 – 1913). Sebbene spesso non sia ricordato, nello stesso periodo giunse alle medesime conclusioni di Darwin, tanto che entrambi considerati padri della teoria della selezione naturale. Il Saggio sul principio di popolazione di Thomas Malthus fu un altra lettura molto influente sullo sviluppo della teoria della selezione naturale da parte di Darwin e Wallace. Il saggio di Malthus spiegava le sue idee sulla crescita della popolazione umana, secondo le quali, mentre le risorse crescono aritmeticamente, la popolazione umana cresce geometricamente11. Secondo Malthus se non si fosse intervenuti limitando la crescita della popolazione umana, presto o tardi si sarebbero superate le risorse disponibili, andando incontro a una catastrofe ambientale ed umana. Per i due naturalisti le idee di Malthus sono applicabili, oltre che alla popolazione umana, anche alle popolazioni animali. In sintesi, la mancanza di risorse pone un tetto massimo alla popolazione complessiva. Ma come mai sopravvivono alcuni individui e non altri? Per Darwin e Wallace, ogni individuo ha caratteristiche leggermente differenti da quelle degli altri appartenenti alla stesse specie e tali peculiarità non sono dovute a un uso particolarmente accentuato di un organo, come teorizzato da Lamarck, ma semplicemente al caso. Queste differenze possono costituire un vantaggio rispetto all'ambiente circostante oppure essere sfavorevoli. Chiaramente è più probabile che si riproduca chi possiede caratteristiche peculiari favorevoli, trasmettendo così tali caratteri ai discendenti. Si noti che le differenze non sono caratteri acquisiti, i quali non sono 10 Lo scopo della missione era completare gli studi idrografici del Sud America. Darwin fu imbarcato in quanto il capitano FitzRoy del Beagle desiderava portare con se nel viaggio un gentleman di compagnia, come un naturalista che portasse reperti dei luoghi visitati. Uno dei motivi di questo desiderio era anche la paura di cadere in depressione per la solitudine, dopo che il precedente capitano del brigantino si era suicidato per questo motivo. 11 Una crescita aritmetica segue una legge di crescita lineare; in un grafico cartesiano sarebbe rappresentato da una retta. La crescita geometrica invece è esponenziale. 18 trasmissibili12, ma caratteri presenti sin dalla nascita e dovuti esclusivamente al caso. La selezione degli individui sulla base dei caratteri casuali più o meno casuali, dovuta all'interazione degli individui con l'ambiente viene chiamata “selezione naturale”. L'esempio della giraffa sarebbe spiegato dalla teoria della selezione naturale affermando che casualmente siano nate giraffe con un collo più lungo rispetto a quello delle altre giraffe. Per questo motivo erano facilitati a raggiungere le foglie sugli alberi più alti, avendo così un vantaggio riproduttivo sulle giraffe a collo corto. Alla generazione successiva vi saranno più individui con il collo lungo e di generazione in generazione le giraffe a collo lungo diventeranno le uniche esistenti. In modo formale la teoria di Darwin e Wallace si basa sulle ipotesi: 3. Il processo riproduttivo è stabile: gli organismi generano individui simili. 4. Nella maggioranza delle specie il numero di individui che sopravvivono e si riproducono è piccolo in confronto al numero dei nati. 5. In ogni popolazione tra gli individui ci sono differenze non dovute all'ambiente e alcune di esse sono ereditabili. 6. Quali individui riusciranno a riprodursi è determinato dall'interazione tra le differenza individuali e l'ambiente; alcune variazioni, dette favorevoli, portano ad avere un numero di discendenti maggiore; questo è il processo chiamato da Darwin selezione naturale. 7. Dopo un periodo di tempo abbastanza lungo la selezione naturale porta ad un accumulo di cambiamenti tale da portare alla differenziazione delle specie. È chiaro dunque perchè la teoria della selezione naturale aveva bisogno dell’attualismo. Mentre la teoria di Lamarck portava a uno sviluppo in relativamente poco tempo, la selezione naturale è un processo estremamente lento. Si noti, inoltre, come lo sviluppo non porti necessariamente a una maggiore complessità: se l'ambiente lo necessità si può avere anche una degenerazione13. Essendo l'evoluzione un processo tanto lento, si può pensare che sia impossibile trovare prove dirette. Invece, proprio a causa dell'intervento umano, in grado di sviluppare fortissime pressioni evolutive, si è riusciti a osservare fenomeni di microevoluzione, ovvero fenomeni evolutivi su piccola scala e in un lasso di tempo estremamente breve dal punto di vista geologico. Il primo esempio è costituito dalla falena Biston betularia, il cui colore prima della rivoluzione industriale era chiaro. Questa farfalla notturna, infatti, vive prevalentemente sul tronco chiaro delle betulle ed il colore chiaro le consente una perfetta mimetizzazione sulla corteccia di questi alberi. Quando l'Inghilterra iniziò a industrializzarsi, le emissioni dovute alla combustione del carbone sporcarono i tronchi degli alberi, rendendoli neri e anche le falene cambiarono colore e diventarono scure. Quando furono approvate le prime leggi sulle emissioni, i tronchi tornarono a essere chiari, e con loro anche le falene. H. B. D. Kettlewell provò che ciò è dovuto a una pressione selettiva da parte degli uccelli predatori. Infatti, le farfalle scure sui tronchi chiari sono più visibili e quindi costituiscono una più facile preda rispetto alle falene chiare; in condizioni normali quindi la pressione selettiva favorisce l’espansione delle farfalle chiare. Quando però i tronchi si anneriscono a causa delle emissioni, la situazione si capovolge e le falene chiare sono sfavorite. Questo fenomeno è denominato melanismo industriale. 12 In realtà, ricerche in un campo relativamente nuovo della biologia molecolare, l'epigenetica, dimostrano che gli effetti ambientali possono modificare il modo in cui il patrimonio genetico viene espresso, attraverso l’inserimento di gruppi, in particolare metili, sulle basi azotate del DNA. Tali cambiamenti sono così trasmissibili alla discendenza. In un certo senso quindi è vero che caratteri acquisiti possono essere trasmessi ai figli, ma non è ancora noto come esso influisca sull'evoluzione. 13 Questo fenomeno è stato studiato in particolare da E. R. Lenkester, il quale con le sue teorie influenzò notevolmente H. G. Wells per scrivere il suo La macchina del tempo. 19 Un altro esempio è dato dallo sviluppo della resistenza agli insetticidi da parte di molti insetti. Uno degli esempi più significativi di questa resistenza è stato osservato nei coccidi, insetti che in California colpiscono gli agrumi. Acido cianidrico in alte dosi fu usato contro i coccidi agli inizi del '900, ottenendo inizialmente un notevole successo, con l’eliminazione di quasi il 100% degli insetti. Nel 1914 ci si accorse che per un tipo particolare di questo insetto, la cocciniglia rossa, iniziava a non bastare la dose usata. Se in precedenza restava vivo il 1% di cocciniglie non resistenti, ora il 22% di insetti resistenti sopravviveva alla stessa dose. È stato provato che gli insetti resistenti e non differiscono fra loro per un singolo gene, quindi l’uso dell’insetticida ha costituito il fattore di selezione per le cocciniglie portatrici del gene della resistenza Una resistenza dagli effetti anche peggiori è quella dei batteri nei confronti degli antibiotici. Dopo la scoperta da parte di Alexander Fleming della penicillina, sono state scoperte moltissime molecole con caratteristiche battericide. Presto divennero sfruttatissime, ma dopo relativamente pochi anni sempre più batteri iniziarono a mostrare resistenza. Joshua e Esther Lederberg dimostrarono che le cellule batteriche che mostrano resistenza sono una semplice mutazione della popolazione iniziale, selezionate poi dall'ambiente, ovvero un'evoluzione. Oggi è noto che la resistenza è portata da plasmidi, piccoli anelli di DNA trasferibili tra cellule. Un esempio di microevoluzione dovuta direttamente all'uomo è la selezione artificiale. Darwin la considerò del tutto analoga alla selezione naturale, analizzando in particolare gli incroci di piccioni. Un’ulteriore serie di prove a supporto delle teorie evolutive ci è data dalle strutture fenotipiche omologhe e dalla biochimica e dalla biologia molecolare. Le strutture fenotipiche omologhe sono strutture simili ma con funzioni differenti e il motivo della somiglianza è, secondo l'evoluzionismo, la derivazione da un antenato comune. Ad esempio, tutti i vertebrati presentano arti con una struttura anatomica simile che, nonostante siano tanto differenti dal punto di vista morfologico, sono costituiti da ossa articolate nello stesso modo. Questo fenomeno è così interpretabile: da un antenato comune le strutture anatomiche sono evolute in un fenomeno di adattamento determinato dalla pressione degli ambienti. In questo modo l’arto primordiale si è adattato, ad esempio, ad ala negli uccelli o a pinna nei mammiferi acquatici e nei pesci. A ulteriore dimostrazione della comune origine, tutti i vertebrati possiedono quattro arti 14 e presentano tasche branchiali, almeno in un qualche stadio dello sviluppo embrionale. Tutti gli esseri viventi sono costituiti da cellule. Sebbene le cellule fossero già state scoperte nel '600 da Robert Hook, solo dieci anni dopo la pubblicazione di L'origine delle specie sarà dimostrata la comune composizione degli esseri viventi. Da allora la biochimica e la biologia molecolare hanno dimostrato come, a livello microscopico, vi siano numerosissime omologie fra le strutture e le funzioni nei diversi esseri viventi: solo per citare qualche esempio, sono altamente conservate nel corso dell’evoluzione la struttura delle membrane cellulari, la struttura e la funzione dei ribosomi, le moltissime funzioni dell'ATP, i sistemi di comunicazione cellulare e, soprattutto il codice genetico e l'uso degli acidi nucleici, DNA e RNA, come contenitori e trasmettitori dell'informazione genetica. Tutto ciò dimostra una profondissima unitarietà tra tutti noi esseri viventi: aldilà delle differenze morfologiche e degli adattamenti dei singoli, siamo tutti simili e abbiamo tutti la stessa origine. La straordinarietà di Darwin e Wallace sta anche nell’aver ipotizzato l’esistenza di un meccanismo di trasmissione dei caratteri ai figli, ben prima che Mendel eseguisse le sue ricerche sulla 14 Persino alcuni serpenti conservano ancora vestigia delle ossa delle pelvi e degli arti inferiori. 20 trasmissione dei caratteri ereditari e promuovesse la nascita della genetica. Oggi sappiamo che è attraverso i cromosomi ed i geni che si trasmettono i caratteri ai discendenti e che le mutazioni sono variazioni casuali del DNA dovute a effetti ambientali di tipo chimico o fisico o errori di duplicazione, ma al tempo dei due scienziati tutto ciò non era noto. Nonostante ciò hanno avuto il coraggio di proporre queste ipotesi che sapevano sarebbero state usate dai loro detrattori. 21 Philip K. Dick, Do Androids Dream of Electric Sheep? This novel take place in 1992 in San Francisco Bay area, after a nucler war that left the Earth uninhabitable and caused the extinction of nearly all animal species because of radioactive fall-out. Most humans left the Earth directed to other planets and the few remained follow a particular religion, Mercerism. This religion links the minds of the followers through Emphaty Boxes for them to co-live the sufferings of Wilbur Mercer, prophet of the faith. Members of this religion must also have domestic animals to demonstrate emphaty for the nearly destroyed animal world; more strange and rare is the animal, more the possessor demonstrates wealth. Humans living on other planets are using androids, humanlike robots, as servant, but sometimes some androids succeed to run away and refuge on Earth. Androids are extremely clever, more than the men, but they do not feel emphaty, thus being dangerous for the people. Because of that, policemen and mercenaries are targeted to switch them off, recognizing androids from humans by measuring emphaty thanks to the “Voigt-Kampf emphaty test”. The protagonist of the novel Rick Deckart is in troubles because of his depressed wife and his domestic animal, a sheep died since several years already. He couldn't buy a new one and replaced it with an electric sheep, a perfect reproduction of his animal, but now he believes that an organic animal only can give sense to his life again. At the police station, he learns that Holden, the official bounty hunter of the district, was injured during an operation devoted to catch eight Nexus 6 new model androids. As two of them only have been captured, Deckart is offered to replace Holden and he accepts the job because the very large wage will permit to him to buy a new animal. Deckart goes to Rosen Industries, the androids’ factory in Seattle, to verify if the emphaty test is successfully operating with this new android model. Here he performs the test on Rachael Rosen, introduced as nephew of Rosen Industries head, Eldon Rosen. She fails the test and Deckart concludes that he is facing an android, but Eldon explains that Rachael is in fact human. She just landed from a starship where she was growing with poor contact with other people, and that’s why she lacks emphaty. This is a great problem for the emphaty test reputation, because it means that is not capable to recognize humans in every situation. Eldon offers the hunter a real owl as a gift, but then Deckart realizes that Rachael is in reality a true android and that Rosen Industries purpose is to discredit the test validity. Deckart story across the one of J. R. Isidore, a “special”, i.e. a genetically damaged man, who lives alone in an empty buiding in periphery and is employed as driver for an electric animals repairing shop. He lacks intelligence due to radioactivity effects. 22 The Nexus 6 female android Pris Stratton, one of the six wanted and identical to Rachael, moves into the building and meets Isidore. While he tries to befriend her, she wants to use him against the bounty hunter. Deckart recruits Rachael to capture the androids, but she is convincing him to have sex with her to distract the hunter from his duty. When Deckart reveals to Rachael that he believes to love her, she acknowledges to be used to always successfully distract bounty hunters with sex. Abandoned Rachael, Deckart can totally devote himself to the mission and he is finally successful in switching off all the wanted androids, including Pris, causing a nervous break down to Isidore, because of the loss of his supposed lone friend. Deckart gets a citation for his encomiable job, but once at home he discovers from his wife that Rachael has killed their new organic animal. He refuges in the desert where he develops an epiphany and finds a toad, the Wilbur Mercer's favourite animal, thougth to be extinct. He returns home happy but her wife recognizes that the toad is artificial. The novel ends with Deckart wandering around how difficult is being aware of reality. Once more humanity are responsible of their own dramatic future. Nuclear war is cause of the destroy of the earth as we know it and remain men and women refuge into new false religion. The androids they used to brought to their highest level of intelligence rebel against being servant of a regressed humanity. The war affected sentiments expression, supposed to be the only discriminant factor between humanity and robots and man and androids are overlapping. Human and artificial intelligence cannot be resolved. 23 Artificial Intelligence e reti neurali Da sempre l'uomo si considera superiore agli altri animali a causa della propria intelligenza. A maggior ragione questo sentimento di superiorità è presente nei confronti delle macchine. Con lo sviluppo dell'informatica si è però affacciato un interrogativo: è forse possibile simulare un comportamento intelligente su un computer? L'idea di computer risale al concetto di macchina universale di Turing. Una macchina di Turing (di seguito MdT) è una macchina ideale in grado di manipolare i dati presenti su un nastro di lunghezza infinita secondo determinate regole interne. Essa è quindi un’idealizzazione astratta, ma soprattutto è una modellazione formale di una macchina in grado di eseguire un determinato algoritmo. Esiste quindi una MdT per ogni funzione che possa essere tradotta in un algoritmo implementabile. Gli algoritmi implementabili su una MdT sono detti Turing-computabili. È possibile però immaginare, e anche definire dal punto di vista matematico, una funzione in grado di simulare il comportamento di una MdT arbitraria, sulla base dell'input che essa riceve; una MdT che esegue una tale funzione è detta MdT universale in quanto è in grado di simulare ogni altra MdT, di conseguenza ha la possibilità di eseguire ogni funzione Turing-computabile. I matematici Alonzo Church e Alan Turing (il “padre” della macchina che porta il suo nome) congetturarono quella che poi divenne nota come tesi di Church – Turing: Supponiamo che vi sia un metodo che consente ad un essere senziente di dividere i numeri in due classi. Supponiamo inoltre che questo metodo dia una risposta in un tempo finito e che dia sempre la stessa risposta per ogni fissato numero. Allora: esiste […] una funzione generale ricorsiva che dà esattamente le stesse risposte dell'essere senziente. (tratta e adattata da Hostadter, Godel Escher Bach, un'eterna ghirlanda brillante) In parole semplici, ciò che la tesi afferma è che tutti i problemi che possono essere intuitivamente risolti sono implementabili e calcolabili dalla MdT universale. Questo però significa che ogni algoritmo usato dal cervello può essere riprodotto; deve quindi esistere un insieme di algoritmi che possano riprodurre il comportamento del cervello, dunque l'intelligenza! Non è possibile dimostrare matematicamente la tesi ed i dibattiti intorno a essa sono più filosofici che scientifici, ma la fiducia nella sua veridicità è la base dell'idea di poter creare un'intelligenza artificiale (artificial intelligence, AI). È stato il matematico e informatico John “uncle” McCarthy a creare questo termine nel 1956, ma la paternità di questo concetto spetta proprio a Turing. Egli ideò inoltre un test, divenuto famoso come test di Turing, che è in grado di distinguere se una macchina è intelligente o meno. In una stanza siede un esaminatore messo in condizione di comunicare con due soggetti: la macchina e un secondo uomo. Questi si trovano in un'altra stanza e l'esaminatore non sa quale dei due soggetti sia la macchina. Quest'ultima passa il test se l'esaminatore non è in grado di discriminare mediante la semplice conversazione quale fra i due soggetti sia essere umano. In tal caso la macchina ha simulato in modo ottimale l'intelligenza ed è da ritenersi intelligente a tutti gli effetti. La ricerca tecnologica e informatica sull'intelligenza artificiale è oggi molto sviluppata e ampia. Uno dei più importanti ambiti di ricerca riguarda le cosiddette reti neurali. Nel linguaggio scientifico si distinguono reti neurali biologiche e artificiali. Quelle biologiche sono reti composte da neuroni e in neuroscienze si utilizza tale terminologia per riferirsi a piccoli gruppi di neuroni che svolgono una determinata funzione. Per reti neurali artificiali (Artificial Neural Network, ANN), anche chiamate semplicemente reti 24 neurali, si intendono modelli matematici che rappresentano l'interazione tra “neuroni artificiali” interconnessi. Questi sono molto utili per analizzare il comportamento dei veri e propri neuroni, ma anche nella ricerca in ambito di AI. Esse possono essere implementati da software o da hardware dedicato. Le ANN sono nate al fine di replicare funzioni tipiche del cervello umano e a tal scopo cercano di riprodurre la struttura del cervello stesso. Matematicamente un singolo neurone è modellato facendo uso di una serie di canali di ingresso (i dendriti) da cui giungono le informazioni. A ogni canale di ingresso sono associati dei pesi, numeri reali che modellano le sinapsi. Il neurone esegue la somma pesata dei dati in ingresso o net secondo la seguente formula: a= ∑ wi x i , dove: wi il peso xi l'ingresso dell'i-esimo canale. Si noti che se w è positivo allora l'ingresso sarà sommato e la sinapsi sarà detta eccitatoria, invece se w è negativo sarà sottratto e la sinapsi sarà detta inibitoria. Inoltre, si noti che maggiore è il valore assoluto di w, maggiore sarà il peso che un canale avrà sul risultato finale. In questo senso i pesi rappresentano la forza della connessione. Il risultato restituito dal neurone viene calcolato tramite una funzione detta funzione di attivazione, applicata alla somma pesata: y= f (a ) Un neurone biologico possiede una soglia Θ, al di sotto la quale non scarica, cioè non trasmette alcun segnale. Analogamente, per un neurone artificiale si deve quindi considerare anche la soglia nel calcolo del risultato: y= f (a )= f ((∑ w i xi )−Θ ) La soglia può essere modellata anche facendo uso di un fittizio canale 0 con ingresso x 0 = -1 e peso associato wi = Θ. Le funzioni di attivazione simulano la risposta del neurone sulla base dei dati in ingresso. Le più usate sono: 8. Funzione soglia o funzione gradino: f (a )=0, x<Θ oppure 1, x >Θ Essa rappresenta in modo ottimale il comportamento di un neurone reale, la cui risposta è a soglia. Funzione sigmoide (funzione logistica): f (a )= 1 −a 1+e Altre funzioni spesso utilizzate sono: Funzione lineare: f (a )=a Funzione lineare a tratti: f (a )=0 se x<−0,5 oppure a+0,5 se−0,5⩽ x⩽0,5 oppure 1 se x>0,5 Ad eccezione della prima, nella presentazione di queste funzioni si è considerata la soglia come un canale fittizio w0, quindi già inclusa nella sommatoria a. 25 Ovviamente una ANN comprende molti neuroni. Vi sono svariate architetture di rete, cioè modi in cui i neuroni sono collegati. Le principali architetture sono: Reti completamente connesse (non stratificate) In questa architettura ogni singolo neurone è collegato con tutti gli altri. Le connessioni di una ANN con questa architettura sono facilmente rappresentabili con un matrice i cui componenti w ij di riga i e colonna j, rappresentano il peso della connessione dal neurone di indice i a quella di indice j. Reti stratificate In questo tipo di architettura esistono diversi strati di neuroni. I neuroni di uno strato sono collegati con tutti quelli degli strati immediatamente precedente e successivo, ma non sono collegati tra loro. Il primo strato, in cui sono immessi i dati, è detto strato di ingresso e l'ultimo, che restituisce il risultato, è chiamato strato di uscita. Gli strati intermedi sono detti strati nascosti poiché un utente non può accedere ad esso, né inserendo dati, né leggendo i risultati. Le connessioni sono rappresentabili tramite tante matrici quante sono le coppie di strati adiacenti. Ogni matrice contiene i pesi delle connessioni tra coppie di neuroni di strati adiacenti. Il funzionamento di una ANN dipende dalla specifica funzione di attivazione, dall'architettura e dai pesi delle connessioni. Se tutti questi parametri fossero fissi, la rete potrebbe risolvere solo uno specifico problema, invece la forza delle reti neurali risiede proprio nel poter mutare il proprio funzionamento in base a un metodo di trial and error che permette alla rete stessa di correggersi in modo da risolvere differenti problemi. Una ANN è quindi in grado di imparare. Infatti le ANN possono comportarsi da black box, restituendo risultati anche molto precisi, pur senza che si conosca il loro funzionamento interno. Uno dei modi più usati per addestrare una ANN a risolvere un problema è l'apprendimento supervisionato. La prima fase dell'addestramento consiste nell'inizializzazione casuale dei pesi delle connessioni. Dopodiché si presentano a uno a uno degli esempi. L'insieme di tutti gli esempi è chiamato training set (insieme di addestramento). Per ogni esempio si calcola l'errore, ovvero la differenza tra l'uscita aspettata e quella calcolata effettivamente e lo si usa per modificare i pesi. Si continua quindi a presentare in ordine casuale gli esempi alla rete fino a che l'errore scende al di sotto di una soglia definita in precedenza. A questo punto si presentano dei valori (il test set) differenti da quelli del training set, in modo da controllare la capacità di generalizzazione della rete. Per aggiustare i pesi si usa la cosiddetta delta rule o regola di Widrow – Hoff. Indicando con o l'uscita effettiva e t quella desiderata, l'errore si calcola: δ =t−o . La delta rule prevede che il peso wi sia modificato di una quantità Δwi così calcolata: Δw i=η δ x i dove: xi è l'ingresso sul canale di peso wi e η è il learning rate, un numero reale compreso tra 0 e 1 che stabilisce la velocità di apprendimento della ANN. Se η è troppo basso, ovviamente la rete imparerà troppo lentamente, ma se è troppo alto l'errore oscillerà intorno allo zero senza diminuire in valore assoluto. È quindi consigliabile partire con un learning rate elevato, ma diminuirlo man mano che l'errore diminuisce. Si noti che la quantità di cui viene corretto il peso dipende in modo proporzionale dall'ingresso x i, in modo che ogni canale venga corretto in modo proporzionale a quanto a contribuito all'errore finale. 26 Un semplice algoritmo del tipo così descritto è valido per una rete con solo uno strato di ingresso e uno di uscita. Infatti nel caso di reti multilayer, ovvero con uno o più strati nascosti, non è possibile modificare i pesi associati ai canali d'ingresso dei neuroni nascosti in quanto non è possibile conoscere l'uscita desiderata per ognuno di essi e quindi calcolare l'errore. A causa di questa difficoltà le ANN all'inizio non suscitavano un grande interesse, ma nel 1986 è stato inventato l'algoritmo di backpropagation. Esso si basa su una generalizzazione della delta rule. Indicando con wij il peso del canale dal neurone i-esimo al j-esimo, la correzione sarà data da Δw ij =η δ j x i Come detto precedentemente non è possibile calcolare direttamente l'errore δ j per un neurone nascosto in quanto non si conosce l'uscita desiderata. Si può però adattare un neurone nascosto in modo proporzionale al suo contributo all'errore sullo strato successivo. Considerando l'ultimo strato nascosto, si può calcolare l'errore di un neurone come la somma degli errori dei neuroni d'uscita ad esso collegati. Chiaramente il contributo di ogni errore dipende sia dal peso della connessione tra i due neuroni e dall'errore del neurone d'uscita stesso. A questo punto si può calcolare a ritroso l'errore per tutti i neuroni. L'errore di un neurone nascosto si calcola quindi: δ j= f ' (a j ) ∑ δ s w js s dove s indica l'indice dei neuroni dello strato successivo al neurone considerato. Si noti che non è possibile utilizzare un neurone che sfrutti una funzione a soglia. La funzione gradino infatti non è continua, quindi non è derivabile e nella formula dell'errore compare la derivata della funzione di attivazione. La funzione di attivazione più usata in questi casi è quindi la funzione sigmoide, continua e derivabile: 1 f (a )= −a 1+e −a f ' (a)=− −a −a −e 1 e 1 e +1−1 1 1 = = = (1− )= f (a)(1− f (a)) −a 2 −a −a −a −a −a −a (1+e ) 1+e 1+e 1+e 1+e 1+e 1+e Sia dato un training set (Xk,Tk) di m esempi, tale che per ogni esempio di indice k, X e T sono rispettivamente gli insiemi degli ingressi x j e delle uscite tj desiderate. L'algoritmo di backpropagation usa i seguenti passi: 1. si inizializzano tutti i canali con pesi casuali; 2. si presenta un ingresso X e si calcolano le uscite o j per ogni neurone della rete; 3. usando T, si calcola l'errore δj per tutti i neuroni dello strato d'uscita: δ j= f ' ( a j )( t j−o j) ; 4. partendo dall'ultimo strato nascosto e tornando indietro, si calcola l'errore per i neuroni nascosti: δ j= f ' ( a j ) ∑ δ s w js s ; 5. si calcola la correzione con la delta rule generalizzata e aggiornare tutti i pesi: Δw ij =η δ j x i ; 6. si ripetono le operazioni dal punto 2 fino a che non siano stati presentati tutti gli esempi del training set; 7. si calcola l'errore medio sugli esempi: se è minore di una soglia prefissata, l'algoritmo termina, altrimenti si esegue un nuovo ciclo di presentazione del training set. Un'ultima considerazione riguarda i problemi che possono essere risolti da una ANN. Una rete senza strati nascosti può risolvere esclusivamente problemi lineari. Per risolvere problemi non lineari è necessario l'uso 27 di reti con più strati. Le ANN infatti vengono usate soprattutto per la separazione degli ingressi in due classi. Considerando lo spazio degli ingressi (di dimensione pari al numero di ingressi) una rete senza strati nascosti è in grado di dividere in due semi-spazi: se gli ingressi fossero due equivarrebbe a dividere un piano in due semi-piani con una retta. Reti con più strati nascosti invece possono dividere in modi complessi lo spazio degli ingressi; con uno strato nascosto si possono dividere in regioni convesse, mentre con due si possono ottenere regioni di forma complessa. 28 Bibliografia, sitografia e filmografia Premessa: Come funziona davvero la scienza? • • • • Donald Gillies, Giulio Giorello, La filosofia della scienza nel XX secolo, ed. Laterza Lee Smolin, L'universo senza stringhe, ed. Einaudi Paul K. Feyerabend, Dialogo sul metodo Paul K. Feyerabend, Contro il metodo Opera 1: H. G. Wells, The Time Machine • L'uomo che visse nel futuro, regia di George Pal Teoria della relatività e Appendice matematica • • • • Walker, Corso di Fisica vol. 2, ed. Linx Alonso, Finn, Fundamental University Physics, Mechanics, Inter European Editions F. M. Boschetto, Il treno di Einstein, http://fmboschetto.it/tde serie di documentari televisivi Cosmos, Natonal Geographic Channel Evoluzione tramite selezione naturale • • Curtis, Barnes, Invito alla Biologia, ed. Zanichelli Massimo Piattelli Palmarini, Jerry Fodor, Gli errori di Darwin, ed. Feltrinelli Artificial Intelligence e reti neurali • • Douglas Hofstadter, Godel Escher Bach, un'eterna ghirlanda brillante, ed. Adelphi prof.sa Beatrice Lazzerini, Introduzione alle reti neurali, http://info.iet.unipi.it/~lazzerini/sisd/Reti.pdf 29