Indice - ISIS "GIULIO NATTA"

Transcript

Indice - ISIS "GIULIO NATTA"
Indice
•
Premessa: Come funziona davvero la scienza? (Filosofia)
2
•
Introduzione
7
•
Opera 1: H. G. Wells, The Time Machine (Inglese)
9
•
Teoria della relatività (Fisica)
11
•
Appendice matematica: energia cinetica relativistica, derivazione (Matematica)
16
•
Evoluzione tramite selezione naturale (Biologia)
17
•
Opera 2: P. K. Dick, Do Androids Dream of Electric Sheep? (Inglese)
22
•
Artificial Intelligence e reti neurali (Informatica)
24
•
Bibliografia, sitografia e filmografia
29
1
Prologo:
Come funziona davvero la scienza?
Popper non è un filosofo, è un pedante
(P. K. Feyerabend, Dialogo sul metodo)
L'epistemologia, ovvero l’analisi del metodo scientifico, è stato uno dei rami più fecondi nel corso
della storia della filosofia, a partire da Galileo e Bacone, anche se lo stesso Aristotele può essere
considerato un precursore.
Un ulteriore e crescente interesse si ha nel corso del XX secolo, a causa della rivoluzione scientifica
operata dalla teoria della relatività e dalla meccanica quantistica che dimostrarono che la meccanica
newtoniana non era la descrizione definitiva della realtà, e a causa della scoperta delle geometrie
non euclidee che mise in discussione le conoscenze matematiche sviluppate fino a quel momento.
Il filosofo novecentesco che più di tutti ha influenzato e continua a
influenzare la riflessione sulla scienza è il filosofo austriaco Popper.
Popper tentando di definire ciò che caratterizza una teoria scientifica,
distinguendola dalla metafisica e dalle pseudoscienze, giunse a porre il
principio di falsificabilità, alla base di tutta la sua teoria epistemologica.
Una teoria per essere considerata scientifica deve poter essere
falsificata. Le teorie che, secondo Popper, sono da considerarsi vere
sono quelle non ancora falsificate.
In tal modo non potremo mai essere certi della sua verità, ma saremo
certi della sua falsità nel caso di un osservazione contraria.
All'epoca questo concetto rivoluzionò l'epistemologia. Infatti, fino ad
allora il principio dominante era quello di verificabilità teorizzato dai
neopositivisti, il quale afferma che una teoria deve permettere
esperimenti che ne dimostrino la veridicità. Questo criterio si basa sull'induzione quale metodo per
ottenere la verità scientifica, ma solleva un grave problema: anche possedendo un numero enorme
di casi che confermano la teoria, non potremo mai essere sicuri della sua correttezza, in quanto non
sappiamo con certezza se non esistano casi che la contraddicano. Questo è noto come problema
dell'induzione e fu sollevato per la prima volta da Hume.
Al contrario basta una sola prova negativa, nell'ottica falsificazionista, per eliminare una teoria1.
Il principio di falsificabilità ha influenzato non solo molti filosofi successivi, ma anche molti
scienziati che credettero di vedere nell'analisi popperiana la spiegazione del loro lavoro.
Popper inoltre fu il primo a far notare che i fatti puri non esistono: i fatti sono sempre intrisi di
teorie. Ad esempio, si consideri l'osservazione che non percepiamo il moto della terra intorno al
Sole. Per un astronomo medievale questa era un’ulteriore prova a conferma della veridicità del
modello tolemaico. Il fatto era intriso dalla teoria tolemaica. Galileo Galilei però insistette sul fatto
che è possibile percepire solo un moto relativo a noi stessi. Riuscendo a imporre questa idea egli
modificò l'interpretazione dell'osservazione: noi non percepiamo il moto della terra intorno al sole
perché siamo in moto con la Terra, eliminando una delle maggiori obiezioni al modello
copernicano. Si noti come l'interpretazione imposta da Galileo non fosse basata su osservazioni, ma
1 Un esempio spesso portato per mostrare il problema dell'induzione consiste nell'idea che tutti i cigni siano bianchi,
convinzione basata sull'osservazione dei cigni europei. Eppure con l'arrivo di Cook in Australia si è scoperta
l'esistenza di cigni neri: la teoria induttivista sul colore dei cigni è stata smentita dall'osservazione di casi in
contraddizione.
2
fosse necessario per supportare la teoria copernicana. Torneremo su questo più avanti.
Per quanto il principio di falsificazione sembri corretto, esso non rispecchia il reale funzionamento
della scienza. La maggioranza degli scienziati, infatti, ha un comportamento conservatore: non si
abbandona una teoria che fino a un certo punto ha dato buoni frutti solo perché dei fatti non
coincidono con le previsioni. Anzi, uno scienziato tende a non considerare e a marginalizzare questi
fatti in contrapposizione.
Thomas Kuhn, riconoscendo la natura conservatrice dell'opera scientifica,
sviluppa la propria teoria epistemologica delle rivoluzioni scientifiche. Egli
teorizza che la scienza attraversi fasi alternate di scienza normale e scienza
rivoluzionaria. Una disciplina, quando nasce, è dominata dalla lotta tra
gruppi di studiosi rivali, ognuno dei quali tenta di far diventare la propria
teoria quella dominante, che Kuhn chiama paradigma. Nel momento in cui
una teoria riesce a imporsi come paradigma, la disciplina entra nella sua
prima fase di scienza normale. Gli scienziati ora hanno un paradigma
attraverso cui interpretare e spiegare i fenomeni.
Ovviamente non tutti i fenomeni sono riconducibili al paradigma, perché non
è una teoria completa della realtà. Attraverso l'osservazione si accumulano
fatti in contrapposizione al paradigma, ma durante la fase di scienza normale gli scienziati si
occupano di riconoscere e catalogare questi fenomeni, applicando in modo sempre più stringente il
paradigma in modo da considerare il campo di applicazione. Alla fine, i fatti in contrapposizione
saranno così numerosi oppure talmente importanti da determinare la crisi del paradigma: si entra
allora nella fase di scienza rivoluzionaria. Questa è molto simile alla fase pre – paradigmatica, in cui
diverse teorie si combattono per ottenere lo status di paradigma. Per Kuhn però una teoria non viene
accettata per particolari meriti riguardo alla spiegazione dei fenomeni, ma per motivi fideistici.
Infatti, le teorie rivali sono differenti anche nelle premesse di base, di conseguenza sono differenti
anche nell'interpretazione delle osservazioni, quindi, secondo Kuhn, le teorie sono
incommensurabili, ovvero non confrontabili. Ciò che permette l'imposizione della teoria come
paradigma è la forza di persuasione degli scienziati.
Imre Lakatos rigetta l'idea di un avanzamento fideistico e ipotizza
l'esistenza di programmi di ricerca. Ciò che chiamiamo teorie, per Lakatos
sono in realtà gruppi di teorie leggermente differenti che condividono un
nucleo comune di ipotesi che costituiscono le basi della teoria. Questi
gruppi sono chiamati programmi di ricerca. Gli scienziati sono
conservatori nei confronti del nucleo di ipotesi, difendendolo dalle
falsificazioni con ipotesi ausiliarie. Popper rigettava queste “ipotesi ad
hoc”, ma Lakatos mostra come esse siano fondamentali nello sviluppo
della scienza.
A partire da questo egli distingue programmi di ricerca progressivi e
degenerativi: i primi sono quelli che scoprono nuovi fatti e progrediscono
nello sviluppo, i secondi, invece, per proteggere il nucleo, devono
continuare ad accumulare ipotesi ad hoc senza spiegare nulla di nuovo. Quando si lavora con un
programma di ricerca progressivo, gli scienziati lo proteggono e lo “aggiornano” rispetto alle
anomalie osservate modificando o aggiungendo ipotesi ausiliarie, ma quando il programma diventa
degenerativo si preferisce abbandonarlo in favore di altri programmi, modificando il nucleo di
ipotesi stesso. Questo corrisponde per Lakatos alle rivoluzioni scientifiche di Kuhn.
Tra gli epistemologi postmoderni, Lakatos è ancora un fautore dell'esistenza di un metodo
3
scientifico. A opporsi a ciò, Paul K. Feyerabend nega non solo che un metodo scientifico unico e
condiviso esista, ma soprattutto che un metodo simile sia utile allo sviluppo scientifico. Feyerabend
è un sostenitore del cosiddetto anarchismo metodologico, anche se lui stesso afferma che Lakatos è
un “anarchista camuffato” in quanto non fornisce alcuna direttiva agli scienziati su come
comportarsi riguardo alle teorie.
Per Feyerabend la scienza non è un'attività razionale pura. Essa dipende, infatti,
da componenti storiche, culturali, sociali e persino ideologiche. Ciò che guida il
cammino del sapere umano sono interessi e fini pratici, non astrazioni teoriche.
Siccome la scienza è un'attività che non può essere estratta dal proprio contesto
storico, essa muta anche dal punto di vista metodologico. Mentre
l'epistemologia popperiana dà un'immagine astratta di una scienza che funzione
sempre allo stesso modo, il filosofo postmoderno sottolinea la mutevolezza dei
principi, dei metodi, ma anche degli obiettivi e delle domande della scienza2.
Per questo Feyerabend compie anche analisi della storia della scienza, in particolare analizzando il
“caso Galileo”, trattato nella sua opera magna Contro il metodo.
Galileo Galilei, per Feyerabend, non segue per nulla il metodo scientifico ipotizzato da popperiani e
neopositivisti.
Le osservazioni empiriche al telescopio non sarebbero state scientificamente accettabili in assenza
di una corretta teoria dell'ottica che garantisse che le osservazioni rispecchiassero correttamente la
realtà. Lo scienziato, fidandosi del telescopio, assumeva molte ipotesi ad hoc riguardo allo
strumento, ipotesi implicite nel suo lavoro. Non ci si dimentichi inoltre che, egli rifaceva le proprie
lenti più volte fino a che non riusciva a compiere le osservazioni. I filosofi aristotelici avevano
perfettamente ragione a rifiutarsi di guardare nel telescopio: nulla garantiva che le immagini
osservate non fossero effetti ottici prodotti dallo strumento.
Inoltre Galilei, come ho già mostrato in precedenza, cambia i concetti con cui si interpretavano i
fenomeni meccanici, sostituendo il concetto di moto con quello di moto locale, relativo
all'osservatore. Analizzando gli scritti dello scienziato si può vedere come questo sia stato un lavoro
di retorica: si tentava di convincere il lettore attraverso artifici dialettici e argomenti circolari, non
con prove scientifiche, che infatti erano impossibili da produrre.
Feyerabend arriva a dire che erano più aderenti al metodo scientifico i filosofi che sostenevano le
posizioni aristotelico-tolemaiche.
Si tenga presente che, con la sua analisi, il filosofo postmoderno non voleva screditare il lavoro di
Galileo, al contrario voleva dimostrare come, se lo scienziato non avesse trasgredito alle regole
epistemologiche, non sarebbe giunto alle proprie dimostrazioni.
Cosa è meglio fare in tal caso? Rigettare le scoperte galileiane come non scientificamente valide o
accettare che le stringenti regole epistemologiche possano essere aggirate?
Il filosofo arriva a teorizzare come fondamentali in scienza il principio di tenacia e quello di
proliferazione.
Il principio di tenacia è già presente in Kuhn, ma riferito esclusivamente ai periodi di scienza
normale. Esso, in contrapposizione a Popper, richiede che una teoria sia conservata nonostante
l'esistenza di fenomeni in contrapposizione ad essa.
Senza di esso saremmo costretti ad abbandonare una teoria prima ancora che dia frutti, non
2 La fisica aristotelica tentava di rispondere alla domanda “Perché avvengono i fenomeni?”.
Uno dei cambiamenti fondamentali operati dalla cosiddetta “rivoluzione scientifica” è stato modificare la domanda
in “Come avvengono i fenomeni?”. Per molti è stato proprio questo cambiamento di obiettivo a far nascere la
scienza moderna, infatti, la fisica aristotelica, pur essendo basata sull'osservazione non è generalmente ritenuta
scientifica in quanto dava spiegazioni metafisiche sul motivo dei fenomeni.
4
necessariamente nel campo in cui era stata inizialmente prodotta, ma anche riguardo ad altri campi
del sapere. Se la abbandonassimo, perderemmo ciò che di buono ha da offrirci, fosse anche il
semplice sviluppo di nuovi metodi matematici da sfruttare in teorie diverse.
Si consideri inoltre che nessuna teoria appena sviluppata è in grado, secondo Feyerabend, di
spiegare ogni fenomeno nel suo campo di applicazione. Ogni teoria andrebbe quindi abbandonata
subito3.
Il principio di proliferazione afferma che la scienza non può identificarsi con un'unica teoria e un
unico metodo, al contrario è proprio attraverso la dialettica tra teorie differenti che il sapere
progredisce.
Di conseguenza, pur se una teoria fosse in grado di spiegare ottimamente le osservazioni, è bene che
vi siano scienziati non conservatori che creino teorie alternative, perché la scienza progredirebbe
attraverso questo confronto.
Radicalizzando le proprie posizioni, l'epistemologo arriva ad affermare che la scienza non solo non
può non trasgredire le regole del metodo, ma che addirittura trae beneficio a farlo. Leggiamo infatti:
“Ci sono circostanze nelle quali è consigliato introdurre, elaborare e difendere ipotesi ad hoc, o
ipotesi il cui contenuto sia minore rispetto a quello delle ipotesi alternative esistenti e adeguate
empiricamente, oppure ancora ipotesi autocontradditorie, ecc. "(P. K. Feyerabend, Contro il
metodo).
Sulla base di tutto ciò egli giunge alla formulazione della teoria dell'anarchismo metodologico. Essa
si basa sulla negazione di una qualsiasi utilità di un metodo stringente e sull'idea che in scienza
“anything goes”, “qualsiasi cosa va bene”, ovvero che anche le più disparate e trasgressive “astuzie
della ragione” sono utili per l'avanzamento della scienza.
Chiaramente questa teoria lascia sconcertati chi possiede posizioni strettamente razionaliste, in
quanto tutto ciò indica come la scienza sia anch'essa un'attività irrazionale.
Feyerabend sostiene, inoltre, la tesi della varianza del significato.
Egli afferma che un termine utilizzato in una teoria è definito strettamente da come esso è utilizzato
e dai presupposti della teoria stessa. Come tale un termine dipende dalla teoria e lo stesso termine
utilizzato in più teorie differenti può acquisire un significato differente4.
In questo modo si va a riprendere il concetto kuhniano dell'incommensurabilità delle teorie. Come
lo stesso Kuhn affermava, teorie differenti sono incommensurabili quindi, nella scelta tra varie
teorie, intervengono fattori irrazionali e non un confronto scientificamente valido.
Ciò mette in crisi anche il concetto di progresso come definito da Popper e dai neopositivisti.
Popper definiva il progresso come un continuo accumulo di conoscenze. Egli si basava sull'idea che
una teoria potesse comprendere la teoria percedente come caso particolare.
Feyerabend fa notare che, se le teorie sono incommensurabili, non è possibile affermare che una
includa l'altra, di conseguenza l'idea di progresso così intesa non è valida.
Feyerabend dà una definizione di progresso completamente differente a quella di Popper. Il
progresso è inteso come emancipazione etico-politica dell'umanità.
Sulla base delle sue idee epistemologiche afferma che non vi è motivo per cui la sienza sia preferita
3 In realtà anche Popper si rendeva conto di ciò affermando di conseguenza che il principio di falsificazione andrebbe
applicato solo dopo che la teoria avesse iniziato a svilupparsi.
4 Un esempio molto chiaro è l'uso del termine massa. In meccanica classica essa è una proprietà costante di un corpo,
ma in meccanica relativistica la massa può variare a seconda della velocità (vedi cap. Teoria della relatività). Il
termine massa ha significati completamente differenti nelle due teorie.
5
a livello politico rispetto ad altre tradizioni culturali, anche più antiche. Perché, riprendendo un suo
esempio, uno stato deve sostenere la medicina scientifica e non quelle alternative?
Arriva quindi a definire il relativismo democratico.
I nostri Stati, secondo il filosofo, influenzano troppo i bambini tramite l'educazione, imponendo
loro una cultura scientifica, ma anche principi morali e di convivenza civile. In tal modo una
persona non crescerebbe libera, ma condizionata da fattori imposti tramite l'educazione. Per
Feyerabend l'educazione deve essere invece il più libera possibile, senza alcuna imposizione di
schemi mentali; addirittura non si dovrebbe neppure educare a seguire una morale precostituita ma
ognuno dovrebbe sviluppare autonomamente una propria morale.
Tuttavia, per evitare che questa “società libera” cada nell'anarchia, le persone dovrebbero essere
controllate tramite un fortissimo corpo di polizia.
Al contrario di altri filosofi, Feyerabend aveva il pregio di non prendersi troppo sul serio, come lui
stesso afferma in Dialogo sul metodo. Di conseguenza è sempre difficile stabilire cosa nei suoi
scritti è provocazione e cosa è proposto seriamente.
Nonostante le sue radicalizzazioni e i suoi attacchi al sapere scientifico non siano molto
condivisibili, la principale lezione di questo epistemologo fuori dagli schemi è più che mai valida:
l'idea di poter imporre un unico metodo, valido per tutti e in ogni epoca storica, da seguire in modo
stringente per fare buona scienza è sbagliata e controproducente.
Inoltre, ci ha mostrato che la scienza è un'attività umana e, come tale, anch'essa in fondo è
un'attività irrazionale.
Ciò non toglie che essa resta il principale strumento a nostra disposizione per comprendere la realtà.
6
Introduzione
Una cultura prevalentemente umanistica e a tratti crociana ci presenta la scienza come un'attività
che, essendo totalmente razionale, non riguarda cose come i sentimenti e l'immaginazione e quindi
è inumana.
Ciò è falso. La scienza è di fatto un'attività specificatamente umana e come tale non è priva né di
sentimenti né tantomeno di immaginazione. Inoltre, come ho descritto nel prologo, la scienza non è
completamente razionale, ma possiede numerose componenti irrazionali.
La scienza, oltre a essere l'attività umana che forse più di tutte influenza le altre, è essa stessa
influenzata dalle più disparate discipline, anche da quelle da cui non ci si aspetterebbe.
In questa breve trattazione esploreremo e analizzeremo una di tali reciproche influenze: quella con
la letteratura e cinema di genere fantascientifico.
Un lettore occasionale può immaginare che la fantascienza abbia poco a che vedere con la vera
scienza, non molto di più di quanto opere fantastoriche abbiano a che vedere con la storia vera e
propria; per certe opere di basso livello, ma non solo, è certamente così.
Le opere di fantascienza hard5 al contrario attingono a piene mani al contesto scientifico del periodo
in cui sono state scritte e sebbene non si permettano di violare fatti accertati, analizzano a fondo
quel confine tra il noto e lo sconosciuto ricavando da esso tecnologie al limite dell'immaginazione,
ma comunque scientificamente plausibili.
L'influenza che la scienza ha sulla letteratura è ben visibile; ma possiamo per converso trovare
un'influenza della letteratura sulla scienza?
In molte opere di fantascienza sono proposte tecnologie che sembrano assurde per il tempo in cui
sono state immaginate, eppure pochi anni dopo diventano una realtà. Così come le biotecnologie
che anni fa erano solo nell'immaginazione di scrittori oggi sono parte della nostra vita. Così nel '45
su Hiroshima viene sganciata “Little Boy” realizzando le inquietanti previsioni di H. G. Wells nel
suo “Il mondo liberato”.
Anche sull'ideazione di teorie e non solo di tecnologie possiamo vedere come questo genere
letterario abbia precorso i tempi. Un esempio su tutti, come vedremo anche nella successiva
trattazione, l'idea, sempre di Wells, che il tempo sia una 4 a dimensione, che troverà validità
scientifica nella teoria della relatività.
Questo è particolarmente interessante. Certamente la semplice constatazione che un fatto precede
un altro cronologicamente non è garanzia che tra i due si intrattenga un rapporto causale, eppure
viene spontaneo chiedersi se esista almeno un'influenza reciproca. Rispondere che si tratta della
normale tendenza dell'uomo a vedere correlazioni anche dove esse non sono presenti è plausibile
ma non fuga tutti i dubbi.
È quindi effettivamente possibile che le opere di genere abbiano avuto un ruolo nel successivo
corso della scienza?
La scienza, nell'ottica degli epistmologi post-moderni è, come abbiamo visto, simile al lavoro di un
artigiano. Lo scienziato si lascia influenzare da ciò che lo circonda nella stessa formazione delle
proprie ipotesi.
Probabilmente non potremo mai sapere se effettivamente uno scienziato fosse stato al corrente delle
idee espresse in opere di genere fantascientifico, soprattutto per quanto riguarda scienziati e teorie
ormai vecchie di un secolo, come la teoria della relatività, quindi l'ipotesi di una possibile influenza
non potrà mai essere confermata. Resta comunque un'idea affasicinante e, se anche non fosse
5 Esiste una classificazione delle opere di genere fantascientifico, basata sulla loro aderenza a fatti scientifici
comprovati e sull'importanza che gli avanzamenti futuri in campo tecnico-scientifico hanno nel corso della trama.
Maggiore è l'importanza di queste immaginarie conquiste future, più l'opera è “hard”. Al contrario, se alcune
conoscenze scientifiche vengono ignorate, senza un adeguata spiegazione, l'opera è detta “soft”. La classificazione è
graduale e non stringente.
7
corretta, non possiamo bollarla come falsa a causa di un pregiudizio sulla natura del processo di
formazione delle teorie, che vede la scienza come isolata da ciò che la circonda. Pregiudizio che
possiede chiunque la elevi su una torre di avorio o, per converso, la getti nell'abisso delle attività
indegne per l'umanità.
Che esista o meno quest'ipotetica influenza, il legame tra scienza e letteratura, ma anche cinema,
fantascientifici esiste ed è estremamente interessante. Nel seguito vedremo il rapporto tra due opere,
The time machine e Do androids dream of electric sheep?, e il rapporto tra queste e diverse teorie
appartenenti a diverse discipline scientifiche.
8
Herbert G. Wells, The Time Machine
The Time machine is one of the first and most famous sci-fi novella
ever written.
The Time Traveller, whose name is not told us, is a Victorian age
English inventor.
The first narrator is a friend of him and he tells that during a weekly
dinner with some friends, the traveller uses to explain his theory that
time is a fourth dimension. This is permitting to us to travel throughout
time, just as we travel in the other three dimensions. To demonstrate his
ideas the inventor uses a tabletop model of a time machine that he sents
a few minutes ahead in the future under the eyes of the presents. The
narrator also tells that the traveller used to build another version of his
machine, capable of carrying a person throughout time.
The narrator becomes now the traveller himself.
The Time Traveller uses the machine to travel to year 802701 A.D. and here he meets a pacific
evolution of humanity, the Eloi. The Eloi are small and elegant humans who live in small
communities in large and futuristic, but deteriorated, buildings. They do not work and show lack of
curiosity so the traveller figures that living without any kind of worries thanks to advanced
technology led to involution of intelligence.
He then discovers that his machine has been dragged inside a strange, Sphinx-like building. During
the night he is approached by Morlocks, another evolution of humans, resembling apes that live
underground. Exploring their dwellings the inventor discovers that the underground work of
Morlocks makes possible the life of the Eloi on the surface. He also realizes that they care and feed
the Eloi to grow them as their own food. The traveller speculates that Eloi are the involution of
ancient dominating class living with no problems and worries and the Morlocks are the involution
of the worker class. During time, class relations changed and former dominators became food for
formers workers.
Back on the surface he saves from drowning the Eloi Weena, while noticing that no other Eloi tried
to save her. In a few days, the English and Weena develop an each other attractive relation, and the
inventor plannes to take the girl back to his time. Trying to find weapons to use against Morlocks to
recover the time machine, he discovers a museum where he finds matches. Matches are very useful
against Morlocks, because living underground they fear light and fire.
With fire in their hands, the traveller and Weena approach the
Morlocks galleries. Suddenly the Morlocks discover them and
during the battle the forest is catching fire and whiles the
traveller is successful to save himself Weena dies. So, with no
more interest in this epoch, the traveller enters the Sphinx
building and finds the time machine; the Morlocks try to kill him,
but he escapes thanks to the machine.
He travels 30 million years in future and sees that there are only
crab-like and butterfly-like creatures. He continues in future and
sees last moment of Sun's life.
Then he turns back in his laboratory, three hours after his left. He finds his friends waiting for him
to start the weekly dinner and he tells them his experience, producing as evidence the strange flower
given to him by Weena.
9
The novel ends with the first narrator telling that the following day he finds the traveller preparing
another voyage, with the promise to come back half an hour later. Three hours pass and the narrator
asks himself if the traveller will ever come back.
In spite The Time Machine is not the first novel in which we find the concept of time travel, (this
idea is used by Wells himself in a previous work, The Chronic Argonaut), the original content of
this work deals with the problems of the Victorian industrial society. It also expresses Wells'
socialist ideas, specifically referred to the problems of class division: if in future this division won't
disappear and workers won't gain better living conditions, humanity will degenerate.
Others literature works of this period deals with similar items, particularly works by Charles
Dickens.
Writing his novella, Wells was strongly influenced by the Darwinist theory of evolution. Basing on
Darwinist ideas of the English physician and zoologist Edwin Ray Lankester about degeneration of
species, he imagined that Homo sapiens will undergo involution caused by both inert and no fatigue
life on one side as far as on the opposite by terrible working and living conditions.
10
Teoria della relatività
Alla fine dell’ottocento, in fisica vi era la convinzione che fosse già stato scoperto tutto ciò che
c’era da scoprire, ad esclusione di due piccole “nuvole all’orizzonte”, come disse lord Kelvin. Da
una di queste “nuvole”, l’assorbimento del corpo nero e la catastrofe ultravioletta, nacque la teoria
dei quanti. Dall’altra “nuvola”, il problema dell’etere e dell’invarianza della velocità della luce,
derivò la teoria della relatività.
Nel 1905 un impiegato dell’ufficio brevetti di Berna, Albert Einstein, pubblicò sei importanti
articoli: fra questi l’articolo intitolato “Zur Elektrodynamik bewegter Körper“ e un secondo articolo
in cui viene espressa la famosa equazione E=mc2, trattano appunto della teoria della relatività
speciale che lo renderà famoso.
I fisici di fine '800 pensavano di poter spiegare ogni fenomeno grazie alle due teorie della
meccanica classica (basata sui tre principi di Newton e sulla legge di gravitazione universale) e
dell'elettromagnetismo di Maxwell. Quest'ultima permetteva di unificare i campi elettrico e
magnetico e di spiegare con sole 4 equazioni tutti i fenomeni ad essi correlati. Mentre però la
meccanica usava le trasformazioni6 di Galileo per modificare le equazioni cambiando il sistema di
riferimento, esse non potevano essere applicate alle equazioni di Maxwell senza che esse dovessero
essere modificate completamente nella loro forma. Ciò significava che, se si ritenevano valide le
trasformazioni di Galileo, le equazioni di Maxwell cambiavano con il sistema di riferimento. Il
matematico e fisico Lorentz trovò delle trasformazioni che risultavano valide per la teoria
dell'elettromagnetismo, ma che non erano applicabili alla meccanica classica. Esse però risultarono
essere quelle corrette nel contesto della teoria della relatività. Le vedremo più avanti nella nostra
trattazione.
Inoltre, la teoria dell’elettromagnetismo di Maxwell prevedeva l’esistenza di onde
elettromagnetiche dovute alla produzione di campi elettrici e magnetici autosostenuti. In particolare
1
c=
√ ε 0 μ 0 [1], con ε0 permittività elettrica del
la velocità di tali onde nel vuoto deve essere pari a
vuoto e μ0 permeabilità magnetica del vuoto. Quindi c = 299 792 458 m/s, valore pari a quello della
velocità della luce.
Maxwell propose (correttamente) che la luce fosse semplicemente un tipo di onda
elettromagnetica7. Propose inoltre l’esistenza di un mezzo, l’etere, in cui le onde elettromagnetiche
si trasmettessero e che avesse inoltre la funzione di sistema di riferimento assoluto per definire il
moto assoluto dei corpi. Eppure un famoso esperimento eseguito da Michelson e Morley mostrava
che la velocità della luce non varia nel tempo, mentre se l’etere esistesse la luce dovrebbe viaggiare
con velocità relativa diversa a causa della diversa velocità assoluta della terra nell’arco dell’anno.
Per questo motivo Einstein scrisse la propria teoria basandosi sui seguenti postulati:
1. Principio di relatività galileiano: non è possibile discriminare uno stato di quiete da uno
stato di moto rettilineo uniforme con esperimenti di fisica.
2. Invarianza della velocità della luce: per ogni osservatore inerziale (su cui la risultante
6 Per descrivere un fenomeno necessitiamo di un sistema di riferimento spaziotemporale che ci dia le coordinate del
fenomeno.
Cambiando sistema di riferimento per la descrizione dei fenomeni, chiaramente le coordinate spaziali e temporali
del fenomeno devono essere modificate. Conoscendo le velocità relative dei due sistemi di riferimento e le
coordinate in uno dei due sistemi, le trasformazioni sono le equazioni che permettono di trovare le coordinate nel
secondo sistema.
7 Michael Faraday aveva in precedenza dimostrato con un esperimento che un campo magnetico è in grado di
modificare la polarizzazione di un raggio di luce che attraversa un pezzo di vetro, mostrando così l'esistenza di un
legame tra campo elettromegnetico e luce. Maxwell confermò questo dal punto di vista matematico.
11
delle forze è nulla) la velocità di un’onda elettromagnetica è uguale a c.
Quindi, mentre nella fisica classica le velocità si compongono con la semplice somma algebrica,
nella teoria della relatività questo non è più vero, infatti, se così fosse due osservatori a velocità
differenti dovrebbero osservare diversi valori di c. Come concetto è estremamente poco intuitivo,
infatti noi siamo abituati a velocità di 7 o 8 ordini di grandezza inferiori a quella della luce, alle
quali la fisica classica è un'approssimazione più che valida.
Einstein nella sua analisi parte dall'esperimento concettuale dell'orologio di luce.
Questo è un orologio formato da due specchi A e B
su cui si riflette un raggio di luce. Siccome essa ha
una velocità finita e costante, impiega un tempo
finito, non nullo e costante per viaggiare da A a B e
tornare indietro. Questo tempo costituisce un tic
2d
Δt 0 =
c [2].
dell'orologio ed è
Chiamiamo tempo proprio Δt0 quello misurato dal corpo in movimento. Una definizione
formalmente più corretta di tempo proprio è: il tempo che separa due eventi che avvengono nella
stessa posizione.
Se l'orologio viene osservato da un osservatore non solidale, però, lo spazio che la luce percorre
cambia. Infatti durante il viaggio della luce, partendo dal punto iniziale, l'orologio si sposta di una
v Δt
2
quantità pari a
, quindi la luce non percorre un tragitto verticale, ma obliquo, di conseguenza il
tempo aumenta. Stesso ragionamento può essere fatto per il ritorno verso il primo specchio.
(
c Δt 2
v Δt 2
2
) =d +(
)
2
2
dalla quale
Applicando il teorema di Pitagora possiamo ottenere la relazione
2d
Δt =
2
v
c 1− 2
c e ricordando la [2] otteniamo:
ricaviamo algebricamente il tempo. Esso è
Δt 0
[3]
Δt =
2
v
1− 2
c
Questo fenomeno è chiamato dilatazione del tempo.
√
√
12
In meccanica relativistica si definiscono
concisamente si scrive:
β=
v
c
γ=
e il fattore lorentziano
1
√ 1−β 2
[4], quindi più
Δt =Δt 0 γ [3]
Ovviamente, per il primo postulato della teoria della relatività questa dilatazione deve valere per
ogni sistema, esseri viventi inclusi; se così non fosse, infatti, potremmo discriminare uno stato di
quiete da uno di moto rettilineo uniforme semplicemente osservando l'orologio a luce. Questo però
implica che accorgersi della dilatazione del tempo sia impossibile. Inoltre, mentre un osservatore
non solidale con noi osserva un nostro “rallentamento” a causa di questo effetto, noi vediamo lo
stesso effetto per l'osservatore: lo stato di quiete e di moto, infatti, dipendono esclusivamente dalla
velocità relativa dei due sistemi e non hanno nulla di assoluto.
Consideriamo ora le lunghezze. È possibile misurare una lunghezza semplicemente facendo partire
un raggio di luce è misurare il tempo che esso impiega a percorrere la lunghezza e tornare indietro.
Siccome però il tempo si modifica in relazione alla velocità relativa di due sistemi, anche le
lunghezze si modificano. Due sistemi in moto rettilineo uniforme osservano dunque una
contrazione delle lunghezze.
l=
l0
γ [5]
È importante notare che questo effetto esiste solo lungo la direzione del moto del sistema.
Utilizzando questi due effetti è ora possibile ricavare le corrette trasformazioni da utilizzare nel
contesto della teoria della relatività. Si ricava che le trasformazioni valide coincidono con quelle di
Lorentz, che sono quelle corrette per l'elettromagnetismo di Maxwell. La teoria della relatività si
dimostra quindi essere perfettamente compatibile con l'elettromagnetismo, al contrario della
meccanica newtoniana.
Considerando il caso particolare di due sistemi di riferimento in moto relativo lungo l'asse x, le
trasformazioni di Lorentz sono:
x ' =γ ( x−v t )
y' =y
z ' =z
t '=γ (t−
vx
)
2
c
Date queste, si modifica anche la composizione delle velocità. Nella meccanica classica le velocità
si componevano facendo a semplice somma algebrica delle singole velocità. Ora nella meccanica
relativistica la formula è più complessa:
v +v
v 13= 12 23
v 12 v 23
1+ 2
c
indicando con vnm la velocità di un corpo n rispetto a m.
Gli effetti di contrazione dei tempi e dilatazione delle lunghezze implicano un altro rimarchevole
effetto. Immaginiamo un corpo di massa m0 e velocità v rispetto a terra: noi osserveremo una
quantità di moto p=m0 v . Se passasse un osservatore inerziale a velocità relativistica, con moto
perpendicolare a quello del primo corpo, per effetto della dilatazione dei tempi esso osserverà una
velocità di tale corpo notevolmente inferiore. Per il principio di conservazione della quantità di
13
moto, però, la quantità di moto deve apparire uguale anche a questo osservatore. Ciò significa che
oltre alla velocità deve variare anche un altro parametro, cioè la massa. Questo è un risultato
sconcertante. Viene così a cadere un altro caposaldo della scienza pre-novecentesca: la
conservazione della massa. Infatti, se la velocità osservata è pari a v'=v/γ 8, e dovendo noi ottenere
che m0v=mv', con m la massa osservata, detta massa inerziale, e m 0 la massa a riposo, allora
m0v=m'v/γ. Otteniamo, dunque, che la massa inerziale deve essere m=m 0γ [6]. Ciò significa che
all'aumentare della velocità relativa la massa osservata sarà maggiore. Possiamo notare come al
tendere della velocità a quella della luce, il fattore lorentziano (si veda la [4]), e dunque la massa
inerziale, tende all'infinito! La massa che compare nell'espressione della quantità di moto
relativistica non è quindi la massa a riposo, ma quella inerziale. Esprimendo la quantità di moto
relativistica in termini della massa a riposo:
p=m0 v γ [7]
Come può “crearsi” nuova massa? Se noi imprimiamo una forza a un corpo, questo subirà
un'accelerazione, secondo il 2o principio della dinamica di Newton, F=ma. Imprimendo una forza
noi spostiamo il corpo, quindi effettuiamo un lavoro L=Fs, ma per farlo noi dobbiamo fornire un
uguale quantità di energia al corpo, che esso immagazzina sotto forma di energia cinetica. Se però
la massa del corpo aumenta all'aumentare della velocità, questo significa che, a parità di forza
impressa, quindi di energia fornita, man mano che accelero la velocità crescerà sempre più
lentamente. Infatti, per il 2o principio, maggiore è la massa, minore è l'accelerazione. Ciò significa
però che se noi calcoliamo l'energia cinetica in modo classico, essa aumenta sempre più lentamente,
ma l'energia che noi forniamo è sempre la stessa: l'energia sembra allora scomparire. Ecco quindi da
dove deriva la massa: essa non viene creata, ma è la stessa energia che si trasforma in massa. La
massa è una forma di energia.
Questa analisi mostra anche come mai sia impossibile raggiungere la velocità della luce:
l'accelerazione diminuisce fino a tendere a zero all'aumentare della velocità, rendendo impossibile
un continuo aumento di velocità.
Qual è dunque la corretta espressione dell'energia? Essa richiede l'uso del calcolo differenziale (vedi
appendice).
Si ricava che l'energia totale relativistica è uguale a E=m 0c2γ [8]. Espandendo in serie, essa risulta
uguale a E=m0c2 + ½ m0v2 + 3/8 m0v4/c2 + … Per basse velocità, i termini successivi al secondo
diventano irrilevanti, contenendo potenze della velocità della luce al denominatore. Il secondo
termine corrisponde, infatti, alla forma dell'energia cinetica nella meccanica classica. Il primo
termine invece non contiene la velocità nella sua espressione a esclusivamente la massa a riposo.
L'energia di un corpo a riposo non è quindi nulla, a differenza della teoria classica 9. A cosa è
dovuta? Abbiamo precedentemente osservato come la massa sia una forma di energia. Anche la
massa a riposo deve quindi contenere energia e questa è data dal primo termine: E0=m0c2, con E0
energia della massa a riposo. L'energia contenuta nella massa è spaventosamente grande e lo
dimostra quando si converte in altre forme di energia, come ad esempio durante la fissione o la
fusione nucleare.
Ora si consideri il concetto di tempo come dimensione, presente nel libro di Wells. Nella teoria
della relatività ci si rende conto che non si può considerare lo spazio separatamente dal tempo. Ogni
modifica dello spazio corrisponde, infatti, una modifica del tempo. Di conseguenza non si può non
considerare il tempo come un'ulteriore dimensione, intrinsecamente unita allo spazio. Minkowskij
8 Infatti vale solo l'effetto di dilatazione dei tempi e non quello di contrazione delle lunghezze, in quanto i moti sono
perpendicolari quindi non si osserva questo effetto.
9 In questo caso si considera solo l'energia dovuta alla velocità o alla massa e non l'energia potenziale, termica oppure
chimica, che possono essere non nulle per un corpo a riposo anche nella teoria di Newton.
14
introdusse lo spaziotempo quadridimensionale con le coordinate x, y, z (spaziali) e ict (temporale),
dove i= √−1 . Applicando il teorema di Pitagora a uno spaziotempo con coordinate così definite, si
ottiene che la distanza di un evento nello spaziotempo dall'osservatore (le cui coordinate sono
O(0;0;0;0)) si calcola:
d = √ x + y + z −( ct )
2
2
15
2
2
Appendice matematica:
energia cinetica relativistica, derivazione
Dalla definizione di energia cinetica:
v
v
E k =∫ F ds=∫
0
ricordando che
0
v
d
( mv)ds=∫ v d (mv)
dt
0
dp
ds
F=
per la seconda legge della dinamica e che v=
.
dt
dt
Integrando per parti e sfruttando la [6], definizione di massa inerziale:
v
v
m0 v 2
m0 v
m0 v 2
v2
2
E k =mv −∫ mv dv=
−∫
dv=
+m0 c 2 1− 2 −m0 c 2=
c
0
v2 0
v2
v2
1− 2
1− 2
1− 2
c
c
c
Sommando i primi due termini:
m0 v 2+m0 c 2−m0 v 2
m0 c 2
2
=
−m0 c =
−m0 c 2=mc 2−m0 c 2=( m−m0 )c 2
2
2
v
v
1− 2
1− 2
c
c
√
√
√
√
√
√
E k =(m−m0 )c2
Da questa possiamo vedere come un guadagno in energia può essere interpretato come un guadagno
di massa.
Questo risultato è generale e può essere considerato valido per una qualunque variazione di energia.
Di conseguenza di può scrivere:
2
ΔE k =( Δm)c
La quantità m0c2 è chiamata energia a riposo e sommandola all'energia cinetica si ottiene l'energia
totale:
2
m0 c
2
2
E=E k +m0 c =
=mc
2
v
1− 2
c
√
Si noti che l'energia totale così definita contiene l'enegia cinetica e quella a riposo ma non quella
potenziale.
16
Evoluzione delle specie tramite selezione naturale
“Come è nata la vita?” e “Come si sono formate tutte le specie viventi?” sono tra le domande che
l'umanità si pone da sempre.
Da quando l'uomo ha iniziato a speculare su ciò che lo circonda, ha immaginato risposte di carattere
mitico-religioso, risposte che implicavano che ogni specie vivente fosse sempre esistita fin dalla
creazione del mondo.
Quando in Grecia si iniziò a dare spiegazioni di tipo filosofico-scientifico alle domande dell'uomo,
i sistemi filosofici più diffusi, in particolare quello aristotelico, avevano una visione fissista delle
specie viventi, ovvero non consideravano la possibilità che le specie nascano, si modifichino e si
estinguano. Idee evoluzioniste, che ipotizzavano che le specie possano modificarsi, appunto
evolversi, erano comunque già presenti in sistemi filosofici precedenti a Aristotele, quali in
Democrito ed Epicuro. L'influenza della visione aristotelica del mondo però è stata talmente potente
in ogni branca del sapere, che il fissismo ha dominato la biologia fino all'Ottocento. A questo si è
aggiunta l'influenza della dottrina delle Chiese cristiane che per secoli ha diffuso una visione
creazionista del mondo, strettamente legata ad una interpretazione letterale della Genesi secondo la
quale le specie sono state create da Dio nella loro forma attuale.
La principale obiezione a visioni fissiste è l'esistenza dei fossili. Aristotele non aveva assolutamente
capito cosa fossero, ma quando nel Settecento si accende l'entusiasmo per la paleontologia si inizia
a capire che essi sono esseri viventi morti, molti dei quali appartenenti a specie ormai estinte.
Inoltre si trovano fossili di esseri simili a specie oggi esistenti, ma certamente non appartenenti a
esse.
Si sviluppano così le prime teorie evoluzioniste sull'origine delle specie basate su osservazioni
scientifiche: tra queste è importante ricordare la teoria di Jean-Baptiste de Lamarck (1774 – 1829).
Questa si basa sul presupposto che ogni caratteristica fenotipica acquisita dai genitori si trasmette ai
figli.
Lamarck pensava che le necessità dovuta all'ambiente portasse a un maggiore uso di uno o più
organi per superare i problemi, portando così al miglioramento di quegli organi nell'individuo. Tali
miglioramenti si trasmettono quindi ai figli e, mano a mano che ciò accade e le variazioni si
accumulano, le specie si differenziano.
L'evoluzione delle specie, in questa teoria, avviene a causa di una tendenza quasi metafisica delle
forme viventi verso una maggiore complessità. Non è contemplata la possibilità di una
degenerazione.
L'esempio classico portato a dimostrazione della teoria di Lamarck riguarda la lunghezza del collo
della giraffa. Studi paleontologici hanno mostrato come gli antenati della moderna giraffa avessero
un collo molto più corto. La teoria lamarckiana spiega questa evoluzione ipotizzando che, per
raggiungere i germogli più alti, le giraffe sforzassero il collo allungandolo. Tale variazione è stata
poi trasmessa ai discendenti e di generazione in generazione il collo ha continuato ad allungarsi.
A ostacolare le teorie creazioniste e fissiste arrivò inoltre la scoperta del passato antico della Terra.
A fine '700 la teoria geologica più diffusa era il catastrofismo che ipotizzava che il pianeta fosse
nato in tempi abbastanza recenti e che le formazioni geologiche fossero dovute a “catastrofi”.
Questi grandi sconvolgimenti avrebbero da soli determinato un significativo cambiamento della
morfologia geologica della Terra, formando montagne e canyon. Tuttora gruppi creazionisti credono
in una simile spiegazione della geologia terrestre.
Tra Settecento e Ottocento inizia a diffondersi la teoria dell'attualismo. Questa afferma che le
17
formazioni geologiche sono dovute al lento e costante effetto, tuttora esistente, di agenti fisici
interni e esterni alla crosta terrestre. Uno dei presupposti chiave di questa idea, che la opponeva alle
teorie fissiste, era che il nostro pianeta e, di conseguenza la vita, avessero un'età estremamente
superiore rispetto a quella ipotizzata finora, infatti l'effetto degli agenti è cumulativo e un pianeta
troppo giovane non avrebbe le formazioni geologiche maestose che oggi osserviamo. Di
conseguenza, se l'attualismo è corretto, la vita ha avuto molto tempo per svilupparsi e per evolversi.
L'attualismo era stato ipotizzato da James Hutton, ma fu Charles Lyell (1797 – 1875) il primo
geologo a spiegare chiaramente e a diffondere nella comunità scientifica questa teoria.
Il trattato Principi di geologia di Lyell non influenzò solo il mondo accademico, ma anche un
giovane medico che si avviava a una carriera ecclesiastica, Charles Darwin (1809 – 1882). Darwin
era un appassionato naturalista, interessato di biologia e geologia.
Nel 1831 si imbarcò sul brigantino HSM Beagle come naturalista non pagato10, portando con se il
primo volume del trattato di Lyell e facendosi spedire il secondo mentre era in viaggio. Il viaggio
con il brigantino gli permise di raccogliere osservazioni sulle specie viventi che incontrava,
osservazioni che gli permetteranno poi di sviluppare la propria teoria che verrà pubblicata per la
prima volta il 24 novembre del 1859 nel saggio L'origine delle specie (titolo completo:
Sull'origine delle specie per mezzo della selezione naturale o la preservazione delle razze favorite
nella lotta per la vita) che da allora costituisce una delle opere cardine della storia scientifica.
Un altro naturalista che viaggiò in Sud America e nel Borneo e dalle sue osservazioni ricavò una
teoria evolutiva fu Alfred R. Wallace (1823 – 1913). Sebbene spesso non sia ricordato, nello stesso
periodo giunse alle medesime conclusioni di Darwin, tanto che entrambi considerati padri della
teoria della selezione naturale.
Il Saggio sul principio di popolazione di Thomas Malthus fu un altra lettura molto influente sullo
sviluppo della teoria della selezione naturale da parte di Darwin e Wallace.
Il saggio di Malthus spiegava le sue idee sulla crescita della popolazione umana, secondo le quali,
mentre le risorse crescono aritmeticamente, la popolazione umana cresce geometricamente11.
Secondo Malthus se non si fosse intervenuti limitando la crescita della popolazione umana, presto o
tardi si sarebbero superate le risorse disponibili, andando incontro a una catastrofe ambientale ed
umana.
Per i due naturalisti le idee di Malthus sono applicabili, oltre che alla popolazione umana, anche alle
popolazioni animali. In sintesi, la mancanza di risorse pone un tetto massimo alla popolazione
complessiva.
Ma come mai sopravvivono alcuni individui e non altri?
Per Darwin e Wallace, ogni individuo ha caratteristiche leggermente differenti da quelle degli altri
appartenenti alla stesse specie e tali peculiarità non sono dovute a un uso particolarmente accentuato
di un organo, come teorizzato da Lamarck, ma semplicemente al caso. Queste differenze possono
costituire un vantaggio rispetto all'ambiente circostante oppure essere sfavorevoli. Chiaramente è
più probabile che si riproduca chi possiede caratteristiche peculiari favorevoli, trasmettendo così tali
caratteri ai discendenti. Si noti che le differenze non sono caratteri acquisiti, i quali non sono
10 Lo scopo della missione era completare gli studi idrografici del Sud America.
Darwin fu imbarcato in quanto il capitano FitzRoy del Beagle desiderava portare con se nel viaggio un gentleman di
compagnia, come un naturalista che portasse reperti dei luoghi visitati. Uno dei motivi di questo desiderio era anche
la paura di cadere in depressione per la solitudine, dopo che il precedente capitano del brigantino si era suicidato per
questo motivo.
11 Una crescita aritmetica segue una legge di crescita lineare; in un grafico cartesiano sarebbe rappresentato da una
retta. La crescita geometrica invece è esponenziale.
18
trasmissibili12, ma caratteri presenti sin dalla nascita e dovuti esclusivamente al caso.
La selezione degli individui sulla base dei caratteri casuali più o meno casuali, dovuta
all'interazione degli individui con l'ambiente viene chiamata “selezione naturale”.
L'esempio della giraffa sarebbe spiegato dalla teoria della selezione naturale affermando che
casualmente siano nate giraffe con un collo più lungo rispetto a quello delle altre giraffe. Per questo
motivo erano facilitati a raggiungere le foglie sugli alberi più alti, avendo così un vantaggio
riproduttivo sulle giraffe a collo corto. Alla generazione successiva vi saranno più individui con il
collo lungo e di generazione in generazione le giraffe a collo lungo diventeranno le uniche esistenti.
In modo formale la teoria di Darwin e Wallace si basa sulle ipotesi:
3. Il processo riproduttivo è stabile: gli organismi generano individui simili.
4. Nella maggioranza delle specie il numero di individui che sopravvivono e si riproducono è
piccolo in confronto al numero dei nati.
5. In ogni popolazione tra gli individui ci sono differenze non dovute all'ambiente e alcune di
esse sono ereditabili.
6. Quali individui riusciranno a riprodursi è determinato dall'interazione tra le differenza
individuali e l'ambiente; alcune variazioni, dette favorevoli, portano ad avere un numero di
discendenti maggiore; questo è il processo chiamato da Darwin selezione naturale.
7. Dopo un periodo di tempo abbastanza lungo la selezione naturale porta ad un accumulo di
cambiamenti tale da portare alla differenziazione delle specie.
È chiaro dunque perchè la teoria della selezione naturale aveva bisogno dell’attualismo. Mentre la
teoria di Lamarck portava a uno sviluppo in relativamente poco tempo, la selezione naturale è un
processo estremamente lento.
Si noti, inoltre, come lo sviluppo non porti necessariamente a una maggiore complessità: se
l'ambiente lo necessità si può avere anche una degenerazione13.
Essendo l'evoluzione un processo tanto lento, si può pensare che sia impossibile trovare prove
dirette. Invece, proprio a causa dell'intervento umano, in grado di sviluppare fortissime pressioni
evolutive, si è riusciti a osservare fenomeni di microevoluzione, ovvero fenomeni evolutivi su
piccola scala e in un lasso di tempo estremamente breve dal punto di vista geologico.
Il primo esempio è costituito dalla falena Biston betularia, il cui colore prima della rivoluzione
industriale era chiaro. Questa farfalla notturna, infatti, vive prevalentemente sul tronco chiaro delle
betulle ed il colore chiaro le consente una perfetta mimetizzazione sulla corteccia di questi alberi.
Quando l'Inghilterra iniziò a industrializzarsi, le emissioni dovute alla combustione del carbone
sporcarono i tronchi degli alberi, rendendoli neri e anche le falene cambiarono colore e diventarono
scure. Quando furono approvate le prime leggi sulle emissioni, i tronchi tornarono a essere chiari, e
con loro anche le falene.
H. B. D. Kettlewell provò che ciò è dovuto a una pressione selettiva da parte degli uccelli predatori.
Infatti, le farfalle scure sui tronchi chiari sono più visibili e quindi costituiscono una più facile preda
rispetto alle falene chiare; in condizioni normali quindi la pressione selettiva favorisce l’espansione
delle farfalle chiare. Quando però i tronchi si anneriscono a causa delle emissioni, la situazione si
capovolge e le falene chiare sono sfavorite. Questo fenomeno è denominato melanismo industriale.
12 In realtà, ricerche in un campo relativamente nuovo della biologia molecolare, l'epigenetica, dimostrano che gli
effetti ambientali possono modificare il modo in cui il patrimonio genetico viene espresso, attraverso l’inserimento
di gruppi, in particolare metili, sulle basi azotate del DNA. Tali cambiamenti sono così trasmissibili alla
discendenza. In un certo senso quindi è vero che caratteri acquisiti possono essere trasmessi ai figli, ma non è ancora
noto come esso influisca sull'evoluzione.
13 Questo fenomeno è stato studiato in particolare da E. R. Lenkester, il quale con le sue teorie influenzò notevolmente
H. G. Wells per scrivere il suo La macchina del tempo.
19
Un altro esempio è dato dallo sviluppo della resistenza agli insetticidi da parte di molti insetti.
Uno degli esempi più significativi di questa resistenza è stato osservato nei coccidi, insetti che in
California colpiscono gli agrumi. Acido cianidrico in alte dosi fu usato contro i coccidi agli inizi del
'900, ottenendo inizialmente un notevole successo, con l’eliminazione di quasi il 100% degli insetti.
Nel 1914 ci si accorse che per un tipo particolare di questo insetto, la cocciniglia rossa, iniziava a
non bastare la dose usata. Se in precedenza restava vivo il 1% di cocciniglie non resistenti, ora il
22% di insetti resistenti sopravviveva alla stessa dose. È stato provato che gli insetti resistenti e non
differiscono fra loro per un singolo gene, quindi l’uso dell’insetticida ha costituito il fattore di
selezione per le cocciniglie portatrici del gene della resistenza
Una resistenza dagli effetti anche peggiori è quella dei batteri nei confronti degli antibiotici.
Dopo la scoperta da parte di Alexander Fleming della penicillina, sono state scoperte moltissime
molecole con caratteristiche battericide. Presto divennero sfruttatissime, ma dopo relativamente
pochi anni sempre più batteri iniziarono a mostrare resistenza.
Joshua e Esther Lederberg dimostrarono che le cellule batteriche che mostrano resistenza sono una
semplice mutazione della popolazione iniziale, selezionate poi dall'ambiente, ovvero un'evoluzione.
Oggi è noto che la resistenza è portata da plasmidi, piccoli anelli di DNA trasferibili tra cellule.
Un esempio di microevoluzione dovuta direttamente all'uomo è la selezione artificiale.
Darwin la considerò del tutto analoga alla selezione naturale, analizzando in particolare gli incroci
di piccioni.
Un’ulteriore serie di prove a supporto delle teorie evolutive ci è data dalle strutture fenotipiche
omologhe e dalla biochimica e dalla biologia molecolare.
Le strutture fenotipiche omologhe sono strutture simili ma con funzioni differenti e il motivo della
somiglianza è, secondo l'evoluzionismo, la derivazione da un antenato comune.
Ad esempio, tutti i vertebrati presentano arti con una struttura anatomica simile che, nonostante
siano tanto differenti dal punto di vista morfologico, sono costituiti da ossa articolate nello stesso
modo. Questo fenomeno è così interpretabile: da un antenato comune le strutture anatomiche sono
evolute in un fenomeno di adattamento determinato dalla pressione degli ambienti. In questo modo
l’arto primordiale si è adattato, ad esempio, ad ala negli uccelli o a pinna nei mammiferi acquatici e
nei pesci.
A ulteriore dimostrazione della comune origine, tutti i vertebrati possiedono quattro arti 14 e
presentano tasche branchiali, almeno in un qualche stadio dello sviluppo embrionale.
Tutti gli esseri viventi sono costituiti da cellule. Sebbene le cellule fossero già state scoperte nel
'600 da Robert Hook, solo dieci anni dopo la pubblicazione di L'origine delle specie sarà dimostrata
la comune composizione degli esseri viventi. Da allora la biochimica e la biologia molecolare
hanno dimostrato come, a livello microscopico, vi siano numerosissime omologie fra le strutture e
le funzioni nei diversi esseri viventi: solo per citare qualche esempio, sono altamente conservate nel
corso dell’evoluzione la struttura delle membrane cellulari, la struttura e la funzione dei ribosomi, le
moltissime funzioni dell'ATP, i sistemi di comunicazione cellulare e, soprattutto il codice genetico e
l'uso degli acidi nucleici, DNA e RNA, come contenitori e trasmettitori dell'informazione genetica.
Tutto ciò dimostra una profondissima unitarietà tra tutti noi esseri viventi: aldilà delle differenze
morfologiche e degli adattamenti dei singoli, siamo tutti simili e abbiamo tutti la stessa origine.
La straordinarietà di Darwin e Wallace sta anche nell’aver ipotizzato l’esistenza di un meccanismo
di trasmissione dei caratteri ai figli, ben prima che Mendel eseguisse le sue ricerche sulla
14 Persino alcuni serpenti conservano ancora vestigia delle ossa delle pelvi e degli arti inferiori.
20
trasmissione dei caratteri ereditari e promuovesse la nascita della genetica. Oggi sappiamo che è
attraverso i cromosomi ed i geni che si trasmettono i caratteri ai discendenti e che le mutazioni sono
variazioni casuali del DNA dovute a effetti ambientali di tipo chimico o fisico o errori di
duplicazione, ma al tempo dei due scienziati tutto ciò non era noto.
Nonostante ciò hanno avuto il coraggio di proporre queste ipotesi che sapevano sarebbero state
usate dai loro detrattori.
21
Philip K. Dick, Do Androids Dream of Electric Sheep?
This novel take place in 1992 in San Francisco Bay area,
after a nucler war that left the Earth uninhabitable and
caused the extinction of nearly all animal species because of
radioactive fall-out.
Most humans left the Earth directed to other planets and the
few remained follow a particular religion, Mercerism. This
religion links the minds of the followers through Emphaty
Boxes for them to co-live the sufferings of Wilbur Mercer,
prophet of the faith. Members of this religion must also have
domestic animals to demonstrate emphaty for the nearly
destroyed animal world; more strange and rare is the animal,
more the possessor demonstrates wealth.
Humans living on other planets are using androids, humanlike robots, as servant, but sometimes some androids succeed
to run away and refuge on Earth. Androids are extremely
clever, more than the men, but they do not feel emphaty, thus
being dangerous for the people. Because of that, policemen
and mercenaries are targeted to switch them off, recognizing
androids from humans by measuring emphaty thanks to the
“Voigt-Kampf emphaty test”.
The protagonist of the novel Rick Deckart is in troubles because of his depressed wife and his
domestic animal, a sheep died since several years already. He couldn't buy a new one and replaced
it with an electric sheep, a perfect reproduction of his animal, but now he believes that an organic
animal only can give sense to his life again.
At the police station, he learns that Holden, the official bounty hunter of the district, was injured
during an operation devoted to catch eight Nexus 6 new model androids. As two of them only have
been captured, Deckart is offered to replace Holden and he accepts the job because the very large
wage will permit to him to buy a new animal.
Deckart goes to Rosen Industries, the androids’ factory in Seattle, to verify if the emphaty test is
successfully operating with this new android model.
Here he performs the test on Rachael Rosen, introduced as nephew of Rosen Industries head, Eldon
Rosen. She fails the test and Deckart concludes
that he is facing an android, but Eldon explains
that Rachael is in fact human. She just landed
from a starship where she was growing with
poor contact with other people, and that’s why
she lacks emphaty. This is a great problem for
the emphaty test reputation, because it means
that is not capable to recognize humans in
every situation.
Eldon offers the hunter a real owl as a gift, but
then Deckart realizes that Rachael is in reality
a true android and that Rosen Industries purpose is to discredit the test validity.
Deckart story across the one of J. R. Isidore, a “special”, i.e. a genetically damaged man, who lives
alone in an empty buiding in periphery and is employed as driver for an electric animals repairing
shop. He lacks intelligence due to radioactivity effects.
22
The Nexus 6 female android Pris Stratton, one of the six wanted and identical to Rachael, moves
into the building and meets Isidore. While he tries to befriend her, she wants to use him against the
bounty hunter.
Deckart recruits Rachael to capture the androids, but she is convincing him to have sex with her to
distract the hunter from his duty. When Deckart reveals to Rachael that he believes to love her, she
acknowledges to be used to always successfully distract bounty hunters with sex.
Abandoned Rachael, Deckart can totally devote himself to the mission and he is finally successful
in switching off all the wanted androids, including Pris, causing a nervous break down to Isidore,
because of the loss of his supposed lone friend.
Deckart gets a citation for his encomiable job, but once at home he discovers from his wife that
Rachael has killed their new organic animal.
He refuges in the desert where he develops an epiphany and finds a toad, the Wilbur Mercer's
favourite animal, thougth to be extinct. He returns home happy but her wife recognizes that the toad
is artificial.
The novel ends with Deckart wandering around how difficult is being aware of reality.
Once more humanity are responsible of their own dramatic future. Nuclear war is cause of the
destroy of the earth as we know it and remain men and women refuge into new false religion.
The androids they used to brought to their highest level of intelligence rebel against being servant of
a regressed humanity. The war affected sentiments expression, supposed to be the only discriminant
factor between humanity and robots and man and androids are overlapping. Human and artificial
intelligence cannot be resolved.
23
Artificial Intelligence e reti neurali
Da sempre l'uomo si considera superiore agli altri animali a causa della propria intelligenza. A
maggior ragione questo sentimento di superiorità è presente nei confronti delle macchine.
Con lo sviluppo dell'informatica si è però affacciato un interrogativo: è forse possibile simulare un
comportamento intelligente su un computer?
L'idea di computer risale al concetto di macchina universale di Turing.
Una macchina di Turing (di seguito MdT) è una macchina ideale in grado di manipolare i dati
presenti su un nastro di lunghezza infinita secondo determinate regole interne. Essa è quindi
un’idealizzazione astratta, ma soprattutto è una modellazione formale di una macchina in grado di
eseguire un determinato algoritmo. Esiste quindi una MdT per ogni funzione che possa essere
tradotta in un algoritmo implementabile. Gli algoritmi implementabili su una MdT sono detti
Turing-computabili.
È possibile però immaginare, e anche definire dal punto di vista matematico, una funzione in grado
di simulare il comportamento di una MdT arbitraria, sulla base dell'input che essa riceve; una MdT
che esegue una tale funzione è detta MdT universale in quanto è in grado di simulare ogni altra
MdT, di conseguenza ha la possibilità di eseguire ogni funzione Turing-computabile.
I matematici Alonzo Church e Alan Turing (il “padre” della macchina che porta il suo nome)
congetturarono quella che poi divenne nota come tesi di Church – Turing:
Supponiamo che vi sia un metodo che consente ad un essere senziente di dividere i numeri in due
classi. Supponiamo inoltre che questo metodo dia una risposta in un tempo finito e che dia sempre
la stessa risposta per ogni fissato numero. Allora: esiste […] una funzione generale ricorsiva che
dà esattamente le stesse risposte dell'essere senziente.
(tratta e adattata da Hostadter, Godel Escher Bach, un'eterna ghirlanda brillante)
In parole semplici, ciò che la tesi afferma è che tutti i problemi che possono essere intuitivamente
risolti sono implementabili e calcolabili dalla MdT universale. Questo però significa che ogni
algoritmo usato dal cervello può essere riprodotto; deve quindi esistere un insieme di algoritmi che
possano riprodurre il comportamento del cervello, dunque l'intelligenza!
Non è possibile dimostrare matematicamente la tesi ed i dibattiti intorno a essa sono più filosofici
che scientifici, ma la fiducia nella sua veridicità è la base dell'idea di poter creare un'intelligenza
artificiale (artificial intelligence, AI).
È stato il matematico e informatico John “uncle” McCarthy a creare questo termine nel 1956, ma la
paternità di questo concetto spetta proprio a Turing. Egli ideò inoltre un test, divenuto famoso come
test di Turing, che è in grado di distinguere se una macchina è intelligente o meno. In una stanza
siede un esaminatore messo in condizione di comunicare con due soggetti: la macchina e un
secondo uomo. Questi si trovano in un'altra stanza e l'esaminatore non sa quale dei due soggetti sia
la macchina. Quest'ultima passa il test se l'esaminatore non è in grado di discriminare mediante la
semplice conversazione quale fra i due soggetti sia essere umano. In tal caso la macchina ha
simulato in modo ottimale l'intelligenza ed è da ritenersi intelligente a tutti gli effetti.
La ricerca tecnologica e informatica sull'intelligenza artificiale è oggi molto sviluppata e ampia.
Uno dei più importanti ambiti di ricerca riguarda le cosiddette reti neurali.
Nel linguaggio scientifico si distinguono reti neurali biologiche e artificiali. Quelle biologiche sono
reti composte da neuroni e in neuroscienze si utilizza tale terminologia per riferirsi a piccoli gruppi
di neuroni che svolgono una determinata funzione.
Per reti neurali artificiali (Artificial Neural Network, ANN), anche chiamate semplicemente reti
24
neurali, si intendono modelli matematici che rappresentano l'interazione tra “neuroni artificiali”
interconnessi. Questi sono molto utili per analizzare il comportamento dei veri e propri neuroni, ma
anche nella ricerca in ambito di AI. Esse possono essere implementati da software o da hardware
dedicato.
Le ANN sono nate al fine di replicare funzioni tipiche del cervello umano e a tal scopo cercano di
riprodurre la struttura del cervello stesso.
Matematicamente un singolo neurone è modellato facendo uso di una serie di canali di ingresso (i
dendriti) da cui giungono le informazioni. A ogni canale di ingresso sono associati dei pesi, numeri
reali che modellano le sinapsi. Il neurone esegue la somma pesata dei dati in ingresso o net secondo
la seguente formula:
a= ∑ wi x i
,
dove:
wi il peso
xi l'ingresso dell'i-esimo canale.
Si noti che se w è positivo allora l'ingresso sarà sommato e la sinapsi sarà detta eccitatoria, invece
se w è negativo sarà sottratto e la sinapsi sarà detta inibitoria. Inoltre, si noti che maggiore è il
valore assoluto di w, maggiore sarà il peso che un canale avrà sul risultato finale. In questo senso i
pesi rappresentano la forza della connessione.
Il risultato restituito dal neurone viene calcolato tramite una funzione detta funzione di attivazione,
applicata alla somma pesata:
y= f (a )
Un neurone biologico possiede una soglia Θ, al di sotto la quale non scarica, cioè non trasmette
alcun segnale. Analogamente, per un neurone artificiale si deve quindi considerare anche la soglia
nel calcolo del risultato:
y= f (a )= f ((∑ w i xi )−Θ )
La soglia può essere modellata anche facendo uso di un fittizio canale 0 con ingresso x 0 = -1 e peso
associato wi = Θ.
Le funzioni di attivazione simulano la risposta del neurone sulla base dei dati in ingresso. Le più
usate sono:
8. Funzione soglia o funzione gradino:
f (a )=0, x<Θ oppure 1, x >Θ
Essa rappresenta in modo ottimale il comportamento di un neurone reale, la cui risposta è a soglia.
 Funzione sigmoide (funzione logistica):
f (a )=
1
−a
1+e
Altre funzioni spesso utilizzate sono:
 Funzione lineare:
f (a )=a

Funzione lineare a tratti:
f (a )=0 se x<−0,5 oppure a+0,5 se−0,5⩽ x⩽0,5 oppure 1 se x>0,5
Ad eccezione della prima, nella presentazione di queste funzioni si è considerata la soglia come un
canale fittizio w0, quindi già inclusa nella sommatoria a.
25
Ovviamente una ANN comprende molti neuroni. Vi sono svariate architetture di rete, cioè modi in
cui i neuroni sono collegati. Le principali architetture sono:
 Reti completamente connesse (non stratificate)
In questa architettura ogni singolo neurone è collegato con tutti gli altri. Le connessioni di una ANN
con questa architettura sono facilmente rappresentabili con un matrice i cui componenti w ij di riga i
e colonna j, rappresentano il peso della connessione dal neurone di indice i a quella di indice j.
 Reti stratificate
In questo tipo di architettura esistono diversi strati di neuroni. I neuroni di uno strato sono collegati
con tutti quelli degli strati immediatamente precedente e successivo, ma non sono collegati tra loro.
Il primo strato, in cui sono immessi i dati, è detto strato di ingresso e l'ultimo, che restituisce il
risultato, è chiamato strato di uscita. Gli strati intermedi sono detti strati nascosti poiché un utente
non può accedere ad esso, né inserendo dati, né leggendo i risultati. Le connessioni sono
rappresentabili tramite tante matrici quante sono le coppie di strati adiacenti. Ogni matrice contiene
i pesi delle connessioni tra coppie di neuroni di strati adiacenti.
Il funzionamento di una ANN dipende dalla specifica funzione di attivazione, dall'architettura e dai
pesi delle connessioni. Se tutti questi parametri fossero fissi, la rete potrebbe risolvere solo uno
specifico problema, invece la forza delle reti neurali risiede proprio nel poter mutare il proprio
funzionamento in base a un metodo di trial and error che permette alla rete stessa di correggersi in
modo da risolvere differenti problemi. Una ANN è quindi in grado di imparare.
Infatti le ANN possono comportarsi da black box, restituendo risultati anche molto precisi, pur
senza che si conosca il loro funzionamento interno.
Uno dei modi più usati per addestrare una ANN a risolvere un problema è l'apprendimento
supervisionato.
La prima fase dell'addestramento consiste nell'inizializzazione casuale dei pesi delle connessioni.
Dopodiché si presentano a uno a uno degli esempi. L'insieme di tutti gli esempi è chiamato training
set (insieme di addestramento).
Per ogni esempio si calcola l'errore, ovvero la differenza tra l'uscita aspettata e quella calcolata
effettivamente e lo si usa per modificare i pesi.
Si continua quindi a presentare in ordine casuale gli esempi alla rete fino a che l'errore scende al di
sotto di una soglia definita in precedenza.
A questo punto si presentano dei valori (il test set) differenti da quelli del training set, in modo da
controllare la capacità di generalizzazione della rete.
Per aggiustare i pesi si usa la cosiddetta delta rule o regola di Widrow – Hoff.
Indicando con o l'uscita effettiva e t quella desiderata, l'errore si calcola:
δ =t−o .
La delta rule prevede che il peso wi sia modificato di una quantità Δwi così calcolata:
Δw i=η δ x i
dove:
xi è l'ingresso sul canale di peso
wi e η è il learning rate, un numero reale compreso tra 0 e 1 che stabilisce la velocità di apprendimento
della ANN.
Se η è troppo basso, ovviamente la rete imparerà troppo lentamente, ma se è troppo alto l'errore oscillerà
intorno allo zero senza diminuire in valore assoluto. È quindi consigliabile partire con un learning rate
elevato, ma diminuirlo man mano che l'errore diminuisce.
Si noti che la quantità di cui viene corretto il peso dipende in modo proporzionale dall'ingresso x i, in modo
che ogni canale venga corretto in modo proporzionale a quanto a contribuito all'errore finale.
26
Un semplice algoritmo del tipo così descritto è valido per una rete con solo uno strato di ingresso e uno di
uscita. Infatti nel caso di reti multilayer, ovvero con uno o più strati nascosti, non è possibile modificare i
pesi associati ai canali d'ingresso dei neuroni nascosti in quanto non è possibile conoscere l'uscita desiderata
per ognuno di essi e quindi calcolare l'errore.
A causa di questa difficoltà le ANN all'inizio non suscitavano un grande interesse, ma nel 1986 è stato
inventato l'algoritmo di backpropagation.
Esso si basa su una generalizzazione della delta rule.
Indicando con wij il peso del canale dal neurone i-esimo al j-esimo, la correzione sarà data da
Δw ij =η δ j x i
Come detto precedentemente non è possibile calcolare direttamente l'errore δ j per un neurone nascosto in
quanto non si conosce l'uscita desiderata.
Si può però adattare un neurone nascosto in modo proporzionale al suo contributo all'errore sullo strato
successivo. Considerando l'ultimo strato nascosto, si può calcolare l'errore di un neurone come la somma
degli errori dei neuroni d'uscita ad esso collegati. Chiaramente il contributo di ogni errore dipende sia dal
peso della connessione tra i due neuroni e dall'errore del neurone d'uscita stesso. A questo punto si può
calcolare a ritroso l'errore per tutti i neuroni.
L'errore di un neurone nascosto si calcola quindi:
δ j= f ' (a j ) ∑ δ s w js
s
dove s indica l'indice dei neuroni dello strato successivo al neurone considerato.
Si noti che non è possibile utilizzare un neurone che sfrutti una funzione a soglia. La funzione gradino infatti
non è continua, quindi non è derivabile e nella formula dell'errore compare la derivata della funzione di
attivazione.
La funzione di attivazione più usata in questi casi è quindi la funzione sigmoide, continua e derivabile:
1
f (a )=
−a
1+e
−a
f ' (a)=−
−a
−a
−e
1
e
1 e +1−1
1
1
=
=
=
(1−
)= f (a)(1− f (a))
−a 2
−a
−a
−a
−a
−a
−a
(1+e ) 1+e 1+e
1+e
1+e
1+e
1+e
Sia dato un training set (Xk,Tk) di m esempi, tale che per ogni esempio di indice k, X e T sono
rispettivamente gli insiemi degli ingressi x j e delle uscite tj desiderate. L'algoritmo di backpropagation usa i
seguenti passi:
1. si inizializzano tutti i canali con pesi casuali;
2. si presenta un ingresso X e si calcolano le uscite o j per ogni neurone della rete;
3. usando T, si calcola l'errore δj per tutti i neuroni dello strato d'uscita:
δ j= f ' ( a j )( t j−o j) ;
4. partendo dall'ultimo strato nascosto e tornando indietro, si calcola l'errore per i neuroni nascosti:
δ j= f ' ( a j ) ∑ δ s w js
s
;
5. si calcola la correzione con la delta rule generalizzata e aggiornare tutti i pesi:
Δw ij =η δ j x i ;
6. si ripetono le operazioni dal punto 2 fino a che non siano stati presentati tutti gli esempi del training
set;
7. si calcola l'errore medio sugli esempi: se è minore di una soglia prefissata, l'algoritmo termina,
altrimenti si esegue un nuovo ciclo di presentazione del training set.
Un'ultima considerazione riguarda i problemi che possono essere risolti da una ANN. Una rete senza strati
nascosti può risolvere esclusivamente problemi lineari. Per risolvere problemi non lineari è necessario l'uso
27
di reti con più strati.
Le ANN infatti vengono usate soprattutto per la separazione degli ingressi in due classi. Considerando lo
spazio degli ingressi (di dimensione pari al numero di ingressi) una rete senza strati nascosti è in grado di
dividere in due semi-spazi: se gli ingressi fossero due equivarrebbe a dividere un piano in due semi-piani con
una retta. Reti con più strati nascosti invece possono dividere in modi complessi lo spazio degli ingressi; con
uno strato nascosto si possono dividere in regioni convesse, mentre con due si possono ottenere regioni di
forma complessa.
28
Bibliografia, sitografia e filmografia
Premessa: Come funziona davvero la scienza?
•
•
•
•
Donald Gillies, Giulio Giorello, La filosofia della scienza nel XX secolo, ed. Laterza
Lee Smolin, L'universo senza stringhe, ed. Einaudi
Paul K. Feyerabend, Dialogo sul metodo
Paul K. Feyerabend, Contro il metodo
Opera 1: H. G. Wells, The Time Machine
•
L'uomo che visse nel futuro, regia di George Pal
Teoria della relatività e Appendice matematica
•
•
•
•
Walker, Corso di Fisica vol. 2, ed. Linx
Alonso, Finn, Fundamental University Physics, Mechanics, Inter European Editions
F. M. Boschetto, Il treno di Einstein, http://fmboschetto.it/tde
serie di documentari televisivi Cosmos, Natonal Geographic Channel
Evoluzione tramite selezione naturale
•
•
Curtis, Barnes, Invito alla Biologia, ed. Zanichelli
Massimo Piattelli Palmarini, Jerry Fodor, Gli errori di Darwin, ed. Feltrinelli
Artificial Intelligence e reti neurali
•
•
Douglas Hofstadter, Godel Escher Bach, un'eterna ghirlanda brillante, ed. Adelphi
prof.sa Beatrice Lazzerini, Introduzione alle reti neurali,
http://info.iet.unipi.it/~lazzerini/sisd/Reti.pdf
29