Laboratorio 1 - Determinismo

Transcript

Laboratorio 1 - Determinismo
LICEO SCIENTIFICO G. PEANO – TORTONA
Anno scolastico 2011/2012
DETERMINISMO – INDETERMINISMO
a cura di Daniela Depaoli
Il laboratorio muove dal modello “deterministico” e “meccanicistico” del ‘700 di
Laplace e vuole chiarire le ragioni della sua crisi dentro l’evoluzione della scienza tra
‘800-‘900.
Questi i materiali-base che proponiamo:
1. Libro di testo: Filosofia e cultura vol.3 A. La scienza dell’800: geometrie non
euclidee; dall’immagine meccanicistica del mondo alla sua crisi nella
termodinamica, nella teoria cinetica dei gas e nell’elettromagnetismo.
Pp.376-381
2. Ivi, pp. 414-15 le “cause della variazione” in Darwin (v. anche p.420 aspetto
anti-deterministico del concetto di “variazione naturale” in Darwin)
3.
A cura di D. De Paoli, Determinismo-indeterminismo (dispensa sia in cartaceo
che on line)
4.
I.Licata, Complessità. Un’introduzione semplice (la crisi del riduzionismo
determinista) (dispensa cartacea)
5.
B.Bryson, Breve storia di quasi tutto (dispensa cartacea)
Affinchè una spiegazione sia efficace lo scienziato non deve chiamare in causa ogni volta una
ragione diversa: la scienza si ridurrebbe allora a una sterile raccolta di fatti. I fenomeni, invece,
devono essere ricondotti a un numero ristretto di cause e discendere da queste ultime secondo una
logica ferrea e necessaria, cioè matematica.
Secondo Laplace se si conoscessero le posizioni e le velocità di tutti gli oggetti dell’Universo
nonché tutte le forze a cui sono sottoposti in un dato istante, sarebbe possibile calcolare
esattamente queste grandezze per ogni tempo successivo: l’Universo e tutto ciò che contiene
sarebbero quindi completamente determinati.
Sul finire dell’Ottocento la scienza e la tecnologia erano trionfanti. L’Esposiziome mondiale di
Parigi del 1889, anno del centenario della Rivoluzione francese, fu una straordinaria mostra di
nuove tecnologie. Tanto per fare l’esempio più celebre fu inaugurata la torre Eiffel, all’epoca la
struttura artificiale più alta del mondo. Per competere con Parigi, nel 1893, l’anno successivo al
quattrocentenario della scoperta dell’America, gli americani organizzarono a Chicago la grande
esposizione colombiana illuminando con luce artificiale un’enorme area in cui il pubblico poteva
ballare tutta la notte. Negli stessi anni si iniziarono a produrre ascensori, condizionatori,
automobili. La scienza aveva fatto un buon lavoro e molti pensavano che avesse realizzato ogni suo
possibile compito. I coloranti artificiali in chimica, la teoria di Maxwell, la teoria di Newton
facevano pensare che non ci fosse più nulla da scoprire.
MA LA SCIENZA CAMBIA ROTTA….
Negli ultimi anni del secolo XIX furono compiute alcune scoperte sensazionali, tra cui ricordiamo:
la scoperta dei raggi X
la scoperta della radioattività
la scoperta dell’elettrone
All’alba del Novecento stavano per scoppiare due grandi rivoluzioni: la nascita e lo sviluppo della
meccanica quantistica (derivante dalla consapevolezza dell’incapacità della meccanica di Newton di
spiegare il comportamento di oggetti molto piccoli come gli atomi) e la teoria speciale della
relatività di Einstein (che rivelò come la meccanica di Newton non fosse adeguata per spiegare il
moto degli oggetti molto veloci).
Quindi per gli oggetti molto piccoli o molto veloci occorrevano nuove teorie.
Nel dicembre del 1900 Max Planck, fisico tedesco,
scoprì che l’energia non è una quantità continua: è
confezionata in pacchetti, o quanti, determinati da un
numero che oggi è chiamato costante di Planck.
Egli introdusse il concetto di quanto di energia soltanto
come una finzione per riuscire a risolvere tecnicamente
un problema legato alla cosiddetta radiazione del corpo
nero.
Per qualche anno il quanto di energia rimase come sospeso
nell’aria fino a quando nel 1905 Albert Einstein pubblicò
dei lavori che cambiarono la storia della fisica. In uno di
questi articoli propose l’idea che la luce fosse fatta di piccole
particelle, oggi chiamate fotoni. All’epoca Einstein le
chiamò quanti di luce e li immaginò come proiettili di una
scarica di mitragliatrice.
Già Newton aveva proposto una teoria analoga, detta teoria
corpuscolare, ma all’inizio dell’Ottocento Thomas Young
aveva compiuto un esperimento, detto della doppia fenditura,
facendo passare la luce attraverso due fori. E si accorse che,
dopo essere passata dai due fori, la luce formava figure
tipiche dell’interferenza: esattamente le stesse figure prodotte
dalle onde del mare, quando si ricompongono dopo essere
passate attraverso due aperture.
Questo esperimento aveva dimostrato che la luce era
composta da onde,e la teoria corpuscolare di Newton era
stata archiviata come un errore del grande fisico inglese.
Einstein, dopo più di un secolo, decise che la luce non era composta da onde, ma che era fatta di
particelle. Lo decise perché per spiegare l’effetto fotoelettrico (emissione di elettroni da parte di un
metallo colpito dalla luce), era dovuto ricorrere al concetto di quanto di energia. La teoria si diffuse
con successo fino a diventare una delle due grandi conquiste della fisica del Novecento, a fianco
della teoria della relatività.
Paradossalmente esperimenti diversi sembravano confermare due diverse teorie della luce: quella
ondulatoria e quella corpuscolare. A lungo si pensò che c’era qualcosa che non andava e che si
sarebbe arrivati a dover scegliere fra l’una e l’altra. Ma fu ancora Einstein a capire, nel 1917, che in
realtà non c’era bisogno di scegliere: si poteva dire che la luce era allo stesso tempo fatta di onde e
di corpuscoli, così come le onde del mare sono onde, ma fatte anche di piccole gocce d’acqua.
Questa idea, che oggi viene chiamata complementarità, sostiene che la natura della luce è duale,
allo stesso tempo sia corpuscolo che onda. È un’idea che va contro la metafisica quotidiana alla
quale siamo abituati e costituisce il contributo filosofico più duraturo della teoria dei quanti.
Esattamente come l’idea dello spazio-tempo che sostiene che lo spazio e il tempo non sono entità
separate, costituisce il contributo filosofico più duraturo della relatività.
Linea del tempo
circa 1632
Galileo elabora le
trasformazioni per
la caduta dei corpi
1687
I Principia di
Newton descrivono
le leggi classiche
del moto
1881
Michelson misura
con grande
accuratezza la
velocità della luce
1905
Einstein pubblica
l’articolo
Sull’elettrodinamic
a dei corpi in
movimento che
descrive la relatività
ristretta
1915
Einstein pubblica
Le equazioni di
campo per la
gravitazione,
presentando la
relatività generale
La meccanica quantistica fu portata a compimento da vari scienziati, oggi considerati i padri
della fisica moderna.
Niels Bohr perfeziona il modello planetario dell’atomo elaborato da Rutherford con l’ipotesi che il
momento angolare dell’elettrone dovesse essere uguale a un multiplo intero della costante di
Planck.
Werner Heisenberg, formula il principio di
indeterminazione, ossia che un esperimento, per
quanto preciso, non può misurare allo stesso
tempo la posizione e la velocità ( o meglio la
quantità di moto) di una particella. La sua
spiegazione è la seguente: supponiamo di usare
un microscopio per osservare la posizione di un
qualcosa di minuscolo. Il microscopio usa la
luce visibile di una certa lunghezza d’onda, e
perciò non è possibile localizzare nulla che sia
più piccolo della lunghezza d’onda della luce.
Per andare oltre bisogna usare la luce
ultravioletta che ha una lunghezza d’onda minore
della luce visibile; se non basta possiamo usare i
raggi X, che hanno una lunghezza d’onda ancora
più
piccola.
Pertanto
usando
onde
elettromagnetiche di lunghezza sempre minore è
possibile misurare la posizione di un oggetto con il grado di precisione desiderato.
Per ottenere informazioni sul minuscolo oggetto occorre colpirlo con almeno una particella di luce,
e se lo colpiamo con una particella di luce ne modifichiamo la velocità. Anche questo non è un
problema: possiamo colpirlo in modo sempre più delicato con una lunghezza d’onda maggiore.
Di conseguenza maggiore è la precisione con cui si misura la posizione, minore è la precisione con
cui possiamo misurare la velocità e viceversa. In conclusione non possiamo misurare con
precisione la posizione e la velocità contemporaneamente. Questo fatto cambia completamente le
regole della fisica perché secondo la meccanica newtoniana se misuriamo la posizione e la velocità
sappiamo come si svolgerà il moto da quel momento in poi. Con il principio do indeterminazione si
scopre che non è possibile prevedere cosa farà l’oggetto da quel momento in poi.
Heisenberg, Bohr e Einstein discussero a lungo per stabilire se ciò fosse realmente vero, se
esistesse davvero un limite fondamentale alla possibile precisione delle misure.
Nel 1926 Heisenberg inventò uno schema nuovo, che chiamò meccanica delle matrici, per dare un
fondamento teorico alle nuove idee. Questa nuova meccanica comprendeva le regole arbitrarie di
Bohr ma era molto più precisa e specifica, oltre ad essere matematicamente coerente. Era davvero
una teoria, poi denominata la teoria della meccanica quantistica.
Erwin Schrödinger, fisico austriaco, creò la
meccanica ondulatoria, un’altra forma della
meccanica quantistica che incorporava tutte le
regole di Niels Bohr, consistente in
un’equazione differenziale simile all’equazione
che descrive i campi elettrici.
Max Born, ebreo tedesco costretto ad abbandonare la
Germania durante la seconda guerra mondiale, analizzò i
risultati di Heisenberg e di Schrödinger, trovandoli entrambi
coerenti e validi, e rendendosi conto che le due teorie erano
equivalenti. Ciò che Schrödinger aveva elaborato con il
linguaggio del calcolo differenziale era equivalente a quanto
fatto da Heisenberg in linguaggio algebrico: si trattava
semplicemente di formulazioni matematiche diverse della
stessa teoria. Max Born capì inoltre cosa erano le onde
materiali descritte da Schrödinger. In realtà non erano onde
materiali, ma avevano a che fare con la probabilità: dove il
valore della funzione d’onda è grande è più probabile
trovare la particella, dove il valore è piccolo è meno
probabile.
Questa è l’interpretazione probabilistica della meccanica
quantistica, oggi universalmente ritenuta corretta.
Paul Dirac concepì un’equazione relativistica, detta
appunto equazione di Dirac, che descrive completamente
il comportamento di un elettrone in un campo
elettromagnetico. Questa equazione, che funzionava così
bene, aveva due tipi di soluzioni: a energia positiva, che
descriveva gli elettroni, ma anche una soluzione a energia
negativa a cui, all’epoca, non si sapeva dare
un’interpretazione fisica. Dirac pensò che la sua equazione
potesse descrivere due tipi di particelle, ma i due tipi
allora conosciuti (elettroni e protoni) non potevano
soddisfare l’equazione. Capì che dovevano esistere
particelle con le stessa massa dell’elettrone ma con carica
positiva. Tali particelle furono chiamate positroni, ma non
ci fu alcuna prova della loro esistenza fino a quando un
fisico americano, Carl Anderson, lì scoprì per caso nei
raggi cosmici (ignorando persino che Dirac ne avesse
predetto l’esistenza). Oggi queste particelle sono utilizzate
in campo medico per l’analisi dell’interno del corpo umano ( diagnostica PET) basato proprio sui
positroni, le prime particelle di antimateria ad essere state scoperte.
Le verità matematiche, a qualsiasi livello, sono spesso apparse in un ampio orizzonte dapprima in
forma appena percepibile e, gradatamente, in modo sempre più chiaro e distinto.
Ad esprimerlo con bella metafora è il matematico Bolyai al proprio e più famoso figlio Janos :
” molte cose hanno un’epoca nella quale esse sono trovate nello stesso tempo da molte parti,
proprio come le violette nascono dappertutto in primavera”.
Ottant’anni fa, nel 1931, Kurt Gödel pubblicava l’articolo
Sulle proposizioni formalmente indecidibili dei Principia
Mathematica e di sistemi affini, la cui proposizione VI tutte
le assiomatizzazioni coerenti dell’aritmetica contengono
proposizioni indecidibili è passata alla storia come il
teorema di incompletezza di Gödel. Un risultato che ha
avuto così tante conseguenze da renderlo punto di
riferimento in ogni settore del sapere e segnato, così, la
storia del pensiero.
Il risultato di Gödel segna la fine di un sogno, quello che fu
di Leibniz, del grande Hilbert, e di tanti altri autori, di
dominio assoluto della conoscenza; in questo senso il
teorema comporta un non so che di negativo perché pone un
limite alle possibilità dell’uomo anche se ne prova
l’inesuaribilità del compito. Infatti uno dei significati più
eccitanti del teorema di Gödel è che la matematica non finirà
mai.
Gödel fa un ragionamento molto semplice ispirato ai vecchi paradossi dell’antichità: in particolare
il paradosso del mentitore. Questo fu scoperto da Eubilide di Mileto intorno al IV secolo a.C. e
sostiene che ci sono dei problemi a dire: “io mento”. Il problema sta nel fatto che tale frase
dovrebbe essere vera o falsa. Ma se è vera, è vero che io mento e dunque sto dicendo il falso. Se è
falsa, allora è falso che io mento e dunque sto dicendo il vero. E questo è un paradosso: se la frase
è vera, allora è falsa, se è falsa allora è vera.
Gödel prese una frase analoga: “io non sono dimostrabile”. La frase dice di se stessa di non essere
dimostrabile.
Tale affermazione è vera, ma non dimostrabile: dunque un esempio di incompletezza del sistema.
La dimostrazione di Gödel consiste nel far vedere che questa frase si può rendere precisa
trascrivendola in linguaggio matematico, attraverso un meccanismo che si chiama gödelizzazione.
Questo è un modo di trascrivere frasi del linguaggio in formule aritmetiche, e dunque matematiche.
Ed è così che questo ragionamento linguistico e filosofico diventa un ragionamento matematico.
Però per poter fare la trascrizione c’è bisogno di avere almeno i numeri. Non lo si può fare nella
sola logica, che è troppo debole. Ma questa debolezza risulta essere una forza, perché diventa la
difesa contro l’incompletezza: è per questo motivo che Gödel ha potuto dimostrare nel 1930 il
teorema di completezza per la logica
Ma non appena c’è un minimo di matematica, allora si può riprodurre questo nuovo teorema di
Gödel del 1931 ed ecco che la matematica risulta invece essere incompleta.
Linea del tempo
circa 335 a.C.
Aristotele
formalizza la
logica del
sillogismo
1847
Boole pubblica
L’analisi
matematica della
logica
1910
Russell e
Whitehead cercano
di ridurre la
matematica alla
logica
1965
Lofti Zadeh
sviluppa la logica
fuzzy
1987
Il sistema di frenata
di una
metropolitana
giapponese si basa
sulla logica fuzzy
La logica fuzzy (sfumata) è un ampliamento dei confini tradizionali della logica.
La logica tradizionale si basa sugli insiemi, o collezioni di elementi; esiste allora l’insieme dei cani,
l’insieme degli oggetti marroni, o l’insieme dei cocker e non c’è dubbio riguardo all’appartenenza o
meno di un elemento a un certo insieme.
La teoria degli insiemi fuzzy si occupa di insiemi definiti in modo vago. Se esistesse l’insieme dei
cocker pesanti, quanto dovrebbe pesare un cocker per farne parte? Nel caso degli insiemi fuzzy
esiste un valore di appartenenza e il confine che separa ciò che è incluso nell’insieme da ciò che ne
è escluso è sfumato. La matematica, comunque, consente di precisare anche le sfumature.
La logica, rispetto ai tempi di Aristotele, ha subito una notevole evoluzione e oggi è una branca
della matematica estremamente dinamica sia dal punto di vista scientifico che applicativo.
per arrivare ai giorni nostri….
EFFETTO FARFALLA
Nella realtà non si possono conoscere esattamente tutte le posizioni, le velocità e le forze, ma il
corollario dell’idea di Laplace è che, se conoscessimo i valori approssimati di queste grandezze in
un certo istante, l’Universo non sarebbe poi molto diverso. Si tratta di un’assunzione ragionevole,
perché è indubbio che, se un velocista partisse con un decimo di secondo di ritardo, taglierebbe il
traguardo un decimo di secondo dopo. Il presupposto si cui si basava la teoria di Laplace era che a
piccole differenze nelle condizioni iniziali dovessero corrispondere piccole variazioni nei risultati
finali.
La teoria del caos distrusse questa convinzione poichè il mondo è di gran lunga più complesso.
Con l’espressione effetto farfalla si fa riferimento al concetto che una piccola variazione nelle
condizioni iniziali possa tradursi in un risultato completamente diverso da quello atteso. Il battito
d’ali di una farfalla in Sud America potrebbe scatenare un uragano in Europa, dove inizialmente era
previsto bel tempo, perché l’infinitesima variazione di pressione prodotta dal movimento delle ali
potrebbe generare uno schema meteorologico completamente diverso.
L’effetto farfalla fu scoperto casualmente nel 1961 da Edward Lorenz, un meteorologo del MIT
(Massachusetts Institute of Technology). Mentre il suo computer stampava dei grafici, Lorenz andò
a prendere un caffé, ma al suo ritorno trovò un risultato inatteso: invece delle mappe
meteorologiche che voleva ripetere aveva ottenuto dei grafici completamente diversi. La cosa lo
stupì profondamente, perché aveva inserito gli stessi dati iniziali e quindi si aspettava di ottenere le
stesse immagini. Ripensandoci, si rese conto che in realtà esisteva una differenza tra i valori iniziali
inseriti nei due casi: la prima volta aveva usato 6 cifre decimali, la seconda ne aveva riportate solo
3. Per indicare l’effetto prodotto da questa piccola differenza coniò appunto l’espressione effetto
farfalla.
Linea del tempo
1812
1889
Laplace pubblica il
Saggio in cui
espone la sua
visione
deterministica del
mondo
Poincaré si imbatte
nel caos durante lo
studio del
problema dei tre
corpi per cui riceve
un premio dal re di
Svezia
IDEA CHIAVE:
1961
Il meteorologo
Lorenz osserva
l’effetto farfalla
1971
Robert May studia
il caos a proposito
della dinamica di
popolazione
2004
La teoria del caos
diventa nota al
grande pubblico
grazie al film
The butterfly effect
UN’IMPREVEDILE REGOLARITÀ
Secondo le teorie più recenti la caratteristica del caos è che il comportamento casuale sembra
scaturire da un sistema deterministico, ossia il caos non è caotico, ma segue certe regolarità.
Quindi niente è perduto!
L’idea di proprietà emergenti in fisica
“Il comportamento emergente di un sistema è dovuto alla
non-linearità. Le proprietà di un sistema lineare sono infatti
additive: l’effetto di un insieme di elementi è la somma degli
effetti considerati separatamente, e nell’insieme non
appaiono nuove proprietà che non siano già presenti nei
singoli elementi.
Ma se vi sono termini/elementi combinati, che dipendono
gli uni dagli altri, allora il complesso è diverso dalla somma
delle parti e compaiono effetti nuovi”.
P.Bridgman, The Logic of Modern Physics, The MacMillan Company, New
York 1927