Capitolo 10. Dopo i teoremi di Gödel.

Transcript

Capitolo 10. Dopo i teoremi di Gödel.
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
Capitolo 10. Dopo i teoremi di Gödel.
10.1. Un panorama degli studi sui Fondamenti dopo il 1931.
Nei capitoli precedenti non si è seguito uno stretto progredire cronologico, avendo preferito privilegiare lo sviluppo delle idee. La data del 1931 segna comunque un punto di svolta nello studio dei
Fondamenti della Matematica, ed anche della intera Matematica. È stato osservato che la comunità
dei matematici accetta i risultati delle ricerche dei Fondamenti con un certo scetticismo, forse perché questi risultati sono originati da problemi matematici, ma risentono in qualche modo di ispirazioni filosofiche che vengono (oggi) viste con qualche sospetto.
Le difficoltà delle varie scuole che hanno cercato di risolvere il problema posti dai paradossi sono
stati la base di un generale sfiducia negli studi fondazionali, tanto che si è parlato del fallimento di
logicismo, intuizionismo e formalismo, lasciando ‘sopravvivere’ solamente il neo-cantorismo sotto
forma di platonismo insiemistico.
Si è anche influenzata negativamente la possibilità di una filosofia della Matematica. Può invece
stupire il sorgere di una filosofia della Fisica, legata alla innovazione data dalla teoria della relatività e dalle fisica quantistica. Questo ha portato, almeno in Italia, ad identificare quasi integralmente
la Filosofia della Scienza con lo studio epistemologico della Fisica.
Ma la situazione nel nostro paese è, a questo proposito, abbastanza diversa dal resto del mondo, data l’influenza della filosofia di Croce e Gentile. Per rendersene
conto basta leggere la prefazione di Paolo Pagli all’edizione italiana del volume di
Shanker (1991), una specie di catalogo di fraintendimenti degli studi logici ed in
Giovanni Gentile
(1875 – 1944)
particolari dei teoremi di Gödel in Italia.
10.1.1. Gli sviluppi della logica matematica. Il teorema di completezza richiede il confronto tra
l’approccio sintattico e quello semantico, ma come osservato in precedenza, nel 1930 non era disponibile una semantica formalizzata. D’altra parte per il programma di Hilbert non era necessaria
una nozione di modello.
10.1.1.1. Semantica formalizzata. La lacuna si colma con Tarski che pubblica in tedesco su Studia
Philosophica 1 (1935/36) il lungo lavoro (144 pagine) dal titolo Der Wahrheitsbegriff in den formalisierten Sprachen. In esso si presenta una semantica, che è divenuta ‘standard’ nei corsi introduttivi
319
Capitolo 10
Dopo i teoremi di Gödel.
di Logica matematica, che però presuppone una teoria degli insiemi abbastanza sviluppata. Questa
posizione, al suo apparire, è stata criticata da Chwistek che riteneva di dovere presentare una sorta
di semantica razionale che evitasse il ricorso a totalità infinite (di interpretazioni), la cui sola esistenza era, di per sé, problematica. L’avvento della seconda guerra mondiale e le sorti in essa della
Polonia influirono negativamente sullo sviluppo di un simile progetto.
Più radicale la critica di Gonseth, un filosofo della Matematica. Un concetto di
‘verità’, a suo parere, deve essere intrinseco alla Logica e non fare riferimento
ad una nozione esterna come quello di insieme, vista anche la critica che
l’intuizionismo fa a tale concetto. La polemica tra Gonseth e Tarski su questi
Ferdinand Gonseth
(1890 – 1975)
temi fu abbastanza vivace.
Tarski fa esplicito riferimento al Paradosso del mentitore. La sua ‘invenzione’ è quella di distinguere tra linguaggio e metalinguaggio. Il linguaggio è quello logico di cui si vuole fornire una semantica e il metalinguaggio è un linguaggio che è più ‘potente’ con strumenti espressivi maggiori, tra cui
i risultati della teoria degli insiemi. Per arrivare alla nozione di verità, si deve introdurre il concetto
di interpretazione del linguaggio e ne viene fornita una ‘versione’ sostanzialmente algebrica, identificandola con una struttura: insieme non vuoto con operazioni e relazioni.
La suddivisione è indispensabile per poter risolvere il paradosso del mentitore. Chi dice “io dico il
falso” introduce con ‘falso’ un metalinguaggio separato dal linguaggio oggetto. Solo così non si ha
più il conflitto antinomico generato dall’accettazione di una nozione assoluta di verità.
In base a questa definizione, nel caso della teoria dell’Aritmetica formalizzata, P, si ottiene il teorema di Tarski sui numeri di Gödel delle formule vere nel modello ‘standard’, visto in 9.1.3. Se infatti la teoria P, tramite le funzioni ricorsive primitive riuscisse ad esprimere la propria semantica in
essa si potrebbe presentare il Paradosso del mentitore.
10.1.1.2. Teoria dei modelli. Nasce così il concetto di modello di una teoria, cioè un’interpretazione
del linguaggio in cui è formulata la teoria e in cui gli assiomi della teoria sono veri. Si precisa anche
la nozione di conseguenza logica e a questo punto diviene chiara la ‘equivalenza’ tra l’operatore di
deduzione e quello di conseguenza logica, dimostrata nel teorema di completezza.
Ulteriore conseguenza è la nascita della teoria dei modelli, vale a dire uno studio che si avvale di
considerazioni di tipo algebrico (ad esempio il concetto di isomorfismo, di immersione) o puramente logiche (elementare equivalenza) dei modelli di una stessa teoria o di modelli di teorie diverse.
Trovano così naturale collocazione alcuni risultati che erano già presenti da tempo: Löwenheim
(1915). Über die Möglichkeiten im Relativkalkül, Matematische Annalen 76, 447 – 470. Questo teorema fu ripreso e generalizzato da Skolem nel 1920 (da cui ha origine la critica di Zermelo a Gö320
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
del). In base ad esso, una teoria (in un linguaggio finito o numerabile) che ha un modello infinito ne
ha anche uno numerabile. Oggi questo teorema è banale conseguenza della dimostrazione della
completezza data da Henkin. Infatti mediante essa si trova che una teoria coerente ha un modello
che si ottiene su un insieme che ha la stessa cardinalità dell’insieme delle formule. Quindi si può
omettere la condizione del linguaggio finito o numerabile.
L’analisi dei modelli si integra poi con un teorema ottenuto da Tarski nel 1928 che viene spesso
detto Teorema di Löwenheim-Skolem all’insù, in quanto afferma che una teoria che abbia un modello infinito ha modello in ogni cardinalità infinita.
10.1.1.3. Teoremi limitativi. I teoremi di Löwenheim-Skolem sono un primo esempio logico di risultati limitativi. I teoremi limitativi sono sempre stati presenti in Matematica. In un certo senso essi
sono tutti del tipo: si dimostra che una cosa che si vuol fare e che ci si aspetta che ‘funzioni’ come si
vorrebbe, non si può fare o più succintamente, si dimostra che ‘non’.
Esempi famosi sono le dimostrazioni che le equazioni algebriche di grado superiore al quarto non
possono, in generale, essere risolte per radicali, oppure che la trisezione di un angolo non può essere
eseguita con riga e compasso o che il rapporto tra circonferenza e diametro non si può costruire con
strumenti algebrici.
Per quanto riguarda la Logica matematica, i teoremi limitativi mettono in luce limitazioni intrinseche generali di teorie del primo ordine, o di certe particolari teorie del primo ordine. La teoria è in
grado di esprimere proprietà di tipo sintattico ed anche, come nel caso delle teorie sufficientemente
potenti, una parte della propria semantica, ma non è in grado di caratterizzare completamente queste
proprietà.
Ad esempio i teoremi di Löwenheim-Skolem all’ingiù (l’originale) e all’insù (quello di Tarski)
bloccano definitivamente una pretesa implicita nella formalizzazione. La scelta del linguaggio (corrispondente all’individuazione dei termini primitivi nella Scienza deduttiva di Aristotele) e quella
degli assiomi (ancora come nella Scienza deduttiva) se ‘buona’ dovrebbe giungere a dare una descrizione appropriata di una ‘realtà’ concettuale o esperienziale in modo completo e caratterizzante.
La millenaria conoscenza della Aritmetica e gli approfondimenti su di essa avutisi nella seconda
metà del XIX secolo dovrebbe convincere che essa si sia precisata una volta per tutte nella teoria
formalizzata P. Ma così non è, dato che non si riesce a caratterizzare il modello di
tale teoria (seppure a meno di isomorfismi). Allora si potrebbe pensare ad una richiesta più debole, vale a dire che mentre la totalità dei modelli sfugge ad ogni
controllo, ci si potrebbe accontentare di individuare in modo preciso (ma sempre a
Jerzy Łoś
(1920 – 1998)
meno di isomorfismi) quelli di una determinata cardinalità. Anche questa esigenza,
321
Capitolo 10
Dopo i teoremi di Gödel.
detta di categoricità in potenza, introdotta da Łoś nel 1954, viene delusa, per l’Aritmetica e per tutte
le teorie sufficientemente potenti, dal teorema di Ehrenfeucht. Si vede poi che anche la mancata categoricità in potenza è un fatto generale e che sono ben poche le situazioni matematiche che possono fregiarsi di questa caratteristica.
La categoricità in potenza viene anche impedita dall’applicazione del teorema di compattezza, messo in luce da Mal’cev nel 1941. Per fare un esempio, si consideri il linguaggio di P e si aggiunga ad
esso una nuova costante individuale c. Si aggiungano, inoltre, a P nuovi assiomi, uno per ogni numerale, della forma n < c 1, indicando con P’ la nuova teoria. Se P è coerente, ogni sottinsieme finito di assiomi di P’ è coerente. Infatti, se m è il massimo numerale presente nel sottinsieme finito di
assiomi di P’, è sufficiente, considerata una interpretazione che sia modello di P, interpretare c
nell’interpretazione di m+1, per soddisfare tutti gli assiomi di P e gli assiomi nuovi del sottinsieme
finito di P’ considerato. Questo può essere fatto per ogni sottinsieme finito di P’. Dunque la teoria
P’ è finitamente coerente, quindi P’, in toto, è coerente per il teorema di compattezza e in un modello di P’ l’interpretazione di c è quella di un massimo, concetto estraneo ad un qualunque modello di
P. Si parla in questo caso di modelli non standard dell’Aritmetica. Con questa tecnica si giunge a
considerare modelli non standard per altre teorie matematiche. Di grande rilievo quelli dell’Analisi.
In essi si ‘perde’ il principio di Archimede ed è una grande sorpresa ritrovare in essi gli infiniti e gli
infinitesimi attuali, oggetti presenti ed utilizzati nella ‘infanzia’ del calcolo differenziale ed integrale, prima che Cauchy applicasse il suo approccio riduzionista e ponesse il concetto di limite a base
di tutta l’Analisi matematica.
È interessante osservare che l’esistenza di modelli non standard dell’Aritmetica è stata provata per
la prima volta da Skolem nel 1933 evitando l’uso del teorema di compattezza, ma utilizzando una
tecnica in cui compare una costruzione mediante ultraprodotti.
Questa della non categoricità è una proprietà delle teorie del primo ordine che viene accettata ‘tranquillamente’ dai cultori di Logica, ma è assai poco compresa da matematici che, normalmente, pensano agli oggetti matematici da essi definiti come unici. L’apparente contraddizione è basata sul fatto che non c’è una riflessione approfondita (e non c’era neppure in Dedekind, Peano, Frege e nei
seguaci di Boole) sulle richieste assiomatiche che metta in luce se si sta considerando una teoria al
primo ordine oppure ad ordini superiori. Il primo che pone attenzione alla diversità di livelli è Löwenheim. Così la dimostrazione della categoricità dell’Aritmetica provato da Dedekind e da Peano,
si avvale di strumenti del secondo ordine compresi nel teorema di ricursione o nel principio di induzione. Purtroppo la logica del secondo ordine è semanticamente incompleta, quindi una qualsiasi
scelta di assiomi è tale che non si possono dimostrare tutte le conseguenze logiche degli assiomi,
1 Detta meglio, si sta considerando la formula ∃x(c = S(x) + n).
322
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
quindi se├ T φ si ha T╞ φ, ma è possibile che T╞ φ senza che├ T φ . Inoltre nella logica del secondo
ordine non vale il teorema di compattezza. Per questi aspetti si preferisce rinunciare ai vantaggi del
secondo ordine per servirsi di un calcolo corretto e completo, ma con la connaturata presenza di situazioni non-standard. La mancanza della categoricità in potenza è strettamente connessa alla incompletezza sintattica.
Il risultato limitativo per eccellenza è offerto dalla coppia di teoremi di Gödel sulla incompletezza
di P, ma non si tratta di un caso unico. Anzi esso ha dato, in un certo senso, la stura ad una ‘fioritura’ impressionante di risultati di questo tipo. Nel 1970 uno studente di dottorato aveva inviato a Gödel una lettera chiedendo spiegazioni. Egli scrisse una risposta che poi decise di non spedire e che è
stata ritrovata tra le sue carte. Essa mostra quale fosse l’ambiente culturale che precedeva i suoi
contributi del 1930/31:
«Tuttavia come conseguenza dei pregiudizi filosofici della nostra epoca: (1) nessuno cercava una dimostrazione
di coerenza relativa perché si considerava un assioma che la dimostrazione di coerenza dovesse essere finitaria
per avere senso.(2) un concetto di verità matematica oggettiva, opposto alla dimostrabilità, era visto con massimo sospetto ed era ampiamente rifiutato come privo di senso.» (da Borga & Palladino, 1997)
Ovviamente, ben diversa era l’accettazione di teoremi limitativi dopo l’opera di Gödel.
La coppia dei risultati di Gödel del 1940 e di Cohen 1963 offre un altro importante esempio di risultato limitativo che afferma la indipendenza degli assiomi di scelta e dell’ipotesi del continuo tra loro
e con la teoria degli insiemi, di fatto mettendo in dubbio quale sia la ‘giusta’ interpretazione del
concetto di insieme.
Il 1936 è stato un anno fondamentale per lo sviluppo della Logica e in tale data Church pubblica
due contributi fondamentali, il primo sulle funzioni ricorsive in cui presenta la cosiddetta Tesi di
Church, ed il secondo, un inaspettato risultato limitativo, contenuto in A Note on the Entscheidungsproblem, The Journal of Symbolic Logic 1, 236 – 242 2. In esso prova che l’insieme dei teoremi
della teoria ‘vuota’ del primo ordine PF, cioè senza assiomi specifici, ma solo assiomi logici del
linguaggio numerabile del primo ordine con tutte le lettere predicative e tutte le lettere funzionali e
le costanti individuali non è decidibile 3. Ciò significa che dato un enunciato in tale linguaggio non
si è in grado di decidere se si tratta di un teorema oppure no. Questo tipo di limitazione da una parte
si è visto come uno ‘smacco’ della capacità sintattiche umane, dall’altra è stato salutato come la supremazia dell’uomo sulla macchina. Se infatti l’insieme dei teoremi del calcolo PF fosse decidibile,
allora si potrebbe costruire una ‘macchina’ (ed alcuni tentativi di realizzazione concreta ci sono stati
2 Contemporaneamente ed indipendentemente, anche Turing dimostra lo stesso risultato di Church.
3 Le ‘proprietà’ morfologiche di ‘essere una costante individuale’, ‘essere un simbolo funzionale’ ed ‘essere un predicato’, tramite
gödelizzazione sono ricorsive primitive. Allora in modo più preciso, la decidibilità degli enunciati comporta che l’insieme dei numeri
di Gödel dei teoremi del calcolo dei predicati PF non è ricorsivo primitivo, quindi c’è un algoritmo di decisione che permette, dato
un numero naturale, di provare se esso è il numero di Gödel di un enunciato, ma non se è il numero di un teorema.
323
Capitolo 10
Dopo i teoremi di Gödel.
con la proposta di software ‘Theorem provers’) che una volta avviata fornirebbe automaticamente
tutti i teoremi.
Un’obiezione a questo risultato potrebbe consistere nel fatto che è la ricchezza estrema di simboli
presenti in PF che causa tale fenomeno. Ma Church prova che anche se si considera il cosiddetto
calcolo predicativo puro, PP, quello in cui vi sono solo (tutti i) simboli predicativi e non sono presenti costanti individuali né simboli funzionali, ha la proprietà che l’insieme dei teoremi è indecidibile. Ciò però può sorprendere perché i risultati di Boole ed altri hanno invece provato che il calcolo
predicativo puro dei predicati monadici (con un solo argomento) che è alla base del sillogismo aristotelico è decidibile. Il ‘salto’ tra il decidibile e l’indecidibile è fondamentalmente dovuto alla transizione dalla logica aristotelica al Begriffsschrift di Frege con la presentazione dei predicati (e relazioni) e non solo con le proprietà. Ciò si desume da Kalmár (1936). Zuruchfürung des Entscheidungsproblems auf den Fall von Formeln mit einer einzigen binären Funktionsvariablen, Compositio matematica, 4, 137 – 144. È infatti possibile trasformare (in modo effettivo)
una arbitraria formula di PP in una formula del calcolo predicativo che ha un unico
simbolo predicativo binario in modo da conservare e riflettere la dimostrabilità. È
quindi il passaggio dal calcolo monadico ad un calcolo con predicati binari che fa
perdere la decidibilità. Si rifletta, a questo punto, quali sono le teorie matematiche
Laszlo Kalmár
(1905 – 1976)
importanti che fanno uso solo di predicati monadici e quante che utilizzano predicati binari.
Altri teoremi limitativi sono stati individuati nella teoria delle funzioni ricorsive, ad esempio il teorema dell’arresto.
10.1.2. Funzioni ricorsive generali. Lo studio delle funzioni ricorsive prende spunto dalla nozione
di calcolabilità finita per funzioni numeriche, nozione intuitiva e non formalizzata.
Nel 1936, quasi contemporaneamente Post, Church, Kleene e Turing, per vie diverse, tentano definizioni della nozione fornendo strategie diverse per caratterizzarla
in modo formale. Era noto che la proposta delle funzioni ricorsive primitive non
Emil Post
(1897 – 1954)
era sufficiente. Gödel stesso nel lavoro del 1931 fa esempi di una relazione che non
ricade in questa casistica. Ackermann aveva mostrato nel 1928 un esempio di funzione intuitivamente calcolabile che non è ricorsiva primitiva (perché cresce troppo
alla svelta). Nel 1934, riprendendo certe idee di Herbrand, Gödel introduce le funzioni ricorsive generali, divenute più note col nome di HG-ricorsive. Nel 1935 Peter chiariva questi aspetti e dava altri esempi che non rientravano nelle funzioni ri-
324
Rosza Peter
(1905 – 1977)
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
corsive primitive.
L’esistenza di una funzione ricorsiva non primitiva si può ottenere facilmente con un procedimento
‘diagonale’ che ricorda un risultato di Cantor sulla non numerabilità di R. Consideriamo tutte le
funzioni numeriche ricorsive primitive di un unico argomento. Questa è ‘apparentemente’ una limitazione, ma si rifletta che è possibile determinare una biezione da N 2 a N, associando alla generica
coppia ordinata 〈x,y〉 il numero
(
)
1 2
3
1
x + y 2 + xy + x + y , che è un numero naturale a ‘dispetto’ della
2
2
2
presenza di frazioni. Si tratta evidentemente di una funzione computabile e ricorsiva primitiva. Si
può quindi ridurre una funzione a più argomenti ad un’altra ad un solo argomento attraverso biezioni di questo tipo. Quindi la condizione di avere un unico argomento non è restrittiva.
Per completezza di informazione si mostra come ‘invertire’ in modo ricorsivo primitivo la biezione.
Per ogni numero naturale n, sia p(n) (il peso di n) il massimo numero naturale tale che
p (n ) <
− 1 + 9 + 8n
. Per determinarlo basta considerare la parte intera della frazione a secondo mem2
bro, ma nel caso che essa sia già un numero naturale, ad esempio per n = 0, 5, 14, 20, 27,… bisogna
prendere il numero naturale precedente. La determinazione del peso è ricorsiva primitiva. Per chiarirne meglio il significato, si osserva che la diseguaglianza è frutto di un’altra diseguaglianza:
p( p + 1)
p ( p + 1)
< n + 1 . Da questa si ricava che − 1 < n −
, quindi trattandosi di numeri naturali,
2
2
0≤n−
p( p + 1)
p( p + 1)
. Per brevità si pone n −
= a. Con queste notazioni si prova che p(n) – a ≥ 0. In2
2
fatti dalla definizione di p(n) si ha che
( p + 1)( p + 2) ≥ n + 1 , essendo p(n) il massimo numero naturale
2
che gode della proprietà di ‘minorare’ propriamente mediante un’opportuna funzione (triangolare)
n+1, pertanto il successivo di p(n), non minora n +1, tramite la stessa funzione. Ma da
( p + 1)( p + 2) ≥ n + 1 ,
2
0≤
facendo
i
conti,
si
trova:
p2 + 3 p
( p + 1)( p + 2) ≥ n + 1 ,
+1 =
2
2
da
cui
p2 + 3 p
p2 + p + 2 p
p( p + 1)
p( p + 1) 

−n=
−n = p+
− n = p − n −
 = p − a . Si conclude l’osservazione
2
2
2
2


notando che, per ogni n∈N, la coppia ordinata 〈a,p(n)-a〉 è tale che applicata ad essa la precedente
biezione si ottiene
1
2
(
)
(
)
1 2
3
1
1
3
1
1
a + ( p − a )2 + a( p − a ) + a + ( p − a ) = 2a 2 + p 2 − 2ap + ap − a 2 + a + p − a =
2
2
2
2
2
2
2
1
2
= a 2 + p 2 − ap + ap − a 2 + a + p = a +
p( p + 1)
p ( p + 1) p( p + 1)
=n−
+
= n.
2
2
2
L’insieme delle funzioni ricorsive primitive con una sola variabile è infinito, ma è possibile enumerarlo in modo ricorsivo primitivo, specificando il processo di derivazione ricorsiva (anche se questo
può dare il caso di ripetizioni). Si ha quindi una successione f0, f1, …. Si consideri la funzione g: N
325
Capitolo 10
Dopo i teoremi di Gödel.
→ N definita ponendo per ogni m∈N, g(m) = fm(m) + 1. Sulla computabilità di questa funzione non
ci dovrebbero esser problemi, dato che si ottiene individuando con la enumerazione effettiva la funzione m-esima, calcolandola su m (con un numero finito di passi) e poi aggiungendo 1. Però tale
funzione non può essere tra quelle individuate dalla enumerazione perché se fosse g = fn, allora si
avrebbe g(n) = fn(n) + 1 = g(n) + 1. Così si conclude che la classe delle funzioni computabili comprende funzioni che non sono ricorsive primitive.
10.1.2.1. La Tesi di Church. È importante che quasi contemporaneamente alle proposte siano state
dimostrate le equivalenze tra le varie formalizzazioni del concetto, tanto che Church proponeva di
poter identificare il concetto di funzione calcolabile con quella di funzione ricorsiva generale. È
questa la Tesi di Church, che dà una congettura e non teorema (perché mette a confronto una idea
intuitiva con una formalizzata) è stata poi assunta come una specie di assioma generale,
sull’accettazione del quale c’è grande consenso, visto anche che tentativi più recenti di individuazione di altre formalizzazioni (ad esempio ispirate alla pratica dei linguaggio dei computer) forniscono sempre la stessa classe di funzione. La congettura è un fatto sperimentale e la sua eventuale
confutazione può essere fatto solo sperimentalmente, esibendo una funzione su cui ci sia accordo
che si tratti di una funzione computabile, ma che non sia esprimibile con alcuni degli algoritmi proposti. Ciò almeno tra i matematici ‘classici’, dato che in certi aspetti dell’intuizionismo (la teoria del
soggetto creativo) si dimostra che la Tesi di Church porta a contraddizione.
In un modo un poco ‘drammatico’ si può leggere l'affermazione di Church come un riduzionismo
esasperato. Siccome tutto ciò che gli uomini possono fare è solo calcolare certe funzioni con un
numero finito di passi, stante la durata della loro vita e forse quella dell'Universo, tutto ciò che si
può fare è riconducibile in termini di funzioni aritmetiche ricorsive. Allora l'Aritmetica da teoria
matematica, assume le sembianze dell'ambito completo delle attività umane, perciò avevano ragione
i Pitagorici: tutto è numero. A rafforzare questa ipotesi si aggiunga che oggi tutto ciò che sembra
più reale è la realtà virtuale, cioè quella finzione più vera del vero, ma che ha una struttura aritmetica perché ottenuta tramite un linguaggio ed un computer.
Seguendo le indicazioni di Kleene, si caratterizzano le funzioni ricorsive (generali 4) per l’aggiunta
alle regole che individuano le funzioni ricorsive primitive, di una ulteriore regola nella derivazione
ricorsiva, la minimalizzazione. Si tratta di una regola non del tutto chiara e non del tutto formulabile
in modo accettabile, che è stata oggetto di critiche perché richiede una conoscenza ‘completa’ a
priori.
4 Nella prassi si è lasciato cadere l’aggettivo ‘generale’ preferendo indicare con l’aggettivo ‘primitivo’ le funzioni ottenute senza mi-
nimalizzazione.
326
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
Sia g: N k+1 → N una funzione numerica tale che per ogni 〈m1,…,mk〉∈N k esiste p∈N per cui
g(m1,…,mk,p) = 0. Tale numero p può non essere unico. Si pone allora h: N k → N definita per ogni
〈m1,…,mk〉∈N
k
come h(m1,…,mk) = µy(g(m1,…mk,y) = 0), il minimo numero che soddisfa
l’equazione. La funzione h si dice ottenuta per minimalizzazione dalla funzione g.
Con questa formulazione della regola, h è definita per ogni k-pla di argomenti quindi è una funzione
totale.
Si può indebolire la richiesta su g dicendo che h è definita su 〈m1,…,mk〉∈N k se e solo se esiste esiste p∈N per cui g(m1,…,mk,p) = 0, altrimenti h non è definita sulla data k-pla. Con questa regola
indebolita si ottiene la classe delle funzioni ricorsive parziali, che hanno per dominio sottinsiemi
delle potenze cartesiane di N. In questo caso se un argomento appartiene al dominio della funzione,
il computo può essere fatto con un numero finito di passi, altrimenti non si può fare.
Il problema di vedere se un argomento è o non è elemento del dominio di una funzione ricorsiva
parziale costituisce il Teorema dell’arresto, di cui si diceva nel paragrafo precedente, teorema che
prova che questa informazione non è ottenibile con un numero finito di passi (ovvero con una funzione ricorsiva totale).
Avendo aggiunto una nuova regola alle precedenti, le funzioni ricorsive primitive sono ricorsive.
Se si ha la conoscenza completa della funzione g ed in particolare la proprietà chiave che viene invocata è verificabile con un numero finito di passi, comunque presi i primi argomenti, allora si vede
che h è finitamente calcolabile, in quanto sapendo che per ogni 〈m1,…,mk〉∈N k esiste p∈N tale
che g(m1,…,mk,p) = 0, allora basta passare in rassegna g(m1,…,mk,0), g(m1,…,mk,1),…,
g(m1,…,mk,p) computo che si esegue con un numero finito di passi, e così individuare
µy(g(m1,…mk,y) = 0).
Tutti i casi noti di funzioni numeriche parziali o totali computabili che non rientrano tra quelle ricorsive primitive si ottengono con l’applicazione della regola di minimalizzazione. Kleene riesce a
provare che ogni derivazione di una funzione ricorsiva può esser sostituita da un’altra derivazione
in cui la regola di minimalizzazione si applica una sola volta nell’ultimo passaggio.
Resta aperta la questione se questo tipo di funzioni coincida con quelle computabili, ma la varietà di
approcci e la sorprendente coincidenza delle classi di funzioni ottenute mediante essi nel 1936 ed
anche in anni successivi con la proposta di nuove interpretazioni della computabilità, sono a sostegno della ipotesi che non ve ne siano altre.
C’è però un aspetto intrigante legato alla minimalizzazione. Come detto le funzioni ricorsive totali
sono l’ultimo passo di una derivazione finita che parte da funzioni elementari con applicazione di
regole a funzioni precedenti. Con un poco di sforzo è possibile enumerare le funzioni ricorsive, come fatto prima per le funzioni ricorsive primitive, visto che si è aggiunta una sola nuova regola di
327
Capitolo 10
Dopo i teoremi di Gödel.
derivazione. Si pone, come prima g(n) = fn(n) + 1. Ma stavolta la conclusione non è che g è calcolabile con un numero finito passi, ma solo che una enumerazione effettiva di queste funzioni non esiste e ciò perché non è detto che si possa provare con un numero finito di passi la condizione chiave
della minimalizzazione.
È invece possibile enumerare effettivamente le funzioni ricorsive parziali e ripetere il procedimento
diagonale, trovare che la funzione g è identificabile con la funzione ricorsiva parziale fn, ma non si
ha che g(n) = fn(n) + 1 = g(n) + 1, perché “per miracolo” (parole di Gödel) n non appartiene al dominio di fn.
10.1.2.2. Macchine di Turing. Tra i vari approcci citati alla computabilità, quello che ha avuto maggiore successo è stata la proposta di Turing. Il matematico inglese analizza cosa avviene durante un
computo. Si consideri ad esempio 35·78; e lo si esegue in colonna, come di solito. Il calcolo si svolge su un supporto (carta, lavagna, sabbia…), sul supporto si agisce con la scrittura, quindi servono
strumenti appositi, si adoperano regole semplici per svolgere localmente i singoli calcoli. La posizione in cui si scrivono le cifre non è casuale, ma ha significato. Nel fare il conto qualcosa si scrive
e qualcosa viene tenuto in memoria (il riporto).
Da questa situazione si può giungere ad una sorta di estrema sintesi e astrazione costruendo una macchina di Turing. Basta un nastro di carta suddiviso in vari quadretti, un alfabeto adeguato, un apparato scrivente adeguato all’alfabeto prescelto, la possibilità di spostarsi lungo il nastro e uno spazio
di memoria. Questa è la descrizione dello hardware della macchina. Si devono poi dare le istruzioni
software che gestiscono lo hardware. Il più semplice (ed efficace) alfabeto è quello già usato dai nostri progenitori con i tally (l’esemplare qui rappresentato è databile tra il 30.000 e il 20.000 a.C. 5).
Il supporto del tally è un osso, materiale abbastanza resistente, ma anche facile da incidere.
L’apparato scrivente/leggente della macchina di Turing è quindi in grado di scrivere ispezionare il
contenuto in una casella e scrivere in essa il segno ‘|’ oppure di cancellarlo, il che equivale a scrivere il segno ‘ ’, che qui per semplicità si indica con ‘*’ o più semplicemente lasciando vuota la casella. L’apparato scrivente/leggente ha quindi anche il ruolo di ‘puntatore’ cioè viene posizionato al
di sopra di una specifica cella che viene da esso ispezionata. Lo si può muovere spostandolo a sinistra o a destra. La scrittura dei simboli nelle celle ispezionate non è casuale, ma dipende dalle istruzioni (programma software) che dirige la macchina.
5 Tratto da Ifrah G., 1989, Storia universale dei numeri, Milano: Mondadori
328
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
Per fare funzionare la macchina è indispensabile anche fissare il modo di utilizzo, parte integrante
del software. Ad esempio, visto che stiamo parlando di computabilità, bisogna fissare il modo di
connotare i numeri (almeno i numeri naturali). Una proposta abbastanza semplice è di descrivere il
numero n con n+1 segni ‘|’ consecutivi, in modo che 0 sia scritto su nastro con una sola barretta. Ma
dato che anche le più semplici funzioni numeriche operano con coppie (terne,…) ordinate, si rappresenta la coppia ordinata 〈r,s〉 con r+1 barrette consecutive seguite da una cella vuota e seguite ulteriormente da s+1 barrette consecutive. Come nel caso della moltiplicazione, la carta necessaria per
eseguire il calcolo in colonna dipende dal numero delle cifre presenti nei numerali usati e, in qualche caso potrebbe essere necessario ampliare lo spazio di calcolo. Il foglio, quindi, è (potenzialmente) infinito. Lo stesso è necessario per il nastro della macchina di Turing, che si assume infinito (in
atto). Questa condizione è evidentemente irrealizzabile in modo concreto, ma è anche lo strumento
che rende ‘potente’ la macchina stessa. Di fatto il nastro diviene così una specie di ‘Albergo di Hilbert’ in cui è possibile scrivere tutti i numeri, lasciando ancora infinito spazio libero.
Orientato il nastro da sinistra a destra (una copia di Z), si fissa poi la posizione del puntatore esattamente nella prima cella vuota a sinistra della prima cella significativa, cioè la prima da sinistra recante una barretta. L’infinità del nastro garantisce la possibilità di trovare una tale cella vuota.
In realtà ogni macchina di Turing ha lo stesso apparato hardware, le stesse regole di funzionamento
quindi le macchine si differenziano solo per le istruzioni del programma e pertanto sono identificate
mediante il programma stesso. Le operazioni che la macchina compie, come detto sono estremamente semplici, ma per eseguirle la macchina ha bisogno di quello che abbiamo detto uno spazio di
memoria in cui sono presenti, di volta in volta, stati (di memoria) diversi.
La descrizione precedente si chiarisce 6 dicendo che una machina di Turing è una terna ordinata di
insiemi: 〈Q,A,I〉 ove Q è un insieme non vuoto e finito i cui elementi sono detti stati, indicati, solitamente con q0, q1, …, qn, di fatto un segmento iniziale non vuoto di N; A è l’alfabeto anche esso
un insieme finito con almeno due simboli (ne bastano due, ‘|’ e ‘*’, o anzi, si vedano i tally, 1 e lo
spazio). A questo insieme si aggiungono, ma non sono specifici di una macchina, ma propri di ogni
macchina, due ‘movimenti’ cioè l’insieme {s,d}. Bisogna cautelarsi, ma è facile farlo, chiedendo
che non ci siano ambiguità, con le condizioni (Q ∩ A) = ∅, (Q ∩ {s,d}) = ∅ e (A ∩ {s,d}) = ∅.
L’indicazione dell’alfabeto e dei movimenti si potrebbe omettere, dato che è possibile uniformare le
macchine di Turing prendendo un unico alfabeto. Infine I è un insieme di ‘istruzioni’, ciascuna delle
quali è una quadrupla ordinata elemento di (Q×A×(A∪{s,d})×Q). Essendo tutti gli insiemi coinvolti
non vuoti e finiti, il prodotto cartesiano è non vuoto e finito. Per semplicità le istruzioni si scrivono
6 Questa descrizione delle macchine di Turing è ampiamente ispirata a Lolli, G. (1978), Lezioni di logica matematica, Torino: Borin-
ghieri
329
Capitolo 10
Dopo i teoremi di Gödel.
come successioni di simboli senza parentesi e virgole. Le istruzioni sono quindi del tipo qiajsqk, oppure qiajdqk, o ancora qiajahqk. Si impone poi una condizione di ‘funzionalità’ sulle prime due componenti, cioè che non esistano due istruzioni che inizino con qiaj e siano seguite da due diverse coppie ordinate di (A∪{s,d})×Q).
Le istruzioni costituiscono l’insieme I, ed essendo un insieme non ha importanza come esse vengono presentate, anche se interpretando attentamente le istruzioni, si può cogliere le idee che sovraintendono alla costruzione del programma.
Chiariamo inoltre le condizioni di funzionamento: la messa in moto, cosa sia una casella significativa, fermata.
Quando si vuole usare una macchina di Turing per descrivere delle funzioni numeriche, ci si limita
all’alfabeto {|,*}, diversa la situazione se si vuole scrivere la Divina Commedia. Una casella significativa per i computi numerici è una casella in cui si trova il simbolo ‘|’. La partenza avviene sempre con una istruzione in cui le prime tre componenti siano q0*d, in quanto si parte dalla prima casella a sinistra della prima casella significativa. L’arresto si ha ‘automaticamente’ quando il puntatore si trova in una casella con il simbolo aj e lo stato è qk, ma non ci sono istruzioni che inizino con
qkaj.
La programmazione mediante macchine di Turing è strutturata, nel senso che si possono costruire
macchine semplici (come sottoprogrammi) e poi inserire in macchine più complesse.
Qualche esempio.
Macchina ‘0’: q0*dq1; q1|dq0; q0|*q2; q2*dq3; q3|*q2
Vediamo come si comporta
*
| | | | | | *
Il puntatore parte dalla casella a bordo rosso e dallo stato q0. La prima azione che compie è spostarsi
a destra portandosi nello stato q1
*
|
|
|
|
|
| *
Nella nuova casella a bordo rosso incontra ‘|’ ed essendo nello stato q1, si sposta ancora a destra e si
mette nello stato q0.:
*
|
|
|
|
|
| *
Ora la macchina è nello stato q0 ed incontra nella casella a bordo rosso ‘|’, quindi lo sostituisce con
‘*’ e si mette in q2
*
| * | | | | *
Ma nella casella a bordo rosso, la macchina nello stato q2 incontra ‘*’, quindi si sposta a destra e si
mette nello stato q3
330
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
*
| * | | | | *
La macchina nello stato q3 incontra nella casella a bordo rosso il simbolo ‘|’, lo cancella e si pone in
q2.
*
| * * | | | *
A questo punto inizia una iterazione che scambia q2 e q3, q2 fa spostare a destra, q3 cancella
*
|
*
*
|
|
| *
*
|
*
* *
|
| *
*
|
*
*
*
|
| *
*
|
*
*
*
*
| *
*
|
*
*
*
*
| *
*
|
*
*
*
*
* *
Arrivati a questo punto la macchina è nello stato q2, incontra il simbolo ‘*’ si sposta a destra e si
pone in q3.
*
*
|
*
*
*
* *
Ora la macchina è in q3 e il simbolo è ‘*’. Non ci sono istruzioni le cui prime componenti siano q3*,
quindi la macchina si ferma. Sul nastro è rimasta una unica casella significativa.
Per alcuni autori ciò non basta, perché richiedono che la macchina ritorni nella posizione ‘standard’
cioè nella prima casella vuota a sinistra della prima casella significativa. Questo si ottiene impiegando una macchina ‘nuova’:
Macchina ‘a sinistra’, che non richiede, però di essere posizionata in una casella specifica, ma solo
che il nastro non sia vuoto e che se più numeri sono rappresentati essi siano separati da un unico
‘*’: q0*dq1; q0|dq1; q1*sq2; q1|sq1; q2*sq2; q2|sq3; q3*sq4, q3|sq3; q4|sq3, q4*dq5
*
*
| * | | * *
Si suppone che la nuova macchina parta dalla casella col bordo rosso in q0. Incontra ‘*’ si sposta a
destra e si pone in q1
*
*
| * | | * *
In questo caso nella casella a bordo rosso si trova ‘*’, quindi la macchina si sposta a sinistra e si po*
*
ne in q2
|
*
|
|
* *
Incontrando ‘*’ si sposta ancora a sinistra e resta in q2
Stavolta però nello
* * stato
| * q2| incontra
| * *il simbolo ‘|’, quindi si sposta a sinistra e si mette in q3
*
*
|
*
|
|
* *
Incontrando ancora ‘|’, la macchina resta in q3 e si sposta a sinistra
331
Capitolo 10
Dopo i teoremi di Gödel.
*
*
| * | | * *
Ora, sempre in q3 la macchina incontra ‘*’ quindi si sposta a sinistra e si mette in q4
*
*
*
*
| * | | * *
Stavolta la macchina è in q4, incontra ‘|’ si sposta a sinistra e si mette in q3
| * | | * *
(e questo procedimento continua per tutte le celle consecutive con le barrette). Essendo in q3 ed incontrando la casella con ‘*’, la macchina si sposta a sinistra e si mette in q4
*
*
| * | | * *
Ora la macchina è in q4 ed incontra ‘*’quindi si sposta a destra mettendosi in q5
*
*
| * | | * *
Mancando istruzioni sullo stato q5, la machina si ferma.
Se allora si vuole che la Macchina ‘0’ si completi con il ritorno sulla prima casella vuota a sinistra
della prima casella significativa, basta ‘incollare’ le due macchine. Ciò significa che poiché la macchina ‘0’ utilizza gli stati da q0 a q3, per ‘incollare la Macchina ‘a sinistra, basta ricopiare le istruzioni cambiando i numeri degli stati (aggiungendo 3 al numero di indice), quindi aggiungendo il
comando che dato q3 e trovando ‘*’ fa tornare la macchina indietro..
Questo mostra come gestire sottoprogrammi. Non è detto che questa tecnica sia la migliore (qui ad
esempio si sono date le istruzioni della macchina ‘a sinistra’ per una generica n-pla di numeri naturali, ma se è noto che si deve andare a sinistra solo in presenza di un unico numero, naturale, allora
le cose si semplificano. Per mostrare come, diamo la Macchina ‘a destra’ di un unico numero naturale, cioè quella che partendo dalla prima casella vuota a sinistra della prima casella significativa si
ferma sulla prima casella a destra della ultima casella significativa di un (unico) numero naturale.
Macchina ‘a destra’ (unaria): q0*dq1; q1|dq1.
*
|
|
|
|
* *
*
|
|
|
|
* *
*
|
|
|
|
* *
*
|
|
|
|
* *
*
|
|
|
|
* *
*
|
|
|
|
* *
Questa macchina è fondamentale per costruire la Macchina ‘successivo’, che si ottiene incollando
ad essa la sottomacchina q0*|q1, per cui si ottiene:
Macchina ‘successivo’: q0*dq1; q1|dq1; q1*|q2.
Se si vuole tornare a sinistra, basta incollare la macchina apposita.
332
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
Se si vuole mostrare che anche le funzioni proiezione sono esprimibili come apposite macchine di
Turing, bisogna esplicitare per ciascuna di esse un programma. Ad esempio, la
Macchina ‘U43’: q0dq1; q1|*q1; q1*dq2; q2|*q1; q2*dq3; q3|*q2; q3*dq4, q4|dq4; q4*dq5; q5|*q6; q6*dq5.
In essa il blocco q3*dq4, q4|dq4 è ricavato dalla macchina unaria sposta a destra. Se poi si vuole tornare si può ‘incollare’ la macchina ‘a sinistra’.
Questi esempi dovrebbero convincere di due cose: le funzioni elementari sono computabili con
macchine di Turing, la regola di sostituzione, di fatto è una variazione dell’incollamento. Più complesso è mostrare che si possono realizzare con opportune macchine di Turing le operazioni di ricursione e di minimalizzazione.
Si dice che una funzione numerica è Turing-computabile se esiste una macchina di Turing che realizza i calcoli necessari per trovare il valore della funzione sugli assegnati elementi.
Un esempio semplice: l’addizione è Turing-computabile. Ci si può arrivare mostrando il programma che realizza l’addizione
Macchina ‘addizione’: q0*dq1; q1|*q2; q2*dq3; q3|dq4; q4|dq4; q4*|q5; q5|sq5; q5*dq6; q6|*q6.
Questa macchina si sposta sulla prima barretta a sinistra, la cancella e si sposta a destra, poi continua a spostarsi a destra finché non trova ‘*’ e lo cambia in una barretta che separa i due numeri, poi
torna a sinistra fino al primo ‘|’ lo cancella e così ha trovato la somma. Infatti se devo calcolare la
somma n+m, all’inizio sul nastro ci sono n+1 barrette, un asterisco e m+1 barrette. Con la prima
cancellazione si hanno n barrette, un asterisco e m+1 barrette. Poi l’asterisco interposto si trasforma
in barretta avendo così (n+1+m+1) barrette consecutive. Si ritorna sulla prima barretta e si cancella,
ottenendo, alla fina (n+m+1) barrette e il puntatore sulla casella vuota alla sinistra della prima casella significativa.
C’è un altro modo di provare che l’addizione è Turing-computabile: siccome l’algoritmo
dell’addizione è eseguibile in un numero finito di passi, per la tesi di Church è computabile.
Come si fa a verificare che la Macchina ‘addizione’ calcola la somma di due numeri? Ci si può
convincere con un’analisi dettagliata del funzionamento della macchina e cercando di immaginare
cosa potrebbe capitare con una diverso numero di barrette (con argomenti diversi). Ma questo può
esser un ragionamento euristico. La dimostrazione ‘vera’ resta poi affidata all’induzione.
Si notino due fatti importanti:
1) Una stessa funzione può essere computata da macchine di Turing diverse;
2) Non tutte le macchine si ‘fermano’.
Per convincersi del primo punto si consideri una macchina molto semplice la Macchina ‘successivo’: q0*dq1; q1|dq1; q1*|q2. La si può alterare a piacere, ad esempio sostituendo l’istruzione q1*|q2,
con q1*dq2 ed aggiungendo q2*sq3; q3*|q3. Così facendo la macchina ispeziona una casella a destra
333
Capitolo 10
Dopo i teoremi di Gödel.
in più, poi torna indietro e stampa una barretta. Ma questi ultimi passaggi possono essere ripetuti
sostituendo ‘*’ a ‘|’ e viceversa quante volte si vuole, per finire stampando un’ultima ‘|’.
Per il secondo punto si consideri una Macchina con le seguenti istruzioni: q0*dq1; q1|sq0. Questa,
una volta scritto un numero sul nastro e collocata il puntatore nella casella a sinistra della prima casella significativa, si sposta a destra, trova una barretta (nella cella significativa), ma ora la seconda
istruzione la costringe a spostarsi a sinistra mettendosi nello stato q0. Nella casella sinistra c’è ‘*’,
quindi la macchina si sposta a destra e poi torna e così senza mai fermarsi. Gli informatici definiscono talvolta questa situazione col termine ‘loop’.
Un modo diverso per avere macchine che non si fermano è quello di produrre macchine che avanzano sul nastro senza fermarsi: ad esempio le istruzioni q0*dq0; q0|dq0 non si ferma mai ed ispeziona
sempre celle diverse a destra.
Quindi ha senso distinguere tra macchine (e funzioni) totali e quelle parziali.
Si dice che una funzione numerica parziale f a r argomenti è Turing-parzialmente-computabile se
esiste una macchina M che per ogni r-pla ordinata di numeri naturali appartenenti al dominio di f
esegue il computo (e si ferma) fornendo come risultato quello che si otterrebbe con il computo diretto di f , mentre per le r-ple ordinate non appartenenti al dominio di f la macchina non si ferma.
Si dice anche che un insieme X di (n-ple di) numeri naturali è Turing-decidibile se la sua funzione
caratteristica è Turing-computabile, mentre si dice che X è Turing-semidecidibile se la sua funzione
caratteristica è Turing-parzialmente-computabile.
Si osservi che i programmi che si sono mostrati sono scritti in quello che si potrebbe chiamare ‘linguaggio macchina’ e quindi le macchine che devono realizzare anche semplici operazioni aritmetiche (ad esempio la moltiplicazione) richiedono molte istruzioni.
I teoremi che garantiscono che le regole di derivazione ricorsiva conservano la Turingcomputabilità (eventualmente parziale) sono strumenti utili per ‘alleggerire’ la programmazione.
Il paragone con i moderni calcolatori, in cui i programmi sono scritti in modo evoluto, è, apparentemente tutto a sfavore delle macchine di Turing.
Tuttavia il tipo di presentazione scelto ha una grande utilità teorica: una macchina di Turing può essere identificata con le sue istruzioni, ed un’istruzione è un quaterna di simboli; inoltre ciascuna
macchina è identificabile con un insieme finito di istruzioni. Si riesce quindi ad associare a ciascuna
macchina un numero naturale in modo ‘effettivo’, che indichiamo, forse in modo non correttissimo
con ġ(M). Ci possiamo riferire solo alle macchine unarie, visto che attraverso la possibilità di ‘tradurre’ coppie (terne, quaterne…) ordinate in numeri come visto all’inizio di 10.1.2., con queste si
possono poi riottenere i risultati delle macchine più generali.
334
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
Turing dimostra che esiste una macchina U binaria, tale che se r = ġ(M), U(r,s) = M(s), intendendo
con questo che se s appartiene al ‘dominio’ della macchina M, la macchina esegue la computazione
e si arresta, così come la macchina U, fornendo lo stesso risultato di U(r,s), mentre se s non appartiene al ‘dominio’ di M, sia la macchina U non si arresta sulla coppia ordinata 〈r,s〉 e M non si arresta su s. Tale macchina dipende evidentemente dalla enumerazione utilizzata per le macchine monoargomentali, ma essa ingloba, di fatto i programmi di tutte queste macchine. Questa macchina U è
la macchina universale ed è più potente di qualsiasi computer realizzabile.
Ma la macchina universale è una macchina di Turing, quindi si può applicare in particolare a se
stessa, realizzando così una ‘autoapplicabilità’ che è del tutto sconosciuta alle ‘ordinarie’ funzioni.
Resta aperto il problema se è possibile data una macchina (unaria) ed un numero naturale sapere se
la macchina si ferma eseguendo in un numero finito di passi il computo relativo al numero dato.
Questo è il cosiddetto problema dell’arresto. Si prova che tale problema è semidecidibile, ma non
decidibile (sfruttando la macchina U). Si prova anche che l’insieme delle funzioni Turingcomputabili non è decidibile, mentre lo è quello delle funzioni Turing-parzialmente-computabili
(che include quello delle funzioni Turing-computabili). Quindi la decidibilità non è legata al ‘numero’ degli elementi, come è banale dal fatto che N è decidibile ed esistono dei sottinsiemi di N che
non lo sono.
10.1.3. Nicolas Bourbaki. Un matematico di questo nome non è mai esistito, tuttavia l’influenza
della sua opera è ancora assai perdurante nella scuola e soprattutto nell’università. A stretto rigore
non si tratta di un approccio fondazionale, o almeno era così nelle intenzioni dei primi matematici
che si ritrovano (nascondono) sotto il nome d Bourbaki. In un certo senso nella Francia degli anni
’30 del XX secolo si è ripetuta la stessa situazione che si era realizzata nel Regno Unito all’inizio
del XIX secolo con la Analytical Society: motivi politici o ideologici estranei alla Matematica avevano condizionato la ricerca e l’insegnamento in Francia con il rifiuto di tutto ciò che fosse anche
lontanamente collegabile alla Germania, colpevole di avere scatenato la prima guerra mondiale. Si è
già detto dell’ostracismo subito da Hilbert che fu di nuovo invitato ad un congresso mondiale dei
matematici solo nel 1928 e per di più in Italia. La matematica di lingua tedesca aveva fatto passi
enormi e ottenuto grandi risultati, come è facile constatare dai titoli dei lavori citati nel testo di questi appunti.
Un gruppo di giovani matematici dapprima esclusivamente francesi, si riuniva a partire dal 1935 e
volevano porre rimedio all’isolamento in cui era allora la matematica francese rispetto a quella del
resto dell’Europa. In particolare, Oltralpe non si era adeguatamente apprezzata la svolta avutasi con
l’assiomatica e le teorie formalizzate. Il gruppo e le regole che lo reggevano erano volutamente
335
Capitolo 10
Dopo i teoremi di Gödel.
circondate da mistero.
Henri Cartan
(1904 - 2008)
Claude Chevalley
(1905 – 1984)
Jean Delsarte
(1903 – 1968)
Jean Dieudonné Szolem Mandelbrojt
(1899 – 1983)
(1906 – 1992)
André Weil
(1906 – 1998)
I primi componenti erano sette: H. Cartan, Chevalley, Delsarte, Dieudonné, S. Mandelbrojt, René
de Possel (1905 – 1974) e Weil. Nel gruppo non potevano restare i matematici che avevano compiuto più di 50 anni e le regole per fare parte di questo gruppo non sono mai state chiarite completamente.
La filosofia di fondo condivisa dai bourbakisti si può fare risalire allo strutturalismo. Traendo spunto dal Corso di linguistica generale di de Saussure,
pubblicato postumo nel 1916, la corrente filosofica dello strutturalismo sostiene che una medesima struttura opera in popoli ed in situazioni differenti,
spostando quindi l'attenzione dai più tradizionali universali relativi a qualità e
concetti, a quello delle strutture invarianti. Anche nella Matematica lo strut-
Ferdinand de Saussure
(1857 - 1913)
turalismo trova spazio ed è appunto Nicolas Bourbaki che ne diventa la ‘bandiera’ nella nostra
Scienza.
L’opera che è rappresenta le idee e focalizza le attività del gruppo è gli Éléments de Mathématique,
una sorta di enciclopedia concettuale e strutturale della materia, che inizia le pubblicazioni a partire
dal 1939 (e di fatto non è ancora conclusa). Il nome dell’opera è un programma ‘conservatore’ e ‘rivoluzionario’. Il primo termine, Éléments, fa cogliere una continuità col passato antico e più recente
(Klein) che ha avuto una grande tradizione in Geometria. La parola Mathématique non è presente
nel dizionario francese, in quanto si preferisce usare il plurale, (come in italiano nei nomi Matematiche complementari o Elementari); essa scelta per sottolineare l’unitarietà della disciplina, a dispetto della molteplicità dei campi concettuali in cui si estrinseca.
Lo sviluppo dell’Algebra ha sicuramente avuto una grande influenza in
questo progetto globale di ricostruzione della Matematica. Il testo di Van
der Waerden, Moderne Algebra, Berlin: Springer, apparso in due volumi tra
il 1930 e il 1931 aveva offerto un quadro sinottico degli sviluppi (principalmente tedeschi) dell’Algebra. Il atto che, poi, concetti nati in ambito algebrico come matrici, determinanti, calcolo vettoriale, avessero importanti
Bartel Van der Waerden
(1903 – 1996)
applicazioni in Analisi matematica ed anche in Geometria, stava mutando la
336
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
‘rigida’ suddivisione della Matematica in campi distinti. Lo stesso avveniva per l’irruzione della
Topologia che era nata da considerazioni geometriche e con un apparato specificamente insiemistico, ma era divenuta ben presto strumento in Analisi e si era ‘ibridata’ con considerazioni algebriche
e differenziali.
Con la proposta di Bourbaki si assiste ad un cambio di punto di vista assai importante: l’attenzione
non è più sul singolo oggetto matematico, ma è principalmente sulle relazioni tra oggetti ‘certificate’ ed ‘esplicitate’ dalla presentazione assiomatica. Si va così nella direzione di trovare analogie e
differenze tra oggetti dello stesso ‘tipo’ e tra oggetti di ‘tipi’ diversi. La situazione è illustrata bene
con le parole di Bourbaki (1963) Elementi di storia della matematica, Milano: Feltrinelli:
«Si sarebbe tentati di dire che la nozione moderna di “struttura” viene acquisita in sostanza verso il 1900; in effetti occorrerà ancora un trentennio di tirocinio prima che essa sia del tutto chiarita. Certamente non è difficile il
ravvisare strutture dello stesso tipo quando esse siano di natura piuttosto semplice; per la struttura di gruppo, ad
esempio, questo risultato è stato raggiunto fin dalle metà del XIX secolo. Ma al medesimo tempo, vediamo Hankel tentare – senza riuscirvi affatto – di chiarire le idee generali di corpo e di estensione […] che saranno formulate soltanto da Steinitz, 40 anni più tardi. È stato soprattutto ben difficile, in questa materia, liberarsi
dall’impressione che gli oggetti matematici ci siano “dati” con la loro struttura: soltanto una lunga consuetudine
con l’analisi funzionale ha fatto sì che i matematici moderni si familiarizzassero con l’esistenza, ad esempio, di
più topologie “naturali” sui numeri razionali e di più misure sulla retta numerica. Con questa separazione si realizza infine il passaggio alla definizione generale di struttura.» (da Bourbaki, 1963)
Lo studio delle strutture algebriche da una parte ha spinto ad una diffusa assiomatizzazione non solo in Algebra. Un esempio importante è quello della Topologia, nata
col nome di Analysis Situs, e basata sulla nozione di ‘vicinanza’ fra punti dello spazio, dapprima si è sviluppata considerando spazi particolari (geometrici) e la nozioErnst Steinitz
(1871 – 1928)
ne di continuità che trova espressione nella ‘vicinanza’. Si è poi giunti ad un diverso
livello di astrazione con la considerazione delle proprietà delle famiglie di ‘aperti’,
che dapprima erano aperti di topologie già date (sulla retta, nel piano,..) e poi sono diventati ‘aperti’
per scelta definitoria. In questa fase, nella topologia si considerano due tipi di enti: i ‘punti’ e gli aperti, trattati quindi con linguaggi che sono al di là del primo ordine. Poi si assiste ad
una esplicita assiomatizzazione (al primo ordine) data dagli operatori di chiusura di
Kuratowski, ed infine, in tempi molto più recenti (anni ‘80/90 del XX secolo) al
sorgere delle topologie ‘senza punti’ o topologie formali (Peter Johnstone).
Oggi capita spesso di trovare la parola Topologia con aggettivazioni quali ‘diffe-
Peter Johnstone
renziale’ o ‘algebrica’, a riprova che lo strumento si è espanso/arricchito.
La causa ‘scatenante’ della nuova proposta enciclopedica per i matematici francesi è stata la presa
di coscienza che in Francia erano state trascurate le linee di ricerca più all’avanguardia soprattutto
era mancato il rinnovamento concettuale dato dal sistema assiomatico/formalizzato che si offriva
come strumento unificante per l’intera Matematica. Bourbaki nel 1962 scrive:
«[…] sembrava, all’inizio del secolo, che si fosse quasi rinunciato a vedere nelle matematiche una scienza caratterizzata da un oggetto e da un metodo unici; si tendeva piuttosto a considerarle come “una serie di discipline
337
Capitolo 10
Dopo i teoremi di Gödel.
basate su nozioni particolari, delimitate con precisione”, collegate da “mille vie di comunicazione” […] Oggi, al
contrario, noi crediamo che l’evoluzione interna della scienza matematica ha, malgrado le apparenze, rinsaldato
più che mai le sue diverse parti e ha creato una sorta di nucleo centrale più coerente di quanto fosse mai stato.
L’essenziale di questa evoluzione è consistito in una sistemazione delle relazioni esistenti tra le diverse teorie
matematiche, e si riassume in una tendenza generalmente nota col nome di “metodo assiomatico”. […]
Ciò che si propone l’assiomatica come scopo essenziale è precisamente ciò che il formalismo logico, da solo, è
incapace di fornire, la comprensione profonda delle matematiche […].
Là dove un osservatore superficiale non vede che due o più teorie in apparenza molto diverse, che si prestano,
con l’intervento di un matematico di genio, un “aiuto inatteso” […] il metodo assiomatico ci insegna a ricercare
le ragion profonde di questa scoperta, a trovare le idee comuni nascoste sotto l’apparato esterno dei dettagli propri di ciascuna delle teorie considerate, a liberare queste idee e a metterle in luce.» (da Borga & Palladino,
1997).
Da queste parole si coglie come la proposta di Bourbaki sia nata con un intento enciclopedico, per
descrivere la “serie di discipline basate su nozioni particolari” poi si sia trasformata in un qualcosa
di ‘archittetonico’: “rinsaldato […] le diverse parti”, “nucleo centrale”, “sistema di relazioni”. Infine la proposta è divenuta fondazionale: “ricercare le ragioni profonde”, “trovare le idee nascoste
sotto l’apparato esterno dei dettagli”.
Ne risulta un abbandono generale delle ‘vecchie’ suddivisioni della Matematica in Geometria, Algebra, Analisi, Teoria dei numeri,… La proposta di Bourbaki è di considerare come ‘fondamentali’
tre tipi di strutture: algebriche, di ordine, topologiche, le cosiddette strutture madri. Le strutture algebriche sono caratterizzate dalla presenza di operazioni che ne costituiscono l’essenza strutturale.
Le strutture dell’ordine sono basate su relazioni binarie, fondamentalmente transitive (quindi ordini). Infine le strutture topologiche assumono le astrazioni del concetto di vicinanza (ottenendo poi
anche la nozione di continuità). La nostra scienza ha però bisogno di strutture più complesse, ne discendono le strutture multiple, o strutture figlie, che mettono assieme aspetti di più di una struttura
madre. Ad esempio nascono i gruppi continui, in cui i gruppi sono dotati di una topologia in base
alla quale le operazioni sono funzioni continue.
Per mezzo dell’aggiunta di assiomi si individuano quegli oggetti matematici che sono i numeri reali
o la Geometria euclidea. Si ha così che il ruolo ‘architettonico’ della organizzazione in strutture favorisce il sorgere di nuovi campi di indagine matematica (ed è proprio successo i questo modo). È
ovvio che l’aggiunta di assiomi (aumento dell’intensione) corrisponde ad una diminuzione del numero dei modelli (diminuzione dell’estensione). Per Bourbaki questa presentazione è ‘interna alla
Matematica e non è definitiva né immutabile, lasciando aperta la strada a possibili mutamenti:
«Il nostro compito è […] modesto e più circoscritto: non ci proponiamo di esaminare i rapporti tra le matematiche con la realtà o con le grandi categorie del pensiero; noi intendiamo restare all’intero della matematica, e cercare, analizzando i suoi stessi procedimenti, una risposta alla questione che ci siamo posti [La Matematica o le
matematiche?]
Le strutture non sono immutabili, né nel loro numero, né nella loro essenza; è molto probabile che l’ulteriore sviluppo delle matematiche aumenti il numero delle strutture fondamentali, rivelando la fecondità di nuovi assiomi,
o di nuove combinazioni d’assiomi, e si può già in anticipo dare per scontati dei processi decisivi di queste invenzioni di strutture. […].» (da Borga & Palladino, 1997)
338
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
In queste parole è evidente la scarsa considerazione sul problema dei fondamenti e sui problemi lasciati aperti dalla ricerca di Hilbert.
Anche il ruolo della Logica matematica è visto in termini poco favorevoli alla disciplina, come a
più riprese ha affermato Dieudonné, ritenendola uno studio che ha dato risultati, ma che il matematico ‘professionista’ può tranquillamente ignorare.
Alcuni pensatori hanno però visto nella proposta bourbakista la realizzazione (seppure parziale) del
programma di Hilbert, per il ruolo affidato alla assiomatizzazione ed alla rigorizzazione delle teorie
matematiche, attività utili per mettere in luce le strutture sottogiacenti ai concetti matematici stessi.
Non si condividono però la ricerca esplicita, richiesta dal programma di Hilbert, di dimostrazioni
dirette di coerenza, in quanto i matematici del gruppo sono del parere che grazie alla pratica matematica (corretta) si metterà in luce che non si trovano contraddizioni in quella parte della Matematica che è il risultato di attività specialistiche nei singoli campi. Inoltre si suggerisce l’idea che una
eventuale contraddizione non sarebbe una scoperta dagli effetti catastrofici, ma eventualmente
l’origine di nuovi sviluppi matematici, in quanto darebbe origine a ricerche dirette ad evitare la contraddizione stessa
«[…] all’incirca quello che è successo con la scoperta degli irrazionali, che lungi dall’essere deplorata come avente rivelato una contraddizione nelle matematiche pitagoriche, è da noi oggi considerata come una grande
conquista del pensiero umano.» (da Borga & Palladino, 1997)
In un articolo del 1949, Foundations of Mathematics for the Working Mathematician, The Journal
of Symbolic Logic, 14, 1 – 8, Bourbaki precisa ulteriormente la sua posizione riguardo le contraddizioni e la teoria degli insiemi:
«Non vi è una netta linea di demarcazione tra quelle contraddizioni che nascono nel lavoro quotidiano di ogni
matematico, principiante o esperto del suo mestiere come risultato di errori più o meno facilmente individuabili,
e i grandi paradossi che alimentano il pensiero logico per decenni e talvolta per secoli. L’assenza di contraddizioni, nella matematica nella sua totalità o in qualsiasi suo settore, appare quindi come un fatto empirico, piuttosto che come un principio metafisico. Più un settore è stato sviluppato, meno probabile diviene che si possano
incontrare contraddizioni nei suoi ulteriori sviluppi.
[…] Come tutti sanno, tutte le teorie matematiche possono essere considerate come estensioni della teoria generale degli insiemi, in modo che, per chiarire la mia posizione per quanto riguarda i fondamenti della matematica,
non mi resta che stabilire gli assiomi che uso per quella teoria […]
Su questi fondamenti affermo che posso costruire l’intera matematica attuale; e se vi è qualcosa di originale nel
mio procedimento, esso sta unicamente nel fatto che, invece di accontentarmi di questa affermazione, io procedo
a dimostrarla nello stesso modo in cui Diogene dimostrò l’esistenza del moto; e la mia dimostrazione diverrà
sempre più completa man mano che il mio trattato aumenta.» (da Borga & Palladino, 1997)
Il titolo di questo articolo ebbe ‘successo’: sono poi stati pubblicati vari testi in cui gli argomenti
venivano presentati per un working mathematician, vale a dire per uno scienziato che sta lavorando
in un suo campo specifico e che si trova a contatto di qualche argomento che strettamente non lo riguarda, ma che, grazie ad un’informazione spicciola e talvolta non troppo precisa, ha la possibilità
di sfruttare risultati e conoscenze di altri campi.
339
Capitolo 10
Dopo i teoremi di Gödel.
Ma ci sono dei matematici che non sono ‘working’? Forse la categoria complementare di quella cui
è indirizzato il lavoro di Bourbaki è costituita dai matematici contemplativi, probabilmente una specie in via di estinzione. Da queste parole di Bourbaki trae spunto quella diffusa posizione dei matematici che viene detta platonismo insiemistico. Il fatto che Bourbaki non presenti
neppure un accenno dei teoremi di incompletezza di Gödel, indica una precisa scelta di tipo epistemologico.
Il primo libro contiene, a mo’ di repertorio di simboli, qualche accenno di logica. Poi
si presenta la teoria degli insiemi e nelle prime versioni si fa uso di un simbolismo
Jean Piaget
(1896 – 1980)
peculiare, che viene abbandonato in favore di quello divenuto più consueto.
L’impatto del bourbakismo più che sulla ricerca, è stato enorme sul linguaggio del-
la ricerca, ed ha favorito importanti mutamenti sulla didattica universitaria. Per opera di Piaget e dei
suoi collaboratori, sulla base dell’impostazione insiemistica e dello strutturalismo (che si è diffuso
in altri campi, quali la critica letteraria, la storia, la grammatica), c’è stato una modifica generale dei
programmi scolastici, per le scuole che precedono l’università, in quasi tutto il mondo. Lo studioso
svizzero infatti aveva cercato di dimostrare sperimentalmente come le strutture madri siano presenti
nei bambini già in età pre-scolare, e quindi svolgessero un ruolo importante nello sviluppo cognitivo. A ben vedere questo approccio, che in Italia è stato contraddistinto con il nome di Insiemistica,
si è rivelato sia didatticamente sia pedagogicamente insoddisfacente, ma una colpa di ciò può essere
dovuta al fatto che autori di libri di testo ed insegnanti sono stati costretti, da un giorno all’altro ad
improvvisarsi sostenitori dello strutturalismo matematico, sulla base di una preparazione assai limitata se non inesistente. Ma anche il fatto che con l’Insiemistica si assista ad un rovesciamento del
flusso temporale delle idee, può avere avuto le sue conseguenze.
All’università l’approccio bourbakista è attivo tuttora e i racconti di vecchi studenti che hanno affrontato all’università corsi di matematica che lo evitavano (in Italia si può datare dal 1962
l’introduzione dello strutturalismo) hanno il sapore di qualcosa di molto lontano nel tempo.
La bontà del metodo assiomatico per lo studio universitario, per la generalizzazione che permette di
raggiungere non è un ‘valore’ didattico per un bambino della scuola primaria. Sicuramente gli argomenti elementari della Matematica non costruiscono adeguate immagini mentali se sono presentati sotto forma di dimostrazioni formali da assiomi.
Un esempio clamoroso è l’utilizzazione degli spazi vettoriali e dell’Algebra lineare per giustificare
la Geometria, anche euclidea. Anche se è vero che questo approccio è unificante, in quanto permette
di trattare in modo uniforme la geometria euclidea, quella affine e quella proiettiva, grazie ad opportune specificazioni, giunge a presentare le coniche come forme sesquilineari, facendo del tutto a
340
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
meno della intuizione spaziale e della visualizzazione, e quindi impedendo il riconoscimento di iperboli nei cestini per la carta straccia.
Una critica epistemologica all’approccio di Bourbaki consiste nel fatto che la presentazione assiomatica è il risultato di una ricerca ‘matura’ che può essere presentata sotto forma di teoria perché
sono già noti fatti fondamentali che la teoria vuole descrivere.
Se un campo di ricerca è ancora in via di formazione, un’assiomatizzazione ‘precoce’ può ostacolare non aiutare l’indagine, in quanto gli studiosi sono, in queste fasi, più attenti alla soluzione dei
problemi che alla loro sistematizzazione teorica.
Non ostante l’impegno enciclopedico, dagli Éléments sono rimaste escluse teorie e parti significative della Matematica, perché non facilmente trattabili come strutture. In tale opera non si trovano
ordinali e cardinali, Algebra universale parti di topologia e di teoria dei gruppi. Resta completamente esclusa la matematica applicata. Si è avuto invece un benefico effetto sulla geometria algebrica.
Gli storici criticano poi l’approccio strutturale (anche se poi lo praticano nella cosiddetta storiografia degli Annales) perché di fatto le strutture ‘invertono’ lo sviluppo storico dei concetti.
Il bourbakismo, inoltre mette al centro della ricostruzione della Matematica la teoria degli insiemi,
ma di essa si guarda bene dall’indagare le difficoltà concettuali che sono insite in essa (coerenza,
indipendenza di scelta e continuo). Dopo i lavori di Cohen non è più così chiaro cosa siano gli insiemi e le loro proprietà e quindi prenderli (quali?) come base naturale per rifarci sopra la Matematica diventa almeno discutibile.
10.1.4. Le dimostrazioni dirette di coerenza. La diffusione dei teoremi di incompletezza di Gödel,
come detto anche altrove, ebbe l’effetto quasi immediato di fare cessare le ricerche connesse al programma di Hilbert. Heinric Scholz (1884 – 1956) in Abriß der Geschichte der Logik, apparso nel
1931, nella prefazione che porta la data del “maggio 1931”, scrive:
«In merito ai propositi di Hilbert è proprio ora apparso un articolo quanto mai sensazionale di Kurt Gödel […] Se i risultati di questo articolo sosterranno la riprova, allora sarà dimostrato che gli strumenti finora messi in opera da Hilbert,
e inoltre tutta una schiera di mezzi esattamente determinabili di portata ancora più ampia, che Hilbert si propone di impiegare per la dimostrazione di mancanza di contraddizioni della matematica classica, non sono all’altezza del compito.» (da Borga & Palladino, 1997)
Anche Gentzen, che poi contribuì alla dimostrazione diretta di coerenza dell’Aritmetica, nel lavoro
del 1933, sulla traduzione delle formule dell’aritmetica classica in quella intuizionista, che non venne pubblicato, scriveva:
«Se questo possa essere fatto [provare in modo finitista la consistenza dell’aritmetica] appare piuttosto dubbio,
avendo Gödel mostrato che la consistenza dell’aritmetica non può essere provata entro l’aritmetica stessa (ammesso che l’aritmetica sia consistente).» (da Borga & Palladino, 1997)
341
Capitolo 10
Dopo i teoremi di Gödel.
Nel 1934 Hilbert accennava al fatto che si fosse formata un’opinione per cui i risultati di Gödel renderebbero inattuabile il suo progetto relativo alla Teoria della dimostrazione, ma che personalmente
riteneva tale opinione errata.
Furono forse queste parole che, non ostante la diffusa impressione di impossibilità a continuare lungo la strada, tennero vivo il programma di Hilbert e diedero quindi modo di ripensare al problema,
facendo, nel tempo accumulare una serie di risultati che servirono anche a chiarire meglio sia il finitismo sia gli strumenti da utilizzare nella Metamatematica.
Della ‘vaghezza’ del finitismo si è già detto altrove. Alla prova dei risultati di Gödel furono fatti
sforzi per chiarire al meglio cosa potesse essere e fu così che, soprattutto ad opera di Bernays, venne data una nuova versione del programma di Hilbert, il programma generalizzato, in cui si rinuncia a provare la coerenza con strumenti finitisti, ma se ne cerca una dimostrazione diretta che faccia
uso di metodi costruttivi, in un senso generale. Ciò avvenne in seguito ai risultati di Gödel e Gentzen del 1933 sulla traducibilità dell’aritmetica classica in quella intuizionista (da cui segue una dimostrazione di coerenza dell’aritmetica classica rispetto alla sua versione intuizionista). Bernays in
due articoli consecutivi, pubblicati nel 1935 su L’Enseignement Mathématique, vol. 34: Sur le platonisme dans les mathématiques (pp. 52 – 69) e Quelques points essentiels de la métamathématique,
(pp. 70 – 95) si esprime in questi termini:
«[…] arriviamo alla conclusione che ci vogliono metodi più potenti dei metodi elementari di tipo combinatorio
per provare la coerenza della teoria assiomatica dei numeri. Una recente scoperta di Gödel e Gentzen ci ha portati a un tale metodo più potente. Essi hanno mostrato, indipendentemente, che la consistenza dell’aritmetica intuizionista implica la consistenza della teoria assiomatica dei numeri. […] Questa dimostrazione di consistenza per
la teoria assiomatica dei numeri ci rivela fra l’altro che l’intuizionismo, con i suoi ragionamenti astratti, va oltre i
metodi elementari di tipo combinatorio.
Il problema di dimostrare la consistenza della teoria elementare dei numeri […] ammette così una soluzione molto semplice, se si estendono i metodi della metamatematica con l’aggiunta dei ragionamenti intuizionisti.» (da
Borga & Paladino, 1997)
Con queste parole, e con il giudizio di Hilbert, l’impressione generale che la dimostrazione della
coerenza dell’aritmetica formalizzata fosse già stata ottenuta non sembrava essere in dubbio, anche
se gli strumenti non erano quelli finitisti, pur essendo intuizionisticamente accettabili e quindi ‘costruttivi’ in un senso lato (ed a quei tempi, accettato).
10.1.4.1. Gentzen. Nel 1936 in Die Widerspruchsfreiheit der reinen Zahlentheorie, Mathematische
Annalen 112, 495 – 565, Gentzen come prosecuzione delle ricerche già fatte presenta una dimostrazione, che Bernays in una recensione del lavoro, definisce come ‘nuova’ confrontandola con quella
di cui si è parlato in precedenza. In realtà tale risultato è forse il primo diretto che determina e delimita le condizioni indispensabili per provare la coerenza dell’Aritmetica formalizzata. Allo stesso
tempo, Gentzen presenta una nuova tecnica dimostrativa e apre una strada che sarà in poi seguita da
molti altri logici. L’idea centrale è quella di provare che una qualsiasi contraddizione
342
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
dell’Aritmetica ad esempio 0 = 1, non è ottenibile in una deduzione nell’aritmetica formale se non
la si assume come ipotesi.
Per fare questo individua un insieme di trasformazioni sintattiche di tipo ricorsivo primitivo, ma, alla luce dei risultati di incompletezza, deve aggiungere un nuovo procedimento di induzione che vada oltre l’induzione consueta (fino all’ordinale ω).
Le trasformazioni sintattiche hanno il compito di trasformare la struttura in modo che risulti più
semplice, in un senso abbastanza riposto e di qui si procede con un’induzione su un nuovo ordinale
numerabile, maggiore di ω.
Gentzen ripropone la dimostrazione migliorata in un successivo lavoro del 1938 e
queste sue dimostrazioni sono state semplificate e rese più leggibili da altri autori.
Qui 7 le idee di Gentzen vengono presentate nella forma loro data da Kurt Schütte
Elliot Mendelson
(1909 – 1998) nel 1951, in Beweistheoretische Erfassung der unendlichen Induktion in der Zahlentheorie, Mathematische Annalen, 122, 369 – 389.
Intanto non si considera il sistema P, ma uno più potente, Pω. Tale sistema ha lo stesso linguaggio
di P, quindi non c’è differenza per termini e formule dei due linguaggi. Un cambiamento non sostanziale, ma di comodità è quello di considerare come connettivi di base la negazione ¬ e la disgiunzione ∨, invece che negazione ed implicazione come fatto in P. Ovviamente ogni altro connettivo è esprimibile con la nuova base, in particolare l’implicazione: (φ → ψ) sta per ((¬φ) ∨ ψ).
Per definire gli assiomi si adoperano i termini chiusi, vale a dire i termini t di P tali che lib(t) = ∅
(si veda 8.4.3.2.). Nel contesto di P e di Pω, 0 è un termine chiuso, i numerali sono termini chiusi, i
termini che si possono costruire con le operazioni di addizione e di moltiplicazione partendo dai
numerali sono termini chiusi. Niente altro è un termine chiuso (sarebbe da dimostrare per induzione). Ponendo il predicato di uguaglianza tra due termini chiusi si ha una formula atomica chiusa.
Anche in questo caso si dovrebbe provare esplicitamente che le formule atomiche chiuse sono tutte
e sole quelle che si ottengono uguagliando due termini chiusi. Le formule atomiche chiuse si suddividono in due tipi: corrette e scorrette. Questa suddivisione non avviene su base di considerazioni
morfologiche o sintattiche. Sono corrette le formule atomiche chiuse del tipo s = t se
nell’interpretazione ‘standard’ i due termini vengono interpretati negli stessi numeri naturali, sono
scorrette le altre formule atomiche chiuse. Così S(0) + S(0) = S(S(0)), ovvero 1 + 1 = 2, è corretta, 0
= S(0) vale a dire 0 = 1, non è corretta.
La teoria Pω ha come assiomi tutte le formule atomiche chiuse corrette e tutte le negazioni delle
formule atomiche chiuse scorrette.
7 Seguendo da vicino Mendelson E. (1972). Introduzione alla Logica Matematica, Torino: Boringhieri. La presentazione originale di
Gentzen si avvale dei cosiddetti ‘sequent’, scritture della forma φ1, φ2,…, φk├ ψ1, ψ2,…, ψn da interpretarsi come (φ1 ∧ φ2 ∧ … ∧ φk)
→ (ψ1∨ ψ2 ∨ …∨ ψn)
343
Capitolo 10
Dopo i teoremi di Gödel.
Il cambio di connettivi di base porta con sé un cambio degli assiomi logici e delle regole di inferenza. Gli assiomi logici…, non ci sono, ma ci sono numerose regole di inferenza. Il sistema che si ottiene prende il nome di deduzione naturale in quanto si avvicina maggiormente al procedimento usato di solito nelle dimostrazioni matematiche. Anche di questo sistema in letteratura sono note versioni differenti.
Le regole sono suddivise in regole deboli, forti e, da sola, regola del taglio.
Sono regole deboli
γ ∨ ϕ ∨ψ ∨ δ
γ ∨ψ ∨ ϕ ∨ δ
a) Scambio
ϕ ∨ϕ ∨δ
ϕ ∨δ
b) Contrazione
Sono regole forti
δ
c) Attenuazione
ϕ ∨δ
d) De Morgan
( ¬ϕ ) ∨ δ ( ¬ψ ) ∨ δ
(¬(ϕ ∨ ψ )) ∨ δ
e) Negazione
ϕ ∨δ
(¬(¬ϕ )) ∨ δ
f) Quantificazione (t termine chiuso)
(¬ϕ (t )) ∨ δ
(∃x(¬ϕ ( x))) ∨ δ
g) Induzione infinita
ϕ (n) ∨ δ per tutti i numeri naturali n
(∀xϕ ( x)) ∨ δ
Regola di Taglio
γ ∨ϕ
( ¬ϕ ) ∨ δ
γ ∨δ
In queste regole, presentate come frazioni, le formule al ‘numeratore’ sono dette premesse, quelle al
denominatore sono dette conclusioni. Le formule indicate con γ e δ sono dette marginali, e possono
anche essere omesse, tranne δ che deve essere presente se si utilizza l’attenuazione; ed almeno una
delle due in presenza della regola di taglio. Le formule non marginali sono dette principali. La formula principale φ di un taglio è detta formula di taglio e il numero dei connettivi e quantificatori di
(¬φ) è detto grado del taglio.
Nelle regole di De Morgan e di Taglio, tra le premesse è lasciato uno spazio. Questo spazio non sta
per un connettivo, ma indica che nel procedimento dimostrativo le due premesse sono ottenute indipendentemente con opportuni passaggi precedenti (o sono assiomi, cosa che non avviene in questa
344
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
presentazione con la deduzione naturale e gli assiomi che sono formule corrette o negazione di scorrette).
Questo fa sì che una dimostrazione non si presenta più come una successione di formule, bensì come un albero. Ne segue che anche il concetto di dimostrazione cambia adeguatamente e per la presenza della regola di induzione infinita richiede molta attenzione.
Un albero, o meglio un grafo ad albero o G-albero, è un insieme ordinato i cui elementi (detti punti
o vertici) possono suddividersi in livelli. La relazione d’ordine (transitiva) dà luogo ad una specificazione tra gli elementi del grafo: a è detto un predecessore immediato di b se a < b e non esiste c
tale che a < c < b. Il concetto duale è quello di un successore immediato. Per avere un G-albero al
livello 0 c’è un solo elemento (radice) o vertice terminale, ciascun vertice di livello i+1 ha un unico
predecessore immediato (il che non comporta che dato un vertice di livello i, esso
abbia un unico successore immediato. I vertici di ogni livello sono minori di almeno uno (o anche una infinità numerabile) di vertici livello superiore e, se diversi
dalla radice maggiori di esattamente uno di livello inferiore. Gli elementi di ogni
Helmut Hasse
(1898 – 1979)
livello che non sono minori di vertici di livello superiore vengono detti vertici iniziali o foglie. Ogni grafo ad albero ammette una rappresentazione mediante diagramma di Hasse e con esso le coppie di vertici connesse lo sono con un unico
segmento.
Un albero di dimostrazione si ottiene considerando un G-albero ed assegnando a ciascuno dei suoi
vertici delle formule con le seguenti clausole: le foglie sono assiomi di Pω; le formule associate a un
vertice non iniziale ed ai successori immediati di tale punto sono ottenute da esempi di regole di inferenza in cui i successori sono associati alle (alla) premesse e il vertice non iniziale è la conclusione della regola di inferenza. La formula associata alla radice è un teorema ed essendo gli assiomi
formule chiuse e non essendo possibile, tramite regole di inferenza introdurre formule non chiuse,
anche ogni teorema di Pω sarà una formula chiusa. È inoltre possibile associare ad ogni vertice un
numero ordinale in modo che una formula ottenuta per regola debole abbia lo stesso ordinale della
premessa e che l’ordinale della conclusione di una regola forte o di taglio sia maggiore degli ordinali delle premesse. L’ordinale della radice si dice ordinale dell’albero di dimostrazione. Si richiede
inoltre che ci sia un grado massimale dei tagli; questo grado è chiamato il grado dell’albero di dimostrazione. Se il grado è zero, allora la dimostrazione non presenta la regola di taglio.
Ad un cammino sul diagramma di Hasse di un albero di dimostrazione corrisponde una successione
di formule e se questo coinvolge la radice si parla di cammino dell’albero di dimostrazione. Si dimostra che in ogni cammino di un albero di dimostrazione ci possono essere solo un numero finito
di applicazioni di regole forti e di tagli ed un numero finito di applicazioni consecutive di regole
345
Capitolo 10
Dopo i teoremi di Gödel.
deboli. Un’altra semplice e fondamentale osservazione è che tutte le regole, tranne le regole di
quantificazione, di induzione infinita e di taglio, sono tali che nella premessa compaiono le stesse
formule che compaiono nella conclusione o sottoformule delle formule che compaiono nella conclusione (attenuazione). Gentzen però altera la nozione di sottoformula di una formula quantificata,
ponendo sub( ∀x(φ(x)) = ({∀x(φ(x)}∪ Ut∈Tersub(φ(t))) e lo stesso per la quantificazione esistenziale.
Con questa scelta anche le regole di quantificazione e di induzione infinita sono tali che nelle premesse compaiono di queste regole compaiano sottoformule della conclusione. L’unica regola che fa
‘sparire’ le formule e le sottoformule è la regola del taglio.
Tale regola, poi, non è altro che la versione, qui opportuna, del Modus ponens. In certe assiomatizzazioni del calcolo dei predicati del primo ordine, con una scelta adeguata degli assiomi, si presenta
come unica regola di inferenza il Modus ponens.
Una dimostrazione con un sistema formalizzato come quello di ‘tipo’ Hilbert è potenzialmente infinita in lunghezza, cioè nel numero di passi e spesso le dimostrazioni sulle dimostrazioni (ad esempio teorema di deduzione) avvengono per induzione (sul numero dei passi, sulla complessità della
formula, sull’altezza del termine, ecc.). Una dimostrazione ad albero è altrettanto infinita in potenza
(il numero dei livelli), ma è infinita anche ‘in orizzontale’ a causa della regola di induzione infinita
che richiede assegnate le infinite dimostrazioni di φ(n) come premesse. Per questo aspetto
l’induzione usata o usabile per fare dimostrazioni sugli alberi di dimostrazione richiede una induzione più forte (e ricca).
La dimostrazione dei lemmi preliminari che sono necessari è assai complessa: si deve provare che
effettivamente il principio di terzo escluso per una formula chiusa è dimostrabile senza usare il taglio, che ogni formula chiusa che è un teorema di P è anche un teorema di Pω, quindi la seconda teoria è più potente delle prima, da cui se Pω è coerente, lo è anche P.
A questo punto si prova quello che Gentzen chiama lo Hauptsatz , il teorema principale; alcuni altri
ricercatori lo chiamano Reduktionssatz. Esso consiste nel dimostrare che dato un albero di dimostrazione di una formula chiusa φ in Pω, di grado m e di ordinale β, esiste un albero di dimostrazione
dello stesso enunciato di grado minore e di ordinale 2β. Si tratta quindi di una dimostrazione più
complessa, come indica la crescita dell’ordinale e più semplice come indica la diminuzione del grado. Di conseguenza, iterando il procedimento, dato un albero di dimostrazione di grado m e ordinale
β, iterando la riduzione si giunge ad un albero di dimostrazione della stessa formula di grado 0 e di
ordinale 2
 2 β 


2N
, con un opportuno numero di passi.
La dimostrazione dello Hauptsatz è tutt’altro che semplice ed è assai impegnativa. Essa richiede
l’induzione fino a ε 0 = ω (ω
( ω( N
. Detto meglio, si definisce per ricursione γ0 = ω; γn+1 = ω γ n e poi, in
346
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
modo suggestivo, ma non del tutto corretto, ε0 = γω.
Qui interessa di più seguire la linea di pensiero che porta Gentzen a dimostrare direttamente la coerenza della aritmetica P. Da questo risultato discende infatti che Pω è coerente, il che implica la coerenza di P. Infatti si consideri la formula atomica chiusa 0 = 1. Si tratta di una formula scorretta,
quindi non è un assioma, bensì è un assioma ¬(0 = 1). Se la formula 0 = 1 fosse dimostrabile, allora
Pω non sarebbe coerente in quanto si avrebbe la possibilità di provare, un enunciato e la sua negazione. Ma la non dimostrabilità di 0 = 1 è dimostrabile direttamente, ottenendo così una dimostrazione diretta di coerenza per Pω. Il motivo è semplice: se ci fosse un albero di dimostrazione di 0 =
1, con un certo grado ed un certo ordinale, allora ci sarebbe anche una albero di dimostrazione con
un ordinale maggiore, ma con grado 0. In esso, quindi non ci sono applicazioni della regola del taglio, pertanto essendo la radice 0 = 1, questa è ottenibile solo dall’applicazione di una regola in cui
compaiono esclusivamente sottoformule di essa, e così via fino alle foglie dell’albero. Per questo
almeno una delle foglie dell’albero non può essere che 0 = 1, in quanto formula atomica, ma questo
non sarebbe un albero di dimostrazione in quanto 0 = 1 non è un assioma.
La dimostrazione non è costruttiva, nel senso richiesto dal programma di Hilbert, cioè con mezzi
esprimibili all’interno di P, in quanto l’induzione fino a ε0 non è dimostrabile in P. Tuttavia per alcuni matematici, data la numerabilità dell’ordinale ε0, il procedimento di induzione fino a tale ordinale è ritenuto accettabile dal punto di vista costruttivo. Con poco sforzo, ripetendo il processo di
aritmetizzazione, dalla dimostrazione della coerenza di P, si ricava quella della teoria dei numeri interi e dei numeri razionali.
Il risultato di Gentzen fu accolto assai bene, soprattutto da coloro che ritenevano importante proseguire le ricerche sul programma di Hilbert modificato. Però per un certo tempo i risultati provati erano tutti riconducibili alla prova di Gentzen del 1936 oppure portavano lievi miglioramenti dal
punto di vista espositivo. Anche Gentzen nel 1938 presentò quella che ritenne essere una ‘seconda’
dimostrazione ma che di fatto non migliora in modo sostanziale i risultati ottenuti nel 1936.
10.1.4.2. Le dimostrazioni di coerenza dell’Analisi. Lo stesso Gentzen nel 1945
stava cercando di estendere la coerenza anche all’Analisi e per farlo cercava di caratterizzare un ordinale che stesse all’Analisi così come ε0 sta all’Aritmetica. La
morte precoce, a 35 anni gli impedì di portare a termine il progetto.
Gaisi Takeuti
(n. 1926)
Nel 1953 si ebbe un primo tentativo di risolvere il problema della dimostrazione
diretta di coerenza dell’Analisi, ad opera di Takeuti, uno scolaro di Gödel. Egli presentò in On a Generalized Logical Calculus, The Japanese Journal of the Mathe-
matics, 23, 39 - 96 un nuovo sistema formale GLC, di ordine arbitrariamente alto, formulato in ter347
Capitolo 10
Dopo i teoremi di Gödel.
mini di sequent e congetturò che valesse per esso lo Hauptsatz. Il lavoro conteneva qualche errore,
per cui nel volume successivo della rivista fu pubblicato in forma corretta. Takeuti afferma che la
possibilità di applicare lo Hauptsatz è la congettura fondamentale per GLC. Se tale congettura venisse provata essa implicherebbe la coerenza dell’Analisi. Se si accetta l’identificazione dell’Analisi
con l’Aritmetica del secondo ordine (posizione proposta da Hilbert e Bernays), per provare la coerenza dell’Analisi basterebbe di meno: che si potesse applicare lo Hauptsatz al sottosistema G1LC,
della logica del solo secondo ordine.
Questa congettura ebbe il ruolo di ‘attrattore’ nel senso che molti lavori e sforzi furono fatti per dimostrarla, con solo pochi casi di indagine su possibili altre vie.
Tuttavia C. Spector nel 1962 in Provably Recursive Functionals of Analysis: a Consitency Proof by
an Extension of Principles Formulated in Current Intuitionistic Mathematics, Proceedings of Symposia in Pure Mathematics, American Mathematical Society, Providence, Vol. 5, 1 – 27, riprende
l’interpretazione di Dialectica di Gödel ottenendo una dimostrazione non costruttiva della coerenza.
Nel 1966 W.W. Tait prova la congettura di Takeuti, in A Non-constructive Proof of Gentzen’s
Hauptsatz for Second Order Predicate Logic, Bullettin of the American Mathematical Society 72,
980 – 983, seguito un anno dopo da Prawitz con Completness and Hauptsatz for
Second Order Logic, Theoria, 33, 246 – 258. Nello stesso anno 1967 M. Takahashi
in A Proof of Cut-elimination Theorem in Simple Type Theory, The Journal of the
Dag Prawitz
(n. 1936)
Mathematical Society of Japan, 19, 399 – 410 prova la congettura di Takeuti nel
caso di G1LC e l’anno dopo, ancora Prawitz in Hauptsatz for Higer Order Logic,
The Journal of Symbolic Logic 33, 452 – 457, dimostra la stessa congettura nel ca-
so generale. Si tratta però, sempre di dimostrazioni non costruttive.
Il cerchio si chiude con un ulteriore intervento di Takeuti che nel 1967 e poi ripreso e migliorato nel
1975 e nel 1987, dimostra in modo costruttivo l’eliminabilità del taglio per il sottosistema di G1LC
che si ottiene restringendo l’assioma di comprensione a formule con al più un quantificatore del secondo ordine, risultato che si riflette sulla coerenza del corrispondente sottosistema dell’Analisi.
Questa ricerca può apparire un grande sforzo che ha portato a risultati globalmente deludenti. Essa
ha però un grande merito: iniziata per uno scopo ben preciso, ha mostrato l’importanza di una riflessione più generale sulla struttura delle dimostrazioni e, nel caso particolare della coerenza della
Analisi, ma anche di altre teorie matematicamente significative, nella indagine su cosa comporti, dal
punto di vista delle dimostrazioni, la modifica delle assunzioni di partenza.
Dal punto di vista dell’indagine filosofica, l’identificazione dell’Analisi con la Aritmetica del secondo ordine è stata ben preso abbandonata. E ciò a favore di una ricerca di quale e quanta Analisi
si possa costruire con mezzi ristretti (ad esempio costruttivi), invertendo di fatto il punto di vista.
348
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
D’altra parte, sarebbe interessante chiedersi per quanti e quali analisti la coerenza dell’Analisi sia
un problema ‘centrale’ delle loro ricerche e se gli strumenti usati dai logici per provare i risultati di
coerenza hanno avuto ricadute nelle loro indagini.
Anche nel generale (o quasi) disinteresse dei maggiori utilizzatori dell’analisi, la ricerca in teoria
della dimostrazione ha cercato di individuare cosa si potesse ottenere partendo da P, o da estensione
conservative di P o, ancora in modo più restrittivo da PRA (aritmetica ricorsiva primitiva). Questa è
una domanda che ha valore epistemologico evidente: la formalizzazione ha portato a tradurre intuizioni in termini formali, ma può venire il dubbio che per esigenze di completezza o di ideologia, i
sistemi ottenuti siano troppo forti per la pratica matematica quotidiana.
In questa direzione sono interessanti i risultati di Fefermann e di Takeuti che tra la fine degli ’70 e
degli ’80 del XX secolo, sono stati capaci di ricostruire considerevoli parti dell’Analisi all’interno
di estensioni conservative di P, quindi con le stesse ‘garanzie’ di coerenza di P. In questi ambiti la
ricerca è andata avanti e, anche se può sembrare strano, si può dire che questa parte del programma
di Hilbert continua ad occupare gli studi di validi ricercatori. Oggi si ritiene quasi unanimemente
che il finitismo hilbertiano si possa identificare con PRA.
10.1.5. I costruttivismi. Con l’avvento della teoria della ricorsività si sono precisati alcuni concetti,
tra i quali quello di algoritmo e questo a permesso di chiarire meglio le posizioni tra le varie forme
di costruttivismo.
Dopo che Heyting riuscì a fornire una presentazione della logica intuizionista, si è reso possibile un
confronto più attento e meno ‘fumoso’ sugli aspetti che individuano la corrente di pensiero propugnata da Brouwer e altre forme di pensiero affini. Un passo importante si deve a Kleene, che nel 1945 ha
introdotto il concetto di realizzabilità ricorsiva. Si può vedere questo tipo di concetto come una controparte rigorosa su quali formule relative all’aritmetica ed all’analisi potevano essere accettate intuizionisticamente. Si è avuto così uno sviluppo che ha portato a numerosi risultati. Di rilievo quelli di
Harvey Friedman (n. 1948) che ha ottenuto ‘traduzioni’ della teoria classica degli insiemi in quella
intuizionista, analoghi a quanto fatto per l’Aritmetica Gödel nel 1933.
10.1.5.1. Gli algoritmi di Markov. Un’altra
scuola di costruttivismo è quella russa, capitanata da A.A. Markov, figlio e omonimo del
probabilista. Lo studioso russo partendo da
altre idee, giunge negli anni ’50 del XX seAndrei Andreyevich Markov
(1903 – 1979)
colo alla caratterizzazione di un tipo diverso
349
Andrei Andreyevich Markov
(1856 – 1922)
Capitolo 10
Dopo i teoremi di Gödel.
di algoritmi (gli algoritmi di Markov) che si dimostrano sostanzialmente equivalenti a quelli introdotti da tanti, in tanti modi diversi, nel 1936. La differenza fondamentale è che Markov e i suoi discepoli, riuscirono ad estendere le considerazioni sulla computabilità anche ai numeri reali ed alle
funzioni reali (seppure limitando il continuo ai reali ricorsivi ed alle funzioni tra essi). Ne risulta
una teoria con molti punti in comune con l’intuizionismo: non si accetta l’infinito in atto, né il terzo
escluso. Il quantificatore esistenziale deve avere un significato costruttivo, quindi non interdefinibile con l’universale. Però gli sviluppi dell’analisi intuizionista e del costruttivismo russo sono diversi, perché da quest’ultima scuola non vengono accettate le successioni di scelte, né il principio del
ventaglio. Lo sviluppo dell’analisi dal punto di vista di Markov si avvale di un principio di scelta
costruttiva (o di Markov) per altro criticato e rifiutato dagli intuizionisti. Sacrificando un po’ di precisione alla comprensione, tale principio afferma che se si dimostra assurdo che un algoritmo non
termini su un dato input, allora l’algoritmo termina. In modo più formale se è data una proprietà decidibile P(x) ( esiste un algoritmo che determina se un oggetto x soddisfa oppure no la proprietà P),
allora avendo dimostrato che ¬(¬ ∃x(P(x))), si ritiene dimostrata ∃x(P(x)). Il principio viene giustificato come segue: se è impossibile che non esista il passo finale di un algoritmo, allora procedendo
nel calcolo, prima o poi si incontra tale passo finale.
Proprio per l’accettazione di questo principio, costruttivismo russo e intuizionismo sono incompatibili tra loro (e con la matematica classica).
10.1.5.2. Il costruttivismo di Bishop. Una diversa posizione, quella che forse ha avuto maggiore
successo in anni vicini, è stata la proposta di Bishop, col libro Foundations of Constructive Analysis, New York: MacGraw-Hill, 1967. In esso si può trovare
un’influenza profonda dell’intuizionismo, in particolare sul significato della quantiErret Bishop
(1928 – 1983)
ficazione esistenziale, ma anche notevoli distanze dalla corrente filosofica di
Brouwer. Ad esempio Bishop non accetta il soggettivismo implicito del matemati-
co olandese e neppure l’aspetto non costruttivo del terzo escluso. Detto in altri termini, si tratta di
una forma di costruttivismo solidamente impiantato sulla Matematica tradizionale, della quale si
cerca di mettere in luce se e quando un concetto o procedura hanno aspetti costruttivi ed eventualmente proporre costruzioni costruttivamente accettabili di risultati tradizionalmente presentati in
modo non costruttivo. Questo perché un approccio costruttivo offre molte informazioni in più sul
concetto o sulla procedura. Quindi se sul piano linguistico le teorie formali sono accettabili, Bishop
le ritiene lontane dal vero ‘fare’ la matematica. Di qui discende un rifiuto per la fondazione insiemistica della matematica e l’approccio formalista di Hilbert.
350
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
Ma Bishop rifiuta pure le successioni di scelte in quanto, pur non chiarendo i rapporti con la teoria
della ricorsività, ritiene che la matematica costruttiva sia compatibile con la Tesi di Church.
Un altro aspetto che ha decretato il successo della proposta di Bishop è che il suo testo è scritto in
‘matematichese’, evitando discussioni sugli aspetti ontologici o dichiarazioni ideologiche di principi
filosofici ispiratori. Inoltre la sua proposta si estende a molti settori della matematica avanzata quali
la teoria della misura, le analisi complessa e funzionale, gli spazi metrici, ovviamente presentati in
termini costruttivamente accettabili. Si tratta quindi di un approccio che non ha quei caratteri riduzionisti che sono comuni a molte teorie fondazionali, preoccupate più di mettere in luce la ‘bontà’
della scelta del concetto unificatore, piuttosto che veramente preoccupate di descrivere quanta più
matematica si possa presentare.
In conclusione la proposta di Bishop è coerente con la matematica classica e presenta una sorta di
terreno ‘neutrale’ in cui possono incontrarsi ed accordarsi i matematici classici e gli ‘altri’ nel senso
che può essere arricchita delle esigenze dell’intuizionismo o del costruttivismo russo.
L’interesse suscitato dalla proposta di Bishop ha fatto sì che altri matematici ne abbiano studiato gli
aspetti metateorici e abbiano fatto confronti con i risultati di altre impostazioni fondazionali. Tra
questi sono notevoli i contributi di Friedman e di Fefermann.
Un esempio di questo approccio costruttivo può essere fatto a riguardo del concetto di numero reale.
Una successione f (cioè una funzione di dominio N e condominio Q) di numeri razionali è detta regolare se per ogni n e m, naturali |f(n) – f(m)| < 1 n + 1 m . Con questa nozione si ha, dal punto di vista
classico, una successione di Cauchy. Infatti per ogni numero razionale positivo ε, in virtù del principio di Eudosso-Archimede, esiste un numero naturale p tale che 2 < p·ε , vale a dire 2 p < ε. Si ha
quindi per ogni n,m∈N, |f(p+n) – f(p+m)| < 1 p + n + 1 p + m < 2 p < ε.
Un numero reale è una successione regolare di numeri razionali e due numeri reali f e g sono uguali
se per ogni numero naturale m, |f(m) - g(m)| < 2 m . Quindi viene esplicitamente indicato come tali
successioni convergono, restringendo le possibilità di successioni equivalenti. Dal punto di vista
classico, questi numeri reali sono accettabili, ma sono solo alcune delle successioni di numeri razionali che soddisfano la condizione di Cauchy, in un certo senso si tratta di una scelta di rappresentanti privilegiati nelle classi di equivalenza di successioni razionali di Cauchy che definiscono i numeri
reali nell’approccio di Cantor.
Nella presentazione di Bishop, non vale la tricotomia per i numeri reali e pertanto, detto in termini
non del tutto corretti per l’uso del concetto di insieme, l’insieme dei numeri reali x tali che x < 0 oppure x ≥ 0 non esaurisce l’insieme dei numeri reali. Di qui discende, come visto in 8.2.2. la difficoltà ad accettare il teorema di Bolzano sugli zeri di una funzione continua. Tuttavia in Bishop & Bri351
Capitolo 10
Dopo i teoremi di Gödel.
dges (1985) Constructive Analysis, Berlin: Springer, di ha una presentazione dell’analisi assai avanzata. Questa versione costruttiva è assai diversa da quella classica però di certi risultati classici vi
sono analoghi costruttivi che forniscono contenuti numerici utili per la valutazione di convergenze e
di limitazioni effettive. Per chiarire un esempio. Il Teorema di Bolzano per le funzioni continue afferma che per ogni funzione f definita e continua in un intervallo reale chiuso [a,b] e tale che
f(a)·f(b) < 0 esiste c∈[a,b] tale che f(c) = 0. L’analogo costruttivo di questo teorema afferma che
sotto le stesse ipotesi per ogni ε razionale positivo, è possibile determinare costruttivamente un numero reale c nell’intervallo di definizione tale che |f(c)| < ε. Probabilmente il ‘gusto’ del matematico
classico resta comunque soddisfatto, ma nella elaborazione numerica del dato, l’approccio costruttivo offre più informazioni. Con lo sviluppo dei computer queste informazioni costruttive sono di
grande aiuto e valore.
Si spiega così il grande successo riscosso dalla proposta di Bishop ed anche il fatto che gli ‘adepti’
al suo costruttivismo, col diffondersi dei computer e dei problemi che tali strumenti portano con sé,
abbiano aumentato l’interesse per un approccio in cui il contenuto informativo sia più concretamente utilizzabile, rispetto ai molti risultati di esistenza non costruttiva che la matematica classica offre.
10.1.6. Ultrafinitismo. Non sono in grado di affermare se le istanze
dell’ultrafinitismo proposto negli anni ’60 del XX secolo da EseninAlexander Esenin-Vol’pin
(n. 1924)
Vol’pin (secondo altre traslitterazioni dal cirillico Yessenin-Volpin) siano
state suggerite dalla diffusione degli strumenti di calcolo automatici o se siano il frutto di una personale elaborazione concettuale. La proposta dello studioso russo si configura in una forma di costruttivismo ‘estremo’.
10.1.6.1. Computabilità effettiva. La grande stagione della teoria della ricorsività aveva prodotto la
realizzazione ‘fisica’ di macchine calcolatrici mediante ingombranti e costosi apparati. Esse erano
state salutate come un grande contributo, ma i primi esemplari (1952) erano assai modesti come potenzialità e impegnativi come costi. Man mano che gli apparati di calcolo si diffondevano, miglioravano le prestazioni degli strumenti, ma appariva sempre maggiore la distanza tra i concetti di
computabilità teorica individuata dalla teoria della ricorsività, e di computabilità effettiva, con gli
strumenti a disposizione. Il confronto con l’astratta perfezione e impensabile potenza delle macchine di Turing ha spinto a cercare (e trovare) miglioramenti nella velocità di calcolo, nella riduzione
degli spazi fisici necessari per lo hardware e per gli spazi di memoria, ma anche a comprendere che
c’erano differenze tra i vari problemi e che i tempi di calcolo dipendevano dai linguaggi di programmazione, dai programmi compilati in essi, ma anche dagli input numerici (e non solo) che ve352
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
nivano somministrati. Credo che il confronto tra i tempi e gli spazi su carta necessari per eseguire
l’addizione tra due numeri di 120 cifre e la moltiplicazione degli stessi possa convincere che in entrambi casi si tratta di algoritmi effettivamente eseguibili, ma che spazi e tempi per eseguirli sono
ampiamente diversi. Pertanto se si utilizza un computer per svolgere un calcolo complesso, anche
per il solo costo della energia elettrica consumata, o per il tempo necessario per il calcolo, un problema teoricamente risolubile può divenire non computabile effettivamente. Un esempio importante
per la vita quotidiana. Mi risulta che attraverso complessi modelli matematici e altrettanto complessi algoritmi sia possibile sviluppare una previsione del tempo, per il giorno successivo, su aree ristrette con elevata probabilità di successo, ma che con gli elaboratori più potenti, se l’area è appena
un po’ più vasta (e crescono così le variabili da considerare) l’elaborazione durerebbe più di un
giorno. Così se si deve sapere se domani sulla zona del lancio del razzo che deve andare sulla Luna
ci sarà una turbolenza atmosferica, forse si riesce a giungere a risultati affidabili, ma se, per esigenze delle compagnie di volo, si deve monitorare l’andamento dei venti che portano polveri vulcaniche islandesi sull’Europa occidentale, l’unica cosa sensata è aspettare il giorno successivo e ‘assaggiare’ il vento con un anemometro.
10.1.6.2. Le tesi dell’ultrafinitismo. Queste considerazioni servono di supporto per la proposta (non
completamente chiarita dallo stesso autore) che il finito ‘grande’ sia altrettanto difficile da gestire
che l’infinito, contenuta principalmente in Esenin-Vol’pin, A.S. (1961). Le programme ultraintuitionniste des fondements des mathématiques, in Infinitistic Methods, Oxford : Pergamon Press,
201-223.
In questo approccio, vi sono diversi universi di numeri naturali e il principio di induzione non è affidabile. Non esiste una successione infinita di numeri naturali. A sostegno di questa posizione, si
considera il fatto che numeri del tipo 171000 – 2 sono ‘troppo grandi’ in quanto non abbiamo procedimenti di verifica delle sue cifre più corti del numero stesso.
Ad esempio un finito grande non ‘reagisce’ all’applicazione del successivo, nel senso che se il
commentatore televisivo ci informa che all’arrivo di una tappa del Giro d’Italia ci sono 150.000
spettatori, l’informazione non cambia in modo effettivo se, invece, sono 149.825 o 149.826. Ne discenderebbe che si potrebbero considerare ‘blocchi’ diversi di numeri naturali, che non sono chiusi
per operazioni (soprattutto moltiplicazione o potenza), ma sono ‘insensibili’ al passaggio al successivo.
Anche le dimostrazioni devono aver un numero di passi non ‘troppo grande’ per poter essere controllate e quindi per avere un vero contenuto informativo.
Dal punto di vista metateorico, la riduzione all’ultrafinitismo permette di provare la coerenza di ZF.
353
Capitolo 10
Dopo i teoremi di Gödel.
10.1.6.3. Vopěnka e la matematica alternativa. Le idee di Esenin-Vol’pin sono citate esplicitamente come ispirazione di una proposta elaborata negli anni ’70 da
Vopěnka che prende il nome di Matematica alternativa. Il primo ‘capitolo’ di questa nuova teoria fondazionali si ha nello sviluppo di una opportuna teoria degli insiemi, la teoria alternativa degli insiemi (Alternative Set Theory – in breve AST)
Petr Vopěnka
(n. 1936)
Nel 1972 appare Vopěnka P. & Hájek P. (1972) Semisets, NorthHolland, sull’indipendenza dell’ipotesi del continuo rispetto alla
teoria degli insiemi, mediante il concetto, innovativo, di semi-insieme.
La teoria alternativa degli insiemi (AST) incomincia ad essere elaborata da
Vopěnka nel 1973 come ‘naturale’ evoluzione del precedente lavoro. L’autore di
Praga non conosce la lingua inglese e poco quella francese e preferisce scrivere, ol-
Petr Hájek
(n. 1940)
tre che in ceco, in russo e in slovacco. La prima edizione di AST appare in russo per i tipi della casa
editrice Mir, di Mosca.
Nel 1979 appare Vopěnka P. Alternative Set Theory, Leipzig: Teubner, in inglese. Un’elaborazione
teorica ulteriore di AST, che appare assai interessante, è pubblicata in slovacco nel 1990. Oggi
Vopěnka si sta occupando, in ceco, di un approfondimento della Geometria e delle sue ragioni, opera spesso citata come ‘fondamentale’ dagli studiosi che sono in condizioni di comprenderne il testo.
Qui si fa riferimento al testo inglese di AST. In esso, oltre alla presentazione della teoria alternativa
degli insiemi si mostra come essa possa offrirsi in qualità di approccio fondazionale, illustrandone
applicazioni alla teoria dei numeri reali, agli ultrafiltri, alla topologia. I contributi di numerosi studiosi cechi negli anni ‘80/’90 del XX secolo hanno messo in luce aspetti di AST connessi alla teoria
dei modelli, agli insiemi fuzzy, all’economia ed alla probabilità.
Essa tiene conto della presenza dei paradossi matematici, dei paradossi semantici di tipo Sorite e di
alcuni aspetti ‘paradossali’ della Matematica. Si tratta di una teoria di insiemi e classi, che si differenzia notevolmente da quelle ‘classiche’. Come nelle teorie ‘classiche’, la presenza di paradossi
matematici è fondamentale per individuare classi che non sono insiemi.
Nell’Introduzione di Mathematics in the Alternative Set Theory cita Vopěnka esplicitamente come
fonti filosofiche Esenin-Vol’pin ed il tardo Husserl di La crisi delle scienze europee e la fenomenologia trascendentale, ma è ovvia la conoscenza approfondita della problematica insiemistica e dei
fondamenti della Matematica, grazie a citazioni ed idee mutuate da vari autori, a partire da Bolzano,
Cantor, Whitehead e Russell, Abraham Robinson.
Interessante l’abstract di Mathematics in the Alternative Set Theory, in cui scrive:
«La matematica contemporanea può essere caratterizzata come la matematica nella teoria degli insiemi di Cantor. I principi basilari di tale teoria sono derivati dalla nozione di insieme infinito in atto. La teoria alternativa
354
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
studia l’infinito come fenomeno coinvolto nella nostra osservazione di insiemi grandi, incomprensibili. […] Dal
punto di vista formale, la teoria alternativa assomiglia all’analisi non-standard sotto questa angolazione può essere considerata come un caso particolare dell’analisi non-standard.» (da Vopěnka, 1979)
Sono evidenti i richiami a Esenin-Vol’pin ed è interessante il riferimento alla analisi non-standard,
in quanto chiarisce che il suo approccio è di tipo fondazionale, poiché mette come obiettivo una ricostruzione dell’analisi. Di fatto la proposta di Vopěnka si dimostra diversa dall’analisi nonstandard per le formule del primo ordine in forma premessa che hanno una alternanza di tre o più
quantificatori, ma coincide con essa se ci sono un numero minore di alternanze di quantificatori.
Vediamo ora alcune idee fondamentali di AST: nell’Introduzione Vopěnka chiarisce le sue idee fondamentali.
–
La teoria degli insiemi di Cantor si occupa di insiemi infiniti ed anche di insiemi finiti.
–
I principi che riguardano gli insiemi finiti sono stati accettati, come verità auto-evidenti, ben
prima della formalizzazione di Cantor e delle precisazioni di Dedekind, ma un’analisi critica
mostra come non ci sono argomenti per accettarli in assoluto.
–
Le dimostrazioni, pur seguendo le leggi della logica, hanno un potere di convincimento che diminuisce con la lunghezza delle dimostrazioni.
–
Le proprietà degli insiemi infiniti nella teoria di Cantor sono desumibili dall’ipotesi
dell’esistenza di insiemi infiniti in atto, mentre prima della teoria degli insiemi quasi tutta la matematica si avvaleva dell’infinito in potenza.
–
Le assunzioni di esistenza di enti infiniti sorpassano qualitativamente i limiti dello spazio e le
possibilità di essere osservate, perdendo il loro contenuto fenomenico. In questo modo la teoria
è regolata solo da aspetti formali che vengono assunti come
«unica guida sicura nell’oscurità in cui sono inviluppati gli insiemi» (da Vopěnka, 1979)
– I postulati della teoria degli insiemi non sono sufficienti a stabilire la verità di AC e di CH e potrebbero esservi altri assiomi non ancora noti nella stessa condizione di ‘incertezza’.
–
La stessa nozione di infinito in atto può essere formulata in vari modi, non equivalenti, ad esempio richiedendo, al posto dell’assioma delle parti, che ogni insieme infinito possa corrispondere biunivocamente con l’insieme dei numeri naturali.
–
La teoria alternativa degli insiemi si propone di ricostruire la matematica su basi fenomeniche,
eliminando problemi matematici che potrebbero essere ritenuti ‘artificiali’.
–
Una visione puramente fenomenica impoverirebbe la matematica in sé e pure diminuirebbe il
ruolo della disciplina. Infatti
«La matematica è un mezzo per sorpassare l’orizzonte dell’esperienza umana.» (da Vopěnka. 1979)
– Noi usiamo la matematica per esprimere pensieri che anticipano la nostra conoscenza e per i
quali una verifica a posteriori è impossibile, per questo dobbiamo accettare di andare oltre
l’orizzonte dell’evidenza.
355
Capitolo 10
–
Dopo i teoremi di Gödel.
Possiamo trattare il fenomeno dell’infinito in accordo con la nostra esperienza, ma dobbiamo
eliminare gli insiemi infiniti in atto dalla nostra considerazione. Eliminare tali insiemi non implica che non si sia più in grado di descrivere gli insiemi esclusi, in una maniera sufficientemente buona da risultare utile.
Un esempio di ciò è dato dall’albergo di Vopěnka. È ben noto l’albergo di Hilbert, con un’infinità
(numerabile) di stanze, tutte occupate, che comunque possono offrire asilo ad un nuovo ospite, anzi
ad infinità (numerabile) di insiemi di nuovi ospiti, ciascuno dei quali insiemi costituito da un’infinità (numerabile) di avventori.
L’albergo di Vopěnka è più vicino al realismo sociale: ha mille stanze, tutte occupate. Arriva un
nuovo ospite e viene posto nella camera 1, per fare posto al nuovo arrivato, l’ospite della camera 1
viene spostato nella camera 2 e così via. Mentre si svolgono tutti questi traslochi, che nessun ospite
reale accetterebbe se non ci fossero rigide disposizioni imposte dall’alto per regolare queste situazioni, passa il tempo in modo tale che l’ultimo a doversi muovere, paga il conto e se ne va, perché
la notte è già finita. L’albergo di Vopěnka ha ‘solo’ mille stanze e l’insieme degli ospiti che potrebbero dover cambiare camera è finito, ma si comporta in certo senso come un insieme infinito (numerabile) dell’albergo di Hilbert.
AST non è una teoria formalizzata. Vopěnka osserva che importanti frammenti della teoria (ad esempio, come afferma esplicitamente, tutti i risultati presentati nel testo) possono essere formalizzati e così è provabile che AST è relativamente coerente con la Teoria ZF degli insiemi.
Afferma che un trattamento formale della teoria può semplificare il lavoro, ma
«il lettore deve tenere presente che la nostra teoria non è un sistema formale e che gli assiomi presentati in questo testo non formano un elenco esaustivo.» (Da Vopěnka, 1979)
Uno scopo è quello di mostrare che parte della matematica sviluppata è passibile di un’analisi critica concernente i fondamenti della matematica stessa. È necessario quindi cercare nuove definizioni
matematiche per parti che sono state già formalizzate.
10.1.6.4. Insiemi nella teoria alternativa. Oggetto della teoria sono gli insiemi e le loro relazioni.
Anche questo concetto, se si vuole, in conseguenza delle diverse interpretazioni ‘classiche’ e le possibili considerazioni relative all’indipendenza di certi principi, assume una notevole variabilità.
Vopěnka presenta la sua interpretazione del concetto di insieme con queste parole:
«Il matematico crea oggetti e li correla. Lo fa in vari modi, che non tenteremo di trattare in tutta generalità. Gli
oggetti e le relazioni che formano l’argomento degli studi matematici esistono nella nostra mente. Per i loro vari
scopi i matematici creano vari mondi di oggetti matematici. Descriveremo ed indagheremo il nostro mondo»
(da Vopěnka, 1979).
Gli insiemi sono specifici oggetti del pensiero relativi ad un opportuno “mondo” creato dal matematico per i suoi scopi; la costruzione degli insiemi viene descritta mediante la relazione di apparte356
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
nenza. In sostanza le condizioni ‘minime’ vengono così identificate:
–
Si chiede l’esistenza dell’insieme vuoto, insieme privo di elementi, denotato da ‘∅’.
–
Si assume che una volta che si siano costruiti certi oggetti e li si possano elencare, o almeno si
possa immaginare una lista di questo tipo, un nuovo insieme è ottenuto come l’insieme di tutti
gli oggetti della lista. Così se X1, ..., Xn è una lista di oggetti, {X1,…,Xn} è l’insieme che ha per
elementi esattamente X1, ...,Xn.
–
Se X e Y sono insiemi che hanno gli stessi elementi, si scrive X = Y.
Si noti che si ammettono insiemi i cui elementi non hanno una natura specificata, ma solo esistenza
concettuale. Dato che si ha a disposizione solo la costruzione di insiemi a partire da liste gli insiemi
possono essere solo finiti. L’autore ceco con si interroga sulla ‘natura’ delle liste.
Vi sono insiemi particolari, quelli che hanno per oggetto solo degli insiemi. Per questi Vopěnka
fornisce richieste assiomatiche che hanno il duplice scopo di specificare le relazioni ammesse e, nel
contempo di costituire proprio questo tipo speciale di oggetti, chiamati: insiemi dell’universo degli
insiemi 8, che vengono connotati con l’uso di lettere minuscole.
Assioma di estensionalità per gli insiemi:
∀x∀y(x = y ↔ ∀z(z∈x ↔ z∈y)).
Assioma per l’insieme vuoto:
∃x∀Y(Y∉x).
Assioma dei successivi insiemistici:
∀x∀y∃z∀u(u∈z ↔ (u∈x ∨ u = y)).
Assioma d’induzione (schema): Sia ϕ(x) una formula insiemistica 9, allora
((ϕ(∅) ∧ ∀x∀y(ϕ(x) → ϕ(x∪{y}))) → ∀x(ϕ(x))).
Assioma di regolarità (fondazione) (schema) (∃x(ϕ(x)) → ∃x(ϕ(x) ∧ ∀y(y∈x → (¬ϕ(y))))).
Vopěnka commenta che i primi tre assiomi sono analitici perché descrivono proprietà che possono
essere percepite direttamente dalla definizione. Le forme del secondo e del terzo assioma, in base al
primo, garantiscono dell’unicità dell’insieme vuoto e dell’insieme successivo (insiemistico). Ed allora, in particolare, il terzo assioma permette di indicare con un simbolo specifico il successivo insiemistico. Si può scrivere tale assioma sotto forma di enunciato universale, ∀x∀y∀u(u∈(x%y) ↔
(u∈x ∨ u = y)), Vopěnka, però, per mostrare la ‘sintonia’ della sua proposta con la teoria degli insiemi, ad esempio nella versione ZF, preferisce connotare l’insieme unico che esiste in base al terzo
assioma come (x∪{y}), introducendo, così in un colpo solo, il singoletto e l’unione. Lo sviluppo
successivo della teoria AST, in particolare grazie all’induzione, mostra che si tratta di una scelta efficiente ed economica.
8 La lista qui presentata si avvale di una scrittura più formale di quella usata nel testo da Vopĕnka.
9 Con questa dicitura Vopĕnka intende una formula in cui compaiono solo lettere minuscole, anche nella quantificazione, quindi e-
sprimono proprietà di insiemi dell’universo degli insiemi.
357
Capitolo 10
Dopo i teoremi di Gödel.
L’assioma di induzione non è analitico in quanto esso riassume varie proprietà che non possono essere percepite in modo immediato. Sostituendo vari tipi di formule (insiemistiche) si ottengono assiomi particolari. Si tratta di proprietà che sono richieste agli insiemi (finiti) anche dalla teoria ZF.
Si tratta quindi di un «assioma ipotetico». Esso non è ‘indispensabile’ in quanto potrebbe essere sostituito con alcune istanze dello schema, in base alle necessità della parte matematica che si vuole trattare nel contesto alternativo. Anche l’assioma di fondazione non è ‘indispensabile’.
Come si è detto in precedenza, gli insiemi (e quindi anche quelli dell’universo degli insiemi) sono
solo insiemi finiti. Ciò è garantito dall’Assioma di induzione e dalla definizione di Whitehead &
Russell (1910). I due matematici inglesi formulano (per primi) la nozione di insieme finito senza fare ricorso né a funzioni né ai numeri naturali: si basano sul concetto di formula ϕ induttiva cioè una
formula per cui si abbia (ϕ(∅) ∧ ∀x∀y(ϕ(x) → ϕ(x∪{y})). Lo schema di induzione, quindi o è una
banalità, in quanto la formula considerata non è induttiva, oppure se la formula è induttiva, afferma
che esprime una proprietà comune a tutti gli insiemi dell’universo degli insiemi.
Whithehead & Russell definiscono poi cosa sia un insieme induttivo: un insieme a se induttivo se
ϕ(a) per ogni formula induttiva ϕ. Questa nozione è strettamente apparentata con quella di catena di
Ddekind, ma privilegia le formule, come posizione generale del Logicismo.
Tarski (1924). Sur les ensembles finis, Fundamenta Mathematicae, prova che sono equivalenti (ad
esempio, in ZF e NBG) le seguenti affermazioni:
–
L’insieme a è induttivo;
–
a è equipotente ad un segmento iniziale di N;
–
∀b ((b ⊆ P(a) ∧ b≠∅) → ∃x(x∈b ∧ ∀y(y∈b → (¬(y⊆x ∧ y≠x))))).
Si conclude che ogni insieme dell’universo degli insiemi è finito, dal punto di vista della teoria degli insiemi ‘classica’. Per di più si ha che un tale insieme non è solo finito, ma è anche ereditariamente finito, perché i suoi elementi sono, a loro volta insiemi dell’universo degli insiemi. Parlando
in termini di gerarchia dei tipi cumulativi, dal punta di vista classico, Vopěnka sta fornendo assiomi
per Vω, l’unione di tutti gli insiemi Vn, ottenuti iterando l’operazione di parti n-volte sull’insieme
vuoto.
Anche se con questa limitazione (apparente) è interessante citare, almeno dal punto di vista metateorico, il fatto che si ottengano alcuni teoremi ‘sorprendenti’, che chiariscono meglio i rapporti tra
gli elementi di Vω e le richieste assiomatiche della teoria degli insiemi, infatti dall’assioma di induzione, particolarizzando opportunamente la formula, si ha
(unione unaria)
t ∀x∃y∀z(z∈y ↔ ∃w(w∈x ∧ z∈w))
t (∀x∀y∀z(ϕ(x,y) ∧ ϕ(x,z) → y = z) → ∀x∃y∀z(z∈y ↔ ∃w(w∈x ∧ ϕ(w,z)))) (rimpiazzamento)
t ∀x∃y∀z(z∈y ↔ (z∈x ∧ ϕ(z)))
(isolamento)
358
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
(parti)
t ∀x∃y∀z(z∈y ↔ z ⊆ x)
Con maggiore elaborazione si ha
t ¬(∃x∀y(y∈x))
affermazione che prova la non esistenza di un insieme universale, evitando il Paradosso di Russell.
Dopo avere introdotto definizioni consuete si ottiene una riprova del fatto che ogni insieme è finito:
t per ogni a e b, se a ⊆ b e a ≠ b, allora a non è equipotente a b.
Inoltre si prova un Principio di tricotomia:
t per ogni a e b, esiste un’iniezione di a in b oppure un’iniezione di b in a.
Tale proprietà, estesa a tutti gli insiemi, in ZF, è una possibile formulazione dell’Assioma di scelta.
L’assioma di regolarità o di fondazione equivale allo Assioma di ∈-induzione (schema):
(∀x(∀y(y∈x ∧ ϕ(y)) → ϕ(x)) → ∀xϕ(x)).
Tale assioma ci dà informazioni sulle proprietà insiemistiche, infatti quelle proprietà insiemistiche
che valendo per tutti gli elementi di un insieme valgono per l’intero insieme, sono poi le proprietà
insiemistiche. Fino qui la teoria di Vopěnka non presenta differenze con, ad esempio, ZF e NBG,
tranne il fatto che gli insiemi sono solo finiti.
10.1.6.5. Classi e semi-insiemi. Come si diceva prima, AST è una teoria con classi, ma su questo
concetto vi sono differenze rispetto alle teorie classiche. Ma lasciamo la parola a Vopěnka:
«Ogni proprietà di oggetti può essere considerata un oggetto. Una proprietà di oggetti interpretata come un oggetto è detta essere una classe. Le classi sono ulteriori oggetti specifici del nostro studio. Il fatto che un oggetto
X sia una classe è denotato con Cls(X). Se ϕ(X) denota una proprietà di oggetti, allora {X; ϕ(X)} denota un oggetto specifico. » (da Vopěnka, 1997)
Con questa scelta non formale, si evita la gerarchia di oggetti che invece è implicita nelle solite teorie con classi, in quanto una collezione di classi proprie è un insieme vuoto in NBG e anche in
MKM. In altre teorie oltre alle classi si introducono le collezioni, che sono collezioni di classi, ma
poi c’è il problema delle ‘collezioni’ di collezioni. Quindi intuitivamente si presentano gerarchie di
complessità crescente, ciò che non avviene in AST perché collezioni date per comprensione, di oggetti di qualsiasi natura, sono classi. Il brano precedente, di fatto è allo stesso tempo una definizione
ed un assioma di esistenza di tipo astrazione/comprensione.
Per gli scopi matematici, Vopěnka limita le classi di cui si occupa all’universo esteso
«formato dalle classi della forma {x; ϕ(x)}, ove ϕ(x) è una proprietà di insiemi tratti dall’universo degli insiemi.» (da Vopěnka, 1979).
Le classi dell’universo esteso sottostanno all’Assioma di esistenza di classi (schema)
359
Capitolo 10
Dopo i teoremi di Gödel.
Per ogni proprietà ϕ(x) degli insiemi dell’universo degli insiemi, la classe {x ; ϕ(x)}
10
appartiene
all’universo esteso. Ma queste non esauriscono le classi. Infatti Vopěnka afferma:
«Ci si permetta di mettere in evidenza il fatto basilare che nell’assioma di esistenza di classi non ci potremo limitare alle proprietà insiemistiche, (cioè quelle descritte mediante formule insiemistiche).» (da Vopěnka,
1979).
La scrittura X∈Y, con Y una classe dell’universo esteso, si può scrivere se e solo se X appartiene
all’universo degli insiemi e soddisfa la proprietà che identifica Y. In particolare ogni y insieme
dell’universo degli insiemi può essere considerato anche una classe dell’universo esteso in quanto è
descritto dalla proprietà
ϕ(x): x è un elemento di y.
Quindi si ha l’Assioma degli insiemi come particolari classi: (∀x) Cls(x).
Si assume, inoltre l’Assioma di estensionalità per classi (dell’universo esteso):
∀X,Y(X = Y ↔ ∀u(u∈X ↔ u∈Y)).
Questi tre assiomi per le classi sono analitici. E’ possibile ottenere come casi particolari
dell’assioma di esistenza di classi la consueta nomenclatura insiemistica (applicata alle classi): inclusione (propria), intersezione, unione, differenza, prodotto cartesiano, dominio, immagine, restrizione, relazione, funzione, potenza, ecc.
Per potere vedere come si introducano importanti concetti fondazionali in AST, si definisce per primo l’ordine. La definizione di ordine viene data nel contesto delle classi dell’universo esteso.
Definizione: Una relazione R è un ordine su A se e solo se R riflessiva, antisimmetrica e transitiva
su A, cioè
∀x∈A(〈x,x〉∈R),
∀x∈A∀y∈A((〈x,y〉∈R ∧ 〈y,x〉∈R) → x = y),
∀x∈A∀y∈A∀z∈A(〈x,y〉∈R ∧ 〈y,z〉∈R → 〈x,z〉∈R).
R è un ordine lineare su A, se in aggiunta alle precedenti
∀x∈A∀y∈A(〈x,y〉∈R ∨ 〈y,x〉∈R).
R è un buon ordine su A se è un ordine lineare su A tale che ogni sottoclasse non vuota abbia un
primo elemento. In tal caso si scrive We(A,R):
∀Z((∅ ≠ Z ∧ Z ⊆ A) → ∃x∈Z∀y∈Z)(〈x,y〉∈R)).
Si provano i risultati standard sui buoni ordini per classi. Per gli insiemi dell’universo degli insiemi
si prova:
t Per ogni insieme x esiste un ordine lineare r di x.
t Se r è un ordine lineare di x e z ⊆ x con z ≠ ∅, allora z ha primo e ultimo elemento rispetto a r.
10 Si è conservato il segno ‘;’ usato da Vopěnka nel suo testo, invece di ‘|’ utilizzato altrove in questi appunti.
360
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
La precedente coppia di risultati sembra ribadire che ogni insieme dell’universo degli insiemi è finito e che su di esso c’è un (doppio) buon ordine, ma così non è, dato che il buon ordine richiede
l’esistenza di un primo elemento di ogni sottoclasse non vuota, non solo di ogni sottinsieme non
vuoto.
Questa considerazione introduce la possibilità che un insieme possa contenere una classe. Ciò va
contro il Principio di Isolamento di Zermelo (e, intuitivamente, contro la VIII nozione comune di
Euclide!)
Gli assiomi fin qui introdotti, e i risultati che ne conseguono, sono in accordo completo con la teoria
degli insiemi di Cantor (ZF, NBG, MKM,…). Le cose cambiano drasticamente con i semi-insiemi.
Definizione: un semi-insieme è una sottoclasse di un insieme. Un semi-insieme proprio è un semiinsieme che non è un insieme, in formule Sms(X) sta per (∃y)(X ⊆ y).
Il concetto di semi-insieme non è ammesso nelle teorie ‘classiche’ degli insiemi. Tuttavia
«Esempi di semi-insiemi propri sono noti da lungo tempo, ma essi davano luogo ad anomalie come, ad esempio,
il paradosso dell’uomo calvo. Ma si incontrano semi-insiemi propri ogni volta che nel considerare una proprietà
di oggetti si mettono in rilievo gli aspetti intensionali piuttosto che quelli estensionali. » (da Vopěnka, 1979)
Le parole di Vopěnka sono importanti perché egli indica che il concetto di semi-insieme una possibile via di soluzione di vari paradossi semantici. In questo modo AST oltre all’attenzione rivolta ad
evitare i paradossi matematici, ingloba in modo positivo i paradossi semantici di tipo Sorite, facendone un punto di forza della teoria. Sono numerose le variazioni sul tema Sorite, (mucchio, uomo
calvo, Armstrong, Richard, Berry, Wang,…). Il carattere che distingue questi da altri paradossi semantici (basati sul significato di una parola: mentitore, eterologico,..) è che essi sono strettamente
legati esplicitamente o implicitamente a proprietà dei numeri naturali (buon ordine, induzione, discesa finita).
La consuetudine con teorie classiche che utilizzano l’isolamento come criterio per affermare che
una collezione è un insieme, entra in conflitto con l’idea stessa di semi-insieme. Qualche esempio
può essere chiarificatore. Dalla proposta di ‘limitazione della taglia’ di Russell in poi, si è identificata la classe (propria) come il risultato di un passaggio dai molti all’uno che però non era ‘controllabile’ a causa delle numerosità degli elementi, una taglia oversize. Ma questo viene assunto dal ricercatore ceco come un esempio di un fenomeno più ampio, quello della mancanza di una ‘buona’
definizione che trasformi la collezione di oggetti in un ente matematicamente affidabile. Si consideri, ad esempio, una biblioteca ampiamente fornita. Il catalogo dei libri ad una certa data ci offre un
criterio per dire se un libro è in possesso della biblioteca (anche se a prestito), oppure no. Ma se un
utente entra e chiede un consiglio di lettura al bibliotecario, quello di avere in prestito un saggio interessante, egli domanda di accedere ad una sottocollezione dell’intero patrimonio librario dell’ente,
una sottocollezione non precisamente definita. Sono possibili varie strategie: un consiglio personale
361
Capitolo 10
Dopo i teoremi di Gödel.
del bibliotecario, che dipende, evidentemente, dall’addetto che si trova in quel momento a contatto
con l’utente; oppure un’indagine statistica che metta in evidenza quali siano stati nell’ultimo anno i
libri più richiesti. In ogni modo la collezione dei libri interessanti, non per problemi di taglia, ma
per il carattere intrinseco della richiesta, è un esempio di semi-insieme.
Prendendo spunto dalla sua ricerca precedente sull’indipendenza della ipotesi del continuo,
Vopěnka mette in guardia dal pensare che i semi-insiemi, siano strani ed evitabili:
«Potrebbe venire voglia di eliminare tutti i semi-insiemi propri. Pertanto ne garantiamo l’esistenza mediante un
assioma» (da Vopěnka, 1979)
Assioma di esistenza di semi-insiemi propri: ∃X(Sms(X) ∧ (¬Set(X))).
Di qui discendono varie proprietà mediante le quali si prova che le operazioni insiemistiche su semi-insiemi forniscono semi-insiemi (teoremi esistenziali) e che se un semi-insieme è definibile mediante una proprietà insiemistica, allora è un insieme (quindi in questa forma si recupera il principio
di isolamento). In particolare la classe universale V non è un semi-insieme (escludendo così, in altra
forma, il Paradosso di Russell).
Le ragioni per l’accettazione dei semi-insiemi sono illustrate nel seguente modo:
«Una teoria matematica che abbia lo scopo di rimpiazzare la teoria degli insiemi di Cantor nel suo ruolo in matematica deve essere adeguata per studiare l’infinito. L’infinito è introdotto, nella nostra teoria, per mezzo dei
semi-insiemi. Ma questa specie di infinito è differente dall’infinito in atto, nel senso di Cantor. Il nostro infinito
è un fenomeno che si verifica quando osserviamo insiemi ‘grandi’, come nostra incapacità ad afferrare l’insieme
nella sua totalità.
Si potrebbe sospettare che le classi proprie che non sono semi-insiemi forniscano un infinito in atto, cioè la classe universale V, ma ciò non accade. Tali classi […] possono essere considerate come semi-insiemi – sottoclassi
di un insieme immenso che non è stato incluso nel nostro universo degli insiemi.» (da Vopěnka, 1979)
In filigrana appare il debito di AST con alcune posizioni di Husserl, ad esempio, il tentativo di descrivere il fenomeno umano della comprensione. Scriveva il filosofo tedesco:
«In senso più limitato: riconosciamo valida l’esperienza soltanto quando è un’esperienza normale, quando si basa sulla sensibilità normale. Com’è possibile determinare, in base alle apparizioni normali, la vera natura della
matematica? È possibile mediante un metodo che rende esatti i continui e che trasforma le causalità sensibili in
causalità matematiche, ecc. »
Discendono come corollari: il rifiuto della formalizzazione come ‘cristallizzazione’ di un ‘assoluto’
e una teoria dell’infinito basato sulla impossibilità di una sua realizzazione fenomenica.
Ma come definire l’infinito e ancora peggio, gli insiemi infiniti, se tutti gli insiemi sono finiti?
10.1.6.6. Finito ed infinito alternativo. Il riferimento che il brano precedente fa alla totalità degli insiemi sarebbe una comoda scorciatoia, che Vopěnka evita. La sua posizione ha origini filosofiche
che si ricollegano al passato:
–
Aristotele negava che ci potesse essere un insieme infinito in atto come un tutto intuibile (einsehbares), contemporaneamente a tutti i suoi elementi.
362
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
–
Anno Accademico 2009/2010
Cantor (Bolzano) accetta la possibilità di tale esistenza, negata da Aristotele. Cantor mostra però
che è più difficile avere l’intuibilità di un tutto, contemporaneamente ai suoi elementi e ai suoi
sottinsiemi (col teorema sulla cardinalità dell’insieme delle parti).
Vopěnka identifica questa intuizione simultanea in un tutto dell’insieme, di tutti i suoi elementi e di
tutti suoi sottinsiemi come caratteristica degli insiemi finiti, e pone
Definizione. Una classe X è finita (Fin(X)) se ciascuna sua sottoclasse è un insieme.
Nella teoria ‘classica’ degli insiemi, l’appellativo ‘finito’ ha diversi connotati e definizioni (si veda
Tarski (1924)). Non è banale e talora neppure possibile provare l’equivalenza delle definizioni di
insieme finito senza fare ricorso a principi non costruttivi.
C’è una lista di proprietà che sono ritenute indispensabili per gli insiemi finiti: siano a,b insiemi:
–
a finito e se b equipotente ad a, allora b è finito;
–
a finito implica che (a∪{b}) è finito;
–
(a∪b) finito se e solo se a e b sono entrambi finiti;
–
∅ è finito e {a} è finito;
–
Siano a e b non vuoti, allora (a×b) è finito se e solo se lo sono a e b;
–
a è finito se e solo se P(a) è finito.
Questa lista indica proprietà che sono proprie di insiemi finiti, ma non è ‘esaustiva’ nel senso che
non può essere usata come definizione di insieme finito.
In AST se una classe è finita in senso alternativo, allora è un insieme. Inoltre tutte le proprietà della
precedente lista sono teoremi di AST assumendo la nozione di finito alternativo.
Vopěnka afferma inoltre che solo le dimostrazioni che hanno un insieme finito (in senso alternativo)
di passi sono convincenti.
Uno dei principi fondamentali di AST è l’Assioma di prolungamento che viene introdotto e ‘giustificato’ con le seguenti parole:
«La nostra capacità di osservazione e di discernimento è limitata dall’orizzonte in tutte le direzioni. Non c’è bisogno di dire, che questo non si applica solo alle nostre osservazioni ottiche; l’orizzonte è nel senso di E. Husserl
[…].
Se si osserva un insieme ‘grande’ x, la classe di tutti gli elementi di x che giacciono al di qua dell’orizzonte non
ha bisogno di essere infinita, ma può convergere verso l’orizzonte. Il fenomeno dell’infinità associata ad una tale
classe è detta numerabilità.
Sono numerabili: la classe di tutte le persone che incontreremo nella nostra vita, la classe di tutti i libri che avremo letto, la classe di tutti i giorni prima della nostra morte, anche la classe di tutti i problemi che saranno risolti
da un certo computer, ecc.» (da Vopěnka, 1979).
Vopěnka introduce così l’assioma più potente del suo sistema, con l’uso del quale si ottengono molti importanti risultati.
Definizione: Una coppia ordinata di classi 〈A,R〉 è detta ordine di tipo ω se e solo se
(1) R ordina linearmente A;
(2) A è infinita;
363
Capitolo 10
Dopo i teoremi di Gödel.
(3) per ogni x∈A, il segmento {y∈A; 〈y,x〉∈R} è finito.
Una classe X è detta numerabile (Count(X)) se e solo se esiste R tale che 〈X,R〉 è un ordine di tipo ω.
Si noti che non ci sono problemi a considerare la coppia ordinata di due classi, in base alla definizione di Kuratowski, anche se proprie, in quanto si tratta di un insieme seppure, in generale, non
appartenente all’universo degli insiemi. Ha particolare rilievo il concetto di funzione numerabile,
cioè una classe di coppie ordinate che sia una funzione e che sia numerabile.
«Si è sempre cercato di andare oltre l’orizzonte; questa è una tipica aspirazione umana. Lo scopo non è solo
quello di spostare l’orizzonte, ma di trascenderlo nella mente. La matematica è uno degli strumenti più importanti per fare ciò; essa formula affermazioni esatte che trascendono la cornice della percezione.» (da Vopěnka,
1979)
Assioma di prolungamento: Per ogni funzione numerabile F, esiste una funzione f tale che F ⊆ f.
L’assioma di prolungamento ingloba quello di esistenza di semi-insiemi (e quindi di infinito). Inoltre
esso è equivalente ad un principio di ‘approssimazione’ delle classi mediante formule insiemistiche:
t Se A è una classe numerabile e ϕ è una formula insiemistica tale che per ogni x ⊆ A, valga ϕ(x),
allora esiste un insieme a tale che A ⊆ a e ϕ(a).
Una conseguenza dell’assioma di prolungamento: t Se X è numerabile, P(X) è numerabile.
La presentazione di AST si completa con altri due assiomi.
Il primo è l’Assioma di codifica estensionale che ha formulazione complicata, ed è una sorta di assioma di scelta.
Il secondo è più ‘sorprendente’ anche se Vopěnka si affretta a rilevarne la compatibilità con la sua teoria (e con altre), ritenendo che non ci siano ragioni per assumere una teoria dell’infinito non banale. L’assioma è motivato dalla constatazione che un solo tipo di infinito, quello della numerabilità,
non è sufficiente per svolgere importanti parti della Matematica. Premette all’assioma la seguente
Definizione: una coppia ordinata 〈A,R〉 è un ordine di tipo Ω se
(1)
R bene ordina A;
(2)
A non è numerabile;
(3)
per ogni x∈A, il segmento {y∈A; 〈y,x〉∈R} è finito o numerabile.
Con queste definizioni si può presentare lo Assioma dei due cardinali:
Siano X e Y classi infinite, se entrambe non sono numerabili, allora sono equipotenti.
Grazie a questo assioma si mostra che su ogni classe non numerabile esiste un ordine di tipo Ω.
Nel testo inglese, Vopěnka mostra come sia possibile svolgere una buona parte di Matematica sulla
base della sua presentazione. Queste ‘applicazioni’ rivelano la potenza del sistema proposto e chiariscono anche dal punto di vista concettuale il ruolo dell’orizzonte dell’esperienza che la Matematica ci permette di sorpassare.
364
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
Un ruolo centrale è dato dai numeri naturali. Essi sono introdotti usando l’approccio di Von Neumann, tenendo conto della assunzione di un postulato di fondazione
Definizione. Un insieme x è un numero naturale se
(1)
∀y∈x (y ⊆ x);
(2)
∀y∈x∀z∈x(y∈z ∨ y = z ∨ z∈y).
In una teoria degli insiemi con assioma di fondazione e senza assioma di infinito, questi numeri
coincidono con tutti gli ordinali. In AST è possibile distinguere tra diversi ‘tipi’ di numeri naturali.
Con N e FN si indicano, rispettivamente, le classi dei numeri naturali e dei numeri naturali finiti,
intendendo finito in senso alternativo. Banalmente FN ⊆ N. FN è numerabile, cioè di tipo ω, N è
una classe infinita, non numerabile, quindi di tipo Ω. Inoltre FN è ben ordinata (cioè ogni classe
non vuota ha minimo), mentre per N solo ogni classe non vuota definibile insiemisticamente ha
minimo. Ad esempio N – FN non ha minimo. FN ha il ruolo dell’orizzonte.
La distinzione tra FN e N può essere il motivo per cui Vopěnka parla di analisi non-standard.
Con i procedimenti consueti si possono costruire i numeri interi e i razionali, e anche gli analoghi
finiti o ‘misti’. Per i numeri reali, dopo avere osservato che possono essere presentati come i buoni
ordini sui numeri naturali, sono introdotti come numeri razionali che non si colgono bene nelle loro
caratteristiche ed individuano oggetti analoghi alle monadi dell’analisi non-standard.
10.1.7. L’approccio categoriale ai Fondamenti. Una delle conseguenze della proposta bourbakista è
stata quella di proporre, come fondamentale, lo studio di proprietà comuni di strutture diverse o analoghe. In un certo senso, questo ha posto in risalto il modo di comportarsi dell’oggetto matematico
nei confronti dei suoi ‘simili’ o ‘dissimili’, più che l’articolazione interna di un oggetto matematico.
10.1.7.1. Dagli insiemi ai morfismi. Qualche esempio può chiarire. Dati due insiemi A e B, si può
costruire l’insieme prodotto cartesiano dei due, definito, solitamente come l’insieme delle coppie
ordinate, la prima componente in A e la seconda in B e questa, con il linguaggio precedente, può essere vista come la struttura ‘interna’ del prodotto cartesiano (A×B), Con un poco più di elaborazione, è facile incontrare due funzioni, dal prodotto cartesiano nei suoi fattori, la prima e la seconda
proiezione, rispettivamente π1: (A×B) → A e π2: (A×B) → B, che individuano, rispettivamente, le
componenti di ciascuna coppia ordinata. Fin qui si è sfruttata la ‘natura’ degli elementi di (A×B).
Sviluppando ulteriormente le considerazioni sulle proprietà di tale costruzione facile vedere che per
ogni insieme C e per ogni coppia di funzioni, f: C → A e g: C → B, allora esiste una ed una sola
funzione h: C → (A×B) tale che (h◦π1) = f e (h◦π2) = g. La funzione h è tale che per ogni c∈C, h(c) =
365
Capitolo 10
Dopo i teoremi di Gödel.
〈f(c),g(c)〉. In base a questa costruzione si preferisce indicare la funzione prima connotata con h,
con 〈f,g〉, quindi quella che associa ad ogni c∈C, 〈f,g〉(c) = 〈f(c),g(c)〉. Analizzando ancora un poco
più accuratamente la situazione, si può dire che il prodotto cartesiano istituisce una particolare corrispondenza biunivoca tra gli insiemi (A×B)C e (AC×BC), quella che ‘opera’ bene con le proiezioni,
nel senso indicato prima. A parte la ‘riconoscibile’ proprietà delle potenze che di per sé è suggestiva, le considerazioni precedenti offrono una proprietà caratteristica del prodotto cartesiano di due
insiemi (tra l’altro facilmente generalizzabile a famiglie arbitrarie di insiemi) nel contesto di insiemi
e funzioni. Di qui discende che non ha senso parlare del prodotto cartesiano di due insiemi, in quanto nel contesto di insiemi e funzioni, ciò che si può affermare è sempre ‘a meno di’ biezioni.
Un altro esempio è dato dall’insieme vuoto. Una delle proprietà che lo caratterizzano è il fatto di essere incluso in ogni insieme (sia esso vuoto o no). Da questo fatto si deduce che per ogni insieme A,
∅: ∅ → A e tale funzione è unica. Nel contesto di insiemi e funzioni si caratterizza cos l’insieme
vuoto, ma una situazione analoga si ha anche nel contesto dei gruppi con omomorfismi. Si considera
una struttura di gruppo su un insieme singoletto {▪} (in cui l’unico elemento è, ovviamente, anche
l’elemento neutro ed è idempotente), per ogni gruppo G esiste un unico omomorfismo (di gruppi) da
{▪} a G, in quanto all’elemento neutro del primo gruppo deve corrispondere l’elemento neutro del secondo 11. Ma rimanendo sempre nel contesto dei gruppi ed omomorfismi, esiste anche un unico omomorfismo da G a {▪}, sempre in base alla condizione di conservazione dell’elemento neutro. Tornando al contesto di insiemi e funzioni, questa seconda proprietà del gruppo singoletto la si ‘ritrova’:
per ogni insieme A (sia esso vuoto o no) l’insieme (A×{▪}) è una funzione e (A×{▪}): A → {▪}.
Ancora un altro aspetto che ha interesse nel seguito: è possibile di caratterizzare i tipi di funzioni
mediante funzioni e composizione. Sia f: A → B. Il fatto che f sia iniettiva (suriettiva) viene solitamente descritto considerando il suo comportamento relativo agli elementi di A (B). Un esercizio di
Algebra, abbastanza consueto nei primi anni, mostra che f è iniettiva se e solo se per ogni g,h: C →
A tali che (f◦g) = (f◦h) si ha g = h. Una parte di questa affermazione è ‘banale’. Infatti se f è iniettiva
e (f◦g) = (f◦h), allora per ogni c∈C, si ha f(g(c)) = (f◦g)(c) = (f◦h)(c) = f(h(c)), quindi g(c) = h(c). Per
la genericità di c si conclude g = h. La parte ‘inversa’ è più complessa in quanto richiede
l’individuazione di uno specifico insieme C e di opportune funzioni g e h, procedendo per assurdo.
Si assume ora che per ogni g,h: C → A tali che (f◦g) = (f◦h) si ha g = h e che f non sia iniettiva (ipotesi assurda). Allora esisterebbero due elementi a,a’∈A, distinti, tali che f(a) = f(a’). Si considera in
questo caso {▪} e siano g,h: C → A tali che g(▪) = a e h(▪) = a’. Si tratta di due funzioni diverse, ma
(f◦g)(▪) = f(g(▪)) = f(a) = f(a’) = f(h(▪)) = (f◦h)(▪), usando l’ipotesi assurda. Quindi si ha (f◦g) = (f◦h)
11 Un caso analogo più complesso e importante è dato dal Teorema di Ricursione (semplice) di Dedekind che permette di caratteriz-
zare N.
366
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
e g ≠ h. È interessante osservare che la condizione di suriettività, con il linguaggio delle funzioni,
appare ‘duale’ della infettività, mentre con l’intervento degli elementi degli insiemi e degli elementi
è formulata in maniera abbastanza diversa. Si ha infatti f: A → B è suriettiva se e solo se per ogni
g,h: B → C tali che (g◦f) = (h◦g) si ha g = h. Si lascia al lettore la dimostrazione di questo esercizio,
imitando quanto visto prima.
Queste proprietà, se si vuole, sono conseguenza degli assiomi adottati per la teoria degli insiemi, ma
assumono, nella pratica del working mathematician
12
un’importanza per conto proprio, dato che
quanto detto qui per arbitrari insiemi, può essere ripetuto per insiemi ordinati, reticoli, gruppi, anelli, spazi vettoriali, spazi topologici, ecc. Gli esempi di questo tipo sono numerosi: certe proprietà di
un oggetto matematico possono essere descritte con proprietà ‘interne’ dell’oggetto oppure individuate mediante il ‘comportamento’ dell’oggetto tra gli altri dello stesso tipo (ma talvolta anche di
tipo diverso, si veda il concetto di funzione polinomiale) e delle possibili funzioni (con eventuali
proprietà che le rendano ...morfismi). Questo fa nascere l’attenzione all’insieme dei …morfismi tra
due strutture dello stesso tipo ed all’introduzione di un simbolo Hom(A,B), per indicare l’insieme
delle funzioni opportune tra gli oggetti A e B. Nel caso degli insiemi, Hom(A,B) coincide con BA;
nel caso dei gruppi in cui si considerano gli omomorfismi di gruppo, Hom(A,B) è un sottinsieme
dell’insieme di tutte le funzioni. Nel caso degli spazi vettoriali su un campo K, con Hom(V,W) si indica l’insieme delle applicazioni lineari che si dota, a sua volta, di una struttura di spazio vettoriale
su K. La sua dimensione è il prodotto delle dimensioni dei due spazi di partenza. Nel caso particolare che il secondo fattore sia il campo K, si ottiene lo spazio vettoriale duale. Sono quindi tipiche
considerazioni di Matematica, anche di livelli non troppo elevati, che portano alla ribalta questi ‘ingredienti’ che risulteranno fondamentali per la teoria delle categorie.
10.1.7.2. La ‘nascita’ delle categorie. È appunto da queste situazioni di Matematica concreta che:
«Emerse così gradualmente l’attitudine a ritenere che la caratteristica cruciale delle strutture matematiche non è
la loro costituzione interna come entità insiemistiche ma piuttosto le relazioni fra esse come incorporate nella rete dei morfismi» (da Borga & Palladino 13).
Il passaggio successivo è consistito nella evidenziazione ed
enucleazione delle proprietà comuni, cosa avvenuta con un articolo del 1945, Eilenberg, S. & Mac Lane, S. General Theory
of Natural Equivalences, Transaction of the American Mathematical Society 58, 239 – 294. Si può dire che in questo articoSaunders MacLane
(1909 - 2005)
Samuel Eilenberg
(1913 - 1991)
12 E vari esempi di questo tipo possono essere ritrovati in Mac Lane, S. (1971). Categories for the Working Mathematician, Berlin:
Springer.
13 Citazione tratta da Bell, J.L. (1981) Category Theory and the Foundation of Mathematics, The British Journal for the Philosophy
of Science, 31, 349 – 358.
367
Capitolo 10
Dopo i teoremi di Gödel.
lo le categorie nascano, come Minerva dalla testa di Giove, vestite ed armate, perché partendo da
situazioni che si ripetevano con una certa frequenza in topologia algebrica, i due ricercatori non
giungono solo alla nozione di categoria, ma la corredano con tutta una serie di altri concetti che
proveranno la loro ‘bontà’: funtori e trasformazioni naturali. In particolare le trasformazioni naturali
riescono a rendere in modo convincente il concetto di ‘legge’ che viene spesso usato, anche a sproposito, per descrivere il concetto di funzione.
Gli scopi dichiarati dai due ricercatori americani erano quelli di giungere ad una semplificazione di
certi aspetti della topologia algebrica.
«Tali processi di limite [limiti diretti e inversi] sono essenziali nella transizione dalla teoria dell’omologia di
complessi a quella degli spazi. Infatti la teoria generale qui sviluppata è capitata [occurred] agli autori come un
risultato dello studio dell’ammissibilità di tale passaggio in un teorema relativamente complicato nella teoria
dell’omologia (Eilenberg and MacLane, Group extensions and homology, Ann of Math. Vl. 43 (1942) pp. 757 –
831. specialmente p. 777 e p. 815).» (da Eilenberg & Mac Lane, 1945)
Di fatto questo è un atteggiamento di tipo fondazionale, anche se limitato ad uno specifico campo.
Alcune parole tratte dall’introduzione del lungo articolo chiariscono bene la posizione ‘matematica’
degli autori:
«L’oggetto di questo articolo è meglio spiegato da un esempio, quello della relazione tra uno spazio vettoriale L
e il suo spazio ‘duale’ o ‘coniugato T(L). Per uno spazio vettoriale di dimensione finita […] è chiaro che L e T(L)
sono isomorfi. Ma un tale isomorfismo non può essere esibito fintanto che non si sceglie un insieme di vettori di
una base di L ed inoltre l’isomorfismo che ne risulta differirà con una scelta differente della base. Per lo spazio
coniugato iterato T(T(L)), d’altra parte, è ben noto che si può esibire un isomorfismo tra L e T(T(L)) senza usare
una specifica base in L. Questa esibizione dell’isomorfismo L ≅ T(T(L)) è “naturale”, in quanto è dato simultaneamente per tutti gli spazi vettoriali L di dimensione finita.» (da Eilenberg & Mac Lane, 1945)
Come si vede la prima preoccupazione degli autori è di collocare il problema all’interno dello svolgimento consueto della Matematica e quasi tutto l’articolo mostra la presenza, a volte evidente, a
volte un poco più nascosta dei concetti che essi introducono. Poco dopo, però appaiono considerazioni di tipo ‘meta’ Infatti affermano:
«In un senso metamatematico la nostra teoria offre concetti generali applicabili a tutte le branche della matematica astratta, e così contribuisce al corrente atteggiamento di ricerca di un trattamento uniforme di discipline matematiche diverse; in questo modo può suggerire nuovi risultati per analogia. […] Il carattere invariante di una
disciplina matematica può essere formulato in questi termini. Allora, nella teoria dei gruppi tutte le costruzioni
fondamentali possono essere considerate come le definizioni di funtori co- e contro-varianti, in questo modo
possiamo formulare il motto: l’argomento della teoria dei gruppi è essenzialmente lo studio di quelle costruzioni
di gruppi che si comportano in maniera covariante o controvariante sotto gli isomorfismi indotti. Più precisamente, la teoria dei gruppi studia funzioni definite su una ben specificata categoria dei gruppi, con valori in un’altra
categoria.
Questo può essere considerato una continuazione del Programma di Erlangen di Klein, nel senso che uno spazio
geometrico con i suoi gruppi di trasformazioni è generalizzato a una categoria con la sua algebra di morfismi.»(da Eilenberg & Mac Lane, 1945)
C’è però un breve paragrafo, il 6, di poco più di una pagina intitolato “Foundations”. In esso si afferma:
«Abbiamo osservato nel § 3 14 che esempi quali la “categoria di tutti gli insiemi”, la “categoria di tutti i gruppi”
14 È un errore, l’osservazione richiamata è in una nota del §2, in cui si afferma a proposito della categoria di tutti gli insiemi (e funzioni) «Questa categoria ovviamente porta ai paradossi della teoria degli insiemi. Una discussione dettagliata di questo aspetto delle categorie appare
nel successivo § 6.»
368
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
sono illegittime. Le difficoltà e le antinomie qui coinvolte sono esattamente quelle della ordinaria e intuitiva
Mengenlehre; in apparenza non sono coinvolti nuovi paradossi. Ogni fondazione rigorosa capace di trattare la
teoria ordinaria delle classi sarà in grado di trattare ugualmente la nostra teoria. Quindi abbiamo scelto di adottare un punto di vista intuitivo, lasciando il lettore libero di inserire qualunque tipo di fondazione logica (o
l’assenza di ciò) egli preferisca. […]. Si potrebbe osservare che l’intero concetto di categoria è essenzialmente
un concetto ausiliario; i nostri concetti fondamentali sono quelli di funtore e trasformazione naturale […] L’idea
di categoria è richiesta dal precetto che ogni funzione dovrebbe avere una classe definita come dominio ed una
classe definita come codominio.» (da Eilenberg & Mac Lane, 1945)
Poi il testo passa in rassegna varie proposte come la teoria dei tipi (non ramificati) di Whitehead &
Russell, i sistemi di Fraenkel-Von Neumann-Bernays, cercando di provare che essi sono sufficienti
alla bisogna. Lo sviluppo successivo delle ricerche mostrerà che le proposte degli autori sono inadeguate e ciò porterà, poi, ai sistemi categoriali per i Fondamenti della Matematica.
Non una parola è detta sull’uso di un termine filosofico come categoria. Forse il termine più corretto sarebbe stato analogia, anche sulla base di un brano riportato sopra.
10.1.7.3. Un’assiomatizzazione al primo ordine. Riprendendo un’osservazione di Eilenberg & Mac
Lane, che “il precetto” sulle funzioni si potrebbe lasciare cadere ed inoltre da numerosi esempi, che
non è indispensabile avere delle funzioni per avere una categoria, è possibile dare una presentazione
delle categorie come una teoria formale in un linguaggio del primo ordine con uguaglianza, C, tenendo presente gli esempi fatti. Il minimo numero di ‘ingredienti, è dato da un unico predicato ternario K, però per rendere più trasparente il concetto, si possono aggiungere ad esso due simboli funzionali unari, D e C. Gli assiomi sono i seguenti:
C1
∀x(D(C(x)) = C(x) ∧ C(D(x)) = D(x))
C2
∀x1∀x2∀x3∀x4((K(x1,x2,x3) ∧ K(x1,x2,x4)) → x3 = x4)
C3
∀x∀y∃z(K(x,y,z) ↔ C(x) = D(y))
C4
∀x∀y∃z(K(x,y,z) → (D(z) = D(x) ∧ C(z) = C(y)))
C5
∀x(K(D(x),x,x) ∧ K(x,C(x),x))
C6
∀x1∀x2∀x3∀x4∀x5∀x6∀x7((K(x1,x2,x3) ∧ K(x2,x4,x5) ∧ K(x1,x5,x6) ∧ K(x3,x4,x7)) → x6 = x7)
Una rappresentazione diagrammatica può aiutare a capire cosa richiedono gli assiomi, ponendo
x
A
→ B
per D(x) = A ∧ C(x) = B e z = (y◦x) per K(x,y,z). Sulla base di questa teoria, si può definire
categoria ogni modello di C,
Sarebbe possibile dare una diversa presentazione assiomatica usando invece di due simboli funzionali unari un predicato unario, Ob, ma si lascia al lettore la possibilità di fornire questa seconda assiomatizzazione.
La teoria C sembra fare sparire una ben consolidata tradizione di uso dei simboli: se si considerano
funzioni tra insiemi, si connotano gli insiemi e le funzioni con simboli diversi. Ma a ben guardare
369
Capitolo 10
Dopo i teoremi di Gödel.
ad ogni insieme è associata la funzione identica su esso e poi le funzioni sono, a loro volta insiemi,
quindi fare sottigliezze di notazione, può non avere tanto senso.
Per vari motivi intrinseci alla teoria, questa presentazione non va bene. Infatti se si volesse considerare la categoria degli spazi topologici e delle funzioni continue dove potremo trovare un insieme su
cui fare un ‘modello’ di essa? E la possibilità di considerare oggetti come la citata categoria degli
spazi topologici, non è un ‘optional’, ma una necessità matematica.
Si dovrebbe quindi fare una distinzione tra le categorie ‘piccole’, i modelli della teoria C su insiemi
e le categorie ‘grandi’ cioè quelle che dovrebbero essere modelli di C su classi proprie. Sono categorie piccole tutte quelle individuate da insiemi ordinati, reticoli, algebre di Boole e di Heyting. Ma
ben presto tra le categorie grandi saremo costretti a fare una distinzione tra le categorie grandi localmente piccole (come la categoria degli spazi topologici e funzioni continue) e quelle grandi. La
differenza è che per alcune categorie comunque presi due oggetti A e B di esse, la collezione di
morfismi tra essi è un insieme (e per questo sono dette localmente piccole) oppure una classe propria.
Si è pertanto realizzata nello studio dei Fondamenti una strana situazione: da una parte l’approccio
di Bourbaki ha favorito la messa in luce di importanti relazioni tra strutture, dall’altra proprio la necessità di approfondire questi concetti ha mostrato come l’idea di ricondurre tutto ad insiemi sia risultata insostenibile proprio in seguendo la linea di questi sviluppi, minando alle fondamenta le
premesse su cui si basa il working mathematician.
La situazione si complica con la considerazione degli altri ‘protagonisti’ delle teoria delle categorie.
Il concetto di categoria, di per sé non è sufficiente, in quanto nel lavoro originale che le propone, si
mette in evidenza che la ‘struttura interna’ da sola conta poco, ma è più importante il comportamento dell’oggetto matematico ‘immerso’ in un ambiente di suoi ‘simili’. Servono allora collegamenti
tra categorie, realizzati dal concetto di funtore. Se C e D sono categorie un funtore F: C → D è una
‘funzione’ che associa ad oggetti della categoria C oggetti di D e a morfismi di C, morfismi di D in
f1
f2
F ( f1 )
F ( f2 )
modo tale che se C1 →
C2 →
C3 in C, si ha F (C1 ) 
→ F (C2 ) 
→ F (C3 ) in D e F(f2◦f1) =
(F(f2)◦F(f1)), essendo la prima composizione in C e la seconda in D. La natura ‘funzionale’ del funtore ne garantisce un ‘buon’ comportamento rispetto alla composizione. Ma il vedere un funtore
come funzione richiede un sottinsieme di un ‘difficoltoso’ prodotto cartesiano di categorie (sia oggetti che morfismi) (accanto a questa nozione di funtore covariante, se ne ha una controvariante: se
f
F( f )
C1 → C2 , allora F (C2 ) → F (C1 ) , che ‘scambia’ dominio e codominio e l’ordine di composi-
zione). Per mostrare un esempio per ciascuno di questi concetti, si consideri una categoria piccola o
localmente piccola C. Per ogni coppia di oggetti A e B in C, si ha Hom(A,B) che è un insieme
370
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
(l’insieme dei morfismi di C che hanno dominio A e codominio B). Con un’operazione consueta in
Matematica, che Eilenberg e Mac Lane chiamano “slicing”, si ottengono due funtori, da C alla categoria degli insiemi Set,
Set tenendo fissato, alternativamente, uno dei oggetti. Si hanno così (famiglie)
f1
di funtori Hom(A,-), Hom(-,B): C → Set.
C2 , si hanno
Set Essi operano come segue: per ogni C1 →
le funzioni Hom(A,f1) e Hom(f1,B) in Set,
Set definite mediante composizione (in C) come segue. Per
ogni g∈Hom(A,C1), essendo
f
g
1
A → C1 →
C2 ,
Hom(A,f1)(g) = (f1◦g), quindi Hom(A,f1):
Hom(A,C1) → Hom(A,C2). La verifica che Hom(A,-) è un funtore covariante comporta, quando
f
f
1
2
C1 →
C2 →
C3 , l’uguaglianza Hom(A,(f2◦f1)) = (Hom(A,f2)◦Hom(A,f1)). Ma ciò avviene in
quanto per ogni g∈Hom(A,C1), si ha Hom(A,(f2◦f1))(g) = ((f2◦f1)◦g) = (f2◦(f1◦g)) = Hom(A,f2)(f1◦g) =
Hom(A,f2)(Hom(A,f1)(g)) = (Hom(A,f2)◦Hom(A,f1))(g). Nell’altro caso si ha che Hom(f1,B):
f1
h
Hom(C2,B) → Hom(C1,B) è tale per cui, per ogni h∈Hom(C2,B), essendo C1 →
C2 
→ B , si ha
Hom(f1,B)(h) = (h◦f1). La natura di funtore contro-variante è messa in luce dal fatto che quando
f
f
1
2
C1 →
C2 →
C3 , si ha l’uguaglianza Hom((f2◦f1),B) = (Hom(f1,B)◦Hom(f2,B)). Infatti per ogni
h∈Hom(C3,B),
Hom((f2◦f1),B)(h)
=
(h◦(f2◦f1))
=
((h◦f2)◦f1)
=
Hom(f1,B)(h◦f2)
=
Hom(f1,B)(Hom(f2,B)(h)) = (Hom(f1,B)◦Hom(f2,B))(h).
Ancora ‘peggio’ le cose vanno con le trasformazioni naturali. Si può dire che tale concetto sia una
specie di ‘miracolo’ perché permette di descrivere in termini semplici il concetto intuitivo, ma complesso, di legge, ma mette in campo ‘totalità’ ancora più difficili da gestire dl punto di vista insiemistico. Vediamo come. Siano dati due funtori F,G: C → D. Una trasformazione naturale tra essi, indicata spesso con µ: F → G è una collezione di morfismi della categoria D, indiciata dagli oggetti
f
µ (C1 )
µ (C 2 )
della categoria C, tale che per ogni C1 →
C2 in C, F (C1 ) 
→ G (C1 ) e F (C2 )  
→ G (C2 ) in D,
tali che il seguente diagramma di morfismi di D sia commutativo
F (C1 )
µ (C1 ) ↓
G (C1 )
F( f )
→
G( f )
→
F (C2 )
↓ µ (C2 )
G (C2 )
cioè (µ(C2)◦F(f)) = (G(f)◦µ(C1)).
A dire il vero ci sono stati vari tentativi, a partire dalla fine degli anno ’60 del XX secolo, anche in
Italia, di ricondurre entro una fondazione insiemistica i metodi della teoria delle categorie, ma la
pratica di chi si occupava di categorie per altri scopi ha sempre mostrato che tali tentativi erano comunque insufficienti. Neppure la considerazione di classi di classi oppure l’uso di principi di riflessione che, in un certo senso avessero lo stesso ruolo dell’assioma di riducibilità, proponendo di ri-
371
Capitolo 10
Dopo i teoremi di Gödel.
portare su collezioni di complessità inferiore quegli oggetti ‘grandi’ che non si potevano considerare in alcuna teoria.
10.1.7.4. La prima fondazione categoriale della Matematica. Se ne conclude che l’approccio categoriale, che pure ‘funziona’ e chiarisce varie situazioni matematiche importanti
ed interessanti, permettendo altresì la individuazione di nuovi risultati, è su un
piano diverso da quello insiemistico, quindi dopo vari tentativi, anche dello stesso
Mac Lane, si giunge nel 1964/65 alla proposta di Lawvere di una fondazione della
teoria delle categorie su se stessa e proponendo la categoria delle categorie come
William Lawvere
fondamento dell’intera Matematica 15.
Due parole sulla categoria delle categorie. Dal punto di vista di una riconduzione con insiemi o
classi di questo oggetto, la cosa è improponibile. Si osservi che in questa illustrazione di cosa sia un
funtore ci si è riferiti al concetto ‘classico’ di funzione. La posizione di coloro che propongono le
categorie come fondazione della Matematica rovesciano il tutto, prendendo come ‘primitivo’ il funtore e, eventualmente giungendo a definire le funzioni. Se C è la categoria dei gruppi (di tutti i
gruppi con gli omomorfismi) e D la categoria degli insiemi (di tutti gli insiemi con le funzioni) pur
essendo esempi di categorie localmente piccole, non permettono di definire in modo insiemistico un
funtore siffatto, ad esempio il funtore dimenticante, quello che associa ad ogni gruppo l’insieme sostegno e ad ogni omomorfismo la funzione che è trascurandone le proprietà di conservazione di
struttura. Ed invece questo è un esempio importante perché per altre considerazioni permette di determinare il funtore da D a C che associa ad ogni insieme il gruppo libero su tale insieme.
Per costruire la categoria delle categorie, si assumono le categorie come oggetti e i funtori come
morfismi. Ma si può cambiare punto di vista e considerare i funtori della categoria delle categorie
come oggetti e le trasformazioni naturali come morfismi di tale categoria di funtori.
Con l’introduzione delle categorie si raggiunge un livello di astrazione maggiore di quello realizzato
con le strutture (e gli insiemi). Ad esempio la categoria degli anelli (con gli omomorfismi) può essere
vista come il risultato dell’astrazione delle proprietà della struttura generale di anello, in quanto prescinde dalla costruzione insiemistica del singolo oggetto in essa. Ne segue che la categoria delle categorie si situa ad un ulteriore e maggiore livello di astrazione. Il fatto che la categoria delle categorie
sia ancora una categoria, ci dice che il concetto non ammette una gerarchia crescente di astrazione.
Tuttavia i rischi di autoriferimento che si sono incontrati nelle varie teorie degli insiemi sono attivi
anche in questo campo. A favore della teoria delle categorie c’è l’evidenza matematica della ubiqui15 Lawvere, W. (1966) The Category of Categories as a Foundation of Mathematics, Proceedings of the Conference on Categorical
Algebra, La Jolla, 1965, New York: Springer, 1 – 20.
372
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
tà del concetto ed il fatto che attraverso un indagini approfondite di Lawvere e dei suoi collaboratori, si è giunti ad identificare molte proprietà insiemistiche che possono essere descritte in termini di
sole funzioni (frecce). Inoltre, dato che ci sono strutture, ad esempio le strutture algebriche, che si
definiscono mediante operazioni interne, che sono funzioni, anche questi esempi possono essere tradotti in linguaggio categoriale. Si parla ad esempio di oggetti-gruppi o di oggetti-numeri naturali.
In questa visione, tuttavia, è ancora attiva una sorta di visione classica che fa riferimento diretto o
indiretto agli insiemi e che pretende di ricostruire in modo ‘consueto’ la matematica (almeno quella
di stampo bourbakista).
10.1.7.5. La seconda fondazione categoriale della Matematica. Nel frattempo avanzavano gli studi
sulle varietà algebriche e le loro proprietà, soprattutto di scuola francese, che
trovavano in Grothendieck un ‘punto di accumulazione’. L’approccio seguito già a partire dagli anno ’50 del XX secolo da Grothendieck utilizza strumenti categoriali e giunge alla individuazione di un particolare tipo di strutAlexander Grothendieck
(n. 1928)
tura, il topos di Grothendieck, che è una categoria con opportune proprietà
aggiuntive.
Negli anni ’70 del XX secolo Lawvere, assieme a Myles Tierney, coglie in una generalizzazione di
quest’ultimo concetto, la nozione di topos elementare, che si mostra subito assai fruttuosa e permette inaspettate e importanti risposte a vari problemi matematici.
Vediamo in modo un poco approssimativo, le caratteristiche di questa nozione e perché essa fonde
assieme, di nuovo, aspetti logici e matematici. In 10.1.7.3. si fornisce la presentazione assiomatica
di una categoria. Nella consueta tradizione insiemistica ci sono alcuni concetti che bisogna qui riprendere, oltre a quelli già presentati in 10.1.7.1. La consuetudine con gli insiemi e funzioni va ora
tenuta sullo sfondo, e bisogna considerare altri ‘nomi’. Ad esempio un oggetto terminale T di una
categoria C è un oggetto tale che per ogni altro oggetto C di C esiste un unico morfismi !C: C → T.
Un morfismo f: C → C’ in C è un monomorfismo se per ogni g,h: C” → C in C, da (f◦g) = (f◦h) 16 si
ha g = h. Una costruzione che ha una origine categoriale (e che poi si trova essere utile anche per gli
insiemi) è quella di pull-back. Siano dati f: C’ → C e g: C” → C. Il pull-back di questi dati, oggetti
e morfismi, è dato da un oggetto D ed una coppia di morfismi f’: D → C’ e g’: D → C” tali che
(f’◦f) = (g’◦g) e per ogni altra assegnazione h: E → C’ e k: E → C” tali che (h◦f) = (k◦g) esiste uno
ed un solo morfismi l: E → D tale che (l◦f’) = h e (l◦g’) = k. Con una rappresentazione diagrammatica si ha
16 In realtà nel linguaggio delle categorie, invece di usare f: A → B, che viene usato qui per ‘suggerire’ una possibile interpretazione
f
insiemistica, così come l’uso del simbolo di composizione si trova di preferenza A → B e (gf).
373
Capitolo 10
Dopo i teoremi di Gödel.
E
k
l
g’
D
h
C”
f’
g
f
C’
C
Esempi insiemistici di pull-back sono le contro-immagini. Se sono dati una funzione f: A → B e un
sottinsieme C ⊆ B, il pull-back si ottiene considerando f -1[C] ⊆ A e la restrizione di f da f -1[C] a C.
Un altro esempio di pull-back è il prodotto cartesiano: dati gli insiemi A e B, si considera il singoletto {▪} con le funzioni !A: A → {▪} e !B: B → {▪}. In questo caso il pull-back è dato dal prodotto cartesiano con le proiezioni. Le condizioni di commutatività sono banalmente soddisfatte perché il codominio della composizione è {▪} e si ha l’unicità. La proprietà caratteristica del prodotto cartesiano è quella richiesta per la nozione di pull-back. Quindi per ottenere i prodotti cartesiani bastano il
pull-back e l’oggetto terminale. Un altro esempio è dato dall’ugualizzatore di due funzioni: siano
dati gli insiemi A e B e siano f,g: A → B. Sia E ⊆ A definito da E = {a∈A | f(a) = g(a)}. Indicata con
h: E → A l’inclusione di E in A, la coppia h: E → A, h: E → A è il pull-back di f: A → B, g: A → B;
infatti (f◦h) = (g◦h) e per ogni k: D → A tale che (f◦k) = (g◦k), si ha k[D] ⊆ E. Un esempio di ugualizzatore si ha negli spazi vettoriali con il concetto di nucleo di un’applicazione lineare f: V → W,
tra spazi vettoriali sullo stesso campo. Si considera l’applicazione ‘banale’ che associa ad ogni vettore di V il vettore nullo di W. L’ugualizzatore di queste due applicazioni lineari è il nucleo di f;
questo esempio fa capire anche che sussistono relazioni tra ugualizzatori e congruenze. Con prodotti
cartesiani ed ugualizzatori si possono costruire arbitrari pull-back.
Un caso particolarmente rilevante di pull-back è connesso con le funzioni caratteristiche.
Teorema delle funzioni caratteristiche. Per ogni insieme A, per ogni sottinsieme B ⊆ A, dette
iB: B → A l’inclusione e true: {▪}→ {0,1} la funzione tale che true(▪) = 1, esiste una unica funzione
χB: A → {0,1} tale che il seguente diagramma è un pull-back.
!B
{▪}
B
iB
true
χB
A
{0,1}
Dimostrazione. La funzione χB è tale che per ogni a∈A, χB(a) = 1 se e solo se a∈B. Con tale definizione il diagramma è banalmente commutativo (si può vedere iB: B → A come l’ugualizzatore di χB,
(true◦!A): A → {0,1}). Infatti se b∈B, allora iB(b)∈A e χB(iB(b)) = 1. Seguendo l’altro percorso si ha
!B(b) = ▪ e true(!B(b)) = 1. Ora sia f: C → A tale che (χB◦f) = (true◦!C). Ma ciò significa che per ogni
374
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
c∈C, (true◦!C)(c) = true(!C(c)) = true(▪) = 1, e pertanto, anche (χB◦f)(c) = 1, quindi χB(f(c)) = 1. In
base alla definizione di χB, ciò comporta che f(c)∈B. Per la genericità di c∈C si ha f[C] ⊆ B, quindi
si può trovare g: C → B tale che per ogni c∈C, g(c) = f(c), come elemento di B (una co-restrizione
di f). Banalmente (iB◦g) = f, in quanto il codominio in questo caso è A. L’altra composizione (!B◦g) =
!C è banale. Per provare che si tratta di un pull-back bisogna mostrare che g è unica. Si supponga
che anche g’ sia tale che (iB◦g’) = f. Ma da ciò, essendo (iB◦g) = f = (iB◦g’) ed essendo l’inclusione
banalmente iniettiva, cancellabile a sinistra, si ha g = g’.
Il teorema sarà provato se si prova l’unicità della funzione χB che fornisce un pull-back con le altre
funzioni indicate. Sia pertanto k: A → {0,1} tale che si abbia un pull-back
. !B
{▪}
B
iB
true
k
{0,1}
A
L’insieme K = {a∈A | k(a) = 1} e la sua inclusione in A è l’ugualizzatore delle due funzioni k,
(true◦!A): A → {0,1} e quindi si ha un pull-back, come provato in precedenza.
!K
{▪}
K
iK
true
k
{0,1}
A
Di qui, sfruttando le proprietà dei pull-back e la commutatività di entrambi i diagrammi, si hanno
due funzioni g: K → B tale che (iB◦g) = iK e h: B → K tale che (iK◦h) = iB. Per ogni a∈K, si ha
g(a)∈B e iB(g(a)) = (iB◦g)(a) = iK(a) = a, ma questo vuol dire a∈iB[B], quindi a∈B, vale a dire K ⊆
B, ed in modo analogo si prova che B ⊆ K. Pertanto B = K e k = χB.
Un’ultima osservazione: nell’ambito degli insiemi, vale una proprietà esponenziale. Per arbitrari insiemi A e B, si ponga ev = {〈x,h,y〉∈((A×BA)×B) | h(x) = y}; così si ottiene una relazione. Si prova
che ev: (A×BA) → B e per ogni k∈BA, per ogni w∈A, ev(w,k) = k(w)∈B. Si prova inoltre che per
ogni insieme C, per ogni g: (A×C) → B, esiste un'unica g^: C → BA tale che (ev°〈π1,(g^°π2)〉) = g.
( )
C
Si ha quindi un’opportuna biezione tra gli insiemi B A e B ( A×C ) .
Queste proprietà dell’ambito insiemistico vengono prese come assiomi per la nozione di topos elementare.
Definizione. Un topos elementare è una categoria T in cui esiste un oggetto terminale, 1, vi sono i
pull-back, vi è un oggetto classificatore di monomorfismi, true: 1 → Ω. e si ha l’esponenziazione.
375
Capitolo 10
Dopo i teoremi di Gödel.
Le conseguenze di questi assiomi sono molteplici, ad esempio si prova che ogni oggetto ha un oggetto potenza, che vi sono i co-prodotti, co-egualizzatori e i push-out (le costruzioni duali ottenute
scambiando il verso delle frecce).
L’oggetto Ω ha numerose proprietà. Mediante le costruzioni categoriali ammesse, si definiscono
morfismi 17 che hanno un’immediata interpretazione logica come connettivi e quantificatori e con i
quali si provano teoremi che, in generale, costruiscono una sorta di logica intrinseca del topos. In
generale, e questa una sorpresa, la logica interna è intuizionista. All’interno del topos si possono dare definizioni di ‘oggetti categoria’ e quindi si può ricreare parte della teoria delle categorie. Un esempio è dato dalla categoria degli insiemi Set con le funzioni. In questo caso Ω = {0,1}, ma per
ogni categoria C, la categoria SetC che ha per oggetto i funtori (covarianti) e per morfismi le trasformazioni naturali tra essi è ancora un topos e in generale, col classificatore dei monomorfismi intuizionista. Anzi si prova che le formule valide in tutti i topos coerenti sono dimostrabili nella logica intuizionista.
In ogni topos elementare si può costruire una interpretazione che sia modello di ZF (in termini classici, booleani o intuizionisti, a seconda del classificatore). In questo modo si introduce un nuovo
oggetto matematico, la teoria intuizionista degli insiemi. In tale contesto categoriale l’assioma di
scelta diviene: per ogni f: A → B esiste g: B → A tale che (g◦(f◦g)) = f. Si prova che se nel topos vale l’assioma di scelta, allora il classificatore è booleano, dando così ragione al rifiuto intuizionista
dell’assioma di scelta. Con questi risultati si può concludere che ciò che è esprimibile nella teoria
assiomatica degli insiemi è presentabile in termini categoriali. Un altro aspetto assai significativo è
dato dal fatto che se invece di considerare l’interpretazione di un linguaggio del primo ordine su un
insieme, lo si considera su un funtore C → Set,
Set invece di un modello di Tarski si ottiene un modello
di Kripke (in generale, per l’intuizionismo), provando così la identità concettuale dei due oggetti
matematici, uno statico (Tarski), l’altro dinamico (Kripke).
La nozione di topos elementare è indipendente dall’approccio insiemistico, anche se, come si è cercato di mostrare qui, esso compare sullo sfondo. Da un altro punto di vista, quanto proposto da Lawvere e Tierney mette in luce la struttura insiemistica profonda della Matematica e della logica
classica, essendo, tutto sommato, pochi i requisiti per svilupparla.
Inoltre le varie costruzioni proposte per dimostrare i risultati di indipendenza dei vari principi dalla
teoria degli insiemi, trovano in questo contesto una unitarietà, in quanto sono interpretabili come
casi particolari di tecniche che con la loro generalità possono essere presentate mediante costruzioni
17 Ad esempio, avendosi true: 1 → Ω, si ha anche 〈true,true〉: 1 → (Ω×Ω), che è un monomorfismo. Così esiste la ‘funzione carat-
teristica’ di tale monomorfismo, ∧: (Ω×Ω) → Ω ; l’ugualizzatore di π2, ∧: (Ω×Ω) → Ω è un monomorfismo che si indica con ≤: M
→ (Ω×Ω), la cui funzione caratteristica è ‘→’ : (Ω×Ω) → Ω, ecc.
376
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
categoriali ottenute scegliendo, volta per volta le caratteristiche del topos elementare. Anche vari
aspetti della teoria delle dimostrazioni ammettono una trattazione in termini di categorie.
Si possono ripercorrere all’interno di un topos elementare che contenga un oggetto dei numeri naturali (definito dal teorema di ricursione semplice) le costruzioni che permettono di giungere dalla aritmetica all’analisi (standard o non-standard) e mostrare in questo modo l’origine dei punti critici e
delle difficoltà degli argomenti. Un caso interessante è stato quello di presentare una formulazione
adeguata del calcolo integrale e provare che è incompatibile con una logica booleana.
In conclusione questo secondo approccio categoriale mette in luce che tra matematica classica e ituizionismo c’è uno stretto rapporto: la prima è la fotografia di un universo statico, l’altra (o forse
oltre l’intuizionismo anche altri approcci più complessi) sono la stessa fotografia ma su un universo
dinamico. Si conclude con le parole di Bell, J.L. (1986) From Absolute to Local Mathematics,
Synthèse 69, 409 – 416:
«La mia proposta è che sia abbandonato l’universo assoluto degli insiemi a favore di una pluralità di strutture
matematiche locali 18. La matematica interpretata in ciascuna di queste strutture può appropriatamente essere detta matematica locale; una trasformazione ammissibile di queste strutture corrisponde ad un (definibile) cambiamento di matematica locale. Di conseguenza, il riferimento di un qualsiasi concetto matematico non è fissato, ma
cambia con la scelta della matematica locale. La dimostrabilità costruttiva di una proposizione matematica significa ora che essa è invariante o valida in ogni matematica locale […]. La sostituzione della matematica assoluta
con la matematica locale produce, a mio avviso, un notevole guadagno nella flessibilità delle applicazioni delle
idee matematiche, e offre così la possibilità di fornire una spiegazione della loro “irragionevole effettività” […]
Quindi l’interpretazione locale della matematica implicita nella teoria delle categorie è in accordo stretto con la
credenza inespressa di molti matematici secondo cui la loro scienza riguarda in definitiva non insiemi astratti, ma
la struttura del mondo reale.» (da Borga & Palladino, 1997).
Con una metafora ‘azzardata’ si può paragonare il rapporto tra la teoria dei topos e quella degli insiemi alla situazione che si realizza in Fisica tra teoria della relatività di Einstein e quella di Galilei.
Oggi si assiste alla presenza contemporanea di matematici che hanno fatto la scelta di trattare le loro
ricerche utilizzando o alla luce dei risultati di questo approccio fondazionale e di altri che continuano a produrre i loro risultati non tenendone conto.
I tempi recenti (anni ’90 del secolo XX), Mundici ha provato che alcuni spazi funzionali utilizzati in
Fisica quantistica, dotati di una struttura assai complessa, potevano essere interpretati come algebre associate a semplici reticoli, via una equivalenza categoriale,
permettendo così di riportare nella situazione più complessa teoremi di esistenza
dimostrabili in contesto algebrico con assai poco sforzo.
Daniele Mundici
Infine la nemesi storica. Si è detto altrove dei giudizi poco lusinghieri di Hilbert
sull’intuizionismo e sugli intuizionisti. Se si accetta la proposta di Bourbaki come una realizzazione
del programma fondazionale di Hilbert, cioè di ricostruire la Matematica su insiemi e sistemi formali, da essa ha tratto origine la teoria delle categorie e con il suo naturale sviluppo si è potuto con-
18 E con questo intende un topos elementare che contiene un oggetto dei numeri naturali.
377
Capitolo 10
Dopo i teoremi di Gödel.
cludere che a parte l’approccio, statico o dinamico, Hilbert e gli intuizionisti stavano dicendo le
stesse cose.
10.2. Alcuni aspetti della contemporanea Filosofia della Matematica.
In questa parte si presenteranno in breve (e quindi talvolta in modo non sufficientemente approfondito) considerazioni che hanno un sapore più filosofico e che tengono presente dell’opera di certi
pensatori. Alcuni di essi hanno posto attenzione soprattutto sulla nostra disciplina, altri hanno trattato più in generale il problema della scienza e la loro elaborazione ha avuto effetti anche sulla Matematica.
La grande stagione del periodo a cavallo dei due secoli, XIX e XX aveva fornito molti e diversi approcci allo studio dei fondamenti, ma un’impressione diffusa era stata che la sola base logica o intuitiva della Matematica non era sufficiente neppure a trattare gli aspetti finitistici. Con questo la
forma di pensiero che si potrebbe indicare col termine di riduzionismo logico, aveva dimostrato i
propri limiti. I tentativi successivi che prendono le mosse da Bourbaki e poi si evolvono nelle proposte di fondazione categoriale non hanno soddisfatto pienamente le aspettative. Forse i ‘critici’ di
queste proposte non ne hanno colto la sostanza in quanto essa richiede uno sviluppo avanzato della
nostra disciplina che potrebbe sfuggire anche a ricercatori di Matematica avanzata stante l’attuale
‘superspecializzazione’ che rischia di produrre conoscenze profonde in ambiti molto limitati. Ad esse si imputa comunque una tensione di tipo monistico, e si parla di riduzionismo matematico.
10.2.1. Empirismo in Matematica. In tempi recenti ha preso corpo un rifiuto nei riguardi delle esigenze fondazionali, sulla base dell’idea che la Matematica, al pari di una scienza sperimentale, trovi
una giustificazione fenomenologica, senza bisogno di un accesso alla metafisica. Il termine Empirismo fa pensare alla stagione della Filosofia inglese del passato, sarebbe più corretto parlare di neoempirismo, ma questo, a sua volta potrebbe confondersi col neo-empirismo logico di Carnap e soci.
Gli slogan che abbastanza spesso vengono usati dai sostenitori di questa corrente filosofica parlano
di “falsificazione”, di “perdita della certezza”, di “morte” della dimostrazione e di “fallibilismo”,
sostantivi e modi di dire che, riferiti alla Matematica, fanno un certo scalpore contraddicendo la più
consueta immagine della nostra disciplina. Ora tutto ciò può dipendere dal modo come si affronta lo
studio e l’utilizzazione della Matematica.
Dopo i risultati limitativi non possiamo esimerci dal pensare che si riesca a provare come teorema
un enunciato φ ed anche la sua negazione ¬φ. La prima reazione, di fronte a questa situazione, credo, sarebbe quella di analizzare meglio entrambe le dimostrazioni per cercare l’errore che si dovrebbe celare in almeno una delle due deduzioni. Anche se, finora, nelle teorie matematiche ‘prati378
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
cate’ non si sia incontrata tale situazione sgradevole, alla luce dei teoremi di Gödel, non tale possibilità non si può escludere a priori, dato che in tutte le teorie matematiche sufficientemente potenti,
si annida la possibilità della contraddizione. E ‘possibile’ da Leibniz in poi è un sinonimo di ‘ente’.
Tra la fine del XIX secolo e l’inizio del successivo, questa situazione si è presentata più volte ed in
vario modo si è cercato di ‘rimediare’ cambiando punto di vista o restringendo i suggerimenti
dell’intuizione. Però il problema è più antico, come mostra la storia della Matematica, ad iniziare
dalla crisi degli incommensurabili e i paradossi di Zenone, su su fino ai problemi del calcolo differenziale e le relative sistemazioni. Quindi, si può dire che il ruolo delle contraddizioni, come per
altro osserva Bourbaki, è stato fondamentale e intrinseco allo sviluppo della Scienza.
All’inizio del XX secolo, forse per una fiducia positivistica nelle capacità umane, abbiamo assistito
al tentativo di Hilbert di stabilire, una volta per tutte, la sicurezza dei metodi matematici, ma poi anche questo progetto si è dimostrato irrealizzabile.
L’idea di una matematica fallibile dovrebbe essere pragmaticamente accettata, proprio per la storia
di quanto è avvenuto e soprattutto quando, con gli studi fondazionali, si è cercato di andare in fondo
al problema. Tale approccio è escluso dal formalismo, ma tale forma di pensiero è criticabile in sé,
come mostra Ladrière J. (1957). Les limitations interne du formalisme, Paris: Gauthiers-Villars, e
tali obiezioni si attagliano ancora di più a quella particolare forma di formalismo/convenzionalismo
sviluppatosi all’interno del Circolo di Vienna. Si noti inoltre che ogni proposta fondazionale reca in
con sé un concetto diverso di rigore che viene definito sulla base delle premesse ideologiche che ispirano le proposte fondazionali, rendendo, di fatto, incommensurabili le premesse delle varie impostazioni teoriche.
10.2.1.1. Lakatos. La ‘bandiera’ del nuovo modo di intendere la matematica è il filosofo Lakatos, ed
in particolare la sua opera più nota (del 1976), pubblicata postuma: Proofs and Refutations. The Logic of Mathematical Discovery, Cambridge: Cambridge University Press, tradotta in italiano nel
1979 col titolo Dimostrazioni e confutazioni. La logica della scoperta matematica, Milano: Feltrinelli. Da questa opera e dalle idee in essa contenute si sono poi avuti vari testi che ne riprendevano
gli assunti, ad opera di Hersh (1979), Kline (1981), Davis & Hersh (1981), e il testo curato da Thomas Tymoczko, (1943 – 1996) nel 1986 19.
19 Si fa riferimento ai seguenti testi:
Hersh, R. (1979). Some Proposal for Reviving the Philosophy of Mathematics, Advances in Mathematics 31, 31 – 50.
Kline, M. (1981). Mathematics. The Loss of Certainity, New York: Oxford University Press – Traduzione italiana: Matematica. La
perdita della certezza, Milano: Mondadori, 1985.
Davis, P.J. & Hersh, R. (1981). The Mathematical Experience, Boston: Birkhäuser- Traduzione italiana: L’esperienza matematica,
Milano: Edizioni di Comunità, 1985.
Tymoczko, T. (ed.) (1986). New Directions in the Philosophy of Mathematics, Boston: Birkhäuser.
Il ‘clima’ di questi testi trapela dal titolo di Kline e dal titolo del capitolo 7 di Davis & Hersh: “Dalla certezza alla fallibilità”.
379
Capitolo 10
Dopo i teoremi di Gödel.
La proposta empirista si avvale delle considerazioni precedenti e pone in evidenza come suo aspetto
peculiare il rifiuto di continuare su questa strada. Afferma Lakatos (1976)
«Ogni volta che il dogmatismo matematico dell’epoca entrava in “crisi”,
una nuova versione forniva ancora una volta l’autentico rigore e i fondamenti definitivi, ripristinando così l’immagine di una matematica autorevole, infallibile, inconfutabile […]. È proprio ora di rimettere in discussione
questo dogma.» (da Borga & Palladino, 1997)
Ma l’elaborazione di Lakatos non si arresta con l’indicare gli aReuben Hersh
(n. 1927)
Philip J. Davis
(n. 1923)
spetti critici della matematica. Essendo legato alla metodologia
falsificazionista di Popper 20, cerca di applicarla alla Matematica.
Per Popper la possibilità di essere falsificata è il criterio di scientificità di una teoria. Ad esempio lo
studio sul fatto che gli angeli abbiano i piedi è stato un tema di ricerca teologica del medioevo. Ma,
a dispetto dei risultati di vari pensatori, non si po’ definirla come una ricerca scientifica. La Fisica,
invece, proprio la presenza di teorie (meccanica relativistica – meccanica classica) in contrapposizione è garanzia di un sapere scientifico.
Le posizioni dell’approccio empirista, in particolare di Lakatos si può intendere come un attacco al
formalismo che identifica le dimostrazioni con quelle che si possono costruire in un sistema formale. Per il filosofo ungherese questa posizione di ‘rigore’ è l’ultimo esempio di una filosofia dogmatica della Matematica.
Egli propone di sostituire al concetto di dimostrazione quello di un esperimento mentale che si applichi a congetture in modo da suddividerle ed analizzarle in sottocongetture. Come dice il titolo
della sua opera più famosa, Lakatos è interessato ad individuare dei criteri che suggeriscano i risultati, piuttosto che le prove dei risultati stessi. È ovvio che in questo approccio invece di una chiara e
controllabile serie di passaggi che viene indicata col termine di dimostrazione, presenta un percorso
non lineare che inglobi tentativi ed errori, cioè con il linguaggio del testo omonimo, con dimostrazioni e confutazioni, assieme. L’idea di Lakatos è quella di dare ancora dignità filosofica ed epistemologica alla matematica informale, per il suo apporto conoscitivo e propositivo. Cambia così, o
meglio si integra così il panorama della filosofia della Matematica che non si esaurisce sulla logica
o con i problemi (e le relative proposte di soluzione) dei fondamenti, ma si occupa ora anche dei
processi euristici.
10.2.1.2. Formula di Eulero e dimostrazione di Cauchy. Il testo di Lakatos è un capolavoro della
comunicazione matematica, anche di problemi complessi. Si svolge sotto forma di dialogo in classe
tra alcuni studenti ed il professore. L’argomento della discussione è quella che viene detta sui libri
20 Il debito dell’Empirismo proposto per la Matematica nei riguardi di Popper è anche implicitamente dichiarato dal titolo dell’opera
di Lakatos che riprende quello un testo del filosofo austriaco apparso negli anni ’30 del XX secolo: La logica della ricerca.
380
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
di testo della scuola superiore, formula di Eulero per i poliedri, ma qui viene presentata più correttamente come congettura di Eulero, ed è espressa dall’uguaglianza F(acce) + V(ertici) - S(pigoli) =
2. Di questa formula si conosce la dimostrazione di Cauchy che consiste nell’ottenere la formula nel
caso di un parallelepipedo, sulla base di ciò che succede con un triangolo. Si considera un parallelepipedo cavo. Si toglie una faccia, (di cui si deve poi tenerne conto nel calcolo finale). Si ‘spiana’ la
figura così ottenuta (prima figura), ricavandone 5 facce, 12 spigoli e 8 vertici e si ha 5 + 8 - 12 = 1.
2
1
3
Si triangola poi ciascuna faccia (seconda figura), non modificando il numero dei vertici, ma raddoppiando così il numero di facce, ora 10, con l’aggiunta di 5 spigoli (ora 17) e si ha 10 + 8 - 17 =
1. La terza immagine suggerisce di toglier la faccia indicata col numero 1. Questa prima operazione
non altera il numero dei vertici, ma diminuisce di 1 il numero delle facce e di uno il numero degli
spigoli. Con la faccia rimossa si ha 9 + 8 - 16 = 1. Procedendo con la faccia indicata col numero 2
rimane ancora inalterato il numero dei vertici ma diminuiscono di 1 sia il numero delle facce che
quello degli spigoli, in questo modo, 8 + 8 - 15 = 1. Eliminando la faccia indicata con 3 si eliminano
anche un vertice, una faccia, ovviamente e due spigoli, per cui 7 + 7 - 13 = 1. Come si vede, queste
operazioni, pur alterando i numeri di facce, vertici e spigoli, non modificano l’uguaglianza e procedendo con successive eliminazioni, alla fine si giunge ad un unico triangolo, 1 faccia, con 3 spigoli,
tre vertici, quindi 1 + 3 - 3 = 1. Con questa riduzione alla figura poligonale più semplici, il teorema
si considera dimostrato.
A questo proposito Lakatos scrive:
«Penso che i matematici accetterebbero questa come una dimostrazione, e alcuni potrebbero addirittura affermare che si tratta di una bella dimostrazione. È certamente del tutto convincente. Non si è tuttavia dimostrato alcunché dal punto di vista logico, sia pur inteso in senso opportunamente lato. Non ci sono postulati, non c’è una
logica sottostante ben definita, non sembra che ci sia alcun modo ragionevole di formalizzare questo ragionamento. Ciò che si è fatto è stato mostrare intuitivamente che il teorema era vero. Questo è un modo molto comune di stabilire fatti matematici […] I Greci lo chiamavano deikmyne. Io lo chiamerò esperimento mentale.» (da
Borga & Palladino, 1997).
Ora viene da chiedersi se siffatti esperimenti mentali abbiano rilevanza in Matematica o se il fatto di
non essere adeguatamente formalizzati (o formalizzabili) consiglia di trascurarli. Ovviamente la risposta empirista è volta a dare valore e ‘dignità’ matematica anche a queste considerazioni, anche
381
Capitolo 10
Dopo i teoremi di Gödel.
perché, sebbene non siano ‘controllabili’ come si auspicano i matematici di oggi, sono, in via di
principio, falsificabili e quindi scientificamente rilevanti, nel senso di Popper.
Il libro Dimostrazioni e confutazioni è una splendida realizzazione di queste idee. Il tema della congettura di Eulero viene affrontato da vari punti di vista in una discussione tra ‘pari’, gli allievi, con
una ‘supervisione’ discreta dell’insegnante preoccupato di rilanciare. Nel dibattito viene messa in
dubbio la possibilità che per un qualunque poliedro sia possibile l’operazione di ‘spianatura’ vista
nel caso del parallelepipedo cavo, nonché l’invarianza dell’espressione F + V – S = 1 quando si inizia a togliere facce. Il testo mostra inoltre la competenza storica e geometrica di Lakatos, dato che
le frasi che fa pronunciare agli allievi, seppure presentate con tracce di psicologia che le rendono
‘credibili’ in bocca a studenti, riportano affermazioni di matematici del passato che hanno fatto osservazioni, proposte, hanno mostrato contro-esempi.
La scelta di una forma gradevole non toglie che il testo, oltre ad un importante apparato bibliografico sul tema, esibisca la tesi di fondo che la Matematica non si riduce alla dimostrazione finale di
un’affermazione, che da sempre è stata praticata come attività umana per tentativi ed errori e che,
caso mai bisogna inquadrare il fenomeno in termini nuovi e scientificamente accettabili.
Il caso della congettura – teorema di Cauchy sulla formula di Eulero è solo un pretesto, ma permette
di esemplificare una modalità che Lakatos propone come via principale per quella che definisce Logica della scoperta.
La proposta del filosofo ungherese è la seguente: si ha una congettura e se ne cerca una dimostrazione. Attraverso la falsificazione per mezzo di opportuni controesempi, si pone il problema di chiarire le premesse del procedimento che dovrebbe portare al risultato auspicato mettendo così in evidenza aspetti impliciti ed eventuali lemmi nascosti. L’analisi dei controesempi va ora condotta sui
lemmi, cioè bisogna considerare se il controesempio sia dovuto all’accettazione di un lemma, e in
questo caso si parla di controesempio locale, oppure se esso falsifica completamente la congettura
finale, non ‘agendo’ sui lemmi ad essa, e in questo caso si parla di controesempio globale. Questa
analisi dei controesempi non è un atteggiamento distruttivo, ma esso fornisce nuove informazioni
che permettono di articolare in modo più corretto e convincente le dimostrazioni cercate. Lakatos lo
definisce improving by proving, vedendo così nella (ricerca di una) dimostrazione uno strumento
per migliorare e precisare le congetture.
Per fare questo il filosofo esplicita cinque regole.
«Regola 1. – Se hai una congettura, preparati a dimostrarla e a confutarla. Esamina attentamente la dimostrazione e fai un elenco di lemmi non banali (analisi della dimostrazione); trova controesempi sia alla congettura (controesempi globali) sia ai lemmi sospetti (controesempi locali).
Regola 2. – Se hai un controesempio globale scarta la tua congettura, aggiungi alla tua analisi della dimostrazione un conveniente lemma che verrà confutato dal controesempio e sostituisci la congettura scartata con una congettura migliorata che incorpori quel lemma come una condizione. Non permettere che una confutazione venga
liquidata come una mostruosità. Cerca di rendere espliciti tutti i “lemmi nascosti”.
382
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
Regola 3. – Se hai un controesempio locale, fai un controllo per vedere se non è anche un controesempio globale. Se lo è, puoi facilmente applicare la Regola 2.
Regola 4. – Se hai un controesempio che è locale ma non globale, cerca di migliorare la tua analisi della dimostrazione sostituendo il lemma confutato con uno non falsificato.
Regola 5. – Se hai controesempi di qualsiasi tipo, cerca di trovare, mediante un tira-a-indovinare deduttivo, un
teorema più profondo per il quale essi non siano più controesempi.» (da Borga & Palladino, 1997).
Queste regole, seppure, come tutte le regole, presentino caratteri criticabili, sono sicuramente condivisibili da qualsiasi matematico. Importante l’idea che si debba considerare contemporaneamente
la possibilità di dimostrare e di confutare una affermazione. Dove Lakatos però si distingue dal più
generale modo di interpretare la nostra disciplina è che, per lui, il genere di analisi che propone non
può mai dirsi concluso, perché c’è sempre la possibilità di trovare un controesempio inaspettato.
La posizione che una volta trovata una sistemazione formale della teoria e che provata in essa un
enunciato questo divenga incontrovertibile, non è condivisa dal filosofo in quanto ogni teoria si basa su richieste di tipo ipotetico e quindi non si può escludere a priori che un possibile controesempio
non metta in luce una proprietà inaspettata. Si pensi, ad esempio, all’assioma di Pasch per la Geometria euclidea (nella versione Hilbert). Per migliaia di anni si sono prodotte dimostrazioni classiche in cui si usava un principio di ordine/continuità che forse era implicito e che Pasch ha avuto il
pregio di mettere in luce con un controesempio. Il fatto è che i controesempi agiscono a più livelli:
possono evidenziare una carenza della teoria formale mostrandone la non coerenza, ma possono anche mostrare che il sistema formale non rispecchia la situazione intuitiva da cui la teoria formale è
stata generata. Un esempio di questo è dato dal cosiddetto paradosso di Bacone/Galilei (si veda
6.2.1.). Tale argomento risulta antinomico perché partendo da una teoria della quantità, organizzata
come Aritmetica, esso mostra che non è possibile estendere ‘banalmente’ la teoria alla considerazione di insiemi infiniti in atto, quindi la teoria formale si pone in contrasto con quella intuitiva. Dice Lakatos:
«Le dimostrazioni delle teorie assiomatiche [formalizzate] possono essere soggette a un pe-
Norman Steenrod
(1910 – 1971)
rentorio processo di verifica e questo può essere fatto in modo del tutto meccanico. Significa
questo, ad esempio, che se dimostriamo il teorema di Eulero nel sistema completamente formalizzato di Eilenberg e Steenrod è impossibile avere controesempi? È certo che non avremo
controesempi formalizzabili nel sistema (ammesso che il sistema non sia contraddittorio), ma
non abbiamo alcuna garanzia che il nostro sistema formale contenga tutto il materiale empirico o quasi empirico al quale siamo veramente interessati e del quale ci stavamo occupando
nella teoria informale. Non c’è alcun criterio formale per la correttezza della formalizzazione.» (da Borga & Palladino, 1997).
Lakatos lamenta il fatto che la Matematica venga presentata in modo da nascondere il processo di creazione che fornirebbe invece importanti informazioni sull’attività del matematico. Così il fruitore dei risultati può solo arrendersi all’evidenza dimostrativa, ma non comprendere
la ragione di ipotesi che possono essere o sembrare artificiose. L’eliminazione della fase euristica
rappresenta quindi un danno e probabilmente impedisce sviluppi migliori della disciplina.
383
Capitolo 10
Dopo i teoremi di Gödel.
10.2.1.3. Empirismo e Didattica. Questa contrapposizione ha influenza sugli aspetti didattici: per un
giovane in apprendimento la Matematica appare spesso come un edificio cristallino ed impenetrabile, contribuendo ad un’immagine della nostra disciplina come un coacervo di affermazioni dogmatiche, autoritarie, eterne ed immutabili, non sottoposte e non sottoponibili a critiche.
L’idea che si possa invece cogliere la Matematica nel suo farsi, ponendo attenzione agli aspetti euristici di essa, è stata ‘adottata’ quasi immediatamente da chi si occupa di insegnamento, grazie anche alla mediazione di Polya che con la proposta del problemsolving (1945) anticipa l’importanza degli aspetti euristici nell’apprendimento della
Matematica. Spesso però si coglie abbastanza bene, nelle proposte di vari ricercatori, che questa adesione alla filosofia di Popper/Lakatos è solo superficiale e struGeorge Polya
(1887 – 1985)
mentale, in quanto poi dall’analisi non del metodo, ma dei contenuti proposti, traspare evidente l’idea della Matematica immutabile e certa, riservando all’euristica
un uso limitato solo alla fase di apprendimento.
Nel 1965 Lakatos organizza un congresso a Londra sulla filosofia della Scienza, di cui cura gli atti
pubblicati nel 1967 21. Tra i vari contributi ve n’è uno di Kalmár 22, che riprende e precisa il punto
di vista di Lakatos. Osserva infatti il logico che le ricerche sui fondamenti avevano per obiettivo ricostruire la Matematica come una scienza puramente deduttiva fornendola di punti di partenza indubitabili, per garantirne la non contraddittorietà, ma così facendo hanno trascurato aspetti empirici:
«La non contraddittorietà della maggior parte dei nostri sistemi formali è un fatto empirico; anche quando è stata
dimostrata, l’accettabilità delle tecniche metamatematiche usate (ad esempio l’induzione transfinita fino ad un
certo ordinale costruttivo) è anch’essa un fatto empirico. [...]
Perché non ci confessiamo che la matematica, come le altre scienze, è in ultima analisi basata sulla pratica, e deve essere verificata in pratica? Molte scienze rispettabili hanno una reputazione eccellente senza affermare di essere “scienze puramente deduttive”. Dire che la matematica è una scienza che ha un retroterra empirico non significa escludere l’uso di metodi deduttivi; molte altre scienze induttive li usano con successo! Certo, dovremmo
allora includere nella matematica anche metodi induttivi – ma perché escluderli?» (da Borga & Palladino,
1997).
Kalmár con queste parole, di fatto, fotografa un atteggiamento condiviso e diffuso. Per le teoria per
quali manca una dimostrazione di coerenza, l’atteggiamento dei matematici è improntato
all’attendismo, aspettare per vedere se la contraddizione emerge, con la riserva mentale che in tal
caso basterà cambiare di poco (o di molto) gli assiomi (considerando la contraddizione una sorta di
contro-esempio locale, nella dizione di Lakatos). Ma questo è esattamente il modo di affrontare le
teorie empiriche. Però anche per quelle teorie per cui è disponibile una dimostrazione di coerenza,
si veda Gentzen e soci (10.1.4.) le cose cambiano di poco, in quanto il valore epistemologico dei risultati ottenuti in questa direzione si può considerare limitato. Diceva Tarski che, dopo la dimostrazione di Gentzen, la sua fiducia nella coerenza dell’Aritmetica non era aumentata nemmeno di un ε!
21 Lakatos, I. (1967). Problems in the Philosophy of Mathematics, Amsterdam: North Holland.
22 Kalmár, L. (1967). Foundations of Mathematics – Whither Now?, in Lakatos (1967), 187 – 207.
384
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
La relazione di Kalmár fu seguita da numerosi interventi, tra cui quelli di Heyting, Kleene, Bernays
e Lakatos, di cui è rimasta traccia scritta negli atti. Nello stesso volume degli atti
compare un contributo breve di Lakatos 23 in cui l’autore mostra che l’approccio di
Kalmár è condiviso da affermazioni di Fraenkel, Carnap, Weyl, Von Neumann,
Bernays, Church, Gödel, Quine, Rosser, Curry e Mostowski. Tutte le citazioni metHaskell Curry
(1900 – 1982)
tono in evidenza i limiti del formalismo, principalmente dal punto di vista metateorico, per cui propongono che almeno a livello metamatematico ci sia un ritorno
all’informale ed al contenutistico, in particolare per le dimostrazioni di non contraddittorietà. Quindi proprio le ricerche fondazionali sono la garanzia del carattere empirico della Matematica. A queste citazioni Lakatos obietta che, se prima o poi si deve fare ricorso all’informale, tanto vale farlo da
subito:
«In uno dei libri più importanti sull’argomento [Kleene, Introduction to Metamathematics, p.63] si legge che “il
test definitivo per l’accettabilità di un metodo in metamatematica deve naturalmente essere la sua capacità di convincere intuitivamente”. Ma allora perché non ci fermiamo un passo prima e non diciamo che “il test definitivo
per l’accettabilità di un metodo in aritmetica deve naturalmente essere la sua capacità di convincere intuitivamente” e tralasciamo la metamatematica, come viene fatto da Bourbaki? » (da Borga & Palladino, 1997).
10.2.1.4. Il ruolo delle dimostrazioni. Ne segue la proposta di sostituire il modello, ancora presente
ed attivo di una Matematica euclidea, che ha per oggetto astrazioni con qualche aggancio con
l’esperienza, con un approccio quasi-empirico. Ciò comporta un netto cambio di interpretazione del
ruolo delle dimostrazioni:
«Il classico ideale epistemologico di una teoria – scientifica o matematica – ha preso per due millenni come modello la geometria euclidea, un sistema deduttivo con la caratteristica che la verità viene infusa dall’alto (nella
congiunzione degli assiomi), cosicché, scorrendo verso il basso attraverso i canali della logica che conservano la
verità, inonda l’intero sistema. […] Le teorie scientifiche risultano [oggi] organizzate in sistemi deduttivi in cui il
valore di verità non consiste nell’infondere la verità in alto, ma piuttosto la falsità in basso, in un particolare insieme di teoremi. In queste teorie quasi-empiriche il flusso logico non è la trasmissione della verità, ma la retrotrasmissione della falsità – da particolari teoremi che si trovano in basso (“asserti base”) su fino agli assiomi. »
(da Borga & Palladino, 1997).
Da quanto precede è evidente l’impianto popperiano, anche se il filosofo austro-inglese non ha mai
affrontato in modo approfondito il tema matematico, analizzando prevalentemente il ruolo
dell’induzione nelle teorie empiriche. Rimane però il problema della natura e ruolo dei falsificatori
potenziali in Matematica, cioè degli asserti base che possano falsificare la Matematica. Per Lakatos
questo ruolo è svolto dal confronto tra teorie formali e informali, ma la sua proposta non pare convincente anche perché il ruolo dei falsificatori potenziali dovrebbe poi essere individuato, a cascata,
anche per le teorie informali.
Le idee di Lakatos hanno avuto una vasta eco sia in ambito filosofico che in ambito didattico. Hanno avuto una specie di casse di risonanza in varie opere, in particolare in quelle citate di Kline,
23 Lakatos, I. A Renaissance of Empiricism in the Recent Philosophy of Mathematics?, pp. 199 - 202
385
Capitolo 10
Dopo i teoremi di Gödel.
Hersh, Tymoczko. In tutte queste l’assunto base è il fallimento della Matematica, così come si era
configurata, ed i particolare il fallimento, se non addirittura la perniciosità degli studi sui fondamenti. Per questo si è ribadito che gli approcci fondazionali sono da ritenersi globalmente insufficienti a
fornire un quadro esauriente ed esaustivo della filosofia della Matematica. Le conseguenze di questa
identificazione filosofia-fondamenti sono il modo piatto e dogmatico con cui è presentata la nostra
disciplina avvalendosi di una didattica inadeguata allo scopo. Ad esempio Hersh (1979) scrive:
«Le idee di filosofia della matematica dei matematici di professione sono incompatibili fra loro e con
l’esperienza e la pratica matematica […] La presente impasse della filosofia della matematica è la spiacevole
conseguenza del grande periodo di controversie fondazionali che va da Frege a Russell fino a Brouwer, Hilbert e
Gödel. Ciò di cui abbiamo bisogno oggi è un nuovo inizio, non una continuazione delle varie “scuole” del logicismo, del formalismo, dell’intuizionismo […] Molte delle difficoltà e degli ostacoli della filosofia della matematica sono dovuti a pregiudizi filosofici che abbiamo ereditato, ma che siamo liberi di abbandonare, se decidiamo
di farlo.» (da Borga & Palladino, 1997).
Una convincente metafora che Hersh presenta è quella della schizofrenia del matematico che nei
giorni feriali si pone in una attitudine platonista, convinto come è di trovare relazioni esistenti tra gli
oggetti matematici che abitano nel mondo iperuranio, salvo poi, nei giorni festivi, assumere un atteggiamento sia aristotelico, sia formalista, e di presentare i risultati per mezzo di teorie formali e
dimostrazioni, forse per potere celare, in questo modo le sue ‘vere’ ispirazioni filosofiche.
Tutti sono d’accordo con una critica proposta dall’empirismo: si è persa la competenza/abilità di
presentare in modo divulgativo la Matematica perché o si predilige una presentazione accattivante,
ma non adeguatamente seria, che tende a nascondere i nuclei concettuali ‘duri’, oppure si predilige
un linguaggio scientifico molto lontano da quello percepito e compreso da lettore medio.
Bisogna però ribadire che l’empirismo in Matematica non è una proposta fondazionale, ma investe
la Matematica (dell’epoca di Lakatos e forse anche quella di oggi) nel suo complesso. In base ad esso c’è un rifiuto ad accettare che la nostra scienza debba adattarsi ad un paradigma filosofico imposto dall’esterno, ma che la filosofia della Matematica possa essere fatta, seppure con ingenuità che
talora i filosofi rimproverano agli scienziati, dai matematici stessi.
Le ragioni del successo perdurante dell’approccio empirista si possono riassumere in tre punti:
1) l’abbandono della visione idealizzata della materia ed invece l’accostamento alla sua pratica
che contribuisce ad offrirne una dimensione ‘umana’. Un testo si chiamava appunto Matematica dal volto umano, come se la nostra scienza fosse frutto di illuminazione riservata ai
proseliti di una setta esclusiva.
2) Il ruolo affidato alla storia mediante la quale è possibile presentare i vari argomenti come un
lungo divenire della conoscenza. Anche questo aspetto meriterebbe di essere analizzato meglio per evitare la confusione che spesso viene fatta tra storia ed epistemologia, discipline
non incompatibili, ma distinte.
386
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
3) Le proposte dell’empirismo in Matematica sono in grande sintonia con le attuali tendenza in
didattica della disciplina nella scuola pre-universitaria, perché tramite un approccio per problemi si possono formulare congetture, tentare di provarle o di confutarle, seguendo in modo
coerente con gli eventi storici lo svolgersi e l’affermarsi della nostra scienza.
C’è però da chiedersi se l’abolizione completa delle problematiche fondazionali abbia senso o sia
funzionale alla formazione della cultura matematica.
A questo proposito Feferman 24 afferma:
«Io credo che i successi di Lakatos dovrebbero indurci a cercare una teoria più realistica della matematica. Ma i
suoi fallimenti e i suoi limiti ci rendono consapevoli che molto della logica dovrà essere riconosciuto come fondamentale e incorporato in questa teoria. Sarebbe meglio riservare il nome di “logica della scoperta matematica”
a qualcosa che deve ancora venire.» (da Borga & Palladino, 1997).
10.2.2. Altre proposte filosofiche sulla Matematica. La corrente di pensiero dell’empirismo è sicuramente quella che ha avuto un maggiore ‘successo’ di pubblico, ma non esaurisce la ricerca che si
è sviluppata, soprattutto nei paesi di lingua inglese, sulla Matematica.
I primi 30 anni del XX secolo hanno sicuramente concentrato le attenzioni dei filosofi e dei matematici con attitudini anche filosofiche, sul problema dei fondamenti. Dopo i teoremi di incompletezza, accanto alla continuazione degli studi fondazionali dei quali si è cercato di offrire un panorama in 10.1. si è avuto, soprattutto da parte dei filosofi, un abbandono alle esigenze del fondazionalismo ed una nuova riflessione sulla Matematica. Questo, spesso, ha comportato un recupero di idee
del pensiero occidentale del XIX secolo, che hanno alimentato le nuove linee di pensiero. Ma le
proposte presentate sono state molteplici. La loro vicinanza nel tempo e la necessità di sintesi di
questi appunti, permette di darne una presentazione schematica e riduttiva, tralasciando varie sfumature che caratterizzano le varie proposte.
10.2.2.1. Di nuovo Frege. Di solito si ritrovano nelle opere di Frege vari aspetti oggi ritenuti fondamentali per la filosofia della Matematica. Ad esempio la sua esigenza di una Aritmetica generalizzata che fondesse davvero, più di quanto non avesse fatto il movimento di Aritmetizzazione
dell’Analisi, non solo i vari ‘tipi’ di numeri, dai naturali ai complessi, con il relativo ‘abbandono’
dell’idea di quantità, ma anche il linguaggio che per l’Analisi aveva introdotto concetti come variabile, funzione, uguaglianza, attribuendo ad essi nuovi e diversi significati (che tra l’altro i contemporanei di Frege non avevano chiaramente delineato). L’esigenza ‘unitaria’, per l’autore della Begriffsschrift, è conseguenza della premessa filosofica dell’esistenza di un unico universo di oggetti,
24 In Feferman, S. (1981). The Logic of Mathematical Discovery vs. the Logical Structure of Mathematics, PSA 1978, Vol. II, Phi-
losophy of Science Association, 309 - 326
387
Capitolo 10
Dopo i teoremi di Gödel.
siano essi oggetti fisici o astratti, e pertanto l’esigenza di trattare in modo unitario le loro proprietà e
relazioni, rifiutando gli aspetti ‘locali’ impliciti nel concetto di universo del discorso.
Il fallimento di questo obiettivo è stato assunto come una specie di sfida da parte di alcuni filosofi
successivi che hanno cercato di raggiungere gli scopi di Frege. Ad esempio Carnap propone
un’interpretazione probabilistica dell’uguaglianza che invece di essere strumento per giudizi veri o
falsi, fornisce più o meno corroborazione all’esperienza sulla base di valori di probabilità.
Da un altro punto di vista, l’opera di Frege stata importante per le sue analisi del linguaggio che
hanno dato spazio ad una ricerca sullo strumento linguistico di per sé e nei suoi rapporti con la
scienza ed in particolare con la nostra disciplina. Di qui è nata l’attuale Filosofia del linguaggio.
Che il linguaggio possa esser oggetto di filosofia deriva da una definizione di uomo data da Aristotele. Egli non presenta l’uomo come animale razionale, ma come essere che ha un linguaggio e di
qui discende l’idea che l’uomo sia in grado di produrre segni significativi, cioè simboli (Sini, C.
(1991). Il simbolo e l’uomo, Milano: Egea).
10.2.2.2. Neo positivismo e Wittgenstein. La comparsa dei teoremi di incompletezza ha avuto altri
effetti. In particolare è maturata la convinzione che non si poteva fondare la Matematica sulla Logica, ma che quest’ultima aveva il ruolo esclusivo di un calcolo atto a manipolare simboli sulla base
di convenzioni, a prescindere dal significato dei simboli stessi. Ne risulterebbe che il ruolo della
Matematica è quello della gestione dei simboli essendo un sistema di linguaggi non interpretati, che
trovano poi interpretazioni nelle altre scienze. Questa posizione è tipica dei pensatori che si sono ritrovati nella corrente del neo-positivismo (o empirismo logico) sviluppatosi attorno al Circolo di
Vienna, tra cui Carnap.
In questo periodo ha avuto grande rilevanza anche l’opera di Wittgenstein, figura di spicco prima a
Vienna e poi in Inghilterra. La sua produzione è assai complessa. In buona parte è stata pubblicata
postuma ed in essa si colgono numerosi ‘ripensamenti’ su alcune tesi fondamentali. Per questo si
distingue spesso tra primo e secondo Wittgenstein. Per quanto riguarda la Matematica, si devono a
Wittgenstein atteggiamenti critici nei confronti di varie proposte fondazionali sulla base di un rifiuto personale del platonismo nelle sue varie forme. Per questo motivo le sue analisi sono contrarie
sia la logicismo che al formalismo. Anche l’intuizionismo viene da lui criticato con la proposta di
una sorta di costruttivismo più restrittivo. Il filosofo austriaco è autore di acute riflessioni su natura
e ruolo delle dimostrazioni che anticipano discussioni che seguiranno i teoremi di incompletezza.
Le posizioni di Wittgenstein, pur avendo influenza sulla logica e i fondamenti, sono più pertinenti
alla filosofia del linguaggio. Per lui comprendere la Matematica significa, prima di tutto, compren-
388
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
dere il linguaggio che si usa in esso. Ma il significato del linguaggio, per il nostro autore è l’uso che
se ne fa 25:
«Il segno (enunciato) riceve la propria significanza, il proprio significato, dal sistema di segni, dal linguaggio cui
appartiene. In breve: comprendere un enunciato significa comprendere un linguaggio» (da Bagni, 2006) 26.
Ne discende un rifiuto a riferirsi ad una ‘verità’ delle proposizioni che trascendono l’esperienza: esse non hanno significato e ciò avviene anche per molti enti matematici. L’attività matematica è pertanto frutto di apprendimento di regole (del gioco), istruzioni sull’uso dei segni che vengono imparate attraverso l’esempio degli esperti che ne mostrano i modi e i limiti di utilizzo. Le posizioni di
Wittgenstein hanno punti di contatto con l’intuizionismo. Condivide, ad esempio la liceità a fare riferimento a collezioni infinite solo se gli elementi di esse possono essere generati come ripetuta iterazione di uno stesso processo costruttivo, ma non accetta le successioni di scelte per la costruzione
del continuo. Così facendo Wittgenstein anticipa alcune intuizioni e posizioni della più recente matematica costruttiva.
10.2.2.3. Epistemologia secondo Quine. Le ricerche di Quine, in parte connesse all’ipotesi logicista,
hanno mostrato un ritorno alla filosofia di Frege. Uno degli slogan di Quine più citati è “esistere è
essere il valore di una variabile quantificata” che mette assieme esigenze ontologiche e aspetti formali. Di qui traspare anche la sua concezione platonista: le proposizioni matematiche sono relative
a oggetti astratti che vengono connotati mediante le variabili di linguaggio formali.
Da un altro punto di vista, Quine propone di “naturalizzare” l’epistemologia, nel senso che non è
possibile valutare le proposizioni scientifiche in base a criteri extrascientifici, ma esse vanno viste
nel contesto scientifico in base dei canoni specifici adottati da ciascuna scienza. Con questo non si
vuole negare il ruolo dell’esperienza. È il modo in cui l’esperienza viene schematizzata in forma di
teoria scientifica che poi detta i criteri di valutazione. Così non c’è fondamentale differenza tra le
verità logiche e matematiche e quelle delle scienze naturali, c’è solo il fatto che mentre le scienze
naturali hanno paradigmi in evoluzione e in continuo mutamento, la Matematica e la Logica rappresentano la parte stabile della nostra esperienza del mondo e quindi cambiano più lentamente. Da
questa relativa stabilità perverrebbe l’impressione della ‘verità universale’ che è connessa ai giudizi
matematici.
Le scienze naturali, però, hanno o cercano verifiche empiriche e poi queste stesse verifiche hanno
effetti sulla struttura matematica inglobata nelle scienze naturali. C’è quindi un punto di vista ‘olistico’ che differenzia profondamente l’approccio di Quine da quello di Carnap: per il secondo le
proposizioni matematiche hanno senso in base alla loro analiticità, per il primo, le stesse proposi25 Wittgenstein, L. (2000). Libro blu e Libro marrone. Torino: Einaudi
26 Bagni, G.T. (2006). Linguaggio, Storia e Didattica della Matematica, Bologna: Pitagora Editrice
389
Capitolo 10
Dopo i teoremi di Gödel.
zioni, anche se prive di contenuto empirico (diretto) lo desumono indirettamente dal contenuto empirico delle teorie in cui si applica la Matematica.
La posizione di Quine, seppure con aspetti talora differenti, si trova in sintonia con la concezione
platonista di Gödel.
Una critica (sensata) all’epistemologia naturalizzata è il fatto che essa non ha tenuto debitamente in
conto che talora in Matematica non è il ‘successo’ della disciplina nelle applicazioni a dettarne
completamente le linee di ricerca, ma che hanno importanza anche la ‘curiosità’ e la ‘esigenza di
uniformità’ come fonti di problemi. Quindi ci sono pure cause interne alla Matematica che è difficile o artificioso riallacciare ai contenuti empirici.
10.2.2.4. I problemi del platonismo. I trenta anni successivi ai teoremi di incompletezza si sono caratterizzati per una diffusa concezione platonista, anche se non particolarmente elaborata, forse sotto l’influsso dell’opera di Bourbaki. Ma questa scelta filosofica non è specifica dei matematici. Dice, infatti, Bruner (2005) 27
«spontaneamente tutti quanti siamo ingenui realisti, convinti di sapere non solo quel che c’è “là fuori”, ma anche
che quel che c’è per noi c’è anche per gli altri» (da Bagni, 2006).
Questo atteggiamento lo si ritrova in scritti, anche autobiografici, di vari matematici che parlano di
un sesto senso, una sorta di ‘bernoccolo’ specifico per la matematica 28 che permette una percezione
più stabile e vincolante di quella ottenuta per mezzo dei sensi fisici, di una realtà esterna posta al di
là dello spazio e del tempo.
Secondo questo approccio la Matematica ha come referente un universo di enti che hanno esistenza,
ma non fisicità, del tutto indipendente dal ricercatore. Lo scienziato, nella sua ricerca, mediante attività dimostrative e definitorie, scopre le verità sulle relazioni e natura di tali enti.
Tale approccio viene visto da molti matematici come spontaneo, esso ha, senza dubbio, un pregio di
semplicità che permette grande ‘libertà’. Ma non è esente da possibili critiche. Ad esempio Rorty
(2004) 29 dice che una riflessione più attenta dovrebbe far nascere
«il sospetto che la nostra cosiddetta intuizione riguardo a cos’è il mentale consista in una tendenza a farci ingannare molto facilmente da un gioco linguistico specificamente filosofico» (da Bagni, 2006).
Una critica molto appropriata, in ambito matematico, (riesumata) in Benacerraf (1973), ha come
oggetto la necessità di fornire una descrizione adeguata di questo ‘sesto senso’ che sarebbe una facoltà umana molto simile, ma distinta, dalla percezione sensibile. Lo sviluppo storico della Matematica secondo l’approccio platonista richiede l’acquisizione di un’intuizione sempre più raffinata de27 Bruner, J. (2005). La mente a più dimensioni, Roma-Bari: Laterza.
28 I francesi lo chiamano “bosse”: Dehaene, S. (1996). La Bosse des maths, Paris: Editions Odile Jacob
29 Rorty, R. (2004). La filosofia e lo specchio della natura, Milano: Bompiani.
390
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
gli enti ideali, il che, parzialmente, contrasta con l’idea di Platone di una conoscenza completa ottenuta, in atto, prima della nascita. Un altro problema consiste nel fatto gli enti matematici hanno, in
genere modelli insiemistici molto diversi, violando l’unicità dell’ente ideale, dunque si dovrebbe, in
base al sesto senso individuare la ‘giusta’ realizzazione insiemistica. Ora se questo può essere fatto
per specifiche teorie, Geometria, Aritmetica, già coi numeri reali diviene problematica ed ancora di
più lo è con enti quali i gruppi. L’analisi di Benacerraf mostra che l’identificazione dei numeri naturali con insiemi, proposta da varie teorie fondazionali, non regge e che i numeri si possono considerare solo nomi che non si riferiscono a oggetti, in quanto ciò che conta è sola la struttura astratta
della teoria che tratta i numeri naturali.
La critica di Benacerraf pone quindi due problemi che l’approccio del platonismo (insiemistico) deve risolvere:
1) se gli enti matematici sono insiemi, come suggerisce il platonismo insiemistico, anche i numeri naturali lo sono e questo richiede di individuare quale concetto è quello ‘giusto’, visto
che per Zermelo sono un tipo di insiemi e per Von Neumann un tipo diverso.
2) Come è possibile conoscere gli oggetti matematici, vista la loro natura ideale, non fisica, per
cui i nostri sensi non possono percepirli? Ammessa l’esistenza di tali enti, quale accesso abbiamo ad essi che si postulano indipendenti dalla mente umana? C’è tra gli enti ideali e la
mente umana un nesso causale? La nostra percezione della Matematica è ‘voluta’ dagli enti
stessi?
Una possibile risposta al primo tipo di obiezione di Benacerraf viene da una ‘ripresentazione’ delle
idee di Bourbaki: gli enti matematici non sono caratterizzati né caratterizzabili attraverso i loro elementi, in quanto essi sono dati ‘a meno di isomorfismi’, quindi gli enti ideali sono o descrivono le
strutture. Ciò non risponde alla seconda obiezione, ma sposta solamente il problema dagli insiemi
alle strutture.
I tentativi di soluzione del secondo problema sono stati vari e hanno presentato proposte di tipo costruttivista, empirista, oppure l’intervento di logiche modali. Ma il problema, per chi ha fiducia in
un approccio platonista, non si può dire (oggi) risolto in modo soddisfacente e definitivo.
Come si vede si tratta di un problema ontologico. A questo proposito ci sono correnti che hanno atteggiamenti critici nei confronti di una ‘comoda’ ontologia platonista, in sintonia con posizioni antirealiste sviluppatesi nell’ambito più vasto della filosofia della scienza.
Per questo hanno ripreso vigore tendenze nominaliste che cercano di evitare il riferimento ad enti
che esisterebbero al di fuori della mente umana.
In questa posizione di un certo interesse ‘estetico’ è espressa in Chihara, C.S. (1990). Constructibility and Mathematical Existence, Oxford: Clarendon Press: L’autore sostiene l’idea che gli enti ma391
Capitolo 10
Dopo i teoremi di Gödel.
tematici sono esistenti così come lo sono gli Dei della mitologia. Il fatto di parlare di personaggi
non esistenti, non toglie ad Iliade ed Odissea importanza ed interesse nello sviluppo della cultura
umana. Dice infatti Foucalt 30:
«il sapere non si trova implicato soltanto nelle dimostrazioni, ma può esserlo in testi fantastici, in riflessioni,
racconti, in regolamenti istituzionali, in decisioni politiche» (da Bagni, 2006).
Una ‘reazione’ assai energica ai problemi proposti da Benacerraf si è avuta con Field, H. (1980).
Science without Numbers, Princeton: Princeton Universiy Press, in cui si propone una concezione
delle teorie fisiche tale da evitare i riferimenti ai numeri e ad altri oggetti e tecniche matematiche (ai
qual è riconosciuto solo il ruolo di render più semplici e chiare le deduzioni fisiche).
10.3. Conclusione.
Con gli appunti ho cercato di fornire un quadro di come si sia sviluppata la ricerca dei Fondamenti,
ritenendola non una prerogativa di un certo periodo storico collocato a cavallo di due secoli, ma
come tensione generale dello sviluppo della Matematica: la nostra disciplina accanto alla conoscenza delle cose, dei fatti, si interroga costantemente sulla conoscenza del come (si fa a conoscere).
Tale ricerca non ha avuto un nome, fino alla seconda metà del XIX secolo, ma questo non è sufficiente per dire che non ci si stata.
Lo scritto presenta un gran numero di citazioni di autori vari (alcuni tradotti, per necessità didattiche), ma sono anche date le indicazioni bibliografiche in modo che si possa risalire alla versione originale. I brani sono inseriti in un testo di cui mi prendo la responsabilità integrale, anche se frutto
di frequentazioni, a volte addirittura ‘ricopiature’ di autori per altro indicati esplicitamente. Queste
parti costituiscono, per lo più, le mie interpretazioni degli originali e le mie personali posizioni su
temi così vasti e complessi. Si tratta in ogni caso di espressione di ciò che ho compreso e non ho nessuna velleità che quanto proposto debba essere ritenuta la verità,
lascio al lettore il compito di formarsi le proprie idee, sulla base delle informazioni
ricevute..
Siccome spesso si presentano giudizi sui ‘dati’ e sui ‘fatti’ storici, metto in guardia
Thomas Kuhn
(1922 – 1996)
il lettore che queste parole sono o possono essere fonte di incomprensione. In realtà
è impossibile prescindere dalle osservazioni critiche di Kuhn sul problema della
commensurabilità tra culture e quindi di come si debbano intendere i ‘dati’. Ed anche i ‘fatti’, seppure ritenuti, o pensabili come, qualcosa di indipendente dall’osservatore, rischiano di essere ‘inglobati’ nell’esperienza dell’osservatore stesso come frutto di un’anticipazione. Come si farebbe a
30 Foucault, M. (2005). L’archeologia del sapere, Milano: Rizzoli
392
C. Marchini – Appunti delle lezioni di Fondamenti della Matematica
Anno Accademico 2009/2010
riconoscere la ‘estraneità’ di un fatto se non ci fosse un concetto implicito di fatto atteso? E quale
criterio si dovrebbe usare per ‘normale’ o ‘atteso’?
Il corso si chiama ‘Fondamenti della Matematica’. È un titolo mutuato dalla letteratura inglese:
‘Foundations’. Enriques, però consigliava di chiamare gli argomenti che sono stati qui trattati col
titolo di ‘Critica dei Principi’, come a dire che non si ha nessuna aspirazione sistematizzante, solo
un’indagine approfondita su quanto si assume esplicitamente o implicitamente per
‘imbastire’ la Matematica. Heidegger (2004) 31 sostiene la necessità di:
«evitare di rappresentarsi l’idea di fondazione come se si trattasse di fornire di fondamenta un
edificio compiuto. La fondazione consiste, al contrario, proprio nel progettare il piano di costruzione, in modo che esso indichi,ad un tempo, su che cosa e in che modo la costruzione dovrà essere fondata.» (da Bagni, 2006).
Martin Heidegger
(1889 – 1976)
Lascio il lettore con questa visione aperta a possibili sviluppi di approfondimento
e di ‘miglioramento’ della comprensione dei fenomeni trattati. Lo lascio anche
con una domanda difficile: che rapporti ci sono tra Matematica, Linguaggio e Mente? Insomma,
non solo la Filosofia è l’arte di porre domande, anche in Matematica questa attività mentale è connaturata e rilevante per la stessa disciplina!
31 Heidegger, M. (2004) Kant e il problema della metafisica, Roma-Bari: Laterza
393