Storia e fondamenti della matematica

Transcript

Storia e fondamenti della matematica
Storia e fondamenti della matematica
Antonio Maida
1
Teorie matematiche
L’epistemologia (= discorso sulla conoscenza scientifica, o filosofia della scienza) che si
prefiggeva lo scopo di stabilire i canoni caratterizzanti la conoscenza scientifica rispetto alla
conoscenza in generale era originariamente considerata una disciplina più filosofica che scientifica.
Ha poi assunto sempre di più i connotati di una disciplina scientifica. Temi fondamentali
dell’epistemologia matematica, o più in generale dei fondamenti della matematica, concernono la
natura, l’organizzazione, la metodologia ed i criteri giustificativi della matematica stessa.
Sono considerati enti matematici gli enti oggetto di studio di una qualunque teoria matematica.
Essi sono enti concreti (gli enti linguistici), ed enti astratti (gli insiemi, i numeri, gli enti
geometrici, ecc.). Gli enti sono poi classificabili in individui, relazioni fra individui e funzioni di
individui in individui. Un insieme di individui è un universo.
In riferimento alla natura degli enti astratti sono rilevanti due punti di vista, e cioè il formalismo in
senso stretto che ne nega l’esistenza, ed il contenutismo che viceversa assume tale esistenza.
Per il formalismo il discorso matematico non ha un contenuto poiché verte su se stesso; e dunque la
matematica è un linguaggio. Per il contenutismo invece il discorso matematico ha un contenuto
non identificabile con gli enti linguistici; e dunque la matematica è una scienza. Il contenutismo si
è poi differenziato nel costruttivismo di Leopold Kronecker (1823-1891, Legnica, Polonia)
secondo cui gli enti astratti sono un atto costitutivo della mente umana, e dunque la matematica è
una scienza costitutiva o anche la matematica è una invenzione; e nel platonismo logico di Georg
Cantor (1845-1918, San Pietroburgo, Russia) e Gottlob Frege (1848-1925, Wismar, Germania)
secondo cui invece gli enti astratti non sono un atto costitutivo della mente umana, e dunque la
matematica è una scienza descrittiva o anche la matematica è una scoperta.
In altri termini, il problema è, ad esempio, il confronto fra l’insieme vuoto ed il segno Ø: mentre
per il formalismo l’insieme vuoto è solo il segno Ø, laddove per il costruttivismo l’insieme vuoto
non è il segno Ø ed è una invenzione dell’uomo, per il platonismo infine l’insieme vuoto non è il
segno Ø ed è una scoperta umana.
Il concetto di teoria matematica ha avuto varie interpretazioni. Si è così passati dalle teorie non
assiomatiche (teorie non formali e non assiomatiche), alle teorie semiassiomatiche (teorie non
formali ed assiomatiche), ed infine alle teorie assiomatiche (teorie formali, o sistemi formali). Fino
al 1870 circa tutte le teorie matematiche, tranne la geometria di Euclide, erano concepite, in
un’ottica platonistica, come teorie non assiomatiche, come cioè coppie T=<U,Ver> di un universo
U di enti astratti pensati intuitivamente e di un insieme Ver di enunciati veri in U, descriventi cioè
le proprietà di U. Tali teorie erano non formali in quanto i loro enunciati vertevano su di un
contenuto, l’universo U appunto; ed erano non assiomatiche in quanto il metodo seguito
nell’inferire gli enunciati veri era quello semantico o induttivo, che faceva spesso riferimento ad U.
Il criterio giustificativo era poi l’evidenza di U. Così, gli enunciati dell’Aritmetica descrivevano le
proprietà dell’universo dei numeri naturali, quelli dell’Analisi descrivevano le proprietà
dell’universo dei numeri reali, ecc.
La geometria euclidea era viceversa organizzata semiassiomaticamente. In una teoria
semiassiomatica T=<U,Teor>, partendo da un insieme di segni primitivi individuante il
linguaggio degli enunciati vertenti su U e da un insieme minimo Ax di assiomi, di enunciati cioè
considerati immediatamente veri in U, si definiscono successivamente ulteriori segni, ed applicando
intuitivamente le regole della deduzione si deducono ulteriori enunciati veri in U, i teoremi,
costituenti l’insieme Teor. In tale concezione il metodo utilizzato nell’inferire i teoremi è quello
sintattico o deduttivo, in base al quale il riferimento ad U è solo iniziale, allorquando si stabiliscono
gli assiomi; il criterio giustificativo è quello semantico dell’evidenza dei soli assiomi. Ancora,
mentre nella teorie non assiomatiche il riferimento all’intuizione, o al contenuto, è sempre presente
con tutti i problemi che ciò puó comportare, nelle teorie semiassiomatiche viceversa tale riferimento
è presente, almeno in linea di principio, solo inizialmente allorquando si stabiliscono gli assiomi. Si
osservi che una teoria concepita semiassiomaticamente è comunque una teoria non formale, avendo
essa un contenuto, l’universo U appunto.
Il fascino di GE fece scaturire l’esigenza, non appena si risolse il millenario problema delle
parallele, di riformulare semiassiomaticamente le varie teorie non assiomatiche. Tale processo era
fondato sulla convinzione, che sembrava plausibile ma che si rivelò errata nel 1931 col teorema di
incompletezza di Kurt Gödel (1906-1978, Brno, Cecoslovacchia), che fosse possibile riorganizzare
semiassiomaticamente le varie teorie in modo da aversi Ver=Teor. Che fosse cioè possibile
individuare un numero minimo di assiomi in modo tale che i teoremi da essi inferibili fossero tutti e
soli gli enunciati veri nell’universo U che la T pretendeva di descrivere. Tale problema di
completezza sintattica degli assiomi fu posto per la prima volta da Hilbert agli inizi del '900.
Per altri aspetti, l’utilizzo sempre maggiore a livello intuitivo nelle teorie semi assiomatiche di
nozioni logiche ed insiemistiche fece scaturire l’altra esigenza di considerare a se stanti e una logica
e una teoria degli insiemi.
La logica è una particolarissima teoria. Fra gli enunciati veri di una teoria vi sono quelli la cui
verità dipende solo dalla loro struttura interna o schema, e non piuttosto dall’universo che la teoria
vuol descrivere. Essi sono quelli logicamente veri, veri cioè in ogni possibile universo, e lo studio
di tali enunciati è appunto la Logica che, organizzata oggi come teoria assiomatica fondata su
assiomi logici e regole di dimostrazione, costituisce lo studio del metodo deduttivo stesso.
Nell’ottica delle considerazioni fatte vanno inquadrate la logica F di Frege e la teoria degli insiemi
C di Cantor sorte intorno al 1870, gli assiomi di Hilbert del 1899 costituenti una assiomatizzazione
più completa di GE, ed il sistema P dei postulati di Giuseppe Peano (1858-1932, Cuneo) e
Dedekind del 1901, che è la prima versione semiassiomatica dell’aritmetica.
L’assiomatica euclidea era fondata sul criterio dell’evidenza degli assiomi, della conoscenza cioè
di un modello dei medesimi. La scoperta col modello di Klein del 1872 delle geometrie non
euclidee, legata alla già citata soluzione del problema delle parallele, mise in rilievo l’arbitrarietà
del criterio dell’evidenza. Esso fu sostituito nell’assiomatica moderna dal criterio della coerenza,
dell’inesistenza cioè di antinomie derivabili dagli assiomi.
La scelta del criterio della coerenza fu motivata da vari fattori. Anzitutto l’incoerenza di una teoria
assiomatica implica, da una parte l’inesistenza di un suo modello per cui i suoi enunciati vertono su
nulla, da un’altra parte la sua banalizzazione completa poiché in una teoria incoerente è
dimostrabile tutto. In secondo luogo la coerenza equivale comunque all’esistenza di un modello
anche se recondito.
Il cambiamento della concezione di assiomatica fece perciò sorgere nell’ambito dei fondamenti,
oltre al già citato problema della completezza, quello della coerenza delle teorie riformulate
semiassiomaticamente. Il riduzionismo ottocentesco si rivelò inefficace nella soluzione di tali
problemi. Si ritenne perciò opportuno riformulare le teorie non formali sotto la forma di teorie
assiomatiche nel senso di Hilbert. Nelle teorie così concepite che adottano un linguaggio
completamente artificiale scompare completamente il riferimento iniziale ad un contenuto; caso
mai, il fattore semantico è successivo. Le prime teorie assiomatiche degli insiemi, quella ZF di
Zermelo (1871-1953, Berlino) e Fraenkel (1891-1965, Monaco, Germania), e quella NBG di von
Neumann (1903-1957, Budapest), Bernays (1888-1977, Londra) e Gödel, ed il sistema formale S
dell’aritmetica elementare datano dal 1908 in poi.
Lo studio di una teoria assiomatica T, ne è la metateoria MT. Essa si articola in morfologia di T
nella quale si individua il linguaggio di T, sintassi di T nella quale si stabiliscono gli assiomi di T e
se ne deducono quindi i teoremi, semantica di T nella quale si stabiliscono gli enunciati veri di T,
quegli enunciati cioè veri in ogni modello di T, in ogni universo cioè nel quale sono veri gli assiomi
di T, e logica di T che confronta sintassi e semantica.
L’aggiunta, in una teoria con assiomi, di un nuovo assioma A ad un sistema precedente H di
assiomi deve comportare la verifica dell’indipendenza e della compatibilità di A con H. Devono
dunque coesistere, e un modello di H e non di A, e un modello di H e di A.
L’introduzione in una teoria con assiomi di termini definiti è regolamentata dai canoni della teoria
della definizione secondo i quali la definizione di un termine k è una equivalenza A⇔B fra due
enunciati (A=definiens, B=definiendum) che sia non circolare (eliminabilità di K) nel senso che
K occorra in A e non in B, e non creativa nel senso che la sua introduzione non modifichi la teoria.
I concetti di identità ed uguaglianza non sono sovrapponibili. L’identità fra cose è un concetto
generale. Due cose a e b identiche sono indistinguibili e quindi sostituibili in ogni contesto. Ne
deriva che ogni cosa è identica solo a se stessa.
L’uguaglianza fra individui sia essa primitiva o definita è invece presente nelle teorie
matematiche; ed in ogni caso essa deve verificare i due requisiti fondamentali di Leibniz della
riflessività e della sostitutività, che la caratterizzano rispetto all’equivalenza in generale. E dunque,
due individui a e b uguali in una T devono essere indistinguibili e quindi sostituibili, non
necessariamente in ogni contesto, ma in ogni contesto di T; in altri termini, non deve esistere un
enunciato di T valido per a e non per b.
2.
Il problema delle parallele
La geometria euclidea GE era fondata sui cinque postulati:
I.
È sempre possibile congiungere due punti.
II.
È sempre possibile prolungare un segmento.
III.
È sempre possibile tracciare una circonferenza di assegnati centro e raggio.
IV.
Tutti gli angoli retti sono uguali.
V.
Se due rette formano dalla stessa parte di una trasversale due angoli α e β tali che
α+β <π, esse si incontrano allora dalla stessa parte.
Si deve a Proclo (411-485, Costantinopoli) la prova dell’equivalenza fra il postulato V delle
parallele e l’unicità della parallela per un punto ad una retta. L’esistenza di tale parallela deriva
però dai primi quattro postulati.
La geometria iperbolica GI, primo tipo di geometria non euclidea, è invece fondata sui primi
quattro postulati euclidei e sulla negazione ⎤V del postulato.
È necessaria la seguente premessa. Una interpretazione geometrica è una terna M=<P,R,∈> di un
insieme P di punti, un insieme R di rette ed una relazione binaria ∈ di appartenenza fra punti e
rette. Se in M sono veri i postulati di GE o quelli di GI, allora l’interpretazione M è rispettivamente
un modello euclideo o un modello iperbolico.
Per ovvi motivi il postulato apparve subito il meno evidente. Si giustificano quindi i numerosi
tentativi fatti nel corso dei secoli per provarne la dipendenza; per provare cioè che ⎨I,II,III,IV⎬⇒V o
che, ancora, non esistono modelli iperbolici. In ciò consisteva il problema delle parallele. Il
problema era reale poiché si era consci della circolarità delle numerose dimostrazioni nelle quali, in
una visione tolemaica della geometria, si cercava piuttosto una riformulazione più evidente del
postulato. Occorreva dunque, nel tentativo di risolvere il problema, trovare un’altra via.
Il primo tentativo in tal senso fu quello operato dal padre gesuita ligure Girolamo Saccheri (16671733, San Remo), professore di matematica e filosofia alle Università di Torino e Pavia, e fra
l’altro logico esperto. Il suo Euclides vindicatus del 1733, dimenticato per un secolo e mezzo e
riscoperto nel 1889 da Eugenio Beltrami (1835-1899, Cremona), lo fa ritenere il vero fondatore
della GI ed un precursore della teoria della relatività. Nell’Euclides il Saccheri, fortemente convinto
della validità del postulato, si prefisse lo scopo di provare ⎨I,II,III,IV,⎤V⎬⇒V. Ciò, per proprietà
logiche a lui note, avrebbe comportato ⎨I,II,III,IV⎬⇒V, e quindi la dipendenza. L’originalità in
siffatta impostazione consisteva nel voler provare la validità di una proposizione a partire dalla sua
negazione; e non piuttosto nel ricercare, come in precedenza, formulazioni più evidenti del
postulato. In tale GI il Saccheri, pur non raggiungendo lo scopo, provò una serie di teoremi l’ultimo
dei quali però, poiché ripugnante alla natura della linea retta, lo bloccò. E la ferma convinzione
della validità del postulato non gli fece sorgere il sospetto di aver scoperto un nuova geometria.
Ci riprovò nel 1830 Nikolay Lobachevskij (1792-1856, Gorky, Russia), ignaro dell’Euclides e
meno convinto della validità del postulato, il cui obiettivo era quello di provare l’esistenza di un
enunciato P di GI tale che ⎨I,II,III,IV,⎤V⎬⇒⎨P,⎤P⎬. Ciò avrebbe ancora comportato la dipendenza.
Neanche il Lobachevsky raggiunse l’obiettivo; ed anche lui provò una serie di teoremi, molti dei
quali già presenti nell’Euclides. Tuttavia, diversamente dal Saccheri, non si lasciò bloccare da
proprietà strane, e si rese probabilmente conto di aver costruito una nuova geometria.
Una prima legittimazione di GI si ebbe nel 1868 ad opera del Beltrami che trovò un modello
parziale di GI dentro GE. La piena legittimazione e la soluzione definitiva del problema si ebbero
invece nel 1872 con la scoperta ad opera di Felix Klein (1849-1925, Düsseldorf, Germania) del
seguente modello di Klein: si consideri il modello U=<P,R,∈> nel quale P è l’insieme dei punti
interni ad una conica euclidea, R è l’insieme delle corde, ed ∈ è la solita relazione di appartenenza.
Si verifica facilmente che U è un modello di GI.
Poiché il modello di Klein costituisce un modello di GI dentro GE, ne deriva, in primo luogo, che
se GE ha effettivamente un modello lo ha allora anche GI; o che, in altri termini, se GE è coerente
lo è allora anche GI; tale scoperta delle geometrie non euclidee legittima completamente la GI, e fa
risaltare l’arbitrarietà del vecchio criterio della evidenza degli assiomi. In secondo luogo, ne deriva
ovviamente che se GE è coerente allora il postulato delle parallele è indipendente dai rimanenti
postulati euclidei; ciò risolve in modo definitivo il problema delle parallele. È da sottolineare
l’importanza degli studi di Klein il quale nel 1872 con le sue lezioni all’Università di Erlangen
sbalordì il mondo matematico presentando nel programma di Erlangen una trattazione unitaria
delle tre geometrie fondata su proprietà invarianti per gruppi di trasformazioni.
Per completezza, si fa presente che il 1867 segna la nascita ad opera di Georg Riemann (18261866, Hannover) di un altro tipo di geometria non euclidea, quella ellittica nella quale,
modificando opportunamente alcuni presupposti della geometria euclidea, è possibile che per un
punto non passi nessuna parallela ad una retta. Si indicherà indifferentemente con GNE e la
geometria iperbolica e quella ellittica.
3. Il Cantorismo
Il metodo utilizzato inizialmente per provare la coerenza delle varie teorie più o meno
assiomatizzate era quello riduttivo, consistente nel trovare una teoria base che, oltre ad essere
coerente, fosse anche adeguata, nel senso che vi si potessero fondare le varie teorie. Nella seconda
metà dell’800 era in auge il riduzionismo dell’analisi, che aveva permesso di ridurre l’analisi reale
all’aritmetica. D’altronde, la riduzione dell’analisi complessa a quella reale, della geometria
euclidea all’analisi complessa col metodo cartesiano, e della geometria non euclidea a quella
euclidea col modello di Klein, legittimava la scelta dell’aritmetica come teoria base. Non a caso
quindi, alla fine dell’800 Peano assiomatizzò l’aritmetica. Tale scelta non convinse però alcuni
matematici. Anche perché v’era nell’aritmetica un assioma poco indagabile, quello dell’infinito. Fra
l’altro, per un corollario del teorema di incompletezza di Gödel, era impossibile provarne la
coerenza coi metodi ritenuti sicuri da Hilbert. In particolare, la teoria base di Cantor fu la teoria
degli insiemi (cantorismo), mentre la teoria base di Frege fu la logica (logicismo).
Il primo tentativo di formulare una teoria degli insiemi fu dunque operato da Cantor fortemente
convinto che la sua teoria semiassiomatica C, sicuramente adeguata, fosse anche coerente e potesse
dunque costituire un buon fondamento della matematica. Come è noto, tale convinzione cadde non
appena, nel 1902, Bertrand Russell (1872-1970, Ravenscroft, Wales) scoprì all’interno del
sistema F della logica di Frege il famoso paradosso che Cantor stesso ricostruì in C. La C non
poteva dunque costituire un fondamento della matematica! La scoperta dei paradossi in C non mise
però in crisi i cantoristi i quali cercarono di costruire delle teorie degli insiemi che costituissero un
buon fondamento della matematica. Nacquero così, a partire dal 1908, le teorie assiomatiche degli
insiemi ZF ed NBG, laddove la C fu detta teoria ingenua. Tali teorie sono sufficientemente
adeguate ed inoltre, pur non essendo dimostrabile, per Gödel, la loro coerenza con metodi finitistici,
è però verificabile che in esse non sono ripetibili le stesse derivazioni dei paradossi fatte in C.
Per analizzare le analogie e le differenze fra C, ZF ed NBG, occorre, anche qui, premettere quanto
segue. Una interpretazione insiemistica è una coppia M=<U,∈> di un universo U di classi e di una
relazione binaria ∈ di appartenenza fra classi. Se a∈b, si dirà anche che a è un elemento di b. Una
classe a è un insieme, Ma, se è elemento di qualche classe, è una classe propria, Pra, altrimenti.
Due classi a e b diconsi uguali (a=b) se hanno gli stessi elementi, diconsi equivalenti (a≡b) se sono
elementi delle stesse classi. Una classe a è vuota,Va, se è priva di elementi, è totale, Ta, se vi
appartengono tutti gli insiemi, è una classe di Russell, Ra, se è costituita dagli insiemi non
singolari (cioè, non elementi di se stessi) . Una collezione X di classi è definita se esiste la classe
aX delle classi della collezione. Ogni collezione definita è sicuramente una collezione di insiemi.
Sono ovvie le seguenti proprietà logiche:
a)
(Pra,Prb)⇒a≡b (a≡b,Ma) ⇒Mb (Va,Vb) ⇒a=b (Ra,Rb) ⇒a=b (Ta,Tb) ⇒a=b.
b) Ra⇒Pra.
c)
Esistono collezioni non definite.
d) Se è definita ogni collezione di insiemi esistono allora classi proprie.
Se esistono, 0, C e V saranno la classe vuota, la classe di Russell e la classe totale.
Si dice che l’interpretazione M è un modello insiemistico se in essa vale il seguente l’assioma di
estensione (AxE): a=b⇒a≡b. Gli assiomi logici sono ovviamente veri in ogni interpretazione; e
d’altronde l’AxE è indipendente e compatibile con gli stessi, come si evince dalle due seguenti
interpretazioni:
U=⎨a,b,c⎬=U’ ∈=⎨aa, ba, ca, ab, bb, cb, ac⎬
∈’=⎨aa, ba, ca, ab, bb, cb, ac, bc⎬.
In entrambe a=b è l’unica uguaglianza non banale. Però, mentre <U,∈> non è un modello
insiemistico non essendo a≡b, lo è viceversa <U’,∈’> essendo a≡b. Nelle due interpretazioni non vi
sono poi classi proprie né classi di Russell, vi è l’insieme totale a=b. Non è dunque problematica
l’esistenza di un insieme totale.
Le teorie C, ZF ed NBG hanno in comune i concetti primitivi di classe ed appartenenza, la
definizione di uguaglianza, e l’AxE; esse pretendono dunque di descrivere modelli insiemistici. Si
osservi ancora che la legittimità e necessarietà dell’AxE scaturiscono, e dalla sua indipendenza e
compatibilità, e dall’esigenza che l’uguaglianza definita soddisfi le sue note proprietà (riflessività e
sostitutività), ed infine dall’ulteriore esigenza che i due modi possibili per definire la stessa in
termini di appartenenza coincidano.
La teoria C di Cantor assunse ulteriormente che fosse definita ogni collezione di classi, postulando
l’assioma di comprensione (AxC) sotto la forma
ogni proprietà Px definisce una classe
la classe cioè ⎨x/Px⎬ delle classi per le quali è vera la proprietà Px. In particolare, per ogni classe X,
esisterà la classe ⎨x/x=X⎬ il cui unico elemento sarà X; in un modello dell’AxC non esisterebbero
allora classi proprie. Esisterebbero invece, e insiemi piccoli, e insiemi grandi quali C e V. Sui due
assiomi AxE e AxC Cantor fondò la C e su quest’ultima, gran parte della matematica. Sembrava
perciò che, al di là delle critiche del Kronecker, il problema dei fondamenti fosse risolto. La C è
infatti adeguata e secondo Cantor era coerente. In base all’AxC però, Cantor pretendeva di
descrivere un modello inesistente per la proprietà logica c). In ciò consiste in sostanza il paradosso
di Russell.
In ZF invece manca l’AxC, ed al suo posto vi sono, oltre all’AxE, altri sei assiomi il cui scopo è
quello di descrivere modelli nei quali siano definite particolari collezioni, in particolari quelli
generanti classi piccole per cardinalità, corrispondenti dunque agli insiemi piccoli di Cantor.
Quindi, non ogni proprietà definisce una classe, ma vi sono viceversa proprietà che definiscono
classi e proprietà che non definiscono nulla. D’altronde, poiché si prova in ZF che per ogni classe X
esiste la classe ⎨X⎬ il cui unico elemento è X, ne deriva che ZF vuol descrivere modelli di soli
insiemi. Nessuno ha provato se dagli assiomi di ZF scaturisca l’esistenza della classe C; se ciò
accadesse, anche ZF risulterebbe incoerente e non avrebbe modelli.
In NBG si assume infine, oltre all’AxE, che sia definita ogni collezione di insiemi. L’AxC è
perciò espresso sotto la forma
ogni proprietà Px definisce una classe di insiemi
la classe cioè ⎨x/(Mx e Px)⎬ degli insiemi per i quali è vera la proprietà Px. I successivi assiomi di
NBG riguardano poi gli insiemi e stabiliscono quali collezioni generino insiemi, corrispondenti agli
insiemi piccoli di Cantor. Quelle collezioni generanti classi proprie corrisponderebbero poi agli
insiemi grandi di Cantor. In NBG esiste C che, essendo una classe propria, non sembra generare il
paradosso di Russell.
Nonostante tutto l’edificio cantoriano rimane in piedi. La teoria dei numeri cardinali risolse quei
problemi dell’infinito attuale sui quali Galilei si era mosso cautamente. La scoperta di infiniti
infiniti non confrontabili sconcertò probabilmente lo stesso Cantor, il quale, di famiglia ebrea però
cattolico battezzato, si sentì in dovere di recarsi alla fine del 1800 in Vaticano per essere sicuro che
le sue ricerche non contrastassero cogli insegnamenti della Chiesa. Fu nominata una commissione
di cardinali che dopo un po’ di tempo concluse che, pur non essendoci problemi, sarebbe però stato
opportuno non parlare di infiniti. Cantor usò allora l’aggettivo transfiniti. I matematici posteriori li
chiamarono invece ironicamente cardinali.
Si deve a Cantor la prova della numerabilità dei razionali, operata con la diagonalizzazione:
1/1
1/2
1/3
2/1 3/1
4/1 5/1
2/2 3/2
2/3 3/3
6/1 7/1
4/2 5/2
4/3 5/3
...
6/2 7/2...
6/3 7/3...
Cantor prova anche che l’insieme dei reali non è numerabile; se viceversa lo fosse lo sarebbe allora
anche l’intervallo ]0,1[. Sia f la relativa bigezione, e sia fm(n) l’m-esima cifra decimale di f(n). Si
consideri quel numero h∈]0,1[ la cui n-esima cifra decimale sia fn(n)+1. Poiché codf=]0,1[, allora
h∈codf , e dunque, per qualche m, h=f(m). Ciò è palesemente assurdo perché l’m-esima cifra di
f(m) è fm(m), mentre quella di h è fm(m)+1.
4.Il Logicismo
Il punto di vista di Frege caposcuola dei logicisti, nella sua opera Ideografia pubblicata nel 1879, è
che l’unico fondamento possibile della matematica debba essere la logica, l’unica scienza a priori.
La stessa, in quanto studio sistematico del discorso, deve esprimersi sotto forma di sistema formale
per evitare confusioni metalinguistiche. La nozione di sistema formale sarà meglio specificata da
Hilbert. Nella sua opera Frege sviluppa la logica delle relazioni al cui interno ricostruisce gran parte
della matematica. Tuttavia al sistema F di Frege vennero mosse due ordini di obiezioni. Di fatto, in
esso si ricostruiva l’aritmetica non sulla sola logica, ma anche su un parziale utilizzo della teoria
degli insiemi. In secondo luogo tale riduzione è resa possibile ponendo un principio equivalente
all’assioma di comprensione di Cantor; e proprio tale principio consente a Russell di derivare in F il
noto paradosso. Fu lo stesso Russell che, rimanendo nello spirito del logicismo, tentò di porre
rimedio alle difficoltà sorte. Il risultato furono i Principia matematica scritti nei primi del ’900. Per
quanto riguarda il problema riduzionistico, Russell ridusse la teoria degli insiemi alla logica (Teoria
generale delle classi). Per quanto riguarda invece l’inconsistenza di F, Russell costruì la Teoria dei
tipi ed impose al principio di comprensione il rispetto della gerarchia dei tipi: vi sono insiemi di tipo
zero, insiemi di tipo uno (con soli elementi di tipo zero), insiemi di tipo due (con soli elementi di
tipo uno), ecc. Il principio di comprensione postulava allora che ogni proprietà definisce un
insieme di insiemi dello stesso tipo. Per esempio: 1, 2, 3 sono di tipo zero; ⎨1, 2⎬ è di tipo uno;
⎨⎨1,2⎬, ⎨3⎬⎬ è di tipo due. Tale formulazione rendeva però problematica l’esistenza di molti insiemi,
quale addirittura l’insieme dei naturali; per cui diveniva impossibile ridurre l’aritmetica alla teoria
degli insiemi. Allo scopo, si osservi che in una tale riduzione 0= Ø, 1=⎨0⎬, 2=⎨0,1⎬. L’insieme 2 è
dunque inesistente poiché è un insieme misto, avente cioè elementi di tipo diverso. Russell si vide
allora costretto a mettere fra i suoi assiomi quello dell’infinito che postula l’esistenza di almeno un
insieme infinito. Le critiche contro tale assioma furono però ben più aspre di quanto lo stesso
Russell immaginasse. Da una parte infatti, si travisava lo spirito del riduzionismo dell’aritmetica
fortemente motivato dall’esigenza di evitare un tale assioma poco indagabile. Da un’altra parte,
l’introduzione di un tale assioma nella logica ne mutava l’essenza: si ricordi che per Leibniz una
legge logica deve essere vera in ogni mondo possibile; l’assioma in oggetto è invece vero solo nei
mondi finiti. Gli sforzi successivi, tendenti al potenziamento dell’assioma di comprensione si’ da
rendere superfluo quello dell’infinito, hanno sempre trovato un limite invalicabile nelle antinomie.
5
Il programma di Hilbert
Le maggiori critiche al cantorismo furono mosse da Kronecker, fondatore del costruttivismo,
secondo il quale l’uso indiscriminato dell’infinito attuale e non piuttosto potenziale, del principio
del terzo escluso, di enti non costruibili, rendeva problematica la matematica cantoriana. Si osservi
ad esempio che, nella matematica classica, non costruttiva, l’esistenza di un oggetto è intesa nel
senso che l’inesistenza sarebbe un’affermazione falsa. Essa non implica dunque la esibibilità o
costruibilità del medesimo.
I concetti fondamentali della matematica costruttiva saranno introdotti nel seguito, e saranno
formalizzati nella Teoria degli algoritmi. La rifondazione su basi costruttive della matematica era
problematica. D’altronde si ritenevano fondate, paradossi a parte, le critiche dei costruttivisti nei
riguardi della matematica cantoriana.
L’esigenza di David Hilbert (1862-1943, Könisberg, Russia) era quella di salvare la matematica
cantoriana dalle critiche di Kronecker. Il suo programma parte da una netta distinzione fra la teoria
oggetto di studio, nella fattispecie il sistema formale S dell’aritmetica elementare fondato sugli
assiomi di Peano ed altamente non costruttivo poiché coinvolgente l’infinito attuale, e la sua
metateoria MS. Ciò avviene esprimendo S sotto la forma di teoria formale ed MS sotto la forma di
teoria non formale. Il problema era quello di provare la coerenza di S, di provare cioè in MS con
metodi non riduttivi il metaenunciato non esiste una formula di S dimostrabile assieme alla sua
negazione. L’affidabilità di una tale prova sarà poi fondata sull’affidabilità dei metodi dimostrativi
adottati in MS. Tali metodi assoluti, chiamati da Hilbert metodi finitistici, dovevano essere quelli
tipici della matematica costruttiva di Kronecker. E dunque, mentre per Cantor la S era infinitistica
laddove per Kronecker la S era finitistica, per Hilbert invece la S era infinitistica mentre la MS
doveva essere finitistica. Hilbert non chiarì mai i punti del suo programma. Probabilmente pensava
che, poiché la teoria oggetto usava un linguaggio formale ed i suoi teoremi divenivano quindi
particolari sequenze di formule derivabili le une dalle altre mediante determinate regole, sarebbe
stato possibile caratterizzare tali teoremi con un numero finito di proprietà, ed inferire infine che le
negazioni dei teoremi non potevano essere teoremi. Per siffatto formalismo la matematica diviene,
almeno nell’atto giustificativo, priva di contenuto. Non è più una scienza descrittiva che isola gli
enti esistenti indipendentemente dal linguaggio e dall’uomo, né è una scienza costitutiva che
considera gli enti direttamente costituiti dall’uomo. D’altronde, se si vuol procedere correttamente,
nell’atto giustificativo di una data teoria occorre prescindere da un qualunque significato esterno dei
segni che si manipolano.
Nei primi del ’900 Hilbert sollevò alcuni quesiti (problemi di Hilbert) uno dei quali riguardava,
come si è osservato, la completezza o per lo meno la completabilità di S. Si ricordi che dire che S è
completa significa dire che non esistono sue formule vere nel modello intuitivo ω dei numeri
naturali (modello standard) epperò non derivabili dagli assiomi di S; che cioè, non esistono formule
chiuse ed indecidibili, non dimostrabili cioè né refutabili. Gli rispose negativamente Gödel nel
1931 col teorema di incompletezza, in base al quale se S è coerente allora S è incompleta; anzi, S
è essenzialmente incompleta. In pratica, se S è coerente, esiste allora in S una formula chiusa
indecidibile che, quand’anche fosse aggiunta agli assiomi, non completerebbe S; non è dunque
possibile completare S aggiungendovi un assioma per volta. Dal suo teorema di incompletezza
Gödel ricavò poi il famoso corollario che vanificò il programma di Hilbert. In base ad esso, non è
neanche possibile provare la coerenza di una teoria T adottando nella sua metateoria metodi
dimostrativi formalizzabili nella stessa T; metodi dimostrativi cioè, la cui potenza sia minore od
uguale a quella dei metodi adottati in T; tali erano invece i metodi finitistici pretesi da Hilbert. Cioè,
per provare la coerenza di S occorre uscire da S. Ancora, l’infinito non è giustificabile col finito.
Il teorema di incompletezza è generalizzabile; è infatti valido in tutti i sistemi formali che siano
assiomatici, i cui assiomi siano cioè decidibili, e sufficientemente potenti, sui quali cioè sia
ricostruibile l’aritmetica elementare S. Poiché le teorie assiomatiche degli insiemi ZF ed NBG
verificano tali condizioni, allora anche per esse è valido il teorema.
Le conseguenze del teorema di Gödel sono scioccanti. Da una parte viene vanificata la presunzione
di provare la coerenza delle teorie fondamentali della matematica con metodi ritenuti sicuri, a
tutt’oggi non noti. Per cui, tale coerenza è, e lo sarà fino a prova contraria, solo un atto di fede. Da
un’altra parte esso mina alla base la stessa concezione odierna di assiomatica. Infatti, le sue due
esigenze fondamentali, la coerenza e la completezza, sono inconciliabili.
6. I postulati di Peano
La sistemazione dei fondamenti dell'analisi nell'ottocento aveva seguito due linee di sviluppo. La
prima, con Weierstrass, Cauchy e Peano, mirava alla precisazione dei concetti fondamentali; la
seconda, con Cantor e Dedekind, aveva invece ridotto l'analisi all'aritmetica. Quest’ultima, si mosse
in due direzioni; la prima si dedicò all'assiomatizzazione della nozione di numero intero (aritmetica
classica; Dedekind,1888, e Peano, 1889); la seconda, perseguita da Dedekind, Frege e Russell,
cercò di ridurre ulteriormente l'aritmetica alla logica.
La prima versione semiassiomatica dell’aritmetica, il sistema P dell’aritmetica classica o dei
postulati di Peano-Dedekind, presuppone l’esistenza dell’insieme infinito ω dei numeri naturali,
che, assumendo come primitivi i concetti di numero naturale, zero e successore, soddisfi le
proprietà seguenti, nelle quali M è un qualunque sottoinsieme non vuoto di ω:
P1:
P2:
P3:
P4:
P5:
0∈ω.
n∈ω⇒n’∈ω.
(∀n∈ω)(n’≠0).
n’=m’⇒n=m.
(0∈M, n∈M⇒n’∈M)⇒M=ω.
(n’ è il successore di n)
(il successore è ingettiva)
In realtà, nelle versioni originali di Dedekind e Peano, i naturali iniziavano da 1. L’assioma P5, è
l’assioma di induzione; da esso consegue la proprietà dell’induzione completa:
(∀n∈ω)(⎨0,1, n-1⎬⊂M⇒ n∈M) ⇒(M=ω).
Nel 1902 Alessandro Padoa notò che formulando P3 nella forma (∃x∀n∈ω)(n’≠x) si può
dimostrare l'unicità di x e definire dunque 0; in tal modo le nozioni primitive si riducono a numero
e successore e gli assiomi a quattro. Mario Pieri provò nel 1908 che l'assioma di induzione si può
rimpiazzare con ∃minM.
I postulati di Peano, assieme ad una parte della teoria degli insiemi, consentono di sviluppare
l’aritmetica e l’analisi reale e complessa. Tuttavia essi sono espressi in termini di concetti intuitivi,
e ciò non consente di considerare P come un sistema correttamente formalizzato. Dedekind tentò di
determinare l'insieme dei numeri in maniera assoluta, definendoli nella logica, ma con scarso
successo: in particolare, senza riuscire a fare a meno dell'assioma dell'infinito , che in un primo
tempo egli aveva creduto di poter dimostrare con un appello all'insieme delle possibili idee. Peano
rimase sempre scettico su questi tentativi. Oggi le definizioni di Dedekind e Frege vengono soltanto
considerate come costruzioni di modelli dell'aritmetica nella teoria degli insiemi, e non come
spiegazioni del concetto di numero in termini logici. Per la costruzione di modelli dell'aritmetica
nella teoria delle funzioni che sta alla base dell'informatica, il cosiddetto lambda calcolo , si usa
invece una definizione che Peano diede nel 1891: il numero n è l'operatore che itera n volte una data
funzione su un dato argomento.
Per quanto riguarda l'assioma di induzione, oggi si preferisce riformularlo al prim'ordine, e
interpretarlo dunque come uno schema di infiniti assiomi, uno per ogni insieme di numeri definibile
nel linguaggio. In questo caso bisogna introdurre esplicitamente somma e prodotto, che nella
versione del second'ordine sono invece definibili per induzione. La formulazione del prim'ordine
cessa però di essere categorica, e permette dunque l'esistenza di strutture che soddisfano tutti gli
assiomi, ma non sono isomorfe fra loro. Questo non è comunque un difetto dell'assiomatizzazione
di Peano, ma della logica del prim'ordine.