Macchine calcolatrici e intelligenza (Turing 1950)

Transcript

Macchine calcolatrici e intelligenza (Turing 1950)
Macchine calcolatrici e
intelligenza (Turing 1950)
Al
Alan
T
Turing
i
`
Turing (1950), “Macchine
calcolatrici e intelligenza
intelligenza”.
`
in La filosofia degli automi: origini
dell’intelligenza artificiale, a cura
di Vittorio Somenzi e Roberto
Cordeschi, pp. 167-193
((Disponibile
p
in Biblioteca))
T i
Turing
1950
`
Mi propongo di considerare
id
la
l domanda:
d
d “Possono
“P
pensare le macchine?”
`
Si dovrebbe cominciare col definire il significato dei
termini “macchina”
macchina e “pensare”
pensare .
`
Le definizioni p
potrebbero essere formulate in modo da
riflettere il più possibile l’uso normale delle parole, ma
questo atteggiamento
q
gg
è pericoloso.
p
`
Invece di tentare una definizione di questo tipo sostituirò
la domanda con un’altra, che le è strettamente analoga e
che è espressa in termini non troppo ambigui
Il gioco
i
dell’imitazione
d ll’i it i
`
`
La nuova forma del p
problema ppuò essere descritta nei
termini di un gioco, che chiameremo “il gioco
dell’imitazione”
(Passato alla storia anche con il nome di Test di Turing)
Il gioco
i
dell’imitazione
d ll’i it i
`
`
`
Il gioco viene giocato da tre persone,
un uomo, una donna, e un interrogante,
che può essere dell’uno o dell’altro
sesso.
L’interrogante (C) viene chiuso in una
stanza, separato dagli altri due, e non sa
dove sta l’uomo e dove sta la donna
Scopo del gioco per ll’interrogante
interrogante è
quello di determinare quale sia l’uomo
e quale
l sia
i lla d
donna.
Il gioco
i
dell’imitazione
d ll’i it i
`
L interrogante può fare domande
L’interrogante
di questo tipo ad A e B: “Vuol
dirmi X,
X per favore,
favore se ha la
barba?”.
Il gioco
i
dell’imitazione
d ll’i it i
macchina in
incognito!
`
`
`
Poniamo ora la domanda “Che
cosa accadrà se una macchina
prenderà il posto di A nel
gioco?
gioco?”
L’interrogante darà una risposta
errata altrettanto spesso di
quando il gioco viene giocato tra
un uomo e una donna?
Queste domande sostituiscono
quella originale: “le macchine
possono pensare?”
C
Capacità
ità fi
fisiche
i h e intellettuali
i t ll tt li
`
Il nuovo problema ha il vantaggio di tirare una linea di
separazione abbastanza netta tra le capacità fisiche e
quelle intellettuali di un uomo.
uomo
U possibile
Un
ibil dialogo
di l
`
`
`
`
`
`
`
`
Domanda:
D
d Mi scriva,
i per favore,
f
un sonetto
tt sull ttema d
dell ponte
t
sul Forth.
Risposta: Non faccia
f
affidamento
ff
su di me per questo. Non ho
mai saputo scrivere poesie.
D: Sommi 34957 a 70764
R: (p
(pausa di circa trenta secondi e ppoi, come risposta):
p
) 105621.
D: Gioca a scacchi?
R: Sì.
Sì
D: Ho il Re in e1 e nessun altro pezzo. Lei ha solo il Re in c3 e
una Torre in h8.
h8 Tocca a lei
lei. Che mossa fa?
R: (dopo una pausa di quindici secondi): Torre in h1, scacco matto
Rif
Riformulazione
l i
della
d ll domanda
d
d iniziale
i i i l
Domanda iniziale:
` Possono pensare le macchine?
Riformulazione:
` Che cosa accadrà se una macchina prenderà il posto di A
nel gioco? È possibile che una macchina riesca a vincere il
gioco dell’imitazione?
` Q
Questa domanda è ppiù pprecisa della pprecedente,, pperché
l’attività “pensare” è stata rimpiazzata con un’attività ben
più chiaramente definita
` Le macchine a cui Turing si riferisce sono, ovviamente,
MdT (chiamate anche ‘macchine
macchine a stati discreti
discreti’)).
C
Cosa
pensa Turing
T i
all proposito
it
`
`
Sarà più semplice per il lettore che io spieghi in primo
luogo le mie opinioni in materia.
materia
Credo che entro circa cinquant’anni sarà possibile
programmare calcolatori con una capacità di
memorizzazione di circa 109, per far giocare loro il gioco
d ll’i it i
dell’imitazione
cosìì bbene che
h un esaminatore
i t
medio
di non
avrà più del 70 per cento di probabilità di compiere
l’id ifi i
l’identificazione
esatta d
dopo cinque
i
minuti
i i di
interrogazione.
P
Parentesi
t i storica!
t i !
`
Dal 1990, il miliardario statunitense
g Loebner organizza
g
un
Hugh
concorso: il Loebner Prize in
Artificial Intelligence
`
Premio di 100.000 dollari al
programma che vincerà il Test di
Turing
`
Premio di 2.000 dollari al programma
migliore
i li
ttra quelli
lli presentati
t ti all
concorso
http://www.loebner.net/Prizef/loebner-prize.html
Altra parentesi storica:
ELIZA (Weizenbaum
(W i
b
1966)
1. Paziente > gli uomini sono tutti uguali
2. ELIZA > IN CHE SENSO
3. Paziente > ci rompono sempre per una cosa o per un altra
4. ELIZA > PUOI ESSERE PIU SPECIFICA?
5. Paziente > il mio ragazzo mi ha fatta venire qui
6. ELIZA > CONTINUA
7. Paziente > dice che sono depressa per la maggior parte del tempo
8. ELIZA > MI DISPIACE SENTIRTI DIRE CHE SEI TRISTE
9. Paziente > è vero. sono depressa
10. ELIZA > PENSI CHE VENIRE QUI TI POSSA AIUTARE A NON
ESSERE TRISTE?
11. Paziente > io ho bisogno di un po’ di aiuto, questo è certo
Altra parentesi storica:
ELIZA (Weizenbaum
(W i
b
1966)
12.ELIZA
12
ELIZA > COSA POTREBBE SIGNIFICARE PER TE RICEVERE
AIUTO
13.Paziente
13
Paziente > mi aiuterebbe ad andare d accordo con mia madre
14.ELIZA > PARLAMI DI TUA MADRE
15 Paziente > mia madre si prende cura di me
15.Paziente
16.ELIZA > CHI ALTRO SI PRENDE CURA DI TE NELLA TUA
FAMIGLIA?
17.Paziente > mio padre
18.ELIZA > TUO PADRE
19.Paziente > tu sei simile a mio padre in qualche modo
20.ELIZA > IN REALTA NON STAI PARLANDO DI ME VERO?
21.Paziente > che dire
22.ELIZA > PRIMA MI AVEVI PARLATO DELLA TUA
DEPRESSIONE
Altra parentesi storica:
ELIZA (Weizenbaum
(W i
b
1966)
`
Il programma ELIZA ha sollevato moltissime discussioni
g
artificiale e alla reale
intorno al “futuro” dell’intelligenza
validità del test di Turing
`
Il meccanismo con cui ELIZA genera le proprie risposte
non aveva nulla a che fare con il “nostro modo” di
generare espressioni linguistiche
`
Se ELIZA avesse superato il Test di Turing, sarebbe
ragionevole concludere che ELIZA era “intelligente”?
L obiezioni
Le
bi i i
`
Turing
T
i dichiara
di hi
di non avere molti
l i argomentii per
sostenere le sue personali convinzioni (ovvero, che entro
50 anni sarebbe
bb stato creato un computer in grado
d di
d
vincere il Test di Turing)
`
Quindi, l’unica cosa che gli sembra ragionevole fare è
esaminare alcune obiezioni comuni alla possibilità di
un’intelligenza artificiale, formulando alcune controobiezioni
L’ bi i
L’obiezione
tteologica
l i
`
“Il pensare è una funzione
f i
dell’anima
d ll’ i immortale
i
l
dell’uomo. Dio ha dato un’anima immortale ad ogni uomo
e donna,
d
ma non aglil altri
l animalil o alle
ll macchine.
h
Perciò
P ò
nessun animale o macchina può pensare.”
`
“Mi sembra che l’argomento sopra indicato implichi una
seria restrizione dell
dell’onnipotenza
onnipotenza di Dio.
Dio ”
`
Ammesso che vi siano certe cose che Egli
g non può
p fare,,
come ad esempio rendere uno uguale a due, non ci è
lecito credere che Egli abbia la libertà di concedere
l’anima a una macchina se lo considera opportuno?
L’ bi i
L’obiezione
d
dell’autocoscienza
ll’ t
i
`
“Fino a quando
“Fi
d una macchina
hi non potrà
t à scrivere
i
un sonetto
tt o
comporre un concerto in base a pensieri ed emozioni provate,
e non per la giustapposizione casuale di simboli,
simboli non potremo essere
d’accordo sul fatto che una macchina uguagli il cervello: cioè, che
non solo scriva, ma sappia
pp di aver scritto”
`
Secondo la forma più estrema di questa opinione il solo modo per
cui si potrebbe essere sicuri che una macchina pensa è quella di
essere la macchina e di sentire se stessi pensare.
`
Allo stesso modo, secondo questa opinione la sola via per sapere
che un uomo pensa è quella di essere quell’uomo in particolare
`
Quindi, argomenti di questo tipo potrebbero portare a dubitare che
ggli uomini pensano!
p
L’ bi i
L’obiezione
matematica
t
ti
`
Esiste
E
i una serie
i di risultati
i l id
della
ll llogica
i matematica
i che
h
possono essere usati per dimostrare che esistono delle
l
limitazioni
ai poteri delle
d ll macchine
h a stati discreti:
d
vi sono alcune cose che una macchina non può
fare.
`
SSe è costretta a dare
d
risposte
i
a domande
d
d come nell gioco
i
dell’imitazione, ci saranno alcune domande alle quali o
d à una risposta errata, o non darà
darà
d à affatto
ff
risposta,
i
quale che sia il tempo concesso per rispondere.
L’ bi i
L’obiezione
matematica
t
ti
`
LLe d
domande
d alle
ll qualili le
l macchine
hi non riusciranno
i i
a
rispondere sono di questo tipo: “Si prenda in esame la
macchina
h caratterizzata nella
ll seguente maniera … questa
macchina risponderà ‘sì’ a qualche domanda?”
`
I puntini devono essere sostituiti dalla descrizione di
qualche macchina in una forma standard.
standard
`
Si ppuò dimostrare che la risposta
p
sarà errata o non
sarà data affatto. Questo è il risultato matematico: si
sostiene che esso dimostra un
un’incapacità
incapacità della
macchina alla quale l’intelletto umano non è
soggetto.
soggetto
L’ bi i
L’obiezione
matematica
t
ti
`
La risposta più breve a questa argomentazione è che
sebbene sia stato chiarito che esistono delle limitazioni ai
poteri di una qualsiasi macchina specifica, è stato poi
soltanto enunciato,, senza alcuna sorta di
dimostrazione, che nessuna limitazione del tipo è
pp
all’intelletto umano.
applicabile
A
Ancora
sull’obiezione
ll’ bi i
matematica
t
ti
`
Inoltre, ogni volta che viene posta a una di queste macchine
un’opportuna domanda critica, ed essa dà una risposta definita,
noi sappiamo che questa risposta deve essere errata, e questo
ci dà un certo senso di superiorità.
`
Questo senso di superiorità è illusorio? Certamente esso è
genuino,
i ma non credo
d vii sii possa attribuire
tt ib i troppa
t
importanza.
`
Diamo troppo spesso risposte errate anche noi, per
sentirci giustificati nel provar piacere dinanzi a tali prove della
possibilità di errore da parte della macchina.
“L macchine
“Le
hi non possono sbagliare”
b li
”
`
LLa pretesa
t
che
h “le
“l macchine
hi non possono sbagliare”
b li ” sembra
b
strana.
`
Si è tentati di ribattere: “È una cosa tanto negativa?”
`
Si afferma che colui che interroga potrebbe distinguere la
macchina dall’uomo semplicemente ponendo a entrambi un
certo numero di problemi aritmetici. La macchina verrebbe
smascherata per la sua tremenda precisione.
`
La risposta a questo è semplice
semplice. La macchina
macchina, programmata per
giocare il gioco, non cercherebbe di dare la risposta esatta a
problemi aritmetici.
aritmetici Introdurrebbe deliberatamente degli
errori, in modo studiato apposta per confondere chi interroga.
L’ bi i
L’obiezione
di Lady
L d Lovelace
L
l
`
“La macchina
“L
hi … non ha
h la
l pretesa di creare alcunchè.
l
hè P
Può
ò
fare qualsiasi cosa sappiamo come ordinarle di fare.”
`
Le macchine mi prendono alla sprovvista molto
f
frequentemente.
t
t Q
Questo
t di solito
lit di
dipende
d in
i gra parte
t dal
d l
fatto che non faccio calcoli sufficienti a decidere che cosa
aspettarmii da
d loro,
l
o piuttosto
i
perché,
hé quantunque ffaccia
i
dei calcoli, li faccio in modo affrettato, disordinato,
rischiando
h d di
d sbagliare.
b l
Altra parentesi storica
1962 Il L
1962:
Logic
i Th
Theorist
i t
`
Nell 1962 un programma per calcolatore,
N
l l
realizzato
li
dai
d i
pionieri dell’IA Newell e Simon, ha dimostrato alcuni
teoremii matematici.
i i
`
In un caso,
caso ha trovato una dimostrazione più elegante di
quella precedentemente fornita da logici “umani”!
`
Il Logic Theorist fu tra gli autori di un articolo
p
rivista di logica
g (anche
(
se il
sottomesso a una importante
nome non venne mai incluso tra gli autori, perché nel
frattempo era stata trovata una dimostrazione ancor più
elegante!)
L macchine
Le
hi che
h apprendono
d
`
`
`
“L’idea di una macchina
“L’id
hi che
h iimpara può
ò apparire
i
paradossale ad alcuni lettori. Come possono cambiare le
regole
l d
di ffunzionamento d
della
ll macchina?
h ?
Esse dovrebbero descrivere completamente
p
come reagirà
g
la macchina qualsiasi possa essere la sua storia, a qualsiasi
possa essere soggetta.
gg
Le regole
g
sono
cambiamento p
quindi assolutamente invarianti rispetto al tempo.
Questo è verissimo.
verissimo La spiegazione del paradosso è che le
regole che vengono cambiate nel processo di
apprendimento sono di un tipo meno pretenzioso e
intendono avere solo una validità temporanea”
L macchine
Le
hi che
h apprendono
d
meccanismo che varia
alcuni elementi delle
istruzioni di m
meccanismo (insieme
(
di regole o istruzioni)
della macchina m
MdT che
h apprendono
d
`
Una MdT universale,
universale semplicemente agendo sul
proprio nastro, può modificare le istruzioni della
MdT m rappresentata!
ra resentata!
istruzioni che
modificano nel tempo
le istruzioni della
macchina
hi m
1Æ1,R
1Æ1,R
q1
0Æ1,R
q2
0Æ0,R
9Æ9,L
q3
1Æ9,L
qaccetta
insieme di istruzioni di M
ingresso di M
C
Computer
t che
h apprendono
d
`
Posso scrivere
P
i
un programma PHP che
h modifichi,
difi hi nell
tempo, le istruzioni di un altro programma PHP (entrambi
i programmi, quello
ll ““modificato”
df
” e quello
ll “modificante”,
“ df
”
sono memorizzati nella memoria del calcolatore!)
Programma PHP:
modifica la riga
$cateto1 = 3
in
$cateto1 = 4
$
1.
2.
3.
4.
5.
6.
7.
$cateto1 = 3;
$cateto2 = 4;
$quadratocateto1 = pow($cateto1,2);
$quadratocateto2 = pow($cateto2,2);
$sommaquadrati = $quadratocateto1 +
$quadratocateto2;
$ipotenusa = sqrt($sommaquadrati);
echo "L'ipotenusa è ".$ipotenusa;
C
Computer
t che
h apprendono
d
`
IIn tuttii questii casi,i abbiamo
bbi
iistruzioni
i i “di alto
l livello”
li ll ” che
h
modificano “istruzione di basso livello”
`
Entrambi i tipi di istruzione sono meccanici, ma ciò
nonostante permettono una straordinaria flessibilità nel
comportamento della macchina!
C
Conclusione
l i
`
Possiamo
P
ssiam sperare
s erare che le macchine sarann
saranno alla fine in grado
rad di competere
c m etere
con gli uomini in tutti i campi puramente intellettuali. Ma quali sono i
migliori
g
per
p cominciare? Anche qquesta è una decisione difficile.
`
Molta gente pensa che un’attività molto astratta, come giocare a
scacchi sarebbe la migliore
scacchi,
migliore.
`
Si può anche sostenere che è meglio fornire alla macchina i migliori organi
di senso che
h sii possano comprare e poii insegnarle
i
l a capire
i e parlare
l
una
lingua umana. Questo processo potrebbe seguire il metodo d’insegnamento
normale pper un bambino.
`
Ancora una volta ignoro quale sia la risposta esatta, ma penso che
bisognerebbe tentare ambedue le strade
strade. Possiamo vedere nel futuro solo
per un piccolo tratto, ma possiamo pure vedere che in questo piccolo
tratto c’è molto da fare.