la_coscienza_secondo_la_scienza

Transcript

la_coscienza_secondo_la_scienza
FRANCESCO PAOLO CANTIELLO
OSSERVAZIONI
SULLA PROGRAMMAZIONE NATURALE DELLA STRUTTURA BIOLOGICA
dicembre 1998
onde, acciò che la scienza è
ultima perfezione della nostra anima, nella quale sta la
nostra ultima felicitade, tutti naturalmente al suo
desiderio semo subietti.
Dante Alighieri: Convivio
Introduzione
A
priamo immediatamente una parentesi. Ci imponiamo
l’obbligo
di
evidenziare
che
Scienza
e
progresso
tecnologico, nella loro essenza, sono del tutto estranei al
Bene ed al Male. E’ l’utilizzo umano dei risultati della
Ricerca che provoca conseguenze coinvolgenti problemi etici di scelta
e comportamento. E’ pertanto da imbecilli, più che da irresponsabili,
ignorare, trascurare o, ancora peggio, ostacolare lo studio e lo
sviluppo di quei settori della Scienza che presentano conclusioni
giudicate devianti o pericolose. Tutto ciò che non viene sviluppato
sotto un controllo consapevole corre il grave rischio di
essere
fatalmente consegnato in mani irresponsabili. Chi ha orecchie per
intendere, intenda. E dopo questo doveroso avvertimento chiudiamo la
parentesi.
Può sembrare riduttivo ed artificioso suddividere i modi in cui
l’uomo ha pensato se stesso, in soli tre momenti storici dalla sua
comparsa
ai
giorni
nostri.
Tuttavia,
anche
molte
importanti
tecnologie, nonostante l’ampio periodo trascorso, si sono evolute in
sole tre tappe fondamentali: lo sviluppo navale, per esempio, conobbe,
in sequenza, solo il remo, la vela ed il motore. In ogni caso, non
siamo riusciti a fare di meglio.
Inizialmente l’uomo vide se stesso come sagoma d’argilla scolpita
da Dio che con il suo alito divino gli infuse la vita. Non poteva
essere altrimenti nel periodo in cui la tecnologia dominante era
quella della creta modellata dalle abili mani del vasaio. L’uomo
antico, poi, disponeva di indizi inconfutabili a sostegno di
quell’ipotesi che oggi assume un aspetto squisitamente mistico: siamo
fatti di polvere e polvere diventeremo. Era prematuro porsi la
questione degli organi interni del corpo: alla vitalità provvedeva
l’anima, lo spirito. Indiscutibile fu, per molto tempo, l’aseità di
Dio e l’abalietà dell’uomo nell’Essere Supremo.
Molto tempo dopo furono ideati ingranaggi sempre più complessi che
culminarono nel congegno che destò, ad un tempo, curiosità,
perplessità e stupore in quanto riusciva a misurare nientemeno che lo
scorrere del tempo: l’orologio meccanico. Nacque così un nuovo credo
parallelo alla tecnologia emergente in grado di produrre statue con
sembianze umane che incorporavano complicati meccanismi semoventi. Si
prese coscienza degli organi interiori ed i corpi biologici
diventarono simili ad apparati meccanici e furono individuati
ingranaggi e leve, il tutto, però, restava sotto il controllo della
mente, un particolare congegno che sfuggiva alle leggi della
meccanica. Restava un mistero incomprensibile da accettare se non come
atto di fede l’azione della mente non meccanica su un corpo meccanico.
2
Oggi praticamente tutti i meccanismi a ruota dentata sono stati
soppiantati dalla circuiterìa elettronica la cui massima espressione è
il calcolatore, concretizzazione della macchina universale di Turing1.
Il salto concettuale diventa obbligatorio: l’essere umano, mente
compresa, viene ipotizzato quale complicato computer naturale. E di
ciò si discuterà nelle pagine che seguono.
Il presente scritto comprende sei parti. La prima è intesa a
rilevare l’importanza della struttura a guisa di maggior responsabile
delle differenze che si manifestano tra le diverse individualità che
la natura ci propone ed inizia con un omaggio al grande fisico
britannico Dirac il quale ha voluto identificare nell’armonia
strutturale delle leggi matematiche le norme che regolano il
comportamento della natura. In un certo senso possiamo parlare anche
di sorpasso della natura quando ci riferiamo all’antimateria come
esclusivo prodotto di laboratorio. Questa parte accenna anche ad un
tentativo di classificazione gerarchica delle componenti di struttura
delle individualità a qualunque titolo esistenti oltre alle attuali
capacità
di
descrizione
informatica
delle
strutture
tramite
sofisticati ed ingegnosi algoritmi.
La seconda parte si occupa, più sfacciatamente, del medesimo
problema, questa volta però con gli strumenti classici della ricerca
biologica e, senza sforzo, scopre (neanche a dirlo) che ogni livello
comportamentale è la risultante di un vero e proprio programma in
qualche modo memorizzato nell’organismo. Questo programma contiene
descrizioni predeterminate sia della struttura sia del comportamento
dei diversi organismi biologici.
La terza parte tenta di analizzare peculiarità della specie umana:
specificamente
linguaggio
e
scrittura.
Queste
attività
sono
considerate come un’esternazione del pensiero che appare astratto ma
diventa espressione concreta della complessità del sistema nervoso,
come si tenta di descrivere nella parte successiva, la quarta.
Camillo Golgi scoprì un potente metodo di colorazione ai sali
d’argento che permise a Santiago Ram n y Cajal, grande studioso dei
meccanismi del sistema nervoso, di osservare al microscopio i neuroni
descrivendoli come “misteriose farfalle dell’anima, il cui battito
d’ali potrebbe forse un giorno chiarire il segreto della vita
mentale”2. Le farfalle di Cajal non sono ancora state identificate, ma
il battito d’ali è stato nettamente avvertito nei meccanismi
responsabili degli stati d’eccitazione delle cellule nervose. Piccole
nubi elettroniche oscillano nella cellula nervosa e la rendono vitale,
piccole nubi elettroniche oscillano nella memoria del calcolatore e lo
rendono attivo: una coincidenza per lo meno curiosa. Il moto ordinato
degli elettroni nella cellula e nel computer, piccoli mondi isolati
nel loro spazio asettico, che si lascia plasmare dalla natura in un
caso e dall’uomo nell’altro, contrasta con il caotico movimento
elettronico dell’universo esterno che entrambi cercano di controllare.
Giulio Verne affermava, al tramonto del secolo XIX, che l’elettricità
era “giustamente considerata l’anima del mondo”3.
La quinta parte si occupa, senza troppo approfondimento tecnico,
1
J.David Bolter: L’uomo di Turing – Pratiche Editrice. 1984 .
Gerald D. Fischbach: Mente e cervello. Le Scienze n. 291 novembre 1992.
3
Jules Verne: Il Castello dei Carpazi. UNI Editori Riuniti agosto 1996.
2
3
delle macchine di Turing che offrono, allo stato attuale, lo strumento
computazionale più affidabile per tentare di descrivere gli stati
evolutivi del programma genetico memorizzato nella cellula biologica.
La sesta ed ultima parte espone la conseguenza inquietante: la
mente umana potrebbe non essere troppo dissimile da un programma per
calcolatore. Tra qualche tempo oggetti derivanti dagli attuali chip di
silicio4, in grado di autoreplicarsi, potrebbero tranquillamente
soppiantare la specie umana con successo, in conseguenza della
selezione naturale, nella competizione alla sopravvivenza in un mondo
che l’uomo stesso sembra fermamente deciso a rendere ecologicamente
inabitabile per la sua specie.
4
4
Minsky M.: Saranno i robot a ereditare la Terra?. Le Scienze n. 316 dicembre 1994
Quella cosa dice l'uomo essere bella, cui le parti debitamente si
rispondono, per che della loro armonia resulta piacimento.
Dante Alighieri: Convivio
Bellezza matematica o matematica bellezza?
I
l premio Nobel Paul Adrien Maurice Dirac (1902-1984) era
solito affermare che soltanto quando una teoria si esprime con
equazioni matematicamente “belle” può trovare riscontro nella
realtà e pertanto, è candidata ad essere vera. Questa
convinzione era tale che giunse a comporre l’epigrafe: una legge
fisica deve possedere bellezza matematica5. Il grande fisico, tuttavia,
non chiarì mai quale preciso significato attribuiva al criterio di
bellezza matematica, anzi, a questo proposito, si espresse affermando
che “Si tratta di una qualità che non può essere definita, …”6.
Leonardo constatava le proporzionali bellezze d’un angelico viso,
Boccaccio indugiava su le celestiali bellezze di madonna Lisetta, Ugo
Foscolo, invece, sosteneva che la bellezza è una specie di armonia
visibile che penetra soavemente nei cuori umani. La bellezza, intanto,
può essere concepita come criterio squisitamente soggettivo come
facilmente si evince dal popolare detto: non è bello ciò che è bello,
ma è bello ciò che piace. Allora Dirac non si rifaceva certamente al
concetto di bellezza comunemente inteso; usava questo termine
semplicemente perché era quello che gli sembrava più consono al senso
che Egli intendeva. La bellezza è, in definitiva, estetica. E
l’estetica esprime una forma, e questa, a sua volta, è conseguenza
della struttura. Ciò che compone un’estetica gradevole è una sorta di
armonia strutturale che traspare dalle sembianze di ciò che viene
osservato. Esiste una specie di bellezza, per così dire, universale, o
per meglio dire, oggettiva, che, nel rispetto di canoni non
esplicitamente definiti, è praticamente condivisa da tutti, o quasi.
Proviamo sicuramente una sensazione diversa quando osserviamo un pezzo
di carbone e lo confrontiamo con un cristallo di diamante. Entrambi
sono costituiti da carbonio; la diversità tra i due oggetti è
semplicemente strutturale: è la mutata disposizione spaziale degli
atomi di carbonio che fa la differenza7. La durezza del diamante ha
quindi correlazione con una sistemazione atomica che confluisce in una
simmetria geometrica tridimensionale.
E, considerando la simmetria speculare, Dirac nel 1928 ipotizzò
correttamente l’esistenza dell’antimateria che il fisico americano
Carl David Anderson (1905-1991) confermò in laboratorio nel 1932.
L’antimateria non è stata ancora osservata in natura, pertanto deve,
almeno provvisoriamente, considerarsi un prodotto sintetico. La
mancata osservazione potrebbe correlarsi al fenomeno di annichilazione
conseguente l’incontro tra materia ed antimateria: le due non possono
coesistere nel medesimo spazio. Non possiamo tuttavia escludere che
oggetti molto lontani, dispersi nell’universo, siano costituiti da
antimateria.
5
R.Corby Hovis, Helge Kragh: P.A.M. Dirac e la bellezza della fisica. Le Scienze n. 299 luglio 1993.
Dalida Monti: Equazione di Dirac - Bollati Boringhieri. 1996.
7
A.I. Kitaigorodskij: Ordine e disordine nel mondo degli atomi – Universale scientifica Boringhieri. 1968.
6
5
La sabbia che il vasaio trasformerà in un vaso si differenzia dal
vaso finito, in via definitiva, per una ordinata disposizione spaziale
dei singoli granelli di creta che lo formeranno. Questo fatto ci porta
ad osservare che le regole di composizione che governano le strutture
spaziali sfociano in invarianti di scala. Ciò è sicuramente strano e
sorprendente dal momento che le leggi attualmente formulate che
governano le strutture del microcosmo sono non solo diverse ma anche
distanti da quelle del macrocosmo. Alcune particelle appartenenti al
microcosmo identificate come fermioni8 devono rispettare il principio
di esclusione enunciato nel 1925 dal viennese Wolfang Pauli (19001958), premio Nobel per la Fisica nel 1945, il quale mostrò che, ad
esempio, due elettroni orbitanti attraverso una nube atomica non
possono trovarsi nello stesso stato: un po’ come affermare che ciascun
elettrone conserva la propria individualità in qualsiasi condizione.
La fisica del microcosmo deve rispondere, inoltre, al principio di
indeterminazione di Heisenberg9 (1902-1976): la effettiva misurazione
di una grandezza genera la impossibilità di determinare precisamente
un’altra grandezza ad essa coniugata. Di conseguenza resta impossibile
conoscere velocità e posizione istantanee di una particella. Un simile
tentativo sarebbe equivalente a quello di mettere a fuoco, con il
medesimo sistema ottico e contemporaneamente, due oggetti, uno
prossimo e l’altro distante. Uno od entrambi gli oggetti sono
candidati a perdere nitidezza durante la messa a fuoco. Nello stesso
macrocosmo si osservano facilmente fenomeni che sono intimamente
connessi alla dimensione. Ad esempio, in ingegneria aeronautica, la
sperimentazione di modelli in scala di velivoli in camera a vento
assume validità solo se vengono rispettati i parametri imposti dal
Numero di Reynolds10 che è direttamente proporzionale alla densità,
alla velocità del fluido e alla superficie esposta, ed inversamente
proporzionale alla viscosità. Un modello in scala si comporta come il
corrispondente velivolo reale solamente nelle condizioni in cui si
combina lo stesso Numero di Reynolds. Il modello, pertanto, verrà
sottoposto, ad esempio, ad una velocità proporzionalmente maggiore
rispetto a quella prevista per il velivolo reale al fine di valutare
correttamente le prestazioni, quali i coefficienti di portanza della
sagoma alare o quelle di resistenza strutturale del complesso alle
sollecitazioni di esercizio.
Intanto, nella fisica del macrocosmo non accade mai che un essere
biologico, per esempio un gatto11, occupi quella che viene definita, in
meccanica quantistica, una sovrapposizione di stati o, in altri
termini, sia contemporaneamente vivo e morto oppure, peggio ancora, né
8
Il termine viene utilizzato in onore del fisico italiano Enrico Fermi (1901-1954). I fermioni sono quelle particelle
che rispettano la statistica elaborata da Fermi-Dirac ed in particolare si presentano con spin semintero, tipicamente
gli elettroni, i protoni ed i neutroni. Vengono invece classificati bosoni, in onore del fisico indiano Subhas Chandra
Bose (1847-1945), le particelle elencate nella statistica elaborata da Einstein-Bose e che si presentano con spin
intero come i fotoni, i mesoni ed i pioni. Viene detto spin il momento angolare intrinseco di una particella. Il
momento angolare orbitale è dovuto al moto di una particella relativamente ad un’altra, mentre il momento angolare
intrinseco è una proprietà che viene mantenuta anche se la particella non appare in movimento ed è assimilabile allo
stato giroscopico della trottola (rapida rotazione intorno al prorio asse). La somma dei momenti angolari viene
chiamata momento angolare totale. Il concetto di spin è il risultato di uno studio spettrografico sull’atomo condotto
nel 1925 negli Stati Uniti dai fisici tedeschi Goudsmit e Uhlembeck.
9
David C. Cassidy: Heisenberg, l’indeterminazione e la rivoluzione quantistica. Le Scienze n. 287 luglio 1992.
10
Domenico Ludovico: L’aeroplano – Ali Nuove. 1959 .
11
Il gatto di Sch dinger, (l’austriaco Erwin Sch dinger ha condiviso nel 1933 il premio Nobel per la Fisica con
Dirac) è un noto esempio in meccanica quantistica.
6
vivo e né morto. A dispetto di queste colossali differenze microcosmo
e macrocosmo sembrano accomunati dalla regola: la diversità tra
oggetti materiali è indissolubilmente correlata alla disposizione
spaziale dei rispettivi componenti elementari.
Per ulteriormente chiarire prendiamo come esempio una sostanza
molto comune: l’acqua. Normalmente è allo stato liquido; ma è
facilmente osservabile come ghiaccio o come vapore. La differenza tra
i tre stati è dovuta esclusivamente alla disposizione atomica
spaziale, che viene alterata dalla temperatura. Nel caso del ghiaccio
prevale la struttura geometrica ordinata del cristallo, negli altri
due casi una disposizione disordinata è accompagnata dal caotico moto
browniano, più o meno accentuato, delle molecole.
Gli esseri biologici sono costituiti da materiale che definiamo
organico. Quel materiale può essere tuttavia identico a quello di
sostanze che classifichiamo inorganiche. Questa è una delle ragioni
per cui non è stato possibile stabilire un chiaro confine tra il non
vivente ed il vivente.
Può destare perplessità osservare che l’accrescimento naturale dei
cristalli
è,
alla
resa
dei
conti,
identico
all’accrescimento
cellulare. In entrambi i casi, infatti, si ha accumulo di materiale
presente nell’ambiente circostante. Nel caso biologico l’acquisizione
è preceduta da una complessa lavorazione del materiale catturato
identificata in un processo chiamato digestione. Tutto questo però,
non modifica le cose: fenomeno base ed effetto conseguente restano
indistinti. Una differenza tra sostanza vivente ed inerte potrebbe
essere intravista nella complessità della struttura molecolare. Le
macromolecole biologiche culminano nel DNA12, scoperto nel 1954 da
Watson e Crick, nella cui intricata struttura elicoidale si
anniderebbe, secondo la comune opinione, il senso della vita. Ma si
tratta di una differenza apparente che tende a sfumare quando si
prendono in considerazione le complesse strutture dei polimeri che,
disponendosi a fasci, costituiscono la gomma, il politene e le
plastiche, tutte cose che nessun soggetto sano di mente si azzarda a
classificare come materiale vivente.
Ulteriori indizi a supporto della impossibilità di definire una
realistica distinzione tra vegetali ed animali sono fornite dagli
studi recenti dello zoologo californiano Roger S. Seymour sui
meccanismi di termoregolazione di alcune piante13; e, tra non vivente e
vivente, a causa della messa a punto di sostanze opportunamente
definite
“intelligenti”14
in
quanto
dotate
di
proprietà
chemiomeccaniche che le rendono sensibili agli stimoli ambientali:
caratteristica considerata tipica ed esclusiva dell’attività vitale.
L’importanza
della
disposizione
spaziale
degli
elementi
costitutivi di un oggetto si identifica con l’integrità dell’oggetto e
cioè con quella che definiamo la sua esistenza. Ad esempio: i cocci di
un piatto frantumato hanno scarsa somiglianza con l’oggetto origine e
possono prodursi in un numero incredibile di modi; partendo dai cocci
il piatto originario, invece, può essere ricomposto in un solo unico
modo. Quindi la tendenza naturale verso il disordine diviene solo una
12
Augusto Lattanzi: La rivoluzione molecolare - Universale scientifica Boringhieri. 1974.
Roger S. Seymour: Piante che producono calore –. Le Scienze n. 348 agosto 1997.
14
Yoshihito Osada e Simon B. Ross-Murphy: Gel “intelligenti” –. Le Scienze n. 299 luglio 1993.
13
7
questione di probabilità: a fronte di un solo stato ordinato sono
possibili parecchi stati disordinati. E’ la bellezza matematica di
Dirac uno degli strumenti che ci consentono di distinguere lo stato
ordinato dagli altri.
Uno corpo materiale composto in uno stato ordinato della materia
presenta sovente punti, assi o piani di simmetria. Ad esempio, un
essere umano è divisibile in due parti specularmente assai simili
tramite un piano perpendicolare alla fronte e passante nel punto
equidistante tra gli occhi. La simmetria non è per nulla perfetta ed è
limitata all’aspetto esteriore: gli organi interni, infatti, non sono
orientati o disposti nel modo opportuno. Questa simmetria, tuttavia, è
assai evidente e non può essere la conseguenza fortuita di eventi
visto che si ripete sistematicamente per ogni essere della stessa
specie ed in modo riconoscibile per ciascuna specie.
Quali sono le origini della simmetria? Non è facile rispondere a
questa domanda, ammesso che sia alla nostra portata una risposta
soddisfacente. Prima di procedere occorre riflettere sul concetto
fisico di parità: ad ogni oggetto materiale è possibile far
corrispondere un altro oggetto, esattamente speculare, per il quale
valgono le stesse leggi. L’antielettrone di Dirac è l’esatto speculare
dell’elettrone e soggiace alle medesime leggi. Per semplificare,
immaginiamo di avere a che fare con numeri piuttosto che con oggetti
materiali. Le leggi di parità numeriche asseriscono che, per tutti i
numeri:
La somma di due numeri dispari è pari
La somma di due numeri pari è pari
La somma di un numero dispari con un numero pari è dispari
Si afferma inoltre che due numeri hanno la medesima parità se sono
entrambi pari o entrambi dispari. Una particella di materia possiede
una specifica parità e questa parità caratteristica non cambia
qualunque siano gli eventi a cui partecipa e le trasformazioni a cui è
sottoposta.
Questo almeno si credeva fino al 1956: Tsung Dao Lee (1926-) e
Chen Ning Yang (1922-) due fisici cinesi naturalizzati americani,
premi Nobel 1957, hanno dimostrato che la parità di alcune particelle,
in certe condizioni, può essere violata. Per giustificare questo
paradossale risultato è stato necessario associare le caratteristiche
di parità della particella con il tempo e si parla così di invarianza;
per conservare la legge generale della simmetria si rende pertanto
necessario ammettere una stretta correlazione del tempo con gli
eventi15. Il tempo, infatti, non è invertibile e deve essere associato
ad una direzione nota come freccia del tempo.
Anche lo spazio diventa non invertibile se, come non può essere
altrimenti, viene percorso nel verso della freccia del tempo. Quando
viaggio, con un volo aereo, da Brindisi a Roma e viceversa, al mio
ritorno la città di Brindisi mi sembra non aver abbandonato la sua
posizione geografica: in realtà la posizione assoluta della città si è
trasferita nel frattempo altrove in conseguenza dei movimenti di
rotazione e rivoluzione della Terra, di traslazione del sistema solare
e chissà di quanti altri moti sconosciuti. Pertanto anche lo spazio
15
8
Isaac Asimov: Le parole della scienza – Oscar Studio Mondadori. 1976. Vedi CPT invarianza.
dispone di un suo verso che, solo per analogia, chiameremo freccia
dello spazio. Quest’ultima freccia mostra la sua evidenza quando
percorre piani di simmetria: qualunque sia l’orientamento di un
oggetto riflesso in uno specchio resta possibile e visibile
l’inversione destra/sinistra ma non quella alto/basso. Da ciò risulta
la impossibilità di ripercorrere il medesimo spazio assoluto. Le
scaturigini di questo concetto, che sfociano nello spazio-tempo
einsteniano e radicate nei primordi del pensiero occidentale,
risalgono al 500 a.C. e sono dovute al filosofo greco di Efeso
Eraclito: tutto scorre, come l’acqua del fiume; non riusciamo a
bagnarci due volte nella stessa acqua.
In un momento imprecisato della Storia della Scienza, alla stregua
delle onde marine che increspano l’acqua e delle onde sonore che
comprimono l’aria, si ipotizzò, per analogia, che dovesse esistere un
fluido che facesse da supporto alle onde elettromagnetiche. Non
appariva concepibile che le onde luminose potessero attraversare il
vuoto assoluto. A questo ipotetico fluido venne anche dato un nome:
etere cosmico. Si pensò che l’etere non fosse stato ancora individuato
a causa della sua evanescente consistenza e, permeando tutto
l’Universo, la sua immobilità potesse costituire un sistema di
coordinate di riferimento assoluto.
Tra le diverse lunghezze d’onda fu scelta la gamma delle onde
luminose e fu deciso un cruciale esperimento inteso a valutare il moto
assoluto
della
Terra
rispetto
all’etere:
Michelson
e
Morley
progettarono e realizzarono un preciso apparato che misurava il tempo
di percorrenza di due raggi luminosi riflessi da due specchi posti in
fondo a due tragitti di uguale lunghezza e perpendicolari tra loro.
Uno dei due percorsi lo sistemarono nel medesimo verso del
moto
terrestre così da poter misurare una differenza dei tempi di
percorrenza dei due raggi di luce, la velocità di uno dei quali si
poteva sommare al movimento della Terra nello spazio.
Il primo tentativo non rilevò alcuna differenza tra i tempi di
percorrenza dei due raggi. Furono eseguite ulteriori prove sia con i
bracci dell’apparecchio scambiati di posto che a distanza di tempo di
sei mesi in modo da attendere il mutamento del verso dell’orbita
terrestre. Ogni tentativo fu vano: la velocità della luce appariva
sempre la stessa in qualsiasi condizione sperimentale.
Fu a questo punto che Albert Einstein postulò: ammesso che esista,
sono convinto che non riusciremo mai ad individuare un etere, o per
meglio dire, un sistema assoluto di coordinate comprendenti un tempo
assoluto valido per ogni sistema di coordinate. La velocità della luce
è una costante per tutti gli osservatori solidali con un sistema
proprio di coordinate ed in moto relativo reciproco ed è la massima
possibile in quanto osservando un ipotetico viaggiatore a cavallo di
un fotone, il suo tempo si riduce a zero: cioè il suo orologio si
ferma. Anche lo spazio si contrae lungo la direzione del moto ed
assume valore nullo alla velocità della luce. Ad oggi, ogni
esperimento ha confermato la teoria e la celebre equazione e = m c2
(energia = massa
per il quadrato della velocità della luce),
conseguenza della relatività, ha reso possibile la scoperta della
energia atomica. Perciò non c’è differenza tra massa ed energia, se è
possibile una trasformazione nei due sensi: infatti utilizzando un
ordigno
nucleare
è
possibile
generare
una
enorme
esplosione
annichilando una piccola quantità di materia, così come una certa
quantità di energia stellare scagliata lontano può raffreddarsi e
diventare materia, creando pianeti come la terra. Anche il materiale
che appare il più solido in assoluto, allora, contiene racchiusa una
vitalità latente che prima o poi sembra destinata a sprigionarsi.
9
Particelle cosmiche coprono distanze immense viaggiando alla
velocità della luce; la loro vita media tuttavia, dura un tempo
infinitamente breve: infatti quelle particelle si disintegrano
rapidamente non appena penetrano in una camera a bolle che rallenta la
loro corsa.
La comune difficoltà a recepire questa teoria è dovuta
alla differente percezione umana delle coordinate spaziali rispetto a
quella temporale. Ripetiamo che lo spazio appare percorribile più
volte nel senso che la medesima posizione sembra occupabile più volte,
il tempo, invece, sembra scorrere in modo irreversibile in un solo
verso. Riflettendoci, se teniamo conto del nostro moto nello spazio
planetario, una rioccupazione dello stesso spazio
assoluto è assai
improbabile, certamente inconoscibile, ammesso che sia possibile.
Questa realtà viene rappresentata come un sistema spazio-temporale a
quattro coordinate: tre spaziali, rappresentabili con numeri reali ed
una
(la coordinata temporale) differenziata da un numero reso
immaginario tramite un artificio matematico (moltiplicazione per la
radice quadrata di –1). Anche il concetto di simultaneità di due
eventi viene messo in discussione: due eventi, simultanei per un
osservatore possono non esserlo per un altro in moto relativo rispetto
al primo. Celebre è l’esperimento ideale del viaggiatore affacciato al
finestrino del vagone centrale del treno che transita ad alta velocità
mentre viene osservato da un altro viaggiatore fermo sulla banchina
della stazione. Due fulmini, uno frontalmente alla motrice e l’altro
dalla parte opposta lungo il binario verso l’ultimo vagone del treno
scoccano. Il viaggiatore sul treno osserva: i due fulmini sono
scoccati contemporaneamente; quello sulla banchina ribatte: non può
essere vero, dal momento che il treno si muove verso un fulmine mentre
si allontana dall’altro i due eventi, condizionati dalla velocità
della luce, grande ma non infinita, non possono essere stati avvertiti
nello stesso tempo sul treno, dal momento che sono stati avvertiti
contemporaneamente da chi era sulla banchina. L’esperimento dimostra
la soggettività della percezione del tempo e dello spazio. Non
esistono un tempo ed uno spazio universali. Esiste un tempo ed uno
spazio proprio: spazio e tempo sono parte costituente della materia
che noi semplicemente avvertiamo come elementi esterni. La mia
misurazione del tempo e dello spazio non è condivisa con nessun’altra
entità esterna al mio io. E’ il mio tempo. E’ il mio spazio. Con le
entità che mi sono vicine ho la sensazione di condividere lo spaziotempo, ma ciò solo perché le differenze assumono valori trascurabili e
difficilmente misurabili. Ma quando la distanza o la velocità tendono
verso valori importanti allora le differenze diventano sensibili e non
possono essere ignorate. Velocità enormi e distanze paragonabili a
quelle intergalattiche le riscontriamo nel mondo delle particelle che
costituiscono la materia. Particelle, che si manifestano anche come
onde e che possiamo pensare come uno stato indescrivibile dell’essere,
che oscilla tra la materia e l’energia, che si comporta come
particella e come onda.
Il concetto di struttura simmetrica, intanto, è biologicamente
importante non fosse altro che per la struttura ad elica degli acidi
nucleici. E’ la simmetria strutturale delle eliche che consente la
facile e rapida replicazione della lunga spirale biologica.
Durante questo processo possono accadere errori di composizione
nella nuova struttura: questo fenomeno, noto come mutazione, induce
differenze talora sostanziali nello sviluppo del soggetto. Le
mutazioni possono rendere il soggetto maggiormente competitivo ad
opera della selezione naturale provocata dall’ambiente ed in tal modo
si genera, nel senso più darwiniano del termine, l’evoluzione, e
10
l’errore iniziale, che decidiamo di
diversità
di
trascrizione,
viene
replicazioni diventando la norma.
interpretare come
ricopiato
nelle
occasionale
successive
Anche nell’evoluzione delle specie modifiche strutturali sono,
ancora una volta, alla radice del fenomeno. Alcuni animali ed alcune
piante imitano, nell’aspetto e nel comportamento, altri esseri più
aggressivi o meno vulnerabili: alcuni insetti, per esempio, imitano il
ronzio
delle
api
per
impressionare
gli
aggressori;
farfalle
normalmente commestibili per gli uccelli, si presentano con gli stessi
colori di esemplari velenosissimi.
Alcuni tipi di vespa scavatrice femmina paralizzano un certo
numero di api e le immagazzinano nella loro tana. Quindi depongono un
uovo su ciascuna preda ed occludono l’ingresso della tana. Questo
comportamento certamente programmato è sicuramente innato nell’insetto
il quale esegue con maestria e precisione ogni movimento fin dalla
prima volta, pur non avendo mai assistito ad analoghe manovre.
Elencando strati di complessità crescente che compongono un essere
biologico troviamo (allo stadio attuale della conoscenza):
1.
2.
3.
4.
5.
6.
atomi: aggregati di quark
molecole: aggregati di atomi
organuli: aggregati di molecole
cellule: cooperazione tra organuli
organi: cooperazione tra cellule
organismi: cooperazione tra organi
I quark sono da considerarsi le particelle più elementari della
materia, più ipotetiche che reali, in quanto, a quel che pare, un
quark isolato non avrebbe né la necessità, né l’occasione di esistere.
Possiamo considerare il quark alla stregua di uno strumento inventato
per semplificare lo studio del microcosmo e consentire una più facile
comprensione dei più reconditi meccanismi attualmente concepibili
dell’architettura atomica.
Per quel che concerne l’atomo disponiamo di ottime ragioni per
ritenere di conoscerne la reale composizione costitutiva sebbene non è
stato ancora realizzato uno strumento che ci pone nelle condizioni di
osservarlo direttamente. Da questo punto in su, pur se con difficoltà
e fatica, entriamo nel mondo del direttamente osservabile (ovviamente
nei limiti consentiti da una idonea strumentazione).
La situazione, per un soggetto non biologico, si attesta al punto
3. e la incapacità di effettuare il salto sul gradino della
cooperazione è la conseguenza di composizioni strutturali la cui
stabilità consente l’accrescimento e l’aggregazione, ma non la
cooperazione. La scelta della strategia della cooperazione in
alternativa alla contrapposta defezione, discende da una naturale
conseguenza
di
vantaggiosa
necessità:
lo
studio
delle
regole
matematiche conseguenti alla teoria dei giochi, dimostra il vantaggio
che si ottiene, in parecchi giochi, nella scelta della cooperazione in
alternativa ad altre possibili strategie di comportamento. La
selezione naturale provvede a premiare questa scelta. Un diffuso
esempio di cooperazione tra specie diverse è fornito dal comportamento
detto simbiosi che talvolta degenera in parassitismo.
11
Un ausilio atto a facilitare la comprensione della natura dei
meccanismi di accrescimento e cooperazione viene dalla geometria
frattale di Mandelbrot.
Benoit B. Mandelbrot (1924-), matematico polacco, sviluppando il
lavoro sugli insiemi di Gaston Julia ha posto, nel 1970, le basi di
una
nuova
branca
della
matematica
che
ha
trovato
immediata
applicazione in disparati settori della scienza16.
Definiamo frattale17 una figura geometrica che conserva una
struttura dettagliata e complessa a qualsiasi scala di grandezza la si
consideri. Un frattale è il risultato di un effetto ricorsivo. Ad
esempio, il tronco di un albero è un albero in miniatura da cui
partono altri tronchi sempre più piccoli, ricorsivamente. Felce e
cristalli di neve sono ormai esempi emblematici della ricorsività
frattale. Questi esempi rappresentano una sorta di economia nello
stoccaggio dell’informazione: è come se la natura avesse scelto di
scrivere il programma con il minor numero di istruzioni per riprodurre
l’accrescimento di piante e cristalli di neve. L’algoritmo iterativo
di organismi più complessi è composto certamente da un maggior numero
di istruzioni, ma il processo di sviluppo, in molti casi, si può
ipotizzare riconducibile alla ricorsività frattale.
Alla stregua dell’autoreplicazione del DNA, l’aggregazione e la
cooperazione ricorsive sono assimilabili a sistemi dinamici complessi
la cui evoluzione resta imprevedibile e dipende dalle condizioni
iniziali.
Un siffatto sistema è descritto nella fisica come sistema caotico.
Un sistema caotico è matematicamente deterministico anche se può
apparire probabilistico nel funzionamento e la sua descrizione è
indipendente
dalla
natura
del
sistema.
Comportamenti
caotici
attualmente descritti in letteratura18
e tutti confermati da
esperimenti riguardano:
•
•
•
•
•
•
•
•
•
•
16
l’attività elettrica cerebrale
le reazioni chimiche
i circuiti elettronici
i sistemi meccanici di trasmissione
l’andamento della borsa
il comportamento della luce laser
il ritmo cardiaco19
la turbolenza dei fluidi
i sistemi demografici
i sistemi biologici20
Damiani G.: I frattali e le linee suturali delle ammoniti. Le Scienze n. 245 gennaio 1989.
Sommaruga P.: Modelli frattali in oggetti naturali. Le Scienze n. 282 febbraio1992.
17
L.M. Sander: L’accrescimento dei frattali. Le Scienze n. 223 marzo 1987.
Jurgerns H., Peitgen H., Saupe D.: Il linguaggio dei frattali. Le Scienze n. 266 ottobre 1990.
18
James Gleick: Caos, la nascita di una nuova scienza. Biblioteca Scientifica Sansoni. 1996
Cruchfield J.P.,Farmer J.G., Packard N.H.,Shaw R.S.: Il caos. Le Scienze n.222. febbraio 1987
Ditto W.L. Pecora L.M.: Padroneggiare il caos. Le Scienze n.302. ottobre 1993
19
Winfree A.T.: La morte cardiaca improvvisa: un problema di topologia. Le Scienze n. 179 luglio 1983.
20
Goldberger A.L., Rigney D.R., West B.J.: Caos e frattali in fisiologia umana. Le Scienze n. 260 aprile 1990.
12
Il matematico Frank Plumpton Ramsey dimostrò l’impossibilità
dell’esistenza del disordine totale tramite la presenza sistematica di
configurazioni regolari in insiemi di elementi sufficientemente
numerosi.21 Questi studi introdussero il sospetto, che si verificò
fondato, che il caos potesse essere affrontato con i criteri della
matematica.
Il
meteorologo
Edward
Lorenz
scoprì,
nel
1960,
che
il
comportamento meteorologico su lungo periodo è destinato a restare
imprevedibile, pur essendo matematicamente determinato, per la
impossibilità di conoscere simultaneamente l’esatto stato di ogni
punto del volume atmosferico a causa dell’incapacità fisica di
sistemare una rete adeguata di sonde: esisterà sempre, tra due
sensori, uno spazio, per quanto piccolo, dove la misura non verrà
effettuata. L’effetto farfalla22, così viene chiamata la esigua
quantità di dati che sfugge alla misurazione, avvia una iterazione
ricorsiva di tipo frattale il cui centro viene detto attrattore
strano.
Questo fenomeno, sconosciuto al momento della previsione, produce
conseguenze rilevanti che compromettono il percorso di sviluppo
iniziale previsto. Le procedure di calcolo, raffinato quanto si vuole,
consentono previsioni sufficientemente corrette nel breve periodo; su
lunghi
periodi
i
risultati
si
allontanano,
in
alcuni
casi
gradualmente,
tuttavia
inesorabilmente,
dal
fenomeno
reale
matematicamente descritto.
E’ stato possibile individuare semplici funzioni ricorsive in
grado di generare figure frattali e sono stati, di recente, trovati
almeno due metodi che, partendo dalle funzioni ricorsive sono in grado
di sintetizzare immagini naturali tridimensionali. Il primo metodo
consiste nel generare una lunga sequenza finale di simboli elementari
a partire da una breve sequenza iniziale di simboli complessi,
attraverso un certo numero di iterazioni, rispettando una serie di
regole di trasformazione dei simboli (grammatica di Lindemeyer). Il
secondo metodo (algoritmo del caos di Barnsley) consiste nell’utilizzo
di una procedura ricorsiva che sottopone l’immagine ad uno stabilito
numero di trasformazioni affini. In ogni momento, l’immagine corrente
sommata all’algoritmo, è equivalente all’originale, tant’è che dopo un
adeguato numero di trasformazioni si riottiene l’immagine di partenza.
Barnsley ha realizzato una procedura che consente di ottenere il
metodo di sintesi (e cioè il frattale) partendo dall’immagine da
sintetizzare.
In conclusione: la completa struttura di un essere biologico
potrebbe essere pertanto descritta utilizzando un algoritmo per
calcolatore, sia pure complesso.
21
Graham R.L., Spencer J.H.: La teoria di Ramsey. Le Scienze n. 265 settembre 1990.
Effetto farfalla deriva dal detto: il battito d’ali di una farfalla a Pechino provocherà nei prossimi mesi un
temporale a
New York.
22
13
Ciascuna cosa è virtuosa in sua natura, che fa quello a che ella è
ordinata; e quanto meglio lo fa tanto è più virtuosa.
Dante Alighieri: Convivio
Cosmologia e Biologia terrestre
L
a genesi del Vecchio Testamento inizia con le parole: "Dio creò il
cielo e la terra…" . Non viene esplicitamente dichiarato ma è
sottinteso che la creazione avvenne dal nulla. Il big bang, tra le
teorie cosmologiche quella attualmente più accreditata, sembra
condividere il medesimo presupposto. Ormai sappiamo che l’antimateria
è un prodotto relativamente facile da ottenere in laboratorio. L’antiprotone, l’anti-elettrone, l’anti-neutrone non sono più oggetti
esclusivi della fantascienza già da molti anni.
Quando materia ed
antimateria si incontrano, ovvero, quando un protone viene in contatto
con un anti-protone si produce un gran botto luminoso nel quale le
particelle si annichilano. Nel totale rispetto delle leggi della
Fisica, così come oggi le condividiamo, si può asserire che, almeno in
linea di principio, nulla osta l’ammissione della reversibilità del
processo descritto. Pertanto è scientificamente accettabile sostenere
la possibilità di un evento singolare che, in un gran botto, un punto
nel “nulla” sprigioni una enorme quantità di materia ed antimateria.
Il problema è che l’antimateria sembra del tutto assente in natura (in
pratica, quella nota è stata tutta prodotta artificialmente in
laboratorio). Non esistono indizi della sua presenza in regioni remote
dello spazio cosmico. Tuttavia è possibile ipotizzare che la possente
lacerazione primordiale generò una quantità di materia leggermente più
abbondante dell’antimateria: le quantità in equilibrio di materia ed
antimateria si annichilarono rapidamente ed il nostro cosmo potrebbe
essere ciò che resta dell’eccesso di materia prodotta. Che il gran
botto ci sia stato è oggi sancito da una serie di prove
scientificamente plausibili e debolmente confutabili. Lo sviluppo
della situazione, invece, è incerto: l’espansione dell’universo
potrebbe continuare indefinitamente oppure, ad un certo punto,
potrebbe invertirsi la tendenza del moto iniziando un’implosione che
potrebbe condurre al collasso riportando ogni cosa allo stadio
iniziale. In conclusione, ci troviamo a soggiornare su una scheggia di
materia proiettata nello spazio da una colossale esplosione cosmica.
I primi istanti di vita dell’universo sono stati indubbiamente
cruciali. Gli inauditi valori iniziali di temperatura e pressione
fanno supporre un amalgama di materiale condensato ed indifferenziato,
ma che ben presto, raffreddandosi e rarefacendosi, si organizza in
atomi di idrogeno ed elio. Questi due elementi, con prevalenza
idrogeno, costituiscono, ancora oggi, la quasi totalità della materia
dell’universo. Il processo di combustione stellare è infatti dovuto
alla fusione di atomi di idrogeno in atomi di elio. Più esattamente
occorrono due atomi H per costituire un atomo He. Questo processo
nucleare sprigiona una enorme quantità di energia che si esprime
prevalentemente in raggi luminosi e calore.
La fusione nucleare produce elementi via via più pesanti inducendo
una concentrazione di materia. Se la stella è sufficientemente grande,
può implodere e collassare in un oggetto quasi stellare formato
prevalentemente da neutroni. Una stella di neutroni sufficientemente
pesante può, a sua volta, collassare in un buco nero. Un buco nero è
14
un oggetto astronomicamente piccolo di materia così condensata da
possedere una forza gravitazionale in grado inglobare e trattenere
perfino i raggi di luce.
Se osservata su larga scala, la materia è dispersa nell’universo
in modo piuttosto regolare. Solo localmente si possono osservare
concentrazioni di ammassi stellari o spazi desolatamente vacanti. Gli
ammassi di stelle sono stati organizzati in galassie dagli astronomi.
In particolare, la galassia cui apparteniamo, porta il nome di Via
Lattea. Tra i miliardi di stelle che costituiscono la nostra galassia
una stella la notiamo in ragione della sua vicinanza: il Sole. E’
vicina in senso astronomico naturalmente: 150 milioni di chilometri.
Poco più di otto minuti-luce (rammentiamo che la luce viaggia a circa
300.000 km al secondo).
Lo sviluppo della vita biologica sulla Terra non deve considerarsi
un fatto accidentale, secondo il principio antropico23 la presenza
della vita nell’universo costituisce una rete di condizioni limitative
a possibili evoluzioni dell’universo medesimo in maniera differente da
quella attuale: solo questo pianeta, nell’ambito del sistema solare,
sembra godere dei requisiti idonei ad ospitare esseri viventi così
come è concepito nel senso terrestre; dispone di un’atmosfera che
dovrebbe proteggerci dai raggi cosmici (il condizionale è d’obbligo a
causa del noto disastro ecologico dovuto al buco dell’ozono); la
presenza non invadente del Sole consente equilibrate oscillazioni
climatiche in conseguenza dei moti combinati di rotazione, di
rivoluzione e di inclinazione dell’asse che appaiono in completa
sintonia con i ritmi biologici. La situazione, tuttavia, non è sempre
stata totalmente idilliaca come può sembrare a prima vista. Il passato
del pianeta è segnato da parecchi sconvolgenti collassi termici oltre
a diversi eventi tellurici di portata planetaria. La scomparsa
improvvisa di parecchie forme di vita fu certamente dovuta ad eventi
cruenti. Sono accadimenti ormai confermati gli impatti preistorici
della Terra con grandi meteoriti che, elevando nubi di polvere
oscuranti il sole, provocarono estese e improvvise modificazioni
climatiche generando glaciazioni, le quali, a loro volta, causarono
l’annientamento dei dinosauri24, dei mammut e le estinzioni in massa di
specie marine25, per abbassamento della temperatura oceanica, e specie
vegetali, per carenza di sufficiente luminosità. Tracce di quantità
anomala di iridio attribuite alla caduta di uno o più asteroidi con
una datazione risalente ad oltre 60 milioni di anni sono state
rilevate in più parti del pianeta26.
La differenza tra la materia inorganica e quella organica, come
accennato altrove, sembra praticamente connessa alla struttura
architettonica della composizione molecolare piuttosto che alla
materia prima costitutiva. Carbonio ed idrogeno non sono la base solo
degli idrocarburi, ma compongono anche la impalcatura sia della
materia plastica sia di quella vegetale ed animale. Insomma ciò che
differenzia una proteina da una sostanza inorganica contenente gli
stessi atomi è la sua capacità elastica di avvolgersi spazialmente in
modo sollecito e particolare. L’energia necessaria all’attuazione dei
meccanismi biologici è stata individuata nella fotosintesi della
23
Gale G.: Il principio antropico. Le Scienze n. 162 febbraio 1982.
Alvarez W. Asaro F.: Che cosa causò l’estinzione in massa?. Le Scienze n. 268 dicembre 1990
25
Erwin D.E.: La madre di tutte le estinzioni. Le Scienze n. 337 settembre 1996
26
Russel D.A.: L’estinzione in massa dei dinosauri. Le Scienze n. 163 marzo 1982
24
15
clorofilla27 per i vegetali e la produzione dell’Adenosintrifosfato28
(ATP) negli altri organismi biologici. Questi complicati meccanismi
elettrochimici che possono essere essenzialmente ridotti ad una
contrapposizione
di
forze,
autobilanciano
le
strutture
e
ne
attribuiscono
la
forma.
Questo
fenomeno
viene
tecnicamente
identificato come tensegrità29.
L’alterazione
dell’omeostasi30,
così
viene
detta
l’attività
ordinaria risultante da questi equilibri elettrochimici è spesso fonte
di malattia. Un tipico esempio è il tremore nel morbo di Parkinson
causato da eccesso di contrazione dovuto a mancato equilibrio di
contrapposizione. Un ruolo importante, poi, è assunto dal ritmo
biologico, una sorta di orologio interno che regola la progressione
delle attività comportamentali. Il meccanismo è concettualmente
identico a quello dell’orologio integrato nel calcolatore che
scandisce il ritmo della sequenza delle istruzioni da eseguire. Il
ritmo biologico è in fase con il ritmo solare e si presenta con un
ciclo di 24 ore. Esperimenti di isolamento condotti sull’uomo
dimostrano che, in assenza di sollecitazioni esterne, il ritmo tende a
rallentare ed il ciclo si dilata. Ciò dimostra che le sollecitazioni
esterne sincronizzano almeno una volta al giorno il bioritmo interno.
Il tipo di stimolo non è espressamente legato al segnale luminoso: in
taluni animali sembra connesso a sollecitazioni termiche o di altra
natura. Quando il ritmo biologico interno raggiunge una elevata
sfasatura rispetto alle sollecitazioni ambientali sono necessari
diversi giorni per riacquistare il completo equilibrio. L’effetto è
noto a chi, volando su lunga distanza, subisce questo trauma dovuto
alla repentina modifica del fuso orario. Sono stati anche individuati
geni preposti alla produzione delle sostanze che regolano il ritmo
biologico. Studi recenti affermano che ogni organismo dispone di più
orologi biologici: addirittura uno per ogni cellula e forse più di
uno. Certamente tutti sono sincronizzati con un orologio principale o
centrale.
Una
recente
ipotesi
attribuisce
il
fenomeno
dell’invecchiamento alla progressiva ed irreversibile sfasatura tra i
diversi bioritmi.
La comparsa della vita terrestre viene attribuita ad un brodo
primordiale sottoposto a scariche elettriche naturali (fulmini).
Questo fatto fu confermato da un esperimento eseguito per la prima
volta nel 1953 da Stanley L. Miller, a quell’epoca studente di
biochimica presso l’Università di Chicago. La sostanza iniziale si
arricchì di proteine ed aminoacidi. Gli aminoacidi, in certe
condizioni, sono propensi ad aggregarsi in lunghe catene costituendo
acidi nucleici (DNA e RNA)31 i quali, assai sensibili all’ambiente,
subiscono
danni
sistematici
che
riparano
grazie
a
articolati
meccanismi di auto-rigenerazione. Gli acidi nucleici sono i componenti
27
Isaac Asimov: La fotosintesi. Biblioteca Scientifica Boringhieri. 1971
G.Moruzzi, C.A.Rossi, A.Rabbi: Principi di chimica biologica. Libreria Universitaria Tinarelli. 1966
29
Donald E. Ingber: L’architettura della vita. Le Scienze n. 355 marzo 1998
30
Il termine è dovuto al fisiologo americano Walter B. Cannon (1871-1945), che, riprendendo il concetto di
equilibrio organico del predecessore francese Claude Bernard (1813-1878), coniò il termine e lo estese per indicare
i diversi equilibri biologici come l’autoregolazione degli ormoni, quella del livello di acidità (PH), la
termoregolazione. Attualmente il termine viene usato in forma ancora più estesa per indicare gli equilibri di interi
sistemi eco-biologici come il meccanismo di equilibrio tra predatore e preda ed il complesso dei sistemi di
autoregolazione della biosfera. Quest’ultimo termine è concettualmente dovuto allo zoologo francese Lamark ed
indica lo strato atmosferico, partendo dalle profondità marine, in grado di ospitare tutti gli organismi viventi.
31
Isaac Asimov: Guida alla scienza per l’uomo moderno – Vol 2 Feltrinelli. 1964
28
16
attivi della cellula vivente e contengono anche tutte le informazioni
per la costituzione dell’organismo. Le prime avvisaglie relative a
questa conclusione risalgono agli studi del batteriologo statunitense
Oswald Theodore Avery (1877-1955). Nel 1944 Avery e collaboratori
estrassero una strana sostanza da batteri con capsula liscia e la
somministrarono a batteri a capsula rugosa: questi ultimi si
trasformarono in batteri a capsula liscia. Successivamente si scoprì
che la misteriosa sostanza responsabile della trasformazione era il
DNA della cellula batterica. Vale forse la pena accennare che i
batteri sono i principali responsabili del processo di fermentazione,
trasformazione spontanea di succhi vegetali nota sin dalla preistoria.
La produzione industriale di due alimenti liquidi largamente diffusi,
il vino e la birra, è resa possibile dalla trasformazione operata da
enzimi di origine batterica.
Acidi nucleici e proteine compongono strutture visibili al
microscopio elettronico conosciute col nome di cromosomi. Ogni specie
biologica è caratterizzata da uno specifico numero di cromosomi. La
cellula umana, ad esempio, dispone di 46 cromosomi disposti in coppia.
Nella femmina tutti i cromosomi sono perfettamente appaiati, nel
maschio una coppia di cromosomi appare diversificata. In relazione al
ruolo svolto, questi cromosomi sono definiti sessuali. La coppia
maschile è nota come coppia cromosomica XY; la corrispondente
femminile, XX. Complessivamente solo la metà dei cromosomi sono
presenti nelle cellule per la riproduzione così che il corredo
prodotto durante la fecondazione naturale della cellula femminile uovo
ad opera della cellula maschile spermatozoo è derivante per metà da
ciascuna delle due cellule coinvolte nel processo. Il cromosoma
sessuale maschile selezionato determina il sesso del nascente soggetto
biologico.
L’ingegneria
genetica
rende
attualmente
possibili
interventi artificiali per modificare il corredo cromosomico del nuovo
organismo. Nelle piante, ad esempio, viene praticata una tecnica per
modificare il numero normale dei cromosomi utilizzando una sostanza
velenosissima, estratta dal colchico, una gigliacea tuberosa. Questa
sostanza è nota come colchicina e si esprime con spiccate capacità
antimitotiche. Negli animali e nell’uomo vengono usati batteri per
produrre le sostanze enzimatiche necessarie per l’assemblaggio delle
sequenze nucleotidiche. Talvolta si usano frammenti di DNA con
capacità di autoreplicazione per ottenere copie multiple sia del
frammento sia dell’intera catena. La manipolazione genetica è la
maggior prova che il meccanismo biologico altro non è che il derivato
di una complicata sequenza programmata di attività elettrochimiche.
Tanto è che è stato possibile perseguire ingegnose soluzioni
alternative a complessi problemi matematici sfruttando la capacità
dell’enzima DNA-polimerasi di replicare lunghe catene di aminoacidi32.
E’ stato anche provato che differenze sessuali genetiche in prima ed
attività elettrochimica ormonale in seconda istanza esercitano
un’azione psicosomatica che si manifesta sia con una marcata diversità
delle forme corporee sia con una versatilità psicoattitudinale
fortemente diversificata33.
I più antichi organismi fossili che sono stati rintracciati
risalgono a tre miliardi e mezzo di anni fa, sono monocellulari e
somiglianti agli attuali batteri. Il processo evolutivo ha provveduto
allo sviluppo di nuove specie, la maggior parte delle quali sono
32
33
Leonard M. Adleman: Fare calcoli con il DNA. Le Scienze n. 362 ottobre 1998
Doreen Kimura: Differenze sessuali a livello cerebrale. Le Scienze n. 291 novembre 1992
17
attualmente estinte. Solo una parte del prodotto dell’evoluzione
presenta sotto i nostri occhi e costituisce l’attuale flora
l’attuale fauna. Il merito di aver per primo descritto con
approccio scientifico convincente i processi evolutivi spetta
naturalista britannico Charles Robert Darwin (1809-1882) che espose
teoria nel suo classico saggio34.
si
e
un
al
la
Oggi siamo in grado di classificare, secondo una gerarchia
evolutiva, piante ed animali, uomo compreso. A grandi linee possiamo
affermare che i primi sintomi vitali sul pianeta Terra hanno coinvolto
singole cellule (eucarioti e procarioti) ed alghe. Seguirono,
nell’ordine,
secondo
la
datazione
ottenuta
col
radiocarbonio,
trilobiti e conchiglie, pesci, anfibi ed insetti, rettili. Finalmente
comparvero i dinosauri, gli uccelli, i primati ed infine l’uomo. La
classificazione ottenuta tramite datazione C14 dei reperti fossili è in
accordo quasi totale con quella ottenuta misurando la distanza
genetica (numero delle differenze nella sequenza amminoacidica) dei
corrispondenti DNA. La distanza genetica dell’uomo dalla scimmia,
valutabile in tre parti su cento, è coperta solo da un limitatissimo
numero di esemplari ominidi intermedi dettagliatamente classificati in
Antropologia e la cui diversità fondamentale si riduce sostanzialmente
al volume della scatola cranica. Una recente proposta di legge del
Parlamento della Nuova Zelanda estende la garanzia dei diritti umani
fondamentali a tutte le scimmie antropomorfe. Probabilmente questo
tipo di orientamento è destinato a non restare a lungo isolato.
Una ulteriore prova a conforto che le funzioni biologiche derivano
da un meccanismo elettrochimico programmato, pur se complesso, è
offerta dalla presenza di cicli generazionali in cui si alternano
l’attività sessuata di una generazione con quella asessuata della
successiva. Alcune specie di piante e di alghe si riproducono nella
prima generazione tramite gametofiti generando sporofiti asessuati
che, a loro volta, germinano nuovi gametofiti. Il fenomeno non è
estraneo al regno animale: le meduse si riproducono sessualmente in
polipi, che generano in modo asessuato, meduse.
Un ulteriore indizio di comportamento programmato a livello
genetico viene offerto dall’attività migratoria animale. Questa
avviene prima dell’effettivo cambiamento climatico e la capacità di
orientamento nella rotta con la ricerca della direzione corretta
restano
misteriose
ed
incomprensibili
se
non
si
accetta
la
programmazione genetica del fenomeno. Il raggiungimento di zone con
clima temperato di stormi di uccelli al sopraggiungere dell’inverno ed
il rientro nelle zone di provenienza in primavera sono esempio di un
ciclo di comportamento ripetitivo che trova plausibili chiarimenti
solo quando viene attribuito ad un congegno genetico pianificato. Un
comportamento migratorio viene regolarmente osservato anche nei pesci.
La
scienza
attuale
propone
diverse
teorie
per
spiegare
il
comportamento migratorio. Nella maggior parte di queste teorie trovano
ampio
spazio
spiegazioni
sulle
possibilità
di
utilizzo
della
navigazione solare e stellare, che, se forzatamente accettabili nella
migrazione aviaria, trovano, a nostro avviso, qualche difficoltà ad
essere accettate nel caso dei pesci, e diventano inammissibili per
migrazioni negli abissi oceanici. Che esistano stimoli esterni in
grado di attivare il processo iniziale del fenomeno migratorio, può
essere logicamente accettabile: ma solo stimoli interni programmati
34
Charles Darwin: L’origine delle specie – Club del Libro Fratelli Melita. 1986.
18
possono spiegare in modo soddisfacente il complesso dei comportamenti,
quasi del tutto scontati, dell’attività migratoria.
Un comportamento rituale geneticamente predisposto, assai noto in
zootecnia, è quello conosciuto come danza dell’ape, descritta per la
prima volta nel 1923 dallo zoologo australiano Karl von Frisch. Quando
un’ape scopre una fonte di nettare, al rientro in alveare e con totale
assenza di addestramento, per comunicarlo alle proprie compagne,
inizia a comporre una serie di movimenti che sono strettamente
correlati a distanza, direzione ed abbondanza della fonte floreale. In
questo caso nessuno può mettere in dubbio che i movimenti sono
geneticamente predeterminati e sistematici: per una distanza inferiore
a 90 metri viene tracciato un percorso circolare alternato; per
distanze maggiori viene tracciato un percorso doppiamente circolare, a
forma di 8.
Fenomeni di risposta genetica programmata non sono estranei alla
biologia vegetale. Noto è il tropismo, una sorta di sensibilità
positiva o negativa a certi stimoli ambientali. La sensibilità alla
luce viene definita fototropismo e si manifesta con un comportamento
assai evidente come avviene, ad esempio, nella pianta del girasole che
si presenta con una spiccata forma di eliotropismo. Altre comuni
espressioni di tropismo vengono individuate nel geotropismo tipico
delle radici delle piante, questa forma di tropismo spesso si combina
con l’idrotropismo per la ricerca della zona più umida circostante. Il
percorso apparentemente irregolare e caotico delle radici trova piena
ragione in questi meccanismi.
A proposito di corredo cromosomico, il soggetto biologico
maggiormente descritto nella letteratura corrente è il moscerino della
frutta, drosofila melanoganster, che dispone di quattro coppie di
cromosomi. Invece, un solo cromosoma circolare a forma di anello
costituisce il corredo di Escherichia coli, un batterio comunemente
presente nel tratto intestinale umano ed animale. Il batterio può
diventare patogeno per l’ospite ed inizia a produrre tossine,
innescando
processi
infettivi
a
danno
dell’apparato
urinario,
dell’appendice, della colecisti o dell’intestino retto. La produzione
di tossine è una normale attività del metabolismo batterico. Tuttavia
le tossine non sono specifiche dei batteri; piante, insetti e rettili
sono normalmente in grado di metabolizzare sostanze che si dimostrano
tossiche per i mammiferi. Nonostante siano tutte velenosissime, le
tossine vengono usualmente distinte in fitotossine quando sono di
origine vegetale e zootossine se di provenienza animale. E’ noto un
lungo elenco di infezioni a carico dell’attività delle diverse
tossine, il cui dettagliato meccanismo d’azione è da considerarsi,
tuttavia, per lo più ignoto, ma, in linea generale, identificabile in
una attività emotossica a danno del circolo sanguigno, spesso
accompagnata da fenomeni emorragici, ed una attività neurotossica
responsabile di paralisi dei centri nervosi, tipicamente dei centri di
governo del sistema respiratorio e di quello cardiaco. Non è rara la
combinazione sinergica delle due attività. Non deve sembrare strano il
fatto che le tossine sono mortali per alcuni animali e non per altri,
come avviene nel caso di alcuni ragni che producono tossine attive
sulle loro prede ma non sull’uomo. La motivazione è da attribuirsi
esclusivamente alla quantità di veleno somministrato: quella che in
farmacologia viene identificata come dose letale per quel soggetto
biologico.
19
Le difficoltà nell’interpretare il corredo genetico discendono dal
fatto che le informazioni non sono immagazzinate, per così dire, in
chiaro, ma derivano da una incredibile quantità di combinazioni
generate da spostamenti e ricongiungimenti di segmenti cromosomici. Le
modificazioni prodotte sugli organismi viventi sono dovute sia ad
attività endogena, tipicamente la mutazione, che modifica il contenuto
informativo del corredo cromosomico cellulare; sia a sollecitazioni
ambientali esterne che favoriscono i soggetti più competitivi per la
conquista dell’ambiente a danno degli individui meno idonei. Tutti gli
esseri biologici sono tuttavia soggetti ad invecchiamento. Talvolta il
processo di invecchiamento si presenta in forma traumatica, come
avviene nel morbo di Alzheimer, descritto la prima volta nel 1906 dal
neuropatologo tedesco Alois Alzheimer, e che si accompagna a
manifestazioni identificate nella così detta demenza senile. Sono in
auge almeno due teorie sulle cause dell’invecchiamento. La prima è
nota come teoria degli errori: durante la replicazione del DNA errori
occasionali si accumulano compromettendo le funzionalità cellulari
sino alla paralisi. La seconda teoria è più recente e maggiormente
accreditata ed è dovuta al microbiologo americano Leonard Hayflick; la
teoria si fonda sull’osservazione che alcune cellule tissutali,
coltivate in vitro, dimostrano una capacità di un limitato numero di
divisioni cellulari. Pertanto la cellula sarebbe programmata per
morire dopo un preciso numero di divisioni cellulari già stabilito
alla nascita nel corredo genetico. Altra prova indiretta di questo
asserto verrebbe dalla differente longevità tra i due sessi in
parecchie specie animali, uomo compreso; in questo caso la femmina è
scientificamente più longeva del maschio di ben otto anni in media.
Resta in tal modo spiegata una maggioranza numerica femminile nelle
popolazioni umane pur osservando la medesima probabilità natale tra i
due sessi.
L’invecchiamento debilita le difese organiche che si oppongono
agli agenti patogeni, altrimenti detti, antigeni, alterando le
funzionalità del sistema immunitario i cui anticorpi diventano
incapaci di distinguere tra sostanze proprie dell’organismo ed agenti
esterni, non intervenendo su questi ultimi oppure attaccando se stessi
in una progressiva spirale di autodistruzione. La regione cromosomica
responsabile di questi meccanismi è stata individuata in quella che
controlla le funzioni del maggior complesso di istocompatibilità
(HLC)35.
Nei miliardi di anni successivi alla comparsa della vita sulla
terra è facilmente ipotizzabile, come si è visto, lo sviluppo di un
organismo sempre più complesso e competitivo che seguendo uno sviluppo
egoistico proteso verso la conservazione del DNA ha condotto alla
specie che doveva appestare il pianeta Terra ad ogni latitudine. La
differenziazione tra le razze umane è un capitolo scientifico
controverso; quasi certamente tutte le differenze derivano da reazioni
a stimoli esterni come nel caso dell’ampiezza dei fori nasali che è
ridotto nelle popolazioni che vivono in un clima nordico, per mitigare
la temperatura dell’aria fredda inalata, e più dilatato in quelle
razze che vivono in un clima torrido e caldo.36 Che l’uomo derivi dalla
scimmia è, in questa sede, accertato ma irrilevante dal momento che il
comportamento dei primi esseri della specie umana non era il caso che
fosse troppo diverso da quello degli altri animali, anche per
35
36
Clerici E.: Le funzioni del maggior complesso di istocompatibilità. Le Scienze n. 111 novembre 1977
Grahame Clark: La preistoria del mondo – Garzanti. 1967.
20
occasionali ma ripetuti episodi di cannibalismo, in virtù dell’istinto
a lottare per la sopravvivenza, ed a competere in particolare per
l’approvvigionamento alimentare, come già osservò 500 prima di Cristo
il filosofo milesio Anassimandro. Quando l’uomo prese coscienza che la
cooperazione di gruppo poteva essere vantaggiosa, iniziò a porsi il
problema della comunicazione con i suoi simili.
21
onde in ciascuna scienza la scrittura è stella piena di luce,
la quale quella scienza dimostra.
Dante Alighieri: Convivio
Linguaggio e scrittura
L
a maggior differenza tra uomo ed animale è la capacità
di utilizzo della tecnologia da parte dell’uomo. Ma la
differenza più palese che lo distingue tra gli animali è il
linguaggio. Le possibili forme di comunicazione animale non
si sono evolute oltre il ristrettissimo ambito di una capacità appena
espressiva. La lingua umana, in molte delle sue espressioni, è
ambigua, tuttavia, a dispetto del difetto segnalato, si presta alla
comunicazione, scopo cui è preposta, in maniera davvero soddisfacente.
Anzi, l’ambiguità consente la poesia e soprattutto concede una potente
difesa:
quella
di
mascherare
le
proprie
intenzioni
reali.
Limitatamente a questo senso, pensiero e linguaggio trovano puntuale
coerenza o corrispondenza.
I dispositivi umani di interazione con l’ambiente sono integrati,
specifici e specializzati. L’occhio è preposto alla vista, il naso
all’olfatto, la pelle al tatto, l’orecchio all’udito, la lingua al
gusto. Sono tutti dispositivi di acquisizione di informazione, o, come
si dice in gergo informatico, di input. Non esiste uno specifico
dispositivo specializzato per la emissione vocale37. La lingua parlata,
infatti, si avvale di una serie di apparecchi non specifici ma
adattati allo scopo. La voce è prodotta da uno strumento articolato
cui concorrono i polmoni, la laringe, la faringe, la bocca ed il naso,
tutti normalmente adibiti ad altre funzioni.
L’ambiguità del linguaggio naturale deriva, quindi, probabilmente
da un uso imprevisto (e inizialmente improprio) degli strumenti citati
in modalità fonetica: il linguaggio naturale, infatti, è l’espressione
manifesta del pensiero, che, a sua volta, può essere considerato una
sorta di linguaggio silenzioso che difficilmente possiamo ipotizzare
ambiguo38. L’aggettivo naturale attribuito al linguaggio umano potrebbe
diventare fuorviante in questa sede e pertanto necessita di
chiarimento. L’aggettivo in questione è riferito alla modalità con la
quale si è sviluppato e non ad una specifica qualità del linguaggio
che è un evidente prodotto umano e come tale sarebbe da qualificarsi
più correttamente artificiale. Quest’ultimo aggettivo invece è stato
riservato
a
linguaggi
come
quello
matematico
o
quello
di
programmazione per calcolatori al fine di consentire una sorta di
convenzionale distinzione. Il linguaggio può essere espresso, con pari
completezza, in forme differenti da quella orale. Un tipico esempio
viene fornito dalla mimica gestuale utilizzata dai sordomuti ed il
significato che può essere attribuito ai simboli rappresentativi, ai
gesti ed ai suoni è del tutto arbitrario. La totale indipendenza tra
significato e corrispondente rappresentazione ha consentito sia
l’evoluzione di una moltitudine di lingue differenziate con diversità
dialettali nella stessa lingua, sia il continuo adeguamento espressivo
in risposta alle esigenze contingenti.
37
38
Masetti C., Pieraccioli R.: Il linguaggio umano. Le Scienze n. 237 maggio 1988
Michel Meyer: Problematologia – Filosofia, scienza e linguaggio – Pratiche Editrice. 1991.
22
Anche se alcune parole imitano suoni naturali, accadimento che il
linguista vuol chiamare onomatopea, ogni lingua comprende un certo
numero di suoni elementari, detti fonemi, che di per sé, spesso, non
hanno
alcun
significato
pur
possedendo
una
corrispondente
rappresentazione grafica. Una adeguata concatenazione di fonemi
costituisce la parola. Questa, tuttavia, sovente è composta da più
morfemi,
ciascuno
ammesso
come
entità
grammaticale
elementare
provvista di rudimentale significato. Sicché la lingua orale si
esprime con una sequenza di morfemi oppure, ad un livello più basso,
di fonemi. La corretta sequenza fonemica soggiace a regole arbitrarie,
spesso sancite dall’uso, raccolte sotto il nome di sintassi. Delle
regole concernenti il morfema se ne occupa, invece, la semantica.
Osserviamo, per inciso, che le sequenze aminoacidiche degli acidi
nucleici potrebbero presentare analogie strutturali concettualmente
interpretabili solo in questo senso.
Il linguaggio, in fasi successive, si concretizza gradualmente in
scrittura. Così, l’abbondante ed imprecisa tradizione orale si
dissolve nella concisa e puntuale memoria scritta. L’impossibilità di
disporre di reperti storici orali rende lo studio della scrittura di
importanza decisiva per la comprensione dello sviluppo del pensiero.
La scrittura, come oggi la concepiamo, è il frutto di una millenaria
evoluzione che passa attraverso una serie di momenti cruciali che
possono essere temporalmente suddivisi solo per comodità espositiva.
L’invenzione della scrittura viene spesso attribuita ai Sumeri,
occupanti la Babilonia meridionale 5000 anni a.C., anche se poi
utilizzo e sviluppo avvennero indipendentemente e contemporaneamente
in più luoghi. Una sorta di accurata anche se primitiva forma di
tenuta della contabilità precede la scrittura39: su gettoni di argilla,
provenienti da siti attualmente in territorio iraniano ed oggi
conservati al Museo del Louvre, venivano registrati eventi contabili
con segni e fori che successivamente si svilupparono in ideogrammi
componenti la scrittura sumerica. Di più rozza fattura ed utilizzo
erano i calculi, le pietruzze utilizzate dai Romani per contare,
da
cui deriva il termine calcolo.
Reperti scritti ancora più antichi tuttavia, primordiale fase
della scrittura, riguardano tacche su ossa e pietre e disegni spesso
rupestri che si è deciso di qualificare come pittogrammi. La tacca è
da correlare con l’unità40: venivano in tal modo espresse entità
numeriche limitate a poche cifre. Il pittogramma, corrispondentemente,
costituiva il simbolo quale rappresentazione dell’oggetto referente41.
Inizialmente il pittogramma ha una forte somiglianza con il referente,
nel
suo
sviluppo
perde
le
caratteristiche
originarie
e,
semplificandosi, assume un aspetto stilizzato. Ad esempio, il numero 5
romano (V) è il chiaro simbolo rappresentativo di una mano aperta, il
10 (X) stilizza due mani aperte contrapposte. La numerazione romana,
primitiva, inefficiente ed approssimata rispecchia il fatto che
l’antica Roma non è stata in grado di esibire nessun matematico degno
di questo nome. Ciò tuttavia ha vantaggiosamente consentito la
conservazione, fino ai nostri giorni, di questo primitivo simbolismo
numerico. Nelle scritture correnti il senso dei simboli citati si è
39
Shmandt-Besserat D.: Gli antecedenti della scrittura. Le Scienze n. 120 agosto1978
Carl Boyer: Storia della matematica – Oscar Saggi Mondadori. 1996.
41
Silvestri D. e Tonelli L: Le scritture più antiche. Le Scienze n. 122 ottobre 1978
40
23
definitivamente allontanato dal significato originario e non poteva
altrimenti avvenire.
Alla fase pittografica segue, solitamente, ma non necessariamente,
la fase ideografica. Talora la due fasi si sovrappongono. Il
pittogramma e l’ideogramma si differenziano
non per l’aspetto
esteriore
bensì
per
il
significato
che
il
simbolo
assume.
Nell’ideogramma il disegno di una gamba o di un piede stanno a
rappresentare, per esempio, il camminare o il correre. La scrittura
inizia, in questo modo, ad esprimere non solamente oggetti concreti ma
anche astrazioni. La semplice architettura del sistema rappresentato
dalla connessione diretta tra simbolo e referente, tipica del
pittogramma, si evolve, assume quindi un aspetto più complesso:
entrano in gioco altre due connessioni forti con una terza entità: il
pensiero nell’atto della rappresentazione; questo si connette sia con
il simbolo, la cui scelta è critica e, pertanto, meditata, sia con il
referente, che diventa di fatto la sua concretizzazione.
Come si può facilmente rilevare da quanto esposto, nelle sue fasi
iniziali la scrittura potrebbe non aver relazioni con la lingua
parlata: queste non sono necessarie in quanto non aggiungerebbero
significato
alle
rappresentazioni.
Nella
fase
logografica,
al
contrario, i simboli vengono raggruppati per costruire parole e frasi
che non hanno alcuna attinenza con gli oggetti rappresentati. Scrivere
in modo logografico è assai simile alla composizione di un rebus: gli
oggetti rappresentati servono per esprimere una composizione fonetica
che a sua volta attribuisce significato alla parola o alla frase.
Spesso, il numero dei simboli utilizzati è piuttosto elevato. In
questa fase la connessione tra pensiero e simbolo è puramente
accidentale.
L’ultima fase è quella fonografica o di alfabetizzazione. Il
numero dei simboli si riduce drasticamente e questi sono gradualmente
e progressivamente stilizzati fino a costituire quello che usualmente
chiamiamo alfabeto. Ciascun simbolo o gruppo limitato di simboli viene
associato ad un suono elementare o fonema. L’unica relazione diretta
resta tra pensiero e referente. La scrittura alfabetica diventa un
completo e sofisticato strumento di comunicazione parallelo alla
lingua orale. Il numero ridotto di simboli rende più accessibile
l’apprendimento della scrittura, inizialmente riservata alla casta
sacerdotale, scrittura che può, a questo, punto diffondersi con
maggior facilità.
I supporti di scrittura più antichi che ci sono pervenuti, oltre
alle iscrizioni commemorative incise su pietra o su metallo, sono
essenzialmente costituiti da stele e tavolette d’argilla graffiate per
mezzo di stiletti appuntiti. Particolare rilevanza, non fosse altro
che per l’attenzione prestata dagli studiosi42, assumono i geroglifici
egizi: una completa scrittura che non rispettava uno specifico verso.
L’inizio del rigo viene indicato, infatti, dalla parte verso cui sono
rivolte le facce dei simboli. I nomi propri di persona sono circondati
con una linea ovale chiusa detta cartiglio (in molte scritture
alfabetiche successive la funzione fu assolta dal carattere iniziale
maiuscolo). Il primato di aver inventato un vero e proprio alfabeto
costituito da 24 lettere spetta ai Fenici e ciò avvenne intorno al
1000 a.C.. La scrittura dei Fenici si sviluppava da destra a sinistra
42
Johannes Friedrich: Decifrazione delle scritture scomparse. Sansoni Università. 1973
24
ed il termine alfabeto deriva dalle due prime lettere fenicie aleph e
bet, riprese dai greci alcuni secoli più tardi (850 a C.) in alfa (α)
e beta (β). Nella primitiva scrittura greca le righe dispari
iniziavano da destra, quelle pari da sinistra seguendo la linea del
motivo ornamentale che chiamiamo greca. Successivamente nella lingua
greca prevalse il verso, attualmente dominante, delle righe pari
ripreso, più tardi, nelle lingue latine assumendo, nell’aspetto, la
configurazione contemporanea.
Scribi, copisti e scrivani hanno sostenuto un ruolo determinante
per un lungo periodo della storia dell’uomo. L’invenzione del torchio
per la stampa a caratteri mobili ad opera del tedesco Johann Gutenberg
(1394-1468) ha prodotto una innovazione relativamente recente (1450),
che sovente diamo per scontata come se fosse stata disponibile in ogni
tempo della storia umana.
La possibilità di ottenere rapidamente e con poca mano d’opera un
gran numero di copie ha dato l’avvio all’editoria industriale ed ha
reso realizzabile la cultura di massa. L’avvento del calcolatore
sembra
esasperare
questa
tendenza
consentendo
una
editoria
individuale.
Il linguaggio naturale, nonostante l’aggettivo, è, come già
accennato altrove, un prodotto artificiale dell’uomo, tant’è che per
impadronirsene, necessita di un sufficiente periodo di addestramento.
Normalmente viene appreso, senza sforzo apparente, il linguaggio
utilizzato nell’ambiente circostante. Le aree soggette ad un utilizzo
bilingue o plurilingue sembrano non presentare difficoltà e non si
palesano fenomeni intesi alla modifica delle situazioni in atto. Certo
è che l’evoluzione linguistica contemporanea comprende, altre ai
neologismi, che in gran parte restano limitati nel gergo ristretto
d’origine, adozioni di parole e morfemi di altre lingue generando il
substrato di una specie di linguaggio universale. L’attuale rapidità
degli spostamenti internazionali ed intercontinentali e la facilità
delle comunicazioni accelerano e facilitano questi processi favoriti
massivamente più da un utilizzo gestuale, un quasi linguaggio
universale del corpo, che da un consapevole interscambio culturale.
Attualmente
non
avvertiamo
alcuna
difficoltà
nel
processo
di
comunicazione
a
distanza,
data
la
diffusione
del
telefono.
Storicamente, la comunicazione a distanza fu relegata per molto tempo
a distanze ottiche: segnali di fumo, percussioni, sibili e sventolio
di bandiere colorate erano gli unici supporti che la tecnologia
ammetteva. In presenza del sole era possibile trasmettere segnali
luminosi con gli specchi. Non molto tempo prima dell’avvento del
calcolatore l’unico alfabeto universalmente diffuso era, a partire dal
1837, per esigenze strumentali telegrafiche, il codice di Samuel Morse
(1791-1872). Oggi, il codice Morse è andato ufficialmente in pensione
ed il simbolismo informatico, specie quello simbolico ad icone, anche
se diffuso in differenti formati, costituisce un valido supporto di
interscambio in virtù di una certa indipendenza dal linguaggio
naturale umano con il non trascurabile pregio della mancanza di
ambiguità che garantisce un univoco ed universale significato alla
rappresentazione.
La perdita della capacità di intendere il significato delle parole
è definita con il termine medico afasia, ed è causata da lesioni di
specifiche aree cerebrali interessate a questa funzione. Questo
rappresenta un forte indice di correlazione che coniuga le capacità
cognitive con il sistema nervoso. Possiamo pertanto ritenere che il
25
sistema nervoso ha la candidatura effettiva ad essere eletto supporto
essenziale del pensiero e della mente in generale.
26
E questo è però che
'l nervo per lo quale corre lo spirito visivo, è diritto a
quella parte, e però veramente l'occhio l'altro occhio non
può guardare, sì che esso non sia veduto da lui
Dante Alighieri: Convivio
Il sistema neurale.
I
l cervello dell'uomo è l'oggetto più complesso in
assoluto dell'universo. Il Testo-Atlante Istituzioni di
Anatomia dell’Uomo di Giulio Chiarugi e Luigi Bucciante
comprende un intero e corposo volume (il IV, nell’edizione in
mio possesso) dedicato all’apparecchio nervoso centrale. Il primo che
intuì che la sede delle attività intellettuali era racchiusa nel
cranio fu un discepolo di Pitagora che visse a Crotone, tale Alcmeone.
Egli descrisse anche la tromba di Eustachio e i nervi ottici. Dovevano
tuttavia trascorrere molti secoli affinché la scienza ufficiale
prendesse coscienza delle idee di questo pitagorico: per molto tempo,
infatti, si è sostenuto che l’essenza della vita risiedesse altrove
(nel cuore, nella ghiandola pineale, nel sangue e così via), e
radicati modi dire attuali (desiderare con il cuore, non aver sangue
nelle vene, ecc.) sono la testimonianza delle quelle credenze. Solo
nel 1543 il Vesalio nel De corporis humani fabrica riprese l’antica
concezione pitagorica ed intuì una possibile relazione tra peso e
volume del cervello ed intelligenza43.
Il cervello è costituito da una moltitudine (nell’ordine dei 100
miliardi) di cellule nervose, neuroni, collegate tra loro tramite un
intricato sistema di connessioni interneurali (dendriti e neuriti)
separate da speciali sistemi di contatto detti sinapsi. L’intricato
schema dei percorsi è predeterminato geneticamente e la corretta
struttura determina non solo la corretta funzionalità delle attività
sensoriali ma anche di quelle del pensiero. La cellula nervosa si
differenzia dalle altre non soltanto per l’aspetto ma per la
peculiarità di una scarsa capacità al ricambio generazionale: tutte le
altre
cellule
nel
corso
della
vita
dell’individuo
vengono
effettivamente più volte sostituite; le cellule nervose lo sono in
minima parte. Praticamente possiamo assumere che siano le stesse
dall’infanzia
alla
vecchiaia.
In
linea
di
principio,
l'unità
funzionale neurale, detta appunto neurone, riceve stimoli dalle
ramificazioni dendritiche; se la totalità degli stimoli supera un
certo valore detto valore di soglia (che tuttavia non resta
precisamente fissato e non sembra perfettamente costante nel tempo)
provoca un impulso lungo il neurite, impulso che tramite connessioni
viene trasmesso ad altre cellule del sistema. Che la cellula neurale
fosse di per se un organo complesso era facilmente ipotizzabile, ma
che potesse contenere tutte le informazioni contenute nelle cellule
interconnesse è una sorpresa dovuta a recenti esperimenti. In ogni
caso il neurone pur esprimendo una individualità indiscussa soggiace
al comportamento dei vicini. Gruppi di neuroni si associano coprendo
aree specifiche preposte a precise funzioni. L’analisi dei traumatismi
del cranio coinvolgenti alterazioni della materia grigia hanno
consentito una individuazione delle aree coinvolte in particolari
funzioni che appaiono compromesse nel soggetto traumatizzato. Le aree
interessate non sono, di solito, troppo compatte ma costituite da
43
Cyril V. Brewer: L’organizzazione del sistema nervoso - Universale scientifica Boringhieri. 1974.
27
raggruppamenti sparsi di neuroni. Il medesimo neurone, poi, appare
svolgere compiti diversi attivandosi durante la composizione di aree
funzionali differenti. L’addestramento e l’apprendimento accrescono le
superfici interessate per il coinvolgimento di una maggior quantità di
neuroni e modificando in modo significativo la mappatura delle aree di
attività. Tutti questi fenomeni rendono effettivamente ardua la
comprensione dei meccanismi del funzionamento della mente.
Alcune attività non sono sottoposte al dominio diretto delle
cellule cerebrali, come, ad esempio, le attività locomotorie, che
dipendono da una rete nervosa specializzata ed indipendente che
risiede nel midollo osseo. Altre attività quali la masticazione, la
respirazione ed i movimenti
ripetitivi in genere sono sotto il
controllo di neuroni del tronco cerebrale. Veri e propri programmi di
locomozione sono memorizzati in gruppi di cellule nervose preposte a
questa
funzione,
questi
programmi
possono
essere
attivati
o
disattivati da specifiche cellule che svolgono la funzione di un vero
e proprio interruttore.
E’ possibile individuare almeno due percorsi nervosi: le vie di
raccolta delle informazioni dalle unità periferiche e le vie che
trasportano le istruzioni per la reazione ai solleciti. Il meccanismo
che coinvolge stimolo e reazione è il medesimo sia se riguarda il
mondo esterno che l’attività interna dell’organismo. In entrambi i
casi la funzione essenziale del sistema nervoso è quella di costituire
un supporto rapido ed efficace alla trasmissione di informazioni.
Segnali ed impulsi vengono trasmessi da molti tipi di cellule ma la
cellula nervosa è altamente specializzata in questo compito. Ciò che
può essere inteso come comportamento, comprese le sue espressioni più
elementari come il semplice movimento di un arto è da riferirsi al
sistema nervoso. Ciò che sostanzialmente differenzia il sistema
nervoso dagli altri sistemi ed apparati biologici è la chiave di
lettura dell’aspetto fisiologico: nel sistema nervoso si studiano
essenzialmente i meccanismi di trasferimento delle informazioni o
delle istruzioni, in altri termini, si studia il comportamento e
quindi si oltrepassa la pura e semplice funzionalità cellulare, spesso
più che soddisfacente a chiarire, in tutti gli altri casi, le
problematiche fisiologiche.
E’ provato, fin dagli esperimenti condotti sulle rane dal
bolognese Luigi Galvani (1737-98), che l’attività essenziale del
sistema nervoso ha strette correlazioni con fenomeni di natura
elettrica, la differenza di potenziale che si genera durante un
impulso nervoso tra l’interno e l’esterno di una cellula neurale è
generata da una pompa chimica che funziona in maniera analoga a quella
di una pila elettrica. L’elettroencefalogramma è una analisi clinica
consueta dell’attività cerebrale intesa a rilevare anomalie e
malattie: la lettura del tracciato elettroencefalico consente di
distinguere con notevole precisione un soggetto ammalato da uno sano.
Sia negli animali sia nell’uomo, non affetti da disagi nervosi, è
possibile individuare un comportamento che possiamo definire in un
certo senso prevedibile o precostituito. L’uccello che fabbrica il suo
nido, l’interesse dell’uomo a comprendere e dominare l’ambiente che lo
circonda sembrano effetti dovuti a norme comportamentali memorizzate
geneticamente
nell’individuo
piuttosto
che
a
stimoli
prodotti
dall’ambiente. D’altro canto memoria ed apprendimento sono il
risultato di attività dovute esclusivamente a ripetuti esercizi e non
è stata individuata alcuna sostanza in grado di migliorarne
l’efficienza (una popolare credenza priva di ogni
fondamento
28
scientifico vede nel fosforo la panacea della soluzione ai problemi di
memoria). Memoria ed apprendimento non sono peculiari dell’umanità: in
letteratura sono stati descritti casi di animali che hanno persino
imparato a contare, sia pure un limitato numero di oggetti. Allora le
differenze sono da ricercarsi nella complessità dell’argomento da
acquisire piuttosto che nel meccanismo intrinseco all’esercizio della
memoria e dell’apprendimento.
Sono stati eseguiti esperimenti che dimostrano che l’attività
della memoria è da ricercarsi nella chimica dell’organismo. Lo
psicologo McConnell44 ha dato in pasto planarie opportunamente
addestrate a planarie non addestrate: a digestione conclusa le
planarie non addestrate dimostravano di possedere una conoscenza
analoga a quella delle compagne che avevano divorato. La planaria,
quando viene tagliata, è in grado di ricostruire le parti mancanti.
McConnell tagliò planarie addestrate in tre parti: testa, tronco e
coda; ciascun troncone ricostruì un intero animale perfettamente
addestrato.
Questi esperimenti hanno dimostrato che:
1) il sapere è un fenomeno squisitamente fisico;
2) esiste la possibilità di trasmettere il sapere per via fisica;
3) il sapere non risiede in un particolare organo.
A questo punto è possibile facilmente ipotizzare che informazione
genetica ed informazione acquisita potrebbero essere immagazzinate
negli individui allo stesso modo e con meccanismi analoghi.
44
F.L. Boschke: L’origine della vita - Garzanti. 1973
29
Li numeri, li ordini, le gerarzie narrano li cieli mobili…
Dante Alighieri: Convivio
Macchine di Turing
S
ono stati ideati almeno tre differenti
modelli di
macchine teoriche per la computazione. Oltre al modello
descritto nel 1936 da un giovane studente di matematica,
l’inglese Alan Mathison Turing (1912-1954), sono noti il
modello di Post (1936) e quello con memoria push-down45. Nonostante le
differenze tutte queste macchine sono equipotenti nel senso che
nessuna si è dimostrata più efficace delle altre, anzi è stata
matematicamente
dimostrata
l’equivalenza,
in
termini
di
intercambiabilità, delle tre varianti. Una macchina di Turing è una
apparecchiatura logica, nel senso che il suo funzionamento è
totalmente
indipendente
dal
materiale
con
cui
potrà
essere
effettivamente realizzata. In perfetta sintonia con il cervello
naturale,
vengono
utilizzati
impulsi
elettrici
nelle
attuali
apparecchiature. La classica macchina di Turing possiamo immaginarla
costituita da un nastro suddiviso in una serie interminabile di celle.
Lungo il nastro si sposta, verso sinistra o verso destra, una testina,
in qualità di dispositivo di lettura e scrittura. Assumiamo che la
testina (cursore) sia in grado di scrivere un certo simbolo o di
cancellarlo e sia anche capace di leggerlo distinguendo una cella
vuota da una contrassegnata. A sinistra della prima cella non ci sono
altre celle ed il cursore che tentasse di spostarsi oltre la prima
cella a sinistra dell'inizio del nastro ne troverebbe naturale
impedimento e terminerebbe la sua corsa.
Supponiamo di utilizzare
quello che tecnicamente di dice un alfabeto finito e cioè i simboli
del sistema binario 1 e 0. La rappresentazione di due cifre sul nastro
della macchina appare come una ripetizione di simboli 1 interrotta da
uno 0. Supponendo di voler eseguire una operazione di somma delle due
cifre è sufficiente accostare una sequenza all’altra in modo da
ottenere il risultato: una catena di cifre 1 senza interruzione. Una
possibile sequenza operativa per ottenere il risultato descritto
potrebbe essere la seguente:
♦ leggi la cifra 1 all’estrema sinistra del nastro
♦ scrivi 0 al posto della cifra 1 letta
♦ sposta la testina di lettura verso destra fino a trovare una
cifra 0
♦ scrivi 1 al posto dello 0 trovato
♦ fermati
La sequenza operativa delle istruzioni impartite alla macchina di
Turing prendono il nome di algoritmo che altro non è che la
progettazione di una macchina di Turing specifica per compiere una
data operazione. L’esempio descritto è tanto semplice da rasentare la
banalità. E’ evidente che è possibile progettare macchine di Turing in
grado di eseguire innumerevoli operazioni semplici assemblate in
strutture che assumono un livello di complessità a piacere.
L’algoritmo è la naturale evoluzione della formula matematica che è
45
Zohae Manna: Teoria matematica della computazione – Serie di informatica Boringhieri. 1978.
30
stata, di fatto, da questo inglobata46. La formula matematica si limita
a trattare esclusivamente cifre, l’algoritmo è in grado di trattare,
oltre ai numeri, la rappresentazione di ogni tipo di oggetto: lettere
alfabetiche, immagini, suoni, e gruppi di oggetti con ogni tipo di
complessità, compresi altri algoritmi e compreso se stesso. E’ curioso
che il calcolo algoritmico o computazione, qualunque sia la
complessità, non genera mai informazione: anzi è causa sistematica di
perdita di informazione47. Si rifletta, per esempio, sul semplice
calcolo 2+2=4. Il risultato dell’operazione (4) di per sé contiene
meno informazione degli elementi in ingresso (2+2). Gli elementi in
ingresso, invece, contengono implicitamente il risultato in uscita;
viceversa il dato in uscita nulla ci dice circa l’origine che poteva
essere, nel nostro caso, 3+1 o 4+0 o 2+2. Paradossalmente, allora,
consumiamo
energia
per
distruggere
informazione.
Le
attuali
informazioni, poi, vengono memorizzate su labili supporti magnetici o,
nel migliore dei casi, su delicati supporti ottici la cui durata di
conservazione nel tempo non è minimamente paragonabile al resistente
papiro egizio48. E su questi inconsistenti fondamenti poggia tutta
l’attuale scienza informatica.
Il termine algoritmo si fa derivare dall’ultima parte del nome del
matematico persiano del IX secolo Abu Jahfar Mohammed ibm Musa AlKwarizmi autore dell’opera Al-jebr wal-muqabala. Il nome dello
studioso, parola per parola, si potrebbe tradurre con: padre di Jahfar
Maometto figlio di Musa proveniente dalla Coresmia. Il suo trattato
che, letteralmente tradotto, vuol dire “Trasporto ed elisione”, con
chiaro riferimento alle operazioni fondamentali tra i due membri
dell’uguaglianza di quella che oggi chiamiamo algebra (Al-jebr), restò
una pietra miliare della matematica per diversi secoli a seguire. E’
probabile che anche il termine odierno “cabala” (indicante la pseudoscienza esoterica assai nota che nulla a che vedere con la matematica)
derivi dall’ultima parte del titolo elidendo la prima parte
dell’ultima parola così come fa colui che pur di darsi lustro (ma non
sa di cosa si parla) cerca di imitare l’erudito.
Per eseguire operazioni non banali avremmo bisogno di un
consistente numero di macchine di Turing, ciascuna specializzata per
un determinato compito. Il processo di generalizzazione di una
macchina di Turing opportunamente programmabile a seconda delle varie
esigenze è dovuta al genio matematico dell’ungherese, naturalizzato
americano, John von Neumann (1903-1957). Nel 1945 von Neumann
progettò, nell’Istituto di Studi Avanzati dell’Univesità di Princeton,
dove lavorava fin dal 1933, l’EDVAC (Electronic Discrete Variable
Automatic Computer), il primo computer che doveva la sua flessibilità
al fatto che conteneva in memoria non solo i dati da elaborare ma
anche il programma, cioè le istruzioni necessarie per l’elaborazione.
Il fatto stupefacente è che istruzioni e dati possono essere
rappresentati con gli stessi codici numerici. E’ il contesto logico o
sintassi che permette di distinguere se si tratta di un dato oppure di
una istruzione. Il significato della rappresentazione simbolica del
dato, cioè se si tratta di numeri, lettere, immagini o suoni, può
essere concordata di volta in volta tra il programmatore ed il
calcolatore. Ciò consente una grande flessibilità e permette di
utilizzare al meglio gli spazi limitati della memoria di macchina.
46
Knuth D.E.: Gli algoritmi. Le Scienze n. 108 agosto 1977
Bennet C.H., Landauer R.: I limiti fisici fondamentali del calcolo. Le Scienze n. 205 settembre 1985
48
Rothenberg J.: La conservazione dei documenti digitali. Le Scienze n. 319 marzo 1995
47
31
L’attuale calcolatore, contrariamente a ciò che comunemente si pensa,
nonostante il fattore di crescita raggiunto è uno spazio troppo
limitato ed inadeguato per problemi di tipo matematico che coinvolgono
numeri composti da una quantità cifre che eccede la capacità di
memoria. Per ciò che concerne i limiti fisici di spazio si pensi al
fatto che se riuscissimo a memorizzare tutte le possibili mosse
scacchistiche, ciascuna occupante un solo atomo, la materia necessaria
eccederebbe la quantità disponibile nell’intero universo. Questa
categoria di problemi per i quali è noto l’algoritmo risolutivo ma non
si dispone di macchine di adeguata capacità o velocità viene
classificata dei problemi intrattabili, per distinguerla da quella dei
problemi insolubili per i quali cioè, non è stato possibile
individuare
un
algoritmo
risolutivo.
Per
quanto
riguarda
la
inadeguatezza il calcolatore è uno strumento digitale, sarebbe a dire
discreto; pertanto mal si adatta a rappresentare il continuo e meno
ancora l’infinito. E’ in un certo senso un ritorno al pitagorismo dove
tutto è numero e i numeri triangolari, quadrati o, in genere,
poligonali rivivono l’originaria armonia nei pixel che descrivono le
immagini e nei bit che compongono i suoni e quant’altro. In questo
nuovo mondo, tuttavia, non è stato necessario nascondere la vergogna
dell’incommensurabile come avvenne per i pitagorici: non c’è proprio
nessuno spazio per l’irrazionale.
Se si dovessero definire in dettaglio tutte le operazioni
elementari che compie una macchina di Turing per eseguire una
computazione non banale utilizzando come alfabeto finito il sistema
binario otterremmo una lunghissima sequenza di 1 e 0 difficilmente
comprensibile
in
termini
umani.
Troveremmo
difficoltà
di
interpretazione analoghe a quelle che si incontrano osservando la
sequenza degli aminoacidi degli acidi nucleici con la non trascurabile
differenza che le regole di composizione della sequenza binaria sono
il risultato di una scelta conosciuta. Allora, per facilitare i
compiti di scambio di informazioni tra uomo e macchina sono stati
proposti
dei
sistemi
di
codifica
noti
come
linguaggi
di
programmazione. Un linguaggio di programmazione è costituito da un
insieme di comandi flessibili e da gruppi di regole limitative
dell’utilizzo di quei comandi. L’esecuzione di un comando scatena una
incredibile serie di micro-operazioni di macchina il cui risultato
innesca l’esecuzione del comando successivo, e così via, fino al
termine, che coincide con l’esecuzione dell’ultimo comando contenuto
nel programma.
La descrizione di ordinarie operazioni che ipotizziamo semplici,
diventa di una complessità inaudita durante l’esposizione dell’analisi
di dettaglio. Si pensi alla semplice scelta un minuscolo oggetto tra
quelli
disponibili
a
portata
di
mano.
Occorre
primariamente
individuare e riconoscere l’oggetto analizzando una certa quantità,
spesso non banale, di attributi catturati tramite il sistema visivo:
la forma, la grandezza, il colore, l’orientamento e la posizione
spaziale. In caso di più oggetti uguali entrano in gioco ulteriori
fattori (il più vicino, il più nuovo, il più sporgente, il più
luminoso, il più facile da raggiungere ecc.). Occorre poi coordinare
il complesso movimento che implica le articolazioni di dettaglio
dell’arto interessato coinvolgendo i sistemi scheletrico, muscolare e
nervoso
di
braccio,
avambraccio,
carpo,
metacarpo
e
falangi,
guidandolo alla presa, tenendo conto della postura di partenza e della
desiderata rapidità e precisione della esecuzione. Un braccio
robotizzato efficiente è in grado di effettuare la medesima operazione
descritta per l’arto umano spesso con un miglior grado di accuratezza,
32
precisione e rapidità, ma, allo stato attuale, con una minore
flessibilità. La resistenza alla durata operativa non è minimamente
paragonabile essendo, l’arto meccanico, sottoposto ad usura e non a
stanchezza. I comandi operativi vengono descritti una sola volta.
Apposite istruzioni di iterazione consentono la ripetizione della
sequenza per un numero di volte a piacere o finché non si verifica una
specifica condizione (ad esempio: non ci sono più oggetti da
manipolare).
Quando un algoritmo viene espresso attraverso uno specifico
linguaggio di programmazione prende il nome di programma. Un metodo
attualmente diffuso per la redazione di programmi per calcolatore è
noto come “programmazione strutturata”. E la struttura si concretizza
in figure che, secondo uno studioso (Jackson), sono riducibili a tre:
♦ la scelta (select)
♦ la sequenza (sequence)
♦ la ripetizione (iter until)
Con questo metodo sarebbe possibile descrivere oggetti informatici
con qualsiasi livello di complessità, su cui redigere programmi
modulari, ordinati, più facilmente modificabili e con un numero
ridotto di possibili errori.
Per fare un esempio, un libro in due volumi verrebbe descritto
come:
libro: sequenza di autori, editore, titolo, testo
autori: ripetizione di autore
testo: volume uno oppure volume due (scelta)
testo volume uno: ripetizione di pagina
testo volume due: ripetizione di pagina
La descrizione può procedere su livelli di profondità non
predeterminata a seconda delle necessità di dettaglio. Gli elementi
dell’oggetto descritto vengono individuati sulla base del punto di
vista da cui si osserva la struttura. Nel caso del libro, in
alternativa a quanto visto, il testo volume X potrebbe essere
descritto come una sequenza di Introduzione, Capitoli e Appendici o in
altri modi più consoni all’obbiettivo desiderato. Queste osservazioni
ci inducono a differenziare struttura fisica e struttura logica. Ad
una struttura fisica (che è univoca) possono corrispondere molteplici
strutture logiche. L’ideale sarebbe individuare il massimo dettaglio
della struttura fisica dell’oggetto in modo che qualunque struttura
logica possa far riferimento diretto agli elementi della struttura
fisica. E’ ciò che tenta di fare l’organizzazione dei dati nota come
Data Base relazionale in classificazioni tecnicamente definite come
riduzioni a forme normali.
Un programma può essere scritto in molti modi e la sua efficienza
varia a seconda della creatività del programmatore. Di solito è più
efficiente un programma con un minor numero di istruzioni, in quanto
il parametro più importante è il tempo. Più rapido è l'ottenimento del
risultato migliore è da considerare il programma. Talora il programma
deve rispondere ad esigenze colloquiali connesse ad immissione da
tastiera ed emissione estemporanea su visore. Ed allora prendono il
nome di programmi interattivi. Altre volte le istruzioni del programma
devono
essere
ripetute
un
numero
finito,
ma
inizialmente
33
indeterminato, di volte, e vengono classificati di tipo batch, sarebbe
a dire con lettura automatica dei dati in immissione. A qualunque
categoria appartengano esistono gruppi di istruzioni (sottoprogrammi)
che devono essere eseguite più volte prima del termine del programma:
queste istruzioni, per economia, compaiono una sola volta nel corpo
del programma e vengono ripetutamente richiamate per l’esecuzione
generando quelli che tecnicamente sono detti loops (cicli). Talvolta
accade che, vuoi per errore del programmatore, vuoi per la natura del
problema venga innescato un loop senza uscita (infinite loop) ed il
processore resta coinvolto in un interminabile processo ripetitivo che
può essere rimosso solo tramite un drastico e traumatico intervento
esterno. Questo fenomeno era già stato teorizzato e descritto da
Turing (problema della fermata) nell’analizzare algoritmi dei quali
era
impossibile
prevedere
l’esistenza
del
momento
finale.
In
particolarissime circostanze questo indesiderato effetto collaterale è
stato volutamente provocato: è il caso dei così detti NEP (Not End
Programs) o programmi senza uscita che vantano l’esigenza di restare
attivi per tutto il tempo di attività del processore.
Già nel 1943 McCulloch e Pitts49 descrissero, con linguaggio
matematico, una rete neuronica artificiale in grado di imitare un
sistema nervoso biologico. La sostanziale differenza tra rete
neuronica e
macchina di Turing è dovuta al fatto che la prima
utilizza un meccanismo di tipo analogico e la seconda, invece, di tipo
digitale. Il neurone somiglia ad una diga con barriera variabile: i
potenziali d’azione entrano in attività al superamento del livello di
guardia che dispone di una sensibilità regolabile di volta in volta.
Il dispositivo di Turing funziona, invece, utilizzando unità discrete,
come un comune interruttore: acceso oppure spento. La struttura
essenziale di una rete artificiale di neuroni comprende:
1) una serie di ingressi
2) una serie di strati neurali
3) una serie di uscite
Gli ingressi sono fisicamente e variamente connessi allo strato
neurale prossimo. Gli strati neurali intermedi sono connessi tra loro
e l’ultimo strato con le uscite. Entro certi limiti è possibile
simulare una rete neurale con una opportuna macchina di Turing che
sfrutta l’algoritmo di retropropagazione descritto nel 1974 da Paul J.
Verbos50 nella sua tesi di laurea. In pratica, si adeguano i sensori di
uscita alla risposta desiderata, in relazione ai segnali di ingresso e
l’algoritmo di Verbos trova le regole (in termini di sommatorie pesate
degli stimoli in ingresso) per riprodurre correttamente la risposta in
uscita e le memorizza. E’ un vero e proprio apprendimento tramite
addestramento. Reti neurali vengono opportunamente addestrate per
riconoscere caratteri scritti in differenti corpi tipografici e i
relativi programmi (Optical Character Recognition) vengono utilizzati
per memorizzare su calcolatore testi scritti, catturati tramite idonei
dispositivi per la scansione ottica (scanner). E’ possibile la
scansione di alfabeti specifici come l’alfabeto musicale: uno spartito
può essere letto ed interpretato in forma musicale con l’opportuno
software. Con una tecnica analoga, ma sempre dopo opportuno
addestramento, un calcolatore è in grado di interpretare i fonemi di
49
50
A.de Luca, I.M. Ricciardi: Introduzione alla cibernetica – Collana di informatica Franco Angeli. 1971.
Geoffrey E. Hinton: L’apprendimento delle reti artificiali di neuroni. Le Scienze n. 291 novembre 1992
34
un discorso parlato, intercettati
trasformarli in testo dattiloscritto.
tramite
un
microfono,
e
di
Con questo sistema è possibile addestrare un calcolatore ad
imitare qualsiasi tipo di attività umana. Compresa la costruzione di
altri calcolatori identici secondo metodi di riproduzione asessuata o,
come vuole la moda attuale, clonazione. I limiti di questa pratica
sono provvisoriamente imposti soltanto dalla capacità di calcolo delle
attuali apparecchiature, fatti salvi, ovviamente, i criteri di
intrattabilità connessi alla metodologia di approccio per la soluzione
di taluni problemi51.
51
Traub J.F. Wozniakowsky H.: Il superamento dell’intrattabilità. Le Scienze n. 307 marzo 1994
35
Quella mente che prima la partorisce, sì
per far più ornato lo suo presente, sì per la caritade
dell'amico che lo riceve, non si tiene alli termini del vero
ma passa quelli.
Dante Alighieri: Convivio
La mente è un programma.52
I
l fatto che la mente costituisca una spiritualità
distinta dal corpo in cui soggiorna è razionalmente piuttosto
difficile da accettare in quanto verrebbero violati i principi
fondamentali
della
Fisica.
Non
appare
plausibile
un
meccanismo d'azione che permette all'immateriale di agire, senza
contatto, diretto o mediato, su una entità fisica materiale.
Il dubbio è tutt’altro che recente: già nel 1643, la principessa
di Boemia Elisabetta53 confessava apertamente al filosofo e matematico
Renato Cartesio, impegnato a dimostrare il contrario, “…di non
comprendere come l’anima immateriale e inestesa possa agire sul corpo
esteso e materiale…”. Nonostante gli sforzi concettuali profusi, tra i
princìpi della filosofia cartesiana, questo punto rimase il più
dolente.
Al nostro stadio della conoscenza l’immateriale continua a
sfuggire
ad
ogni
analisi,
non
essendoci
alcun
indizio,
scientificamente valido, che ne comprova l’esistenza; solo la materia,
evanescente quanto si vuole, si dimostra in grado di manifestare campi
di forze che consentono l'azione su altri corpi. Potrebbe essere
fuorviante, oltre che ingenuo, pensare che gli allucinogeni, gli
psicofarmaci, gli antidolorifici, gli ansiolitici, gli antidepressivi
e droghe simili possano agire a livello spirituale. Il meccanismo
d’azione
di
queste
sostanze
coinvolge
sempre
(direttamente
o
indirettamente) interazioni elettrochimiche riguardanti equilibri di
carica tra l’esterno e l’interno della parete cellulare nervosa in
prossimità delle sinapsi. In pratica tutte agiscono alterando il
livello della soglia di eccitabilità del neurone e non sempre le
sostanze in questione sono costituite da molecole complesse. Talora
accade che semplici elementi in assetto ionico costituiscono il
principio
attivo
farmacologico
che
può
occasionalmente
essere
utilizzato con successo nella terapia medica: è il caso del litio, che
viene somministrato in forma di sale, ed il cui ione si dimostra
efficace nella terapia della sindrome maniacale54. Dobbiamo ammettere
che non sempre è noto il completo dettaglio di
ciò che avviene a
livello molecolare, ma questa ignoranza non giustifica minimamente la
implicita ammissione di un coinvolgimento di presunte sfere spirituali
nonostante si continuino a descrivere nella letteratura scientifica
sicure correlazioni tra disturbi umorali e creatività55.
Disagi umorali e reazioni emotive sono correlati a
elettrochimici riproducibili anche in assenza della
52
Searle J.R.: La mente è un programma?. Le Scienze n. 259 marzo 1990
Horgan J.: Può la scienza spiegare la coscienza?. Le Scienze n. 313 settembre 1994
53
Cartesio R.: I principii della filosofia. Prefazione di Adriano Tilgher. LibrItalia 1997
54
Tosteson D.C.: Il litio e le alterazioni maniacali. Le Scienze n. 154 giugno 1981
55
Jamison K.R.: Sindrome maniaco-repressiva e creatività. Le Scienze n. 320 aprile 1995
36
meccanismi
situazione
effettiva scatenante. Gli studi di Ivan Petrovich Pavlov (1849-1936)
che nel 1904 lo condussero alla scoperta del riflesso condizionato
hanno dimostrato la inoperosità del meccanismo volontario cosciente in
risposta a certi stimoli: il ripetersi dello stimolo ingenera una
sorta di abitudine reattiva che si riproduce, in certe condizioni,
anche in assenza della effettiva stimolazione. Ad esempio: il riflesso
condizionato che produce la salivazione canina alla presentazione di
cibo accompagnato da un suono può essere riprodotto con l’esecuzione
del suono anche in assenza di cibo.
Da un certo punto di vista dovremmo ipotizzare la vita come
attributo esclusivo di materiale organico a base di Carbonio. E’
proprio da escludere la possibilità di una vita extraterrestre a base
di un elemento diverso?
E’ possibile ipotizzare un meccanismo di
pensiero, una sensibilità, una mente diversa, insomma, tra un
terrestre ed un alieno?
Per quanto sforziamo l'immaginazione nell’individuare puntuali
differenze, queste non si palesano. Nel ricercare ciò che invece
potrebbero avere in comune sostanze organiche viventi strutturalmente
diverse in relazione a meccanismi del pensiero, ragionevolmente
ipotizzando che il pensiero non è distinto dal fisico in quanto con
esso interagisce, non disponiamo di troppe alternative: la mente
diventa la risultante di uno stato della materia56. In altri termini,
il
pensiero
potrebbe
essere
la
conseguenza
delle
ripetute
modificazioni di uno stato elettrochimico: un meccanismo assai vicino,
se non identico, alla esecuzione di un programma in attività nella
memoria di un calcolatore.
Questa è lungi dall’essere tacciata come una ipotesi azzardata.
Non possiamo ignorare che la Scienza ha da tempo assunto che il genoma
con il suo corredo da 150.000 geni contiene tutte le informazioni
inerenti
la
composizione
caratteristica
dell’individuo.
Queste
informazioni vengono utilizzate nello sviluppo dell’organismo da un
preciso programma genetico costituito da istruzioni memorizzate nel
genoma. I noti fenomeni di rigetto nel trapianto e le recenti tecniche
di clonazione57 rafforzano l’ipotesi che il
patrimonio genetico non
sia di esclusiva pertinenza di cellule particolari, ma viene incluso
in ogni cellula dell’individuo, è una specie di impronta individuale
che lo caratterizza. Studi condotti su gemelli omozigoti in relazione
alle malattie della mente confermano la validità delle tesi che
ipotizzano una predisposizione genetica dei soggetti anche se, spesso,
i fenomeni scatenanti l’insorgenza di queste patologie sono da
ricercarsi al di fuori del meccanismo genetico58. Non dovrebbero
esistere, pertanto, differenze importanti tra gemelli monozigoti
naturali e soggetti clonati se non fosse per la diversa frequenza di
accadimento degli eventi ed il numero degli organismi che è possibile,
naturalmente in un caso o artificialmente nell’altro, coinvolgere.
A questo punto è lecito porsi la domanda: quali sono le differenze
(se ce ne sono) tra un cervello umano ed un cip di silicio che
contiene un programma in esecuzione? Allo stato attuale delle nostre
conoscenze potrebbe non esserci alcuna differenza se non in termini di
56
Churchland P.M., Smith Churchland P.: Può una macchina pensare?. Le Scienze n. 259 marzo 1990
Dulbecco, Raineri, Vezzoni, Lucchini, Brovedani, Fariello: Clonazione: problemi etici e prospettive
scientifiche. Le Scienze S.p.A. Editore 1997
58
Elliot S. Gershon, Ronald O. Rieder: Patologie mentali. Le Scienze n. 291 dicembre 1992
57
37
complessità. Un calcolatore per poter funzionare necessita di una
memoria di breve durata ed un dispositivo in grado di conservare i
dati per lungo tempo; il processo mnemonico dell’uomo si avvale
parimenti di una memoria a breve ed una a lungo termine: non si tratta
di casuali analogie, bensì di conseguenze derivate da necessità
funzionali. Pur essendo capaci di scrivere programmi sufficientemente
articolati da pilotare macchine in grado persino di autoreplicarsi, i
programmi più sofisticati redatti attualmente dall’uomo esprimono
tuttavia
algoritmi
talmente
semplici
da
dimostrarsi
non
sufficientemente abili da imitare anche solo una piccola parte del
comportamento di un moscerino. D’altro canto la tecnologia corrente si
è sviluppata su apparecchiature elettroniche velocissime, ma di tipo
seriale, il che equivale a affermare che viene eseguita una istruzione
per volta, in sequenza.
Il sistema nervoso, invece, è un’apparecchiatura parallela e
pertanto in grado di eseguire contemporaneamente molte istruzioni.
Questa differenza non banale di architettura dovrebbe rivelarsi
essenziale per la esternazione di ciò che definiamo sentimenti e
coscienza. Questa ipotesi è avvalorata da esperimenti condotti su reti
neurali
artificiali:
danneggiamenti
simulati
su
reti
software
replicano
con
impressionante
somiglianza
effettivi
errori
comportamentali prodotti da lesioni cerebrali dell’uomo59.
Leonardo sosteneva che il sonno ha similitudine colla morte. Oggi
sappiamo che ad alcune fasi del sonno è spesso associata inattività
muscolare assimilabile a perdita di tono o, come più comunemente si
dice, paralisi. La perdita della coscienza, alla luce di quanto
ipotizzato, corrisponderebbe ad un rallentamento del ritmo biologico
generale: resterebbe attivo solo un segmento parziale del programma
vitale ed accade come se la serie completa delle istruzioni,
normalmente in esecuzione allo stato di veglia, fossero poste in
attesa di uno specifico segnale al fine di riprendere le usuali
attività. Sono state individuate, e sono in fase di studio, le
strutture encefaliche che restano in attività durante il sonno60.
Misurazioni
elettro-encefalografiche
registrano
nel
sonno
ritmi
ordinariamente più lenti rispetto alla veglia interrotti da fugaci
irregolarità di varia origine (scosse muscolari, brevi emissioni
vocali, aritmia cardiaca e respiratoria) accompagnate da rapidi
movimenti dell’occhio fisiologicamente noti come REM (rapid eye
movement).
La chiusura finale del programma principale segnerebbe, secondo
questa ipotesi, la morte dell’organismo. Alcuni organi, tuttavia,
sopravvivono
per
breve
tempo
alla
morte
dell’organismo.
Dati
statistici ci informano che il cervello sopravvive per pochi minuti,
il cuore per un quarto d’ora ed il rene per mezz’ora. Il successo di
un eventuale trapianto su altro vivente è reso possibile quando la
rimozione da cadavere avviene rispettando questi tempi. Metodi e
soluzioni
fisiologiche
permettono
una
certa
sopravvivenza
extracorporea di organi ma per periodi limitati di tempo.
59
Geoffrey E. Hinton, David C. Plaut, Tim Shallice: La simulazione dei danni cerebrali. Le Scienze n. 304
dicembre 1993
60
Morrison A.R.: L’attività del cervello durante il sonno. Le Scienze n. 178 giugno 1983
38
Secondo un recente modello della coscienza61 viste le difficoltà di
inquadrare il problema secondo l’ottica della neurologia ortodossa,
Roger Penrose propone di applicare, per la comprensione del fenomeno
coscienza, le regole della meccanica quantistica; ed in particolare
assimila l’atto cosciente, che produce la sensazione dell’istante “in
questo momento e qui”, all’autocollasso della funzione d’onda usata
per le particelle elementari della materia che, da una sovrapposizione
di stati, collassa concretizzandosi in uno dei possibili stati.
L’evento fisico sarebbe stato individuato nei microtubuli cerebrali e
si
svilupperebbe
in
intervalli
di
tempo
relativamente
lunghi
(nell’ordine del mezzo secondo) in cui una certa formazione
strutturale
iniziale
decade
spontaneamente
in
una
formazione
differente attraverso un complesso meccanismo elettrochimico che
coinvolge specifiche proteine.
In osservanza a quanto sancito dalle regole della Scienza
contemporanea una teoria è da ritenere corretta se è in grado di
formulare esatte previsioni e finché non viene smentita da un
esperimento che la invalida. Nel nostro caso, oltre ad ulteriori
attività di convalida ad opera della ingegneria genetica, possiamo
ipotizzare un possibile risultato concernente i futuri esperimenti di
clonazione, sostanzialmente intesa come copia integrale del corredo
genetico del soggetto clonato. Se il comportamento generale (che si
manifesta come individualità psicofisica) di gruppi omogenei di
individui clonati differirà singolarmente esclusivamente a causa delle
sollecitazioni di eventi esterni, allora la presente teoria resterà
confermata. Resta inteso che il nucleo cellulare utilizzato nelle
clonazioni dovrà non soltanto appartenere allo stesso individuo
donatore ma essere identico: pur essendo probabile, infatti, non vi è
alcuna garanzia che tutti i nuclei cellulari appartenenti allo stesso
soggetto biologico conservino le medesime informazioni genetiche.
61
Penrose R.: Shadows of the Mind. Oxford Press – Londra 1994
39