la_coscienza_secondo_la_scienza
Transcript
la_coscienza_secondo_la_scienza
FRANCESCO PAOLO CANTIELLO OSSERVAZIONI SULLA PROGRAMMAZIONE NATURALE DELLA STRUTTURA BIOLOGICA dicembre 1998 onde, acciò che la scienza è ultima perfezione della nostra anima, nella quale sta la nostra ultima felicitade, tutti naturalmente al suo desiderio semo subietti. Dante Alighieri: Convivio Introduzione A priamo immediatamente una parentesi. Ci imponiamo l’obbligo di evidenziare che Scienza e progresso tecnologico, nella loro essenza, sono del tutto estranei al Bene ed al Male. E’ l’utilizzo umano dei risultati della Ricerca che provoca conseguenze coinvolgenti problemi etici di scelta e comportamento. E’ pertanto da imbecilli, più che da irresponsabili, ignorare, trascurare o, ancora peggio, ostacolare lo studio e lo sviluppo di quei settori della Scienza che presentano conclusioni giudicate devianti o pericolose. Tutto ciò che non viene sviluppato sotto un controllo consapevole corre il grave rischio di essere fatalmente consegnato in mani irresponsabili. Chi ha orecchie per intendere, intenda. E dopo questo doveroso avvertimento chiudiamo la parentesi. Può sembrare riduttivo ed artificioso suddividere i modi in cui l’uomo ha pensato se stesso, in soli tre momenti storici dalla sua comparsa ai giorni nostri. Tuttavia, anche molte importanti tecnologie, nonostante l’ampio periodo trascorso, si sono evolute in sole tre tappe fondamentali: lo sviluppo navale, per esempio, conobbe, in sequenza, solo il remo, la vela ed il motore. In ogni caso, non siamo riusciti a fare di meglio. Inizialmente l’uomo vide se stesso come sagoma d’argilla scolpita da Dio che con il suo alito divino gli infuse la vita. Non poteva essere altrimenti nel periodo in cui la tecnologia dominante era quella della creta modellata dalle abili mani del vasaio. L’uomo antico, poi, disponeva di indizi inconfutabili a sostegno di quell’ipotesi che oggi assume un aspetto squisitamente mistico: siamo fatti di polvere e polvere diventeremo. Era prematuro porsi la questione degli organi interni del corpo: alla vitalità provvedeva l’anima, lo spirito. Indiscutibile fu, per molto tempo, l’aseità di Dio e l’abalietà dell’uomo nell’Essere Supremo. Molto tempo dopo furono ideati ingranaggi sempre più complessi che culminarono nel congegno che destò, ad un tempo, curiosità, perplessità e stupore in quanto riusciva a misurare nientemeno che lo scorrere del tempo: l’orologio meccanico. Nacque così un nuovo credo parallelo alla tecnologia emergente in grado di produrre statue con sembianze umane che incorporavano complicati meccanismi semoventi. Si prese coscienza degli organi interiori ed i corpi biologici diventarono simili ad apparati meccanici e furono individuati ingranaggi e leve, il tutto, però, restava sotto il controllo della mente, un particolare congegno che sfuggiva alle leggi della meccanica. Restava un mistero incomprensibile da accettare se non come atto di fede l’azione della mente non meccanica su un corpo meccanico. 2 Oggi praticamente tutti i meccanismi a ruota dentata sono stati soppiantati dalla circuiterìa elettronica la cui massima espressione è il calcolatore, concretizzazione della macchina universale di Turing1. Il salto concettuale diventa obbligatorio: l’essere umano, mente compresa, viene ipotizzato quale complicato computer naturale. E di ciò si discuterà nelle pagine che seguono. Il presente scritto comprende sei parti. La prima è intesa a rilevare l’importanza della struttura a guisa di maggior responsabile delle differenze che si manifestano tra le diverse individualità che la natura ci propone ed inizia con un omaggio al grande fisico britannico Dirac il quale ha voluto identificare nell’armonia strutturale delle leggi matematiche le norme che regolano il comportamento della natura. In un certo senso possiamo parlare anche di sorpasso della natura quando ci riferiamo all’antimateria come esclusivo prodotto di laboratorio. Questa parte accenna anche ad un tentativo di classificazione gerarchica delle componenti di struttura delle individualità a qualunque titolo esistenti oltre alle attuali capacità di descrizione informatica delle strutture tramite sofisticati ed ingegnosi algoritmi. La seconda parte si occupa, più sfacciatamente, del medesimo problema, questa volta però con gli strumenti classici della ricerca biologica e, senza sforzo, scopre (neanche a dirlo) che ogni livello comportamentale è la risultante di un vero e proprio programma in qualche modo memorizzato nell’organismo. Questo programma contiene descrizioni predeterminate sia della struttura sia del comportamento dei diversi organismi biologici. La terza parte tenta di analizzare peculiarità della specie umana: specificamente linguaggio e scrittura. Queste attività sono considerate come un’esternazione del pensiero che appare astratto ma diventa espressione concreta della complessità del sistema nervoso, come si tenta di descrivere nella parte successiva, la quarta. Camillo Golgi scoprì un potente metodo di colorazione ai sali d’argento che permise a Santiago Ram n y Cajal, grande studioso dei meccanismi del sistema nervoso, di osservare al microscopio i neuroni descrivendoli come “misteriose farfalle dell’anima, il cui battito d’ali potrebbe forse un giorno chiarire il segreto della vita mentale”2. Le farfalle di Cajal non sono ancora state identificate, ma il battito d’ali è stato nettamente avvertito nei meccanismi responsabili degli stati d’eccitazione delle cellule nervose. Piccole nubi elettroniche oscillano nella cellula nervosa e la rendono vitale, piccole nubi elettroniche oscillano nella memoria del calcolatore e lo rendono attivo: una coincidenza per lo meno curiosa. Il moto ordinato degli elettroni nella cellula e nel computer, piccoli mondi isolati nel loro spazio asettico, che si lascia plasmare dalla natura in un caso e dall’uomo nell’altro, contrasta con il caotico movimento elettronico dell’universo esterno che entrambi cercano di controllare. Giulio Verne affermava, al tramonto del secolo XIX, che l’elettricità era “giustamente considerata l’anima del mondo”3. La quinta parte si occupa, senza troppo approfondimento tecnico, 1 J.David Bolter: L’uomo di Turing – Pratiche Editrice. 1984 . Gerald D. Fischbach: Mente e cervello. Le Scienze n. 291 novembre 1992. 3 Jules Verne: Il Castello dei Carpazi. UNI Editori Riuniti agosto 1996. 2 3 delle macchine di Turing che offrono, allo stato attuale, lo strumento computazionale più affidabile per tentare di descrivere gli stati evolutivi del programma genetico memorizzato nella cellula biologica. La sesta ed ultima parte espone la conseguenza inquietante: la mente umana potrebbe non essere troppo dissimile da un programma per calcolatore. Tra qualche tempo oggetti derivanti dagli attuali chip di silicio4, in grado di autoreplicarsi, potrebbero tranquillamente soppiantare la specie umana con successo, in conseguenza della selezione naturale, nella competizione alla sopravvivenza in un mondo che l’uomo stesso sembra fermamente deciso a rendere ecologicamente inabitabile per la sua specie. 4 4 Minsky M.: Saranno i robot a ereditare la Terra?. Le Scienze n. 316 dicembre 1994 Quella cosa dice l'uomo essere bella, cui le parti debitamente si rispondono, per che della loro armonia resulta piacimento. Dante Alighieri: Convivio Bellezza matematica o matematica bellezza? I l premio Nobel Paul Adrien Maurice Dirac (1902-1984) era solito affermare che soltanto quando una teoria si esprime con equazioni matematicamente “belle” può trovare riscontro nella realtà e pertanto, è candidata ad essere vera. Questa convinzione era tale che giunse a comporre l’epigrafe: una legge fisica deve possedere bellezza matematica5. Il grande fisico, tuttavia, non chiarì mai quale preciso significato attribuiva al criterio di bellezza matematica, anzi, a questo proposito, si espresse affermando che “Si tratta di una qualità che non può essere definita, …”6. Leonardo constatava le proporzionali bellezze d’un angelico viso, Boccaccio indugiava su le celestiali bellezze di madonna Lisetta, Ugo Foscolo, invece, sosteneva che la bellezza è una specie di armonia visibile che penetra soavemente nei cuori umani. La bellezza, intanto, può essere concepita come criterio squisitamente soggettivo come facilmente si evince dal popolare detto: non è bello ciò che è bello, ma è bello ciò che piace. Allora Dirac non si rifaceva certamente al concetto di bellezza comunemente inteso; usava questo termine semplicemente perché era quello che gli sembrava più consono al senso che Egli intendeva. La bellezza è, in definitiva, estetica. E l’estetica esprime una forma, e questa, a sua volta, è conseguenza della struttura. Ciò che compone un’estetica gradevole è una sorta di armonia strutturale che traspare dalle sembianze di ciò che viene osservato. Esiste una specie di bellezza, per così dire, universale, o per meglio dire, oggettiva, che, nel rispetto di canoni non esplicitamente definiti, è praticamente condivisa da tutti, o quasi. Proviamo sicuramente una sensazione diversa quando osserviamo un pezzo di carbone e lo confrontiamo con un cristallo di diamante. Entrambi sono costituiti da carbonio; la diversità tra i due oggetti è semplicemente strutturale: è la mutata disposizione spaziale degli atomi di carbonio che fa la differenza7. La durezza del diamante ha quindi correlazione con una sistemazione atomica che confluisce in una simmetria geometrica tridimensionale. E, considerando la simmetria speculare, Dirac nel 1928 ipotizzò correttamente l’esistenza dell’antimateria che il fisico americano Carl David Anderson (1905-1991) confermò in laboratorio nel 1932. L’antimateria non è stata ancora osservata in natura, pertanto deve, almeno provvisoriamente, considerarsi un prodotto sintetico. La mancata osservazione potrebbe correlarsi al fenomeno di annichilazione conseguente l’incontro tra materia ed antimateria: le due non possono coesistere nel medesimo spazio. Non possiamo tuttavia escludere che oggetti molto lontani, dispersi nell’universo, siano costituiti da antimateria. 5 R.Corby Hovis, Helge Kragh: P.A.M. Dirac e la bellezza della fisica. Le Scienze n. 299 luglio 1993. Dalida Monti: Equazione di Dirac - Bollati Boringhieri. 1996. 7 A.I. Kitaigorodskij: Ordine e disordine nel mondo degli atomi – Universale scientifica Boringhieri. 1968. 6 5 La sabbia che il vasaio trasformerà in un vaso si differenzia dal vaso finito, in via definitiva, per una ordinata disposizione spaziale dei singoli granelli di creta che lo formeranno. Questo fatto ci porta ad osservare che le regole di composizione che governano le strutture spaziali sfociano in invarianti di scala. Ciò è sicuramente strano e sorprendente dal momento che le leggi attualmente formulate che governano le strutture del microcosmo sono non solo diverse ma anche distanti da quelle del macrocosmo. Alcune particelle appartenenti al microcosmo identificate come fermioni8 devono rispettare il principio di esclusione enunciato nel 1925 dal viennese Wolfang Pauli (19001958), premio Nobel per la Fisica nel 1945, il quale mostrò che, ad esempio, due elettroni orbitanti attraverso una nube atomica non possono trovarsi nello stesso stato: un po’ come affermare che ciascun elettrone conserva la propria individualità in qualsiasi condizione. La fisica del microcosmo deve rispondere, inoltre, al principio di indeterminazione di Heisenberg9 (1902-1976): la effettiva misurazione di una grandezza genera la impossibilità di determinare precisamente un’altra grandezza ad essa coniugata. Di conseguenza resta impossibile conoscere velocità e posizione istantanee di una particella. Un simile tentativo sarebbe equivalente a quello di mettere a fuoco, con il medesimo sistema ottico e contemporaneamente, due oggetti, uno prossimo e l’altro distante. Uno od entrambi gli oggetti sono candidati a perdere nitidezza durante la messa a fuoco. Nello stesso macrocosmo si osservano facilmente fenomeni che sono intimamente connessi alla dimensione. Ad esempio, in ingegneria aeronautica, la sperimentazione di modelli in scala di velivoli in camera a vento assume validità solo se vengono rispettati i parametri imposti dal Numero di Reynolds10 che è direttamente proporzionale alla densità, alla velocità del fluido e alla superficie esposta, ed inversamente proporzionale alla viscosità. Un modello in scala si comporta come il corrispondente velivolo reale solamente nelle condizioni in cui si combina lo stesso Numero di Reynolds. Il modello, pertanto, verrà sottoposto, ad esempio, ad una velocità proporzionalmente maggiore rispetto a quella prevista per il velivolo reale al fine di valutare correttamente le prestazioni, quali i coefficienti di portanza della sagoma alare o quelle di resistenza strutturale del complesso alle sollecitazioni di esercizio. Intanto, nella fisica del macrocosmo non accade mai che un essere biologico, per esempio un gatto11, occupi quella che viene definita, in meccanica quantistica, una sovrapposizione di stati o, in altri termini, sia contemporaneamente vivo e morto oppure, peggio ancora, né 8 Il termine viene utilizzato in onore del fisico italiano Enrico Fermi (1901-1954). I fermioni sono quelle particelle che rispettano la statistica elaborata da Fermi-Dirac ed in particolare si presentano con spin semintero, tipicamente gli elettroni, i protoni ed i neutroni. Vengono invece classificati bosoni, in onore del fisico indiano Subhas Chandra Bose (1847-1945), le particelle elencate nella statistica elaborata da Einstein-Bose e che si presentano con spin intero come i fotoni, i mesoni ed i pioni. Viene detto spin il momento angolare intrinseco di una particella. Il momento angolare orbitale è dovuto al moto di una particella relativamente ad un’altra, mentre il momento angolare intrinseco è una proprietà che viene mantenuta anche se la particella non appare in movimento ed è assimilabile allo stato giroscopico della trottola (rapida rotazione intorno al prorio asse). La somma dei momenti angolari viene chiamata momento angolare totale. Il concetto di spin è il risultato di uno studio spettrografico sull’atomo condotto nel 1925 negli Stati Uniti dai fisici tedeschi Goudsmit e Uhlembeck. 9 David C. Cassidy: Heisenberg, l’indeterminazione e la rivoluzione quantistica. Le Scienze n. 287 luglio 1992. 10 Domenico Ludovico: L’aeroplano – Ali Nuove. 1959 . 11 Il gatto di Sch dinger, (l’austriaco Erwin Sch dinger ha condiviso nel 1933 il premio Nobel per la Fisica con Dirac) è un noto esempio in meccanica quantistica. 6 vivo e né morto. A dispetto di queste colossali differenze microcosmo e macrocosmo sembrano accomunati dalla regola: la diversità tra oggetti materiali è indissolubilmente correlata alla disposizione spaziale dei rispettivi componenti elementari. Per ulteriormente chiarire prendiamo come esempio una sostanza molto comune: l’acqua. Normalmente è allo stato liquido; ma è facilmente osservabile come ghiaccio o come vapore. La differenza tra i tre stati è dovuta esclusivamente alla disposizione atomica spaziale, che viene alterata dalla temperatura. Nel caso del ghiaccio prevale la struttura geometrica ordinata del cristallo, negli altri due casi una disposizione disordinata è accompagnata dal caotico moto browniano, più o meno accentuato, delle molecole. Gli esseri biologici sono costituiti da materiale che definiamo organico. Quel materiale può essere tuttavia identico a quello di sostanze che classifichiamo inorganiche. Questa è una delle ragioni per cui non è stato possibile stabilire un chiaro confine tra il non vivente ed il vivente. Può destare perplessità osservare che l’accrescimento naturale dei cristalli è, alla resa dei conti, identico all’accrescimento cellulare. In entrambi i casi, infatti, si ha accumulo di materiale presente nell’ambiente circostante. Nel caso biologico l’acquisizione è preceduta da una complessa lavorazione del materiale catturato identificata in un processo chiamato digestione. Tutto questo però, non modifica le cose: fenomeno base ed effetto conseguente restano indistinti. Una differenza tra sostanza vivente ed inerte potrebbe essere intravista nella complessità della struttura molecolare. Le macromolecole biologiche culminano nel DNA12, scoperto nel 1954 da Watson e Crick, nella cui intricata struttura elicoidale si anniderebbe, secondo la comune opinione, il senso della vita. Ma si tratta di una differenza apparente che tende a sfumare quando si prendono in considerazione le complesse strutture dei polimeri che, disponendosi a fasci, costituiscono la gomma, il politene e le plastiche, tutte cose che nessun soggetto sano di mente si azzarda a classificare come materiale vivente. Ulteriori indizi a supporto della impossibilità di definire una realistica distinzione tra vegetali ed animali sono fornite dagli studi recenti dello zoologo californiano Roger S. Seymour sui meccanismi di termoregolazione di alcune piante13; e, tra non vivente e vivente, a causa della messa a punto di sostanze opportunamente definite “intelligenti”14 in quanto dotate di proprietà chemiomeccaniche che le rendono sensibili agli stimoli ambientali: caratteristica considerata tipica ed esclusiva dell’attività vitale. L’importanza della disposizione spaziale degli elementi costitutivi di un oggetto si identifica con l’integrità dell’oggetto e cioè con quella che definiamo la sua esistenza. Ad esempio: i cocci di un piatto frantumato hanno scarsa somiglianza con l’oggetto origine e possono prodursi in un numero incredibile di modi; partendo dai cocci il piatto originario, invece, può essere ricomposto in un solo unico modo. Quindi la tendenza naturale verso il disordine diviene solo una 12 Augusto Lattanzi: La rivoluzione molecolare - Universale scientifica Boringhieri. 1974. Roger S. Seymour: Piante che producono calore –. Le Scienze n. 348 agosto 1997. 14 Yoshihito Osada e Simon B. Ross-Murphy: Gel “intelligenti” –. Le Scienze n. 299 luglio 1993. 13 7 questione di probabilità: a fronte di un solo stato ordinato sono possibili parecchi stati disordinati. E’ la bellezza matematica di Dirac uno degli strumenti che ci consentono di distinguere lo stato ordinato dagli altri. Uno corpo materiale composto in uno stato ordinato della materia presenta sovente punti, assi o piani di simmetria. Ad esempio, un essere umano è divisibile in due parti specularmente assai simili tramite un piano perpendicolare alla fronte e passante nel punto equidistante tra gli occhi. La simmetria non è per nulla perfetta ed è limitata all’aspetto esteriore: gli organi interni, infatti, non sono orientati o disposti nel modo opportuno. Questa simmetria, tuttavia, è assai evidente e non può essere la conseguenza fortuita di eventi visto che si ripete sistematicamente per ogni essere della stessa specie ed in modo riconoscibile per ciascuna specie. Quali sono le origini della simmetria? Non è facile rispondere a questa domanda, ammesso che sia alla nostra portata una risposta soddisfacente. Prima di procedere occorre riflettere sul concetto fisico di parità: ad ogni oggetto materiale è possibile far corrispondere un altro oggetto, esattamente speculare, per il quale valgono le stesse leggi. L’antielettrone di Dirac è l’esatto speculare dell’elettrone e soggiace alle medesime leggi. Per semplificare, immaginiamo di avere a che fare con numeri piuttosto che con oggetti materiali. Le leggi di parità numeriche asseriscono che, per tutti i numeri: La somma di due numeri dispari è pari La somma di due numeri pari è pari La somma di un numero dispari con un numero pari è dispari Si afferma inoltre che due numeri hanno la medesima parità se sono entrambi pari o entrambi dispari. Una particella di materia possiede una specifica parità e questa parità caratteristica non cambia qualunque siano gli eventi a cui partecipa e le trasformazioni a cui è sottoposta. Questo almeno si credeva fino al 1956: Tsung Dao Lee (1926-) e Chen Ning Yang (1922-) due fisici cinesi naturalizzati americani, premi Nobel 1957, hanno dimostrato che la parità di alcune particelle, in certe condizioni, può essere violata. Per giustificare questo paradossale risultato è stato necessario associare le caratteristiche di parità della particella con il tempo e si parla così di invarianza; per conservare la legge generale della simmetria si rende pertanto necessario ammettere una stretta correlazione del tempo con gli eventi15. Il tempo, infatti, non è invertibile e deve essere associato ad una direzione nota come freccia del tempo. Anche lo spazio diventa non invertibile se, come non può essere altrimenti, viene percorso nel verso della freccia del tempo. Quando viaggio, con un volo aereo, da Brindisi a Roma e viceversa, al mio ritorno la città di Brindisi mi sembra non aver abbandonato la sua posizione geografica: in realtà la posizione assoluta della città si è trasferita nel frattempo altrove in conseguenza dei movimenti di rotazione e rivoluzione della Terra, di traslazione del sistema solare e chissà di quanti altri moti sconosciuti. Pertanto anche lo spazio 15 8 Isaac Asimov: Le parole della scienza – Oscar Studio Mondadori. 1976. Vedi CPT invarianza. dispone di un suo verso che, solo per analogia, chiameremo freccia dello spazio. Quest’ultima freccia mostra la sua evidenza quando percorre piani di simmetria: qualunque sia l’orientamento di un oggetto riflesso in uno specchio resta possibile e visibile l’inversione destra/sinistra ma non quella alto/basso. Da ciò risulta la impossibilità di ripercorrere il medesimo spazio assoluto. Le scaturigini di questo concetto, che sfociano nello spazio-tempo einsteniano e radicate nei primordi del pensiero occidentale, risalgono al 500 a.C. e sono dovute al filosofo greco di Efeso Eraclito: tutto scorre, come l’acqua del fiume; non riusciamo a bagnarci due volte nella stessa acqua. In un momento imprecisato della Storia della Scienza, alla stregua delle onde marine che increspano l’acqua e delle onde sonore che comprimono l’aria, si ipotizzò, per analogia, che dovesse esistere un fluido che facesse da supporto alle onde elettromagnetiche. Non appariva concepibile che le onde luminose potessero attraversare il vuoto assoluto. A questo ipotetico fluido venne anche dato un nome: etere cosmico. Si pensò che l’etere non fosse stato ancora individuato a causa della sua evanescente consistenza e, permeando tutto l’Universo, la sua immobilità potesse costituire un sistema di coordinate di riferimento assoluto. Tra le diverse lunghezze d’onda fu scelta la gamma delle onde luminose e fu deciso un cruciale esperimento inteso a valutare il moto assoluto della Terra rispetto all’etere: Michelson e Morley progettarono e realizzarono un preciso apparato che misurava il tempo di percorrenza di due raggi luminosi riflessi da due specchi posti in fondo a due tragitti di uguale lunghezza e perpendicolari tra loro. Uno dei due percorsi lo sistemarono nel medesimo verso del moto terrestre così da poter misurare una differenza dei tempi di percorrenza dei due raggi di luce, la velocità di uno dei quali si poteva sommare al movimento della Terra nello spazio. Il primo tentativo non rilevò alcuna differenza tra i tempi di percorrenza dei due raggi. Furono eseguite ulteriori prove sia con i bracci dell’apparecchio scambiati di posto che a distanza di tempo di sei mesi in modo da attendere il mutamento del verso dell’orbita terrestre. Ogni tentativo fu vano: la velocità della luce appariva sempre la stessa in qualsiasi condizione sperimentale. Fu a questo punto che Albert Einstein postulò: ammesso che esista, sono convinto che non riusciremo mai ad individuare un etere, o per meglio dire, un sistema assoluto di coordinate comprendenti un tempo assoluto valido per ogni sistema di coordinate. La velocità della luce è una costante per tutti gli osservatori solidali con un sistema proprio di coordinate ed in moto relativo reciproco ed è la massima possibile in quanto osservando un ipotetico viaggiatore a cavallo di un fotone, il suo tempo si riduce a zero: cioè il suo orologio si ferma. Anche lo spazio si contrae lungo la direzione del moto ed assume valore nullo alla velocità della luce. Ad oggi, ogni esperimento ha confermato la teoria e la celebre equazione e = m c2 (energia = massa per il quadrato della velocità della luce), conseguenza della relatività, ha reso possibile la scoperta della energia atomica. Perciò non c’è differenza tra massa ed energia, se è possibile una trasformazione nei due sensi: infatti utilizzando un ordigno nucleare è possibile generare una enorme esplosione annichilando una piccola quantità di materia, così come una certa quantità di energia stellare scagliata lontano può raffreddarsi e diventare materia, creando pianeti come la terra. Anche il materiale che appare il più solido in assoluto, allora, contiene racchiusa una vitalità latente che prima o poi sembra destinata a sprigionarsi. 9 Particelle cosmiche coprono distanze immense viaggiando alla velocità della luce; la loro vita media tuttavia, dura un tempo infinitamente breve: infatti quelle particelle si disintegrano rapidamente non appena penetrano in una camera a bolle che rallenta la loro corsa. La comune difficoltà a recepire questa teoria è dovuta alla differente percezione umana delle coordinate spaziali rispetto a quella temporale. Ripetiamo che lo spazio appare percorribile più volte nel senso che la medesima posizione sembra occupabile più volte, il tempo, invece, sembra scorrere in modo irreversibile in un solo verso. Riflettendoci, se teniamo conto del nostro moto nello spazio planetario, una rioccupazione dello stesso spazio assoluto è assai improbabile, certamente inconoscibile, ammesso che sia possibile. Questa realtà viene rappresentata come un sistema spazio-temporale a quattro coordinate: tre spaziali, rappresentabili con numeri reali ed una (la coordinata temporale) differenziata da un numero reso immaginario tramite un artificio matematico (moltiplicazione per la radice quadrata di –1). Anche il concetto di simultaneità di due eventi viene messo in discussione: due eventi, simultanei per un osservatore possono non esserlo per un altro in moto relativo rispetto al primo. Celebre è l’esperimento ideale del viaggiatore affacciato al finestrino del vagone centrale del treno che transita ad alta velocità mentre viene osservato da un altro viaggiatore fermo sulla banchina della stazione. Due fulmini, uno frontalmente alla motrice e l’altro dalla parte opposta lungo il binario verso l’ultimo vagone del treno scoccano. Il viaggiatore sul treno osserva: i due fulmini sono scoccati contemporaneamente; quello sulla banchina ribatte: non può essere vero, dal momento che il treno si muove verso un fulmine mentre si allontana dall’altro i due eventi, condizionati dalla velocità della luce, grande ma non infinita, non possono essere stati avvertiti nello stesso tempo sul treno, dal momento che sono stati avvertiti contemporaneamente da chi era sulla banchina. L’esperimento dimostra la soggettività della percezione del tempo e dello spazio. Non esistono un tempo ed uno spazio universali. Esiste un tempo ed uno spazio proprio: spazio e tempo sono parte costituente della materia che noi semplicemente avvertiamo come elementi esterni. La mia misurazione del tempo e dello spazio non è condivisa con nessun’altra entità esterna al mio io. E’ il mio tempo. E’ il mio spazio. Con le entità che mi sono vicine ho la sensazione di condividere lo spaziotempo, ma ciò solo perché le differenze assumono valori trascurabili e difficilmente misurabili. Ma quando la distanza o la velocità tendono verso valori importanti allora le differenze diventano sensibili e non possono essere ignorate. Velocità enormi e distanze paragonabili a quelle intergalattiche le riscontriamo nel mondo delle particelle che costituiscono la materia. Particelle, che si manifestano anche come onde e che possiamo pensare come uno stato indescrivibile dell’essere, che oscilla tra la materia e l’energia, che si comporta come particella e come onda. Il concetto di struttura simmetrica, intanto, è biologicamente importante non fosse altro che per la struttura ad elica degli acidi nucleici. E’ la simmetria strutturale delle eliche che consente la facile e rapida replicazione della lunga spirale biologica. Durante questo processo possono accadere errori di composizione nella nuova struttura: questo fenomeno, noto come mutazione, induce differenze talora sostanziali nello sviluppo del soggetto. Le mutazioni possono rendere il soggetto maggiormente competitivo ad opera della selezione naturale provocata dall’ambiente ed in tal modo si genera, nel senso più darwiniano del termine, l’evoluzione, e 10 l’errore iniziale, che decidiamo di diversità di trascrizione, viene replicazioni diventando la norma. interpretare come ricopiato nelle occasionale successive Anche nell’evoluzione delle specie modifiche strutturali sono, ancora una volta, alla radice del fenomeno. Alcuni animali ed alcune piante imitano, nell’aspetto e nel comportamento, altri esseri più aggressivi o meno vulnerabili: alcuni insetti, per esempio, imitano il ronzio delle api per impressionare gli aggressori; farfalle normalmente commestibili per gli uccelli, si presentano con gli stessi colori di esemplari velenosissimi. Alcuni tipi di vespa scavatrice femmina paralizzano un certo numero di api e le immagazzinano nella loro tana. Quindi depongono un uovo su ciascuna preda ed occludono l’ingresso della tana. Questo comportamento certamente programmato è sicuramente innato nell’insetto il quale esegue con maestria e precisione ogni movimento fin dalla prima volta, pur non avendo mai assistito ad analoghe manovre. Elencando strati di complessità crescente che compongono un essere biologico troviamo (allo stadio attuale della conoscenza): 1. 2. 3. 4. 5. 6. atomi: aggregati di quark molecole: aggregati di atomi organuli: aggregati di molecole cellule: cooperazione tra organuli organi: cooperazione tra cellule organismi: cooperazione tra organi I quark sono da considerarsi le particelle più elementari della materia, più ipotetiche che reali, in quanto, a quel che pare, un quark isolato non avrebbe né la necessità, né l’occasione di esistere. Possiamo considerare il quark alla stregua di uno strumento inventato per semplificare lo studio del microcosmo e consentire una più facile comprensione dei più reconditi meccanismi attualmente concepibili dell’architettura atomica. Per quel che concerne l’atomo disponiamo di ottime ragioni per ritenere di conoscerne la reale composizione costitutiva sebbene non è stato ancora realizzato uno strumento che ci pone nelle condizioni di osservarlo direttamente. Da questo punto in su, pur se con difficoltà e fatica, entriamo nel mondo del direttamente osservabile (ovviamente nei limiti consentiti da una idonea strumentazione). La situazione, per un soggetto non biologico, si attesta al punto 3. e la incapacità di effettuare il salto sul gradino della cooperazione è la conseguenza di composizioni strutturali la cui stabilità consente l’accrescimento e l’aggregazione, ma non la cooperazione. La scelta della strategia della cooperazione in alternativa alla contrapposta defezione, discende da una naturale conseguenza di vantaggiosa necessità: lo studio delle regole matematiche conseguenti alla teoria dei giochi, dimostra il vantaggio che si ottiene, in parecchi giochi, nella scelta della cooperazione in alternativa ad altre possibili strategie di comportamento. La selezione naturale provvede a premiare questa scelta. Un diffuso esempio di cooperazione tra specie diverse è fornito dal comportamento detto simbiosi che talvolta degenera in parassitismo. 11 Un ausilio atto a facilitare la comprensione della natura dei meccanismi di accrescimento e cooperazione viene dalla geometria frattale di Mandelbrot. Benoit B. Mandelbrot (1924-), matematico polacco, sviluppando il lavoro sugli insiemi di Gaston Julia ha posto, nel 1970, le basi di una nuova branca della matematica che ha trovato immediata applicazione in disparati settori della scienza16. Definiamo frattale17 una figura geometrica che conserva una struttura dettagliata e complessa a qualsiasi scala di grandezza la si consideri. Un frattale è il risultato di un effetto ricorsivo. Ad esempio, il tronco di un albero è un albero in miniatura da cui partono altri tronchi sempre più piccoli, ricorsivamente. Felce e cristalli di neve sono ormai esempi emblematici della ricorsività frattale. Questi esempi rappresentano una sorta di economia nello stoccaggio dell’informazione: è come se la natura avesse scelto di scrivere il programma con il minor numero di istruzioni per riprodurre l’accrescimento di piante e cristalli di neve. L’algoritmo iterativo di organismi più complessi è composto certamente da un maggior numero di istruzioni, ma il processo di sviluppo, in molti casi, si può ipotizzare riconducibile alla ricorsività frattale. Alla stregua dell’autoreplicazione del DNA, l’aggregazione e la cooperazione ricorsive sono assimilabili a sistemi dinamici complessi la cui evoluzione resta imprevedibile e dipende dalle condizioni iniziali. Un siffatto sistema è descritto nella fisica come sistema caotico. Un sistema caotico è matematicamente deterministico anche se può apparire probabilistico nel funzionamento e la sua descrizione è indipendente dalla natura del sistema. Comportamenti caotici attualmente descritti in letteratura18 e tutti confermati da esperimenti riguardano: • • • • • • • • • • 16 l’attività elettrica cerebrale le reazioni chimiche i circuiti elettronici i sistemi meccanici di trasmissione l’andamento della borsa il comportamento della luce laser il ritmo cardiaco19 la turbolenza dei fluidi i sistemi demografici i sistemi biologici20 Damiani G.: I frattali e le linee suturali delle ammoniti. Le Scienze n. 245 gennaio 1989. Sommaruga P.: Modelli frattali in oggetti naturali. Le Scienze n. 282 febbraio1992. 17 L.M. Sander: L’accrescimento dei frattali. Le Scienze n. 223 marzo 1987. Jurgerns H., Peitgen H., Saupe D.: Il linguaggio dei frattali. Le Scienze n. 266 ottobre 1990. 18 James Gleick: Caos, la nascita di una nuova scienza. Biblioteca Scientifica Sansoni. 1996 Cruchfield J.P.,Farmer J.G., Packard N.H.,Shaw R.S.: Il caos. Le Scienze n.222. febbraio 1987 Ditto W.L. Pecora L.M.: Padroneggiare il caos. Le Scienze n.302. ottobre 1993 19 Winfree A.T.: La morte cardiaca improvvisa: un problema di topologia. Le Scienze n. 179 luglio 1983. 20 Goldberger A.L., Rigney D.R., West B.J.: Caos e frattali in fisiologia umana. Le Scienze n. 260 aprile 1990. 12 Il matematico Frank Plumpton Ramsey dimostrò l’impossibilità dell’esistenza del disordine totale tramite la presenza sistematica di configurazioni regolari in insiemi di elementi sufficientemente numerosi.21 Questi studi introdussero il sospetto, che si verificò fondato, che il caos potesse essere affrontato con i criteri della matematica. Il meteorologo Edward Lorenz scoprì, nel 1960, che il comportamento meteorologico su lungo periodo è destinato a restare imprevedibile, pur essendo matematicamente determinato, per la impossibilità di conoscere simultaneamente l’esatto stato di ogni punto del volume atmosferico a causa dell’incapacità fisica di sistemare una rete adeguata di sonde: esisterà sempre, tra due sensori, uno spazio, per quanto piccolo, dove la misura non verrà effettuata. L’effetto farfalla22, così viene chiamata la esigua quantità di dati che sfugge alla misurazione, avvia una iterazione ricorsiva di tipo frattale il cui centro viene detto attrattore strano. Questo fenomeno, sconosciuto al momento della previsione, produce conseguenze rilevanti che compromettono il percorso di sviluppo iniziale previsto. Le procedure di calcolo, raffinato quanto si vuole, consentono previsioni sufficientemente corrette nel breve periodo; su lunghi periodi i risultati si allontanano, in alcuni casi gradualmente, tuttavia inesorabilmente, dal fenomeno reale matematicamente descritto. E’ stato possibile individuare semplici funzioni ricorsive in grado di generare figure frattali e sono stati, di recente, trovati almeno due metodi che, partendo dalle funzioni ricorsive sono in grado di sintetizzare immagini naturali tridimensionali. Il primo metodo consiste nel generare una lunga sequenza finale di simboli elementari a partire da una breve sequenza iniziale di simboli complessi, attraverso un certo numero di iterazioni, rispettando una serie di regole di trasformazione dei simboli (grammatica di Lindemeyer). Il secondo metodo (algoritmo del caos di Barnsley) consiste nell’utilizzo di una procedura ricorsiva che sottopone l’immagine ad uno stabilito numero di trasformazioni affini. In ogni momento, l’immagine corrente sommata all’algoritmo, è equivalente all’originale, tant’è che dopo un adeguato numero di trasformazioni si riottiene l’immagine di partenza. Barnsley ha realizzato una procedura che consente di ottenere il metodo di sintesi (e cioè il frattale) partendo dall’immagine da sintetizzare. In conclusione: la completa struttura di un essere biologico potrebbe essere pertanto descritta utilizzando un algoritmo per calcolatore, sia pure complesso. 21 Graham R.L., Spencer J.H.: La teoria di Ramsey. Le Scienze n. 265 settembre 1990. Effetto farfalla deriva dal detto: il battito d’ali di una farfalla a Pechino provocherà nei prossimi mesi un temporale a New York. 22 13 Ciascuna cosa è virtuosa in sua natura, che fa quello a che ella è ordinata; e quanto meglio lo fa tanto è più virtuosa. Dante Alighieri: Convivio Cosmologia e Biologia terrestre L a genesi del Vecchio Testamento inizia con le parole: "Dio creò il cielo e la terra…" . Non viene esplicitamente dichiarato ma è sottinteso che la creazione avvenne dal nulla. Il big bang, tra le teorie cosmologiche quella attualmente più accreditata, sembra condividere il medesimo presupposto. Ormai sappiamo che l’antimateria è un prodotto relativamente facile da ottenere in laboratorio. L’antiprotone, l’anti-elettrone, l’anti-neutrone non sono più oggetti esclusivi della fantascienza già da molti anni. Quando materia ed antimateria si incontrano, ovvero, quando un protone viene in contatto con un anti-protone si produce un gran botto luminoso nel quale le particelle si annichilano. Nel totale rispetto delle leggi della Fisica, così come oggi le condividiamo, si può asserire che, almeno in linea di principio, nulla osta l’ammissione della reversibilità del processo descritto. Pertanto è scientificamente accettabile sostenere la possibilità di un evento singolare che, in un gran botto, un punto nel “nulla” sprigioni una enorme quantità di materia ed antimateria. Il problema è che l’antimateria sembra del tutto assente in natura (in pratica, quella nota è stata tutta prodotta artificialmente in laboratorio). Non esistono indizi della sua presenza in regioni remote dello spazio cosmico. Tuttavia è possibile ipotizzare che la possente lacerazione primordiale generò una quantità di materia leggermente più abbondante dell’antimateria: le quantità in equilibrio di materia ed antimateria si annichilarono rapidamente ed il nostro cosmo potrebbe essere ciò che resta dell’eccesso di materia prodotta. Che il gran botto ci sia stato è oggi sancito da una serie di prove scientificamente plausibili e debolmente confutabili. Lo sviluppo della situazione, invece, è incerto: l’espansione dell’universo potrebbe continuare indefinitamente oppure, ad un certo punto, potrebbe invertirsi la tendenza del moto iniziando un’implosione che potrebbe condurre al collasso riportando ogni cosa allo stadio iniziale. In conclusione, ci troviamo a soggiornare su una scheggia di materia proiettata nello spazio da una colossale esplosione cosmica. I primi istanti di vita dell’universo sono stati indubbiamente cruciali. Gli inauditi valori iniziali di temperatura e pressione fanno supporre un amalgama di materiale condensato ed indifferenziato, ma che ben presto, raffreddandosi e rarefacendosi, si organizza in atomi di idrogeno ed elio. Questi due elementi, con prevalenza idrogeno, costituiscono, ancora oggi, la quasi totalità della materia dell’universo. Il processo di combustione stellare è infatti dovuto alla fusione di atomi di idrogeno in atomi di elio. Più esattamente occorrono due atomi H per costituire un atomo He. Questo processo nucleare sprigiona una enorme quantità di energia che si esprime prevalentemente in raggi luminosi e calore. La fusione nucleare produce elementi via via più pesanti inducendo una concentrazione di materia. Se la stella è sufficientemente grande, può implodere e collassare in un oggetto quasi stellare formato prevalentemente da neutroni. Una stella di neutroni sufficientemente pesante può, a sua volta, collassare in un buco nero. Un buco nero è 14 un oggetto astronomicamente piccolo di materia così condensata da possedere una forza gravitazionale in grado inglobare e trattenere perfino i raggi di luce. Se osservata su larga scala, la materia è dispersa nell’universo in modo piuttosto regolare. Solo localmente si possono osservare concentrazioni di ammassi stellari o spazi desolatamente vacanti. Gli ammassi di stelle sono stati organizzati in galassie dagli astronomi. In particolare, la galassia cui apparteniamo, porta il nome di Via Lattea. Tra i miliardi di stelle che costituiscono la nostra galassia una stella la notiamo in ragione della sua vicinanza: il Sole. E’ vicina in senso astronomico naturalmente: 150 milioni di chilometri. Poco più di otto minuti-luce (rammentiamo che la luce viaggia a circa 300.000 km al secondo). Lo sviluppo della vita biologica sulla Terra non deve considerarsi un fatto accidentale, secondo il principio antropico23 la presenza della vita nell’universo costituisce una rete di condizioni limitative a possibili evoluzioni dell’universo medesimo in maniera differente da quella attuale: solo questo pianeta, nell’ambito del sistema solare, sembra godere dei requisiti idonei ad ospitare esseri viventi così come è concepito nel senso terrestre; dispone di un’atmosfera che dovrebbe proteggerci dai raggi cosmici (il condizionale è d’obbligo a causa del noto disastro ecologico dovuto al buco dell’ozono); la presenza non invadente del Sole consente equilibrate oscillazioni climatiche in conseguenza dei moti combinati di rotazione, di rivoluzione e di inclinazione dell’asse che appaiono in completa sintonia con i ritmi biologici. La situazione, tuttavia, non è sempre stata totalmente idilliaca come può sembrare a prima vista. Il passato del pianeta è segnato da parecchi sconvolgenti collassi termici oltre a diversi eventi tellurici di portata planetaria. La scomparsa improvvisa di parecchie forme di vita fu certamente dovuta ad eventi cruenti. Sono accadimenti ormai confermati gli impatti preistorici della Terra con grandi meteoriti che, elevando nubi di polvere oscuranti il sole, provocarono estese e improvvise modificazioni climatiche generando glaciazioni, le quali, a loro volta, causarono l’annientamento dei dinosauri24, dei mammut e le estinzioni in massa di specie marine25, per abbassamento della temperatura oceanica, e specie vegetali, per carenza di sufficiente luminosità. Tracce di quantità anomala di iridio attribuite alla caduta di uno o più asteroidi con una datazione risalente ad oltre 60 milioni di anni sono state rilevate in più parti del pianeta26. La differenza tra la materia inorganica e quella organica, come accennato altrove, sembra praticamente connessa alla struttura architettonica della composizione molecolare piuttosto che alla materia prima costitutiva. Carbonio ed idrogeno non sono la base solo degli idrocarburi, ma compongono anche la impalcatura sia della materia plastica sia di quella vegetale ed animale. Insomma ciò che differenzia una proteina da una sostanza inorganica contenente gli stessi atomi è la sua capacità elastica di avvolgersi spazialmente in modo sollecito e particolare. L’energia necessaria all’attuazione dei meccanismi biologici è stata individuata nella fotosintesi della 23 Gale G.: Il principio antropico. Le Scienze n. 162 febbraio 1982. Alvarez W. Asaro F.: Che cosa causò l’estinzione in massa?. Le Scienze n. 268 dicembre 1990 25 Erwin D.E.: La madre di tutte le estinzioni. Le Scienze n. 337 settembre 1996 26 Russel D.A.: L’estinzione in massa dei dinosauri. Le Scienze n. 163 marzo 1982 24 15 clorofilla27 per i vegetali e la produzione dell’Adenosintrifosfato28 (ATP) negli altri organismi biologici. Questi complicati meccanismi elettrochimici che possono essere essenzialmente ridotti ad una contrapposizione di forze, autobilanciano le strutture e ne attribuiscono la forma. Questo fenomeno viene tecnicamente identificato come tensegrità29. L’alterazione dell’omeostasi30, così viene detta l’attività ordinaria risultante da questi equilibri elettrochimici è spesso fonte di malattia. Un tipico esempio è il tremore nel morbo di Parkinson causato da eccesso di contrazione dovuto a mancato equilibrio di contrapposizione. Un ruolo importante, poi, è assunto dal ritmo biologico, una sorta di orologio interno che regola la progressione delle attività comportamentali. Il meccanismo è concettualmente identico a quello dell’orologio integrato nel calcolatore che scandisce il ritmo della sequenza delle istruzioni da eseguire. Il ritmo biologico è in fase con il ritmo solare e si presenta con un ciclo di 24 ore. Esperimenti di isolamento condotti sull’uomo dimostrano che, in assenza di sollecitazioni esterne, il ritmo tende a rallentare ed il ciclo si dilata. Ciò dimostra che le sollecitazioni esterne sincronizzano almeno una volta al giorno il bioritmo interno. Il tipo di stimolo non è espressamente legato al segnale luminoso: in taluni animali sembra connesso a sollecitazioni termiche o di altra natura. Quando il ritmo biologico interno raggiunge una elevata sfasatura rispetto alle sollecitazioni ambientali sono necessari diversi giorni per riacquistare il completo equilibrio. L’effetto è noto a chi, volando su lunga distanza, subisce questo trauma dovuto alla repentina modifica del fuso orario. Sono stati anche individuati geni preposti alla produzione delle sostanze che regolano il ritmo biologico. Studi recenti affermano che ogni organismo dispone di più orologi biologici: addirittura uno per ogni cellula e forse più di uno. Certamente tutti sono sincronizzati con un orologio principale o centrale. Una recente ipotesi attribuisce il fenomeno dell’invecchiamento alla progressiva ed irreversibile sfasatura tra i diversi bioritmi. La comparsa della vita terrestre viene attribuita ad un brodo primordiale sottoposto a scariche elettriche naturali (fulmini). Questo fatto fu confermato da un esperimento eseguito per la prima volta nel 1953 da Stanley L. Miller, a quell’epoca studente di biochimica presso l’Università di Chicago. La sostanza iniziale si arricchì di proteine ed aminoacidi. Gli aminoacidi, in certe condizioni, sono propensi ad aggregarsi in lunghe catene costituendo acidi nucleici (DNA e RNA)31 i quali, assai sensibili all’ambiente, subiscono danni sistematici che riparano grazie a articolati meccanismi di auto-rigenerazione. Gli acidi nucleici sono i componenti 27 Isaac Asimov: La fotosintesi. Biblioteca Scientifica Boringhieri. 1971 G.Moruzzi, C.A.Rossi, A.Rabbi: Principi di chimica biologica. Libreria Universitaria Tinarelli. 1966 29 Donald E. Ingber: L’architettura della vita. Le Scienze n. 355 marzo 1998 30 Il termine è dovuto al fisiologo americano Walter B. Cannon (1871-1945), che, riprendendo il concetto di equilibrio organico del predecessore francese Claude Bernard (1813-1878), coniò il termine e lo estese per indicare i diversi equilibri biologici come l’autoregolazione degli ormoni, quella del livello di acidità (PH), la termoregolazione. Attualmente il termine viene usato in forma ancora più estesa per indicare gli equilibri di interi sistemi eco-biologici come il meccanismo di equilibrio tra predatore e preda ed il complesso dei sistemi di autoregolazione della biosfera. Quest’ultimo termine è concettualmente dovuto allo zoologo francese Lamark ed indica lo strato atmosferico, partendo dalle profondità marine, in grado di ospitare tutti gli organismi viventi. 31 Isaac Asimov: Guida alla scienza per l’uomo moderno – Vol 2 Feltrinelli. 1964 28 16 attivi della cellula vivente e contengono anche tutte le informazioni per la costituzione dell’organismo. Le prime avvisaglie relative a questa conclusione risalgono agli studi del batteriologo statunitense Oswald Theodore Avery (1877-1955). Nel 1944 Avery e collaboratori estrassero una strana sostanza da batteri con capsula liscia e la somministrarono a batteri a capsula rugosa: questi ultimi si trasformarono in batteri a capsula liscia. Successivamente si scoprì che la misteriosa sostanza responsabile della trasformazione era il DNA della cellula batterica. Vale forse la pena accennare che i batteri sono i principali responsabili del processo di fermentazione, trasformazione spontanea di succhi vegetali nota sin dalla preistoria. La produzione industriale di due alimenti liquidi largamente diffusi, il vino e la birra, è resa possibile dalla trasformazione operata da enzimi di origine batterica. Acidi nucleici e proteine compongono strutture visibili al microscopio elettronico conosciute col nome di cromosomi. Ogni specie biologica è caratterizzata da uno specifico numero di cromosomi. La cellula umana, ad esempio, dispone di 46 cromosomi disposti in coppia. Nella femmina tutti i cromosomi sono perfettamente appaiati, nel maschio una coppia di cromosomi appare diversificata. In relazione al ruolo svolto, questi cromosomi sono definiti sessuali. La coppia maschile è nota come coppia cromosomica XY; la corrispondente femminile, XX. Complessivamente solo la metà dei cromosomi sono presenti nelle cellule per la riproduzione così che il corredo prodotto durante la fecondazione naturale della cellula femminile uovo ad opera della cellula maschile spermatozoo è derivante per metà da ciascuna delle due cellule coinvolte nel processo. Il cromosoma sessuale maschile selezionato determina il sesso del nascente soggetto biologico. L’ingegneria genetica rende attualmente possibili interventi artificiali per modificare il corredo cromosomico del nuovo organismo. Nelle piante, ad esempio, viene praticata una tecnica per modificare il numero normale dei cromosomi utilizzando una sostanza velenosissima, estratta dal colchico, una gigliacea tuberosa. Questa sostanza è nota come colchicina e si esprime con spiccate capacità antimitotiche. Negli animali e nell’uomo vengono usati batteri per produrre le sostanze enzimatiche necessarie per l’assemblaggio delle sequenze nucleotidiche. Talvolta si usano frammenti di DNA con capacità di autoreplicazione per ottenere copie multiple sia del frammento sia dell’intera catena. La manipolazione genetica è la maggior prova che il meccanismo biologico altro non è che il derivato di una complicata sequenza programmata di attività elettrochimiche. Tanto è che è stato possibile perseguire ingegnose soluzioni alternative a complessi problemi matematici sfruttando la capacità dell’enzima DNA-polimerasi di replicare lunghe catene di aminoacidi32. E’ stato anche provato che differenze sessuali genetiche in prima ed attività elettrochimica ormonale in seconda istanza esercitano un’azione psicosomatica che si manifesta sia con una marcata diversità delle forme corporee sia con una versatilità psicoattitudinale fortemente diversificata33. I più antichi organismi fossili che sono stati rintracciati risalgono a tre miliardi e mezzo di anni fa, sono monocellulari e somiglianti agli attuali batteri. Il processo evolutivo ha provveduto allo sviluppo di nuove specie, la maggior parte delle quali sono 32 33 Leonard M. Adleman: Fare calcoli con il DNA. Le Scienze n. 362 ottobre 1998 Doreen Kimura: Differenze sessuali a livello cerebrale. Le Scienze n. 291 novembre 1992 17 attualmente estinte. Solo una parte del prodotto dell’evoluzione presenta sotto i nostri occhi e costituisce l’attuale flora l’attuale fauna. Il merito di aver per primo descritto con approccio scientifico convincente i processi evolutivi spetta naturalista britannico Charles Robert Darwin (1809-1882) che espose teoria nel suo classico saggio34. si e un al la Oggi siamo in grado di classificare, secondo una gerarchia evolutiva, piante ed animali, uomo compreso. A grandi linee possiamo affermare che i primi sintomi vitali sul pianeta Terra hanno coinvolto singole cellule (eucarioti e procarioti) ed alghe. Seguirono, nell’ordine, secondo la datazione ottenuta col radiocarbonio, trilobiti e conchiglie, pesci, anfibi ed insetti, rettili. Finalmente comparvero i dinosauri, gli uccelli, i primati ed infine l’uomo. La classificazione ottenuta tramite datazione C14 dei reperti fossili è in accordo quasi totale con quella ottenuta misurando la distanza genetica (numero delle differenze nella sequenza amminoacidica) dei corrispondenti DNA. La distanza genetica dell’uomo dalla scimmia, valutabile in tre parti su cento, è coperta solo da un limitatissimo numero di esemplari ominidi intermedi dettagliatamente classificati in Antropologia e la cui diversità fondamentale si riduce sostanzialmente al volume della scatola cranica. Una recente proposta di legge del Parlamento della Nuova Zelanda estende la garanzia dei diritti umani fondamentali a tutte le scimmie antropomorfe. Probabilmente questo tipo di orientamento è destinato a non restare a lungo isolato. Una ulteriore prova a conforto che le funzioni biologiche derivano da un meccanismo elettrochimico programmato, pur se complesso, è offerta dalla presenza di cicli generazionali in cui si alternano l’attività sessuata di una generazione con quella asessuata della successiva. Alcune specie di piante e di alghe si riproducono nella prima generazione tramite gametofiti generando sporofiti asessuati che, a loro volta, germinano nuovi gametofiti. Il fenomeno non è estraneo al regno animale: le meduse si riproducono sessualmente in polipi, che generano in modo asessuato, meduse. Un ulteriore indizio di comportamento programmato a livello genetico viene offerto dall’attività migratoria animale. Questa avviene prima dell’effettivo cambiamento climatico e la capacità di orientamento nella rotta con la ricerca della direzione corretta restano misteriose ed incomprensibili se non si accetta la programmazione genetica del fenomeno. Il raggiungimento di zone con clima temperato di stormi di uccelli al sopraggiungere dell’inverno ed il rientro nelle zone di provenienza in primavera sono esempio di un ciclo di comportamento ripetitivo che trova plausibili chiarimenti solo quando viene attribuito ad un congegno genetico pianificato. Un comportamento migratorio viene regolarmente osservato anche nei pesci. La scienza attuale propone diverse teorie per spiegare il comportamento migratorio. Nella maggior parte di queste teorie trovano ampio spazio spiegazioni sulle possibilità di utilizzo della navigazione solare e stellare, che, se forzatamente accettabili nella migrazione aviaria, trovano, a nostro avviso, qualche difficoltà ad essere accettate nel caso dei pesci, e diventano inammissibili per migrazioni negli abissi oceanici. Che esistano stimoli esterni in grado di attivare il processo iniziale del fenomeno migratorio, può essere logicamente accettabile: ma solo stimoli interni programmati 34 Charles Darwin: L’origine delle specie – Club del Libro Fratelli Melita. 1986. 18 possono spiegare in modo soddisfacente il complesso dei comportamenti, quasi del tutto scontati, dell’attività migratoria. Un comportamento rituale geneticamente predisposto, assai noto in zootecnia, è quello conosciuto come danza dell’ape, descritta per la prima volta nel 1923 dallo zoologo australiano Karl von Frisch. Quando un’ape scopre una fonte di nettare, al rientro in alveare e con totale assenza di addestramento, per comunicarlo alle proprie compagne, inizia a comporre una serie di movimenti che sono strettamente correlati a distanza, direzione ed abbondanza della fonte floreale. In questo caso nessuno può mettere in dubbio che i movimenti sono geneticamente predeterminati e sistematici: per una distanza inferiore a 90 metri viene tracciato un percorso circolare alternato; per distanze maggiori viene tracciato un percorso doppiamente circolare, a forma di 8. Fenomeni di risposta genetica programmata non sono estranei alla biologia vegetale. Noto è il tropismo, una sorta di sensibilità positiva o negativa a certi stimoli ambientali. La sensibilità alla luce viene definita fototropismo e si manifesta con un comportamento assai evidente come avviene, ad esempio, nella pianta del girasole che si presenta con una spiccata forma di eliotropismo. Altre comuni espressioni di tropismo vengono individuate nel geotropismo tipico delle radici delle piante, questa forma di tropismo spesso si combina con l’idrotropismo per la ricerca della zona più umida circostante. Il percorso apparentemente irregolare e caotico delle radici trova piena ragione in questi meccanismi. A proposito di corredo cromosomico, il soggetto biologico maggiormente descritto nella letteratura corrente è il moscerino della frutta, drosofila melanoganster, che dispone di quattro coppie di cromosomi. Invece, un solo cromosoma circolare a forma di anello costituisce il corredo di Escherichia coli, un batterio comunemente presente nel tratto intestinale umano ed animale. Il batterio può diventare patogeno per l’ospite ed inizia a produrre tossine, innescando processi infettivi a danno dell’apparato urinario, dell’appendice, della colecisti o dell’intestino retto. La produzione di tossine è una normale attività del metabolismo batterico. Tuttavia le tossine non sono specifiche dei batteri; piante, insetti e rettili sono normalmente in grado di metabolizzare sostanze che si dimostrano tossiche per i mammiferi. Nonostante siano tutte velenosissime, le tossine vengono usualmente distinte in fitotossine quando sono di origine vegetale e zootossine se di provenienza animale. E’ noto un lungo elenco di infezioni a carico dell’attività delle diverse tossine, il cui dettagliato meccanismo d’azione è da considerarsi, tuttavia, per lo più ignoto, ma, in linea generale, identificabile in una attività emotossica a danno del circolo sanguigno, spesso accompagnata da fenomeni emorragici, ed una attività neurotossica responsabile di paralisi dei centri nervosi, tipicamente dei centri di governo del sistema respiratorio e di quello cardiaco. Non è rara la combinazione sinergica delle due attività. Non deve sembrare strano il fatto che le tossine sono mortali per alcuni animali e non per altri, come avviene nel caso di alcuni ragni che producono tossine attive sulle loro prede ma non sull’uomo. La motivazione è da attribuirsi esclusivamente alla quantità di veleno somministrato: quella che in farmacologia viene identificata come dose letale per quel soggetto biologico. 19 Le difficoltà nell’interpretare il corredo genetico discendono dal fatto che le informazioni non sono immagazzinate, per così dire, in chiaro, ma derivano da una incredibile quantità di combinazioni generate da spostamenti e ricongiungimenti di segmenti cromosomici. Le modificazioni prodotte sugli organismi viventi sono dovute sia ad attività endogena, tipicamente la mutazione, che modifica il contenuto informativo del corredo cromosomico cellulare; sia a sollecitazioni ambientali esterne che favoriscono i soggetti più competitivi per la conquista dell’ambiente a danno degli individui meno idonei. Tutti gli esseri biologici sono tuttavia soggetti ad invecchiamento. Talvolta il processo di invecchiamento si presenta in forma traumatica, come avviene nel morbo di Alzheimer, descritto la prima volta nel 1906 dal neuropatologo tedesco Alois Alzheimer, e che si accompagna a manifestazioni identificate nella così detta demenza senile. Sono in auge almeno due teorie sulle cause dell’invecchiamento. La prima è nota come teoria degli errori: durante la replicazione del DNA errori occasionali si accumulano compromettendo le funzionalità cellulari sino alla paralisi. La seconda teoria è più recente e maggiormente accreditata ed è dovuta al microbiologo americano Leonard Hayflick; la teoria si fonda sull’osservazione che alcune cellule tissutali, coltivate in vitro, dimostrano una capacità di un limitato numero di divisioni cellulari. Pertanto la cellula sarebbe programmata per morire dopo un preciso numero di divisioni cellulari già stabilito alla nascita nel corredo genetico. Altra prova indiretta di questo asserto verrebbe dalla differente longevità tra i due sessi in parecchie specie animali, uomo compreso; in questo caso la femmina è scientificamente più longeva del maschio di ben otto anni in media. Resta in tal modo spiegata una maggioranza numerica femminile nelle popolazioni umane pur osservando la medesima probabilità natale tra i due sessi. L’invecchiamento debilita le difese organiche che si oppongono agli agenti patogeni, altrimenti detti, antigeni, alterando le funzionalità del sistema immunitario i cui anticorpi diventano incapaci di distinguere tra sostanze proprie dell’organismo ed agenti esterni, non intervenendo su questi ultimi oppure attaccando se stessi in una progressiva spirale di autodistruzione. La regione cromosomica responsabile di questi meccanismi è stata individuata in quella che controlla le funzioni del maggior complesso di istocompatibilità (HLC)35. Nei miliardi di anni successivi alla comparsa della vita sulla terra è facilmente ipotizzabile, come si è visto, lo sviluppo di un organismo sempre più complesso e competitivo che seguendo uno sviluppo egoistico proteso verso la conservazione del DNA ha condotto alla specie che doveva appestare il pianeta Terra ad ogni latitudine. La differenziazione tra le razze umane è un capitolo scientifico controverso; quasi certamente tutte le differenze derivano da reazioni a stimoli esterni come nel caso dell’ampiezza dei fori nasali che è ridotto nelle popolazioni che vivono in un clima nordico, per mitigare la temperatura dell’aria fredda inalata, e più dilatato in quelle razze che vivono in un clima torrido e caldo.36 Che l’uomo derivi dalla scimmia è, in questa sede, accertato ma irrilevante dal momento che il comportamento dei primi esseri della specie umana non era il caso che fosse troppo diverso da quello degli altri animali, anche per 35 36 Clerici E.: Le funzioni del maggior complesso di istocompatibilità. Le Scienze n. 111 novembre 1977 Grahame Clark: La preistoria del mondo – Garzanti. 1967. 20 occasionali ma ripetuti episodi di cannibalismo, in virtù dell’istinto a lottare per la sopravvivenza, ed a competere in particolare per l’approvvigionamento alimentare, come già osservò 500 prima di Cristo il filosofo milesio Anassimandro. Quando l’uomo prese coscienza che la cooperazione di gruppo poteva essere vantaggiosa, iniziò a porsi il problema della comunicazione con i suoi simili. 21 onde in ciascuna scienza la scrittura è stella piena di luce, la quale quella scienza dimostra. Dante Alighieri: Convivio Linguaggio e scrittura L a maggior differenza tra uomo ed animale è la capacità di utilizzo della tecnologia da parte dell’uomo. Ma la differenza più palese che lo distingue tra gli animali è il linguaggio. Le possibili forme di comunicazione animale non si sono evolute oltre il ristrettissimo ambito di una capacità appena espressiva. La lingua umana, in molte delle sue espressioni, è ambigua, tuttavia, a dispetto del difetto segnalato, si presta alla comunicazione, scopo cui è preposta, in maniera davvero soddisfacente. Anzi, l’ambiguità consente la poesia e soprattutto concede una potente difesa: quella di mascherare le proprie intenzioni reali. Limitatamente a questo senso, pensiero e linguaggio trovano puntuale coerenza o corrispondenza. I dispositivi umani di interazione con l’ambiente sono integrati, specifici e specializzati. L’occhio è preposto alla vista, il naso all’olfatto, la pelle al tatto, l’orecchio all’udito, la lingua al gusto. Sono tutti dispositivi di acquisizione di informazione, o, come si dice in gergo informatico, di input. Non esiste uno specifico dispositivo specializzato per la emissione vocale37. La lingua parlata, infatti, si avvale di una serie di apparecchi non specifici ma adattati allo scopo. La voce è prodotta da uno strumento articolato cui concorrono i polmoni, la laringe, la faringe, la bocca ed il naso, tutti normalmente adibiti ad altre funzioni. L’ambiguità del linguaggio naturale deriva, quindi, probabilmente da un uso imprevisto (e inizialmente improprio) degli strumenti citati in modalità fonetica: il linguaggio naturale, infatti, è l’espressione manifesta del pensiero, che, a sua volta, può essere considerato una sorta di linguaggio silenzioso che difficilmente possiamo ipotizzare ambiguo38. L’aggettivo naturale attribuito al linguaggio umano potrebbe diventare fuorviante in questa sede e pertanto necessita di chiarimento. L’aggettivo in questione è riferito alla modalità con la quale si è sviluppato e non ad una specifica qualità del linguaggio che è un evidente prodotto umano e come tale sarebbe da qualificarsi più correttamente artificiale. Quest’ultimo aggettivo invece è stato riservato a linguaggi come quello matematico o quello di programmazione per calcolatori al fine di consentire una sorta di convenzionale distinzione. Il linguaggio può essere espresso, con pari completezza, in forme differenti da quella orale. Un tipico esempio viene fornito dalla mimica gestuale utilizzata dai sordomuti ed il significato che può essere attribuito ai simboli rappresentativi, ai gesti ed ai suoni è del tutto arbitrario. La totale indipendenza tra significato e corrispondente rappresentazione ha consentito sia l’evoluzione di una moltitudine di lingue differenziate con diversità dialettali nella stessa lingua, sia il continuo adeguamento espressivo in risposta alle esigenze contingenti. 37 38 Masetti C., Pieraccioli R.: Il linguaggio umano. Le Scienze n. 237 maggio 1988 Michel Meyer: Problematologia – Filosofia, scienza e linguaggio – Pratiche Editrice. 1991. 22 Anche se alcune parole imitano suoni naturali, accadimento che il linguista vuol chiamare onomatopea, ogni lingua comprende un certo numero di suoni elementari, detti fonemi, che di per sé, spesso, non hanno alcun significato pur possedendo una corrispondente rappresentazione grafica. Una adeguata concatenazione di fonemi costituisce la parola. Questa, tuttavia, sovente è composta da più morfemi, ciascuno ammesso come entità grammaticale elementare provvista di rudimentale significato. Sicché la lingua orale si esprime con una sequenza di morfemi oppure, ad un livello più basso, di fonemi. La corretta sequenza fonemica soggiace a regole arbitrarie, spesso sancite dall’uso, raccolte sotto il nome di sintassi. Delle regole concernenti il morfema se ne occupa, invece, la semantica. Osserviamo, per inciso, che le sequenze aminoacidiche degli acidi nucleici potrebbero presentare analogie strutturali concettualmente interpretabili solo in questo senso. Il linguaggio, in fasi successive, si concretizza gradualmente in scrittura. Così, l’abbondante ed imprecisa tradizione orale si dissolve nella concisa e puntuale memoria scritta. L’impossibilità di disporre di reperti storici orali rende lo studio della scrittura di importanza decisiva per la comprensione dello sviluppo del pensiero. La scrittura, come oggi la concepiamo, è il frutto di una millenaria evoluzione che passa attraverso una serie di momenti cruciali che possono essere temporalmente suddivisi solo per comodità espositiva. L’invenzione della scrittura viene spesso attribuita ai Sumeri, occupanti la Babilonia meridionale 5000 anni a.C., anche se poi utilizzo e sviluppo avvennero indipendentemente e contemporaneamente in più luoghi. Una sorta di accurata anche se primitiva forma di tenuta della contabilità precede la scrittura39: su gettoni di argilla, provenienti da siti attualmente in territorio iraniano ed oggi conservati al Museo del Louvre, venivano registrati eventi contabili con segni e fori che successivamente si svilupparono in ideogrammi componenti la scrittura sumerica. Di più rozza fattura ed utilizzo erano i calculi, le pietruzze utilizzate dai Romani per contare, da cui deriva il termine calcolo. Reperti scritti ancora più antichi tuttavia, primordiale fase della scrittura, riguardano tacche su ossa e pietre e disegni spesso rupestri che si è deciso di qualificare come pittogrammi. La tacca è da correlare con l’unità40: venivano in tal modo espresse entità numeriche limitate a poche cifre. Il pittogramma, corrispondentemente, costituiva il simbolo quale rappresentazione dell’oggetto referente41. Inizialmente il pittogramma ha una forte somiglianza con il referente, nel suo sviluppo perde le caratteristiche originarie e, semplificandosi, assume un aspetto stilizzato. Ad esempio, il numero 5 romano (V) è il chiaro simbolo rappresentativo di una mano aperta, il 10 (X) stilizza due mani aperte contrapposte. La numerazione romana, primitiva, inefficiente ed approssimata rispecchia il fatto che l’antica Roma non è stata in grado di esibire nessun matematico degno di questo nome. Ciò tuttavia ha vantaggiosamente consentito la conservazione, fino ai nostri giorni, di questo primitivo simbolismo numerico. Nelle scritture correnti il senso dei simboli citati si è 39 Shmandt-Besserat D.: Gli antecedenti della scrittura. Le Scienze n. 120 agosto1978 Carl Boyer: Storia della matematica – Oscar Saggi Mondadori. 1996. 41 Silvestri D. e Tonelli L: Le scritture più antiche. Le Scienze n. 122 ottobre 1978 40 23 definitivamente allontanato dal significato originario e non poteva altrimenti avvenire. Alla fase pittografica segue, solitamente, ma non necessariamente, la fase ideografica. Talora la due fasi si sovrappongono. Il pittogramma e l’ideogramma si differenziano non per l’aspetto esteriore bensì per il significato che il simbolo assume. Nell’ideogramma il disegno di una gamba o di un piede stanno a rappresentare, per esempio, il camminare o il correre. La scrittura inizia, in questo modo, ad esprimere non solamente oggetti concreti ma anche astrazioni. La semplice architettura del sistema rappresentato dalla connessione diretta tra simbolo e referente, tipica del pittogramma, si evolve, assume quindi un aspetto più complesso: entrano in gioco altre due connessioni forti con una terza entità: il pensiero nell’atto della rappresentazione; questo si connette sia con il simbolo, la cui scelta è critica e, pertanto, meditata, sia con il referente, che diventa di fatto la sua concretizzazione. Come si può facilmente rilevare da quanto esposto, nelle sue fasi iniziali la scrittura potrebbe non aver relazioni con la lingua parlata: queste non sono necessarie in quanto non aggiungerebbero significato alle rappresentazioni. Nella fase logografica, al contrario, i simboli vengono raggruppati per costruire parole e frasi che non hanno alcuna attinenza con gli oggetti rappresentati. Scrivere in modo logografico è assai simile alla composizione di un rebus: gli oggetti rappresentati servono per esprimere una composizione fonetica che a sua volta attribuisce significato alla parola o alla frase. Spesso, il numero dei simboli utilizzati è piuttosto elevato. In questa fase la connessione tra pensiero e simbolo è puramente accidentale. L’ultima fase è quella fonografica o di alfabetizzazione. Il numero dei simboli si riduce drasticamente e questi sono gradualmente e progressivamente stilizzati fino a costituire quello che usualmente chiamiamo alfabeto. Ciascun simbolo o gruppo limitato di simboli viene associato ad un suono elementare o fonema. L’unica relazione diretta resta tra pensiero e referente. La scrittura alfabetica diventa un completo e sofisticato strumento di comunicazione parallelo alla lingua orale. Il numero ridotto di simboli rende più accessibile l’apprendimento della scrittura, inizialmente riservata alla casta sacerdotale, scrittura che può, a questo, punto diffondersi con maggior facilità. I supporti di scrittura più antichi che ci sono pervenuti, oltre alle iscrizioni commemorative incise su pietra o su metallo, sono essenzialmente costituiti da stele e tavolette d’argilla graffiate per mezzo di stiletti appuntiti. Particolare rilevanza, non fosse altro che per l’attenzione prestata dagli studiosi42, assumono i geroglifici egizi: una completa scrittura che non rispettava uno specifico verso. L’inizio del rigo viene indicato, infatti, dalla parte verso cui sono rivolte le facce dei simboli. I nomi propri di persona sono circondati con una linea ovale chiusa detta cartiglio (in molte scritture alfabetiche successive la funzione fu assolta dal carattere iniziale maiuscolo). Il primato di aver inventato un vero e proprio alfabeto costituito da 24 lettere spetta ai Fenici e ciò avvenne intorno al 1000 a.C.. La scrittura dei Fenici si sviluppava da destra a sinistra 42 Johannes Friedrich: Decifrazione delle scritture scomparse. Sansoni Università. 1973 24 ed il termine alfabeto deriva dalle due prime lettere fenicie aleph e bet, riprese dai greci alcuni secoli più tardi (850 a C.) in alfa (α) e beta (β). Nella primitiva scrittura greca le righe dispari iniziavano da destra, quelle pari da sinistra seguendo la linea del motivo ornamentale che chiamiamo greca. Successivamente nella lingua greca prevalse il verso, attualmente dominante, delle righe pari ripreso, più tardi, nelle lingue latine assumendo, nell’aspetto, la configurazione contemporanea. Scribi, copisti e scrivani hanno sostenuto un ruolo determinante per un lungo periodo della storia dell’uomo. L’invenzione del torchio per la stampa a caratteri mobili ad opera del tedesco Johann Gutenberg (1394-1468) ha prodotto una innovazione relativamente recente (1450), che sovente diamo per scontata come se fosse stata disponibile in ogni tempo della storia umana. La possibilità di ottenere rapidamente e con poca mano d’opera un gran numero di copie ha dato l’avvio all’editoria industriale ed ha reso realizzabile la cultura di massa. L’avvento del calcolatore sembra esasperare questa tendenza consentendo una editoria individuale. Il linguaggio naturale, nonostante l’aggettivo, è, come già accennato altrove, un prodotto artificiale dell’uomo, tant’è che per impadronirsene, necessita di un sufficiente periodo di addestramento. Normalmente viene appreso, senza sforzo apparente, il linguaggio utilizzato nell’ambiente circostante. Le aree soggette ad un utilizzo bilingue o plurilingue sembrano non presentare difficoltà e non si palesano fenomeni intesi alla modifica delle situazioni in atto. Certo è che l’evoluzione linguistica contemporanea comprende, altre ai neologismi, che in gran parte restano limitati nel gergo ristretto d’origine, adozioni di parole e morfemi di altre lingue generando il substrato di una specie di linguaggio universale. L’attuale rapidità degli spostamenti internazionali ed intercontinentali e la facilità delle comunicazioni accelerano e facilitano questi processi favoriti massivamente più da un utilizzo gestuale, un quasi linguaggio universale del corpo, che da un consapevole interscambio culturale. Attualmente non avvertiamo alcuna difficoltà nel processo di comunicazione a distanza, data la diffusione del telefono. Storicamente, la comunicazione a distanza fu relegata per molto tempo a distanze ottiche: segnali di fumo, percussioni, sibili e sventolio di bandiere colorate erano gli unici supporti che la tecnologia ammetteva. In presenza del sole era possibile trasmettere segnali luminosi con gli specchi. Non molto tempo prima dell’avvento del calcolatore l’unico alfabeto universalmente diffuso era, a partire dal 1837, per esigenze strumentali telegrafiche, il codice di Samuel Morse (1791-1872). Oggi, il codice Morse è andato ufficialmente in pensione ed il simbolismo informatico, specie quello simbolico ad icone, anche se diffuso in differenti formati, costituisce un valido supporto di interscambio in virtù di una certa indipendenza dal linguaggio naturale umano con il non trascurabile pregio della mancanza di ambiguità che garantisce un univoco ed universale significato alla rappresentazione. La perdita della capacità di intendere il significato delle parole è definita con il termine medico afasia, ed è causata da lesioni di specifiche aree cerebrali interessate a questa funzione. Questo rappresenta un forte indice di correlazione che coniuga le capacità cognitive con il sistema nervoso. Possiamo pertanto ritenere che il 25 sistema nervoso ha la candidatura effettiva ad essere eletto supporto essenziale del pensiero e della mente in generale. 26 E questo è però che 'l nervo per lo quale corre lo spirito visivo, è diritto a quella parte, e però veramente l'occhio l'altro occhio non può guardare, sì che esso non sia veduto da lui Dante Alighieri: Convivio Il sistema neurale. I l cervello dell'uomo è l'oggetto più complesso in assoluto dell'universo. Il Testo-Atlante Istituzioni di Anatomia dell’Uomo di Giulio Chiarugi e Luigi Bucciante comprende un intero e corposo volume (il IV, nell’edizione in mio possesso) dedicato all’apparecchio nervoso centrale. Il primo che intuì che la sede delle attività intellettuali era racchiusa nel cranio fu un discepolo di Pitagora che visse a Crotone, tale Alcmeone. Egli descrisse anche la tromba di Eustachio e i nervi ottici. Dovevano tuttavia trascorrere molti secoli affinché la scienza ufficiale prendesse coscienza delle idee di questo pitagorico: per molto tempo, infatti, si è sostenuto che l’essenza della vita risiedesse altrove (nel cuore, nella ghiandola pineale, nel sangue e così via), e radicati modi dire attuali (desiderare con il cuore, non aver sangue nelle vene, ecc.) sono la testimonianza delle quelle credenze. Solo nel 1543 il Vesalio nel De corporis humani fabrica riprese l’antica concezione pitagorica ed intuì una possibile relazione tra peso e volume del cervello ed intelligenza43. Il cervello è costituito da una moltitudine (nell’ordine dei 100 miliardi) di cellule nervose, neuroni, collegate tra loro tramite un intricato sistema di connessioni interneurali (dendriti e neuriti) separate da speciali sistemi di contatto detti sinapsi. L’intricato schema dei percorsi è predeterminato geneticamente e la corretta struttura determina non solo la corretta funzionalità delle attività sensoriali ma anche di quelle del pensiero. La cellula nervosa si differenzia dalle altre non soltanto per l’aspetto ma per la peculiarità di una scarsa capacità al ricambio generazionale: tutte le altre cellule nel corso della vita dell’individuo vengono effettivamente più volte sostituite; le cellule nervose lo sono in minima parte. Praticamente possiamo assumere che siano le stesse dall’infanzia alla vecchiaia. In linea di principio, l'unità funzionale neurale, detta appunto neurone, riceve stimoli dalle ramificazioni dendritiche; se la totalità degli stimoli supera un certo valore detto valore di soglia (che tuttavia non resta precisamente fissato e non sembra perfettamente costante nel tempo) provoca un impulso lungo il neurite, impulso che tramite connessioni viene trasmesso ad altre cellule del sistema. Che la cellula neurale fosse di per se un organo complesso era facilmente ipotizzabile, ma che potesse contenere tutte le informazioni contenute nelle cellule interconnesse è una sorpresa dovuta a recenti esperimenti. In ogni caso il neurone pur esprimendo una individualità indiscussa soggiace al comportamento dei vicini. Gruppi di neuroni si associano coprendo aree specifiche preposte a precise funzioni. L’analisi dei traumatismi del cranio coinvolgenti alterazioni della materia grigia hanno consentito una individuazione delle aree coinvolte in particolari funzioni che appaiono compromesse nel soggetto traumatizzato. Le aree interessate non sono, di solito, troppo compatte ma costituite da 43 Cyril V. Brewer: L’organizzazione del sistema nervoso - Universale scientifica Boringhieri. 1974. 27 raggruppamenti sparsi di neuroni. Il medesimo neurone, poi, appare svolgere compiti diversi attivandosi durante la composizione di aree funzionali differenti. L’addestramento e l’apprendimento accrescono le superfici interessate per il coinvolgimento di una maggior quantità di neuroni e modificando in modo significativo la mappatura delle aree di attività. Tutti questi fenomeni rendono effettivamente ardua la comprensione dei meccanismi del funzionamento della mente. Alcune attività non sono sottoposte al dominio diretto delle cellule cerebrali, come, ad esempio, le attività locomotorie, che dipendono da una rete nervosa specializzata ed indipendente che risiede nel midollo osseo. Altre attività quali la masticazione, la respirazione ed i movimenti ripetitivi in genere sono sotto il controllo di neuroni del tronco cerebrale. Veri e propri programmi di locomozione sono memorizzati in gruppi di cellule nervose preposte a questa funzione, questi programmi possono essere attivati o disattivati da specifiche cellule che svolgono la funzione di un vero e proprio interruttore. E’ possibile individuare almeno due percorsi nervosi: le vie di raccolta delle informazioni dalle unità periferiche e le vie che trasportano le istruzioni per la reazione ai solleciti. Il meccanismo che coinvolge stimolo e reazione è il medesimo sia se riguarda il mondo esterno che l’attività interna dell’organismo. In entrambi i casi la funzione essenziale del sistema nervoso è quella di costituire un supporto rapido ed efficace alla trasmissione di informazioni. Segnali ed impulsi vengono trasmessi da molti tipi di cellule ma la cellula nervosa è altamente specializzata in questo compito. Ciò che può essere inteso come comportamento, comprese le sue espressioni più elementari come il semplice movimento di un arto è da riferirsi al sistema nervoso. Ciò che sostanzialmente differenzia il sistema nervoso dagli altri sistemi ed apparati biologici è la chiave di lettura dell’aspetto fisiologico: nel sistema nervoso si studiano essenzialmente i meccanismi di trasferimento delle informazioni o delle istruzioni, in altri termini, si studia il comportamento e quindi si oltrepassa la pura e semplice funzionalità cellulare, spesso più che soddisfacente a chiarire, in tutti gli altri casi, le problematiche fisiologiche. E’ provato, fin dagli esperimenti condotti sulle rane dal bolognese Luigi Galvani (1737-98), che l’attività essenziale del sistema nervoso ha strette correlazioni con fenomeni di natura elettrica, la differenza di potenziale che si genera durante un impulso nervoso tra l’interno e l’esterno di una cellula neurale è generata da una pompa chimica che funziona in maniera analoga a quella di una pila elettrica. L’elettroencefalogramma è una analisi clinica consueta dell’attività cerebrale intesa a rilevare anomalie e malattie: la lettura del tracciato elettroencefalico consente di distinguere con notevole precisione un soggetto ammalato da uno sano. Sia negli animali sia nell’uomo, non affetti da disagi nervosi, è possibile individuare un comportamento che possiamo definire in un certo senso prevedibile o precostituito. L’uccello che fabbrica il suo nido, l’interesse dell’uomo a comprendere e dominare l’ambiente che lo circonda sembrano effetti dovuti a norme comportamentali memorizzate geneticamente nell’individuo piuttosto che a stimoli prodotti dall’ambiente. D’altro canto memoria ed apprendimento sono il risultato di attività dovute esclusivamente a ripetuti esercizi e non è stata individuata alcuna sostanza in grado di migliorarne l’efficienza (una popolare credenza priva di ogni fondamento 28 scientifico vede nel fosforo la panacea della soluzione ai problemi di memoria). Memoria ed apprendimento non sono peculiari dell’umanità: in letteratura sono stati descritti casi di animali che hanno persino imparato a contare, sia pure un limitato numero di oggetti. Allora le differenze sono da ricercarsi nella complessità dell’argomento da acquisire piuttosto che nel meccanismo intrinseco all’esercizio della memoria e dell’apprendimento. Sono stati eseguiti esperimenti che dimostrano che l’attività della memoria è da ricercarsi nella chimica dell’organismo. Lo psicologo McConnell44 ha dato in pasto planarie opportunamente addestrate a planarie non addestrate: a digestione conclusa le planarie non addestrate dimostravano di possedere una conoscenza analoga a quella delle compagne che avevano divorato. La planaria, quando viene tagliata, è in grado di ricostruire le parti mancanti. McConnell tagliò planarie addestrate in tre parti: testa, tronco e coda; ciascun troncone ricostruì un intero animale perfettamente addestrato. Questi esperimenti hanno dimostrato che: 1) il sapere è un fenomeno squisitamente fisico; 2) esiste la possibilità di trasmettere il sapere per via fisica; 3) il sapere non risiede in un particolare organo. A questo punto è possibile facilmente ipotizzare che informazione genetica ed informazione acquisita potrebbero essere immagazzinate negli individui allo stesso modo e con meccanismi analoghi. 44 F.L. Boschke: L’origine della vita - Garzanti. 1973 29 Li numeri, li ordini, le gerarzie narrano li cieli mobili… Dante Alighieri: Convivio Macchine di Turing S ono stati ideati almeno tre differenti modelli di macchine teoriche per la computazione. Oltre al modello descritto nel 1936 da un giovane studente di matematica, l’inglese Alan Mathison Turing (1912-1954), sono noti il modello di Post (1936) e quello con memoria push-down45. Nonostante le differenze tutte queste macchine sono equipotenti nel senso che nessuna si è dimostrata più efficace delle altre, anzi è stata matematicamente dimostrata l’equivalenza, in termini di intercambiabilità, delle tre varianti. Una macchina di Turing è una apparecchiatura logica, nel senso che il suo funzionamento è totalmente indipendente dal materiale con cui potrà essere effettivamente realizzata. In perfetta sintonia con il cervello naturale, vengono utilizzati impulsi elettrici nelle attuali apparecchiature. La classica macchina di Turing possiamo immaginarla costituita da un nastro suddiviso in una serie interminabile di celle. Lungo il nastro si sposta, verso sinistra o verso destra, una testina, in qualità di dispositivo di lettura e scrittura. Assumiamo che la testina (cursore) sia in grado di scrivere un certo simbolo o di cancellarlo e sia anche capace di leggerlo distinguendo una cella vuota da una contrassegnata. A sinistra della prima cella non ci sono altre celle ed il cursore che tentasse di spostarsi oltre la prima cella a sinistra dell'inizio del nastro ne troverebbe naturale impedimento e terminerebbe la sua corsa. Supponiamo di utilizzare quello che tecnicamente di dice un alfabeto finito e cioè i simboli del sistema binario 1 e 0. La rappresentazione di due cifre sul nastro della macchina appare come una ripetizione di simboli 1 interrotta da uno 0. Supponendo di voler eseguire una operazione di somma delle due cifre è sufficiente accostare una sequenza all’altra in modo da ottenere il risultato: una catena di cifre 1 senza interruzione. Una possibile sequenza operativa per ottenere il risultato descritto potrebbe essere la seguente: ♦ leggi la cifra 1 all’estrema sinistra del nastro ♦ scrivi 0 al posto della cifra 1 letta ♦ sposta la testina di lettura verso destra fino a trovare una cifra 0 ♦ scrivi 1 al posto dello 0 trovato ♦ fermati La sequenza operativa delle istruzioni impartite alla macchina di Turing prendono il nome di algoritmo che altro non è che la progettazione di una macchina di Turing specifica per compiere una data operazione. L’esempio descritto è tanto semplice da rasentare la banalità. E’ evidente che è possibile progettare macchine di Turing in grado di eseguire innumerevoli operazioni semplici assemblate in strutture che assumono un livello di complessità a piacere. L’algoritmo è la naturale evoluzione della formula matematica che è 45 Zohae Manna: Teoria matematica della computazione – Serie di informatica Boringhieri. 1978. 30 stata, di fatto, da questo inglobata46. La formula matematica si limita a trattare esclusivamente cifre, l’algoritmo è in grado di trattare, oltre ai numeri, la rappresentazione di ogni tipo di oggetto: lettere alfabetiche, immagini, suoni, e gruppi di oggetti con ogni tipo di complessità, compresi altri algoritmi e compreso se stesso. E’ curioso che il calcolo algoritmico o computazione, qualunque sia la complessità, non genera mai informazione: anzi è causa sistematica di perdita di informazione47. Si rifletta, per esempio, sul semplice calcolo 2+2=4. Il risultato dell’operazione (4) di per sé contiene meno informazione degli elementi in ingresso (2+2). Gli elementi in ingresso, invece, contengono implicitamente il risultato in uscita; viceversa il dato in uscita nulla ci dice circa l’origine che poteva essere, nel nostro caso, 3+1 o 4+0 o 2+2. Paradossalmente, allora, consumiamo energia per distruggere informazione. Le attuali informazioni, poi, vengono memorizzate su labili supporti magnetici o, nel migliore dei casi, su delicati supporti ottici la cui durata di conservazione nel tempo non è minimamente paragonabile al resistente papiro egizio48. E su questi inconsistenti fondamenti poggia tutta l’attuale scienza informatica. Il termine algoritmo si fa derivare dall’ultima parte del nome del matematico persiano del IX secolo Abu Jahfar Mohammed ibm Musa AlKwarizmi autore dell’opera Al-jebr wal-muqabala. Il nome dello studioso, parola per parola, si potrebbe tradurre con: padre di Jahfar Maometto figlio di Musa proveniente dalla Coresmia. Il suo trattato che, letteralmente tradotto, vuol dire “Trasporto ed elisione”, con chiaro riferimento alle operazioni fondamentali tra i due membri dell’uguaglianza di quella che oggi chiamiamo algebra (Al-jebr), restò una pietra miliare della matematica per diversi secoli a seguire. E’ probabile che anche il termine odierno “cabala” (indicante la pseudoscienza esoterica assai nota che nulla a che vedere con la matematica) derivi dall’ultima parte del titolo elidendo la prima parte dell’ultima parola così come fa colui che pur di darsi lustro (ma non sa di cosa si parla) cerca di imitare l’erudito. Per eseguire operazioni non banali avremmo bisogno di un consistente numero di macchine di Turing, ciascuna specializzata per un determinato compito. Il processo di generalizzazione di una macchina di Turing opportunamente programmabile a seconda delle varie esigenze è dovuta al genio matematico dell’ungherese, naturalizzato americano, John von Neumann (1903-1957). Nel 1945 von Neumann progettò, nell’Istituto di Studi Avanzati dell’Univesità di Princeton, dove lavorava fin dal 1933, l’EDVAC (Electronic Discrete Variable Automatic Computer), il primo computer che doveva la sua flessibilità al fatto che conteneva in memoria non solo i dati da elaborare ma anche il programma, cioè le istruzioni necessarie per l’elaborazione. Il fatto stupefacente è che istruzioni e dati possono essere rappresentati con gli stessi codici numerici. E’ il contesto logico o sintassi che permette di distinguere se si tratta di un dato oppure di una istruzione. Il significato della rappresentazione simbolica del dato, cioè se si tratta di numeri, lettere, immagini o suoni, può essere concordata di volta in volta tra il programmatore ed il calcolatore. Ciò consente una grande flessibilità e permette di utilizzare al meglio gli spazi limitati della memoria di macchina. 46 Knuth D.E.: Gli algoritmi. Le Scienze n. 108 agosto 1977 Bennet C.H., Landauer R.: I limiti fisici fondamentali del calcolo. Le Scienze n. 205 settembre 1985 48 Rothenberg J.: La conservazione dei documenti digitali. Le Scienze n. 319 marzo 1995 47 31 L’attuale calcolatore, contrariamente a ciò che comunemente si pensa, nonostante il fattore di crescita raggiunto è uno spazio troppo limitato ed inadeguato per problemi di tipo matematico che coinvolgono numeri composti da una quantità cifre che eccede la capacità di memoria. Per ciò che concerne i limiti fisici di spazio si pensi al fatto che se riuscissimo a memorizzare tutte le possibili mosse scacchistiche, ciascuna occupante un solo atomo, la materia necessaria eccederebbe la quantità disponibile nell’intero universo. Questa categoria di problemi per i quali è noto l’algoritmo risolutivo ma non si dispone di macchine di adeguata capacità o velocità viene classificata dei problemi intrattabili, per distinguerla da quella dei problemi insolubili per i quali cioè, non è stato possibile individuare un algoritmo risolutivo. Per quanto riguarda la inadeguatezza il calcolatore è uno strumento digitale, sarebbe a dire discreto; pertanto mal si adatta a rappresentare il continuo e meno ancora l’infinito. E’ in un certo senso un ritorno al pitagorismo dove tutto è numero e i numeri triangolari, quadrati o, in genere, poligonali rivivono l’originaria armonia nei pixel che descrivono le immagini e nei bit che compongono i suoni e quant’altro. In questo nuovo mondo, tuttavia, non è stato necessario nascondere la vergogna dell’incommensurabile come avvenne per i pitagorici: non c’è proprio nessuno spazio per l’irrazionale. Se si dovessero definire in dettaglio tutte le operazioni elementari che compie una macchina di Turing per eseguire una computazione non banale utilizzando come alfabeto finito il sistema binario otterremmo una lunghissima sequenza di 1 e 0 difficilmente comprensibile in termini umani. Troveremmo difficoltà di interpretazione analoghe a quelle che si incontrano osservando la sequenza degli aminoacidi degli acidi nucleici con la non trascurabile differenza che le regole di composizione della sequenza binaria sono il risultato di una scelta conosciuta. Allora, per facilitare i compiti di scambio di informazioni tra uomo e macchina sono stati proposti dei sistemi di codifica noti come linguaggi di programmazione. Un linguaggio di programmazione è costituito da un insieme di comandi flessibili e da gruppi di regole limitative dell’utilizzo di quei comandi. L’esecuzione di un comando scatena una incredibile serie di micro-operazioni di macchina il cui risultato innesca l’esecuzione del comando successivo, e così via, fino al termine, che coincide con l’esecuzione dell’ultimo comando contenuto nel programma. La descrizione di ordinarie operazioni che ipotizziamo semplici, diventa di una complessità inaudita durante l’esposizione dell’analisi di dettaglio. Si pensi alla semplice scelta un minuscolo oggetto tra quelli disponibili a portata di mano. Occorre primariamente individuare e riconoscere l’oggetto analizzando una certa quantità, spesso non banale, di attributi catturati tramite il sistema visivo: la forma, la grandezza, il colore, l’orientamento e la posizione spaziale. In caso di più oggetti uguali entrano in gioco ulteriori fattori (il più vicino, il più nuovo, il più sporgente, il più luminoso, il più facile da raggiungere ecc.). Occorre poi coordinare il complesso movimento che implica le articolazioni di dettaglio dell’arto interessato coinvolgendo i sistemi scheletrico, muscolare e nervoso di braccio, avambraccio, carpo, metacarpo e falangi, guidandolo alla presa, tenendo conto della postura di partenza e della desiderata rapidità e precisione della esecuzione. Un braccio robotizzato efficiente è in grado di effettuare la medesima operazione descritta per l’arto umano spesso con un miglior grado di accuratezza, 32 precisione e rapidità, ma, allo stato attuale, con una minore flessibilità. La resistenza alla durata operativa non è minimamente paragonabile essendo, l’arto meccanico, sottoposto ad usura e non a stanchezza. I comandi operativi vengono descritti una sola volta. Apposite istruzioni di iterazione consentono la ripetizione della sequenza per un numero di volte a piacere o finché non si verifica una specifica condizione (ad esempio: non ci sono più oggetti da manipolare). Quando un algoritmo viene espresso attraverso uno specifico linguaggio di programmazione prende il nome di programma. Un metodo attualmente diffuso per la redazione di programmi per calcolatore è noto come “programmazione strutturata”. E la struttura si concretizza in figure che, secondo uno studioso (Jackson), sono riducibili a tre: ♦ la scelta (select) ♦ la sequenza (sequence) ♦ la ripetizione (iter until) Con questo metodo sarebbe possibile descrivere oggetti informatici con qualsiasi livello di complessità, su cui redigere programmi modulari, ordinati, più facilmente modificabili e con un numero ridotto di possibili errori. Per fare un esempio, un libro in due volumi verrebbe descritto come: libro: sequenza di autori, editore, titolo, testo autori: ripetizione di autore testo: volume uno oppure volume due (scelta) testo volume uno: ripetizione di pagina testo volume due: ripetizione di pagina La descrizione può procedere su livelli di profondità non predeterminata a seconda delle necessità di dettaglio. Gli elementi dell’oggetto descritto vengono individuati sulla base del punto di vista da cui si osserva la struttura. Nel caso del libro, in alternativa a quanto visto, il testo volume X potrebbe essere descritto come una sequenza di Introduzione, Capitoli e Appendici o in altri modi più consoni all’obbiettivo desiderato. Queste osservazioni ci inducono a differenziare struttura fisica e struttura logica. Ad una struttura fisica (che è univoca) possono corrispondere molteplici strutture logiche. L’ideale sarebbe individuare il massimo dettaglio della struttura fisica dell’oggetto in modo che qualunque struttura logica possa far riferimento diretto agli elementi della struttura fisica. E’ ciò che tenta di fare l’organizzazione dei dati nota come Data Base relazionale in classificazioni tecnicamente definite come riduzioni a forme normali. Un programma può essere scritto in molti modi e la sua efficienza varia a seconda della creatività del programmatore. Di solito è più efficiente un programma con un minor numero di istruzioni, in quanto il parametro più importante è il tempo. Più rapido è l'ottenimento del risultato migliore è da considerare il programma. Talora il programma deve rispondere ad esigenze colloquiali connesse ad immissione da tastiera ed emissione estemporanea su visore. Ed allora prendono il nome di programmi interattivi. Altre volte le istruzioni del programma devono essere ripetute un numero finito, ma inizialmente 33 indeterminato, di volte, e vengono classificati di tipo batch, sarebbe a dire con lettura automatica dei dati in immissione. A qualunque categoria appartengano esistono gruppi di istruzioni (sottoprogrammi) che devono essere eseguite più volte prima del termine del programma: queste istruzioni, per economia, compaiono una sola volta nel corpo del programma e vengono ripetutamente richiamate per l’esecuzione generando quelli che tecnicamente sono detti loops (cicli). Talvolta accade che, vuoi per errore del programmatore, vuoi per la natura del problema venga innescato un loop senza uscita (infinite loop) ed il processore resta coinvolto in un interminabile processo ripetitivo che può essere rimosso solo tramite un drastico e traumatico intervento esterno. Questo fenomeno era già stato teorizzato e descritto da Turing (problema della fermata) nell’analizzare algoritmi dei quali era impossibile prevedere l’esistenza del momento finale. In particolarissime circostanze questo indesiderato effetto collaterale è stato volutamente provocato: è il caso dei così detti NEP (Not End Programs) o programmi senza uscita che vantano l’esigenza di restare attivi per tutto il tempo di attività del processore. Già nel 1943 McCulloch e Pitts49 descrissero, con linguaggio matematico, una rete neuronica artificiale in grado di imitare un sistema nervoso biologico. La sostanziale differenza tra rete neuronica e macchina di Turing è dovuta al fatto che la prima utilizza un meccanismo di tipo analogico e la seconda, invece, di tipo digitale. Il neurone somiglia ad una diga con barriera variabile: i potenziali d’azione entrano in attività al superamento del livello di guardia che dispone di una sensibilità regolabile di volta in volta. Il dispositivo di Turing funziona, invece, utilizzando unità discrete, come un comune interruttore: acceso oppure spento. La struttura essenziale di una rete artificiale di neuroni comprende: 1) una serie di ingressi 2) una serie di strati neurali 3) una serie di uscite Gli ingressi sono fisicamente e variamente connessi allo strato neurale prossimo. Gli strati neurali intermedi sono connessi tra loro e l’ultimo strato con le uscite. Entro certi limiti è possibile simulare una rete neurale con una opportuna macchina di Turing che sfrutta l’algoritmo di retropropagazione descritto nel 1974 da Paul J. Verbos50 nella sua tesi di laurea. In pratica, si adeguano i sensori di uscita alla risposta desiderata, in relazione ai segnali di ingresso e l’algoritmo di Verbos trova le regole (in termini di sommatorie pesate degli stimoli in ingresso) per riprodurre correttamente la risposta in uscita e le memorizza. E’ un vero e proprio apprendimento tramite addestramento. Reti neurali vengono opportunamente addestrate per riconoscere caratteri scritti in differenti corpi tipografici e i relativi programmi (Optical Character Recognition) vengono utilizzati per memorizzare su calcolatore testi scritti, catturati tramite idonei dispositivi per la scansione ottica (scanner). E’ possibile la scansione di alfabeti specifici come l’alfabeto musicale: uno spartito può essere letto ed interpretato in forma musicale con l’opportuno software. Con una tecnica analoga, ma sempre dopo opportuno addestramento, un calcolatore è in grado di interpretare i fonemi di 49 50 A.de Luca, I.M. Ricciardi: Introduzione alla cibernetica – Collana di informatica Franco Angeli. 1971. Geoffrey E. Hinton: L’apprendimento delle reti artificiali di neuroni. Le Scienze n. 291 novembre 1992 34 un discorso parlato, intercettati trasformarli in testo dattiloscritto. tramite un microfono, e di Con questo sistema è possibile addestrare un calcolatore ad imitare qualsiasi tipo di attività umana. Compresa la costruzione di altri calcolatori identici secondo metodi di riproduzione asessuata o, come vuole la moda attuale, clonazione. I limiti di questa pratica sono provvisoriamente imposti soltanto dalla capacità di calcolo delle attuali apparecchiature, fatti salvi, ovviamente, i criteri di intrattabilità connessi alla metodologia di approccio per la soluzione di taluni problemi51. 51 Traub J.F. Wozniakowsky H.: Il superamento dell’intrattabilità. Le Scienze n. 307 marzo 1994 35 Quella mente che prima la partorisce, sì per far più ornato lo suo presente, sì per la caritade dell'amico che lo riceve, non si tiene alli termini del vero ma passa quelli. Dante Alighieri: Convivio La mente è un programma.52 I l fatto che la mente costituisca una spiritualità distinta dal corpo in cui soggiorna è razionalmente piuttosto difficile da accettare in quanto verrebbero violati i principi fondamentali della Fisica. Non appare plausibile un meccanismo d'azione che permette all'immateriale di agire, senza contatto, diretto o mediato, su una entità fisica materiale. Il dubbio è tutt’altro che recente: già nel 1643, la principessa di Boemia Elisabetta53 confessava apertamente al filosofo e matematico Renato Cartesio, impegnato a dimostrare il contrario, “…di non comprendere come l’anima immateriale e inestesa possa agire sul corpo esteso e materiale…”. Nonostante gli sforzi concettuali profusi, tra i princìpi della filosofia cartesiana, questo punto rimase il più dolente. Al nostro stadio della conoscenza l’immateriale continua a sfuggire ad ogni analisi, non essendoci alcun indizio, scientificamente valido, che ne comprova l’esistenza; solo la materia, evanescente quanto si vuole, si dimostra in grado di manifestare campi di forze che consentono l'azione su altri corpi. Potrebbe essere fuorviante, oltre che ingenuo, pensare che gli allucinogeni, gli psicofarmaci, gli antidolorifici, gli ansiolitici, gli antidepressivi e droghe simili possano agire a livello spirituale. Il meccanismo d’azione di queste sostanze coinvolge sempre (direttamente o indirettamente) interazioni elettrochimiche riguardanti equilibri di carica tra l’esterno e l’interno della parete cellulare nervosa in prossimità delle sinapsi. In pratica tutte agiscono alterando il livello della soglia di eccitabilità del neurone e non sempre le sostanze in questione sono costituite da molecole complesse. Talora accade che semplici elementi in assetto ionico costituiscono il principio attivo farmacologico che può occasionalmente essere utilizzato con successo nella terapia medica: è il caso del litio, che viene somministrato in forma di sale, ed il cui ione si dimostra efficace nella terapia della sindrome maniacale54. Dobbiamo ammettere che non sempre è noto il completo dettaglio di ciò che avviene a livello molecolare, ma questa ignoranza non giustifica minimamente la implicita ammissione di un coinvolgimento di presunte sfere spirituali nonostante si continuino a descrivere nella letteratura scientifica sicure correlazioni tra disturbi umorali e creatività55. Disagi umorali e reazioni emotive sono correlati a elettrochimici riproducibili anche in assenza della 52 Searle J.R.: La mente è un programma?. Le Scienze n. 259 marzo 1990 Horgan J.: Può la scienza spiegare la coscienza?. Le Scienze n. 313 settembre 1994 53 Cartesio R.: I principii della filosofia. Prefazione di Adriano Tilgher. LibrItalia 1997 54 Tosteson D.C.: Il litio e le alterazioni maniacali. Le Scienze n. 154 giugno 1981 55 Jamison K.R.: Sindrome maniaco-repressiva e creatività. Le Scienze n. 320 aprile 1995 36 meccanismi situazione effettiva scatenante. Gli studi di Ivan Petrovich Pavlov (1849-1936) che nel 1904 lo condussero alla scoperta del riflesso condizionato hanno dimostrato la inoperosità del meccanismo volontario cosciente in risposta a certi stimoli: il ripetersi dello stimolo ingenera una sorta di abitudine reattiva che si riproduce, in certe condizioni, anche in assenza della effettiva stimolazione. Ad esempio: il riflesso condizionato che produce la salivazione canina alla presentazione di cibo accompagnato da un suono può essere riprodotto con l’esecuzione del suono anche in assenza di cibo. Da un certo punto di vista dovremmo ipotizzare la vita come attributo esclusivo di materiale organico a base di Carbonio. E’ proprio da escludere la possibilità di una vita extraterrestre a base di un elemento diverso? E’ possibile ipotizzare un meccanismo di pensiero, una sensibilità, una mente diversa, insomma, tra un terrestre ed un alieno? Per quanto sforziamo l'immaginazione nell’individuare puntuali differenze, queste non si palesano. Nel ricercare ciò che invece potrebbero avere in comune sostanze organiche viventi strutturalmente diverse in relazione a meccanismi del pensiero, ragionevolmente ipotizzando che il pensiero non è distinto dal fisico in quanto con esso interagisce, non disponiamo di troppe alternative: la mente diventa la risultante di uno stato della materia56. In altri termini, il pensiero potrebbe essere la conseguenza delle ripetute modificazioni di uno stato elettrochimico: un meccanismo assai vicino, se non identico, alla esecuzione di un programma in attività nella memoria di un calcolatore. Questa è lungi dall’essere tacciata come una ipotesi azzardata. Non possiamo ignorare che la Scienza ha da tempo assunto che il genoma con il suo corredo da 150.000 geni contiene tutte le informazioni inerenti la composizione caratteristica dell’individuo. Queste informazioni vengono utilizzate nello sviluppo dell’organismo da un preciso programma genetico costituito da istruzioni memorizzate nel genoma. I noti fenomeni di rigetto nel trapianto e le recenti tecniche di clonazione57 rafforzano l’ipotesi che il patrimonio genetico non sia di esclusiva pertinenza di cellule particolari, ma viene incluso in ogni cellula dell’individuo, è una specie di impronta individuale che lo caratterizza. Studi condotti su gemelli omozigoti in relazione alle malattie della mente confermano la validità delle tesi che ipotizzano una predisposizione genetica dei soggetti anche se, spesso, i fenomeni scatenanti l’insorgenza di queste patologie sono da ricercarsi al di fuori del meccanismo genetico58. Non dovrebbero esistere, pertanto, differenze importanti tra gemelli monozigoti naturali e soggetti clonati se non fosse per la diversa frequenza di accadimento degli eventi ed il numero degli organismi che è possibile, naturalmente in un caso o artificialmente nell’altro, coinvolgere. A questo punto è lecito porsi la domanda: quali sono le differenze (se ce ne sono) tra un cervello umano ed un cip di silicio che contiene un programma in esecuzione? Allo stato attuale delle nostre conoscenze potrebbe non esserci alcuna differenza se non in termini di 56 Churchland P.M., Smith Churchland P.: Può una macchina pensare?. Le Scienze n. 259 marzo 1990 Dulbecco, Raineri, Vezzoni, Lucchini, Brovedani, Fariello: Clonazione: problemi etici e prospettive scientifiche. Le Scienze S.p.A. Editore 1997 58 Elliot S. Gershon, Ronald O. Rieder: Patologie mentali. Le Scienze n. 291 dicembre 1992 57 37 complessità. Un calcolatore per poter funzionare necessita di una memoria di breve durata ed un dispositivo in grado di conservare i dati per lungo tempo; il processo mnemonico dell’uomo si avvale parimenti di una memoria a breve ed una a lungo termine: non si tratta di casuali analogie, bensì di conseguenze derivate da necessità funzionali. Pur essendo capaci di scrivere programmi sufficientemente articolati da pilotare macchine in grado persino di autoreplicarsi, i programmi più sofisticati redatti attualmente dall’uomo esprimono tuttavia algoritmi talmente semplici da dimostrarsi non sufficientemente abili da imitare anche solo una piccola parte del comportamento di un moscerino. D’altro canto la tecnologia corrente si è sviluppata su apparecchiature elettroniche velocissime, ma di tipo seriale, il che equivale a affermare che viene eseguita una istruzione per volta, in sequenza. Il sistema nervoso, invece, è un’apparecchiatura parallela e pertanto in grado di eseguire contemporaneamente molte istruzioni. Questa differenza non banale di architettura dovrebbe rivelarsi essenziale per la esternazione di ciò che definiamo sentimenti e coscienza. Questa ipotesi è avvalorata da esperimenti condotti su reti neurali artificiali: danneggiamenti simulati su reti software replicano con impressionante somiglianza effettivi errori comportamentali prodotti da lesioni cerebrali dell’uomo59. Leonardo sosteneva che il sonno ha similitudine colla morte. Oggi sappiamo che ad alcune fasi del sonno è spesso associata inattività muscolare assimilabile a perdita di tono o, come più comunemente si dice, paralisi. La perdita della coscienza, alla luce di quanto ipotizzato, corrisponderebbe ad un rallentamento del ritmo biologico generale: resterebbe attivo solo un segmento parziale del programma vitale ed accade come se la serie completa delle istruzioni, normalmente in esecuzione allo stato di veglia, fossero poste in attesa di uno specifico segnale al fine di riprendere le usuali attività. Sono state individuate, e sono in fase di studio, le strutture encefaliche che restano in attività durante il sonno60. Misurazioni elettro-encefalografiche registrano nel sonno ritmi ordinariamente più lenti rispetto alla veglia interrotti da fugaci irregolarità di varia origine (scosse muscolari, brevi emissioni vocali, aritmia cardiaca e respiratoria) accompagnate da rapidi movimenti dell’occhio fisiologicamente noti come REM (rapid eye movement). La chiusura finale del programma principale segnerebbe, secondo questa ipotesi, la morte dell’organismo. Alcuni organi, tuttavia, sopravvivono per breve tempo alla morte dell’organismo. Dati statistici ci informano che il cervello sopravvive per pochi minuti, il cuore per un quarto d’ora ed il rene per mezz’ora. Il successo di un eventuale trapianto su altro vivente è reso possibile quando la rimozione da cadavere avviene rispettando questi tempi. Metodi e soluzioni fisiologiche permettono una certa sopravvivenza extracorporea di organi ma per periodi limitati di tempo. 59 Geoffrey E. Hinton, David C. Plaut, Tim Shallice: La simulazione dei danni cerebrali. Le Scienze n. 304 dicembre 1993 60 Morrison A.R.: L’attività del cervello durante il sonno. Le Scienze n. 178 giugno 1983 38 Secondo un recente modello della coscienza61 viste le difficoltà di inquadrare il problema secondo l’ottica della neurologia ortodossa, Roger Penrose propone di applicare, per la comprensione del fenomeno coscienza, le regole della meccanica quantistica; ed in particolare assimila l’atto cosciente, che produce la sensazione dell’istante “in questo momento e qui”, all’autocollasso della funzione d’onda usata per le particelle elementari della materia che, da una sovrapposizione di stati, collassa concretizzandosi in uno dei possibili stati. L’evento fisico sarebbe stato individuato nei microtubuli cerebrali e si svilupperebbe in intervalli di tempo relativamente lunghi (nell’ordine del mezzo secondo) in cui una certa formazione strutturale iniziale decade spontaneamente in una formazione differente attraverso un complesso meccanismo elettrochimico che coinvolge specifiche proteine. In osservanza a quanto sancito dalle regole della Scienza contemporanea una teoria è da ritenere corretta se è in grado di formulare esatte previsioni e finché non viene smentita da un esperimento che la invalida. Nel nostro caso, oltre ad ulteriori attività di convalida ad opera della ingegneria genetica, possiamo ipotizzare un possibile risultato concernente i futuri esperimenti di clonazione, sostanzialmente intesa come copia integrale del corredo genetico del soggetto clonato. Se il comportamento generale (che si manifesta come individualità psicofisica) di gruppi omogenei di individui clonati differirà singolarmente esclusivamente a causa delle sollecitazioni di eventi esterni, allora la presente teoria resterà confermata. Resta inteso che il nucleo cellulare utilizzato nelle clonazioni dovrà non soltanto appartenere allo stesso individuo donatore ma essere identico: pur essendo probabile, infatti, non vi è alcuna garanzia che tutti i nuclei cellulari appartenenti allo stesso soggetto biologico conservino le medesime informazioni genetiche. 61 Penrose R.: Shadows of the Mind. Oxford Press – Londra 1994 39