Global - Italcementi Group
Transcript
Global - Italcementi Group
Global 4 Nell’epoca in cui viviamo due sono le tendenze che si contrappongono. Da un lato il desiderio di superare ogni limite attraverso uno sviluppo continuo della conoscenza e dall’altra l’esigenza di porre un limite e mantenerne il controllo. There are two contrasting trends in the world in which we live. On one hand, there is a desire to exceed all limits by constantly expanding our knowledge and on the other there is the need to set a limit and keep it under control. Uomo fine, o fine dell’uomo? Man as an End or the End of Man? di André-Yves Portnoff* by André-Yves Portnoff* Sostituire l’uomo al centro della società e dell’economia non è più un simpatico slogan, ma la condizione per continuare il processo di crescita e anche per assicurare la sopravvivenza Replacing man at the center of society and the economy is not longer just a nice slogan but the key to continuing the process of growth and guaranteeing our very survival André-Yves Portnoff U na bancarotta fraudolenta in più, una nuova ondata di licenziamenti, una supposta clonazione umana, una catastrofe ecologica o sanitaria, una minaccia di guerra o di attentati. Che confusione di fatti! Ci sono giorni in cui leggere o sentire notizie di questo genere ci tocca in modo più acuto, spingendoci verso uno stato di cupezza, di angoscia. Un’impressione ci assale e si delinea chiara: stiamo sopravvivendo in un mondo ostile, sfuggente, che giorno dopo giorno ci è sempre più estraneo, dove la nostra presenza è solo tollerata, niente di più che tollerata. Quando veniamo assaliti da siffatti pensieri, ci lasciamo catapultare indietro nel tempo e andiamo a scavare nella memoria del passato. Torniamo a sessant’anni fa, al 1943. Pensiamo alla guerra, alle sofferenze di centinaia di milioni di persone, milioni delle quali trattate peggio delle bestie, alla negazione dell’identità di essere umano. Il campo di concentramento era caricatura estrema di un sistema economico che voleva confinare la maggioranza degli individui ad automi intercambiabili. Ma d’altronde, è stata un’ipotesi di base dell’economia classica. Il premio Nobel Gary Becker, “inventore” del “capitale umano” (dal titolo di un suo saggio), non pretende forse di poter analizzare tutto ignorando gli intenti degli attori e gli apporti delle scienze umane1? Ci si è quindi sforzati di programmare l’individuo, nelle sue posizioni di lavoratore e consumatore, affinché fosse compatibile con le macchine standardizzate di una economia votata alla produzione e al consumo di massa. Negli stabilimenti tayloriani e stacanovisti, il modello fordiano pianificava i gesti dei dipendenti affinché facessero esattamente quanto era stato deciso da una qualche percentuale di popolazione reputata in grado di “fare da mente” in materia di lavoro e organizzazioni. Nel lavoro a catena, proibita qualunque iniziativa personale, l’uomo era tenuto a dimenticare qualunque elemento distintivo di sé per calarsi nel “conio” dell’impiegato medio ideale. Tutti fatti con lo stampino. Non mancavano gli imprevisti, ma non mancavano naturalmente neppure le trasgressioni alle regole, solo grazie alle quali l’insieme funzionava sempre e comunque. Per effetto della produzione in serie, l’economia era basata su una manodopera a basso costo. Era dunque necessario convincere il cittadino ad acquistare un prodotto monotono, standardizzato. Il mercato, falsamente sovrano, era alterato da una offerta possente contro un consumatore che non aveva scelta. Poche offerte alternative a causa di una concorrenza ancora limitata e scarsissima informazione al consumatore. Una chiara dimostrazione ci viene dagli studi2 sull’influenza della asimmetria dell’informazione, che assicura il dominio dell’offerta sulla domanda. L’iniziativa dell’industria americana del tabacco di allargare l’immenso mercato del tabacco alle donne3, incaricando della campagna “di convincimento” il genio della pubblicità Barnays, ci fornisce un esempio simbolico di questo tipo di dominio. Una campagna molto ben “pensata”, che venne lanciata il giorno consacrato all’indipendenza l’Independence Day -, in cui si proponeva alle femministe di obbligare i maschi a condividere il privilegio del tabagismo. Fu così che le sigarette divennero fiaccole della libertà, “freedom torches” e che il cancro al polmone poté finalmente superare quello al seno come causa di mortalità nel sesso femminile, uccidendo milioni di donne. Nell’individuo i fattori di produzione Il Fordismo, che molti continuano a tentare di perpetrare, è diventato però controproduttivo e pericoloso ed è causa delle crisi a ripetizione che viviamo. Il vecchio sistema non funziona più, anzitutto perché gli uomini lo rigettano avendo sempre più mezzi per farlo. Sempre meno i cittadini accettano un’offerta standardizzata, concepita per un consumatore medio che non esiste. Il livello di vita, la concorrenza mondiale indotta dallo sviluppo delle tecniche dei trasporti e delle comunicazioni, consentono a un consumatore maggiormente educato e informato di scegliere e di criticare governi, istituzioni e imprese. Questa nuova possibilità va incontro all’individualismo e alla volontà di libero arbitrio che si affermano in tutti i Paesi sviluppati e in molti altri4. Il mercato esige più qualità e personalizzazione. La gente vuole scegliere il proprio stile di vita in funzione delle proprie differenze, culture e valori. Questo, insieme all’informatizzazione della produzione, rende possibile il prodotto “a misura di massa”. In un contesto di concorrenza generalizzata, per soddisfare queste aspettative bisogna concepire, produrre e distribuire non bene, ma costantemente meglio. Innovazione è la parola d’ordine. La creatività diventa una risorsa fondamentale del progresso economico. Non vi sono mai state tante conoscenze da mettere a disposizione dell’innovazione. Partendo da una risorsa inesauribile - la creatività umana - si possono così creare nuovi mercati per un tempo illimitato. Una situazione caratterizzata da grandi spinte, a condizione di essere capaci di mobilitare molta creatività. Ed è proprio là che si colloca la rottura storica: lo sforzo fisico può essere un’esigenza intrinseca della violenza, ma non della creatività. Questa si nutre dell’intera esperienza vissuta, dell’immaginario, della personalità. Costituisce una dote interiore, che non è possibile scindere dall’individuo e che può essere distrutta solo quando la si vuole violare imponendole dei vincoli. In una società in costante mutamento, la libertà e il rispetto della dignità delle persone sono elementi necessari per l’efficienza, obbligando alla continua rimessa in discussione e reinvenzione per adattarsi al nuovo contesto. Ma la libertà di chi? Di qualche “manipolatore di simboli” come dice Robert Reich5? No, è una questione del tutto personale. In una organizzazione si devono gestire situazioni così complesse e impreviste che, se ognuno non è costantemente pronto a far fronte a eventuali disfunzioni o a cogliere opportunità di progresso, in men che non si dica l’organizzazione viene sopraffatta dalla concorrenza. Diversi studi condotti di recente nell’America Settentrionale, in Europa e in Asia confermano che la qualità della gestione del personale ha un impatto determinante sulle prestazioni economiche, costituendo altresì un indicatore attendibile dei risultati finanziari a due anni. La sfida che le aziende devono raccogliere è quindi di passare da una logica di violenza a una logica di persuasione e partnership, coi clienti così come con il personale. Questo vale anche tra persone, équipe, organizzazioni, Paesi. Non abbiamo mai disposto di tanta conoscenza, ma i problemi da risolvere, le strutture da gestire sono così complesse che le persone non possono più avere l’arroganza di pretendere di fare tutto da soli. È necessario convincere a collaborare con noi coloro che hanno requisiti complementari ai nostri. Così adesso, il lavoro che produce ricchezza non è più essenzialmente fisico e si riduce a due componenti, uno piuttosto intellettuale, l’altro soprattutto affettivo: la creazione di soluzioni e la costruzione di relazioni umane. Relazioni basate sulla fiducia tra impresa e fornitori, clienti, concittadini e altri. La nostra società dunque, non è basata sulla conoscenza come troppo spesso si è detto, ma sull’identità umana. 5 6 Solo l’uomo ha in sé le due abilità, creative, predisposte alle relazioni umane, critiche nella produzione di valore. Tutto ciò ricolloca l’individuo libero al centro, nel cuore della società. L’uomo diviene la finalità, il motore del nostro sistema. Arriva poi la rivoluzione numerica che, anche se lascia qualche ingannevole spiraglio aperto ai nostalgici della violenza, rafforza ulteriormente questa evoluzione. I computer avanzano senza tregua a passi da giganti, prendono in mano il potere, mettendo a disposizione di chiunque singola persona, associazione, piccola impresa - una capacità di trattamento dell’informazione che fino al giorno prima era privilegio dei colossi. La diffusione di Internet agevola l’informazione, le collaborazioni e le coalizioni. Emerge un nuovo potere del consumerismo. Traggono i vantaggi le imprese che hanno instaurato partnership con i fornitori, Wal-Mart e Dell lo dimostrano6. Le organizzazioni civili come Amnesty International trovano in ciò un formidabile mezzo per esercitare della pressione. Là, dove la televisione, mezzo di propaganda centralizzata, diventa proprietà e gestione dello Stato o del potere economico, grazie a Internet i cittadini si coordinano. Illusioni suicide Allora è tutto perfetto, tutto è per il meglio? No di certo. Disponiamo di tanto potenziale e ciò che determina l’avvenire è la nostra capacità di metterlo in pratica con discernimento, di preservarci da egoismi, etiche perverse e concetti ingannevoli. Anche il crimine organizzato, le potenze economiche o politiche possono approfittare dei nuovi mezzi numerici per tentare di controllare ancor più la società a tutti i livelli, ciò che costituisce un naturale modus operandi per esempio delle organizzazioni mafiose. Per le potenze economiche e gli Stati si tratterà di cedere a una illusione drammatica: si risponderebbe di conseguenza alla complessità della situazione rendendo più rigido, in nome dell’ordine, il controllo del potere centrale. È un controsenso smentito dall’esperienza, come lo proclama Amartya Sen a proposito delle carestie e del controllo delle nascite in Cina7. Tentativi di questo tipo, attualmente in corso, porteranno a costosi insuccessi. Ma più grave ancora: il potenziale che la tecnica mette a nostra disposizione è talmente vasto, che il mondo si ritrova ad essere in possesso di vari mezzi per giungere dritto al suicidio. Il mondo è disseminato di basi nucleari, si evolve nel mancato rispetto dell’ambiente, conduce iniziative sconsiderate a livello biologico, andando a intaccare la nostra identità umana. L’unica difesa è la libertà d’espressione. Laddove non si consente a punti di vista critici, spesso marginali, di esprimersi, presto o tardi finiamo con l’assistere a una Chernobyl. È evidente in Cina, dove l’Aids si diffonde talmente velocemente, che coloro che provano a diramare uno stato di allarme sul dramma e sulla corruzione, all’origine del fatto, si ritrovano dietro le sbarre. Abbiamo infine un altro pericolo, di natura concettuale. Nel corso di tre secoli, la scienza e la tecnica hanno fatto progressi spettacolari basandosi su un ragionamento di tipo cartesiano binario e relegando l’uomo, la natura e il mondo a belle macchine. Adesso siamo arrivati a uno stadio dove i problemi da risolvere sono così complessi, che il pensiero binario diventa troppo riduttivo e pericoloso. Anche il programma di decodificazione del genoma umano è sfociato in un mezzo insuccesso, perché non siamo dei computer il cui disco fisso costituirebbe i geni che programmerebbero le nostre virtù, difetti e malattie. Correnti di pensiero scientiste ma non scientifiche, abbagliate dalla cosiddetta intelligenza artificiale, trovano che l’uomo costituisca un ostacolo al progresso: affinché un mondo perfetto di macchine intelligenti possa funzionare in modo ideale, sarebbe bene “perfezionarci” a forza di protesi o mutamenti. Si tratta naturalmente di una illusione meccanicista, il riaffiorare di eresie eugeniste che hanno preceduto il nazismo nelle nostre democrazie. È ignorare ciò che è l’uomo8. La macchina può risolvere problemi che ci sovrastano, ma non può porli al nostro posto. Ciò che ci caratterizza è la coscienza. La coscienza è ciò che emerge dall’interazione di tutte le molecole che ci compongono e che non può ridursi ad alcun organo del nostro corpo. Solo la coscienza della nostra umanità e la volontà di costruire un nuovo umanismo, per gli uomini e da parte degli uomini, è in grado di risparmiarci una catastrofe ancora più grande, possibile ma assolutamente ineluttabile. * André-Yves Portnoff, direttore dell’Osservatorio della Rivoluzione dell’Intelligenza a Futuribles, Parigi. Da vent’anni, le sue ricerche sono consacrate all’analisi dei fattori immateriali, alla gestione del cambiamento e alla valutazione del capitale globale delle organizzazioni. Note 1. “Pousser le raisonnement économique jusqu’au bout” (Spingere il ragionamento economico fino a raggiungere l’obiettivo), discussione con Gary Becker, professore presso l’Università di Chicago. Antologia di proposte raccolte da Philippe Simonnot. Le Monde, 7 giugno 2002. 2. Il premio Nobel per l’economia 2001 è stato attribuito a George A. Akerlof, Michael A. Spence et Joseph E. Stiglitz “pour leur travaux sur les marchés avec asymétrie d’information” (per le ricerche attinenti i mercati con asimmetria dell’informazione). 3. André Gorz, L’immatériel, p. 65, Galilée, Parigi, 2003. 4. I risultati europei dell’European Values Survey, sondaggio condotto nel 1981, 1990 e 1999, sono stati pubblicati in due edizioni speciali di Futuribles, n. 200, luglio-agosto 2000 e n. 277, luglio-agosto 2002. 5. Robert Reich, The work of nations, Alfred A. Knopf, Inc. 1991. L’économie mondialisée, p. 104, Dunod, Parigi 1997. 6. André-Yves Portnoff, “Innovation conceptuelle”, Futuribles, n. 282, gennaio 2003. 7. Amartya Sen, Development as freedom, Alfred A. Knopf, Inc., New York, 1999. Lo sviluppo è liberta. Perché non c’è crescita senza democrazia, Mondadori, Milano, 2000. Cfr. anche arcVision n. 8, 2002. 8. Jean-Claude Guillebaud, Le principe d’humanité, Seuil, 2001. Y et another fraudulent bankruptcy, a new wave of lay-offs, an alleged case of actual human cloning, an environmental or health disaster, the threat of war or bomb attacks. What a hectic state of affairs! There are days when reading or hearing news like this has a more poignant effect on us, making us feel rather gloomy and concerned. A certain feeling comes over us and then it suddenly becomes clear: we are surviving in a hostile, unfathomable world that seems to be getting stranger as each day passes by and that seems more than anything to put up with us and nothing more. When thoughts like this come over us, we let us ourselves be projected back in time and delve back into the past. We go back sixty years to 1943. We think about the war and how much suffering it caused hundreds of millions of people, millions of whom were treated worse than animals, denied even their status as human beings. The concentration camp was a caricature pushed to the extreme of an economic system that wanted to reduce most people to mere interchangeable automata. But after all this was in fact a fundamental premise of classical economics. Is not the Noble Prize winner Gary Becker, the “inventor” of “human capital” (as the title of his book says), trying to analyze everything whilst ignoring the intentions of the people involved and the contributions of the human sciences?1 Efforts were made to program individuals in their roles as workers and consumers to make them compatible with the standardized machinery of an economy based on mass production and consumption. Taylor or Stakhanov-style factories run along the old Ford guidelines planned workers’ movements so that they did exactly what had been decided by some small percentage of the population reputedly capable of “acting as the brains behind” work and organizations. In the assembly-line labor with all personal initiative outlawed, men were compelled to forget any distinctive features in themselves to fall into the “role” of the ideal average worker. All cut from the same ilk. There was no lack of surprises and, of course, no lack of rule-breaking, thanks to which the whole thing kept on going in the very same way. Mass production meant the economy was based on low-cost labor. People had to be persuaded to buy boring mass-produced goods. The market (wrongly treated as sovereign) was altered by the effects of supply that dictated demand (consumers had no choice). Limited choices due to a lack of competition and very little consumer information. Clear proof comes from the studies2 on the influence of information asymmetries ensuring that supply controls demand. The American tobacco industry’s plans to extend the huge tobacco market to include women3 by commissioning the advertising geniuses Barnays to devise a “persuasion” campaign provides a symbolic example of this kind of control. A carefully “thought out” 7 8 campaign launched on Independence Day, suggesting that feminists ought to force men to share the privilege of smoking tobacco. So cigarettes were turned into “freedom torches” and lung cancer finally overtook breast cancer as the main cause of female death, killing millions of women. Individual-oriented production The Ford model, that many people still try to promote, has turned out to be counterproductive and dangerous, causing all the repeated crisis periods we keep on experiencing. The old system no longer works, mainly because people reject it and increasingly have the means to do so. They are no longer interested in standardized goods designed for the average consumer, who does not really exist. The general standard of living, worldwide competition due to the development of transport and communication techniques allow better educated and informed consumers to choose and criticize governments, institutions and businesses. This favors the kind of individualism and desire for free will that characterize all developed countries and plenty of others4. The market needs more quality and personalization. People want to choose their life style in relation to their own peculiar qualities, cultures and values. Thanks partly to the computerization of production, goods “for the masses” are now possible. In a scenario of widespread competition, meeting these needs means that design, production and distribution must be carried out better, not just well. Innovation is the magic word. Creativity is now a fundamental resource for economic progress. People have never had so much information to put at disposal of innovation. Starting with a resource that never runs out - human creativity new markets are created for an unlimited length of time. A situation in which there is certainly no lack of drive, provided the right kind of creativity is brought into play. And this is where there is a sort of historical rupture: physical effort might be an intrinsic part of violence but not of creativity, which feeds off the whole of human experience, imagination and personality. It is a gift that comes from deep inside and cannot be detached from the individual and can only be destroyed when it is violated by restrictions and constraints. In a society that is constantly changing, freedom and respect for human dignity are essential for efficiency, forcing everything to be called into question and reinvented to adapt to this new context. But whose freedom are we talking about? Some “symbol manipulator” as Robert Reich puts it5? Non, it is an entirely personal matter. The situations that need handling in an organization are so complicated and unexpected that, unless everybody is constantly ready to deal with any dysfunctions there might be or grasp progress opportunities as they arise, then in no time the organization will be overwhelmed by competition. Various studies carried out recently in North America, Europe and Asia confirm that the quality of personnel management has a decisive impact on economic performance, providing a reliable indicator of financial results over a two-year period. The challenge facing firms is to succeed in moving on from an aggressive line of thinking to a more persuasive approach based on partnership with customers and staff. This applies to people, teams, organizations and countries. We have never had so much information at our disposal, but the problems to solve, the structures to run are so complex that people must not presume to be able to do everything alone. We need to persuade people with complementary competences to co-operate with us. Nowadays, the kind of work that creates wealth is not fundamentally physical and is confined to two basic components, one intellectual and the other emotional: the devising of solutions and the construction of human relations. Relations based on trust between a company and its suppliers, customers, the local community etc. This means, contrary to popular belief, our society is not based on knowledge but rather human identity. Only human beings have these two talents, creative, disposed to human relations and critical in the generation of value. All this places free human beings at the center or heart of society. People become an end; the engine driving our system. Then there is the numerical revolution which, while leaving the odd deceptive window of opportunity open to those who miss the violence, merely helps along this trend. Compute technology is proceeding in leaps and bounds, empowering people and providing anybody individuals, associations and small businesses - with the chance to handle the kind of information that was previously only available to the privileged few. The spread of Internet has made it easier to obtain information, co-operate and work together. A new form of consumer power has emerged. Firms like Wal-Mart and Dell, which have set up business relations with suppliers, are eloquent proof6. Civil organizations like Amnesty International have found a wonderful means of exerting pressure. Whereas television, a centralized means of propaganda, is owned and run by the State or economic power, the Internet lets ordinary people work together. Suicidal Illusions So does this mean everything is perfect, the best it could ever be? Of course not. We have plenty of potential at our disposal and our future depends on how we make discerning use of it, making sure we are not too selfish, ethically perverse or taken in by misleading ideas. Organized crime and economic/political powers could take advantage of the latest technology to gain even greater control over society at all levels. Of course, this is the most natural way of operating for Mafia organizations. Economic powers and governments will have to give in to a dramatic illusion: the complexity of the situation could be dealt with by imposing even tighter state control in the name of law and order. This contradictory state of affairs is actually refuted by experience, as Amartya Sen pointed out in relation to famines and birth control in China7. Initiatives like some of those already under way are bound to lead to expensive failures. But worse still: the potential we now have thanks to new technology is so vast that the world finds itself with various means of suicide at its disposal. The world is full of nuclear bases and is evolving without paying due heed to the environment; it is involved in reckless undertakings on a biological level and is even threatening our very own human identity. The only defense is freedom of speech. Where critical viewpoints, however marginal, are silenced, sooner or later we will end up with another Chernobyl. This can be seen in China, where AIDS is spreading so fast that anyone daring to set the alarm bells ringing or pointing to the corruption at the roots of this dramatic state of affairs soon finds themselves behind bars. Finally, there is another danger of a conceptual nature. Over three centuries, science and technology have made spectacular progress based on binary-style Cartesian reasoning, reducing people, nature and the world in general to the status of fancy machines. We have now reached the point where the problems to be solved are so complicated that binary thinking is too reductive and dangerous. Even the program for decoding the human genome has turned out to be a half-failure, because we are not computers whose hard disks are genes programming our virtues, faults and illnesses. These are scientological not scientific lines of thought, blinded by so-called artificial intelligence that treats man like an obstacle to progress: if a perfect world of intelligent machines is to work in an ideal way, it would be advisable to “perfect ourselves” through prostheses and mutations. Needless to say, this is a mechanistic fallacy, a re-emerging of the kind of eugenics-style heresies that eventually led to Nazism in our democracies. It means ignoring what people are8. Machines can solve some of the problems afflicting us, but they cannot pose them in our stead. Consciousness is our distinctive feature. Consciousness is what emerges from the interaction of all our constituent molecules and cannot be reduced to any one organ in our bodies. Only an awareness of our humanity and a desire to construct a new form of humanism, for people and by people, will save us from an even greater potential catastrophe. * André-Yves Portnoff is director of the Watchtower on the Revolution of Intelligence at Futuribles, Paris. For the last twenty years he has been researching into immaterial factors, the management of change and assessment of the global capital of organizations. Notes 1. “Pousser le raisonnement économique jusqu’au bout” (Pushing economic reasoning to its extreme), discussion with Gary Becker, a professor of the Chicago University. An Anthology of proposals drawn up by Philippe Simonnot. Le Monde, 7th June 2002. 2. The 2001 Nobel Prize for Economics was awarded to George A. Akerlof, Michael A. Spence and Joseph E. Stiglitz “pour leur travaux sur les marchés avec asymétrie d’information” (for research into markets with information asymmetries). 3. André Gorz, L’immatériel, pg. 65, Galilée, Paris, 2003. 4. The European results of the European Values Survey, a survey carried out in 1981, 1990 and 1999, were published in two special editions of Futuribles, n. 200, July-August 2000 and n. 277, JulyAugust 2002. 5. Robert Reich, The work of nations, Alfred A. Knopf, Inc. 1991. L’économie mondialisée, pg. 104, Dunod, Paris 1997. 6. André-Yves Portnoff, “Innovation conceptuelle”, Futuribles, n. 282, January 2003. 7. Amartya Sen, Development as freedom, Alfred A. Knopf, Inc. New York, 1999. Lo sviluppo è liberta. Perché non c’è crescita senza democrazia, Mondadori, Milan, 2000. Cf. also arcVision n. 8, 2002. 8. Jean-Claude Guillebaud, Le principe d’humanité, Seuil, 2001. 9 Nella mente del computer In a Computer’s Mind di Diego Marconi* by Diego Marconi* Ancora oggi nessuno può dire di sapere quali siano i veri limiti invalicabili dell’intelligenza artificiale Even today nobody can claim to know whether artificial intelligence has insuperable limits 10 Diego Marconi L’ intelligenza artificiale è il programma di ricerca tecnologica che si propone di realizzare programmi di computer capaci di prestazioni paragonabili a quelle della mente umana, cioè di emulare i processi cognitivi umani. Certo, i computer sono da tempo capaci di processi cognitivi come il calcolo aritmetico, il ragionamento logico o il gioco degli scacchi: tutte cose in cui, anzi, sono molto più bravi e più veloci di noi. Ma qui si parla di attività più complesse, dalla comprensione del linguaggio alla traduzione da una lingua a un’altra, dalla diagnosi medica al riconoscimento di oggetti. Attività che, da un lato, assomigliano poco a un calcolo, almeno a prima vista; e, dall’altro, sembrano caratteristicamente e irriducibilmente umane, nel senso che, se una macchina ne fosse davvero capace, saremmo inclini a trattarla come una di noi. All’inizio degli anni ‘70 del secolo scorso, l’intelligenza artificiale aveva colto alcuni indubbi successi: erano stati progettati sistemi esperti che sembravano capaci di buone prestazioni in campi come la prospezione mineraria, l’analisi chimica e la diagnosi medica; altri sistemi sembravano comprendere abbastanza bene l’inglese, sia pure entro limiti piuttosto ristretti (conoscevano relativamente poche parole, capivano poche frasi). Ma alcuni filosofi erano scettici. Hubert Dreyfus, ad esempio, pensava che l’intelligenza artificiale non faceva che riprodurre il vecchio sogno razionalista di ridurre il funzionamento della mente all’elaborazione di rappresentazioni secondo regole, e sarebbe fallita - come era fallito il razionalismo - perché la mente non funziona così. John Searle rincarava la dose, sostenendo che anche le prestazioni di cui i computer erano capaci non erano davvero intelligenti, perché le macchine, al contrario di noi, non sapevano quel che facevano: i simboli che elaboravano non avevano, per i computer, alcun significato (ne avevano, invece, per i programmatori umani che “dicevano” alle macchine che cosa fare). Di fatto, all’inizio degli anni ‘80 l’intelligenza artificiale entrò in quella che venne percepita come una fase di stallo. I progressi sembravano lenti e poco significativi; ci si rese conto che, per realizzare programmi intelligenti, si sarebbe dovuto saperne molto di più sulla nostra intelligenza, e forse anche sulla sua base materiale, la neurofisiologia del cervello. Nell’attesa, le ambizioni si ridimensionarono, e con loro anche i finanziamenti. Non si parlò (quasi) più di mente artificiale; ci si accontentò, nel più dei casi, di applicare le tecniche dell’intelligenza artificiale accanto ad altre - alla risoluzione di certi problemi limitati e pratici, come per esempio il reperimento di informazioni su Internet, o di sviluppare, a un alto livello di astrazione, algoritmi e architetture che avrebbero potuto rivelarsi utili nella progettazione di sistemi più “intelligenti”. La “rivoluzione connessionista” della fine del secolo non cambiò qualitativamente la situazione: le reti neurali facevano alcune cose meglio dei sistemi tradizionali, altre peggio, altre per niente affatto, ma comunque non fornivano, almeno immediatamente, la soluzione delle difficoltà di fondo dell’intelligenza artificiale. Su un piano di principio, tuttavia, nulla era deciso. A tutt’oggi, non possiamo veramente dire di sapere quali sono i limiti invalicabili dell’intelligenza artificiale (se ci sono). Nessuno ha dimostrato che un computer non potrà mai, ad esempio, riconoscere un volto o mettere ordine in una stanza. I limiti accertati, indiscutibili, dei computer sono altri, e riguardano, più che le macchine, i calcoli che esse elaborano: e dunque riguardano anche noi, perché quel che le macchine proprio non sanno fare, non lo sappiamo fare nemmeno noi. Questi “veri” limiti sono descritti con grande competenza ed efficacia nel recente Computer a responsabilità limitata di David Harel (Einaudi 2002). Prendete il sogno di ogni programmatore: un programma che prende in input altri programmi (o meglio, le loro descrizioni) e risponde “Sì” se il programma in input fornisce una soluzione corretta per tutti gli input ammissibili, e “No” se per qualche input o non termina, o fornisce una soluzione scorretta. Orbene, il sogno è irrealizzabile: è dimostrato che il problema del controllo dei programmi è indecidibile, cioè che non esiste un algoritmo - un procedimento meccanico che lo risolve. I problemi indecidibili sono molti. Alcuni di essi sono equivalenti tra loro: se sapessimo risolverne uno (se avessimo un oracolo che lo risolve) sapremmo risolvere anche gli altri. Altri invece sono così indecidibili che non sapremmo risolverli nemmeno se disponessimo di una gerarchia infinita di oracoli. Considerate ora il problema apparentemente banale - di fare l’orario di una scuola, cioè di distribuire professori e studenti nelle aule disponibili, dati certi vincoli. Questo problema è decidibile. Ma gli algoritmi che lo risolvono sono lenti, perché, al crescere della complessità dell’input, il tempo di esecuzione cresce in maniera esponenziale (cioè se N è la lunghezza dell’input, il tempo di esecuzione è mN). Dunque “lenti” vuol dire molto lenti: certi algoritmi esponenziali, dato un input di 100 caratteri, forniscono la risposta dopo un numero di secoli di 185 cifre. Per farsi un’idea di quanto tempo è, si pensi che il numero di secoli da cui esiste l’Universo è di 9 cifre. Di certo il Preside non potrebbe permettersi di aspettare così a lungo che l’orario sia pronto. I problemi che sono decidibili soltanto da algoritmi di questo genere si chiamano “intrattabili”. In realtà, noi non sappiamo veramente se, ad esempio, il problema dell’orario scolastico sia intrattabile; quello che sappiamo è che il problema è decidibile, e che però tutti gli algoritmi di risoluzione a noi noti sono inaccettabilmente lenti. E sappiamo anche che, se ci fosse un algoritmo “ragionevole” che risolve questo particolare problema, ci sarebbero algoritmi ragionevoli per tutti gli altri problemi analoghi. Ma non sappiamo se questi algoritmi ci siano (anche se la maggior parte dei matematici pensa di no). Questo problema è una delle più affascinanti questioni aperte della matematica attuale. La nostra cultura è abituata a pensare che, se un problema è sensato, debba essere risolubile. Ma i problemi di cui abbiamo parlato non hanno, almeno a prima vista, nulla di insensato: non implicano contraddizioni né mettono in gioco capacità infinite. Eppure, alcuni di essi sono assolutamente insolubili, mentre altri sono (probabilmente) insolubili nell’ambito del nostro Universo, quindi da noi e da tutti gli esseri vagamente affini a noi. Forse, dunque, dobbiamo riesaminare alcuni aspetti centrali del nostro modo di pensare. * Diego Marconi insegna logica e filosofia del linguaggio all’Università degli Studi del Piemonte Orientale e si occupa, in particolare, del pensiero di Wittgenstein, di teoria semantica e di filosofia della scienza cognitiva. Tra le pubblicazioni recenti più importanti: Lexical Competence (MIT Press 1997), Wittgenstein (Laterza 1997), La philosophie du langage au XXème siècle (L’éclat 1997), Filosofia e scienza cognitiva (Laterza 2001). A rtificial intelligence is a technological research program aimed at creating computer programs capable of performing in comparable ways to the human mind or, in other words, of emulating human cognitive processes. Of course for some time now computers have been able to perform cognitive processes like arithmetic computation, logical reasoning or playing chess: all things at which they perform better and faster than us. But here we are talking about more complicated matters, such as understanding language, translating from one language to another, carrying out medical diagnoses and recognizing objects. Activities which, on one hand, do not at least initially seem like computations; on the contrary, they actually appear to be irreducibly human characteristics in the sense that, if a machine were really capable of doing them, we would tend to treat it like one of us. In the early 1970s, artificial intelligence certainly achieved some notable successes: expert systems were designed that seemed to be capable of performing well in fields like mineral prospecting, chemical analysis and medical diagnosis; other systems seemed to understand English fairly well, although within rather confined limits (they only knew a few words and understood a few sentences). But a number of philosophers were skeptical. Hubert Dreyfus, for instance, believed that artificial intelligence was merely the old rationalist dream of reducing the workings of the human mind to just elaborating representations based on rules and was therefore destined to fail - just as rationalism had failed - because that is not how the mind works. John Searle went even further and claimed that computers were not even carrying out intelligent actions, because machines, unlike us, do not know what they are doing: the symbols they manipulate are meaningless (whereas they are meaningful to the human programmers “telling” the machines what to do). In contrast, artificial intelligence seemed to grind to a halt in the early 1980s. Progress seemed slow and rather insignificant; it was 11 Più futuro, ma saremo più felici? Further into the Future, but Will We be Happier? di Edoardo Boncinelli* by Edoardo Boncinelli* Genetica e bioingegneria potranno farci vivere di più e meglio. Ne saremo contenti? Genetics and bioengineering will help us live longer and better. But will that makes us any happier? 12 realized that we needed to know a lot more about our own intelligence if we were to design intelligent programs, and perhaps also about its material basis, the neurophysiology of the brain. In the meantime, everything was scaled down, including financial backing. There was (almost) no more talk of artificial minds; more often than not, methods of artificial intelligence - along with others - were applied to solve certain restricted, practical problems, such as, for instance, finding information on the Internet or developing algorithms or works of architecture on an abstract level, that might turn out to be useful in designing more “intelligent” systems. The “connectionist revolution” at the end of the 20th century made no qualitative difference to the situation: neural networks did some things better than traditional systems, others worse, while yet others were completely beyond its capabilities, but in any case they did not provide an immediate solution to the fundamental problems of artificial intelligence. Nevertheless, in principle, nothing had really been proven. Even today, we cannot really claim to know where the ultimate limits of artificial intelligence lie (if there are any). Nobody has managed to show that computers will never be able, for instance, to recognize a face or tidy a room. The real, ascertained limits of computers lie elsewhere and are less related to the machines themselves than to the computations they carry out: which means they also apply to us because what these machines cannot do, we cannot do either. These “genuine” limits are described with great skill and know-how by David Harel in his recent book entitled “Computers Ltd.: What They Really Can’t Do”(Oxford University Press, 2000). Take every programmer’s dream: a program that takes other programs (or rather descriptions of them) as its input and replies “Yes” if the program being entered provides the right answer for all the input allowed and “No” if it does not end or gives a wrong answer for some input or other. Well this is actually a pipe dream: it has been proved that the problem of controlling programs is undecidable, i.e. there is no algorithm - mechanical procedure - for answering it. There are plenty of undecidable problems. Some of them are mutually equivalent: if we knew how to answer one (if there was an oracle to provide the answer), we would be able to answer all the rest. Others, in contrast, are so undecidable that we could not answer them even if we had an infinite hierarchy of oracles. Now take an - apparently simple - problem like arranging a school timetable, viz. distributing the teachers and pupils through the available classrooms, given certain constraints. This is a decidable problem. But the algorithms for solving it are slow, because, as the input gets more complicated, the time for carrying them out increases exponentially (i.e. if N is the length of the input, mN is the computation time). So “slow” means very slow: certain exponential algorithms with an input of 100 characters give the answer after a 185 figure number of centuries. To get an idea of how long that is, bear in mind that the Universe has existed for a 9 figure number of centuries. The headmaster certainly could not wait that long for his timetable to be ready. Problems that can only be decidable using algorithms like this are called “intractable.” In actual fact we do not really know whether, for example, the timetable problem is intractable; what we do know is that it is a decidable problem and that the algorithms we have for solving it are unacceptably slow. And we also know that, if there were a “reasonable” algorithm for handling this particular problem, there would be reasonable algorithms for dealing with all other similar problems. But we do not know whether these algorithms actually exist (although most mathematicians believe they do not). This is one of the most intriguing open issues in modern-day mathematics. Our culture assumes that if a problem makes sense, it must be solvable. But the problems we have looked at certainly are not meaningless, at least at first sight: they do not involve any contradictions or call for infinite capabilities. Yet some of them are absolutely unsolvable, while other are (most likely) unsolvable in our Universe, i.e. by us or other beings like us. Perhaps this means we ought to take a closer look at certain key aspects of our way of thinking. * Diego Marconi teaches logic and philosophy of language at Piemonte Orientale University and is an expert on Wittgenstein, semantic theory and philosophy of cognitive science. His most important publications include: Lexical Competence (MIT Press 1997), Wittgenstein (Laterza 1997), La philosophie du langage au XXème siècle (L’éclat 1997), Filosofia e scienza cognitiva (Laterza 2001). Edoardo Boncinelli L’ uomo è un animale molto particolare, con alle spalle una storia biologica di qualche milione di anni e una storia culturale di qualche migliaio. Dal punto di vista biologico può certamente evolvere, ma molto lentamente; basti pensare che nel suo DNA è successo ben poco negli ultimi 200 mila anni. La sua costituzione gli permette, però, di comunicare con i suoi simili, anche a distanza, e ciò ha dato inizio a un processo assolutamente nuovo nel regno animale, se non nell’intero universo: un’evoluzione culturale. Così anche se a livello individuale ben poco è cambiato, lo sforzo collettivo sottostante a questo tipo di evoluzione ha permesso l’enorme avanzamento culturale e tecnologico del quale siamo tutti testimoni. Non è probabilmente un futile esercizio quello di cercare di immaginarci che cosa potremo e che cosa non potremo fare nel prossimo futuro, per esempio per il nostro corpo. Questi risultati saranno a loro volta raggiungibili per via puramente biologica o attraverso la massiccia utilizzazione di microtecnologie elettroniche. Sono convinto che dall’impianto di microcircuiti e chip verranno incredibili avanzamenti che saranno complementari rispetto a quelli raggiungibili per via puramente biologica. La mia convinzione è basata sulla constatazione dell’incredibile accelerazione che hanno subito e stanno subendo gli studi di bioingegneria e protesi elettroniche, ma soprattutto dalla considerazione, di sapore vagamente vichiano, che le macchine possono essere molto meglio conosciute del nostro corpo in quanto quelle le facciamo noi, mentre il corpo ce lo siamo trovato fatto. Ma veniamo alle opportunità offerte dalla biologia avanzata e dalla biomedicina. Conosciamo la causa di un numero altissimo di malattie ereditarie monofattoriali, cioè causate dalla disfunzione di un singolo gene. Questa conoscenza, che risale a non più di venti anni, ci permette una diagnosi sicura e differenziale, nelle fasi precoci della vita o anche in utero. Non altrettanto avanzati sono il trattamento e la terapia di tali disturbi, ma non c’è dubbio che la maggior parte dei portatori di questi difetti conducono oggi una vita incomparabilmente migliore di quella degli individui della generazione precedente. Stiamo appena cominciando ad indagare le cause delle malattie, ereditarie e non, aventi una base multifattoriale, dipendenti cioè dalla incerta funzione o dall’aperta disfunzione di molti o moltissimi geni. Questo sarà il traguardo più importante del prossimo futuro, poiché in questo capitolo si vengono a trovare patologie diffusissime come il diabete, l’ipertensione, il ritardo mentale, una grande varietà di disturbi psichici e soprattutto i tumori. Con l’allungamento progressivo della vita e la scomparsa di altre entità patologiche, i tumori e il complesso delle malattie degenerative tipiche dell’età avanzata saranno i principali nemici biologici della nostra esistenza. Connesso con questo tipo di patologie abbiamo il capitolo fondamentale delle predisposizioni. Per esempio, essere predisposti, all’ipertensione o al tumore dell’ovaio non significa essere condannati a sviluppare queste patologie. Chi era predisposto può non averle sviluppate, mentre chi non lo era sì, ma sui grandi numeri la predisposizione ha una certa rilevanza e sapere di essere predisposti è un utile avvertimento. Non c’è nessuno che non sia predisposto a qualche cosa e saperlo è meglio di non saperlo. Parallelamente alla diagnosi e alla prevenzione, le moderne tecniche ci offriranno la possibilità di usufruire di tessuti, parti di organo e organi di ricambio per poter effettuare impianti e trapianti per le evenienze più diverse e farmaci sempre più efficienti e mirati, capaci cioè di suscitare un numero 13 Più futuro, ma saremo più felici? Further into the Future, but Will We be Happier? di Edoardo Boncinelli* by Edoardo Boncinelli* Genetica e bioingegneria potranno farci vivere di più e meglio. Ne saremo contenti? Genetics and bioengineering will help us live longer and better. But will that makes us any happier? 12 realized that we needed to know a lot more about our own intelligence if we were to design intelligent programs, and perhaps also about its material basis, the neurophysiology of the brain. In the meantime, everything was scaled down, including financial backing. There was (almost) no more talk of artificial minds; more often than not, methods of artificial intelligence - along with others - were applied to solve certain restricted, practical problems, such as, for instance, finding information on the Internet or developing algorithms or works of architecture on an abstract level, that might turn out to be useful in designing more “intelligent” systems. The “connectionist revolution” at the end of the 20th century made no qualitative difference to the situation: neural networks did some things better than traditional systems, others worse, while yet others were completely beyond its capabilities, but in any case they did not provide an immediate solution to the fundamental problems of artificial intelligence. Nevertheless, in principle, nothing had really been proven. Even today, we cannot really claim to know where the ultimate limits of artificial intelligence lie (if there are any). Nobody has managed to show that computers will never be able, for instance, to recognize a face or tidy a room. The real, ascertained limits of computers lie elsewhere and are less related to the machines themselves than to the computations they carry out: which means they also apply to us because what these machines cannot do, we cannot do either. These “genuine” limits are described with great skill and know-how by David Harel in his recent book entitled “Computers Ltd.: What They Really Can’t Do”(Oxford University Press, 2000). Take every programmer’s dream: a program that takes other programs (or rather descriptions of them) as its input and replies “Yes” if the program being entered provides the right answer for all the input allowed and “No” if it does not end or gives a wrong answer for some input or other. Well this is actually a pipe dream: it has been proved that the problem of controlling programs is undecidable, i.e. there is no algorithm - mechanical procedure - for answering it. There are plenty of undecidable problems. Some of them are mutually equivalent: if we knew how to answer one (if there was an oracle to provide the answer), we would be able to answer all the rest. Others, in contrast, are so undecidable that we could not answer them even if we had an infinite hierarchy of oracles. Now take an - apparently simple - problem like arranging a school timetable, viz. distributing the teachers and pupils through the available classrooms, given certain constraints. This is a decidable problem. But the algorithms for solving it are slow, because, as the input gets more complicated, the time for carrying them out increases exponentially (i.e. if N is the length of the input, mN is the computation time). So “slow” means very slow: certain exponential algorithms with an input of 100 characters give the answer after a 185 figure number of centuries. To get an idea of how long that is, bear in mind that the Universe has existed for a 9 figure number of centuries. The headmaster certainly could not wait that long for his timetable to be ready. Problems that can only be decidable using algorithms like this are called “intractable.” In actual fact we do not really know whether, for example, the timetable problem is intractable; what we do know is that it is a decidable problem and that the algorithms we have for solving it are unacceptably slow. And we also know that, if there were a “reasonable” algorithm for handling this particular problem, there would be reasonable algorithms for dealing with all other similar problems. But we do not know whether these algorithms actually exist (although most mathematicians believe they do not). This is one of the most intriguing open issues in modern-day mathematics. Our culture assumes that if a problem makes sense, it must be solvable. But the problems we have looked at certainly are not meaningless, at least at first sight: they do not involve any contradictions or call for infinite capabilities. Yet some of them are absolutely unsolvable, while other are (most likely) unsolvable in our Universe, i.e. by us or other beings like us. Perhaps this means we ought to take a closer look at certain key aspects of our way of thinking. * Diego Marconi teaches logic and philosophy of language at Piemonte Orientale University and is an expert on Wittgenstein, semantic theory and philosophy of cognitive science. His most important publications include: Lexical Competence (MIT Press 1997), Wittgenstein (Laterza 1997), La philosophie du langage au XXème siècle (L’éclat 1997), Filosofia e scienza cognitiva (Laterza 2001). Edoardo Boncinelli L’ uomo è un animale molto particolare, con alle spalle una storia biologica di qualche milione di anni e una storia culturale di qualche migliaio. Dal punto di vista biologico può certamente evolvere, ma molto lentamente; basti pensare che nel suo DNA è successo ben poco negli ultimi 200 mila anni. La sua costituzione gli permette, però, di comunicare con i suoi simili, anche a distanza, e ciò ha dato inizio a un processo assolutamente nuovo nel regno animale, se non nell’intero universo: un’evoluzione culturale. Così anche se a livello individuale ben poco è cambiato, lo sforzo collettivo sottostante a questo tipo di evoluzione ha permesso l’enorme avanzamento culturale e tecnologico del quale siamo tutti testimoni. Non è probabilmente un futile esercizio quello di cercare di immaginarci che cosa potremo e che cosa non potremo fare nel prossimo futuro, per esempio per il nostro corpo. Questi risultati saranno a loro volta raggiungibili per via puramente biologica o attraverso la massiccia utilizzazione di microtecnologie elettroniche. Sono convinto che dall’impianto di microcircuiti e chip verranno incredibili avanzamenti che saranno complementari rispetto a quelli raggiungibili per via puramente biologica. La mia convinzione è basata sulla constatazione dell’incredibile accelerazione che hanno subito e stanno subendo gli studi di bioingegneria e protesi elettroniche, ma soprattutto dalla considerazione, di sapore vagamente vichiano, che le macchine possono essere molto meglio conosciute del nostro corpo in quanto quelle le facciamo noi, mentre il corpo ce lo siamo trovato fatto. Ma veniamo alle opportunità offerte dalla biologia avanzata e dalla biomedicina. Conosciamo la causa di un numero altissimo di malattie ereditarie monofattoriali, cioè causate dalla disfunzione di un singolo gene. Questa conoscenza, che risale a non più di venti anni, ci permette una diagnosi sicura e differenziale, nelle fasi precoci della vita o anche in utero. Non altrettanto avanzati sono il trattamento e la terapia di tali disturbi, ma non c’è dubbio che la maggior parte dei portatori di questi difetti conducono oggi una vita incomparabilmente migliore di quella degli individui della generazione precedente. Stiamo appena cominciando ad indagare le cause delle malattie, ereditarie e non, aventi una base multifattoriale, dipendenti cioè dalla incerta funzione o dall’aperta disfunzione di molti o moltissimi geni. Questo sarà il traguardo più importante del prossimo futuro, poiché in questo capitolo si vengono a trovare patologie diffusissime come il diabete, l’ipertensione, il ritardo mentale, una grande varietà di disturbi psichici e soprattutto i tumori. Con l’allungamento progressivo della vita e la scomparsa di altre entità patologiche, i tumori e il complesso delle malattie degenerative tipiche dell’età avanzata saranno i principali nemici biologici della nostra esistenza. Connesso con questo tipo di patologie abbiamo il capitolo fondamentale delle predisposizioni. Per esempio, essere predisposti, all’ipertensione o al tumore dell’ovaio non significa essere condannati a sviluppare queste patologie. Chi era predisposto può non averle sviluppate, mentre chi non lo era sì, ma sui grandi numeri la predisposizione ha una certa rilevanza e sapere di essere predisposti è un utile avvertimento. Non c’è nessuno che non sia predisposto a qualche cosa e saperlo è meglio di non saperlo. Parallelamente alla diagnosi e alla prevenzione, le moderne tecniche ci offriranno la possibilità di usufruire di tessuti, parti di organo e organi di ricambio per poter effettuare impianti e trapianti per le evenienze più diverse e farmaci sempre più efficienti e mirati, capaci cioè di suscitare un numero 13 M 14 sempre più ridotto di effetti secondari. Non è inoltre inconcepibile che la nostra vita si possa allungare ancora un po’, anche se non di molto. Una medicina più avanzata e una conoscenza più approfondita dei meccanismi dell’invecchiamento, potrebbero garantirci una vita più lunga, ma soprattutto un più lungo periodo di forma fisica, se non di vera e propria giovinezza. Prima o poi bisognerà però morire. L’immortalità è decisamente al di là della portata della scienza, certamente di quella di domani e di dopodomani. Saremo migliori? Personalmente, a differenza dei predicatori religiosi, pseudolaici e politici che non si stancano mai di parlare, non so che cosa voglia dire essere migliori; ma è concepibile che in un futuro non lontano si possa intervenire direttamente sul genoma di questo o quell’individuo, allo scopo di dotarlo di qualche caratteristica biologica in più o in meno. Se lo si farà, occorrerà decidere chi ha il potere di decidere: i genitori, i parenti, gli amici o l’intera società? E quali doti privilegiare? L’intelligenza, la bellezza, la costanza, l’inventività, la mansuetudine, la socievolezza? La biologia ci insegna, fra le altre cose, che ogni gene controlla molti caratteri e che molti caratteri sono controllati da molti geni. Migliorare una caratteristica biologica può spesso voler dire peggiorarne un’altra e non è certamente pensabile di aver una società di persone intelligentissime che sono cronicamente depresse o malaticce. Ma anche questi problemi potranno, forse, essere risolti. Quello che non accadrà è che in virtù di tutto questo saremo più felici. La scienza non ha ricette per la felicità e dubito che ne abbia una qualsiasi altra attività umana. L’uomo è un animale complessivamente mal riuscito: forse è ben riuscito per certi aspetti, ma è condannato al tedio e al disagio esistenziale, che cerca di tenere sotto controllo in vari modi. A noi la vita è male. Anche se soddisfatto e relativamente pacificato a livello collettivo, che non è poco, individualmente sarà di necessità infelice. Almeno fintanto che avrà il sistema nervoso che ha. * Edoardo Boncinelli è il direttore della SISSA, la Scuola Internazionale Superiore di Studi Avanzati di Trieste. Fisico di formazione, si è occupato per più di trent’anni di genetica e biologia molecolare degli animali superiori e dell’uomo. Ha scoperto e caratterizzato un gruppo di geni che controllano lo sviluppo embrionale del corpo e del cervello. Si è più recentemente orientato verso le neuroscienze. Ha pubblicato vari libri sulla genetica e sulla mente e collabora stabilmente con Le Scienze e il Corriere della Sera. an is a very special animal with a few million years of biological history behind him and a few thousand years of culture. Biologically speaking, he can certainly still evolve, but only very slowly; suffice it to say that not a lot has happened to his DNA over the last 200 thousand years. His constitution lets him communicate with his fellow men, even over long distances, and that has triggered off a total new process in the animal kingdom, if not the entire universe: cultural evolution. So even if very little has happened on an individual level, the communal effort underpinning this kind of evolution has resulted in the great cultural/technological progress there before our very eyes. It probably is not just futile trying to imagine what we can and cannot do in the near future, for instance with our own bodies. Such results can be achieved by purely biological means or by intensive use of electronic micro-technology. I am convinced that implants of micro-circuits and micro-chips will lead to incredible progress complementing the results achieved by purely biological means. My belief is based on noting the incredible speed with which bio-engineering studies and electronic prostheses have advanced and are still progressing, but mainly the vaguely Vico-style observation that we can know machines much better than our own bodies because we actually construct machines while our bodies come ready-made. But let’s take a look at the opportunities being opened up by cutting-edge biology and bio-medicine. We know the causes of a large number of single-factor hereditary diseases, viz. caused by one single malfunctioning gene. This knowledge, dating back no more than twenty years, lets us diagnose illnesses safely during the very earliest stages of life or even in the womb. Unfortunately, we have not made the same kind of progress in treating and curing these illnesses, but there is no doubt that people suffering from these defects now lead much better lives than their fellow sufferers in the recent past. We are just beginning to investigate the causes of both hereditary and non-hereditary diseases with multi-factor causes depending on uncertain functioning or openly malfunctioning of many or very many genes. This is the most important goal of the near future, because these are the realms of such common diseases as diabetes, high blood pressure, retardation, a wide variety of mental ailments and, most significantly, tumors. As life expectancy increases and certain other pathologies are disappearing, tumors and all those degenerative diseases typically associated with the ageing process will be the main biological enemies of our life. The special category of predispositions is connected with pathologies like this. For instance, having a predisposition for high blood pressure or tumors to the ovaries does not mean you will necessary get these diseases. People with predispositions may not develop them and vice-versa, but statistically speaking predisposition has its importance and knowing you are predisposed is a useful warning. Everybody is predisposed for something and knowing about it is better than being in the dark. Alongside diagnosis and prevention, modern techniques give us the chance to use tissues, parts of organs and donor organs to carry out implants and transplants for all sorts of reasons, as well as specially targeted and highly effective drugs with less and less side effects. And our life expectancy might increase even more, but not by much. More advanced medicine and deeper knowledge of how ageing takes place might guarantee us a longer life but, most importantly, although it might not give us eternal youth it will help us keep healthy longer. Although sooner or later everybody dies. Immortality is certainly beyond the realms of science, at least it is certainly beyond the science of the near and notso-near future. But will we be better people? Unlike political, pseudosecular and religious preachers that never stop talking about this, I do not know what being better people means; but it is reasonable to expect it to be possible in the future to act directly on a person’s genome in order to alter some biological trait or other. If this does happen, we will need to decide who can make this kind of decision: parents, relatives, friends or the whole of society? And what kind of traits shall we favor? Intelligence, beauty, dedication, creativity, meekness, sociableness? Amongst other things, biology teaches us that every gene controls lots of traits and that lots of traits are controlled by several genes. Improving one biological trait might mean spoiling another and the idea of a society full of highly intelligent people who are chronically depressed or ill is quite unthinkable. But perhaps even these problems can be solved. One thing for sure is that all this will not make us any happier. Science does not have any recipes for happiness and I doubt that any other human activity does either. Overall speaking, human beings are rather unfortunate creatures: well-designed in certain respects, but also destined to be bored and unhappy, despite their best attempts to control fate. Life will always be a burden. Even if society as a whole is relatively happy and contented, which is no mean thing, individually we are all destined to be unhappy, at least as long as we have this nervous system of ours. * Edoardo Boncinelli is director of the SISSA, the International High School for Advanced Studies in Trieste, Italy. Trained as a physicist, he has been studying the molecular biology and genetics of higher animals and man for over thirty years. He discovered and analyzed a set of genes controlling the embryonic growth of the body and brain. He has recently moved over to neuroscience. He has published a number of books on genetics and the mind and writes regularly for the Italian publications Le Scienze and Corriere della Sera. 15 La potenza dell’avventura umana The Power of Human Adventure Intervista a Salvatore Veca* Interview with Salvatore Veca* Se bene utilizzati, i nuovi strumenti allargano i limiti della creatività If put to proper use, new tools will extend the bounds of creativity 16 Salvatore Veca L a tendenza a superare i limiti è tipicamente umana e porta, in linea di principio, a conquiste di benessere più che a creazione di ingiustizie e iniquità. Ma la lotta fra limite e non-limite è continua e necessaria per evitare che, nei diversi ambiti, la potenza dello strumento prevalga sulla capacità di controllo. Salvatore Veca, uno dei massimi filosofi italiani, ha affrontato con arcVision alcuni dei temi più controversi del momento, proponendo interpretazioni lucide e senza pregiudizi dell’evoluzione della realtà contemporanea. Il formidabile progresso delle società occidentali degli ultimi decenni, ma in realtà degli ultimi secoli, è stato determinato da una fiducia pressoché illimitata nella valenza comunque positiva di una estensione e di un approfondimento delle conoscenze. Oggi, però, di fronte ad alcuni effetti indesiderati di questa tumultuosa espansione, che pone nelle mani dell’uomo strumenti sempre più potenti, ci si comincia a chiedere se l’uomo non debba porsi, almeno in alcuni contesti, un’idea di limite. Pensiamo, ad esempio, alla genetica, alla biotecnologia, all’intelligenza artificiale o al più generale rapporto uomo-natura. Ha senso porsi questo tema del limite, o si tratta di uno scrupolo infondato, se non altro perché difficilmente realizzabile? Ciò cui stiamo assistendo, nell’epoca in cui viviamo, è l’evolversi di una situazione in cui convivono due tendenze parzialmente divergenti. La prima contempla il superamento di ogni limite attraverso un’espansione continua della conoscenza, in particolare nell’ambito della scienza e della tecnologia. E questa è una strada che appare del tutto ragionevole e desiderabile a molte persone che, al contrario, tendono a considerare l’idea stessa di limite come un falso problema, un ostacolo burocratico, un inutile intralcio allo sviluppo pieno della nostra cultura. La seconda è almeno parzialmente in contraddizione con la prima e pone il problema del limite sia in generale, sia in molti ambiti particolari, come appunto la genetica o l’intelligenza artificiale, e si fa carico di profonde preoccupazioni insite nella società, come si è visto negli ultimi decenni del XX secolo e in questi primi anni di quello nuovo. In fondo, queste due tendenze esprimono la tensione essenziale della nostra cultura, che è la cultura occidentale, che considera da un lato il “dovere” del superamento del limite ma pone, allo stesso tempo, la necessità di mantenerne il controllo. È una tensione fra scienza ed etica ed è questo un rapporto che caratterizza con continuità la storia tra limite e non-limite, sia nella nostra cultura collettiva sia in quella individuale. Tutti noi, nei fatti, assistiamo allo svolgersi di una sorta di corpo a corpo interiore che vede convivere la voglia dell’illimitato e il desiderio di mettere a freno la tendenza al superamento del limite. Un ambito nuovo, e forse inatteso, nel quale si è posto sempre più spesso negli ultimi anni (ma anche molto di recente, nel conflitto con l’Iraq) il tema del limite, è quello dell’uso della forza in situazioni di conflitto aperto. L’opinione comune di molta parte, forse maggioritaria, della pubblica opinione pende di norma a favore della parte più debole del conflitto, per arrivare a sostenere che la parte forte debba limitare l’uso della propria preponderante capacità di offesa solo allo stretto necessario, imponendosi così un vincolo di cui nella storia passata troviamo pochi esempi. L’idea di limite può presentare in questi casi dei forti margini di ambiguità e incertezza, perché si tende spesso a fare coincidere la debolezza con la ragione e, dall’altro lato, la forza con il torto. L’ambito della guerra è certamente un contesto fortemente emblematico ed esemplare, connesso alle due idee di cui abbiamo parlato finora, ossia la tendenza a superare i limiti e i vincoli all’azione. La guerra con l’Iraq costituisce, poi, un fenomeno particolarmente pregnante, perché si assiste al primo vero conflitto successivo alla fine della Guerra Fredda, uno scontro complesso nel quale, come osservatori, siamo posti di fronte al verificarsi di tutto e del contrario di tutto. Nella guerra del Golfo del 1991 prevalevano azioni massicce all’insegna della guerra aerea e della presenza, non sempre contestata, dei “danni collaterali”. In Bosnia e Kosovo abbiamo visto il verificarsi di episodi drammatici, connotati dal tentativo di estinguere intere etnie tramite violenze inimmaginabili, massacri e stupri di massa. In Afghanistan si è immaginato molto ma, effettivamente, si è visto poco. La guerra con l’Iraq ha presentato, invece, caratteri estremamente complessi e contraddittori, perché si sono verificati contemporaneamente più fenomeni: la guerra ipertecnologica, l’applicazione della potenza massima, ma anche la guerriglia e la guerra di posizione. Abbiamo osservato il confondersi di militari e civili, il confronto diretto tra militari, l’importanza di salvaguardare i civili e di evitare i danni collaterali. E poi gli assedi medievali, ma anche le battaglie di movimento dei tank. Tutto questo compone un quadro difficile da interpretare e pieno di contraddizioni e, per quanto possa suonare bizzarro, si vede bene in questo frangente fino a che punto la tendenza a superare il limite conviva costantemente con la cultura stessa del limite. L’America, è stato detto, ha condotto questo conflitto “con una mano legata dietro la schiena”, poiché non poteva assolutamente utilizzare il proprio potenziale in modo incontrollato. Ed è stato giustamente rilevato che oggi al mondo esistono non una ma due superpotenze: gli Stati Uniti d’America e l’opinione pubblica, due grandi realtà che hanno la capacità di condizionarsi a vicenda. Così anche nella guerra ritroviamo i vincoli e i limiti di cui abbiamo discusso, anche se ovviamente in un contesto di severa tragicità. Il progresso tecnologico propone oggi un nuovissimo ambito nel quale ritroviamo la contraddizione fra limite e non-limite, tra libertà e abuso, tra democrazia e controllo. Ed è il nuovo universo di Internet che da un lato costituisce un esempio straordinario di possibilità di partecipazione ed accesso, ma dall’altro crea opportunità di abuso e crimine fuori da ogni reale possibilità di controllo. Basta pensare all’uso di Internet per attività efferate come il terrorismo o la pedofilia. Come risolvere queste contraddizioni? Che in questi casi vi sia un’esigenza di porre un limite è incontrovertibile. Ma questo non risolve l’ambiguità. Imporre un limite significa, infatti, ricorrere a cose come norme e regolamenti. Ma, come sempre, la questione di fondo consiste nel come si debbano generare tali norme. Noi pensiamo, in genere che, se vi sono delle norme, queste debbano essere state generate da una autorità. Ciò è evidente quando si devono affrontare problemi gravi come il bando alle armi o la lotta al terrorismo. Questo 17 approccio fa parte di un’idea di società che promana da un contratto sociale liberamente sottoscritto fra persone, nel senso che liberamente scegliamo di vincolarci a un’autorità superiore che limiti le possibilità di scelta e garantisca a tutti il godimento dei diritti della democrazia. È un modello ben noto, che discende dalla tradizione di Hobbes, Locke, Rousseau e Kant e che conduce alla nascita delle costituzioni attraverso le quali scegliamo di legarci nel tempo. Ma vi è anche un altro modello, che pone la questione della cosiddetta “insorgenza delle norme”, nel filone di pensiero di filosofi come Hume e Hayek. Il concetto fondamentale consiste nel fatto che le norme si fissano grazie a una sorta di convenzione che nasce e si consolida mediante un processo iterativo di trial and error. Questo modello implica che quando si vengono a determinare nuove situazioni di opportunità, ad esempio con le tecnologie di Internet, possa esistere una fase selvaggia e scarsamente dominabile nella quale queste opportunità irrompono con forza, modificando il preesistente paesaggio etico, che era stato modellato dalle forze precedentemente prevalenti. C’è uno stadio in cui le nuove opportunità 18 incontrano i vecchi limiti. Qui nasce lo scontro al quale assistiamo e vi è chi ritiene che si tratti di un conflitto almeno in parte inevitabile, perché l’uomo è una creatura d’abitudini che fronteggia prospettive incerte. E in questo contesto non vi è realmente una autorità in grado di normare, per il solo fatto che le norme non riescono subito a cogliere le peculiarità della nuova situazione, in quanto rappresentano inevitabilmente il capitale della saggezza del passato e non quella del presente e del futuro. Questo significa che siamo costretti a pagare i costi della transizione, con tutto ciò che questo implica in termini di imperfezioni e abusi? In sostanza sì. Significa che occorre individuare norme che disciplinino le nuove realtà senza soffocare le nuove idee e contrarre i limiti dello spazio delle possibilità innovative. Significa che nessun pasto è gratis e nessuna innovazione avviene senza costi. La virtù massima consiste nel massimizzare i benefici dell’innovazione, minimizzandone i costi. Ed è bene riconoscere che ciò non è molto facile. Ma l’innovazione non è sinonimo, di per sé, di giustizia. E pagare i costi della transizione ha senso solo se il traguardo cui si punta rientra nell’ambito di una situazione più giusta, non più ingiusta. Come distinguere la prima dalla seconda? I due percorsi di creazione delle norme che ho esposto, così come la massima della minimizzazione dei costi, presuppongono uno sfondo “quasi giusto” (near just) che si ponga nell’intorno di convenzioni e pratiche socialmente accettabili. È solo in questo contesto che possiamo accettare i costi sociali connessi con il cambiamento. In caso contrario, se l’assunzione di partenza è che l’innovazione ha luogo in una situazione ingiusta e in un quadro di istituzioni ingiuste, allora è chiaro che le priorità cambiano profondamente. Il problema non è più quello della dialettica fra limite e non-limite, ma diventa quello previo di combattere l’ingiustizia. Non è questo, però, e per fortuna, il nostro attuale sistema di riferimento. Torniamo allora all’idea del limite. Il nostro contesto di riferimento è connotato dalla crescente potenza degli strumenti a nostra disposizione, in senso positivo e in senso negativo. Se pensiamo alle nostre realtà individuali, facciamo i conti con strumenti che sono in grado di esaltare la nostra personalità o, a seconda dei punti di vista, di deprimerla. Pensiamo al rapporto fra uno strumento come il personal computer e la creatività individuale. Come vede, da un punto di vista personale e collettivo, le implicazioni di questo rapporto? Da un punto di vista personale la mia storia è quella di un dramma a lieto fine. Io ho iniziato a lavorare con il computer molto più tardi di mia moglie e dei miei figli, perché godevo del lusso di due segretarie che riportavano fedelmente quello che io apponevo su carta. E dunque, la mia creatività dipendeva dall’interazione fra la mia stilografica e l’horror vacui della pagina bianca, dramma comune a tutti gli scrittori. Poi, quando le mie responsabilità istituzionali sono cresciute e il tempo a disposizione si è ristretto, ho dovuto accettare di apprendere l’uso del computer. E il primo effetto è stato di subire una mutilazione, una decurtazione della mia capacità creativa. Ma è stata la prima reazione, che poi si è abbastanza rapidamente trasformata in dipendenza e, quindi, in una nuova spinta di creatività. Oggi, senza computer non prendo nemmeno un appunto. Ora devo connettere questa mia piccola storia personale con una molteplicità di piccole storie analoghe, per capire in che modo si sia evoluto in termini collettivi il rapporto tra strumento e creatività, cosicché la descrizione della sorte casualmente condivisa da molte persone si trasformi in teoria generalmente valida. E cosa ci dice questo passaggio mentale? Che non sta succedendo niente di terribilmente nuovo. Che in fondo, nell’intera storia passata, ciò che chiamiamo creatività è nient’altro che la vicenda di un corpo a corpo permanente tra il tentativo di elaborare sempre nuove versioni del mondo – morfologiche, iconiche, estetiche, erotiche, cognitive – e la “scatola degli attrezzi” di turno, ossia il vasto e mutevole repertorio dei mezzi disponibili in funzione dell’obiettivo che si desidera raggiungere. Dove nasce il problema? Dal fatto che il tool box favorisce il cambiamento e induce alla perdita del limite. La creatività è un’avventura di esplorazione di possibilità inedite che, ancora una volta, mettono in contrasto la disponibilità di nuovi mezzi illimitati con i vecchi strumenti e i vecchi limiti. Si elaborano così nuove versioni del mondo, partendo dalle vecchie formule e parafrasandole, mescolando gli strumenti e i linguaggi e modificando continuamente i limiti. Emerge la potenza dell’illimitato che ci impone, come ha detto Neurath, di riparare la nostra barca mentre continuiamo a navigare. Ma tutto questo è ben lungi dall’essere negativo, anzi. Il giudizio è per me sobriamente positivo e dobbiamo riconoscere che la tendenza a forzare il limite, con cui ci confrontiamo continuamente, amplia enormemente il nostro repertorio di possibilità. E questa è una faccenda tipicamente umana, in cui riconosciamo il familiare Streben di Goethe e, al tempo stesso, la saggezza della massima terenziana a proposito del “nihil humanum alienum puto”. * Salvatore Veca è uno dei più importanti filosofi italiani contemporanei. La sua lunga carriera accademica, iniziata nel 1966, è stata caratterizzata da una intensa attività di insegnamento in diverse sedi (Università di Milano, Università della Calabria, Università di Bologna, Università di Firenze) e di ricerca (ha scritto decine di saggi e di volumi di grande successo). Dal 1990 è professore ordinario di Filosofia Politica alla Facoltà di Scienze Politiche dell’Università di Pavia (di cui è preside dal 1999). Dal 2002 è pro-rettore per la Didattica dell’Università di Pavia. A tendency to go beyond the limits is a typically human trait and, in principle, tends to improve life rather than result in more injustice and inequality. But the battle between bounds and boundlessness is an ongoing struggle and necessary to ensure that the sheer power of the instruments in play in all these various realms does not jeopardize our ability to control. Salvatore Veca, a leading Italian philosopher, has tackled the most controversial issues of the day in this issue of arcVision, suggesting clear-sighted and unbiased readings of modernday reality evolution. The staggering progress in Western society over the last few decades, or really centuries, is the result of almost boundless faith in the positive effects of extending and furthering knowledge. Nowadays, however, faced with certain undesirable effects of such starting expansion that is placing increasingly power tools in human hands, we are starting to wonder whether man ought, at least in certain contexts, to establish some sort of limits. Take, for instance, genetics, biotechnology, artificial intelligence or the more general way in which man relates to nature. Is there any point in looking at this question of limits or is it really unnecessary, particularly since limits are so hard to set? What we are now witnessing in the age in which in we live is an evolving situation in which two partly diverging tendencies co-exist. On one hand, there is a tendency to break all boundaries by constantly expanding our knowledge, notably in the fields of science and technology. This course of action seems quite reasonable and desirable to most people, who, on the contrary, tend to think the idea of setting limits is a false problem, a bureaucratic obstacle or useless hindrance to developing our culture to its fullest. On the other hand, there is an alternative, and at least partly contradictory, 19 20 tendency to pose the problem of limits both in general and in relation to specific fields like genetics or artificial intelligence, assuming responsibility for certain deeply felt worries circulating in society, as we have seen in the last few decades of the 20th century and the start of this new millennium. These two tendencies actually embody the fundamental essence of our culture here in the West, which considers breaking boundaries as a “duty” and, at the same time, realizes the need to keep control. This tension between science and ethics is a distinctive feature of the ongoing battle between limits and no limits, both individually and as a society. We also experience a sort of internal struggle in which there is a simultaneous desire for what is boundless and a need to harness the tendency to go beyond the limit. A new and perhaps unexpected realm in which the question of setting limits has been increasingly to the fore over recent years (and even very recently with the war in Iraq), concerns the use of force in open conflicts. The majority of people have, it would seem, sided with the underdogs in this conflict, even insisting that the stronger side must only use as much of its staggering strike force as is strictly necessary, thereby setting the kind of limits that are extremely rare in past history. In a case like this there is likely to be plenty of room for ambiguity and uncertainty, because there is a strong tendency on hand to confuse weakness with being in the right and on the other to associate power with being in the wrong. War is certainly an exemplary and emblematic realm connected with the two ideas we have just mentioned, viz. exceeding limits and placing constraints on any action being taken. The war with Iraq is particularly appropriate because it is the first real conflict after the end of the Cold War, a complicated struggle in which we, as observers, are witnessing a bit of everything. The 1991 Gulf War was characterized by heavy air raids and bomb attacks and plenty of “collateral damage” that often went unnoticed. In Bosnia and Kosovo, we witnessed some dramatic events involving attempts to actually wipe out entire ethnic groups by means of widespread violence of unimaginable cruelty and mass rape. In Afghanistan we imagined a lot but actually saw very little. As regards Iraq, the simultaneous presence of various phenomena meant the war with Iraq was in many ways extremely complicated and contradictory: hypertechnological warfare, the use of maximum power, but also guerrilla warfare and strategic combat. We watched soldiers and civilians mixed together, direct confrontation between opposing armies, the importance of protecting the civilian population and avoiding collateral damage. Not to mention Medieval-style sieges and tank battles on the move. The overall picture is hard to read and full of contradictions, and however strange this might seem, at this stage it can clearly be seen how a tendency to exceed limits constantly coexists with a sense of needing to draw the line. It has been said that America has fought this war with “one arm tied behind its back,” because it could not make unbridled use of its own might. And it has also rightly been pointed out that the world now has not one but two superpowers: the United States of America and public opinion, two great players capable of influencing each other’s actions. This means that even war is subject to the limits and constraints we have talked about, although obviously in an extremely tragic context. Technological progress is now creating a brand new realm in which there is a real contradiction between limits and no limits, freedom and abuse, democracy and control. This is the new world of the Internet, which, on one hand, is an exemplary case of involvement and access, but on the other creates plenty of opportunities for criminal activities and abuse that are beyond any real control. Just take how the Internet can be used for such brutal crimes as terrorism or pedophilia. How can we resolve these contradictions? There can be no doubt that we need to draw the line somewhere on these issues. But that does not get rid of the ambiguity. Setting a limit actually means reverting to rules and regulations. But, as always, the underlying issue is where the regulations are supposed to come from. Generally speaking, we think that, if there are norms of some sort, they must have been set by some authority or other. This is most obvious when dealing with serious problems like the arms trade and fighting terrorism. This approach belongs to an idea of society based on some sort of social contract freely adhered to by members of the community, in the sense that we freely choose to be governed by some higher authority that controls our actions and ensure everybody enjoys the rights associated with democracy. This is a wellknown model handed down to us from Hobbes, Locke, Rousseau and Kant and that leads to the birth of constitutions that we choose to conform to down the ages. But there is also another model broaching the question of the so-called “insurgence of regulations” in the philosophical line of thought of men like Hume and Hayek. The basic idea is that regulations are set by means of some sort of convention created and enforced by an iterative process of trial-anderror. This model implies that when new kinds of opportunities arise, for instance through Internet technology, there is often a wild phase that is hard to control with these new opportunities bursting onto the scene and altering the ethical background established by previously dominant forces. There is a moment when new opportunities run up against old limits. This is where the conflict we are witnessing comes from, and there are some people who believe that these clashes are at least partly inevitable, since human beings are creatures of habit facing uncertain prospects. In this context there are really no authorities for enforcing the regulations due to the simple fact that these regulations cannot instantly come to terms with the distinctive features of the new situation, since they inevitably enshrine the wisdom of the past and not the present or future. Does this mean we are forced to pay the price of transition with all this entails in terms of errors and misdemeanors? Basically, yes. It means we need to identify regulations controlling newly emerging scenarios without stifling out new ideas or hampering new initiatives. It means there is no such thing as a free meal and there is inevitably a price to pay for anything new. Ideally, we need to maximize the benefits of innovation and minimize the costs. And we ought to realize that this is far from easy. But innovation does not necessarily imply justice. And it is only worth paying the price of this transition if its ultimate goals help spread justice and not injustice. How can we make a distinction between the two? The two ways of creating regulations I have outlined, as well as the idea of minimizing costs, presuppose a “near just” situation accompanied by socially acceptable conventions and practices. Only in this kind of setting we will be able to accept the social costs of change. On the contrary, if we start off by accepting that innovation takes place in an unjust 21 Un robot dal cervello “bestiale” A Robot with a “Beastly” Brain intervista a Salvatore Veca* interview with Salvatore Veca* Le nuove frontiere della bioingegneria in una sintesi inedita tra organico e meccanico: duemila cellule cerebrali di topo importate in una macchina The latest frontiers of bioengineering in a new synthesis of the organic and mechanical: two thousand brain cells from a mouse incorporated in a machine 22 context and a framework of unjust institutions, then it is clear that our priorities undergo profound changes. It is no longer a question of a dialectic between limits and no limits, but the prior issue of fighting injustice. Fortunately, this is not the case with our current frame of reference. Let us go back to the idea of limits again. Our frame of reference is characterized by the growing power of the instruments at our disposal, in both a positive and negative sense. If we think of our own individual situations, we come up against means of either enhancing or (according to our point of view) repressing our personalities. Take the way in which personal computers relate to individual creativity. In your view, what are the implications, both individually and collectively, of this relationship? From my own personal point of view, it is a dramatic story with a happy ending. I started working with a computer well after my wife and children, because I was fortunate enough to have the help of two secretaries who typed out faithfully what I wrote down on paper. So my own creativity depended on how my biro related to the horror vacui of blank paper, something all writers are familiar with. As my duties became more pressing and I had less time at my disposal, I was forced to start using a computer. Initially this held back and hampered my creative skills. But that was just an initial reaction that soon turned into a sort of addiction and eventually a fresh source of creativity. Nowadays, I do not even write down notes without using my computer. Now I need to relate my own personal experience to everybody else’s to try and see how the interaction between tool and creativity has developed in general, so that the description of an experience that just happens to be shared with lots of other people can be turned into a widely applicable theory. So what can we learn from this mentalscape? That there is nothing terribly new under the sun. That right through history what we call creativity is just an ongoing struggle between an attempt to work out new versions of the world – morphological, iconic, aesthetic, erotic and cognitive – and the latest “tool box” or, in other words, a vast and constantly changing repertoire of means available for achieving our goals. So where does the problem come from? From the fact that this tool box favors change and leads to our losing track of any limits. Creativity is an adventure into exploring new possibilities which, once again, bring out the contrast between new unlimited means and old tools and limits. New versions of the world are worked out from old formulas, paraphrasing them, mixing up tools and languages, and constantly setting new limits. The power of the unlimited gradually emerges forcing us, as Neurath pointed out, to repair our ship while out at sea. But all this is far from being a bad thing, quite the contrary. I have an austerely positive view of all this and we must acknowledge that a tendency to push our limits all the time considerably widens our range of possibilities. This is a typically human affair, in which we can recognize Goethe’s Streben and, at the same time, the wisdom of Terence’s old saying about “nihil humanum alienum puto.” * Salvatore Veca is one of the leading contemporary Italian philosophers. His long academic career began in 1966. He has taught at several Italian universities (Milan University, Calabria University, Bologna University, Florence University) and carried out plenty of research (he has written dozens of highly popular books and essays). He has been teaching Political Philosophy in the Faculty of Political Science at Pavia University since 1990 (where he has been the dean since 1999). He has also been pro-rector for Didactics at Pavia University since 2002. 1 998. Kevin Warwick, Professore di Cibernetica e Ricercatore nel campo dell’Intelligenza Artificiale all’Università di Reading, nel Regno Unito, affronta un’operazione che sconvolge la comunità scientifica internazionale. Si fa impiantare nell’avambraccio un microchip, attraverso il quale è in grado di comunicare con l’ufficio: apre le porte, accende le luci e attiva il proprio website che risponde con un messaggio preregistrato. Per Kevin Warwick è solo l’inizio di una serie di esperimenti, durante i quali collega progressivamente il proprio sistema nervoso a un computer. Il “Project Cyborg” del docente anglosassone è attualmente in pieno sviluppo. Steve Mann è invece uno scienziato e da oltre vent’anni si dedica ai cosiddetti WearComp, i computer portatili. Macchine che ci seguono ovunque e filtrano, indirizzano o intensificano le informazioni fornite dall’ambiente. Ricevono e trasmettono e-mail, percepiscono i segnali d’allarme, fanno funzionare gli elettrodomestici. Due esempi fra i più noti d’integrazione tra uomo e macchina, che evocano scenari fantascientifici, ma sono superati dalla più recente, e per certi versi inquietante, ibridazione. Non è una novità ipertecnologica che esiste solo nel contesto rarefatto dei laboratori degli Istituti Tecnologici, ma è addirittura un prodotto che può essere acquistato, alla modica cifra di 3.000 dollari. L’aspetto innocuo di una caffettiera nasconde la frontiera più avanzata della bioingegneria, e traccia una direzione del tutto innovativa nella produzione dei robot. Si chiama Kephera, si muove alla poco rispettabile velocità di un metro al secondo e il suo inventore, il ricercatore americano Steve Potter, l’ha battezzato affettuosamente “Hybrot”. È il capostipite degli “hybrid robot”, una strana via di mezzo tra l’animale e la macchina. Detto anche “animat”, animale automatico, è il frutto di una sperimentazione che dura ormai da dieci anni, e porta alle estreme conseguenze l’ibridazione tra un essere vivente e le componenti robotiche. A muoverlo sono gli impulsi di duemila cellule cerebrali di un topo, tenute in vita per due anni in un incubatore e poi applicate a un microchip. I neuroni fanno “agire” il robot, mentre le cellule a raggi infrarossi e i minisensori elettronici trasmettono al cervello del topo le informazioni raccolte durante l’attività. Kephera acquisisce questi dati e modifica di conseguenza il proprio comportamento. Se riassumiamo in una sola parola la frase precedente, forse l’importanza dell’invenzione risulterà più evidente: il piccolo Hybrot impara. Superando di colpo i risultati di molti mastodontici computer dedicati all’Intelligenza Artificiale, il prodotto della svizzera K-Team ha attirato l’attenzione degli scienziati di tutto il mondo. Gli scenari che si aprono sono molteplici. Qualcuno già pensa a future generazioni di computer che saranno capaci di adattarsi all’ambiente, di cambiare durante la loro esistenza, e addirittura di autoripararsi o, detto in altri termini, di “guarire”. Il finanziamento iniziale di 1,2 milioni di dollari concesso dal Ministero della Sanità Usa all’inventore di Kephera e al suo team è un chiaro segnale di interesse, e una dimostrazione di fiducia in applicazioni utili per il genere umano. Gli ibridi delle nuove generazioni potranno assistere le vittime di malattie e di incidenti, sostituendone alcune funzioni nervose vitali. Organi artificiali e protesi potranno essere controllati in modo sempre più preciso e sofisticato, e si pensa già 23 Un robot dal cervello “bestiale” A Robot with a “Beastly” Brain intervista a Salvatore Veca* interview with Salvatore Veca* Le nuove frontiere della bioingegneria in una sintesi inedita tra organico e meccanico: duemila cellule cerebrali di topo importate in una macchina The latest frontiers of bioengineering in a new synthesis of the organic and mechanical: two thousand brain cells from a mouse incorporated in a machine 22 context and a framework of unjust institutions, then it is clear that our priorities undergo profound changes. It is no longer a question of a dialectic between limits and no limits, but the prior issue of fighting injustice. Fortunately, this is not the case with our current frame of reference. Let us go back to the idea of limits again. Our frame of reference is characterized by the growing power of the instruments at our disposal, in both a positive and negative sense. If we think of our own individual situations, we come up against means of either enhancing or (according to our point of view) repressing our personalities. Take the way in which personal computers relate to individual creativity. In your view, what are the implications, both individually and collectively, of this relationship? From my own personal point of view, it is a dramatic story with a happy ending. I started working with a computer well after my wife and children, because I was fortunate enough to have the help of two secretaries who typed out faithfully what I wrote down on paper. So my own creativity depended on how my biro related to the horror vacui of blank paper, something all writers are familiar with. As my duties became more pressing and I had less time at my disposal, I was forced to start using a computer. Initially this held back and hampered my creative skills. But that was just an initial reaction that soon turned into a sort of addiction and eventually a fresh source of creativity. Nowadays, I do not even write down notes without using my computer. Now I need to relate my own personal experience to everybody else’s to try and see how the interaction between tool and creativity has developed in general, so that the description of an experience that just happens to be shared with lots of other people can be turned into a widely applicable theory. So what can we learn from this mentalscape? That there is nothing terribly new under the sun. That right through history what we call creativity is just an ongoing struggle between an attempt to work out new versions of the world – morphological, iconic, aesthetic, erotic and cognitive – and the latest “tool box” or, in other words, a vast and constantly changing repertoire of means available for achieving our goals. So where does the problem come from? From the fact that this tool box favors change and leads to our losing track of any limits. Creativity is an adventure into exploring new possibilities which, once again, bring out the contrast between new unlimited means and old tools and limits. New versions of the world are worked out from old formulas, paraphrasing them, mixing up tools and languages, and constantly setting new limits. The power of the unlimited gradually emerges forcing us, as Neurath pointed out, to repair our ship while out at sea. But all this is far from being a bad thing, quite the contrary. I have an austerely positive view of all this and we must acknowledge that a tendency to push our limits all the time considerably widens our range of possibilities. This is a typically human affair, in which we can recognize Goethe’s Streben and, at the same time, the wisdom of Terence’s old saying about “nihil humanum alienum puto.” * Salvatore Veca is one of the leading contemporary Italian philosophers. His long academic career began in 1966. He has taught at several Italian universities (Milan University, Calabria University, Bologna University, Florence University) and carried out plenty of research (he has written dozens of highly popular books and essays). He has been teaching Political Philosophy in the Faculty of Political Science at Pavia University since 1990 (where he has been the dean since 1999). He has also been pro-rector for Didactics at Pavia University since 2002. 1 998. Kevin Warwick, Professore di Cibernetica e Ricercatore nel campo dell’Intelligenza Artificiale all’Università di Reading, nel Regno Unito, affronta un’operazione che sconvolge la comunità scientifica internazionale. Si fa impiantare nell’avambraccio un microchip, attraverso il quale è in grado di comunicare con l’ufficio: apre le porte, accende le luci e attiva il proprio website che risponde con un messaggio preregistrato. Per Kevin Warwick è solo l’inizio di una serie di esperimenti, durante i quali collega progressivamente il proprio sistema nervoso a un computer. Il “Project Cyborg” del docente anglosassone è attualmente in pieno sviluppo. Steve Mann è invece uno scienziato e da oltre vent’anni si dedica ai cosiddetti WearComp, i computer portatili. Macchine che ci seguono ovunque e filtrano, indirizzano o intensificano le informazioni fornite dall’ambiente. Ricevono e trasmettono e-mail, percepiscono i segnali d’allarme, fanno funzionare gli elettrodomestici. Due esempi fra i più noti d’integrazione tra uomo e macchina, che evocano scenari fantascientifici, ma sono superati dalla più recente, e per certi versi inquietante, ibridazione. Non è una novità ipertecnologica che esiste solo nel contesto rarefatto dei laboratori degli Istituti Tecnologici, ma è addirittura un prodotto che può essere acquistato, alla modica cifra di 3.000 dollari. L’aspetto innocuo di una caffettiera nasconde la frontiera più avanzata della bioingegneria, e traccia una direzione del tutto innovativa nella produzione dei robot. Si chiama Kephera, si muove alla poco rispettabile velocità di un metro al secondo e il suo inventore, il ricercatore americano Steve Potter, l’ha battezzato affettuosamente “Hybrot”. È il capostipite degli “hybrid robot”, una strana via di mezzo tra l’animale e la macchina. Detto anche “animat”, animale automatico, è il frutto di una sperimentazione che dura ormai da dieci anni, e porta alle estreme conseguenze l’ibridazione tra un essere vivente e le componenti robotiche. A muoverlo sono gli impulsi di duemila cellule cerebrali di un topo, tenute in vita per due anni in un incubatore e poi applicate a un microchip. I neuroni fanno “agire” il robot, mentre le cellule a raggi infrarossi e i minisensori elettronici trasmettono al cervello del topo le informazioni raccolte durante l’attività. Kephera acquisisce questi dati e modifica di conseguenza il proprio comportamento. Se riassumiamo in una sola parola la frase precedente, forse l’importanza dell’invenzione risulterà più evidente: il piccolo Hybrot impara. Superando di colpo i risultati di molti mastodontici computer dedicati all’Intelligenza Artificiale, il prodotto della svizzera K-Team ha attirato l’attenzione degli scienziati di tutto il mondo. Gli scenari che si aprono sono molteplici. Qualcuno già pensa a future generazioni di computer che saranno capaci di adattarsi all’ambiente, di cambiare durante la loro esistenza, e addirittura di autoripararsi o, detto in altri termini, di “guarire”. Il finanziamento iniziale di 1,2 milioni di dollari concesso dal Ministero della Sanità Usa all’inventore di Kephera e al suo team è un chiaro segnale di interesse, e una dimostrazione di fiducia in applicazioni utili per il genere umano. Gli ibridi delle nuove generazioni potranno assistere le vittime di malattie e di incidenti, sostituendone alcune funzioni nervose vitali. Organi artificiali e protesi potranno essere controllati in modo sempre più preciso e sofisticato, e si pensa già 23 24 ad applicazioni nel campo della prevenzione. Esiste un progetto per integrare nelle automobili del futuro un cervello di tipo biologico, in grado di pilotare la vettura in modo automatico. Al di là delle perplessità etiche o dell’incertezza per l’evoluzione di questo filone di ricerca, rimane un dato di fatto incontrovertibile. La bionica, la bioingegneria e la cibernetica chiudono un ciclo storico: dopo lo scienziato greco, attraverso l’artistaarchitetto-ingegnere del Rinascimento italiano, lo scienziato-ingegnere del Settecento francese e l’industriale-ingegnere dell’Ottocento americano, l’ingegneria ritorna con il bagaglio della tecnologia allo studio della vita umana. Attraverso la bioingegneria d’avanguardia l’ingegnere, inteso come colui che costruisce, entra nel settore del mondo vivente. A queste sperimentazioni non può rimanere insensibile nemmeno l’architettura: l’intuizione viene dal famoso massmediologo Marshall McLuhan. Gli edifici stessi diventano una sorta di complesso sistema nervoso, entità sensibili con le quali l’uomo interagisce. Oggetti che si adattano al nostro modo di vivere, “protesi”, estensioni del corpo. Lo spazio non è più un contenitore, ma un palcoscenico dove si recitano le interrelazioni tra l’uomo e l’ambiente. I muri si trasformano in membrane, si proiettano verso l’esterno con un complesso sistema di sensori, e ne assorbono luci, suoni, odori. Perdono peso, guadagnano leggerezza e acquistano una qualità. L’intelligenza. 1 998. Kevin Warwick, Professor of Cybernetics and Researcher in the field of Artificial Intelligence at Reading University in the United Kingdom, carried out an experiment that stunned the international scientific community. He had a microchip implanted in his forearm to let him communicate with the office: he can open doors, switch on lights and operate his own web site that replies through a pre-recorded message. This is just the start of a series of experiments for Kevin Warwick as he gradually connects his own nervous system to a computer. The “Cyborg Project” set under way by this British professor is now in full swing. Steve Mann, on the other hand, is a scientist who has devoted over twenty years of his career to so-called WearComp, portable computers. Machines that follow us everywhere and filter, guide or intensify information coming from the environment. They receive and send e-mails, detect alarms and make home appliances work. Theses are two of the best known examples of man/machine integration evoking science fiction scenarios, but they have since been superseded by the latest and in some respects highly disturbing phenomenon of hybridization. This is not some hypertechnological novelty that only exists in the rarefied context of the laboratories of Technological Institutes, but rather a product that can be purchased at the modest price of 3,000 dollars. The innocuous appearance of a coffee-maker actually conceals the cutting-edge frontier of bioengineering and sets a totally new direction in the manufacture of robots. It is called Kephera, moves at the sluggish rate of one meter-a-second and its inventor, the American researcher Steve Potter, has affectionately called it “Hybrot.” It is the latest “hybrid robot,” a strange blend of animal and machine. Also known as “animat,” automatic animal, it is the result of ten years’ experimentation and takes the hybridization between a living being and robot components to its extreme consequences. It is actually driven by impulses from two thousand brain cells from a mouse kept alive for two years in an incubator and then applied to a microchip. The neurons make the robot “act,” while cells with infrared rays and electronic minisensors transmit information collected during its activities to the mouse’s brain. Kephera gathers these data and makes appropriate adjustments to its behavior. Summing up what we have just said in one word might make the importance of this invention more obvious: the little Hybrot actually learns. Suddenly outsmarting lots of those huge computers devoted to Artificial Intelligence, the Swiss K-Team’s product has attracted the attention of scientists from all over the world. This opens up all kinds of prospects. Some people are already envisaging future generations of computers capable of adapting to the environment, changing during their own life time and even 25 repairing themselves or, put another way, of “healing.” An initial grant of 1.2 million dollars that the US Ministry of Health gave the inventor of Kephera and his team is a clear sign of interest and a show of confidence in useful applications for mankind. The latest generations of hybrids will be able to help the victims of illnesses and accidents by taking over certain vital functions of the nervous system. Artificial organs and limbs will be controlled in a much more precise and sophisticated way, and there are already plans for applications for preventive purposes. There is a project to incorporate a biological-type brain in the cars of the future, so that they can be driven automatically. Apart from certain ethical worries or a feeling of uncertainty about developments in this line of experimentation, all this is already a matter of fact. Bionics, bioengineering and cybernetics close a historical cycle: in the wake of Greek scientists, following the artistarchitect-engineer of the Italian Renaissance, the scientist-engineer of the eighteenth century in France and the industrialist-engineer in nineteenth century America, engineering is drawing on its technological resources to study human life. Thanks to cutting-edge bioengineering, the engineer (or person who constructs) enters the realm of the living. Architecture cannot afford to ignore these experiments: the famous scholar of mass media, Marshall McLuhan, had an intuition about this. Buildings themselves might turn into a sort of complex nervous system, sensitive entities with which people interact. Objects adapting to our way of life, “prostheses,” extensions to the body. Space is no longer a container but a stage for acting out interrelations between people and the environment. Walls turn into membranes, projecting outwards through a complex system of sensors and absorbing lights, sounds and smells. They lose weight, get lighter and gain a certain quality. Intelligence.