Global - Italcementi Group

Transcript

Global - Italcementi Group
Global
4
Nell’epoca in cui viviamo due
sono le tendenze che si
contrappongono.
Da un lato il desiderio di
superare ogni limite attraverso
uno sviluppo continuo della
conoscenza e dall’altra
l’esigenza di porre un limite e
mantenerne il controllo.
There are two contrasting trends in
the world in which we live.
On one hand, there is a desire to
exceed all limits by constantly
expanding our knowledge and on
the other there is the need to set a
limit and keep it under control.
Uomo fine, o fine dell’uomo?
Man as an End or the End of Man?
di André-Yves Portnoff*
by André-Yves Portnoff*
Sostituire l’uomo al centro della società e dell’economia non è più
un simpatico slogan, ma la condizione per continuare il processo di crescita
e anche per assicurare la sopravvivenza
Replacing man at the center of society and the economy is not longer just
a nice slogan but the key to continuing the process of growth and
guaranteeing our very survival
André-Yves Portnoff
U
na bancarotta
fraudolenta in più,
una nuova ondata di
licenziamenti, una supposta
clonazione umana, una
catastrofe ecologica o
sanitaria, una minaccia di
guerra o di attentati. Che
confusione di fatti! Ci sono
giorni in cui leggere o sentire
notizie di questo genere
ci tocca in modo più acuto,
spingendoci verso uno stato
di cupezza, di angoscia.
Un’impressione ci assale
e si delinea chiara: stiamo
sopravvivendo in un mondo
ostile, sfuggente, che giorno
dopo giorno ci è sempre più
estraneo, dove la nostra
presenza è solo tollerata,
niente di più che tollerata.
Quando veniamo assaliti da
siffatti pensieri, ci lasciamo
catapultare indietro nel tempo
e andiamo a scavare nella
memoria del passato.
Torniamo a sessant’anni fa,
al 1943. Pensiamo alla guerra,
alle sofferenze di centinaia
di milioni di persone, milioni
delle quali trattate peggio
delle bestie, alla negazione
dell’identità di essere umano.
Il campo di concentramento
era caricatura estrema di un
sistema economico che voleva
confinare la maggioranza
degli individui ad automi
intercambiabili. Ma d’altronde,
è stata un’ipotesi di base
dell’economia classica.
Il premio Nobel Gary Becker,
“inventore” del “capitale
umano” (dal titolo di un suo
saggio), non pretende forse
di poter analizzare tutto
ignorando gli intenti degli
attori e gli apporti delle scienze
umane1?
Ci si è quindi sforzati di
programmare l’individuo, nelle
sue posizioni di lavoratore e
consumatore, affinché fosse
compatibile con le macchine
standardizzate di una
economia votata alla
produzione e al consumo
di massa. Negli stabilimenti
tayloriani e stacanovisti,
il modello fordiano pianificava
i gesti dei dipendenti affinché
facessero esattamente quanto
era stato deciso da una
qualche percentuale di
popolazione reputata in grado
di “fare da mente” in materia
di lavoro e organizzazioni.
Nel lavoro a catena, proibita
qualunque iniziativa personale,
l’uomo era tenuto
a dimenticare qualunque
elemento distintivo
di sé per calarsi nel “conio”
dell’impiegato medio ideale.
Tutti fatti con lo stampino.
Non mancavano gli imprevisti,
ma non mancavano
naturalmente neppure
le trasgressioni alle regole,
solo grazie alle quali l’insieme
funzionava sempre e
comunque. Per effetto della
produzione in serie, l’economia
era basata su una manodopera
a basso costo. Era dunque
necessario convincere il
cittadino ad acquistare un
prodotto monotono,
standardizzato. Il mercato,
falsamente sovrano, era
alterato da una offerta
possente contro un
consumatore che non aveva
scelta. Poche offerte alternative
a causa di una concorrenza
ancora limitata e scarsissima
informazione al consumatore.
Una chiara dimostrazione
ci viene dagli studi2
sull’influenza della asimmetria
dell’informazione, che assicura
il dominio dell’offerta
sulla domanda. L’iniziativa
dell’industria americana del
tabacco di allargare l’immenso
mercato del tabacco alle
donne3, incaricando della
campagna “di convincimento”
il genio della pubblicità
Barnays, ci fornisce un esempio
simbolico di questo tipo di
dominio. Una campagna molto
ben “pensata”, che venne
lanciata il giorno consacrato
all’indipendenza l’Independence Day -, in cui
si proponeva alle femministe
di obbligare i maschi
a condividere il privilegio
del tabagismo. Fu così che
le sigarette divennero fiaccole
della libertà, “freedom
torches” e che il cancro
al polmone poté finalmente
superare quello al seno come
causa di mortalità nel sesso
femminile, uccidendo milioni
di donne.
Nell’individuo i fattori
di produzione
Il Fordismo, che molti
continuano a tentare di
perpetrare, è diventato però
controproduttivo e pericoloso
ed è causa delle crisi
a ripetizione che viviamo.
Il vecchio sistema non
funziona più, anzitutto perché
gli uomini lo rigettano avendo
sempre più mezzi per farlo.
Sempre meno i cittadini
accettano un’offerta
standardizzata, concepita
per un consumatore medio
che non esiste.
Il livello di vita, la concorrenza
mondiale indotta dallo
sviluppo delle tecniche
dei trasporti e delle
comunicazioni, consentono
a un consumatore
maggiormente educato
e informato di scegliere
e di criticare governi, istituzioni
e imprese. Questa nuova
possibilità va incontro
all’individualismo e alla
volontà di libero arbitrio che
si affermano in tutti i Paesi
sviluppati e in molti altri4.
Il mercato esige più qualità
e personalizzazione. La gente
vuole scegliere il proprio stile
di vita in funzione delle proprie
differenze, culture e valori.
Questo, insieme
all’informatizzazione della
produzione, rende possibile il
prodotto “a misura di massa”.
In un contesto di concorrenza
generalizzata, per soddisfare
queste aspettative bisogna
concepire, produrre
e distribuire non bene,
ma costantemente meglio.
Innovazione è la parola
d’ordine. La creatività diventa
una risorsa fondamentale del
progresso economico.
Non vi sono mai state tante
conoscenze da mettere
a disposizione dell’innovazione.
Partendo da una risorsa
inesauribile - la creatività
umana - si possono così creare
nuovi mercati per un tempo
illimitato. Una situazione
caratterizzata da grandi spinte,
a condizione di essere capaci
di mobilitare molta creatività.
Ed è proprio là che si colloca
la rottura storica: lo sforzo
fisico può essere un’esigenza
intrinseca della violenza, ma
non della creatività. Questa
si nutre dell’intera esperienza
vissuta, dell’immaginario,
della personalità. Costituisce
una dote interiore, che non
è possibile scindere
dall’individuo e che può essere
distrutta solo quando la si
vuole violare imponendole
dei vincoli. In una società in
costante mutamento, la libertà
e il rispetto della dignità
delle persone sono elementi
necessari per l’efficienza,
obbligando alla continua
rimessa in discussione
e reinvenzione per adattarsi
al nuovo contesto.
Ma la libertà di chi? Di qualche
“manipolatore di simboli”
come dice Robert Reich5?
No, è una questione del tutto
personale. In una
organizzazione si devono
gestire situazioni così
complesse e impreviste che, se
ognuno non è costantemente
pronto a far fronte a eventuali
disfunzioni o a cogliere
opportunità di progresso,
in men che non si dica
l’organizzazione viene
sopraffatta dalla concorrenza.
Diversi studi condotti
di recente nell’America
Settentrionale, in Europa e in
Asia confermano che la qualità
della gestione del personale
ha un impatto determinante
sulle prestazioni economiche,
costituendo altresì un
indicatore attendibile dei
risultati finanziari a due anni.
La sfida che le aziende devono
raccogliere è quindi di passare
da una logica di violenza a una
logica di persuasione
e partnership, coi clienti così
come con il personale.
Questo vale anche tra persone,
équipe, organizzazioni, Paesi.
Non abbiamo mai disposto
di tanta conoscenza, ma
i problemi da risolvere,
le strutture da gestire sono
così complesse che le persone
non possono più avere
l’arroganza di pretendere di
fare tutto da soli. È necessario
convincere a collaborare con
noi coloro che hanno requisiti
complementari ai nostri.
Così adesso, il lavoro che
produce ricchezza non
è più essenzialmente fisico
e si riduce a due componenti,
uno piuttosto intellettuale,
l’altro soprattutto affettivo:
la creazione di soluzioni
e la costruzione di relazioni
umane. Relazioni basate sulla
fiducia tra impresa e fornitori,
clienti, concittadini e altri.
La nostra società dunque,
non è basata sulla conoscenza
come troppo spesso si è detto,
ma sull’identità umana.
5
6
Solo l’uomo ha in sé le due
abilità, creative, predisposte
alle relazioni umane, critiche
nella produzione di valore.
Tutto ciò ricolloca l’individuo
libero al centro, nel cuore
della società. L’uomo diviene
la finalità, il motore del nostro
sistema.
Arriva poi la rivoluzione
numerica che, anche se lascia
qualche ingannevole spiraglio
aperto ai nostalgici
della violenza, rafforza
ulteriormente questa
evoluzione. I computer
avanzano senza tregua
a passi da giganti, prendono
in mano il potere, mettendo
a disposizione di chiunque singola persona, associazione,
piccola impresa - una capacità
di trattamento
dell’informazione che fino
al giorno prima era privilegio
dei colossi. La diffusione
di Internet agevola
l’informazione,
le collaborazioni e le
coalizioni. Emerge un nuovo
potere del consumerismo.
Traggono i vantaggi le
imprese che hanno instaurato
partnership con i fornitori,
Wal-Mart e Dell lo
dimostrano6.
Le organizzazioni civili come
Amnesty International trovano
in ciò un formidabile mezzo
per esercitare della pressione.
Là, dove la televisione, mezzo
di propaganda centralizzata,
diventa proprietà e gestione
dello Stato o del potere
economico, grazie a Internet
i cittadini si coordinano.
Illusioni suicide
Allora è tutto perfetto, tutto
è per il meglio? No di certo.
Disponiamo di tanto
potenziale e ciò che
determina l’avvenire è la
nostra capacità di metterlo in
pratica con discernimento, di
preservarci da egoismi, etiche
perverse
e concetti ingannevoli.
Anche il crimine organizzato,
le potenze economiche o
politiche possono approfittare
dei nuovi mezzi numerici per
tentare di controllare ancor
più la società a tutti i livelli, ciò
che costituisce un naturale
modus operandi per esempio
delle organizzazioni mafiose.
Per le potenze economiche
e gli Stati si tratterà di cedere
a una illusione drammatica: si
risponderebbe di conseguenza
alla complessità della
situazione rendendo più
rigido, in nome dell’ordine,
il controllo del potere centrale.
È un controsenso smentito
dall’esperienza, come
lo proclama Amartya Sen
a proposito delle carestie
e del controllo delle nascite
in Cina7. Tentativi di questo
tipo, attualmente in corso,
porteranno a costosi
insuccessi.
Ma più grave ancora:
il potenziale che la tecnica
mette a nostra disposizione
è talmente vasto, che il
mondo si ritrova ad essere
in possesso di vari mezzi per
giungere dritto al suicidio.
Il mondo è disseminato di basi
nucleari, si evolve nel mancato
rispetto dell’ambiente,
conduce iniziative
sconsiderate a livello
biologico, andando a
intaccare la nostra identità
umana. L’unica difesa è la
libertà d’espressione. Laddove
non si consente a punti di
vista critici, spesso marginali,
di esprimersi, presto o tardi
finiamo con l’assistere a una
Chernobyl.
È evidente in Cina, dove l’Aids
si diffonde talmente
velocemente, che coloro che
provano a diramare uno stato
di allarme sul dramma
e sulla corruzione, all’origine
del fatto, si ritrovano dietro
le sbarre.
Abbiamo infine un altro
pericolo, di natura
concettuale. Nel corso di tre
secoli, la scienza e la tecnica
hanno fatto progressi
spettacolari basandosi su un
ragionamento di tipo
cartesiano binario e relegando
l’uomo, la natura e il mondo a
belle macchine. Adesso siamo
arrivati a uno stadio dove
i problemi da risolvere sono
così complessi, che il pensiero
binario diventa troppo
riduttivo e pericoloso.
Anche il programma
di decodificazione del genoma
umano è sfociato in un mezzo
insuccesso, perché non siamo
dei computer il cui disco fisso
costituirebbe i geni che
programmerebbero le nostre
virtù, difetti e malattie.
Correnti di pensiero scientiste
ma non scientifiche,
abbagliate dalla cosiddetta
intelligenza artificiale, trovano
che l’uomo costituisca
un ostacolo al progresso:
affinché un mondo perfetto
di macchine intelligenti possa
funzionare in modo ideale,
sarebbe bene “perfezionarci”
a forza di protesi o
mutamenti. Si tratta
naturalmente di una illusione
meccanicista, il riaffiorare di
eresie eugeniste che hanno
preceduto il nazismo nelle
nostre democrazie. È ignorare
ciò che è l’uomo8.
La macchina può risolvere
problemi che ci sovrastano,
ma non può porli al nostro
posto. Ciò che ci caratterizza
è la coscienza.
La coscienza è ciò che emerge
dall’interazione di tutte
le molecole che ci
compongono e che non può
ridursi ad alcun organo del
nostro corpo. Solo la coscienza
della nostra umanità e la
volontà di costruire un nuovo
umanismo, per gli uomini e da
parte degli uomini, è in grado
di risparmiarci una catastrofe
ancora più grande, possibile
ma assolutamente ineluttabile.
* André-Yves Portnoff, direttore
dell’Osservatorio della Rivoluzione
dell’Intelligenza a Futuribles, Parigi.
Da vent’anni, le sue ricerche sono
consacrate all’analisi dei fattori
immateriali, alla gestione del
cambiamento e alla valutazione del
capitale globale delle organizzazioni.
Note
1. “Pousser le raisonnement
économique jusqu’au bout” (Spingere il
ragionamento economico fino a
raggiungere l’obiettivo), discussione con
Gary Becker, professore presso
l’Università di Chicago. Antologia di
proposte raccolte da Philippe Simonnot.
Le Monde, 7 giugno 2002.
2. Il premio Nobel per l’economia 2001
è stato attribuito a George A. Akerlof,
Michael A. Spence et Joseph E. Stiglitz
“pour leur travaux sur les marchés avec
asymétrie d’information” (per le ricerche
attinenti i mercati con asimmetria
dell’informazione).
3. André Gorz, L’immatériel, p. 65,
Galilée, Parigi, 2003.
4. I risultati europei dell’European
Values Survey, sondaggio condotto nel
1981, 1990 e 1999, sono stati
pubblicati in due edizioni speciali di
Futuribles, n. 200, luglio-agosto 2000 e
n. 277, luglio-agosto 2002.
5. Robert Reich, The work of nations,
Alfred A. Knopf, Inc. 1991. L’économie
mondialisée, p. 104, Dunod, Parigi
1997.
6. André-Yves Portnoff, “Innovation
conceptuelle”, Futuribles, n. 282,
gennaio 2003.
7. Amartya Sen, Development as
freedom, Alfred A. Knopf, Inc., New
York, 1999. Lo sviluppo è liberta. Perché
non c’è crescita senza democrazia,
Mondadori, Milano, 2000. Cfr. anche
arcVision n. 8, 2002.
8. Jean-Claude Guillebaud, Le principe
d’humanité, Seuil, 2001.
Y
et another fraudulent
bankruptcy, a new
wave of lay-offs, an
alleged case of actual human
cloning, an environmental
or health disaster, the threat of
war or bomb attacks. What a
hectic state of affairs! There
are days when reading or
hearing news like this has
a more poignant effect on us,
making us feel rather gloomy
and concerned. A certain
feeling comes over us and
then it suddenly becomes
clear: we are surviving in a
hostile, unfathomable world
that seems to be getting
stranger as each day passes by
and that seems more than
anything to put up with
us and nothing more. When
thoughts like this come over
us, we let us ourselves be
projected back in time and
delve back into the past. We
go back sixty years to 1943.
We think about the war and
how much suffering it caused
hundreds of millions of
people, millions of whom were
treated worse than animals,
denied even their status as
human beings.
The concentration camp was
a caricature pushed to the
extreme of an economic
system that wanted to reduce
most people to mere
interchangeable automata. But
after all this was in fact
a fundamental premise of
classical economics. Is not
the Noble Prize winner
Gary Becker, the “inventor”
of “human capital” (as the title
of his book says), trying to
analyze everything whilst
ignoring the intentions of the
people involved and the
contributions of the human
sciences?1
Efforts were made to program
individuals in their roles as
workers and consumers to
make them compatible with
the standardized machinery
of an economy based on mass
production and consumption.
Taylor or Stakhanov-style
factories run along the old
Ford guidelines planned
workers’ movements so that
they did exactly what had
been decided by some small
percentage of the population
reputedly capable of “acting
as the brains behind” work
and organizations.
In the assembly-line labor with
all personal initiative outlawed,
men were compelled to forget
any distinctive features
in themselves to fall into the
“role” of the ideal average
worker. All cut from the same
ilk. There was no lack of
surprises and, of course, no
lack of rule-breaking, thanks
to which the whole thing kept
on going in the very same
way.
Mass production meant
the economy was based
on low-cost labor. People had
to be persuaded to buy boring
mass-produced goods.
The market (wrongly treated
as sovereign) was altered
by the effects of supply that
dictated demand (consumers
had no choice). Limited
choices due to a lack of
competition and very little
consumer information.
Clear proof comes from the
studies2 on the influence of
information asymmetries
ensuring that supply controls
demand.
The American tobacco
industry’s plans to extend
the huge tobacco market to
include women3 by
commissioning the advertising
geniuses Barnays to devise
a “persuasion” campaign
provides a symbolic example
of this kind of control.
A carefully “thought out”
7
8
campaign launched on
Independence Day, suggesting
that feminists ought to force
men to share the privilege of
smoking tobacco. So cigarettes
were turned into “freedom
torches” and lung cancer
finally overtook breast cancer
as the main cause of female
death, killing millions
of women.
Individual-oriented
production
The Ford model, that many
people still try to promote,
has turned out to be counterproductive and dangerous,
causing all the repeated crisis
periods we keep on
experiencing. The old system
no longer works, mainly
because people reject it and
increasingly have the means
to do so. They are no longer
interested in standardized
goods designed for the
average consumer, who does
not really exist. The general
standard of living, worldwide
competition due to the
development of transport and
communication techniques
allow better educated and
informed consumers to choose
and criticize governments,
institutions and businesses.
This favors the kind
of individualism and desire
for free will that characterize
all developed countries and
plenty of others4. The market
needs more quality and
personalization. People want
to choose their life style in
relation to their own peculiar
qualities, cultures and values.
Thanks partly to the
computerization of
production, goods “for the
masses” are now possible.
In a scenario of widespread
competition, meeting these
needs means that design,
production and distribution
must be carried out better,
not just well. Innovation is the
magic word. Creativity is now
a fundamental resource for
economic progress. People
have never had so much
information to put at disposal
of innovation. Starting with
a resource that never runs
out - human creativity new markets are created for
an unlimited length of time.
A situation in which there
is certainly no lack of drive,
provided the right kind of
creativity is brought into play.
And this is where there
is a sort of historical rupture:
physical effort might be
an intrinsic part of violence
but not of creativity, which
feeds off the whole of human
experience, imagination and
personality. It is a gift that
comes from deep inside
and cannot be detached from
the individual and can only be
destroyed when it is violated
by restrictions and constraints.
In a society that is constantly
changing, freedom and
respect for human dignity are
essential for efficiency, forcing
everything to be called into
question and reinvented to
adapt to this new context.
But whose freedom are we
talking about? Some “symbol
manipulator” as Robert Reich
puts it5? Non, it is an entirely
personal matter. The situations
that need handling
in an organization are so
complicated and unexpected
that, unless everybody is
constantly ready to deal with
any dysfunctions there might
be or grasp progress
opportunities as they arise,
then in no time the
organization will be
overwhelmed by competition.
Various studies carried out
recently in North America,
Europe and Asia confirm that
the quality of personnel
management has a decisive
impact on economic
performance, providing a
reliable indicator of financial
results over a two-year period.
The challenge facing firms
is to succeed in moving
on from an aggressive line
of thinking to a more
persuasive approach based
on partnership with customers
and staff. This applies to
people, teams, organizations
and countries. We have never
had so much information at
our disposal, but the problems
to solve, the structures to run
are so complex that people
must not presume to be able
to do everything alone. We
need to persuade people with
complementary competences
to co-operate with us.
Nowadays, the kind of work
that creates wealth is not
fundamentally physical and
is confined to two basic
components, one intellectual
and the other emotional: the
devising of solutions and the
construction of human
relations. Relations based
on trust between a company
and its suppliers, customers,
the local community etc. This
means, contrary to popular
belief, our society is not based
on knowledge but rather
human identity. Only human
beings have these two talents,
creative, disposed to human
relations and critical in the
generation of value. All this
places free human beings at
the center or heart of society.
People become an end; the
engine driving our system.
Then there is the numerical
revolution which, while leaving
the odd deceptive window
of opportunity open to those
who miss the violence, merely
helps along this trend.
Compute technology
is proceeding in leaps and
bounds, empowering people
and providing anybody individuals, associations and
small businesses - with the
chance to handle the kind
of information that was
previously only available to the
privileged few. The spread
of Internet has made it easier
to obtain information,
co-operate and work together.
A new form of consumer
power has emerged. Firms like
Wal-Mart and Dell, which have
set up business relations with
suppliers, are eloquent proof6.
Civil organizations like
Amnesty International have
found a wonderful means
of exerting pressure. Whereas
television, a centralized means
of propaganda, is owned and
run by the State or economic
power, the Internet lets
ordinary people work together.
Suicidal Illusions
So does this mean everything
is perfect, the best it could
ever be? Of course not.
We have plenty of potential
at our disposal and our future
depends on how we make
discerning use of it, making
sure we are not too selfish,
ethically perverse or taken in
by misleading ideas. Organized
crime and economic/political
powers could take advantage
of the latest technology to
gain even greater control over
society at all levels. Of course,
this is the most natural way
of operating for Mafia
organizations. Economic
powers and governments will
have to give in to a dramatic
illusion: the complexity of the
situation could be dealt with
by imposing even tighter state
control in the name of law
and order. This contradictory
state of affairs is actually
refuted by experience, as
Amartya Sen pointed out in
relation to famines and birth
control in China7. Initiatives like
some of those already under
way are bound to lead
to expensive failures.
But worse still: the potential
we now have thanks to new
technology is so vast that the
world finds itself with various
means of suicide at its
disposal. The world is full of
nuclear bases and is evolving
without paying due heed to
the environment; it is involved
in reckless undertakings
on a biological level and
is even threatening our very
own human identity. The only
defense is freedom of speech.
Where critical viewpoints,
however marginal, are
silenced, sooner or later
we will end up with another
Chernobyl. This can be seen
in China, where AIDS is
spreading so fast that anyone
daring to set the alarm bells
ringing or pointing to the
corruption at the roots of this
dramatic state of affairs soon
finds themselves behind bars.
Finally, there is another
danger of a conceptual
nature.
Over three centuries, science
and technology have made
spectacular progress based
on binary-style Cartesian
reasoning, reducing people,
nature and the world in
general to the status of fancy
machines. We have now
reached the point where the
problems to be solved are
so complicated that binary
thinking is too reductive and
dangerous. Even the program
for decoding the human
genome has turned out to be
a half-failure, because we are
not computers whose hard
disks are genes programming
our virtues, faults and
illnesses. These are
scientological not scientific
lines of thought, blinded by
so-called artificial intelligence
that treats man like an obstacle
to progress: if a perfect world
of intelligent machines is to
work in an ideal way, it would
be advisable to “perfect
ourselves” through prostheses
and mutations. Needless
to say, this is a mechanistic
fallacy, a re-emerging of the
kind of eugenics-style heresies
that eventually led to Nazism
in our democracies. It means
ignoring what people are8.
Machines can solve some
of the problems afflicting us,
but they cannot pose them
in our stead. Consciousness
is our distinctive feature.
Consciousness is what
emerges from the interaction
of all our constituent
molecules and cannot
be reduced to any one organ
in our bodies. Only an
awareness of our humanity
and a desire to construct
a new form of humanism,
for people and by people,
will save us from an even
greater potential catastrophe.
* André-Yves Portnoff is director of the
Watchtower on the Revolution of
Intelligence at Futuribles, Paris. For the
last twenty years he has been
researching into immaterial factors, the
management of change and assessment
of the global capital of organizations.
Notes
1. “Pousser le raisonnement
économique jusqu’au bout” (Pushing
economic reasoning to its extreme),
discussion with Gary Becker, a professor
of the Chicago University. An Anthology
of proposals drawn up by Philippe
Simonnot. Le Monde, 7th June 2002.
2. The 2001 Nobel Prize for Economics
was awarded to George A. Akerlof,
Michael A. Spence and Joseph E. Stiglitz
“pour leur travaux sur les marchés avec
asymétrie d’information” (for research
into markets with information
asymmetries).
3. André Gorz, L’immatériel, pg. 65,
Galilée, Paris, 2003.
4. The European results of the European
Values Survey, a survey carried out in
1981, 1990 and 1999, were published
in two special editions of Futuribles, n.
200, July-August 2000 and n. 277, JulyAugust 2002.
5. Robert Reich, The work of nations,
Alfred A. Knopf, Inc. 1991. L’économie
mondialisée, pg. 104, Dunod, Paris
1997.
6. André-Yves Portnoff, “Innovation
conceptuelle”, Futuribles, n. 282,
January 2003.
7. Amartya Sen, Development as
freedom, Alfred A. Knopf, Inc. New
York, 1999. Lo sviluppo è liberta. Perché
non c’è crescita senza democrazia,
Mondadori, Milan, 2000. Cf. also
arcVision n. 8, 2002.
8. Jean-Claude Guillebaud, Le principe
d’humanité, Seuil, 2001.
9
Nella mente del computer
In a Computer’s Mind
di Diego Marconi*
by Diego Marconi*
Ancora oggi nessuno può dire di sapere quali siano i veri limiti invalicabili
dell’intelligenza artificiale
Even today nobody can claim to know whether artificial intelligence
has insuperable limits
10
Diego Marconi
L’
intelligenza artificiale
è il programma di ricerca
tecnologica che
si propone di realizzare
programmi di computer
capaci di prestazioni
paragonabili a quelle della
mente umana, cioè di emulare
i processi cognitivi umani.
Certo, i computer sono
da tempo capaci di processi
cognitivi come il calcolo
aritmetico, il ragionamento
logico o il gioco degli scacchi:
tutte cose in cui, anzi, sono
molto più bravi e più veloci di
noi. Ma qui si parla di attività
più complesse, dalla
comprensione del linguaggio
alla traduzione da una lingua
a un’altra, dalla diagnosi
medica al riconoscimento
di oggetti. Attività che,
da un lato, assomigliano poco
a un calcolo, almeno a prima
vista; e, dall’altro, sembrano
caratteristicamente
e irriducibilmente umane,
nel senso che, se una
macchina ne fosse davvero
capace, saremmo inclini
a trattarla come una di noi.
All’inizio degli anni ‘70 del
secolo scorso, l’intelligenza
artificiale aveva colto alcuni
indubbi successi: erano stati
progettati sistemi esperti che
sembravano capaci di buone
prestazioni in campi come
la prospezione mineraria,
l’analisi chimica e la diagnosi
medica; altri sistemi
sembravano comprendere
abbastanza bene l’inglese,
sia pure entro limiti piuttosto
ristretti (conoscevano
relativamente poche parole,
capivano poche frasi).
Ma alcuni filosofi erano
scettici. Hubert Dreyfus,
ad esempio, pensava
che l’intelligenza artificiale
non faceva che riprodurre
il vecchio sogno razionalista
di ridurre il funzionamento
della mente all’elaborazione
di rappresentazioni secondo
regole, e sarebbe fallita
- come era fallito
il razionalismo - perché
la mente non funziona così.
John Searle rincarava la dose,
sostenendo che anche
le prestazioni di cui i computer
erano capaci non erano
davvero intelligenti, perché le
macchine, al contrario di noi,
non sapevano quel che
facevano: i simboli che
elaboravano non avevano, per
i computer, alcun significato
(ne avevano, invece,
per i programmatori umani
che “dicevano” alle macchine
che cosa fare). Di fatto,
all’inizio degli anni ‘80
l’intelligenza artificiale entrò
in quella che venne percepita
come una fase di stallo.
I progressi sembravano lenti
e poco significativi; ci si rese
conto che, per realizzare
programmi intelligenti, si
sarebbe dovuto saperne molto
di più sulla nostra intelligenza,
e forse anche sulla sua base
materiale, la neurofisiologia
del cervello. Nell’attesa, le
ambizioni si ridimensionarono,
e con loro anche
i finanziamenti. Non si parlò
(quasi) più di mente artificiale;
ci si accontentò, nel più dei
casi, di applicare le tecniche
dell’intelligenza artificiale accanto ad altre - alla
risoluzione di certi problemi
limitati e pratici, come per
esempio il reperimento
di informazioni su Internet,
o di sviluppare, a un alto
livello di astrazione, algoritmi
e architetture che avrebbero
potuto rivelarsi utili nella
progettazione di sistemi più
“intelligenti”. La “rivoluzione
connessionista” della fine
del secolo non cambiò
qualitativamente la situazione:
le reti neurali facevano alcune
cose meglio dei sistemi
tradizionali, altre peggio,
altre per niente affatto,
ma comunque non fornivano,
almeno immediatamente,
la soluzione delle difficoltà
di fondo dell’intelligenza
artificiale.
Su un piano di principio,
tuttavia, nulla era deciso.
A tutt’oggi, non possiamo
veramente dire di sapere
quali sono i limiti invalicabili
dell’intelligenza artificiale
(se ci sono). Nessuno ha
dimostrato che un computer
non potrà mai, ad esempio,
riconoscere un volto o mettere
ordine in una stanza.
I limiti accertati, indiscutibili,
dei computer sono altri,
e riguardano, più che le
macchine, i calcoli che esse
elaborano: e dunque
riguardano anche noi, perché
quel che le macchine proprio
non sanno fare, non lo
sappiamo fare nemmeno noi.
Questi “veri” limiti sono
descritti con grande
competenza ed efficacia
nel recente Computer
a responsabilità limitata
di David Harel (Einaudi 2002).
Prendete il sogno di ogni
programmatore:
un programma che prende
in input altri programmi
(o meglio, le loro descrizioni) e
risponde “Sì” se il programma
in input fornisce una
soluzione corretta per tutti
gli input ammissibili,
e “No” se per qualche input
o non termina, o fornisce una
soluzione scorretta. Orbene,
il sogno è irrealizzabile:
è dimostrato che il problema
del controllo dei programmi
è indecidibile, cioè che non
esiste un algoritmo - un
procedimento meccanico che lo risolve. I problemi
indecidibili sono molti. Alcuni
di essi sono equivalenti tra
loro: se sapessimo risolverne
uno (se avessimo un oracolo
che lo risolve) sapremmo
risolvere anche gli altri. Altri
invece sono così indecidibili
che non sapremmo risolverli
nemmeno se disponessimo
di una gerarchia infinita
di oracoli.
Considerate ora il problema apparentemente banale - di
fare l’orario di una scuola,
cioè di distribuire professori e
studenti nelle aule disponibili,
dati certi vincoli. Questo
problema è decidibile. Ma gli
algoritmi che lo risolvono
sono lenti, perché, al crescere
della complessità dell’input,
il tempo di esecuzione cresce
in maniera esponenziale (cioè
se N è la lunghezza dell’input,
il tempo di esecuzione è mN).
Dunque “lenti” vuol dire
molto lenti: certi algoritmi
esponenziali, dato un input
di 100 caratteri, forniscono
la risposta dopo un numero
di secoli di 185 cifre. Per farsi
un’idea di quanto tempo è,
si pensi che il numero di secoli
da cui esiste l’Universo
è di 9 cifre. Di certo il Preside
non potrebbe permettersi
di aspettare così a lungo che
l’orario sia pronto.
I problemi che sono decidibili
soltanto da algoritmi di
questo genere si chiamano
“intrattabili”. In realtà, noi
non sappiamo veramente se,
ad esempio, il problema
dell’orario scolastico sia
intrattabile; quello che
sappiamo è che il problema è
decidibile, e che però tutti gli
algoritmi di risoluzione a noi
noti sono inaccettabilmente
lenti. E sappiamo anche che,
se ci fosse un algoritmo
“ragionevole” che risolve
questo particolare problema,
ci sarebbero algoritmi
ragionevoli per tutti gli altri
problemi analoghi. Ma non
sappiamo se questi algoritmi
ci siano (anche se la maggior
parte dei matematici pensa di
no). Questo problema è una
delle più affascinanti questioni
aperte della matematica
attuale.
La nostra cultura è abituata
a pensare che, se un problema
è sensato, debba essere
risolubile. Ma i problemi di cui
abbiamo parlato non hanno,
almeno a prima vista, nulla
di insensato: non implicano
contraddizioni né mettono
in gioco capacità infinite.
Eppure, alcuni di essi sono
assolutamente insolubili,
mentre altri sono
(probabilmente) insolubili
nell’ambito del nostro
Universo, quindi da noi e da
tutti gli esseri vagamente
affini a noi. Forse, dunque,
dobbiamo riesaminare alcuni
aspetti centrali del nostro
modo di pensare.
* Diego Marconi insegna logica
e filosofia del linguaggio all’Università
degli Studi del Piemonte Orientale
e si occupa, in particolare, del pensiero
di Wittgenstein, di teoria semantica
e di filosofia della scienza cognitiva.
Tra le pubblicazioni recenti più
importanti: Lexical Competence (MIT
Press 1997), Wittgenstein (Laterza
1997), La philosophie du langage au
XXème siècle (L’éclat 1997), Filosofia
e scienza cognitiva (Laterza 2001).
A
rtificial intelligence is a
technological research
program aimed at
creating computer programs
capable of performing in
comparable ways to the
human mind or, in other
words, of emulating human
cognitive processes. Of course
for some time now computers
have been able to perform
cognitive processes like
arithmetic computation,
logical reasoning or playing
chess: all things at which they
perform better and faster
than us. But here we are
talking about more
complicated matters, such as
understanding language,
translating from one language
to another, carrying out
medical diagnoses and
recognizing objects. Activities
which, on one hand, do not
at least initially seem like
computations; on the
contrary, they actually appear
to be irreducibly human
characteristics in the sense
that, if a machine were really
capable of doing them, we
would tend to treat it like one
of us.
In the early 1970s, artificial
intelligence certainly achieved
some notable successes:
expert systems were designed
that seemed to be capable of
performing well in fields like
mineral prospecting, chemical
analysis and medical
diagnosis; other systems
seemed to understand English
fairly well, although within
rather confined limits (they
only knew a few words and
understood a few sentences).
But a number of philosophers
were skeptical. Hubert
Dreyfus, for instance, believed
that artificial intelligence was
merely the old rationalist
dream of reducing the
workings of the human mind
to just elaborating
representations based on rules
and was therefore destined to
fail - just as rationalism had
failed - because that is not
how the mind works. John
Searle went even further and
claimed that computers were
not even carrying out
intelligent actions, because
machines, unlike us, do not
know what they are doing:
the symbols they manipulate
are meaningless (whereas
they are meaningful to the
human programmers “telling”
the machines what to do).
In contrast, artificial
intelligence seemed to grind
to a halt in the early 1980s.
Progress seemed slow and
rather insignificant; it was
11
Più futuro, ma saremo più felici?
Further into the Future, but Will We be Happier?
di Edoardo Boncinelli*
by Edoardo Boncinelli*
Genetica e bioingegneria potranno farci vivere di più e meglio. Ne saremo contenti?
Genetics and bioengineering will help us live longer and better. But will that makes us any happier?
12
realized that we needed to
know a lot more about our
own intelligence if we were to
design intelligent programs,
and perhaps also about its
material basis, the
neurophysiology of the brain.
In the meantime, everything
was scaled down, including
financial backing. There was
(almost) no more talk of
artificial minds; more often
than not, methods of artificial
intelligence - along with
others - were applied to solve
certain restricted, practical
problems, such as, for
instance, finding information
on the Internet or developing
algorithms or works of
architecture on an abstract
level, that might turn out to
be useful in designing more
“intelligent” systems. The
“connectionist revolution” at
the end of the 20th century
made no qualitative
difference to the situation:
neural networks did some
things better than traditional
systems, others worse, while
yet others were completely
beyond its capabilities, but in
any case they did not provide
an immediate solution to the
fundamental problems of
artificial intelligence.
Nevertheless, in principle,
nothing had really been
proven. Even today, we
cannot really claim to know
where the ultimate limits of
artificial intelligence lie (if
there are any). Nobody has
managed to show that
computers will never be able,
for instance, to recognize a
face or tidy a room. The real,
ascertained limits of
computers lie elsewhere and
are less related to the
machines themselves than to
the computations they carry
out: which means they also
apply to us because what
these machines cannot do, we
cannot do either. These
“genuine” limits are described
with great skill and know-how
by David Harel in his recent
book entitled “Computers Ltd.:
What They Really Can’t
Do”(Oxford University Press,
2000).
Take every programmer’s
dream: a program that takes
other programs (or rather
descriptions of them) as its
input and replies “Yes” if the
program being entered
provides the right answer for
all the input allowed and “No”
if it does not end or gives a
wrong answer for some input
or other. Well this is actually a
pipe dream: it has been
proved that the problem of
controlling programs is
undecidable, i.e. there is no
algorithm - mechanical
procedure - for answering it.
There are plenty of
undecidable problems. Some
of them are mutually
equivalent: if we knew how to
answer one (if there was an
oracle to provide the answer),
we would be able to answer
all the rest. Others, in
contrast, are so undecidable
that we could not answer
them even if we had an
infinite hierarchy of oracles.
Now take an - apparently
simple - problem like
arranging a school timetable,
viz. distributing the teachers
and pupils through the
available classrooms, given
certain constraints. This is a
decidable problem. But the
algorithms for solving it are
slow, because, as the input
gets more complicated, the
time for carrying them out
increases exponentially
(i.e. if N is the length of the
input, mN is the computation
time). So “slow” means very
slow: certain exponential
algorithms with an input of
100 characters give the
answer after a 185 figure
number of centuries. To get
an idea of how long that is,
bear in mind that the Universe
has existed for a 9 figure
number of centuries. The
headmaster certainly could
not wait that long for his
timetable to be ready.
Problems that can only be
decidable using algorithms
like this are called
“intractable.” In actual fact we
do not really know whether,
for example, the timetable
problem is intractable; what
we do know is that it is a
decidable problem and that
the algorithms we have for
solving it are unacceptably
slow. And we also know that,
if there were a “reasonable”
algorithm for handling this
particular problem, there
would be reasonable
algorithms for dealing with all
other similar problems.
But we do not know whether
these algorithms actually exist
(although most
mathematicians believe they
do not). This is one of the
most intriguing open issues
in modern-day mathematics.
Our culture assumes that if a
problem makes sense, it must
be solvable. But the problems
we have looked at certainly
are not meaningless, at least
at first sight: they do not
involve any contradictions
or call for infinite capabilities.
Yet some of them are
absolutely unsolvable, while
other are (most likely)
unsolvable in our Universe,
i.e. by us or other beings like
us. Perhaps this means we
ought to take a closer look at
certain key aspects of our way
of thinking.
* Diego Marconi teaches logic and
philosophy of language at Piemonte
Orientale University and is an expert
on Wittgenstein, semantic theory and
philosophy of cognitive science. His
most important publications include:
Lexical Competence (MIT Press 1997),
Wittgenstein (Laterza 1997), La
philosophie du langage au XXème
siècle (L’éclat 1997), Filosofia e scienza
cognitiva (Laterza 2001).
Edoardo Boncinelli
L’
uomo è un animale
molto particolare, con
alle spalle una storia
biologica di qualche milione di
anni e una storia culturale di
qualche migliaio. Dal punto di
vista biologico può
certamente evolvere, ma
molto lentamente; basti
pensare che nel suo DNA è
successo ben poco negli ultimi
200 mila anni. La sua
costituzione gli permette,
però, di comunicare con i suoi
simili, anche a distanza, e ciò
ha dato inizio a un processo
assolutamente nuovo nel
regno animale, se non
nell’intero universo:
un’evoluzione culturale. Così
anche se a livello individuale
ben poco è cambiato, lo
sforzo collettivo sottostante a
questo tipo di evoluzione ha
permesso l’enorme
avanzamento culturale e
tecnologico del quale siamo
tutti testimoni.
Non è probabilmente un futile
esercizio quello di cercare di
immaginarci che cosa
potremo e che cosa non
potremo fare nel prossimo
futuro, per esempio per il
nostro corpo. Questi risultati
saranno a loro volta
raggiungibili per via
puramente biologica o
attraverso la massiccia
utilizzazione di
microtecnologie elettroniche.
Sono convinto che
dall’impianto di microcircuiti e
chip verranno incredibili
avanzamenti che saranno
complementari rispetto a
quelli raggiungibili per via
puramente biologica. La mia
convinzione è basata sulla
constatazione dell’incredibile
accelerazione che hanno
subito e stanno subendo gli
studi di bioingegneria e
protesi elettroniche, ma
soprattutto dalla
considerazione, di sapore
vagamente vichiano, che le
macchine possono essere
molto meglio conosciute del
nostro corpo in quanto quelle
le facciamo noi, mentre il
corpo ce lo siamo trovato
fatto.
Ma veniamo alle opportunità
offerte dalla biologia avanzata
e dalla biomedicina.
Conosciamo la causa di un
numero altissimo di malattie
ereditarie monofattoriali, cioè
causate dalla disfunzione di
un singolo gene. Questa
conoscenza, che risale a non
più di venti anni, ci permette
una diagnosi sicura e
differenziale, nelle fasi precoci
della vita o anche in utero.
Non altrettanto avanzati sono
il trattamento e la terapia di
tali disturbi, ma non c’è
dubbio che la maggior parte
dei portatori di questi difetti
conducono oggi una vita
incomparabilmente migliore di
quella degli individui della
generazione precedente.
Stiamo appena cominciando
ad indagare le cause delle
malattie, ereditarie e non,
aventi una base
multifattoriale, dipendenti
cioè dalla incerta funzione o
dall’aperta disfunzione di
molti o moltissimi geni.
Questo sarà il traguardo più
importante del prossimo
futuro, poiché in questo
capitolo si vengono a trovare
patologie diffusissime come il
diabete, l’ipertensione, il
ritardo mentale, una grande
varietà di disturbi psichici e
soprattutto i tumori. Con
l’allungamento progressivo
della vita e la scomparsa di
altre entità patologiche, i
tumori e il complesso delle
malattie degenerative tipiche
dell’età avanzata saranno i
principali nemici biologici della
nostra esistenza. Connesso
con questo tipo di patologie
abbiamo il capitolo
fondamentale delle
predisposizioni. Per esempio,
essere predisposti,
all’ipertensione o al tumore
dell’ovaio non significa essere
condannati a sviluppare
queste patologie. Chi era
predisposto può non averle
sviluppate, mentre chi non lo
era sì, ma sui grandi numeri la
predisposizione ha una certa
rilevanza e sapere di essere
predisposti è un utile
avvertimento. Non c’è
nessuno che non sia
predisposto a qualche cosa e
saperlo è meglio di non
saperlo. Parallelamente alla
diagnosi e alla prevenzione, le
moderne tecniche ci
offriranno la possibilità di
usufruire di tessuti, parti di
organo e organi di ricambio
per poter effettuare impianti e
trapianti per le evenienze più
diverse e farmaci sempre più
efficienti e mirati, capaci cioè
di suscitare un numero
13
Più futuro, ma saremo più felici?
Further into the Future, but Will We be Happier?
di Edoardo Boncinelli*
by Edoardo Boncinelli*
Genetica e bioingegneria potranno farci vivere di più e meglio. Ne saremo contenti?
Genetics and bioengineering will help us live longer and better. But will that makes us any happier?
12
realized that we needed to
know a lot more about our
own intelligence if we were to
design intelligent programs,
and perhaps also about its
material basis, the
neurophysiology of the brain.
In the meantime, everything
was scaled down, including
financial backing. There was
(almost) no more talk of
artificial minds; more often
than not, methods of artificial
intelligence - along with
others - were applied to solve
certain restricted, practical
problems, such as, for
instance, finding information
on the Internet or developing
algorithms or works of
architecture on an abstract
level, that might turn out to
be useful in designing more
“intelligent” systems. The
“connectionist revolution” at
the end of the 20th century
made no qualitative
difference to the situation:
neural networks did some
things better than traditional
systems, others worse, while
yet others were completely
beyond its capabilities, but in
any case they did not provide
an immediate solution to the
fundamental problems of
artificial intelligence.
Nevertheless, in principle,
nothing had really been
proven. Even today, we
cannot really claim to know
where the ultimate limits of
artificial intelligence lie (if
there are any). Nobody has
managed to show that
computers will never be able,
for instance, to recognize a
face or tidy a room. The real,
ascertained limits of
computers lie elsewhere and
are less related to the
machines themselves than to
the computations they carry
out: which means they also
apply to us because what
these machines cannot do, we
cannot do either. These
“genuine” limits are described
with great skill and know-how
by David Harel in his recent
book entitled “Computers Ltd.:
What They Really Can’t
Do”(Oxford University Press,
2000).
Take every programmer’s
dream: a program that takes
other programs (or rather
descriptions of them) as its
input and replies “Yes” if the
program being entered
provides the right answer for
all the input allowed and “No”
if it does not end or gives a
wrong answer for some input
or other. Well this is actually a
pipe dream: it has been
proved that the problem of
controlling programs is
undecidable, i.e. there is no
algorithm - mechanical
procedure - for answering it.
There are plenty of
undecidable problems. Some
of them are mutually
equivalent: if we knew how to
answer one (if there was an
oracle to provide the answer),
we would be able to answer
all the rest. Others, in
contrast, are so undecidable
that we could not answer
them even if we had an
infinite hierarchy of oracles.
Now take an - apparently
simple - problem like
arranging a school timetable,
viz. distributing the teachers
and pupils through the
available classrooms, given
certain constraints. This is a
decidable problem. But the
algorithms for solving it are
slow, because, as the input
gets more complicated, the
time for carrying them out
increases exponentially
(i.e. if N is the length of the
input, mN is the computation
time). So “slow” means very
slow: certain exponential
algorithms with an input of
100 characters give the
answer after a 185 figure
number of centuries. To get
an idea of how long that is,
bear in mind that the Universe
has existed for a 9 figure
number of centuries. The
headmaster certainly could
not wait that long for his
timetable to be ready.
Problems that can only be
decidable using algorithms
like this are called
“intractable.” In actual fact we
do not really know whether,
for example, the timetable
problem is intractable; what
we do know is that it is a
decidable problem and that
the algorithms we have for
solving it are unacceptably
slow. And we also know that,
if there were a “reasonable”
algorithm for handling this
particular problem, there
would be reasonable
algorithms for dealing with all
other similar problems.
But we do not know whether
these algorithms actually exist
(although most
mathematicians believe they
do not). This is one of the
most intriguing open issues
in modern-day mathematics.
Our culture assumes that if a
problem makes sense, it must
be solvable. But the problems
we have looked at certainly
are not meaningless, at least
at first sight: they do not
involve any contradictions
or call for infinite capabilities.
Yet some of them are
absolutely unsolvable, while
other are (most likely)
unsolvable in our Universe,
i.e. by us or other beings like
us. Perhaps this means we
ought to take a closer look at
certain key aspects of our way
of thinking.
* Diego Marconi teaches logic and
philosophy of language at Piemonte
Orientale University and is an expert
on Wittgenstein, semantic theory and
philosophy of cognitive science. His
most important publications include:
Lexical Competence (MIT Press 1997),
Wittgenstein (Laterza 1997), La
philosophie du langage au XXème
siècle (L’éclat 1997), Filosofia e scienza
cognitiva (Laterza 2001).
Edoardo Boncinelli
L’
uomo è un animale
molto particolare, con
alle spalle una storia
biologica di qualche milione di
anni e una storia culturale di
qualche migliaio. Dal punto di
vista biologico può
certamente evolvere, ma
molto lentamente; basti
pensare che nel suo DNA è
successo ben poco negli ultimi
200 mila anni. La sua
costituzione gli permette,
però, di comunicare con i suoi
simili, anche a distanza, e ciò
ha dato inizio a un processo
assolutamente nuovo nel
regno animale, se non
nell’intero universo:
un’evoluzione culturale. Così
anche se a livello individuale
ben poco è cambiato, lo
sforzo collettivo sottostante a
questo tipo di evoluzione ha
permesso l’enorme
avanzamento culturale e
tecnologico del quale siamo
tutti testimoni.
Non è probabilmente un futile
esercizio quello di cercare di
immaginarci che cosa
potremo e che cosa non
potremo fare nel prossimo
futuro, per esempio per il
nostro corpo. Questi risultati
saranno a loro volta
raggiungibili per via
puramente biologica o
attraverso la massiccia
utilizzazione di
microtecnologie elettroniche.
Sono convinto che
dall’impianto di microcircuiti e
chip verranno incredibili
avanzamenti che saranno
complementari rispetto a
quelli raggiungibili per via
puramente biologica. La mia
convinzione è basata sulla
constatazione dell’incredibile
accelerazione che hanno
subito e stanno subendo gli
studi di bioingegneria e
protesi elettroniche, ma
soprattutto dalla
considerazione, di sapore
vagamente vichiano, che le
macchine possono essere
molto meglio conosciute del
nostro corpo in quanto quelle
le facciamo noi, mentre il
corpo ce lo siamo trovato
fatto.
Ma veniamo alle opportunità
offerte dalla biologia avanzata
e dalla biomedicina.
Conosciamo la causa di un
numero altissimo di malattie
ereditarie monofattoriali, cioè
causate dalla disfunzione di
un singolo gene. Questa
conoscenza, che risale a non
più di venti anni, ci permette
una diagnosi sicura e
differenziale, nelle fasi precoci
della vita o anche in utero.
Non altrettanto avanzati sono
il trattamento e la terapia di
tali disturbi, ma non c’è
dubbio che la maggior parte
dei portatori di questi difetti
conducono oggi una vita
incomparabilmente migliore di
quella degli individui della
generazione precedente.
Stiamo appena cominciando
ad indagare le cause delle
malattie, ereditarie e non,
aventi una base
multifattoriale, dipendenti
cioè dalla incerta funzione o
dall’aperta disfunzione di
molti o moltissimi geni.
Questo sarà il traguardo più
importante del prossimo
futuro, poiché in questo
capitolo si vengono a trovare
patologie diffusissime come il
diabete, l’ipertensione, il
ritardo mentale, una grande
varietà di disturbi psichici e
soprattutto i tumori. Con
l’allungamento progressivo
della vita e la scomparsa di
altre entità patologiche, i
tumori e il complesso delle
malattie degenerative tipiche
dell’età avanzata saranno i
principali nemici biologici della
nostra esistenza. Connesso
con questo tipo di patologie
abbiamo il capitolo
fondamentale delle
predisposizioni. Per esempio,
essere predisposti,
all’ipertensione o al tumore
dell’ovaio non significa essere
condannati a sviluppare
queste patologie. Chi era
predisposto può non averle
sviluppate, mentre chi non lo
era sì, ma sui grandi numeri la
predisposizione ha una certa
rilevanza e sapere di essere
predisposti è un utile
avvertimento. Non c’è
nessuno che non sia
predisposto a qualche cosa e
saperlo è meglio di non
saperlo. Parallelamente alla
diagnosi e alla prevenzione, le
moderne tecniche ci
offriranno la possibilità di
usufruire di tessuti, parti di
organo e organi di ricambio
per poter effettuare impianti e
trapianti per le evenienze più
diverse e farmaci sempre più
efficienti e mirati, capaci cioè
di suscitare un numero
13
M
14
sempre più ridotto di effetti
secondari.
Non è inoltre inconcepibile
che la nostra vita si possa
allungare ancora un po’,
anche se non di molto. Una
medicina più avanzata e una
conoscenza più approfondita
dei meccanismi
dell’invecchiamento,
potrebbero garantirci una vita
più lunga, ma soprattutto un
più lungo periodo di forma
fisica, se non di vera e propria
giovinezza. Prima o poi
bisognerà però morire.
L’immortalità è decisamente al
di là della portata della
scienza, certamente di quella
di domani e di dopodomani.
Saremo migliori?
Personalmente, a differenza
dei predicatori religiosi,
pseudolaici e politici che non
si stancano mai di parlare, non
so che cosa voglia dire essere
migliori; ma è concepibile che
in un futuro non lontano si
possa intervenire direttamente
sul genoma di questo o
quell’individuo, allo scopo di
dotarlo di qualche
caratteristica biologica in più o
in meno. Se lo si farà,
occorrerà decidere chi ha il
potere di decidere: i genitori, i
parenti, gli amici o l’intera
società? E quali doti
privilegiare? L’intelligenza, la
bellezza, la costanza,
l’inventività, la mansuetudine,
la socievolezza? La biologia ci
insegna, fra le altre cose, che
ogni gene controlla molti
caratteri e che molti caratteri
sono controllati da molti geni.
Migliorare una caratteristica
biologica può spesso voler
dire peggiorarne un’altra e
non è certamente pensabile di
aver una società di persone
intelligentissime che sono
cronicamente depresse o
malaticce. Ma anche questi
problemi potranno, forse,
essere risolti.
Quello che non accadrà è che
in virtù di tutto questo saremo
più felici. La scienza non ha
ricette per la felicità e dubito
che ne abbia una qualsiasi
altra attività umana. L’uomo è
un animale complessivamente
mal riuscito: forse è ben
riuscito per certi aspetti, ma è
condannato al tedio e al
disagio esistenziale, che cerca
di tenere sotto controllo in
vari modi. A noi la vita è male.
Anche se soddisfatto e
relativamente pacificato a
livello collettivo, che non è
poco, individualmente sarà di
necessità infelice. Almeno
fintanto che avrà il sistema
nervoso che ha.
* Edoardo Boncinelli è il direttore della
SISSA, la Scuola Internazionale
Superiore di Studi Avanzati di Trieste.
Fisico di formazione, si è occupato per
più di trent’anni di genetica e biologia
molecolare degli animali superiori e
dell’uomo. Ha scoperto e caratterizzato
un gruppo di geni che controllano lo
sviluppo embrionale del corpo e del
cervello. Si è più recentemente
orientato verso le neuroscienze. Ha
pubblicato vari libri sulla genetica e sulla
mente e collabora stabilmente con Le
Scienze e il Corriere della Sera.
an is a very special
animal with a few
million years of
biological history behind him
and a few thousand years of
culture. Biologically speaking,
he can certainly still evolve,
but only very slowly; suffice
it to say that not a lot has
happened to his DNA over the
last 200 thousand years.
His constitution lets him
communicate with his fellow
men, even over long
distances, and that has
triggered off a total new
process in the animal
kingdom, if not the entire
universe: cultural evolution.
So even if very little has
happened on an individual
level, the communal effort
underpinning this kind of
evolution has resulted in the
great cultural/technological
progress there before our very
eyes.
It probably is not just futile
trying to imagine what we
can and cannot do in the near
future, for instance with our
own bodies. Such results can
be achieved by purely
biological means or by
intensive use of electronic
micro-technology. I am
convinced that implants of
micro-circuits and micro-chips
will lead to incredible progress
complementing the results
achieved by purely biological
means. My belief is based on
noting the incredible speed
with which bio-engineering
studies and electronic
prostheses have advanced and
are still progressing, but
mainly the vaguely Vico-style
observation that we can know
machines much better than
our own bodies because we
actually construct machines
while our bodies come
ready-made.
But let’s take a look at the
opportunities being opened
up by cutting-edge biology
and bio-medicine. We know
the causes of a large number
of single-factor hereditary
diseases, viz. caused by one
single malfunctioning gene.
This knowledge, dating back
no more than twenty years,
lets us diagnose illnesses
safely during the very earliest
stages of life or even in the
womb. Unfortunately, we
have not made the same kind
of progress in treating and
curing these illnesses, but
there is no doubt that people
suffering from these defects
now lead much better lives
than their fellow sufferers in
the recent past.
We are just beginning to
investigate the causes of both
hereditary and non-hereditary
diseases with multi-factor
causes depending on
uncertain functioning or
openly malfunctioning of
many or very many genes.
This is the most important
goal of the near future,
because these are the realms
of such common diseases as
diabetes, high blood pressure,
retardation, a wide variety of
mental ailments and, most
significantly, tumors. As life
expectancy increases and
certain other pathologies are
disappearing, tumors and all
those degenerative diseases
typically associated with the
ageing process will be the
main biological enemies of
our life. The special category
of predispositions is
connected with pathologies
like this. For instance, having
a predisposition for high
blood pressure or tumors to
the ovaries does not mean
you will necessary get these
diseases.
People with predispositions
may not develop them and
vice-versa, but statistically
speaking predisposition has its
importance and knowing you
are predisposed is a useful
warning. Everybody is
predisposed for something
and knowing about it is better
than being in the dark.
Alongside diagnosis and
prevention, modern
techniques give us the chance
to use tissues, parts of organs
and donor organs to carry out
implants and transplants for
all sorts of reasons, as well as
specially targeted and highly
effective drugs with less and
less side effects.
And our life expectancy might
increase even more, but not
by much. More advanced
medicine and deeper
knowledge of how ageing
takes place might guarantee
us a longer life but, most
importantly, although it might
not give us eternal youth it
will help us keep healthy
longer. Although sooner or
later everybody dies.
Immortality is certainly beyond
the realms of science, at least
it is certainly beyond the
science of the near and notso-near future.
But will we be better people?
Unlike political, pseudosecular and religious
preachers that never stop
talking about this, I do not
know what being better
people means; but it is
reasonable to expect it to be
possible in the future to act
directly on a person’s genome
in order to alter some
biological trait or other. If this
does happen, we will need to
decide who can make this
kind of decision: parents,
relatives, friends or the whole
of society? And what kind of
traits shall we favor?
Intelligence, beauty,
dedication, creativity,
meekness, sociableness?
Amongst other things, biology
teaches us that every gene
controls lots of traits and that
lots of traits are controlled by
several genes. Improving one
biological trait might mean
spoiling another and the idea
of a society full of highly
intelligent people who are
chronically depressed or ill is
quite unthinkable. But
perhaps even these problems
can be solved.
One thing for sure is that all
this will not make us any
happier. Science does not
have any recipes for happiness
and I doubt that any other
human activity does either.
Overall speaking, human
beings are rather unfortunate
creatures: well-designed in
certain respects, but also
destined to be bored and
unhappy, despite their best
attempts to control fate. Life
will always be a burden. Even
if society as a whole is
relatively happy and
contented, which is no mean
thing, individually we are all
destined to be unhappy, at
least as long as we have this
nervous system of ours.
* Edoardo Boncinelli is director of the
SISSA, the International High School for
Advanced Studies in Trieste, Italy.
Trained as a physicist, he has been
studying the molecular biology and
genetics of higher animals and man for
over thirty years. He discovered and
analyzed a set of genes controlling the
embryonic growth of the body and
brain. He has recently moved over to
neuroscience. He has published a
number of books on genetics and the
mind and writes regularly for the Italian
publications Le Scienze and Corriere
della Sera.
15
La potenza dell’avventura umana
The Power of Human Adventure
Intervista a Salvatore Veca*
Interview with Salvatore Veca*
Se bene utilizzati, i nuovi strumenti allargano i limiti della creatività
If put to proper use, new tools will extend the bounds of creativity
16
Salvatore Veca
L
a tendenza a superare i
limiti è tipicamente
umana e porta, in linea di
principio, a conquiste di
benessere più che a creazione
di ingiustizie e iniquità. Ma la
lotta fra limite e non-limite è
continua e necessaria per
evitare che, nei diversi ambiti,
la potenza dello strumento
prevalga sulla capacità di
controllo. Salvatore Veca, uno
dei massimi filosofi italiani, ha
affrontato con arcVision alcuni
dei temi più controversi del
momento, proponendo
interpretazioni lucide e senza
pregiudizi dell’evoluzione della
realtà contemporanea.
Il formidabile progresso
delle società occidentali
degli ultimi decenni, ma in
realtà degli ultimi secoli, è
stato determinato da una
fiducia pressoché illimitata
nella valenza comunque
positiva di una estensione e
di un approfondimento
delle conoscenze. Oggi,
però, di fronte ad alcuni
effetti indesiderati di
questa tumultuosa
espansione, che pone nelle
mani dell’uomo strumenti
sempre più potenti, ci si
comincia a chiedere se
l’uomo non debba porsi,
almeno in alcuni contesti,
un’idea di limite. Pensiamo,
ad esempio, alla genetica,
alla biotecnologia,
all’intelligenza artificiale o
al più generale rapporto
uomo-natura. Ha senso
porsi questo tema del
limite, o si tratta di uno
scrupolo infondato, se non
altro perché difficilmente
realizzabile?
Ciò cui stiamo assistendo,
nell’epoca in cui viviamo, è
l’evolversi di una situazione in
cui convivono due tendenze
parzialmente divergenti. La
prima contempla il
superamento di ogni limite
attraverso un’espansione
continua della conoscenza, in
particolare nell’ambito della
scienza e della tecnologia. E
questa è una strada che
appare del tutto ragionevole e
desiderabile a molte persone
che, al contrario, tendono a
considerare l’idea stessa di
limite come un falso
problema, un ostacolo
burocratico, un inutile intralcio
allo sviluppo pieno della
nostra cultura. La seconda è
almeno parzialmente in
contraddizione con la prima e
pone il problema del limite sia
in generale, sia in molti ambiti
particolari, come appunto la
genetica o l’intelligenza
artificiale, e si fa carico di
profonde preoccupazioni
insite nella società, come si è
visto negli ultimi decenni del
XX secolo e in questi primi
anni di quello nuovo.
In fondo, queste due tendenze
esprimono la tensione
essenziale della nostra cultura,
che è la cultura occidentale,
che considera da un lato il
“dovere” del superamento del
limite ma pone, allo stesso
tempo, la necessità di
mantenerne il controllo. È una
tensione fra scienza ed etica
ed è questo un rapporto che
caratterizza con continuità la
storia tra limite e non-limite,
sia nella nostra cultura
collettiva sia in quella
individuale. Tutti noi, nei fatti,
assistiamo allo svolgersi di una
sorta di corpo a corpo
interiore che vede convivere la
voglia dell’illimitato e il
desiderio di mettere a freno la
tendenza al superamento del
limite.
Un ambito nuovo, e forse
inatteso, nel quale si è
posto sempre più spesso
negli ultimi anni (ma anche
molto di recente, nel
conflitto con l’Iraq) il tema
del limite, è quello dell’uso
della forza in situazioni di
conflitto aperto. L’opinione
comune di molta parte,
forse maggioritaria, della
pubblica opinione pende di
norma a favore della parte
più debole del conflitto, per
arrivare a sostenere che la
parte forte debba limitare
l’uso della propria
preponderante capacità di
offesa solo allo stretto
necessario, imponendosi
così un vincolo di cui nella
storia passata troviamo
pochi esempi. L’idea di
limite può presentare in
questi casi dei forti margini
di ambiguità e incertezza,
perché si tende spesso a
fare coincidere la debolezza
con la ragione e, dall’altro
lato, la forza con il torto.
L’ambito della guerra è
certamente un contesto
fortemente emblematico ed
esemplare, connesso alle due
idee di cui abbiamo parlato
finora, ossia la tendenza a
superare i limiti e i vincoli
all’azione. La guerra con l’Iraq
costituisce, poi, un fenomeno
particolarmente pregnante,
perché si assiste al primo vero
conflitto successivo alla fine
della Guerra Fredda, uno
scontro complesso nel quale,
come osservatori, siamo posti
di fronte al verificarsi di tutto e
del contrario di tutto. Nella
guerra del Golfo del 1991
prevalevano azioni massicce
all’insegna della guerra aerea
e della presenza, non sempre
contestata, dei “danni
collaterali”. In Bosnia e
Kosovo abbiamo visto il
verificarsi di episodi
drammatici, connotati dal
tentativo di estinguere intere
etnie tramite violenze
inimmaginabili, massacri e
stupri di massa. In Afghanistan
si è immaginato molto ma,
effettivamente, si è visto poco.
La guerra con l’Iraq ha
presentato, invece, caratteri
estremamente complessi e
contraddittori, perché si sono
verificati contemporaneamente
più fenomeni: la guerra
ipertecnologica, l’applicazione
della potenza massima, ma
anche la guerriglia e la guerra
di posizione. Abbiamo
osservato il confondersi di
militari e civili, il confronto
diretto tra militari,
l’importanza di salvaguardare i
civili e di evitare i danni
collaterali. E poi gli assedi
medievali, ma anche le
battaglie di movimento dei
tank. Tutto questo compone
un quadro difficile da
interpretare e pieno di
contraddizioni e, per quanto
possa suonare bizzarro, si
vede bene in questo frangente
fino a che punto la tendenza a
superare il limite conviva
costantemente con la cultura
stessa del limite. L’America, è
stato detto, ha condotto
questo conflitto “con una
mano legata dietro la
schiena”, poiché non poteva
assolutamente utilizzare il
proprio potenziale in modo
incontrollato. Ed è stato
giustamente rilevato che oggi
al mondo esistono non una
ma due superpotenze: gli Stati
Uniti d’America e l’opinione
pubblica, due grandi realtà
che hanno la capacità di
condizionarsi a vicenda. Così
anche nella guerra ritroviamo i
vincoli e i limiti di cui abbiamo
discusso, anche se ovviamente
in un contesto di severa
tragicità.
Il progresso tecnologico
propone oggi un
nuovissimo ambito nel
quale ritroviamo la
contraddizione fra limite e
non-limite, tra libertà e
abuso, tra democrazia e
controllo. Ed è il nuovo
universo di Internet che da
un lato costituisce un
esempio straordinario di
possibilità di
partecipazione ed accesso,
ma dall’altro crea
opportunità di abuso e
crimine fuori da ogni reale
possibilità di controllo.
Basta pensare all’uso di
Internet per attività
efferate come il terrorismo
o la pedofilia. Come
risolvere queste
contraddizioni?
Che in questi casi vi sia
un’esigenza di porre un limite
è incontrovertibile. Ma questo
non risolve l’ambiguità.
Imporre un limite significa,
infatti, ricorrere a cose come
norme e regolamenti. Ma,
come sempre, la questione di
fondo consiste nel come si
debbano generare tali norme.
Noi pensiamo, in genere che,
se vi sono delle norme, queste
debbano essere state generate
da una autorità. Ciò è
evidente quando si devono
affrontare problemi gravi
come il bando alle armi o la
lotta al terrorismo. Questo
17
approccio fa parte di un’idea
di società che promana da un
contratto sociale liberamente
sottoscritto fra persone, nel
senso che liberamente
scegliamo di vincolarci a
un’autorità superiore che limiti
le possibilità di scelta e
garantisca a tutti il godimento
dei diritti della democrazia. È
un modello ben noto, che
discende dalla tradizione di
Hobbes, Locke, Rousseau e
Kant e che conduce alla
nascita delle costituzioni
attraverso le quali scegliamo di
legarci nel tempo.
Ma vi è anche un altro
modello, che pone la
questione della cosiddetta
“insorgenza delle norme”, nel
filone di pensiero di filosofi
come Hume e Hayek.
Il concetto fondamentale
consiste nel fatto che le norme
si fissano grazie a una sorta di
convenzione che nasce
e si consolida mediante un
processo iterativo di trial and
error. Questo modello implica
che quando si vengono a
determinare nuove situazioni
di opportunità, ad esempio
con le tecnologie di Internet,
possa esistere una fase
selvaggia e scarsamente
dominabile nella quale queste
opportunità irrompono con
forza, modificando il
preesistente paesaggio etico,
che era stato modellato dalle
forze precedentemente
prevalenti. C’è uno stadio in
cui le nuove opportunità
18
incontrano i vecchi limiti. Qui
nasce lo scontro al quale
assistiamo e vi è chi ritiene che
si tratti di un conflitto almeno
in parte inevitabile, perché
l’uomo è una creatura
d’abitudini che fronteggia
prospettive incerte. E in
questo contesto non vi è
realmente una autorità in
grado di normare, per il solo
fatto che le norme non
riescono subito a cogliere le
peculiarità della nuova
situazione, in quanto
rappresentano inevitabilmente
il capitale della saggezza del
passato e non quella del
presente e del futuro.
Questo significa che siamo
costretti a pagare i costi
della transizione, con tutto
ciò che questo implica in
termini di imperfezioni e
abusi?
In sostanza sì. Significa che
occorre individuare norme che
disciplinino le nuove realtà
senza soffocare le nuove idee
e contrarre i limiti dello spazio
delle possibilità innovative.
Significa che nessun pasto è
gratis e nessuna innovazione
avviene senza costi. La virtù
massima consiste nel
massimizzare i benefici
dell’innovazione,
minimizzandone i costi. Ed è
bene riconoscere che ciò non
è molto facile.
Ma l’innovazione non è
sinonimo, di per sé, di
giustizia. E pagare i costi
della transizione ha senso
solo se il traguardo cui si
punta rientra nell’ambito di
una situazione più giusta,
non più ingiusta. Come
distinguere la prima dalla
seconda?
I due percorsi di creazione
delle norme che ho esposto,
così come la massima della
minimizzazione dei costi,
presuppongono uno sfondo
“quasi giusto” (near just) che
si ponga nell’intorno di
convenzioni e pratiche
socialmente accettabili. È solo
in questo contesto che
possiamo accettare i costi
sociali connessi con il
cambiamento. In caso
contrario, se l’assunzione di
partenza è che l’innovazione
ha luogo in una situazione
ingiusta e in un quadro di
istituzioni ingiuste, allora è
chiaro che le priorità
cambiano profondamente. Il
problema non è più quello
della dialettica fra limite e
non-limite, ma diventa quello
previo di combattere
l’ingiustizia. Non è questo,
però, e per fortuna, il nostro
attuale sistema di riferimento.
Torniamo allora all’idea del
limite. Il nostro contesto di
riferimento è connotato
dalla crescente potenza
degli strumenti a nostra
disposizione, in senso
positivo e in senso
negativo. Se pensiamo alle
nostre realtà individuali,
facciamo i conti con
strumenti che sono in
grado di esaltare la nostra
personalità o, a seconda dei
punti di vista, di
deprimerla. Pensiamo al
rapporto fra uno strumento
come il personal computer
e la creatività individuale.
Come vede, da un punto di
vista personale e collettivo,
le implicazioni di questo
rapporto?
Da un punto di vista personale
la mia storia è quella di un
dramma a lieto fine. Io ho
iniziato a lavorare con il
computer molto più tardi di
mia moglie e dei miei figli,
perché godevo del lusso di
due segretarie che riportavano
fedelmente quello che io
apponevo su carta. E dunque,
la mia creatività dipendeva
dall’interazione fra la mia
stilografica e l’horror vacui
della pagina bianca, dramma
comune a tutti gli scrittori. Poi,
quando le mie responsabilità
istituzionali sono cresciute e il
tempo a disposizione si è
ristretto, ho dovuto accettare
di apprendere l’uso del
computer. E il primo effetto è
stato di subire una
mutilazione, una decurtazione
della mia capacità creativa. Ma
è stata la prima reazione, che
poi si è abbastanza
rapidamente trasformata in
dipendenza e, quindi, in una
nuova spinta di creatività.
Oggi, senza computer non
prendo nemmeno un
appunto.
Ora devo connettere questa
mia piccola storia personale
con una molteplicità di piccole
storie analoghe, per capire in
che modo si sia evoluto in
termini collettivi il rapporto tra
strumento e creatività,
cosicché la descrizione della
sorte casualmente condivisa
da molte persone si trasformi
in teoria generalmente valida.
E cosa ci dice questo
passaggio mentale? Che non
sta succedendo niente di
terribilmente nuovo. Che in
fondo, nell’intera storia
passata, ciò che chiamiamo
creatività è nient’altro che la
vicenda di un corpo a corpo
permanente tra il tentativo di
elaborare sempre nuove
versioni del mondo –
morfologiche, iconiche,
estetiche, erotiche, cognitive –
e la “scatola degli attrezzi” di
turno, ossia il vasto e
mutevole repertorio dei mezzi
disponibili in funzione
dell’obiettivo che si desidera
raggiungere. Dove nasce il
problema? Dal fatto che il
tool box favorisce il
cambiamento e induce alla
perdita del limite. La creatività
è un’avventura di esplorazione
di possibilità inedite che,
ancora una volta, mettono in
contrasto la disponibilità di
nuovi mezzi illimitati con i
vecchi strumenti e i vecchi
limiti.
Si elaborano così nuove
versioni del mondo, partendo
dalle vecchie formule e
parafrasandole, mescolando
gli strumenti e i linguaggi e
modificando continuamente i
limiti. Emerge la potenza
dell’illimitato che ci impone,
come ha detto Neurath, di
riparare la nostra barca mentre
continuiamo a navigare. Ma
tutto questo è ben lungi
dall’essere negativo, anzi. Il
giudizio è per me sobriamente
positivo e dobbiamo
riconoscere che la tendenza a
forzare il limite, con cui ci
confrontiamo continuamente,
amplia enormemente il nostro
repertorio di possibilità. E
questa è una faccenda
tipicamente umana, in cui
riconosciamo il familiare
Streben di Goethe e, al tempo
stesso, la saggezza della
massima terenziana a
proposito del “nihil humanum
alienum puto”.
* Salvatore Veca è uno dei più
importanti filosofi italiani contemporanei.
La sua lunga carriera accademica, iniziata
nel 1966, è stata caratterizzata da una
intensa attività di insegnamento
in diverse sedi (Università di Milano,
Università della Calabria, Università
di Bologna, Università di Firenze)
e di ricerca (ha scritto decine di saggi
e di volumi di grande successo).
Dal 1990 è professore ordinario di
Filosofia Politica alla Facoltà di Scienze
Politiche dell’Università di Pavia (di cui è
preside dal 1999). Dal 2002 è pro-rettore
per la Didattica dell’Università di Pavia.
A
tendency to go beyond
the limits is a typically
human trait and, in
principle, tends to improve life
rather than result in more
injustice and inequality. But
the battle between bounds
and boundlessness is an ongoing struggle and necessary
to ensure that the sheer
power of the instruments in
play in all these various realms
does not jeopardize our ability
to control. Salvatore Veca, a
leading Italian philosopher,
has tackled the most
controversial issues of the day
in this issue of arcVision,
suggesting clear-sighted and
unbiased readings of modernday reality evolution.
The staggering progress in
Western society over the
last few decades, or really
centuries, is the result of
almost boundless faith in
the positive effects of
extending and furthering
knowledge. Nowadays,
however, faced with
certain undesirable effects
of such starting expansion
that is placing increasingly
power tools in human
hands, we are starting to
wonder whether man
ought, at least in certain
contexts, to establish some
sort of limits. Take, for
instance, genetics,
biotechnology, artificial
intelligence or the more
general way in which man
relates to nature. Is there
any point in looking at this
question of limits or is it
really unnecessary,
particularly since limits are
so hard to set?
What we are now witnessing
in the age in which in we live
is an evolving situation in
which two partly diverging
tendencies co-exist. On one
hand, there is a tendency to
break all boundaries by
constantly expanding our
knowledge, notably in the
fields of science and
technology. This course of
action seems quite reasonable
and desirable to most people,
who, on the contrary, tend to
think the idea of setting limits
is a false problem, a
bureaucratic obstacle or
useless hindrance to
developing our culture to its
fullest. On the other hand,
there is an alternative, and at
least partly contradictory,
19
20
tendency to pose the problem
of limits both in general and
in relation to specific fields like
genetics or artificial
intelligence, assuming
responsibility for certain
deeply felt worries circulating
in society, as we have seen in
the last few decades of the
20th century and the start of
this new millennium.
These two tendencies actually
embody the fundamental
essence of our culture here in
the West, which considers
breaking boundaries as a
“duty” and, at the same time,
realizes the need to keep
control. This tension between
science and ethics is a
distinctive feature of the
ongoing battle between limits
and no limits, both individually
and as a society. We also
experience a sort of internal
struggle in which there is a
simultaneous desire for what
is boundless and a need to
harness the tendency to go
beyond the limit.
A new and perhaps
unexpected realm in which
the question of setting
limits has been increasingly
to the fore over recent
years (and even very
recently with the war in
Iraq), concerns the use of
force in open conflicts. The
majority of people have, it
would seem, sided with the
underdogs in this conflict,
even insisting that the
stronger side must only use
as much of its staggering
strike force as is strictly
necessary, thereby setting
the kind of limits that are
extremely rare in past
history. In a case like this
there is likely to be plenty
of room for ambiguity and
uncertainty, because there
is a strong tendency on
hand to confuse weakness
with being in the right and
on the other to associate
power with being in the
wrong.
War is certainly an exemplary
and emblematic realm
connected with the two ideas
we have just mentioned, viz.
exceeding limits and placing
constraints on any action
being taken. The war with
Iraq is particularly appropriate
because it is the first real
conflict after the end of the
Cold War, a complicated
struggle in which we, as
observers, are witnessing a bit
of everything. The 1991 Gulf
War was characterized by
heavy air raids and bomb
attacks and plenty of
“collateral damage” that often
went unnoticed. In Bosnia and
Kosovo, we witnessed some
dramatic events involving
attempts to actually wipe out
entire ethnic groups by means
of widespread violence of
unimaginable cruelty and
mass rape. In Afghanistan we
imagined a lot but actually
saw very little. As regards Iraq,
the simultaneous presence of
various phenomena meant the
war with Iraq was in many
ways extremely complicated
and contradictory: hypertechnological warfare, the use
of maximum power, but also
guerrilla warfare and strategic
combat. We watched soldiers
and civilians mixed together,
direct confrontation between
opposing armies, the
importance of protecting the
civilian population and
avoiding collateral damage.
Not to mention Medieval-style
sieges and tank battles on the
move. The overall picture is
hard to read and full of
contradictions, and however
strange this might seem, at
this stage it can clearly be
seen how a tendency to
exceed limits constantly coexists with a sense of needing
to draw the line. It has been
said that America has fought
this war with “one arm tied
behind its back,” because it
could not make unbridled use
of its own might. And it has
also rightly been pointed out
that the world now has not
one but two superpowers: the
United States of America and
public opinion, two great
players capable of influencing
each other’s actions. This
means that even war is
subject to the limits and
constraints we have talked
about, although obviously in
an extremely tragic context.
Technological progress is
now creating a brand new
realm in which there is a
real contradiction between
limits and no limits,
freedom and abuse,
democracy and control.
This is the new world of
the Internet, which, on one
hand, is an exemplary case
of involvement and access,
but on the other creates
plenty of opportunities for
criminal activities and
abuse that are beyond any
real control. Just take how
the Internet can be used
for such brutal crimes as
terrorism or pedophilia.
How can we resolve these
contradictions?
There can be no doubt that
we need to draw the line
somewhere on these issues.
But that does not get rid of
the ambiguity. Setting a limit
actually means reverting to
rules and regulations. But, as
always, the underlying issue is
where the regulations are
supposed to come from.
Generally speaking, we think
that, if there are norms of
some sort, they must have
been set by some authority or
other. This is most obvious
when dealing with serious
problems like the arms trade
and fighting terrorism. This
approach belongs to an idea
of society based on some sort
of social contract freely
adhered to by members of the
community, in the sense that
we freely choose to be
governed by some higher
authority that controls our
actions and ensure everybody
enjoys the rights associated
with democracy. This is a wellknown model handed down
to us from Hobbes, Locke,
Rousseau and Kant and that
leads to the birth of
constitutions that we choose
to conform to down the ages.
But there is also another
model broaching the question
of the so-called “insurgence of
regulations” in the
philosophical line of thought
of men like Hume and Hayek.
The basic idea is that
regulations are set by means
of some sort of convention
created and enforced by an
iterative process of trial-anderror. This model implies that
when new kinds of
opportunities arise, for
instance through Internet
technology, there is often a
wild phase that is hard to
control with these new
opportunities bursting onto
the scene and altering the
ethical background
established by previously
dominant forces.
There is a moment when new
opportunities run up against
old limits. This is where the
conflict we are witnessing
comes from, and there are
some people who believe that
these clashes are at least
partly inevitable, since human
beings are creatures of habit
facing uncertain prospects. In
this context there are really no
authorities for enforcing the
regulations due to the simple
fact that these regulations
cannot instantly come to
terms with the distinctive
features of the new situation,
since they inevitably enshrine
the wisdom of the past and
not the present or future.
Does this mean we are
forced to pay the price of
transition with all this
entails in terms of errors
and misdemeanors?
Basically, yes. It means we
need to identify regulations
controlling newly emerging
scenarios without stifling out
new ideas or hampering new
initiatives. It means there is no
such thing as a free meal and
there is inevitably a price to
pay for anything new. Ideally,
we need to maximize the
benefits of innovation and
minimize the costs. And we
ought to realize that this is far
from easy.
But innovation does not
necessarily imply justice.
And it is only worth paying
the price of this transition
if its ultimate goals help
spread justice and not
injustice. How can we
make a distinction between
the two?
The two ways of creating
regulations I have outlined, as
well as the idea of minimizing
costs, presuppose a “near
just” situation accompanied by
socially acceptable
conventions and practices.
Only in this kind of setting we
will be able to accept the
social costs of change. On the
contrary, if we start off by
accepting that innovation
takes place in an unjust
21
Un robot dal cervello “bestiale”
A Robot with a “Beastly” Brain
intervista a Salvatore Veca*
interview with Salvatore Veca*
Le nuove frontiere della bioingegneria in una sintesi inedita tra organico
e meccanico: duemila cellule cerebrali di topo importate in una macchina
The latest frontiers of bioengineering in a new synthesis of the organic and
mechanical: two thousand brain cells from a mouse incorporated in a machine
22
context and a framework of
unjust institutions, then it is
clear that our priorities
undergo profound changes. It
is no longer a question of a
dialectic between limits and
no limits, but the prior issue
of fighting injustice.
Fortunately, this is not the
case with our current frame
of reference.
Let us go back to the idea
of limits again. Our frame
of reference is
characterized by the
growing power of the
instruments at our disposal,
in both a positive and
negative sense. If we think
of our own individual
situations, we come up
against means of either
enhancing or (according to
our point of view)
repressing our
personalities. Take the way
in which personal
computers relate to
individual creativity. In your
view, what are the
implications, both
individually and collectively,
of this relationship?
From my own personal point
of view, it is a dramatic story
with a happy ending. I started
working with a computer well
after my wife and children,
because I was fortunate
enough to have the help of
two secretaries who typed out
faithfully what I wrote down
on paper. So my own
creativity depended on how
my biro related to the horror
vacui of blank paper,
something all writers are
familiar with. As my duties
became more pressing and
I had less time at my disposal,
I was forced to start using a
computer. Initially this held
back and hampered my
creative skills. But that was
just an initial reaction that
soon turned into a sort of
addiction and eventually a
fresh source of creativity.
Nowadays, I do not even write
down notes without using my
computer.
Now I need to relate my own
personal experience to
everybody else’s to try and see
how the interaction between
tool and creativity has
developed in general, so that
the description of an
experience that just happens
to be shared with lots of other
people can be turned into a
widely applicable theory. So
what can we learn from this
mentalscape? That there is
nothing terribly new under
the sun. That right through
history what we call creativity
is just an ongoing struggle
between an attempt to work
out new versions of the world
– morphological, iconic,
aesthetic, erotic and cognitive
– and the latest “tool box” or,
in other words, a vast and
constantly changing repertoire
of means available for
achieving our goals. So where
does the problem come from?
From the fact that this tool
box favors change and leads
to our losing track of any
limits. Creativity is an
adventure into exploring new
possibilities which, once again,
bring out the contrast
between new unlimited
means and old tools and
limits.
New versions of the world are
worked out from old
formulas, paraphrasing them,
mixing up tools and
languages, and constantly
setting new limits. The power
of the unlimited gradually
emerges forcing us, as
Neurath pointed out, to repair
our ship while out at sea. But
all this is far from being a bad
thing, quite the contrary.
I have an austerely positive
view of all this and we must
acknowledge that a tendency
to push our limits all the time
considerably widens our range
of possibilities. This is a
typically human affair, in
which we can recognize
Goethe’s Streben and, at the
same time, the wisdom of
Terence’s old saying about
“nihil humanum alienum
puto.”
* Salvatore Veca is one of the leading
contemporary Italian philosophers. His
long academic career began in 1966.
He has taught at several Italian
universities (Milan University, Calabria
University, Bologna University, Florence
University) and carried out plenty of
research (he has written dozens of
highly popular books and essays). He
has been teaching Political Philosophy in
the Faculty of Political Science at Pavia
University since 1990 (where he has
been the dean since 1999). He has also
been pro-rector for Didactics at Pavia
University since 2002.
1
998. Kevin Warwick,
Professore di Cibernetica
e Ricercatore nel campo
dell’Intelligenza Artificiale
all’Università di Reading,
nel Regno Unito, affronta
un’operazione che sconvolge
la comunità scientifica
internazionale.
Si fa impiantare
nell’avambraccio un microchip,
attraverso il quale è in grado di
comunicare con l’ufficio: apre
le porte, accende le luci e attiva
il proprio website che risponde
con un messaggio
preregistrato. Per Kevin
Warwick è solo l’inizio di una
serie di esperimenti, durante i
quali collega progressivamente
il proprio sistema nervoso a un
computer. Il “Project Cyborg”
del docente anglosassone è
attualmente in pieno sviluppo.
Steve Mann è invece uno
scienziato e da oltre vent’anni
si dedica ai cosiddetti
WearComp, i computer
portatili. Macchine che
ci seguono ovunque e filtrano,
indirizzano o intensificano
le informazioni fornite
dall’ambiente. Ricevono
e trasmettono e-mail,
percepiscono i segnali
d’allarme, fanno funzionare
gli elettrodomestici.
Due esempi fra i più noti
d’integrazione tra uomo e
macchina, che evocano scenari
fantascientifici, ma sono
superati dalla più recente,
e per certi versi inquietante,
ibridazione.
Non è una novità
ipertecnologica che esiste solo
nel contesto rarefatto
dei laboratori degli Istituti
Tecnologici, ma è addirittura
un prodotto che può essere
acquistato, alla modica cifra
di 3.000 dollari.
L’aspetto innocuo di una
caffettiera nasconde
la frontiera più avanzata della
bioingegneria, e traccia una
direzione del tutto innovativa
nella produzione dei robot.
Si chiama Kephera, si muove
alla poco rispettabile velocità
di un metro al secondo
e il suo inventore, il ricercatore
americano Steve Potter, l’ha
battezzato affettuosamente
“Hybrot”.
È il capostipite degli “hybrid
robot”, una strana via
di mezzo tra l’animale
e la macchina.
Detto anche “animat”,
animale automatico, è il frutto
di una sperimentazione
che dura ormai da dieci anni,
e porta alle estreme
conseguenze l’ibridazione
tra un essere vivente
e le componenti robotiche.
A muoverlo sono gli impulsi
di duemila cellule cerebrali
di un topo, tenute in vita per
due anni in un incubatore e poi
applicate a un microchip.
I neuroni fanno “agire” il robot,
mentre le cellule a raggi
infrarossi e i minisensori
elettronici trasmettono
al cervello del topo
le informazioni raccolte
durante l’attività.
Kephera acquisisce questi dati
e modifica di conseguenza
il proprio comportamento.
Se riassumiamo in una sola
parola la frase precedente,
forse l’importanza
dell’invenzione risulterà più
evidente: il piccolo Hybrot
impara.
Superando di colpo i risultati
di molti mastodontici computer
dedicati all’Intelligenza
Artificiale, il prodotto della
svizzera K-Team ha attirato
l’attenzione degli scienziati
di tutto il mondo.
Gli scenari che si aprono sono
molteplici. Qualcuno già pensa
a future generazioni
di computer che saranno
capaci di adattarsi all’ambiente,
di cambiare durante la loro
esistenza, e addirittura di
autoripararsi o, detto in altri
termini, di “guarire”.
Il finanziamento iniziale di
1,2 milioni di dollari concesso
dal Ministero della Sanità Usa
all’inventore di Kephera e al
suo team è un chiaro segnale
di interesse, e una
dimostrazione di fiducia in
applicazioni utili per il genere
umano.
Gli ibridi delle nuove
generazioni potranno assistere
le vittime di malattie e di
incidenti, sostituendone alcune
funzioni nervose vitali.
Organi artificiali e protesi
potranno essere controllati
in modo sempre più preciso
e sofisticato, e si pensa già
23
Un robot dal cervello “bestiale”
A Robot with a “Beastly” Brain
intervista a Salvatore Veca*
interview with Salvatore Veca*
Le nuove frontiere della bioingegneria in una sintesi inedita tra organico
e meccanico: duemila cellule cerebrali di topo importate in una macchina
The latest frontiers of bioengineering in a new synthesis of the organic and
mechanical: two thousand brain cells from a mouse incorporated in a machine
22
context and a framework of
unjust institutions, then it is
clear that our priorities
undergo profound changes. It
is no longer a question of a
dialectic between limits and
no limits, but the prior issue
of fighting injustice.
Fortunately, this is not the
case with our current frame
of reference.
Let us go back to the idea
of limits again. Our frame
of reference is
characterized by the
growing power of the
instruments at our disposal,
in both a positive and
negative sense. If we think
of our own individual
situations, we come up
against means of either
enhancing or (according to
our point of view)
repressing our
personalities. Take the way
in which personal
computers relate to
individual creativity. In your
view, what are the
implications, both
individually and collectively,
of this relationship?
From my own personal point
of view, it is a dramatic story
with a happy ending. I started
working with a computer well
after my wife and children,
because I was fortunate
enough to have the help of
two secretaries who typed out
faithfully what I wrote down
on paper. So my own
creativity depended on how
my biro related to the horror
vacui of blank paper,
something all writers are
familiar with. As my duties
became more pressing and
I had less time at my disposal,
I was forced to start using a
computer. Initially this held
back and hampered my
creative skills. But that was
just an initial reaction that
soon turned into a sort of
addiction and eventually a
fresh source of creativity.
Nowadays, I do not even write
down notes without using my
computer.
Now I need to relate my own
personal experience to
everybody else’s to try and see
how the interaction between
tool and creativity has
developed in general, so that
the description of an
experience that just happens
to be shared with lots of other
people can be turned into a
widely applicable theory. So
what can we learn from this
mentalscape? That there is
nothing terribly new under
the sun. That right through
history what we call creativity
is just an ongoing struggle
between an attempt to work
out new versions of the world
– morphological, iconic,
aesthetic, erotic and cognitive
– and the latest “tool box” or,
in other words, a vast and
constantly changing repertoire
of means available for
achieving our goals. So where
does the problem come from?
From the fact that this tool
box favors change and leads
to our losing track of any
limits. Creativity is an
adventure into exploring new
possibilities which, once again,
bring out the contrast
between new unlimited
means and old tools and
limits.
New versions of the world are
worked out from old
formulas, paraphrasing them,
mixing up tools and
languages, and constantly
setting new limits. The power
of the unlimited gradually
emerges forcing us, as
Neurath pointed out, to repair
our ship while out at sea. But
all this is far from being a bad
thing, quite the contrary.
I have an austerely positive
view of all this and we must
acknowledge that a tendency
to push our limits all the time
considerably widens our range
of possibilities. This is a
typically human affair, in
which we can recognize
Goethe’s Streben and, at the
same time, the wisdom of
Terence’s old saying about
“nihil humanum alienum
puto.”
* Salvatore Veca is one of the leading
contemporary Italian philosophers. His
long academic career began in 1966.
He has taught at several Italian
universities (Milan University, Calabria
University, Bologna University, Florence
University) and carried out plenty of
research (he has written dozens of
highly popular books and essays). He
has been teaching Political Philosophy in
the Faculty of Political Science at Pavia
University since 1990 (where he has
been the dean since 1999). He has also
been pro-rector for Didactics at Pavia
University since 2002.
1
998. Kevin Warwick,
Professore di Cibernetica
e Ricercatore nel campo
dell’Intelligenza Artificiale
all’Università di Reading,
nel Regno Unito, affronta
un’operazione che sconvolge
la comunità scientifica
internazionale.
Si fa impiantare
nell’avambraccio un microchip,
attraverso il quale è in grado di
comunicare con l’ufficio: apre
le porte, accende le luci e attiva
il proprio website che risponde
con un messaggio
preregistrato. Per Kevin
Warwick è solo l’inizio di una
serie di esperimenti, durante i
quali collega progressivamente
il proprio sistema nervoso a un
computer. Il “Project Cyborg”
del docente anglosassone è
attualmente in pieno sviluppo.
Steve Mann è invece uno
scienziato e da oltre vent’anni
si dedica ai cosiddetti
WearComp, i computer
portatili. Macchine che
ci seguono ovunque e filtrano,
indirizzano o intensificano
le informazioni fornite
dall’ambiente. Ricevono
e trasmettono e-mail,
percepiscono i segnali
d’allarme, fanno funzionare
gli elettrodomestici.
Due esempi fra i più noti
d’integrazione tra uomo e
macchina, che evocano scenari
fantascientifici, ma sono
superati dalla più recente,
e per certi versi inquietante,
ibridazione.
Non è una novità
ipertecnologica che esiste solo
nel contesto rarefatto
dei laboratori degli Istituti
Tecnologici, ma è addirittura
un prodotto che può essere
acquistato, alla modica cifra
di 3.000 dollari.
L’aspetto innocuo di una
caffettiera nasconde
la frontiera più avanzata della
bioingegneria, e traccia una
direzione del tutto innovativa
nella produzione dei robot.
Si chiama Kephera, si muove
alla poco rispettabile velocità
di un metro al secondo
e il suo inventore, il ricercatore
americano Steve Potter, l’ha
battezzato affettuosamente
“Hybrot”.
È il capostipite degli “hybrid
robot”, una strana via
di mezzo tra l’animale
e la macchina.
Detto anche “animat”,
animale automatico, è il frutto
di una sperimentazione
che dura ormai da dieci anni,
e porta alle estreme
conseguenze l’ibridazione
tra un essere vivente
e le componenti robotiche.
A muoverlo sono gli impulsi
di duemila cellule cerebrali
di un topo, tenute in vita per
due anni in un incubatore e poi
applicate a un microchip.
I neuroni fanno “agire” il robot,
mentre le cellule a raggi
infrarossi e i minisensori
elettronici trasmettono
al cervello del topo
le informazioni raccolte
durante l’attività.
Kephera acquisisce questi dati
e modifica di conseguenza
il proprio comportamento.
Se riassumiamo in una sola
parola la frase precedente,
forse l’importanza
dell’invenzione risulterà più
evidente: il piccolo Hybrot
impara.
Superando di colpo i risultati
di molti mastodontici computer
dedicati all’Intelligenza
Artificiale, il prodotto della
svizzera K-Team ha attirato
l’attenzione degli scienziati
di tutto il mondo.
Gli scenari che si aprono sono
molteplici. Qualcuno già pensa
a future generazioni
di computer che saranno
capaci di adattarsi all’ambiente,
di cambiare durante la loro
esistenza, e addirittura di
autoripararsi o, detto in altri
termini, di “guarire”.
Il finanziamento iniziale di
1,2 milioni di dollari concesso
dal Ministero della Sanità Usa
all’inventore di Kephera e al
suo team è un chiaro segnale
di interesse, e una
dimostrazione di fiducia in
applicazioni utili per il genere
umano.
Gli ibridi delle nuove
generazioni potranno assistere
le vittime di malattie e di
incidenti, sostituendone alcune
funzioni nervose vitali.
Organi artificiali e protesi
potranno essere controllati
in modo sempre più preciso
e sofisticato, e si pensa già
23
24
ad applicazioni nel campo della
prevenzione. Esiste un progetto
per integrare nelle automobili
del futuro un cervello di tipo
biologico, in grado di pilotare
la vettura in modo automatico.
Al di là delle perplessità etiche
o dell’incertezza per
l’evoluzione di questo filone di
ricerca, rimane un dato di fatto
incontrovertibile.
La bionica, la bioingegneria e la
cibernetica chiudono un ciclo
storico: dopo lo scienziato
greco, attraverso l’artistaarchitetto-ingegnere
del Rinascimento italiano,
lo scienziato-ingegnere
del Settecento francese
e l’industriale-ingegnere
dell’Ottocento americano,
l’ingegneria ritorna con
il bagaglio della tecnologia
allo studio della vita umana.
Attraverso la bioingegneria
d’avanguardia l’ingegnere,
inteso come colui che
costruisce, entra nel settore
del mondo vivente.
A queste sperimentazioni
non può rimanere insensibile
nemmeno l’architettura:
l’intuizione viene dal famoso
massmediologo Marshall
McLuhan. Gli edifici stessi
diventano una sorta di
complesso sistema nervoso,
entità sensibili con le quali
l’uomo interagisce. Oggetti
che si adattano al nostro modo
di vivere, “protesi”, estensioni
del corpo. Lo spazio non è più
un contenitore, ma un
palcoscenico dove si recitano
le interrelazioni tra l’uomo
e l’ambiente. I muri si
trasformano in membrane,
si proiettano verso l’esterno
con un complesso sistema
di sensori, e ne assorbono luci,
suoni, odori. Perdono peso,
guadagnano leggerezza
e acquistano una qualità.
L’intelligenza.
1
998. Kevin Warwick,
Professor of Cybernetics
and Researcher in the field
of Artificial Intelligence at
Reading University in the
United Kingdom, carried out
an experiment that stunned
the international scientific
community.
He had a microchip implanted
in his forearm to let him
communicate with the office:
he can open doors, switch on
lights and operate his own
web site that replies through
a pre-recorded message.
This is just the start of a series
of experiments for Kevin
Warwick as he gradually
connects his own nervous
system to a computer.
The “Cyborg Project” set
under way by this British
professor is now in full swing.
Steve Mann, on the other
hand, is a scientist who has
devoted over twenty years of
his career to so-called
WearComp, portable
computers.
Machines that follow us
everywhere and filter, guide or
intensify information coming
from the environment. They
receive and send e-mails,
detect alarms and make home
appliances work.
Theses are two of the best
known examples of
man/machine integration
evoking science fiction
scenarios, but they have since
been superseded by the latest
and in some respects highly
disturbing phenomenon of
hybridization.
This is not some hypertechnological novelty that
only exists in the rarefied
context of the laboratories of
Technological Institutes, but
rather a product that can be
purchased at the modest price
of 3,000 dollars.
The innocuous appearance of
a coffee-maker actually
conceals the cutting-edge
frontier of bioengineering and
sets a totally new direction in
the manufacture of robots.
It is called Kephera, moves at
the sluggish rate of one
meter-a-second and its
inventor, the American
researcher Steve Potter, has
affectionately called it
“Hybrot.” It is the latest
“hybrid robot,” a strange
blend of animal and machine.
Also known as “animat,”
automatic animal, it is the
result of ten years’
experimentation and takes the
hybridization between a living
being and robot components
to its extreme consequences.
It is actually driven by
impulses from two thousand
brain cells from a mouse kept
alive for two years in an
incubator and then applied to
a microchip.
The neurons make the robot
“act,” while cells with infrared
rays and electronic minisensors transmit information
collected during its activities
to the mouse’s brain.
Kephera gathers these data
and makes appropriate
adjustments to its behavior.
Summing up what we have
just said in one word might
make the importance of this
invention more obvious: the
little Hybrot actually learns.
Suddenly outsmarting lots
of those huge computers
devoted to Artificial
Intelligence, the Swiss
K-Team’s product has attracted
the attention of scientists from
all over the world.
This opens up all kinds of
prospects. Some people are
already envisaging future
generations of computers
capable of adapting to the
environment, changing during
their own life time and even
25
repairing themselves or, put
another way, of “healing.”
An initial grant of 1.2 million
dollars that the US Ministry of
Health gave the inventor of
Kephera and his team is a
clear sign of interest and a
show of confidence in useful
applications for mankind.
The latest generations of
hybrids will be able to help
the victims of illnesses and
accidents by taking over
certain vital functions of the
nervous system.
Artificial organs and limbs will
be controlled in a much more
precise and sophisticated way,
and there are already plans
for applications for preventive
purposes. There is a project to
incorporate a biological-type
brain in the cars of the future,
so that they can be driven
automatically.
Apart from certain ethical
worries or a feeling of
uncertainty about
developments in this line of
experimentation, all this is
already a matter of fact.
Bionics, bioengineering and
cybernetics close a historical
cycle: in the wake of Greek
scientists, following the artistarchitect-engineer of the
Italian Renaissance, the
scientist-engineer of the
eighteenth century in France
and the industrialist-engineer
in nineteenth century
America, engineering is
drawing on its technological
resources to study human life.
Thanks to cutting-edge
bioengineering, the engineer
(or person who constructs)
enters the realm of the living.
Architecture cannot afford to
ignore these experiments: the
famous scholar of mass
media, Marshall McLuhan,
had an intuition about this.
Buildings themselves might
turn into a sort of complex
nervous system, sensitive
entities with which people
interact. Objects adapting to
our way of life, “prostheses,”
extensions to the body. Space
is no longer a container but a
stage for acting out
interrelations between people
and the environment.
Walls turn into membranes,
projecting outwards through
a complex system of sensors
and absorbing lights, sounds
and smells.
They lose weight, get lighter
and gain a certain quality.
Intelligence.