La rivoluzione informatica - Home page

Transcript

La rivoluzione informatica - Home page
La Rivoluzione Informatica:
come è cambiato il mondo con l’avvento del PC
A cura di Stefano Licciardi
5a A Sperimentale
L. G. S. “M. Cutelli”, Catania
A.S. 2001/2002
Indice degli argomenti
Pag. 3 – Greco: Il progresso scientifico in Platone
Pag. 4 – Latino: Seneca: la teoria del progresso
Pag. 6 – Storia: Il Sistema mondiale dal XIX al XXI secolo
Pag. 8 – Storia: Il trionfo del capitalismo
Pag. 9 – Economia: Perché Internet?
Pag. 12 – Biologia: Il defibrillatore impiantabile
Pag. 14 – Fisica: Il futuro delle macchine
Pag. 15 – Fisica: Storia degli automi
Pag. 16 – Fisica: Campi di applicazione degli automi
Pag. 18 – Filosofia: Il calcolatore elettronico come macchina logica
Pag. 19 – Filosofia: Le macchine possono pensare?
Pag. 20 – Filosofia: I problemi dell’Intelligenza Artificiale
Pag. 22 – Inglese: John R. Searle
Pag. 24 – Arte: La comunicazione visiva oggi
Pag. 25 – Arte: La “tecno-arte”
Pag. 27 – Arte: Gli effetti speciali e la cinematografia
Pag. 29 – Italiano: Nuovi linguaggi, l’italiano si rinnova
Pag. 31 – Italiano: Nuovi linguaggi, Il “Tam Tam” in codice della rete
Pag. 32 – Italiano: Sanguineti: La sperimentazione tra poesia e musica
Pag. 36 – Italiano: Sanguineti, “Vengo con la presente”
Pag. 37 – Traduzioni
2
Premessa
Il progresso scientifico in Platone
timios de par’umin kai Solwn dia thn twn nomwn gennhsin; kai alloi alloqi pollacou
andres, kai en Ellhsi kai en barbarois, polla kai kala apofhnamenoi erga, gennhsa
-ntes pantoian arethn; wn kai iera polla hdh gegone dia tous toioutous paidas,dia de
tous antropinous oudenos pw.
Platone, Simposio, 209 e
L’allusione a “templi” eretti in onore di legislatori deificati si riferisce presumibilmente a
comunità orientali nelle quali le leggi erano per tradizione attribuite a “divini reggitori”. I
greci, invece, non deificarono i loro legislatori. Omero ed Esiodo, Licurgo e Solone sono
per Platone i più alti rappresentanti, in Grecia, di una particolare sorta d’amore, perché
con le loro opere, generarono negli uomini ogni maniera di virtù. Poeti e legislatori sono
pari nella virtù educativa, che nelle opere s’incarna. Per questo rispetto, Platone vede la
tradizione spirituale greca, da Omero a Licurgo, fino a se stesso, come un’unità. Poesia e
filosofia, per quanto i concetti che l’una e l’altra possiedono di verità e realtà siano diversi,
sono però strette da un vincolo unificatore, dall’idea della paideia, che si genera dall’eroV
per l’areth.
Platone, Fedro, 274 c – 275 b
3
Attraverso il mito di Theuth, la divinità egizia alla quale era attribuita l’invenzione della
scrittura, viene affrontato il tema del rapporto tra quest’ultima e l’oralità. Socrate (e con lui
Platone) dà una netta preminenza all’oralità e svaluta gli scritti di ogni tipo, giudicandoli
semplici mezzi per richiamare alla memoria un argomento già conosciuto, non per
trasmettere la vera sapienza. Lo scritto non può essere interrogato, può cadere in mano
a chiunque e, se criticato, non sa difendersi. La sapienza può essere solo affidata
all’oralità dialettica, al discorso vivo, di cui quello scritto è una copia,
che resta
indelebilmente impressa nell’anima dell’ascoltatore; ne consegue che l’unico vero retore
è il filosofo [274 b – 278 e]
L’idea di un progresso scientifico strettamente connesso a un’evoluzione filosofica e
anche morale è presente anche in Seneca, il quale, però lo considera alla luce degli
effetti negativi che comportò all’umanità, quali l’avidità e la sete di potere…
Seneca: la teoria del progresso
Sed primi mortalium quique ex his geniti naturam incorrupti sequebantur et ducem et
legem, commissi melioris arbitrio. Naturae est enim potioribus deteriora summittere. Mutis
quidam gregibus aut maxima corpora praesunt aut veementissima: non praecedit
armenta degener taurus, sed qui magnitudine ac toris ceteros mares vicit; elephantorum
gregem excelsissimus ducit: inter homines pro maximo est optimum. Animo itaque rector
eligebatur, ideoque summa felicitas erat gentium in quibus non poterat potentior esse nisi
melior; tuto enim quantum vult potest qui se nisi quod debet non putat posse.
Seneca, Epistulae ad Lucilium 90, 4
Argomento della lettera 90 è quale sia il compito della filosofia. A esso è intrecciata la
storia della civiltà umana, da cui emerge chiaramente la posizione senecana nei confronti
del progresso. Il nesso è fornito dalla discussione di alcune opinioni espresse da
Posidonio di Apamea, filosofo del II-I sec. a.C. che aveva introdotto in Roma lo Stoicismo
di Zenone e Crisippo. Egli affermava che le artes, alle quali si deve il miglioramento della
condizione umana, erano dovute all’invenzione dei filosofi. La questione, di cui c’è traccia
anche nella poesia drammatica greca dei secoli V,IV, III, e connessa con la concezione
della storia dell’umanità, era già stata posta e discussa, con soluzioni diverse, da
numerosi filosofi greci (Protagora, Democrito, Platone nelle Leggi e Aristotele nella
Metafisica), riecheggiati da scrittori e poeti latini, quali Cicerone, Lucrezio, Orazio e
4
Virgilio. Secondo Posidonio, nell’età dell’oro il potere era nelle mani dei saggi; essi lo
usarono, senza esercitare una tirannide, per migliorare le condizioni di vita dei sudditi:
non c’era allora bisogno di leggi perché gli uomini erano moralmente incorrotti.
Hanc philosophiam fuisse illo rudi speculo quo adhuc artificia deerant et ipso usu
discebantur utilia non credo, secutam fortunata tempora, cum in medio iacerent beneficia
naturae promiscue utenda, antequam avarizia atque luxuria dissociavere mortales et ad
rapinam ex consortio discorrere. Non erant illi sapientes viri, etiam si faciebant faccenda
sapientibus.
Seneca, Epistulae ad Lucilium, 90, 36
Una volta insinuatasi, però, la corruzione morale, si sentì il bisogno di una legislazione e
sapienti come Solone o Licurgo fornirono gli uomini delle leggi e di tutte quelle arti atte a
rendere migliore la loro vita. Insegnarono così l’arte dell’edificazione delle case, della
fusione dei metalli, della tessitura, dell’agricoltura, della macinazione dei cibi e della loro
cottura, della costruzione di navi. Su quest’ultimo punto, Seneca si trova in disaccordo
con Posidonio: per lui, «omnia ista sagacitas hominum, non sapientia invenit», tutte
queste arti furono invenzioni dovute all’acutezza d’ingegno, non alla sapienza dell’uomo.
Le artes sarebbero invece opere di artigiani, non di filosofi, i quali, paghi di un tenore di
vita modesto, non cercano miglioramenti materiali, seguono la natura e non hanno
bisogno di lusso né di alcuna cosa superflua. Così Seneca sembra negare i vantaggi del
progresso tecnologico in una idealizzazione dello stato di natura che ricorda da vicino il
tono nostalgico dei poeti augustei per una mitica età dell’oro, in cui l’uomo primitivo era
più innocente e felice. Così anche la nascita della scrittura, vista da Platone come causa
della incapacità dell’uomo di riconoscere direttamente la reale natura dei fenomeni,
analizzabili solo attraverso simboli, ha per Seneca lati negativi. La filosofia, sostiene
Seneca, ha invece un compito più elevato: scoprire la verità sulle cose divine e umane;
per questo motivo il filosofo si è dedicato allo studio della verità e della nature, della legge
della vita, insegnando cosa sia il vero bene e come raggiungerlo. Ma gli uomini primitivi
non conoscevano la filosofia: «non erant illi sapientes viri, etiam si faciebant faccenda
sapientibus»; essa non è un dono né tocca in sorte, come la virtù è una conquista
dell’uomo sapiente. E’ dunque chiaro che per Seneca l’uomo non ha bisogno di fare
scoperte per vivere meglio, soprattutto se poi non le condivide con i suoi simili per il
progresso comune: la provvida natura ci ha dato tutto quello che è effettivamente
necessario per vivere bene, rilevando come il progresso, tramite i suoi aspetti negativi,
5
per certi versi precluda quella via della virtù che il filosofo ha per molti anni cercato di
indicare.
Nonostante una considerazione tanto negativa propagandata da un intellettuale e,
soprattutto, da uno scrittore molto apprezzato dalle generazioni a lui successive, le
condizioni di vita della popolazione poterono migliorare sensibilmente solo grazie alle
innovazioni tecnologiche che si susseguirono nel corso dei secoli. Così, se le migliorie
apportate ai macchinari agricoli furono una delle cause dell’aumento demografico
successivo all’anno Mille, le enclosures lo furono per la Prima Rivoluzione Industriale,
che, nata nel XVIII secolo in Inghilterra, si estese, in un secondo momento, prima
all’Europa occidentale, poi al centro continentale, infine alle estreme periferie, portando
con sé, da un lato, il miglioramento delle condizioni di vita della piccola e media
borghesia, dall’altro uno sfruttamento sempre maggiore degli strati più poveri della
popolazione e la formazione di un nuovo ceto sociale, il proletariato urbano. Una nuova
fase d’industrializzazione si ebbe quando, dopo la fine della Seconda Guerra Mondiale,
gli Stati Uniti assunsero stabilmente il ruolo di Paese guida nello sviluppo e nella
ricostruzione dei paesi usciti disastrati dalla guerra…
ll sistema mondiale dal XIX al XXI secolo
Nei secoli XIX e XX la popolazione del pianeta Terra è aumentata da 1000 a 6000
milioni. La rivoluzione industriale ha attraversato fasi successive e si è diffusa dalla Gran
Bretagna all’Europa occidentale, all' America Settentrionale e all’Oceania, a parte
dell’Asia orientale. Un grandioso esperimento politico e sociale, il comunismo, è nato nel
1917 in Russia e si è disgregato nel 1991, dopo essersi esteso all’Europa centroorientale nel 1945 e alla Cina nel 1949 (dove costituisce ancora l’ideologia politica
ufficiale). Oggi il capitalismo trionfa anche in Cina utilizzando sempre nuove tecnologie e
integrando tutte le economie in un unico mercato mondiale. Ma la storia è, come sempre,
aperta a diverse evoluzioni possibili. L’Europa non è più da molti decenni il centro del
sistema mondiale, ma ne rimane il massimo polo commerciale. L’esperimento in corso,
l’integrazione di 15 paesi nell’Unione Europea, cui molti altri chiedono di aderire, può
cambiare gli equilibri mondiali (dal 1° gennaio 1999 l’euro si affianca al dollaro nel ruolo di
moneta internazionale) e offre un esempio di cooperazione a scala continentale che altre
grandi regioni potrebbero seguire. Sin dal 1957 il mercato comune, progressivamente
dilatato da sei a quindici paesi, ha cambiato la geografia agricola e industriale dell’Europa
6
e ha orientato la crescita dei traffici, i flussi turistici, l’evoluzione delle reti di città. Cadute
le barriere della guerra fredda, dall’Atlantico agli Urali (e alla costa del Pacifico) si è
formato un grande spazio che è a un tempo un mosaico di economie e società e un
laboratorio di politiche di sviluppo. Tali politiche (dei governi, delle imprese, delle
comunità locali) combinano nei modi più vari quadri ambientali, risorse, eredità storiche e
iniziative attuali. Gli europei devono confrontarsi sia con culture simili insediate in altri
spazi (Nord America, Australia e Nuova Zelanda, America Latina) sia con le grandi civiltà
dell’Asia e dell’Africa che il colonialismo ha trascinato nella dinamica dello sviluppo
tecnologico ed economico, infrangendone gli equilibri sociali e demografici. L’urto è stato
più recente ma ha avuto conseguenze più gravi in Africa, dove il continente tropicale
compreso fra il Sahara e il Kalahari è divenuto il polo mondiale della povertà. Il Sudafrica,
economicamente sviluppato, ha abbandonato l’apartheid e sta realizzando un difficile e
prezioso processo di convivenza multirazziale e democratica. Un secondo polo di povertà
è il subcontinente indiano, ma qui dall’oceano della povertà e arretratezza contadina si
staccano vaste isole di modernità anche avanzata (l’industria informatica di Bangalore). Il
mondo islamico (arabo-persiano) dispone di una risorsa, il petrolio, che continuerà ad
essere strategica nel XXI secolo. La Turchia è, non solo per posizione geografica, un
ponte fra Asia e Europa (con le tensioni che questo duplice orizzonte di relazioni
comporta). Ma i grandi spazi che saranno protagonisti del XXI secolo sono il Nord
America, e l’Asia orientale, in cui vive un terzo della popolazione della Terra e che ha
realizzato dal 1960 al 1997 una crescita economica fortissima, solo temporaneamente
rallentata dalla crisi 1997-98. Nord America, Asia orientale, Europa sono i tre poli più
attivi del sistema mondiale, di cui dominano i settori di attività, le molteplici reti di
organizzazione della produzione e dello scambio, i flussi sempre più intensi che
rimodellano gli spazi economici. La rivoluzione digitale (computer e telecomunicazioni) è
l’asse portante della terza età industriale che si svilupperà compiutamente nel XXI
secolo. Una rete mondiale di metropoli, collegate dai trasporti aerei, costituisce già da ora
la "plancia di comando" di un sistema-mondo che mette in relazione, costringendole a
comunicare e a cooperare (superando conflitti anche violentissimi) le società e le culture
nate dai millenni di evoluzione delle società contadine e artigiane.
7
Il trionfo del capitalismo
Due eventi dominano la fine del secolo: la rivoluzione tecnologica e l’unificazione del
mondo intorno a una sola potenza e una sola economia. La rivoluzione digitale inaugura,
con una incubazione avvenuta fra 1965 e 1995, la terza età industriale che segue alla
seconda (1880-1960: fordismo) e alla prima (1780-1880: carbone, ferro, macchina a
vapore). La "globalizzazione", parallela alla mutazione delle tecnologie e delle forme
organizzative della produzione, si propone con le nozioni di compatibilità e di rete,
relegando nel passato il paradigma del conflitto (fra capitale e lavoro, fra grandi potenze
di forza equivalente). Dovunque la logica delle strutture prevale su quella della dialettica,
ormai utile solo a interpretare contrasti locali. La violenza dello scontro è diventata un
segno di arretratezza (le guerre "tribali" africane e balcaniche). Il capitalismo trionfa.
Anche gli inizi della prima rivoluzione industriale furono segnati, nell’Inghilterra della
seconda metà del Settecento, da un’esplosione simile: l’economia classica, da Smith a
Ricardo sino a Marx stesso ha la sua matrice e il suo orizzonte in quegli eventi. Si
riproducono oggi un rapporto non casuale fra innovazione tecnologica e organizzativa e
l’esigenza di un ambiente sociale deregolato, per sfruttare sino in fondo la potenzialità
economica delle nuove tecnologie. Rispetto alla velocità della trasformazione, le
prescrizioni delle norme appaiono come pastoie obsolete, condannate a riflettere
esperienze e condizioni non più attuali. Solo l’assenza di vincoli può consentire il pieno
dispiegarsi delle nuove potenzialità. La stessa rivoluzione produttiva innesca, però,
dinamiche sociali e culturali che non possono più affidarsi solo alla spontaneità della
crescita. L’onda d’urto distruttrice delle vecchie regole continua fino a quando sono
disponibili grandi quantità di forze sociali da mettere in campo. Nel Nord America
dell’immigrazione di massa e della frontiera e nell’Europa occidentale che si è
industrializzata questa "riserva" era fornita dalle masse contadine, per la prima volta
inserite totalmente nei circuiti mercantili e monetari. Alle soglie del XXI secolo, in un
contesto non più "atlantico" ma planetario, un ruolo analogo è svolto dalle energie e dalla
fame di merci dell’Asia orientale. Viene poi il periodo (negli Stati Uniti negli anni Trenta
del Novecento, in Europa negli anni Cinquanta) in cui, inseriti in un quadro dilatato i nuovi
soggetti, riemerge un bisogno di ordine, di razionalità, di istituzioni e regole. Quando i
tempi lo richiederanno di nuovo, la cultura europea potrà riproporre un’idea di direzione
consapevole del cammino della storia, svincolata dal modello del socialismo ispirato da
Marx, che ne è stato soltanto una prima e inadeguata versione, dipendente da una
esperienza industrialista ormai superata. La visione di Marx si fondava su una immagine
8
distorta di eguaglianza, una specie di anticipazione rovesciata del taylorismo (non a caso
tanto apprezzato da Lenin e Stalin). Il socialismo marxiano aveva come nucleo un
paradigma collettivista di azione sociale, fondato sulla forza del "noi": dal lavoro al tempo
libero, alla politica, alla formazione della personalità. Il paradigma collettivista è
tramontato, con il passaggio dalla prima organizzazione di fabbrica attraverso il fordismo
(che già separava la sfera del lavoro da quella del consumo e del tempo libero) alle forme
attuali di organizzazione flessibile e reticolare della produzione. Si è passati dal "noi"
della fabbrica, del quartiere operaio, del sindacato e del partito a un "io" competitivo e di
massa dai contorni ancora indefiniti, caratterizzato dalla moltiplicazione di soggettività dai
legami deboli e dalle esigenze forti, isolate nella aggressività dal lavoro e ricongiunte
nella condivisione (liberamente scelta e configurata da ciascuno) del consumo e del
tempo. La fuga privata, o al più corporativa, dal vecchio destino di classe pone l’esigenza
di una nuova relazione fra quantità sociale e qualità individuale. Il mutamento in atto
produce una serie di tensioni che avranno bisogno di progetto e non solo di spontaneità,
se vorranno evitare di concludersi in un inferno (una società di ghetti, frantumata). Le
potenze scatenate dalla scienza che stiamo usando (impatti ambientali planetari,
biotecnologie) renderanno presto obbligata una nuova domanda di compatibilità e di
regole.
Allo stesso modo, anche il mondo dell’economia è cambiato, anche attraverso di nuove
figure che facciano da tramite tra vecchio e nuovo…
Perché Internet?
Le decisioni tecnologiche non sono più solo relative a quale tecnologia usare, ma a come
utilizzarla, e le persone che prendono questo genere di decisione non sono più
solamente dei semplici tecnici, sono business leader e in molti casi business visionaries.
E' giunto il momento per le corporation di creare un nuovo ruolo esecutivo: il Chief Web
Officer, una persona cioè in grado di supervisionare le strategie aziendali relative a
Internet, Intranet e ai siti web. La grande maggioranza dei CEO è consapevole del fatto
che il commercio elettronico rivestirà un ruolo centrale nel loro futuro. Il problema,
afferma A. May - vp del Cambridge Technology Partners Inc. - è che questi executive
dovranno prendere direttamente confidenza con la Rete per poter essere in grado di
proporre alla propria azienda un cambiamento in linea con essa. Sono molte le aziende
che potrebbero beneficiare di uno shock ad alto livello. Dopo tutto è già difficile
9
convincere molti senior manager ad accendere il proprio PC, il che rende improponibile
lasciarli soli a prendere decisioni sul web seriamente. Tradizionalmente il direttore IT è
orientato alle tecnologie, ma il web introduce una nuova serie di problematiche a più
ampio spettro. Si tratta di uno strumento pervasivo di tutte le funzioni aziendali: vendita,
marketing, produzione, comunicazione interna ed esterna, risorse umane. Il marketing
appronterà le strategie di mercato ma può essere insensibile ad aspetti quali la privacy, la
netiquette, etc. Alcuni usano molto bene la Rete internamente mentre altri la usano bene
esternamente. Ma pochi sono in grado di usarla bene in tutti i suoi aspetti e per questo
c'è bisogno di una nuova figura professionale in grado di capirne tutte le problematiche e
coordinarne tutti gli interventi. E' molto complicato, soprattutto per le multinazionali che
possono operare bene in un Paese, ma sbagliare approccio in un altro. La Rete è
sovranazionale e tutto ciò che viene pubblicato può essere visto ovunque, risultando
magari offensivo per qualcuno o incomprensibile per qualcun altro. Molte aziende
dovranno ripensare le proprie strategie di sviluppo: dalla capacità produttiva alla capacità
di interazione con le reti. Le aziende vorranno collegare via rete i centri di ricerca, quelli di
produzione e quelli di vendita. Enormi vantaggi produttivi deriveranno a coloro che
sapranno riorganizzare il proprio processo produttivo riuscendo a gestire i propri fornitori
e clienti via Internet. Dove la rivoluzione industriale ha ridotto i costi diretti di produzione lavoro e materie prime - la rivoluzione informatica consentirà una significativa riduzione
dei costi di sovrapproduzione e di quelli legati alle transazioni. E per molte aziende questi
costi sono la metà di quelli complessivi. Le aziende, inoltre, potranno aumentare la
vendita dei propri prodotti e servizi grazie alle nuove tecnologie. Ciò richiederà strategie
radicalmente differenti per il marketing e la promozione. Richiederà inoltre metodologie
significativamente diverse dalle attuali per quanto riguarda la compilazione degli ordini,
l'emissione di fatture e l'assistenza ai clienti. Nelle tradizionali organizzazioni industriali i
direttori di produzione, vendita, logistica, marketing e supporto al cliente forniscono una
leadership giornaliera che consente all'azienda di raggiungere il successo. Nella nuova
Information Age il successo del loro lavoro dipenderà in maniera sempre più significativa
da quanto bene queste funzioni condurranno le proprie attività sulla Rete. Le aziende che
vogliono affrontare seriamente questo mercato e le sfide che esso comporta, dovranno
creare una figura di senior manager che segua e coordini tutte le attività web gestendo
risorse composte da persone e capitali. Le tradizionali organizzazioni IT spesso non sono
sufficientemente flessibili o innovative e non hanno un adeguato peso in azienda o le
necessarie competenze per prendere tutte quelle iniziative che la presenza su Internet
10
richiede. Man mano che un numero sempre più grande di aziende capirà l'importanza di
Internet e del commercio elettronico per il proprio business, la richiesta di queste nuove
figure manageriali, aumenterà. E' stato osservato che non esiste una correlazione diretta
tra gli investimenti effettuati nell'area IT e i risultati ottenuti nell'area business,
performance o knowledge management. Erik Brynjolfsson, docente di sistemi informativi
presso la MIT Sloan School, fa notare in una intervista a Information Week (9 Settembre
1996) che un investimento della stessa entità in una data tecnologia può produrre un
vantaggio competitivo in un determinato ambito, ma essere solo una voce di costo
quando utilizzato in un'altra azienda. Il fattore chiave per un più alto ritorno
dell'investimento in ambito IT è l'effettivo utilizzo dell'informazione e il suo relazionarsi
con la struttura aziendale. La stessa conclusione è supportata dallo studio degli
investimenti nel settore IT da parte dell'economista Paul Strassmann. Nel suo libro The
Squandered Computer conclude che non esiste alcuna relazione tra performance del
sistema informativo e performance aziendali. In una simile nota John Seely Brown direttore dello Xerox Park Research Center di Palo Alto, California - sottolinea che negli
ultimi 20 anni l'industria americana ha investito più di un trilione di dollari in tecnologie ma
ha realizzato solo un piccolo miglioramento nell'effettiva capacità gestire il patrimonio di
informazioni aziendali (knowledge management). Brown attribuisce questo fallimento alla
scarsa comprensione dei meccanismi con cui i lavoratori comunicano e operano
attraverso il processo della collaborazione, condividono le proprie conoscenze e
producono avvalendosi anche delle idee degli altri (fonte: The Economist). Le aziende
devono riuscire a riconoscere e valorizzare le qualità intangibili contenute nelle menti e
nell'esperienza dei propri dipendenti. Senza queste conoscenze avranno molte difficoltà a
prevedere e immaginare il proprio futuro. C'e' ancora tempo per acquisire la giusta
sensibilità per riuscire a muovere il proprio business in Rete, ma... si tratta di poco tempo.
Come ogni rivoluzione che si rispetti, anche la Rivoluzione Informatica ha portato
cambiamenti nella vita di ogni giorno. Le grandi potenzialità che i nuovi sistemi
multimediali offrono, infatti, hanno consentito e consentiranno sempre più, in un futuro
non troppo lontano, sviluppi incredibili in campi quali quello della robotica e
dell’automazione o della medicina…
11
Il defibrillatore impiantabile
Il defribillatore automatico impiantabile ha radicalmente modificato il trattamento delle
aritmie ventricolari maligne non solo nella profilassi secondaria, ma anche in quella
primaria, alla luce dei risultati di studi quali il MADIT ed il MUSTT.
Si chiama defibrillatore impiantabile la nuova “macchina” che permette di migliorare la
qualità della vita dei pazienti affetti da aritmia (una condizione nella quale il battito
cardiaco perde la sua normale regolarità di sequenza). Il defibrillatore impiantabile (ICD),
ideato da Mirowsky nel 1966, é stato per la prima volta applicato nell'uomo nel 1985.Da
allora ad oggi si contano più di 100.000 portatori di ICD in tutto il mondo.
Si tratta di un "device" elettronico costruito e adatto per:
·
riconoscere e trattare le aritmie ventricolari maligne ricorrenti (TV e FV,tachicardia
e frequenza ventricolare), cioè i disturbi del ritmo cardiaco che intervengono,
spesso, come complicanza nei pazienti con infarto del miocardio e capaci di
provocare la morte;
·
ridurre l'incidenza della morte cardiaca improvvisa dovuta a queste aritmie;
·
migliorare la qualità di vita dei pazienti affetti da TV o FV ricorrenti (interruzione
rapida dell'aritmia, riduzione dei ricoveri, diminuzione dei controlli ospedalieri e
dello stato d'ansia del paziente e dei familiari);
·
prolungare la vita individuale.
Generalmente, la decisione dei medici sull’impianto o meno di questo dispositivo
elettronico è presa dopo uno studio sulla cardiopatia di base, il riconoscimento delle turbe
del ritmo in atto, e la valutazione della funzione ventricolare cioè della capacità del
muscolo cardiaco di riprendere un’attività normale.Questa serie di esami insieme ad una
valutazione della qualità di vita del paziente fanno propendere i medici per l’impianto del
defibrillatore. L’apparecchio, impiantato sotto la cute con elettrodi che esplorano le
funzioni cardiache per quanto riguarda il ritmo, è in grado di riconoscere il tipo di aritmia
presente e di fornire automaticamente la terapia elettrica più opportuna per quella
particolare aritmia, che consiste in una piccolissima scarica elettrica: piccolissima perché
essendo gli elettrodi posti vicino al cuore, alcune volte appoggiati sul muscolo cardiaco,
non è necessario utilizzare una scarica elettrica notevole come si fa invece quando
bisogna defibrillare dall’esterno. I criteri di riconoscimento e il tipo di terapia elettrica
possono essere modificati dall’esterno dal medico se le condizioni del paziente cambiano
nel tempo. Le sempre più ridotte mobilità e mortalità legate all’impianto e il
12
perfezionamento dei materiali e delle tecnologie usate permettono oggi di considerare
quest’opzione terapeutica molto affidabile e non più sperimentale.
Il defibrillatore automatico impiantabile si è rivelato il mezzo terapeutico più efficace nella
prevenzione della morte improvvisa cardiaca. Dal 1982, anno in cui per la prima volta fu
impiantato nell'uomo, il defibrillatore automatico ha subito una sostanziale evoluzione
sostenuta da importanti progressi tecnologici concernenti sia il sistema elettrodico che le
prestazioni terapeutiche.Un sistema semplice, applicato con elettrodi epicardici (sul
cuore) ed in grado di eseguire unicamente la defibrillazione, è stato sostituito negli anni
novanta da un altro totalmente endocavitario (con elettrodi dentro le cavità cardiache), in
grado di eseguire anche la stimolazione ventricolare, per le bradiaritmie (turbe del ritmo
cardiaco a bassa frequenza, con FC più bassa di 35-45 battute al minuto) o ad alta
frequenza per le tachicardie ventricolari (turba del ritmo che a FC elevata, maggiore di
135-150 b.min., prolungandosi nel tempo non riesce più a mantenere un’adeguata
perfusione degli organi), e la cardioversione. L'aggiunta della funzione di stimolazione, da
poco anche bicamerale (due elettrodi posti uno in una camera cardiaca atriale, e l’altro in
una camera cardiaca ventricolare), ha rappresentato un fondamentale completamento
del defibrillatore automatico che oggi può, pertanto, essere definito un pacemakercardiovertitore-defibrillatore (PCD): un sistema molto versatile ed utile per trattare le
aritmie ipocinetiche (a bassa frequenza) ed ipercinetiche (ad alta frequenza) sostenute,
ad eccezione delle forme incessanti e delle tachiaritmie atriali. L'uso della stimolazione ha
comportato due rilevanti benefici di ordine clinico: il primo consiste nella prevenzione
della morte improvvisa bradiaritmica, che costituisce il 15-20% della mortalità improvvisa
aritmica; il secondo nel miglioramento della qualità di vita dei portatori di PCD in virtù del
fatto che gli episodi di TV sono arrestati in modo asintomatico, invece che con dolorose
cardioversioni (ripristino del ritmo sinusale tramite una scarica elettrica). L'improvvisa
erogazione di shock, infatti, provoca dolore e stress, esaltati dalla coscienza di aver avuto
un’aritmia minacciosa per la propria vita, e determina importanti condizionamenti
psicologici che a volte inducono manifestazioni nevrotiche di tipo depressivo.La capacità
di memorizzare gli episodi tachiaritmici trattati è un’altra funzione inserita nei modelli più
recenti, che permette di acquisire informazioni utilissime per un più preciso
inquadramento clinico prognostico dei pazienti e per perfezionare la funzione di
riconoscimento delle aritmie da parte del PCD. E’ stato documentato, infatti, che il 20 %
degli interventi dei defibrillatori avviene per un errore di riconoscimento: una tachiaritmia
sopraventricolare è scambiata per ventricolare. I modelli più recenti, dotati di sensing
13
bicamerale (due elettrodi in due camere diverse del cuore, atrio e ventricolo, permettono
il riconoscimento e quindi l’eventuale trattamento elettrico dell’aritmia in atto) e/o di altri
parametri (analisi della modalità d’inizio, della stabilità del ritmo e della durata del QRS,
lettere che rappresentano l’inizio e la fine di un’onda dell’elettrocardiogramma) hanno
mostrato una specificità nel riconoscere le TV superiori al 95% senza compromissioni
della sensibilità. Le indicazioni all’impianto sono attualmente codificate nelle linee guida
emanate congiuntamente dall’American College of Cardiology e dall’American Heart
Association. Esistono però interrogativi riguardo i costi sanitari e le possibili implicazioni
di carattere psicologico che potrebbero ripercuotersi sulla qualità di vita di pazienti a
possibile rischio di morte improvvisa, ma nei quali non si è mai verificato un evento
aritmico. È opportuno attendere i risultati di studi ora in corso, SCD-HEFT Trial, MADITII
e BEST per avere ulteriori informazioni sulle indicazioni all’impianto, sulla efficacia della
concomitante terapia medica con beta bloccanti e sulla predittività dei test non invasivi ed
invasivi attualmente in uso. Non immodificabili appaiono anche le indicazioni nella
prevenzione secondaria, alla luce dei dati del registro AVID che pongono in evidenza
come le aritmie ventricolati associate a fattori scatenanti modificabili siano in realtà
anch’esse a rischio elevato di recidive. Sono in corso di valutazione i dati riguardo la
stimolazione biventricolare che suggeriscono un miglioramento emodinamico. Se questi
dati saranno confermati, si potrebbero ottenere non solo un miglioramento della mortalità
aritmica, ma anche di quella totale e un immediato riscontro riguardo la qualità di vita in
pazienti con scompenso cardiaco refrattario alla terapia medica usuale e classe
funzionale avanzata.
Il futuro delle macchine
Da sempre, l’uomo ha avuto la necessità di strumenti con i
quali sopperire a eventuali limitazioni fisiche o per migliorare il
rendimento del proprio operare. Dai primi rudimentali utensili
alla leva, dalla locomotiva a vapore al motore a scoppio, dalla
catena di montaggio all’automazione delle fabbriche, attraverso
un’evoluzione che, nel corso dei secoli, ha permesso alla
maggior parte della popolazione mondiale uno stile di vita
decoroso e una diminuzione complessiva degli incidenti legati
al mondo del lavoro (migliorando i macchinari all’interno delle
fabbriche, per esempio, il livello di sicurezza salirà, e così pure lasciando fare i lavori
14
“sporchi” a degli automi). Così, la ricerca nel campo dell’automazione, spinta a progredire
dalla necessità di uno sviluppo industriale e, spiace ammetterlo, soprattutto bellico, ha
fatto letteralmente passi da gigante, arrivando alla costruzione e programmazione (fino a
qualche anno fa era proprio questa fase quella che dava maggiori problemi
nell’assemblaggio di un robot) di macchine quasi del tutto autosufficienti, che dipendano
dall’uomo solo in una fase iniziale (al momento di ricevere gli input necessari per un
corretto funzionamento) o per quel che riguarda l’autonomia energetica. Sono così nati
Billy, il cagnolino robot della Sony, già commercializzato in Giappone, e numerosi
androidi (Henda Sapiens), che, nelle intenzioni della NASA, dovrebbero sostituire l’uomo
nelle future esplorazioni del cosmo. Ma quale potrebbe essere il futuro delle macchine?
Sarebbe possibile giungere a una tecnologia tale da favorire la creazione di cyborg,
“esseri” metà uomini e metà macchine, capaci non solo di compiere azioni e movimenti
sotto la stimolo di un software, ma anche di ragionare autonomamente, come i famosi
“Nexus-6” di Blade Runner?
Normalmente il termine automa è associato all'altro ancor più generale di macchina e sta
ad indicare un congegno che "imita i movimenti e le funzioni di un corpo animato". In
sostanza il concetto di automa è quello di una macchina capace di svolgere in maniera
automatica, una volta sollecitata in modo opportuno, delle operazioni particolari più o
meno complesse che portano a un preciso risultato.
Storia degli automi
La parola automa deriva dal greco automaton, “meccanismo semovente”, e dal latino
automâtus, “che si muove da sé”. E’ una macchina che, con mezzi meccanici, compie
attività complesse in cui sono riconoscibili elementi del comportamento umano. Il primo
momento significativo della costruzione di un automa è connesso con gli sviluppi
dell'orologeria e infatti i primi automi documentati sono figure collegate ai meccanismi di
grandi orologi a torre (fantoccio della torre dei Maurizio di Orvieto, 1351; i famosi "mori"
della torre dell'Orologio a Venezia, 1477) o a parete (orologi con intere processioni di
figure della cattedrale di Strasburgo, 1358). Il periodo di maggior diffusione ed
entusiasmo degli automi fu il XVIII secolo, quando i progessi della scienza meccanica
resero possibili risultati spettacolari per la complessità e la varietà dei movimenti eseguiti
dalle figure, singole o in gruppo, che venivano anche esibite in tournées. Celebri furono in
quel periodo gli automi del francese Jacques Vaucanson (1709-1782), che però non ci
15
sono pervenuti, mentre restano quelli, veramente straordinari, degli svizzeri Pierre e
Henri Louis Jacquet-Droz. Ancora nel XIX secolo automi di altissima qualità furono
oggetto della curiosità popolare, mentre d'altra parte congegni meccanici assai più poveri
e semplici continuavano ad essere diffusi in una modesta produzione sotto forma di
orologi e oggetti di raffinatissima oreficeria che venivano ancora prodotti per una
particolare clientela aristocratica (per esempio, i minuscoli automi di alta oreficeria creati
da Carl Fabergé per la corte di Russia). I progressi della tecnica, in particolare
dell'elettronica, hanno portato alla costruzione di macchine complesse che, in taluni casi,
possono svolgere alcune funzioni proprie dei livelli superiori dell'attività umana. Per
queste macchina, in grado di essere programmate per svolgere le più svariate mansioni
e, talvolta, per modificare le proprie azioni in relazione ai mutamenti ambientali, si usa
ancora parlare di automi, per quanto sia invalso nell'uso il termine robot .
Applicazioni degli automi
Un esempio di applicazione può essere attribuito a quel dispositivo elettromeccanico
automatico e programmabile, usato nell'industria e nella ricerca scientifica per svolgere
un compito o un repertorio limitato di compiti comunemente detto robot. L'idea di robot
risale a tempi antichi, quando alcuni miti raccontavano di creature meccaniche portate
alla vita. Oggi il termine automa è applicato, nel linguaggio comune, ai dispositivi
artigianali di solito più meccanici che elettromeccanici, realizzati per imitare i movimenti di
esseri viventi. Alcuni dei robot utilizzati per il cinema o a scopo di intrattenimento sono in
realtà automi, magari con l'aggiunta di sistemi di telecomando. Esiste poi un'altra
applicazione degli automi e cioè nello sviluppo dell'unità di governo presente nella
macchina di Turing.
Per le loro caratteristiche, gli automi a stati finiti sono in grado di risolvere solo quella
tipologia di problemi in cui il numero di eventi da ricordare risulta essere finito e
determinato a priori. Poiché, vi sono anche problemi per la cui risoluzione questo vincolo
risulta troppo restrittivo, sorge la necessità di un approfondimento della questione, in
modo da vedere se l'impossibilità di risolvere con gli automi certi tipi di problemi è dovuta
all'inadeguatezza dello strumento logico usato per la modellizzazione oppure alle
caratteristiche proprie del problema, che lo rendono irrisolvibile con qualsiasi tipo di
modello logico formale. Per i motivi sopra citati è risultato necessario progettare una
macchina astratta in grado di risolvere qualsiasi algoritmo matematico-logico.
16
Molti matematici si sono cimentati, fin dai primi decenni di questo secolo, nella ricerca di
macchine computazionali astratte in grado di risolvere qualsiasi tipo di problema, o per lo
meno tutti quelli risolvibili attraverso un algoritmo, e un passo decisivo nella teoria della
computazione fu fatto nel 1936 da A.M. Turing con l'articolo "On computable numbers
with an application to the entscheidungs problem" in cui, oltre a dare una definizione
rigorosa di algoritmo, identificò in modo formale le caratteristiche che una macchina
astratta (modello matematico) doveva avere per poter rappresentare ed eseguire un
algotirmo: "La macchina di Turing". Se si accetta la tesi di Turing, lo studio delle
macchine di Turing coincide con quello degli algoritmi e quindi, in ultima analisi, con
quello dei problemi risolvibili per via algoritmica, anche se ciò richiede la progettazione di
una macchina diversa per ogni specifico problema.
Da questo primo, rozzo tentativo di calcolatore a oggi l’evoluzione è stata costante ed
esponenziale. Dopo l’introduzione e la commercializzazione di processori sempre più
veloci e di nuove periferiche hardware in grado di ridurre notevolmente i tempi “morti”
all’interno delle macchine, anche la robotica e l’automazione hanno compiuto un grande
balzo in avanti. Le capacità dei robot più recenti, infatti, sono straordinarie: sorridono,
avvitano bulloni, salgono scale, ballano…
L’aspetto incute un po’ di timore, ma il casco color oro serve a
proteggere gli “occhi” (due telecamere) di Robonaut, il modello più
avanzato di robot costruito nei laboratori della Nasa. La testa è
ricoperta di materiale acrilico, trattato per resistere a temperature
molto basse, ma la parte più “tecnologica” di Robonaut sono le
mani, dalle capacità quasi umane, capaci di avvitare e svitare con
dita più sicure di quelle dell’uomo. Il robot, però, non ha gambe:
nello spazio non servirebbero. I tecnici della Nasa sperano di poterlo usare entro un anno
o due per le piccole riparazioni sulla Stazione spaziale internazionale. Il robot astronauta,
infatti, può essere completamente guidato a distanza, anche dalla Terra.
Asimo (Advanced step in innovative mobility) è l’ultimo
“giocattolo” della Honda: un robot che ha la taglia di un
bambino di sette anni e pesa solo 43 kg. Si comanda con un
semplice joystick che permette di fargli cambiare rapidamente
direzione e di fargli accelerare il passo. Ne esistono due
17
esemplari, usati per studiare come si bilancia il peso del corpo dei robot mentre
cammina. L’obiettivo è la prevenzione delle cadute, che possono provocare danni
gravissimi.
Questo processo, ovviamente, ha portato alla luce nuove perplessità e nuovi dubbi, sia
circa la possibilità di un utilizzo di macchine “intelligenti”, sia circa le eventuali modalità e
finalità di tale operazione…
Il calcolatore elettronico come macchina logica
I moderni calcolatori elettronici sono strumenti che hanno assunto un’enorme rilevanza in
molti ambiti della nostra società. Mentre le tecnologie tipiche della prima e della seconda
rivoluzione industriale erano prevalentemente legate alle scienze fisiche e naturali, i
computer hanno anche rapporti molto forti con le scienze tradizionalmente più astratte,
come la logica e la matematica, e con problemi tradizionalmente oggetto della filosofia,
come l’interpretazione del linguaggio e lo studio della conoscenza. Oggi essi sono
universalmente indicati come macchine, anche se si discostano notevolmente dal
significato tradizionalmente attribuito a questa parola, legato all’idea di meccanismo o di
congegno di tipo meccanico, composto in genere di leve e ruote per svolgere movimenti
od operazioni fisiche. In effetti, i computer sono macchine molto particolari: in primo
luogo, perché non manipolano pezzi di metallo, sostanze chimiche o altri oggetti fisici
tipici delle macchine, ma trattano informazioni e dati rappresentati in forma simbolica; in
secondo luogo, perché essi non sono solo l’applicazione pratica di leggi o principi
scoperti dalle scienze naturali o derivati da esperienze “sul campo”, ma il risultato di
discipline scientifiche e di leggi umane molto diverse fra loro. La nascita stessa dei primi
calcolatori è da riferirsi a un vasto movimento interdisciplinare noto come prima
cibernetica. Così, se il computer deve le proprie basi fisiche alla moderna elettronica, i
suoi presupposti teorici sono invece legati ai risultati nel campo della logica matematica
dell’ultimo secolo e in particolare alle nozioni di linguaggio formale, di sintassi e di calcolo
logico da loro formulati. La sua architettura di base è invece legata alla cosiddetta
architettura di von Neumann, derivata dalle idee sul funzionamento dei neuroni, oggi
superate, che erano diffuse tra i biologi quando von Neumann e il suo gruppo costruirono
i primi calcolatori. Sin dalle origini, pertanto, le macchine-computer sono il risultato sia di
conoscenze scientifiche di tipo fisico-elettronico, sia di teorie e linguaggi logicomatematici, sia di concezioni, teorie e idee sul funzionamento del cervello sui linguaggi di
18
comunicazione. Questa mescolanza di vari aspetti e discipline rende quasi unica la
tecnologia informatica e i computer. Non a caso, negli ultimi anni, nuovi studi sul cervello
umano, visto adesso come costituito da più sistemi che lavorano in parallelo, hanno
suggerito ad alcuni scienziati la creazione di computer di nuovo tipo, basati sul calcolo
parallelo e non sul modello sequenziale.
Le macchine possono pensare?
Da sempre la filosofia ha dedicato molta attenzione ai problemi del pensiero e delle
attività mentali in genere. La filosofia antica dedicò molta attenzione all’individuazione e
alla spiegazione di quelle che erano ritenute le leggi metafisiche del pensiero: il
sillogismo aristotelico è una delle descrizioni più note basate sull’individuazione di schemi
o criteri con cui dedurre le conclusioni partendo da premesse note. Nel Seicento, il secolo
della rivoluzione scientifica, alcuni filosofi presero spunto dal grande sviluppo che la
matematica e le scienze fisiche stavano avendo in quel periodo per cercare di definire
con più precisione il modo in cui sia possibile ragionare correttamente. In particolare, la
forma astratta e simbolica che i caratteri dell’algebra avevano assunto sembrò la più
adatta anche a rappresentare il modo di procedere del pensiero. Hobbes, partendo da
una concezione materialista delle sensazioni e della conoscenza, affermò che «ragionare
non è nient’altro che calcolare», mentre Leibnitz, preoccupato di preservare l’autonomia e
la differenza della sostanza spirituale dalla materia, chiamo “automa incorporeo”
qualunque entità semplice capace di sentimenti, pensieri, percezioni.
Nei decenni scorsi, e in particolare a partire dagli anni Cinquanta (ARPANET, l’antenato
di Internet, risale agli inizi degli anni Quaranta, quando l’U.S. Army la usava per
comunicare, durante la guerra, non essendo essa intercettabile), molti ricercatori si
dedicarono all’attualizzazione del problema, essendo convinti di avere a portata di mano
una teoria generale del pensiero, da dimostrare attraverso la realizzazione di programmi
sperimentali sui moderni (allora) calcolatori elettronici. Tra questi, spicca l’italiano
Domenico Parisi, autore di uno studio sulle reti naturali e il connessionismo. Furono,
però, sollevate molte critiche nei confronti dell’ipotesi dell’Intelligenza Artificiale, da parte
di autori come il filosofo del linguaggio John Searle e come Terry Winogard, che pure
diedero un importante contributo in questo campo.
Le ricerche sulla Intelligenza Artificiale hanno preso le mosse da due filoni di riflessione,
quello logico-matematico, sviluppatosi negli anni Trenta a opera, in particolare, di Turing
19
e di von Neumann, e quello biologico-antropologico, condotto da biologi come Bateson e
di psicologi e studiosi delle organizzazioni come Simon. Le convinzioni di base che
accomunano tutti i ricercatori che si occupano di questa nuova disciplina, sono dunque
basate da Rufus Wainwrightun lato su acquisizioni scientifiche e tecnologiche recenti,
dall’altro su vere e proprie ipotesi sull’intelligenza, il pensiero e il loro rapporto con il
corpo.
I problemi dell’Intelligenza Artificiale
Le basi teoriche dell’Intelligenza artificiale si basano essenzialmente su due
strumentazioni scientifiche, le nozioni di linguaggio formale e di calcolo logico (o
computazione) e i moderni computer. Le nozioni sono state elaborate dalla ricerca logica
nell’ultimo secolo e consentono l’espressione di teorie e concetti complessi nell’ambito di
linguaggi simbolici formalizzati. Servendosi di un linguaggio formale è possibile trovare
alcune formule elementari che costituiscano le basi di una certa teoria (assiomi) dalle
quali, attraverso regole di deduzione, si possono derivare altre formule (computazione).I
computer, invece, consentono di rappresentare al proprio interno i linguaggi simbolici in
forma digitale/binaria e perciò possono effettuare velocemente sicuramente le varie
computazioni, imitando un linguaggio formalizzato.
Naturalmente, da sempre sono state formulate varie obiezioni alla tesi che una macchina
possa pensare, ed esse sono state riproposte anche dinnanzi a una macchina logica
come il calcolatore elettronico, ma le difficoltà pratiche incontrate nello sviluppo dei
programmi di Intelligenza Artificiale hanno finito per ingrandire e alimentare queste
obiezioni. L’obiezione radicale si basa sul fatto che, sebbene si comportino come se
fossero molto intelligenti, i computer seguono solo procedure meccaniche, anche se
molto sofisticate, senza capire effettivamente le risposte che danno. L’obiezione fa
riferimento all’ipotesi che in sostanza le risposte o i risultati finali delle elaborazioni che i
computer ci presentano sono solo formulazioni simboliche e che siamo solo noi a dare un
effettivo significato a queste espressioni.
Negli ultimi anni, così, il dibattito sull’I.A. ha ampiamente superato l’ambito specialistico
ed è giunto a riprendere alcuni temi classici della filosofia come quello della conoscenza,
della coscienza e dell’intenzionalità. Proprio per questo, studiosi apparentemente
“impreparati” ad affrontare l’argomento, hanno partecipato a tale dibattito, fornendo spunti
diversi e interessanti.
20
Un primo tipo di obiezione si ispira ad alcuni temi della filosofia di Heidegger ed è vista
con grande interesse da autori come Flores e Winogard: è la distinzione tra mondo
esterno oggettivo e fenomeni mentali soggettivi, e la conseguente critica sia alle posizioni
semplicemente
oggettivistiche
dia
a
quelle
semplicemente
soggettivistiche.
L’interpretazione e la comprensione della realtà, infatti, sono considerate da Flores e
Winogard attività che non possono essere separate dal vivere nella e dentro la realtà.
Questo modo di concepire l’attività cognitiva di comprensione del mondo costituisce un
punto di vista radicalmente diverso da quello dell’Intelligenza artificiale, che invece si
basa sull’idea di scremabilità di comprensione della realtà esterna, vale a dire sull’idea di
poter analizzare l’intelligenza in astratto attraverso linguaggi formali, estranei alla realtà,
prescindendo dal contesto sociale specifico in cui si esplica. In questa visione, agli attuali
calcolatori,
dotati
di
programmi
di
tipo
computazionali,
mancherebbe
quella
comprensione intuitiva, pre-cosciente e preliminare che caratterizza gli uomini. Pertanto
l’idea dei ricercatori di Intelligenza Artificiale di riprodurre l’intelligenza con algoritmici
meccanici e simboli astratti, se può avere successo in ambienti molto ristretti e delimitati
(giochi o discipline molto formalizzate), è destinata a gravi insuccessi in ambienti reali,
caratterizzati da scarso determinismo e da un elevato numero di variabili.
Un secondo tipo di obiezione è basato su alcune riflessioni tipiche della filosofia del
linguaggio ed è stata formulata da Searle, un noto filosofo contemporaneo, con un
particolare test (il cosiddetto test della stanza cinese) che si contrappone, rovesciandone
i presupposti, a un altro famoso test che i sostenitori dell’Intelligenza Artificiale
considerano molto convincente e favorevole alle proprie tesi (il test di Turing). In
sostanza l’argomentazione di Searle sull’osservazione che gli attuali computer, che
imitano comportamenti intelligenti attraverso la manipolazione di simboli astratti, non
hanno una reale comprensione del significato di quei simboli, perché questo non è
riducibile alle regole formali dell’algoritmo ma è collegato all’intenzionalità, tipica della
mente umana. Ma se i computer non hanno intenzionalità e non comprendono i
significati, cioè i contenuti reali dei simboli che manipolano, allora non si possono
considerare delle menti e quindi non si può dire che pensino. Questa seconda obiezione
ha in comune con la prima il riferimento a una intenzionalità o a una originaria percezione
di sé come parte di un contesto vivente, sentimento non riconducibile ad algoritmi
simbolici e quindi precluso agli attuali computer. A differenza della posizione di Winogard
e Flores, tuttavia, questa obiezione non si estende a ogni ipotesi di Intelligenza Artificiale.
Il suo bersaglio è solo l’ipotesi forte dell’Intelligenza Artificiale, cioè l’idea che gli attuali
21
computer quando eseguono tali programmi in qualche modo pensino. Searle infatti non
esclude che in futuro si potranno costruire macchine effettivamente pensanti, ma esclude
che con i metodi attuali si possa far pensare una macchina. La capacità di attribuire
significati dipende, secondo Searle, da proprietà intrinseche della materia cerebrale che
oggi in parte non sono ancora state chiarite.
John R. Searle
Searle, John - (b. 1932, Denver, CO; Ph.D. philosophy, Oxford; currently Professor of
Philosophy, UC Berkeley). In philosophy of mind, Searle is known for his critique of
computationalism, his theory of intentionality, and his work on the problem of
consciousness. He took his Ph.D. in philosophy at Oxford, where he studied under John
Austin and later became Lecturer in Philosophy at Christ Church from 1957-1959.
Subsequently he went to UC Berkeley, where he became Professor of Philosophy.
Searle's early work was in speech act theory, culminating in 1969 and 1979. He is
credited with having elaborated the theory of speech acts associated with Austin, and
with having introduced into the theory original elements of his own, most notably
regarding the role played by speakers' and receivers' intentions in constituting the
meaning of speech acts. Consistent with the focus on intentionality, his interest turned to
philosophy of mind, where his major work can be seen as consisting in three main efforts:
a critique of computationalism and strong Artificial Intelligence (AI); the development of a
theory of intentionality; and the formulation of a naturalized theory of consciousness.
The Critique of Computationalism and Strong AI
The best known example of Searle's critique of computationalism and strong AI is his
Chinese Room Argument. The main thrust of this thought experiment was to show that
the syntactic manipulation of formal symbols does not by itself constitute a semantics.
The implications for computationalism and strong AI were held to be the following: first,
computationalism fails because the formal syntax of a computer program has been
shown not to be intrinsically semantic, and second, strong AI fails because a system's
behaving as if it had mental states is insufficient to establish that it does in fact have
these states. Interestingly, Searle's assertion that syntax is insufficient to establish
semantics predates the Chinese Room Argument and in fact represents one of the main
objections to the generative grammar program that he voiced back in the early 1970s.
22
More recently (1997), Searle has argued that the Chinese Room Argument granted too
much to computationalism. As he sees it now, the argument wrongly took as
unproblematic the assumption that computer programs are syntactic or symbolic in the
first place. Instead, he argues that there is no fact intrinsic to the physics of computers
that make their operations syntactic or symbolic; rather, the ascription of syntax or
symbolic operations to a computer program is a matter of human interpretation.
The Theory of Intentionality
Intentionality played an important role in Searle's philosophy going back as far as his
early work in speech act theory. In 1983, he formulated a comprehensive theory of
intentionality.
In 1983 Searle analyzes the intentional state as consisting of a representative content in
a psychological mode. Although many representative contents consist in an entire
proposition, many do not, and it is not necessary that they do. Searle also analyzes
intentional states in terms of their directions of fit (which can be world-to-mind, mind-toworld, or null) and directions of causation (which can be mind-to-world or world-to-mind).
An important feature of Searle's theory of intentionality is something he calls The
Background. The Background is theorized to be a set of skills, capacities, and
presuppositions that, while being nonrepresentational, makes all representation possible.
The Theory of Consciousness
Searle's theory of consciousness is given major exposition in 1992 as well as in the
essays collected in 1997.
The first basic principle grounding Searle's theory of consciousness is that consciousness
is irreducible. For Searle, consciousness is essentially a first-person, subjective
phenomenon, talk of conscious states cannot be reduced or eliminated in favor of thirdperson, because he speaks about neural events. Any such attempt at reduction, Searle
argues, simply misses the essential features of conscious states that is, their subjective
qualities.
The second basic principle is that consciousness is as much an ordinary biological
phenomenon as is digestion. It is from this principle that Searle derives an argument for a
non-dualist, causal approach to the problem of consciousness. According to Searle, brain
23
processes at the neural level cause conscious states; accordingly, conscious states just
are features of the neurobiological substrate. Searle further argues that if consciousness
is to be considered a feature or effect of brain processes, we must be clear to understand
that it is not an effect separate from and posterior to the brain processes causing it. For
Searle, this view of cause and effect is misleading when applied to consciousness
because it unavoidably leads to dualism, which is untenable. Instead, Searle argues that
the relation between consciousness and its causal brain processes involves a kind of
non-event causation such as would explain the fact that gravity (a non-event) causes an
object to exert pressure on an underlying surface. Searle has put the point another way
by describing consciousness as an emergent property of brain processes in the same
sense that water's liquidity is an emergent property of the behavior of H2O molecules.
It should be noted that Searle's biological naturalism does not entail that brains and only
brains can cause consciousness. Searle is careful to point out that while it appears to be
the case that certain brain functions are be sufficient for producing conscious states, our
current state of neurobiological knowledge prevents us from concluding that they are
necessary for producing consciousness.
Allo stesso modo, l’informatizzazione e l’innovazione scientifica hanno conquistato il
cinema, la lingua parlata, la pubblicità, introducendo nuove tecniche e nuove tematiche,
nuovi termini e nuove espressioni…
La comunicazione visiva oggi
Conoscere
la comunicazione visiva è come imparare
una lingua,
una lingua fatta solo di immagini ma di
immagini
che hanno lo stesso significato per
persone di
qualunque nazione e quindi di qualunque
lingua.
Il
linguaggio visivo è un linguaggio, forse
più limitato
di quello parlato, ma certamente più
diretto. Un esempio evidente lo abbiamo nel buon cinema dove non occorrono più parole
se le immagini raccontano bene una storia. La nostra istruzione in genere è di carattere
letterario e le immagini non sono mai state abbastanza considerate dai letterati per
questo loro valore di comunicazione, tanto è vero che, ancor oggi, molti letterati
accettano, per esempio per il loro ultimo libro, copertine e impaginazioni assolutamente
inadatte, come se una persona, vestita di rosso e di ermellino come un re, andasse a
24
sedersi in una cabina telefonica pubblica. Questo problema era già noto agli artisti delle
epoche passate, essi lo conoscevano per intuizione e lo avevano collaudato con
l'esperienza. Tutte le regole della tecnica erano buone regole di comunicazione visiva:
l'accostamento dei colori per ottenere il massimo della brillantezza o comunque un effetto
voluto, le regole di composizione che arrivavano fino alle misure armoniche della sezione
aurea, e tutto ciò che i dadaisti hanno buttato all'aria perchè (a ragione) erano ormai
regole inadatte alla nuova sensibilità, regole stancamente applicate nelle scuole statiche,
regole che appartenendo al passato diventavano pura accademia e infatti l'arte di quei
tempi andava sempre più restringendo la sua funzione di comunicazione visiva per
diventare un fatto di elite, valido solo per competenti altamente specializzati. Tanto è vero
che ancora oggi ci vogliono gli interpreti ( i critici d'arte) per spiegare al pubblico che cosa
l'artista volesse dire. Di pari passo gli artisti si sono sempre più chiusi nella loro torre
d'avorio, nei loro linguaggi segreti e così oggi siamo nel bel mezzo della massima
confusione dalla quale si può uscire solo ristabilendo delle nuove regole per la
comunicazione visiva, regole elastiche e dinamiche, non fisse per sempre, trasformabili
continuamente, che seguano il corso dei mezzi tecnici e scientifici utilizzabili nelle
comunicazioni visive, che siano soprattutto oggettive, cioè valide per tutti, e che diano
una comunicazione visiva tale che non abbia più bisogno di interpreti per essere capita.
La tecno-arte
L’arte ha sempre avuto bisogno della tecnologia. Dalle piramidi e dagli obelischi fino ai
“pennelli” elettronici e alle opere interattive di oggi, gli artisti, per stupire, hanno sempre
dovuto ricorrere a gru e tralicci, hanno sfruttato e talvolta scoperto nuovi materiali, hanno
chiesto l’aiuto di scienziati e specialisti. Ma se storicamente il matrimonio tra tecnologia e
arte ha avuto due principali aspetti (applicazione di materiali nuovi e resistenti e uso di
tecniche di costruzione avanzate), da qualche tempo la tecnologia diventa il contenuto
stesso dell’opera. C’è chi ha costruito intere torri fatte di monitor televisivi (un artista
coreano, Nam June Paik, ne ha messi 1003 uno sopra l’altro), e chi ha sostituito quadri e
sculture con le più sorprendenti immagini elettroniche. Adesso si è fatto un passo in più:
è arrivata l’arte interattiva. Ovvero, “ambienti sensibili”, in cui i movimenti e la voce o il
battito del cuore dello spettatore vengono trasformati in impulsi da un computer, che
“provvede” a manipolare l’opera. Le immagini, infatti, prendono vita grazie a proiettori,
sensori e PC: così il pubblico si trova non solo a interagire con le invenzioni, ma ne
diventa parte. Per esempio, a Lucca, nel 1996, urlando e battendo le mani, il pubblico
25
faceva scaturire dalle mura del Baluardo di San Paolino scene di battaglia sempre più
cruente a mano a mano che il rumore (raccolto da sensori acustici) aumentava.
Sembra un pozzo, ma è un’opera interattiva. La base è
costituita da una struttura di legno, simile a una vasca, un
computer, tre sensori della frequenza cardiaca e del ritmo
respiratorio, un sintetizzatore e un videoproiettore. Il lavoro
(Connected Es, 1998, di Pietro Gilardi), esposto di recente
alla mostra !L’arte elettronica” al Palazzo dei Diamanti di
Ferrara, è arte interattiva, ma non volontaria: i visitatori si
applicano i sensori, si affacciano al pozzo, osservano le
immagini e le modificano con il loro battito del cuore e con
il ritmo del respiro. L’impatto emotivo delle immagini, con
forme imprevedibili e colori accesi, e il “frastuono” del
cuore che arriva amplificato in cuffia, modificano a loro volta battito e respiro. L’obiettivo,
spiega il torinese Gilardi, è creare un leggero stato di trance: intorno tutto buio, come per
calarsi in un oceano primordiale e arrivare a una “allucinazione collettiva lucida”.
Oggi c’è chi sfrutta al meglio le capacità interattive di Internet, chi, come Nick Waplington,
inventa finti siti: il nuovo “quadro” del 2002 è una home page. O chi compie elaborazioni
digitali di foto, sempre più di moda, come la turca Murat Morova. L’aspetto tecnologico
dell’opera è ritenuto dall’artista così importante che, nella pagina di catalogo dedicata
dalla Biennale di Venezia, ha più spazio il brevetto d’invenzione del contenuto dell’opera.
Ma il campo in cui maggiormente l’arte sfrutta la tecnologia è sicuramente quello degli
effetti speciali, sempre più coinvolgenti e realistici, per il cinema. Dall’epoca dei primi Bmovies su King Kong o Godzilla a oggi, non solo Hollywood, ma anche le case di
produzione europee, hanno avuto un incremento esponenziale degli investimenti nel
campo degli effetti speciali, consentendo, da un lato la nascita di nuovi “geni
dell’animazione”, eredi di quel Rambaldi che, a vent’anni dalla prima uscita del proprio
“figlio” ET, è ancora uno dei più richiesti esperti del campo, dall’altro la realizzazione di
pellicole altamente spettacolari o addirittura girate senza attori, per non parlare dei nuovi
standard qualitativi dei film d’animazione…
26
The Matrix
Percezione: il mondo che abbiamo sotto gli occhi è reale.
Realtà: questo mondo è una beffa, un complesso inganno
ordito dalle onnipotenti intelligenze artificiali che ci
circondano. Un mondo immaginario ma concreto, una
realtà virtuale progettata da una creazione dell’uomo
sfuggita a ogni controllo. Acrobazie fatte con
la mente
saranno le uniche armi a disposizione di Neo (Keanu Reeves), Morpheus (Laurence
Fishburne) e soci per liberare l’umanità dalla prigionia.
In sintesi:
-
effetti speciali sublimi:il film è una pietra miliare in questo campo, basti l'effetto
"flow-motion" con l'ormai celebre ripresa vorticosa in multipiano intorno ai corpi
immobili "congelati";
-
le ambientazioni e le scenografie belle e curatissime: le migliori riguardano
probabilmente quelle sulle "pile-umane", la scoperta della terribile "realtà" degli
uomini schiavi delle macchine;
-
la storia intrigante (anche se non originalissima): ... e se la realtà fosse un'illusione
creata da un fantomatico computer per controllarci tutti? ... in questo senso
notevole la sequenza del "ho avuto un deja vu".
Final Fantasy: The Spirits within
Premessa: la storia è ambientata sulla Terra dell’anno 2065,
dominata dalla distruzione e dalla confusione. Le città sono
deserte, la popolazione decimata, e quei pochi, preziosi,
esseri umani rimasti devono ancora trovare un modo per
sopravvivere. Una invasione extra-terrestre sta decimando
quello che rimane della razza umana e quasi ogni creatura
che vive sul pianeta. Il destino di tutta la vita sulla Terra è
nelle mani e nella determinazione di una giovane scienziata, ma il tempo vola. C’è una
sola speranza: Aki Ross, sotto la guida del proprio mentore, il Dottor Sid, e con l’aiuto
della squadra Deep Eyes, sta cercando delle sorgenti di vita, l’unica speranza per
fermare l’invasione senza distruggere il pianeta.
27
Ormai allo stadio terminale per un’infezione causata da un alieno, Aki possiede la chiave
per scoprire il segreto per sconfiggere i predatori alieni. Ma la costante opposizione del
Generale Hein, che progetta di organizzare un massiccia controffensiva attraverso un
cannone spaziale che distruggerà gli alieni, ma probabilmente anche la terra, è d’intralcio
nella sua ricerca. In questo mondo, costretti ad affrontare la morte che li separa dalle
persone care, i protagonisti sono costretti a scoprire cosa sia la vita e cosa l’amore, e
quale sia la definizione filosofica di cuore. In questo mondo, infatti, la scienza aveva
analizzato e “sterilizzato” ogni cosa, compresi la vita, la morte e tutti i sentimenti, per
esprimere la viita stessa solo come una forma di energia.
Ma il tempo scorre, e Aki scava dentro se stessa e i propri sogni per trovare una risposta
al mistero alieno, per scongiurare il pericolo della distruzione della terra e del suo Spirito,
Gaia. Attraverso una serie di battaglie e scontri, si giunge alla conclusione, e, quando
ormai tutto sembra compromesso, Aki scopre di essere il tassello mancante per la
salvezza del pianeta, e decide di tentare il tutto per tutto…
Cosa sta dietro questo film? Una trama non originalissima, certe scene perfino scontate,
un montaggio e una regia anonima… E il successo? Sta nel fatto che degli attori presenti
sullo schermo, nemmeno uno è reale: tutto il film è infatti elaborato al computer, dagli
scenari pre–renderizzati e poi rielaborati per ottenere stupefacenti effetti 3D, al minimo
movimento del singolo filo d’erba, dai riflessi della luce sul vetro al modo di camminare di
Aki. Grazie all’esperienza accumulata nel campo dei videogames, infatti, i programmatori
della Squaresoft hanno tratto da una sceneggiatura, come al solito, estranea agli
avvenimenti delle precedenti puntate della saga, un film mozzafiato, che riesce sempre a
sorprendere per l’accuratezza dei dettagli e l’altissima risoluzione delle figure, non solo
su supporto DvD, ma anche in cassetta o al cinema, che spesso riducono la definizione e
la qualità dei filmati elaborati in comput-grafica.
Shrek
C’era una volta un reame lontano, dove viveva un orco asociale
chiamato Shrek (Mike Myers), la preziosa solitudine del quale
venne improvvisamente turbata da una invasione di fastidiose
creature fiabesche, tutte cacciate dal proprio regno dal cattivo
Lord Farquaad (John Lithgow). Determinato a salvare la propria privacy, Shrek stringe un
patto con Farquaad e parte per liberare la bellissima Principessa Fiona (Cameron Diaz),
28
che dovrà diventare la moglie di Farquaad. Verrà accompagnato nella sua missione da
una asinello parlante e rompiscatole, Ciuchino (Eddie Murphy), che farà qualunque cosa
per Shrek... tranne stare zitto. Recuperando la Principessa da un drago sputa-fuoco, sarà
l’ultimo dei suoi problemi, a causa del misterioso segrato che Fiona tiene ben nascosto.
Per certi versi, Shrek è una classica fiaba fantastica: cìè un eroe, una principessa
stupenda e un odioso nobile. A differenza delle fiabe tradizionali, però, l’eroe è un brutto,
intollerante orco, la principessa non è quello che sembra essere e il nobile ha numerosi
momenti comici. Il direttore della PDI/DreamWorks Aron Warner spiega, infatti, come
tutta la storia non sia che una rivisitazione molto “libera” del genere fantasy, in cui manca
ogni rispetto per elementi in passato considerati “sacri”. I personaggi, in particolare, sono
parodie dei protagonisti delle fiabe tradizionali.
Oltre a rompere gli schemi della favolistica tradizionale, Shrek mostra alcune sequenze di
computer animation mozzafiato, del tipo oggi definito come “Holy Grails”, essendo il
primo lungometraggio realizzato interamente al computer con personaggi umani
altamente realistici, capaci di esprimere sia con i dialoghi sia con le espressioni del volto
un complesso insieme di sensazioni, grazie a una sistema di animazione facciale studiato
dalla PDI. Usando strumenti speciali chiamati “Shapers”, gli animatori hanno saputo
replicare i più sofisticati movimenti della faccia e del corpo, applicando simulatori
interattivi di pelle, muscoli, grasso, capelli e vestiti. Ciò ha permesso di migliorare anche
la struttura degli oggetti inanimati e degli sfondi: vestiti e bandiere che si muovono,
cambiano e reagiscono alla luce come nella realtà; fluidi di differente viscosità, ottenuti
utilizzando il pluri-premiato sistema di animazione per fluidi della PDI/DreamWorks “Fluid
Animation System”.
Questo processo di multimedializzazione della società ha contemporaneamente dato
avvio a un processo di modernizzazione e di restyling della lingua italiana, grazie a una
sempre maggiore frequenza di termini “presi in prestito” da linguaggi settoriali o da lingue
straniere, e invogliando un gran numero di intellettuali a una sperimentazione sempre
maggiore di nuove forme ritmiche e metriche…
Nuovi linguaggi: l’italiano si rinnova
Il concetto di lingua, quale lo intendevamo solo due - tre decenni addietro, appare
superato. Una lingua deve oggi accogliere necessariamente parole da altre lingue, e non
solo dall'inglese. «Il sacrificio della patria nostra è consumato: tutto è perduto; e la vita,
29
seppure ne verrà concessa, non ci resterà che per piangere le nostre sciagure e la nostra
infamia». Così, 200 anni fa, un giovane giacobino arruolato a Bologna nell'esercito
francese, Ugo Foscolo, scriveva le prime battute del suo “Ultime lettere di Jacopo Ortis».
Chi oggi, altrettanto giovane, lo capirebbe? La retorica domanda viene quasi spontanea
alla presentazione del nuovo Vocabolario Treccani 5 volumi, un CD-ROM, un vocabolario
trasportabile detto “Il Conciso” e un gioco di società sulla lingua italiana che dedica
grande attenzione ai nuovi linguaggi giovanili. Se è vero, come scriveva il grande
pensatore spagnolo Miguel de Unamuno, che «le lingue, come le religioni, vivono di
eresie» e se non è vero quanto affermava il poeta statunitense Emerson che la «lingua è
poesia fossile», l'analisi dei “linguaggi selvaggi” giovanili è un passo necessario per
l'interpretazione della realtà contemporanea. Con un rischio. Che i termini del linguaggio
giovanile registrati da vocabolari ed enciclopedie siano già vecchi quando vengono
pubblicati. E che la lettura di questi nuovi termini appaia tale solo a chi, come chi scrive,
ha purtroppo già scavalcato la dura soglia della metà del secolo di vita: nuovi perché
erano tali nell'età della sua giovinezza, ma vecchi e persino dimenticati o incomprensibili
per i giovani veri, quelli attuali. Ciò che vi è stato di divertente e di curioso nella proposta
della Treccani è che la presentazione della nuova impegnativa opera dell'Istituto si è
concretizzata in un seminario di studio nella discoteca romana «Alpheus». Un seminario
fuori dalle regole e al di fuori dei canoni, chiuso dall'intervento musicale dei «Subsonica»,
il gruppo torinese reduce dai successi del Festival di Sanremo. «In principio era il Verbo»,
sottolinea biblicamente la Treccani, spiegando il senso del suo lavoro e di questa audace
presentazione. «Poi –aggiunge- il linguaggio si è frastagliato in forme numerosissime e
differenziate tra di loro: dalla musica ai tatuaggi e al piercing, dai fumetti ai graffiti: la
ricerca di nuovi canali di comunicazione è, nei giovani, illimitata e continua». Max
Casacci e Luca Ragagnini dei «Subsonica», davanti ad un pubblico di giovani, hanno
parlato del loro «metabolismo del linguaggio sonoro» cioè dell'importanza che assegnano
al miscuglio di suoni e parole: «Ci diverte molto questo abbinamento tra noi e un istituto
di grande cultura». Nel Vocabolario sono entrati termini più o meno nuovi, tipici del
linguaggio giovanile: da chiodo (il giubbotto di pelle nera con finiture metalliche) a
paninaro (termine in uso negli Anni '80 e relativo a giovani provocatoriamente alla moda)
a tamarro (persona dai modi rozzi, volgari, villani'). Per poi salire all'indietro nel tempo ai
film Anni '50 con il termine piotta (un tempo la banconota da 100 lire, ora quella da
100mila) o con quello testone, un milione di lire. Nel campo degli stupefacenti sono stati
accettati termini come fatto (chi è sotto l'effetto di qualche droga), sballo (stato di
30
allucinazione provocato dall'assunzione di stupefacenti), pera (iniezione di eroina), oggi
rincorsi dai più recenti fattone, calatino e rimastino. E l'odierno me la viaggio non ha
riferimento né con le droghe, né col turismo, ma vale per “mi va proprio bene”. Il punto
centrale dei linguaggi giovanili, sottolineano all'Istituto Treccani, è in fondo proprio
questo: non si fa in tempo ad accogliere espressioni partorite dalla fantasia giovanile che
già si veleggia verso nuovi orizzonti: cosa dire di un non mi asciugare che vuole
esprimere la noia di fronte alle troppe chiacchiere di un amico? Anche sulla valutazione
della bellezza femminile il Treccani segnala nuovi e meno recenti vocaboli, tra i quali
spiccano squinzia (civetta pretenziosa) e appizzata, cioè che veste con abiti aderenti.
Nuovi linguaggi: il “Tam Tam” in codice della Rete
"DIKY? WAYF? A/S/L15/M/NY". Mai visto niente di simile? Eppure non è un dialogo fra
marziani. Sono 2 ragazzi americani che chiacchierano online, usando sigle e
abbreviazioni che ormai sono di uso comune nel linguaggio della posta elettronica,
soprattutto fra coloro che usano un “Instant Messenger” (IM), cioè un programma che
consente di dialogare in tempo reale con un gruppo di persone e che ha anche dato il
nome a questa attività, chiamata IMing (IMare). Secondo America Online, il sistema
mette in circolazione ogni giorno almeno 700 milioni di messaggi istantanei, inviati da 75
milioni di persone, di cui la maggioranza ragazzi. L'Instant Messenger consente di
compilare una lista di corrispondenti, costruendo una sorta di network privato accessibile
in ogni momento. Non è sorprendente, dunque, che questo esercito di “Imatori” si sia
inventato un linguaggio proprio, con termini indecifrabili alla gente comune, regole e un
galateo. L'obiettivo principale è esprimere il contenuto con il minimo dello sforzo,
martellare sulla tastiera idee brevi ma sostanziose senza badare alle forme. Cadono
perciò le maiuscole, tranne quando si vuole esprimere un'emozione forte, quasi tutta la
punteggiatura e l'ortografia, e gran parte delle parole più comuni, condensate in sigle. Il
dialogo portato come esempio all'inizio significa dunque in sostanza: Ti conosco già? Da
dove vieni? Età/sesso/provenienza.' 15 anni/maschio/New York'. Domanda e risposta
contengono solo degli acronimi e la classica domanda che i partecipanti alle chatroom' o
a qualsiasi dialogo online si rivolgono a vicenda per sapere con chi stanno parlando.
Sigle e abbreviazioni servono a dialogare più in fretta ma anche a eliminare potenziali
intrusioni da parte di adulti, soprattutto i genitori (spesso definiti POS, genitore dietro le
spalle) e accusati di "SOHF", cioè mancanza di senso dell'umorismo. Altri acronimi
comunemente usati sono "IMHO" (secondo la mia modesta opinione), "BRB" (torno
31
subito), "ROTFL" (mi sto rotolando sul pavimento dal ridere), "MYOB" (fatti gli affari tuoi),
"YOOC" (sei fuori di testa), "UGTBK" (stai scherzando?). Infine, per chi vuole usare il
nuovo linguaggio, occhio al galateo: chi s'inserisce in una conversazione, deve
premettere un "PMFJI" (scusate se m'intrometto) e poi dichiarare età, sesso e luogo di
provenienza.
Sanguineti: la sperimentazione tra poesia e musica
«Nella tipologia dei rapporti di collaborazione fra poesia e musica ci sono due polarità
fondamentali: da un lato c'è il caso di uno scrittore che, senza pensare assolutamente
alla musica, scrive un testo, che un musicista utilizza, perché lo giudica adoperabile ai
suoi
fini
espressivi,
stimolato
oltre
che
dall'aspetto
tematico,
dall'aspetto
dell'organizzazione linguistica; dall'altro lato esiste invece il caso di una collaborazione
che nasce perché il musicista chiede ad un autore un testo che sia appositamente scritto;
poi ci sono i casi intermedi, in cui l'autore propone dei materiali che ha già elaborato e
che il musicista trasceglie liberamente. Il mio lavoro sul rap con Andrea Liberovici
appartiene a questa sorta di terza via: non mi è stato chiesto il permesso di musicare testi
determinati e nemmeno di scriverne uno per l'occasione, ma piuttosto di collaborare ad
un progetto. Io ho proposto vari materiali preesistenti, altri sono stati cercati da Liberovici
stesso fra i miei scritti, e ci siamo accordati su una relativa libertà d'uso. Credo che
questo modello collaborativo possa essere interessante, poiché non si tratta più né di
un'idea nata su commissione, né dell'utilizzazione di un testo concepito al di fuori della
musica, ma del lavoro di un musicista su dei materiali poetici che gli vengono messi a
disposizione e che può riorganizzare secondo le proprie esigenze.
In realtà, la mia attenzione alle sperimentazioni che coinvolgono musica e letteratura non
è nuova. Ho incominciato a lavorare in collaborazione con musicisti all'inizio degli anni
Sessanta, segnatamente con Berio. Berio è forse il musicista che meglio incarna la mia
idea di collaborazione, che si è prolungata fino ad oggi, con episodi qualche volta anche
lontani nel tempo, ma senza che mai si rompesse una linea di continuità, anche perché è
accaduto che, pur modificandosi le nostre poetiche e le forme del nostro linguaggio com'è
naturale in una ricerca, ci siamo mossi sempre con qualche simmetria: i problemi, sia di
linguaggio poetico sia di linguaggio musicale che si ponevano, presentavano spesso
delle analogie, pur nell'ovvia differenza di due modalità comunicative piuttosto
eterogenee. Con Berio e con altri musicisti, il lavoro era di volta in volta mutevole, ma
32
aveva la costante di appartenere sempre a quel genere di musica che consideriamo
“grave”, seria, legata al teatro, alla sala da concerto, o anche a soluzioni cameristiche,
ma lontana dalla cosiddetta pop music, vale a dire da una musica di più largo consumo,
che usa modalità di comunicazione popolare, nate o divenute tali. Oltre a questo
interesse specifico, quando sottoposi a Liberovici alcuni dei miei materiali, ero mosso
dall'idea, che lui del resto condivideva, che il rap fosse prima di tutto una tecnica
evidentemente ritmica e musicale, ma anche una tecnica del discorso verbale, un modo
paradossale per "recitar cantando", in cui l'importanza del testo è molto forte e permette
di utilizzare anche dei componimenti che non abbiano una preordinata struttura ritmica,
ma che si costruiscono attraverso giochi verbali. Io ho fatto uso, almeno in molti dei miei
testi, dell'allitterazione, della rima ribattuta e questo si prestava bene ad essere
trasformato in rap, con poche modifiche di replica, di iterazione, di variazione. Da un
punto di vista tematico, Liberovici era poi partito da un soggetto su cui potevo offrire
molto materiale: il motivo del sogno; perciò l'ho lasciato libero di montare i miei testi e di
giocare - come io auspicavo che potesse avvenire - sulla congiunzione di parti
eterogenee tra loro, ma che in una logica onirica ritrovavano un loro senso di montaggio.
Del resto, molta della pop art, intesa non soltanto nel senso pittorico, ma di arte pop,
nell'accezione in cui si impiega questa parola quando si parla oggi del folclore di massa,
è degna di grande attenzione; e c'è uno scambio continuo, qualche volta consapevole
qualche volta inconsapevole, tra le espressioni tradizionali d'arte e le espressioni di
massa legate al consumo e alla cultura dei giovani. In fondo, si ritrova in questo rapporto
qualcosa che la tradizione ha sempre conosciuto e che poi ha un po' perso: se si guarda
al modo in cui la musica del passato ha operato con ciaccone o gagliarde o minuetti o
valzer, si vede che tutta la musica più seria, qualche volta persino seriosa, ha utilizzato
delle forme di danza che erano consumate contemporaneamente dalla cultura “popolare”
del tempo.
Anche la scrittura letteraria e il lavoro sulla parola potrebbero trovare in questa sorta di
ibridazione una spinta ulteriore per rompere con il “poetese” in senso negativo, cioè il
gergo lirico, la selezione verbale verso realtà superiori dotate di aura, e stimolare
maggiormente ad un impiego poetico del linguaggio quotidiano, di tutto quello che è il
mondo della prosa moderna, della tecnologia, delle feconde mescolanze di lingue
diverse. D'altra parte è importante ricordare che in una certa letteratura americana
all'epoca della cultura beat, ci sono stati autori, come Kerouac e Ginsberg, che
dichiaravano di essersi ispirati molto al ritmo del jazz o alla pop music, proprio come ritmo
33
di scrittura; ci sono esempi, in poesia come in prosa, di una letteratura che ha subìto
questo influsso della ritmica musicale, sul terreno del romanzo e della narrativa, come su
quello poetico e credo che, in questa direzione, si possano ottenere degli sviluppi ancora
più ricchi. Nel valutare la situazione italiana, occorre però fare le dovute differenze. Gli
esperimenti degli anni Cinquanta e Sessanta per creare una canzone d'autore o lo
sviluppo dei cosiddetti cantautori hanno dato risultati assolutamente discutibili. La tipicità
della canzone italiana appare molto imprigionata entro limiti di melodicità tradizionale, per
cui diventa o tardo melodramma riciclato, nel migliore dei casi, o tarda romanza da
camera. Ciò non toglie che ci siano stati anche dei risultati positivi fra gli autori (perché
Paoli o Conte hanno forse aperto delle strade) e degli interpreti piuttosto straordinari,
anche dal punto di vista del costume, come Mina o Patty Pravo. Tuttavia un limite è
sempre stato la prevalenza di melodicità e di poeticità; anche i tentativi di scrivere testi
per canzoni fatti da Pasolini, da Calvino, da Fortini, persino da Moravia e Soldati seppure
molto episodicamente, non hanno poi trovato conferma né continuità, perché in fondo la
vera musica popolare aveva altre direzioni. L'intervento del jazz e del rock è stato invece
veramente un fatto insopprimibile nello sviluppo del linguaggio musicale, il solo che
possa trovare equivalenti nella sperimentazione letteraria. Accanto al “poetese”, c'è stato
un “canzonettese”: l'Italia purtroppo è il paese di Sanremo, per dire tutto in una formula, e
questo ha rappresentato e rappresenta un limite molto forte. Anche dal punto di vista dei
contenuti, delle idee, benché la canzone abbia avuto un pubblico larghissimo, in sostanza
è sempre rimasta prigioniera di atteggiamenti, per così dire, piccolo-borghesi. Molta della
protesta orientata in quel senso è rimasta imparagonabile alla rottura espressiva
proposta da tanta musica anglosassone, dai Rolling Stones ai Sex Pistols, per esempio,
in cui radicalismo e anarchismo hanno raggiunto una violenza che da noi è rimasta
praticamente sconosciuta o veramente episodica ed eccezionale. Il limite della canzone
italiana è davvero anche un limite ideologico e di classe. Tentare l'esperimento del rap
significava uscire davvero da questi confini, passare davvero ad altro: fare un lavoro, con
un musicista, in una direzione che non rimanesse poi nemmeno prigioniera della forma
del rap, ma la utilizzasse come una sorta di riferimento fondamentale, nell'organizzazione
della struttura di un'esperienza spettacolare, senza rinunciare a nessuno degli elementi
che oggi, sia la parola, sia il suono possono proporre. Io tendo sempre più ad insistere
sul momento anarchico come momento di pulsione della grande arte critica del
Novecento. Se questo momento ha trovato incarnazione, non è stato tanto nella forma
34
della canzone “all'italiana”, quanto piuttosto nelle esperienze di certo rock violento e oggi,
semmai, del rap e di altre espressioni di questo genere.»
Bollettino '900 - Electronic Newsletter of '900 Italian Literature, n°6 1996, conversazione con Edoardo Sanguineti
Edoardo Sanguineti è nato a
Genova nel 1930. È cresciuto a
Torino, dove si è laureato con
Giovanni Getto con una tesi su
Dante, più tardi pubblicata con il
titolo Interpretazione di Malebolge
(Olschki
1961).
insegnato
moderna
e
Dal
1968
ha
contemporanea
letteratura
italiana
all'università di Salerno e dal 1974 è
passato all'università di Genova. La sua produzione saggistica comprende: Tra liberty e
crepuscolarismo (Mursia 1961), Tre studi danteschi (Le Monnier 1961), Alberto Moravia
(Mursia 1962), Ideologia e linguaggio (Feltrinelli 1965), Guido Gozzano. Indagini e letture
(Einaudi 1966), Il realismo di Dante (Sansoni 1976), Giornalino secondo (1976-1977)
(Sansoni 1979), Scribilli (Feltrinelli 1985), La missione del critico (Marietti 1987), Dante
reazionario (Editori Riuniti 1992), Gazzettini (Editori Riuniti 1993). Ha inoltre curato
l'antologia Poesia del Novecento (Einaudi 1969). Contemporaneamente all'attività
accademica, ha portato avanti quella di poeta e romanziere. Il suo primo volume di
poesie, Laborintus, è del 1956 (Magenta). Le raccolte successive sono: Erotopaegnia
(Rusconi 1960), Opus metricum (Il Verri 1960), Testi di appercezione tematica
(Sommaruga 1968), Wirrwarr (Feltrinelli 1972), Catamerone (Feltrinelli 1974), Postkarten
(Feltrinelli
1978),
Stracciafoglio
(Feltrinelli
1980),
Scartabello
(Colombo
1981),
Segnalibro. Poesie 1951-1981 (Feltrinelli 1982), Due ballate (Pirella 1984), Alfabeto
apocalittico (Pirella 1984), Quintine (Rossi e Sfera 1985), Bisbidis (Feltrinelli 1987),
Senzatitolo (Feltrinelli 1992) e Corollario (Feltrinelli 1997). I suoi romanzi sono: Capriccio
italiano (Feltrinelli 1963), Il gioco dell'oca (Feltrinelli 1967) e Il giuoco del Satyricon
(Einaudi 1970). Ha scritto inoltre testi teatrali e ha collaborato con Luciano Berio.
L’opera che maggiormente rappresenta lo sperimentalismo di Sanguineti è probabilmente
Vengo con la presente, nella quale anche il linguaggio burocratico, freddo e inespressivo,
viene utilizzato con ironia per parlare d’amore, rappresentando un mondo in cui i massmedia, anziché avvicinare le persone le allontanano. La struttura prosastica sottolinea
che nella realtà moderna non c’è più posto per la poesia e l’armonia del verso, mentre
l’apertura con la lettera minuscola e l’uso insistito dei due punti ci dicono che il discorso
non ha un inizio e una fine precisi, ma rappresentano un continuo fluire di sentimenti e di
pensieri. E’ notevole la sovrapposizione di diversi registri linguistici.
35
Vengo con la presente
vengo, con la presente, a te, per chiederti formalmente di esentarmi d’urgenza
dal comunicare, con te, per telefono: (io non posso battere zuccate disperate,
contro il primo muro che mi trovo a disposizione, ogni volta, capirai,
appena mollo giù il ricevitore):
(perché, mia diletta, io non saprò mai
separare, stralciandole, le tue parole, a parte, dai tuoi gomiti, dai tuoi alluci,
dalle tue natiche, da tutta te): (da tutto me):
sola, la tua voce mi nuoce:
(da Scartabello, XLVII poesie; ora in Segnalibro, Feltrinelli, Milano)
36
Traduzioni
Platone, Simposio, 290 e
Per le stesse ragioni voi onorate Solone, il padre delle vostre leggi, e in tutti i paesi - greci
e barbari - sono onorati gli uomini che hanno prodotto grandi opere, mettendo a frutto le
più alte capacità del loro spirito. In onore di quello che queste persone hanno saputo
creare si sono già innalzati molti templi, mentre questo non è mai accaduto fino ad oggi,
per i figli nati dall'amore di un uomo e di una donna.
Platone, Fedro, 274 c – 275 b
SOCRATE [274 c] Ho sentito dunque raccontare che presso Naucrati, in Egitto, c’era
uno degli antichi dei del luogo, al quale era sacro l’uccello che chiamano ibis; il nome
della divinità era Theuth. Questi inventò dapprima i numeri, il calcolo, [274 d] la geometria
e l’astronomia, poi il gioco della scacchiera e i dadi, infine anche la scrittura. Re di tutto
l’Egitto era allora Thamus e abitava nella grande città della regione superiore che i Greci
chiamano Tebe Egizia, mentre chiamano il suo dio Ammone. Teuth, recatosi dal re, gli
mostrò le sue arti e disse che dovevano essere trasmesse agli altri Egizi; Thamus gli
chiese quale fosse l’utilità di ciascuna di esse, e, mentre Theuth le passava in rassegna,
a seconda che gli sembrasse parlare bene oppure no, [274 e] ora disapprovava ora
lodava. […] ; quando poi fu alla scrittura, Theuth disse: «Questa conoscenza, o re,
renderà gli Egizi più sapienti e più capaci di ricordare, poiché con essa è stato trovato il
farmaco della memoria e della sapienza». Allora il re rispose: «Ingegnosissimo Theuth,
c’è chi sa partorire le arti e chi sa giudicare quale danno o quale vantaggio sono
destinate ad arrecare a chi intenda servirsene. Ora tu, [275 a] padre della scrittura, per
benevolenza hai detto il contrario di ciò che essa vale. Questa scoperta, infatti, per la
mancanza di esercizio della memoria, produrrà nell’anima di coloro che la impareranno la
dimenticanza, perché fidandosi della scrittura ricorderanno dal di fuori mediante caratteri
estranei, non dal dentro e da se stessi; perciò tu hai scoperto il farmaco non della
memoria, ma del richiamare alla memoria. Della sapienza tu procuri ai tuoi discepoli
l’apparenza, non la verità: ascoltando per tuo tramite molte cose senza insegnamento,
crederanno di conoscere molte cose, [275 b] mentre per lo più le ignorano, e la loro
compagnia sarà molesta, poiché sono divenuti portatori di opinione anziché sapienti».
37
Seneca, Epistulae ad Lucilium, 90, 4
Ma i primi uomini e i loro discendenti, non ancora corrotti, seguivano la natura, avevano
una stessa persona come guida e come legge, erano sottomessi al giudizio del migliore.
E’ proprio della natura, infatti, assoggettare ciò che è più debole a ciò che è più forte. A
capo egli armenti stanno gli animali più forti o più impetuosi: non precede un armento un
toro indegno, ma quello che per grandezza e forza ha vinto gli altri maschi; il branco degli
elefanti lo guida il più alto: fra gli uomini invece del più grande è il migliore. Per la mente
perciò viene eletto il capo, e perciò regnava la felicità più grande fra quelle genti presso le
quali non si poteva essere i più potenti senza essere i migliori; può fare con sicurezza
quanto vuole colui che non ritiene di dover fare se non ciò che deve.
Seneca, Epistulae ad Lucilium, 90, 36
Non credo che questa filosofia ci fosse in quella rozza età nel quale fino ad allora
mancavano le arti e [nel quale] imparavano lo stesso uso delle cose utili, credo invece
che sia venuta dopo quei tempi fortunati, quando i beni della natura, da usare
indistintamente, erano alla portata di tutti, prima che l’avidità e il desiderio del lusso
dividessero gli uomini e che essi passassero dall’avere in comune i beni al portarseli via.
Quelli non erano uomini sapienti, anche se compievano azioni da uomini sapienti.
John R. Searle
Searle, John – (n. 1932, Denver, Colorado; laurea in filosofia a Oxford; attualmente
professore di filosofia, UC Berkeley). Nel campo della filosofia della mente, Searle è noto
per la sua critica del modello computazionali, per la sua teoria dell’intenzionalità, e per i
suoi lavori sul problema della conoscenza. Egli si laureò in filosofia a Oxford, dove studiò
con John Austin, e dopo divenne Conferenziere di filosofia presso Christ Church dal 1957
al 1959. Successivamente si trasferì all’università di Berkrley, dove divenne professore di
filosofia. Il primo lavoro di Searle fu sulla teoria del discorso, terminato tra il 1969 e il
1979. Gli è stato riconosciuto di aver elaborato la teoria del discorso in collaborazione
con Austin, e avendo introdotto nella teoria elementi originali, i più importanti riguardanti i
ruolo svolto dalle intenzioni dell’oratore e dell’ascoltatore nel costituire il significato del
discorso. Coerente nel mettere a fuoco il problema dell’intenzionalità, si interessò poi
della mente, riguardo la quale il suo maggior lavoro può essere visto come composto di
tre opere principali: una critica del modello computazionali a dell’Intelligenza Artificiale
38
forte, la diffusione di una critica dell’intenzionalità e la formulazione di una teoria propria
teoria della conoscenza.
La critica del modello computazionale e L’I.A. forte.
L’esempio più conosciuto della critica del modello computazionale e dell’Intelligenza
Artificiale forte è il test della stanza cinese. Lo scopo principale di questo esperimento sul
pensiero era quello di mostrare che la manipolazione sintattica di simboli formali non
costituisce di per sé una capacità semantica. Le implicazioni del modello computazionale
e dell’I.A. forte erano ritenute le seguenti: primo, il modello computazionale è sbagliato
perché è stato dimostrato che la sintassi formale di un programma per computer non è
intrinsecamente semantica, e secondo, l’I.A. forte è sbagliata perché concepire un
sistema come se esso avesse stati mentali non è sufficiente a stabilire se questi stati
mentali fossero veramente presenti nel sistema. In modo interessante, l’affermazione di
Searle che la sintassi non è sufficiente per stabilire una capacità semantica anticipa il test
della stanza cinese e, infatti, rappresenta una delle principali obiezioni al programma di
grammatica produttiva di cui egli si fece portavoce nei primi anni Settanta.
Più recentemente (1997), Searle ha ammesso che il test della stanza cinese concede
troppo al modello computazionale. Dal suo punto di vista attuale, il test prende
erroneamente come non problematico l’affermazione per cui i programmi per computer
sono in primo luogo sintattici o simbolici. Invece, afferma Searle, non c’è niente di
intrinseco alla fisicità dei computer che renda le loro operazioni sintattiche o simboliche;
piuttosto, l’attribuzione di operazioni sintattiche o simboliche a un programma per
computer è solo una questione di interpretazione umana.
La teoria dell’intenzionalità
L’intenzionalità giocò un ruolo molto importante nella speculazione filosofica di Searle sin
dai suoi primi scritti sulla teoria del discorso. Nel 1983, il nostro formulò una teoria
comprensiva dell’intenzionalità.
Per formulare la teoria del 1983, Searle analizzò lo stato intenzionale come composto da
un contenuto rappresentativo in un modo psicologico. Sebbene molti contenuti
rappresentativi consistano in una intera proposizione, molti no, è non è necessario che lo
facciano. Searle analizzò anche gli stati intenzionali nei termini della loro direzione di
39
applicazione (che può essere mondo – mente, mente – mondo o nessuna) e nella
direzione della loro sorgente ( che può essere mente – mondo o mondo – mente). Un
importante componente della teoria dell’intenzionalità di Searle è ciò che lui chiama
“Background”. Il “Background” è teorizzato come un insieme di abilità, capacità e
predisposizioni che, pur non essendo rappresentabili, rendono possibile ogni
rappresentazione.
La teoria della conoscenza
La teoria della conoscenza di Searle ha ricevuto l’esposizione maggiore nel 1992, così
come nella raccolta di saggi del 1997.
Il primo principio alla base della teoria della conoscenza di Searle è che la conoscenza è
irriducibile. Per Searle, la conoscenza è essenzialmente un fenomeno personale,
soggettivo, parlare di stati conoscitivi non può essere ridotto o eliminato a favore della
terza persona, poiché si parla di eventi neurali. Ogni tentativo di riduzione, afferma
Searle, semplicemente manca gli obiettivi essenziali degli stati di conoscenza, cioè delle
loro qualità soggettive.
Il secondo principio basilare è che la conoscenza è un fenomeno naturalmente biologico,
come la digestione. E’ da questo principio che Searle deriva un argomento a favore di un
approccio non dualistico e causale al problema della conoscenza. Secondo Searle, i
processi cerebrali a livello neurale sono la causa degli stati conoscitivi; in conseguenza,
gli stati conoscitivi sono solo componenti del substrato neurobiologico. Searle aggiunge,
inoltre, che se la conoscenza deve essere considerata una componente e un effetto del
processo cerebrale, deve essere facilmente comprensibile che non è un effetto separato
o posteriore al processo cerebrale che lo causa. Per Searle, questa visione di causa ed
effetto è sviante quando applicata alla conoscenza perché inevitabilmente porta a un
dualismo, e ciò è insostenibile. Invece, Searle afferma che la relazione tra la conoscenza
e il processo cerebrale che ne è la causa coinvolge un tipo di causalità “non accidentale”,
così come spiegherebbe il fatto che la gravità (un evento “non accidentale”) causa la
pressione esercitata da un oggetto sulla superficie sottostante. Searle ha puntualizzato
l’argomento in un altro modo, descrivendo la conoscenza come una evidente proprietà
del processo cerebrale nello stesso modo in cui la liquidità dell’acqua è una proprietà
evidente del comportamento delle molecole di H20.
40
E’ opportuno notare come il naturalismo biologico di Searle non metta in dubbio che solo
il cervello possa causare la conoscenza. Searle è prudente nel mettere in evidenza che
mentre appare in alcuni casi che certe funzioni cerebrali sono sufficienti per produrre stati
conoscitivi, lo stato attuale delle nostre conoscenze nel campo della neurobiologia ci
impedisce di concludere che esse siano necessarie per produrre conoscenza.
41