La rivoluzione informatica - Home page
Transcript
La rivoluzione informatica - Home page
La Rivoluzione Informatica: come è cambiato il mondo con l’avvento del PC A cura di Stefano Licciardi 5a A Sperimentale L. G. S. “M. Cutelli”, Catania A.S. 2001/2002 Indice degli argomenti Pag. 3 – Greco: Il progresso scientifico in Platone Pag. 4 – Latino: Seneca: la teoria del progresso Pag. 6 – Storia: Il Sistema mondiale dal XIX al XXI secolo Pag. 8 – Storia: Il trionfo del capitalismo Pag. 9 – Economia: Perché Internet? Pag. 12 – Biologia: Il defibrillatore impiantabile Pag. 14 – Fisica: Il futuro delle macchine Pag. 15 – Fisica: Storia degli automi Pag. 16 – Fisica: Campi di applicazione degli automi Pag. 18 – Filosofia: Il calcolatore elettronico come macchina logica Pag. 19 – Filosofia: Le macchine possono pensare? Pag. 20 – Filosofia: I problemi dell’Intelligenza Artificiale Pag. 22 – Inglese: John R. Searle Pag. 24 – Arte: La comunicazione visiva oggi Pag. 25 – Arte: La “tecno-arte” Pag. 27 – Arte: Gli effetti speciali e la cinematografia Pag. 29 – Italiano: Nuovi linguaggi, l’italiano si rinnova Pag. 31 – Italiano: Nuovi linguaggi, Il “Tam Tam” in codice della rete Pag. 32 – Italiano: Sanguineti: La sperimentazione tra poesia e musica Pag. 36 – Italiano: Sanguineti, “Vengo con la presente” Pag. 37 – Traduzioni 2 Premessa Il progresso scientifico in Platone timios de par’umin kai Solwn dia thn twn nomwn gennhsin; kai alloi alloqi pollacou andres, kai en Ellhsi kai en barbarois, polla kai kala apofhnamenoi erga, gennhsa -ntes pantoian arethn; wn kai iera polla hdh gegone dia tous toioutous paidas,dia de tous antropinous oudenos pw. Platone, Simposio, 209 e L’allusione a “templi” eretti in onore di legislatori deificati si riferisce presumibilmente a comunità orientali nelle quali le leggi erano per tradizione attribuite a “divini reggitori”. I greci, invece, non deificarono i loro legislatori. Omero ed Esiodo, Licurgo e Solone sono per Platone i più alti rappresentanti, in Grecia, di una particolare sorta d’amore, perché con le loro opere, generarono negli uomini ogni maniera di virtù. Poeti e legislatori sono pari nella virtù educativa, che nelle opere s’incarna. Per questo rispetto, Platone vede la tradizione spirituale greca, da Omero a Licurgo, fino a se stesso, come un’unità. Poesia e filosofia, per quanto i concetti che l’una e l’altra possiedono di verità e realtà siano diversi, sono però strette da un vincolo unificatore, dall’idea della paideia, che si genera dall’eroV per l’areth. Platone, Fedro, 274 c – 275 b 3 Attraverso il mito di Theuth, la divinità egizia alla quale era attribuita l’invenzione della scrittura, viene affrontato il tema del rapporto tra quest’ultima e l’oralità. Socrate (e con lui Platone) dà una netta preminenza all’oralità e svaluta gli scritti di ogni tipo, giudicandoli semplici mezzi per richiamare alla memoria un argomento già conosciuto, non per trasmettere la vera sapienza. Lo scritto non può essere interrogato, può cadere in mano a chiunque e, se criticato, non sa difendersi. La sapienza può essere solo affidata all’oralità dialettica, al discorso vivo, di cui quello scritto è una copia, che resta indelebilmente impressa nell’anima dell’ascoltatore; ne consegue che l’unico vero retore è il filosofo [274 b – 278 e] L’idea di un progresso scientifico strettamente connesso a un’evoluzione filosofica e anche morale è presente anche in Seneca, il quale, però lo considera alla luce degli effetti negativi che comportò all’umanità, quali l’avidità e la sete di potere… Seneca: la teoria del progresso Sed primi mortalium quique ex his geniti naturam incorrupti sequebantur et ducem et legem, commissi melioris arbitrio. Naturae est enim potioribus deteriora summittere. Mutis quidam gregibus aut maxima corpora praesunt aut veementissima: non praecedit armenta degener taurus, sed qui magnitudine ac toris ceteros mares vicit; elephantorum gregem excelsissimus ducit: inter homines pro maximo est optimum. Animo itaque rector eligebatur, ideoque summa felicitas erat gentium in quibus non poterat potentior esse nisi melior; tuto enim quantum vult potest qui se nisi quod debet non putat posse. Seneca, Epistulae ad Lucilium 90, 4 Argomento della lettera 90 è quale sia il compito della filosofia. A esso è intrecciata la storia della civiltà umana, da cui emerge chiaramente la posizione senecana nei confronti del progresso. Il nesso è fornito dalla discussione di alcune opinioni espresse da Posidonio di Apamea, filosofo del II-I sec. a.C. che aveva introdotto in Roma lo Stoicismo di Zenone e Crisippo. Egli affermava che le artes, alle quali si deve il miglioramento della condizione umana, erano dovute all’invenzione dei filosofi. La questione, di cui c’è traccia anche nella poesia drammatica greca dei secoli V,IV, III, e connessa con la concezione della storia dell’umanità, era già stata posta e discussa, con soluzioni diverse, da numerosi filosofi greci (Protagora, Democrito, Platone nelle Leggi e Aristotele nella Metafisica), riecheggiati da scrittori e poeti latini, quali Cicerone, Lucrezio, Orazio e 4 Virgilio. Secondo Posidonio, nell’età dell’oro il potere era nelle mani dei saggi; essi lo usarono, senza esercitare una tirannide, per migliorare le condizioni di vita dei sudditi: non c’era allora bisogno di leggi perché gli uomini erano moralmente incorrotti. Hanc philosophiam fuisse illo rudi speculo quo adhuc artificia deerant et ipso usu discebantur utilia non credo, secutam fortunata tempora, cum in medio iacerent beneficia naturae promiscue utenda, antequam avarizia atque luxuria dissociavere mortales et ad rapinam ex consortio discorrere. Non erant illi sapientes viri, etiam si faciebant faccenda sapientibus. Seneca, Epistulae ad Lucilium, 90, 36 Una volta insinuatasi, però, la corruzione morale, si sentì il bisogno di una legislazione e sapienti come Solone o Licurgo fornirono gli uomini delle leggi e di tutte quelle arti atte a rendere migliore la loro vita. Insegnarono così l’arte dell’edificazione delle case, della fusione dei metalli, della tessitura, dell’agricoltura, della macinazione dei cibi e della loro cottura, della costruzione di navi. Su quest’ultimo punto, Seneca si trova in disaccordo con Posidonio: per lui, «omnia ista sagacitas hominum, non sapientia invenit», tutte queste arti furono invenzioni dovute all’acutezza d’ingegno, non alla sapienza dell’uomo. Le artes sarebbero invece opere di artigiani, non di filosofi, i quali, paghi di un tenore di vita modesto, non cercano miglioramenti materiali, seguono la natura e non hanno bisogno di lusso né di alcuna cosa superflua. Così Seneca sembra negare i vantaggi del progresso tecnologico in una idealizzazione dello stato di natura che ricorda da vicino il tono nostalgico dei poeti augustei per una mitica età dell’oro, in cui l’uomo primitivo era più innocente e felice. Così anche la nascita della scrittura, vista da Platone come causa della incapacità dell’uomo di riconoscere direttamente la reale natura dei fenomeni, analizzabili solo attraverso simboli, ha per Seneca lati negativi. La filosofia, sostiene Seneca, ha invece un compito più elevato: scoprire la verità sulle cose divine e umane; per questo motivo il filosofo si è dedicato allo studio della verità e della nature, della legge della vita, insegnando cosa sia il vero bene e come raggiungerlo. Ma gli uomini primitivi non conoscevano la filosofia: «non erant illi sapientes viri, etiam si faciebant faccenda sapientibus»; essa non è un dono né tocca in sorte, come la virtù è una conquista dell’uomo sapiente. E’ dunque chiaro che per Seneca l’uomo non ha bisogno di fare scoperte per vivere meglio, soprattutto se poi non le condivide con i suoi simili per il progresso comune: la provvida natura ci ha dato tutto quello che è effettivamente necessario per vivere bene, rilevando come il progresso, tramite i suoi aspetti negativi, 5 per certi versi precluda quella via della virtù che il filosofo ha per molti anni cercato di indicare. Nonostante una considerazione tanto negativa propagandata da un intellettuale e, soprattutto, da uno scrittore molto apprezzato dalle generazioni a lui successive, le condizioni di vita della popolazione poterono migliorare sensibilmente solo grazie alle innovazioni tecnologiche che si susseguirono nel corso dei secoli. Così, se le migliorie apportate ai macchinari agricoli furono una delle cause dell’aumento demografico successivo all’anno Mille, le enclosures lo furono per la Prima Rivoluzione Industriale, che, nata nel XVIII secolo in Inghilterra, si estese, in un secondo momento, prima all’Europa occidentale, poi al centro continentale, infine alle estreme periferie, portando con sé, da un lato, il miglioramento delle condizioni di vita della piccola e media borghesia, dall’altro uno sfruttamento sempre maggiore degli strati più poveri della popolazione e la formazione di un nuovo ceto sociale, il proletariato urbano. Una nuova fase d’industrializzazione si ebbe quando, dopo la fine della Seconda Guerra Mondiale, gli Stati Uniti assunsero stabilmente il ruolo di Paese guida nello sviluppo e nella ricostruzione dei paesi usciti disastrati dalla guerra… ll sistema mondiale dal XIX al XXI secolo Nei secoli XIX e XX la popolazione del pianeta Terra è aumentata da 1000 a 6000 milioni. La rivoluzione industriale ha attraversato fasi successive e si è diffusa dalla Gran Bretagna all’Europa occidentale, all' America Settentrionale e all’Oceania, a parte dell’Asia orientale. Un grandioso esperimento politico e sociale, il comunismo, è nato nel 1917 in Russia e si è disgregato nel 1991, dopo essersi esteso all’Europa centroorientale nel 1945 e alla Cina nel 1949 (dove costituisce ancora l’ideologia politica ufficiale). Oggi il capitalismo trionfa anche in Cina utilizzando sempre nuove tecnologie e integrando tutte le economie in un unico mercato mondiale. Ma la storia è, come sempre, aperta a diverse evoluzioni possibili. L’Europa non è più da molti decenni il centro del sistema mondiale, ma ne rimane il massimo polo commerciale. L’esperimento in corso, l’integrazione di 15 paesi nell’Unione Europea, cui molti altri chiedono di aderire, può cambiare gli equilibri mondiali (dal 1° gennaio 1999 l’euro si affianca al dollaro nel ruolo di moneta internazionale) e offre un esempio di cooperazione a scala continentale che altre grandi regioni potrebbero seguire. Sin dal 1957 il mercato comune, progressivamente dilatato da sei a quindici paesi, ha cambiato la geografia agricola e industriale dell’Europa 6 e ha orientato la crescita dei traffici, i flussi turistici, l’evoluzione delle reti di città. Cadute le barriere della guerra fredda, dall’Atlantico agli Urali (e alla costa del Pacifico) si è formato un grande spazio che è a un tempo un mosaico di economie e società e un laboratorio di politiche di sviluppo. Tali politiche (dei governi, delle imprese, delle comunità locali) combinano nei modi più vari quadri ambientali, risorse, eredità storiche e iniziative attuali. Gli europei devono confrontarsi sia con culture simili insediate in altri spazi (Nord America, Australia e Nuova Zelanda, America Latina) sia con le grandi civiltà dell’Asia e dell’Africa che il colonialismo ha trascinato nella dinamica dello sviluppo tecnologico ed economico, infrangendone gli equilibri sociali e demografici. L’urto è stato più recente ma ha avuto conseguenze più gravi in Africa, dove il continente tropicale compreso fra il Sahara e il Kalahari è divenuto il polo mondiale della povertà. Il Sudafrica, economicamente sviluppato, ha abbandonato l’apartheid e sta realizzando un difficile e prezioso processo di convivenza multirazziale e democratica. Un secondo polo di povertà è il subcontinente indiano, ma qui dall’oceano della povertà e arretratezza contadina si staccano vaste isole di modernità anche avanzata (l’industria informatica di Bangalore). Il mondo islamico (arabo-persiano) dispone di una risorsa, il petrolio, che continuerà ad essere strategica nel XXI secolo. La Turchia è, non solo per posizione geografica, un ponte fra Asia e Europa (con le tensioni che questo duplice orizzonte di relazioni comporta). Ma i grandi spazi che saranno protagonisti del XXI secolo sono il Nord America, e l’Asia orientale, in cui vive un terzo della popolazione della Terra e che ha realizzato dal 1960 al 1997 una crescita economica fortissima, solo temporaneamente rallentata dalla crisi 1997-98. Nord America, Asia orientale, Europa sono i tre poli più attivi del sistema mondiale, di cui dominano i settori di attività, le molteplici reti di organizzazione della produzione e dello scambio, i flussi sempre più intensi che rimodellano gli spazi economici. La rivoluzione digitale (computer e telecomunicazioni) è l’asse portante della terza età industriale che si svilupperà compiutamente nel XXI secolo. Una rete mondiale di metropoli, collegate dai trasporti aerei, costituisce già da ora la "plancia di comando" di un sistema-mondo che mette in relazione, costringendole a comunicare e a cooperare (superando conflitti anche violentissimi) le società e le culture nate dai millenni di evoluzione delle società contadine e artigiane. 7 Il trionfo del capitalismo Due eventi dominano la fine del secolo: la rivoluzione tecnologica e l’unificazione del mondo intorno a una sola potenza e una sola economia. La rivoluzione digitale inaugura, con una incubazione avvenuta fra 1965 e 1995, la terza età industriale che segue alla seconda (1880-1960: fordismo) e alla prima (1780-1880: carbone, ferro, macchina a vapore). La "globalizzazione", parallela alla mutazione delle tecnologie e delle forme organizzative della produzione, si propone con le nozioni di compatibilità e di rete, relegando nel passato il paradigma del conflitto (fra capitale e lavoro, fra grandi potenze di forza equivalente). Dovunque la logica delle strutture prevale su quella della dialettica, ormai utile solo a interpretare contrasti locali. La violenza dello scontro è diventata un segno di arretratezza (le guerre "tribali" africane e balcaniche). Il capitalismo trionfa. Anche gli inizi della prima rivoluzione industriale furono segnati, nell’Inghilterra della seconda metà del Settecento, da un’esplosione simile: l’economia classica, da Smith a Ricardo sino a Marx stesso ha la sua matrice e il suo orizzonte in quegli eventi. Si riproducono oggi un rapporto non casuale fra innovazione tecnologica e organizzativa e l’esigenza di un ambiente sociale deregolato, per sfruttare sino in fondo la potenzialità economica delle nuove tecnologie. Rispetto alla velocità della trasformazione, le prescrizioni delle norme appaiono come pastoie obsolete, condannate a riflettere esperienze e condizioni non più attuali. Solo l’assenza di vincoli può consentire il pieno dispiegarsi delle nuove potenzialità. La stessa rivoluzione produttiva innesca, però, dinamiche sociali e culturali che non possono più affidarsi solo alla spontaneità della crescita. L’onda d’urto distruttrice delle vecchie regole continua fino a quando sono disponibili grandi quantità di forze sociali da mettere in campo. Nel Nord America dell’immigrazione di massa e della frontiera e nell’Europa occidentale che si è industrializzata questa "riserva" era fornita dalle masse contadine, per la prima volta inserite totalmente nei circuiti mercantili e monetari. Alle soglie del XXI secolo, in un contesto non più "atlantico" ma planetario, un ruolo analogo è svolto dalle energie e dalla fame di merci dell’Asia orientale. Viene poi il periodo (negli Stati Uniti negli anni Trenta del Novecento, in Europa negli anni Cinquanta) in cui, inseriti in un quadro dilatato i nuovi soggetti, riemerge un bisogno di ordine, di razionalità, di istituzioni e regole. Quando i tempi lo richiederanno di nuovo, la cultura europea potrà riproporre un’idea di direzione consapevole del cammino della storia, svincolata dal modello del socialismo ispirato da Marx, che ne è stato soltanto una prima e inadeguata versione, dipendente da una esperienza industrialista ormai superata. La visione di Marx si fondava su una immagine 8 distorta di eguaglianza, una specie di anticipazione rovesciata del taylorismo (non a caso tanto apprezzato da Lenin e Stalin). Il socialismo marxiano aveva come nucleo un paradigma collettivista di azione sociale, fondato sulla forza del "noi": dal lavoro al tempo libero, alla politica, alla formazione della personalità. Il paradigma collettivista è tramontato, con il passaggio dalla prima organizzazione di fabbrica attraverso il fordismo (che già separava la sfera del lavoro da quella del consumo e del tempo libero) alle forme attuali di organizzazione flessibile e reticolare della produzione. Si è passati dal "noi" della fabbrica, del quartiere operaio, del sindacato e del partito a un "io" competitivo e di massa dai contorni ancora indefiniti, caratterizzato dalla moltiplicazione di soggettività dai legami deboli e dalle esigenze forti, isolate nella aggressività dal lavoro e ricongiunte nella condivisione (liberamente scelta e configurata da ciascuno) del consumo e del tempo. La fuga privata, o al più corporativa, dal vecchio destino di classe pone l’esigenza di una nuova relazione fra quantità sociale e qualità individuale. Il mutamento in atto produce una serie di tensioni che avranno bisogno di progetto e non solo di spontaneità, se vorranno evitare di concludersi in un inferno (una società di ghetti, frantumata). Le potenze scatenate dalla scienza che stiamo usando (impatti ambientali planetari, biotecnologie) renderanno presto obbligata una nuova domanda di compatibilità e di regole. Allo stesso modo, anche il mondo dell’economia è cambiato, anche attraverso di nuove figure che facciano da tramite tra vecchio e nuovo… Perché Internet? Le decisioni tecnologiche non sono più solo relative a quale tecnologia usare, ma a come utilizzarla, e le persone che prendono questo genere di decisione non sono più solamente dei semplici tecnici, sono business leader e in molti casi business visionaries. E' giunto il momento per le corporation di creare un nuovo ruolo esecutivo: il Chief Web Officer, una persona cioè in grado di supervisionare le strategie aziendali relative a Internet, Intranet e ai siti web. La grande maggioranza dei CEO è consapevole del fatto che il commercio elettronico rivestirà un ruolo centrale nel loro futuro. Il problema, afferma A. May - vp del Cambridge Technology Partners Inc. - è che questi executive dovranno prendere direttamente confidenza con la Rete per poter essere in grado di proporre alla propria azienda un cambiamento in linea con essa. Sono molte le aziende che potrebbero beneficiare di uno shock ad alto livello. Dopo tutto è già difficile 9 convincere molti senior manager ad accendere il proprio PC, il che rende improponibile lasciarli soli a prendere decisioni sul web seriamente. Tradizionalmente il direttore IT è orientato alle tecnologie, ma il web introduce una nuova serie di problematiche a più ampio spettro. Si tratta di uno strumento pervasivo di tutte le funzioni aziendali: vendita, marketing, produzione, comunicazione interna ed esterna, risorse umane. Il marketing appronterà le strategie di mercato ma può essere insensibile ad aspetti quali la privacy, la netiquette, etc. Alcuni usano molto bene la Rete internamente mentre altri la usano bene esternamente. Ma pochi sono in grado di usarla bene in tutti i suoi aspetti e per questo c'è bisogno di una nuova figura professionale in grado di capirne tutte le problematiche e coordinarne tutti gli interventi. E' molto complicato, soprattutto per le multinazionali che possono operare bene in un Paese, ma sbagliare approccio in un altro. La Rete è sovranazionale e tutto ciò che viene pubblicato può essere visto ovunque, risultando magari offensivo per qualcuno o incomprensibile per qualcun altro. Molte aziende dovranno ripensare le proprie strategie di sviluppo: dalla capacità produttiva alla capacità di interazione con le reti. Le aziende vorranno collegare via rete i centri di ricerca, quelli di produzione e quelli di vendita. Enormi vantaggi produttivi deriveranno a coloro che sapranno riorganizzare il proprio processo produttivo riuscendo a gestire i propri fornitori e clienti via Internet. Dove la rivoluzione industriale ha ridotto i costi diretti di produzione lavoro e materie prime - la rivoluzione informatica consentirà una significativa riduzione dei costi di sovrapproduzione e di quelli legati alle transazioni. E per molte aziende questi costi sono la metà di quelli complessivi. Le aziende, inoltre, potranno aumentare la vendita dei propri prodotti e servizi grazie alle nuove tecnologie. Ciò richiederà strategie radicalmente differenti per il marketing e la promozione. Richiederà inoltre metodologie significativamente diverse dalle attuali per quanto riguarda la compilazione degli ordini, l'emissione di fatture e l'assistenza ai clienti. Nelle tradizionali organizzazioni industriali i direttori di produzione, vendita, logistica, marketing e supporto al cliente forniscono una leadership giornaliera che consente all'azienda di raggiungere il successo. Nella nuova Information Age il successo del loro lavoro dipenderà in maniera sempre più significativa da quanto bene queste funzioni condurranno le proprie attività sulla Rete. Le aziende che vogliono affrontare seriamente questo mercato e le sfide che esso comporta, dovranno creare una figura di senior manager che segua e coordini tutte le attività web gestendo risorse composte da persone e capitali. Le tradizionali organizzazioni IT spesso non sono sufficientemente flessibili o innovative e non hanno un adeguato peso in azienda o le necessarie competenze per prendere tutte quelle iniziative che la presenza su Internet 10 richiede. Man mano che un numero sempre più grande di aziende capirà l'importanza di Internet e del commercio elettronico per il proprio business, la richiesta di queste nuove figure manageriali, aumenterà. E' stato osservato che non esiste una correlazione diretta tra gli investimenti effettuati nell'area IT e i risultati ottenuti nell'area business, performance o knowledge management. Erik Brynjolfsson, docente di sistemi informativi presso la MIT Sloan School, fa notare in una intervista a Information Week (9 Settembre 1996) che un investimento della stessa entità in una data tecnologia può produrre un vantaggio competitivo in un determinato ambito, ma essere solo una voce di costo quando utilizzato in un'altra azienda. Il fattore chiave per un più alto ritorno dell'investimento in ambito IT è l'effettivo utilizzo dell'informazione e il suo relazionarsi con la struttura aziendale. La stessa conclusione è supportata dallo studio degli investimenti nel settore IT da parte dell'economista Paul Strassmann. Nel suo libro The Squandered Computer conclude che non esiste alcuna relazione tra performance del sistema informativo e performance aziendali. In una simile nota John Seely Brown direttore dello Xerox Park Research Center di Palo Alto, California - sottolinea che negli ultimi 20 anni l'industria americana ha investito più di un trilione di dollari in tecnologie ma ha realizzato solo un piccolo miglioramento nell'effettiva capacità gestire il patrimonio di informazioni aziendali (knowledge management). Brown attribuisce questo fallimento alla scarsa comprensione dei meccanismi con cui i lavoratori comunicano e operano attraverso il processo della collaborazione, condividono le proprie conoscenze e producono avvalendosi anche delle idee degli altri (fonte: The Economist). Le aziende devono riuscire a riconoscere e valorizzare le qualità intangibili contenute nelle menti e nell'esperienza dei propri dipendenti. Senza queste conoscenze avranno molte difficoltà a prevedere e immaginare il proprio futuro. C'e' ancora tempo per acquisire la giusta sensibilità per riuscire a muovere il proprio business in Rete, ma... si tratta di poco tempo. Come ogni rivoluzione che si rispetti, anche la Rivoluzione Informatica ha portato cambiamenti nella vita di ogni giorno. Le grandi potenzialità che i nuovi sistemi multimediali offrono, infatti, hanno consentito e consentiranno sempre più, in un futuro non troppo lontano, sviluppi incredibili in campi quali quello della robotica e dell’automazione o della medicina… 11 Il defibrillatore impiantabile Il defribillatore automatico impiantabile ha radicalmente modificato il trattamento delle aritmie ventricolari maligne non solo nella profilassi secondaria, ma anche in quella primaria, alla luce dei risultati di studi quali il MADIT ed il MUSTT. Si chiama defibrillatore impiantabile la nuova “macchina” che permette di migliorare la qualità della vita dei pazienti affetti da aritmia (una condizione nella quale il battito cardiaco perde la sua normale regolarità di sequenza). Il defibrillatore impiantabile (ICD), ideato da Mirowsky nel 1966, é stato per la prima volta applicato nell'uomo nel 1985.Da allora ad oggi si contano più di 100.000 portatori di ICD in tutto il mondo. Si tratta di un "device" elettronico costruito e adatto per: · riconoscere e trattare le aritmie ventricolari maligne ricorrenti (TV e FV,tachicardia e frequenza ventricolare), cioè i disturbi del ritmo cardiaco che intervengono, spesso, come complicanza nei pazienti con infarto del miocardio e capaci di provocare la morte; · ridurre l'incidenza della morte cardiaca improvvisa dovuta a queste aritmie; · migliorare la qualità di vita dei pazienti affetti da TV o FV ricorrenti (interruzione rapida dell'aritmia, riduzione dei ricoveri, diminuzione dei controlli ospedalieri e dello stato d'ansia del paziente e dei familiari); · prolungare la vita individuale. Generalmente, la decisione dei medici sull’impianto o meno di questo dispositivo elettronico è presa dopo uno studio sulla cardiopatia di base, il riconoscimento delle turbe del ritmo in atto, e la valutazione della funzione ventricolare cioè della capacità del muscolo cardiaco di riprendere un’attività normale.Questa serie di esami insieme ad una valutazione della qualità di vita del paziente fanno propendere i medici per l’impianto del defibrillatore. L’apparecchio, impiantato sotto la cute con elettrodi che esplorano le funzioni cardiache per quanto riguarda il ritmo, è in grado di riconoscere il tipo di aritmia presente e di fornire automaticamente la terapia elettrica più opportuna per quella particolare aritmia, che consiste in una piccolissima scarica elettrica: piccolissima perché essendo gli elettrodi posti vicino al cuore, alcune volte appoggiati sul muscolo cardiaco, non è necessario utilizzare una scarica elettrica notevole come si fa invece quando bisogna defibrillare dall’esterno. I criteri di riconoscimento e il tipo di terapia elettrica possono essere modificati dall’esterno dal medico se le condizioni del paziente cambiano nel tempo. Le sempre più ridotte mobilità e mortalità legate all’impianto e il 12 perfezionamento dei materiali e delle tecnologie usate permettono oggi di considerare quest’opzione terapeutica molto affidabile e non più sperimentale. Il defibrillatore automatico impiantabile si è rivelato il mezzo terapeutico più efficace nella prevenzione della morte improvvisa cardiaca. Dal 1982, anno in cui per la prima volta fu impiantato nell'uomo, il defibrillatore automatico ha subito una sostanziale evoluzione sostenuta da importanti progressi tecnologici concernenti sia il sistema elettrodico che le prestazioni terapeutiche.Un sistema semplice, applicato con elettrodi epicardici (sul cuore) ed in grado di eseguire unicamente la defibrillazione, è stato sostituito negli anni novanta da un altro totalmente endocavitario (con elettrodi dentro le cavità cardiache), in grado di eseguire anche la stimolazione ventricolare, per le bradiaritmie (turbe del ritmo cardiaco a bassa frequenza, con FC più bassa di 35-45 battute al minuto) o ad alta frequenza per le tachicardie ventricolari (turba del ritmo che a FC elevata, maggiore di 135-150 b.min., prolungandosi nel tempo non riesce più a mantenere un’adeguata perfusione degli organi), e la cardioversione. L'aggiunta della funzione di stimolazione, da poco anche bicamerale (due elettrodi posti uno in una camera cardiaca atriale, e l’altro in una camera cardiaca ventricolare), ha rappresentato un fondamentale completamento del defibrillatore automatico che oggi può, pertanto, essere definito un pacemakercardiovertitore-defibrillatore (PCD): un sistema molto versatile ed utile per trattare le aritmie ipocinetiche (a bassa frequenza) ed ipercinetiche (ad alta frequenza) sostenute, ad eccezione delle forme incessanti e delle tachiaritmie atriali. L'uso della stimolazione ha comportato due rilevanti benefici di ordine clinico: il primo consiste nella prevenzione della morte improvvisa bradiaritmica, che costituisce il 15-20% della mortalità improvvisa aritmica; il secondo nel miglioramento della qualità di vita dei portatori di PCD in virtù del fatto che gli episodi di TV sono arrestati in modo asintomatico, invece che con dolorose cardioversioni (ripristino del ritmo sinusale tramite una scarica elettrica). L'improvvisa erogazione di shock, infatti, provoca dolore e stress, esaltati dalla coscienza di aver avuto un’aritmia minacciosa per la propria vita, e determina importanti condizionamenti psicologici che a volte inducono manifestazioni nevrotiche di tipo depressivo.La capacità di memorizzare gli episodi tachiaritmici trattati è un’altra funzione inserita nei modelli più recenti, che permette di acquisire informazioni utilissime per un più preciso inquadramento clinico prognostico dei pazienti e per perfezionare la funzione di riconoscimento delle aritmie da parte del PCD. E’ stato documentato, infatti, che il 20 % degli interventi dei defibrillatori avviene per un errore di riconoscimento: una tachiaritmia sopraventricolare è scambiata per ventricolare. I modelli più recenti, dotati di sensing 13 bicamerale (due elettrodi in due camere diverse del cuore, atrio e ventricolo, permettono il riconoscimento e quindi l’eventuale trattamento elettrico dell’aritmia in atto) e/o di altri parametri (analisi della modalità d’inizio, della stabilità del ritmo e della durata del QRS, lettere che rappresentano l’inizio e la fine di un’onda dell’elettrocardiogramma) hanno mostrato una specificità nel riconoscere le TV superiori al 95% senza compromissioni della sensibilità. Le indicazioni all’impianto sono attualmente codificate nelle linee guida emanate congiuntamente dall’American College of Cardiology e dall’American Heart Association. Esistono però interrogativi riguardo i costi sanitari e le possibili implicazioni di carattere psicologico che potrebbero ripercuotersi sulla qualità di vita di pazienti a possibile rischio di morte improvvisa, ma nei quali non si è mai verificato un evento aritmico. È opportuno attendere i risultati di studi ora in corso, SCD-HEFT Trial, MADITII e BEST per avere ulteriori informazioni sulle indicazioni all’impianto, sulla efficacia della concomitante terapia medica con beta bloccanti e sulla predittività dei test non invasivi ed invasivi attualmente in uso. Non immodificabili appaiono anche le indicazioni nella prevenzione secondaria, alla luce dei dati del registro AVID che pongono in evidenza come le aritmie ventricolati associate a fattori scatenanti modificabili siano in realtà anch’esse a rischio elevato di recidive. Sono in corso di valutazione i dati riguardo la stimolazione biventricolare che suggeriscono un miglioramento emodinamico. Se questi dati saranno confermati, si potrebbero ottenere non solo un miglioramento della mortalità aritmica, ma anche di quella totale e un immediato riscontro riguardo la qualità di vita in pazienti con scompenso cardiaco refrattario alla terapia medica usuale e classe funzionale avanzata. Il futuro delle macchine Da sempre, l’uomo ha avuto la necessità di strumenti con i quali sopperire a eventuali limitazioni fisiche o per migliorare il rendimento del proprio operare. Dai primi rudimentali utensili alla leva, dalla locomotiva a vapore al motore a scoppio, dalla catena di montaggio all’automazione delle fabbriche, attraverso un’evoluzione che, nel corso dei secoli, ha permesso alla maggior parte della popolazione mondiale uno stile di vita decoroso e una diminuzione complessiva degli incidenti legati al mondo del lavoro (migliorando i macchinari all’interno delle fabbriche, per esempio, il livello di sicurezza salirà, e così pure lasciando fare i lavori 14 “sporchi” a degli automi). Così, la ricerca nel campo dell’automazione, spinta a progredire dalla necessità di uno sviluppo industriale e, spiace ammetterlo, soprattutto bellico, ha fatto letteralmente passi da gigante, arrivando alla costruzione e programmazione (fino a qualche anno fa era proprio questa fase quella che dava maggiori problemi nell’assemblaggio di un robot) di macchine quasi del tutto autosufficienti, che dipendano dall’uomo solo in una fase iniziale (al momento di ricevere gli input necessari per un corretto funzionamento) o per quel che riguarda l’autonomia energetica. Sono così nati Billy, il cagnolino robot della Sony, già commercializzato in Giappone, e numerosi androidi (Henda Sapiens), che, nelle intenzioni della NASA, dovrebbero sostituire l’uomo nelle future esplorazioni del cosmo. Ma quale potrebbe essere il futuro delle macchine? Sarebbe possibile giungere a una tecnologia tale da favorire la creazione di cyborg, “esseri” metà uomini e metà macchine, capaci non solo di compiere azioni e movimenti sotto la stimolo di un software, ma anche di ragionare autonomamente, come i famosi “Nexus-6” di Blade Runner? Normalmente il termine automa è associato all'altro ancor più generale di macchina e sta ad indicare un congegno che "imita i movimenti e le funzioni di un corpo animato". In sostanza il concetto di automa è quello di una macchina capace di svolgere in maniera automatica, una volta sollecitata in modo opportuno, delle operazioni particolari più o meno complesse che portano a un preciso risultato. Storia degli automi La parola automa deriva dal greco automaton, “meccanismo semovente”, e dal latino automâtus, “che si muove da sé”. E’ una macchina che, con mezzi meccanici, compie attività complesse in cui sono riconoscibili elementi del comportamento umano. Il primo momento significativo della costruzione di un automa è connesso con gli sviluppi dell'orologeria e infatti i primi automi documentati sono figure collegate ai meccanismi di grandi orologi a torre (fantoccio della torre dei Maurizio di Orvieto, 1351; i famosi "mori" della torre dell'Orologio a Venezia, 1477) o a parete (orologi con intere processioni di figure della cattedrale di Strasburgo, 1358). Il periodo di maggior diffusione ed entusiasmo degli automi fu il XVIII secolo, quando i progessi della scienza meccanica resero possibili risultati spettacolari per la complessità e la varietà dei movimenti eseguiti dalle figure, singole o in gruppo, che venivano anche esibite in tournées. Celebri furono in quel periodo gli automi del francese Jacques Vaucanson (1709-1782), che però non ci 15 sono pervenuti, mentre restano quelli, veramente straordinari, degli svizzeri Pierre e Henri Louis Jacquet-Droz. Ancora nel XIX secolo automi di altissima qualità furono oggetto della curiosità popolare, mentre d'altra parte congegni meccanici assai più poveri e semplici continuavano ad essere diffusi in una modesta produzione sotto forma di orologi e oggetti di raffinatissima oreficeria che venivano ancora prodotti per una particolare clientela aristocratica (per esempio, i minuscoli automi di alta oreficeria creati da Carl Fabergé per la corte di Russia). I progressi della tecnica, in particolare dell'elettronica, hanno portato alla costruzione di macchine complesse che, in taluni casi, possono svolgere alcune funzioni proprie dei livelli superiori dell'attività umana. Per queste macchina, in grado di essere programmate per svolgere le più svariate mansioni e, talvolta, per modificare le proprie azioni in relazione ai mutamenti ambientali, si usa ancora parlare di automi, per quanto sia invalso nell'uso il termine robot . Applicazioni degli automi Un esempio di applicazione può essere attribuito a quel dispositivo elettromeccanico automatico e programmabile, usato nell'industria e nella ricerca scientifica per svolgere un compito o un repertorio limitato di compiti comunemente detto robot. L'idea di robot risale a tempi antichi, quando alcuni miti raccontavano di creature meccaniche portate alla vita. Oggi il termine automa è applicato, nel linguaggio comune, ai dispositivi artigianali di solito più meccanici che elettromeccanici, realizzati per imitare i movimenti di esseri viventi. Alcuni dei robot utilizzati per il cinema o a scopo di intrattenimento sono in realtà automi, magari con l'aggiunta di sistemi di telecomando. Esiste poi un'altra applicazione degli automi e cioè nello sviluppo dell'unità di governo presente nella macchina di Turing. Per le loro caratteristiche, gli automi a stati finiti sono in grado di risolvere solo quella tipologia di problemi in cui il numero di eventi da ricordare risulta essere finito e determinato a priori. Poiché, vi sono anche problemi per la cui risoluzione questo vincolo risulta troppo restrittivo, sorge la necessità di un approfondimento della questione, in modo da vedere se l'impossibilità di risolvere con gli automi certi tipi di problemi è dovuta all'inadeguatezza dello strumento logico usato per la modellizzazione oppure alle caratteristiche proprie del problema, che lo rendono irrisolvibile con qualsiasi tipo di modello logico formale. Per i motivi sopra citati è risultato necessario progettare una macchina astratta in grado di risolvere qualsiasi algoritmo matematico-logico. 16 Molti matematici si sono cimentati, fin dai primi decenni di questo secolo, nella ricerca di macchine computazionali astratte in grado di risolvere qualsiasi tipo di problema, o per lo meno tutti quelli risolvibili attraverso un algoritmo, e un passo decisivo nella teoria della computazione fu fatto nel 1936 da A.M. Turing con l'articolo "On computable numbers with an application to the entscheidungs problem" in cui, oltre a dare una definizione rigorosa di algoritmo, identificò in modo formale le caratteristiche che una macchina astratta (modello matematico) doveva avere per poter rappresentare ed eseguire un algotirmo: "La macchina di Turing". Se si accetta la tesi di Turing, lo studio delle macchine di Turing coincide con quello degli algoritmi e quindi, in ultima analisi, con quello dei problemi risolvibili per via algoritmica, anche se ciò richiede la progettazione di una macchina diversa per ogni specifico problema. Da questo primo, rozzo tentativo di calcolatore a oggi l’evoluzione è stata costante ed esponenziale. Dopo l’introduzione e la commercializzazione di processori sempre più veloci e di nuove periferiche hardware in grado di ridurre notevolmente i tempi “morti” all’interno delle macchine, anche la robotica e l’automazione hanno compiuto un grande balzo in avanti. Le capacità dei robot più recenti, infatti, sono straordinarie: sorridono, avvitano bulloni, salgono scale, ballano… L’aspetto incute un po’ di timore, ma il casco color oro serve a proteggere gli “occhi” (due telecamere) di Robonaut, il modello più avanzato di robot costruito nei laboratori della Nasa. La testa è ricoperta di materiale acrilico, trattato per resistere a temperature molto basse, ma la parte più “tecnologica” di Robonaut sono le mani, dalle capacità quasi umane, capaci di avvitare e svitare con dita più sicure di quelle dell’uomo. Il robot, però, non ha gambe: nello spazio non servirebbero. I tecnici della Nasa sperano di poterlo usare entro un anno o due per le piccole riparazioni sulla Stazione spaziale internazionale. Il robot astronauta, infatti, può essere completamente guidato a distanza, anche dalla Terra. Asimo (Advanced step in innovative mobility) è l’ultimo “giocattolo” della Honda: un robot che ha la taglia di un bambino di sette anni e pesa solo 43 kg. Si comanda con un semplice joystick che permette di fargli cambiare rapidamente direzione e di fargli accelerare il passo. Ne esistono due 17 esemplari, usati per studiare come si bilancia il peso del corpo dei robot mentre cammina. L’obiettivo è la prevenzione delle cadute, che possono provocare danni gravissimi. Questo processo, ovviamente, ha portato alla luce nuove perplessità e nuovi dubbi, sia circa la possibilità di un utilizzo di macchine “intelligenti”, sia circa le eventuali modalità e finalità di tale operazione… Il calcolatore elettronico come macchina logica I moderni calcolatori elettronici sono strumenti che hanno assunto un’enorme rilevanza in molti ambiti della nostra società. Mentre le tecnologie tipiche della prima e della seconda rivoluzione industriale erano prevalentemente legate alle scienze fisiche e naturali, i computer hanno anche rapporti molto forti con le scienze tradizionalmente più astratte, come la logica e la matematica, e con problemi tradizionalmente oggetto della filosofia, come l’interpretazione del linguaggio e lo studio della conoscenza. Oggi essi sono universalmente indicati come macchine, anche se si discostano notevolmente dal significato tradizionalmente attribuito a questa parola, legato all’idea di meccanismo o di congegno di tipo meccanico, composto in genere di leve e ruote per svolgere movimenti od operazioni fisiche. In effetti, i computer sono macchine molto particolari: in primo luogo, perché non manipolano pezzi di metallo, sostanze chimiche o altri oggetti fisici tipici delle macchine, ma trattano informazioni e dati rappresentati in forma simbolica; in secondo luogo, perché essi non sono solo l’applicazione pratica di leggi o principi scoperti dalle scienze naturali o derivati da esperienze “sul campo”, ma il risultato di discipline scientifiche e di leggi umane molto diverse fra loro. La nascita stessa dei primi calcolatori è da riferirsi a un vasto movimento interdisciplinare noto come prima cibernetica. Così, se il computer deve le proprie basi fisiche alla moderna elettronica, i suoi presupposti teorici sono invece legati ai risultati nel campo della logica matematica dell’ultimo secolo e in particolare alle nozioni di linguaggio formale, di sintassi e di calcolo logico da loro formulati. La sua architettura di base è invece legata alla cosiddetta architettura di von Neumann, derivata dalle idee sul funzionamento dei neuroni, oggi superate, che erano diffuse tra i biologi quando von Neumann e il suo gruppo costruirono i primi calcolatori. Sin dalle origini, pertanto, le macchine-computer sono il risultato sia di conoscenze scientifiche di tipo fisico-elettronico, sia di teorie e linguaggi logicomatematici, sia di concezioni, teorie e idee sul funzionamento del cervello sui linguaggi di 18 comunicazione. Questa mescolanza di vari aspetti e discipline rende quasi unica la tecnologia informatica e i computer. Non a caso, negli ultimi anni, nuovi studi sul cervello umano, visto adesso come costituito da più sistemi che lavorano in parallelo, hanno suggerito ad alcuni scienziati la creazione di computer di nuovo tipo, basati sul calcolo parallelo e non sul modello sequenziale. Le macchine possono pensare? Da sempre la filosofia ha dedicato molta attenzione ai problemi del pensiero e delle attività mentali in genere. La filosofia antica dedicò molta attenzione all’individuazione e alla spiegazione di quelle che erano ritenute le leggi metafisiche del pensiero: il sillogismo aristotelico è una delle descrizioni più note basate sull’individuazione di schemi o criteri con cui dedurre le conclusioni partendo da premesse note. Nel Seicento, il secolo della rivoluzione scientifica, alcuni filosofi presero spunto dal grande sviluppo che la matematica e le scienze fisiche stavano avendo in quel periodo per cercare di definire con più precisione il modo in cui sia possibile ragionare correttamente. In particolare, la forma astratta e simbolica che i caratteri dell’algebra avevano assunto sembrò la più adatta anche a rappresentare il modo di procedere del pensiero. Hobbes, partendo da una concezione materialista delle sensazioni e della conoscenza, affermò che «ragionare non è nient’altro che calcolare», mentre Leibnitz, preoccupato di preservare l’autonomia e la differenza della sostanza spirituale dalla materia, chiamo “automa incorporeo” qualunque entità semplice capace di sentimenti, pensieri, percezioni. Nei decenni scorsi, e in particolare a partire dagli anni Cinquanta (ARPANET, l’antenato di Internet, risale agli inizi degli anni Quaranta, quando l’U.S. Army la usava per comunicare, durante la guerra, non essendo essa intercettabile), molti ricercatori si dedicarono all’attualizzazione del problema, essendo convinti di avere a portata di mano una teoria generale del pensiero, da dimostrare attraverso la realizzazione di programmi sperimentali sui moderni (allora) calcolatori elettronici. Tra questi, spicca l’italiano Domenico Parisi, autore di uno studio sulle reti naturali e il connessionismo. Furono, però, sollevate molte critiche nei confronti dell’ipotesi dell’Intelligenza Artificiale, da parte di autori come il filosofo del linguaggio John Searle e come Terry Winogard, che pure diedero un importante contributo in questo campo. Le ricerche sulla Intelligenza Artificiale hanno preso le mosse da due filoni di riflessione, quello logico-matematico, sviluppatosi negli anni Trenta a opera, in particolare, di Turing 19 e di von Neumann, e quello biologico-antropologico, condotto da biologi come Bateson e di psicologi e studiosi delle organizzazioni come Simon. Le convinzioni di base che accomunano tutti i ricercatori che si occupano di questa nuova disciplina, sono dunque basate da Rufus Wainwrightun lato su acquisizioni scientifiche e tecnologiche recenti, dall’altro su vere e proprie ipotesi sull’intelligenza, il pensiero e il loro rapporto con il corpo. I problemi dell’Intelligenza Artificiale Le basi teoriche dell’Intelligenza artificiale si basano essenzialmente su due strumentazioni scientifiche, le nozioni di linguaggio formale e di calcolo logico (o computazione) e i moderni computer. Le nozioni sono state elaborate dalla ricerca logica nell’ultimo secolo e consentono l’espressione di teorie e concetti complessi nell’ambito di linguaggi simbolici formalizzati. Servendosi di un linguaggio formale è possibile trovare alcune formule elementari che costituiscano le basi di una certa teoria (assiomi) dalle quali, attraverso regole di deduzione, si possono derivare altre formule (computazione).I computer, invece, consentono di rappresentare al proprio interno i linguaggi simbolici in forma digitale/binaria e perciò possono effettuare velocemente sicuramente le varie computazioni, imitando un linguaggio formalizzato. Naturalmente, da sempre sono state formulate varie obiezioni alla tesi che una macchina possa pensare, ed esse sono state riproposte anche dinnanzi a una macchina logica come il calcolatore elettronico, ma le difficoltà pratiche incontrate nello sviluppo dei programmi di Intelligenza Artificiale hanno finito per ingrandire e alimentare queste obiezioni. L’obiezione radicale si basa sul fatto che, sebbene si comportino come se fossero molto intelligenti, i computer seguono solo procedure meccaniche, anche se molto sofisticate, senza capire effettivamente le risposte che danno. L’obiezione fa riferimento all’ipotesi che in sostanza le risposte o i risultati finali delle elaborazioni che i computer ci presentano sono solo formulazioni simboliche e che siamo solo noi a dare un effettivo significato a queste espressioni. Negli ultimi anni, così, il dibattito sull’I.A. ha ampiamente superato l’ambito specialistico ed è giunto a riprendere alcuni temi classici della filosofia come quello della conoscenza, della coscienza e dell’intenzionalità. Proprio per questo, studiosi apparentemente “impreparati” ad affrontare l’argomento, hanno partecipato a tale dibattito, fornendo spunti diversi e interessanti. 20 Un primo tipo di obiezione si ispira ad alcuni temi della filosofia di Heidegger ed è vista con grande interesse da autori come Flores e Winogard: è la distinzione tra mondo esterno oggettivo e fenomeni mentali soggettivi, e la conseguente critica sia alle posizioni semplicemente oggettivistiche dia a quelle semplicemente soggettivistiche. L’interpretazione e la comprensione della realtà, infatti, sono considerate da Flores e Winogard attività che non possono essere separate dal vivere nella e dentro la realtà. Questo modo di concepire l’attività cognitiva di comprensione del mondo costituisce un punto di vista radicalmente diverso da quello dell’Intelligenza artificiale, che invece si basa sull’idea di scremabilità di comprensione della realtà esterna, vale a dire sull’idea di poter analizzare l’intelligenza in astratto attraverso linguaggi formali, estranei alla realtà, prescindendo dal contesto sociale specifico in cui si esplica. In questa visione, agli attuali calcolatori, dotati di programmi di tipo computazionali, mancherebbe quella comprensione intuitiva, pre-cosciente e preliminare che caratterizza gli uomini. Pertanto l’idea dei ricercatori di Intelligenza Artificiale di riprodurre l’intelligenza con algoritmici meccanici e simboli astratti, se può avere successo in ambienti molto ristretti e delimitati (giochi o discipline molto formalizzate), è destinata a gravi insuccessi in ambienti reali, caratterizzati da scarso determinismo e da un elevato numero di variabili. Un secondo tipo di obiezione è basato su alcune riflessioni tipiche della filosofia del linguaggio ed è stata formulata da Searle, un noto filosofo contemporaneo, con un particolare test (il cosiddetto test della stanza cinese) che si contrappone, rovesciandone i presupposti, a un altro famoso test che i sostenitori dell’Intelligenza Artificiale considerano molto convincente e favorevole alle proprie tesi (il test di Turing). In sostanza l’argomentazione di Searle sull’osservazione che gli attuali computer, che imitano comportamenti intelligenti attraverso la manipolazione di simboli astratti, non hanno una reale comprensione del significato di quei simboli, perché questo non è riducibile alle regole formali dell’algoritmo ma è collegato all’intenzionalità, tipica della mente umana. Ma se i computer non hanno intenzionalità e non comprendono i significati, cioè i contenuti reali dei simboli che manipolano, allora non si possono considerare delle menti e quindi non si può dire che pensino. Questa seconda obiezione ha in comune con la prima il riferimento a una intenzionalità o a una originaria percezione di sé come parte di un contesto vivente, sentimento non riconducibile ad algoritmi simbolici e quindi precluso agli attuali computer. A differenza della posizione di Winogard e Flores, tuttavia, questa obiezione non si estende a ogni ipotesi di Intelligenza Artificiale. Il suo bersaglio è solo l’ipotesi forte dell’Intelligenza Artificiale, cioè l’idea che gli attuali 21 computer quando eseguono tali programmi in qualche modo pensino. Searle infatti non esclude che in futuro si potranno costruire macchine effettivamente pensanti, ma esclude che con i metodi attuali si possa far pensare una macchina. La capacità di attribuire significati dipende, secondo Searle, da proprietà intrinseche della materia cerebrale che oggi in parte non sono ancora state chiarite. John R. Searle Searle, John - (b. 1932, Denver, CO; Ph.D. philosophy, Oxford; currently Professor of Philosophy, UC Berkeley). In philosophy of mind, Searle is known for his critique of computationalism, his theory of intentionality, and his work on the problem of consciousness. He took his Ph.D. in philosophy at Oxford, where he studied under John Austin and later became Lecturer in Philosophy at Christ Church from 1957-1959. Subsequently he went to UC Berkeley, where he became Professor of Philosophy. Searle's early work was in speech act theory, culminating in 1969 and 1979. He is credited with having elaborated the theory of speech acts associated with Austin, and with having introduced into the theory original elements of his own, most notably regarding the role played by speakers' and receivers' intentions in constituting the meaning of speech acts. Consistent with the focus on intentionality, his interest turned to philosophy of mind, where his major work can be seen as consisting in three main efforts: a critique of computationalism and strong Artificial Intelligence (AI); the development of a theory of intentionality; and the formulation of a naturalized theory of consciousness. The Critique of Computationalism and Strong AI The best known example of Searle's critique of computationalism and strong AI is his Chinese Room Argument. The main thrust of this thought experiment was to show that the syntactic manipulation of formal symbols does not by itself constitute a semantics. The implications for computationalism and strong AI were held to be the following: first, computationalism fails because the formal syntax of a computer program has been shown not to be intrinsically semantic, and second, strong AI fails because a system's behaving as if it had mental states is insufficient to establish that it does in fact have these states. Interestingly, Searle's assertion that syntax is insufficient to establish semantics predates the Chinese Room Argument and in fact represents one of the main objections to the generative grammar program that he voiced back in the early 1970s. 22 More recently (1997), Searle has argued that the Chinese Room Argument granted too much to computationalism. As he sees it now, the argument wrongly took as unproblematic the assumption that computer programs are syntactic or symbolic in the first place. Instead, he argues that there is no fact intrinsic to the physics of computers that make their operations syntactic or symbolic; rather, the ascription of syntax or symbolic operations to a computer program is a matter of human interpretation. The Theory of Intentionality Intentionality played an important role in Searle's philosophy going back as far as his early work in speech act theory. In 1983, he formulated a comprehensive theory of intentionality. In 1983 Searle analyzes the intentional state as consisting of a representative content in a psychological mode. Although many representative contents consist in an entire proposition, many do not, and it is not necessary that they do. Searle also analyzes intentional states in terms of their directions of fit (which can be world-to-mind, mind-toworld, or null) and directions of causation (which can be mind-to-world or world-to-mind). An important feature of Searle's theory of intentionality is something he calls The Background. The Background is theorized to be a set of skills, capacities, and presuppositions that, while being nonrepresentational, makes all representation possible. The Theory of Consciousness Searle's theory of consciousness is given major exposition in 1992 as well as in the essays collected in 1997. The first basic principle grounding Searle's theory of consciousness is that consciousness is irreducible. For Searle, consciousness is essentially a first-person, subjective phenomenon, talk of conscious states cannot be reduced or eliminated in favor of thirdperson, because he speaks about neural events. Any such attempt at reduction, Searle argues, simply misses the essential features of conscious states that is, their subjective qualities. The second basic principle is that consciousness is as much an ordinary biological phenomenon as is digestion. It is from this principle that Searle derives an argument for a non-dualist, causal approach to the problem of consciousness. According to Searle, brain 23 processes at the neural level cause conscious states; accordingly, conscious states just are features of the neurobiological substrate. Searle further argues that if consciousness is to be considered a feature or effect of brain processes, we must be clear to understand that it is not an effect separate from and posterior to the brain processes causing it. For Searle, this view of cause and effect is misleading when applied to consciousness because it unavoidably leads to dualism, which is untenable. Instead, Searle argues that the relation between consciousness and its causal brain processes involves a kind of non-event causation such as would explain the fact that gravity (a non-event) causes an object to exert pressure on an underlying surface. Searle has put the point another way by describing consciousness as an emergent property of brain processes in the same sense that water's liquidity is an emergent property of the behavior of H2O molecules. It should be noted that Searle's biological naturalism does not entail that brains and only brains can cause consciousness. Searle is careful to point out that while it appears to be the case that certain brain functions are be sufficient for producing conscious states, our current state of neurobiological knowledge prevents us from concluding that they are necessary for producing consciousness. Allo stesso modo, l’informatizzazione e l’innovazione scientifica hanno conquistato il cinema, la lingua parlata, la pubblicità, introducendo nuove tecniche e nuove tematiche, nuovi termini e nuove espressioni… La comunicazione visiva oggi Conoscere la comunicazione visiva è come imparare una lingua, una lingua fatta solo di immagini ma di immagini che hanno lo stesso significato per persone di qualunque nazione e quindi di qualunque lingua. Il linguaggio visivo è un linguaggio, forse più limitato di quello parlato, ma certamente più diretto. Un esempio evidente lo abbiamo nel buon cinema dove non occorrono più parole se le immagini raccontano bene una storia. La nostra istruzione in genere è di carattere letterario e le immagini non sono mai state abbastanza considerate dai letterati per questo loro valore di comunicazione, tanto è vero che, ancor oggi, molti letterati accettano, per esempio per il loro ultimo libro, copertine e impaginazioni assolutamente inadatte, come se una persona, vestita di rosso e di ermellino come un re, andasse a 24 sedersi in una cabina telefonica pubblica. Questo problema era già noto agli artisti delle epoche passate, essi lo conoscevano per intuizione e lo avevano collaudato con l'esperienza. Tutte le regole della tecnica erano buone regole di comunicazione visiva: l'accostamento dei colori per ottenere il massimo della brillantezza o comunque un effetto voluto, le regole di composizione che arrivavano fino alle misure armoniche della sezione aurea, e tutto ciò che i dadaisti hanno buttato all'aria perchè (a ragione) erano ormai regole inadatte alla nuova sensibilità, regole stancamente applicate nelle scuole statiche, regole che appartenendo al passato diventavano pura accademia e infatti l'arte di quei tempi andava sempre più restringendo la sua funzione di comunicazione visiva per diventare un fatto di elite, valido solo per competenti altamente specializzati. Tanto è vero che ancora oggi ci vogliono gli interpreti ( i critici d'arte) per spiegare al pubblico che cosa l'artista volesse dire. Di pari passo gli artisti si sono sempre più chiusi nella loro torre d'avorio, nei loro linguaggi segreti e così oggi siamo nel bel mezzo della massima confusione dalla quale si può uscire solo ristabilendo delle nuove regole per la comunicazione visiva, regole elastiche e dinamiche, non fisse per sempre, trasformabili continuamente, che seguano il corso dei mezzi tecnici e scientifici utilizzabili nelle comunicazioni visive, che siano soprattutto oggettive, cioè valide per tutti, e che diano una comunicazione visiva tale che non abbia più bisogno di interpreti per essere capita. La tecno-arte L’arte ha sempre avuto bisogno della tecnologia. Dalle piramidi e dagli obelischi fino ai “pennelli” elettronici e alle opere interattive di oggi, gli artisti, per stupire, hanno sempre dovuto ricorrere a gru e tralicci, hanno sfruttato e talvolta scoperto nuovi materiali, hanno chiesto l’aiuto di scienziati e specialisti. Ma se storicamente il matrimonio tra tecnologia e arte ha avuto due principali aspetti (applicazione di materiali nuovi e resistenti e uso di tecniche di costruzione avanzate), da qualche tempo la tecnologia diventa il contenuto stesso dell’opera. C’è chi ha costruito intere torri fatte di monitor televisivi (un artista coreano, Nam June Paik, ne ha messi 1003 uno sopra l’altro), e chi ha sostituito quadri e sculture con le più sorprendenti immagini elettroniche. Adesso si è fatto un passo in più: è arrivata l’arte interattiva. Ovvero, “ambienti sensibili”, in cui i movimenti e la voce o il battito del cuore dello spettatore vengono trasformati in impulsi da un computer, che “provvede” a manipolare l’opera. Le immagini, infatti, prendono vita grazie a proiettori, sensori e PC: così il pubblico si trova non solo a interagire con le invenzioni, ma ne diventa parte. Per esempio, a Lucca, nel 1996, urlando e battendo le mani, il pubblico 25 faceva scaturire dalle mura del Baluardo di San Paolino scene di battaglia sempre più cruente a mano a mano che il rumore (raccolto da sensori acustici) aumentava. Sembra un pozzo, ma è un’opera interattiva. La base è costituita da una struttura di legno, simile a una vasca, un computer, tre sensori della frequenza cardiaca e del ritmo respiratorio, un sintetizzatore e un videoproiettore. Il lavoro (Connected Es, 1998, di Pietro Gilardi), esposto di recente alla mostra !L’arte elettronica” al Palazzo dei Diamanti di Ferrara, è arte interattiva, ma non volontaria: i visitatori si applicano i sensori, si affacciano al pozzo, osservano le immagini e le modificano con il loro battito del cuore e con il ritmo del respiro. L’impatto emotivo delle immagini, con forme imprevedibili e colori accesi, e il “frastuono” del cuore che arriva amplificato in cuffia, modificano a loro volta battito e respiro. L’obiettivo, spiega il torinese Gilardi, è creare un leggero stato di trance: intorno tutto buio, come per calarsi in un oceano primordiale e arrivare a una “allucinazione collettiva lucida”. Oggi c’è chi sfrutta al meglio le capacità interattive di Internet, chi, come Nick Waplington, inventa finti siti: il nuovo “quadro” del 2002 è una home page. O chi compie elaborazioni digitali di foto, sempre più di moda, come la turca Murat Morova. L’aspetto tecnologico dell’opera è ritenuto dall’artista così importante che, nella pagina di catalogo dedicata dalla Biennale di Venezia, ha più spazio il brevetto d’invenzione del contenuto dell’opera. Ma il campo in cui maggiormente l’arte sfrutta la tecnologia è sicuramente quello degli effetti speciali, sempre più coinvolgenti e realistici, per il cinema. Dall’epoca dei primi Bmovies su King Kong o Godzilla a oggi, non solo Hollywood, ma anche le case di produzione europee, hanno avuto un incremento esponenziale degli investimenti nel campo degli effetti speciali, consentendo, da un lato la nascita di nuovi “geni dell’animazione”, eredi di quel Rambaldi che, a vent’anni dalla prima uscita del proprio “figlio” ET, è ancora uno dei più richiesti esperti del campo, dall’altro la realizzazione di pellicole altamente spettacolari o addirittura girate senza attori, per non parlare dei nuovi standard qualitativi dei film d’animazione… 26 The Matrix Percezione: il mondo che abbiamo sotto gli occhi è reale. Realtà: questo mondo è una beffa, un complesso inganno ordito dalle onnipotenti intelligenze artificiali che ci circondano. Un mondo immaginario ma concreto, una realtà virtuale progettata da una creazione dell’uomo sfuggita a ogni controllo. Acrobazie fatte con la mente saranno le uniche armi a disposizione di Neo (Keanu Reeves), Morpheus (Laurence Fishburne) e soci per liberare l’umanità dalla prigionia. In sintesi: - effetti speciali sublimi:il film è una pietra miliare in questo campo, basti l'effetto "flow-motion" con l'ormai celebre ripresa vorticosa in multipiano intorno ai corpi immobili "congelati"; - le ambientazioni e le scenografie belle e curatissime: le migliori riguardano probabilmente quelle sulle "pile-umane", la scoperta della terribile "realtà" degli uomini schiavi delle macchine; - la storia intrigante (anche se non originalissima): ... e se la realtà fosse un'illusione creata da un fantomatico computer per controllarci tutti? ... in questo senso notevole la sequenza del "ho avuto un deja vu". Final Fantasy: The Spirits within Premessa: la storia è ambientata sulla Terra dell’anno 2065, dominata dalla distruzione e dalla confusione. Le città sono deserte, la popolazione decimata, e quei pochi, preziosi, esseri umani rimasti devono ancora trovare un modo per sopravvivere. Una invasione extra-terrestre sta decimando quello che rimane della razza umana e quasi ogni creatura che vive sul pianeta. Il destino di tutta la vita sulla Terra è nelle mani e nella determinazione di una giovane scienziata, ma il tempo vola. C’è una sola speranza: Aki Ross, sotto la guida del proprio mentore, il Dottor Sid, e con l’aiuto della squadra Deep Eyes, sta cercando delle sorgenti di vita, l’unica speranza per fermare l’invasione senza distruggere il pianeta. 27 Ormai allo stadio terminale per un’infezione causata da un alieno, Aki possiede la chiave per scoprire il segreto per sconfiggere i predatori alieni. Ma la costante opposizione del Generale Hein, che progetta di organizzare un massiccia controffensiva attraverso un cannone spaziale che distruggerà gli alieni, ma probabilmente anche la terra, è d’intralcio nella sua ricerca. In questo mondo, costretti ad affrontare la morte che li separa dalle persone care, i protagonisti sono costretti a scoprire cosa sia la vita e cosa l’amore, e quale sia la definizione filosofica di cuore. In questo mondo, infatti, la scienza aveva analizzato e “sterilizzato” ogni cosa, compresi la vita, la morte e tutti i sentimenti, per esprimere la viita stessa solo come una forma di energia. Ma il tempo scorre, e Aki scava dentro se stessa e i propri sogni per trovare una risposta al mistero alieno, per scongiurare il pericolo della distruzione della terra e del suo Spirito, Gaia. Attraverso una serie di battaglie e scontri, si giunge alla conclusione, e, quando ormai tutto sembra compromesso, Aki scopre di essere il tassello mancante per la salvezza del pianeta, e decide di tentare il tutto per tutto… Cosa sta dietro questo film? Una trama non originalissima, certe scene perfino scontate, un montaggio e una regia anonima… E il successo? Sta nel fatto che degli attori presenti sullo schermo, nemmeno uno è reale: tutto il film è infatti elaborato al computer, dagli scenari pre–renderizzati e poi rielaborati per ottenere stupefacenti effetti 3D, al minimo movimento del singolo filo d’erba, dai riflessi della luce sul vetro al modo di camminare di Aki. Grazie all’esperienza accumulata nel campo dei videogames, infatti, i programmatori della Squaresoft hanno tratto da una sceneggiatura, come al solito, estranea agli avvenimenti delle precedenti puntate della saga, un film mozzafiato, che riesce sempre a sorprendere per l’accuratezza dei dettagli e l’altissima risoluzione delle figure, non solo su supporto DvD, ma anche in cassetta o al cinema, che spesso riducono la definizione e la qualità dei filmati elaborati in comput-grafica. Shrek C’era una volta un reame lontano, dove viveva un orco asociale chiamato Shrek (Mike Myers), la preziosa solitudine del quale venne improvvisamente turbata da una invasione di fastidiose creature fiabesche, tutte cacciate dal proprio regno dal cattivo Lord Farquaad (John Lithgow). Determinato a salvare la propria privacy, Shrek stringe un patto con Farquaad e parte per liberare la bellissima Principessa Fiona (Cameron Diaz), 28 che dovrà diventare la moglie di Farquaad. Verrà accompagnato nella sua missione da una asinello parlante e rompiscatole, Ciuchino (Eddie Murphy), che farà qualunque cosa per Shrek... tranne stare zitto. Recuperando la Principessa da un drago sputa-fuoco, sarà l’ultimo dei suoi problemi, a causa del misterioso segrato che Fiona tiene ben nascosto. Per certi versi, Shrek è una classica fiaba fantastica: cìè un eroe, una principessa stupenda e un odioso nobile. A differenza delle fiabe tradizionali, però, l’eroe è un brutto, intollerante orco, la principessa non è quello che sembra essere e il nobile ha numerosi momenti comici. Il direttore della PDI/DreamWorks Aron Warner spiega, infatti, come tutta la storia non sia che una rivisitazione molto “libera” del genere fantasy, in cui manca ogni rispetto per elementi in passato considerati “sacri”. I personaggi, in particolare, sono parodie dei protagonisti delle fiabe tradizionali. Oltre a rompere gli schemi della favolistica tradizionale, Shrek mostra alcune sequenze di computer animation mozzafiato, del tipo oggi definito come “Holy Grails”, essendo il primo lungometraggio realizzato interamente al computer con personaggi umani altamente realistici, capaci di esprimere sia con i dialoghi sia con le espressioni del volto un complesso insieme di sensazioni, grazie a una sistema di animazione facciale studiato dalla PDI. Usando strumenti speciali chiamati “Shapers”, gli animatori hanno saputo replicare i più sofisticati movimenti della faccia e del corpo, applicando simulatori interattivi di pelle, muscoli, grasso, capelli e vestiti. Ciò ha permesso di migliorare anche la struttura degli oggetti inanimati e degli sfondi: vestiti e bandiere che si muovono, cambiano e reagiscono alla luce come nella realtà; fluidi di differente viscosità, ottenuti utilizzando il pluri-premiato sistema di animazione per fluidi della PDI/DreamWorks “Fluid Animation System”. Questo processo di multimedializzazione della società ha contemporaneamente dato avvio a un processo di modernizzazione e di restyling della lingua italiana, grazie a una sempre maggiore frequenza di termini “presi in prestito” da linguaggi settoriali o da lingue straniere, e invogliando un gran numero di intellettuali a una sperimentazione sempre maggiore di nuove forme ritmiche e metriche… Nuovi linguaggi: l’italiano si rinnova Il concetto di lingua, quale lo intendevamo solo due - tre decenni addietro, appare superato. Una lingua deve oggi accogliere necessariamente parole da altre lingue, e non solo dall'inglese. «Il sacrificio della patria nostra è consumato: tutto è perduto; e la vita, 29 seppure ne verrà concessa, non ci resterà che per piangere le nostre sciagure e la nostra infamia». Così, 200 anni fa, un giovane giacobino arruolato a Bologna nell'esercito francese, Ugo Foscolo, scriveva le prime battute del suo “Ultime lettere di Jacopo Ortis». Chi oggi, altrettanto giovane, lo capirebbe? La retorica domanda viene quasi spontanea alla presentazione del nuovo Vocabolario Treccani 5 volumi, un CD-ROM, un vocabolario trasportabile detto “Il Conciso” e un gioco di società sulla lingua italiana che dedica grande attenzione ai nuovi linguaggi giovanili. Se è vero, come scriveva il grande pensatore spagnolo Miguel de Unamuno, che «le lingue, come le religioni, vivono di eresie» e se non è vero quanto affermava il poeta statunitense Emerson che la «lingua è poesia fossile», l'analisi dei “linguaggi selvaggi” giovanili è un passo necessario per l'interpretazione della realtà contemporanea. Con un rischio. Che i termini del linguaggio giovanile registrati da vocabolari ed enciclopedie siano già vecchi quando vengono pubblicati. E che la lettura di questi nuovi termini appaia tale solo a chi, come chi scrive, ha purtroppo già scavalcato la dura soglia della metà del secolo di vita: nuovi perché erano tali nell'età della sua giovinezza, ma vecchi e persino dimenticati o incomprensibili per i giovani veri, quelli attuali. Ciò che vi è stato di divertente e di curioso nella proposta della Treccani è che la presentazione della nuova impegnativa opera dell'Istituto si è concretizzata in un seminario di studio nella discoteca romana «Alpheus». Un seminario fuori dalle regole e al di fuori dei canoni, chiuso dall'intervento musicale dei «Subsonica», il gruppo torinese reduce dai successi del Festival di Sanremo. «In principio era il Verbo», sottolinea biblicamente la Treccani, spiegando il senso del suo lavoro e di questa audace presentazione. «Poi –aggiunge- il linguaggio si è frastagliato in forme numerosissime e differenziate tra di loro: dalla musica ai tatuaggi e al piercing, dai fumetti ai graffiti: la ricerca di nuovi canali di comunicazione è, nei giovani, illimitata e continua». Max Casacci e Luca Ragagnini dei «Subsonica», davanti ad un pubblico di giovani, hanno parlato del loro «metabolismo del linguaggio sonoro» cioè dell'importanza che assegnano al miscuglio di suoni e parole: «Ci diverte molto questo abbinamento tra noi e un istituto di grande cultura». Nel Vocabolario sono entrati termini più o meno nuovi, tipici del linguaggio giovanile: da chiodo (il giubbotto di pelle nera con finiture metalliche) a paninaro (termine in uso negli Anni '80 e relativo a giovani provocatoriamente alla moda) a tamarro (persona dai modi rozzi, volgari, villani'). Per poi salire all'indietro nel tempo ai film Anni '50 con il termine piotta (un tempo la banconota da 100 lire, ora quella da 100mila) o con quello testone, un milione di lire. Nel campo degli stupefacenti sono stati accettati termini come fatto (chi è sotto l'effetto di qualche droga), sballo (stato di 30 allucinazione provocato dall'assunzione di stupefacenti), pera (iniezione di eroina), oggi rincorsi dai più recenti fattone, calatino e rimastino. E l'odierno me la viaggio non ha riferimento né con le droghe, né col turismo, ma vale per “mi va proprio bene”. Il punto centrale dei linguaggi giovanili, sottolineano all'Istituto Treccani, è in fondo proprio questo: non si fa in tempo ad accogliere espressioni partorite dalla fantasia giovanile che già si veleggia verso nuovi orizzonti: cosa dire di un non mi asciugare che vuole esprimere la noia di fronte alle troppe chiacchiere di un amico? Anche sulla valutazione della bellezza femminile il Treccani segnala nuovi e meno recenti vocaboli, tra i quali spiccano squinzia (civetta pretenziosa) e appizzata, cioè che veste con abiti aderenti. Nuovi linguaggi: il “Tam Tam” in codice della Rete "DIKY? WAYF? A/S/L15/M/NY". Mai visto niente di simile? Eppure non è un dialogo fra marziani. Sono 2 ragazzi americani che chiacchierano online, usando sigle e abbreviazioni che ormai sono di uso comune nel linguaggio della posta elettronica, soprattutto fra coloro che usano un “Instant Messenger” (IM), cioè un programma che consente di dialogare in tempo reale con un gruppo di persone e che ha anche dato il nome a questa attività, chiamata IMing (IMare). Secondo America Online, il sistema mette in circolazione ogni giorno almeno 700 milioni di messaggi istantanei, inviati da 75 milioni di persone, di cui la maggioranza ragazzi. L'Instant Messenger consente di compilare una lista di corrispondenti, costruendo una sorta di network privato accessibile in ogni momento. Non è sorprendente, dunque, che questo esercito di “Imatori” si sia inventato un linguaggio proprio, con termini indecifrabili alla gente comune, regole e un galateo. L'obiettivo principale è esprimere il contenuto con il minimo dello sforzo, martellare sulla tastiera idee brevi ma sostanziose senza badare alle forme. Cadono perciò le maiuscole, tranne quando si vuole esprimere un'emozione forte, quasi tutta la punteggiatura e l'ortografia, e gran parte delle parole più comuni, condensate in sigle. Il dialogo portato come esempio all'inizio significa dunque in sostanza: Ti conosco già? Da dove vieni? Età/sesso/provenienza.' 15 anni/maschio/New York'. Domanda e risposta contengono solo degli acronimi e la classica domanda che i partecipanti alle chatroom' o a qualsiasi dialogo online si rivolgono a vicenda per sapere con chi stanno parlando. Sigle e abbreviazioni servono a dialogare più in fretta ma anche a eliminare potenziali intrusioni da parte di adulti, soprattutto i genitori (spesso definiti POS, genitore dietro le spalle) e accusati di "SOHF", cioè mancanza di senso dell'umorismo. Altri acronimi comunemente usati sono "IMHO" (secondo la mia modesta opinione), "BRB" (torno 31 subito), "ROTFL" (mi sto rotolando sul pavimento dal ridere), "MYOB" (fatti gli affari tuoi), "YOOC" (sei fuori di testa), "UGTBK" (stai scherzando?). Infine, per chi vuole usare il nuovo linguaggio, occhio al galateo: chi s'inserisce in una conversazione, deve premettere un "PMFJI" (scusate se m'intrometto) e poi dichiarare età, sesso e luogo di provenienza. Sanguineti: la sperimentazione tra poesia e musica «Nella tipologia dei rapporti di collaborazione fra poesia e musica ci sono due polarità fondamentali: da un lato c'è il caso di uno scrittore che, senza pensare assolutamente alla musica, scrive un testo, che un musicista utilizza, perché lo giudica adoperabile ai suoi fini espressivi, stimolato oltre che dall'aspetto tematico, dall'aspetto dell'organizzazione linguistica; dall'altro lato esiste invece il caso di una collaborazione che nasce perché il musicista chiede ad un autore un testo che sia appositamente scritto; poi ci sono i casi intermedi, in cui l'autore propone dei materiali che ha già elaborato e che il musicista trasceglie liberamente. Il mio lavoro sul rap con Andrea Liberovici appartiene a questa sorta di terza via: non mi è stato chiesto il permesso di musicare testi determinati e nemmeno di scriverne uno per l'occasione, ma piuttosto di collaborare ad un progetto. Io ho proposto vari materiali preesistenti, altri sono stati cercati da Liberovici stesso fra i miei scritti, e ci siamo accordati su una relativa libertà d'uso. Credo che questo modello collaborativo possa essere interessante, poiché non si tratta più né di un'idea nata su commissione, né dell'utilizzazione di un testo concepito al di fuori della musica, ma del lavoro di un musicista su dei materiali poetici che gli vengono messi a disposizione e che può riorganizzare secondo le proprie esigenze. In realtà, la mia attenzione alle sperimentazioni che coinvolgono musica e letteratura non è nuova. Ho incominciato a lavorare in collaborazione con musicisti all'inizio degli anni Sessanta, segnatamente con Berio. Berio è forse il musicista che meglio incarna la mia idea di collaborazione, che si è prolungata fino ad oggi, con episodi qualche volta anche lontani nel tempo, ma senza che mai si rompesse una linea di continuità, anche perché è accaduto che, pur modificandosi le nostre poetiche e le forme del nostro linguaggio com'è naturale in una ricerca, ci siamo mossi sempre con qualche simmetria: i problemi, sia di linguaggio poetico sia di linguaggio musicale che si ponevano, presentavano spesso delle analogie, pur nell'ovvia differenza di due modalità comunicative piuttosto eterogenee. Con Berio e con altri musicisti, il lavoro era di volta in volta mutevole, ma 32 aveva la costante di appartenere sempre a quel genere di musica che consideriamo “grave”, seria, legata al teatro, alla sala da concerto, o anche a soluzioni cameristiche, ma lontana dalla cosiddetta pop music, vale a dire da una musica di più largo consumo, che usa modalità di comunicazione popolare, nate o divenute tali. Oltre a questo interesse specifico, quando sottoposi a Liberovici alcuni dei miei materiali, ero mosso dall'idea, che lui del resto condivideva, che il rap fosse prima di tutto una tecnica evidentemente ritmica e musicale, ma anche una tecnica del discorso verbale, un modo paradossale per "recitar cantando", in cui l'importanza del testo è molto forte e permette di utilizzare anche dei componimenti che non abbiano una preordinata struttura ritmica, ma che si costruiscono attraverso giochi verbali. Io ho fatto uso, almeno in molti dei miei testi, dell'allitterazione, della rima ribattuta e questo si prestava bene ad essere trasformato in rap, con poche modifiche di replica, di iterazione, di variazione. Da un punto di vista tematico, Liberovici era poi partito da un soggetto su cui potevo offrire molto materiale: il motivo del sogno; perciò l'ho lasciato libero di montare i miei testi e di giocare - come io auspicavo che potesse avvenire - sulla congiunzione di parti eterogenee tra loro, ma che in una logica onirica ritrovavano un loro senso di montaggio. Del resto, molta della pop art, intesa non soltanto nel senso pittorico, ma di arte pop, nell'accezione in cui si impiega questa parola quando si parla oggi del folclore di massa, è degna di grande attenzione; e c'è uno scambio continuo, qualche volta consapevole qualche volta inconsapevole, tra le espressioni tradizionali d'arte e le espressioni di massa legate al consumo e alla cultura dei giovani. In fondo, si ritrova in questo rapporto qualcosa che la tradizione ha sempre conosciuto e che poi ha un po' perso: se si guarda al modo in cui la musica del passato ha operato con ciaccone o gagliarde o minuetti o valzer, si vede che tutta la musica più seria, qualche volta persino seriosa, ha utilizzato delle forme di danza che erano consumate contemporaneamente dalla cultura “popolare” del tempo. Anche la scrittura letteraria e il lavoro sulla parola potrebbero trovare in questa sorta di ibridazione una spinta ulteriore per rompere con il “poetese” in senso negativo, cioè il gergo lirico, la selezione verbale verso realtà superiori dotate di aura, e stimolare maggiormente ad un impiego poetico del linguaggio quotidiano, di tutto quello che è il mondo della prosa moderna, della tecnologia, delle feconde mescolanze di lingue diverse. D'altra parte è importante ricordare che in una certa letteratura americana all'epoca della cultura beat, ci sono stati autori, come Kerouac e Ginsberg, che dichiaravano di essersi ispirati molto al ritmo del jazz o alla pop music, proprio come ritmo 33 di scrittura; ci sono esempi, in poesia come in prosa, di una letteratura che ha subìto questo influsso della ritmica musicale, sul terreno del romanzo e della narrativa, come su quello poetico e credo che, in questa direzione, si possano ottenere degli sviluppi ancora più ricchi. Nel valutare la situazione italiana, occorre però fare le dovute differenze. Gli esperimenti degli anni Cinquanta e Sessanta per creare una canzone d'autore o lo sviluppo dei cosiddetti cantautori hanno dato risultati assolutamente discutibili. La tipicità della canzone italiana appare molto imprigionata entro limiti di melodicità tradizionale, per cui diventa o tardo melodramma riciclato, nel migliore dei casi, o tarda romanza da camera. Ciò non toglie che ci siano stati anche dei risultati positivi fra gli autori (perché Paoli o Conte hanno forse aperto delle strade) e degli interpreti piuttosto straordinari, anche dal punto di vista del costume, come Mina o Patty Pravo. Tuttavia un limite è sempre stato la prevalenza di melodicità e di poeticità; anche i tentativi di scrivere testi per canzoni fatti da Pasolini, da Calvino, da Fortini, persino da Moravia e Soldati seppure molto episodicamente, non hanno poi trovato conferma né continuità, perché in fondo la vera musica popolare aveva altre direzioni. L'intervento del jazz e del rock è stato invece veramente un fatto insopprimibile nello sviluppo del linguaggio musicale, il solo che possa trovare equivalenti nella sperimentazione letteraria. Accanto al “poetese”, c'è stato un “canzonettese”: l'Italia purtroppo è il paese di Sanremo, per dire tutto in una formula, e questo ha rappresentato e rappresenta un limite molto forte. Anche dal punto di vista dei contenuti, delle idee, benché la canzone abbia avuto un pubblico larghissimo, in sostanza è sempre rimasta prigioniera di atteggiamenti, per così dire, piccolo-borghesi. Molta della protesta orientata in quel senso è rimasta imparagonabile alla rottura espressiva proposta da tanta musica anglosassone, dai Rolling Stones ai Sex Pistols, per esempio, in cui radicalismo e anarchismo hanno raggiunto una violenza che da noi è rimasta praticamente sconosciuta o veramente episodica ed eccezionale. Il limite della canzone italiana è davvero anche un limite ideologico e di classe. Tentare l'esperimento del rap significava uscire davvero da questi confini, passare davvero ad altro: fare un lavoro, con un musicista, in una direzione che non rimanesse poi nemmeno prigioniera della forma del rap, ma la utilizzasse come una sorta di riferimento fondamentale, nell'organizzazione della struttura di un'esperienza spettacolare, senza rinunciare a nessuno degli elementi che oggi, sia la parola, sia il suono possono proporre. Io tendo sempre più ad insistere sul momento anarchico come momento di pulsione della grande arte critica del Novecento. Se questo momento ha trovato incarnazione, non è stato tanto nella forma 34 della canzone “all'italiana”, quanto piuttosto nelle esperienze di certo rock violento e oggi, semmai, del rap e di altre espressioni di questo genere.» Bollettino '900 - Electronic Newsletter of '900 Italian Literature, n°6 1996, conversazione con Edoardo Sanguineti Edoardo Sanguineti è nato a Genova nel 1930. È cresciuto a Torino, dove si è laureato con Giovanni Getto con una tesi su Dante, più tardi pubblicata con il titolo Interpretazione di Malebolge (Olschki 1961). insegnato moderna e Dal 1968 ha contemporanea letteratura italiana all'università di Salerno e dal 1974 è passato all'università di Genova. La sua produzione saggistica comprende: Tra liberty e crepuscolarismo (Mursia 1961), Tre studi danteschi (Le Monnier 1961), Alberto Moravia (Mursia 1962), Ideologia e linguaggio (Feltrinelli 1965), Guido Gozzano. Indagini e letture (Einaudi 1966), Il realismo di Dante (Sansoni 1976), Giornalino secondo (1976-1977) (Sansoni 1979), Scribilli (Feltrinelli 1985), La missione del critico (Marietti 1987), Dante reazionario (Editori Riuniti 1992), Gazzettini (Editori Riuniti 1993). Ha inoltre curato l'antologia Poesia del Novecento (Einaudi 1969). Contemporaneamente all'attività accademica, ha portato avanti quella di poeta e romanziere. Il suo primo volume di poesie, Laborintus, è del 1956 (Magenta). Le raccolte successive sono: Erotopaegnia (Rusconi 1960), Opus metricum (Il Verri 1960), Testi di appercezione tematica (Sommaruga 1968), Wirrwarr (Feltrinelli 1972), Catamerone (Feltrinelli 1974), Postkarten (Feltrinelli 1978), Stracciafoglio (Feltrinelli 1980), Scartabello (Colombo 1981), Segnalibro. Poesie 1951-1981 (Feltrinelli 1982), Due ballate (Pirella 1984), Alfabeto apocalittico (Pirella 1984), Quintine (Rossi e Sfera 1985), Bisbidis (Feltrinelli 1987), Senzatitolo (Feltrinelli 1992) e Corollario (Feltrinelli 1997). I suoi romanzi sono: Capriccio italiano (Feltrinelli 1963), Il gioco dell'oca (Feltrinelli 1967) e Il giuoco del Satyricon (Einaudi 1970). Ha scritto inoltre testi teatrali e ha collaborato con Luciano Berio. L’opera che maggiormente rappresenta lo sperimentalismo di Sanguineti è probabilmente Vengo con la presente, nella quale anche il linguaggio burocratico, freddo e inespressivo, viene utilizzato con ironia per parlare d’amore, rappresentando un mondo in cui i massmedia, anziché avvicinare le persone le allontanano. La struttura prosastica sottolinea che nella realtà moderna non c’è più posto per la poesia e l’armonia del verso, mentre l’apertura con la lettera minuscola e l’uso insistito dei due punti ci dicono che il discorso non ha un inizio e una fine precisi, ma rappresentano un continuo fluire di sentimenti e di pensieri. E’ notevole la sovrapposizione di diversi registri linguistici. 35 Vengo con la presente vengo, con la presente, a te, per chiederti formalmente di esentarmi d’urgenza dal comunicare, con te, per telefono: (io non posso battere zuccate disperate, contro il primo muro che mi trovo a disposizione, ogni volta, capirai, appena mollo giù il ricevitore): (perché, mia diletta, io non saprò mai separare, stralciandole, le tue parole, a parte, dai tuoi gomiti, dai tuoi alluci, dalle tue natiche, da tutta te): (da tutto me): sola, la tua voce mi nuoce: (da Scartabello, XLVII poesie; ora in Segnalibro, Feltrinelli, Milano) 36 Traduzioni Platone, Simposio, 290 e Per le stesse ragioni voi onorate Solone, il padre delle vostre leggi, e in tutti i paesi - greci e barbari - sono onorati gli uomini che hanno prodotto grandi opere, mettendo a frutto le più alte capacità del loro spirito. In onore di quello che queste persone hanno saputo creare si sono già innalzati molti templi, mentre questo non è mai accaduto fino ad oggi, per i figli nati dall'amore di un uomo e di una donna. Platone, Fedro, 274 c – 275 b SOCRATE [274 c] Ho sentito dunque raccontare che presso Naucrati, in Egitto, c’era uno degli antichi dei del luogo, al quale era sacro l’uccello che chiamano ibis; il nome della divinità era Theuth. Questi inventò dapprima i numeri, il calcolo, [274 d] la geometria e l’astronomia, poi il gioco della scacchiera e i dadi, infine anche la scrittura. Re di tutto l’Egitto era allora Thamus e abitava nella grande città della regione superiore che i Greci chiamano Tebe Egizia, mentre chiamano il suo dio Ammone. Teuth, recatosi dal re, gli mostrò le sue arti e disse che dovevano essere trasmesse agli altri Egizi; Thamus gli chiese quale fosse l’utilità di ciascuna di esse, e, mentre Theuth le passava in rassegna, a seconda che gli sembrasse parlare bene oppure no, [274 e] ora disapprovava ora lodava. […] ; quando poi fu alla scrittura, Theuth disse: «Questa conoscenza, o re, renderà gli Egizi più sapienti e più capaci di ricordare, poiché con essa è stato trovato il farmaco della memoria e della sapienza». Allora il re rispose: «Ingegnosissimo Theuth, c’è chi sa partorire le arti e chi sa giudicare quale danno o quale vantaggio sono destinate ad arrecare a chi intenda servirsene. Ora tu, [275 a] padre della scrittura, per benevolenza hai detto il contrario di ciò che essa vale. Questa scoperta, infatti, per la mancanza di esercizio della memoria, produrrà nell’anima di coloro che la impareranno la dimenticanza, perché fidandosi della scrittura ricorderanno dal di fuori mediante caratteri estranei, non dal dentro e da se stessi; perciò tu hai scoperto il farmaco non della memoria, ma del richiamare alla memoria. Della sapienza tu procuri ai tuoi discepoli l’apparenza, non la verità: ascoltando per tuo tramite molte cose senza insegnamento, crederanno di conoscere molte cose, [275 b] mentre per lo più le ignorano, e la loro compagnia sarà molesta, poiché sono divenuti portatori di opinione anziché sapienti». 37 Seneca, Epistulae ad Lucilium, 90, 4 Ma i primi uomini e i loro discendenti, non ancora corrotti, seguivano la natura, avevano una stessa persona come guida e come legge, erano sottomessi al giudizio del migliore. E’ proprio della natura, infatti, assoggettare ciò che è più debole a ciò che è più forte. A capo egli armenti stanno gli animali più forti o più impetuosi: non precede un armento un toro indegno, ma quello che per grandezza e forza ha vinto gli altri maschi; il branco degli elefanti lo guida il più alto: fra gli uomini invece del più grande è il migliore. Per la mente perciò viene eletto il capo, e perciò regnava la felicità più grande fra quelle genti presso le quali non si poteva essere i più potenti senza essere i migliori; può fare con sicurezza quanto vuole colui che non ritiene di dover fare se non ciò che deve. Seneca, Epistulae ad Lucilium, 90, 36 Non credo che questa filosofia ci fosse in quella rozza età nel quale fino ad allora mancavano le arti e [nel quale] imparavano lo stesso uso delle cose utili, credo invece che sia venuta dopo quei tempi fortunati, quando i beni della natura, da usare indistintamente, erano alla portata di tutti, prima che l’avidità e il desiderio del lusso dividessero gli uomini e che essi passassero dall’avere in comune i beni al portarseli via. Quelli non erano uomini sapienti, anche se compievano azioni da uomini sapienti. John R. Searle Searle, John – (n. 1932, Denver, Colorado; laurea in filosofia a Oxford; attualmente professore di filosofia, UC Berkeley). Nel campo della filosofia della mente, Searle è noto per la sua critica del modello computazionali, per la sua teoria dell’intenzionalità, e per i suoi lavori sul problema della conoscenza. Egli si laureò in filosofia a Oxford, dove studiò con John Austin, e dopo divenne Conferenziere di filosofia presso Christ Church dal 1957 al 1959. Successivamente si trasferì all’università di Berkrley, dove divenne professore di filosofia. Il primo lavoro di Searle fu sulla teoria del discorso, terminato tra il 1969 e il 1979. Gli è stato riconosciuto di aver elaborato la teoria del discorso in collaborazione con Austin, e avendo introdotto nella teoria elementi originali, i più importanti riguardanti i ruolo svolto dalle intenzioni dell’oratore e dell’ascoltatore nel costituire il significato del discorso. Coerente nel mettere a fuoco il problema dell’intenzionalità, si interessò poi della mente, riguardo la quale il suo maggior lavoro può essere visto come composto di tre opere principali: una critica del modello computazionali a dell’Intelligenza Artificiale 38 forte, la diffusione di una critica dell’intenzionalità e la formulazione di una teoria propria teoria della conoscenza. La critica del modello computazionale e L’I.A. forte. L’esempio più conosciuto della critica del modello computazionale e dell’Intelligenza Artificiale forte è il test della stanza cinese. Lo scopo principale di questo esperimento sul pensiero era quello di mostrare che la manipolazione sintattica di simboli formali non costituisce di per sé una capacità semantica. Le implicazioni del modello computazionale e dell’I.A. forte erano ritenute le seguenti: primo, il modello computazionale è sbagliato perché è stato dimostrato che la sintassi formale di un programma per computer non è intrinsecamente semantica, e secondo, l’I.A. forte è sbagliata perché concepire un sistema come se esso avesse stati mentali non è sufficiente a stabilire se questi stati mentali fossero veramente presenti nel sistema. In modo interessante, l’affermazione di Searle che la sintassi non è sufficiente per stabilire una capacità semantica anticipa il test della stanza cinese e, infatti, rappresenta una delle principali obiezioni al programma di grammatica produttiva di cui egli si fece portavoce nei primi anni Settanta. Più recentemente (1997), Searle ha ammesso che il test della stanza cinese concede troppo al modello computazionale. Dal suo punto di vista attuale, il test prende erroneamente come non problematico l’affermazione per cui i programmi per computer sono in primo luogo sintattici o simbolici. Invece, afferma Searle, non c’è niente di intrinseco alla fisicità dei computer che renda le loro operazioni sintattiche o simboliche; piuttosto, l’attribuzione di operazioni sintattiche o simboliche a un programma per computer è solo una questione di interpretazione umana. La teoria dell’intenzionalità L’intenzionalità giocò un ruolo molto importante nella speculazione filosofica di Searle sin dai suoi primi scritti sulla teoria del discorso. Nel 1983, il nostro formulò una teoria comprensiva dell’intenzionalità. Per formulare la teoria del 1983, Searle analizzò lo stato intenzionale come composto da un contenuto rappresentativo in un modo psicologico. Sebbene molti contenuti rappresentativi consistano in una intera proposizione, molti no, è non è necessario che lo facciano. Searle analizzò anche gli stati intenzionali nei termini della loro direzione di 39 applicazione (che può essere mondo – mente, mente – mondo o nessuna) e nella direzione della loro sorgente ( che può essere mente – mondo o mondo – mente). Un importante componente della teoria dell’intenzionalità di Searle è ciò che lui chiama “Background”. Il “Background” è teorizzato come un insieme di abilità, capacità e predisposizioni che, pur non essendo rappresentabili, rendono possibile ogni rappresentazione. La teoria della conoscenza La teoria della conoscenza di Searle ha ricevuto l’esposizione maggiore nel 1992, così come nella raccolta di saggi del 1997. Il primo principio alla base della teoria della conoscenza di Searle è che la conoscenza è irriducibile. Per Searle, la conoscenza è essenzialmente un fenomeno personale, soggettivo, parlare di stati conoscitivi non può essere ridotto o eliminato a favore della terza persona, poiché si parla di eventi neurali. Ogni tentativo di riduzione, afferma Searle, semplicemente manca gli obiettivi essenziali degli stati di conoscenza, cioè delle loro qualità soggettive. Il secondo principio basilare è che la conoscenza è un fenomeno naturalmente biologico, come la digestione. E’ da questo principio che Searle deriva un argomento a favore di un approccio non dualistico e causale al problema della conoscenza. Secondo Searle, i processi cerebrali a livello neurale sono la causa degli stati conoscitivi; in conseguenza, gli stati conoscitivi sono solo componenti del substrato neurobiologico. Searle aggiunge, inoltre, che se la conoscenza deve essere considerata una componente e un effetto del processo cerebrale, deve essere facilmente comprensibile che non è un effetto separato o posteriore al processo cerebrale che lo causa. Per Searle, questa visione di causa ed effetto è sviante quando applicata alla conoscenza perché inevitabilmente porta a un dualismo, e ciò è insostenibile. Invece, Searle afferma che la relazione tra la conoscenza e il processo cerebrale che ne è la causa coinvolge un tipo di causalità “non accidentale”, così come spiegherebbe il fatto che la gravità (un evento “non accidentale”) causa la pressione esercitata da un oggetto sulla superficie sottostante. Searle ha puntualizzato l’argomento in un altro modo, descrivendo la conoscenza come una evidente proprietà del processo cerebrale nello stesso modo in cui la liquidità dell’acqua è una proprietà evidente del comportamento delle molecole di H20. 40 E’ opportuno notare come il naturalismo biologico di Searle non metta in dubbio che solo il cervello possa causare la conoscenza. Searle è prudente nel mettere in evidenza che mentre appare in alcuni casi che certe funzioni cerebrali sono sufficienti per produrre stati conoscitivi, lo stato attuale delle nostre conoscenze nel campo della neurobiologia ci impedisce di concludere che esse siano necessarie per produrre conoscenza. 41