Article

Commenti

Transcript

Article
Machine Ethics
di Vasant Raval, DBA, CISA, ACMA. – ISACA JOURNAL VOLUME 5, 2014.
Vasant Raval, DBA, CISA, ACMA, è professore di Ragioneria/Contabilità nell'Università di Creighton (Omaha, Nebraska, USA). Co-autore di due libri
sui sistemi informativi e la sicurezza, le sue aree di insegnamento e gli interessi di ricerca comprendono la sicurezza informativa e la governance
dell’impresa. Le opinioni espresse in questo articolo sono esclusivamente sue e non dell'Università di Creighton. Può essere contattato all’indirizzo
[email protected]
Nella sua essenza, un computer esegue istruzioni, cioè il codice che abbiamo inserito. Pertanto, si può sostenere che i computer non
abbiano una propria libertà di scelta al di là di quella che l'uomo ha previsto per il sistema. Infatti, le azioni intenzionali di qualsiasi codice
sono essenzialmente limitate all'ambito scelto da chi lo scrive. In questo senso, i computer possono essere descritti come meri strumenti,
o fattori abilitanti, di ciò che l'utilizzatore vuole fare. L'intera responsabilità circa l'eticità del comportamento del sistema dipende quindi
dai suoi creatori.
Questo non esclude che l'uomo possa usare questi fattori abilitanti in maniera immorale. Durante gli anni '70, il top management di
Equity Funding, un'impresa di assicurazioni sulla vita degli Stati Uniti d’America, decise di creare false evidenze di polizze assicurative,
riassicurandole ed ottenendo denaro dai riassicuratori dichiarando falsi decessi degli assicurati. Essi nascosero questi dati ai loro revisori
in quello che veniva definito "File 99". Manipolare il codice o i dati per commettere un crimine o un atto immorale è possibile anche
quando i computer non sono nient'altro che strumenti e l’autore proviene dal gruppo degli utilizzatori o di chi ha scritto il codice.
Ma è arrivata un’era di advanced computing, che continua ad espandersi, nella quale i computer stanno rivestendo ruoli sempre più
sofisticati. La robotica e le nanotecnologie sono solo due esempi delle discipline in evoluzione che spingeranno il ruolo dei computer e
l’elaborazione ben al di là dell'era dei fattori abilitanti. Secondo Ray Kurzweil, entro il 2045, "l'intelligenza umana verrà migliorata di
miliardi di volte grazie ad estensioni al cervello altamente tecnologiche." (1) Egli definisce questo fenomeno come "singolarità", un punto
nel quale l’uomo e il computer si fonderanno. Questa sorta di "uno in due" creerà sfide molto serie nell'allocazione della responsabilità
morale tra i due.
Sta emergendo una disciplina interamente nuova, chiamata macchine morali o etica delle macchine, per andare in profondità nei dilemmi
etici del nuovo mondo delle tecnologie avanzate e delle loro applicazioni. In un’ampia accezione, l'etica delle macchine è una disciplina
che cerca di affrontare l'etica dell'intelligenza artificiale (AI, Artificial Intelligence). Mentre l'AI è in lenta transizione dalle fiction e dai film
(es. Transformers) al mondo reale nel corso degli ultimi decenni, i tentativi di articolare le sue dimensioni morali sono relativamente
recenti. "Macchine Morali: insegnare ai robot ciò che è giusto e ciò che è sbagliato"(2) e "L'Etica delle Macchine"(3) sono due
importanti pubblicazioni che propongono una discussione sulla morale nel contesto delle macchine intelligenti. Questo salto dall'etica dei
computer all'etica delle macchine è necessario a causa dello status evoluto dei computer, passati da semplici fattori abilitanti a
collaboratori intelligenti.
James Moor considera gli elaboratori dei semplici esecutori di attività come agenti normativi, ma non necessariamente agenti etici,
perché essi eseguono attività come specificato e la loro performance può essere valutata oggettivamente. Qualsiasi evoluzione delle
macchine al di là di questo stadio richiede la considerazione della dimensione etica che l'intelligenza “embedded” dovrebbe riflettere nel
suo disegno. Per questo, Moor suggerisce tre metodi per classificare i temi dei valori morali nelle macchine: agenti ad impatto etico,
agenti etici impliciti ed agenti etici espliciti(4). Ciascuna categoria assegna progressivamente un ruolo morale più grande alle macchine.
Qui, discuteremo dell'etica delle macchine utilizzando la classificazione di Moor.
Agenti ad impatto etico
Oltre ad eseguire istruzioni, la macchine qualche volta influenzano sottilmente la dimensione morale della situazione, operando così
come un agente che genera un impatto etico. Per esempio, ora che l’uso dei cellulari è pervasivo, siamo preoccupati se rispondere ad
una chiamata mentre guidiamo. Ci sono sufficienti evidenze che l'uso dei cellulari mentre si guida implica una più alta probabilità di far
del male a sè stessi e agli altri per strada. Nei luoghi dove la legge non lo prescrive, c'è bisogno di determinare secondo coscienza se
rispondere o lasciare che il sistema gestisca la risposta mentre siamo alla guida di un veicolo (o di qualsiasi altro aggeggio semovente
che si sta attivamente controllando, eccetto le macchine “senza conducente”). Certo, quest'ultima affermazione attenua il rischio mentre
la precedente potrebbe attualizzarlo. Il dilemma è causato interamente dall'innovazione tecnologica sotto forma di telecomunicazioni
cellulari e wireless. I miglioramenti nelle comunicazioni - “sempre” e “ovunque” - causano un effetto collaterale come nuovo dilemma
etico. Pertanto, il mobile computing può essere visto come un agente con un impatto etico; fa ciò che è programmato per fare, ma ha
anche un impatto sulle dimensioni morali del comportamento umano.
Jim Lewis descrive uno scenario interessante di impatto etico. (5) Ha a che fare con i robot che guidano i cammelli, alti circa due piedi,
che con la mano destra impugnano la frusta e con la sinistra stringono le redini. L'hardware è inscatolato in alluminio e plastica (35
libbre) e il software consta di un processore Linux a 400 MHz che comunica a 2.4 GHz; dotato di GPS, monitora il battito del cuore del
cammello. Tali fantini sono stati utilizzati nel deserto nella corsa per cammelli appena fuori Doha, Qatar. Prima che i robot sostituissero i
fantini umani, gli abitanti di Doha utilizzavano ragazzi Sudanesi semi schiavizzati e tenuti senza cibo per mantenerli snelli. Per ogni
fantino-robot che frusta la sua improbabile cavalcatura c'è un ragazzo sudanese liberato dalla schiavitù. I robot costruiti in Svizzera
hanno avuto un impatto etico al di fuori della semplice corsa di cammelli.
Nel caso della telefonia mobile è interessante notare come l'impatto etico risieda al di fuori del design dei cellulari; in tal modo, si
potrebbe notare che al telefono in se stesso non è stata delegata nessuna responsabilità morale. Non di meno, la tecnologia cellulare ha
il potenziale di trasformare i cellulari in agenti ad impatto etico - essi possono essere programmati per prendere decisioni basate sullo
stato del possessore, sia che stia guidando o meno mentre riceve una chiamata. Questo potrebbe non diventare popolare tra gli
utilizzatori e i venditori. Così, è chiaro che le tecnologie in evoluzione offrono nuovi metodi per affrontare dilemmi etici mano a mano che
migliorano i modi di soddisfare i bisogni e le volontà umane. Per esempio, la presenza globale di Internet, neutrale in teoria fin dalla sua
progettazione, ha creato un nuovo dibattito sulla privacy e sulla parità d’accesso. Nel 2012, Facebook ha condotto un esperimento
psicologico su 689.003 utenti al fine di misurare la loro condizione emotiva. Lo scopo era quello di determinare se Facebook avrebbe
potuto alterare la condizione emotiva dei suoi utenti e spingerli a pubblicare contenuti più positivi o più negativi . (6) Non abbiamo mai
investito così tanto tempo in questi temi nell'era pre-Internet.
Ma ritorniamo per un momento ai computer che eseguono azioni normative; non c’è niente di inerente nel loro design che dovrebbe
toccare la nostra coscienza. Guardando al futuro, essendo ormai circondati da macchine intelligenti, le risposte ai nostri dilemmi morali
prendono nuove forme e spesso diventano anche più complessi. Nel passato, non avremmo mai pensato di affrontare questioni etiche
solo per rispondere al telefono, ma ora, con la tecnologia wireless, dobbiamo farlo.
Agenti etici impliciti
Gli agenti ad impatto etico creano contesti etici che l'uomo affronta e risolve per la prima volta o in maniera diversa. Poiché i programmi
di AI sono sofisticati a livello di intelligenza, perché non diamo loro da risolvere anche i dilemmi etici che essi pongono? Perciò, noi
regoliamo la situazione da una ad impatto etico ad una nella quale la decisione etica viene presa dal computer, sebbene da un insieme
di scelte che i programmatori hanno incorporato nel software. Invece di scegliere di risolvere le domande etiche che emergono dagli
agenti ad impatto etico, un'opzione è quella di precostituire nei prodotti e servizi di AI delle risposte ottimali alle questioni morali. Se le
scelte morali sono programmate con una giusta riflessione su ciò che sia appropriato fare in determinate circostanze, ci si dovrebbe
aspettare che il comportamento previsto si presenti in modo consistente. A differenza dell'uomo, le macchine non sono in grado di
interrompere la loro risolutezza a comportarsi eticamente.
Agenti etici espliciti
Lo stadio successivo prende atto che l'agente non solo è in grado di eseguire decisioni morali, ma anche di prendere decisioni etiche
basate su un repertorio di regole decisionali. In tal modo, non c'è bisogno di assegnare la cosa giusta da fare, ma piuttosto come
determinare cosa è la cosa giusta da fare in un contesto specifico. Prendiamo, per esempio, i droni (veicoli per il combattimento aereo
senza pilota) utilizzati per combattere. Si vorrebbe che il drone mitigasse il rischio distruggendo la minaccia, e allo stesso tempo
preavvisasse i civili innocenti presenti nelle vicinanze, le cui vite dovrebbero essere risparmiate. (7) Se un drone è in grado di effettuare
un tale giudizio basato su uno scenario specifico che si sviluppa sul luogo, si dovrebbe considerare un agente etico esplicito. Gli agenti
etici espliciti sono uguali, o quasi, all'uomo. Alcuni addirittura ritengono che essi potrebbero essere molto più affidabili e consistenti nel
loro comportamento morale.
Anche se queste sembrano essere idee abbastanza premature, la verità è questa: le applicazioni AI sono qui per rimanere. Le più recenti
applicazioni di AI sono più sofisticate ed alcune addirittura dotate di auto apprendimento. La complessità del nuovo mondo guidato dalla
tecnologia è sconcertante, anche se i precetti etici del passato si possono ancora applicare. La sfida dei tempi moderni risiede nella
comprensione affidabile dei nuovi contesti alla luce dell'eternità dell'etica. Quando non siamo in grado di ottenere un contesto
comparabile dal passato, l'applicazione dei precetti etici diventa confusa, come quando i legislatori provano ad abbozzare una legge per
qualcosa come la neutralità della rete, che è (materia) nuova e difficilmente comparabile ad una legge esistente. L'accesso
universalmente aperto ad Internet indipendentemente dai media, dai dispositivi, dalle piattaforme o dalla natura dell’utilizzo è difficile da
estrapolare dalla storia. Indipendentemente da come il dibattito sulla neutralità della rete venga risolto, esso creerà più temi etici da
affrontare mano a mano che andremo avanti. E siccome il divario fra uomo e macchine si sta colmando nel corso del tempo, noi
dovremo seriamente prendere in considerazione nuovi modi di implementare l’etica.
Note
Wolfe, Alexandra: “Ray Kurzweil Looks Into the Future”, The Weekend Confidential, The Wall Street Journal, 30 Maggio 2014
Wallach, Wendell; Colin Allen; “Moral Machine: Teaching Robots Right Fron Wrong”, Oxford University Press, UK, 2008
(3) Anderson, Michael; Susan Leigh Anderson (Eds.): “Machine Ethics”, Cambridge University Press, UK, 2011
(4) Ibid. p- 13-20
(5) Lewis, Jim: “Robots of Arabia”, Wired Magazine, Novembre 2005
(6) Albergotti, Reed: “Furor Erupts Over Facebook Study”, The Wall Street Journal, 30 Giugno 2014
(7) Per una discussione dettagliata sull’etica dei droni, far riferimento a “Drone-Ethics Briefing: What a Leading Robot Expert Told the
CIA”, Patrick Lin, in “Morality and Moral Controversies”, nona edizione, (EDS: S. Scalet and J. Arthur), USA, Pearson Education, 2014, p.
170-176
(1)
(2)
Quality Statement:
This Work is translated into Italian from the English language version of The Article List (please see Exhibit E) publishes in the ISACA Journal by Massimo Zilio with the permission of
the ISACA. Massimo Zilio assumes sole responsibility for the accuracy and faithfulness of the translation.
Copyright
© 2014 of Information Systems Audit and Control Association (“ISACA”). All rights reserved. No part of this article may be used, copied, reproduced, modified, distributed, displayed,
stored in a retrieval system, or transmitted in any form by any means (electronic, mechanical, photocopying, recording or otherwise), without the prior written authorization of ISACA.
Disclaimer:
The ISACA Journal is published by ISACA. Membership in the association, a voluntary organization serving IT governance professionals, entitles one to receive an annual subscription
to the ISACA Journal.
Opinions expressed in the ISACA Journal represent the views of the authors and advertisers. They may differ from policies and official statements of ISACA and/or the IT Governance
Institute and their committees, and from opinions endorsed by authors’ employers, or the editors of this Journal. ISACA Journal does not attest to the originality of authors’ content.
Instructors are permitted to photocopy isolated articles for noncommercial classroom use without fee. For other copying, reprint or republication, permission must be obtained in writing
from the association. Where necessary, permission is granted by the copyright owners for those registered with the Copyright Clearance Center (CCC), 27 Congress St., Salem, MA
01970, to photocopy articles owned by ISACA, for a flat fee of US $2.50 per article plus 25¢ per page. Send payment to the CCC stating the ISSN (1526-7407), date, volume, and first
and last page number of each article. Copying for other than personal use or internal reference, or of articles or columns not owned by the association without express permission of
the association or the copyright owner is expressly prohibited.
Dichiarazione di Qualità.
Quest'opera è stata tradotta in Italiano dalla versione in lingua Inglese, pubblicata in ISACA Journal, da Massimo Zilio con il permesso di ISACA. Massimo Zilio si assume la piena
responsabilità della precisione e della fedeltà della traduzione.
Gruppo di Approfondimento di ISACA VENICE Chapter per la traduzione in lingua italiana.
Coordinamento: Orillo Narduzzo
Traduzione: Massimo Zilio
Controllo Qualità: Paolo di Battista, Orillo Narduzzo, Andrea Pederiva, Ferdinando Soldan, Roberto Taiariol.
Copyright
© 2014 of Information Systems Audit and Control Association (“ISACA”). Tutti i diritti riservati.
Nessuna parte di questa pubblicazione può essere utilizzata, copiata, riprodotta, modificata, distribuita, mostrata, registrata in un sistema o trasmessa in nessuna forma e nessun
mezzo (elettronico, meccanico, fotocopia, registrazione o altro) senza la preventiva autorizzazione scritta di ISACA.
Limitazione di responsabilità.
ISACA Journal è pubblicato da ISACA. In quanto membri dell'Associazione, una organizzazione di volontari al servizio dei professionisti nella governance IT, gli appartenenti alla
stessa ricevono un abbonamento annuale ad ISACA Journal. Le opinioni espresse in ISACA Journal rappresentano il punto di vista degli autori e degli inserzionisti. Queste possono
essere diverse dalle dichiarazioni ufficiali e dalle Policies di ISACA e/o dell'Istituto di Governance IT (ITGI) e dei loro comitati, e dalle opinioni approvate dai datori di lavoro degli autori,
o dagli editori di questa Rivista. ISACA Journal non attesta l'originalità del contenuto degli autori.
A chi fa formazione viene permesso di fotocopiare gratuitamente singoli articoli per un utilizzo d'aula non commerciale. Per altre copie, riproduzioni o ripubblicazioni, il permesso deve
essere ottenuto per iscritto dall'associazione. Laddove necessario, il permesso è concesso dai titolari del copyright per chi è registrato sotto il Copyright Clearance Center (CCC), 27
Congress St., Salem, MA 01970, per fotocopiare articoli di proprietà di ISACA ad una tariffa flat di US $2,50 ad articolo, oltre a 25¢ per pagina. Inviare il pagamento al CCC
dichiarando il codice ISSN (1526-7407), la data, il numero, ed il primo ed ultimo numero di pagina di ciascun articolo.
E' esplicitamente proibita la riproduzione per altri usi che non siano personali o per referenze interne, o di articoli o di rubriche non di proprietà dell'associazione senza l'esplicito
permesso dell'associazione o del titolare del copyright.

Documenti analoghi

2016 Guida informativa per il candidato agli esami ISACA

2016 Guida informativa per il candidato agli esami ISACA aventi esigenze particolari di natura religiosa debitamente documentate. Trattamenti o condizioni d’esame particolari (purché ragionevoli), per quanto concerne gli orari, il formato dell’esame, la ...

Dettagli