approfondimento focus venerdi` 15 novembre

Transcript

approfondimento focus venerdi` 15 novembre
APPROFONDIMENTO FOCUS
VENERDI' 15 NOVEMBRE
SOUND & MUSIC COMPUTING
LE VISIONI DEL SUONO DEL CENTRO DI SONOLOGIA COMPUTAZIONALE
Dip. di Ingegneria dell’Informazione, Università di Padova
Introduzione e contesto della ricerca
Alla fine degli anni ’90 il campo di ricerca della Computer Music si trasforma in Sound and Music
Computing (SMC), che comprende anche ambiti non musicali legati alla ricerca sul suono. I
risultati sono molteplici. Si sviluppano sistemi interattivi multimodali per la didattica forniti di
interfacce speciali concepite appositamente per migliorare l’apprendimento di alunni in situazione
di multi-disabilità. Sistemi per il tracciamento del movimento, commercialmente impiegati nel
cinema in 3D e nel campo dei video giochi immersivi, vengono impiegati per la realizzazione di
iperstrumenti (musicali) per aumentare le potenzialità sonore degli strumenti tradizionali.
Installazioni presenti
Nel laboratorio Visioni del suono saranno presenti due diverse postazioni interattive che nascono
per informare/formare il pubblico sulla realtà internazionale della musica informatica prodotta al
Centro di Sonologia Computazionale (CSC), che negli ultimi 40 anni ha dato vita a un percorso per
molti versi unico, riuscendo a fare di Padova uno dei maggiori centri mondiali di ricerca.
Il laboratorio presenta la ricerca nei campi della didattica aumentata tecnologicamente e dei nuovi
strumenti interattivi per la produzione di opere artistiche multimediali.
1. aiTEACH: sistema multimodale per l’insegnamento aumentato tecnologicamente a persone
in situazione di multi-disabilità (con deficit sensoriali, neuropsicologici e relazionali),
realizzato dal CSC del Dipartimento di Ingegneria dell'Informazione. Questo sistema
impiega tecnologie innovative, e viene attualmente utilizzato da psicologi e da insegnanti
della Suola dell’Infanzia e della Scuola Primaria. Prolungate sperimentazioni in scenari reali
hanno dimostrato che il sistema è in grado di migliorare il coinvolgimento fisico degli alunni,
di prolungarne il tempo di attenzione e quindi di aumentarne l’apprendimento, anche nel
caso di persone in situazione di multi-disabilità.
A sinistra: architettura logica di aiTEACH, gerarchicamente strutturata in tre livelli. A destra:
l’applicazione di aiTEACH per l’insegnamento dell’italiano come seconda lingua (figli di immigrati di
prima generazione). L’utilizzo della multimodalità e dell’esperienza motoria nell’insegnamento
incrementa la possibilità di costruire nel bambino una conoscenza efficace e a lungo termine.
2. CaRo 2.0: una macchina che suona musica espressiva. A partire dagli anni Novanta del
secolo scorso, diverse discipline scientifiche (musicologia sistematica, musicologia storica,
psicologia, neuroscienze, ingegneria dell’informazione) hanno studiato le possibili
connessioni tra due universi che possono sembrare antitetici: le emozioni e le macchine,
approfondendo le modalità che permettono ai computer di comunicare contenuto
espressivo usando un canale di tipo non-verbale. Ovviamente il fine non è di sostituire gli
esecutori umani: questi studi perseguono piuttosto l’obiettivo di migliorare l’interazione con
le macchine utilizzando i canali tipici della comunicazione uomo-uomo (in particolare quello
musicale), che sono meno frustanti e più semplici da assimilare, in particolare per utenti
diversamente abili o comunque non addestrati dal punto di vista informatico (musicisti,
insegnanti, bambini). Questo ambito di ricerca è noto come Affective Computing negli Stati
Uniti, Kansei Information Processing in Giappone ed Expressive Information Processing in
Europa.
Il software CaRo 2.0 è stato sviluppato sulla base di analisi condotte sull'espressività
musicale. Sono stati fatti suonare a diversi pianisti alcuni brani musicali appartenenti alla
tradizione classica europea su un pianoforte dotato di sensori e attuatori collegati a tutti i
tasti, per registrare quanto a lungo tenessero premuto ogni singola nota e quanto forte
premessero ogni tasto. I dati raccolti nota dopo nota sono interessanti, perché i musicisti di
rado suonano la musica proprio come compare sullo spartito, ma la interpretano
aggiungendo la loro personalità. I risultati dello studio indicano che quanto più numerosi
sono gli elementi di sorpresa in un brano, tante più intenzioni espressive diverse
percepiscono gli ascoltatori, ma solo se i momenti particolari hanno una loro logica. CaRo
2.0 utilizza un modello computazionale delle variazioni espressive inserite dagli interpreti
umani, basato su uno spazio di controllo bidimensionale. In questo modo riesce a simulare
l'espressione musicale di un performer, né più né meno di come un viso di un cartone
animato (magari disegnato con l'aiuto di un computer) è in grado di far trasparire emozioni
quali gioia o tristezza.
Interfaccia del CaRo 2.0 (a sinistra): sullo sfondo il piano Yamaha Disklavier utilizzato come
dispositivo d’uscita. Schema logico del sistema (a destra).
La salute vien clicc@ndo?
A cura di Cittadinanzattiva onlus
Il laboratorio “La salute vien cliccando?” permetterà ai ragazzi, attraverso l’uso di metodologie
interattive, giochi di ruolo, video, quiz, di riflettere su quanto il web ha cambiato la nostra
quotidianità, su come siano cambiate le nostre abitudini (dal modo di socializzare a quello di fare
acquisti), sui rischi che si possono correre acquistando prodotti per il corpo e la salute. Sempre più
persone preferiscono lo shopping on line a quello “tradizionale” perché più veloce, comodo,
semplice, con più opportunità di scelta. Basta disporre di uno smartphone o di un tablet. Dopo una
breve fase introduttiva sugli argomenti citati, nell’attività laboratoriale si coinvolgerà i ragazzi in un
gioco di ruolo: divisi in gruppi rappresenteranno diverse agenzie pubblicitarie che avranno il
compito di realizzare una campagna pubblicitaria su questi temi.
Robot attorno a noi
Dove sono? Quando arrivano? Che fanno? Come sono fatti?
a cura di Politecnico di Milano
Stiamo tutti aspettando che i robot giungano tra di noi, nella vita di tutti i giorni, per aiutarci, e
interagire come da anni vediamo nei film e leggiamo nei racconti di fantascienza, ma...
… robot autonomi sono già entrati nelle case di milioni di famiglie e forse non ce ne siamo accorti.
Centinaia di milioni di euro sono spesi ogni anno per realizzarne altri che arriveranno presto sul
mercato globale di massa o che stanno occupando nicchie evolutive particolari. Dove sono? Che
fanno o che potranno fare? Come sono fatti? Riescono davvero ad essere autonomi e intelligenti?
L’intervento svelerà i robot ormai attorno a noi e quelli che sono in fase di sviluppo nei laboratori di
ricerca in tutto il mondo. Inoltre, vedremo come può esser costruito un robot autonomo, capace di
svolgere compiti anche complessi senza l'aiuto di persone, anche in ambienti sconosciuti o ostili, e
scopriremo che ne possiamo costruire tutti!