approfondimento focus venerdi` 15 novembre
Transcript
approfondimento focus venerdi` 15 novembre
APPROFONDIMENTO FOCUS VENERDI' 15 NOVEMBRE SOUND & MUSIC COMPUTING LE VISIONI DEL SUONO DEL CENTRO DI SONOLOGIA COMPUTAZIONALE Dip. di Ingegneria dell’Informazione, Università di Padova Introduzione e contesto della ricerca Alla fine degli anni ’90 il campo di ricerca della Computer Music si trasforma in Sound and Music Computing (SMC), che comprende anche ambiti non musicali legati alla ricerca sul suono. I risultati sono molteplici. Si sviluppano sistemi interattivi multimodali per la didattica forniti di interfacce speciali concepite appositamente per migliorare l’apprendimento di alunni in situazione di multi-disabilità. Sistemi per il tracciamento del movimento, commercialmente impiegati nel cinema in 3D e nel campo dei video giochi immersivi, vengono impiegati per la realizzazione di iperstrumenti (musicali) per aumentare le potenzialità sonore degli strumenti tradizionali. Installazioni presenti Nel laboratorio Visioni del suono saranno presenti due diverse postazioni interattive che nascono per informare/formare il pubblico sulla realtà internazionale della musica informatica prodotta al Centro di Sonologia Computazionale (CSC), che negli ultimi 40 anni ha dato vita a un percorso per molti versi unico, riuscendo a fare di Padova uno dei maggiori centri mondiali di ricerca. Il laboratorio presenta la ricerca nei campi della didattica aumentata tecnologicamente e dei nuovi strumenti interattivi per la produzione di opere artistiche multimediali. 1. aiTEACH: sistema multimodale per l’insegnamento aumentato tecnologicamente a persone in situazione di multi-disabilità (con deficit sensoriali, neuropsicologici e relazionali), realizzato dal CSC del Dipartimento di Ingegneria dell'Informazione. Questo sistema impiega tecnologie innovative, e viene attualmente utilizzato da psicologi e da insegnanti della Suola dell’Infanzia e della Scuola Primaria. Prolungate sperimentazioni in scenari reali hanno dimostrato che il sistema è in grado di migliorare il coinvolgimento fisico degli alunni, di prolungarne il tempo di attenzione e quindi di aumentarne l’apprendimento, anche nel caso di persone in situazione di multi-disabilità. A sinistra: architettura logica di aiTEACH, gerarchicamente strutturata in tre livelli. A destra: l’applicazione di aiTEACH per l’insegnamento dell’italiano come seconda lingua (figli di immigrati di prima generazione). L’utilizzo della multimodalità e dell’esperienza motoria nell’insegnamento incrementa la possibilità di costruire nel bambino una conoscenza efficace e a lungo termine. 2. CaRo 2.0: una macchina che suona musica espressiva. A partire dagli anni Novanta del secolo scorso, diverse discipline scientifiche (musicologia sistematica, musicologia storica, psicologia, neuroscienze, ingegneria dell’informazione) hanno studiato le possibili connessioni tra due universi che possono sembrare antitetici: le emozioni e le macchine, approfondendo le modalità che permettono ai computer di comunicare contenuto espressivo usando un canale di tipo non-verbale. Ovviamente il fine non è di sostituire gli esecutori umani: questi studi perseguono piuttosto l’obiettivo di migliorare l’interazione con le macchine utilizzando i canali tipici della comunicazione uomo-uomo (in particolare quello musicale), che sono meno frustanti e più semplici da assimilare, in particolare per utenti diversamente abili o comunque non addestrati dal punto di vista informatico (musicisti, insegnanti, bambini). Questo ambito di ricerca è noto come Affective Computing negli Stati Uniti, Kansei Information Processing in Giappone ed Expressive Information Processing in Europa. Il software CaRo 2.0 è stato sviluppato sulla base di analisi condotte sull'espressività musicale. Sono stati fatti suonare a diversi pianisti alcuni brani musicali appartenenti alla tradizione classica europea su un pianoforte dotato di sensori e attuatori collegati a tutti i tasti, per registrare quanto a lungo tenessero premuto ogni singola nota e quanto forte premessero ogni tasto. I dati raccolti nota dopo nota sono interessanti, perché i musicisti di rado suonano la musica proprio come compare sullo spartito, ma la interpretano aggiungendo la loro personalità. I risultati dello studio indicano che quanto più numerosi sono gli elementi di sorpresa in un brano, tante più intenzioni espressive diverse percepiscono gli ascoltatori, ma solo se i momenti particolari hanno una loro logica. CaRo 2.0 utilizza un modello computazionale delle variazioni espressive inserite dagli interpreti umani, basato su uno spazio di controllo bidimensionale. In questo modo riesce a simulare l'espressione musicale di un performer, né più né meno di come un viso di un cartone animato (magari disegnato con l'aiuto di un computer) è in grado di far trasparire emozioni quali gioia o tristezza. Interfaccia del CaRo 2.0 (a sinistra): sullo sfondo il piano Yamaha Disklavier utilizzato come dispositivo d’uscita. Schema logico del sistema (a destra). La salute vien clicc@ndo? A cura di Cittadinanzattiva onlus Il laboratorio “La salute vien cliccando?” permetterà ai ragazzi, attraverso l’uso di metodologie interattive, giochi di ruolo, video, quiz, di riflettere su quanto il web ha cambiato la nostra quotidianità, su come siano cambiate le nostre abitudini (dal modo di socializzare a quello di fare acquisti), sui rischi che si possono correre acquistando prodotti per il corpo e la salute. Sempre più persone preferiscono lo shopping on line a quello “tradizionale” perché più veloce, comodo, semplice, con più opportunità di scelta. Basta disporre di uno smartphone o di un tablet. Dopo una breve fase introduttiva sugli argomenti citati, nell’attività laboratoriale si coinvolgerà i ragazzi in un gioco di ruolo: divisi in gruppi rappresenteranno diverse agenzie pubblicitarie che avranno il compito di realizzare una campagna pubblicitaria su questi temi. Robot attorno a noi Dove sono? Quando arrivano? Che fanno? Come sono fatti? a cura di Politecnico di Milano Stiamo tutti aspettando che i robot giungano tra di noi, nella vita di tutti i giorni, per aiutarci, e interagire come da anni vediamo nei film e leggiamo nei racconti di fantascienza, ma... … robot autonomi sono già entrati nelle case di milioni di famiglie e forse non ce ne siamo accorti. Centinaia di milioni di euro sono spesi ogni anno per realizzarne altri che arriveranno presto sul mercato globale di massa o che stanno occupando nicchie evolutive particolari. Dove sono? Che fanno o che potranno fare? Come sono fatti? Riescono davvero ad essere autonomi e intelligenti? L’intervento svelerà i robot ormai attorno a noi e quelli che sono in fase di sviluppo nei laboratori di ricerca in tutto il mondo. Inoltre, vedremo come può esser costruito un robot autonomo, capace di svolgere compiti anche complessi senza l'aiuto di persone, anche in ambienti sconosciuti o ostili, e scopriremo che ne possiamo costruire tutti!