musica digitale - Facoltà di Medicina e Psicologia
Transcript
musica digitale - Facoltà di Medicina e Psicologia
Musica digitale Una via che il PC ha di trattare la musica è quella di sostituirsi ai normali registratori a nastro, cioè immagazzinare sulla propria memoria di massa (hard disk, da cui il nome del procedimento: "hard disk recording") i dati relativi alla sorgente audio collegata e poterne riprodurre in ogni momento il contenuto, previo collegamento a degli altoparlanti. Questa registrazione avviene grazie a dei particolari circuiti chiamati Convertitori AnalogicoDigitale (ADC) per la registrazione del segnale e Convertitori Digitale-Analogico (DAC) per la sua riproduzione. Il processo usato per tale codifica (Campionamento o digitalizzazione) non è altro che la traduzione di informazioni analogiche (cambiamenti di frequenza espressi in differenze elettriche) in parole "word" binarie (cioé sequenze di "0" e "1") che un PC può scrivere sul proprio HD. L'attività svolta in questo sistema è scandita da una specie di orologio interno al computer (clock), che determina in quali istanti il sistema cambia stato, cioè in cui accade un evento che non può essere un momento qualsiasi come nei comuni sistemi analogici, ma solo in quelli dettati dal "clock". Quindi il segnale trasformato in numerico non può assumere con continuità tutti i valori possibili, come avviene nei sistemi analogici, ma solo quelli che il sistema è in grado di codificare. In maniera sintetica il percorso del segnale all'interno di un sistema digitale avviene nel seguente modo: Il segnale analogico proveniente da un microfono o da una qualsiasi altra sorgente audio raggiunge il filtro passabasso (LPF1) che serve ad eliminare dal segnale tutte le frequenze troppo acute per il sistema di cui si dispone. Il teorema di Shannon garantisce che nell'operazione di campionamento non si abbia perdita di informazioni se la frequenza di campionamento è almeno il doppio della frequenza più alta presente nel segnale da campionare. Si può anche dire che la frequenza di campionamento Fc deve essere un'ottava più acuta rispetto alla frequenza più elevata che si deve campionare, frequenza che non è riferita alla fondamentale (nota che si suona), ma alla frequenza più acuta presente nello spettro armonico. In pratica il clock di sistema fa in modo che ogni 1/Fc (frequenza di clock) secondi questo circuito scatti tante fotografie, prese ad intervalli rigorosamente regolari, detti periodi di campionamento (Sample), naturalmente più spesso si registrano i campioni, o meglio maggiore è la frequenza di campionamento e più sarà fedele la successiva riproduzione del segnale. La dinamica della conversione-riproduzione e cioè il rapporto tra il segnale massimo e quello minimo (rapporto segnale/rumore) è strettamente legata alla quantità N di bit che ogni parola binaria contiene. Maggiore è il valore di N maggiore sarà la resa dinamica del campionamento. Ovviamente con l'ausilio di software dedicati alla gestione integrata di audio e MIDI è possibile ottenere registrazioni digitali su HD in maniera trasparente e con lo stesso tipo interfaccia di un normale registratore analogico a nastro. Lo sviluppo del software ha permesso anche di controllare studi di produzione audio/midi integrati e completamente controllati da PC. A differenza dei MIDIfiles, gli AUDIOfiles aumentano la loro dimensione con l'aumentare della frequenza di clock e della risoluzione in bit. La frequenza di campionamento di un normale CD audio è di 44.100 Khz ad una risoluzione di 16 bit (cioè con parole "words" binarie di 16 numeri) il che produce, per un minuto di campionamento stereo, un file di 10 Mbytes circa (circa 7 floppy-disks). Questo complica non poco il loro utilizzo su Internet, dove la limitata velocità di trasferimento dati sconsiglia l'utilizzo di questi files, almeno in qualità CD. Una soluzione a questo problema, senza rinunciare alla qualità di riproduzione, sta nell'utilizzo di algoritmi e protocolli di compressione dedicati alla rete, quali il REAL AUDIO o l'MP3. Real Audio è un protocollo di compressione e trasmissione per Internet che può essere eseguito da specifiche estensioni (plug-in) dei più diffusi Browser. Permette la trasmissione di materiale audio e il suo ascolto quasi simultaneo durante il caricamento del documento (Streaming). Permette una risoluzione di 8 bit e una frequenza di campionamento limitata, che ne dedica l'utilizzo principalmente a materiale parlato o di scarso valore qualitativo ed è il formato che ha permesso una grande diffusione su Internet di emittenti radiofoniche. (RAI, BBC ecc.) Il vero salto di qualità nella trasmissione di dati Audio in rete è stato fatto con la creazione del formato cosiddetto MPEG3 o MP3, generando una vera e propria rivoluzione anche nel mondo dell'editoria e distribuzione musicale. L' MPEG (Motion Photographic Expert Group) è l'organismo internazionale che si occupa dello sviluppo, regolamentazione ed applicazioni di questo algoritmo che prende il nome stesso di MPEG. L'MPEG 1 e 2 sono nati per esigenze di compressione Video e Audio e sono usati per i CD audio e i DAT (Digital Audio Tape) (MPEG 1), per la trasmissione video digitale via satellite DSS (Direct Satellite System) ad esempio delle televisioni Pay-per-view e per il DVD (Digital Versatile Disk) che probabilmente sarà il CD del futuro con la possibilità di immagazzinare fino a 12 GByte di dati. La terza variante di questo algoritmo MPEG 3 chiamato Huffmann, dal nome del suo creatore, è un algoritmo di tipo statistico che riduce la lunghezza del codice del file originario operando in tre passi: 1 raccolta dei simboli che compongono il file, in ordine di ridondanza, ripetizione ed occorrenza; 2. combinazione di questi simboli in un nuovo simbolo detto "nodo" 3. crea un percorso per ogni nodo e poi una tabella di interpretazione e di decodifica. Il codice Huffmann è sofisticato, ma al tempo stesso semplice da capire nel suo funzionamento; agisce in modo trasparente all'utente, senza dunque che ci si debba preoccupare di nulla durante l'operazione di compressione. La lettura dei file compressi in MPEG 3 è ugualmente semplice grazie a piccole applicazioni dedicate alla lettura come WinAmp per Windows o MacAmp per Mac Os o iTunes del tutto simili ai normali programmi per la lettura dei CD audio. Esistono naturalmente anche applicazioni in grado di comprimere il materiale audio digitalizzato come AudioCatalist, Mpecker Encoder, SoundApp ecc. Il MIDI, acronimo di Musical Instruments Digital Interface, che significa interfaccia digitale per strumenti musicali, è l'unione di un linguaggio di comunicazione e una normativa di specifiche hardware, che permette a strumenti musicali elettronici, controller, computer e altre apparecchiature che ne rispettino la codifica, di comunicare tra loro consentendo l'organizzazione e l'automazione di un sistema musicale MIDI anche molto complesso. Per sistema musicale si intende una serie di apparecchiature musicali elettroniche MIDI (sintetizzatori, expander, sequencer, processori digitali di segnali audio, mixer, batterie elettroniche, ecc.) collegate fra loro e che utilizzano un comune linguaggio per trasmettere o ricevere informazioni. Il linguaggio MIDI viene quindi utilizzato per trasformare in numeri i gesti compiuti da un musicista durante l'esecuzione: abbassare tasti, pizzicare corde, percuotere membrane, manovrare potenziometri, pulsanti, rotelle, ecc., in equivalenti messaggi digitali che vengono trasmessi a tutti gli strumenti elettronici presenti sulla rete. Questi messaggi vengono utilizzati per controllare generatori di suono e altri dispositivi che servono alla configurazione automatica del sistema musicale. Inoltre il MIDI permette di registrare questi messaggi, mediante un apparecchio chiamato "sequencer", per essere successivamente editati, modificati, e rispediti alle apparecchiature presenti sulla rete. I PC hanno dato la possibilità emulare questi "sequencer" sotto forma di software, aumentandone notevolmente le capacità operative e diventando così il centro ideale di ogni rete MIDI . In termini pratici il MIDI consente al musicista di espandere le sue potenzialità espressive ben oltre le sue personali capacità esecutive, mettendolo in grado di controllare in ogni momento un'intera composizione, con la possibilità di approntare modifiche anche significative sia nelle esecuzioni in tempo differito che in quelle in tempo reale. Nel tempo il MIDI si è imposto come nuova tecnologia operativa in tutti i settori della produzione musicale professionale e non, conquistandosi di diritto il ruolo di primaria importanza nell'esecuzione dal vivo, nella produzione discografica, nella post-produzione audio-video e ovviamente nella multimedialità. Molti settori della produzione musicale si avvalgono del MIDI per la facilità di utilizzo, la flessibilità e semplicità di programmazione e la vastissima gamma di apparecchiature a diversi livelli di prezzo e prestazioni presenti sul mercato: dalla produzione di brani musicali leggeri alla musica sperimentale, dal sincronismo tra luci ed effetti nelle esecuzioni dal vivo alla produzione di colonne sonore e materiale multimediale ecc. La modularità dei sistemi MIDI e la garantita compatibilità delle apparecchiature che li compongono, consentono al musicista di ampliare progressivamente il proprio sistema MIDI (anche un modulo alla volta) fino al raggiungimento di una configurazione soddisfacente per le proprie esigenze. Proprio questa varietà e flessibilità di utilizzo garantisce la possibilità da parte di un'utenza amatoriale o domestica di disporre delle medesime apparecchiature del professionista o dello studio di registrazione; non solo, con l' apparizione delle cosiddette "workstation", cioé delle apparecchiature che alloggiano in un unico contenitore (generalmente una tastiera) le funzioni di diversi moduli MIDI, è possibile risparmiare senza necessariamente disporre di apparecchiature professionali. In commercio esistono diverse marche e modelli di "workstation" le quali, oltre ad essere dei sintetizzatori di qualità con varie forme di sintesi sonora, integrano sequencer di diverse capacità e funzionalità, floppy disk o Hard Disk drive per memorizzare quanto eseguito, set di batteria elettronica e processori di effetti digitali. A queste workstation è comunque sempre possibile collegare altre apparecchiature MIDI per espandere a posteriori il proprio sistema. Lo Standard MIDIFile o semplicemente i MIDIFile furono proposti per la prima volta nell '86 dalla Opcode System una casa produttrice di software ed implementati per la prima volta su di un programma prodotto dalla stessa casa: Opcode Sequencer 2.5 . L'idea, contro ogni più rosea previsione, fu accettata con entusiasmo dalla maggior parte dei produttori di software musicale, che inclusero i MIDIFile come formato alternativo di memorizzazione dei dati MIDI, senza che questo fosse ancora stato ufficializzato. Dopo appena due anni, nell'88 visto il successo riscosso da questo nuovo standard e la grande richiesta esistente, MMA (Manifacturer MIDI Association), definì ufficialmente il protocollo riguardante i MIDIFiles inserendogli nella documentazione ufficiale sul MIDI. Oggi la maggior parte dei programmi musicali e totalità dei programmi di sequencing offrono la possibilità si salvare e leggere files in formato MIDI File. Prima della definizione di questo nuovo standard, tutti i programmi utilizzavano ognuno un loro particolare formato per memorizzare i dati MIDI sotto forma di song, sequenze, timbri ecc. Questo significava che i dati registrati, pur essendo della stessa natura venivano memorizzati e letti in modo diverso da programma a programma. I MIDIFile invece, mantengono, indipendentemente dal programma utilizzato, la stessa procedura di scrittura dei dati, consentendo uno scambio trasparente di informazioni tra programmi diversi che funzionano su computer diversi. Oltre che al salvataggio e la trasmissione di brani musicali, i MIDIFile fungono da veicolo di scambio di qualunque altro tipo di informazioni MIDI; un esempio è dato dai messaggi di sistema esclusivo che permettono lo scambio di preset timbrici da un sintetizzatore ad un altro o di immagazzinarli in computer, pubblicarli o trasmetterli in rete Internet. E a proposito di Internet, proprio i MIDIfiles, che essendo documenti di testo garantiscono una dimensione alquanto ridotta, sono uno dei migliori e più veloci modi di trasmettere informazioni musicali in rete, attraverso l'inserimento su una pagina web pubblicata in rete o tramite la spedizione via e-mail. Esistono moltissimi "siti" dedicati alle discipline musicali attraverso i quali viene favorito e incoraggiato il libero scambio di brani musicali e timbri per sintetizzatori. Nei MIDIFile sono attualmente definiti tre formati generali: 1, 2, 3. I tre formati differiscono per tipo e numero di tracce e, per il momento, contengono per la maggior parte gli stessi tipi di dati. Per trasferire MIDIFile da un sequencer all'altro è necessario che questi utilizzino gli stessi tipi di formati che trattano i dati a differenti livelli. Formato "0" Gestisce una singola traccia; questo significa che il brano registrato su più tracce viene "fuso" in un unica traccia contenente però tutte le informazioni di canale relative ai singoli eventi di esecuzione. Formato "1" La registrazione è multitraccia, cioè rende possibile registrare le tracce in modo parallelo, ciascuna delle quali comprende i medesimi valori tempo e metrica. Il tempo viene inserito nella prima traccia che risulta quindi riferimento per tutte le altre. Formato "2" Gestisce tracce multiple indipendenti, ciascuna con propri valori di tempo e metrica che possono anche variare durante l'esecuzione del brano. Inoltre consente di gestire le tracce come se queste fossero composte da "pattern" (parti separate montate e ripetute a piacere), ideale per brani che includano cambi di metrica e variazioni di tempo.