musica digitale - Facoltà di Medicina e Psicologia

Transcript

musica digitale - Facoltà di Medicina e Psicologia
Musica digitale
Una via che il PC ha di trattare la musica è quella di sostituirsi ai normali registratori a nastro,
cioè immagazzinare sulla propria memoria di massa (hard disk, da cui il nome del
procedimento: "hard disk recording") i dati relativi alla sorgente audio collegata e poterne
riprodurre in ogni momento il contenuto, previo collegamento a degli altoparlanti.
Questa registrazione avviene grazie a dei particolari circuiti chiamati Convertitori AnalogicoDigitale (ADC) per la registrazione del segnale e Convertitori Digitale-Analogico (DAC) per
la sua riproduzione.
Il processo usato per tale codifica (Campionamento o digitalizzazione) non è altro che la
traduzione di informazioni analogiche (cambiamenti di frequenza espressi in differenze
elettriche) in parole "word" binarie (cioé sequenze di "0" e "1") che un PC può scrivere sul
proprio HD. L'attività svolta in questo sistema è scandita da una specie di orologio interno al
computer (clock), che determina in quali istanti il sistema cambia stato, cioè in cui accade un
evento che non può essere un momento qualsiasi come nei comuni sistemi analogici, ma solo
in quelli dettati dal "clock". Quindi il segnale trasformato in numerico non può assumere con
continuità tutti i valori possibili, come avviene nei sistemi analogici, ma solo quelli che il
sistema è in grado di codificare. In maniera sintetica il percorso del segnale all'interno di un
sistema digitale avviene nel seguente modo:
Il segnale analogico proveniente da un microfono o da una qualsiasi altra sorgente audio
raggiunge il filtro passabasso (LPF1) che serve ad eliminare dal segnale tutte le frequenze
troppo acute per il sistema di cui si dispone. Il teorema di Shannon garantisce che
nell'operazione di campionamento non si abbia perdita di informazioni se la frequenza di
campionamento è almeno il doppio della frequenza più alta presente nel segnale da
campionare. Si può anche dire che la frequenza di campionamento Fc deve essere un'ottava
più acuta rispetto alla frequenza più elevata che si deve campionare, frequenza che non è
riferita alla fondamentale (nota che si suona), ma alla frequenza più acuta presente nello
spettro armonico. In pratica il clock di sistema fa in modo che ogni 1/Fc (frequenza di clock)
secondi questo circuito scatti tante fotografie, prese ad intervalli rigorosamente regolari, detti
periodi di campionamento (Sample), naturalmente più spesso si registrano i campioni, o
meglio maggiore è la frequenza di campionamento e più sarà fedele la successiva
riproduzione del segnale. La dinamica della conversione-riproduzione e cioè il rapporto tra il
segnale massimo e quello minimo (rapporto segnale/rumore) è strettamente legata alla
quantità N di bit che ogni parola binaria contiene. Maggiore è il valore di N maggiore sarà la
resa dinamica del campionamento.
Ovviamente con l'ausilio di software dedicati alla gestione integrata di audio e MIDI è
possibile ottenere registrazioni digitali su HD in maniera trasparente e con lo stesso tipo
interfaccia di un normale registratore analogico a nastro. Lo sviluppo del software ha
permesso anche di controllare studi di produzione audio/midi integrati e completamente
controllati da PC.
A differenza dei MIDIfiles, gli AUDIOfiles aumentano la loro dimensione con l'aumentare
della frequenza di clock e della risoluzione in bit. La frequenza di campionamento di un
normale CD audio è di 44.100 Khz ad una risoluzione di 16 bit (cioè con parole "words"
binarie di 16 numeri) il che produce, per un minuto di campionamento stereo, un file di 10
Mbytes circa (circa 7 floppy-disks). Questo complica non poco il loro utilizzo su Internet,
dove la limitata velocità di trasferimento dati sconsiglia l'utilizzo di questi files, almeno in
qualità CD.
Una soluzione a questo problema, senza rinunciare alla qualità di riproduzione, sta
nell'utilizzo di algoritmi e protocolli di compressione dedicati alla rete, quali il REAL AUDIO
o l'MP3. Real Audio è un protocollo di compressione e trasmissione per Internet che può
essere eseguito da specifiche estensioni (plug-in) dei più diffusi Browser. Permette la
trasmissione di materiale audio e il suo ascolto quasi simultaneo durante il caricamento del
documento (Streaming). Permette una risoluzione di 8 bit e una frequenza di campionamento
limitata, che ne dedica l'utilizzo principalmente a materiale parlato o di scarso valore
qualitativo ed è il formato che ha permesso una grande diffusione su Internet di emittenti
radiofoniche. (RAI, BBC ecc.)
Il vero salto di qualità nella trasmissione di dati Audio in rete è stato fatto con la creazione del
formato cosiddetto MPEG3 o MP3, generando una vera e propria rivoluzione anche nel
mondo dell'editoria e distribuzione musicale.
L' MPEG (Motion Photographic Expert Group) è l'organismo internazionale che si occupa
dello sviluppo, regolamentazione ed applicazioni di questo algoritmo che prende il nome
stesso di MPEG.
L'MPEG 1 e 2 sono nati per esigenze di compressione Video e Audio e sono usati per i CD
audio e i DAT (Digital Audio Tape) (MPEG 1), per la trasmissione video digitale via satellite
DSS (Direct Satellite System) ad esempio delle televisioni Pay-per-view e per il DVD
(Digital Versatile Disk) che probabilmente sarà il CD del futuro con la possibilità di
immagazzinare fino a 12 GByte di dati.
La terza variante di questo algoritmo MPEG 3 chiamato Huffmann, dal nome del suo
creatore, è un algoritmo di tipo statistico che riduce la lunghezza del codice del file originario
operando in tre passi:
1
raccolta dei simboli che compongono il file, in ordine di ridondanza, ripetizione ed
occorrenza;
2.
combinazione di questi simboli in un nuovo simbolo detto "nodo"
3.
crea un percorso per ogni nodo e poi una tabella di interpretazione e di decodifica.
Il codice Huffmann è sofisticato, ma al tempo stesso semplice da capire nel suo
funzionamento; agisce in modo trasparente all'utente, senza dunque che ci si debba
preoccupare di nulla durante l'operazione di compressione. La lettura dei file compressi in
MPEG 3 è ugualmente semplice grazie a piccole applicazioni dedicate alla lettura come
WinAmp per Windows o MacAmp per Mac Os o iTunes del tutto simili ai normali
programmi per la lettura dei CD audio. Esistono naturalmente anche applicazioni in grado di
comprimere il materiale audio digitalizzato come AudioCatalist, Mpecker Encoder,
SoundApp ecc.
Il MIDI, acronimo di Musical Instruments Digital Interface, che significa interfaccia digitale
per strumenti musicali, è l'unione di un linguaggio di comunicazione e una normativa di
specifiche hardware, che permette a strumenti musicali elettronici, controller, computer e altre
apparecchiature che ne rispettino la codifica, di comunicare tra loro consentendo
l'organizzazione e l'automazione di un sistema musicale MIDI anche molto complesso.
Per sistema musicale si intende una serie di apparecchiature musicali elettroniche MIDI
(sintetizzatori, expander, sequencer, processori digitali di segnali audio, mixer, batterie
elettroniche, ecc.) collegate fra loro e che utilizzano un comune linguaggio per trasmettere o
ricevere informazioni.
Il linguaggio MIDI viene quindi utilizzato per trasformare in numeri i gesti compiuti da un
musicista durante l'esecuzione: abbassare tasti, pizzicare corde, percuotere membrane,
manovrare potenziometri, pulsanti, rotelle, ecc., in equivalenti messaggi digitali che vengono
trasmessi a tutti gli strumenti elettronici presenti sulla rete. Questi messaggi vengono utilizzati
per controllare generatori di suono e altri dispositivi che servono alla configurazione
automatica del sistema musicale.
Inoltre il MIDI permette di registrare questi messaggi, mediante un apparecchio chiamato
"sequencer", per essere successivamente editati, modificati, e rispediti alle apparecchiature
presenti sulla rete.
I PC hanno dato la possibilità emulare questi "sequencer" sotto forma di software,
aumentandone notevolmente le capacità operative e diventando così il centro ideale di ogni
rete MIDI .
In termini pratici il MIDI consente al musicista di espandere le sue potenzialità espressive ben
oltre le sue personali capacità esecutive, mettendolo in grado di controllare in ogni momento
un'intera composizione, con la possibilità di approntare modifiche anche significative sia nelle
esecuzioni in tempo differito che in quelle in tempo reale.
Nel tempo il MIDI si è imposto come nuova tecnologia operativa in tutti i settori della
produzione musicale professionale e non, conquistandosi di diritto il ruolo di primaria
importanza nell'esecuzione dal vivo, nella produzione discografica, nella post-produzione
audio-video e ovviamente nella multimedialità.
Molti settori della produzione musicale si avvalgono del MIDI per la facilità di utilizzo, la
flessibilità e semplicità di programmazione e la vastissima gamma di apparecchiature a
diversi livelli di prezzo e prestazioni presenti sul mercato: dalla produzione di brani musicali
leggeri alla musica sperimentale, dal sincronismo tra luci ed effetti nelle esecuzioni dal vivo
alla produzione di colonne sonore e materiale multimediale ecc.
La modularità dei sistemi MIDI e la garantita compatibilità delle apparecchiature che li
compongono, consentono al musicista di ampliare progressivamente il proprio sistema MIDI
(anche un modulo alla volta) fino al raggiungimento di una configurazione soddisfacente per
le proprie esigenze. Proprio questa varietà e flessibilità di utilizzo garantisce la possibilità da
parte di un'utenza amatoriale o domestica di disporre delle medesime apparecchiature del
professionista o dello studio di registrazione; non solo, con l' apparizione delle cosiddette
"workstation", cioé delle apparecchiature che alloggiano in un unico contenitore
(generalmente una tastiera) le funzioni di diversi moduli MIDI, è possibile risparmiare senza
necessariamente disporre di apparecchiature professionali. In commercio esistono diverse
marche e modelli di "workstation" le quali, oltre ad essere dei sintetizzatori di qualità con
varie forme di sintesi sonora, integrano sequencer di diverse capacità e funzionalità, floppy
disk o Hard Disk drive per memorizzare quanto eseguito, set di batteria elettronica e
processori di effetti digitali. A queste workstation è comunque sempre possibile collegare
altre apparecchiature MIDI per espandere a posteriori il proprio sistema.
Lo Standard MIDIFile o semplicemente i MIDIFile furono proposti per la prima volta nell '86
dalla Opcode System una casa produttrice di software ed implementati per la prima volta su di
un programma prodotto dalla stessa casa: Opcode Sequencer 2.5 . L'idea, contro ogni più
rosea previsione, fu accettata con entusiasmo dalla maggior parte dei produttori di software
musicale, che inclusero i MIDIFile come formato alternativo di memorizzazione dei dati
MIDI, senza che questo fosse ancora stato ufficializzato. Dopo appena due anni, nell'88 visto
il successo riscosso da questo nuovo standard e la grande richiesta esistente, MMA
(Manifacturer MIDI Association), definì ufficialmente il protocollo riguardante i MIDIFiles
inserendogli nella documentazione ufficiale sul MIDI. Oggi la maggior parte dei programmi
musicali e totalità dei programmi di sequencing offrono la possibilità si salvare e leggere files
in formato MIDI File.
Prima della definizione di questo nuovo standard, tutti i programmi utilizzavano ognuno un
loro particolare formato per memorizzare i dati MIDI sotto forma di song, sequenze, timbri
ecc. Questo significava che i dati registrati, pur essendo della stessa natura venivano
memorizzati e letti in modo diverso da programma a programma. I MIDIFile invece,
mantengono, indipendentemente dal programma utilizzato, la stessa procedura di scrittura dei
dati, consentendo uno scambio trasparente di informazioni tra programmi diversi che
funzionano su computer diversi. Oltre che al salvataggio e la trasmissione di brani musicali, i
MIDIFile fungono da veicolo di scambio di qualunque altro tipo di informazioni MIDI; un
esempio è dato dai messaggi di sistema esclusivo che permettono lo scambio di preset
timbrici da un sintetizzatore ad un altro o di immagazzinarli in computer, pubblicarli o
trasmetterli in rete Internet. E a proposito di Internet, proprio i MIDIfiles, che essendo
documenti di testo garantiscono una dimensione alquanto ridotta, sono uno dei migliori e più
veloci modi di trasmettere informazioni musicali in rete, attraverso l'inserimento su una
pagina web pubblicata in rete o tramite la spedizione via e-mail. Esistono moltissimi "siti"
dedicati alle discipline musicali attraverso i quali viene favorito e incoraggiato il libero
scambio di brani musicali e timbri per sintetizzatori.
Nei MIDIFile sono attualmente definiti tre formati generali: 1, 2, 3. I tre formati differiscono
per tipo e numero di tracce e, per il momento, contengono per la maggior parte gli stessi tipi
di dati. Per trasferire MIDIFile da un sequencer all'altro è necessario che questi utilizzino gli
stessi tipi di formati che trattano i dati a differenti livelli.
Formato "0"
Gestisce una singola traccia; questo significa che il brano registrato su più tracce viene "fuso"
in un unica traccia contenente però tutte le informazioni di canale relative ai singoli eventi di
esecuzione.
Formato "1"
La registrazione è multitraccia, cioè rende possibile registrare le tracce in modo parallelo,
ciascuna delle quali comprende i medesimi valori tempo e metrica. Il tempo viene inserito
nella prima traccia che risulta quindi riferimento per tutte le altre.
Formato "2"
Gestisce tracce multiple indipendenti, ciascuna con propri valori di tempo e metrica che
possono anche variare durante l'esecuzione del brano. Inoltre consente di gestire le tracce
come se queste fossero composte da "pattern" (parti separate montate e ripetute a piacere),
ideale per brani che includano cambi di metrica e variazioni di tempo.