1 Videoediting: concetti di base e formati 1. Codec (codifica e

Transcript

1 Videoediting: concetti di base e formati 1. Codec (codifica e
 Videoediting: concetti di base e formati 1. Codec (codifica e decodifica segnale audio‐video, compressione) 2. Frequenza dei fotogrammi o fps 3. Interlacciamento 4. Frame rate 5. Formati di registrazione, qualità video e megapixel, … 6. Esportazione dei video: panoramica dei principali formati (AVI, FLV, H.264, Mpeg, WMV) e DRM 1. Codec. Un codec è un programma o un dispositivo che si occupa di codificare e/o decodificare digitalmente un segnale audio o video affinché possa essere salvato su un supporto di memorizzazione o richiamato per la sua lettura. Tale programma può essere installabile su personal computer o apparecchiature multimediali predisposte oppure essere integrato in un componente hardware dedicato (ad es. nei lettori CD o DVD o in alcune schede video/audio per PC). Oltre alla digitalizzazione del segnale, i codec effettuano anche una compressione (e/o decompressione in lettura) dei dati ad esso relativi, in modo da poter ridurre lo spazio di memorizzazione occupato a vantaggio della portabilità o della trasmissività del flusso codificato. I codec si dividono in base alla modalità in cui effettuano la compressione: con perdita di informazione (lossy), senza perdita di informazione (lossless). Per realizzare tale compressione si fa ricorso alla riduzione della precisione dei colori dei singoli pixel (codec video) o delle frequenze da riprodurre (in alcuni codec audio vengono soppresse le frequenze non udibili dall'orecchio umano), alla eliminazione delle ridondanze o alla scrittura delle sole differenze (codec video) rispetto ad una immagine di riferimento. Esistono vari tipi di codec, differenti tra loro per il tipo di segnale su cui devono operare e per l'algoritmo di codifica/compressione in essi implementato. Nel sistema operativo Microsoft Windows, i codec sono delle librerie con estensione .dll, che i vari player audio e video gestiscono come dei plug‐in. Il codec permette di ascoltare formati proprietari e aperti da qualunque lettore di file, mantenendo separati il livello fisico del formato da quello logico della sua rappresentazione. 2. Frequenza dei fotogrammi o fps. La frequenza dei fotogrammi (in inglese frame rate) è la frequenza di cattura o riproduzione dei fotogrammi che compongono un filmato. Un filmato, o un'animazione al computer, è infatti una sequenza di immagini (fisse) riprodotte ad una velocità sufficientemente alta da fornire, all'occhio umano, l'illusione del movimento. La frequenza dei fotogrammi viene misurata in hertz (Hz) oppure in fotogrammi per secondo (fps). Le principali modalità di scansione video standard ‐ e le relative frequenze ‐ utilizzate in ambito televisivo e cinematografico sono: 50i (50 semiquadri al secondo = 25 fps) è il sistema di scansione interlacciata standard dei sistemi di codifica PAL e SECAM, comunemente utilizzati dalle televisioni analogiche europee. 60i (60 o 59,94 semiquadri al secondo = 29,97 fps) è il sistema di scansione interlacciata standard per il sistema di codifica analogico NTSC (comunemente utilizzato dalle TV statunitensi). 30p è uno standard non interlacciato a 30 fps. La scansione progressiva, rispetto a quella interlacciata, migliora la qualità dell'immagine e viene utilizzata per contenuti ad alta definizione; lo standard 30p permette, infatti, una riproduzione video priva di artefatti. 50p e 60p sono le modalità non interlacciate utilizzate dai sistemi HDTV. Questi formati, tuttavia, non fanno parte degli standard ATSC e DVB. 3. Interlacciamento 1 Un fenomeno correlato al numero di fotogrammi al secondo ‐ in particolare su uno schermo a tubo catodico ‐ è lo "sfarfallio" dell'immagine ovvero un cambiamento continuo di luminosità che compromette la qualità dell'esperienza visiva. Poiché questo effetto è dovuto alla bassa frequenza con cui sono "ravvivati" i fosfori sullo schermo, si è cercato di eliminarlo aumentando il frame rate; per fare questo, senza aumentare anche la larghezza di banda del segnale, si è optato per il cosiddetto interlacciamento: ogni fotogramma al secondo viene suddiviso in due semiquadri ovvero vengono prima visualizzate solo le righe dispari dell'immagine, poi solo quelle pari. In questo modo, anche se ogni riga è aggiornata 25 volte al secondo, come per esempio nello standard televisivo analogico PAL, ogni zona dell'immagine è tracciata due volte, quasi come se fossero scansionati 50 fotogrammi al secondo. 4. Frame rate e visione umana Il frame rate minimo di un filmato, affinché l'apparato visivo umano non percepisca sfarfallii e artefatti, si attesta sui 30 fps (60 Hz), ma può anche essere superiore per gli oggetti che si muovono molto veloci sullo schermo. Sebbene un filmato sembri mostrare delle immagini in movimento, infatti, in realtà ciò che viene visualizzato è una sequenza di immagini fisse. Una prima spiegazione del fenomeno dal punto di vista biologico, fu ipotizzata dal fisico belga Plateau, nel XIX secolo, secondo il quale la percezione del movimento continuo era dovuta alla persistenza delle immagini sulla retina, ma questa teoria fu successivamente smentita da Max Wertheimer: è il cervello che, secondo meccanismi non ancora del tutto chiariti, esegue un'operazione di "assemblaggio" dei singoli fotogrammi, interpretandolo come un movimento. 5. Formati di registrazione 5.1. AVCHD (Advanced Video Codec High Definition) è un formato di registrazione ad alta definizione introdotto nel 2006. Può essere usato in vari dispositivi di memorizzazione, inclusi i DVD, i dischi rigidi, e le schede di memoria. Studiato appositamente per l'alta definizione, il formato si è affiancato in segmento consumer ad altri formati video per videocamere: l'HDV (HD) e il MiniDV (SD), divenendo ormai uno standard. Rispetto all'HDV, l'AVCHD ha un orientamento tape‐less per registrare su vari supporti di registrazione e non su nastro. AVCHD usa il codec video MPEG‐4 AVC (H.264). Esso permette un'efficienza di compressione maggiore comparato con il codec MPEG‐2 usato nelle videocamere HDV per catturare lo stesso video, riuscendo a mantenere quasi la stessa qualità. Ad oggi il bit/rate massimo offerto da AVCHD ha praticamente raggiunto quello dell'HDV (24 Mb/s contro 25 Mb/s). La risoluzione video raggiunge i 1920×1080i rispetto ai 1440×1080i dell'HDV. AVCHD supporta anche il formato progressivo 720p (1280×720p). L'audio può essere archiviato come non compresso (PCM 7.1 lineare ) o compresso (Dolby Digital AC3 5.1). 5.2. Digital Video DV Il Digital Video, noto anche con l'acronimo DV, è un formato di video digitale introdotto nel 1996. Nella sua versione per videocassetta MiniDV, è diventato molto popolare ed è uno standard di fatto per la produzione video amatoriale e semiprofessionale. Le caratteristiche del DV includono: compressione intraframe per montaggio facilitato, interfaccia standard per trasferimento a sistemi di montaggio non lineari (nota come FireWire o IEEE1394), buona qualità video, in particolare se confrontata con i precedenti sistemi amatoriali analogici come Video8, Hi8 e VHS‐C. Il DV permette anche la produzione cinematografica a basso costo. Nel campo del montaggio video non lineare, data la potenza delle piattaforme, il montaggio 2 di materiale DV è possibile senza alcun supporto hardware, se non quello fornito dal processore del PC. Anche un PC entry‐level è in grado di gestire flussi di dati così elevati e non sono più necessarie schede dedicate a trattare il DV. Rimane chiaro comunque che nel momento in cui si fa editing e si aggiungono effetti, tendine e titoli, un supporto hardware aggiuntivo (le così dette schede realtime) può sempre tornare utile, per evitare la necessità di un lungo rendering. 5.3. Qualità video e megapixel Nel mercato consumer si riscontra spesso una certa confusione sull'effettiva importanza dei megapixel delle videocamere, che vengono erroneamente ritenuti significativi sulla qualità finale del video, mentre sono riferiti in realtà al solo uso come fotocamera. Mentre una telecamera di fascia consumer da 5‐600 euro raggiunge anche i 3 megapixel, una telecamera professionale ad alta risoluzione da 40.000 euro per il formato DVCPRO HD 100 ha una risoluzione di poco superiore a un megapixel: è evidente che la differenza qualitativa tra le due non è dovuta alla risoluzione dei sensori. Inoltre che lo standard video DV attuale non può superare i 400.000 pixel, eventuali pixel in più sul CCD servono solo allo stabilizzatore digitale. 5.4. Standard tecnici e compressione video Nello standard DV la risoluzione video è rispettivamente 720×576 pixel a 25 fps per PAL. Il video campionato è successivamente compresso utilizzando la tecnologia DCT (Trasformata discreta del coseno). 5.5. Audio Il DV permette di registrare sia 2 canali audio digitali (solitamente stereo) a 48 kHz e 16 bit, sia 4 canali a 32 kHz e 12 bit. Per applicazioni professionali e broadcast, si usano quasi esclusivamente 48 kHz. In aggiunta, è prevista l'opzione di campionare l'audio alla stessa frequenza di campionamento usata dai compact disc, 44,1 kHz, anche se all'atto pratico la si usa raramente. Sui computer, i flussi DV sono di solito memorizzati come file AVI o QuickTime. 5.6. Tipologie di lavoro con il codec DV Esistono due tipologie di lavoro in formato DV: CODEC HARDWARE (si utilizza una scheda di acquisizione firewire dotate di chip di decodifica DV integrato. In questo modo il video viene codificato via hardware e il sistema non viene caricato). Questo sistema viene anche chiamato montaggio real time proprio perché vi è la possibilità di visionare i risultati senza che vi sia bisogno di un rendering. L'alto costo di queste periferiche è dovuto sia al costoso software di editing, spesso adattato alla scheda, sia all'hardware stesso; CODEC SOFTWARE: il codec software è una scorciatoia ormai ampiamente utilizzata per chi possiede un PC sufficientemente potente, in grado quindi di lavorare in realtime senza hardware aggiuntivo. Di norma visionare un file DV è possibile senza supporto hardware ma al momento del rendering o del preview (quindi se si vuole fare editing con effetti, tendine e filtri) si ha bisogno di un software o plug‐in (spesso associati ai software di editing) che corrono in aiuto alla riproduzione/elaborazione. 3 6. Salvataggio dei progetti come video finali ovvero esportazione dei video. A sinistra la schermata dei possibili formati di esportazione di Adobe Premiere CS4. Alcuni dei formati sono solo audio come mp3, Audio only, Windows waveform; altri sono formati immagine o animazioni di immagini come bitmap, gif, targa e tiff. I formati video che ci interessano sono: Microsoft AVI, FLV, F4V, H.264, Mpeg, Windows Media. Microsoft AVI, AVI (Audio Video Interleave), è un contenitore multimediale realizzato da Microsoft nel 1992 come formato standard video per il sistema operativo Windows. FLV e F4V. Flash Video è un formato video usato per inviare video su internet usando Adobe Flash Player (inizialmente prodotto da Macromedia). Il Flash Video può anche essere incapsulato in file SWF. Questo formato è utilizzato da siti come: Youtube, Google Video, Yahoo! e molti altri. Flash Video è visibile su la maggior parte dei sistemi operativi, attraverso l'ampia disponibilità di Adobe Flash Player e delle estensioni per i Browser o da programmi di terze parti come Mplayer, VLC media player o con ogni lettore che usa filtri DirectShow (ALLPlayer, Media Player Classic, Windows Media Player, e Windows Media Center) quando l'ffdshow è installato. H.264, è un formato standard di compressione video digitale con perdita (lossy) creato dal Moving Picture Experts Group (Mpeg). È in altri termini un codec video. Questo codec video rilasciato per la prima volta da Apple nel 2005 all'interno di QuickTime, è stato sviluppato per video ad alta qualità anche a frequenze di trasmissione dei dati inferiori rispetto alle soluzioni attuali, ed è utilizzato per qualunque tipo di periferica: dai televisori ad alta definizione HDTV e DVD, ai telefoni cellulari 3G. I servizi di broadcast basati sullo standard H.264 occupano una banda inferiore rispetto al diffuso schema di codifica MPEG‐2, a una frequenza di trasmissione dei bit decisamente inferiore. Gli operatori di broadcasting possono quindi trasmettere in modo economico un numero maggiore di programmi ad alta definizione. L'efficienza della compressione è migliorata di oltre il 50% rispetto al precedente MPEG‐2. Attualmente i dispositivi con maggior diffusione che utilizzano questo sistema di codifica sono l'iPod video e la console Sony PSP. H.264 viene impiegato nei dischi ottici di ultima generazione Blu Ray. Dal gennaio 2010 YouTube sta testando il codec H.264 come formato video nella versione "HTML5 beta" del popolare sito internet. In questo modo non è più necessario utilizzare il plugin Adobe Flash per la visualizzazione dei video. Mpeg. Il Moving Picture Experts Group, acronimo MPEG, è un comitato tecnico congiunto delle organizzazioni internazionali ISO e IEC incaricato di definire standard per la rappresentazione in forma digitale di audio, video e altre tipologie di contenuti multimediali in modo da soddisfare un'ampia varietà di 4 applicazioni. Gli algoritmi sviluppati dal gruppo MPEG sono tutti algoritmi a perdita di informazione (lossy). La tecnica impiegata è la seguente: il flusso video viene campionato, viene ridotto a segmenti; questi segmenti vengono elaborati per estrarne le informazioni fondamentali; le informazioni vengono codificate con degli algoritmi di compressione non a perdita di informazione. Il gruppo di standardizzazione, il cui presidente è il torinese Leonardo Chiariglione, non rilascia delle specifiche su come debba essere realizzato il codificatore o il decodificatore MPEG. Il gruppo rilascia delle specifiche che indicano come debba essere composto il formato del file MPEG in modo che ogni costruttore possa realizzare il codificatore e il decodificatore come meglio crede pur attenendosi al formato del file definito dal consorzio MPEG. MPEG‐1 è uno standard introdotto nel 1991 da MPEG (Moving Pictures Experts Group). Originariamente è stato ottimizzato per le applicazioni video a basso bitrate con una risoluzione video di 352x288 pixel con 25 fotogrammi al secondo per lo standard tv PAL. MPEG‐1 non è strutturalmente limitato a questi formati in quanto può raggiungere ad esempio i 4095x4095 pixel con 60 fotogrammi al secondo, ma nelle applicazioni ha condotto il gioco la velocità di trasmissione e quindi il sistema è stato ottimizzato per un bit rate di 1,5 Mbit/s. Il limite più importante del sistema MPEG‐1 è dovuto all'impossibilità di trattare immagini interlacciate come quelle impiegate nel broadcast TV Europeo che richiedono un doppio processo di codifica. I Video CD utilizzano il formato MPEG‐1. La qualità dell'output ai bitrate tipici di un Video CD è quella di un videoregistratore VHS. MPEG‐1 layer 3 è il nome completo del famoso formato audio MP3 il cui padre è l’ing. Chiariglione. MPEG‐2 è stato destinato al broadcast televisivo, fin dalla sua introduzione nel 1994. Una efficiente codifica per il video interlacciato e la scalabilità sono state le caratteristiche che hanno permesso di digitalizzare efficacemente i segnali televisivi. Grazie all'MPEG‐2 si ottengono immagini televisive di buona qualità con bitrate compresi tra 4 e 9 Mbit/s. MPEG‐2 riesce a spaziare tra la più bassa risoluzione di immagine fino all'alta definizione HDTV Windows Media Video (WMV) è il nome generico per una serie di tecnologie proprietarie sviluppate da Microsoft per lo streaming di file video. Fa parte della piattaforma Windows Media. A partire dalla versione 7 (WMV1), Microsoft ha usato una sua versione modificata dello standard MPEG‐4. Lo stream video è spesso abbinato a quello audio di Windows Media Audio. I Video WMV possono essere incorporati in contenitori di formato Audio Video Interleave (AVI) o Advanced Streaming Format (ASF), a formare file chiamati .avi o .asf rispettivamente. Di solito WMV utilizza il contenitore AVI quando si usa per la codifica Windows Media Video 9 VCM per Windows. Microsoft's Windows Media Player per Mac, invece, supporta solo il contenitore ASF. WMV è dotato anche dell'opzione di gestione dei diritti digitali (DRM "Digital rights management"). DRM Con Digital Rights Management (DRM), il cui significato letterale è "gestione dei diritti digitali", si intendono i sistemi tecnologici mediante i quali i titolari di diritto d'autore (e dei cosiddetti diritti connessi) possono esercitare ed amministrare tali diritti nell'ambiente digitale, grazie alla possibilità di rendere protette, identificabili e tracciabili le opere di cui sono autori. I DRM sono spesso chiamati "filigrana digitale", in quanto le informazioni nascoste che vengono aggiunte ai file hanno lo scopo di regolamentarne l'utilizzo, come la filigrana delle banconote che ne impedisce la falsificazione. 5 

Documenti analoghi

Il Formato MPEG - Associazione Innovit Onlus

Il Formato MPEG - Associazione Innovit Onlus il flusso video viene campionato, viene ridotto a segmenti; i segmenti vengono elaborati per estrarne le informazioni fondamentali (tecnica lossy); le informazioni vengono codificate con algoritmi ...

Dettagli

Video digitali

Video digitali per comprimere ed uno spazio dei colori YUV in cui l’immagine di luminanza è codificata per intero, mentre per la crominanza è usato un insieme ridotto di valori La compressione rimuove: – La ridon...

Dettagli

codec-formati

codec-formati Codec “scalabile”, la qualità video si adatta alla capacità di trasmissione della linea e alla potenza del computer. Simile ai formati WMA/V ma deriva dall’Indeo Video. MPEG1 Primo rivoluzionario ...

Dettagli

I principali Formati Video

I principali Formati Video • H.264. Tra i formati di compressione video più utilizzati per la realizzazione e la distribuzioni di filmati e video di qualsiasi dimensione e risoluzione. • Il codec H.264 (noto anche come MPEG-...

Dettagli

Scarica - Xabaras.it

Scarica - Xabaras.it Nello standard PAL ci sono 625 linee di scansione per fotogramma e 25 fotogrammi al secondo (frames al secondo, fps). Il segnale è interlacciato (nella prima passata le righe dispari e nella second...

Dettagli