- Web Graphic Designer
Transcript
- Web Graphic Designer
Tecniche di Video Digitale PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Mon, 09 Nov 2009 10:53:13 UTC Indice Voci Introduzione - Luce e colore 1 Luce 1 Colore 6 Spazio dei colori 11 Temperatura di colore 15 RGB 16 CMYK 18 Hue Saturation Brightness 20 Grafica Digitale 21 Grafica raster 21 Pixel 23 Risoluzione (grafica) 26 Risoluzioni standard 27 Immagine digitale 33 Compressione dei dati 35 Compressione dati lossy 36 Compressione dati lossless 37 Joint Photographic Experts Group 41 Portable Network Graphics 44 Formati del video digitale 46 Video 46 Video digitale 55 Compressione video digitale 58 Sottocampionamento della crominanza 61 Video a componenti 67 Video composito 68 Formato contenitore 71 Velocità di trasmissione 72 Codec video 74 Contenitore multimediale 75 Audio Video Interleave 75 Matroska 77 MPEG-4 79 MOV (formato di file) 81 Ogg 83 Theora 86 Audio Digitale 88 Compressione audio digitale 88 MP3 90 Diffusione del Video Digitale Televisione digitale 96 96 HDTV 100 DVD 109 IPTV 115 Web TV 118 Streaming 120 Podcasting 122 Blu-ray Disc 125 Appendice 1 - Interfacce 136 Universal Serial Bus 136 IEEE 1394 141 Digital Visual Interface 144 High-Definition Multimedia Interface 148 Note Fonti e autori delle voci 155 Fonti, licenze e autori delle immagini 157 Licenze della voce Licenza 159 1 Introduzione - Luce e colore Luce Il termine luce (dal latino, lux, lucis) si riferisce alla porzione dello spettro elettromagnetico visibile dall'occhio umano, ed è approssimativamente compresa tra 400 e 700 nanometri di lunghezza d'onda, ovvero tra 750 e 428 THz di frequenza. Questo intervallo coincide con la regione di massima emissione da parte del sole. I limiti dello spettro visibile all'occhio umano non Un prisma scompone la luce sono uguali per tutte le persone, ma variano soggettivamente e possono raggiungere i 730 nanometri, avvicinandosi agli infrarossi, e i 380 nanometri avvicinandosi agli ultravioletti. La presenza contemporanea di raggi di tutte le lunghezze d'onda visibili forma la luce bianca. La luce, come tutte le onde elettromagnetiche, interagisce con la materia. I fenomeni più comuni osservabili sono: l'assorbimento, la trasmissione, la riflessione, la rifrazione e la diffrazione. Sebbene nell'elettromagnetismo classico la luce sia descritta come un'onda, l'avvento della meccanica quantistica agli inizi del XX secolo ha permesso di capire che questa possiede anche proprietà tipiche delle particelle e di spiegare fenomeni come l'effetto Compton. Nella fisica moderna la luce (e tutta la radiazione elettromagnetica) viene descritta come composta da quanti del campo elettromagnetico chiamati fotoni. Teorie sulla luce Molteplici sono state le teorie formulate, nel corso del tempo, per spiegare il fenomeno luminoso ed i comportamenti della luce. Teoria corpuscolare Formulata da Isaac Newton nel XVII secolo. La luce veniva vista come composta da piccole particelle di materia (corpuscoli) emesse in tutte le direzioni. Oltre che essere matematicamente molto più semplice della teoria ondulatoria, questa teoria spiegava molto facilmente alcune caratteristiche della propagazione della luce che erano ben note all'epoca di Newton. Fasci di luce solare che filtrano tra le nubi Luce 2 Innanzitutto la meccanica galileiana prevede, correttamente, che le particelle (inclusi i corpuscoli di luce) si propaghino in linea retta ed il fatto che questi fossero previsti essere molto leggeri era coerente con una velocità della luce alta ma non infinita. Anche il fenomeno della riflessione poteva essere spiegato in maniera semplice tramite l'urto elastico della particella di luce sulla superficie riflettente. La spiegazione della rifrazione era leggermente più complicata ma tutt'altro che impossibile: bastava infatti pensare che le particelle incidenti sul materiale rifrangente subissero, ad opera di questo, delle forze perpendicolari alla superficie che ne cambiassero la traiettoria. I colori dell'arcobaleno venivano spiegati tramite l'introduzione di un gran numero di corpuscoli di luce diversi (uno per ogni colore) ed il bianco era pensato come formato da tante di queste particelle. La separazione dei colori ad opera, ad esempio, di un prisma poneva qualche problema teorico in più perché le particelle di luce dovrebbero avere proprietà identiche nel vuoto ma diverse all'interno della materia. Una conseguenza della teoria corpuscolare della luce è che questa, per via dell'accelerazione gravitazionale, aumenti la sua velocità quando si propaga all'interno di un mezzo. Teoria ondulatoria Formulata da Christiaan Huygens nel 1678 ma pubblicata solo nel 1690 nel Traité de la Lumière. La luce veniva vista come un'onda che si propaga (in maniera del tutto simile alle onde del mare o a quelle acustiche) in un mezzo, chiamato etere, che si supponeva pervadere tutto l'universo ed essere formato da microscopiche particelle elastiche. La teoria ondulatoria della luce permetteva di spiegare (anche se in maniera matematicamente complessa) un gran numero di fenomeni: oltre alla riflessione ed alla rifrazione, Huygens riuscì infatti a spiegare anche il fenomeno della birifrangenza nei cristalli di calcite. Nel 1801 Thomas Young dimostrò come i fenomeni della diffrazione (osservato per la prima volta Francesco Maria Grimaldi nel 1665) e dell'interferenza fossero interamente spiegabili dalla teoria ondulatoria e non lo fossero dalla teoria corpuscolare. Agli stessi risultati arrivò Augustin-Jean Fresnel nel 1815. Nel 1814 Joseph von Fraunhofer fu il primo ad investigare seriamente sulle righe di assorbimento nello spettro del Sole, che vennero esaurientemente spiegate da Kirchhoff e da Bunsen nel 1859, con l'invenzione dello spettroscopio. Le righe sono ancora oggi chiamate linee di Fraunhofer in suo onore. Un problema della teoria ondulatoria era tuttavia la propagazione rettilinea della luce. Infatti era ben noto che le onde sono capaci di aggirare gli ostacoli mentre è esperienza comune che la luce si propaghi in linea retta (questa proprietà era già stata notata da Euclide nel suo Optica). Questa apparente incongruenza può però essere spiegata assumendo che la luce abbia una lunghezza d'onda microscopica. Al contrario della teoria corpuscolare, quella ondulatoria prevede che la luce si propaghi più lentamente all'interno di un mezzo che nel vuoto; restano ambiguità. Luce 3 Teoria elettromagnetica Per la grandissima maggioranza delle applicazioni questa teoria è ancora utilizzata al giorno d'oggi. Proposta da James Clerk Maxwell alla fine del XIX secolo, sostiene che le onde luminose sono elettromagnetiche e non necessitano di un mezzo per la trasmissione, mostra che la luce visibile è una parte dello spettro elettromagnetico. Con la formulazione delle equazioni di Maxwell vennero completamente unificati i fenomeni elettrici, magnetici ed ottici. Teoria quantistica Per risolvere alcuni problemi sulla trattazione del corpo nero nel 1900 Max Planck ideò un artificio matematico, pensò che l'energia associata ad una onda elettromagnetica non fosse proporzionale al quadrato della sua ampiezza (come nel caso delle onde elastiche in meccanica classica), ma direttamente proporzionale alla frequenza e che la sua costante di proporzionalità fosse discreta e non continua. L'interpretazione successiva che Albert Einstein diede dell'effetto fotoelettrico incanalò il pensiero dei suoi contemporanei verso una nuova strada. Si cominciò a pensare che quanto fatto da Planck non fosse un mero artificio matematico, ma piuttosto l'interpretazione di una nuova struttura fisica, cioè che la natura della luce potesse avere un qualche rapporto con una forma discreta di alcune sue proprietà. Si cominciò a parlare di pacchetti discreti di energia, battezzati fotoni. Con l'avvento delle teorie quantistiche dei campi (ed in particolare dell'elettrodinamica quantistica) il concetto di fotone venne formalizzato ed oggi sta alla base dell'ottica quantistica. La velocità della luce La luce si propaga a una velocità finita. Anche gli osservatori in movimento misurano sempre lo stesso valore di c, la velocità della luce nel vuoto, dove c = 299 792 458 m/s. Nell'uso comune, questo valore viene arrotondato a 300 000 km/s. La velocità della luce è stata misurata molte volte da numerosi fisici. Il primo tentativo di misura venne compiuto da Galileo Galilei con l'ausilio di lampade oscurabili ma la rudimentalità dei mezzi disponibili non permise di ottenere alcun valore. La migliore tra le prime misurazioni venne eseguita da Olaus Roemer (un fisico danese), nel 1676. Egli sviluppò un metodo di misurazione, osservando Giove e una delle sue lune con un telescopio. Grazie al fatto che la luna veniva eclissata da Giove a intervalli regolari, calcolò il periodo di rivoluzione della luna in 42,5 ore, quando la Terra era vicina a Giove. Il fatto che il periodo di rivoluzione si allungasse quando la distanza tra Giove e Terra aumentava, poteva essere spiegato assumendo che la luce impiegava più tempo a coprire la distanza Terra-Giove, ipotizzando quindi, una velocità finita per essa. La velocità della luce venne calcolata analizzando la distanza tra i due pianeti in tempi differenti. Roemer calcolò una velocità di 227 326 km/s. Albert A. Michelson migliorò il lavoro di Roemer nel 1926. Usando uno specchio rotante, misurò il tempo impiegato dalla luce per percorrere il viaggio di andata e ritorno dal monte Wilson al monte San Antonio in California. La misura precisa portò a una velocità di 299 796 km/s. Questo esperimento in realtà misurò la velocità della luce nell'aria. Infatti, quando la luce passa attraverso una sostanza trasparente, come l'aria, l'acqua o il vetro, la sua velocità c si riduce a v=c/n (dove n è il valore dell'indice di rifrazione del mezzo) ed è sottoposta a rifrazione. In altre parole, n = 1 nel vuoto e n > 1 nella materia. L'indice di rifrazione dell'aria di fatto è molto vicino a 1, e in effetti la misura di Michelson è un'ottima approssimazione di c. Luce 4 Ottica Lo studio della luce e dell'interazione tra luce e materia è detto ottica. L'osservazione e lo studio dei fenomeni ottici, come ad esempio l'arcobaleno offre molti indizi sulla natura della luce. Colori e lunghezze d'onda Le differenti lunghezze d'onda vengono interpretate dal cervello come colori, che vanno dal rosso delle lunghezze d'onda più ampie (minore frequenza), al violetto delle lunghezze d'onda più brevi (maggiore frequenza). Ci preme, tuttavia sottolineare, che non a tutti i colori possiamo associare una lunghezza d'onda. Spesso questo aspetto non viene sottolineato e si diffonde l'errata convinzione, inconsapevolmente foraggiata anche da immagini come quelle presenti in codesta pagina, che ci sia una relazione biettiva tra un colore e una lunghezza d'onda. In realtà, è vero che ad ogni lunghezza d'onda è associabile un → colore, ma non è vero il contrario. Quei colori a cui non sono associate lunghezze d'onda, sono invece generati dal meccanismo di funzionamento del nostro apparato visivo (cervello+occhio). In particolare i coni, cellule della retina responsabili della visione del colore, si differenziano in tre tipi perché sensibili a tre diverse regioni spettrali della luce. Quando, ad esempio, due diverse onde monocromatiche, appartenenti a due regioni diverse di cui prima, sollecitano contemporaneamente l'occhio, il nostro cervello interpreta la sollecitazione come un nuovo colore, "somma" dei due originari. Le frequenze immediatamente al di fuori dello spettro percettibile dall'occhio umano vengono chiamate ultravioletto (UV), per le alte frequenze, e infrarosso (IR) per le basse. Anche se gli esseri umani non possono vedere l'infrarosso, esso viene percepito dai recettori della pelle come calore. Telecamere in grado di captare i raggi infrarossi e convertirli in luce visibile, vengono chiamati visori notturni. La radiazione ultravioletta non viene percepita dagli esseri umani, se non in maniera molto indiretta, in quanto la sovraesposizione della pelle ai raggi UV causa scottature. Alcuni animali, come le api, riescono a vedere gli ultravioletti; altri invece riescono a vedere gli infrarossi. Lunghezze d'onda della luce visibile La luce visibile è una porzione dello spettro elettromagnetico compresa approssimativamente tra i 400 e i 700 nanometri (nm) (nell'aria). La luce è anche caratterizzata dalla sua frequenza. Frequenza e lunghezza d'onda obbediscono alla seguente relazione: l=v/f (dove l è la lunghezza d'onda, v è la velocità nel mezzo considerato - nel vuoto in genere si indica con c - , f è la frequenza della radiazione). Luce 5 Grandezze misurabili Di seguito sono riportate quantità o unità di misura legate a fenomeni luminosi: • • • • • Tonalità (o → temperatura) luminosità illuminamento (unità SI: lux) flusso luminoso (unità SI: lumen) intensità luminosa (unità SI: candela) Sorgenti di luce • Radiazione termica • Lampade ad incandescenza • Luce solare • fuoco • Qualsiasi corpo ad di sopra di una certa temperatura (cioè incandescente, ad es. metallo fuso) • Emissione spettrale atomica (la fonte di emissione può essere stimolata o spontanea) • Laser e Maser (emissione stimolata) • LED (light emitting diode) • lampade a scarica di gas (insegne al neon, lampade al mercurio, etc) • Fiamme dei gas • Accelerazione di una particella dotata di carica (solitamente un elettrone) • Radiazione ciclotronica • Bremsstrahlung • Effetto Čerenkov • luce di sincrotrone • chemioluminescenza • fluorescenza • fosforescenza • • • • • • tubo catodico bioluminescenza sonoluminescenza triboluminescenza radioattività annichilazione particella-antiparticella Altri progetti • • • Wikimedia Commons contiene file multimediali su luce Wikiquote contiene citazioni riguardanti la luce Wikizionario contiene la voce di dizionario «luce» Spettro elettromagnetico (Ordinato in base alla frequenza, ordine crescente) Onde radio | Microonde | Radiazione terahertz | Infrarosso | Luce visibile | Ultravioletto | Raggi X | Raggi gamma Luce 6 Spettro delle onde radio ELF SLF ULF VLF LF MF HF VHF UHF SHF EHF 3 Hz 30 Hz 300 Hz 3 kHz 30 kHz 300 kHz 3 MHz 30 MHz 300 MHz 3 GHz 30 GHz 30 Hz 300 Hz 3 kHz 30 kHz 300 kHz 3 MHz 30 MHz 300 MHz 3 GHz 30 GHz 300 GHz Spettro visibile: Rosso | Arancione | Giallo | Verde | Ciano | Blu | Violetto ckb: کشیتmwl:Lhuç Colore Il colore è la percezione visiva generata dai segnali nervosi che i fotorecettori della retina mandano al cervello quando assorbono radiazioni elettromagnetiche di determinate lunghezze d'onda e intensità. Matite colorate, rappresentano alcuni colori Percezione del colore Spettro ottico (progettato per monitor con gamma 1.5). Colore 7 I colori dello spettro di luce visibile colore intervallo di lunghezza d'onda intervallo di frequenza rosso ~ 700–630 nm ~ 430–480 THz arancione ~ 630–590 nm ~ 480–510 THz giallo ~ 590–560 nm ~ 510–540 THz verde ~ 560–490 nm ~ 540–610 THz blu ~ 490–450 nm ~ 610–670 THz viola ~ 450–400 nm ~ 670–750 THz La formazione della percezione del colore avviene in tre fasi: 1. Nella prima fase un gruppo di fotoni (stimolo visivo) arriva all’occhio, attraversa cornea, umore acqueo, pupilla, cristallino, umore vitreo e raggiunge i fotorecettori della retina (bastoncelli e coni), dai quali viene assorbito. Come risultato dell’assorbimento, i fotorecettori generano (in un processo detto trasduzione) tre segnali nervosi, che sono segnali elettrici in modulazione di ampiezza. 2. La seconda fase avviene ancora a livello retinico e consiste nella elaborazione e compressione dei tre segnali nervosi, e termina con la creazione dei segnali opponenti, segnali elettrici in modulazione di frequenza, e la loro trasmissione al cervello lungo il nervo ottico. 3. La terza fase consiste nell’interpretazione dei segnali opponenti da parte del cervello e nella percezione del colore. Prima fase Nella prima fase una sorgente luminosa emette un flusso di fotoni di diversa frequenza. Questo flusso di fotoni può: 1. arrivare direttamente all'occhio: 2. essere riflesso da un corpo che ne assorbe alcuni e ne riflette altri: 3. essere trasmesso da un corpo trasparente che ne assorbe alcuni e riflette altri. In ogni caso i fotoni che giungono all'occhio costituiscono lo stimolo di colore. Ogni singolo fotone attraversa la cornea, l'umore acqueo, la pupilla, il cristallino, l'umore vitreo e raggiunge uno dei fotorecettori della retina (un bastoncello, oppure un cono L, un cono M o un cono S) dal quale può essere o non essere assorbito. La probabilità che un tipo di fotorecettore assorba un fotone dipende dal tipo di fotorecettore e dalla frequenza del fotone. Come risultato dell'assorbimento ogni fotorecettore genera un segnale elettrico in modulazione di ampiezza, proporzionale al numeri di fotoni assorbiti. Gli esperimenti mostrano che i segnali generati dai tre coni L, M e S sono direttamente collegati con la sensazione di colore, e sono detti segnali di tristimolo. Colore Seconda fase Nella seconda fase i segnali di tristimolo vengono elaborati e compressi con modalità non ancora completamente note. Questa elaborazione avviene nella altre cellule della retina (cellule orizzontali, bipolari e gangliari) e termina con la generazione di altri tre segnali elettrici, questa volta in modulazione di frequenza, che sono chiamati segnali opponenti e vengono trasmessi al cervello lungo il nervo ottico. Terza fase I segnali chimici opponenti che lungo i due nervi ottici (che sono costituiti dagli assoni delle cellule gangliari) raggiungono il cervello arrivano nei cosiddetti corpi genicolati laterali, che costituiscono una stazione intermedia per i segnali, che da qui vengono proiettati in apposite aree della corteccia visiva, dove nasce la percezione del colore. Terminologia del Colore Berlin e Kay studiarono il numero di nomi dedicati ai colori nelle diverse culture stabilendo che si può passare da un minimo di 2, chiaro e scuro ad un massimo di 11. Dimostrarono inoltre che man mano che si procede con la definizione di più colori lo sviluppo è omogeneo in tutte le culture, ad esempio dopo il chiaro e lo scuro si indica come colore il rosso, poi il verde e il giallo e così via fino a giungere all'arancione che è il colore definito in meno culture. La teoria dei due antropologi era che il numero di colori dipendesse dalla complessità della cultura, ma questa teoria venne criticata in quanto essi non consideravano che alla percezioni Variopinto mercato a Karachi. colore erano legate delle sensazioni emotive e quindi la percezione del colore è legata alla cultura stessa. Al termine si lega quindi una connotazione, un alone di significati a seconda del contesto. Inoltre alcuni colori non vengono definiti se non associandoli al colore di un elemento naturale (es. "verde" diviene "foglia") così come accade quando noi definiamo un rosso come "ruggine". Nella cultura orientale "i colori sono inebrianti, magnifici; ma le forme sono meschine e brutte, volutamente meschine e brutte, e cattive". La cultura occidentale precristiana era invece molto attenta alla forma e all'uso, ma poverissima di colore: in greco antico e in latino le poche parole che definiscono un colore si riferiscono in realtà al suo grado di opacità, oppure sono associate a un elemento naturale. Addirittura, le sculture e le pitture erano compiute con colori eccessivamente sgargianti ai nostri occhi, ma sotto-percepiti come normali dagli antichi greci. Solo con l'avvento del vangelo avviene l'integrazione della forma e del colore; tuttavia, vi sono zone, quali l'Europa settentrionale, in cui il cristianesimo si diffonde solo in forma idealistica, che mantengono perciò un forte squilibrio a favore della forma, determinato dal substrato germanico. 8 Colore 9 Contrasti cromatici I contrasti cromatici si producono tramite l'accostamento di due o più colori diversi tra loro. Contrasto tra colori puri Il contrasto tra colori puri si produce tramite l'accostamento di Colori primari. Contrasto tra colori complementari Il contrasto tra colori complementari si ottiene tramite l'accostamento di un colore primario e del colore risultante dall'unione degli altri due primari rimasti, tali contrasti sono: giallo-viola, rosso-verde, blu-arancione. Contrasto di quantità Ogni tinta presenta un diverso grado di luminosità, per cui se vogliamo creare un equilibrio percettivo è necessario stendere in modo molto proporzionale le varie zone di colore, ad esempio un colore molto luminoso dovrà occupare un'area minore rispetto a un colore con un minore grado di luminosità. Studio del colore Da quanto sopra si evince che lo studio del colore riguarda più discipline: • la fisica, in particolare l'ottica per tutto ciò che avviene all'esterno del sistema visivo • la fisiologia, per quanto riguarda il funzionamento dell'occhio e la generazione, elaborazione, codifica e trasmissione dei segnali nervosi dalla retina al cervello • la psicologia per quanto riguarda l'interpretazione dei segnali nervosi e la percezione del colore. Se ne interessò in particolare Kristian Birch-Reichenwald Aars filosofo e psicologo nervegese. ma coinvolge anche: • la psicofisica che studia la relazione tra lo stimolo e la risposta del sistema visivo (la colorimetria è una parte della psicofisica) • la matematica necessaria per lo sviluppo di modelli rappresentativi della visione del colore Voci correlate • • • • • • • • • • • • • • Associazione Internazionale del Colore Basic design Colori primari Colorimetria → CMYK Cromoforo Cromoterapia Lista dei colori → Luce Mescolanza additiva Mescolanza sottrattiva Metamerismo Pantone Rappresentazione dei colori • Sistema NCS • → Spazio dei colori Colore 10 • Stimolo di colore Bibliografia • G. Wyszecki, W.S. Stiles: Color Science: Concepts and Methods, Quantitative Data and Formulae Wiley 1982 (II ed.) • C. Oleari (a cura di): Misurare il colore Hoepli 1998 • R.W.G. Hunt: "Measuring Color" Fountain Press 1998 (III ed.) • G.A. Agoston: Color Theory and Its Application in Art and Design Springer 1987 (II ed.) • D.B. Judd, G. Wyszecki: Color in Business, Science, and Industry Wiley 1975 (III ed.) • M.D. Fairchild: Color Appearance Models Addison Wesley 1998 • CIE: International Lighting Vocabulary 1970 (III ed.) • J.W. von Goethe: ''"La teoria dei colori. Lineamenti di una teoria dei colori", a cura di Renato Troncon, Il Saggiatore 1981 Altri progetti • • Wikimedia Commons contiene file multimediali su colore Wikizionario contiene la voce di dizionario «colore» • Wikiquote contiene citazioni sul colore Collegamenti esterni • La psicologia dei colori [1] • Un dizionario dei sinonimi dei colori [2] • I principali schemi di colori [3] Note [1] http:/ / www. lucacoladarci. it/ colori. htm [2] http:/ / www. communities. hp. com/ online/ blogs/ mostly_color/ archive/ 2008/ 07/ 30/ un-dizionario-dei-sinonimi-dei-colori. aspx [3] http:/ / computer-acquisti. com/ blog/ gli-schemi-di-colori-cosa-sono-e-come-usarli/ Spazio dei colori Spazio dei colori Uno spazio dei colori è la combinazione di un modello di colore e di una appropriata funzione di mappatura di questo modello. Un modello di colore, infatti, è un modello matematico astratto che descrive un modo per rappresentare i colori come combinazioni di numeri, tipicamente come tre o quattro valori detti componenti colore. Tuttavia questo modello è una rappresentazione astratta, per questo viene perfezionato da specifiche regole adatte all'utilizzo che se ne andrà a fare, creando uno spazio dei colori. Così, ad esempio, spazi di colore come Adobe RGB e sRGB sono diversi, pur basandosi entrambi sullo stesso modello di colore → RGB. Lo spazio dei colori dell'Osservatore standard Nel 1931 la Commission Internationale de l'Eclairage (Commissione Internazionale per l'Illuminazione) definì uno spazio di colore che comprendeva tutte le tinte visibili dall'occhio umano, a prescindere dalla luminanza. Infatti qualunque colore all'interno di questo spazio bidimensionale può avere una luminanza che varia dal bianco al nero e se si tiene conto anche di questo fattore (la luminanza) lo spazio così definito diviene tridimensionale e rappresentato mediante coordinate XYZ. Il modello CIE 1931 si basa, come altre codifiche note, sull'utilizzo di tre → colori primari che, opportunamente miscelati tra loro in sintesi additiva, permettevano di ottenere tutti i colori che l'occhio umano può percepire. La commissione CIE ha comunque definito diversi modelli matematici di percezione del colore indicati come spazi di colore e rappresentati da sigle come XYZ (è il modello CIE 1931), xyY, Lab, Luv. A differenza, però, dei metodi → RGB o → CMYK (usati rispettivamente in sintesi additiva e in sottrattiva), il diagramma di cromaticità proposto dalla CIE non dipendeva dal comportamento di questo o quel dispositivo di visualizzazione o stampa in quanto basato sul concetto di Osservatore Standard. Quest'ultimo è definito a partire dalle proprietà del sistema visivo dell'uomo e si basa su analisi sistematiche effettuate su un vasto campione di osservatori umani. E in base a numerosi studi effettuati nel primo dopoguerra fu notata l'impossibilità di riuscire a riprodurre per sintesi additiva tutti i colori comunque si scegliesse la terna di primari reali da miscelare. Poiché può rappresentare tutte le tinte percepibili, lo spazio di colore del CIE è preso come riferimento per tutti gli altri, tuttavia nella pratica non viene molto usato a causa della sua complessità. 11 Spazio dei colori Primari immaginari Solo aggiungendo un colore primario alla tinta da codificare era possibile individuare una terna cromatica che la riproducesse fedelmente: fu ipotizzato così che la risposta dei fotorecettori retinici umani (i coni) avesse un andamento negativo per alcune frequenze dello spettro visibile. I primari scelti dalla CIE per generare tutti i colori visibili sono tinte ipersature: colori (in realtà, non essendo visibili, non dovrebbero essere indicati come tali) più saturi di quanto i nostri fotorecettori retinici siano in grado di decifrare. I tre "primari immaginari", con notevole sforzo di fantasia, sono stati denominati X, Y, e Z. X corrisponde a un rosso violaceo ipersaturo Esempio di uno spazio dei colori contraddistinto da due picchi nello spettro cromatico rispettivamente intorno ai 450 nm e ai 600 nm (quest'ultimo molto superiore al primo), Y e Z corrispondono a tinte spettrali - sempre irrealisticamente ipersature - con lunghezza d'onda dominante rispettivamente di 520 e 477 nanometri. Inoltre la tinta Y (quella corrispondente al "verde ipersaturo") ha un andamento proporzionale alla nostra sensibilità alla luminosità delle tinte. Scelti i tre primari tramite i quali è possibile ottenere, per sintesi additiva, qualsiasi tinta reale è possibile a questo punto utilizzare uno spazio tridimensionale, avente per assi i tre primari utilizzati, per catalogarle tutte. Per non ricorrere ad un diagramma tridimensionale è possibile normalizzare le tinte facendo in modo che la loro somma sia sempre pari ad uno. Se X, Y, e Z sono i tre valori che identificano un colore, X+Y+Z la loro somma, e noi poniamo: x = X/(X+Y+Z) y = Y/(X+Y+Z) z = Z/(X+Y+Z) risulta, con semplici passaggi algebrici e stando attenti a minuscole e maiuscole, che x+y+z è sempre uguale ad 1 per qualsiasi valore originario di X, Y e Z. Da questo si ricava tra l'altro che: z = 1-x-y ed è dunque possibile utilizzare due sole coordinate cromatiche (x e y, ad esempio) per identificare un colore essendo la terza (z, in questo caso) ricavabile sottraendo all'unità le altre due. Il vantaggio è evidente: normalizzando i colori col meccanismo della somma costante (uguale a 1) è possibile utilizzare un grafico bidimensionale per catalogare qualitativamente (e non quantitativamente) tutte le tinte reali. Ovvero si tracciano tutti i colori possibili ed immaginabili la cui intensità totale è costante e pari ad uno: tutte le altre tinte sono ottenute semplicemente indicando, oltre ai valori x e y (il valore z si ottiene, come detto, dagli altri due) il suo grado di luminosità espresso, volendo, in forma percentuale. 12 Spazio dei colori Colori reali e irreali Tutti i colori (reali e irreali) generabili con i primari x e y giacciono su un triangolo rettangolo avente come vertici l'origine (0,0) il punto massimo di x e minimo di y (1,0) e il punto massimo di y e minimo di x (0,1). All'interno di questo triangolo rettangolo è tracciato il diagramma CIE dei colori reali: una campana che racchiude tutte le tinte possibili. Al di fuori della campana (ma sempre all'interno del triangolo) ci sono tutti i colori non visibili o non distinguibili da quelli presenti lungo il perimetro esterno. Il diagramma CIE gode, proprio per il modo in cui è stato generato, di alcune importanti caratteristiche che andiamo ora ad illustrare maggiormente in dettaglio. Più o meno al centro del diagramma Lo spazio dei colori CIE 1931 CIE è presente un punto (un colore), come si vedrà tra breve, di importanza strategica, indicato con la lettera "C". È il cosiddetto "Illuminante CIE", assunto come riferimento e corrispondente alla radiazione emessa da una superficie bianca illuminata da luce diurna media. Lungo il perimetro curvo della campana si trovano tutte le tinte spettrali alla loro massima saturazione. Nella parte alta del diagramma vivono le famiglie dei verdi; in basso a sinistra i blu, in basso a destra i rossi. Sul segmento rettilineo che congiunge i due vertici inferiori della campana si trovano i colori non spettrali (o porpore) alla loro massima saturazione. Tutti i colori non spettrali, dalla saturazione via via decrescente, sono situati nel triangolo delimitato in basso dal segmento delle porpore e avente come vertice il punto C. Colori spettrali Lo stesso vale per i colori spettrali, situati nella rimanente parte del diagramma: man mano che ci si avvicina all'illuminante C i colori sono sempre meno saturi. Per come è costruito il diagramma, prendendo due tinte qualsiasi, il segmento che le unisce rappresenta tutte le possibili mescolanze additive dei due colori prescelti. Non solo: la posizione relativa lungo il segmento di congiunzione rappresenta la percentuale di mescolanza delle tinte. Così nel baricentro del segmento è possibile trovare la tinta esattamente formata dal 50% del primo colore e dal 50% del secondo colore. Spostandosi ad esempio ai "tre quarti" del segmento, la tinta individuata corrisponde alla somma del 75% del primo colore e del 25% del secondo colore e così via. Lo stesso discorso vale per la sintesi additiva di tre o più componenti cromatiche: le tinte ottenibili dalla loro mescolanza sono tutte quelle delimitate dal poligono convesso che ha come vertici i punti del diagramma che corrispondono ai colori utilizzati. Tornando al caso di due sole tinte, se il segmento che le unisce passa per il punto C i colori presi in considerazione sono tra loro complementari. Se il punto C "cade" nel baricentro del segmento, le due tinte hanno la medesima saturazione (è uguale la loro distanza dall'illuminante CIE) e sommandole tra di loro si ottiene il colore bianco. 13 Spazio dei colori Mescolanze sottrattive Il diagramma di cromaticità CIE può essere utilizzato, prendendo le dovute precauzioni, anche per le mescolanze sottrattive (come avviene per la stampa). I colori ottenuti dalla mescolanza sottrattiva di due tinte non giacciono sul segmento rettilineo che li unisce ma lungo un segmento curvilineo del quale non è nota a priori la forma esatta. Per tracciare la curva (il luogo dei punti corrispondenti ai colori ottenibili dalla sintesi sottrattiva dei due colori) è necessario "campionare" alcune mescolanze tipiche (ad esempio 10%-90%, 20%-80%, 30%-70%, ecc. ecc.) ed interpolare così l'andamento complessivo. Da segnalare due cose interessanti. Innanzitutto, proprio per la forma a campana di quest'ultimo, comunque scegliamo i tre primari all'interno dei colori reali non riusciremo mai a riprodurre con essi tutte le tinte ma ne escluderemo sempre una certa quantità. Dunque si può dire che non esistono monitor RGB in grado di riprodurre tutto il riproducibile o scanner a colori altrettanto sensibili. La seconda considerazione riguarda lo spazio cromatico della stampa a colori, ridotto rispetto allo spazio RGB ma leggermente più accurato per quel che riguarda la stampa delle tinte azzurro ciano. Se un colore appartiene al perimetro esterno è, come già detto, al suo massimo grado di purezza, se cade all'interno del diagramma ha come saturazione la distanza relativa la tinta e il punto C, misurata lungo il segmento passante per il colore e congiungente il bianco col bordo esterno. Il punto in cui il prolungamento del segmento incontra il perimetro identifica la lunghezza d'onda dominante della tinta considerata. Altri spazi di colore • Basati sul modello → RGB: • Adobe RGB • sRGB • ISO RGB e Extended ISO RGB • Apple RGB • Studiati per la televisione • Y'UV, utilizzato per PAL e recentemente per NTSC • YIQ, storicamente utilizzato per NTSC • YDbDr, utilizzato per il SECAM • Studiato per la stampa • → CMYK • HSV • HSL Voci correlate • ColorSync • Colorimetria 14 Temperatura di colore Temperatura di colore Temperatura di → colore è un termine usato in illuminotecnica per quantificare la tonalità della → luce, che si misura in kelvin. Definizione Il termine deriva dal fatto che lo spettro luminoso emesso da un corpo nero presenta un picco di emissione determinato in base alla legge di Wien esclusivamente dalla sua temperatura. Una sorgente reale differisce da un corpo nero ideale ma l'analogia rimane valida. Una temperatura bassa (sempre però nell'incandescenza, intorno ai 2000 K) corrisponde ad un colore giallo-arancio. Scendendo si passa al rosso ed all'infrarosso, non più visibile, mentre salendo di temperatura la luce si fa dapprima più bianca, quindi azzurra, violetta ed ultravioletta. Quando comunemente si dice che una luce è calda, in realtà questa corrisponde ad una temperatura di colore bassa, viceversa un temperatura maggiore produce una luce definita comunemente fredda. Si noti che ha senso parlare di temperatura di colore solo se la sorgente di luce emette uno spettro di energia continuo. Questo non si verifica però per tutte le sorgenti luminose. Determinazione Un corpo solido riscaldato all'incandescenza emette prevalentemente nella gamma della luce visibile, ma la lunghezza d'onda del picco di emissione varia al variare della temperatura. Nelle normali lampade ad incandescenza la lunghezza d'onda è spostata verso valori maggiori e la luce prodotta, intorno ad un valore di 2800 K presenta una componente gialla. Nelle lampade alogene si riesce ad aumentare la temperatura del filamento ottenendo una luce più bianca, intorno ad un valore di 3200 K. Nelle lampade a scarica il colore è determinato dallo spettro di emissione del gas alla pressione a cui si trova. Nelle lampade fluorescenti , che sono anch'esse lampade a scarica ma che producono luce attraverso un procedimento elettrochimico diverso, dove cioè la vera e propria scarica elettrica provoca l'eccitazione, e perciò la luminescenza, delle polveri fluorescenti depositate uniformemente all'interno della lampada stessa, la tonalità della luce dipende dalla scelta del materiale fluorescente utilizzato (per questo si possono avere lampade a fluorescenza di colori differenti. Si noti che il fenomeno della fluorescenza differisce da quello della fosforescenza, in quanto nel primo caso, al cessare dell'eccitazione causante la luminescenza, l'emissione di luce è pressoché istantanea, nel secondo caso può durare a lungo. Ricordiamo, inoltre, che le lampade appartenenti alla categoria delle fluorescenti non ha nulla a che fare con le lampade al neon, usate in prevalenza per le insegne commerciali . Spesso sono riportate le temperature di → colore del bianco dei monitor per PC, siano essi di tipo CRT, LCD o al plasma, ma questa temperatura, in realtà, non avrebbe senso, in quanto tale bianco è prodotto per metamerismo dalla somma dei colori fondamentali (Red, Green e Blue) prodotti dai diversi fosfori. 15 Temperatura di colore 16 Esempi Qui di seguito sono riportate le temperature di colore di alcune sorgenti di luce comuni: • • • • • Luce solare a mezzogiorno: 5 400 K Luce del cielo: da 10 000 a 18 000 K Lampada Photoflood da 500 W per uso fotografico: 3 400 K Lampada da 100 W per uso generale: 2 900 K Lampada da 40 W per uso generale: 2 650 K Voci correlate • Metamerismo RGB RGB è il nome di un modello di colori le cui specifiche sono state descritte nel 1931 dalla CIE (Commission internationale de l'éclairage). Tale modello di colori è di tipo additivo e si basa sui tre colori rosso (Red), verde (Green) e blu (Blue), da cui appunto il nome RGB, da non confondere con i colori primari sottrattivi giallo, ciano e magenta (popolarmente chiamati anche giallo, rosso e blu). Un'immagine può infatti essere scomposta, attraverso filtri o altre tecniche, in questi colori base che, miscelati tra loro, danno quasi tutto lo spettro dei colori visibili, con l'eccezione delle porpore. Più specificamente i 3 colori principali corrispondo a forme d'onda (radiazioni luminose) di periodo fissato. A una lunghezza d'onda di 700 nm corrisponde il rosso, a 546.1 nm il verde, a 455.8 nm il blu. Miscelazione additiva L'RGB è un modello additivo: unendo i tre colori con la loro intensità massima si ottiene il bianco (tutta la luce viene riflessa). La combinazione delle coppie di colori dà il cìano, il magenta e il giallo. Per poter trasferire un'immagine video è necessario inviare anche un segnale di sincronismo che fornisca le informazioni su quando inizia un'immagine (sincronismo verticale) Tricromia additiva RGB di un'immagine reale e su quando inizia una riga dell'immagine (sincronismo orizzontale). Questi due sincronismi possono essere combinati in un unico sincronismo (sincronismo composito) RGB 17 Principi fisici per la scelta del rosso, verde e blu La scelta dei colori primari è correlata alla fisiologia dell'occhio umano; buoni primari sono stimoli che massimizzano la differenza tra le risposte delle cellule cono della retina alle differenze di lunghezza d'onda della luce, cioè hanno un triangolo di colore esteso.[1] I tre tipi normali di cellule fotorecettive sensibili alla luce nell'occhio umano (le cellule cono) rispondono più alla luce gialla (lunghezza d'onda lunga), verde (media), e viola (corta), con picchi vicini ai 570 nm, 540 nm e 440 nm, rispettivamente[1] . La differenza nei segnali ricevuti dai tre tipi permette al cervello di differenziare un largo gamut di colori diversi, essendo più sensibile soprattutto alla luce verde-giallognola e alle differenze di tonalità nella regione verde-arancione. L'uso dei tre colori primari non è sufficiente a riprodurre tutti i colori; solo i colori entro il triangolo dei colori definito dalla cromaticità dei primari può essere riprodotto tramite sintesi additiva di quantità non negative di tali colori.[1] RGsB Quando su un'interfaccia video si trasmette il colore RGB con tre canali solamente il sincronismo composito viene posto sul verde (G). Questa modalità si chiama RGsB. RGBS Quando su un'interfaccia video si trasmette il colore RGB con quattro canali, il quarto è utilizzato per il sincronismo composito. Questa modalità si chiama RGBS utilizzata ad esempio su un'interfaccia SCART. RGBHV Quando su un'interfaccia video si trasmette il colore RGB con cinque canali, il quarto è utilizzato per il sincronismo orizzontale (H) e il quinto per il sincronismo verticale (V). Questa modalità si chiama RGBHV utilizzata ad esempio su un'interfaccia Video Graphics Array o → Digital Visual Interface. Voci correlate • • • • • • Colorimetria → CMYK Sintesi additiva Sintesi sottrattiva YUV RGBA RGB 18 Collegamenti esterni • [2] (pagina che consente di sperimentare l'effetto della sovrapposizione dei colori base, visualizzando l'effetto della sintesi additiva e della sintesi sottrattiva) Note [1] R. W. G. Hunt, The Reproduction of Colour, 6th ed., Chichester UK, Wiley – IS&T Series in Imaging Science and Technology, 2004. ISBN 0-470-02425-9 [2] http:/ / ww2. unime. it/ dipart/ i_fismed/ wbt/ ita/ colors/ colors_ita. htm CMYK CMYK è l'acronimo per Cyan, Magenta, Yellow, BlacK; è un modello di colore detto anche di quattricromia o quadricromia. La scelta della lettera K per il nero, anziché la lettera B iniziale nella traduzione inglese, è stata fatta per evitare confusioni con l'iniziale del colore Blue ed è dovuta al fatto che, nella stampa, si usa un procedimento di separazione dei colori per produrre tante diverse immagini quanti sono gli inchiostri usati. Nella quadricromia CMYK l'immagine corrispondente al nero è quella che contiene più dettagli e la lastra di stampa corrispondente è quindi normalmente considerata la lastra chiave, in inglese key plate. Da qui l'uso di K, con riferimento a tale lastra, per indicare il nero. Quadricromia CMYK CMYK 19 I colori ottenibili con la quadricromia (sintesi sottrattiva) sono un sottoinsieme della gamma visibile, quindi non tutti i colori che vediamo possono essere realizzati con la quadricromia, così come non tutti i colori realizzati con l'insieme → RGB (RED GREEN BLUE) cioè quelli che vediamo sui nostri monitor (sintesi additiva) hanno un corrispondente nell'insieme CMYK. Quando sono sovrapposti nelle diverse percentuali, i primi tre possono dare origine quasi a qualunque altro → colore. Il 100% di tutte e tre le componenti (CMYK 100,100,100,0) non genera solitamente il nero, bensì il bistro, colore simile a una tonalità di marrone molto scura, tuttavia alcune stampanti inkjet fotografiche (es.: Hp Photosmart) lavorano esclusivamente in tricromia (Cyan, Magenta, Giallo) anche per l'ottenimento del nero. Perciò nei Miscelazione sottrattiva processi di stampa si è aggiunto l'inchiostro di un quarto colore per avere il nero pieno (CMYK 0,0,0,100) risparmiando sulle componenti degli altri tre inchiostri (v. Gray Component Replacement (GCR) e Under Color Removal (UCR)) Voci correlate • • • • • • Colorimetria → RGB Sintesi additiva Sintesi sottrattiva Oleografia Stampa offset Hue Saturation Brightness 20 Hue Saturation Brightness HSB, è l'acronimo di Hue Saturation Brightness (tonalità, saturazione e luminosità) e indica sia un metodo additivo di composizione dei → colori che un modo per rappresentarli in un sistema digitale. Viene anche chiamato HSV, Hue Saturation Value (tonalità, saturazione e valore), o HSI, Hue Saturation Intensity (tonalità, saturazione ed intesità). Per saturazione si intende l'intensità e la purezza del colore, mentre la luminosità (valore) è un'indicazione della sua brillantezza. Ovviamente la tonalità indica il colore stesso. Il modello HSB è particolarmente orientato alla prospettiva umana, essendo basato sulla percezione che si ha di un colore in termini di tinta, sfumatura e tono. Il sistema di coordinate è cilindrico e il modello HSB è definito come un cono distorto all'interno del cilindro. La tonalità H viene misurata da un angolo intorno all'asse verticale, con il rosso a 0 gradi, il verde a 120 e il blu a 240. L'altezza del cono rappresenta la luminosità (B) con lo zero che rappresenta il nero e l'uno il bianco. La saturazione (S) invece va da zero, sull'asse del cono, a uno sulla superficie del cono. Descrizione grafica dello spazio colore HSV. Voci correlate • • • • Hue Saturation Lightness saturazione tonalità luminosità HSL visto come un doppio cono. Collegamenti esterni • Implementazione in C dell'algoritmo per convertire i colori da HSV a RGB e viceversa. [1] Note [1] http:/ / mamo139. altervista. org/ index. php?tipo=c& id=0 21 Grafica Digitale Grafica raster La grafica bitmap, o grafica raster (in inglese bitmap graphics, raster graphics), è una tecnica utilizzata in computer grafica per descrivere un'→ immagine. Un'immagine descritta con questo tipo di grafica è chiamata immagine bitmap o immagine raster. La grafica bitmap si contrappone alla grafica vettoriale. Significato del termine Il termine raster (= trama, reticolo, griglia) trae origine dalla tecnologia televisiva analogica, ovvero dal termine che indica le righe orizzontali (dette anche scan line) dei televisori o dei monitor[1]). In computer grafica, indica la griglia ortogonale di punti che costituisce un'immagine raster. Nella → grafica raster l'immagine viene vista come una scacchiera e ad ogni elemento della scacchiera, chiamato → pixel, viene associato uno specifico colore. Il colore può essere definito con due tecniche: • se l'immagine contiene pochi colori (massimo 256) si crea un elenco dei colori da utilizzare e nella scacchiera viene inserito l'indice che punta allo specifico colore del pixel; • nel caso si vogliano utilizzare molti più colori il singolo pixel non definisce più l'indice a una tavolozza di colori ma definisce il colore direttamente. Il colore viene definito come un'unione delle componenti blu, rossa e verde. Questo non è l'unico modo di definire un colore, esistono molti modi che vengono chiamati → spazi di colore ma nel caso delle immagini generate al computer il sistema → RGB (RED Rosso, GREEN verde BLUE Blu) è il più diffuso dato che le schede grafiche lo utilizzano nativamente per generare il segnale da visualizzare con il monitor. Proprietà della grafica raster La bitmap è caratterizzata da due proprietà: • risoluzione; • profondità di colore. La prima è determinata dal numero di pixel contenuti nell'unità di misura considerata (in genere il pollice inglese, che misura 2,54 cm) ed è ottenuta moltiplicando il numero di pixel orizzontali per quello dei pixel verticali; si misura in PPI (Points Per Inch). La seconda è definita dalla memoria che si dedica ad ogni pixel, ovvero dal numero di bit dedicati ad ogni pixel per descrivere il colore, e si misura in BPP (Bit Per Pixel); maggiore è il numero di bit, maggiore è il numero di colori che è possibile descrivere. La grafica bitmap non è vantaggiosa se l'utente necessita di apportare modifiche all'immagine, perché nel caso ad esempio di uno zoom, la risoluzione diventa bassissima e quindi la qualità dell'immagine peggiora notevolmente. I software grafici, per ridurre il problema, sono in grado di ripristinare la risoluzione inserendo nuovi pixel che vengono calcolati facendo una interpolazione di punti, il processo inserisce, perciò, deliberatamente una quantità di informazioni presunte. Grafica raster La grafica bitmap è invece ideale per rappresentare immagini della realtà, per modificare contrasti e luminosità di queste, per applicare filtri di colore. Formati di immagini raster I dati raster possono essere memorizzati attraverso tipologie di file che sfruttando algoritmi di compressione diversi, gravando in modo differente sul supporto di memorizzazione. I formati raster più comuni sono i seguenti: Non compressi Questi formati di file hanno richieste di elaborazione minima, non essendo necessari algoritmi di compressione (in fase di scrittura) e decompressione (in fase di lettura), tuttavia, mancando di compressione, risultano particolarmente voluminosi, in termini di spazio occupato su disco (o altro dispositivo di memorizzazione), rispetto agli altri formati: • raw • bmp (in alcuni casi i file bmp sono compressi con un algoritmo RLE) Con compressione lossless Le immagini salvate con un algoritmo di → compressione dati lossless occupano meno spazio nei dispositivi di memorizzazione, mantenendo inalterata tutta l'informazione originale: • • • • → png (certe applicazioni permettono anche la scrittura di file png non compressi) tga tiff (sebbene questo sia l'uso più comune, questo formato permette diversi tipi di compressione) gif (per immagini fino a 256 colori) Con compressione lossy Le immagini memorizzate con un algoritmo di compressione → lossy, subiscono una perdita di informazione; pertanto questa tecnica non è adatta per salvare le immagini che vengono rielaborate coi programmi di fotoritocco (le continue modifiche comporterebbero un progressivo degrado dell'immagine ad ogni salvataggio e riapertura); invece, in virtù delle ridotte dimensioni del file, sono particolarmente indicate per la trasmissione di immagini o per ridurre le dimensioni di un'applicazione o di un prodotto da distribuire. • → jpeg • gif (per immagini con più di 256 colori si ottiene una compressione lossy poiché vengono eliminate la maggior parte delle sfumature di colore) Altre applicazioni Nel campo dei Sistemi informativi territoriali o GIS, il termine raster è usato per indicare la tipologia di dato impiegata nella rappresentazione cartografica digitale. Con i dati raster il territorio viene riprodotto attraverso una matrice di pixel di forma quadrata o rettangolare. A ciascun pixel è associato un attributo che definisce le caratteristiche dell'elemento rappresentato. Ad esempio in un modello digitale di elevazione a ciascun pixel è associato il valore della quota sul livello del mare in quel punto. La dimensione dei pixel è inversamente proporzionale alla precisione della carta. I dati raster possono essere implementati in un sistema GIS mediante acquisizione diretta con apparecchiature a lettura ottica quali ad esempio scanner d'immagini o attraverso l'elaborazione di dati, raster o vettoriali, già acquisiti. 22 Grafica raster 23 Voci correlate • Grafica vettoriale • → Immagine digitale • Rasterizzazione Note [1] http:/ / www. answers. com/ topic/ raster Pixel In computer grafica, con il termine pixel (contrazione della locuzione inglese picture element) si indica ciascuno degli elementi puntiformi che compongono la rappresentazione di una → immagine raster nella memoria di un computer. Solitamente i punti sono così piccoli e numerosi da non essere distinguibili ad occhio nudo, apparendo fusi in un'unica immagine quando vengono stampati su carta o visualizzati su un monitor. Ciascun pixel, che rappresenta il più piccolo elemento autonomo dell'immagine, è caratterizzato dalla propria posizione e da valori quali → colore e intensità, variabili in funzione del sistema di rappresentazione adottato. Ingrandimento di una versione precedente del logo di Wikipedia in cui sono evidenti i pixel che compongono l'immagine L'esempio qui a destra mostra un logo in grafica raster ingrandito in modo da evidenziare i singoli pixel. Si noti che in questo caso l'illusione di una immagine uniforme è resa più realistica mediante l'uso di sfumature di grigio sul bordo dei caratteri, evitando bruschi passaggi di colore (tale processo è detto di antialiasing). Aspetti tecnici Il numero di pixel in un'immagine (talvolta impropriamente detto "risoluzione" dell'immagine) determina la quantità di dettagli fini che possono essere rappresentati. Sebbene il concetto di pixel si applichi in tutti i contesti con il medesimo significato, per l'indicazione del numero di pixel da cui è costituita una immagine sono in uso diverse convenzioni per diverse tecnologie specifiche. Per esempio, il numero di pixel di cui è costituita l'immagine prodotta da una fotocamera digitale viene espresso come un singolo valore, in megapixel (milioni di pixel), mentre il numero di pixel di un display viene in genere espresso come un prodotto (pixel in altezza per pixel in larghezza), per esempio 640 × 480. I punti colorati che formano un'immagine digitale (come una → JPEG) vengono chiamati anch'essi pixel. Possono non essere in corrispondenza uno-a-uno con i pixel dello schermo. Nei casi in cui questa distinzione è importante, i punti del file possono essere chiamati texel. In informatica, un'immagine composta da pixel è conosciuta come immagine bitmap o → immagine raster. La parola raster trae origine dalla tecnologia della televisione analogica. Le immagini bitmap sono usate per codificare il → video digitale e per produrre arte generata da computer. Poiché la → risoluzione del monitor può essere regolata dal sistema operativo del computer, un pixel è una misura relativa. I moderni schermi per computer sono progettati con una risoluzione nativa, che si riferisce al perfetto accoppiamento tra pixel e triadi. La risoluzione nativa darà origine all'immagine più netta tra quelle che lo schermo è in grado di produrre. Comunque, l'utente può aggiustare la risoluzione, il che si ottiene disegnando ogni pixel usando più di una triade. Questo processo normalmente dà origine a una immagine sfuocata. Ad esempio, uno schermo con Pixel risoluzione nativa di 1280×1024 produrrà le migliori immagini se impostato a quella risoluzione, mostrerà la risoluzione a 800×600 in modo adeguato, disegnando ogni pixel con più di una triade, e non sarà in grado di mostrare immagini a 1600×1200 a causa della mancanza di un numero sufficiente di triadi. Normalmente, una risoluzione non nativa viene mostrata meglio su uno schermo CRT che su un LCD. I pixel possono essere sia quadrati che rettangolari. Un valore chiamato pixel aspect ratio, descrive le proporzioni di un pixel per la sua corretta visualizzazione. Ad esempio, un pixel aspect ratio di 1,25:1, significa che ogni pixel dev'essere visualizzato 1,25 volte più largo che alto perché quanto rappresentato sia proporzionato. I pixel sugli schermi dei computer sono in genere quadrati, ma i pixel utilizzati nel → video digitale hanno forma non quadrata, come nel D1 aspect ratio. Ogni pixel di un'immagine monocroma ha la sua luminosità. Un valore pari a zero di norma rappresenta il nero, mentre il valore massimo rappresenta il bianco. Ad esempio, in un'immagine a otto bit, il massimo valore senza segno che può essere immagazzinato è 255, così questo è il valore usato per il bianco. Nelle immagini a colori, ogni pixel ha la sua luminosità e colore, tipicamente rappresentate da una tripletta di intensità di rosso, verde e blu (vedi → RGB). I monitor a colori usano pixel composti da 3 sotto-pixel. Nelle immagini in scale di grigio i valori di accensione dei 3 subpixels è sempre uguale (ad esempio R=71, G=71, B=71). Il numero di colori distinti che possono essere rappresentati da un pixel dipende dal numero di bit per pixel (BPP). Valori comuni sono: • 8 bpp (256 colori) • 16 bpp (65.536 colori, noto come Highcolour) • 24 bpp (16.777.216 colori, noto come Truecolour). Immagini composte da 256 colori o meno, vengono normalmente immagazzinate nella memoria video del computer, in formato chunky o planar, dove un pixel in memoria è l'indice di una lista di colori chiamati palette (tavolozza). Queste modalità sono quindi chiamate modalità indicizzate. Mentre vengono mostrati solo 256 colori, questi sono presi da una tavolozza molto più ampia, tipicamente di 16 milioni di colori. Cambiare i valori della tavolozza permette una specie di effetto animato. Il logo animato di avvio di Windows 95 e Windows 98 è probabilmente il più noto esempio di questo tipo di animazione. Per profondità di colore più ampie di 8 bit, il numero è il totale dei tre componenti RGB (rosso, verde e blu). Una profondità di 16 bit viene di solito divisa in cinque bit di rosso e blu e sei di verde, (il verde ha più bit perché l'occhio e più sensibile a quel colore). Una profondità di 24 bit permette 8 bit per componente. Su alcuni sistemi è disponibile una profondità di 32 bit: questo significa che ogni pixel a 24 bit ha 8 bit extra per descrivere l'opacità. Sui sistemi più vecchi è comune il formato a 4 bpp (16 colori). Quando un file immagine viene mostrato a → video, il numero di bit per pixel viene espresso separatamente per il file raster e per lo schermo. Alcuni formati di file raster, hanno una grande profondità in bit rispetto ad altri. Il formato GIF, ad esempio, ha una profondità massima di 8 bit, mentre il TIFF può gestire pixel a 48-bit. Non ci sono monitor che possano rappresentare colori a 48 bit, e quindi questa profondità viene di solito usata per applicazioni professionali specializzate che lavorano con scanner d'immagini o stampanti. Questi file vengono "renderizzati" su schermo con 24-bit di profondità. Altri oggetti derivati dal pixel, come i voxel (elementi di volume), i texel (elementi di consistenza) e i surfel (elementi di superficie), sono stati creati per altri utilizzi della computer grafica. 24 Pixel Sotto-pixel Sugli schermi a cristalli liquidi e su quelli a tubo catodico, ogni pixel è costruito da tre sotto-pixel, ognuno per i tre colori, posti a distanza ravvicinata. Ogni singolo sotto-pixel è illuminato in base a un determinato valore, e a causa della loro prossimità, creano l'illusione ottica di un singolo pixel di un colore particolare. Una tecnica recente per aumentare la risoluzione apparente di un monitor a colori, chiamata sub-pixel font rendering, usa la conoscenza della geometria dei pixel per manipolare separatamente i tre sotto-pixel, il che sembra essere particolarmente efficace con gli schermi LCD impostati con risoluzione nativa. Questa è una forma di antialiasing, e viene usata principalmente per migliorare l'aspetto del testo. Il Cleartype di Microsoft, che è disponibile su Windows XP, ne è un esempio. Un altro esempio è la tecnologia Quartz utilizzata dal Mac OS X per l'interfaccia grafica. In questo caso l'intera interfaccia grafica utilizza questa tecnologia. Ciò rende l'interfaccia grafica più gradevole ma rende le singole linee meno definite e questo in alcuni casi può disturbare l'utente. Megapixel Un megapixel è 1 milione di pixel, e viene solitamente usato con riferimento alle macchine fotografiche digitali. Alcune macchine fotografiche digitali usano i CCD, che registrano i livelli di luminosità. Vecchie fotocamere digitali, che non usano i CCD Foveon X3 [1] hanno filtri colorati rossi, verdi e blu, in modo che ogni pixel possa registrare la luminosità di un singolo colore primario. Quindi, i pixel delle fotocamere digitali che non usano i CCD Foveon X3, sono simili a sotto-pixel. La fotocamera interpola l'informazione di colore per creare l'immagine finale. Quindi, un'immagine a 'x'-megapixel, proveniente da una fotocamera con 1/4 della risoluzione di colore della stessa immagine acquisita da uno scanner. La risoluzione dei dettagli non ne risente. Quindi, un'immagine di un oggetto blu o rosso (di solito ci sono più pixel verdi) tenderà ad apparire sfuocata, se confrontata con lo stesso oggetto in toni di grigio. È importante sapere che in numero di megapixel non è un diretto indice di qualità delle macchine fotografiche; è vero che un numero più elevato di pixel permette, in linea teorica, un maggior potere risolutivo, ma questo è spesso limitato dal sistema ottico utilizzato per convogliare l'immagine sul sensore. Se il potere risolutivo del complesso di lenti è inferiore al potere risolutivo della matrice di pixel allora non si avrà alcun guadagno nell'aumentare in numero di pixel, anzi si avrà un peggioramento delle prestazioni del sistema a causa del maggiore rumore elettronico introdotto. Gigapixel Un gigapixel corrisponde a 1 miliardo di pixel, e viene solitamente usato con riferimento alle schede grafiche (Pixel Fillrate). Pel Pel è un termine che viene usato di solito come abbreviazione di pixel, ma può anche riferirsi ai sub-pixels. Voci correlate • Dot pitch • Grafica vettoriale • Pixel art 25 Pixel 26 Altri progetti • Wikizionario contiene la voce di dizionario «pixel» Note [1] http:/ / www. foveon. com/ X3_tech. html Risoluzione (grafica) La risoluzione indica il grado di qualità di un'immagine. Generalmente si usa questo termine riguardo immagini digitali, ma anche una qualunque fotografia ha una certa risoluzione. Nelle immagini su computer, la risoluzione indica la densità dei → pixel, ovvero la quantità dei puntini elementari che formano l'immagine rapportata ad una dimensione lineare (ad esempio pixel/cm o pixel/pollice). Lo schermo di un computer non può mostrare linee o disegni, ma soltanto punti; se questi sono sufficientemente piccoli, tali da essere più piccoli della risoluzione percepita dall'occhio umano, l'osservatore ha l'impressione di vedere linee anziché punti allineati, e disegni anziché ammassi di puntini distinti. Misura della risoluzione La risoluzione, quindi, essendo una misura della densità dei pixel, si misura in punti per unità di lunghezza, di solito pollici (ppi, pixel per inch o dpi, dot per inch). Per alcuni dispositivi, la densità dei pixel è diversa nelle due dimensioni, come per gli scansionatori d'immagine, quindi occorre indicare sia la risoluzione orizzontale che quella verticale. Uno schermo per computer ha valori di risoluzione intorno ai 72 dpi. Le attuali stampanti casalinghe permettono di stampare immagini con risoluzioni di alcune centinaia di dpi. La risoluzione equivalente di una normale pellicola fotografica è di 3-4.000 dpi. Bassa risoluzione La distinzione tra alta risoluzione e bassa risoluzione ha assunto anche rilevanza giuridica perché la legge 9 gennaio 2008, n. 2, integrando l'articolo 70 della legge n. 633/41 sul diritto d'autore, ha previsto per i siti non lucrativi, la possibilità di riprodurre immagini per fini didattici o scientifici. Manca tuttavia una più esatta definizione di che cosa debba intendersi per bassa risoluzione, che evidentemente deve essere ricavata da norme di buona tecnica. Modifica della risoluzione La risoluzione con la quale è stata digitalizzata un'immagine si può modificare anche a posteriori con un processo di interpolazione, ma questo non comporta un miglioramento della qualità dell'immagine stessa; quindi, al momento dell'acquisizione, occorre prestare attenzione ad avere un'immagine con risoluzione sufficiente per lo scopo dell'immagine stessa. Voci correlate • Telescopio Risoluzioni standard Risoluzioni standard Le risoluzioni standard o modalità video sono combinazioni di parametri utilizzate dall'industria elettronica per definire l'interfaccia video di un computer. Tali parametri di solito sono la risoluzione dei display (specificata dalla larghezza e altezza in → pixel), la profondità di colore (espressa in bit) e la velocità di refresh (refresh rate, espressa in hertz). Storia Le risoluzioni standard utilizzate nei PC in questi anni (fine del XX secolo e inizi XXI secolo) si sono evolute moltissimo: si va dai semplici frame Comparazione delle risoluzioni standard. La colorazione blu, rossa, gialla verde e viola indica il display aspect ratio (DAR) buffer dei primi anni, caratterizzati solo da risoluzione video e refresh rate, fino ai moderni sistemi dotati di un insieme molto più ampio di comandi e funzioni pilotabili via software. L'evoluzione dell'informatica e dell'elettronica ha modificato nel tempo l'interfaccia di interazione tra computer ed operatore. Se fino alla metà negli anni '70, era la normalità l'uso delle schede perforate e di pannelli a spie luminose per leggere i risultati dei calcoli, divenne poi possibile interagire con gli elaboratori attraverso videoterminali a carattere. L'evoluzione successiva ha portato alla nascita di numerosi standard grafici che introdussero linee e curve e successivamente i colori. La continua evoluzione dell'elettronica e della tecnologia di visualizzazione aumenta sempre più la definizione, la superficie visualizzabile e le dimensioni stesse degli schermi. Fino al 2003, la maggior parte dei monitor aveva un Aspect ratio di 4:3 e qualcuno di 5:4. Dal 2003 al 2006 si sono resi disponibili vari monitor con un rapporto di risoluzione di 16:10, inizialmente sui laptop e successivamente sui monitor per PC. Questo cambiamento è dovuto sia al fatto che con questo rapporto si vedono meglio film e giochi ma soprattutto le attività di videoscrittura ne hanno tratto beneficio potendo visualizzare due pagine A4 affiancate, così come anche il CAD che ha potuto sfruttare lo spazio in più per la visualizzazione dei menù a fianco del disegno grafico. La Video Electronics Standards Association (VESA) ha definito diversi standard video mentre quelli ergonomici sono definiti dal TCO. 27 Risoluzioni standard 28 Principali risoluzioni utilizzate in informatica Nella tabella, qui sotto riportata, troviamo le risoluzioni video più comuni nei PC che si sono evoluti dall'originale IBM PC, più alcune che sono supportate da altri tipi di computer come ad esempio gli Apple Macintosh. La Video Electronics Standards Association (VESA) ha curato le specifiche di molti di questi standard. Tabella delle risoluzioni standard dei display Standard Video Nome completo Descrizione risoluzione del display (→ pixel) Aspect ratio profondità del colore (bpp) Interfaccia video MDA Monochrome Display Adapter Lo standard originale sugli IBM PC e IBM PC XT con 4 KB di video RAM. Introdotto nel 1981 dall'IBM. Supporta unicamente la modalità testuale. 720×350 (text) 72:35 1 bpp MDA CGA Color Graphics Adapter Introdotto nel 1981 by IBM è il primo standard video a 640×200 colori per gli IBM PC. Le schede grafiche CGA erano (128k) dotate di 16 KB video RAM. 320×200 (64k) 160×200 (32k) 16:5 16:10 4:5 1 bpp 2 bpp 4 bpp CGA Una modalità video monocromatica con un'ottima visualizzazione del testo e della grafica per l'epoca in cui fu introdotta (1982). Divenne molto popolare abbinata al software di foglio elettronico Lotus 1-2-3 che è stato una delle prime killer application. 720×348 (250.5k) 60:29 1 bpp MDA Introdotta da IBM nel 1984 con una risoluzione di 640 × 350 pixel su 16 colori (4 bit per pixel, o bpp), selezionabili fra 64 colori di base (palette) (2 bit per ciascuna componente rossa-verde-blu). 640×350 (224k) 64:35 4 bpp EGA Introdotta nel 1984 per il PC-bus ISA a 8 bit, aveva a bordo un acceleratore hardware 2D e 3D ed era stata pensata per applicazioni CAD 640×480 (307k) 4:3 8 bpp PGC Introdotta nel 1987 per gli IBM Personal System/2 (PS/2) con un costo ridotto rispetta alla VGA. MCGA ha una risoluzione di 320x200 pixel con 256 color (da una palette di 262,144 colori, e una risoluzione di 640x480 unicamente in bianco e nero in quanto la video ram era di soli 64k mentre quella della VGA era di 256k. 320×200 (64k) 640×480 (307k) 16:10 4:3 8 bpp 1 bpp VGA Standard Modalità video di IBM introdotta nel 1987 praticamente assieme alla VGA. Era caratterizzata dalla risoluzione 1024x768 (precursore di XGA) ma aveva un video interlacciato a 43.5 Hz. 1024×768 (786k) 4:3 8 bpp VGA Interlacciato Hercules EGA Enhanced Graphics Adapter Professional Graphics Controller MCGA Multi-Color Graphics Array 8514 VGA Video Graphics Array Introdotta nel 1987 da IBM. Oggi per VGA si intende la risoluzione 640x480 a 16 colori ma VGA è un insieme di risoluzioni che comprendono anche 320x200 a 256 colori e 720x400 in modalità testo. I display VGA e le schede video VGA sono generalmente in grado di operare in modalità grafica Mode X, una modalità non documentata per aumentare le prestazioni, utilizzata in, particolare, dai giochi. 640×480 (307k) 640×350 (224k) 320×200 (64k) 720×400 (text) 4:3 64:35 16:10 9:5 4 bpp 4 bpp 4/8 bpp 4 bpp VGA Standard SVGA Super VGA Uno standard video introdotto nel 1989 dalla Video Electronics Standards Association (VESA) per il mercato dei PC IBM compatibili. 800×600 (480k) 4:3 4 bpp VESA VGA Risoluzioni standard 29 XGA Extended Graphics Array Introdotto da IBM nel 1990. XGA-2 ha poi aggiunto un supporto per più colori e ad un maggiore refresh rate e il supporto della risoluzione 1360 × 1024 a 16 colori (4 bit per pixel). 1024×768 (786k) 640×480 (307k) 4:3 4:3 8 bpp 16 bpp VESA VGA XGA+ Extended Graphics Array Plus Nome non ufficiale per riferirsi alla risoluzione di 1152 x 864, che è la risoluzione 4:3 più ampia sotto il milione di pixel. Apple Computer ha impiegato una variante di questa risoluzione a 1152x870 e Sun Microsystems a 1152x900. 1152×864 (786k) 640×480 (307k) 4:3 4:3 8 bpp 16 bpp VESA VGA QVGA Quarter VGA Un quarto della risoluzione VGA 320×240 (75k) 4:3 Non definita WQVGA Wide Quarter VGA Risoluzione orizzontalmente ampia come la VGA ma con circa la metà delle linee 480×272 (126k) 16:9 Non definita HQVGA Half QVGA Un ottavo della risoluzione VGA 240×160 (38k) 3:2 Non definita QQVGA Quarter QVGA Un sedicesimo della risoluzione VGA 160×120 (19k) 4:3 Non definita WXGA Widescreen Extended Graphics Array Una variante dello standard XGA con un Aspect ratio 16:9 o 16:10 che si è molto diffuso sui notebook più recenti (2008). 1280×720 (922k) 1280×800 (1024k) 1440×900 (1296k) 16:9 or 16:10 32 bpp VESA VGA SXGA Super XGA Una modalità de facto ampiamente utilizzata con 32 bit 1280×1024 Truecolor, con un particolare aspect ratio di 5:4 invece (1310k) del più comune 4:3 che comporta una leggera distorsione delle immagini in formato 4:3. Questa modalità è utilizzata sulla maggior parte dei display LCD da 17". 5:4 32 bpp VESA VGA 16:10 32 bpp VESA VGA 4:3 32 bpp VESA VGA • Alcuni produttori hanno chiamato questa modalità Extended Video Graphics Array or XVGA in considerazione che VGA è la risoluzione standard. WXGA+ Widescreen Extended Graphics Array PLUS Variante del formato WXGA molto utilizzata sugli ultimi (2008) portatili e sui monitor 19" caratterizzate da un rapporto di risoluzione 16:10. SXGA+ Super Extended Graphics Array Plus Molto frequente su laptop con display da 14" e 15" e su 1400×1050 videoproiettori DLP. (1470k) WSXGA+ UXGA WUXGA QXGA 1440×900 (1296k) Widescreen Super molto frequente su Monitor Widescreen da 19" 21" e Extended 22" e su laptop con display 15.4" e 17. Graphics Array Plus 1680×1050 (1764k) 16:10 32 bpp VESA VGA Ultra XGA Una risoluzione standard de facto Truecolor. 1600×1200 (1920k) 4:3 32 bpp VESA VGA Widescreen Ultra Extended Graphics Array Una versione wide di UXGA molto utilizzato nei notebook di fascia alta con display da 15,4" o 17" 1920×1200 (2304k) 16:10 32 bpp DVI Single Link Quad Extended Graphics Array Quattro volte la risoluzione XGA 2048×1536 (3146k) 4:3 32 bpp DVI Dual Link Risoluzioni standard WQXGA Widescreen Quad Extended Graphics Array QSXGA WQSXGA QUXGA WQUXGA 30 Modalità video apparsa per la prima volta su Apple Cinema 30" e divenuta standard su monitor da 30", richiede connessioni → DVI o → HDMI dual link. 2560×1600 (4096k) 16:10 32 bpp DVI Dual Link Quad Super Extended Graphics Array 2560×2048 (5243k) 5:4 32 bpp DisplayPort 1.1 4-Lane Wide Quad Super Extended Graphics Array 3200×2048 (6554k) 25:16 32 bpp Non ancora supportata Quad Ultra Extended Graphics Array Quattro volte la risoluzione UXGA. Richiede più connessioni → DVI (4 single link o 2 dual link). In futuro sarà supportata da una singola connessione DisplayPort. 3200×2400 (7680k) 4:3 32 bpp Non ancora supportata Wide Quad Ultra Extended Graphics Array Utilizzata dai monitor IBM T220/T221 LCD non più disponibili sul mercato. 3840×2400 (9216k) 16:10 32 bpp Non ancora supportata HXGA Hexadecatuple Extended Graphics Array 4096×3072 (12583k) 4:3 32 bpp Non ancora supportata WHXGA Wide Hexadecatuple Extended Graphics Array 5120×3200 (16384k) 16:10 32 bpp Non ancora supportata HSXGA Hexadecatuple Super Extended Graphics Array 5120×4096 (20972k) 5:4 32 bpp Non ancora supportata WHSXGA Wide Hexadecatuple Super Extended Graphics Array 6400×4096 (26214k) 25:16 32 bpp Non ancora supportata HUXGA Hexadecatuple Ultra Extended Graphics Array 6400×4800 (30720k) 4:3 32 bpp Non ancora supportata WHUXGA Wide Hexadecatuple Ultra Extended Graphics Array 7680×4800 (36864k) 16:10 32 bpp Non ancora supportata Significato prefissi nella nomenclatura delle risoluzioni Sebbene i prefissi comuni super S e ultraU' non indicano una specifica variazione alla risoluzione standard, molti prefissi hanno, invece, uno specifico significato: Quarter (Q) Un quarto della risoluzione di base. Es. QVGA indica una risoluzione di 320×240 che è la metà della larghezza e la metà dell'altezza, ossia un quarto del totale dei → pixel, della risoluzione VGA di 640×480. Nelle alte risoluzioni Q significa "Quad" ossi quattro volte. Wide (W) Risoluzione più ampia di quella base, di cui mantiene il numero di righe, che permette un Aspect ratio di 16:9 o 16:10. Quad(ruple) (Q) Risoluzioni standard Quattro volte i → pixel della risoluzione di base ossia due volte in orizzontale e due volte in verticale il numero di → pixel. Hexadecatuple (H) Sedici volte i → pixel della risoluzione di base ossia quattro volte in orizzontale e quattro volte in verticale il numero di → pixel. Ultra (U) eXtended (X) Questi prefissi possono anche combinarsi come, ad esempio in WQXGA o WHUXGA. Tipi di interfacce video per PC Nella colonna interfaccia video della tabella precedente è riportata il tipo di interfaccia video che permette di collegare un monitor ad un PC e visualizzare la risoluzione indicata secondo le seguenti specifiche: • • • • MDA - Interfaccia dedicata digitale Monochrome Display Adapter. CGA - Interfaccia dedicata digitale Color Graphics Adapter. EGA - Interfaccia dedicata digitale Enhanced Graphics Adapter. PGC - Interfaccia dedicata analogica Professional Graphics Controller. • VGA standard - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VGA originale o superiore (VESA VGA, DVI Sigle Link ecc.). • VGA interlacciato - L'interfaccia è uguale alla VGA originale ma richiede un monitor in grado di visualizzate un segnale video interlacciato. • VESA VGA - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VESA VGA o superiore (→ Digital Visual Interface Single Link, → Digital Visual Interface Dual Link o DsplayPort 1.1). • Non definita - Queste non sono risoluzione adottate dai monitor per PC ma solo ad un formato video. • DVI Single Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale → Digital Visual Interface Single Link, Dual Link o DisplayPort. • DVI Dual Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale → Digital Visual Interface Dual Link o DisplayPort. • DisplayPort 1.1 4-Lane - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale DisplayPort 1.1 4-Lane o superiore. • Non ancora supportata - Attualmente non esiste un'interfaccia video singola che permetta questa risoluzione anche se, in futuro, ci saranno delle specifiche DisplayPort che permetteranno di andare oltre alla risoluzione. N.B. Queste sono indicazioni generali per un corretto funzionamento. In realtà, ad esempio, si potrebbe anche utilizzare una connessione VESA VGA per visualizzare in risoluzione WUXGA anche se questo non è consigliato. Per aumentare la risoluzione si possono aumentare anche i collegamenti video, utilizzando ad esempio 2 o 4 collegamenti DVI, o diminuire la velocità di refresh. 31 Risoluzioni standard 32 Principali risoluzioni utilizzate in TV e Videoproiettori Nella tabella qui sotto riportata troviamo le risoluzioni video più comuni nei TV e nei videoproiettori. Nella tabella seguente 60Hz o 60 FPS sono un'approssimazione. Il valore preciso è ossia circa 59,94. Tabella delle risoluzioni standard di TV e Videoproiettori Standard Video Descrizione risoluzione del display (→ pixel) Aspect ratio profondità del colore (bpp) frame per secondo 480i Video a risoluzione standard NTSC a 60Hz interlacciato 720×480 (337.5k) 3:2 (1,5) 24 bpp 30 480p Video a risoluzione standard NTSC a 30Hz progressivo. 720×480 (337.5k) 3:2 (1,5) 24 bpp 30 576i Video a risoluzione standard PAL a 50Hz interlacciato 720×576 (405k) 4:3 (1,33) 24 bpp 25 576p Video a risoluzione standard PAL a 25Hz progressivo. 720×576 (405k) 4:3 (1,33) 24 bpp 25 720p Formato video → HDTV 1280 x 720 a 60Hz progressivo. Esistono anche le varianti a 24,25,30 e 50 Hz 1280×720 (900k) 16:9 (1,78) 24 bpp 50-60 1080i Formato video → HDTV 1920 x 1080 a 60Hz interlacciato. 1920×1080 (2000k) Esiste anche la variante a 50 Hz 16:9 (1,78) 24 bpp 25-30 1080p Formato video → HDTV 1920 x 1080 a 60Hz progressivo. Esistono anche le varianti a 24,25,30 e 50 Hz 1920×1080 (2000k) 16:9 (1,78) 24 bpp 50-60 2K Proiezione di film digitali in sale cinematografiche DLP 2048×1080 (2212k) 1,89 48 bpp 24 4K Proiezione di film digitali in sale cinematografiche DLP 4096×1716 (7029k) 2,39 48 bpp 24 Voci correlate • Informatica • Scheda video • Risoluzione del display Collegamenti esterni • (EN) Aspect Ratios [1] - Dal sito Widescreen.org Note [1] http:/ / www. widescreen. org/ aspect_ratios. shtml Immagine digitale Immagine digitale Un'immagine digitale è la rappresentazione di un'immagine bi-dimensionale tramite una serie di valori numerici, che la descrivono a seconda della tecnica utilizzata. Tecniche di rappresentazione Le immagini digitali sono fondalmentalmente di due tipi: una matrice di punti (o pixel) nelle immagini bitmap o, nelle immagini vettoriali, un insieme di punti (o nodi) uniti in linee o altre primitive grafiche che compongono l'immagine, insieme ad eventuali colori e sfumature. Immagini bitmap In questo tipo di immagini, i valori memorizzati indicano le caratteristiche di ogni punto dell'immagine da rappresentare (→ pixel): • nelle immagini a colori, viene memorizzato solitamente il livello di intensità dei colori fondamentali (nel modello di colore → RGB, uno dei più usati, sono tre: rosso, verde e blu. Un altro esempio è → CMYK, usato per la stampa, basato su quattro colori fondamentali: ciano, magenta, giallo e nero.) • nelle immagini monocromatiche in scala di grigio (dette impropriamente bianco e nero) il valore indica l'intensità del grigio, che varia dal nero al bianco. Il numero (detto anche "profondità") di colori o di livelli di grigio possibili dipende dal massimo numero di combinazioni permesse dalla quantità di bit utilizzata per ognuno di questi dati: un'immagine con 1 bit per pixel avrà al massimo due combinazioni possibili (0 e 1) e quindi potrà rappresentare solo due colori o solo bianco e nero; nelle immagini a 4 bit per pixel, si possono rappresentare al massimo 16 colori o 16 livelli di grigio; un'immagine a 8 bit per pixel, 256 e così via. Oltre a questi dati, è solitamente presente un header, che contiene diverse informazioni sull'immagine, a partire dal numero di righe e colonne di pixel: le dimensioni sono necessarie per poter dividere e disporre la sequenza di pixel in linee, in modo da formare una griglia rettangolare di punti, simile ad un mosaico, in cui ogni riga è formata da un numero preciso (indicato appunto dal valore larghezza) di tessere. La tecnica utilizzata per queste immagini, rappresentate da una matrice NxM, dove N è il numero delle righe di pixel dell'immagine e M delle colonne, è detta raster. Le immagini bitmap possono venire memorizzate in diversi formati, spesso basati su un algoritmo di compressione, che può essere → lossy (in cui c'è perdita di informazione), come nelle immagini JPEG, oppure → lossless (senza perdita), come nel caso dei file d'immagine GIF o PNG. Questo tipo di immagini può venire generato da una grande varietà di dispositivi d'acquisizione: scanner e fotocamere digitali (contenenti dei sensori CCD o CMOS), ma anche da radar e microscopi elettronici; inoltre possono venire sintetizzate anche a partire da dati arbitrari, come funzioni matematiche bidimensionali o modelli geometrici tridimensionali. Il campo dell'elaborazione digitale delle immagini studia gli algoritmi per modificare tali immagini. 33 Immagine digitale Immagini vettoriali Le immagini vettoriali sono un tipo di immagine facilmente scalabile e ruotabile, ottenuto dall'unione di un certo numero di punti o nodi, che formano linee e poligoni, a loro volta uniti in strutture più complesse, fino a formare l'immagine voluta. Questo tipo di immagine è utilizzato nel disegno tecnico per la progettazione architettonica ed industriale, nella rappresentazione di certi font, nella grafica per la creazione di loghi e marchi o altri oggetti, eccetera. Voci correlate • Elaborazione digitale delle immagini • → Grafica raster • Grafica vettoriale Collegamenti esterni • Introduzione al libro "VETTOR, dal bitmap al vettoriale" [1], con la definizione di immagini digitali, distinte in bitmap (o raster) e vettoriali. • Bitmap o vettoriale? I due tipi di immagini digitali [2] • Differenze tra grafica bitmap e vettoriale [3] Note [1] http:/ / www. edilio. it/ libreriaspecializzata/ schedalibro. asp?cod=5736 [2] http:/ / venus. unive. it/ pmlett/ autoapprendimento/ grafica/ iduetipi. htm [3] http:/ / www. stampasubito. it/ store/ stampasubito_guide_grafica_vettoriale_grafica_bitmap. asp 34 Compressione dei dati Compressione dei dati La compressione dati è una tecnica utilizzata in ambito informatico per la riduzione della quantità di bit necessari alla rappresentazione in forma digitale di un'informazione. La compressione dati viene utilizzata sia per ridurre le dimensioni di un file, e quindi lo spazio necessario per la sua memorizzazione e l'occupazione di banda necessaria per la sua trasmissione, sia per ridurre l'occupazione di banda necessaria in una generica trasmissione dati come ad esempio una trasmissione televisiva in diretta. Le varie tecniche di compressione organizzano in modo più efficiente i dati, spesso perdendo una parte dell'informazione originale, al fine di ottenere una rappresentazione dell'informazione più compatta quindi comportante minori risorse per la sua memorizzazione e trasmissione. Come controparte la compressione dati necessita però di potenza di calcolo per le operazioni di compressione e decompressione, spesso anche elevata se tali operazioni devono essere eseguite in tempo reale. Tipologie di compressione dati Le tecniche di compressione dati si dividono in due grandi categorie: • → compressione dati lossy: comprime i dati attraverso un processo con perdita d'informazione che sfrutta le ridondanze nell'utilizzo dei dati; • → compressione dati lossless: comprime i dati attraverso un processo senza perdita d'informazione che sfrutta le ridondanze nella codifica del dato. Le tecniche senza perdita di informazione come dice il nome si preoccupano di preservare il messaggio originale quando effettuano la compressione. Un loro esempio è il formato ZIP per i file o il GIF per le immagini. A partire da un file in uno di questi formati, è sempre possibile ricostruire esattamente il file d'origine. Le tecniche con perdita di informazione ottengono delle compressioni molto spinte dei file a scapito dell'integrità del file stesso. Il file prima della compressione e il file dopo la decompressione sono simili ma non identici. Normalmente viene utilizzata per comprimere i file multimediali. I file multimediali in origine sono troppo grandi per essere agevolmente trasmessi o memorizzati quindi si preferisce avere una piccola riduzione della qualità ma nel contempo file molto più leggeri, un esempio sono le immagini in formato → JPEG (per compressione di immagini) o in formato MPEG (per compressione di dati video e/o audio). Bibliografia • Bonazzi R., Catena R., Collina S., Formica L., Munna A., Tesini D.. Telecomunicazioni per l'ingegneria gestionale. Codifica di sorgente. Mezzi di trasmissione. Collegamenti. Pitagora Editrice, 2004, ISBN 88-371-1561-X 35 Compressione dati lossy 36 Compressione dati lossy La compressione dati con perdita, anche chiamata compressione dati lossy, è una classe di algoritmi di compressione dati che porta alla perdita di parte dell'informazione originale durante la fase di compressione/decompressione dei dati che la rappresentano. Decomprimendo un file compresso con un metodo "lossy" la copia ottenuta sarà peggiore dell'originale per livello di precisione delle informazioni che codifica, ma in genere comunque abbastanza simile da non comportare perdita di informazioni irrinunciabili. Ciò è possibile poiché i metodi di compressione a perdita di informazioni in genere tendono a scartare le informazioni poco rilevanti, archiviando solo quelle essenziali: per esempio comprimendo un brano audio secondo la codifica dell'→ MP3 non vengono memorizzati i suoni non udibili, consentendo di ridurre le dimensioni dei file senza compromettere in modo sostanziale la qualità dell'informazione. La compressione dei dati con perdita di qualità è ampiamente usata in molti settori dell'informatica: su Internet, nell'ambito dello → streaming dei media, nella telefonia, per la compressione di immagini o altri oggetti multimediali, ecc. Una volta compresso un file con un metodo lossy, le informazioni perse non saranno più recuperabili. Una sua apertura e una sua ricompressione con metodi lossless o con un metodo lossy con una compressione minore non permetteranno di tornare alla quantità di informazioni iniziali ma anzi, l'ulteriore compressione lossy potrebbe far perdere ulteriori informazioni, ma ingrandendo le dimensioni del file. Esempi Esempio di immagine compressa con l'algoritmo JPEG standard a diverse qualità: Qualità 100% - 87,7 kB Qualità 90% - 30,2 kB Qualità 50% - 6,7 kB Qualità 10% - 3,2 kB Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti. Compressione dati Audio • ADPCM Musica e suoni • • • • • • • AAC MPC o Musepack → MP3 → Ogg Vorbis (non ristretto da brevetti) VQF WMA AC3 Compressione dati lossy Voce • GSM 06.10 • → Ogg Speex (non ristretto da brevetti) Foto (immagini ferme) • JPEG • JPEG 2000 Video (immagini in movimento) • • • • • • • • MPEG-1 MPEG-2 → MPEG-4 → Ogg → Theora (non ristretto da brevetti) DivX XviD 3GPP WMV Voci correlate • → Compressione dati lossless • Compressione dati • Codec Compressione dati lossless La compressione dati lossless (compressione dati senza perdita), è una classe di algoritmi di compressione dati che non porta alla perdita di alcuna parte dell'informazione originale durante la fase di compressione/decompressione dei dati stessi. Un esempio di questo tipo di compressione è dato dai formati Zip, Gzip, Bzip2, Rar, 7z. I file per cui non è accettabile una perdita di informazione, come i testi o i programmi, utilizzano questo metodo. Per le immagini fotografiche generalmente non si usano algoritmi lossless in quanto sarebbero veramente poco efficienti, ma per le immagini che contengano ampie aree con colori puri spesso la compressione lossless non solo è applicabile, ma anche conveniente (GIF, PNG, MNG, TIFF con compressione LZW, ZIP o RLE). Problemi della compressione lossless Gli algoritmi di compressione lossless non possono sempre garantire che ogni insieme di dati in input diminuisca di dimensione. In altre parole per ogni algoritmo lossless ci saranno particolari dati in input che non diminuiranno di dimensione quando elaborati dall'algoritmo. Questo è facilmente verificabile con della matematica elementare: • Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria. • Si supponga (per assurdo), che esista un algoritmo di compressione che trasformi ogni file in un file più corto distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere reversibile senza perdita di dati.) • Si considerino l'insieme dei file con lunghezza massima di N bit. Questo set ha 1 + 2 + 4 + ... + 2N = 2N+1-1 elementi, se si include il file di lunghezza zero. 37 Compressione dati lossless • Ora considerando l'insieme dei file con N-1 bit, vi sono 1 + 2 + 4 + ... + 2N-1 = 2N-1 file che vi appartengono, sempre considerando anche il file di lunghezza zero. • Tale numero di elementi è più piccolo di 2N+1-1. Non è possibile collegare in modo univoco gli elementi di un insieme più grande (i file da comprimere) con gli elementi di un insieme più piccolo (i file dopo la compressione). • Questa contraddizione implica che l'ipotesi originale (che un algoritmo di compressione renda tutti i file più piccoli) sia errata. Si può notare che la differenza di dimensione è così elevata che non fa alcuna differenza se si considerano file di dimensione esattamente N come insieme dei file da comprimere: tale insieme è comunque di dimensioni maggiori (2N) dell'insieme dei file compressi. Una dimostrazione anche più semplice (ma equivalente) è come segue: 1. Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria. 2. Si supponga (per assurdo), che esista un algoritmo di compressione C che trasformi ogni file di lunghezza maggiore di 1 in un file più corto distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere reversibile senza perdita di dati.) 3. Dato un qualunque file F di lunghezza L(F)=N, si applichi C a questo file, ottenendo il file C(F) 4. Si ripeta il passo precedente applicando C a C(F) e si continui in questo modo: per l'ipotesi al punto (2), si ha: L(F)=N>L(C(F)) > L(C2(F)) > ... e quindi: L(C(F))<= N-1 L(C2(F))<= N-2 L(Ck(F))<= N-k Dopo al massimo N iterazioni, si deve avere L(CN-1(F))=1, perché ogni iterazione deve diminuire la lunghezza di almeno un bit: questo procedimento non dipende dal valore di N. Dalle nostre ipotesi consegue quindi che esisterebbero due soli file distinti (quello contente il bit 0 e quello contenente il bit 1). Questo è evidentemente falso, quindi l'ipotesi è falsa. Quindi, ogni algoritmo di compressione che rende alcuni file più piccoli, deve necessariamente rendere altri file più grandi o lasciarli di lunghezza invariata. Nell'uso pratico, si considerano buoni gli algoritmi di compressione che comprimono effettivamente la maggior parte dei formati più comuni: questo non corrisponde necessariamente ad una misura di bontá in senso teorico (che misura la distanza media, misurata su tutti i file possibili, tra la lunghezza ottenuta e il numero di bit di entropia contenuti nel file, che, per un teorema di Shannon, è il limite di comprimibilitá teorico). Inversamente, un algoritmo teoricamente buono potrebbe non avere applicabilitá pratica (ad esempio perché non riduce formati di uso comune). In realtà, molti applicativi che utilizzano la compressione lossless prevedono di lasciare invariati gli insiemi di dati la cui dimensione sia aumentata dopo la compressione. Ovviamente, il flag che indica che questo gruppo di dati non va processato dall'algoritmo aumenta la dimensione effettiva necessaria a memorizzare il gruppo di dati, ma permette di evitare un ulteriore spreco di spazio e di tempo necessario alla compressione/decompressione. 38 Compressione dati lossless Qualità della compressione e velocità In generale, non vi è un rapporto di proporzionalità indiretta tra qualità della compressione ottenibile da un algoritmo e la sua velocità di esecuzione. Prendiamo ad esempio la seguente stringa di dati: 005555550055555500555555005555550055555500555555 La stringa richiede 48 caratteri, ma è immediatamente disponibile all'utilizzo. Un algoritmo di compressione lossless potrebbe essere "cifra-numero di ripetizioni". La stringa, utilizzando questo algoritmo, diviene quindi: 025602560256025602560256 È chiaro che i dati non sono più direttamente disponibili ma occorre svolgere un passaggio intermedio (decompressione). Poiché, dato uno stesso archivio dati, la decompressione è solitamente molto più frequente della compressione molti algoritmi sono fortemente asimmetrici: il tempo richiesto per la compressione è sostanzialmente superiore a quello richiesto per la decompressione. Questo accade anche nei riguardi delle richieste di memoria e di capacità di calcolo. Tecniche di compressione Esistono diversi algoritmi di compressione. Tra i più noti: • • • • • • • • • Huffman Codifica aritmetica (o "compressione aritmetica") Lempel-Ziv-Welch (LZW) LZ77 LZ78 LZMA DEFLATE - tecnica mista: LZ77 e Huffman Prediction by Partial Matching (PPM) Trasformata di Burrows-Wheeler - (BWT) Programmi generici per la compressione Tra i tanti programmi di compressione molti usano un algoritmo tra quelli elencati sopra, mentre alcuni ne hanno uno proprio: • • • • • • • Arj - algoritmo proprio Gzip - usa DEFLATE PKZIP - usa DEFLATE WinZip - usa DEFLATE WinRar - algoritmo proprio Bzip2 - usa la trasformata di Burrows-Wheeler 7-Zip - usa LZMA 39 Compressione dati lossless Formati ed algoritmi Audio • • • • • • • • • • Apple Lossless - ALAC (Apple Lossless Audio Codec) Direct Stream Transfer - DST FLAC - Free Lossless Audio Codec Meridian Lossless Packing - MLP APE Monkey's Audio RealPlayer - RealAudio Lossless Shorten - SHN TTA - True Audio Lossless WavPack - WavPack lossless WMA - comprende anche una variante lossless Immagini • ABO - Adaptive Binary Optimization • GIF - Lempel-Ziv-Welch (LZW) per immagini da 2 a 256 colori • • • • • • • • • • • Portable_Network_Graphics Portable Network Graphics - usa una variante di DEFLATE HD Photo - Contempla un metodo di compressione lossless OptiPNG - Metodo di compressione lossless in formato PNG JPEG - comprende una variante lossless JPEG-LS[1] (poco utilizzata) JPEG 2000 - comprende un metodo di compressione lossless JBIG2 - comprende una compressione lossless di immagini in bianco e nero TIFF (Tagged Image File Format) - permette di scegliere tra diversi algoritmi sia lossless (tra cui LZW e RLE) o lossy (JPEG) WMPhoto - Contempla un meodo di compressione lossless Qbit Lossless Codec - Dedicato alla compressione intra-frame RLE Run-length encoding algoritmo usato nei formati TGA, BMP, TIFF FAX Gruppo 3 (1D) e Gruppo 4 (2D) - algoritmo per immagini bianco e nero usato dai FAX e dal formato TIFF Video • • • • • • • • • • Huffyuv [2] CorePNG [3] MSU Lossless Video Codec [4] Sheervideo [5] LCL [6] Qbit Lossless Codec [7] Animation codec [8] Lagarith [9] H.264/MPEG-4 AVC Motion JPEG2000 comprende anche una variante lossless 40 Compressione dati lossless 41 Voci correlate • → Compressione dati lossy • Compressione dati Note [1] [2] [3] [4] [5] [6] http:/ / en. wikipedia. org/ wiki/ Lossless_JPEG http:/ / neuron2. net/ www. math. berkeley. edu/ benrg/ huffyuv. html http:/ / corepng. corecodec. org/ http:/ / compression. ru/ video/ ls-codec/ index_en. html http:/ / www. bitjazz. com/ it/ products/ sheervideo/ index. php http:/ / translate. google. com/ translate?u=http%3A%2F%2Fwww. geocities. co. jp%2FPlaytown-Denei%2F2837%2FLRC. htm& langpair=ja%7Cen& hl=en& safe=off& c2coff=1& ie=UTF-8& oe=UTF-8& prev=%2Flanguage_tools [7] http:/ / www. qbit. com [8] http:/ / en. wikipedia. org/ wiki/ Animation_codec [9] http:/ / lags. leetcode. net/ codec. html Joint Photographic Experts Group Sviluppatore Joint Photographic Experts Group Tipo Compressione dell'immagine → Lossy / → Lossless lossy (solitamente) e lossless Licenza Royality free Sito web http:/ / www. jpeg. org |+ style="text-align: center; font-size: larger; margin-left: inherit;" | Joint Photographic Experts Group (JPEG) JPEG è l'acronimo di Joint Photographic Experts Group, un comitato ISO/CCITT che ha definito il primo standard internazionale di compressione per → immagini a tono continuo, sia a livelli di grigio che a → colori. È un formato gratuito e open-source. Attualmente JPEG è lo standard di compressione delle immagini fotografiche più utilizzato. Le estensioni più comuni per questo formato sono .jpeg, .jpg, .jfif, .JPG, .JPE, anche se il più comune in tutte le piattaforme è .jpg. JPEG specifica solamente come una immagine può essere trasformata in uno stream di byte, ma non come questo può essere incapsulato in supporti di memorizzazione. Un ulteriore standard chiamato JFIF (JPEG File Interchange Format), creato da Independent JPEG Group, specifica come produrre un file appropriato per la memorizzazione su computer di uno stream JPEG. Nell'uso comune, quando qualcuno parla di "file JPEG" generalmente intende un file JFIF o alcune volte un file Exif JPEG. Ci sono, comunque, altri formati di file basati su JPEG, come ad esempio JNG. Joint Photographic Experts Group 42 Da Raster Image a JPEG Essenzialmente il JPEG opera in 3 passi fondamentali per trasformare un'immagine raster in una JPEG e viceversa. Tali passi sono: • Rappresentazione in ambito frequenziale tramite DCT (trasformata discreta del coseno) se opera in modalità → lossy, uso dei predittori in modalità → lossless. • Quantizzazione effettuata tramite opportune matrici, che solitamente, pesano i coefficienti di ordine più basso (rappresentano le basse frequenza spaziali) in maniera più decisa, in quanto, per le proprietà della DCT, sono più importanti ai fini della sintesi dell'immagine. Questo perché il sistema visivo umano percepisce maggiormente le basse frequenze spaziali rispetto alle alte frequenze, risulta quindi necessario dare maggior importanza alle basse frequenze spaziali. • Codifica entropica ed eliminazione delle ridondanze di tipo statistico tramite codifica RLE e codici di Huffman; la componente continua della DCT invece è codificata in DPCM. Il fattore di compressione che si può raggiungere è determinato essenzialmente da un parametro di scalature per le matrici di quantizzazione, tanto più piccolo è questo parametro, tanto peggiore è la qualità. Si può ottenere un fattore di compressione 15:1 senza alterare visibilmente la qualità dell'immagine. Compressione Lo standard JPEG definisce due metodi di compressione di base, uno basato sull'uso della trasformata discreta del coseno (DCT) con compressione di tipo "→ lossy" cioè con perdita di informazione, l'altro sull'uso di un metodo predittivo con compressione di tipo "→ lossless" cioè senza perdita di informazione. L'algoritmo base dello JPEG di tipo "lossy" viene detto "baseline", inoltre sono state definite delle estensioni opzionali del metodo "lossy" per la compressione di tipo gerarchico e progressivo. Esempio di immagine compressa con l'algoritmo standard a diverse qualità: JPEG qualità 10% - 3,2 Kb JPEG qualità 50% - 6,7 Kb JPEG qualità 90% - 30,2 Kb JPEG qualità 100% - 87,7 Kb Joint Photographic Experts Group Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti. Tra questi il più tipico per il formato JPEG (come per tutti i formati che si basano sulla DCT) è la quadrettatura o "blocking"; oltre ad esso si verificano fenomeni di "ringing" (fenomeno di Gibbs) e "blurring" o "blur" (sfocatura). Utilizzo JPEG/JFIF è il formato più utilizzato per la memorizzazione di fotografie. È inoltre il formato più comune su World Wide Web. Non è invece adatto per disegni geometrici, testo o icone, per cui sono utilizzati comunemente i formati → PNG e GIF. Altri formati di compressione "lossy" Nuovi metodi lossy, in particolare basati sulle DWT (Discrete Wavelet Transform), garantiscono migliori risultati in alcuni casi. Il comitato JPEG ha creato un nuovo standard basato su wavelet, JPEG2000, con la prospettiva di sostituire nel tempo lo standard JPEG. Voci correlate • → Immagine digitale • Elaborazione digitale delle immagini • Trasformata discreta del coseno Collegamenti esterni • (EN) Sito ufficiale JPEG [1] • (EN) Formato file JFIF [2] Note [1] http:/ / www. jpeg. org/ [2] http:/ / www. w3. org/ Graphics/ JPEG/ jfif3. pdf 43 Portable Network Graphics 44 Portable Network Graphics Portable Network Graphics (PNG) Estensione .png Sviluppatore Thomas Boutell (ideatore originario) Tipo Compressione dell'immagine Licenza BSD-Like/GPL Sito Web http:/ / www. libpng. org In informatica, il Portable Network Graphics (abbreviato PNG) è un formato di file per memorizzare immagini. Storia Il PNG è stato creato nel 1995 da un gruppo di autori indipendenti e approvato il 1º ottobre 1996 dal World Wide Web Consortium (W3C), terminando il suo iter nel gennaio 1997 come oggetto del Request for Comments (RFC) 2083. L'ideazione del PNG avvenne in seguito all'introduzione del pagamento di royalties dell'allora popolarissimo e usatissimo formato GIF. Infatti nel 1994 i detentori del brevetto decisero improvvisamente di chiedere un pagamento per ogni programma Confronto tra immagine JPEG (a sinistra) e PNG (a che utilizzasse il loro formato. La prima reazione della comunità destra) informatica a tale improvviso cambiamento fu la sorpresa, a cui seguì la scelta di indirizzarsi verso lo sviluppo di un'alternativa. Il formato PNG è superficialmente simile al GIF, in quanto è capace di immagazzinare immagini in modo → lossless, ossia senza perdere alcuna informazione, ed è più efficiente con immagini non fotorealistiche (che contengono troppi dettagli per essere compresse in poco spazio). Essendo stato sviluppato molto tempo dopo, non ha molte delle limitazioni tecniche del formato GIF: può memorizzare immagini in colori reali (mentre il GIF era limitato a 256 colori), ha un canale dedicato per la trasparenza (canale alfa). Esiste inoltre un formato derivato, Multiple-image Network Graphics o MNG, che è simile al GIF animato. Caratteristiche Il formato PNG supporta: Immagine PNG Opaca a sinistra trasparente a destra • gestione dei colori classica tipo bitmap oppure indicizzata; Portable Network Graphics • possibilità di trasmettere l'immagine lungo un canale di comunicazione seriale (serializzazione dell'immagine); • visualizzazione progressiva dell'immagine, grazie all'interlacciamento della medesima; • supporto alla trasparenza mediante un canale alfa dedicato, ampliando le caratteristiche già presenti nel tipo GIF89a; • informazioni ausiliare di qualsiasi natura accluse al file; • completa indipendenza dall'hardware e dalla piattaforma in uso; • compressione dei dati di tipo lossless; • immagini truecolor fino a 48 bpp; • immagini in scala di grigio sino a 16 bpp; • filtro dei dati prima della (eventuale) compressione; • correzione della gamma dei colori presenti nell'immagine, per riprodurre esattamente quanto visualizzato all'atto della creazione dell'immagine; • (debole) verifica dell'integrità dei file; • rapida presentazione iniziale dell'immagine grazie alla visualizzazione progressiva. Applicazione L'utilizzo del PNG è stato inizialmente limitato, a causa del fatto che pochi programmi erano capaci di scrivere o leggere tali immagini. Col tempo, tutti i maggiori programmi di grafica e di navigazione accettarono il formato PNG, che trovò così più largo utilizzo. Nel giugno 2003, il brevetto originale sul formato GIF è scaduto, ma solo negli USA. Nel resto del mondo è scaduto durante il 2004. Nonostante questo, nulla lascia sospettare che l'utilizzo del PNG diminuirà come conseguenza. Voci correlate • → Immagine digitale 45 46 Formati del video digitale Video Il video (dal latino "vidēre") è l'informazione elettronica[1] rappresentante un'immagine che può variare nel tempo, quindi sia la cosiddetta immagine fissa (immagine che non varia nel tempo) che le cosiddette immagini in movimento (immagine che varia nel tempo). In particolare il video è un flusso informativo in quanto sia l'immagine fissa che le immagini in movimento presentano sempre una dimensione temporale.[2] Flusso informativo che scorre all'interno di apparecchiature elettroniche sotto forma di corrente elettrica per essere manipolato, viaggia nello spazio sotto forma di onde elettromagnetiche, o all'interno di cavi per telecomunicazioni sotto forma di corrente elettrica o → luce, per essere trasmesso a distanza, viene memorizzato sotto varie forme su vari tipi di supporti per essere conservato. Ambiti di impiego del video Il concetto di video nasce con l'invenzione della televisione, negli anni venti del Novecento. La televisione infatti è un'informazione elettronica rappresentante immagini in movimento e suono, nonostante non vada dimenticato che la scansione e la riproduzione delle immagini erano in un primo momento meccaniche e non elettriche. Il secondo impiego del termine video appare con i primi display a tubo a raggi catodici (CRT) come strumento di interazione tra computer ed essere umano, attraverso l'utilizzo delle prime interfacce a linea di comando (CLI). Il primo computer dotato di display CRT è stato il Whirlwind I, progettato presso il Massachusetts Institute of Technology e divenuto operativo nel 1950. Prima gli strumenti di interazione tra computer e uomo furono la scheda perforata, la telescrivente elettromeccanica e la lampadina. Tutt'oggi il video è impiegato per visualizzare le moderne interfacce grafiche (GUI) sui vari tipi di display. Il terzo impiego del video è stato nella ripresa di immagini in movimento per uso privato sia in ambito aziendale che amatoriale. In particolare in ambito amatoriale a partire dal 1982, anno in cui sono state introdotte sul mercato le prime videocamere portatili amatoriali. La videoregistrazione, cioè la registrazione di immagini in movimento in forma elettronica, ha infatti sostituito col passare degli anni ormai completamente, per quanto riguarda la ripresa di immagini in movimento per uso privato, l'unica altra tecnica di registrazione di immagini in movimento esistente ideata nel 1895 dai fratelli Lumière e basata sulla pellicola cinematografica. Il quarto impiego del video è stato l'home video, cioè il settore commerciale della distribuzione in ambito domestico di contenuti audiovisivi in forma elettronica. Prima della nascita dell'home video per la distribuzione di contenuti audiovisivi in ambito domestico veniva utilizzata la pellicola cinematografica. Da pochi anni si è infine iniziato ad impiegare il video anche nel cinema, non solo per la realizzazione di effetti speciali in computer grafica, come era stato in precedenza, ma anche in sostituzione della pellicola cinematografica. I film vengono distribuiti alle sale cinematografiche in forma elettronica invece che su pellicola cinematografica e proiettati con appositi videoproiettori. Spesso sono girati in pellicola e poi trasformati in informazione elettronica solo per la distribuzione nelle sale, ma sono anche girati direttamente in forma elettronica con apposite videocamere. I film d'animazione realizzati con la computer animation sono invece già in forma elettronica. In ordine di tempo, l'ultimo campo di applicazione del video si ha con la fotografia digitale. Video Video analogico e video digitale L'informazione elettronica può essere rappresentata in due forme diverse: analogica o digitale. Il video analogico è il video in cui l'informazione elettronica è rappresentata in forma analogica, il → video digitale è il video in cui l'informazione elettronica è rappresentata in forma digitale. La rappresentazione analogica dell'informazione elettronica è propria dell'elettronica analogica, mentre la rappresentazione digitale dell'informazione elettronica è propria dell'elettronica digitale. L'elettronica nasce come elettronica analogica, il primo modo di rappresentare l'informazione elettronica è quindi quello analogico. Nella rappresentazione analogica dell'informazione elettronica l'informazione elettronica varia con analogia all'informazione che si vuole rappresentare, varia quindi in modo continuo e può assumere un numero molto alto di valori. Con la realizzazione dell'Atanasoff-Berry Computer nel 1941 nasce l'elettronica digitale. L'Atanasoff-Berry Computer è il primo computer elettronico digitale, il primo computer elettronico quindi in cui l'informazione elettronica è in forma digitale. Nella rappresentazione digitale dell'informazione elettronica l'informazione che si vuole rappresentare viene codificata in una sequenza di numeri, l'informazione elettronica varia quindi in modo discreto e assume un numero limitato di valori corrispondente al numero di cifre utilizzate dal sistema numerico scelto. L'Atanasoff-Berry Computer utilizza la numerazione binaria quindi l'informazione elettronica assume solo due valori. L'elettronica digitale basata sulla numerazione binaria diventerà in seguito la tecnologia consueta per la realizzazione dei computer, e il computer, nato come strumento per eseguire calcoli matematici, quindi per trattare numeri, col passare dei decenni verrà usato per un numero sempre maggiore di scopi, di pari passo con l'aumento delle capacità di memorizzazione e di calcolo: si inizierà con l'elaborazione di files che rappresentano testi e immagini statiche, per arrivare a file multimediali, che contengono suoni, musica, video in movimento (film). Il problema della qualità Per rappresentare l'informazione, l'elettronica analogica e l'elettronica digitale gestiscono il segnale elettrico in modo praticamente opposto: nella prima il segnale è continuo e gli viene fatto assumere il maggior numero possibile di valori, nella seconda al contrario, al segnale viene fatto assumere il minimo numero di valori con cui è possibile creare un sistema di rappresentazione dell'informazione, ossia 2, che a livello software equivalgono a "0" e "1" e vengono chiamati "bit", e a livello hardware equivalgono ad "assenza di corrente" e a "passaggio di corrente". Per ottenere una rappresentazione di qualità dell'informazione con l'elettronica analogica è necessaria un'implementazione circuitale molto sofisticata in quanto questo tipo di informazione, assumendo un numero molto alto di valori e variando in modo continuo, è molto difficile da gestire senza farle subire alterazioni, e un'alterazione equivale ad una diminuzione della corrispondenza tra il segnale elettrico e il valore che esso vuole rappresentare. Con l'elettronica digitale il problema della qualità assume un significato completamente diverso, dovendo venir considerati solo due valori. Con questi due valori vengono formati blocchi di uguale lunghezza e se ne ricavano tutte le combinazioni possibili: ad ognuna di esse viene quindi associato un diverso valore dell'informazione che si vuole rappresentare, il che significa che la codifica dell'informazione stessa produrrà una lunga sequenza di 0 e 1. Come si può intuire, qualunque alterazione di intensità che il segnale potrebbe subire non può più intaccare la rappresentazione in sé (dovrebbe piuttosto venir provocata una sostituzione casuale degli 0 con gli 1 e viceversa). Con questo sistema di codifica, la qualità arriva a dipendere invece dalla quantità di valori dell'informazione reale che vengono codificati: più valori vengono codificati, più l'informazione digitale sarà ricca di sfumature e dettagli. Lo svantaggio sta però nel fatto che la sequenza di 0 e 1 da dover gestire (cioè elaborare, memorizzare, trasmettere) sarà tanto più lunga quanto maggiore è il numero di dettagli che si vogliono riprodurre. Di conseguenza un contenuto digitale di alta qualità richiede elevate potenze di calcolo e supporti di memorizzazione molto capienti. Un metodo per limitare quest'ultimo problema è quello della → compressione dei dati. 47 Video 48 L'inarrestabile aumento della potenza di calcolo dei processori e della capacità delle memorie, unito al parallelo abbattimento dei costi, nel corso degli anni ha fatto diventare le tecnologie digitali la scelta privilegiata, visti i suoi indubbi vantaggi. Per questo è in atto ormai da vari decenni un progressivo passaggio al digitale, anche in ambiti in cui l'elettronica non è mai stata usata, come ad esempio nel cinema, dove la pellicola cinematografica è sempre stata preferibile. Il vantaggio di sostituire la pellicola con l'elettronica digitale sta principalmente nel fatto che con quest'ultima il materiale girato è memorizzabile su supporti come i dischi ottici, che hanno una lunghissima durata nel tempo ed è sempre possibile effettuare copie identiche dell'originale. La pellicola cinematografica al contrario subisce un inevitabile degrado nel corso del tempo, anche se conservata in ambienti climaticamente controllati (temperatura, umidità, illuminazione, ecc...). La duplicazione stessa della pellicola non risolve il problema in quanto il processo di duplicazione, anche se restituisce un supporto nuovo, produce un degrado dell'informazione allo stesso modo di quanto avviene con la tecnologia analogica. La pellicola cinematografica presenta, per contro, il vantaggio di una completa e ben consolidata standardizzazione, il che la rende comunque molto adatta per materiale da conservare per molto tempo, considerando la rapida obsolescenza di gran parte dei formati e dei supporti di registrazione impiegati per il video. Vantaggi del video digitale I vantaggi del video digitale sono: • è possibile e relativamente facile ottenere una copia identica all'originale, anche se si tratta di una copia della copia. Con il video analogico invece il degrado della qualità è inevitabile, anche quando la duplicazione è effettuata con le apparecchiature professionali più sofisticate, e va inoltre a sommarsi tutte le volte che si esegue una copia della copia. • è possibile e relativamente facile la trasmissione senza errori in un sistema di telecomunicazioni. Trasmettere informazione elettronica digitale senza errori è possibile e relativamente facile. L'informazione elettronica analogica invece subisce sempre un certo degrado durante la trasmissione. • possibilità illimitate di manipolazione. Attraverso appositi software, si va da operazioni di montaggio, all'alterazione delle immagini, come ad esempio per la realizzazione di effetti speciali, fino alla realizzazione di filmati completamente artificiali con la computer animation. Caratteristiche principali del video Le immagini in movimento, nel video, sono ottenute da immagini fisse visualizzate in rapida sequenza, similmente a quanto avviene nella tecnica cinematografica basata sulla pellicola cinematografica. Le immagini fisse vengono visualizzate ad una frequenza sufficientemente alta da essere percepite come immagini in movimento e non più come una sequenza di immagini fisse. Questo avviene per il fenomeno della persistenza della visione che contrariamente a quanto molti pensano non è dovuto ad un fenomeno di persistenza delle immagini sulla retina ma ad un "assemblaggio" che il cervello esegue secondo meccanismi non ancora del tutto chiariti. Le caratteristiche principali del video sono: • risoluzione video • frequenza delle immagini • tipo di scansione delle immagini • rapporto d'aspetto Video 49 Risoluzione video In ambito elettronico le immagini sono visualizzate come una griglia ortogonale di aree uniformi. Tale griglia ortogonale di aree uniformi è chiamata raster e, esclusivamente in ambito digitale, tali aree uniformi sono chiamate → pixel. La risoluzione video è la risoluzione dell'immagine video. Più specificatamente è il numero di aree uniformi che compongono in senso orizzontale e in senso verticale il raster. In ambito digitale, dove le aree uniformi del raster sono Confronto di risoluzioni televisive chiamate pixel, la risoluzione video è espressa in pixel. In ambito analogico invece la risoluzione video è espressa in linee, in rifermento al metodo di visualizzazione di un'immagine elettronica utilizzato in ambito analogico (in ambito analogico un'immagine elettronica viene visualizzata una linea orizzontale alla volta partendo dall'alto verso il basso). Il numero di aree uniformi che compongono in senso orizzontale il raster di un'immagine video è chiamato risoluzione orizzontale. Mentre il numero di aree uniformi che compongono in senso verticale il raster di un'immagine video è chiamato risoluzione verticale. Le aree uniformi che compongono il raster sono gli elementi base che compongono l'immagine video. Quindi più è alta la risoluzione video, più è alto il numero di elementi da cui è composta l'immagine video. E più è alto il numero di elementi da cui è composta l'immagine video, maggiore è la qualità dell'immagine video. Notazione della risoluzione video La risoluzione di un segnale video analogico viene generalmente indicata con il numero di linee verticali. Un segnale analogico non ha un numero discreto di punti orizzontali, ma la sua risoluzione viene espressa in genere nel numero di linee risolvibili (per esempio, 250 o 350), che dipende fortemente del mezzo utilizzato per la trasmissione o la risoluzione, oppure in MHz, intesi come larghezza di banda del segnale di luminanza, secondo la relazione: 80 linee = 1 MHz Va detto tuttavia che è di uso comune, anche se scorretto, riferirsi alla risoluzione in termini di pixel orizzontali per verticali, come si va con il video digitale, per maggiore semplicità. Inoltre, il sistema di codifica colore (NTSC, PAL, o SÉCAM) viene di solito usato come denominazione dello standard video completo: molto spesso anche su supporti digitali come il → DVD viene indicato che il video è in formato PAL anche se, naturalmente, non c'è nessun video sul DVD registrato in questo formato. La notazione che si usa per indicare la risoluzione video digitale è la seguente: A×B dove A e B sono il numero di aree uniformi che compongono rispettivamente in senso orizzontale e in senso verticale il raster dell'immagine video. Ad esempio il video usato negli standard televisivi digitali adottati in Italia ha 768 e 576 aree uniformi che compongono rispettivamente in senso orizzontale e in verticale il raster. Tale risoluzione video viene indicata con la notazione 768×576. Video Frequenza delle immagini La frequenza delle immagini, anche chiamata frame rate, è il numero di immagini per unità di tempo che vengono visualizzate. Varia da sei a otto immagini al secondo (fps) per le vecchie macchine da presa a 120 o più per le nuove videocamere professionali. Gli standard PAL (Europa, Asia, Australia, etc.) e SECAM (Francia, Russia, parti dell'Africa etc.) hanno 25 fps, mentre l'NTSC (USA, Canada, Giappone, etc.) ha 29.97 fps. La pellicola ha una registrazione ad un frame rate minore, 24fps. Per raggiungere l'illusione di un' immagine in movimento il frame rate minimo è di circa 10 fotogrammi al secondo. Tipo di scansione delle immagini Le immagini che compongono il video possono essere visualizzate secondo due metodologie diverse di scansione: la scansione interlacciata, anche chiamata interlacciamento (dall'inglese "interlace"), e la scansione progressiva (dall'inglese "progressive"). L'interlacciamento è stato creato come un metodo per ottenere una buona qualità di visualizzazione nelle limitazioni di una banda di segnale ristretta. Le linee di scansione orizzontali di ogni fotogramma interlacciato sono numerate consecutivamente e divise in due field: i "field dispari" che consistono nelle linee di numeri dispari, e i field pari, caratterizzati invece dalle linee di numeri pari. PAL, NTSC e SECAM sono per esempio dei formati interlacciati. Le sigle indicanti le risoluzioni video includono una lettera "i" per indicare che sono formati che sfruttano l'interlacciamento. Per esempio il formato video PAL è specificato molto spesso come 576i50. Il primo numero indica la risoluzione delle linee verticali, la lettera "i" indica l'interlacciamento, e il secondo numero indica 50 field (mezzi fotogrammi) al secondo Nel sistema a scansione progressiva (tipica dei monitor per computer) si ha un aggiornamento continuo di tutte le linee dello schermo, con il risultato di una maggiore risoluzione, e una mancanza di vari artefatti che possono far "vibrare" parzialmente un'immagine ferma o con particolari combinazioni di colori e linee in finissima successione (effetto moiré) La procedura della rimozione dell'interlacciamento (deinterlacing) viene usata per convertire segnali interlacciati (analogici, → DVD, o satellitari) in modo che possano essere utilizzati da apparecchi a scansione progressiva (come televisori a cristalli liquidi, videoproiettori o pannelli al plasma). L'eliminazione dell'interlacciamento non può comunque ottenere una qualità video uguale a quella che offrono gli apparecchi a scansione progressiva in quanto la quantità di dati che il segnale contiene è pressoché la metà. Rapporto d'aspetto Il rapporto d'aspetto, o Aspect ratio (immagine) o Display aspect ratio (DAR), del video è la proporzione tra la larghezza e l'altezza dell'immagine video quindi delle singole immagini che compongono il video. Solitamente l'aspect ratio di uno schermo televisivo è 4:3 (o 1.33:1) (nota bene: dividendo la risoluzione orizzontale di 768 per la risoluzione verticale di 576 Confronto di aspect ratio in cinematografia (blu e rosso) e televisione (PAL), si ottiene proprio 1,33). I televisori ad alta (verde) definizione usano un'aspect ratio di 16:9 (circa 1.78:1). L'aspect ratio di un frame di pellicola da 35 mm con colonna sonora (nota come "Academy standard") è circa 2.37:1. 50 Video Altre caratteristiche del video Pixel aspect ratio Pare logico supporre che i singoli "punti" o pixel che compongono le immagini televisive siano quadrati, e invece si parla di "pixel rettangolari" proprio per definire quei formati che hanno un pixel aspect ratio diverso da uno. I due maggiori standard televisivi hanno infatti pixel aspect ratio di 1,066 (PAL) e 0,9 (NTSC). I monitor per computer hanno invece pixel aspect ratio quadrato. L'aspect ratio dei pixel deve essere particolarmente preso in considerazione quando si vogliono trasferire disegni realizzati con un programma grafico da PC in un video DV o PAL DVD. Infatti un video PAL ha una risoluzione di 768x576 pixel mentre in DV o in PAL DVD vengono memorizzati 720x576 pixel; questo significa che in fase di visualizzazione in un TV i pixel verrano resi rettangolari (in orizzontale) per compensare i 48 pixel mancanti. Se si disegna un cerchio con un programma di grafica su di un frame da 720x576 e poi si importa in un programma di montaggio, (render DV o PAL DVD 720x576 4:3) in un TV apparirà una ellisse. Invece se si disegna un cerchio con un programma di grafica su di un frame da 768x576 e poi si importa in un programma di montaggio, (render DV o PAL DVD 720x576 4:3) in un TV apparirà correttamente un cerchio. Per lo stesso motivo se si lavora in 16:9 il cerchio deve essere disegnato su di un frame da 1024x576, quando viene importato il programma di montaggio provvede a comprimerlo in orizzontale (render PAL DVD 720x576 16:9 anamorfico), in fase di visualizzazione l'apparecchio televisivo con schermo da 16:9 effettua uno zoom in orizzontale riportando il cerchio al suo aspetto originale. Storage aspect ratio Attraverso la combinazione delle proporzioni di come le immagini vengono mostrate (DAR) e di come vengono visualizzati i singoli pixel (PAR) otteniamo la proporzione di memorizzazione fisica su file (SAR) secondo lo formula PAR = DAR / SAR Video 3D Il video 3d, video digitale in tre dimensioni, è nato alla fine del XX secolo e si crea usando sei o otto videocamere capaci di misurare la profondità della scena e salvando le registrazioni in → MPEG-4 Part 16 Animation Framework eXtension (AFX). La risoluzione per i video in tre dimensioni è misurata in voxels (volume picture element, rappresentanti un valore nello spazio tridimensionale). Per esempio una risoluzione a 512×512×512 voxels, attualmente utilizzata per un semplice video in tre dimensioni, può anche essere visualizzata in alcuni PDAs. 51 Video 52 Descrizione Il termine video si riferisce generalmente ai formati di archiviazione delle immagini in movimento: i formati video digitali, come → DVD, QuickTime e → MPEG-4, e videocassette analogiche, come VHS e Betamax. I video possono essere registrati e trasmessi attraverso vari media fisici: pellicole di celluloide da macchine da presa, segnali elettrici PAL o NTSC se registrati da videocamere, o media digitali come → MPEG-4 o DV se registrati da videocamere digitali. Standard video analogici: verde chiaro - NTSC, giallo - PAL, o in conversione al La qualità del video dipende essenzialmente PAL, arancio - SECAM, oliva - nessuna informazione dal metodi di registrazione e archiviazione. La → televisione digitale (DTV) è un formato relativamente recente, con alta qualità ed è diventata lo standard per la televisione. Formati video Standard dei display video Standard della connessione video • • → Video composito (1 RCA o BNC) • → Video a componenti (3 RCA o BNC) Digitale: • • • • • • Super Hi-Vision (Televisione ad Altissima Definizione in fase di sperimentazione) → HDTV (High Definition Television: Televisione ad Alta Definizione) ATSC (USA, Canada, etc., Advanced Television Systems Committee) DVB (Europa, Digital Video Broadcasting) ISDB (Giappone, Integrated Services Digital Broadcasting) Analogico: • • • • MAC (Europa - Obsoleto) MUSE (Giappone-analog HDTV) NTSC (USA, Canada, Giappone, etc., National Television System(s) Committee) PAL (Europa, Asia, Australia, etc., Phase-Alternating Line) • • PALplus (Estensione del PAL. Europa) SECAM (Francia, ex-USSR, Africa centrale, Séquentiel Couleur Avec Mémoire: Colore sequenziale con memoria) • Connettore video D4 (nuovo per l'→ HDTV) • S-Video (da Separated Video, 1 mini-DIN) • SCART (usato in Europa) • DVI (solo per video non compressi). HDCP opzionale. • → HDMI (video e audio non compressi). HDCP obbligatorio. Video 53 • Connettore RF (da connettore coassiale Radio Frequency) • • • • • • • • • Connettore BNC (Bayonet Niell-Concelman) Connettore C (connettore Concelman) Connettore GR (connettoreGeneral Radio) Connettore F (usato per le TV domestiche negli Stati Uniti) IEC 169-2 (Connettore IEC, usato per lo più nel Regno Unito) Connettore N (connettore Niell) TNC (Threaded Niell-Concelman) Connettore UHF (es. PL-259/SO-239) SDI e HD-SDI • Connettore VGA connector (DB-9/15 o mini sub D15) • -VGA (usato per i computer portatili) Supporti video analogici (vedi televisione analogica) Supporti video digitali (vedi → video digitale) • VERA (formato sperimentale della BBC, ca. 1958) • D1 (Sony) • U-matic (Sony) • D2 (Sony) • Betamax (Sony) • D3 • Betacam • D5 (standard di videoregistrazione) • Betacam SP • Digital Betacam (Sony) • 2 pollici Quadruplex (Ampex) • Betacam IMX (Sony) • 1 pollice standard C (Ampex e Sony) • High Definition Video • VCR, VCR-LP, SVR • ProHD (JVC) • VHS (Video Home System, JVC) • D-VHS (Digital - Video Home System, JVC) • S-VHS (Super - Video Home System, JVC) • DV (Digital Video) • VHS-C (Video Home System - Compact, JVC) • DVCAM (Sony) • S-VHS-C (Super- Video Home System - Compact, JVC) • MiniDV (Mini Digital Video) • Video 2000 (Philips) • MicroMV • Video8 e Hi8 (High Band 8) • Digital8 (Digital Video 8, Sony) Supporti a disco ottico Supporti digitali • → DVD (già Super Density Disc, DVD Forum) • CCIR 601 (ITU-T) • Laserdisc (vecchio, MCA e Philips) • M-JPEG (ISO) • Blu-ray (Sony) • MPEG-1 (ISO) • Versatile Multilayer Disc (New Media Enterprise inc.) • MPEG-2 (ISO) • Enhanced Versatile Disc (EVD, sostenuto dal governo cinese) • → MPEG-4 (ISO) • HD DVD (Hitachi e Toshiba) • H.261 (ITU-T) • H.263 (ITU-T) • H.264/MPEG-4 AVC (ITU-T + ISO) • → Ogg-→ Theora Video 54 Voci correlate • Generalità • Audio • Videoclip • Interfaccia video • Formati video • • • • • • • • • • Televisione → Televisione digitale Televisione satellitare Interlacciamento Scansione progressiva Telecine → Codec video Timecode → Spazio dei colori → RGB • YUV • → Risoluzioni standard • Caratteristiche • • • • • • • Pixel aspect ratio (PAR) Display aspect ratio (DAR) Storage aspect ratio (SAR) Aspect ratio (immagine) Video anamorfico Formati cinematografici 24p • Uso del video • Videoarte • Televisione a circuito chiuso • Videoproiettore Altri progetti • • Wikimedia Commons contiene file multimediali su Video Wikizionario contiene la voce di dizionario «Video» Note [1] "Informazione elettronica" non è intesa nel limitato senso di "informazione in forma elettronica", cioè di informazione che si presenta esclusivamente in forma di corrente elettrica (quando è trasmessa diventando un segnale elettrico) o di tensione elettrica (quando è memorizzata in un circuito elettronico), ma nel più ampio senso di "informazione manipolata da un'apparecchiatura elettronica", quindi di informazione che può assumere una moltitudine di forme diverse (ad esempio la forma di magnetismo quando è memorizzata in una videocassetta oppure la forma di luce all'interno di una fibra ottica quando è trasmessa a distanza). [2] L'mmagine fissa, diversamente dalle immagini in movimento, non ha una natura temporale. Acquisisce una dimensione temporale quando è rappresentata in forma di video in quanto in tale forma è continuamente ridisegnata. Video digitale Video digitale Per video digitale si intende un segnale video che utilizza una rappresentazione digitale, e non analogica, del segnale video. Questo termine generico non deve essere confuso con il nome DV, che indica uno specifico formato di video digitale indirizzato alla grande distribuzione. Trasporto del segnale In ambito professionale, il primo tipo di interfaccia utilizzata, secondo la raccomandazione ITU-R BT.656, è di tipo parallelo. I cavi erano costituiti da 11 doppini, 10 per ciascuno dei bit relativi all’informazione video più uno per il clock a 27 MHz. La raccomandazione prevede l'uso di connettori D-Sub a 25 contatti. La lunghezza del cavo è un fattore limitante di questo tipo di connessione, potendo raggiungere solo 50 m senza equalizzazione e 200 m con appropriata equalizzazione. Un tipo di interfaccia più evoluta, la SDI, spicificata dalla stessa ITU-R BT.656 prevede invece l'uso dagli stessi cavi coassiali da 75Ω utilizzati in ambito analogico. Questo semplifica grandemente l'integrazione tra i due tipi di segnale e riduce di molto i costi di cablaggio, nonché lo spazio e il peso dei cavi stessi. Per distanze lunghe, è anche possibile il trasporto su fibra ottica In campo domestico e amatoriale, le interfacce più comuni per il video digitale sono la firewire e la più recente HDMI, concepita in particolare per alimentare televisori e monitor ad alta definizione. Tecniche di registrazione Il video digitale è spesso registrato su cassetta e distribuito su dischi ottici, solitamente → DVD. Ci sono comunque delle eccezioni, come le videocamere che registrano direttamente su DVD, videocamere Digital8 che codificano video digitale su cassette analogiche convenzionali, e alcune videocamere che registrano video digitale su hard disk. Il successo del video digitale è basato sulla disponibilità di algoritmi di → compressione video che si sono sviluppati fortemente a partire dagli anni '90. Il video digitale è alla base dello sviluppo della → televisione ad alta definizione che, sebbene sia nata alla fine degli anni ottanta come analogica, ha potuto diffondersi e divenire economicamente conveniente solo grazie alle tecniche di registrazione e trasmissione digitali. Cenni storici Il video digitale è stato introdotto per la prima volta nel 1983 dal formato D-1 della Sony, che registrava un segnale video component non compresso a definizione standard in forma digitale anziché in forma analogica. A causa del costo molto elevato, il D-1 fu utilizzato principalmente da grandi network televisivi, e solo limitatamente a lavorazioni che richiedevano molte generazioni successive di copie. In seguito sarebbe stato sostituito da sistemi più economici che utilizzavano dati compressi, come il famoso Digital Betacam della Sony, tuttora largamente usati come formato di registrazione dai grandi produttori televisivi. Il video digitale di tipo amatoriale è apparso per la prima volta in forma di QuickTime, architettura della Apple Computer per formati di dati time-based e di → streaming diffusasi in forma ancora grezza intorno al 1990. Inizialmente gli strumenti amatoriali di creazione dei contenuti erano grezzi e richiedevano la digitalizzazione di una sorgente video analogica in un formato che potesse essere elaborato dai computer. Il video digitale amatoriale migliorò rapidamente la sua bassa qualità iniziale, dapprima con l'introduzione di standard di riproduzione come il MPEG-1 e il MPEG-2 (adottati per l'utilizzo in trasmissioni televisive e video su → DVD), e in seguito con l'introduzione del formato di cassette DV. Quest'ultimo permise la registrazione diretta in digitale e semplificò il processo di montaggio, consentendo la diffusione di sistemi completi di non-linear video editing su computer 55 Video digitale desktop. Panoramica tecnica Le videocamere moderne possono lavorare in due differenti modalità di scansione: interlacciata e a scansione progressiva. In modalità interlacciata, le videocamere registrano l'immagine alternando insiemi di righe: vengono scansionate prima le righe di numero dispari , poi le righe di numero pari, poi di nuovo quelle di numero dispari, e così via. Un set di righe pari o dispari è chiamato semiquadro o campoe una coppia di due campi consecutivi di parità opposta è chiamata quadro o fotogramma. Una videocamera a scansione progressiva, invece, registra ogni fotogramma singolarmente, mediante due campi identici. Quindi, quando entrambi operano allo stesso numero di fotogrammi al secondo, il video interlacciato cattura un numero doppio di campi al secondo rispetto al video progressivo. La pellicola cinematografica standard come la 16mm e la 35mm riprende a una cadenza di 24 o 25 fotogrammi al secondo. Per il video ci sono due frequenze standard: 30/1,001 (circa 29,97) fotogrammi al secondo e 25 fotogrammi al secondo,a seconda che lo standard di partenza sia NTSC oppure PAL. Il video digitale può essere copiato senza perdita in qualità. Non importa per quanti passaggi una sorgente digitale venga copiata poiché il video si mantiene sempre identico al materiale digitale originale. L'elaborazione e il montaggio del video digitale avviene tramite postazioni non-linear editing, dispositivi costruiti esclusivamente per montare video e audio. Queste macchine possono frequentemente importare materiale sia da una sorgente analogica che digitale. Il video digitale può inoltre essere montato su un personal computer dotato del software e dell'hardware appropriato. Nel mercato degli editor non lineari professionali è molto conosciuto il software e l'hardware Avid, oltre a Final Cut Pro della Apple e Adobe Premiere Pro. Le sulozioni più usate in campo professionale usano computer di fascia alta assistito da hardware apposito. I software di montaggio richiedono generalmente ampio spazio su disco. Il video digitale a compressione standard DV/DVCPRO occupa circa 250 megabyte per minuto o 13 gigabyte per ora, ma l'occupazione aumenta man mano che che si sale con la qualità. In base alle sue caratteristiche però, il video digitale ha un costo significamente basso, considerando tutte le lavorazioni in cui può essere coinvolto. Come termine di paragone, si consideri che il costo di riprese cinematografiche in 35mm si aggira sui 1000€ al minuto, sviluppo e stampa inclusi. Il video digitale è usato largamente al di fuori della cinematografia. La → Televisione digitale (incluso la → HDTV ad altà qualità) ha iniziato a diffondersi in molti paesi sviluppati nei primi anni 2000. Il video digitale è inoltre utilizzato nei moderni telefoni cellulari, nei sistemi di videoconferenza e nella distribuzione di media via Internet, come lo streaming video e la distribuzione peer-to-peer. Esistono molti tipi di → compressione video per la diffusione di video attraverso internet e media come i DVD. Alcuni dei codec più diffusi sono MPEG-2, → MPEG-4, Real Video, Windows Media Video e il più recente H.264. Probabilmente i formati più utilizzati per la diffusione di video attraverso internet sono → MPEG-4 e WMV, mentre MPEG-2 è usato quasi esclusivamente per i DVD. Al 2005, la risoluzione più alta realizzata con un video digitale è di 33 megapixel (7680 x 4320) a 60 fotogrammi al secondo (nel formato UHDV), anche se soltanto in un test di laboratorio. La velocità più alta è ottenuta da videocamere ad alta velocità in ambito industriale e scientifico, le quali sono capaci di filmare video di risoluzione 1024 x 1024 con un milione di fotogrammi al secondo per brevi periodi di registrazione. 56 Video digitale Interfacce/Cavi Per soddisfare i requisiti di trasferimento dei video digitali non compressi (di circa 400 Mbit/s) sono state realizzate interfacce specifiche: • • • • • Serial Digital Interface FireWire → HDMI → Digital Visual Interface DisplayPort Formati di memorizzazione Codifica Tutti i formati correnti elencati di seguito sono basati su PCM. • CCIR 601 — usato per le stazioni di trasmissione • → MPEG-4 — diffuso nella distribuzione online e nella registrazione di video su memoria flash • MPEG-2 — diffuso per DVDs e Super-VCD e impiegato nella trasmissione video digitale DVB • • • • • MPEG-1 — diffuso per VCD H.261 H.263 H.264 — conosciuto anche come MPEG-4 Part 10 o AVC Impiegato per HD DVD e Blu-ray Disc → Theora — standardizzato ma ancora in sviluppo Cassette • Betacam SX, Betacam IMX, Digital Betacam — sistemi video commerciali di Sony, orientati al mercato professionale e broadcast. Il tipo di videocassetta deriva dal foramto domestico Betamax • D1, D2, D3, D5, D9 o Digital-S — vari standard per video digitali commerciali definiti dalla SMPTE • DV, MiniDV — diffusi nella maggior parte delle videocamere a cassette di larga distribuzione; progettato per video ad alta qualità facile da montare; possono anche registrare dati in alta-definizione (HDV) in formato MPEG-2 • DVCAM, DVCPRO — diffusi nelle operazioni di trasmissione professionali; simili al DV e compatibili con esso, offrono miglior trattamento dell'audio • Digital8 — dati in formato DV registrati su cassette compatibili Hi8; formato diffuso nell'uso amatoriale • MicroMV — dati in formato MPEG-2 registrati su cassette di dimensioni molto ridotte; in disuso • D-VHS — dati in formato MPEG-2 registrati su cassette simili alla S-VHS Dischi ottici • • • • • • Video CD (VCD) → DVD HD DVD → Blu-ray Disc Sony ProDATA XDCAM 57 Video digitale Voci correlate • • • • • • • • • • • DV Audio digitale Cinema digitale → Digital Visual Interface Serial Digital Interface → DVD Videocamera Televisione → Video Video editing Webcam Bibliografia • Barbero, Shpuza, Interfacce video, Elettronica e Telecomunicazioni, n.3 Dicembre 2006 Compressione video digitale Un segnale tv trasformato in formato digitale rappresenta una grande mole di dati da elaborare che va oltre alle capacità degli attuali sistemi di diffusione tra cui i transponder satellitari. Questa enorme quantità di dati per essere sfruttata nelle trasmissioni tv satellitari richiede un trattamento di "compressione" che si concretizza nella applicazione dello standard MPEG-2. Anche se il segnale non deve venire trasmesso, comunque, sono spesso necessarie tecniche di compressione per poterlo registrare o elaborare. La digitalizzazione del segnale video ha una storia meno recente di quella del sistema MPEG. Già dal 1982 il CCIR, organo consultivo internazionale che oggi è sostituito dalla sezione raccomandazioni dell'ITU denominata ITU-R, definì le specifiche CCIR 601 "Encoding Parameters of Digital Television for Studios" (vedi collegamenti esterni). Nell'ultima edizione del 1990, CCIR 601-2, ci sono le basi dell'odierno → sistema televisivo digitale e tale specifica è oggi il punto di riferimento costante per chiunque operi nel campo della digitalizzazione video. Le CCIR 601 hanno permesso l'introduzione del video digitale negli studi di produzione televisiva, infatti nel broadcast già da lungo tempo vengono impiegate macchine di registrazione video in formato digitale. Solo successivamente, con il DVB e la compressione video, le tecniche digitali sono state applicate alle trasmissioni televisive ed oggi rappresentano l'evoluzione del sistema televisivo in tutte le sue estensioni: via cavo, via satellite e via terrestre. Linee TV, pixel e campioni Una immagine TV analogica viene normalmente descritta come il risultato di una scansione operata da sinistra verso destra e dall'alto verso il basso. Ogni scansione completa è costituita da 625 linee e, in base allo standard adottato in Europa, viene ripetuta per 25 volte in un secondo così come in una proiezione cinematografica si hanno 24 fotogrammi in un secondo. Le 625 linee tv non vengono impiegate totalmente per descrivere l'immagine. Infatti oltre alle informazioni sul contenuto di luminanza e crominanza dell'immagine sono necessarie altre informazioni per la cui trasmissione necessita un periodo di pausa pari al tempo di trasmissione di ben 49 linee. Le linee attive dell'immagine sono quindi 576. Nel campo della TV digitale si utilizza invece un'altra modalità di descrizione dell'immagine suddividendola in → pixel. Per ogni linea tv si considerano quindi 720 pixel pertanto una intera immagine tv è formata da 720 x 576 pixel. 58 Compressione video digitale Ad ogni pixel sono associati i valori di informazione luminosa dell'immagine, la luminanza (Y), e i valori relativi al colore, la crominanza (C). Ogni pixel è quindi costituito da campioni di luminanza e crominanza in numero variabile in funzione del livello qualitativo che si deve ottenere, descritto nella raccomandazione CCIR 601 (vedi anche televisore). Dall'analogico al digitale 4.2.2 Le specifiche CCIR 601-2 hanno avuto il grande ruolo di normalizzare le condizioni di digitalizzazione del segnale video al fine di facilitare l'intera operabilità tra le macchine e favorire lo scambio dei programmi televisivi. Una altra specifica, la CCIR 656 ha invece fissato le condizioni di interfaccia tra i sistemi e le apparecchiature destinate al trattamento dei segnali video digitali. Secondo le CCIR 601-2 il segnale video digitale standardizzato è costituito dai dati relativi al campionamento di tre componenti del segnale video: la componente di luminanza Y e due componenti di differenza colore Cb e Cr. Queste tre componenti vengono campionate al fine di produrre un segnale digitale formato da 864 campioni di luminanza Y e 432 campioni di crominanza per ogni segnale differenza colore Cb e Cr. Questi valori si riferiscono ad una immagine televisiva completa con 625 linee e 50 semi-quadri. L'immagine reale, come abbiamo visto, invece lascia inutilizzate alcune aree pertanto i campioni realmente utilizzati sono di meno in quanto i pixel utili alla descrizione dell'immagine sono 720 in senso orizzontale e 576 in senso verticale. Il rapporto tra i campioni di luminanza e crominanza all'interno dell'immagine è determinato dallo schema di → sottocampionamento della crominanza. Gli schemi maggiormente usati sono tre: 4:2:2, 4:1:1 e 4:2:0. Lo schema 4:2:2 è indicato dalla specifica CCIR 601-2 come lo standard di fatto per l'interscambio dei programmi e la diffusione tv. Gli schemi 4:2:0 e 4:1:1 sono utilizzati da alcuni codec, come il Digital Video, per ridurre ultreriormente la banda occupata dal segnale. Questi due schemi richiedono la stessa larghezza di banda, ma l'ordine dei campioni è differente. In una immagine video trasmessa nel formato 4:2:2, in orizzontale per ogni linea si hanno due campioni di crominanza Cb e Cr ogni quattro campioni di luminanza mentre in verticale si ha la successione di linee identiche. Ciò significa che in orizzontale si ha un sottocampionamento mentre in verticale no. Ridurre la quantità di dati Se proviamo a calcolare il "bitrate" necessario alla trasmissione di un segnale video campionato in 4:2:2 a 8 bit avremo delle amare sorprese in quanto ci troveremo di fronte ad un bit rate necessario di 216 Mb/s, valore molto elevato. Ovviamente se si escludono le parti non significative dell'immagine ovvero, gli intervalli di cancellazione di linea e di quadro, si può avere un risparmio in termini di bit rate passando da 216 Mbit/s a 166 Mbit/s. Il "bitrate" è in stretta connessione con la larghezza di banda necessaria per eseguire la trasmissione via radio. Pertanto per poter trasmettere un segnale digitale è necessario adattare il bit rate alla larghezza del canale satellitare. Prendendo ad esempio un canale satellitare largo 33 MHz, questo supporta un Symbol Rate di 24,4 Ms/s che equivale, in QPSK, ad un bit rate di 48,8 Mb/s (fuori dalla codifica Reed-Solomon e Convoluzionale). Attualmente viene tollerato un certo degrado di qualità che mantiene il tasso di errori entro valori accettabili, pertanto viene utilizzato frequentemente un Symbol Rate di 27,5 Ms/s il che equivale ad ottenere un bit rate massimo di 55 Mb/s. Tale bit rate viene ridotto impiegando la codifica convoluzionale e quindi si ottengono diversi valori convenienti di bit rate in funzione del FEC impiegato. Con un FEC di 1/2 si ottiene un bit rate di 25,43 Mb/s mentre con un FEC di 7/8 si ottiene un bit rate di 44,35 Mb/s. Attualmente viene largamente impiegato un FEC di 3/4 con il quale si ottiene un bit rate di 38 Mb/s per un canale come quello utilizzato su Hot Bird largo 33 MHz e con un Symbol rate di 27,5 Ms/s. I valori ottenuti sono più favorevoli di quelli indicati dalla norma ETS 300 421 "Digital Broadcasting sistems for television, sound and data services" e riportati nella tabella 1. 59 Compressione video digitale Nonostante le possibilità del sistema di trasmissione, 38 Mb/s sono ancora pochi per supportare la trasmissione di un segnale video digitale. Per questo motivo entra in gioco il sistema di compressione MPEG-2 adottato dal DVB. Utilizzando la compressione si ottiene una forte riduzione della quantità di dati da trasmettere permettendo così di sfruttare un unico canale satellitare per la trasmissione di più programmi televisivi. Basti pensare al fatto che attualmente la migliore qualità di trasmissioni dirette agli utenti richiede un bit rate di circa 8 Mbit/s per ogni programma tv. Pertanto ciò lascia intuire che unendo l'MPEG-2 alle tecniche di multiplazione digitale si possano trasmettere grandi quantità di dati. Ciò è infatti quello che accade con le attuali trasmissioni digitali dove su un solo transponder da 33 MHz può trovare spazio la combinazione di programmi aventi anche tra loro un diverso bit rate. Alla base di questo principio sta una importante applicazione, relativa alle tecniche di compressione, attualmente sperimentata dalle trasmissioni RAI. Tali trasmissioni infatti utilizzano la tecnica di "compressione dinamica" per mezzo della quale il bit rate dei singoli programmi che condividono lo stesso bouquet non è fisso ma può variare dipendentemente dalle esigenze istantanee di qualità e quindi di bit rate delle singole immagini. Ad esempio: un programma sportivo con immagini in forte movimento può avere a disposizione un bit rate istantaneo elevatissimo sfruttando una maggiore compressione degli altri programmi presenti nello stesso bouquet. MPEG-2, indispensabile per il DVB La televisione digitale DVB (Digital Video Broadcasting) adotta la compressione video chiamata MPEG-2. La sigla MPEG deriva dal nome di un gruppo di lavoro chiamato Motion Pictures Expert Group che riunisce esperti internazionali del settore con lo scopo di standardizzare le procedure di compressione per servizi televisivi e multimediali. Si tratta in realtà di un gruppo di lavoro ISO/IEC con la complicata sigla identificativa JTC1/SC29/WG11, che opera congiuntamente al gruppo 15, della sezione telecomunicazioni della ITU, che invece si occupa di codifica video ATM. Il gruppo MPEG collabora anche con la sezione raccomandazioni della ITU, SMPTE e la comunità americana che si occupa di → HDTV. MPEG-2 raggruppa le specifiche divenute standard a tutti gli effetti e fissate al 29º meeting ISO/IEC di Singapore nel novembre 1994. Tali specifiche sono raccolte nel fascicolo ISO/IEC 13813 in tre parti: 13183-1 per il sistema; 13183-2 per il video e 13183-3 per l'audio. Esistono altre specifiche MPEG ovvero: MPEG-1, MPEG-3 e → MPEG-4; la prima non è diversa concettualmente da MPEG-2 ma ha caratteristiche inferiori, mentre MPEG-3 era uno standard per applicazioni con immagini ad alta definizione → HDTV in seguito abbandonato. L'MPEG-4 è una somma degli standard precedenti, è molto flessibile e supporta molte modalità di compressione con bit rate che possono essere estremamente ridotti o molto ampi. Collegamenti esterni • Encoding Parameters of Digital Television for Studios [1] Note [1] http:/ / www-inst. eecs. berkeley. edu/ ~cs150/ fa04/ Documents. htm#Video 60 Sottocampionamento della crominanza 61 Sottocampionamento della crominanza Il sottocampionamento della crominanza è una tecnica che consiste nel codificare immagini riservando maggiore risoluzione al segnale di luminanza piuttosto che all'informazione di crominanza. È una tecnica utilizzata in molti modelli di compressione per segnali sia analogici che digitali, ed è usata anche dalla compressione JPEG e MPEG. Aspetti tecnici Un segnale video, soprattutto se a → componenti, ha una larghezza di banda molto ampia, comportando tutta una serie di problemi per essere registrato o trasmesso. Di conseguenza, sono spesso usate tecniche di compressione per migliorare la gestione del segnale, aumentare la durata delle registrazione oppure aumentare il numero di canali di trasmissione. Dal momento che la visione umana è molto più sensibile alle variazioni di livello luminoso piuttosto che ai cambiamenti di colore[1] , si può sfruttare questo principio per ottimizzare la compressione, dedicando più banda alla luminanza (Y) e meno alla differenza delle componenti cromatiche (Cb e Cr). Lo schema di sottocampionatura 4:2:2 Y'CbCr, per esempio, richiede solo due terzi della banda del (4:4:4) → R'G'B'. Questa riduzione è pressoché impercettibile all'occhio umano. Come funziona il sottocampionamento Il sottocampionamento della crominanza differisce dalla teoria scientifica nel fatto che le componenti di luminanza e crominanza sono formate come somma pesata di componenti tristimolo R'G'B' dopo una correzione di gamma, invece che da componenti RGB tristimolo lineari. Come risultato, la luminanza e i dettagli di colore non sono del tutto indipendenti l'una dagli altri, ma avviene una sorta di "miscelazione" tra i due componenti. L'errore è maggiore nei colori molto saturi e si nota nel verde e nel magenta delle barre colore. Invertendo l'ordine delle operazione tra la correzione di gamma e la somma pesata dei segnali, il sottocampionamento può essere meglio applicata. Originale senza sottocampionatura. Ingrandimento 200%. Immagine dopo la sottocampionatura (compressa con codec DV di Sony Vegas.) Sottocampionamento della crominanza Sistemi di campionatura Lo schema di sottocampionatura è normalmente indicato con una notazione a tre cifre (es. 4:2:2) o talvolta a quattro cifre (es. 4:2:2:4). Il significato dei numeri è il seguente: • Riferimento di campionatura orizzontale della Luminanza (in origine, come multiplo della sottoportante a 3.579 MHz in NTSC o di 4.43 MHz in PAL). • Fattore orizzontale Cr (relativo alla prima cifra). • Fattore orizzontale Cb (relativo alla prima cifra), a meno che non sia posto a zero. In questo caso, lo zero indica che il fattore orizzontale Cb è identico alla seconda cifra e, in aggiunta, sia il Cr che il Cb sono sottocampionati 2:1 in senso verticale. Lo zero è scelto affinché la formula di calcolo della larghezza di banda rimanga corretta. • Fattore orizzontale Alfa (relativo alla prima cifra). Può essere omesso se non è presente un canale alfa. Per calcolare la larghezza di banda necessaria rispetto a un segnale 4:4:4 (o 4:4:4:4), si sommano tutti i fattori e si divide il risultato per 12 (o per 16 se c'è un canale alfa). Gli esempi qui sopra sono esclusivamente teorici e a scopo dimostrativo. Si osservi anche che i diagrammi non indicano nessun filtraggio della crominanza, che dovrebbe essere applicato per evitare l'aliasing. Tipi di sottocampionamento 8:4:4 Y'CbCr Ognuno dei due componenti di crominanza, Cb e Cr, è campionato alla stessa risoluzione, e il luma al doppio di questa. Questo schema è usato in telecinema, scanner per pellicole di alta gamma e correttori di colori. Il luma ha il doppio di larghezza di banda di uno schema 4:4:4, e una tale banda richiede due connessioni per essere trasmessa, chiamate link A e link B, ognuno dei quali trasporta un segnale 4:2:2. 4:4:4 Y'CbCr Ognuno dei tre componenti Y'CbCr è campionato alla stessa risoluzione. Questo schema si usa negli scanner di alta gamma e nella post produzione cinematografica. Anche in questo case servono due connessioni: il link A trasporta un segnale 4:2:2, il link B uno 0:2:2. 62 Sottocampionamento della crominanza 4:4:4 R'G'B' (senza sottocampionamento) La notazione "4:4:4" può riferirsi anche allo spazio colore → R'G'B', che implicitamente non ha nessuna sottocampionamento della crominanza. Questo segnale può essere registrato da un videoregistratore HDCAM SR se trasmesso da una connessione dual link. 4:2:2 I due campioni di crominanza sono campionati alla metà della risoluzione della luminanza, dimezzando la risoluzione cromatica. Questo riduce la banda del segnale video di un terzo senza quasi perdite percettibili. Molti formato video di alta gamma usano questo schema: • • • • • Digital Betacam DVCPRO50 and DVCPRO HD DigitalS CCIR 601 / Serial Digital Interface / D1 ProRes 422 4:2:1 Questo schema è definito tecnicamente, ma pochissimi codec lo usano. La risoluzione orizzontale Cb è la metà di quella Cr (e un quarto di quella Y). Questo schema sfrutta il principio che l'occhio umano è più sensibile al rosso che al blu. 4:1:1 Nella sottocampionatura 4:1:1, la risoluzione orizzontale cromatica è ridotta a un quarto. La larghezza di banda risulta dimezzata rispetto a uno schema non sottocampionato. In alcuni ambienti professionali, lo schema 4:1:1 del codec DV non era considerato di classe broadcast all'epoca della sua introduzione, e accettabile solo per applicazioni non professionali.[2] [3] Con il tempo, i formati basati su questo codec sono usati invece in ambienti professionali per l'acquisizione di immagini e l'uso nei server video, e, in maniera sporadica, il codec DV è stato usato anche nella cinematografia digitale a basso costo. I formati che usano questo schema includono: • DVCPRO (NTSC e PAL) • DV e DVCAM (NTSC) 4:2:0 Questo schema è utilizzato in: • Tutte le versioni di codec MPEG, incluse le implementazioni MPEG-2 come il → DVD (alcuni profili di → MPEG-4 possono usare schemi di qualità più elevata, come il 4:4:4) • DV e DVCAM (PAL) • HDV • Implementazioni comuni JPEG/JFIF, H.261, e MJPEG • VC-1 I componenti Cb Cr sono sottocampionati di un fattore 2 sia verticalmente che orizzontalmente, e centrati a metà delle linee di scansione verticali. Esistono tre varianti degli schemi 4:2:0, che differiscono per il posizionamento verticale e orizzontale. • In MPEG-2, Cb e Cr coincidono orizzontalmente. 63 Sottocampionamento della crominanza • In JPEG/JFIF, H.261, e MPEG-1, Cb e Cr sono posizionati a metà strada, tra i campioni di luminanza (Y) alternati. • In DV 4:2:0, Cb e Cr sono alternati riga per riga. Gli schemi colore PAL e SECAM sono particolarmente adatti a questo tipo di compressione. La maggior parte dei formati video digitali corrispondenti al PAL usano il sottocampionamento di crominanza 4:2:0, con l'eccezione del DVCPRO25, che usa lo schema 4:1:1. La larghezza di banda necessaria è dimezzata rispetto al segnale pieno per entrambi gli schemi. Con il materiale interlacciato, il sottocampionamento 4:2:0 può creare artefatti sulle immagini in movimento, se il sottocampionamento viene applicato nello stesso modo del materiale progressivo. I campioni di luminanza, infatti, provengono da semiquadri diversi mentre quelli di crominanza provengono da entrambi i semiquadri. La differenza fra i campioni genera gli artefatti. Lo standard MPEG-2 prevede l'uso di uno schema alternativo per evitare il problema, dove la schema 4:2:0 è applicato a ogni semiquadro ma non ad entrambi i semiquadri contemporaneamente. Originale. *Questa immagine mostra un singolo semiquadro. Il testo in movimento ha subito una sfuocatura. Campionamento 4:2:0 progressivo applicato a materiale in movimento interlacciato. Si noti che la crominanza precede e segue il testo. *Questa immagine mostra un singolo semiquadro. Campionamento 4:2:0 interlacciato applicato a materiale in movimento interlacciato. *Questa immagine mostra un singolo semiquadro. Nello schema 4:2:0 interlacciato,ad ogni modo, la risoluzione verticale della crominanza è pressapoco dimezzata dal momento che i campioni comprendono un'area di 4x2 campioni invece di 2x2. Allo stesso modo, il dislocamento temporale tra i due semiquadri può portare ad artefatti sui colori. Immagine fissa originale. Campionamento 4:2:0 progressivo applicato a un'immagine fissa. Sono mostrati entrambi i campi. 64 Sottocampionamento della crominanza Campionamento 4:2:0 interlacciato applicato a un'immagine fissa. Sono mostrati entrambi i campi. Se il materiale interlacciato deve essere deinterlacciato, gli artefatti sulla crominanza (derivati dal campionamento 4:2:0 interlacciato) possono essere rimossi sfumando la crominanza verticalmente.[4][5] 4:1:0 Questo schema è possibile (alcuni codec lo supportano), ma non molto usato. Prevede metà della risoluzione verticale e un quarto di quella orizzontale, con solo un ottavo della larghezza di banda originale. Il video non compresso, in questo formato, con quantizzazione a 8 bit, usa 10 byte per ogni macropixel (4 pixer x 2). La banda della crominanza è equivalente a quella di un segnale PAL I decodificato con linea di ritardo, e ancora molto superiore a un segnale NTSC. • Alcuni codec video posso funzionare con schemi 4:1:0.5 o 4:1:0.25, come opzione, con una qualità superiore a un nastro VHS e una larghezza di banda simile. 3:1:1 Usato dalla SONY per i registratori HDCAM (ma non sugli HDCAM SR), questo schema prevede il campionamento orizzontale della luminaza a tre quarti della frequenza di un segnale ad alta definizione, cioè 1440 campioni per riga invece di 1920. La crominanza è campionata a 480 campioni per riga, un terzo del campionamento della luminanza. In senso verticale, entrambi i segnali sono campionati sull'intera banda del segnale (1080 righe). Terminologia Il termine Y'UV si riferisce a uno schema analogico di codifica mentre Y'CbCr si riferisce a uno schema digitale. Una differenza tra i due schemi è che i fattori di scala dei componenti di crominanza (U, V, Cb, and Cr) sono differenti. Comunque, il termine YUV è spesso erroneamente usato per riferirsi alla codifica Y'CbCr. Come conseguenza, notazioni come "4:2:2 YUV" si riferiscono sempre allo schema 4:2:2 Y'CbCr dal momento che non esiste un sottocampionamento 4:x:x nella codifica analogica (come è lo YUV). In maniera simile, il termine luminanza e il simbolo Y sono spesso usata per riferirsi al luma, indicato con il simbolo Y'. Si noti che il il luma (Y') della tecnologia video differisce dalla luminanza luminance (Y) usata come termine scientifico (definito dalla CIE). Il Luma è dato dalla somma pesata dei componenti tristimolo RGB dopo la correzione di gamma, mentre la luminanza è data dalla somma pesata dei componenti tristimolo RGB lineari. In pratica, il simbolo Y della CIE spesso indica erroneamente il luma. Nel 1993, la SMPTE stabili le Engineering Guideline EG 28, chiarendo i due termini. Il simbolo primo ′ si usa per indicare la correzione di gamma. I termini croma/crominanza differiscono in maniera simile dalla crominanza intesa in ambito scientifico. la crominanza della tecnologia video è formata dai componenti tristimolo corretti e non lineari. In questo ambito, i termini croma, crominanza, e saturazione sono di spesso riferiti allo stesso concetto. 65 Sottocampionamento della crominanza Si veda anche • • • • • • • • • • Spazio colore SMPTE - Society of Motion Picture and Television Engineers DV Alta definizione YCbCr YPbPr CCIR 601 4:2:2 SDTV YUV → Colore Vista • Bastoncelli • Coni Bibliografia • Poynton, Charles. "YUV and luminance considered harmful: A plea for precise terminology in video" [6] • Poynton, Charles. "Digital Video and HDTV: Algorithms and Interfaces." USA: Morgan Kaufmann Publishers, 2003. • Carlo Solarino, Video produzione digitale, Vertical 1999 Note [1] Margaret Livingstone, The First Stages of Processing Color and Luminance: Where and What in Vision and Art: The Biology of Seeing, New York, Harry N. Abrams2002, pp. 46-67 [2] http:/ / www. dvcentral. org/ DV-Beta. html [3] http:/ / www. adamwilt. com/ DV-FAQ-tech. html [4] http:/ / www. dv. com/ news/ news_item. jhtml;?LookupId=/ xml/ feature/ 2003/ wilt0603 [5] http:/ / www. hometheaterhifi. com/ volume_8_2/ dvd-benchmark-special-report-chroma-bug-4-2001. html [6] http:/ / www. poynton. com/ papers/ YUV_and_luminance_harmful. html 66 Video a componenti 67 Video a componenti Il video a componenti, anche noto come component, è una tipologia di formato → video analogico che si contrappone al → video composito. Il video a componenti si contraddistingue dal video composito per il fatto di avere le informazioni video distinte in più componenti separate, diversamente dal video composito che invece le miscela in un unico flusso informativo. Attualmente negli impianti domestici i cablaggi video a componenti vengono gradatamente sostiutuiti dai cablaggi digitali → DVI e → HDMI in grado di fonire maggiore qualità. In ambito professionale invece il video a componenti è ancora largamente utilizzato nei cablaggi. Tre cavi, ognuno con connessione RCA ad entrambi i capi, sono spesso usati per trasmettere segnale video analogico Video analogico a componenti I segnali video analogici devono fornire tre informazioni (note anche come componenti) relative ai segnali rosso, verde e blu per creare un'immagine televisiva. Il tipo più semplice di video a componenti, → RGB, consiste di tre segnali discreti rosso, verde e blu trasportati da tre cavi coassiali. Esistono alcune varianti sul formato, relative a come le informazioni di sincronismo sono gestite: se integrate nel canale verde, questo sistema prende il nome di sync-on-green (RGsB). Altri schemi usano un canale di sincronismo separato, come per esempio nel caso del connettore SCART in cui i segnali usano quattro pin (R,G,B + sync) dei ventuno disponibili (RGBS), più una massa comune. Un altro schema possibile è il SVGA, usato a livello globale per i monitor dei computer; questo schema è noto talvolta come RGBHV, poiché gli impulsi di sincronismo verticali e orizzontali usano a loro volta linee separate. Un tipo alternativo di divisione dei componenti non usa i segnali RGB ma, al loro posto, un segnale senza informazioni di colore, chiamato luminanza (Y) combinato con uno o più segnali che trasportano le informazioni di crominanza (C). Canali di crominanza più numerosi permettono una maggiore precisione di mappatura nello spazio colore RGB. Questo schema di separazione è una trasformazione lineare dello spazio colore sRGB, e da luogo al tipo di segnale a cui ci si riferisce di solito quando si parla di video a componenti. Alcune varianti di questo formato includono gli schemi YUV, YCbCr, YPbPr e YIQ, che sono comunemente usati nei sistemi video. In questo caso, il segnale a componenti viene trasmesso lungo tre cavi coassiali. In ambito televisivo, questo tipo di connessione è molto comune nei videoregistratori Betacam. Nei sistemi video a componenti, i segnali di sincronizzazione devono essere trasmessi insieme alle immagini, di solito con uno o due cavi separati oppure inseriti nel periodo di cancellazione di uno o di tutti i componenti. Nell'ambito informatico è molto comune avere i sincronismi separati, mentre nelle applicazioni video è più frequente inserire i sincronismi nel componente Y, che a tutti gli effetti è un segnale televisivo monocromatico completo. Un segnale video a componenti è anche il formato S-Video, che separa luminanza e crominanza su due cavi separati. Questo tipo di connessione, tuttavia, non può trasmettere immagini ad alta definizione o di qualità digitale (intesa come immagini con più di 480 linee interlacciate in NTSC e 576 in PAL). Il video a componenti, invece, è adatto a segnali come 480p, 720p, 1080i e 1080p, mentre è richiesta una connessione digitale come → DVI (solo video) e → HDMI (che può includere fino a 8 canali audio) per avere i migliori risultati alle risoluzioni più elevate (fino a 1080p). Esempi di standard internazionali per il video a componenti sono: Video a componenti 68 • RS-170 RGB (525 linee, basato su temporizzazioni NTSC, e noto ora come EIA/TIA-343) • RS-343 RGB (525, 625 o 875 linee) • STANAG 3350 Analogue Video Standard (NATO versione militare dello standard RS-343 RGB) Voci correlate • • • • Interfaccia video → Video composito RCA S-Video Video composito Il video composito, acronimo CVBS,[1] [2] è una tipologia di formato → video analogico che si contrappone al → video a componenti. Il video composito si contraddistingue dal video a componenti per il fatto di avere le informazioni componenti il video (luminanza, crominanza, sincronismi d'immagine e di colore) miscelate in un unico flusso informativo, quindi di norma ha una qualità peggiore rispetto al video a componenti in quanto è estremamente difficile impedire che le componenti video interferiscano tra loro. Connettore RCA, usato comunemente per il video composito Il video composito è trasmesso a distanza attraverso cavi coassiali di tipo RG59, o equivalenti, aventi impedenza caratteristica di 75Ω. Composizione Lo spettro del video composito può raggiungere i 5,3 MHz. L'ampiezza tipica è di 1 volt picco-picco ma in particolari sistemi può essere sommato ad una componente a tensione continua. Per convenzione si considera il livello della base dei sincronismi a -300 mV, il livello del nero a 0 mV e il livello del bianco a 700 mV. Il video composito è la somma elettrica della luminanza (Y) alla crominanza (C) modulata in ampiezza su una sottoportante a 3.58 MHz (nello standard televisivo NTSC) o 4.433 MHz (nello standard televisivo PAL). La crominanza è modulata in frequenza nello standard televisivo SÉCAM. Connettore BNC, utilizzato per il video composito in campo professionale. Questo tipo di connettore è usato anche per ogni tipo di video analogico e digitale. Il sistema della sottoportante di crominanza permette al video composito di essere compatibile sia con i sistemi in bianco e nero che a colori. Per contro viene persa parte del dettaglio della banda video che coincide con il centro banda colore quando il video composito viene processato per separare il colore dalla luminanza. Inoltre rari e particolari dettagli della luminanza possono ingannare il decodificatore della crominanza creando un effetto di battimento detto moiré che si visualizza mediante false bande colorate su immagini composte Video composito da righe verticali in bianco e nero molto ravvicinate. Un classico esempio di questo difetto sono abiti e cravatte a righe sottili. Codifica Nello standard PAL il sincronismo della componente colore è detto burst e si compone di dieci cicli di riferimento della durata di 2.2 μs immediatamente dopo il sincronismo di riga. Il burst serve per sincronizzare in fase l'oscillatore quarzato presente nei ricevitori o monitor. Nello standard PAL (utilizzato anche in Italia) la componente colore è ottenuto attraverso particolari modulazioni di una portante colore a 4.43361975 MHz. Precisamente la modulazione di ampiezza determina la saturazione del colore sullo schermo. La modulazione di fase determina la tinta cromatica. Il segnale in bianco e nero, ottenuto attraverso la somma delle componenti primarie di colore (0.11% blu + 0.30% rosso + 0.59% verde) ed è sostanzialmente identico al segnale bianco e nero creato con una sorgente di ripresa in bianco e nero (vidicon, saticon, plumbicon, ccd). Le percentuali così ottenute formano il solo segnale video bianco e nero con ampiezza di 0.7 Volt. Al segnale bianco e nero viene sommato il sincronismo orizzontale e verticale di quadro e semiquadro di ampiezza -0.3 volt, ottenendo un segnale bianco e nero di 1 Volt La componente colore viene ottenuto trasmettendo i soli segnali di differenza del rosso e del blu (il verde si ottiene sottraendo rosso e blu della luminanza) attraverso la modulazione in quadratura di una portante (carrier) a 4.43361975 MHz. I segnali di differenza del rosso e del blu sono derivati dalla sottrazione dagli stessi della luminanza e sono indicati come R-Y e B-Y. Questi segnali vengono percentualmente ridotti e ridenominati con V ed U a causa di problemi di sovramodulazione nella trasmissione in radiofrequenza del segnale televisivo. La modulazione in quadratura si ottiene attraverso la modulazione in ampiezza ed in fase della portante colore. La modulazione in ampiezza e fase si ottiene con la modulazione in quadratura, ovvero si utilizzano due portanti derivate dallo stesso oscillatore ma sfasate tra loro di 90° (quadratura), sullo stesso principio del seno/coseno. Una portante viene modulata dalla differenza del blu, mentre la portante sfasata di 90° viene modulata dalla differenza del rosso. La somma delle due portanti modulate in ampiezza crea il segnale colore. L'ampiezza massima caratteristica di picco di 0.3 Volt, a 4.433 MHz. Ampiezza e fase sono variabili in funzione del contenuto dei segnali di differenza colore, ovvero della saturazione e della tinta del soggetto ripreso dalla telecamera o creato attraverso altri sistemi quali videogiochi, computer, macchine fotografiche digitali, eccetera. Nel sistema PAL, per ottenere la correzione del ritardo di fase presente nel sistema NTSC, dovuto a fattori di trasmissione o distorsione o elaborazione del segnale che causano variazioni della tinta del colore in riproduzione, viene sfasato prima di + 90°, alla riga successiva di -90° equivalente a +270°. La somma vettoriale di due righe colore soggette ad un ritardo di fase, restituisce la fase corretta in quanto la riga successiva invertita contiene lo stesso segnale a +270° riportato a 90° ma con l'errore invertito e vettorialmente annullato. Al segnale colore viene aggiunto, di riga in riga, una serie di 10 impulsi (burst) per sincronizzare in fase l'oscillatore quarzato presente nei circuiti di decodifica del colore. Il burst colore si trova in una zona del segnale che corrisponte ad una zona non visibile della riga visualizzata sullo schermo. Questa zona si trova immediatamente dopo il termine dell'impulso di sincronismo di riga, nel supernero. Il supernero è la cancellazione di traccia ed è il tempo che il fascio di elettroni proiettato sullo schermo impiega per tornare dal margine destro al margine sinistro. I due segnali, luminanza (bianco e nero + sincronismi) e crominanza (colore + burst), formano il classico segnale component o S - derivato da S-VHS. Con questi due segnali si ottiene un'ottima riproduzione del bianco e nero e dei dettagli, ma si ottiene una limitazione nel dettaglio colore. Sommati tra loro formano il segnale video composito. 69 Video composito Decodifica I circuiti di decodificazione separano dal segnale video composito il segnale di crominanza ed il segnale di luminanza il quale viene filtrato della componente a 4.433 MHz in modo da non creare un disturbo a reticolato rappresentato dalla componente colore. Apposite ed elaborate circuiterie fanno in modo di recuperare il dettaglio successivo dello spettro fino a 5.3 MHz per mantenere un dettaglio sufficientemente valido. Un circuito separa dal segnale composito i segnali di sincronismo verticale ed orizzontale. Dal primo fronte negativo del segnale di sincronismo orizzontale viene ricavata una finestra che serve a far passare il burst colore per sincronizzare in frequenza ed in fase l'oscillatore colore quarzato dei circuiti di decodifica del colore. In circuito colore ricostruisce i segnali della portante in quadratura e, attraverso il confronto col segnale colore ricevuto, ne ricava le differenze colore B-Y ed R-Y. A questi due segnali viene sommata la luminanza e si ricava Y+(B-Y)=B e Y(R-Y)=R Con una matrice resistiva, attraverso la sottrazione di R e di B da Y, si ricava il verde G. Le componenti RGB vengono inviate al cinescopio il quale provvederà a visualizzare le componenti RGB sullo schermo, illuminando i corrispondenti fosfori colorati in modo da ottenere l'immagine a colori.. Tecniche digitali Nelle tecniche moderne digitali, il segnale non viene più trattato in modo analogico, ma le componenti dei colori vengono immediatamente convertiti in digitale con un bitrate a circa 13.4 MHz. Il fatto che l'occhio umano ha minor dettaglio sui colori rispetto al bianco e nero, ha fatto sì che non fosse neccessario tenere lo stesso dettaglio per i singoli punti colore, ma vengono inserite alternativamente le differenze colore tra i dati di luminanza con questo schema detto 4.2.2: Y, R-Y, Y, B-Y, Y, R-Y... Voci correlate • → Video • Interfaccia video Bibliografia • Carlo Solarino, Per fare televisione, Vertical 1995 • Silvio Silvi, "Appunti di tecniche video - il video composito", Vip Videosystem 1988 Note [1] CVBS è l'acronimo dell'inglese "Composite Video Blanking and Sync" o "Color Video Blanking and Sync" [2] In Germania sono utilizzati gli acronimi BAS (del tedesco "Bild Austastung Synk"), per il video composito in bianco e nero, e FBAS (del tedesco "Farb Bild Austastung Synk"), per il video composito a colori, è quindi possibile trovarli su qualche apparecchiatura video di origine tedesca per indicare un ingresso o un'uscita video in video composito. 70 Formato contenitore Formato contenitore Un formato contenitore è un formato di file che può contenere diversi tipi di dati, → compressi tramite codec audio/video. Il file contenitore è usato per identificare e disporre i differenti tipi di dati in maniera non contigua. I formati contenitori più semplici possono contenere diversi tipi di codec audio, mentre quelli pià avanzati arrivano a supportare anche i → codec video, sottotitoli e tag metadata. Alcuni contenitori sono esclusivamente di matrice audio, ad esempio: • AIFF (largamente usato nei sistemi operativi Mac OS) • WAV (Resource Interchange File Format, usato prevalentemente nei sistemi Windows) • XMF (Extensible Music Format) Altri contenitori riguardano unicamente immagini digitali: • FITS (Flexible Image Transport System), formato contenitore per file RAW ed i metadata associati. • TIFF (Tagged Image File Format), formato contenitore per immagini ed metadata associati. Altri contenitori supportano sia dati audio che video:: • 3GP (usato maggiormente da dispositivi portatili e telefoni cellulari) • ASF (contenitore standard proprietario riguardante WMA and WMV) • → AVI (contenitore standard Microsoft) • DVR-MS ("Microsoft Digital Video Recording"), contenitore video proprietario, sviluppato da Microsoft e basato su ASF) • IFF (primo formato contenitore multipiattaforma) • → MKV , (formato contenitore open source). • • • • → MP4 (contenitore audio/video standard per il formato .mp4) → MOV (contenitore video standard per Quicktime della Apple) → Ogg (contenitore audio standard della fondazione Xiph.org. RealMedia (contenitore standard per RealVideo e RealAudio) Problemi ed incompatibilità Le differenze tra i molti formati contenitori derivano da cinque grandi problematiche: 1. Popolarità; ovvero, quanto sia diffuso il formato. 2. Overhead; ovvero, la differenza di peso (in termini di memoria occupata) tra due differenti contenitori, aventi il medesimo contenuto. 3. Supporto per funzionalità avanzate dei codec. Ad esempio, formati considerati "vecchi" quali l'→ AVI non supportano alcuna funzionalità avanzata, sebbene il problema possa essere aggirato attraverso hacking, causando spesso problemi di compatibilità. 4. Supporto per contenuti avanzati quali sottotitoli, metatags et similia. 5. Supporto per lo → streaming. 71 Formato contenitore 72 Voci correlate • • • • FFmpeg Cross-platform Open source Codec Velocità di trasmissione Bit rate Prefissi SI Nome Simbolo kilobit per secondo kb/s Multiplo 103 megabit per secondo Mb/s 106 gigabit per secondo Gb/s 109 terabit per secondo Tb/s 1012 Prefissi binari (IEC 60027-2) kibibit per secondo Kib/s 210 mebibit per secondo Mib/s 220 gibibit per secondo Gib/s 230 tebibit per secondo Tib/s 240 Il termine velocità di trasmissione (o di trasferimento) viene solitamente utilizzato a proposito di scambi di informazioni tra computer o comunque dispositivi elettronici. Siccome su questi dispositivi l'informazione viene memorizzata e viaggia in forma digitale, ovvero è sostanzialmente una sequenza di bit, è naturale che tale velocità venga misurata in bit per secondo (e da qui il termine equivalente inglese bitrate). In realtà sulle veloci macchine moderne avrebbe poco senso usare come unità di misura proprio il bit/secondo, per cui vengono utilizzati principalmente i vari multipli del bit (che è identificato con una b): abbiamo il byte (sequenza di 8 bit, identificato da una B), la word (sequenza di 16 bit) e la double word (sequenza di 2 word oppure 32 bit) e poi i prefissi standard del sistema decimale, cosicché, ad esempio, se in una linea ADSL abbiamo un trasferimento dati di 4 Mb/s, cioè 4.000.000 b/s, avremo (4.000.000/8) B/s equivalenti a 500 kB/s. Il bisogno di utilizzare questi prefissi risulta evidente se si pensa che ad esempio lo standard → USB 2.0 può raggiungere velocità di 480 Mb/s, equivalenti a 60 MB/s. Velocità di trasmissione 73 Confronto tra velocità di vari sistemi • Floppy disk 3,5" 1000 kbps = 125 KiB/s = 1 Mb/s • CD-ROM 1x = 1200 kbps = 150 KiB/s = 1,2 Mb/s • DVD 1x = 11000 kbps = 1375 KiB/s = 11 Mb/s Modem analogico 56k = 56000 bps = 7000 B/s = 7 kB/s = 0,007 MB/s ADSL 1 Mega = 1000 kbps = 125 KiB/s = 1 Mb/s nota2: anche se un byte è formato da 8 bit, bisogna considerare i bit di correzione d'errore, per cui un kB/s corrisponde a circa 8000 b/s (secondo il sistema di correzione usato), e la corrispondenza non è esattamente 1000 b/s = 1000/8 B/s = 125 B/s. Teoremi di Shannon e Nyquist I canali trasmissivi utilizzati per la comunicazione dei dispositivi si suddividono in: • Canali perfetti: non causano distorsioni o ritardi nella propagazione dei segnali. • Canali ideali: causano solo un ritardo costante nella propagazione. • Canali reali: causano attenuazioni e ritardi, in funzione della frequenza dei segnali. Shannon e Nyquist hanno rispettivamente enunciato teoremi che esprimono la massima velocità di trasmissione per ciascun tipo di canale. Il massimo bit rate (data rate) relativo ai canali perfetti è dato dal Teorema di Nyquist, indicato di seguito, che lega la larghezza di banda di un canale alla quantità di informazione trasportabile: Massimo data rate = [b/s] dove H è la larghezza di banda del segnale e V il numero di livelli differenti presenti nel segnale. Il massimo bit rate (data rate) relativo ai canali reali (con rumore termico) è dato dal Teorema di Shannon, indicato di seguito, che considera anche il rumore: Massimo data rate = [b/s] Dove H è la larghezza di banda del segnale , S e 'N sono rispettivamente la potenza del segnale e del rumore del canale. Da questa espressione si deduce chiaramente che per ogni canale esiste un ben preciso limite fisico. Voci correlate • • • • Baud Larghezza di banda Teorema di Nyquist Teorema di Shannon Codec video Codec video Un codec video è un programma o un dispositivo sviluppato per descrivere un flusso video sotto forma di dati numerici adatti ad essere memorizzati su un supporto digitale. Usualmente i codec video effettuano anche una → compressione dei dati in modo da ridurre l'elevata quantità di dati che compone un flusso video. La maggior parte dei codec video adottano tecniche di → compressioni lossy (a perdita di informazioni) in modo da poter ridurre i dati necessari per trasmettere i flussi video anche di 20 volte o più, ma esistono anche dei codec utilizzati per applicazioni professionali che utilizzano → compressioni lossless (senza perdita di informazione). Codifica intraframe e codifica interframe A seconda della diversa tecnica di codifica del flusso video, i codec video si dividono in due grandi famiglie: a codifica intraframe e a codifica interframe. La codifica intraframe contraddistingue i codec che codificano e decodificano un flusso video descrivendo ogni singolo fotogramma che compone la sequenza video, rispettando quindi un approccio tradizionale alla quantizzazione video come sequenza di immagini statiche. Nella codifica interframe invece i codec video si occupano di descrivere i cambiamenti che occorrono tra un fotogramma ed il successivo partendo da un fotogramma iniziale descritto con codifica intraframe e seguendo un approccio più innovativo alla quantizzazione video allo scopo di migliorarne l'efficienza sfruttando la capacità dei sistemi di riproduzione moderni in grado di elaborare l'informazione per poi mostrarne il risultato. La diversa dinamica dei due approcci fa si che la codifica intraframe è più adatta alla riproduzione di sequenze video particolarmente movimentate, descrivendo ogni singolo fotogramma infatti, un codec a codifica intraframe potrà degradare la qualità delle singole immagini all'aumentare del rapporto di compressione, ma tenderà comunque a lasciare inalterata la dinamica del movimento. I codec a codifica interframe risultano invece meno adatti alla codifica di sequenze movimentate per le quali necessitano di descrivere grossi cambiamenti tra i fotogrammi. Al contrario, in sequenze video statiche, ovvero con pochi elementi che cambiano nella scena, la codifica interframe risulta di notevole efficienza. Voci correlate • Codec audio • → Compressione video digitale 74 Contenitore multimediale 75 Contenitore multimediale Questa è una pagina di disambiguazione per orientarsi tra voci omonime o dal titolo ambiguo. Se sei giunto qui da un'altra pagina, per favore torna indietro e correggi il collegamento, indirizzandolo alla voce più appropriata. Un contenitore multimediale è un formato file che può contenere vari tipi di dati. Il suo ruolo è quello di sincronizzare codec video, codec audio, sottotitoli e menu. I contenitori più utilizzati sono: • • • • • • → Ogg ("Ogg Media", contenitore standard open source per Vorbis, → Theora e altri) → Audio Video Interleave (AVI) (contenitore standard Microsoft Windows) ASF (contenitore standard per Microsoft WMA e WMV) → MOV (standard di QuickTime della Apple Inc.) RealMedia (contenitore standard per RealVideo e RealAudio) → Matroska / MKV (non standard per alcun sistema ma in grado di contenere tutti i formati video ed audio sia proprietari che open source) Audio Video Interleave Audio Video Interleave Estensione .avi Tipo MIME video/avi video/msvideo video/x-msvideo Sviluppatore Microsoft Tipo → Contenitore multimediale AVI, acronimo di Audio Video Interleave, è un → Contenitore multimediale realizzato dalla Microsoft nel 1992 come formato standard video per il sistema operativo Windows. Nel febbraio del 1996, Microsoft decide di integrare nel formato AVI un set di estensioni sviluppate da Matrox OpenDML. Questo nuovo tipo di file AVI viene chiamato, non ufficialmente, "AVI 2.0". AVI è un → contenitore multimediale e può contenere uno o due flussi audio e un flusso video. AVI non supporta alcun formato di sottotitoli che devono quindi essere trasformati ed inseriti dentro il flusso video. La mancanza del supporto per sottotitoli e la mancanza di supporto per formati aperti lo differenzia da altri contenitori multimediali come → Matroska ed → Ogg. Audio Video Interleave 76 Formati Multimediali Supportati Video Audio Supporto Supporto Supporto MPEG-1 Sì → MP3 Sì MPEG-2 Sì WMA Sì VobSubs No → MPEG-4 Sì RealAudio No Ogg Writ No Vorbis No WMV Sì USF No AC3 Sì RealVideo Sì DTS Sì → Theora Sì FLAC No Flash No Voci correlate • → Contenitore multimediale • ASF • → MOV • → Ogg • RealMedia • → Matroska • Sigle dei DivX • Screener Sottotitoli integrati Matroska 77 Matroska Nome Matroska (Матрёшка) logo estensione mime .mkv .mka audio/x-matroska video/x-matroska sviluppatore The Matroska Project tipo → Contenitore multimediale licenza Pubblico dominio sito web http:/ / www. matroska. org Matroska (le cui estensioni classiche sono .mkv e .mka) è un progetto volto a sviluppare un contenitore multimediale simile a QuickTime di Apple, Mp4 di MPEG o l'Advanced Systems Format di Microsoft. Il suo nome deriva dalle bambole Matrioska. Il progetto è stato annunciato il 7 dicembre 2002 come fork del progetto Multimedia Container Format in seguito a disaccordi con il creatore del progetto circa l'utilizzo dell'EBML (Extensible Binary Meta Language) invece di un altro formato binario. I fondatori del progetto Matroska credono che l'uso dell'EBML porti numerosi vantaggi, tra i quali facilitazioni in una futura estensione del formato. Obiettivi Gli obiettivi del progetto sono diversi: • Creare un formato contenitore multimediale moderno, flessibile, estensibile e multipiattaforma che permetta lo → streaming attraverso Internet, una ricerca rapida all'interno del file e menu tipo → DVD. • Sviluppare una serie di strumenti per la creazione e la modifica di file Matroska, da rilasciarsi sotto licenza GNU General Public License. • Sviluppare librerie che possano essere utilizzate dagli sviluppatori per avere il supporto Matroska alle loro applicazioni, da rilasciarsi sotto licenza GNU General Public License. • Lavorare in concerto con produttori di hardware per incorporare il supporto Matroska in dispositivi multimediali. • Fornire supporto nativo a Matroska per diversi sistemi operativi, tra cui: • • • • Linux tramite il GStreamer multimedia framework Haiku tramite il suo Mediakit Windows tramite DirectShow Mac OS X tramite il framework QuickTime Matroska 78 Formati multimediali supportati Formati video supportati Supporto MPEG-1 No MPEG-2 Sì → MPEG-4 Sì WMV Sì RealVideo Sì → Theora Sì Flash Sì Formati audio supportati Supporto → MP3 Sì WMA Sì RealAudio Sì Vorbis Sì AC3 Sì DTS Sì FLAC Sì Formati sottotitoli integrati supportati Supporto VobSubs Sì Ogg Writ Sì USF Sì Matroska 79 Voci correlate • → Contenitore multimediale • • • • • → AVI ASF → MOV → Ogg RealMedia Collegamenti esterni Homepage Ufficiale [1] Note [1] http:/ / www. matroska. org/ MPEG-4 MPEG-4, nato nel 1996 e finalizzato nel 1998 (fu presentato pubblicamente ad ottobre di quell'anno), è il nome dato a un insieme di standard per la codifica dell'audio e del → video digitale sviluppati dall'ISO/IEC Moving Picture Experts Group (MPEG). L'MPEG-4 è uno standard utilizzato principalmente per applicazioni come la videotelefonia e la televisione digitale, per la trasmissione di filmati via Web, e per la memorizzazione su supporti CD-ROM. MPEG-4 è basato sugli standard MPEG-1, MPEG-2 e Apple QuickTime technology, supportandone tutte le caratteristiche; ISO approvò il formato QuickTime come base per lo standard MPEG-4, l'MPEG group riteneva infatti che fosse la migliore base di partenza e che integrasse già alcune caratteristiche essenziali[1] ; lo standard evolutosi possedeva inoltre tutta una serie di nuove funzioni come la gestione tridimensionale degli oggetti (tramite un'estensione del VRML). I flussi audio e video vengono trattati dallo standard MPEG-4 come oggetti che possono essere manipolati e modificati in tempo reale bidirezionalmente. Lo standard supporta caratteristiche specificate da terze parti come una particolare gestione dei DRM o una gestione interattiva dei contenuti. La maggior parte delle caratteristiche dell'MPEG-4 sono opzionali e quindi la loro implementazione è lasciata alla discrezione dello sviluppatore. Questo implica che parte dei lettori mediali di file MPEG-4 non saranno magari in grado di gestire tutte le caratteristiche del formato. Per permettere un'elevata interoperabilità, nel formato sono stati inclusi i concetti di profilo e di livello, quindi i vari lettori MPEG-4 potranno essere suddivisi a seconda dei profili e livelli supportati. Componenti MPEG-4 MPEG-4 è suddiviso in vari sotto standard chiamati part (termine inglese che in italiano significa "parte"): • Part 1 (ISO/IEC 14496-1): Systems: Describes synchronization and multiplexing of video and audio. • Part 2 (ISO/IEC 14496-2): Visual: A compression codec for visual data (video, still textures, synthetic images, etc.). One of the many "profiles" in Part 2 is the Advanced Simple Profile • Part 3 (ISO/IEC 14496-3): Audio: A set of compression codecs for perceptual coding of audio signals. • Part 4 (ISO/IEC 14496-4): Conformance: Describes procedures for testing conformance to other parts of the standard. • Part 5 (ISO/IEC 14496-5): Reference Software: Provides software for demonstrating and clarifying the other parts of the standard. • Part 6 (ISO/IEC 14496-6): Delivery Multimedia Integration Framework (DMIF). MPEG-4 • Part 7 (ISO/IEC 14496-7): Optimized Reference Software: Provides examples of how to make improved implementations (e.g., in relation to Part 5). • Part 8 (ISO/IEC 14496-8): Carriage on IP networks: Specifies a method to carry MPEG-4 content on IP networks. • Part 9 (ISO/IEC 14496-9): Reference Hardware: Provides hardware designs for demonstrating how to implement the other parts of the standard. • Part 10 (ISO/IEC 14496-10): A codec for video signals which is also called AVC (Advanced Video Coding) and is technically identical to the ITU-T H.264 standard. • Part 12 (ISO/IEC 14496-12): ISO Base Media File Format: A file format for storing media content. • Part 13 (ISO/IEC 14496-13): Intellectual Property Management and Protection (IPMP) Extensions • Part 14 (ISO/IEC 14496-14): MP4 File Format: The designated container file format for MPEG-4 content MP4, which is based on Part 12. • Part 15 (ISO/IEC 14496-15): AVC File Format: For storage of Part 10 video based on Part 12. • Part 16 (ISO/IEC 14496-16): Animation Framework eXtension (AFX) • Part 17 (ISO/IEC 14496-17): Timed Text subtitle format (not yet finished - reached "FCD" stage in January 2005) • Part 18 (ISO/IEC 14496-18): Font Compression and Streaming (for OpenType fonts) • Part 19 (ISO/IEC 14496-19): Synthesized Texture Stream • Part 20 (ISO/IEC 14496-20): Lightweight Scene Representation (LASeR) . • Part 21 (ISO/IEC 14496-21): MPEG-J Extension for Rendering (not yet finished - reached "CD" stage in January 2005) I profili inoltre sono definiti all'interno di diverse Part, in modo che un'esecuzione di alcune caratteristiche di una Part non implichi la necessità di supportare l'intera Part. MPEG-1, MPEG-2, MPEG-7 e MPEG-21 sono altri standard MPEG. Funzionamento Il concetto alla base del codec (COdificatore-DECodificatore) MPEG4 è la Quantizzazione. Senza scendere nello specifico, si può riassumere come quel processo che permette, mediante un apposito algoritmo di compressione, di trasmettere solamente la variazione dell'immagine. Allo stato dell'arte infatti esistono due modi per eseguire questa operazione: I-frame e P-frame4: il primo codifica l'immagine senza una referenza alla precedente (refresh puro): è più preciso ma più pesante per le applicazioni via rete, mentre la seconda esegue una compensazione nella variazione del movimento (motion-compensated frames) analizzando appunto la differenza di immagine tra due frame correnti. La parte statica non è ritrasmessa e non cambia tra un quadro e l'altro. Voci correlate • • • • • • • • • • Advanced Audio Coding (AAC) XviD DivX 3ivx Nero Digital H.264 M4a MPEG-4 Part 3 → Theora SBR 80 MPEG-4 81 Collegamenti esterni • Tecnologia Mpeg-4 sviluppata da Apple (in inglese) [2] • • • • • • • • Sito italiano sull'Mpeg4 [3] (EN) MPEG-4: The Next Generation [4] (EN) MPEG-4 Audio: AAC [5] (EN) MPEG Industry Forum MPEG-4 page [6] (EN) Moving Picture Experts Group (MPEG) Official Website [7] Galleria di filmati in formato H.264/AVC [8] FAQ sul formato H.264/AVC [9] MPEG-4 part 20: LASeR [10] Note [1] [2] [3] [4] [5] Vedere la voce Quicktime http:/ / www. apple. com/ quicktime/ technologies/ mpeg4/ http:/ / www. m4a. it http:/ / www. apple. com/ mpeg4/ http:/ / www. apple. com/ mpeg4/ aac/ [6] http:/ / www. m4if. org/ mpeg4/ [7] http:/ / www. chiariglione. org/ mpeg/ [8] http:/ / www. apple. com/ quicktime/ hdgallery [9] http:/ / www. apple. com/ mpeg4/ h264faq. html [10] http:/ / www. mpeg-laser. org MOV (formato di file) QuickTime Movie Estensione .mov .qt Tipo MIME video/quicktime Sviluppatore Apple Inc. Tipo Formati multimediali supportati Formati video supportati → Contenitore multimediale MOV (formato di file) 82 Supporto MPEG-1 Sì MPEG-2 Sì → MPEG-4 Sì WMV Sì RealVideo Sì → Theora Sì Flash Sì Formati audio supportati Supporto → MP3 Sì WMA Sì RealAudio No Vorbis Sì AC3 Sì DTS Sì FLAC Sì Formati sottotitoli integrati supportati Supporto Voci correlate • → Contenitore multimediale • • • • • → AVI ASF → Ogg RealMedia → Matroska VobSubs No Ogg Writ No USF No Ogg 83 Ogg Ogg Media Estensione .ogg .ogm .oga .ogv .ogx Tipo MIME video/ogg audio/ogg application/ogg Sviluppatore Xiph.Org Foundation Tipo → Contenitore multimediale Licenza licenza BSD Sito Web [1] Ogg è un → contenitore multimediale libero per il trasporto di flussi di bit progettato per permettere sia lo → streaming che l'archiviazione in maniera efficiente. Il nome "Ogg" si riferisce al formato di file, che include un numero di codec indipendenti per il → video, l'audio ed il testo (ad esempio, per i sottotitoli). I file con l'estensione ".ogg" possono contenere uno qualsiasi dei formati supportati, e poiché il formato è liberamente implementabile, i vari codec ogg sono stati incorporati in molti riproduttori multimediali, sia proprietari, sia liberi. Spesso il termine "ogg" è stato usato per indicare il formato di file audio Ogg Vorbis, cioè un file audio codificato in un file ogg con l'algoritmo Vorbis, poiché questo è stato il primo codec ad usare il contenitore ogg. Altri importanti codec sviluppati per il contenitore ogg sono → Theora per la compressione video, e Speex, un algoritmo ottimizzato per la compressione del parlato. Il progetto è stato sviluppato originariamente da Christopher Montgomery della Xiph.Org Foundation. È inoltre il formato ufficialmente preferito per i file audio e video di Wikipedia. Licenze Le specifiche di Ogg sono di pubblico dominio. Le librerie di riferimento per la codifica e decodifica sono rilasciate sotto licenza BSD. Gli strumenti ufficiali per la gestione del container sono rilasciati sotto GNU General Public License (GPL). I codec di Ogg Ogg è solo un formato che specifica il modo in cui i dati devono essere ordinati nel flusso dati. I dati audio o video codificati da un codec specifico saranno inseriti nel contenitore Ogg. Il contenitore Ogg può contenere flussi codificati con diversi codec: ad esempio, un file audio/video conterrà dati codificati con un codec audio e dati codificati con un codec video. Essendo un formato di contenimento, Ogg può integrare diversi codec. Di seguito le specifiche di Xiph.org in tal senso: Ogg 84 • → Codec video • → Theora: codec di compressione video basato su VP3 di On2 • Dirac: codec sperimentale open source sviluppato originariamente da BBC • Tarkin: codec sperimentale che utilizza trasformate wavelet 3D, nel frattempo reso obsoleto da Theora • OggUVS: stream video non compresso • Codec audio • Vorbis: compressione di segnale musicale e audio generico (~16-256 kbit/s/canale) • Speex: compressione della voce umana a bassi bitrate (~8-32 kbit/s/canale) • FLAC: compressione audio lossless • OggPCM: stream PCM non compresso concettualmente paragonabile a WAVEform audio di Microsoft • Codec testo • Writ: codec per la gestione del testo nei sottotitoli dei filmati • Metadati • Ogg Skeleton: formato ancora in fase sviluppo per spostare i metadati dal livello flusso a livello contenitore Il problema dell'estensione file Sebbene Xiph.org avesse previsto originariamente l'estensione .ogg per il contenitore a prescindere dall'effettivo codec contenuto, l'organizzazione è ritornata sui suoi passi nel 2007, raccomandando di impiegare le sequenti estensioni per i file Ogg: • • • • .ogg .spx .oga .ogv per Ogg contenente solo audio in formato Vorbis per Ogg contenente solo audio in formato Speex per Ogg contenente solo audio in FLAC o OggPCM per Ogg contenente almeno un flusso video A queste si aggiunge l'estensione .flac utilizzata per identificare un flusso FLAC privo del container Ogg. Il formato FLAC era infatti già esistente e funzionante indipendentemente dal contenitore Ogg, e solo in seguito donato a Xiph.org. Prima di questa presa di posizione, il programmatore Tobias Waldvogel era intervenuto sulle specifiche di Ogg per permettergli di raggirare la limitazione del formato AVI di Microsoft a riguardo dell'audio in formato Vorbis. Per identificare uno di questi file Ogg, che contengono codec audio e video arbitrari, la comunità ha autonomamente fatto nascere l'estensione non ufficiale .ogm, con il significato di Ogg Media. Il contenuto più frequentemente riscontrato in questi file è un flusso video XviD e almeno un flusso audio Vorbis. Curiosità • Nonostante la nota passione di Christopher Montgomery per Terry Pratchett e i suoi libri della serie del Mondo Disco, in cui effettivamente esiste un personaggio chiamato Ogg, la vera etimologia del termine deriva da uno slang coniato dallo stesso Montgomery in riferimento alla pesantezza dell'algoritmo Vorbis ai tempi della sua nascita. Riprendendo il nome di una tattica del videogioco Netrek che consisteva in un attacco suicida, è diventato di uso comune l'espressione inglese to ogg con il significato approssimativo di "intraprendere un'azione azzardata, con esiti incerti e conseguenze probabilmente deleterie". Lanciare un processo di codifica di un brano musicale in Ogg Vorbis, al tempo, rendeva infatti totalmente inutilizzabile il computer per diversi minuti. • La struttura interna di un file Ogg ne permette il concatenamento per semplice accodamento binario. Il file risultante è un Ogg perfettamente rispettoso delle specifiche, che prevedono appunto i cosiddetti chained streams. Il modo più pratico di verificare questa caratteristica sono i comandi DOS copy /b file1.ogg+file2.ogg newfile.ogg o Unix Ogg 85 cat file1.ogg file2.ogg > newfile.ogg che generano un file chiamato newfile.ogg contenente i due brani allacciati tra loro con continuità perfetta (caratteristica a volte chiamata gapless output). Collegamenti esterni • Pagina della Xiph.org Foundation dedicata ad Ogg [1] • RFC 3533, le specifiche ufficiali del container Ogg • RFC 3534, le specifiche del MIME type application/ogg Voci correlate • → Contenitore multimediale • • • • • → AVI ASF → MOV RealMedia → Matroska Collegamenti esterni • (EN) OggWatch [2] Progetto per la diffusione dei formati Ogg Note [1] http:/ / www. xiph. org/ ogg/ [2] http:/ / www. oggwatch. com/ Theora 86 Theora Theora è un codec → video sviluppato dalla Xiph.Org Foundation come parte del progetto → Ogg. È basato sul codec VP3 della On2 Technologies, ed è progettato per competere con il video → MPEG-4 (come XviD e DivX), RealVideo, Windows Media Video, e simili schemi di compressione video a basso bit rate. VP3 è una tecnologia brevettata, ma On2 ha concesso in modo irrevocabile una licenza royalty free perpetua dei brevetti collegati, permettendo al pubblico di usare Theora ed altri codec derivati da VP3 per qualsiasi uso senza dover pagare diritti a On2. L'obiettivo di sviluppare un codec video esente da royalty ha posto delle limitazioni al progetto che non ha potuto utilizzare alcune tecniche di compressione molto efficienti ma brevettate. Questo pone il progetto dal punto di vista delle prestazioni nel segmento medio basso dei codec video, essendo simile come qualità video a codec come l'→ MPEG-4 ASP e inferiore a sistemi come il H.264 il DivX e il VC-1.[1] Theora è utilizzato per tutti i video di Wikipedia. Questo codec video è stato implementato nelle nuove versioni di Firefox (3.5) e di Opera. Nei flussi multimediali Ogg, Theora fornisce il layer video, mentre Vorbis è usato di solito come layer audio (sebbene anche Speex e FLAC possano essere usati per l'audio). Cronologia dello sviluppo Theora è il nome del codec video che Xiph.Org ha rilasciato nella sua prima versione stabile, la 1.0 [2] . Precedentemete sono state rilasciate sette versioni Alfa; sebbene questa denominazione denoti versioni non definitive di sviluppo, il gruppo Theora ha già annunciato di aver fermato le modifiche al bitstream dal rilascio della Alfa 3, dunque tutti i video clip prodotti da allora saranno correttamente decodificati dalle versioni successive, in conformità alle specifiche Theora I. Alfa uno rilasciata il 25 settembre 2002 Alfa due rilasciata per metà il 16 dicembre e per metà il 27 dicembre 2002 Alfa tre rilasciata il 20 marzo 2004 Alfa quattro rilasciata il 15 dicembre 2004 Alfa cinque rilasciata il 20 agosto 2005 Alfa sei rilasciata il 30 maggio 2006 Alfa sette rilasciata il 20 giugno 2006 Beta rilasciata il 1 ottobre 2007[1] Ver 1.0 rilasciato il 3 novembre 2008 Ver 1.1 rilasciato il 24 settembre 2009[3] Theora 87 Voci correlate • Xiph.Org Foundation • → Ogg Collegamenti esterni • • • • • (EN) Theora.org [4] (EN) Xiph.org Foundation [5] (EN) On2 Technologies [6] (EN) VP3.com [7] Elenco di video Theora [8] -- video scaricabili in formato Ogg Theora Note [1] Quasi pronta l'alternativa free a DivX (http:/ / punto-informatico. it/ p. aspx?i=2077274). Punto Informatico, 1-10-2007. URL consultato il 1-10-2007. [2] La prima versione stabile di Theora (http:/ / punto-informatico. it/ 2466472/ PI/ News/ ecco-theora-10-alternativa-free-divx. aspx). Punto Informatico, 7-11-2008. URL consultato il 7-11-2008. [3] Theora 1.1, l'alternativa open a H.264 (http:/ / punto-informatico. it/ 2716448/ PI/ News/ theora-11-alternativa-open-h264. aspx). Punto Informatico, 29-9-2009. URL consultato il 29-9-2009. [4] http:/ / theora. org/ [5] http:/ / xiph. org/ [6] http:/ / on2. com/ [7] http:/ / vp3. com/ [8] http:/ / wiki. xiph. org/ index. php/ List_of_Theora_videos 88 Audio Digitale Compressione audio digitale La compressione audio è una tecnica che permette di ridurre le dimensioni di un file audio o la banda passante richiesta per una trasmissione audio, anche di molto. Un file è una sequenza di cifre binarie (bit) utilizzata come veicolo di informazione. Comprimere significa ridurre il numero delle cifre che costituiscono la sequenza mantenendo l'informazione inalterata o in un intorno dell'informazione originaria (ossia facendo in modo che la nuova informazione approssimi quella precedente). I motivi della compressione sono: • occupare minor spazio in fase di immagazzinamento • impiegare minor tempo in fase di trasferimento dati. Il costo è l'aumento dei tempi di lettura/scrittura legati rispettivamente a tempi di decompressione/compressione. Nel caso di file audio si ha un costo anche in termini di qualità dell'audio. Esistono due tipi di compressione: • con perdita (lossy): quando l'informazione contenuta nel file compresso è minore di quella contenuta nel file di origine • senza perdita (lossless): quando l'informazione contenuta nel file compresso è identica a quella contenuta nel file di origine La prima permette compressioni maggiori, ma a scapito della qualità sonora. Usando un algoritmo di compressione senza perdita, dal risultato della compressione si può riottenere tutta l'informazione originaria. In questo caso la riduzione massima generalmente ottenibile, utilizzando algoritmi studiati appositamente per l'audio è all'incirca del 60%, ma solo con alcuni tipi di suono. Si possono utilizzare gli stessi algoritmi generali di compressione (come per esempio ZIP o Gzip) ma i risultati in termine di riduzione sono inferiori. Esempio: FLAC, APE, ALE Compressione con perdita Dal risultato della compressione audio con perdita non si può più ottenere un suono identico all'originale ma la riduzione ottenibile è molto spinta: con rapporti di compressione di 10 a 1, il risultato è quasi indistinguibile dall'originale ma ci si può spingere anche oltre a discapito della qualità. Gli studi di psicoacustica hanno permesso di accertare che l'uomo non è sensibile nello stesso modo a tutte le frequenze e che un suono ad alta intensità ne maschera uno con frequenza vicina ma intensità più bassa. Sfruttando queste ed altre considerazioni, si può pensare di eliminare l'informazione che non verrebbe comunque percepita ed ottenere quindi un buon rapporto di compressione. Esempi: • mp3 (MPEG-1 Layer III) è stato introdotto negli anni '80 ed è il più popolare. Essendo il più antico, è anche il meno efficiente e spesso il peggiore in termini di qualità. • Windows Media Audio (WMA) è molto diffuso sui sistemi Windows. • Ogg Vorbis è un codec più efficiente dell'mp3 ed è open source (ossia liberamente distribuibile e modificabile) Compressione audio digitale • AAC è stato reso popolare dalla Apple. Apple's iTunes Music Store fa uso di file compressi con 128Kbps CBR AAC e lo standard video MPEG4 raccomanda l'uso dell'AAC audio nei prossimi apparecchi e software. • Dolby Digital (AC3) può comprimere fino a 6 canali audio, di cui 5 a piena larghezza di banda ed uno per gli effetti a bassa frequenza (LFE), fino a 384 kbit/s. Viene utilizzato nei → DVD e nel sistema americano ATSC DTV. • MPC o Musepack è un formato opensource con una qualità maggiore dell'mp3 a parità di bitrate. Bitrate I file multimediali sono per loro natura connessi al tempo che scorre. In altri termini ad ogni secondo è associato un certo contenuto informativo e quindi una certa sottosequenza di cifre binarie. Il numero di cifre binarie che compongono queste sottosequenze è detto bitrate. In altre parole il bitrate è il numero di cifre binarie impiegate per immagazzinare un secondo di informazione. Questo può essere costante per tutta la durata del file o variare all'interno di esso. Ad esempio i cd musicali vengono campionati (registrati) ad una frequenza pari a 44.100Hz. Da ciò si evince che ogni secondo si hanno 44.100 valori registrati dall'ipotetico microfono che vanno poi moltiplicati per i 2 canali del suono stereo che vanno a loro volta moltiplicati per 2 poiché la registrazione avviene a 16 bit (pari appunto a 2 byte). Quindi avremo: 44.100 x 2 x 2 x 60 (secondi) = ~10 MB ogni minuto La compressione, diminuendo la lunghezza globale del file, diminuirà di conseguenza la lunghezza media delle sottosequenze ossia diminuirà il bitrate medio. Il bitrate medio diventa dunque in questi casi l'indice dell'entità della compressione. Ad esempio se il file di origine possedesse un bitrate di 1411 Kbit/s e il file compresso possedesse un bitrate medio di 320 Kbit/s, allora avremmo ridotto di un fattore pari a circa 4.5. Una compressione lossy effettua un compromesso fra la perdita d'informazione e la dimensione del file finale, mentre una losless deve bilanciare la dimensione del file finale con i tempi di esecuzione dell'algoritmo. 89 MP3 90 MP3 Motion Picture Expert Group-1/2 Audio Layer 3 Estensione .mp3 Sviluppatore Istituto Fraunhofer Tipo → Compressione audio digitale Sviluppatore Istituto Fraunhofer Tipo → Compressione audio digitale → Lossy / → Lossless Lossy Licenza Formato brevettato, specifiche pubbliche Sito web Istituto Fraunhofer [1] |+ style="text-align: center; font-size: larger; margin-left: inherit;" | MPEG 1 Audio Layer 3 MP3 (per esteso Motion Picture Expert Group-1/2 Audio Layer 3, noto anche come MPEG-1 Audio Layer 3) è un algoritmo di compressione audio di tipo → lossy in grado di ridurre drasticamente la quantità di dati richiesti per memorizzare un suono, rimanendo comunque una riproduzione accettabilmente fedele del file originale non compresso. Storia La codifica MPEG-1/2 Layer 2 iniziò come progetto presso la DAB e promosso dalla Fraunhofer IIS-A. Venne finanziato dall'Unione europea come parte di un programma di ricerca più vasto chiamato EUREKA comunemente conosciuto con il codice EU-147. EU-147 fu attivo dal 1987 al 1994. Nel 1991 vennero fatte due proposte per uno standard disponibile: Musicam (conosciuto come Layer II) e ASPEC (Adaptative Spectral Perceptual Entropy Coding) (con analogie con l'MP3). Venne scelto Musicam perché più semplice ed affidabile. Una delle sedi del Fraunhofer Institute Un gruppo di lavoro condotto da Karlheinz Brandenburg e Jürgen Herre fece confluire gli studi su Musicam e ASPEC con alcune loro idee e creò l'MP3, che fu progettato per realizzare la stessa qualità a 128 kbit/s dell'MP2 a 192 kbit/s. Entrambi gli algoritmi furono completati nel 1992 con la sigla MPEG-1, come prima fase di sviluppo del progetto denominato MPEG e definito come standard internazionale con il codice ISO/IEC 11172-3 e pubblicato nel 1993. Un'ulteriore fase del progetto MPEG Audio si concluse nel 1994 con la creazione dell'MPEG-2 definito come standard internazionale con il codice ISO/IEC 13818-3 e pubblicato nel 1995. L'efficienza di un algoritmo di compressione è tipicamente giudicata dal bitrate finale che riesce ad ottenere, mentre la metrica del tasso di compressione, che sembrerebbe più naturale, dipende sia dalla frequenza che dal numero di bit del segnale in ingresso. Ciononostante, vengono comunemente comunicati tassi di compressione che utilizzano i CD come riferimento, uno dei più comuni è quello a 44.1 kHz e 2x16bit. Qualche volta vengono utilizzati anche parametri DAT SP (48KHz, 2x16bit). Il tasso di compressione in questo sistema di riferimento è maggiore, il che dimostra le difficoltà nel definire il termine compressione come perdita di qualità nella codifica. Karlheinz Brandenburg ha utilizzato il CD di Suzanne Vega, "Tom's Diner" come modello di riferimento dell'algoritmo di MP3 91 compressione per l'MP3. Questo CD è stato scelto per la sua dolcezza e semplicità, rendendo facile l'ascolto di qualsiasi imperfezione che la compressione può causare durante la registrazione. La pagina web ufficiale pubblica i seguenti tassi di compressione per l'MPEG-1 Layer 1,2 e 3. • Layer 1: 384 kbit/s, compressione 4:1 • Layer 2: 192...256 kbit/s, compressione 6:1...8:1 • Layer 3: 112...128 kbit/s, compressione 10:1...12:1 Questi sono valori piuttosto aleatori in quanto: • La qualità dipende non solo dal formato di codifica del file, ma anche dalla qualità psico acustica del codificatore. Il codificatore tipico layer 1 usa un modello psicoacustico molto elementare che finisce per richiedere molti più bit per un risultato soddisfacente. • La codifica Layer 1 a 384 kbit/s, anche con questo semplice "psico acustico" è migliore della codifica Layer 2 a 192 … 256 kbit/s. • La codifica Layer 3 a 112 … 128kbit/s è peggiore del Layer 2 a 192 … 256 kbit/s Un modo più realistico per considerare il bitrate è: • Layer 1: eccellente a 384 kbit/s • Layer 2: eccellente a 256...320 kbit/s, molto buono a 224...256 kbit/s, buono a 192...224 kbit/s, non si dovrebbe usare sotto i 160 kbit/s • Layer 3: eccellente a 224...256 kbit/s, molto buono a 192...224 kbit/s, buono a 160...192 kbit/s, non si dovrebbe usare sotto i 128 kbit/s Il confronto di un nuovo formato di file, viene fatto confrontando la qualità media di compressione del nuovo formato con un encoder di alta qualità e molto ottimizzato, del vecchio formato. L'algoritmo che utilizza il formato MP3, si basa su una trasformazione ibrida che trasforma il segnale dal dominio temporale a quello delle frequenze. • 32 band filtro in quadratura polifase • 36 or 12 Tap MDCT, la dimensione può essere selezionata indipendentemente dalla sottobanda 0...1 e 2...31 • processamento addizionale per ridurre gli effetti di aliasing L'AAC → MPEG-4, è il formato erede dell'MP3 sempre secondo le specifiche MPEG. Tra i successori del formato MP3 è degno di nota l'Ogg Vorbis per la qualità di codifica e per il fatto di essere un progetto Free Software. Quasi tutti gli altri formati sono legati a delle aziende proprietarie di diverse brevetti e licenze legate alle specifiche MPEG. La diffusione del formato MP3 e di software gratuiti (come Winamp) apportarono una piccola rivoluzione nel mondo della musica, la diffusione delle playlist. In precedenza le canzoni di successo erano attentamente intercalate ai motivi meno riusciti nei CD e nelle audiocassette che si potevano ascoltare solamente nell'ordine studiato dal produttore. Con l'avvento dei supporti digitali questo non accade più ed è possibile una maggiore personalizzazione. Qualità del formato MP3 audio Molti ritengono di qualità accettabile per il formato MP3 il bitrate di 128 kilobits al secondo, qualità che si avvicina a quella di un CD. Questo bitrate è il risultato di un tasso di compressione che si avvicina al rapporto di 11.02:1. Tuttavia test di ascolto mostrano che, attraverso un po' di pratica, molti sono in grado di distinguere un formato MP3 a 128 kbit/sec da un CD originale. Per molti altri, 128 kbit/s è una qualità di ascolto bassa, da un'analisi condotta dalla rivista SUONO, l'opinione dei conduttori al termine della prova, risulta che solo a 256 kbit/s si può parlare di alta fedeltà. Possibili codificatori • codice di riferimento ISO dist10: è la qualità peggiore; file MP3 difettoso (tutti i blocchi audio sono marcati come difettosi) MP3 92 • • • • • Xing: principalmente basato sul codice ISO, qualità simile all'ISO dist10. Blade: qualità simile all'ISO dist10 FhG: Alcune di loro sono buone, ma altre hanno gravi difetti. ACM Producer Pro: Alcune versioni generano dei disturbi fastidiosi L.A.M.E (è un acronimo ricorsivo, per "Lame Ain't MP3 Encoder", letteralmente "Lame non è un codificatore MP3", iniziò come una patch dimostrativa GPL che modificava l'originale codificatore dist10 ISO, realizzata da Mike Cheng all'inizio del 1998, ed era quindi incapace di produrre file MP3 per conto suo o di essere compilato separatamente. Nel maggio 2000 gli ultimi resti del codice sorgente ISO furono sostituiti conferendo così al codice sorgente LAME piena funzionalità come codificatore LGPL MP3, in grado di competere con i principali codificatori presenti sul mercato. Lame development at Sourceforge [2]. Nel sito [3] è possibile trovare un front end di Windows per il codificatore LAME (il "popolo" di JTHZ.com utilizza LAME dal 1998). La qualità di un file MP3 dipende dalla qualità della codifica e dalla difficoltà con la quale il segnale deve essere codificato. Buoni codificatori hanno una qualità accettabile da 128 a 160 kbit/s, la chiarezza perfetta di un brano si ottiene da 160 a 192 kbit/s. Un codificatore che ha bassa qualità lo si riconosce ascoltando persino un brano a 320 kbit/s. Per questo non ha senso parlare di qualità di ascolto di un brano di 128 kbit/s o 192 kbit/s. Una buona codifica MP3 a 128 kbit/s prodotta da un buon codificatore produce un suono migliore di un file MP3 a 192 kbit/s codificato con uno scarso codificatore. Una caratteristica importante dell'MP3 è la → perdita di dati dovuta alla compressione – è il modo con cui si rimuove l'informazione dal file audio originale allo scopo di risparmiare spazio. Nei moderni codificatori MP3 gli algoritmi più efficaci fanno di tutto per assicurare che i suoni rimossi siano quelli che non possono essere rilevati dall'orecchio umano. Questo risultato è stato ottenuto anche grazie alla scienza della psicoacustica. Tuttavia molti ascoltatori sono in grado di riconoscere la differenza confrontando un CD originale con un formato MP3 da 192 kbit/s e persino a 256 kbit/s di alcuni codificatori meno potenti e più obsoleti. Se il vostro scopo è di memorizzare file audio con una fedeltà massima indirizzatevi su un compressione audio del tipo FLAC, SHN, o LPAC. Questi generalmente comprimono un file audio PCM a 16-bit approssimativamente dal 50 al 75% dell'originale (questo dipende dalla caratteristiche del file audio stesso). Bit rate Il bit rate è il numero di unità binarie che fluiscono al secondo ed è variabile per i file MP3. La regola generale è che maggiore è il bitrate, più informazione è possibile includere dall'originale, maggiore è la qualità del file audio compresso. Attualmente per le codifiche dei file MP3 fissano un tasso di compressione equivalente per tutto il file audio. Per l'MPEG-1 layer 3 i bitrate disponibili sono: 32, 40, 48, 64, 80, 96, 112, 128, 160, 192, 224, 256 e 320 kbit/s ( bits per secondo), e le frequenze campionate disponibili sono 32, 44.1 e 48 Khz. La frequenza di campionamento a 44.1 kHz è quasi sempre utilizzata per i CD audio, mentre i 128 Kbit/s come una sorta di bitrate standard "abbastanza buono". L'MPEG-2 e l'MPEG-2.5 (non-ufficiale) contemplano un numero maggiore di bitrate: 8, 16, 24, 32, 40, 48, 56, 64, 80, 96, 112, 128, 144 e 160 kbit/s I file MP3 audio sono suddivisi in settori ("chunks" in inglese) chiamati frames, ("fotogrammi" in italiano). Ognuno di questi settori è provvisto di un marcatore del tasso di compressione; in questo modo, mentre il file audio viene riprodotto, è possibile modificarlo dinamicamente. Questa tecnica rende possibile utilizzare più bit per la parte del suono ad alta dinamica (suoni più complessi) e meno bit per la parte a bassa dinamica (suoni meno complessi). MP3 93 Individuazione dei difetti nei file MP3 Vi sono diversi difetti nel formato dei file MP3, che non possono essere individuati neanche dal migliore dei codificatori e sono insiti nelle caratteristiche stesse del formato (In parentesi il formato file dove questo difetto viene corretto). • • • • • Un tempo di risoluzione troppo basso per un segnale transiente molto alto (AAC, Ogg Vorbis) ritardo complessivo di codifica/decodifica non definito (Ogg Vorbis) nessun fattore di banda per frequenze sotto i 15.5/15.8 kHz (AAC, Ogg Vorbis) Il collegamento stereo è fatto sulla base di un frame, o "fotogramma" (AAC, Ogg Vorbis) Il bitrate è limitato a 320 kbit/s (AAC, Ogg Vorbis) Codificatori di file MP3 audio Lo standard MPEG-1 non definisce specifiche precise per i codificatori MP3. L'algoritmo di decodifica e il formato del file, invece sono definiti molto bene. Si presume che il creatore dello standard abbia escogitato un algoritmo per rimuovere appropriate parti di informazioni da un file originale, o piuttosto una rappresentazione in dominio di frequenza (MDCT). Questo processo si basa tipicamente sulla codifica psico acustica, ossia vengono rimossi quei suoni che l'orecchio umano non è in grado di percepire sia mediante l'orecchio che il cervello. Come risultato, vi sono molti codificatori MP3 differenti, ognuno in grado di riprodurre file di qualità differente; al 30 settembre 2001 il migliore codificatore ad alto bitrate (128 kbit/s e superiori) è LAME [2]. Per i bitrate più bassi il miglior codificatore è il Fraunhofer, ma vi sono diverse opinioni. La decodifica MP3, è tuttavia ben definita da uno standard. Molti decodificatori sono "bitstream compliant", ossia sono in grado di riprodurre esattamente un brano dello stesso file MP3 non compresso. ID3 L'ID3 tag è una classificazione dei formati che permettono l'inserimento, nel file MP3, della descrizione, del titolo, dell'artista e dell'album, o il numero della traccia. Alternative all'MP3 Vi sono molti altri codec audio alternativi all'MP3: • • • • • • • • • • Ogg Vorbis dalla Xiph.Org Foundation, libero da brevetti; mp3PRO dalla Thomson Multimedia; MPEG-1/2 Audio Layer 2 (MP2), predecessore dell'MP3; MP+, una derivato dell'MP2; → MPEG-4 AAC, utilizzato da LiquidAudio e Apple Inc. nell'iTunes Store; ATRAC, usato dai Minidisc della Sony; AC-3, usato dalla Dolby Digital per i → DVD; QDesign, usato da QuickTime per alti bitrate; Windows Media Audio (WMA) da Microsoft; RealAudio da RealNetworks. mp3PRO, MP3, AAC, e MP2 sono tutti membri della stessa famiglia tecnologica e si basano su modelli psicoacustici simili. Il Fraunhofer Gesellschaft è proprietario di alcune licenze di codec: Dolby Labs, Sony, Thompson Consumer Electronics, mentre AT&T possiede altri brevetti. Su Internet si trovano altri metodi di compressione privi di perdite. Pur non essendo simili all'MP3, essi sono buoni esempi di altri metodi di compressione disponibili: • SHN MP3 94 • FLAC • Monkey's Audio (APE) Il formato MP3 fu progettato per essere utilizzato in parallelo al formato Video MPEG-1/2, e per questo non in grado di riprodurre adeguatamente i suoni al di sotto dei 48 kbit/s (mono) o degli 80 Kbit/s (stereo). Nonostante alcuni fautori di codec più recenti come WMA, mp3PRO e RealAudio affermino che i loro rispettivi algoritmi sono in grado raggiungere una qualità CD già con 64 kbit/s, i test di ascolto cieco sembrano smentirli. Va comunque apprezzata l'indiscussa superiorità di questi e altri formati su MP3 a pari larghezza di banda impiegata. Tra gli altri, la Xiph.Org Foundation, sviluppatrice dell'algoritmo Vorbis utilizzato assieme al container multimediale → Ogg, in supporto al proprio formato di compressione Free Software, fornisce in una pagina web [4] dei test di ascolto comparato tra diversi formati audio. Licenze e brevetti La Thomson Consumer Electronics è proprietaria del brevetto MPEG-1/2 Layer 3 in U.S.A. e in Giappone. La Microsoft, che ha progettato il sistema operativo Windows, ha scelto di creare il proprio formato proprietario WMA invece di utilizzare l'MP3, in questo modo evita di dover pagare le relative royalties. Per informazioni sui costi vedere: [5] e [6]. Sotto la presidenza di Mario Monti, l'antitrust europeo multò Microsoft per abuso di posizione dominante con il massimo della sanzione, il 10% del fatturato. Microsoft fu costretta ad abilitare l'installazione su Un lettore MP3 Windows di lettori audio diversi dal nativo Windows Media Player, venduto insieme al sistema operativo. Questi software permettevano di ascoltare l'mp3 e altri formati diversi dal ".wma": alla fine, lo stesso software "Windows Media Player" è stato modificato per la lettura di molti codec e la loro masterizzazione, fra i quali c'è l'mp3. Nonostante queste scelte, il formato MP3 continua ad essere ampiamente utilizzato. Vediamo perché: • Ormai la maggior parte degli utenti ha familiarità con il formato • La maggior parte della musica disponibile è in formato MP3 • Una grande varietà di software e di hardware hanno ottenuto dei notevoli vantaggi da questo formato, rivoluzionando l'industria musicale e le leggi sul copyright. • Assenza di controlli sulla copia e distribuzione. Assenza di DRM (Digital Rights Management) • L'mp3 è un file generalmente poco pesante rispetto a molti altri formati. Tuttavia è superato nel rapporto qualità/bitrate sia da WMA che da Ogg Vorbis , AAC. Fornisce una qualità audio più che buona con file che occupano da 3 ai 5 MB (MegaByte), per una tipica canzone di 5 minuti compressa ad un bitrate di 128 kbit/secondo. Ciò consente il download di singoli brani anche ad utenti che non hanno una connessione ADSL, di memorizzare parecchie ore di musica nei lettori Multimediali. • La rivoluzione dell'mp3 sta nel fatto che i modelli psicoacustici usati per la codifica del flusso audio sfruttano il fenomeno del mascheramento. L'orecchio umano infatti non è in grado di percepire determinati suoni sovrapposti. In questo modo viene codificata minore informazione, senza disturbare però la qualità percettiva. MP3 95 Voci correlate • Lettore MP3 • Bit rate Collegamenti esterni • MP3 [7] su Open Directory Project ( Segnala [8] su DMoz un collegamento pertinente all'argomento "MP3") Note [1] [2] [3] [4] [5] [6] [7] [8] http:/ / www. iis. fraunhofer. de/ amm/ techinf/ layer3/ http:/ / lame. sourceforge. net/ http:/ / jthz. com/ mp3 http:/ / www. xiph. org/ vorbis/ listen. html http:/ / www. mp3licensing. com/ help/ developers. html http:/ / www. mp3licensing. com/ royalty/ index. html http:/ / www. dmoz. org/ Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/ http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/ 96 Diffusione del Video Digitale Televisione digitale La televisione digitale, o TV digitale, è la televisione rappresentata in forma digitale. Da un punto di vista tecnico, infatti, la televisione è un'informazione elettronica e l'informazione elettronica può essere rappresentata in due forme diverse: analogica o digitale. La televisione digitale si contrappone alla televisione analogica proprio perché quest'ultima utilizza l'altra forma di rappresentazione dell'informazione elettronica, la rappresentazione analogica. Tipologie di televisione digitale Le tipologie di televisione digitale sono: • • • • • • • Box della TV digitale televisione digitale terrestre televisione digitale via cavo televisione digitale satellitare televisione mobile → IPTV → Web TV P2P TV La televisione digitale terrestre (DTT) è analoga per prestazioni e qualità alla televisione digitale satellitare. Questa tecnologia permette però un più facile accesso da parte di tutti gli utenti in quanto non richiede l'installazione di un'antenna parabolica ma Box della TV digitale utilizza le strutture preesistenti create per la televisione analogica terrestre per trasmettere e ricevere i segnali. In questo modo l'utente deve solo dotarsi dell'apposito decoder senza dover in genere intervenire sull'impianto d'antenna preesistente. La televisione digitale via cavo è una tecnologia di trasmissione televisiva basata su cavo coassiale o su fibra ottica [1] anziché sulle antenne. Con questa tecnologia è necessario che l'utente finale sia connesso direttamente tramite un cavo all'emittente con conseguente aumento dei costi per l'emittente stessa che deve raggiungere singolarmente ogni utente ma con grandi vantaggi dell'utente finale che può usufruire dei grandi vantaggi della trasmissione digitale non ultima anche la possibilità di contemporaneo accesso ad Internet a banda larga. La televisione digitale satellitare (Sat TV) è una tecnologia in cui l'emittente invia i dati video ad un satellite posto in orbita geostazionaria il quale ritrasmette il segnale ad un'area (footprint) molto vasta comprendente parecchie nazioni. Per ricevere queste trasmissioni l'utente finale deve dotarsi di un'apposita antenna parabolica che raccoglie e amplifica il debole segnale proveniente dal satellite posto a 36000 km di quota e lo invia al decoder collegato a sua volta al televisore. L'IPTV è una tecnologia non ancora molto diffusa in Italia che sfrutta la banda larga di Internet (per ora in Italia ADSL e fibra ottica) per consentire all'utente finale di ricevere contenuti multimediali direttamente sulla TV di casa Televisione digitale (tramite apposito decoder) o sul computer, con una qualità variabile da quella della televisione analogica a quella della televisione digitale a seconda della capacità della linea di trasmissione usata per connettersi a Internet. Classificazioni Nel dicembre del 2007 all'interno di un convegno organizzato dall’Osservatorio New TV della School of Management del Politecnico di Milano è stata introdotta un'interessante classificazione che divide in tre categorie le piattaforme digitali esistenti: • Sofa TV, che comprende le televisioni che fruite tipicamente tramite il tradizionale televisore dotato di un decoder. Questa categoria comprende Sat Tv, DTT e → IpTv; • Desktop TV, che include tutti i canali fruibili su pc tramite Web: → Web TV, P2P TV; • Hand TV, che include i canali Tv fruibili tramite cellulari, smartphone, palmari e tivufonini grazie alle reti DVB-H, 2G, 3G.[2] Caratteristiche della televisione digitale Approfondimento di carattere generale Nell'affrontare le differenze tra rappresentazione analogica e rappresentazione digitale dell'informazione elettronica è importante sfatare subito un mito. A livello mediatico la rappresentazione digitale dell'informazione elettronica è presentata come sinonimo di maggiore qualità rispetto alla rappresentazione analogica e tale idea si è ormai diffusamente affermata. Ciò è assolutamente falso: la qualità della rappresentazione in forma elettronica di un'informazione non dipende dal tipo di rappresentazione utilizzata. I vantaggi della rappresentazione digitale dell'informazione elettronica rispetto a quella analogica sono altri: • è possibile ottenere una copia identica dell'informazione elettronica, anche se si tratta di una copia della copia; • è possibile trasmettere senza errori l'informazione elettronica in un sistema di telecomunicazioni; • possibilità illimitate di manipolazione dell'informazione elettronica. Questi indubbi vantaggi hanno fatto diventare la rappresentazione digitale dell'informazione elettronica la scelta privilegiata, ed essendo la rappresentazione digitale dell'informazione elettronica più recente della rappresentazione analogica è in atto un progressivo passaggio dalla rappresentazione analogica a quella digitale. Nella rappresentazione analogica dell'informazione elettronica l'informazione elettronica varia con analogia all'informazione che si vuole rappresentare in forma elettronica. Ciò significa che l'informazione elettronica varia con continuità e può assumere un numero anche molto alto di valori. Nella rappresentazione digitale dell'informazione elettronica invece l'informazione che si vuole rappresentare in forma elettronica viene codificata in una sequenza di numeri binari. Ciò significa che l'informazione elettronica varia in modo discreto e può assumere solo due valori. Due valori possibili per l'informazione elettronica rappresentano il numero minimo di variazioni per poter rappresentare un'informazione, se l'informazione elettronica infatti potesse assumere solo un valore non sarebbe più in grado di rappresentare alcuna informazione. Due valori possibili per l'informazione elettronica rappresentano anche l'informazione elettronica più semplice da trattare (trasportare ed elaborare), tanto da permettere come già detto la copia, e la trasmissione in un sistema di telecomunicazioni, senza errori. L'informazione elettronica analogica variando in modo continuo e potendo assumere un numero anche molto alto di valori è invece estremamente più difficile da trattare tanto che, anche con le apparecchiature più complesse, non è possibile copiarla, o trasmetterla in un sistema di telecomunicazioni, senza un minimo degrado. Per contro l'informazione elettronica digitale, essendo un'informazione codifica, è sottoposta a processi di codifica e decodifica, quindi necessita di una potenza di calcolo adeguata. Più l'informazione da rappresentare in forma elettronica è complessa maggiore è la potenza di calcolo necessaria. 97 Televisione digitale La rappresentazione analogica dell'informazione elettronica è propria dell'elettronica analogica, mentre la rappresentazione digitale dell'informazione elettronica è propria dell'elettronica digitale. La prima forma di rappresentazione dell'informazione elettronica utilizzata è stata quella analogica, l'elettronica cioè è nata come elettronica analogica. Solo nel 1941 inizia a diffondersi la rappresentazione digitale dell'informazione elettronica con la realizzazione dell'Atanasoff–Berry Computer, il primo computer elettronico della storia, ma la potenza di calcolo necessaria per una televisione digitale diventa alla portata del consumatore medio solo negli anni '90 del XX secolo. La televisione digitale inizia infatti a diffondersi solo nel 1994. Vantaggi rispetto alla televisione analogica La televisione digitale rispetto alla televisione analogica presenta i seguenti notevoli vantaggi: • qualità della trasmissione: il segnale digitale ha la caratteristica di essere molto più "pulito" di quello analogico, grazie alla complessa tecnologia di soppressione del rumore e dei disturbi; questo fa sì che le immagini ricevute in digitale siano del tutto prive di "bande", "effetto neve", nebbia, colori sbagliati e quant'altro. Con la TV digitale, l'immagine o si vede o non si vede, non ci sono vie di mezzo; al massimo, in casi estremi di scarsa potenza del segnale ricevuto, si possono vedere immagini "a quadrettoni", perché i dati non vengono ricevuti bene, ma si tratta in genere di situazioni temporanee; • prestazioni: la migliore qualità dell'immagine non è l'unico vantaggio delle trasmissioni video digitali; un altro grosso vantaggio è la possibilità di trasmettere una maggior quantità di dati all'interno di ogni singola trasmissione. L'utilizzo del digitale permette infatti di ricevere sulla TV di casa, oltre alle immagini, anche sottotitoli (anche in diverse lingue, come ad esempio in inglese e in italiano), audio multicanale per impianti home theatre, nonché testi informativi riguardanti i programmi (ad esempio ulteriori informazioni sul programma in onda, o su quelli che andranno in onda successivamente) tramite la EPG, Electronic Programming Guide, ossia Guida Elettronica alla Programmazione. A tutto questo si aggiunge, in taluni casi, l'interattività (vedi anche Multimedia Home Platform), che permette di personalizzare quanto ricevuto sul teleschermo: collegando il ricevitore (detto anche decoder) alla presa telefonica, è possibile inviare all'emittente segnali di ritorno, sulla base dei quali l'emittente cambia le immagini ricevute. Grazie a questo meccanismo, è possibile acquistare eventi come film in prima visione o partite di calcio, oppure collegarsi alla propria banca e visualizzare sulla televisione il proprio conto, o ancora effettuare votazioni e sondaggi in diretta; eccezion fatta per il pagamento on-line, queste possibilità (operazioni bancarie, votazioni, sondaggi) sono ancora in fase sperimentale e probabilmente verranno attivate in via definitiva sul digitale terrestre in un prossimo futuro. Linee di sviluppo della televisione digitale in Italia Lo sviluppo della televisione digitale in Italia è strettamente legato all'iter del disegno di legge presentato dal ministro Paolo Gentiloni. Una particolare disanima della visione del ministro della situazione che si verrà a creare a regime di transizione completato (2012) è data in una intervista al settimanale "Il Mondo" [3] . e prevede: • televisione digitale terrestre con previsti 60 canali nazionali gratuiti; • televisione digitale satellitare con centinaia di canali prevedibilmente per 3/4 a pagamento e per un quarto gratuita; • IPTV (televisione con protocollo IP su linea ADSL o fibra ottica) a pagamento con sviluppo della TV on demand. Inoltre si sta ulteriormente sviluppando ed articolando il primo progetto italiano sulla televisione digitale a piattaforma aperta e multicast denominato TW opera di Mario Cardarelli, economista e strategist advisor (Roma) e di Vito Asta ingegnere e professore universitario (Parigi). Il progetto elaborato nell'ottobre del 2000 e sviluppatosi nel 2003 con la partnership di AX digital Sistem di Vito Asta per la piattaforma MAXX in ambiente LINUX (piattaforma divenuta nel 2006 TW-NET) e di Technosystem di Cesare Rosa, costruttore internazionale di impianti digitali terrestri (DTT), attualmente integra i tre vettori della televisione digitale (fibre ottiche, digitale terrestre e satellite). 98 Televisione digitale Storia della televisione digitale Quando la televisione è nata, alla fine degli anni '20 del XX secolo, dopo un lungo periodo di ricerca e sperimentazione durato decenni e frutto di scoperte in vari campi delle scienza, era una televisione analogica cioè una televisione in cui l'informazione elettronica che la rappresentava era in forma analogica. La televisione digitale inizia a diffondersi nel mondo solo a partire dagli anni '90 del XX secolo e rappresenta certamente il futuro della televisione per i vantaggi offerti dalla rappresentazione digitale dell'informazione elettronica. Per questo è in atto un lento ma certo passaggio dalla televisione analogica alla televisione digitale. Televisione digitale in Italia • 1º gennaio 1996: parte ufficialmente la piattaforma televisiva a pagamento Dstv per la televisione satellitare. Offre 5 televisioni. È la prima offerta di televisione digitale per l'Italia (prima anche in Europa). • 1997: parte ufficialmente la piattaforma televisiva a pagamento Stream per la televisione via cavo. È la prima offerta di televisione digitale per la televisione via cavo. • 1º dicembre 2003: Mediaset attiva un gruppo di televisioni gratuite per la televisione terrestre. È la prima offerta di televisione digitale per la televisione terrestre. Voci correlate • • • • • • • DVB, Digital Video Broadcasting DVB-S, Digital Video Broadcasting Satellitare DVB-T, Digital Video Broadcasting Terrestre Multimedia Home Platform (MHP) Digital Living Network Alliance (Giappone) Elenco degli apparecchi per la televisione digitale ricevibile in Italia Galaxy 14 Note [1] http:/ / www. auditel. it/ cosa_viacavo. htm [2] Il report Televisioni Digitali: le nuove Sofa-Tv... e non solo degli Osservatori ICT e Strategia della School of Management del Politecnico di Milano è scaricabile al sito Osservatori.net (http:/ / www. osservatori. dig. polimi. it/ archivioReportGenerale. php) [3] Il Mondo, Marco Santarelli La Tv che sarà, n.° 48, 1º dicembre 2006, p.48 99 HDTV 100 HDTV La televisione in alta definizione, in sigla HDTV (acronimo dell'analogo termine inglese High Definition TeleVision), o anche semplicemente alta definizione, è la televisione con → video di qualità significativamente superiore a quello degli standard televisivi maggiormente diffusi nel mondo nella seconda metà del XX secolo e ancora oggi molto diffusi, standard televisivi che rientrano nella SDTV. È in altre parole un termine che sta ad indicare genericamente un livello qualitativo dell'immagine televisiva. Un'immagine televisiva ad alta definizione mostrata da un videoproiettore. A differenza della SDTV, in cui il rapporto d'aspetto è sia nel tradizionale formato 4:3 che in quello widescreen 16:9, l'alta definizione moderna prevede standard unicamente in 16:9. Caratteristiche tecniche Un fotogramma del sistema televisivo PAL (Europeo) è composto da 2 semiquadri (field) di 312,5 linee cadauno. Nel primo semiquadro, vengono riprodotte le linee dispari, sul secondo le linee pari. Il segnale è quindi composto da 25 fps (Fotogrammi Per Secondo), pari a 50 semiquadri. Ogni linea orizzontale ha una durata di 64 microsecondi (15625 Hz), 53 dei quali sono utilizzati come parte attiva (quindi riproducono il segnale video), mentre i restanti 11 microsecondi sono utilizzati come segnale di sincronismo orizzontale. Lo stesso accade nei semiquadri, infatti solo 576 linee, sono da ritenersi attive, le rimanenti costituiscono l'insieme del sincronismo verticale. La risoluzione orizzontale del fotogramma non è applicabile in termini di → pixel al video analogico, dove ogni riga è composta da un segnale modulato analogico, quindi continuo, ma la sua risoluzione è in funzione della frequenza di trasmissione di questo segnale; più la banda sarà ampia, più informazioni si possono trasmettere in ciascuna linea. Il segnale a standard PAL ha una larghezza di banda di oltre 7 MHz, ma in realtà la scarsa qualità dei ricevitori TV commerciali (e la pessima qualità degli impianti di ricezione via antenna) ha fatto col tempo ritenere che un segnale di qualità adatto alla trasmissione ha una banda di 5 MHz, sufficienti per risolvere circa 400 linee. Questo è il massimo teorico che può essere trasmesso con la codifica PAL, anche se la qualità ottenibile realmente è inferiore. Se la sorgente è digitale, lo standard di campionamento prevede invece 720 pixel sull'asse orizzontale. L'evoluzione dell'informatica, molto più rapida rispetto al broadcasting, ha fatto sì che agli standard TV si affiancassero standard per PC sempre più performanti fino a far diventare gli standard informatici la punta di diamante degli standard video ad Alta Definizione. Oggi conviene ragionare in termini di standard "nK" dove n è il numero di migliaia di pixel lungo l'asse orizzontale. HDTV Formati video Lo standard HDTV, all'inizio delle ricerche negli anni '80 del XX secolo, si riteneva dovesse offrire una risoluzione "doppia" del PAL, quindi 1250 righe non tutte attive (le attive si riducevano a 575 x 2 = 1.150, il che comportava, a 16/9, una risoluzione orizzontale di 2.040 pixel); tuttavia per ragioni commerciali la dizione "Alta Definizione" è stata via via estesa nei decenni a standard sempre meno performanti, fino a includere nell' "Alta Definizione" standard con prestazioni effettive minori di un segnale PAL ricevuto con apparati professionali. Quindi gli attuali standard 2K in realtà stanno realizzando l'HDTV "effettiva" pensata 30 anni fa. Oggi la tecnologia HDTV comprende quattro formati video, che differiscono sia per la risoluzione effettiva che per le modalità di scansione dell'immagine. • Il formato 720p, comunemente chiamato HD ready (i televisori che lo Evidenziazione pubblicitaria per i cento supportano riportano il logo HD ready, cioè "pronto per l'alta canali in alta definizione della rete definizione"), presenta una risoluzione complessiva di almeno 921.600 televisiva DirectTV pixel (1280×720) con scansione progressiva, ovvero per ciascun ciclo di trasmissione di un fotogramma (50 o 60 Hz a seconda dei Paesi) viene trasmesso l'intero quadro dell'immagine. Ogni aggiornamento coinvolge tutte le 720 linee e i 921.600 pixel dello schermo. Nel caso di schermo al plasma con pixel non-quadrati è HD ready anche la risoluzione complessiva di 786.423 pixel (1024x768). • Il formato 1080i, presenta una risoluzione complessiva di 2.073.600 pixel (1920×1080) con scansione interlacciata, ovvero per ciascun ciclo viene trasmesso un semiquadro formato alternativamente dalle sole linee pari o dispari dell'immagine. Quindi ogni aggiornamento coinvolge 540 righe e 1.036.800 pixel. • Il formato 1080p, comunemente chiamato FULL HD, è il più recente dei tre ed equivale alla versione con scansione progressiva del 1080i, per cui ogni aggiornamento coinvolge tutte le 1080 linee e i 2.073.600 di pixel dello schermo, ma di solito è a 24 fps, la velocità della pellicola cinematografica. Sono previsti formati 1080p a 50 e 60 fps, ma attualmente non sono di uso pratico, solo alcune telecamere e registratori possono riprendere e registrare così tanti dati. • Esiste anche un formato HR.HDTV (Half Resolution High Definition TV) con risoluzione pari di 960x540 ovvero l'esatta metà della definizione FULL HD (1920x1080) che tuttavia non è uno standard ufficiale né un formato nativo. L'HR.HDTV si ottiene dal downscaling di materiale ad alta definizione. Questo formato non viene usato da alcuna emittente televisiva per trasmissioni TV ma soltanto per la creazione di file video Xvid. http://en. wikipedia.org/wiki/High-Resolution_High-Definition Gli standard a 1035 linee di scansione, in uso soprattutto in Giappone, sono stati abbandonati. Va evidenziato che, per loro stessa natura, gli schermi LCD e plasma visualizzano comunque qualunque segnale video in modalità progressiva, sia che originariamente sia interlacciato, sia che sia già progressivo. 101 HDTV 102 Confronto tra i vari formati video Per confronto, nelle riprese cinematografiche si gira a 24 fotogrammi al secondo (in pellicola) con l'utilizzo di un otturatore a due pale che, con una frequenza doppia di 48 cicli al secondo, in proiezione copre le interlinee e i passaggi tra un fotogramma e l'altro. Le telecamere di ripresa elettroniche (o quelle digitali) invece hanno cicli di 25 fotogrammi al secondo. Le emittenti televisive tradizionali trasmettono in scansione interlacciata 25 fotogrammi al secondo per il sistema PAL e 30 per il sistema NTSC, quest'ultimo ha una risoluzione inferiore al precedente. [1] La qualità relativa dei due formati HD ready è legata, oltre che a considerazioni soggettive (preferenza verso una maggiore stabilità dell'immagine o verso una maggiore risoluzione), ai contenuti del segnale trasmesso. Le scene con movimenti più rapidi e frequenti possono beneficiare della maggiore rapidità di aggiornamento del formato 720p, mentre le scene statiche possono trarre vantaggio dalla maggiore ricchezza di dettagli del formato 1080i. Di fatto il sistema progressivo elimina i difetti di fermo immagine soprattutto durante la fase di montaggio. La definizione dei programmi HDTV è circa 4 volte superiore a quella del formato → DVD e nonostante la buona efficienza di compressione offerta dall'→ MPEG-4, lo spazio richiesto per la loro archiviazione è comunque rilevante. Per quanto i supporti ottici Blu-ray (lo standard HD DVD è stato abbandonato) di ultima generazione offrano una capacità che può arrivare a 50 GB e oltre, questa sarebbe appena sufficiente per 2 ore di filmato ad alta definizione con la codifica DVD. D'altra parte, l'uso di codec avanzati quali H.264 (MPEG-4 Part 10) consentirà la trasmissione della qualità piena con bitrate abbastanza bassi, fino a scendere agli 8 Mbit di banda passante disponibile sui ricevitori DTT. Questi codec vengono utilizzati anche dai lettori HD DVD e Blu-ray per abbassare la banda passante richiesta permettendo la memorizzazione fino a 8 ore di video su supporti Blu-ray a più strati. A partire dai primi mesi del 2009 sono presenti sul mercato televisori in grado di supportare il formato 1080p (Full HD con scansione progressiva), anche con frequenza di ripetizione di 200 Hz. HDTV Confronto dei particolari A parità di altezza dello schermo, i sistemi ad alta definizione offrono una qualità nettamente superiore per via della dimensione grandemente inferiore dei → pixel, come si può notare dalle immagini sottostanti. In questo caso infatti un pixel dello standard FULL HD ha il 28,4% dell'area di un pixel dello standard PAL, avendo un lato che equivale al 53,3% del lato di quest'ultimo. Per un pixel dello standard HALF HD (HD READY) le percentuali diventano il 64% per l'area e l'80% per il lato. Altri fattori importanti per la qualità Esistono sul mercato diverse tipologie di telecamere che si differenziano per la risoluzione che utilizzano per la registrazione (720p e 1080i tra le più comuni) ma un altro fattore importante per determinare la qualità di una registrazione digitale è il Bitrate ovvero la quantità di bit utilizzati per memorizzare ogni fotogramma del filmato; per gli apparecchi di classe domestica si aggira intorno ai 12/15 Mb/s utilizzando lo standard di registrazione/compressione MPEG-2. Il sistema di connessione con cui è possibile connettere una videocamera o un lettore al monitor o al videoproiettore si differenzia tra SDI e Component HD. Nei sistemi di montaggio non-lineare è possibile utilizzare lo standard Firewire. Come sfruttare l'HDTV I notevoli miglioramenti dell'alta definizione sono apprezzabili solo se si possiede un intero set HDTV, vale a dire sia televisore che decoder per ricevere le trasmissioni ad alta definizione trasmesse dalle emittenti televisive, o un lettore ottico di dischi ad alta definizione come dal 2006 sono il → Blu-ray e HD DVD. In caso contrario, se si tentasse cioè di visualizzare un contenuto HDTV con un televisore tradizionale, non si noterebbero miglioramenti nella definizione, in quanto il vantaggio fondamentale dell'alta definizione risiede proprio nella maggiore risoluzione del segnale video, circa quattro volte quello di un normale DVD. C'è decisamente poca chiarezza nella maggior parte dei produttori circa le effettive caratteristiche tecniche di un televisore che abbia supporto all'alta definizione. Non è detto che un display di elevata diagonale, con tecnologia TFT o plasma, sia una soluzione HD. Per dare un minimo di sicurezza al consumatore, esistono i sigilli "HD ready", 103 HDTV 104 "HD TV", "FULL HD 1080p" ed "HD TV 1080p", stabiliti dalla EICTA (European Information, Communications and Consumer Electronics Industry Technology Association), che in teoria dovrebbero dare la garanzia che un televisore sia in grado di visualizzare contenuti HD (ma nei negozi si sono visti televisori con questo sigillo, le cui caratteristiche tecniche non lo permettono). Il sigillo HD Ready dovrebbe garantire che il televisore: • • • • abbia una risoluzione verticale fisica di almeno 720 righe disponga di (almeno) una presa analogica YUV (→ Component) disponga di (almeno) una presa digitale (→ DVI o → HDMI) protetta dal sistema HDCP sia in grado di visualizzare contenuti con i formati 720p e 1080i. Viceversa né "HD Ready" né "HD Ready 1080p" garantiscono che l'apparecchio riceva via etere o satellite stazioni televisive in HD (720p o 1080i): per questa caratteristica il sigillo deve essere "HD TV" o "HD TV 1080p". Cenni storici e prossimi sviluppi Nel corso della storia, la sigla HDTV è stata usata più volte per indicare sistemi all'avanguardia con una risoluzione via via sempre maggiore. In ambito analogico, il riferimento è sempre stato costituito dal numero delle righe di scansione. Si possono indicare come HDTV i sistemi a 60 linee del 1925 e quello inglese a 240 linee del 1935, definito precisamente come HDTV dal governo britannico. Anche un sistema sperimentale americano a 441 linee fu presentato come HDTV nel 1939. Dopo il secondo conflitto mondiale, il sistema francese a 819 linee fu utilizzato per alcuni anni in Francia e in Belgio e non più utilizzato dal 1968, per la difficile compatibilità nei televisori a colori e con gli altri sistemi 625/25 continentali. [2] . In tempi recenti, il termine HDTV viene usato per indicare i sistemi a 720, 1035 e 1080 linee. In Giappone, la ricerca sull'alta definizione iniziò nel 1968, quando il Dr. Takashi Fujio, direttore dei Laboratori di Ricerca della NHK, l'ente televisivo pubblico giapponese, ritenne che la tecnologia televisiva, ancorché analogica, avesse raggiunto sufficiente maturità per passare dal tradizionale "piccolo schermo" al grande schermo cinematografico. Diede quindi avvio ad una ricerca per un sistema di "electronic film", basato su immagini a definizione più elevata di quella consentita allora dai sistemi televisivi. Si conveniva che l'immagine doveva: • essere composta da più di 1000 righe attive • avere un rapporto base/altezza di almeno 5:3 (widescreen) In tali condizioni, uno spettatore in grado di osservare lo schermo sotto un angolo orizzontale >40° perde la percezione del suo bordo e vive con più partecipazione la vicenda raccontata (effetto cinema). Nel 1980 La NHK mise a punto il sistema Hi-Vision analogico a 1125 righe (totali), formato 5:3, 60 semiquadri/s 1125/60i/5:3 (1.66:1, corrispondente al formato dello European Widescreen e della variante minima dello Vista Vision). Si costruirono anche prototipi di una telecamera, un videoregistratore, un tape-to-film transfer, un film-to-tape transfer (telecinema). Nel novembre 1981, con le prime riprese sperimentali eseguite a Venezia, la RAI iniziò, insieme alla NHK ed alla CBS, una sperimentazione del sistema Hi-Vision. Installati tali prototipi su un mezzo di ripresa, produsse a Venezia "Arlecchino", una breve fiction con regia di Giuliano Montaldo e luci di Vittorio Storaro. Nel 1981 la SMPTE creò l'HDTV Electronic Production Working Group che sancì il sistema analogico 1125/60i/16:9 SMPTE 240M. Nel 1983 la Sony produsse apparati di produzione in HD con lo standard 1125/60i/5:3 (1125 linee di definizione/scansione 60hz/aspect ratio 5:3); si tratta della linea HDVS: camera HDC-100, videoregistratore HDV-100, tape-to-film transfer EBR, mixer video HDS-100 e videoproiettore HDI-120. Per sperimentarli, la RAI mise a punto la mini-fiction "Oniricon" con regia di Enzo Tarquini, il tutto in preparazione della produzione di un vero film. HDTV Nel 1987 la NHK irradiò le prime trasmissioni analogiche in HDTV via satellite utilizzando il sistema di compressione analogica MUSE (Multiple Sub-nyquist sampling Encoding). Lo stesso anno la RAI, in co-produzione con la CBS e la United Artists, produsse "Julia & Julia" il primo film elettronico al mondo, con Sting e Kathleen Turner, luci di Giuseppe Rotunno, regia di Peter Del Monte. In tale produzione venne impiegata la video-camera Sony HDC-300 di 2ª generazione con prestazioni più cinematografiche, risultato delle prime sperimentazioni. Lo standard HD era sempre Hi-Vision 1125/60/i però col definitivo formato di immagine 16:9 (5.33:3 / 1.78:1); da qui in poi si utilizzerà il protocollo SMPTE SMPTE 240M (1125/60i/16:9). La Commissione Europea (ECC), con la approvazione dei 12 paesi membri, lanciò il progetto Eureka 95 (EU-95) per una HDTV europea col nuovo standard analogico 1250/50i/16:9 (1250linee / 50hz / aspect ratio 16:9). Parteciparono al progetto broadcaster (BBC, ARD, RAI, RTVE, ORF, …) e costruttori (Philips, Thomson, BTS, Seleco, Nokia, etc.). Alla Riunione Plenaria del CCIR (tenuta nel maggio 1986 a Dubrovnik), la battaglia fra i due standard, quello giapponese (1125/60i/16:9) sostenuto dagli USA, e quello europeo (1250/50i/16:9) si tradusse in un pareggio. Nel 1987 l'industria europea produsse apparati di produzione HD anche con lo standard analogico 1250/50i16:9: camera BTS KCH-1000, videoregistratore BTS BCH-1000. Anche la Thomson produsse camere HD e per registrare usò coppie di VTR digitali D1. L'italiana Seleco produsse il videoproiettore HDFP-1250 tritubo CRT interamente europeo. Per sperimentarli, i broadcaster europei realizzarono molte riprese (fiction, documentari, concerti, sport) diffondendole via satellite a più punti di visione in occasione di mostre, congressi e presentazioni con il sistema analogico di compressione HD-MAC. Nel 1987 RAI produsse "Un bel dì vedremo", la sua prima mini-fiction col sistema europeo analogico 1250/50i/16:9. Seguirono negli anni successivi altre produzioni sperimentali: "Capitan Cosmo" con Walter Chiari, "Allegro con brio", "Incontrando Robot", "Il cielo in una stanza". Nel 1990 un consorzio formato da RAI, Telettra, RTVE e Politecnico di Madrid, nell'ambito del progetto europeo EUREKA 256 (EU-256), mise a punto un sistema di compressione digitale HDTV basato sull'algoritmo DCT (Discrete Cosine Transform), da cui nacque cinque anni più tardi lo standard di compressione MPEG-2. Il sistema venne dimostrato durante i Mondiali di Calcio Italia 1990 diffondendo ad 8 sale di visione italiane le immagini in alta definizione riprese nei campi di calcio con i sistemi HDTV 1125/60i/16:9 e 1250/50i/16:9 e trasmesse via satellite Olympus. I grossi gruppi industriali europei capirono così l'importanza della compressione digitale, ma non erano ancora pronti: nel progetto europeo EU-95 si proseguì con l'impiego della compressione analogica col sistema HD-MAC, mentre il gruppo Alcatel acquistò dalla FIAT la Telettra e trasferì nelle sue fabbriche americane lo studio della compressione digitale. Il sogno RAI si arrestò bruscamente. Sempre nel 1990 la CEE creò Vision-1250 , con lo scopo di fornire un sostegno tecnico-produttivo in 1250/50i/16:9 a broadcaster e produttori europei. I costruttori Thomson, Philips e BTS, oltre a Seleco ed altre ditte europee, fornirono gli apparati necessari alla creazione di una "flotta di ripresa" Vision-1250, forte di circa 20 mezzi attrezzati. Altri mezzi di ripresa vennero messi in campo dai broadcaster europei (RAI, BBC, SFP, RTVE, WDR, BR, YLE, ecc.), con uno sforzo considerevole del mondo tecnico europeo. Il 1992 fu l'anno dei XVI Giochi olimpici invernali ad Albertville e dei Giochi della XXV Olimpiade a Barcellona. Per entrambi Vision 1250 ed NHK effettuarono una copertura HDTV con i rispettivi sistemi. Ma nubi dense si stavano addensando sul neonato progetto EU-95 per il sistema HDTV 1250/50i/16:9. Dopo le Olimpiadi, in seno alle autorità europee crebbe la perplessità sulla opportunità di proseguire la sperimentazione di un sistema HD europeo analogico. E ciò per molteplici ragioni: • gli elevati costi dell'operazione (condotta ancora con sistemi analogici), • lo scarso favore presso il pubblico per l'indisponibilità di schermi televisivi di grandi dimensioni (oggi invece in commercio), • le difficoltà nel trasporto e trasmissione dei segnali HDTV affidati ancora a sistemi di compressione analogici. Nel 1982, negli USA, un comitato congiunto, formato da Electronic Industries Alliance (EIA), Institute of Electrical and Electronics Engineers (IEEE), NAB, NCTA e SMPTE, creò l'Advanced Television System Committee) (ATSC, 105 HDTV organizzazione volontaria e non-profit per lo sviluppo di un sistema avanzato TV. Nel 1987 La Federal Communications Commission (FCC), numerose università e gruppi di ricerca individuarono 23 possibili sistemi HDTV. Nel 1993 il FCC Advisory Committee decise di prendere in considerazione solo sistemi digitali di HDTV, sollecitando le 4 ditte proponenti a riunirsi in una Digital HDTV Grand Alliance. Nel 1995 La "Grand Alliance" propose un HDTV "advanced television terrestrial broadcasting system" come concordato fra i membri. Tale proposta fu trasformata dalla ATSC nella norma A/53 per uno standard digitale che prevede: • sistemi HDTV (1080 x 1920, 720 x 1280 active line/active samples-per-line), • sistemi SDTV (TV a definizione standard 480 x 720 ). Nel 1996 la SMPTE scansì ed emise gli standard: SMPTE 274M - norme 1080/50i/16:9 (Eu) e 1080/60i/16:9 (USA)- e SMPTE 296M - norme 720/50p/16:9 (Eu) e 720/60p/16:9 (USA). L'anno successivo la FCC decise di assegnare alla trasmissione digitale terrestre TV (DTTV) i cosiddetti "taboo channels" adiacenti ai canali già usati e lasciati liberi per evitare interferenze fra di essi. Oltre alla A/53 vennero emesse altre norme per la televisione satellitare direct-to-home (A/81), per la trasmissione dati (A/90), per la compressione audio AC3 (A/52), ecc. Nel mese di novembre 1998 ebbero inizio le prime trasmissioni DTV comprendenti HDTV e SDTV secondo un calendario stabilito dalla FCC. Per l'Europa è del 2003 la nascita dell'idea di un Digital Cinema (DC), vero "cavallo di Troia" per il mondo cinematografico con la proposta di 24 fps (in luogo dei 50hz o 60hz della TV), costituisce anche una forte sferzata per il mondo televisivo e produttivo. I broadcaster europei presero coscienza che il DC offriva importanti opportunità e in particolare di poter disporre di un "common format" in DC con cui creare prodotti top destinati ad una lunga vita (fiction, documentari, ecc.) per i quali la conservazione è ancora oggi affidata alla pellicola 35mm, ma anche di poter disporre di una "scalabilità di formato", potendosi ricavare dal master in DC copie destinate ai mercati con minore definizione (SDTV, → DVD, VHS, ecc.). Al tempo stesso, esso costituì una minaccia, potendo aggirare la diffusione TV con la distribuzione di supporti preregistrati (home-cinema). Nel 2004 la società belga Alfacam diede inizio a regolari trasmissioni HDTV col satellite Astra, con la rete Euro1080 (utilizzando il sistema 1080/50i/16:9) battendo sul tempo i broadcaster e le autorità europee. Iniziò col canale HD1 a cui poi seguirono HD2 e HD5. La produzione necessaria a riempire questi canali fu fornita anche dalla flotta di ripresa Alfacam che coprì importanti manifestazioni, dal "Victory Day" a Mosca a vari eventi culturali e sportivi (nel febbraio 2006 un considerevole gruppo di tali mezzi coprirà in HD i XX Giochi olimpici invernali di Torino). Sempre nel luglio 2004, sotto la pressione crescente di gruppi industriali europei interessati al lancio della HDTV, il Ministero dell'Industria francese creò un HD Forum e quell'anno il Consiglio dell'Unione Europea, col supporto della Commissione Europea, organizzò il 7 giugno in Lussemburgo alla presenza di 300 rappresentanti decisionali (governi e settori privati) una Conferenza Europea sulla Televisione ad Alta Definizione. In tale conferenza la EBU (European Broadcasting Union) ed il "Digital Interoperability Forum" annunciarono la creazione di un HDTV European Forum. La DCI (il gruppo di ricerca costituito dalle major di Hollywood) propose nel luglio 2005 le specifiche dei due formati: 4096x2160 (4K) e 1920x1080 (2K), ora in via di normazione da parte della SMPTE. In Europa operava già da tempo lo EDCF (European Digital Cinema Forum). Intanto l'industria televisiva di consumo si dichiarava pronta a immettere sul mercato apparati HDTV (ricevitori MPEG-4 AVC e lettori DVD) certificandoli col marchio HD ready. Al Satexpo di Vicenza (ottobre 2005) vennero presentati HD Council Italia (associazione nata per promuovere la diffusione dell'Alta Definizione in Italia) e HD Forum Italia (gruppo di lavoro e coordinamento sulle nuove tecnologie dell'alta definizione costituito presso la Fondazione Bordoni). Questi si unirono ai Forum nazionali inglese (UK HD Forum emanazione del DTG, Digital Television Group), tedesco (German HD Forum - emanazione della Deutsche TV Platform), oltre che spagnolo, portoghese, svedese, belga e olandese. Gli standard in predicato per una HDTV europea sono: • SMPTE 296M : 720/50p (1280x720 pixel) 106 HDTV 107 • SMPTE 274M : 1080/50i (1920x1080 pixel) Entrambi comportano un Bitrate pari a : • in SDI (senza compressione) = 1.5 Gbps • con compressione MPEG-2 = 18 Mbps • con compress. MPEG-4 AVC = 9 Mbps Ma era già pronto in laboratorio uno standard 1080/50p che comporterebbe però un bit-rate doppio. Questi standard HDTV utilizzano tutti, come di consueto, l'aspect ratio 16:9 e la codifica audio AC3 5.1 canali. Negli ultimi anni l'HDTV ha ricevuto una maggiore importanza, soprattutto per due motivi: • I televisori LCD e plasma con schermi di grandi dimensioni e i videoproiettori digitali, stanno diminuendo di prezzo, specie i primi. • La trasmissione digitale è molto più efficace di quella analogica. Negli Stati Uniti d'America il HDTV trasmesso in modo digitale (via sistema ATSC) esiste da alcuni anni come anche in Giappone (sistema ISDB). In Europa i tempi per l'introduzione si sono allungati, perché si è deciso di usare tecnologie più avanzate per le trasmissioni HDTV (MPEG-4 H.264 invece di MPEG-2 per il video e DVB-S2 invece di DVB-S per la trasmissione via satellite). Solo da gennaio 2006 sono disponibili ricevitori HDTV per satellite che supportano queste tecnologie. Nel 2005, in occasione dell'Expo tenuta in Giappone, la tv NHK ha presentato un'evoluzione dell'HD, l'Ultra Alta Definizione. Il decoder SKY HD prodotto da PACE Le prime trasmissioni europee HDTV MPEG-4 via DVB-S2 sono cominciate nel novembre del 2005 dai canali tedeschi "Premiere" (criptata) e Sat1/ProSieben (FTA). Nel frattempo sono iniziate anche altre trasmissioni HDTV, la maggior parte ancora di tipo dimostrativo o di prova, spesso ancora con video MPEG-2 invece di MPEG-4. I grandi network televisivi europei (Sky, BBC, Canal+, ...) hanno lanciando le loro offerte HDTV nel corso del 2006, iniziando con gli eventi di maggior richiamo quali i campionati mondiali di calcio. Nel 2007 le reti tv australiane Seven Network e Network Ten hanno lanciato le versioni HD dei loro canali (con alcuni contenuti esclusivi), 1 anno dopo è la volta di Nine Network. La distribuzione di canali HDTV in Italia In Italia la programmazione, avvenuta nel 2006, poco prima dei campionati mondiali di calcio, ha avuto il suo inizio con l'emittente in chiaro Venice Channel seguita poi da SKY, con prima la trasmissione della finale di Champions League, trasmessa in modalità sperimentale, poi con le trasmissioni ufficiali dei mondiali germanici, attraverso il canale 207 di SKY, denominato allora "SKY Mondiale HD". Infine con l'offerta attuale SKY HD, con inclusi 14 canali HDTV: • • • • • SKY Cinema 1 HD, canale 301 SKY (solo SKYBOX HD) SKY Cinema Hits HD, canale 306 SKY (solo SKYBOX HD) SKY Sport 1 HD, canale 201 SKY (solo SKYBOX HD) SKY Sport 2 HD, canale 202 SKY (solo SKYBOX HD) SKY Sport 3 HD, canale 203 SKY (solo SKYBOX HD) • SKY Cinema Max HD, canale 309 SKY (solo SKYBOX HD) • SKY SuperCalcio HD, canale 205 SKY (solo SKYBOX HD) HDTV • • • • • • • • • 108 SKY Calcio 1 HD, canale 251 SKY (solo SKYBOX HD) SKY Calcio 2 HD, canale 252 SKY (solo SKYBOX HD) Discovery Channel HD, canale 401 SKY (solo SKYBOX HD) Eurosport HD, canale 209 SKY National geographic Channel HD, canale 402 SKY Fox HD, canale 110 SKY (solo SKYBOX HD) Fox Crime HD, canale 114 SKY (solo SKYBOX HD) Primafila HD, canale 351 SKY (pay-per-view) Premium Calcio HD"" (produzione HD di Mediaset Premium) La TV pubblica Svizzera SRG SSR idée suisse da fine 2007 ha creato un canale satellitare ad alta definizione trilingue (HD suisse) del tutto gratuito (sebbene riservato ai cittadini svizzeri), su cui sono stati trasmessi i Giochi della XXIX Olimpiade, il Campionato europeo di calcio 2008. La Tv pubblica RAI ha trasmesso i giochi olimpici invernali di Torino 2006 in HDTV in via sperimentale, sulle frequenze terrestri a circuito chiuso a Torino e zone limitrofe, destinate alla visione solo in luoghi pubblici. A Maggio 2008 i test sono già iniziati nell'area di Torino, e la trasmissione avviene a 720p. Nel corso del 2008, l'ente pubblico ha trasmesso gli Europei di calcio 2008 in alta definizione → MPEG-4/H.264 nelle zone di Torino, Roma, Milano, Valle d'Aosta e Sardegna [3] . L'evento è andato in onda, oltre che in analogico 4:3, anche in digitale terrestre, ma in formato 16:9 anamorfico. In realtà, già dal 1 marzo 2007 Rete 4 aveva già iniziato dei test in HDTV trasmettendo il segnale con la tecnica del digitale terrestre nella zona di Cagliari, estendendolo successivamente nelle aree in cui è avvenuto lo spegnimento del segnale analogico terrestre. Le trasmissioni in formato → MPEG-4/H.264 sono ricevibili solo da sintonizzatori DVB-T HD compatibili, che si possono trovare sia in versione per personal computer (basati ad esempio su interfaccia USB 2.0) sia come dispositivi autonomi da collegare alla televisione. Futuro Mentre il formato HDTV si sta diffondendo nei mercati, nei laboratori di ricerca si stanno sviluppando i successori. Ci sono in progetto sistemi come SHD (Super High Definition), detto anche "4k", con una risoluzione di 3840x2160 pixel (quattro volte i dati di un sistema Full HD) e anche di UHDV (Ultra Alta Definizione), sistema tutt'ora in via sperimentale elaborato in Giappone, il quale prevede una risoluzione di 7680x4320 pixel (16 volte i dati di un sistema Full HD). Tutti questi nuovi standard prevedono, come aspect ratio, l'uso del 16:9. Mentre il progetto SHD si prevede che venga (almeno inizialmente) destinato alle sale cinematografiche, il progetto UHDV sarebbe destinato all'ambito domestico. Il progetto SHD dovrebbe essere introdotto nel giro di qualche anno mentre per il progetto UHDV si prevedono tempi molto lunghi, NTT DoCoMo prevede la commercializzazione nel 2025 circa. Voci correlate • • • • • • PAL NTSC → DVD → Blu-ray Disc HD DVD HD ready • Televisione digitale terrestre • broadcast flag • SKY HD HDTV • • • • • 109 Ultra High Definition Video Digital Rights Management SDTV EDTV → Risoluzioni standard Altri progetti • Wikimedia Commons contiene file multimediali su HDTV Collegamenti esterni • • • • (EN) Aspect Ratios [1] - Dal sito Widescreen.org Lista di canali HDTV trasmessi via DVB-S in europa [4] Le basi dell'HDTV [5] Alta Definizione: chi, cosa, come, perché e quando? [6] Note [1] Si noti che i due sistemi citati sono, a rigore, tecniche di codifica per un segnale video composito, che non definiscono la risoluzione e la frequenza di scansione; tuttavia i termini sono di uso molto comune per riferirsi anche a questi aspetti delle norme relative. [2] Charles Poynton, Digital Video and HDTV: algorithms and interfaces, San Francisco, Morgan Kaufmann, 2003. 987-1-55860-732-7 [3] http:/ / www. raiway. rai. it/ index. php?lang=IT& cat=144& showINFO=85 [4] http:/ / www. kingofsat. net/ it/ hdtv. php [5] http:/ / www. tomshw. it/ video. php?guide=20040805 [6] http:/ / www. tomshw. it/ guide. php?guide=20061107 DVD Disco ottico Logo del DVD • • • • • Lettore CD Lettore DVD Masterizzatore Super Multi Software di masterizzazione Dischi ottici DVD 110 Il DVD, acronimo di Digital Versatile Disc (in italiano Disco Versatile Digitale, originariamente Digital Video Disc, Disco Video Digitale) è un supporto di memorizzazione di tipo ottico. Storia Il DVD è il prodotto della cooperazione di alcune fra le maggiori aziende nel campo della ricerca e dell'elettronica di consumo: il cosiddetto DVD forum, ovvero l'istituzione che si è incaricata di redigere le specifiche del nuovo supporto, era infatti formata da Philips, Sony, Matsushita, Hitachi, Warner, Toshiba, JVC, Thomson e Pioneer. L'intento era quello di creare un formato di immagazzinamento di grandi quantità di video digitali che fosse accettato senza riserve da tutti i maggiori produttori, evitando quindi tutti i problemi di incertezza del mercato dovuti alla concorrenza fra formati che si erano presentati al tempo dell'introduzione delle videocassette per uso domestico. Il DVD forum individua 3 principali campi d'applicazione per il DVD: 1. il DVD-Video, destinato a contenere film, in sostituzione della videocassetta; 2. il DVD-Audio, pensato per sostituire il CD Audio grazie a una maggiore fedeltà e capacità; 3. il DVD-ROM, destinato a sostituire il CD-ROM. Sia nel DVD-Video che nel DVD-Audio sono previsti sistemi di protezione in grado di disincentivare la duplicazione dei contenuti. Proprio a causa di problemi nello sviluppo dei codici di sistemi di protezione adeguati, lo standard DVD-Audio sembra essere l'applicazione meno fortunata del formato DVD. Al contrario lo standard DVD-Video e DVD-ROM sono apparsi sul mercato sin dal 1997, ottenendo un enorme successo commerciale. In un secondo momento, lo stesso DVD Forum introdusse gli standard per i formati registrabili del DVD. Formalizzato nel corso del 1999, il formato DVD-R è lo standard ufficiale per i DVD Registrabili. Esso si suddivide nei formati "DVD-R for authoring" e "DVD-R for general use". I primi sono destinati alla creazione di copie di video protette da diritto d'autore, necessitano di uno speciale masterizzatore e sono in grado di implementare i sistemi di protezione dalla duplicazione. La differenza fondamentale tra i due formati risiede nella diversa lunghezza d’onda del laser: 635 nm per il DVD-R(A) e 650 nm per il DVD-R(G). I secondi sono in grado di contenere qualunque tipo di materiale, ma non sono compatibili con i sistemi di protezione utilizzati nei DVD-Video. Nel 2000 è stato formalizzato lo standard DVD-RW, che ricalca le caratteristiche dei DVD-R "for general use", ma con la possibilità di essere riutilizzato fino a mille volte (teoricamente). DVD-RAM Negli anni necessari alla formalizzazione dello standard DVD-R, sono stati commercializzati altri 2 formati per la registrazione in formato DVD: il DVD+R (e DVD+RW) dal consorzio Sony-Philips, ed il formato DVD-RAM, supportato da Matsushita e JVC. Questi formati differiscono notevolmente dal formato DVD-R in termini tecnici, anche se i più moderni lettori e masterizzatori sono in grado di supportare DVD registrabili in qualunque formato (con qualche riserva per il DVD-RAM). Il DVD-R/-RW e il DVD+R/+RW usano una tecnica di registrazione elicoidale. Il DVD-RAM usa una tecnica di registrazione a cerchi concentrici, similare a un HardDisk, al quale è assimilabile nell'uso. Più recente è l'introduzione di standard per la masterizzazione di DVD a doppio strato, simili al DVD-9 industriale, e con una capienza di circa 9 GB di informazioni. Anche in questo caso la cordata Sony-Philips ha giocato d'anticipo, commercializzando il formato DVD+R Double Layer (c.d. DVD+R DL) fin dal 2002, mentre solo nel 2004 si è DVD 111 formalizzato lo standard ufficiale DVD-R DL. Il DVD-Video I DVD-Video sono supporti digitali in grado di contenere fino a 240 minuti[1] di materiale video in formato MPEG-2. L'audio può essere in formato non compresso PCM (da 1 a 8 canali), in formato Dolby Digital AC3 (che prevede da 1 a 6 canali), in formato DTS (fino a 8 canali) o in formato MPEG. I DVD-Video in commercio possiedono un codice detto codice regionale per poter essere riprodotto, usando un lettore DVD da tavolo, solo in una determinata zona del mondo (il globo è stato suddiviso in aree dalle major cinematografiche). I codici regionali dei DVD-Video sono i seguenti: 0 - Tutto restrizione) il mondo (nessuna 1 - Canada, USA e suoi territori 2 - Europa, Giappone, Sudafrica, Medio Oriente 3 - Sudest asiatico 4 - Australia, Nuova Zelanda, America centrale e meridionale 5 - Russia, India, Asia nordovest e Africa del nord Le zone del DVD 6 - Repubblica Popolare Cinese (tranne Hong Kong e Macao) 7 - Riservato 8 - Speciali sedi di riunioni (aeroplani, navi, hotel, etc.) Il DVD-Audio Il formato DVD-Audio ha subito numerosi slittamenti per problemi tecnici. Questo formato (DVDA) è stato progettato per fornire una qualità sonora notevolmente migliore di quella del CD Audio (CDDA). Malauguratamente, i sistemi di protezione dalla copia illegale implementati nel DVDA si sono rivelati molto efficaci dal punto di vista della sicurezza, ma terribilmente invasivi dal punto di vista della qualità complessiva del suono. In pratica il risultato sonoro era addirittura inferiore a quello dei normali CDDA, tanto che si è dovuto cercare altri sistemi di protezione che avessero un effetto meno marcato sulla qualità del suono. Nel frattempo il consorzio Sony-Philips ha introdotto, ritagliandosi una piccola fetta nel mercato audiofilo, il formato concorrente Super Audio CD SACD. Altro elemento che concorre al fallimento del formato DVD-Audio è la sua totale incompatibilità con gli attuali lettori DVD-Video. DVD Caratteristiche tecniche del formato DVD e DVD-ROM Le dimensioni dei DVD di produzione industriale sono di sei tipi: • DVD-1, detto più comunemente Mini DVD: 1,4 GB Lato unico e singolo strato, con diametro minore di 120 mm • DVD-3: 2,8 GB Double layer Lato unico e doppio strato, con diametro minore di 120 mm • DVD-5: 4,7 GB Lato unico e singolo strato • DVD-9: 8,5 GB Lato unico e doppio strato • DVD-10: 9,4 GB Due lati e singolo strato • DVD-18: 17 GB Due lati e doppio strato DVD I DVD "double layer" permettono una doppia incisione nello stesso lato. La capacità del supporto non raddoppia esattamente, perché una parte di memoria è dedicata alla creazione di un indice e al controlo della distribuzione dei dati. Il double side o "doppio lato" è un supporto che può essere inciso o riscritto da tutti e due i lati. Per il double layer occorre un particolare masterizzatore con tale funzionalità. Per il double side è sufficiente avere un supporto a doppio strato, che viene inciso con i comuni masterizzatori, semplicemente girando il disco. La memorizzazione delle informazioni avviene sullo "strato di incisione", tramite un laser, focalizzato su esso, che ne modifica la riflettività, riproducendo la sequenza 0, 1. Ogni strato è suddiviso in tracce circolari e concentriche di 0,74 micrometri. In lettura la luce laser viene riflessa dallo strato di memorizzazione in modo diverso a seconda dell'indice di riflessione e conoscendo la velocità di rotazione del disco e la traccia su cui si sta leggendo, si può risalire alla sequenza 0,1. La minima velocità di trasmissione dati da un DVD è nove volte maggiore di quella di un CD, cosicché un lettore DVD da 1x è quasi equivalente ad un lettore CD da 8x. Più precisamente, 1x per un lettore DVD equivale a 1350 kB/s, mentre 1x per un lettore CD equivale a 150 kB/s. Il file system largamente usato nei DVDRom è l'UDF (Universal Disk Format). Misure di un disco DVD - Diametro totale disco DVD è di 120 mm (12 cm); - Diametro totale foro centrale è di 15 mm (1,5 cm); - Diametro totale parte stampabile è di 118 mm (11,8 cm); - Diametro totale foro centrale non stampabile è di 22 mm (2,2 cm). Dvd Time È oggi possibile distribuire anche DVD a scadenza, aventi i medesimi standard di un DVD a doppio strato ma che si differenziano da questo per la durata fisica della traccia che contengono. La parte centrale contiene sostanza citrica che, a contatto col raggio ottico del lettore, viene lentamente sprigionata ed entro 48 ore rende il DVD inservibile avendone deteriorato la traccia. Esistono vari brevetti per realizzare questi nuovi supporti. Negli Stati Uniti questa tecnologia è stata sviluppata con il marchio Flexplay dalla Flexplay Technologies, società fondata nel 1999 da Yannis Bakos and Erik Brynjolfsson. Una tecnologia simile è utilizzata dalla Buena Vista con il nome ez-D. 112 DVD 113 Un'altra tecnologia simile, SpectraDisc, è stata sviluppata dalla SpectraDisc Corporation, acquistata interamente dalla Flexplay Technologies nel 2003. In Italia i DVD a scadenza sono detti Dvd Time e sono distribuiti dalla 01 Distribution che ha acquistato in esclusiva il brevetto dalla società francese Dvd-Time. Il primo film distribuito in Italia su tale supporto è stato A History of Violence nel 2006[2] . Questi supporti hanno il vantaggio che il film può essere preso a noleggio senza doverlo riportare in videoteca, dopo la visione del film. Il futuro dei DVD Anche se l'industria ha decretato che il DVD è tecnologicamente morto, si ha l'impressione che il suo uso continuerà per un periodo non troppo breve. Lo standard che ha raccolto l'eredità del DVD è il → Blu-ray Disc (BD), con una capienza di 25 GB di base, e con una possibilità di contenere ben otto strati, raggiungendo una capienza fino a ben 400 GB (16 strati). Prima dell'elezione del Blu-ray, lo standard rivale HD DVD aveva tentato di imporsi, ma è stato ritirato dal mercato. Una delle cause della vittoria del Blu-ray è l'essere stato adottato dalla Sony per contenere i videogames per Play Station 3. Lo studio di un possibile standard che permetterebbe il successivo salto di qualità è già avanzato: si tratta dell'Holographic Versatile Disc (HVD), basato sulla tecnologia delle memorie olografiche, e permetterà di contenere tra i 300 e gli 800 Gigabyte su un disco. Voci correlate • • • • DVD Forum DVD+RW Alliance Elenco dei produttori di lettori DVD Video anamorfico Formati DVD • • • • • • • • • DVD+R DVD-R DVD-RAM DVD+RW DVD-RW DVD+R DL DVD-R DL DVD-D mini DVD DVD 114 Dischi ottici successori del DVD e CD • • • • • Versatile Multilayer Disc (VMD) Digital Multilayer Disk (DMD) → Blu-ray Disc HD DVD Holographic Versatile Disc (HVD) Dischi alternativi al DVD • Enhanced Versatile Disc (EVD) • Dual Disc • CD-ROM Formati Video • MPEG-2 • → MPEG-4 • DivX • EZ-D • VOB Altri progetti • Wikimedia Commons contiene file multimediali su DVD Note [1] La capienza in minuti di un DVD-video è solo indicativa e dipende da scelte di natura commerciale. La reale capienza in minuti di un DVD-video dipende dal tipo di ripresa e dai settaggi scelti per i parametri della codifica in MPEG-2. Per qualsiasi supporto di memorizzazione digitale, l'unità di misura della capienza in uso è il byte. [2] cinecittà.com (http:/ / news. cinecitta. com/ news. asp?id=17398& idd=1). URL consultato il 10-01-2008. IPTV IPTV Con IPTV (Internet Protocol Television) è un sistema di teleradiodiffusione dedicato alla trasmissione di contenuti televisivi su un'infrastruttura di rete basata sulla suite di protocolli Internet, conosciuta anche come TCP/IP. Il sistema IPTV è generalmente usato per diffondere contenuti televisivi attraverso connessioni ad Internet a banda larga. Spesso la fruizione dei contenuti audiovisivi è offerta in modalità Video on Demand ed abbinata all'accesso al web ed al VOIP, poiché questi tre servizi condividono la stessa infrastruttura. L'IPTV è stato visto da molti come un settore che potrà avere in futuro una forte diffusione, di pari passo con la disponibilità della banda larga. L'interesse degli utenti finali è ulteriormente spinto dalla sempre maggiore disponibilità di contenuti sia a pagamento che gratuiti. Ma la chiusura del servizio da parte dell'operatore Tiscali nel dicembre 2008 ha sollevato forti dubbi sulle potenzialità di crescita di questo servizio, che a dicembre 2008 conta circa 600.000 abbonati tra i provider in Italia. Se infatti l'IPTV offre delle potenzialità tecnologiche quali il video on demand rispetto alle distribuzioni televisive tradizionali come la televisione analogica terrestre, il digitale terrestre, il satellite e, nei paesi in cui viene usata, la TV via cavo, contemporaneamente propone un modello chiuso, dove il provider decide quali contenuti e in quali modalità debbano essere fruiti dagli utenti. L'utente Internet, al quale il servizio IPTV è rivolto, è invece abituato a scegliere sul web e sugli altri servizi della rete a quali contenuti accedere e in quali modalità. Ad esempio la Web TV, offerta sia da servizi appositi quali YouTube o Vimeo, che da singoli siti più o meno grandi, inizia a superare l'IPTV in termini di qualità tecnologica, quantità di contenuti e modalità di accesso. O che lo scambio tramite reti peer to peer di contenuti audio e video, nonostante i problemi legali, continua a crescere rappresentando di fatto un'alternativa all'acquisto degli stessi contenuti. Protocolli L'IPTV solitamente offre 2 tipologie principali di contenuti: contenuti in presa diretta (distribuiti contemporaneamente a più utenti) e contenuti di tipo Video-on-Demand, cioè pre-registrati e resi disponibili a ciascun utente che ne faccia richiesta. Nel primo caso, la distribuzione dei contenuti avviene tramite protocolli di multicast; nel secondo caso, si usa una connessione unicast tra l'utente e la piattaforma di erogazione del servizio. I contenuti video, in genere, sono codificati in formato MPEG2, oppure MPEG4. Quest'ultima tecnologia (diffusasi più di recente) sta soppiantando l'MPEG2, poiché consente una notevole risparmio di banda, a parità di qualità dell'immagine. Solo ultimamente alle tecnologie di IPTV si sono affiancati sistemi di P2P-TV, ovvero di condivisione dei flussi audiovisivi che, attraverso dei sistemi a cascata simili a quelli di Bittorrent, permettono di replicare i contenuti tra gli utenti e permettere a tutti di ricevere agevolmente il segnale. Trasporto Il servizio viene erogato mediante una connessione IP che richide grande velocità per poter contenere i dati dello stream video. Pertanto viene normalmente fornita come servizio aggiuntivo ad uno di accesso ADSL o superiore. La tratta utente Il trasporto del segnale video avviene mediante un canale dedicato a livello più basso del livello IP. Il servizio viene normalmente erogato con due apparecchiature fornite al cliente: un modem e un set-top-box. Il primo stabilisce la connessione dati con la centrale e gestisce sia i dati di traffico generato dai PC in Internet che quelli relativi ad un eventuale filmato in visione. Il set-top-box invece riceve lo stream digitale con i contenuti video e lo trasforma in segnale PAL fruibile tramite un normale televisore. 115 IPTV In una normale connessione ADSL, tra l'apparato in centrale e il modem (in gergo CPE) si crea un circuito virtuale per il trasporto dei dati (normalmente un VC del protocollo ATM). In una connessione IPTV i circuiti virtuali sono almeno due, di cui uno interamente dedicato al trasporto del segnale video. Mediante questa separazione in due canali, è possibile assegnare al canale video maggiore priorità e impostarlo perché sia garantita una qualità del trasporto (QoS) superiore. In pratica si tende a dare preferenza ai pacchetti di dati dello stream video rispetto al trasferimento dei normali dati internet, questo consente una visione senza perdita di fotogrammi del contenuto multimediale, questo avviene a scapito del trasferimento di dati sull'altro canale virtuale: ad esempio le pagine web trasferite da un PC sulla LAN di casa collegata al modem. Queste però normalmente non richiedono un trasferimento sincrono. La banda utilizzata dal segnale video dipende dal gestore e dalla qualità del segnale trasportato. Un sengale a bassa definizione occupa tra i 4 e i 6 Mbit/sec. Un segnale ad alta definizione può richiedere 12-16 Mbit/sec e quindi non è generalmente frubile se non dalle utenze che hanno un accesso a fibra ottica, o una linea ADSL2 in ottime condizioni. Gli accessi in fibra ottica sono ora ristretti agli utenti Fastweb nelle zone coperte dal servizio. Altri operatori stanno sperimentando la tecnologia NGN basata su fibra ottica o altre soluzioni quali il VSDL. Trasporto alla centrale A monte del DSLAM in centrale il trasporto dei canali diffusi a più utenti utilizza un protocollo broadcast, ad esempio basato su tecnologia a VLAN in GBE. Questo fa si che sia possibile diffondere contenuti di alta qualità, rispetto ai video normalmente visibili via internet (tipo YouTube) senza saturare la rete. I contenuti on-demand, al contrario, sono necessariamente diffusi con stream dedicati per ciascuna utenza, pertanto un accesso massivo ai servizi on-demand da più utenti in parallelo può avere impatti sulla fruibilità degli altri servizi. Normalmente però il numero di utenze collegate ad un signolo DSLAM dedicato al trasporto IPTV sono in numero minore di quelle su un DSLAM a solo uso traffico internet. Gestione dei diritti digitali Alcune IPTV trasmettono alcuni o tutti i programmi utilizzando dei sistemi di protezione digital rights management al fine di evitare la duplicazione dei programmi visionati/acquistati. I DRM permettono di affittare/comprare i programmi forniti dalle emittenti ma permettono la riproduzione dei filmati al solo acquirente, normalmente tramite un numero limitato di computer/dispositivi multimediali. Bisogna comunque osservare che la problematica inerente i diritti sulla diffusione di contenuti audiovisivi è stata più volte oggetto di valutazione da parte del Parlamento Europeo, in particolar modo con la recente DIRETTIVA 2007/65/CE DEL PARLAMENTO EUROPEO E DEL CONSIGLIO dell’11 dicembre 2007 (DSMA - Direttiva Servizi di Media Audiovisivi) 116 IPTV 117 IPTV in Italia In Italia attualmente sono disponibili quattro offerte IPTV: • • • • TVdiFASTWEB Alice Home TV Infostrada TV Tiscali TV (il servizio è stato dismesso il 31 dicembre 2008) Nel 2009 i tre fornitori di servizi ancora attivi nel settore (Fastweb, Telecom e Infostrada) si sono accordati per progettare un decoder comune e proporre una soluzione con una tecnologia condivisa. Questo dovrebbe stimolare ulteriormente il numero di utenze che nel 2009 è previsto crescere di oltre il 70%. Entro il primo semestre 2010 il numero di utenze IPTV dovrebbe superare il milione. Collegamenti esterni • • • • Sito ufficiale dell'Associazione Italiana degli Operatori IPTV [1] Atti del workshop "IPTV: cambia il mondo della TV" [2] DSMA - Direttiva Servizi di Media Audiovisivi [3] DSMA - Direttiva Servizi di Media Audiovisivi, dal sito AGCOM [4] • Direttiva "Servizi di media audiovisivi senza frontiere" [5] • Il Ministero delle Comunicazioni - Iptv della sezione Televisione [6] Note [1] [2] [3] [4] [5] [6] http:/ / www. associazioneiptv. it http:/ / www. equiliber. org/ index. php?option=com_content& task=blogcategory& id=75& Itemid=78 http:/ / eur-lex. europa. eu/ LexUriServ/ site/ it/ oj/ 2007/ l_332/ l_33220071218it00270045. pdf http:/ / www. agcom. it/ L_com/ 2007_65_CE. pdf http:/ / europa. eu/ scadplus/ leg/ it/ lvb/ l24101a. htm http:/ / www. comunicazioni. it/ aree_interesse/ televisione/ televisione_iptv/ Web TV Web TV La Web TV, anche scritta web TV, è la televisione fruita attraverso il Web. La tecnologia alla base della web TV è lo → streaming. La globalizzazione della Web TV Grazie alla rete mondiale, le emittenti sono raggiungibili in tutto il mondo grazie a questo tipo di servizio. Per avere una buona visione della Web TV occorre avere una connessione a banda larga (ADSL o meglio con cavo a fibre ottiche). Le Web TV nella pubblica amministrazione italiana Il legislatore italiano con legge 7 giugno 2000[1] . ha previsto che le pubbliche amministrazioni si dotino di apposito ufficio stampa, con responsabili iscritti all'Ordine dei Giornalisti, con la possibilità di un dialogo diretto con i cittadini, anche senza la mediazione delle strutture tradizionali. I sistemi audiovisivi e quelli telematici sono posti sullo stesso piano della stampa tradizionale. In virtù di questo è in grande sviluppo il numero delle istituzioni pubbliche che utilizzano come strumento la Web Tv, sia perché permette una comunicazione diretta, sia perché rispetto agli altri media, ha costi di impianto e di gestione più contenuti. La Camera dei deputati ed il Senato della Repubblica hanno messo a disposizione un servizio di trasmissione in diretta di tutti i lavori parlamentari, accompagnate dal servizio di poter a domanda visionare tutte le sedute in archivio. Il sistema ha permesso di democratizzare gli accessi, prima esclusiva dei giornalisti accreditati come Stampa Parlamentare. Gradatamente il servizio si sta estendendo alle altre istituzioni pubbliche, a partire dalle Regioni. Il Formez, che è una associazione partecipata dal Dipartimento della Funzione Pubblica, dall'ANCI, dall'UPI, dall'UNCEM che opera sull'intero territorio nazionale, ma che ha conservato l'originaria attenzione alle aree del Mezzogiorno, ha un ruolo propulsivo, con la pubblicazione di una guida.[2] La P2P TV Un'evoluzione della Web TV è la P2P TV, che si basa sulla condivisione di video in → streaming tramite la tecnologia peer-to-peer. L'utilizzo della tecnologia peer-to-peer permette di trasmettere ad un numero elevato di persone senza l'utilizzo di server potenti e di banda elevata, riducendo i costi del sistema. Le Web TV esclusivamente via Internet Un'accezione tuttavia molto usata di Web TV corrisponde ad una costruzione di una vera e propria televisione fruibile unicamente via Internet, e dunque non la mera ripetizione della programmazione via etere o satellite. In questi casi il mezzo preponderante è il personal computer e l'interattività che si crea con lo spettatore che, diviene, utente: possibilità di creare un palinsesto personalizzato, eliminazione dei tempi morti, riproducibilità senza confini del contributo audiovisivo desiderato, interazione con storie e programmi molto più elevata delle semplici e classiche telefonate alle redazioni. Il vantaggio principale è di poter usufruire su base veramente senza limiti geografici di una interconnessione estesa a tutto il globo, senza i limiti del numero dei canali, delle concessioni governative ed altro. 118 Web TV La Web TV come "piattaforma televisiva" Una particolare attenzione alla Web TV potrà essere data dalla riforma in atto dei diritti di trasmettere gli spettacoli sportivi in cui gli operatori dovranno partecipare a gare di appalto suddivise per piattaforma televisiva, escludendo la possibilità di aggiudicarsi i diritti per più di una piattaforma. Ma il concetto che la Web Tv è, ormai, una piattaforma che ha pari dignità con le altre è stata ammessa anche dai responsabili delle altre piattaforme, [3] che ipotizzano di "creare comunità virtuali sul Web. Tutti potranno proporre contenuti che poi verranno intrecciati con quelli delle tv analogiche." Convegni Il mondo delle web TV ha attirato l'attenzione anche del mondo accademico. Il primo meeting sull'argomento è stato organizzato nell'ottobre 2008 preso l'università IULM di Milano. Il secondo meeting è avvenuto nei giorni 22 e 23 maggio 2009 sempre allo IULM. Bibliografia • Domenico Serafini La Televisione via Internet: una nuova frontiera, editore Video Age (1999) Voci correlate • • • • • → Televisione digitale → Streaming → Podcasting Web radio Televisione comunitaria Collegamenti esterni • Web TV [4] su Open Directory Project ( Segnala [5] su DMoz un collegamento pertinente all'argomento "Web TV") Note [1] Legge 7/6/2000, Istituzione degli Uffici Stampa nella Pubblica amministrazione (http:/ / www. esteri. it/ ITA/ 5_30_78_122. asp) [2] Formez, La web Tv delle pubbliche amministrazioni (http:/ / db. formez. it/ FontiNor. nsf/ dffcb1ad495c0dd3c1256a690056985b/ 682D38DF1BC251A2C125716B002C4FE3/ $file/ Ricerca LA PA CHE SI VEDE. pdf) [3] Web TV e TV analogichi hanno pari dignità? (http:/ / www. agi. it/ news. pl?doc=200611081145-0075-RT1-CRO-0-NF10& page=0& id=agionline. oggitalia) [4] http:/ / www. dmoz. org/ World/ Italiano/ Arte/ Televisione/ Reti_e_Canali/ Internet/ [5] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=World/ Italiano/ Arte/ Televisione/ Reti_e_Canali/ Internet/ 119 Streaming Streaming Il termine streaming identifica un flusso di dati audio/video trasmessi da una sorgente a una o più destinazioni tramite una rete telematica. Questi dati vengono riprodotti man mano che arrivano a destinazione. Tipi di streaming Sostanzialmente esistono due tipologie di streaming: 1. Streaming on demand 2. Streaming live Streaming on demand I contenuti audio/→ video sono inizialmente compressi e memorizzati su un server come file. Un utente può richiedere al server di inviargli i contenuti audio/→ video. Non è necessario scaricarli per intero sul PC per poterli riprodurre: i dati ricevuti vengono decompressi e riprodotti pochi secondi dopo l'inizio della ricezione. Questo ritardo serve a creare un polmone per rimediare a ritardi o microinterruzioni della rete. Di questo tipo sono i flussi streaming di Real Video e Real Audio, Windows Media Player, QuickTime, Adobe Flash Video (quest'ultimo tipo di formato file utilizzato nel sito di Youtube). Addirittura esistono molti flussi streaming che permettono di visionare contenuti in qualità divx. Alcuni siti come FreeForFun.org [1] sfruttando questi flussi permettono la visione di film in streaming in alta definizione. Streaming live Simile alla tradizionale trasmissione radio o video in broadcast. Anche in questo caso i dati sono trasmessi utilizzando opportune compressioni per alleggerire più possibile il carico sulla rete. La compressione dei contenuti introduce nel flusso un ritardo di circa dieci secondi. Nel campo dello streaming live, di solito, questo ritardo non costituisce un problema. Protocollo per lo streaming Generalmente la trasmissione in streaming avviene utilizzando il protocollo RTSP a livello di applicazione mentre a livello di trasporto si utilizza prevalentemente il protocollo UDP. La distribuzione dei dati di streaming può essere di tipo : • • • • Multicast; Unicast; HTTP; Peer to Peer. Una delle più recenti applicazioni della tecnologia streaming risulta essere stata applicata nel campo della pubblicità con la creazione di videobrochure. Visto l'enorme successo avuto dallo streaming, ormai sono moltissimi i server costruiti appositamente per ospitare esclusivamente file audio o video. 120 Streaming Software e dispositivi per effettuare/visualizzare uno stream • • • • • • • • • • • • • • • • VLC media player Winamp Windows Media Player QuickTime Shoutcast Icecast iTunes Amarok MPlayer Kaffeine Picostreamer RealPlayer Adobe Flash Player Streamtuner Location Free Player VideoVista • • • • LiveVista DelFeo Radio/TV Player Red5 Play4film.com Collegamenti esterni • Streaming [2] su Open Directory Project ( Segnala [3] su DMoz un collegamento pertinente all'argomento "Streaming") Note [1] http:/ / freeforfun. org/ [2] http:/ / www. dmoz. org/ Arts/ Music/ Music_Videos/ Streaming/ [3] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Arts/ Music/ Music_Videos/ Streaming/ 121 Podcasting Podcasting Il podcasting è un sistema che permette di scaricare in modo automatico documenti (generalmente audio o → video) chiamati podcast, utilizzando un programma ("client") generalmente gratuito chiamato aggregatore o feed reader. Un podcast è perciò un file (generalmente audio o video) posto su Internet e messo a disposizione di chiunque si abboni ad una trasmissione periodica. È scaricabile automaticamente da un apposito programma, chiamato aggregatore, e si basa sui feed RSS. Etimologia Podcasting è un termine basato sulla fusione di due parole: iPod (il popolare riproduttore di file audio → MP3 di Apple), e broadcasting. Il termine nacque quando l'uso dei feed RSS divenne popolare per lo scambio di registrazioni audio su computer, palmari, lettori di musica digitale e anche telefoni cellulari. Pare che il termine podcasting sia comparso per la prima volta il 12 febbraio 2004 in un articolo del giornalista Ben Hammersley sul The Guardian intitolato " Audible revolution [1]". Uno dei pionieri di questo sistema è invece Adam Curry, Video Jockey della MTV americana. Il nome fu primariamente associato al solo scambio di file audio, ma l'uso delle tecniche RSS al fine di condividere file video, iniziate già dal 2001, fece estendere il suo significato anche allo scambio dei file video, pur non avendo alcuna relazione etimologica con essi. Nel dicembre 2005, il dizionario americano New Oxford ha dichiarato Podcasting «parola dell'anno», definendo il termine come «registrazione digitale di una trasmissione radiofonica o simili, resa disponibile su internet con lo scopo di permettere il download su riproduttori audio personali». Il termine è, in realtà, improprio, visto che né per il podcasting, né per il successivo ascolto dei file sono strettamente necessari l'utilizzo di iPod o una trasmissione tradizionale (broadcasting). L'associazione con iPod nacque semplicemente perché in quel periodo il lettore audio portatile ideato e prodotto da Apple era estremamente diffuso. Il termine è stato spesso criticato poiché darebbe meriti ingiustificati alla Apple nello sviluppo della tecnologia del podcasting. Per questo motivo si è cercato di renderlo "neutro", utilizzandolo come acronimo di "Personal Option Digital casting" (il primo ad averlo fatto sarebbe Doc Searls nell'articolo " DIY Radio with PODcasting [2]"). La confusione sull'origine del termine si è perciò diffusa, anche alcune importanti testate giornalistiche italiane come Il Corriere della Sera, La Repubblica, la RAI, hanno commesso l'errore di trovare l'etimo nel suddetto acronimo: è invece ormai internazionalmente accettato che il termine derivi dal nome del supporto della Apple. Cos'è e come funziona Per ricevere un podcast sono necessari: • un qualsiasi supporto connesso ad internet (un PC, ad esempio) • un programma client apposito (spesso gratuiti) • un abbonamento presso un fornitore di podcast (spesso gratuiti) Un podcast funziona alla stregua di un abbonamento ad una pubblicazione periodica, utilizzando una metafora: il supporto connesso ad internet è la cassetta postale, il client è il postino, e il fornitore di podcast è la casa editrice. L'abbonato riceve regolarmente le pubblicazioni, e può ascoltarle o vederle nella modalità e nei tempi che gli sono più congeniali. Per fruire del podcasting è innanzitutto necessario installare un semplice software gratuito (per esempio iTunes, Juice [3] o Doppler), quindi selezionare i podcast di interesse. Il software, con la frequenza decisa dall'utente, si collega ad internet e controlla quali file sono stati pubblicati dai siti ai quali si è abbonati: se ne trova di nuovi, li scarica. La notifica della pubblicazione di nuove edizioni avviene tramite un feed RSS scambiato tra il sito del 122 Podcasting produttore e il programma dell'utente. I podcast potranno poi essere ascoltati in ogni momento poiché la copia del file, una volta scaricata automaticamente, rimane sul computer dell'abbonato. In tal modo non si rende necessaria alcuna operazione attiva da parte dell'utente. Inoltre, a differenza delle radio on line in → streaming, i podcast non richiedono necessariamente un collegamento ad internet durante la fase di ascolto, ma solo in fase di download: ciò permette di fruire dei podcast anche off-line o in condizioni di mobilità. Differenze tra podcasting e streaming Qualche definizione: • Broadcast indica una trasmissione radio/tv tradizionale, ascoltabile ad una determinata ora decisa dall'emittente. Quindi sincrona e on-line. • → Streaming indica una risorsa audio/video fruibile in qualsiasi momento tramite un collegamento internet al sito dell'emittente e un dispositivo per la riproduzione del flusso audio/video digitale. Si possono avere le due modalità di streaming in memoria (video/audio on demand), che è asincrona e on-line, e di streaming dal vivo simile alla trasmissione radio/tv tradizionale, che è sincrona e on-line. • Podcasting indica una risorsa audio/video fruibile in qualsiasi momento, scaricata automaticamente in formato mp3 (o altro) dal sito dell'emittente e salvata nella memoria di un dispositivo per la riproduzione. È quindi: asincrona, off-line e nomadica. Iscriversi ad un podcast permette all'utente di ottenere file che possono essere riprodotti anche off-line, e di disporre di una grande quantità di fonti da cui attingere. Al contrario il broadcast offre una sola trasmissione alla volta, e obbliga ad essere sintonizzati ad una determinata ora. L'ascolto di audio in streaming su internet può eliminare l'obbligo di sintonizzazione in un determinato momento dato dalle trasmissioni tradizionali, come accade nel caso del video/audio on demand, ma offre comunque una sola risorsa alla volta ed obbliga l'utente ad essere connesso ad internet durante la riproduzione del file. La capacità di ricevere automaticamente pubblicazioni da fonti multiple è proprio uno dei punti di forza che distinguono il podcasting dalle trasmissioni tradizionali, e dalle trasmissioni in streaming. Nonostante i programmi in streaming - alla stregua delle trasmissioni radio tradizionali - possano essere più o meno facilmente registrati dal ricevente, la loro natura transitoria li distingue nettamente dai programmi podcast, che invece arrivano già in formato compresso sul proprio computer (è la stessa differenza che c'è tra ascoltare un brano alla radio e scaricarlo in mp3): questa rappresenta una diversità considerevole anche da un punto di vista legale, ed ha infatti suscitato accese polemiche. Diffusione del podcasting L'uso del podcasting si è nel tempo enormemente diffuso, raggiungendo livelli di pubblico tali da indurre la stessa Apple ad investire intensamente nel settore, offrendo nel firmware dell'iPod una voce di menù dedicata al podcasting, con oltre 3000 podcast gratuiti presenti nell'iTunes Store (voce tra l'altro presente anche in alcuni smartphone Nokia). Molti celebri artisti (come Jovanotti, Max Pezzali, Fiorello, Bruce Springsteen, ecc.) hanno creato un proprio podcast dove parlano di sé fra canzoni e vita privata. Anche il mondo del giornalismo, della politica e della comunicazione si sono interessati al podcasting. In Italia, ad esempio, RadioRAI offre le proprie trasmissioni come podcast; il quotidiano La Repubblica distribuisce via podcasting le trasmissioni di "Repubblica Radio"; molte altre emittenti radiofoniche nazionali (tra le più importanti: Radio DeeJay, Radio 105, Radio 24, Radio RockFM, Radio Popolare) hanno iniziato a proporre le proprie trasmissioni con la tecnologia del podcasting. Una ricca raccolta di eventi politici e documenti originali e integrali in podcast si trova su radio Radicale, più il suo Archivio Storico. Anche il mondo accademico e quello delle istituzioni 123 Podcasting hanno dimostrato interesse per questo metodo di diffusione di contenuti multimediali. La maggioranza dei podcast attivi, comunque, non fa parte del circuito a pagamento o della grande editoria, ma è costituito dal cosiddetto "movimento indipendente", formato da semplici utenti che per passione diffondono i propri contenuti. A dimostrazione della rapida ascesa dell'utilizzo del termine podcasting basti pensare ai risultati mostrati da Google per questo termine. Il 28 settembre 2004, cercando podcasting su Google, erano presenti solo 24 risultati. Tre giorni dopo, il 1 ottobre 2004, erano già 2750, e il 18 ottobre 2004 erano già più di 100.000! Bibliografia • • • • Marco Traferri. Podcasting che funziona, ed. Apogeo, 2006, ISBN 88-503-2459-6 Alessandro Venturi. Come si fa un podcast, ed. Tecniche Nuove, 2006, ISBN 88-481-1947-6 Stefania Boiano e Giuliano Gaia. Il tuo podcast, ed. FAG, 2006, ISBN 88-823-3530-5 Michele Faggi. Musica e radio online: realizzare un podcast partendo da zero, ed. RGB, 2006, ISBN 88-6084-012-0 Collegamenti esterni • • • • • • • • • • podcasting [4] su Open Directory Project ( Segnala [5] su DMoz un collegamento pertinente all'argomento "podcasting") Elenco dei Podcast Italiani suddivisi per categorie [6] Elenco dei Podcast Italiani Indipendenti [7] Raccolta di domande e risposte sul podcasting [8] Edidablog: Progetto del Ministero della Pubblica istruzione per tutti gli insegnanti che voglio fare podcast in classe [9] (EN) Siti sul podcasting [10] (da Google Directory) Guida al podcasting [11] (da HTML.it) Guida su come creare e pubblicare un Podcast (da pc-facile.com) [12] Normative SIAE per il podcasting radiofonico [13] Elenco dei Podcast Italiani suddivisi per categorie [14] Note [1] http:/ / technology. guardian. co. uk/ online/ story/ 0,3605,1145689,00. html [2] http:/ / www. itgarage. com/ node/ 462 [3] http:/ / juicereceiver. sourceforge. net/ [4] http:/ / www. dmoz. org/ Computers/ Internet/ On_the_Web/ Podcasts/ [5] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Computers/ Internet/ On_the_Web/ Podcasts/ [6] http:/ / www. audiocast. it/ podlist/ [7] http:/ / www. gunp. it/ [8] http:/ / www. digitalino. com/ toilettecast/ faq/ [9] http:/ / www. edidablog. it/ [10] http:/ / www. google. com/ Top/ Computers/ Internet/ On_the_Web/ Podcasts/ [11] http:/ / basic. html. it/ guide/ leggi/ 130/ guida-podcasting/ [12] http:/ / www. pc-facile. com/ guide/ creare_pubblicare_podcast/ [13] http:/ / www. fabriziomondo. com/ 2007/ 08/ 20/ normative-siae-per-il-podcasting-radiofonico-in-italia/ [14] http:/ / www. podcast. it/ 124 Blu-ray Disc 125 Blu-ray Disc Disco ottico Logo del Blu-ray Disc • • • • • Lettore CD Lettore DVD Masterizzatore Super Multi Software di masterizzazione Dischi ottici Il Blu-ray Disc è il supporto ottico proposto dalla Sony agli inizi del 2002 come evoluzione del → DVD per la → televisione ad alta definizione. Grazie all'utilizzo di un laser a luce blu, riesce a contenere fino a 54 GB di dati, quasi 12 volte di più rispetto a un DVD Single Layer - Single Side (4,7 GB). Anche se questa capacità sembra enorme, un disco da 25 GB può contenere a malapena 2 ore di filmato ad alta definizione utilizzando il tradizionale codec MPEG-2. Per questo motivo, oltre all'utilizzo dei dischi a doppio strato (oltre 50 GB), è stato previsto l'impiego di codec più sofisticati come l'→ MPEG-4 AVC o il Windows Media Video 9 (standardizzato come VC-1) che permettono in teoria di raddoppiare il fattore di compressione rispetto all'MPEG-2 (quindi dimezzando la richiesta di spazio) senza incidere significativamente sulla qualità video. È stato utilizzato il termine Blu (usato in italiano) al posto del corretto Blue, poiché quest'ultimo è di uso comune nella lingua inglese (e quindi non registrabile come marchio). Il primo apparecchio ad aver utilizzato commercialmente questa tecnologia è stata la PlayStation 3, dopo che il 12 agosto 2004 i produttori impegnati nel progetto Blu-ray dichiararono di aver approvato la versione 1.0 delle specifiche per i dischi BD-ROM. La presentazione ufficiale del nuovo supporto disponibile per il cinema ad alta definizione è avvenuta il 23 maggio 2006 negli Stati Uniti. Il 19 febbraio 2008 il Blu-ray ha definitivamente vinto la sua competizione con l'HD DVD, visto che Toshiba, titolare dei diritti sullo standard concorrente, ha dichiarato la chiusura del progetto e la dismissione delle attività collegate.[1] Chiusura probabilmente determinata anche dall'abbandono del supporto da parte di nomi come Warner Bros. e Wal-Mart. Blu-ray Disc 126 La battaglia con il concorrente HD DVD Sia il BD che il concorrente formato HD DVD, sono supportati da insiemi di aziende, che lottano per imporre il proprio formato. Essendo basato su una tecnologia di costruzione differente da quella utilizzata per CD-ROM e DVD, il BD potrebbe essere più costoso da produrre, almeno inizialmente, rispetto all'HD DVD, che però ha una capacità di soli 15 GB per strato singolo e 30 GB utilizzando il doppio strato. Il prezzo per l'utente finale, però, dipenderà dalle politiche della case editrici: nelle produzioni BD e HD DVD americane attuali, il prezzo finale di vendita dei film pre-registrati è identico e non c'è nulla che lasci trapelare un maggiore costo di realizzazione del Blu-ray Disc, se non il fatto che tutti i primi titoli realizzati facciano ancora uso del disco da 25 GB (singolo strato), con l'utilizzo dei supporti a doppio strato (50 GB) previsto nell'immediato futuro. La capacità dei due supporti comunque non si limiterà ai valori attuali. Già al CEATEC 2004 fu presentato per il Blu-ray Disc un prototipo di supporto a 4 strati, capace di raggiungere una capacità di 100 GB, con esperimenti in corso per un ulteriore raddoppio fino a 8 strati o 200 GB. In risposta, il 12 maggio 2005 al Media-Tech Expo di Los Angeles è stata proposta una evoluzione anche per l'HD DVD, dimostrando l'impiego di dischi da 45 GB a 3 strati. Queste versioni multi-layer di HD DVD e Blu-ray saranno perfezionate e utilizzate in un prossimo futuro, mentre per il momento si diffonderanno solamente supporti a 1 e 2 strati e player compatibili. La tecnologia alla base di Blu-ray è più complessa e sofisticata, ma permette di raggiungere capacità teoriche superiori ai 500 GB per singolo disco. Al contrario, HD DVD punta meno sulla capacità massima di storage e più sulla compatibilità con l'attuale tecnologia DVD a laser rosso. Uno dei motivi principali per cui lo standard Blu-ray consente capacità superiori rispetto al concorrente è rappresentato dal minore spessore dello strato protettivo. I dischi DVD e HD DVD dispongono di un polimero trasparente (policarbonato) di 0,6 mm che copre i substrati, mentre lo strato del Blu-ray è di soli 0,1 mm. Questo significa che il substrato è molto vicino alla superficie, e la diffusione del laser è minore. Meno materiale il laser deve penetrare, maggiore sarà l'apertura numerica e minore sarà la distanza tra due tracce e la lunghezza dei pit (il pit è la struttura di un disco ottico tramite la quale vengono immagazzinati i dati binari sotto forma di variazioni nello spessore dello strato riflettente del disco, permettendone così il recupero misurando la quantità di luce riflessa del fascio laser usato per la lettura). In parole povere, questi cambiamenti permettono maggiore densità di dati su un disco Blu-ray anziché su un DVD o un HD DVD. Questa battaglia si è chiusa, come detto, il 19 febbraio 2008. Capacità dischi e costi Blu-ray attualmente offre tre differenti capacità di archiviazione (23,3, 25 e 27 GB), solo leggermente differenti in quanto utilizzano i medesimi supporti ma variano la quantità di dati immagazzinati grazie all'utilizzo di tre differenti lunghezze dei pit. È anche possibile diminuire ancora di più la lunghezza dei pit, e incrementare la capacità di archiviazione per strato, in inglese chiamato layer. In contrasto, HD DVD utilizza una lunghezza del pit fissa, quindi la capacità per layer è fissa a 15 GB. Con i dischi Blu-ray da 25 GB già sul mercato, e con quelli da 50 GB sulla linea di partenza, Sony era già al lavoro sui supporti da 200 GB: una capacità che sarebbe stata raggiunta con l'adozione di otto strati. Tale capacità è stata poi raggiunta e presentata il 26 maggio 2005 da parte della Blu-ray Disc Association che ha Un disco Blu-ray dichiarato, inoltre, che ormai i costi di produzione dei dischi BD-ROM con capacità da 25 e 50 GByte sono molto simili a quelli degli odierni DVD Dual Layer. Blu-ray Disc In questo periodo di lotta e mancato accordo per il formato unico con il consorzio HD DVD, il fatto che i costi di produzione siano simili alla concorrenza (ma con risultati migliori) segna un punto a favore per il Blu-ray. A sfavore dello standard invece c'è il costo degli impianti, gli attuali impianti possono essere aggiornati allo standard HD-DVD con una spesa modesta, mentre una loro modifica per la produzione di supporti Blu Ray richiede un investimento molto più consistente. Come per i DVD, anche i Blu-ray esistono in versione "Double layer" in cui, grazie alla presenza di due strati di informazione sovrapposti, la Prototipo di un disco Blu-ray capacità viene raddoppiata, portandola a circa 50 GB. Sono comunque allo studio versioni ancora più evolute, in cui grazie all'impiego di 4, 8 e anche 16 strati, la capacità di un Blu-ray Disc potrebbe essere in futuro portata anche a 100, 200 e 400 GB rispettivamente. Protezione dei dati Sul fronte della sicurezza dei dati contro la contraffazione, Blu-ray utilizza l'Advanced Encryption Standard (AES) con chiavi a 128 bit che cambiano ogni 6 Kb di dati. In una conferenza del 2004, Sony ha mostrato come una singola chiave veniva utilizzata per decriptare un DVD, mentre la chiave del Blu-ray Disc cambiava centinaia di volte durante la riproduzione. Il protocollo di gestione dei contenuti digitali funzionerà in cooperazione con il protocollo HDCP per impedire la riproduzione a dispositivi non abilitati. Il Blu-ray utilizza tre meccanismi di protezione dei dati. • Il primo è l'AACS, evoluzione del Content Scrambling System (CSS) utilizzato per i DVD. L'AACS cripta i dati e può essere decodificato solamente conoscendo le apposite chiavi rilasciate ai produttori di player. L'AACS, quindi, di fatto serve a impedire la riproduzione di dischi da parte di dispositivi non autorizzati o contraffatti (e che quindi potrebbero illegalmente trasferire il contenuto del supporto verso altri sistemi). • Un secondo meccanismo di protezione è quello del Digital Watermarking. Praticamente nel disco vengono inserite delle "impronte" realizzate mediante opportune modifiche della forma dei bit, invisibili all'occhio umano, ma il cui schema può essere intercettato e ricostruito dal player durante la riproduzione. Se il player non individua lo schema, il disco viene identificato come contraffatto e non riprodotto. Il Digital Watermarking, quindi, serve a impedire la riproduzione di dischi prodotti illegalmente. • Il terzo sistema è chiamato BD+ e si basa su una macchina virtuale che può essere eseguita nel riproduttore di Blu-ray Disc utilizzando un codice sorgente registrato direttamente nei supporti pre-registrati. Al momento del caricamento del disco, il codice viene estratto e portato nella memoria del player, dove viene eseguito. Il codice permette di decodificare il materiale registrato sul disco che è stato modificato applicando un secondo livello di protezione, aggiuntivo rispetto all'AACS, e che prevede la sostituzione di porzioni di dati utili con porzioni di dati non significative. Se tali porzioni non vengono ripristinate, il materiale risulta corrotto e quindi non leggibile. Il programma eseguito dalla macchina virtuale del BD player si occupa appunto di ricostruire il flusso corretto di bit, permettendo la lettura del disco. Il BD+ offre due meccanismi molto potenti di protezione: innanzitutto il codice non risiede mai permanentemente nel player, in quanto non appena viene estratto il disco la memoria della Virtual Machine viene azzerata. Questo significa che il codice non è direttamente accessibile dal player e che questo non può essere "violato". In secondo luogo, poiché il codice risiede solo nel supporto, è possibile modificarlo ogni qualvolta il codice in uso risulti violato, rendendo così il sistema aggiornabile. La combinazione dei tre meccanismi di protezione è considerata molto più sicura rispetto al solo AACS utilizzato per l'HD DVD. 127 Blu-ray Disc 128 Novità dal mondo Blu-ray • Il 19 aprile 2004 Sony ha presentato il prototipo di supporto Blu-ray fatto di carta per mitigare l'impatto ambientale derivante dallo smaltimento dei supporti ottici e migliorare la sicurezza per il loro utilizzo. Il lavoro su questo nuovo tipo di supporto era iniziato l'anno precedente. Il disco, grazie alla carta che ne costituisce la componente principale (il 51%), è biodegradabile e può essere facilmente distrutto usando un semplice paio di forbici. I costi di produzione dovrebbero essere anche più bassi di quelli dei normali dischi, rendendo il nuovo supporto il prodotto perfetto per la prossima generazione di supporti ottici, anche se la particolarità di questo materiale, seppure si basi sullo standard Blu-ray ne impedisce l'uso sui (pochi) lettori e masterizzatori già in commercio, richiede un hardware aggiornato per il suo utilizzo. La PlayStation 3, il primo apparecchio ad utilizzare commercialmente questa tecnologia • A fine 2004 JVC invece ha annunciato la realizzazione del primo Blu-ray/DVD combo ROM disc, ovvero un disco capace di immagazzinare fino a 33,5 GB di dati in maniera molto originale: riprendendo l'idea dei DVD a singolo strato (layer) ma doppia faccia ha realizzato un supporto formato da un lato da un layer del Blu-ray disc mentre dall'altro un DVD dual layer. In questo modo si potrebbero realizzare film in 2 formati diversi a diverse risoluzioni e un utente potrebbe cominciare a vedere il film in formato DVD e poi al momento dell'acquisto di un nuovo lettore compatibile Blu-ray poter usufruire da subito delle potenzialità del nuovo formato con una videoteca già fornita. Teoricamente questo costituirebbe un ottimo supporto di transizione, ma nella pratica emergono vari dubbi sulla possibilità che questo possa mai diventare un prodotto commerciale, visti i risultati (scarsi) di tentativi analoghi già sperimentati in passato unendo i DVD e i CD per ottenere un formato unico. • Il 20 maggio 2005 la TDK ha realizzato un prototipo di disco Blu-ray a doppio strato e doppia faccia in grado non solo di raccogliere il doppio dei dati (cioè 100 GB) ma anche di poter essere letto/scritto a velocità maggiore rispetto ai dischi standard realizzati finora. Il disco può registrare a 72 Mbps, il doppio rispetto ai 36 Mbps dei correnti Blu-ray Disc originali. TDK ha migliorato la velocità di scrittura usando un laser molto più potente e approntando alcuni cambiamenti al materiale del disco stesso. All'inizio, lo standard proposto si basava sulla velocità di 2x e questo ha costretto TDK a proporre il nuovo standard alla Blu-ray Disc Association, ma a fine giugno l'azienda è riuscita a raggiungere in laboratorio l'incredibile velocità di 6x ovvero 216 Mbps stabili in scrittura. Secondo Sony dopo il lancio di tale supporto ci sarà il primo aumento di velocità durante il 2007. È stata presentata inoltre l'evoluzione della tecnologia proprietaria Armor Plated, chiamata commercialmente con il nome di Durabis, cioè uno stato protettivo antigraffio già applicato da TDK su alcuni DVD nel 2004 e ora applicato anche ai supporti Blu-ray. A detta del produttore, i dischi trattati con questa resina speciale possono resistere all'"attacco" di una spugna in lana di acciaio e respingere ogni tipo d'inchiostro, anche indelebile. Questo strato protettivo consentirà la commercializzazione di dischi Blu-ray "nudi" ovvero privi della cartuccia protettiva che era stata pensata inizialmente, risultando quindi in tutto simili agli attuali CD e DVD. • Intanto la Philips si è concentrata maggiormente sull'hardware, ed ha in programma di immettere sul mercato nella seconda metà del 2005 il primo drive ottico al mondo capace di leggere e scrivere Compact Disc (CD), Digital Versatile Disc (DVD) e Blu-ray Disc (BD). La sua utilità, ovvero l'uso di tre laser diversi, sarà però dimostrata solo quando ci sarà una vera espansione dei supporti Blu-ray. • Sempre Philips a metà luglio 2005 ha effettuato i primi test di registrazione su supporti prodotti con rame e silicio a velocità da 1x a 7x (quest'ultima equivalente alla velocità 10x per i DVD e 30x per i CD). I risultati hanno indicato che il minor tempo di registrazione è tangibilmente praticabile a una velocità di rotazione di ben 10800 Blu-ray Disc giri al minuto. All'atto pratico, 25 GB di dati possono essere, a velocità 7x, registrati in appena 14 minuti. • Il 31 luglio 2005 la Twentieth Century Fox ha annunciato la prossima commercializzazione di alcuni titoli nel nuovo formato Blu-ray ad alta definizione sui mercati asiatico, americano ed europeo. Tra questi si possono citare: le serie dei Simpsons, X-Files, le saghe di X-Men e di Alien, oltre a molti altri titoli fra cui film di successo come Tutti pazzi per Mary e Io, Robot. • Il 22 ottobre 2005 La Warner Bros. ha annunciato l'intenzione di voler produrre contenuti anche su supporti Blu-ray. La notizia risulta di particolare interesse, dal momento che Warner è comunque affiliata al gruppo a favore del formato HD DVD. La scelta di Warner segue quella di Paramount Home Entertainment. È a questo punto molto probabile che, a breve, anche Universal Studios, attualmente dalla parte di HD DVD, segua le orme delle due major appena citate. Marsha King, executive vice president per lo sviluppo business di Warner Home Video, ha dichiarato di voler rendere disponibili le proprie produzioni per il maggior numero di consumatori possibili. Warner afferma che i sistemi anticopia previsti dallo standard Blu-ray soddisfano quelle che sono le esigenze della compagnia stessa. • Il 31 ottobre 2005 HP, in accordo con le polemiche sollevate da Microsoft e Intel, a proposito dell'adozione di due requisiti, ritenuti fondamentali, come il "mandatory managed copy" e l'"iHD interactive layer" che se non verranno adottati porteranno la casa statunitense ad appoggiare il concorrente. Sembra che, dopo uno scambio di pareri con Microsoft, HP abbia rivalutato la propria posizione dichiarando "La Blu-ray Disc Association" deve adottare il mandatory managed copy e l'iHD, due elementi che potrebbero aumentare le possibilità di unificazione dei formati. Ovviamente, se questa deciderà di non cambiare da BD-J a iHD per le applicazioni interattive, HP potrebbe supportare la tecnologia più conveniente, l'HD DVD". HP non uscirà comunque dal consorzio Blu-ray, supporterà entrambi i formati, ma con queste premesse, per il Blu-ray, la situazione non è certo delle migliori. • Il 30 dicembre 2005 sono state confermate le voci secondo le quali i dischi Blu-ray saranno dotati di Region code come gli attuali DVD. Le regioni saranno però soltanto tre: • Regione 1: Americhe e Sud Est asiatico (India, Giappone, Corea, Thailandia, Malesia, ecc.), Cina esclusa • Regione 2: Europa e Africa • Regione 3: Cina, Russia e altri La novità risiede nella condivisione di codifica per Nord-America e Giappone, rendendo così possibile lo scambio di materiale fra queste due zone di importanza cruciale per il mercato. Tale scelta infatti permette ad esempio di utilizzare giochi per la PlayStation3 non solo in Giappone ma anche negli Stati Uniti. Ignorati dunque i pareri di molti analisti del settore che indicavano nelle limitazioni a zone più un problema per chi fruisce legalmente dei contenuti che per la pirateria. • Il 10 gennaio 2006 al CES di Las Vegas TDK ha mostrato alcuni supporti da 100 GB grazie all'adozione di 4 strati. Secondo il produttore possono essere scritti a una velocità di 6x, quindi quasi 27 MB al secondo, vale a dire circa un'ora per la masterizzazione completa. È stato inoltre migliorato il supporto di protezione, ora denominato DuraBis 2, in grado di proteggere maggiormente il supporto dai graffi. Indiscrezioni assolutamente non confermate indicano in circa 50-70 euro il prezzo del supporto da 100 GB, mentre per le versioni da 50 GB BD-E e BD-RE (riscrivibile) i prezzi sarebbero rispettivamente di 40 e 55 euro circa, ovviamente destinati a scendere drasticamente col tempo. • Il 9 febbraio 2006 Sony ha comunicato i prezzi dei futuri film su supporto Blu-ray. Tali prezzi oscilleranno tra i 29 dollari e i 34 dollari, a seconda della popolarità dei film. In sostanza dovrebbero essere prezzi simili a quanto era avvenuto nel 1997 con il passaggio da VHS a DVD. • Dicembre 2006, il prezzo ai consumatori dei primi masterizzatori Blu-ray dedicati si aggira intorno tra 800 e 900 euro. • Il 29 maggio 2007 l'azienda indiana Moser Baer, unica società non giapponese che produce dischi blu ray e secondo produttore mondiale di dischi ottici, dichiara di aver prodotto i primi dischi Blu ray a 8x, 36MB/s 129 Blu-ray Disc compatibili con la specifica Blu ray 1.2.[2] • Il 19 febbraio 2008 la Toshiba ha annunciato l'abbandono del progetto HD DVD.[3] • Il 7 luglio 2008 Pioneer annuncia un disco Blu ray da 400GB con 16 strati. Non si sa ancora per quando sarà prevista la commercializzazione.[4] • L'11 febbraio 2009 Sony annuncia di voler inserire in un singolo disco Blu-Ray un film in HD abbinato ad un gioco completo. Questo per i giochi tratti o ispirati da film. Resta ancora da definire la qualità del film e del videogioco che dovranno dividersi lo spazio disponibile del supporto.[5] • Nella prima settimana di Gennaio 2009 il BD raggiunge quota 16% del mercato guadagnando posto sul suo predecessore e battendo ogni suo record[6] . • Il 10 maggio 2009 il BD si mantiene a quota 10% del mercato lasciando il DVD al 90% del market share[7] . • Il 17 maggio 2009 il BD sale a quota 15% del mercato (DVD al 85% del market share) [8] . • Il 7 giugno 2009 il BD si assesta al 12% del mercato (DVD al 88% del market share) [9] . Trattative per il formato unico Il 25 marzo 2005 Ryoji Chubachi, uno dei capi di Sony, nel suo discorso sulla lotta per il "dopo DVD" tra il consorzio Blu-ray e quello HD DVD, ha dichiarato che una soluzione di compromesso con il consorzio HD DVD sarebbe la cosa migliore per tutti, dai consumatori ai produttori e questo ha fatto subito scattare una serie di commenti, polemiche e speculazioni: alcuni pensano infatti, che questo segno di apertura non sia dettato da un vero interesse per il "bene del consumatore" ma piuttosto dal fatto che il concorrente HD DVD essendo retrocompatibile con i lettori precedenti, comporta meno costi di produzione ed inoltre arriverà nei negozi prima del Blu-ray. Il dubbio che rimane è che gli intenti di fusione siano spinti dal tentativo di far "cedere" l'altra parte. Del resto l'unificazione degli standard sembrerebbe molto difficile almeno dal punto di vista hardware, il che significa che per un tale proposito uno dei due contendenti dovrebbe in un certo senso "autoscartarsi". Lo "scontro" tra Blu-ray e HD DVD è molto simile a quello avvenuto agli inizi degli anni ottanta tra VHS, Betamax e Video2000, in cui alla fine trionfò il VHS nonostante l'inferiore qualità complessiva. La posizione di Microsoft e Intel Microsoft Il 27 settembre 2005 Microsoft e Intel (binomio conosciuto anche con il nomignolo Wintel) hanno annunciato apertamente di appoggiare lo standard HD DVD apportando una serie di motivazioni che non hanno certo lasciato in silenzio i sostenitori o meglio, gli sviluppatori del formato Blu-ray. Secondo Microsoft queste sarebbero le aree in cui Blu-ray ha fallito: • Sembra che la possibilità per i consumatori di fare copie di un disco legalmente ottenuto sia estremamente ridotta e Intel, che tiene molto al lancio della sua piattaforma Intel VIIV avvenuto agli inizi di settembre non "digerisce" questa lacuna. • Sarebbe scarso anche il supporto per dischi ibridi che possono essere letti sia dai player DVD attuali che quelli futuri. Microsoft ha dichiarato che questa era una funzionalità inizialmente promessa da entrambi gli standard, ma che alla fine solo HD DVD ha mantenuto, dato che il prototipo di Blu-ray è ancora nei laboratori e lontano dalla possibile commercializzazione. • Blu-ray non sarebbe riuscito a mantenere bassi costi né per la produzione, né per la replicazione dei dischi. • Viene menzionata perfino la capacità di immagazzinamento, che sulla carta dovrebbe essere un punto decisamente a favore di Blu-ray, ma che all'atto pratico sembra che il supporto da 50 GB funzioni quasi esclusivamente in laboratorio, quindi resterebbe quello da 25 GB a scontrarsi contro il disco da 30 GB di HD 130 Blu-ray Disc DVD. • Infine è stata "denunciata" anche l'interattività degli standard. Blu-ray Disc Association A tutto questo la Blu-ray Disc Association, per voce di Dell e HP, ha risposto con le seguenti argomentazioni: • Quando Intel e MS affermano che l'HD DVD è più capiente, mettono a confronto un dual layer (HD DVD 30 GB) con un single layer (BD 25 GB). • Dell e HP rispondono a Microsoft e Intel sul fatto che l' HD DVD sia il solo formato che permetta agli utenti di realizzare copie legali dei contenuti di un disco, affermando che questa è una parte del sistema di protezione AACS, e AACS è solo una parte delle specifiche del BD. • Per la Blu Ray Disc Association il BD fornisce estensioni per i dischi ibridi, compatibilità con l'odierno DVD e facilità di uso in PC notebook. • Blu-ray sarebbe un formato superiore. Offre il 67-150 % di capacità in più, alte velocità di trasferimento, compatibilità con i notebook ultrasottili, connettività a banda larga e un collaudato layer interattivo con BD-Java. Intel Il 5 ottobre 2005 anche Intel ha rivelato direttamente la propria posizione, affermando che il problema maggiore di Blu-ray risiede in uno dei suoi sistemi di protezione che prende il nome di ROM Mark. Come detto prima, sia HD DVD che Blu-ray dispongono di un sistema di protezione definito AACS (Advanced Access Content System), che permette di proteggere i contenuti dalla copia non autorizzata. Blu-ray aggiungerebbe a questo altri due livelli di protezione, BD+ (di cui non si sa molto allo stato attuale) e proprio il sistema ROM Mark, molto complesso e articolato, che sembra veramente molto efficace. ROM Mark dovrebbe rendere inutilizzabili i contenuti che risiedono su supporti non autorizzati e non creati da un ben preciso masterizzatore, ad esempio, l'azienda che produce il supporto Blu-ray con contenuti multimediali, per esempio un film, posiziona un marcatore digitale in un punto estremamente preciso della traccia e ne memorizza le coordinate fra i dati scritti sul supporto. Ogni masterizzatore differisce in maniera lieve da un altro, e ciò costituisce di fatto una specie di "impronta digitale", una peculiarità di ogni masterizzatore. L'estrema precisione delle coordinate del marcatore digitale permettono di rendere praticamente impossibile copiare il contenuto del disco originale su un altro disco, senza che quest'ultimo non venga rilevato come pirata e quindi di impossibile utilizzo. Il supporto scritto con un altro masterizzatore infatti avrà il marcatore in una posizione differente da quanto indicato nei dati. Il sistema, così come è concepito, risulta estremamente efficace dal punto di vista di Sony, che ha nell'elettronica di consumo e nell'intrattenimento domestico il proprio mercato principale. Tale iniziativa inoltre va in effetti a controbattere la pirateria, quella veramente dannosa, ovvero quella che mette in commercio dischi identici in tutto e per tutto agli originali, che ha alle spalle delle vere e proprie associazioni a delinquere. Secondo Intel però, che ha nell'informatica il proprio mercato principale, il concetto di Home Theatre PC ha senso solo se si possono spostare contenuti da supporto DVD a disco rigido. HD DVD, con il solo AACS permette di farlo, allo stato attuale delle cose Blu-ray no. In ultima analisi, Intel si dichiara ben disposta ad appoggiare anche lo standard Blu-ray, qualora però quella che è vista come una limitazione all'espansione del proprio mercato fosse rimossa. 131 Blu-ray Disc 132 Software di scrittura • Nero Burning Rom nella sua versione 6.6.0.13 supporta il testing e il data recording Blu-ray. • Toast Titanium nelle versioni successive dalla 8.0 supporta pienamente la scrittura e verifica su supporti Blu-ray. • ImgBurn ha aggiunto il supporto ai file system UDF 2.50 ed ai dischi HD DVD e Blu-ray nella versione 2.2.0.0. Principali finanziatori • • • • • • • • • • Apple (dal 10 marzo 2005) Dell Hitachi Hewlett-Packard LG Electronics Panasonic (Matsushita) Philips Pioneer Samsung Sharp • • • • • Sony Sun Microsystems TDK Texas Instruments Thomson Case di produzione che supportano il Blu-ray • • • • • The Walt Disney Company (dall'8 dicembre 2004) Metro-Goldwyn-Mayer Sony Pictures Entertainment (Columbia Pictures/TriStar Pictures/Screen Gems) 20th Century Fox (dal 3 ottobre 2004) Vivendi Universal Games ed Electronic Arts (dal 7 gennaio 2005) • Warner Bros. (dal 3 ottobre 2005) fino a maggio 2008 ha pubblicato anche supporti HD DVD.[10] • Universal Studios [11] • Paramount Pictures Dati tecnici e differenze tra Blu-ray Disc e HD DVD Parametri Blu-ray Disc HD DVD Capacità ROM (sola lettura) (1 layer) 25 GB 15 GB (2 layer) 50 GB 30 GB (3 layer) non disponibile 49 GB (prototipo) (4 layer) 100 GB (prototipo) non disponibile (8 layer) 200 GB (prototipo) non disponibile Blu-ray Disc 133 Capacità RW (riscrivibile) (1 layer) 25 GB 20 GB (2 layer) 50 GB 32 GB (1 layer) 25 GB 15 GB (2 layer) 50 GB non disponibile Processo produttivo nuova tecnologia nuova tecnologia Lunghezza d'onda del laser 405 nm 405 nm Apertura numerica 0,85 0,65 Potenza assorbita in lettura 0,35 mW 0,5 mW Strato protettivo 0,1 mm 0,6 mm Rivestimento resistente si no Dimensione della traccia 0,32 μm 0,40 μm Dimensione minima del pit 149,0 nm 204,0 nm Velocità di trasferimento dati 36 Mbps (1x) 36,5 Mbps 72 Mbps (2x) 54 Mbps (video BD-ROM) Risoluzione video 1920 × 1080 1920 × 1080 ROM MPEG-2 → MPEG-4 AVC (H.264) VC-1 MPEG-2 → MPEG-4 AVC (H.264) VC-1 RW/R MPEG-2 MPEG-2 PCM Dolby Digital Dolby Digital Plus DTS DTS-HD Dolby TrueHD PCM Dolby Digital Dolby Digital Plus DTS DTS-HD Dolby TrueHD Capacità R (registrabile) Compressione video Codifica audio Quote di mercato Dopo un'iniziale superiorità di vendite dei lettori HD DVD le vendite di titoli Blu-ray hanno subito un'accelerazione. Gli analisti hanno imputato alla diffusione della PlayStation 3 l'aumento delle vendite dei supporti Blu-ray. La console viene venduta in milioni di esemplari e questo fornisce un notevole vantaggio al formato Blu-ray, i lettori HD DVD invece hanno ritmi di vendita molto più ridotti difatti i maggiori produttori mondiali ne misurano le vendite dei lettori HD DVD in centinaia di migliaia e alcuni rivedendo le stime di vendita al ribasso.[12] La catena di negozi di vendita e noleggio di supporti audio/video Blockbuster dopo alcuni mesi di vendita contemporanea sia del supporto Blu-ray che quello HD DVD, ha deciso di dismettere i supporti HD DVD, dato che il 70% dei clienti chiedeva Blu-ray. Gestire entrambi i supporti ha dei costi di magazzino più elevati.[13] Secondo stime di Sony, in Europa, a luglio, le vendite Blu-ray sono state da due a cinque volte superiori a quelle HD DVD.[14] A fine luglio Sony ha annunciato un accordo con la catena di negozi Target che nei 1500 punti vendita forniranno solamente soluzioni Blu-ray fino alle feste natalizie.[15] Secondo le analisi di mercato nella prima metà del 2007 il formato Blu-ray ha venduto 1,6 milioni di dischi mentre il supporto HD DVD ha venduto 795 000 dischi.[16] Secondo un'analisi pubblicata nell'ottobre del 2007 in Europa si sarebbero venduto un milione di dischi Blu-ray pari al 73% Blu-ray Disc del mercato dei supporti ad alta definizione.[17] Al 27 settembre 2008 l'incidenza dell vendite del Blu-ray Disc in confronto al DVD è salita all'8%.[18] Voci correlate • • • • • • • • • • • • • AnyDVD HD BackupBluRay BD-J Blu-ray Disc Association Compact Disc CBHD Digital Multilayer Disk - Successore tecnologico del Fluorescent Multilayer Disc Enhanced Versatile Disc - Supporto ottico sviluppato in Cina in risposta agli alti costi di licenza del DVD Holographic Versatile Disc - Un formato proposto per un futuro disco successore dell'HD DVD e del Blu-ray Home theater Lista di videogiochi per Blu Ray HD DVD - Principale concorrente Total HD • V Media Disc • Versatile Multilayer Disc Altri progetti • Wikimedia Commons contiene file multimediali su Blu-ray Disc Collegamenti esterni • (EN) Blu-ray Disc Association [19] • (EN) Blu-ray vs. HD-DVD [20] by CD Freaks.com • (EN) Blu-ray Disc Statistics [21]e la sezione Statistiche di vendita [21] Note [1] Toshiba Announces Discontinuation of HD DVD Businesses (http:/ / www. toshiba. co. jp/ about/ press/ 2008_02/ pr1903. htm). [2] Dall'India dischi Blu-ray 8x (http:/ / punto-informatico. it/ p. aspx?id=2005719& r=PI). Punto Informatico. URL consultato il 7-7-2007. [3] Toshiba Announces Discontinuation of HD DVD Businesses (http:/ / www. toshiba. co. jp/ about/ press/ 2008_02/ pr1903. htm), cit. [4] Pioneer svela un Blu-ray da 400 GB (http:/ / punto-informatico. it/ 2346803/ PI/ News/ Pioneer-svela-un-Blu-ray-da-400-GB-/ p. aspx) [5] Articolo sui giochi e film assieme (http:/ / punto-informatico. it/ 2551734/ PI/ News/ sony-giochi-film-sullo-stesso-disco. aspx) [6] Blu-ray Disc Statistic (http:/ / www. blu-raystats. com/ MarketShare/ index. php) [7] Blu-ray Disc Statistic (http:/ / www. blu-raystats. com/ MarketShare/ index. php) [8] Blu-ray Disc Statistic (http:/ / www. blu-raystats. com/ MarketShare/ index. php) [9] Blu-ray Disc Statistic (http:/ / www. blu-raystats. com/ MarketShare/ index. php) [10] Warner abbandona il formato HD DVD (http:/ / www. macitynet. it/ macity/ aA30593/ index. shtml). MaCityNet, 5-1-2008. URL consultato il 6-1-2008. [11] Universal passa a Blu-ray (http:/ / www. afdigitale. it/ news/ Mercato/ 13615/ Anche-Universal-con-Blu-ray. aspx). MaCityNet, 5-1-2008. URL consultato il 6-1-2008. [12] Toshiba rivede le stime di vendita HD-DVD (http:/ / www. hwupgrade. it/ news/ multimedia/ toshiba-rivede-le-stime-di-vendita-hd-dvd_21567. html). Hardware Upgrade. URL consultato il 7-7-2--7. [13] Blockbuster sceglie Blu-ray (http:/ / www. hwupgrade. it/ news/ multimedia/ blockbuster-sceglie-blu-ray_21605. html). Hardware Ungrade, 18-6-2007. URL consultato il 7-7-2007.. [14] Blu-ray, un successo anche europeo secondo Sony (http:/ / www. hwupgrade. it/ news/ multimedia/ blu-ray-un-successo-anche-europeo-secondo-sony_21867. html). Hardware Upgrade. URL consultato il 7-7-2007. 134 Blu-ray Disc [15] Gli store Target diventano territorio esclusivo di Blu-ray (http:/ / www. macitynet. it/ macity/ aA29010/ index. shtml). MaCityNet, 1-8-2007. URL consultato il 1-8-2007. [16] Blu-ray vende il doppio di HD-DVD (http:/ / www. gamesblog. it/ post/ 4615/ blu-ray-vende-il-doppio-di-hd-dvd#show_comments) [17] Blu-ray schiaccia HD DVD anche in Europa (http:/ / punto-informatico. it/ p. aspx?i=2126715). Punto Informatico, 28-11-2007. URL consultato il 28-11-2007. [18] http:/ / www. nxtbook. com/ nxtbooks/ questex/ hom125531MVB/ index. php [19] http:/ / www. blu-raydisc. com/ [20] http:/ / www. cdfreaks. com/ reviews/ Blu-ray-vs_-HD-DVD/ [21] http:/ / www. blu-raystats. com/ MarketShare/ index. php 135 136 Appendice 1 - Interfacce Universal Serial Bus L'Universal Serial Bus (USB) (IPA /ˌjuːnɪˈvɜːsl ˈsɪɹiəl bʌs/) è uno standard di comunicazione seriale che consente di collegare diverse periferiche ad un computer. È stato progettato per consentire a più periferiche di essere connesse usando una sola interfaccia standardizzata ed un solo tipo di connettore, e per migliorare la funzionalità plug-and-play consentendo di collegare/scollegare i dispositivi senza dover riavviare il computer (hot swap). Simbolo dell’USB Informazioni tecniche Il sistema USB è asimmetrico, consiste in un singolo gestore e molte periferiche collegate da una struttura ad albero attraverso dei dispositivi chiamati hub (concentratori). Supporta fino ad un massimo di 127 periferiche per gestore: nel computo vanno però inclusi anche gli hub e il gestore stesso, quindi, in realtà, il numero totale di dispositivi collegabili è sensibilmente inferiore. La lunghezza massima che può avere il cavo senza che il segnale diventi troppo debole è pari a 5 m; oltre questo limite è necessario ricorrere ad uno o più hub attivi che amplifichino il segnale. Le specifiche prevedono il collegamento consecutivo al massimo di 5 hub. Lo standard prevede che il connettore porti anche un cavo (chiamato Connettore maschio di tipo A VBUS) per alimentare le periferiche a basso consumo. Le periferiche che hanno richieste energetiche elevate vanno alimentate a parte. I limiti energetici dello standard vanno seguiti scrupolosamente pena il probabile danneggiamento del gestore, dato che lo standard USB non prevede nelle specifiche minime la sconnessione in caso di sovraccarico. Il disegno dell'USB è stato pensato per consentire un semplice inserimento e rimozione. Lo standard è stato progettato in modo da consentire un semplice aggiornamento dei sistemi sprovvisti di USB attraverso una scheda PCI, ISA o PC Card. Le porte USB sono dotate Universal Serial Bus 137 del supporto del Plug and Play e supportano i dispositivi hot swap quindi se il sistema operativo lo consente supportano la rimozione a caldo e il reinserimento delle periferiche senza dover riavviare il computer (questo per i dispositivi a basso consumo: verificare sul manuale della periferica che si desidera collegare se è consentito l'hot swap). USB può collegare periferiche quali mouse, tastiere, memoria di massa a stato solido e a disco rigido, scanner d'immagini, macchine fotografiche digitali, stampanti, casse acustiche, microfoni e altro ancora. Per i componenti multimediali ormai lo standard USB è il metodo di collegamento più utilizzato mentre nelle stampanti sopravvivono ancora molti modelli dotati anche di porta parallela per questioni di compatibilità. All'interno del computer, l'USB non ha rimpiazzato gli standard ATA o SCSI per via della sua lentezza. Il nuovo standard serial ATA per esempio consente trasferimenti dell'ordine di 150 Mbyte per secondo, una velocità molto più elevata dello standard USB, che nella versione 2.0 raggiunge un massimo di 60 Mbyte per secondo (480 Mbits/s). L'USB viene molto usato negli hard disk esterni dove si preferisce privilegiare la praticità di poter collegare e scollegare a caldo il componente rispetto alla velocità di una connessione tipo ATA. La versione 3.0 raggiunge la velocità di 600 Mbyte. Connettore maschio di tipo B Connettori mini-A e mini-B USB non ha ancora totalmente rimpiazzato il connettore PS/2 della tastiera, molti costruttori preferiscono mantenerlo per consentire agli utenti di poter utilizzare le economiche tastiere PS/2. Lo standard 1.0 dell'USB (gennaio 1996) supporta collegamenti a solo 1,5 Mbit/s, velocità adeguata per mouse, tastiere e dispositivi lenti. La versione 1.1 (settembre 1998) aggiunge la modalità full speed, che innalza la velocità a 12 Mbit/s. La maggior novità dello standard USB versione 2.0 (aprile 2000) è l'innalzamento della velocità di trasferimento a 480 Mbit/s. Questa velocità consente all'USB di essere competitivo con lo standard Firewire 400 (IEEE 1394), benché agli effetti pratici quest'ultimo risulti più veloce del primo. Lo standard USB ha tuttavia delle limitazioni di carattere tecnico che ne sconsigliano l'utilizzo su telecamere e dispositivi che manipolano flussi video. Le specifiche dell'USB stabiliscono due tipi di connettori per collegare i dispositivi, il connettore A e B. Negli ultimi anni alcuni produttori hanno introdotto delle varianti del connettore per i loro dispositivi miniaturizzati. Molti produttori cercando di ridurre le dimensioni dei dispositivi hanno deciso di creare connettori più piccoli di quelli standard. Questi dispositivi rispettano lo standard di comunicazione USB a tutti gli effetti, l'unica differenza è il connettore che è fisicamente diverso, sono chiamati: micro USB, mini USB di tipo A e B. Connettore maschio micro USB Hub USB Universal Serial Bus 138 Una estensione del USB chiamata USB-On-The-Go consente ad una singola porta di fungere sia da dispositivo che da controllore. Ciò consente una più semplice connessione di dispositivi tipo i PDA che a volte devono fare da dispositivo ed a volte devono comandare dei dispositivi. Per evitare una proliferazione dei connettori proprietari, USB-On-The-Go ha definito anche due connettori chiamati mini-A e mini-B, che sono connettori molto più piccoli dei connettori precedenti; questo rimuove la principale motivazione dei produttori ad ignorare lo standard e cioè risparmiare spazio. Adattatori USB-PS/2 L'USB è una porta facilmente installabile anche nei computer di vecchia generazione che ne sono sprovvisti: una scheda USB 2.0 per slot PCI, da installare all'interno del case nella scheda madre, costa dai 10 ai 20 €. Tipi di connettori USB Riassumendo vi sono attualmente 5 tipi di connettori USB ufficiali: • • • • • USB di tipo A USB di tipo B mini USB di tipo A mini USB di tipo B micro USB In realtà esistono altre versioni di connettori non standard per il collegamento USB di dispositivi con presa "proprietaria" di vario tipo (ad esempio lettori mp3, modem UMTS, telefoni cellulari, macchine fotografiche digitali, videocamere...) ecc... Piedinatura • Piedinatura del connettore USB: • Pinout dei connettori mini USB: Pin Nome segnale Colore filo 1 VBUS ROSSO 2 D- BIANCO 3 D+ VERDE 4 GND NERO Universal Serial Bus 139 Pin Nome segnale Colore filo Note 1 VBUS ROSSO +5V 2 D- BIANCO Data − 3 D+ VERDE Data + 4 ID non definito Interconnessione Mini/Micro A e B (Tipo A connesso a GND, tipo B non connesso) 5 GND NERO GND Il livello di tensione per il VBUS è di circa +5 V con una corrente massima di 500 mA. Con i segnali D+ e D- si intendono le due linee di comunicazione dati (pseudo) differenziali. Per tutti i connettori la protezione metallica esterna è connessa a terra. Evoluzioni future Pinout dei connettori standard A e B L'evoluzione dello standard USB si concentra su due strade, la prima prevede un innalzamento della velocità massima di trasferimento mentre la seconda strada chiamata wireless USB prevede l'abbandono dei cavi per la comunicazione tramite onde radio. Una prima specifica wireless USB è già stata standardizzata e alcuni dispositivi sono in commercio. Tuttavia, al 2009 questi dispositivi non sono diffusi e lo stesso standard è in evoluzione: è già stata proposta la versione 1.1 e si attende la 2.0 per il 2010. Rappresentazione schematica di connettori mini USB di tipo A e B USB 3.0 Il 18 settembre 2007 Pat Gelsinger ha effettuato la prima dimostrazione pubblica di USB 3.0 all'Intel Developer Forum. USB 3.0 è in grado di trasferire dati dieci volte più velocemente di USB 2.0 con una velocità di trasferimento di 4,8 Gbit al secondo (l'equivalente di circa 600 MBytes al secondo, contro gli attuali 60 MB dell'USB 2.0). utilizzando due coppie intrecciate ad alta velocità per la modalità "Superspeed" e il supporto di connessioni ottiche.[1] [2] Le specifiche USB 3.0 sono state rilasciate il 13 agosto 2008 [3] mentre i primi prodotti commerciali dovrebbero essere disponibili per la fine del 2009 o l'inizio del 2010.[4] Come avvenuto in precedenza, la versione 3.0 manterrà la retrocompatibilità con USB 2.0 e 1.0.[1] Nella prima metà di ottobre 2008 Intel, una delle aziende che ha definito il protocollo USB, ha fornito le specifiche tecniche per la nuova interfaccia USB 3.0, retrocompatibile con l'USB 2.0. Universal Serial Bus Voci correlate • Firewire • Wireless USB • Micro-USB Altri progetti • Wikimedia Commons contiene file multimediali su Universal Serial Bus Collegamenti esterni • • • • USB - Universal serial bus [5] USB per DOS [6] UHCI-OHCI per DOS [7] USB 3.0 da 600MB/s [8] Note [1] (EN) Faster USB 3.0 Is Coming (http:/ / www. pcworld. com/ article/ 137551/ faster_usb_30_is_coming. html). PC World, 2007-09-24. URL consultato il 2008-07-04. [2] (EN) Revealed: USB 3.0 jacks and sockets (http:/ / www. reghardware. co. uk/ 2008/ 01/ 09/ ces_usb_3_revealed/ ). RegHardware.co.uk, 2008-01-09. URL consultato il 2008-01-22. [3] (EN) Intel USB 3.0 update resolves dispute with Nvidia, AMD (http:/ / news. cnet. com/ 8301-13924_3-10016929-64. html) [4] (EN) Stephen Shankland. USB 3.0 brings optical connection in 2008 (http:/ / news. cnet. com/ 8301-10784_3-9780794-7. html). cnet.com, 2007-09-18. URL consultato il 2008-07-04. [5] http:/ / www. usb. org [6] http:/ / www. fracassi. net/ iw2evk/ [7] http:/ / www. georgpotthast. de/ usb/ [8] http:/ / www. tomshw. it/ news. php?newsid=12572 140 IEEE 1394 141 IEEE 1394 Il FireWire (nome con il quale è noto lo standard IEEE 1394), di proprietà della Apple Computer, ma conosciuto anche con il nome commerciale i.Link datogli dalla Sony, è un'interfaccia standard per un bus seriale che supporta due diverse modalità di trasferimento dati: asincrona e isocrona. La modalità asincrona avviene quando il dato spedito viene ricevuto dall'altra parte del cavo. Nel caso in cui la linea non fosse libera, viene nuovamente inviato. La modalità isocrona prevede un invio di dati attraverso il flusso continuo in tempo reale. In questa modalità si possono acquisire dati dagli apparecchi digitali come videocamere e macchine fotografiche. Connettore Firewire 400 a 6 pin Il FireWire è stato sviluppato per essere utilizzato nei personal computer e nei dispositivi multimediali, sviluppato inizialmente da Apple Computer. Lo sviluppo venne terminato nel 1995 e IEEE lo ha denominato 1394. Lo standard 1394 è attualmente definito da tre documenti: l'originale IEEE Std 1394-1995, il IEEE Std 1394a-2000 amendment, e il IEEE Std 1394b-2002 amendment. L'implementazione di Sony di questo standard si chiama i.Link, e usa un connettore con solo 4 pin, eliminando i pin dedicati all'alimentazione per esempio sulle videocamere che non ne hanno bisogno, altri apparati della stessa ditta hanno invece un connettore standard a 6 pin. La connessione FireWire viene comunemente usata per collegare dispositivi di archiviazione o dispositivi di acquisizione video. Viene utilizzato anche in apparecchiature di acquisizione audio e video professionali per via della ampiezza di banda della connessione, della sua predisposizione a trattare flussi multimediali, della capacità di sopportare potenze maggiori e della possibilità di stabilire una connessione tra dispositivi senza il tramite di un computer. L'interfaccia FireWire è tecnicamente superiore all'interfaccia → USB, ma Connettori IEEE 1394 a 6 e 4 pin a confronto questa è molto più diffusa per via dei brevetti. L'Apple e altre ditte richiedono il pagamento di brevetti per ogni implementazione della FireWire (normalmente 0,25 dollari per l'utente finale). Sebbene siano cifre ridotte, molti produttori realizzano prodotti a bassissimo margine di guadagno e quindi preferiscono utilizzare la tecnologia USB che, essendo esente dal pagamento di brevetti, consente loro di ottenere prodotti più economici. IEEE 1394 La FireWire supporta fino a 63 periferiche organizzate in una rete non ciclica (a differenza per esempio della catena SCSI). Permette una comunicazione "peer-to-peer" tra i dispositivi. Quindi i vari dispositivi possono comunicare tra loro senza dover utilizzare il computer come arbitro. Per esempio una videocamera digitale potrebbe riversare il filmato video su un hard disk esterno senza l'intervento del computer. Supporta il collegamento a caldo e la presenza di più Host tramite una gestione degli IP software. Quindi una connessione FireWire può essere utilizzata per creare una rete locale tra due computer quattro volte più veloce di una normale rete Ethernet a 100 Mbit/s. Il cavo FireWire supporta fino a 45 Watt e è quindi in grado di alimentare la maggior parte dei dispositivi portatili. 142 Connettore Firewire 400 a 4 pin. Questo connettore non è alimentato. FireWire 400 specifica la velocità di trasferimento dati ai dispositivi di 100, 200, o 400 Mbps (in realtà, 98.304, 196.608, o 393.216 Mbps, usualmente indicati come S100, S200, e S400). La lunghezza del cavo è limitata a 4,5 metri e fino a 16 cavi possono essere collegati tramite dei dispositivi che provvedono a rigenerare il segnale per arrivare a una lunghezza massima consentita dalle specifiche di 72 metri. FireWire 800 (nome dato da Apple alla versione a 9 pin dello standard IEEE1394b) venne reso disponibile commercialmente da Apple nel 2003; questa evoluzione dello standard innalza la velocità della connessione a 786.432 Mbps ed è retrocompatibile col connettore a 6 pin della FireWire 400. Le specifiche complete del IEEE 1394b prevedono anche una connessione ottica lunga fino a 100 metri con una velocità di trasferimento di 3,2 Gbps. La modalità di trasferimento S100 supportava cavi schermati di classe 5 lunghi fino a 100 metri. Le nuove specifiche 1394c estendono questa caratteristica anche alla comunicazione a S800. Lo standard originale 1394 e 1394a usa una codifica dei dati e del segnale di controllo che permette di generare il clock in modo molto economico (basta prendere i segnali e metterli in XOR). La versione 1394b dello standard supporta questa codifica per mantenere la retro compatibilità, ma aggiunge una nuova modalità di codifica più complessa che consente di trasmettere il doppio dei dati. La nuova modalità di trasferimento rende la FireWire significativamente più veloce dello standard concorrente USB 2.0. Quasi tutte le moderne telecamere sono dotate di connessione FireWire, fin dal 1995. Dopo il MacBook Air, le prese FireWire400 sono state rimosse dai nuovi modelli di MacBook e MacBook Pro presentati da Steve Jobs nell'ottobre 2008, la presa FireWire800 è, invece, ancora presente sui MacBook Pro. La FireWire venne utilizzata anche dai modelli 1G e 2G del lettore di musica digitale iPod per trasferire le canzoni e caricare la batteria. Due porte FireWire 800 Due porte Firewire 400, su un iMac La maggior parte delle → televisioni digitali e dei box interattivi in grado di registrare in digitale con lo standard MPEG-2, è dotata di porta FireWire. Questa interfaccia, adottata per Hard disk esterni, risulta mediamente più veloce dell'USB. IEEE 1394 143 Voci correlate • → Universal Serial Bus (USB) • IEC 61883 - Interfaccia Digitale Altri progetti • Wikimedia Commons contiene file multimediali sullo standard FireWire Collegamenti esterni (EN) 1394 Trade Association [1] (EN) 1394LA [2] 1394 LA administers the rights for patented inventions necessary to implement IEEE 1394 (EN) Tecnologia Apple FireWire [3] (EN) IEEE p1394c Working Group website [4] (EN) USB 2.0 vs Firewire [5] - test delle prestazioni tra FireWire e USB 2.0 utilizzando un hard disk esterno e un Macintosh • (EN) Pinout del connettore FireWire (IEEE-1394) [6] • • • • • Note [1] [2] [3] [4] [5] [6] http:/ / www. 1394ta. org/ http:/ / www. 1394la. com/ http:/ / www. apple. com/ it/ firewire/ http:/ / grouper. ieee. org/ groups/ 1394/ c/ http:/ / www. barefeats. com/ usb2. html http:/ / pinouts. ws/ firewire-1394-pinout. html Digital Visual Interface 144 Digital Visual Interface Digital Visual Interface Connettore DVI-D Tipo Connettore video analogico/digitale per computer Informazioni storiche Ideatore Data rilascio In produzione Digital Display Working Group Aprile 1999 dal 1999 ad oggi Ha rimpiazzato Connettore VGA Specifiche meccaniche Esterno Segnale video Segnale dati Si Video Digitale. - single link WUXGA - 1920 × 1200 @ 60 Hz - dual link WQXGA - (2560 × 1600) @ 60 Hz Video analogico - (-3 db a 400 MHz) RGB, clock e Display Data Channel Banda dati Max dispositivi Protocollo n° piedini single link - 3.96 Gbit/s dual link - 7.92 Gbit/s 1 3 dati Transition Minimized Differential Signaling + clock 29 Piedinatura Digital Visual Interface 145 Un connettore femmina DVI-I [1] Nome Descrizione Pied.1 Dati TMDS 2- Rosso dig. - (Link 1) Pied.2 Dati TMDS 2+ Rosso dig. + (Link 1) Pied.3 Schermatura per TMDS 2 e 4 Pied.4 Dati TMDS 4- Verde dig. - (Link 2) Pied.5 Dati TMDS 4+ Verde dig. + (Link 2) Pied.6 Clock DDC Pied.7 Dati DDC Pied.8 Sincronismo verticale analogico Pied.9 Dati TMDS 1- Verde dig. - (Link 1) Pied.10 Dati TMDS 1+ Verde dig. + (Link 1) Pied.11 Schermatura per TMDS 1 e 3 Pied.12 Dati TMDS 3- Blu dig. - (Link 2) Pied.13 Dati TMDS 3+ Blu dig. + (Link 2) Pied.14 +5V Alimentazione per stanby Pied.15 Massa Massa per i piedini 8, 14 e C4 Pied.16 Hot plug detect Rileva inserimento a caldo Pied.17 Dati TMDS 0- Blu dig. - (Link 1) e sincronismo digitale Pied.18 Dati TMDS 0+ Blu dig. + (Link 1) e sincronismo digitale Pied.19 Schermatura per TMDS 0 e 5 Pied.20 Dati TMDS 5- Rosso dig. - (Link 2) Pied.21 Dati TMDS 5+ Rosso dig. + (Link 2) Pied.22 Schematura per clock TMDS Pied.23 Clock TMDS + Clock dig.+ (Link 1 e 2) Pied.24 Clock TMDS - Clock dig.- (Link 1 e 2) C1 Rosso analogico C2 Verde analogico C3 Blu analogico C4 Sincronismo orizzontale analogico C5 Massa per C1, C2 e C3 La Digital Visual Interface è una porta, ovvero un apparato hardware in grado di trasmettere del segnale video. Si trova spesso su computer, televisori e videoproiettori che richiedono video ad alta definizione. Attraverso di essa il segnale video viene inviato al monitor in forma digitale, quindi meno soggetta ai disturbi. Digital Visual Interface 146 La DVI viene implementata ormai in molte schede video di ultima generazione, e porta a un notevole miglioramento rispetto alle precedenti interfacce analogiche. Le immagini prodotte dalle interfacce DVI sono molto nitide, ad alta risoluzione e predisposte per l'→ HDTV. Tipologie di segnali supportati dal connettore DVI Il connettore DVI può trasportare sia segnali analogici che digitali, anche contemporaneamente. DVI-A L'interfaccia DVI-A trasporta esclusivamente segnali analogici in formato compatibile VESA VGA. Qualità e risoluzione max sono identiche a quelle della VGA e cioè consigliata max 1600 x 1200 per monitor LCD, 2048 x 1536 per monitor CRT anche se ad esempio NVIDIA dichiara 2560 x 1600[2] . I segnali analogici hanno dei conduttori dedicati per i segnali RGBHV e condividono con l'interfaccia digitale i segnali DDC. DVI-D L'interfaccia DVI-D trasporta esclusivamente segnali digitali. L'interfaccia digitale può essere Single Link o Dual Link. Single Link Vista del connettore DVI maschio L'interfaccia digitale DVI-D Single Link trasporta un massimo di 165 milioni di → pixel al secondo utilizzando tre segnali digitali (RGB) a 1,65 Gbps (10 bit per pixel) permettendo così una risoluzione max a 60Hz di 2098 x 1311 con un aspect ratio di 16:10 o di 1915 x 1436 con un aspect ratio di 4:3. La → risoluzione standard più alta che può essere visualizzata con questa interfaccia è 1920 x 1200 16:10. Dual Link Un'interfaccia digitale DVI-D Dual Link affianca al canale utilizzato dall'interfaccia Single Link un secondo canale dati. Questo nuovo canale è implementato sempre con tre segnali digitali (RGB) a 1,65 Gbps (10 bit per pixel) che operano su 6 pin separati del connettore. In questo modo è possibile trasportare il doppio dei dati dell'interfaccia Single Link. Connettore DVI femmina. Descrizione piedini con colorazione per tipologia Questo canale aggiuntivo può essere utilizzato in una di queste due modalità: • portare un secondo pixel in modo da raddoppiare la risoluzione 2895 x 1882 con un aspect ratio di 16:10 a 60 Hz o 2707 x 2030 con un aspect ratio di 4:3. La → risoluzione standard più alta che può essere visualizzata con questa interfaccia è 2560 x 1600 16:10. • aumentare la profondità di colore, che nell'interfaccia Single Link è di 8bpp, portandola fino a 16bpp (in questo caso il secondo canale porta i bit meno significativi). Digital Visual Interface 147 DVI-I L'interfaccia DVI-I implementa sullo stesso connettore sia i segnali analogici dell'interfaccia DVI-A che quelli digitali dell'interfaccia DVI-D. La parte digitale può essere a un canale o a due canali esattamente come per l'interfaccia DVI-D quindi possiamo avere una DVI-I Single Link o una DVI-I Dual Link a seconda che la parte digitale sia Single Link o Dual Link. Collegamenti Esistono limiti di lunghezza del cavo. In particolare, il cavo DVI digitale ha un limite di 5 metri. Se è più lungo la qualità video non è affidabile e non garantita. Non è possibile collegare un DVI-A ad un DVI-D poiché DVI-A è solo analogico e DVI-D è digitale; non è possibile collegare direttamente un dispositivo DVI-A a uno DVI-D. È possibile collegare un cavo DVI a una porta VGA usando un cavo apposito poiché DVI-I e DVI-A inviano segnali analogici. Al contrario, non è possibile collegare direttamente una porta DVI-D a una VGA poiché DVI-D usa solo segnali digitali. Per collegare una DVI-D a una VGA occorre utilizzare un convertitore DVI per trasformare il segnale da digitale ad analogico e viceversa. È comunque possibile aumentare la lunghezza del cavo DVI fino a 30 mt. ed oltre tramite l'utilizzo di opportune apparecchiature atte a compensare la perdita di segnale. Digitale o analogico? I monitor LCD TFT con interfaccia analogica dominano il mercato, poiché è semplice installarli sui PC base, senza dover comprare una nuova scheda grafica. I monitor LCD TFT digitali non hanno bisogno di aggiustare il clock e la fase, e hanno il vantaggio dell'assenza di perdite di segnale. Lo standard per interfaccia Digitale utilizza connettori totalmente differenti: per questo motivo, attualmente, i monitor LCD TFT analogici dominano il mercato. Digitale Analogica Vantaggi Vantaggi • • • • Nessuna perdita di segnale a causa della conversione D-A e A-D Geometria, clock e fase non hanno bisogno di configurazione, quindi più semplice da usare Costi inferiori poiché è necessaria una minore circuiteria elettronica • Svantaggi • Svantaggi • • Attualmente esistono tre standard (P & D M1DA, DFP, e DVI), probabilmente in futuro ci sarà solo più DisplayPort introdotto nel 2008 È necessaria una scheda grafica con uscita digitale Compatibile con le schede a standard VGA su una base di computer esistenti Non è necessario acquistare una nuova scheda grafica • • • Clock e fase dei TFT devono essere sincronizzati con il segnale analogico per evitare l'effetto detto pixel jitter, che è un problema relativamente complesso Cavi sensibili alle influenze esterne Alto costo della conversione del segnale all'interno del display Non è possibile l'upgrade all'interfaccia digitale Digital Visual Interface 148 Voci correlate • • • • Video Graphics Array → Risoluzioni standard Interfaccia video DisplayPort Altri progetti • Wikimedia Commons contiene file multimediali su Digital Visual Interface Note [1] (EN) Pinout del connettore DVI (http:/ / pinouts. ws/ dvi-video-pinout. html) [2] Specifiche tecniche di scheda grafica NVIDIA con interfaccia analogica in grado di supportare 2560 x 1600 a 60Hz (http:/ / www. nvidia. it/ page/ quadroplex_tech_specs. html) High-Definition Multimedia Interface High-Definition Multimedia Interface Tipo Connettore audio/video digitale Informazioni storiche Ideatore Associazione HDMI Data rilascio Dicembre 2002 In produzione Dal 2003 a oggi Specifiche meccaniche Larghezza Tipo A (13,9 mm), Tipo C (10,42 mm) Altezza Tipo A (4,45 mm), Tipo C (2,42 mm) Inseribile a caldo Si Esterno Si Segnale audio LPCM, Dolby Digital, DTS, DVD-Audio, Super Audio CD, Dolby TrueHD, DTS-HD Master Audio, MPCM Segnale video 480i, 480p, 576i, 576p, 720p, 1080i, 1080p, 1440p, 1600p, etc. High-Definition Multimedia Interface Segnale dati Connettore 149 Si Banda dati 10,2 Gb/s (340 MHz) Protocollo TMDS 19 Piedinatura Type A (Female) HDMI Nome Descrizione Pied.1 TMDS Data2+ Rosso Pied.2 Schermatura TMDS Data2 Pied.3 TMDS Data2– Rosso Pied.4 TMDS Data1+ Verde Pied.5 Schermatura TMDS Data1 Pied.6 TMDS Data1– Verde Pied.7 TMDS Data0+ Blu Pied.8 Schermatura TMDS Data0 Pied.9 TMDS Data0– Blu Pied.10 TMDS Clock+ Pied.11 Schermatura Pied.12 TMDS Clock– Pied.13 CEC Pied.14 Riservato Pied.15 SCL Pied.16 SDA Pied.17 Massa DDC/CEC Pied.18 Alimentazione +5 V (max 50 mA) Pied.19 Rilevamento Hot Plug TMDS Clock Da non collegare sui dispositivi HDMI (pronuncia italiana: /akkadˈdi emmeˈi/; pronuncia inglese: /eɪtʃ diː ɛm aɪ/) è la sigla che identifica la High-Definition Multimedia Interface (in italiano, interfaccia multimediale ad alta definizione), uno standard commerciale completamente digitale per l'interfaccia dei segnali audio e video, creato nel 2002 dai principali produttori di elettronica, tra cui Hitachi, Matsushita Electric Industrial (Panasonic), Philips, Sony, Thomson (RCA), Toshiba e Silicon Image. Lo standard gode anche dell'appoggio dei principali produttori cinematografici quali Fox, Universal, Warner Bros e Disney e degli operatori televisivi DirecTV ed EchoStar (DISH Network), di CableLabs e Samsung. High-Definition Multimedia Interface SCART del 2000 HDMI è la prima interfaccia non compressa completamente digitale a trasportare contemporaneamente segnali audio e video, ed è retro-compatibile con l'interfaccia digitale → DVI che però è in grado di trasportare solamente il segnale video. Dal punto di vista della semplicità di utilizzo da parte di un utente, HDMI ricorda molto la connessione SCART introdotta negli anni ottanta per collegare le prime videocamere e videoregistratori, utilizzando un'unica presa per collegare qualsiasi periferica audio/video. Anche HDMI può essere utilizzata tra differenti dispositivi audio/video ed è una soluzione adatta (per quanto non unica) al trasporto del segnale di apparecchi digitali come i set-top box, lettori → DVD e ricevitori satellitari verso schermi anch'essi digitali come LCD, Plasma o videoproiettori. Esistono tuttavia anche alcuni modelli di televisore a tubo catodico (quindi analogici) dotati di connessione HDMI per permettere la connessione di sorgenti alta definizione mediante questa interfaccia. Interfaccia sempre in evoluzione A differenza di quanto è avvenuto in passato con altri tipi di interfacce di collegamento, lo sviluppo dell'interfaccia HDMI è tutt'altro che completato: uno dei principi base della nuova interfaccia, fortemente voluto dai produttori, è proprio la sua caratteristica di essere in costante evoluzione, con ogni nuova versione identificata con un numero univoco. La prima versione, uscita come detto nel 2002, era la HDMI 1.0. Successivamente, sono arrivati 2 aggiornamenti, 1.1 e 1.2, che hanno progressivamente aumentato la velocità di trasferimento dei dati, introducendo contemporaneamente altre funzionalità. Dal punto di vista dei componenti hardware non è cambiato nulla, infatti il cavo e il connettore sono rimasti invariati, ma è cambiata la gestione software del protocollo di trasmissione. Grazie a questa serie di aggiornamenti, si è arrivati a quella che al momento è l'ultima evoluzione di HDMI, ovvero la versione 1.3, datata giugno 2006. Per avere un'idea di quali sono stati i progressi compiuti in soli 4 anni, basti pensare che mentre HDMI 1.0 era in grado di offrire un bitrate massimo di 4,9 Gb/s, la versione 1.3 arriva fino a 10,2 Gb/s. Di seguito vengono illustrate brevemente alcune delle peculiarità di ciascuna versione: • HDMI 1.0 - dicembre 2002 • Bitrate massimo di 4,9 Gb/s. Supporta fino a 165 Mpixel/s di flusso video (1080p a 60 Hz o UXGA) e audio a 8 canali codificato a 192 KHz e 24 bit. • HDMI 1.1 - maggio 2004 • Supporto addizionale per la protezione dei contenuti dei DVD Audio. • HDMI 1.2 - agosto 2005 • Supporto addizionale per i Super Audio CD. • Connessione HDMI Tipo A disponibile per i PC. • Disponibilità per i PC di utilizzare colori → RGB nativi con l'opzione dei colori YCbCr. • Supporto per le fonti a basso voltaggio. • HDMI 1.3 - giugno 2006 • • • • • Bitrate aumentato a 10,2 Gb/s. Supporto (opzionale) colori 30 bit, 36 bit e 48 bit (RGB o YCbCr). Supporto standard colori xvYCC. Supporto funzionalità di sincronizzazione audio automatica. Supporto (opzionale) uscita Dolby TrueHD e DTS-HD Master Audio stream (formati audio utilizzati con i dischi HD DVD e Blu-ray). • Versione futura 1.4 (nome non confermato) attesa per la fine del 2009 e di cui il consorzio HDMI ha parlato in occasione del CES di Las Vegas del 2009 e confermato in via definitiva il 28 maggio [1] [2] • Supporto alla tecnologia 3D di seconda generazione • Supporto alla scansione a 240Hz 150 High-Definition Multimedia Interface 151 • Supporto alla comunicazione bidirezionale, che include la connessione Ethernet fino a 100 Mbps e lo → streaming del flusso audio • Funzionalità HEC (HDMI Ethernet Channel) • Supporto al canale di ritorno per l'audio • Supporto a → risoluzioni fino a 4096 x 2160 pixel a 24 fps e 30Hz • Funzionalità ACE (Automatic Content Enhancement) • Nuovo mini connettore a 19 pin Nel luglio 2009 la Silicon Image ha annunciato l'imminenza dell'avvio della produzione dei relativi chip SiI9387 e trasmettitori SiI9334, e visto che le prime consegne all'industria sono attese per l'autunno si ritiene che i primi prodotti saranno presentati al CES nel gennaio 2010 e quindi immessi sul mercato a partire dalla primavera [3] . Più nello specifico si possono evidenziare maggiormente le differenze tra la versione 1.2 e la 1.3: Caratteristiche HDMI 1.2 HDMI 1.3 Data rate massimo 4,95 Gb/s 10,2 Gb/s Ampiezza di banda massima 165 MHz 340 MHz Risoluzione massima 1920x1080 progressiva (1080p) 2560x1440 progressiva (1440p) Profondità colori massima 24 bit 48 bit Colori codificabili 16,7 milioni 281 bilioni Supporto DTS & Dolby Digital 5.1 Sì Supporto Dolby TrueHD & DTS-HD No Sì Campionamento audio (2 canali) 192 KHz 768 KHz Campionamento audio (da 3 a 8 canali) 96 KHz (max 4 flussi) 192 KHz (max 8 flussi) Formati supportati L'interfaccia HDMI è compatibile con tutti i principali formati video, tra i quali si possono citare: PAL, NTSC e ATSC. Tra le innovazioni che si sono susseguite nel corso dello sviluppo dello standard vi è anche l'aumento della massima risoluzione video supportata. Se inizialmente questa era la 1080p utilizzata attualmente dalla → televisione ad alta definizione e quindi anche dai supporti ottici HD DVD e Blu-ray, con la versione 1.3 si è arrivati al formato 1440p ovvero 2560x1440 progressivo. Come accennato anche nello schema sopra, anche la profondità dei colori massima è aumentata enormemente, arrivando a 48 bit, il che si traduce nella possibilità, teorica, di codificare oltre 280 bilioni di colori; tutto questo abbinato ad un refresh massimo di 120 Hz. Mini HDMI Nel 2009 è stata annunciata la messa in commercio di un connettore mini HDMI che segue la specifica 1.3 di Tipo D. Dotato di 19 connessioni come l'HDMI tradizionale[4] . Meccanismi di protezione dei contenuti Per poter essere accettato dall'industria cinematografica, lo standard HDMI ha dovuto essere dotato di un sistema di protezione dei contenuti, o DRM (Digital Rights Management), chiamato HDCP (High-Definition Content Protection), supportato dalla sua versione 1.10 in poi. Tale tecnologia è stata sviluppata inizialmente da Intel, ed è fornita da una società controllata dal produttore stesso, la Digital Content Protection, LLC. Essa è implementata in tutti i prodotti HD DVD e Blu-ray e si tratta di un meccanismo di codifica che può essere decrittato solo da particolari dispositivi hardware e dovrebbe, quindi, essere più difficile da aggirare da parte dei pirati (in realtà sono già state individuate diverse tecniche per superare tali High-Definition Multimedia Interface difese). Ad ogni modo, per godere a pieno dei contenuti ad alta definizione è opportuno appoggiarsi a questa tecnologia abbinata all'interfaccia HDMI, perché se si utilizzano altre connessioni, come il video component, il segnale potrebbe essere automaticamente degradato (a seconda del livello di protezione impostato) e la qualità dell'immagine risultare molto simile a quella offerta dai tradizionali DVD, rendendo quindi inutile l'utilizzo di sorgenti ad alta definizione. Modalità di trasferimento del segnale audio/video Lo standard HDMI supporta 3 modalità di trasferimento del segnale video (standard, enhanced, alta definizione) e del segnale audio digitale multicanale, su un unico cavo. Non dipende dai vari standard di → televisione digitale quali ATSC e DVB in quanto questi ultimi sono delle forme di incapsulamento di flussi dati MPEG, che vengono inviati a un decoder e quindi visualizzati sotto forma di segnale video non compresso (eventualmente ad alta definizione). Tali dati video vengono successivamente codificati in tecnologia TMDS e trasmessi in modalità digitale su un canale HDMI. Lo standard prevede inoltre il supporto per segnali audio digitali non compressi a 8 canali. A partire dalla versione 1.2 sono supportati fino a 8 canali audio a 1 bit, la tecnologia usata dai Super Audio CD. Il connettore standard HDMI "Tipo A" è a 19 pin; lo standard definisce anche un "Tipo B" per risoluzioni più elevate, che però non risulta ancora molto diffuso. Quest'ultimo tipo è a 29 pin e consente il trasporto di un segnale video espanso per display ad alta risoluzione (superiore a 1080 pixel). L'HDMI tipo A è retrocompatibile con l'interfaccia → DVI single-link attualmente usata sui monitor e schede grafiche per computer. In tal modo una sorgente di segnale DVI è in grado di gestire un monitor HDMI (o viceversa) attraverso un opportuno cavo o adattatore, anche se è necessario rinunciare all'audio e alle funzioni di controllo remoto previste dallo standard HDMI. Inoltre, per i motivi accennati sopra, in assenza del supporto per la tecnologia di protezione HDCP, il dispositivo di visualizzazione degraderà la qualità e la risoluzione dell'immagine. Analogamente, l'HDMI tipo B è retrocompatibile con la tecnologia DVI dual-link. Lacune di HDMI Se dal punto di vista della riproduzione di contenuti ad alta definizione, lo standard HDMI risulta uno dei migliori, la stessa cosa non si può dire della "registrazione" di contenuti audio/video. I dati che passano nell'HDMI non sono compressi, e la funzione primaria dell'HDCP è proprio quella di proteggere i dati non compressi dalla possibilità di copie. Quindi, al momento, non esiste alcuna possibilità di registrare i dati tramite l'HDMI, ma non è escluso che queste funzionalità vengano introdotte con versioni future dell'interfaccia. Specifiche tecniche Connettori Lo standard HDMI supporta attualmente tre tipi di connettori: A, B e C. Il connettore HDMI di tipo A, introdotto inizialmente con HDMI 1.0, è il più diffuso: è composto da 19 pin, ed è retro-compatibile (elettricamente) con quello DVI-D (single link). Il connettore HDMI di tipo B, sempre introdotto con HDMI 1.0, ha 29 pin, e può trasportare il doppio dei dati trasmessi da un connettore di tipo A. Il suo uso principale è per display ad altissime risoluzioni, ed è l'equivalente (a livello elettrico) del DVI-D dual-link. Infine, il connettore HDMI di tipo C è quello introdotto più recentemente, con HDMI 1.3: si tratta essenzialmente di un connettore di tipo A di ridotte dimensioni, sviluppato per quegli apparecchi portatili (ad esempio, videocamere) che necessitano di componenti di ridotte dimensioni. La superficie del tipo C è all'incirca 2 volte e mezzo più piccola di quella del tipo A (10.42 mm x 2.42 mm del tipo C, contro i 13.9 mm x 4.45 mm del tipo A). Visto che le uniche differenze tra un tipo C ed un tipo A sono solo le dimensioni, due apparecchi aventi questi due tipi di connessioni 152 High-Definition Multimedia Interface 153 possono essere facilmente collegate tramite un cavo opportuno (HDMI tipo A - tipo C), senza alcun problema di compatibilità elettrica. Di seguito viene illustrato uno schema che esemplifica la disposizione dei pin di contatto, e la loro funzione, di un connettore HDMI Tipo A Molex 500254-1907: Pin Segnale Pin Segnale 1 TMDS Data2+ 2 TMDS Data2 (schermatura) 3 TMDS Data2– 4 TMDS Data1+ 5 TMDS Data1 (schermatura) 6 TMDS Data1– 7 TMDS Data0+ 8 TMDS Data0 (schermatura) 9 TMDS Data0– 10 TMDS Clock+ 11 TMDS Clock (schermatura) 12 TMDS Clock– 13 CEC 14 Riservato (N.C. sui dispositivi) 15 SCL 16 SDA 17 Massa DDC/CEC 18 Alimentazione +5V 19 Rilevazione Hot plug Il significato delle sigle utilizzate nello schema è illustrato brevemente qui di seguito: Canale TMDS (Transition Minimized Differential Signaling) Si tratta di una tecnologia di trasmissione dati ad alta velocità utilizzata nelle interfacce HDMI e DVI. Consiste in 3 canali che trasportano i dati audio/video e alcuni dati ausiliari, in grado di raggiungere un volume di dati di 3,4 GB/s per canale. • Tecnica di segnalazione: Conforme alla specifica DVI 1.0 Single-link (HDMI Tipo A) o dual-link (HDMI Tipo B). • Pixel rate video: da 25 a 165 MHz (Tipo A) o 330 MHz (Tipo B). • I formati video con pixel rate inferiore a 25 MHz (ad es. 13,5 MHz nel caso del formato 480i/NTSC) sono trasmessi con un meccanismo di ripetizione dei pixel. • Codifica dei pixel: → RGB 4:4:4, YCbCr 4:2:2, YCbCr 4:4:4. • Velocità di campionamento audio: 32 kHz, 44,1 kHz, 48 kHz, 88,2 kHz, 96kHz, 176,4 kHz, 192 kHz. • Canali audio: fino a 8. Canale CEC (Consumer Electronics Control) - opzionale Permette la comunicazione dei segnali di controllo e di comando a ogni componente interconnesso. Le caratteristiche del CEC sono opzionali ed è quindi il produttore stesso della periferica a deciderne l'implementazione. Nel caso in cui tutti i componenti dell'HDMI siano connessi tramite CEC, diventa possibile trasferire i comandi a tutti i componenti tramite un unico dispositivo di controllo. I comandi includono l'accensione e spegnimento, l'avvio della riproduzione, l'abilitazione della modalità Standby, la registrazione, e altri. • • • • Basato sul protocollo standard AV Link. Utilizzato per le funzioni di controllo a distanza. Bus seriale unidirezionale a un conduttore. Definito nella specifica HDMI 1.0. High-Definition Multimedia Interface Canale SCL (Serial Data Clock) Viene utilizzato per la sincronizzazione del trasferimento dati. Canale SDA (Serial Data Access) Un canale dedicato al trasferimento seriale dei dati. Canale DDC (Display Data Channel) Consente la comunicazione delle specifiche del display, come il nome del produttore, il tipo di prodotto, i formati audio e video supportati con le relative risoluzioni, etc, ai vari dispositivi connessi. • Tecnica di segnalazione I²C con frequenza di clock a 100 kHz • Struttura dati E-EDID conforme alle specifiche EIA/CEA-861B e VESA Enhanced EDID. Voci correlate • Interfaccia video • → Digital Visual Interface (DVI) • HDCP • DisplayPort • HDfury • WHDI (Wireless High-Definition Interface) Altri progetti • Wikimedia Commons contiene file multimediali sulla High-Definition Multimedia Interface Collegamenti esterni • (EN) Consorzio HDMI [5] • (EN) Specifiche dell'HDMI 1.3 [6] Note [1] [2] [3] [4] fonte: www.hwupgrade.it (http:/ / www. hwupgrade. it/ news/ skvideo/ nuove-specifiche-per-displayport-e-hdmi_27683-0. html) fonte: www.avmagazine.it (http:/ / www. avmagazine. it/ news/ televisori/ hdmi-14-ecco-le-specifiche_4466. html) fonte: www.avmagazine.it (http:/ / www. avmagazine. it/ news/ sorgenti/ primi-dispositivi-hdmi-14-nel-2010_4550. html) «Versione Stampabile Mini HDMI, in arrivo un nuovo connettore» (http:/ / www. hwupgrade. it/ news/ multimedia/ mini-hdmi-in-arrivo-un-nuovo-connettore_28935. html). Hardware Upgrade. [5] http:/ / www. hdmi. org/ [6] http:/ / www. hdmi. org/ download/ HDMISpecification13a. pdf 154 Fonti e autori delle voci Fonti e autori delle voci Luce Fonte: http://it.wikipedia.org/w/index.php?oldid=27692888 Autori:: 5Y, A7N8X, ARTE, Adasinol, Alfio, AttoRenato, AvdE, Avesan, Balabiot, Barbaking, Berto, Beta16, Blakwolf, Blueduster, Buzz lightyear, Ciano, Codas, Contezero, DanGarb, Davide, Diablo, Dinwath, Djdomix, Dr.Conati, Enne, Erococo, Fabio Vescarelli, Fernandopescia, Frazzone, Frieda, Gac, Gacio, Gassendi, Giaccone Paolo, Gianluigi, Giannizx1, Guam, Hashar, Hellis, IngFrancesco, Jacopo, K92, Longa, Lorenzo S., Luisa, M7, Mauriziogio, Mitchan, Numbo3, Oskar '95, P tasso, Paolo Di Febbo, Piergiorgio Massari, Piero, Pignol, Qbert88, Qualc1, Salvatore Ingala, Sbazzone, Scriban, Senza nome.txt, Skywolf, Snowdog, Square87, Starwars, Suisui, Template namespace initialisation script, Tirinto, Traiano, Tridim, Tueg, Twice25, Venom9, Win, Ylebru, 91 Modifiche anonime Colore Fonte: http://it.wikipedia.org/w/index.php?oldid=26604227 Autori:: Alfio, Andy91, Archenzo, Aushulz, Avesan, Berto, Biopresto, Blatta, Bob4, Boscarol, Cialz, Cisco79, DarkAp, Desperate92, Djdomix, Dnaiele, DoppioM, Dream.x, Elwood, Fastforward, Ferrario Jacopo, Frieda, Ft1, Gac, Gacio, Gea, Gierre, Gifh, Ginosal, Hellis, Immanuel Giel, Ithunn, Joana, La voce di Cassandra, LapoLuchini, Luke30, M7, Massimiliano Lincetto, Nick1915, No2, Nrykko, Paginazero, Patty, R0tAbLe, Remulazz, Riverblu, Sassospicco, Senza nome.txt, Simone, Sinigagl, Snowdog, Stefano Careglio, Suturn, Talmid3, Template namespace initialisation script, Twice25, 35 Modifiche anonime Spazio dei colori Fonte: http://it.wikipedia.org/w/index.php?oldid=27856136 Autori:: Adp, Avesan, Berto, DGC, Djdomix, Dnaiele, Ft1, Hellis, M7, Madaki, Marcok, Sassospicco, Sbisolo, Shadowfax, Sinigagl, Smallpox, Snarchio, Snowdog, Stefano Careglio, Twice25, Wikit2006, 11 Modifiche anonime Temperatura di colore Fonte: http://it.wikipedia.org/w/index.php?oldid=27805602 Autori:: A7N8X, Ary29, AttoRenato, Cialz, Dnaiele, Erud, Fredericks, Gassendi, Guam, Luisa, Luken, Magica, Pequod76, Senpai, Sesquipedale, 17 Modifiche anonime RGB Fonte: http://it.wikipedia.org/w/index.php?oldid=26180034 Autori:: Abisys, Ary29, Blackdeep81, Cassioli, Francescost, Freefranco, Ft1, Gac, Hellis, Lox, Lukius, M7, MaEr, Marcuscalabresus, Marioquark, Mitchan, Paolo57, PersOnLine, Purodha, Robin root, Sassospicco, Simone, Snowdog, Twice25, Vermondo, Viscontino, Wiso, Yuma, 19 Modifiche anonime CMYK Fonte: http://it.wikipedia.org/w/index.php?oldid=25895402 Autori:: Archenzo, Ares, Artwik, Ary29, Avesan, Dani4P, Djdomix, Dnaiele, Freefranco, Gianfranco, Magica, MapiVanPelt, MiGz, Pino alpino, Riverblu, Sassospicco, Senpai, Simone, SkZ, Stefano Careglio, TierrayLibertad, Tiziano Fruet, Twice25, 10 Modifiche anonime Hue Saturation Brightness Fonte: http://it.wikipedia.org/w/index.php?oldid=25414942 Autori:: A7N8X, Alleborgo, Ary29, Avesan, Dejudicibus, KaeZar, Llorenzi, Mamo139, Moongateclimber, Nick1915, Poweruser, Sassospicco, 3 Modifiche anonime Grafica raster Fonte: http://it.wikipedia.org/w/index.php?oldid=26623968 Autori:: .jhc., Alb, Ary29, ChemicalBit, Dr Zimbu, Fabio.gastone, Giovdi, Ignlig, Jotar, Lion-hearted85, Marcok, Negadrive, Red83, Sinigagl, Vault, Wetto, 19 Modifiche anonime Pixel Fonte: http://it.wikipedia.org/w/index.php?oldid=27773597 Autori:: .anaconda, Alberto da Calvairate, Buzz lightyear, Cruccone, EdoM, Enrique, Fragment, Frieda, Ft1, Giannib, Guidomac, Hellis, Jalo, Laurentius, Lp, Lukius, Mela, Mitchan, Moongateclimber, Neq00, Nosferatu, Piracmone, Qualc1, Richzena, Ripepette, Sbisolo, Scriban, Simone, Snowdog, Suisui, Trixt, Unriccio, Wetto, Михајло Анђелковић, 36 Modifiche anonime Risoluzione (grafica) Fonte: http://it.wikipedia.org/w/index.php?oldid=20850482 Autori:: %Pier%, Alfio, Avesan, Beta16, Bultro, Cassioli, Cls-classic, Fabiob, Frieda, Goliardico, Gvf, Hellis, Koji, Lucas, Marcel Bergeret, Mizardellorsa, Olando, Sbisolo, Trixt, Zeus57, 4 Modifiche anonime Risoluzioni standard Fonte: http://it.wikipedia.org/w/index.php?oldid=24166516 Autori:: %Pier%, A7N8X, Abisys, Alez, Ciampix, Civvì, Dark, Diego Zuelli, EdoM, Gbodini, Hellis, Kal-El, Kasper2006, Lenny76, Marcuscalabresus, Mr buick, Sandr0, TheDRaKKaR, TierrayLibertad, 8 Modifiche anonime Immagine digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=23695265 Autori:: Blackdeep81, CavalloRazzo, Luciodem, Negadrive, 11 Modifiche anonime Compressione dei dati Fonte: http://it.wikipedia.org/w/index.php?oldid=26612271 Autori:: %Pier%, Alberto Orlandini, Alfio, Alien life form, Archenzo, Blakwolf, Carlo.milanesi, Djdomix, Dommac, F. Cosoleto, Frieda, Hellis, Ignlig, Lornova, Lukius, M@ttia, Marcok, Qualc1, Rollopack, Sbisolo, Simpod, Unriccio, 9 Modifiche anonime Compressione dati lossy Fonte: http://it.wikipedia.org/w/index.php?oldid=22500703 Autori:: Ary29, Cruccone, Djdomix, Dommac, Fredericks, Fstefani, Gvf, Hellis, Lox, Marcok, Nosferatu, Unriccio, Yoggysot, 11 Modifiche anonime Compressione dati lossless Fonte: http://it.wikipedia.org/w/index.php?oldid=27774260 Autori:: Airon90, Alberto Orlandini, Alien life form, Alleborgo, Ary29, Avesan, Baruneju, CarmineXX, Civvì, Dinwath, Djdomix, Dommac, Fmonaco, Gaetano56, Hellis, Kiwi, Laurusnobilis, Leif Erikson, Lox, Nicolap8, Piddu, Snowdog, Sylvaticus, Timendum, Unriccio, Wiso, 27 Modifiche anonime Joint Photographic Experts Group Fonte: http://it.wikipedia.org/w/index.php?oldid=26423319 Autori:: .anaconda, Acolleoni, Alfio, AnyFile, Ary29, Barna1000, Brownout, Coyote83, Elborgo, Erriquez, Frieda, Gvf, Hashar, Hellis, Iskander, Kar.ma, Klemen Kocjancic, Mela, MiGz, Nico96, Objwan, Sbisolo, Simone, Suisui, Template namespace initialisation script, Unriccio, 18 Modifiche anonime Portable Network Graphics Fonte: http://it.wikipedia.org/w/index.php?oldid=27722259 Autori:: %Pier%, A7N8X, Acolleoni, Agara73, Alfio, DonPaolo, El salvador, F l a n k e r, Fmonaco, Giancy, Hashar, Hellis, Iskander, MiGz, Moongateclimber, Nevermindfc, Nico96, Purodha, Sbisolo, Simone, Suisui, Tia solzago, Viscontino, 12 Modifiche anonime Video Fonte: http://it.wikipedia.org/w/index.php?oldid=27802068 Autori:: Abisys, Air France, Ary29, AttoRenato, Avesan, Diego Zuelli, Edo93, Fiertel91, Fluctuat, Frammco, Jok3r, Limonadis, Lorenz-pictures, LucaLuca, Lucas, Marcok, Morningfrost, Nosferatu, Olando, Pakdooik, Pil56, Retaggio, Senpai, Tarf, 150 Modifiche anonime Video digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=22298348 Autori:: Abisys, Ary29, Asdf1234, AttoRenato, Casamich, Darth Kule, Francisco83pv, Hellis, Herik, Kelvin, MaEr, Morningfrost, Tvlocali, 7 Modifiche anonime Compressione video digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=26253965 Autori:: %Pier%, 5Y, Absinthe, Avesan, Basilicofresco, Cantalamessa, Cassioli, Dommac, Guam, Hellis, Luisa, Lukius, Morningfrost, Ninja, Perteghella, Snowdog, Svante, 8 Modifiche anonime Sottocampionamento della crominanza Fonte: http://it.wikipedia.org/w/index.php?oldid=27651413 Autori:: Cantalamessa, Formica rufa, Granzotto, Hellis, Marcol-it, Morningfrost, Nevermindfc, Rago, Sandr0, 4 Modifiche anonime Video a componenti Fonte: http://it.wikipedia.org/w/index.php?oldid=26747733 Autori:: Abisys, Ary29, KS, Moongateclimber, Morningfrost, Pegasovagante, Regfla1, Senpai, Sergio46, Ssspera, 17 Modifiche anonime Video composito Fonte: http://it.wikipedia.org/w/index.php?oldid=27100447 Autori:: .jhc., Abisys, Abyssadventurer, Bultro, Hellis, Loox, Moloch981, Morningfrost, Ppalli, Sanfo, 20 Modifiche anonime Formato contenitore Fonte: http://it.wikipedia.org/w/index.php?oldid=20963334 Autori:: Ary29, Satyricon86, Triquetra Velocità di trasmissione Fonte: http://it.wikipedia.org/w/index.php?oldid=24022231 Autori:: Abisys, Avesan, Cassioli, Contezero, Daniele Forsi, Fabio.gastone, Franganghi, Ft1, Giacomo.lucchese, Giant Lizard, Hellis, Loox, Maxx1972, Nemo bis, Piracmone, Poweruser, SkY`, Toobaz, 11 Modifiche anonime Codec video Fonte: http://it.wikipedia.org/w/index.php?oldid=21618869 Autori:: %Pier%, AnjaManix, Blaxwan, Goodsheard, Hellis, SymlynX, 2 Modifiche anonime Contenitore multimediale Fonte: http://it.wikipedia.org/w/index.php?oldid=22352637 Autori:: Ary29, Calabash, Gspinoza, Laurusnobilis, MIX, Squattaturi, 3 Modifiche anonime Audio Video Interleave Fonte: http://it.wikipedia.org/w/index.php?oldid=27863744 Autori:: %Pier%, Acolleoni, Archenzo, Ary29, Dalfi85, Fidech, IngFrancesco, MIX, Marcok, Nichlaus, Nico96, Stemby, Stevenworks, TheHurricanePower, Una giornata uggiosa '94, 11 Modifiche anonime Matroska Fonte: http://it.wikipedia.org/w/index.php?oldid=25726729 Autori:: Ary29, Cochrane, DarkAp, Fabio.gastone, MIX, Nico96, Rajven, 4 Modifiche anonime MPEG- 4 Fonte: http://it.wikipedia.org/w/index.php?oldid=26609041 Autori:: %Pier%, Aushulz, Hellis, Kriss4Christ, Kronos, Marius, Mykelyk, Roces, Senza nome.txt, Seveso, Wikibozzy, 22 Modifiche anonime 155 Fonti e autori delle voci MOV (formato di file) Fonte: http://it.wikipedia.org/w/index.php?oldid=23179559 Autori:: Ary29, MIX, Una giornata uggiosa '94, Unop2pf, 1 Modifiche anonime Ogg Fonte: http://it.wikipedia.org/w/index.php?oldid=27285051 Autori:: Actam, Ary29, Blakwolf, Bouncey2k, Brownout, Grifone87, Hashar, Hellis, Jalo, Laurusnobilis, LucAndrea, MIX, Mikelima, Mitchan, Nico96, Nosferatu, Sante Caserio, Shadd, Una giornata uggiosa '94, 15 Modifiche anonime Theora Fonte: http://it.wikipedia.org/w/index.php?oldid=27229761 Autori:: Garak, Hellis, Laurusnobilis, Mikelima, Nico96, Sandro kensan, Sinigagl, 7 Modifiche anonime Compressione audio digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=26253877 Autori:: %Pier%, Alfio, Alfreddo, An3, Ary29, Defcon, Dommac, Hellis, Lusum, Marcok, MiGz, Nosferatu, Sbisolo, Twice25, Xoen, 9 Modifiche anonime MP3 Fonte: http://it.wikipedia.org/w/index.php?oldid=27766517 Autori:: .anaconda, Aamodio, Acolleoni, Afnecors, Alan p, Alfio, Alleborgo, AndreA, Ary29, Barbaking, Biopresto, BlackMew9z, Brownout, Djechelon, Fidech, Fstefani, Gacio, Govoch, Guidomac, Hamed, Hashar, Hellis, IAF, IlCapo, Jacopo, Jorunn, Koji, LapoLuchini, Laurentius, Laurusnobilis, M7, Malex, Marcel Bergeret, Matgio, Melkor II, MiGz, Misterioso, Mr. Blonde, Mykelyk, Nosferatu, Nur, Orionethe, P tasso, Pietrodn, Qualc1, Richhard, Rojelio, Rosario9, S-bor, Sbisolo, Scardovi, Scimmialaser, Seveso, Simone, Simotdi, Snowdog, Suisui, Traduz, Una giornata uggiosa '94, Viscontino, Wizard, Zeus57, 78 Modifiche anonime Televisione digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=27215686 Autori:: Absinthe, Alleborgo, Ary29, Avesan, Cantalamessa, Cassioli, Ciro07, Cvp, Dani4P, Eliasoriordan, Ferrucciolibero, Giorgio Leone, Jacopo, Losògià, Lukius, Marcuscalabresus, Orzetto, Pgianpy, Snake79, Snowdog, Turillazzo, Twice25, 47 Modifiche anonime HDTV Fonte: http://it.wikipedia.org/w/index.php?oldid=27898404 Autori:: .anaconda, 16:9, Ab1, Abisys, Absinthe, Alleborgo, Antonino.greco, Antonio.971, Ary29, Asdf1234, AttoRenato, Aushulz, Avesan, BMF81, Blaisorblade, Bomberman, BonAce, Brownout, Brunocip, CavalloRazzo, Codicorumus, Contezero, Derfel74, Djechelon, Elijah85, Freepenguin, Gacio, Giancy, Golf-ball, Harrythebest93, Helix84, Hellis, Herik, Icaro829, KS, Kasper2006, Keledan, Kelvin, Klaudio, Langly, Lorenz-pictures, Loroli, Lp, LucAndrea, LucaDetomi, MaEr, Marco Bernardini, Marcoluciano, Marcuscalabresus, Morningfrost, Nuovoastro, Oliva18, Pepe85, Piccadillo, Quoniam, Ranma25783, Rayan, Sbazzone, Scriban, Shaka, Simone, Snake79, Snowdog, Swap83, T137, Theferro, TierrayLibertad, Tritologol, Twice25, Valepert, Vault, Viscontino, 149 Modifiche anonime DVD Fonte: http://it.wikipedia.org/w/index.php?oldid=27621337 Autori:: %Pier%, .mau., Al Pereira, Alfio, Amux, Ary29, Asdf1234, Beta16, Bodo, Bronzino, Bunker, Cassioli, Deliriumtremens, Dudo, Edo, Ellevi, Erriquez, Eustace Bagge, Frazzone, Frieda, Gacio, Galoppini, Hashar, Hellis, Hypermax, Kurtsb, Lephio, Losògià, Lucabon, Lucius, M7, MapiVanPelt, Marcok, Marcuscalabresus, Michele CaMi, Microtauro, Mitchan, Moliva, Nevermindfc, Numbo3, Outer root, Paginazero, Pegasovagante, Phantomas, Piffy, Rdocb, Rojelio, Satrixx, Servator, Shaka, Simone, Starless74, Suisui, SuperSecret, Surfy47, Template namespace initialisation script, Tennegi, Tooby, Viames, VicMer1987, Vikinger, Win, 112 Modifiche anonime IPTV Fonte: http://it.wikipedia.org/w/index.php?oldid=27645986 Autori:: %Pier%, .jhc., Abisys, Absinthe, Amux, Andzoff, Avesan, Bruno0.5, Caceo, Cpollio, Dommac, Fcaridi, Ferrucciolibero, Hellis, Lilja, Massimiliano Lincetto, Ranma25783, Rdocb, Rebeldeparinoz, Stemby, TekAndre, Vulkano, 67 Modifiche anonime Web TV Fonte: http://it.wikipedia.org/w/index.php?oldid=26715028 Autori:: .snoopy., Absinthe, Broc, Buggia, Civvì, D.forte, EH101, Ferrucciolibero, FrAnCiS, GJo, Giancy, Gicotel, Giocrea, Hellis, Horatius, Ignlig, Klaudio, Lilja, Lorenalan, Luciodem, Luisa, M7, Marcok, Mizardellorsa, Montitv, Moongateclimber, NBTV, Nalegato, Paginazero, Paulatz, PersOnLine, Riki81, Rosellaegianni, Snowdog, Stella del vespro, Svante, Tia solzago, Trikke, Twice25, ZAGA, ZioNicco, 94 Modifiche anonime Streaming Fonte: http://it.wikipedia.org/w/index.php?oldid=27792956 Autori:: .anaconda, Abisys, Agent59551325, Amux, Archenzo, Ary29, Avesan, Brownout, Brunocip, Buggia, Ciro1992, Cracatua, Cruccone, Drugonot, Fabrymondo, Fale, Ferrucciolibero, Gac, Gacio, Grond, Guidomac, Hacker nait, Hal8999, Hellis, Henrykus, Iron Bishop, KS, KinG-LioN, Klaudio, Kromeboy, LeFilsDePascal, Lilja, Loox, Ludimagister, M7, MadFool, MapiVanPelt, Marcok, Marcol-it, Marius, Mediano88, Miclen1, Mikykim, Mitchan, Moongateclimber, Nicoli, NuclearWarfare, Peppe Cicco, Pickblack, Rdocb, Red83, Rosanna.valente, Salvorapi, Sbazzone, Sbisolo, Senpai, Senza nome.txt, Simo ubuntu, Snowdog, Superdelo, Tiziano90, Torredibabele, Xx1182, Yoruno, Yuma, Zeusi, 153 Modifiche anonime Podcasting Fonte: http://it.wikipedia.org/w/index.php?oldid=27870819 Autori:: .mau., Absinthe, Al Pereira, Asbesto, Brownout, Civvì, Cruccone, Dainobellofico, Dainofico, Davalv, Easy2say, Elspad, Fabrymondo, FollowTheMedia, Fredericks, Frieda, Gacio, Gea edizioni d'avanguardia, Hellis, Indie-eye, Jacopo, L0ne, Llorenzi, Lox, Lucas, M7, Marcok, Marcozampini, Misterioso, Paginazero, Pietrodn, Plasson, Pyotr, Santapatata, Sbisolo, Sentruper, Shaka, Simone, Snowdog, Soltanto uno, Square87, TheSneezer, Viames, Webmastro, 152 Modifiche anonime Blu- ray Disc Fonte: http://it.wikipedia.org/w/index.php?oldid=27621681 Autori:: Aldo Iannotti, Alfa1981, Ary29, Asdf1234, Autoeconomo, Beta16, Blakwolf, Bongalone, Calabash, ChemicalBit, Cotton, Daneelo, Darixdm, Dumbridge, El Tarantiniese, Eleonorat, ErPiAtTo^Dj, F l a n k e r, Fiertel91, Giancy, Hellis, Hill, Hypermax, KS, Kal-El, Karzac Fabio, Kasper2006, Koji, Lilja, Lorelorelore, LucaDetomi, Mad Nick, Marco 27, Marcol-it, Marcuscalabresus, Neq00, Pietrodn, Purodha, Quicksilver, Ranma25783, Red83, Satrixx, Seveso, Shaka, Snowdog, Ssspera, Superzen, ThePassenger, Topolinik, Vituzzu, Walter Tizzano, Yerul, Yoppy90, Zorzo Mirco, 164 Modifiche anonime Universal Serial Bus Fonte: http://it.wikipedia.org/w/index.php?oldid=26751119 Autori:: Abisys, Alfa1981, Alfreddo, Ary29, Atlantropa, Avesan, Ciampix, DarkAp, Dragonheart, Frieda, Govoch, Hce, Hellis, Hill, Hunk, Iskander, Jalo, KaeZar, Lorenz-pictures, Lornova, Lrobby94, Luisa, MER-C, Madison Alex, Marcol-it, Marcuscalabresus, Marius, Mess, Microst, MikyT, Nick1915, Orlando udine, PersOnLine, Piero, Pil56, Pippu d'Angelo, Pytt, RadomE, Red83, Rojelio, Sassospicco, Sbisolo, Simone, Sky, Sonichead, Stefano86, StefanoM, Suisui, Template namespace initialisation script, Tener, Timendum, Twice25, Valepert, Viames, 66 Modifiche anonime IEEE 1394 Fonte: http://it.wikipedia.org/w/index.php?oldid=27881785 Autori:: Avesan, Ayato86, Beta16, Ciampix, Danielemarchi68, Deplo, Djechelon, Fabexplosive, Gacio, Hashar, Hellis, Herik, Lorenz-pictures, MarKo, Marius, MaxDel, Memolina, Mess, Mimx, Nyc99, Orso della campagna, R0tAbLe, RanZag, Stefano Careglio, Stemby, Suisui, Tomfox, Tommaso.Calloni, 23 Modifiche anonime Digital Visual Interface Fonte: http://it.wikipedia.org/w/index.php?oldid=27611930 Autori:: Abisys, Avesan, DanGarb, Francesco.monte, Franganghi, Gacio, Giovannigobbin, Hellis, Homer, Icaro, Klaudio, Luca Z.za, RaminusFalcon, Ruggibrante, Sanghino, Snowdog, 30 Modifiche anonime High- Definition Multimedia Interface Fonte: http://it.wikipedia.org/w/index.php?oldid=27651429 Autori:: Abisys, Alec, Alessio Rolleri, Asdf1234, AttoRenato, Avesan, Dragonheart, Formica rufa, Frieda, Gacio, Grok, Hellis, KaeZar, Klaudio, Lorenz-pictures, Lp, LucaDetomi, Lusum, Marcuscalabresus, No2, Osk, Scriban, Square87, Ssspera, Svante, Theferro, 23 Modifiche anonime 156 Fonti, licenze e autori delle immagini Fonti, licenze e autori delle immagini File:PrismAndLight.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:PrismAndLight.jpg Licenza: Public Domain Autori:: NASA File:Squarci di luce.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Squarci_di_luce.jpg Licenza: sconosciuto Autori:: Dr.Conati File:Chicago Union Station 1943.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Chicago_Union_Station_1943.jpg Licenza: Public Domain Autori:: Jack Delano Immagine:Spectre.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectre.svg Licenza: sconosciuto Autori:: User:Phrood, User:Tatoute Immagine:Commons-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: User:3247, User:Grunt Immagine:Wikiquote-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg Licenza: logo Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime Immagine:Wiktionary-ico-de.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png Licenza: logo Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Rocket000 Immagine:Colouring pencils.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Colouring_pencils.jpg Licenza: sconosciuto Autori:: User:MichaelMaggs Immagine:Spectrum441pxWithnm.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectrum441pxWithnm.png Licenza: GNU Free Documentation License Autori:: Adoniscik, Eno, Knutux, W!B:, 1 Modifiche anonime Immagine:Karachi - Pakistan-market.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Karachi_-_Pakistan-market.jpg Licenza: Creative Commons Attribution 2.0 Autori:: Berrucomons, Durova, Epiktet, FlickrLickr, Fred J, Jnn, Jon Harald Søby, Mangostar, Mattes, MichaelMaggs, Neon, Ranveig, Rogerine, Shizhao, Str4nd, WikipediaMaster, 1 Modifiche anonime Immagine:Spettro.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Spettro.gif Licenza: sconosciuto Autori:: Utente:Adp Immagine:CIE1931 rgxy.png Fonte: http://it.wikipedia.org/w/index.php?title=File:CIE1931_rgxy.png Licenza: Public Domain Autori:: User:BenFrantzDale Immagine:Cie.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Cie.gif Licenza: sconosciuto Autori:: Utente:Adp Immagine:Color temperature.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_temperature.svg Licenza: sconosciuto Autori:: Hołek Immagine:RGB.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:RGB.svg Licenza: Public Domain Autori:: User:Wiso Immagine:AdditiveColorSynthesis_RGBpositives.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:AdditiveColorSynthesis_RGBpositives.jpg Licenza: sconosciuto Autori:: User:Magica Immagine:SubtractiveColorSynthesis_CMYK_2.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:SubtractiveColorSynthesis_CMYK_2.jpg Licenza: sconosciuto Autori:: User:Magica Immagine:CMY ideal version.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:CMY_ideal_version.svg Licenza: Public Domain Autori:: Terin Image:HSV cylinder.png Fonte: http://it.wikipedia.org/w/index.php?title=File:HSV_cylinder.png Licenza: GNU Free Documentation License Autori:: (3ucky(3all at en.wikipedia Image:Color cones.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_cones.png Licenza: GNU Free Documentation License Autori:: Djiboun, SharkD, WikipediaMaster, Wing Immagine:Rgb-raster-image.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Rgb-raster-image.png Licenza: sconosciuto Autori:: Original uploader was Riumplus at en.wikipedia Later versions were uploaded by Plethorapw, Guanaco, Branko, Kjoonlee at en.wikipedia. File:Fil-Pixel-example-wiki.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Fil-Pixel-example-wiki.png Licenza: logo Autori:: Original uploader was BlueEel at da.wikipedia Immagine:Vector Video Standards2.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Vector_Video_Standards2.svg Licenza: GNU Free Documentation License Autori:: Original uploader was XXV at en.wikipedia Later version(s) were uploaded by Jjalocha, Aihtdikh at en.wikipedia. Immagine:tulipanoJPEG100.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG100.jpg Licenza: sconosciuto Autori:: Coyote83 Immagine:tulipanoJPEG90.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG90.jpg Licenza: sconosciuto Autori:: Coyote83 Immagine:tulipanoJPEG50.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG50.jpg Licenza: sconosciuto Autori:: Coyote83 Immagine:tulipanoJPEG10.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG10.jpg Licenza: sconosciuto Autori:: Coyote83 Immagine:Comparison of JPEG and PNG.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Comparison_of_JPEG_and_PNG.png Licenza: sconosciuto Autori:: , cropped by Immagine:PNG transparency demonstration 1.png Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_1.png Licenza: sconosciuto Autori:: User:ed g2s/Dice.pov, user:ed_g2s Immagine:PNG transparency demonstration 2.png Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_2.png Licenza: sconosciuto Autori:: User:ed g2s/Dice.pov, user:ed_g2s File:standard_video_res.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_video_res.svg Licenza: Public Domain Autori:: Darz Mol, Hellisp, Inductiveload, Oxam Hartog, 3 Modifiche anonime File:Aspect ratios.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Aspect_ratios.png Licenza: GNU Free Documentation License Autori:: Andreas -horn- Hornig, Indolences File:NTSC-PAL-SECAM.png Fonte: http://it.wikipedia.org/w/index.php?title=File:NTSC-PAL-SECAM.png Licenza: GNU Free Documentation License Autori:: Andreas -horn- Hornig, En rouge, Interiot, Kaganer, Oldie, Responsible?, Thuresson Immagine:Color-bars-original.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Color-bars-original.gif Licenza: Public Domain Autori:: Glenn Chan Immagine:Color-bars-vegas-dv.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Color-bars-vegas-dv.gif Licenza: Public Domain Autori:: Glenn Chan Immagine:Chroma subsampling ratios.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Chroma_subsampling_ratios.svg Licenza: GNU Free Documentation License Autori:: , w:User:MysidUser:Mysid Immagine:444-original-single-field.png Fonte: http://it.wikipedia.org/w/index.php?title=File:444-original-single-field.png Licenza: sconosciuto Autori:: Original uploader was Glennchan at en.wikipedia Immagine:420-progressive-single-fiel.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-progressive-single-fiel.png Licenza: Public Domain Autori:: Glenn Chan Immagine:420-interlaced-single-field.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-interlaced-single-field.png Licenza: sconosciuto Autori:: Glenn Chan Immagine:420-original444.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-original444.png Licenza: Public Domain Autori:: Glenn Chan Immagine:420-progressive-still.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-progressive-still.png Licenza: Public Domain Autori:: Glenn Chan Immagine:420-interlaced-still.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-interlaced-still.png Licenza: Public Domain Autori:: Glenn Chan Image:Component video RCA.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Component_video_RCA.jpg Licenza: GNU Free Documentation License Autori:: Photograph taken by Larry D. Moore (Nv8200p on en.wikipedia) using a Kodak EasyShare Z740 camera. Immagine:Composite.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Composite.jpg Licenza: GNU Free Documentation License Autori:: Photograph taken by Larry D. Moore (Nv8200p on en.wikipedia) using a Kodak EasyShare Z740 camera. Immagine:BNC connector 20050720 001.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:BNC_connector_20050720_001.jpg Licenza: Public Domain Autori:: User:bergsten Immagine:Disambigua compass.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Disambigua_compass.svg Licenza: Public Domain Autori:: User:Krdan Immagine:Matroska-logo-128x128.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Matroska-logo-128x128.png Licenza: GNU General Public License Autori:: Matroska project Immagine:Torchlight_ogg.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Torchlight_ogg.png Licenza: GNU Lesser General Public License Autori:: Dake File:Fraunhofer ITWM AM.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Fraunhofer_ITWM_AM.jpg Licenza: Public Domain Autori:: AlexanderDreyer, Túrelio File:Ibox mp3.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Ibox_mp3.jpg Licenza: Public Domain Autori:: Derbeth, MB-one, Mohylek, 1 Modifiche anonime Immagine:Digital-tv-box med Boxerkort.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Digital-tv-box_med_Boxerkort.jpg Licenza: sconosciuto Autori:: GeorgHH, O, Väsk Immagine:Digital-tv-box från Nokia.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Digital-tv-box_från_Nokia.jpg Licenza: GNU Free Documentation License Autori:: MMuzammils, Mardus, Thuresson, Väsk, Wst File:Projection-screen-home2.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Projection-screen-home2.jpg Licenza: Public Domain Autori:: User:Tysto File:Highdefinitiontvwalldirectv.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Highdefinitiontvwalldirectv.jpg Licenza: sconosciuto Autori:: Original uploader was Jengod at en.wikipedia 157 Fonti, licenze e autori delle immagini File:Standard video res.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_video_res.svg Licenza: Public Domain Autori:: Darz Mol, Hellisp, Inductiveload, Oxam Hartog, 3 Modifiche anonime File:Confronto PAL - HDTV.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Confronto_PAL_-_HDTV.jpg Licenza: sconosciuto Autori:: Lorenz-pictures File:Pixel aspect ratio pixelseitenverhaeltnis ntsc480p pal576p hdtv720p hdtv1080p uhdv4320p by hdtvtotal com.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Pixel_aspect_ratio_pixelseitenverhaeltnis_ntsc480p_pal576p_hdtv720p_hdtv1080p_uhdv4320p_by_hdtvtotal_com.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: User:Andreas -horn- Hornig File:Sky Box HD Pace.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Sky_Box_HD_Pace.jpg Licenza: Public Domain Autori:: User:Andreas -horn- Hornig Immagine:DVD logo.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD_logo.png Licenza: sconosciuto Autori:: Hellis, Kanchelskis, Senpai Immagine:DVD.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD.jpg Licenza: sconosciuto Autori:: Archaeologo, Lucius Immagine:DVD-RAM FUJIFILM Disc-removalble Without cartridge-locking-pin.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD-RAM_FUJIFILM_Disc-removalble_Without_cartridge-locking-pin.jpg Licenza: Public Domain Autori:: User:Iainf, User:Ocrho Immagine:DVD-Regions_with_key.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD-Regions_with_key.png Licenza: GNU Free Documentation License Autori:: Anstalt, David Levy, Dryke, Frukt, Lockal, Monaneko, MrWeeble, Peter17, 5 Modifiche anonime Immagine:BluRayDisc.png Fonte: http://it.wikipedia.org/w/index.php?title=File:BluRayDisc.png Licenza: sconosciuto Autori:: Giancy Immagine:Bluray.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Bluray.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Aholtman, J o, Mistress Selina Kyle Immagine:IFA 2005 Panasonic Blu-ray Disc Single Layer 25GB (by HDTVTotalDOTcom).jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:IFA_2005_Panasonic_Blu-ray_Disc_Single_Layer_25GB_(by_HDTVTotalDOTcom).jpg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: User:Andreas -horn- Hornig Immagine:Sony PlayStation 3.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Sony_PlayStation_3.jpg Licenza: Creative Commons Attribution 2.0 Autori:: Andreas -horn- Hornig, Bayo, Cookie, Dancter, Datrio, Gabbe, Mnts, Para, Thuresson, 1 Modifiche anonime Immagine: Usb-svg.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Usb-svg.svg Licenza: sconosciuto Autori:: DocMiller Immagine:USB_TypeA_Plug.JPG Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_TypeA_Plug.JPG Licenza: Creative Commons Attribution-Sharealike 2.0 Autori:: User:Afrank99 Immagine:USB Male Plug Type B.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_Male_Plug_Type_B.jpg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: user:Aka Immagine:Mini_usb_AB.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Mini_usb_AB.jpg Licenza: Creative Commons Attribution 2.5 Autori:: User Mgdunn on en.wikipedia Immagine:USB_micro.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_micro.jpg Licenza: Public Domain Autori:: User:RadomE Immagine:Sanwa supply USB-HUB217BK.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Sanwa_supply_USB-HUB217BK.jpg Licenza: GNU Free Documentation License Autori:: User:Qurren Immagine:USB PS2 Adapters.JPG Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_PS2_Adapters.JPG Licenza: GNU Free Documentation License Autori:: User:Afrank99 Immagine:USB_TypeAB_Connector_Pinout.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_TypeAB_Connector_Pinout.svg Licenza: Public Domain Autori:: Mobius, WikipediaMaster Immagine:USB AB mini.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_AB_mini.svg Licenza: GNU Free Documentation License Autori:: User:Appaloosa Immagine:Firewire6-pin.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Firewire6-pin.jpg Licenza: Public Domain Autori:: KoS, Stanmar Immagine:Logo firewire125.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Logo_firewire125.png Licenza: sconosciuto Autori:: Hellis, Mess, Senpai Immagine:IEEE1394-4-6pin.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:IEEE1394-4-6pin.jpg Licenza: sconosciuto Autori:: Deplo Immagine:Firewire4-pin.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Firewire4-pin.jpg Licenza: Public Domain Autori:: Denniss, Essjay, KoS, Maksim Immagine:IEEE 1394b.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:IEEE_1394b.jpg Licenza: sconosciuto Autori:: Fabexplosive Immagine:PorteFWiMac.JPG Fonte: http://it.wikipedia.org/w/index.php?title=File:PorteFWiMac.JPG Licenza: sconosciuto Autori:: Deplo File:DVI-D Connector.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVI-D_Connector.jpg Licenza: sconosciuto Autori:: 32bitmaschine, Keeleysam, Sergei, Sven File:DVI Connector Pinout.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVI_Connector_Pinout.svg Licenza: Public Domain Autori:: 32bitmaschine, Mobius, Sven, WikipediaMaster File:DVI Connector Types.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVI_Connector_Types.svg Licenza: Public Domain Autori:: 32bitmaschine, Hungry Charlie, Mobius, Rhe br, Sven, WikipediaMaster File:DVI pinout.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVI_pinout.svg Licenza: sconosciuto Autori:: Original uploader was Ionuion at en.wikipedia Immagine:HDMI connector-male 2 sharp Δ0059.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:HDMI_connector-male_2_sharp_Δ0059.jpg Licenza: sconosciuto Autori:: D-Kuru, Tony Wills Immagine:HDMI Connector Pinout.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:HDMI_Connector_Pinout.svg Licenza: Public Domain Autori:: D-Kuru, Mobius, WikipediaMaster 158 Licenza Licenza Creative Commons Attribution-Share Alike 3.0 Unported http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/ 159