- Web Graphic Designer

Transcript

- Web Graphic Designer
Tecniche di Video Digitale
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].
PDF generated at: Mon, 09 Nov 2009 10:53:13 UTC
Indice
Voci
Introduzione - Luce e colore
1
Luce
1
Colore
6
Spazio dei colori
11
Temperatura di colore
15
RGB
16
CMYK
18
Hue Saturation Brightness
20
Grafica Digitale
21
Grafica raster
21
Pixel
23
Risoluzione (grafica)
26
Risoluzioni standard
27
Immagine digitale
33
Compressione dei dati
35
Compressione dati lossy
36
Compressione dati lossless
37
Joint Photographic Experts Group
41
Portable Network Graphics
44
Formati del video digitale
46
Video
46
Video digitale
55
Compressione video digitale
58
Sottocampionamento della crominanza
61
Video a componenti
67
Video composito
68
Formato contenitore
71
Velocità di trasmissione
72
Codec video
74
Contenitore multimediale
75
Audio Video Interleave
75
Matroska
77
MPEG-4
79
MOV (formato di file)
81
Ogg
83
Theora
86
Audio Digitale
88
Compressione audio digitale
88
MP3
90
Diffusione del Video Digitale
Televisione digitale
96
96
HDTV
100
DVD
109
IPTV
115
Web TV
118
Streaming
120
Podcasting
122
Blu-ray Disc
125
Appendice 1 - Interfacce
136
Universal Serial Bus
136
IEEE 1394
141
Digital Visual Interface
144
High-Definition Multimedia Interface
148
Note
Fonti e autori delle voci
155
Fonti, licenze e autori delle immagini
157
Licenze della voce
Licenza
159
1
Introduzione - Luce e colore
Luce
Il termine luce (dal latino, lux, lucis) si
riferisce alla porzione dello spettro
elettromagnetico visibile dall'occhio umano,
ed è approssimativamente compresa tra 400
e 700 nanometri di lunghezza d'onda,
ovvero tra 750 e 428 THz di frequenza.
Questo intervallo coincide con la regione di
massima emissione da parte del sole. I limiti
dello spettro visibile all'occhio umano non
Un prisma scompone la luce
sono uguali per tutte le persone, ma variano
soggettivamente e possono raggiungere i
730 nanometri, avvicinandosi agli infrarossi, e i 380 nanometri avvicinandosi agli ultravioletti. La presenza
contemporanea di raggi di tutte le lunghezze d'onda visibili forma la luce bianca.
La luce, come tutte le onde elettromagnetiche, interagisce con la materia. I fenomeni più comuni osservabili sono:
l'assorbimento, la trasmissione, la riflessione, la rifrazione e la diffrazione.
Sebbene nell'elettromagnetismo classico la luce sia descritta come un'onda, l'avvento della meccanica quantistica agli
inizi del XX secolo ha permesso di capire che questa possiede anche proprietà tipiche delle particelle e di spiegare
fenomeni come l'effetto Compton. Nella fisica moderna la luce (e tutta la radiazione elettromagnetica) viene descritta
come composta da quanti del campo elettromagnetico chiamati fotoni.
Teorie sulla luce
Molteplici sono state le teorie formulate, nel
corso del tempo, per spiegare il fenomeno
luminoso ed i comportamenti della luce.
Teoria corpuscolare
Formulata da Isaac Newton nel XVII secolo.
La luce veniva vista come composta da
piccole particelle di materia (corpuscoli)
emesse in tutte le direzioni. Oltre che essere
matematicamente molto più semplice della
teoria ondulatoria, questa teoria spiegava
molto facilmente alcune caratteristiche della
propagazione della luce che erano ben note
all'epoca di Newton.
Fasci di luce solare che filtrano tra le nubi
Luce
2
Innanzitutto la meccanica galileiana prevede,
correttamente, che le particelle (inclusi i corpuscoli di
luce) si propaghino in linea retta ed il fatto che questi
fossero previsti essere molto leggeri era coerente con
una velocità della luce alta ma non infinita. Anche il
fenomeno della riflessione poteva essere spiegato in
maniera semplice tramite l'urto elastico della particella
di luce sulla superficie riflettente.
La spiegazione della rifrazione era leggermente più
complicata ma tutt'altro che impossibile: bastava infatti
pensare che le particelle incidenti sul materiale
rifrangente subissero, ad opera di questo, delle forze
perpendicolari alla superficie che ne cambiassero la
traiettoria.
I colori dell'arcobaleno venivano spiegati tramite
l'introduzione di un gran numero di corpuscoli di luce
diversi (uno per ogni colore) ed il bianco era pensato come formato da tante di queste particelle. La separazione dei
colori ad opera, ad esempio, di un prisma poneva qualche problema teorico in più perché le particelle di luce
dovrebbero avere proprietà identiche nel vuoto ma diverse all'interno della materia.
Una conseguenza della teoria corpuscolare della luce è che questa, per via dell'accelerazione gravitazionale, aumenti
la sua velocità quando si propaga all'interno di un mezzo.
Teoria ondulatoria
Formulata da Christiaan Huygens nel 1678 ma pubblicata solo nel 1690 nel Traité de la Lumière. La luce veniva
vista come un'onda che si propaga (in maniera del tutto simile alle onde del mare o a quelle acustiche) in un mezzo,
chiamato etere, che si supponeva pervadere tutto l'universo ed essere formato da microscopiche particelle elastiche.
La teoria ondulatoria della luce permetteva di spiegare (anche se in maniera matematicamente complessa) un gran
numero di fenomeni: oltre alla riflessione ed alla rifrazione, Huygens riuscì infatti a spiegare anche il fenomeno della
birifrangenza nei cristalli di calcite.
Nel 1801 Thomas Young dimostrò come i fenomeni della diffrazione (osservato per la prima volta Francesco Maria
Grimaldi nel 1665) e dell'interferenza fossero interamente spiegabili dalla teoria ondulatoria e non lo fossero dalla
teoria corpuscolare. Agli stessi risultati arrivò Augustin-Jean Fresnel nel 1815. Nel 1814 Joseph von Fraunhofer fu il
primo ad investigare seriamente sulle righe di assorbimento nello spettro del Sole, che vennero esaurientemente
spiegate da Kirchhoff e da Bunsen nel 1859, con l'invenzione dello spettroscopio. Le righe sono ancora oggi
chiamate linee di Fraunhofer in suo onore.
Un problema della teoria ondulatoria era tuttavia la propagazione rettilinea della luce. Infatti era ben noto che le onde
sono capaci di aggirare gli ostacoli mentre è esperienza comune che la luce si propaghi in linea retta (questa
proprietà era già stata notata da Euclide nel suo Optica). Questa apparente incongruenza può però essere spiegata
assumendo che la luce abbia una lunghezza d'onda microscopica.
Al contrario della teoria corpuscolare, quella ondulatoria prevede che la luce si propaghi più lentamente all'interno di
un mezzo che nel vuoto; restano ambiguità.
Luce
3
Teoria elettromagnetica
Per la grandissima maggioranza delle applicazioni questa teoria è ancora utilizzata al giorno d'oggi. Proposta da
James Clerk Maxwell alla fine del XIX secolo, sostiene che le onde luminose sono elettromagnetiche e non
necessitano di un mezzo per la trasmissione, mostra che la luce visibile è una parte dello spettro elettromagnetico.
Con la formulazione delle equazioni di Maxwell vennero completamente unificati i fenomeni elettrici, magnetici ed
ottici.
Teoria quantistica
Per risolvere alcuni problemi sulla trattazione del corpo nero nel 1900 Max Planck ideò un artificio matematico,
pensò che l'energia associata ad una onda elettromagnetica non fosse proporzionale al quadrato della sua ampiezza
(come nel caso delle onde elastiche in meccanica classica), ma direttamente proporzionale alla frequenza e che la sua
costante di proporzionalità fosse discreta e non continua.
L'interpretazione successiva che Albert Einstein diede dell'effetto fotoelettrico incanalò il pensiero dei suoi
contemporanei verso una nuova strada. Si cominciò a pensare che quanto fatto da Planck non fosse un mero artificio
matematico, ma piuttosto l'interpretazione di una nuova struttura fisica, cioè che la natura della luce potesse avere un
qualche rapporto con una forma discreta di alcune sue proprietà. Si cominciò a parlare di pacchetti discreti di
energia, battezzati fotoni. Con l'avvento delle teorie quantistiche dei campi (ed in particolare dell'elettrodinamica
quantistica) il concetto di fotone venne formalizzato ed oggi sta alla base dell'ottica quantistica.
La velocità della luce
La luce si propaga a una velocità finita. Anche gli osservatori in movimento misurano sempre lo stesso valore di c, la
velocità della luce nel vuoto, dove c = 299 792 458 m/s. Nell'uso comune, questo valore viene arrotondato a 300 000
km/s.
La velocità della luce è stata misurata molte volte da numerosi fisici. Il primo tentativo di misura venne compiuto da
Galileo Galilei con l'ausilio di lampade oscurabili ma la rudimentalità dei mezzi disponibili non permise di ottenere
alcun valore. La migliore tra le prime misurazioni venne eseguita da Olaus Roemer (un fisico danese), nel 1676. Egli
sviluppò un metodo di misurazione, osservando Giove e una delle sue lune con un telescopio. Grazie al fatto che la
luna veniva eclissata da Giove a intervalli regolari, calcolò il periodo di rivoluzione della luna in 42,5 ore, quando la
Terra era vicina a Giove. Il fatto che il periodo di rivoluzione si allungasse quando la distanza tra Giove e Terra
aumentava, poteva essere spiegato assumendo che la luce impiegava più tempo a coprire la distanza Terra-Giove,
ipotizzando quindi, una velocità finita per essa. La velocità della luce venne calcolata analizzando la distanza tra i
due pianeti in tempi differenti. Roemer calcolò una velocità di 227 326 km/s.
Albert A. Michelson migliorò il lavoro di Roemer nel 1926. Usando uno specchio rotante, misurò il tempo impiegato
dalla luce per percorrere il viaggio di andata e ritorno dal monte Wilson al monte San Antonio in California. La
misura precisa portò a una velocità di 299 796 km/s.
Questo esperimento in realtà misurò la velocità della luce nell'aria. Infatti, quando la luce passa attraverso una
sostanza trasparente, come l'aria, l'acqua o il vetro, la sua velocità c si riduce a v=c/n (dove n è il valore dell'indice di
rifrazione del mezzo) ed è sottoposta a rifrazione. In altre parole, n = 1 nel vuoto e n > 1 nella materia. L'indice di
rifrazione dell'aria di fatto è molto vicino a 1, e in effetti la misura di Michelson è un'ottima approssimazione di c.
Luce
4
Ottica
Lo studio della luce e dell'interazione tra luce e materia è detto ottica. L'osservazione e lo studio dei fenomeni ottici,
come ad esempio l'arcobaleno offre molti indizi sulla natura della luce.
Colori e lunghezze d'onda
Le differenti lunghezze d'onda vengono interpretate dal cervello come colori, che vanno dal rosso delle lunghezze
d'onda più ampie (minore frequenza), al violetto delle lunghezze d'onda più brevi (maggiore frequenza). Ci preme,
tuttavia sottolineare, che non a tutti i colori possiamo associare una lunghezza d'onda. Spesso questo aspetto non
viene sottolineato e si diffonde l'errata convinzione, inconsapevolmente foraggiata anche da immagini come quelle
presenti in codesta pagina, che ci sia una relazione biettiva tra un colore e una lunghezza d'onda. In realtà, è vero che
ad ogni lunghezza d'onda è associabile un → colore, ma non è vero il contrario. Quei colori a cui non sono associate
lunghezze d'onda, sono invece generati dal meccanismo di funzionamento del nostro apparato visivo
(cervello+occhio). In particolare i coni, cellule della retina responsabili della visione del colore, si differenziano in
tre tipi perché sensibili a tre diverse regioni spettrali della luce. Quando, ad esempio, due diverse onde
monocromatiche, appartenenti a due regioni diverse di cui prima, sollecitano contemporaneamente l'occhio, il nostro
cervello interpreta la sollecitazione come un nuovo colore, "somma" dei due originari.
Le frequenze immediatamente al di fuori dello spettro percettibile dall'occhio umano vengono chiamate ultravioletto
(UV), per le alte frequenze, e infrarosso (IR) per le basse. Anche se gli esseri umani non possono vedere l'infrarosso,
esso viene percepito dai recettori della pelle come calore. Telecamere in grado di captare i raggi infrarossi e
convertirli in luce visibile, vengono chiamati visori notturni. La radiazione ultravioletta non viene percepita dagli
esseri umani, se non in maniera molto indiretta, in quanto la sovraesposizione della pelle ai raggi UV causa
scottature. Alcuni animali, come le api, riescono a vedere gli ultravioletti; altri invece riescono a vedere gli
infrarossi.
Lunghezze d'onda della luce visibile
La luce visibile è una porzione dello spettro elettromagnetico compresa approssimativamente tra i 400 e i 700
nanometri (nm) (nell'aria). La luce è anche caratterizzata dalla sua frequenza. Frequenza e lunghezza d'onda
obbediscono alla seguente relazione: l=v/f (dove l è la lunghezza d'onda, v è la velocità nel mezzo considerato - nel
vuoto in genere si indica con c - , f è la frequenza della radiazione).
Luce
5
Grandezze misurabili
Di seguito sono riportate quantità o unità di misura legate a fenomeni luminosi:
•
•
•
•
•
Tonalità (o → temperatura)
luminosità
illuminamento (unità SI: lux)
flusso luminoso (unità SI: lumen)
intensità luminosa (unità SI: candela)
Sorgenti di luce
• Radiazione termica
• Lampade ad incandescenza
• Luce solare
• fuoco
• Qualsiasi corpo ad di sopra di una certa temperatura (cioè incandescente, ad es. metallo fuso)
• Emissione spettrale atomica (la fonte di emissione può essere stimolata o spontanea)
• Laser e Maser (emissione stimolata)
• LED (light emitting diode)
• lampade a scarica di gas (insegne al neon, lampade al mercurio, etc)
• Fiamme dei gas
• Accelerazione di una particella dotata di carica (solitamente un elettrone)
• Radiazione ciclotronica
• Bremsstrahlung
• Effetto Čerenkov
• luce di sincrotrone
• chemioluminescenza
• fluorescenza
• fosforescenza
•
•
•
•
•
• tubo catodico
bioluminescenza
sonoluminescenza
triboluminescenza
radioattività
annichilazione particella-antiparticella
Altri progetti
•
•
•
Wikimedia Commons contiene file multimediali su luce
Wikiquote contiene citazioni riguardanti la luce
Wikizionario contiene la voce di dizionario «luce»
Spettro elettromagnetico
(Ordinato in base alla frequenza, ordine crescente)
Onde radio | Microonde | Radiazione terahertz | Infrarosso | Luce visibile | Ultravioletto | Raggi X | Raggi gamma
Luce
6
Spettro delle onde radio
ELF
SLF
ULF
VLF
LF
MF
HF
VHF
UHF
SHF
EHF
3 Hz
30 Hz
300
Hz
3 kHz
30 kHz
300
kHz
3 MHz
30 MHz
300
MHz
3 GHz
30 GHz
30
Hz
300
Hz
3 kHz
30
kHz
300
kHz
3 MHz
30
MHz
300
MHz
3 GHz
30
GHz
300
GHz
Spettro visibile: Rosso | Arancione | Giallo | Verde | Ciano | Blu | Violetto
ckb:‫ کشیت‬mwl:Lhuç
Colore
Il colore è la percezione visiva generata dai
segnali nervosi che i fotorecettori della
retina mandano al cervello quando
assorbono radiazioni elettromagnetiche di
determinate lunghezze d'onda e intensità.
Matite colorate, rappresentano alcuni colori
Percezione del colore
Spettro ottico (progettato per monitor con gamma 1.5).
Colore
7
I colori dello spettro di luce visibile
colore
intervallo di lunghezza
d'onda
intervallo di frequenza
rosso
~ 700–630 nm
~ 430–480 THz
arancione
~ 630–590 nm
~ 480–510 THz
giallo
~ 590–560 nm
~ 510–540 THz
verde
~ 560–490 nm
~ 540–610 THz
blu
~ 490–450 nm
~ 610–670 THz
viola
~ 450–400 nm
~ 670–750 THz
La formazione della percezione del colore avviene in tre fasi:
1. Nella prima fase un gruppo di fotoni (stimolo visivo) arriva all’occhio, attraversa cornea, umore acqueo, pupilla,
cristallino, umore vitreo e raggiunge i fotorecettori della retina (bastoncelli e coni), dai quali viene assorbito.
Come risultato dell’assorbimento, i fotorecettori generano (in un processo detto trasduzione) tre segnali nervosi,
che sono segnali elettrici in modulazione di ampiezza.
2. La seconda fase avviene ancora a livello retinico e consiste nella elaborazione e compressione dei tre segnali
nervosi, e termina con la creazione dei segnali opponenti, segnali elettrici in modulazione di frequenza, e la loro
trasmissione al cervello lungo il nervo ottico.
3. La terza fase consiste nell’interpretazione dei segnali opponenti da parte del cervello e nella percezione del
colore.
Prima fase
Nella prima fase una sorgente luminosa emette un flusso di fotoni di diversa frequenza. Questo flusso di fotoni può:
1. arrivare direttamente all'occhio:
2. essere riflesso da un corpo che ne assorbe alcuni e ne riflette altri:
3. essere trasmesso da un corpo trasparente che ne assorbe alcuni e riflette altri.
In ogni caso i fotoni che giungono all'occhio costituiscono lo stimolo di colore. Ogni singolo fotone attraversa la
cornea, l'umore acqueo, la pupilla, il cristallino, l'umore vitreo e raggiunge uno dei fotorecettori della retina (un
bastoncello, oppure un cono L, un cono M o un cono S) dal quale può essere o non essere assorbito. La probabilità
che un tipo di fotorecettore assorba un fotone dipende dal tipo di fotorecettore e dalla frequenza del fotone.
Come risultato dell'assorbimento ogni fotorecettore genera un segnale elettrico in modulazione di ampiezza,
proporzionale al numeri di fotoni assorbiti. Gli esperimenti mostrano che i segnali generati dai tre coni L, M e S sono
direttamente collegati con la sensazione di colore, e sono detti segnali di tristimolo.
Colore
Seconda fase
Nella seconda fase i segnali di tristimolo vengono elaborati e compressi con modalità non ancora completamente
note. Questa elaborazione avviene nella altre cellule della retina (cellule orizzontali, bipolari e gangliari) e termina
con la generazione di altri tre segnali elettrici, questa volta in modulazione di frequenza, che sono chiamati segnali
opponenti e vengono trasmessi al cervello lungo il nervo ottico.
Terza fase
I segnali chimici opponenti che lungo i due nervi ottici (che sono costituiti dagli assoni delle cellule gangliari)
raggiungono il cervello arrivano nei cosiddetti corpi genicolati laterali, che costituiscono una stazione intermedia per
i segnali, che da qui vengono proiettati in apposite aree della corteccia visiva, dove nasce la percezione del colore.
Terminologia del Colore
Berlin e Kay studiarono il numero di nomi
dedicati ai colori nelle diverse culture
stabilendo che si può passare da un minimo
di 2, chiaro e scuro ad un massimo di 11.
Dimostrarono inoltre che man mano che si
procede con la definizione di più colori lo
sviluppo è omogeneo in tutte le culture, ad
esempio dopo il chiaro e lo scuro si indica
come colore il rosso, poi il verde e il giallo e
così via fino a giungere all'arancione che è il
colore definito in meno culture. La teoria dei
due antropologi era che il numero di colori
dipendesse dalla complessità della cultura,
ma questa teoria venne criticata in quanto
essi non consideravano che alla percezioni
Variopinto mercato a Karachi.
colore erano legate delle sensazioni emotive
e quindi la percezione del colore è legata alla cultura stessa. Al termine si lega quindi una connotazione, un alone di
significati a seconda del contesto. Inoltre alcuni colori non vengono definiti se non associandoli al colore di un
elemento naturale (es. "verde" diviene "foglia") così come accade quando noi definiamo un rosso come "ruggine".
Nella cultura orientale "i colori sono inebrianti, magnifici; ma le forme sono meschine e brutte, volutamente
meschine e brutte, e cattive". La cultura occidentale precristiana era invece molto attenta alla forma e all'uso, ma
poverissima di colore: in greco antico e in latino le poche parole che definiscono un colore si riferiscono in realtà al
suo grado di opacità, oppure sono associate a un elemento naturale. Addirittura, le sculture e le pitture erano
compiute con colori eccessivamente sgargianti ai nostri occhi, ma sotto-percepiti come normali dagli antichi greci.
Solo con l'avvento del vangelo avviene l'integrazione della forma e del colore; tuttavia, vi sono zone, quali l'Europa
settentrionale, in cui il cristianesimo si diffonde solo in forma idealistica, che mantengono perciò un forte squilibrio a
favore della forma, determinato dal substrato germanico.
8
Colore
9
Contrasti cromatici
I contrasti cromatici si producono tramite l'accostamento di due o più colori diversi tra loro.
Contrasto tra colori puri
Il contrasto tra colori puri si produce tramite l'accostamento di Colori primari.
Contrasto tra colori complementari
Il contrasto tra colori complementari si ottiene tramite l'accostamento di un colore primario e del colore risultante
dall'unione degli altri due primari rimasti, tali contrasti sono: giallo-viola, rosso-verde, blu-arancione.
Contrasto di quantità
Ogni tinta presenta un diverso grado di luminosità, per cui se vogliamo creare un equilibrio percettivo è necessario
stendere in modo molto proporzionale le varie zone di colore, ad esempio un colore molto luminoso dovrà occupare
un'area minore rispetto a un colore con un minore grado di luminosità.
Studio del colore
Da quanto sopra si evince che lo studio del colore riguarda più discipline:
• la fisica, in particolare l'ottica per tutto ciò che avviene all'esterno del sistema visivo
• la fisiologia, per quanto riguarda il funzionamento dell'occhio e la generazione, elaborazione, codifica e
trasmissione dei segnali nervosi dalla retina al cervello
• la psicologia per quanto riguarda l'interpretazione dei segnali nervosi e la percezione del colore. Se ne interessò in
particolare Kristian Birch-Reichenwald Aars filosofo e psicologo nervegese.
ma coinvolge anche:
• la psicofisica che studia la relazione tra lo stimolo e la risposta del sistema visivo (la colorimetria è una parte della
psicofisica)
• la matematica necessaria per lo sviluppo di modelli rappresentativi della visione del colore
Voci correlate
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Associazione Internazionale del Colore
Basic design
Colori primari
Colorimetria
→ CMYK
Cromoforo
Cromoterapia
Lista dei colori
→ Luce
Mescolanza additiva
Mescolanza sottrattiva
Metamerismo
Pantone
Rappresentazione dei colori
• Sistema NCS
• → Spazio dei colori
Colore
10
• Stimolo di colore
Bibliografia
• G. Wyszecki, W.S. Stiles: Color Science: Concepts and Methods, Quantitative Data and Formulae Wiley 1982
(II ed.)
• C. Oleari (a cura di): Misurare il colore Hoepli 1998
• R.W.G. Hunt: "Measuring Color" Fountain Press 1998 (III ed.)
• G.A. Agoston: Color Theory and Its Application in Art and Design Springer 1987 (II ed.)
• D.B. Judd, G. Wyszecki: Color in Business, Science, and Industry Wiley 1975 (III ed.)
• M.D. Fairchild: Color Appearance Models Addison Wesley 1998
• CIE: International Lighting Vocabulary 1970 (III ed.)
• J.W. von Goethe: ''"La teoria dei colori. Lineamenti di una teoria dei colori", a cura di Renato Troncon, Il
Saggiatore 1981
Altri progetti
•
•
Wikimedia Commons contiene file multimediali su colore
Wikizionario contiene la voce di dizionario «colore»
•
Wikiquote contiene citazioni sul colore
Collegamenti esterni
• La psicologia dei colori [1]
• Un dizionario dei sinonimi dei colori [2]
• I principali schemi di colori [3]
Note
[1] http:/ / www. lucacoladarci. it/ colori. htm
[2] http:/ / www. communities. hp. com/ online/ blogs/ mostly_color/ archive/ 2008/ 07/ 30/ un-dizionario-dei-sinonimi-dei-colori. aspx
[3] http:/ / computer-acquisti. com/ blog/ gli-schemi-di-colori-cosa-sono-e-come-usarli/
Spazio dei colori
Spazio dei colori
Uno spazio dei colori è la combinazione di un modello di colore e di
una appropriata funzione di mappatura di questo modello.
Un modello di colore, infatti, è un modello matematico astratto che
descrive un modo per rappresentare i colori come combinazioni di
numeri, tipicamente come tre o quattro valori detti componenti colore.
Tuttavia questo modello è una rappresentazione astratta, per questo viene perfezionato da specifiche regole adatte
all'utilizzo che se ne andrà a fare, creando uno spazio dei colori.
Così, ad esempio, spazi di colore come Adobe RGB e sRGB sono diversi, pur basandosi entrambi sullo stesso
modello di colore → RGB.
Lo spazio dei colori dell'Osservatore standard
Nel 1931 la Commission Internationale de l'Eclairage (Commissione Internazionale per l'Illuminazione) definì uno
spazio di colore che comprendeva tutte le tinte visibili dall'occhio umano, a prescindere dalla luminanza. Infatti
qualunque colore all'interno di questo spazio bidimensionale può avere una luminanza che varia dal bianco al nero e
se si tiene conto anche di questo fattore (la luminanza) lo spazio così definito diviene tridimensionale e rappresentato
mediante coordinate XYZ. Il modello CIE 1931 si basa, come altre codifiche note, sull'utilizzo di tre → colori
primari che, opportunamente miscelati tra loro in sintesi additiva, permettevano di ottenere tutti i colori che l'occhio
umano può percepire. La commissione CIE ha comunque definito diversi modelli matematici di percezione del
colore indicati come spazi di colore e rappresentati da sigle come XYZ (è il modello CIE 1931), xyY, Lab, Luv.
A differenza, però, dei metodi → RGB o → CMYK (usati rispettivamente in sintesi additiva e in sottrattiva), il
diagramma di cromaticità proposto dalla CIE non dipendeva dal comportamento di questo o quel dispositivo di
visualizzazione o stampa in quanto basato sul concetto di Osservatore Standard.
Quest'ultimo è definito a partire dalle proprietà del sistema visivo dell'uomo e si basa su analisi sistematiche
effettuate su un vasto campione di osservatori umani. E in base a numerosi studi effettuati nel primo dopoguerra fu
notata l'impossibilità di riuscire a riprodurre per sintesi additiva tutti i colori comunque si scegliesse la terna di
primari reali da miscelare.
Poiché può rappresentare tutte le tinte percepibili, lo spazio di colore del CIE è preso come riferimento per tutti gli
altri, tuttavia nella pratica non viene molto usato a causa della sua complessità.
11
Spazio dei colori
Primari immaginari
Solo aggiungendo un colore primario alla tinta da codificare era
possibile individuare una terna cromatica che la riproducesse
fedelmente: fu ipotizzato così che la risposta dei fotorecettori retinici
umani (i coni) avesse un andamento negativo per alcune frequenze
dello spettro visibile.
I primari scelti dalla CIE per generare tutti i colori visibili sono tinte
ipersature: colori (in realtà, non essendo visibili, non dovrebbero essere
indicati come tali) più saturi di quanto i nostri fotorecettori retinici
siano in grado di decifrare.
I tre "primari immaginari", con notevole sforzo di fantasia, sono stati
denominati X, Y, e Z. X corrisponde a un rosso violaceo ipersaturo
Esempio di uno spazio dei colori
contraddistinto da due picchi nello spettro cromatico rispettivamente
intorno ai 450 nm e ai 600 nm (quest'ultimo molto superiore al primo),
Y e Z corrispondono a tinte spettrali - sempre irrealisticamente ipersature - con lunghezza d'onda dominante
rispettivamente di 520 e 477 nanometri.
Inoltre la tinta Y (quella corrispondente al "verde ipersaturo") ha un andamento proporzionale alla nostra sensibilità
alla luminosità delle tinte. Scelti i tre primari tramite i quali è possibile ottenere, per sintesi additiva, qualsiasi tinta
reale è possibile a questo punto utilizzare uno spazio tridimensionale, avente per assi i tre primari utilizzati, per
catalogarle tutte.
Per non ricorrere ad un diagramma tridimensionale è possibile normalizzare le tinte facendo in modo che la loro
somma sia sempre pari ad uno. Se X, Y, e Z sono i tre valori che identificano un colore, X+Y+Z la loro somma, e noi
poniamo:
x = X/(X+Y+Z)
y = Y/(X+Y+Z)
z = Z/(X+Y+Z)
risulta, con semplici passaggi algebrici e stando attenti a minuscole e maiuscole, che x+y+z è sempre uguale ad 1 per
qualsiasi valore originario di X, Y e Z. Da questo si ricava tra l'altro che:
z = 1-x-y
ed è dunque possibile utilizzare due sole coordinate cromatiche (x e y, ad esempio) per identificare un colore essendo
la terza (z, in questo caso) ricavabile sottraendo all'unità le altre due. Il vantaggio è evidente: normalizzando i colori
col meccanismo della somma costante (uguale a 1) è possibile utilizzare un grafico bidimensionale per catalogare
qualitativamente (e non quantitativamente) tutte le tinte reali.
Ovvero si tracciano tutti i colori possibili ed immaginabili la cui intensità totale è costante e pari ad uno: tutte le altre
tinte sono ottenute semplicemente indicando, oltre ai valori x e y (il valore z si ottiene, come detto, dagli altri due) il
suo grado di luminosità espresso, volendo, in forma percentuale.
12
Spazio dei colori
Colori reali e irreali
Tutti i colori (reali e irreali) generabili
con i primari x e y giacciono su un
triangolo rettangolo avente come
vertici l'origine (0,0) il punto massimo
di x e minimo di y (1,0) e il punto
massimo di y e minimo di x (0,1).
All'interno
di
questo
triangolo
rettangolo è tracciato il diagramma
CIE dei colori reali: una campana che
racchiude tutte le tinte possibili. Al di
fuori della campana (ma sempre
all'interno del triangolo) ci sono tutti i
colori non visibili o non distinguibili
da quelli presenti lungo il perimetro
esterno. Il diagramma CIE gode,
proprio per il modo in cui è stato
generato,
di
alcune
importanti
caratteristiche che andiamo ora ad
illustrare maggiormente in dettaglio.
Più o meno al centro del diagramma
Lo spazio dei colori CIE 1931
CIE è presente un punto (un colore),
come si vedrà tra breve, di importanza strategica, indicato con la lettera "C". È il cosiddetto "Illuminante CIE",
assunto come riferimento e corrispondente alla radiazione emessa da una superficie bianca illuminata da luce diurna
media. Lungo il perimetro curvo della campana si trovano tutte le tinte spettrali alla loro massima saturazione. Nella
parte alta del diagramma vivono le famiglie dei verdi; in basso a sinistra i blu, in basso a destra i rossi.
Sul segmento rettilineo che congiunge i due vertici inferiori della campana si trovano i colori non spettrali (o
porpore) alla loro massima saturazione. Tutti i colori non spettrali, dalla saturazione via via decrescente, sono situati
nel triangolo delimitato in basso dal segmento delle porpore e avente come vertice il punto C.
Colori spettrali
Lo stesso vale per i colori spettrali, situati nella rimanente parte del diagramma: man mano che ci si avvicina
all'illuminante C i colori sono sempre meno saturi. Per come è costruito il diagramma, prendendo due tinte qualsiasi,
il segmento che le unisce rappresenta tutte le possibili mescolanze additive dei due colori prescelti. Non solo: la
posizione relativa lungo il segmento di congiunzione rappresenta la percentuale di mescolanza delle tinte.
Così nel baricentro del segmento è possibile trovare la tinta esattamente formata dal 50% del primo colore e dal 50%
del secondo colore. Spostandosi ad esempio ai "tre quarti" del segmento, la tinta individuata corrisponde alla somma
del 75% del primo colore e del 25% del secondo colore e così via.
Lo stesso discorso vale per la sintesi additiva di tre o più componenti cromatiche: le tinte ottenibili dalla loro
mescolanza sono tutte quelle delimitate dal poligono convesso che ha come vertici i punti del diagramma che
corrispondono ai colori utilizzati. Tornando al caso di due sole tinte, se il segmento che le unisce passa per il punto C
i colori presi in considerazione sono tra loro complementari. Se il punto C "cade" nel baricentro del segmento, le due
tinte hanno la medesima saturazione (è uguale la loro distanza dall'illuminante CIE) e sommandole tra di loro si
ottiene il colore bianco.
13
Spazio dei colori
Mescolanze sottrattive
Il diagramma di cromaticità CIE può essere utilizzato, prendendo le dovute precauzioni, anche per le mescolanze
sottrattive (come avviene per la stampa). I colori ottenuti dalla mescolanza sottrattiva di due tinte non giacciono sul
segmento rettilineo che li unisce ma lungo un segmento curvilineo del quale non è nota a priori la forma esatta. Per
tracciare la curva (il luogo dei punti corrispondenti ai colori ottenibili dalla sintesi sottrattiva dei due colori) è
necessario "campionare" alcune mescolanze tipiche (ad esempio 10%-90%, 20%-80%, 30%-70%, ecc. ecc.) ed
interpolare così l'andamento complessivo.
Da segnalare due cose interessanti. Innanzitutto, proprio per la forma a campana di quest'ultimo, comunque
scegliamo i tre primari all'interno dei colori reali non riusciremo mai a riprodurre con essi tutte le tinte ma ne
escluderemo sempre una certa quantità. Dunque si può dire che non esistono monitor RGB in grado di riprodurre
tutto il riproducibile o scanner a colori altrettanto sensibili. La seconda considerazione riguarda lo spazio cromatico
della stampa a colori, ridotto rispetto allo spazio RGB ma leggermente più accurato per quel che riguarda la stampa
delle tinte azzurro ciano.
Se un colore appartiene al perimetro esterno è, come già detto, al suo massimo grado di purezza, se cade all'interno
del diagramma ha come saturazione la distanza relativa la tinta e il punto C, misurata lungo il segmento passante per
il colore e congiungente il bianco col bordo esterno. Il punto in cui il prolungamento del segmento incontra il
perimetro identifica la lunghezza d'onda dominante della tinta considerata.
Altri spazi di colore
• Basati sul modello → RGB:
• Adobe RGB
• sRGB
• ISO RGB e Extended ISO RGB
• Apple RGB
• Studiati per la televisione
• Y'UV, utilizzato per PAL e recentemente per NTSC
• YIQ, storicamente utilizzato per NTSC
• YDbDr, utilizzato per il SECAM
• Studiato per la stampa
• → CMYK
• HSV
• HSL
Voci correlate
• ColorSync
• Colorimetria
14
Temperatura di colore
Temperatura di colore
Temperatura di → colore è un termine usato in illuminotecnica per quantificare la tonalità della → luce, che si
misura in kelvin.
Definizione
Il termine deriva dal fatto che lo spettro luminoso emesso da un corpo nero presenta un picco di emissione
determinato in base alla legge di Wien esclusivamente dalla sua temperatura. Una sorgente reale differisce da un
corpo nero ideale ma l'analogia rimane valida.
Una temperatura bassa (sempre però nell'incandescenza, intorno ai 2000 K) corrisponde ad un colore giallo-arancio.
Scendendo si passa al rosso ed all'infrarosso, non più visibile, mentre salendo di temperatura la luce si fa dapprima
più bianca, quindi azzurra, violetta ed ultravioletta. Quando comunemente si dice che una luce è calda, in realtà
questa corrisponde ad una temperatura di colore bassa, viceversa un temperatura maggiore produce una luce definita
comunemente fredda.
Si noti che ha senso parlare di temperatura di colore solo se la sorgente di luce emette uno spettro di energia
continuo. Questo non si verifica però per tutte le sorgenti luminose.
Determinazione
Un corpo solido riscaldato all'incandescenza emette prevalentemente nella gamma della luce visibile, ma la
lunghezza d'onda del picco di emissione varia al variare della temperatura. Nelle normali lampade ad incandescenza
la lunghezza d'onda è spostata verso valori maggiori e la luce prodotta, intorno ad un valore di 2800 K presenta una
componente gialla. Nelle lampade alogene si riesce ad aumentare la temperatura del filamento ottenendo una luce
più bianca, intorno ad un valore di 3200 K.
Nelle lampade a scarica il colore è determinato dallo spettro di emissione del gas alla pressione a cui si trova. Nelle
lampade fluorescenti , che sono anch'esse lampade a scarica ma che producono luce attraverso un procedimento
elettrochimico diverso, dove cioè la vera e propria scarica elettrica provoca l'eccitazione, e perciò la luminescenza,
delle polveri fluorescenti depositate uniformemente all'interno della lampada stessa, la tonalità della luce dipende
dalla scelta del materiale fluorescente utilizzato (per questo si possono avere lampade a fluorescenza di colori
differenti. Si noti che il fenomeno della fluorescenza differisce da quello della fosforescenza, in quanto nel primo
caso, al cessare dell'eccitazione causante la luminescenza, l'emissione di luce è pressoché istantanea, nel secondo
caso può durare a lungo. Ricordiamo, inoltre, che le lampade appartenenti alla categoria delle fluorescenti non ha
nulla a che fare con le lampade al neon, usate in prevalenza per le insegne commerciali .
Spesso sono riportate le temperature di → colore del bianco dei monitor per PC, siano essi di tipo CRT, LCD o al
plasma, ma questa temperatura, in realtà, non avrebbe senso, in quanto tale bianco è prodotto per metamerismo dalla
somma dei colori fondamentali (Red, Green e Blue) prodotti dai diversi fosfori.
15
Temperatura di colore
16
Esempi
Qui di seguito sono riportate le temperature di colore di alcune sorgenti di luce comuni:
•
•
•
•
•
Luce solare a mezzogiorno: 5 400 K
Luce del cielo: da 10 000 a 18 000 K
Lampada Photoflood da 500 W per uso fotografico: 3 400 K
Lampada da 100 W per uso generale: 2 900 K
Lampada da 40 W per uso generale: 2 650 K
Voci correlate
• Metamerismo
RGB
RGB è il nome di un modello di colori le cui specifiche sono state descritte
nel 1931 dalla CIE (Commission internationale de l'éclairage). Tale modello
di colori è di tipo additivo e si basa sui tre colori rosso (Red), verde (Green) e
blu (Blue), da cui appunto il nome RGB, da non confondere con i colori
primari sottrattivi giallo, ciano e magenta (popolarmente chiamati anche
giallo, rosso e blu). Un'immagine può infatti essere scomposta, attraverso
filtri o altre tecniche, in questi colori base che, miscelati tra loro, danno quasi
tutto lo spettro dei colori visibili, con l'eccezione delle porpore.
Più specificamente i 3 colori principali corrispondo a forme d'onda
(radiazioni luminose) di periodo fissato. A una lunghezza d'onda di 700 nm
corrisponde il rosso, a 546.1 nm il verde, a 455.8 nm il blu.
Miscelazione additiva
L'RGB è un modello additivo: unendo i tre colori con la loro intensità massima si ottiene il bianco (tutta la luce viene
riflessa). La combinazione delle coppie di colori dà il cìano, il magenta e il giallo.
Per poter trasferire un'immagine video
è necessario inviare anche un segnale
di sincronismo che fornisca le
informazioni
su
quando
inizia
un'immagine (sincronismo verticale)
Tricromia additiva RGB di un'immagine reale
e su quando inizia una riga
dell'immagine
(sincronismo
orizzontale). Questi due sincronismi possono essere combinati in un unico sincronismo (sincronismo composito)
RGB
17
Principi fisici per la scelta del rosso, verde e blu
La scelta dei colori primari è correlata alla fisiologia dell'occhio umano; buoni primari sono stimoli che
massimizzano la differenza tra le risposte delle cellule cono della retina alle differenze di lunghezza d'onda della
luce, cioè hanno un triangolo di colore esteso.[1]
I tre tipi normali di cellule fotorecettive sensibili alla luce nell'occhio umano (le cellule cono) rispondono più alla
luce gialla (lunghezza d'onda lunga), verde (media), e viola (corta), con picchi vicini ai 570 nm, 540 nm e 440 nm,
rispettivamente[1] . La differenza nei segnali ricevuti dai tre tipi permette al cervello di differenziare un largo gamut
di colori diversi, essendo più sensibile soprattutto alla luce verde-giallognola e alle differenze di tonalità nella
regione verde-arancione.
L'uso dei tre colori primari non è sufficiente a riprodurre tutti i colori; solo i colori entro il triangolo dei colori
definito dalla cromaticità dei primari può essere riprodotto tramite sintesi additiva di quantità non negative di tali
colori.[1]
RGsB
Quando su un'interfaccia video si trasmette il colore RGB con tre canali solamente il sincronismo composito viene
posto sul verde (G). Questa modalità si chiama RGsB.
RGBS
Quando su un'interfaccia video si trasmette il colore RGB con quattro canali, il quarto è utilizzato per il sincronismo
composito. Questa modalità si chiama RGBS utilizzata ad esempio su un'interfaccia SCART.
RGBHV
Quando su un'interfaccia video si trasmette il colore RGB con cinque canali, il quarto è utilizzato per il sincronismo
orizzontale (H) e il quinto per il sincronismo verticale (V). Questa modalità si chiama RGBHV utilizzata ad esempio
su un'interfaccia Video Graphics Array o → Digital Visual Interface.
Voci correlate
•
•
•
•
•
•
Colorimetria
→ CMYK
Sintesi additiva
Sintesi sottrattiva
YUV
RGBA
RGB
18
Collegamenti esterni
• [2] (pagina che consente di sperimentare l'effetto della sovrapposizione dei colori base, visualizzando l'effetto
della sintesi additiva e della sintesi sottrattiva)
Note
[1] R. W. G. Hunt, The Reproduction of Colour, 6th ed., Chichester UK, Wiley – IS&T Series in Imaging Science and Technology, 2004. ISBN
0-470-02425-9
[2] http:/ / ww2. unime. it/ dipart/ i_fismed/ wbt/ ita/ colors/ colors_ita. htm
CMYK
CMYK è l'acronimo per Cyan, Magenta, Yellow, BlacK; è
un modello di colore detto anche di quattricromia o
quadricromia. La scelta della lettera K per il nero, anziché
la lettera B iniziale nella traduzione inglese, è stata fatta per
evitare confusioni con l'iniziale del colore Blue ed è dovuta al
fatto che, nella stampa, si usa un procedimento di separazione
dei colori per produrre tante diverse immagini quanti sono gli
inchiostri usati. Nella quadricromia CMYK l'immagine
corrispondente al nero è quella che contiene più dettagli e la
lastra di stampa corrispondente è quindi normalmente
considerata la lastra chiave, in inglese key plate. Da qui l'uso
di K, con riferimento a tale lastra, per indicare il nero.
Quadricromia CMYK
CMYK
19
I colori ottenibili con la quadricromia (sintesi sottrattiva) sono un
sottoinsieme della gamma visibile, quindi non tutti i colori che
vediamo possono essere realizzati con la quadricromia, così come
non tutti i colori realizzati con l'insieme → RGB (RED GREEN
BLUE) cioè quelli che vediamo sui nostri monitor (sintesi
additiva) hanno un corrispondente nell'insieme CMYK.
Quando sono sovrapposti nelle diverse percentuali, i primi tre
possono dare origine quasi a qualunque altro → colore. Il 100% di
tutte e tre le componenti (CMYK 100,100,100,0) non genera
solitamente il nero, bensì il bistro, colore simile a una tonalità di
marrone molto scura, tuttavia alcune stampanti inkjet fotografiche
(es.: Hp Photosmart) lavorano esclusivamente in tricromia (Cyan,
Magenta, Giallo) anche per l'ottenimento del nero. Perciò nei
Miscelazione sottrattiva
processi di stampa si è aggiunto l'inchiostro di un quarto colore per
avere il nero pieno (CMYK 0,0,0,100) risparmiando sulle componenti degli altri tre inchiostri (v. Gray Component
Replacement (GCR) e Under Color Removal (UCR))
Voci correlate
•
•
•
•
•
•
Colorimetria
→ RGB
Sintesi additiva
Sintesi sottrattiva
Oleografia
Stampa offset
Hue Saturation Brightness
20
Hue Saturation Brightness
HSB, è l'acronimo di Hue Saturation Brightness (tonalità,
saturazione e luminosità) e indica sia un metodo additivo di
composizione dei → colori che un modo per rappresentarli in un
sistema digitale. Viene anche chiamato HSV, Hue Saturation
Value (tonalità, saturazione e valore), o HSI, Hue Saturation
Intensity (tonalità, saturazione ed intesità).
Per saturazione si intende l'intensità e la purezza del colore, mentre
la luminosità (valore) è un'indicazione della sua brillantezza.
Ovviamente la tonalità indica il colore stesso.
Il modello HSB è particolarmente orientato alla prospettiva
umana, essendo basato sulla percezione che si ha di un colore in
termini di tinta, sfumatura e tono. Il sistema di coordinate è
cilindrico e il modello HSB è definito come un cono distorto
all'interno del cilindro.
La tonalità H viene misurata da un angolo intorno all'asse
verticale, con il rosso a 0 gradi, il verde a 120 e il blu a 240.
L'altezza del cono rappresenta la luminosità (B) con lo zero che
rappresenta il nero e l'uno il bianco. La saturazione (S) invece va
da zero, sull'asse del cono, a uno sulla superficie del cono.
Descrizione grafica dello spazio colore HSV.
Voci correlate
•
•
•
•
Hue Saturation Lightness
saturazione
tonalità
luminosità
HSL visto come un doppio cono.
Collegamenti esterni
• Implementazione in C dell'algoritmo per convertire i colori da HSV a RGB e viceversa. [1]
Note
[1] http:/ / mamo139. altervista. org/ index. php?tipo=c& id=0
21
Grafica Digitale
Grafica raster
La grafica bitmap, o grafica raster (in inglese bitmap graphics,
raster graphics), è una tecnica utilizzata in computer grafica per
descrivere un'→ immagine. Un'immagine descritta con questo tipo di
grafica è chiamata immagine bitmap o immagine raster.
La grafica bitmap si contrappone alla grafica vettoriale.
Significato del termine
Il termine raster (= trama, reticolo, griglia) trae origine dalla
tecnologia televisiva analogica, ovvero dal termine che indica le righe
orizzontali (dette anche scan line) dei televisori o dei monitor[1]). In
computer grafica, indica la griglia ortogonale di punti che costituisce
un'immagine raster. Nella → grafica raster l'immagine viene vista
come una scacchiera e ad ogni elemento della scacchiera, chiamato →
pixel, viene associato uno specifico colore. Il colore può essere definito con due tecniche:
• se l'immagine contiene pochi colori (massimo 256) si crea un elenco dei colori da utilizzare e nella scacchiera
viene inserito l'indice che punta allo specifico colore del pixel;
• nel caso si vogliano utilizzare molti più colori il singolo pixel non definisce più l'indice a una tavolozza di colori
ma definisce il colore direttamente.
Il colore viene definito come un'unione delle componenti blu, rossa e verde. Questo non è l'unico modo di definire
un colore, esistono molti modi che vengono chiamati → spazi di colore ma nel caso delle immagini generate al
computer il sistema → RGB (RED Rosso, GREEN verde BLUE Blu) è il più diffuso dato che le schede grafiche lo
utilizzano nativamente per generare il segnale da visualizzare con il monitor.
Proprietà della grafica raster
La bitmap è caratterizzata da due proprietà:
• risoluzione;
• profondità di colore.
La prima è determinata dal numero di pixel contenuti nell'unità di misura considerata (in genere il pollice inglese,
che misura 2,54 cm) ed è ottenuta moltiplicando il numero di pixel orizzontali per quello dei pixel verticali; si misura
in PPI (Points Per Inch). La seconda è definita dalla memoria che si dedica ad ogni pixel, ovvero dal numero di bit
dedicati ad ogni pixel per descrivere il colore, e si misura in BPP (Bit Per Pixel); maggiore è il numero di bit,
maggiore è il numero di colori che è possibile descrivere.
La grafica bitmap non è vantaggiosa se l'utente necessita di apportare modifiche all'immagine, perché nel caso ad
esempio di uno zoom, la risoluzione diventa bassissima e quindi la qualità dell'immagine peggiora notevolmente. I
software grafici, per ridurre il problema, sono in grado di ripristinare la risoluzione inserendo nuovi pixel che
vengono calcolati facendo una interpolazione di punti, il processo inserisce, perciò, deliberatamente una quantità di
informazioni presunte.
Grafica raster
La grafica bitmap è invece ideale per rappresentare immagini della realtà, per modificare contrasti e luminosità di
queste, per applicare filtri di colore.
Formati di immagini raster
I dati raster possono essere memorizzati attraverso tipologie di file che sfruttando algoritmi di compressione diversi,
gravando in modo differente sul supporto di memorizzazione. I formati raster più comuni sono i seguenti:
Non compressi
Questi formati di file hanno richieste di elaborazione minima, non essendo necessari algoritmi di compressione (in
fase di scrittura) e decompressione (in fase di lettura), tuttavia, mancando di compressione, risultano particolarmente
voluminosi, in termini di spazio occupato su disco (o altro dispositivo di memorizzazione), rispetto agli altri formati:
• raw
• bmp (in alcuni casi i file bmp sono compressi con un algoritmo RLE)
Con compressione lossless
Le immagini salvate con un algoritmo di → compressione dati lossless occupano meno spazio nei dispositivi di
memorizzazione, mantenendo inalterata tutta l'informazione originale:
•
•
•
•
→ png (certe applicazioni permettono anche la scrittura di file png non compressi)
tga
tiff (sebbene questo sia l'uso più comune, questo formato permette diversi tipi di compressione)
gif (per immagini fino a 256 colori)
Con compressione lossy
Le immagini memorizzate con un algoritmo di compressione → lossy, subiscono una perdita di informazione;
pertanto questa tecnica non è adatta per salvare le immagini che vengono rielaborate coi programmi di fotoritocco
(le continue modifiche comporterebbero un progressivo degrado dell'immagine ad ogni salvataggio e riapertura);
invece, in virtù delle ridotte dimensioni del file, sono particolarmente indicate per la trasmissione di immagini o per
ridurre le dimensioni di un'applicazione o di un prodotto da distribuire.
• → jpeg
• gif (per immagini con più di 256 colori si ottiene una compressione lossy poiché vengono eliminate la maggior
parte delle sfumature di colore)
Altre applicazioni
Nel campo dei Sistemi informativi territoriali o GIS, il termine raster è usato per indicare la tipologia di dato
impiegata nella rappresentazione cartografica digitale. Con i dati raster il territorio viene riprodotto attraverso una
matrice di pixel di forma quadrata o rettangolare. A ciascun pixel è associato un attributo che definisce le
caratteristiche dell'elemento rappresentato. Ad esempio in un modello digitale di elevazione a ciascun pixel è
associato il valore della quota sul livello del mare in quel punto. La dimensione dei pixel è inversamente
proporzionale alla precisione della carta. I dati raster possono essere implementati in un sistema GIS mediante
acquisizione diretta con apparecchiature a lettura ottica quali ad esempio scanner d'immagini o attraverso
l'elaborazione di dati, raster o vettoriali, già acquisiti.
22
Grafica raster
23
Voci correlate
• Grafica vettoriale
• → Immagine digitale
• Rasterizzazione
Note
[1] http:/ / www. answers. com/ topic/ raster
Pixel
In computer grafica, con il termine pixel (contrazione della locuzione
inglese picture element) si indica ciascuno degli elementi puntiformi
che compongono la rappresentazione di una → immagine raster nella
memoria di un computer.
Solitamente i punti sono così piccoli e numerosi da non essere
distinguibili ad occhio nudo, apparendo fusi in un'unica immagine
quando vengono stampati su carta o visualizzati su un monitor.
Ciascun pixel, che rappresenta il più piccolo elemento autonomo
dell'immagine, è caratterizzato dalla propria posizione e da valori quali
→ colore e intensità, variabili in funzione del sistema di
rappresentazione adottato.
Ingrandimento di una versione precedente del
logo di Wikipedia in cui sono evidenti i pixel che
compongono l'immagine
L'esempio qui a destra mostra un logo in grafica raster ingrandito in modo da evidenziare i singoli pixel. Si noti che
in questo caso l'illusione di una immagine uniforme è resa più realistica mediante l'uso di sfumature di grigio sul
bordo dei caratteri, evitando bruschi passaggi di colore (tale processo è detto di antialiasing).
Aspetti tecnici
Il numero di pixel in un'immagine (talvolta impropriamente detto "risoluzione" dell'immagine) determina la quantità
di dettagli fini che possono essere rappresentati. Sebbene il concetto di pixel si applichi in tutti i contesti con il
medesimo significato, per l'indicazione del numero di pixel da cui è costituita una immagine sono in uso diverse
convenzioni per diverse tecnologie specifiche. Per esempio, il numero di pixel di cui è costituita l'immagine prodotta
da una fotocamera digitale viene espresso come un singolo valore, in megapixel (milioni di pixel), mentre il numero
di pixel di un display viene in genere espresso come un prodotto (pixel in altezza per pixel in larghezza), per esempio
640 × 480.
I punti colorati che formano un'immagine digitale (come una → JPEG) vengono chiamati anch'essi pixel. Possono
non essere in corrispondenza uno-a-uno con i pixel dello schermo. Nei casi in cui questa distinzione è importante, i
punti del file possono essere chiamati texel.
In informatica, un'immagine composta da pixel è conosciuta come immagine bitmap o → immagine raster. La parola
raster trae origine dalla tecnologia della televisione analogica. Le immagini bitmap sono usate per codificare il →
video digitale e per produrre arte generata da computer.
Poiché la → risoluzione del monitor può essere regolata dal sistema operativo del computer, un pixel è una misura
relativa. I moderni schermi per computer sono progettati con una risoluzione nativa, che si riferisce al perfetto
accoppiamento tra pixel e triadi. La risoluzione nativa darà origine all'immagine più netta tra quelle che lo schermo è
in grado di produrre. Comunque, l'utente può aggiustare la risoluzione, il che si ottiene disegnando ogni pixel usando
più di una triade. Questo processo normalmente dà origine a una immagine sfuocata. Ad esempio, uno schermo con
Pixel
risoluzione nativa di 1280×1024 produrrà le migliori immagini se impostato a quella risoluzione, mostrerà la
risoluzione a 800×600 in modo adeguato, disegnando ogni pixel con più di una triade, e non sarà in grado di
mostrare immagini a 1600×1200 a causa della mancanza di un numero sufficiente di triadi.
Normalmente, una risoluzione non nativa viene mostrata meglio su uno schermo CRT che su un LCD.
I pixel possono essere sia quadrati che rettangolari. Un valore chiamato pixel aspect ratio, descrive le proporzioni di
un pixel per la sua corretta visualizzazione. Ad esempio, un pixel aspect ratio di 1,25:1, significa che ogni pixel
dev'essere visualizzato 1,25 volte più largo che alto perché quanto rappresentato sia proporzionato. I pixel sugli
schermi dei computer sono in genere quadrati, ma i pixel utilizzati nel → video digitale hanno forma non quadrata,
come nel D1 aspect ratio.
Ogni pixel di un'immagine monocroma ha la sua luminosità. Un valore pari a zero di norma rappresenta il nero,
mentre il valore massimo rappresenta il bianco. Ad esempio, in un'immagine a otto bit, il massimo valore senza
segno che può essere immagazzinato è 255, così questo è il valore usato per il bianco.
Nelle immagini a colori, ogni pixel ha la sua luminosità e colore, tipicamente rappresentate da una tripletta di
intensità di rosso, verde e blu (vedi → RGB). I monitor a colori usano pixel composti da 3 sotto-pixel. Nelle
immagini in scale di grigio i valori di accensione dei 3 subpixels è sempre uguale (ad esempio R=71, G=71, B=71).
Il numero di colori distinti che possono essere rappresentati da un pixel dipende dal numero di bit per pixel (BPP).
Valori comuni sono:
• 8 bpp (256 colori)
• 16 bpp (65.536 colori, noto come Highcolour)
• 24 bpp (16.777.216 colori, noto come Truecolour).
Immagini composte da 256 colori o meno, vengono normalmente immagazzinate nella memoria video del computer,
in formato chunky o planar, dove un pixel in memoria è l'indice di una lista di colori chiamati palette (tavolozza).
Queste modalità sono quindi chiamate modalità indicizzate. Mentre vengono mostrati solo 256 colori, questi sono
presi da una tavolozza molto più ampia, tipicamente di 16 milioni di colori. Cambiare i valori della tavolozza
permette una specie di effetto animato. Il logo animato di avvio di Windows 95 e Windows 98 è probabilmente il più
noto esempio di questo tipo di animazione.
Per profondità di colore più ampie di 8 bit, il numero è il totale dei tre componenti RGB (rosso, verde e blu). Una
profondità di 16 bit viene di solito divisa in cinque bit di rosso e blu e sei di verde, (il verde ha più bit perché l'occhio
e più sensibile a quel colore). Una profondità di 24 bit permette 8 bit per componente. Su alcuni sistemi è disponibile
una profondità di 32 bit: questo significa che ogni pixel a 24 bit ha 8 bit extra per descrivere l'opacità. Sui sistemi più
vecchi è comune il formato a 4 bpp (16 colori).
Quando un file immagine viene mostrato a → video, il numero di bit per pixel viene espresso separatamente per il
file raster e per lo schermo. Alcuni formati di file raster, hanno una grande profondità in bit rispetto ad altri. Il
formato GIF, ad esempio, ha una profondità massima di 8 bit, mentre il TIFF può gestire pixel a 48-bit. Non ci sono
monitor che possano rappresentare colori a 48 bit, e quindi questa profondità viene di solito usata per applicazioni
professionali specializzate che lavorano con scanner d'immagini o stampanti. Questi file vengono "renderizzati" su
schermo con 24-bit di profondità.
Altri oggetti derivati dal pixel, come i voxel (elementi di volume), i texel (elementi di consistenza) e i surfel
(elementi di superficie), sono stati creati per altri utilizzi della computer grafica.
24
Pixel
Sotto-pixel
Sugli schermi a cristalli liquidi e su quelli a tubo catodico, ogni pixel è costruito da tre sotto-pixel, ognuno per i tre
colori, posti a distanza ravvicinata. Ogni singolo sotto-pixel è illuminato in base a un determinato valore, e a causa
della loro prossimità, creano l'illusione ottica di un singolo pixel di un colore particolare.
Una tecnica recente per aumentare la risoluzione apparente di un monitor a colori, chiamata sub-pixel font rendering,
usa la conoscenza della geometria dei pixel per manipolare separatamente i tre sotto-pixel, il che sembra essere
particolarmente efficace con gli schermi LCD impostati con risoluzione nativa. Questa è una forma di antialiasing, e
viene usata principalmente per migliorare l'aspetto del testo. Il Cleartype di Microsoft, che è disponibile su Windows
XP, ne è un esempio. Un altro esempio è la tecnologia Quartz utilizzata dal Mac OS X per l'interfaccia grafica. In
questo caso l'intera interfaccia grafica utilizza questa tecnologia. Ciò rende l'interfaccia grafica più gradevole ma
rende le singole linee meno definite e questo in alcuni casi può disturbare l'utente.
Megapixel
Un megapixel è 1 milione di pixel, e viene solitamente usato con riferimento alle macchine fotografiche digitali.
Alcune macchine fotografiche digitali usano i CCD, che registrano i livelli di luminosità. Vecchie fotocamere
digitali, che non usano i CCD Foveon X3 [1] hanno filtri colorati rossi, verdi e blu, in modo che ogni pixel possa
registrare la luminosità di un singolo colore primario. Quindi, i pixel delle fotocamere digitali che non usano i CCD
Foveon X3, sono simili a sotto-pixel. La fotocamera interpola l'informazione di colore per creare l'immagine finale.
Quindi, un'immagine a 'x'-megapixel, proveniente da una fotocamera con 1/4 della risoluzione di colore della stessa
immagine acquisita da uno scanner. La risoluzione dei dettagli non ne risente. Quindi, un'immagine di un oggetto blu
o rosso (di solito ci sono più pixel verdi) tenderà ad apparire sfuocata, se confrontata con lo stesso oggetto in toni di
grigio.
È importante sapere che in numero di megapixel non è un diretto indice di qualità delle macchine fotografiche; è
vero che un numero più elevato di pixel permette, in linea teorica, un maggior potere risolutivo, ma questo è spesso
limitato dal sistema ottico utilizzato per convogliare l'immagine sul sensore. Se il potere risolutivo del complesso di
lenti è inferiore al potere risolutivo della matrice di pixel allora non si avrà alcun guadagno nell'aumentare in numero
di pixel, anzi si avrà un peggioramento delle prestazioni del sistema a causa del maggiore rumore elettronico
introdotto.
Gigapixel
Un gigapixel corrisponde a 1 miliardo di pixel, e viene solitamente usato con riferimento alle schede grafiche (Pixel
Fillrate).
Pel
Pel è un termine che viene usato di solito come abbreviazione di pixel, ma può anche riferirsi ai sub-pixels.
Voci correlate
• Dot pitch
• Grafica vettoriale
• Pixel art
25
Pixel
26
Altri progetti
•
Wikizionario contiene la voce di dizionario «pixel»
Note
[1] http:/ / www. foveon. com/ X3_tech. html
Risoluzione (grafica)
La risoluzione indica il grado di qualità di un'immagine. Generalmente si usa questo termine riguardo immagini
digitali, ma anche una qualunque fotografia ha una certa risoluzione.
Nelle immagini su computer, la risoluzione indica la densità dei → pixel, ovvero la quantità dei puntini elementari
che formano l'immagine rapportata ad una dimensione lineare (ad esempio pixel/cm o pixel/pollice). Lo schermo di
un computer non può mostrare linee o disegni, ma soltanto punti; se questi sono sufficientemente piccoli, tali da
essere più piccoli della risoluzione percepita dall'occhio umano, l'osservatore ha l'impressione di vedere linee
anziché punti allineati, e disegni anziché ammassi di puntini distinti.
Misura della risoluzione
La risoluzione, quindi, essendo una misura della densità dei pixel, si misura in punti per unità di lunghezza, di solito
pollici (ppi, pixel per inch o dpi, dot per inch). Per alcuni dispositivi, la densità dei pixel è diversa nelle due
dimensioni, come per gli scansionatori d'immagine, quindi occorre indicare sia la risoluzione orizzontale che quella
verticale. Uno schermo per computer ha valori di risoluzione intorno ai 72 dpi. Le attuali stampanti casalinghe
permettono di stampare immagini con risoluzioni di alcune centinaia di dpi. La risoluzione equivalente di una
normale pellicola fotografica è di 3-4.000 dpi.
Bassa risoluzione
La distinzione tra alta risoluzione e bassa risoluzione ha assunto anche rilevanza giuridica perché la legge 9 gennaio
2008, n. 2, integrando l'articolo 70 della legge n. 633/41 sul diritto d'autore, ha previsto per i siti non lucrativi, la
possibilità di riprodurre immagini per fini didattici o scientifici. Manca tuttavia una più esatta definizione di che cosa
debba intendersi per bassa risoluzione, che evidentemente deve essere ricavata da norme di buona tecnica.
Modifica della risoluzione
La risoluzione con la quale è stata digitalizzata un'immagine si può modificare anche a posteriori con un processo di
interpolazione, ma questo non comporta un miglioramento della qualità dell'immagine stessa; quindi, al momento
dell'acquisizione, occorre prestare attenzione ad avere un'immagine con risoluzione sufficiente per lo scopo
dell'immagine stessa.
Voci correlate
• Telescopio
Risoluzioni standard
Risoluzioni standard
Le risoluzioni standard o modalità
video sono combinazioni di parametri
utilizzate dall'industria elettronica per
definire l'interfaccia video di un
computer. Tali parametri di solito sono
la risoluzione dei display (specificata
dalla larghezza e altezza in → pixel), la
profondità di colore (espressa in bit) e
la velocità di refresh (refresh rate,
espressa in hertz).
Storia
Le risoluzioni standard utilizzate nei
PC in questi anni (fine del XX secolo e
inizi XXI secolo) si sono evolute
moltissimo: si va dai semplici frame
Comparazione delle risoluzioni standard. La colorazione blu, rossa, gialla verde e viola
indica il display aspect ratio (DAR)
buffer dei primi anni, caratterizzati
solo da risoluzione video e refresh rate,
fino ai moderni sistemi dotati di un insieme molto più ampio di comandi e funzioni pilotabili via software.
L'evoluzione dell'informatica e dell'elettronica ha modificato nel tempo l'interfaccia di interazione tra computer ed
operatore. Se fino alla metà negli anni '70, era la normalità l'uso delle schede perforate e di pannelli a spie luminose
per leggere i risultati dei calcoli, divenne poi possibile interagire con gli elaboratori attraverso videoterminali a
carattere. L'evoluzione successiva ha portato alla nascita di numerosi standard grafici che introdussero linee e curve e
successivamente i colori.
La continua evoluzione dell'elettronica e della tecnologia di visualizzazione aumenta sempre più la definizione, la
superficie visualizzabile e le dimensioni stesse degli schermi.
Fino al 2003, la maggior parte dei monitor aveva un Aspect ratio di 4:3 e qualcuno di 5:4. Dal 2003 al 2006 si sono
resi disponibili vari monitor con un rapporto di risoluzione di 16:10, inizialmente sui laptop e successivamente sui
monitor per PC. Questo cambiamento è dovuto sia al fatto che con questo rapporto si vedono meglio film e giochi
ma soprattutto le attività di videoscrittura ne hanno tratto beneficio potendo visualizzare due pagine A4 affiancate,
così come anche il CAD che ha potuto sfruttare lo spazio in più per la visualizzazione dei menù a fianco del disegno
grafico. La Video Electronics Standards Association (VESA) ha definito diversi standard video mentre quelli
ergonomici sono definiti dal TCO.
27
Risoluzioni standard
28
Principali risoluzioni utilizzate in informatica
Nella tabella, qui sotto riportata, troviamo le risoluzioni video più comuni nei PC che si sono evoluti dall'originale
IBM PC, più alcune che sono supportate da altri tipi di computer come ad esempio gli Apple Macintosh. La Video
Electronics Standards Association (VESA) ha curato le specifiche di molti di questi standard.
Tabella delle risoluzioni standard dei display
Standard
Video
Nome completo
Descrizione
risoluzione
del display
(→ pixel)
Aspect
ratio
profondità
del colore
(bpp)
Interfaccia
video
MDA
Monochrome
Display Adapter
Lo standard originale sugli IBM PC e IBM PC XT con
4 KB di video RAM. Introdotto nel 1981 dall'IBM.
Supporta unicamente la modalità testuale.
720×350
(text)
72:35
1 bpp
MDA
CGA
Color Graphics
Adapter
Introdotto nel 1981 by IBM è il primo standard video a 640×200
colori per gli IBM PC. Le schede grafiche CGA erano (128k)
dotate di 16 KB video RAM.
320×200
(64k)
160×200
(32k)
16:5
16:10
4:5
1 bpp
2 bpp
4 bpp
CGA
Una modalità video monocromatica con un'ottima
visualizzazione del testo e della grafica per l'epoca in
cui fu introdotta (1982). Divenne molto popolare
abbinata al software di foglio elettronico Lotus 1-2-3
che è stato una delle prime killer application.
720×348
(250.5k)
60:29
1 bpp
MDA
Introdotta da IBM nel 1984 con una risoluzione di 640
× 350 pixel su 16 colori (4 bit per pixel, o bpp),
selezionabili fra 64 colori di base (palette) (2 bit per
ciascuna componente rossa-verde-blu).
640×350
(224k)
64:35
4 bpp
EGA
Introdotta nel 1984 per il PC-bus ISA a 8 bit, aveva a
bordo un acceleratore hardware 2D e 3D ed era stata
pensata per applicazioni CAD
640×480
(307k)
4:3
8 bpp
PGC
Introdotta nel 1987 per gli IBM Personal System/2
(PS/2) con un costo ridotto rispetta alla VGA. MCGA
ha una risoluzione di 320x200 pixel con 256 color (da
una palette di 262,144 colori, e una risoluzione di
640x480 unicamente in bianco e nero in quanto la
video ram era di soli 64k mentre quella della VGA era
di 256k.
320×200
(64k)
640×480
(307k)
16:10
4:3
8 bpp
1 bpp
VGA
Standard
Modalità video di IBM introdotta nel 1987
praticamente assieme alla VGA. Era caratterizzata
dalla risoluzione 1024x768 (precursore di XGA) ma
aveva un video interlacciato a 43.5 Hz.
1024×768
(786k)
4:3
8 bpp
VGA
Interlacciato
Hercules
EGA
Enhanced
Graphics Adapter
Professional
Graphics
Controller
MCGA
Multi-Color
Graphics Array
8514
VGA
Video Graphics
Array
Introdotta nel 1987 da IBM. Oggi per VGA si intende
la risoluzione 640x480 a 16 colori ma VGA è un
insieme di risoluzioni che comprendono anche
320x200 a 256 colori e 720x400 in modalità testo. I
display VGA e le schede video VGA sono
generalmente in grado di operare in modalità grafica
Mode X, una modalità non documentata per aumentare
le prestazioni, utilizzata in, particolare, dai giochi.
640×480
(307k)
640×350
(224k)
320×200
(64k)
720×400
(text)
4:3
64:35
16:10
9:5
4 bpp
4 bpp
4/8 bpp
4 bpp
VGA
Standard
SVGA
Super VGA
Uno standard video introdotto nel 1989 dalla Video
Electronics Standards Association (VESA) per il
mercato dei PC IBM compatibili.
800×600
(480k)
4:3
4 bpp
VESA VGA
Risoluzioni standard
29
XGA
Extended
Graphics Array
Introdotto da IBM nel 1990. XGA-2 ha poi aggiunto
un supporto per più colori e ad un maggiore refresh
rate e il supporto della risoluzione 1360 × 1024 a 16
colori (4 bit per pixel).
1024×768
(786k)
640×480
(307k)
4:3
4:3
8 bpp
16 bpp
VESA VGA
XGA+
Extended
Graphics Array
Plus
Nome non ufficiale per riferirsi alla risoluzione di 1152
x 864, che è la risoluzione 4:3 più ampia sotto il
milione di pixel. Apple Computer ha impiegato una
variante di questa risoluzione a 1152x870 e Sun
Microsystems a 1152x900.
1152×864
(786k)
640×480
(307k)
4:3
4:3
8 bpp
16 bpp
VESA VGA
QVGA
Quarter VGA
Un quarto della risoluzione VGA
320×240
(75k)
4:3
Non definita
WQVGA
Wide Quarter
VGA
Risoluzione orizzontalmente ampia come la VGA ma
con circa la metà delle linee
480×272
(126k)
16:9
Non definita
HQVGA
Half QVGA
Un ottavo della risoluzione VGA
240×160
(38k)
3:2
Non definita
QQVGA
Quarter QVGA
Un sedicesimo della risoluzione VGA
160×120
(19k)
4:3
Non definita
WXGA
Widescreen
Extended
Graphics Array
Una variante dello standard XGA con un Aspect ratio
16:9 o 16:10 che si è molto diffuso sui notebook più
recenti (2008).
1280×720
(922k)
1280×800
(1024k)
1440×900
(1296k)
16:9 or
16:10
32 bpp
VESA VGA
SXGA
Super XGA
Una modalità de facto ampiamente utilizzata con 32 bit 1280×1024
Truecolor, con un particolare aspect ratio di 5:4 invece (1310k)
del più comune 4:3 che comporta una leggera
distorsione delle immagini in formato 4:3. Questa
modalità è utilizzata sulla maggior parte dei display
LCD da 17".
5:4
32 bpp
VESA VGA
16:10
32 bpp
VESA VGA
4:3
32 bpp
VESA VGA
•
Alcuni produttori hanno chiamato questa modalità
Extended Video Graphics Array or XVGA in
considerazione che VGA è la risoluzione standard.
WXGA+
Widescreen
Extended
Graphics Array
PLUS
Variante del formato WXGA molto utilizzata sugli
ultimi (2008) portatili e sui monitor 19" caratterizzate
da un rapporto di risoluzione 16:10.
SXGA+
Super Extended
Graphics Array
Plus
Molto frequente su laptop con display da 14" e 15" e su 1400×1050
videoproiettori DLP.
(1470k)
WSXGA+
UXGA
WUXGA
QXGA
1440×900
(1296k)
Widescreen Super molto frequente su Monitor Widescreen da 19" 21" e
Extended
22" e su laptop con display 15.4" e 17.
Graphics Array
Plus
1680×1050
(1764k)
16:10
32 bpp
VESA VGA
Ultra XGA
Una risoluzione standard de facto Truecolor.
1600×1200
(1920k)
4:3
32 bpp
VESA VGA
Widescreen Ultra
Extended
Graphics Array
Una versione wide di UXGA molto utilizzato nei
notebook di fascia alta con display da 15,4" o 17"
1920×1200
(2304k)
16:10
32 bpp
DVI Single
Link
Quad Extended
Graphics Array
Quattro volte la risoluzione XGA
2048×1536
(3146k)
4:3
32 bpp
DVI Dual
Link
Risoluzioni standard
WQXGA
Widescreen Quad
Extended
Graphics Array
QSXGA
WQSXGA
QUXGA
WQUXGA
30
Modalità video apparsa per la prima volta su Apple
Cinema 30" e divenuta standard su monitor da 30",
richiede connessioni → DVI o → HDMI dual link.
2560×1600
(4096k)
16:10
32 bpp
DVI Dual
Link
Quad Super
Extended
Graphics Array
2560×2048
(5243k)
5:4
32 bpp
DisplayPort
1.1 4-Lane
Wide Quad Super
Extended
Graphics Array
3200×2048
(6554k)
25:16
32 bpp
Non ancora
supportata
Quad Ultra
Extended
Graphics Array
Quattro volte la risoluzione UXGA. Richiede più
connessioni → DVI (4 single link o 2 dual link). In
futuro sarà supportata da una singola connessione
DisplayPort.
3200×2400
(7680k)
4:3
32 bpp
Non ancora
supportata
Wide Quad Ultra
Extended
Graphics Array
Utilizzata dai monitor IBM T220/T221 LCD non più
disponibili sul mercato.
3840×2400
(9216k)
16:10
32 bpp
Non ancora
supportata
HXGA
Hexadecatuple
Extended
Graphics Array
4096×3072
(12583k)
4:3
32 bpp
Non ancora
supportata
WHXGA
Wide
Hexadecatuple
Extended
Graphics Array
5120×3200
(16384k)
16:10
32 bpp
Non ancora
supportata
HSXGA
Hexadecatuple
Super Extended
Graphics Array
5120×4096
(20972k)
5:4
32 bpp
Non ancora
supportata
WHSXGA
Wide
Hexadecatuple
Super Extended
Graphics Array
6400×4096
(26214k)
25:16
32 bpp
Non ancora
supportata
HUXGA
Hexadecatuple
Ultra Extended
Graphics Array
6400×4800
(30720k)
4:3
32 bpp
Non ancora
supportata
WHUXGA
Wide
Hexadecatuple
Ultra Extended
Graphics Array
7680×4800
(36864k)
16:10
32 bpp
Non ancora
supportata
Significato prefissi nella nomenclatura delle risoluzioni
Sebbene i prefissi comuni super S e ultraU' non indicano una specifica variazione alla risoluzione standard, molti
prefissi hanno, invece, uno specifico significato:
Quarter (Q)
Un quarto della risoluzione di base. Es. QVGA indica una risoluzione di 320×240 che è la metà della
larghezza e la metà dell'altezza, ossia un quarto del totale dei → pixel, della risoluzione VGA di 640×480.
Nelle alte risoluzioni Q significa "Quad" ossi quattro volte.
Wide (W)
Risoluzione più ampia di quella base, di cui mantiene il numero di righe, che permette un Aspect ratio di 16:9
o 16:10.
Quad(ruple) (Q)
Risoluzioni standard
Quattro volte i → pixel della risoluzione di base ossia due volte in orizzontale e due volte in verticale il
numero di → pixel.
Hexadecatuple (H)
Sedici volte i → pixel della risoluzione di base ossia quattro volte in orizzontale e quattro volte in verticale il
numero di → pixel.
Ultra (U)
eXtended (X)
Questi prefissi possono anche combinarsi come, ad esempio in WQXGA o WHUXGA.
Tipi di interfacce video per PC
Nella colonna interfaccia video della tabella precedente è riportata il tipo di interfaccia video che permette di
collegare un monitor ad un PC e visualizzare la risoluzione indicata secondo le seguenti specifiche:
•
•
•
•
MDA - Interfaccia dedicata digitale Monochrome Display Adapter.
CGA - Interfaccia dedicata digitale Color Graphics Adapter.
EGA - Interfaccia dedicata digitale Enhanced Graphics Adapter.
PGC - Interfaccia dedicata analogica Professional Graphics Controller.
• VGA standard - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VGA originale
o superiore (VESA VGA, DVI Sigle Link ecc.).
• VGA interlacciato - L'interfaccia è uguale alla VGA originale ma richiede un monitor in grado di visualizzate un
segnale video interlacciato.
• VESA VGA - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VESA VGA o
superiore (→ Digital Visual Interface Single Link, → Digital Visual Interface Dual Link o DsplayPort 1.1).
• Non definita - Queste non sono risoluzione adottate dai monitor per PC ma solo ad un formato video.
• DVI Single Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale → Digital
Visual Interface Single Link, Dual Link o DisplayPort.
• DVI Dual Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale → Digital Visual
Interface Dual Link o DisplayPort.
• DisplayPort 1.1 4-Lane - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale
DisplayPort 1.1 4-Lane o superiore.
• Non ancora supportata - Attualmente non esiste un'interfaccia video singola che permetta questa risoluzione
anche se, in futuro, ci saranno delle specifiche DisplayPort che permetteranno di andare oltre alla risoluzione.
N.B. Queste sono indicazioni generali per un corretto funzionamento. In realtà, ad esempio, si potrebbe anche
utilizzare una connessione VESA VGA per visualizzare in risoluzione WUXGA anche se questo non è consigliato.
Per aumentare la risoluzione si possono aumentare anche i collegamenti video, utilizzando ad esempio 2 o 4
collegamenti DVI, o diminuire la velocità di refresh.
31
Risoluzioni standard
32
Principali risoluzioni utilizzate in TV e Videoproiettori
Nella tabella qui sotto riportata troviamo le risoluzioni video più comuni nei TV e nei videoproiettori. Nella tabella
seguente 60Hz o 60 FPS sono un'approssimazione. Il valore preciso è
ossia circa 59,94.
Tabella delle risoluzioni standard di TV e Videoproiettori
Standard
Video
Descrizione
risoluzione del
display (→ pixel)
Aspect
ratio
profondità del
colore (bpp)
frame per
secondo
480i
Video a risoluzione standard NTSC a 60Hz interlacciato
720×480 (337.5k)
3:2 (1,5)
24 bpp
30
480p
Video a risoluzione standard NTSC a 30Hz progressivo.
720×480 (337.5k)
3:2 (1,5)
24 bpp
30
576i
Video a risoluzione standard PAL a 50Hz interlacciato
720×576 (405k)
4:3 (1,33) 24 bpp
25
576p
Video a risoluzione standard PAL a 25Hz progressivo.
720×576 (405k)
4:3 (1,33) 24 bpp
25
720p
Formato video → HDTV 1280 x 720 a 60Hz progressivo.
Esistono anche le varianti a 24,25,30 e 50 Hz
1280×720 (900k)
16:9
(1,78)
24 bpp
50-60
1080i
Formato video → HDTV 1920 x 1080 a 60Hz interlacciato. 1920×1080 (2000k)
Esiste anche la variante a 50 Hz
16:9
(1,78)
24 bpp
25-30
1080p
Formato video → HDTV 1920 x 1080 a 60Hz progressivo.
Esistono anche le varianti a 24,25,30 e 50 Hz
1920×1080 (2000k)
16:9
(1,78)
24 bpp
50-60
2K
Proiezione di film digitali in sale cinematografiche DLP
2048×1080 (2212k)
1,89
48 bpp
24
4K
Proiezione di film digitali in sale cinematografiche DLP
4096×1716 (7029k)
2,39
48 bpp
24
Voci correlate
• Informatica
• Scheda video
• Risoluzione del display
Collegamenti esterni
• (EN) Aspect Ratios [1] - Dal sito Widescreen.org
Note
[1] http:/ / www. widescreen. org/ aspect_ratios. shtml
Immagine digitale
Immagine digitale
Un'immagine digitale è la rappresentazione di un'immagine bi-dimensionale tramite una serie di valori numerici,
che la descrivono a seconda della tecnica utilizzata.
Tecniche di rappresentazione
Le immagini digitali sono fondalmentalmente di due tipi: una matrice di punti (o pixel) nelle immagini bitmap o,
nelle immagini vettoriali, un insieme di punti (o nodi) uniti in linee o altre primitive grafiche che compongono
l'immagine, insieme ad eventuali colori e sfumature.
Immagini bitmap
In questo tipo di immagini, i valori memorizzati indicano le caratteristiche di ogni punto dell'immagine da
rappresentare (→ pixel):
• nelle immagini a colori, viene memorizzato solitamente il livello di intensità dei colori fondamentali (nel modello
di colore → RGB, uno dei più usati, sono tre: rosso, verde e blu. Un altro esempio è → CMYK, usato per la
stampa, basato su quattro colori fondamentali: ciano, magenta, giallo e nero.)
• nelle immagini monocromatiche in scala di grigio (dette impropriamente bianco e nero) il valore indica l'intensità
del grigio, che varia dal nero al bianco.
Il numero (detto anche "profondità") di colori o di livelli di grigio possibili dipende dal massimo numero di
combinazioni permesse dalla quantità di bit utilizzata per ognuno di questi dati: un'immagine con 1 bit per pixel avrà
al massimo due combinazioni possibili (0 e 1) e quindi potrà rappresentare solo due colori o solo bianco e nero; nelle
immagini a 4 bit per pixel, si possono rappresentare al massimo 16 colori o 16 livelli di grigio; un'immagine a 8 bit
per pixel, 256 e così via.
Oltre a questi dati, è solitamente presente un header, che contiene diverse informazioni sull'immagine, a partire dal
numero di righe e colonne di pixel: le dimensioni sono necessarie per poter dividere e disporre la sequenza di pixel
in linee, in modo da formare una griglia rettangolare di punti, simile ad un mosaico, in cui ogni riga è formata da un
numero preciso (indicato appunto dal valore larghezza) di tessere.
La tecnica utilizzata per queste immagini, rappresentate da una matrice NxM, dove N è il numero delle righe di pixel
dell'immagine e M delle colonne, è detta raster.
Le immagini bitmap possono venire memorizzate in diversi formati, spesso basati su un algoritmo di compressione,
che può essere → lossy (in cui c'è perdita di informazione), come nelle immagini JPEG, oppure → lossless (senza
perdita), come nel caso dei file d'immagine GIF o PNG.
Questo tipo di immagini può venire generato da una grande varietà di dispositivi d'acquisizione: scanner e
fotocamere digitali (contenenti dei sensori CCD o CMOS), ma anche da radar e microscopi elettronici; inoltre
possono venire sintetizzate anche a partire da dati arbitrari, come funzioni matematiche bidimensionali o modelli
geometrici tridimensionali.
Il campo dell'elaborazione digitale delle immagini studia gli algoritmi per modificare tali immagini.
33
Immagine digitale
Immagini vettoriali
Le immagini vettoriali sono un tipo di immagine facilmente scalabile e ruotabile, ottenuto dall'unione di un certo
numero di punti o nodi, che formano linee e poligoni, a loro volta uniti in strutture più complesse, fino a formare
l'immagine voluta.
Questo tipo di immagine è utilizzato nel disegno tecnico per la progettazione architettonica ed industriale, nella
rappresentazione di certi font, nella grafica per la creazione di loghi e marchi o altri oggetti, eccetera.
Voci correlate
• Elaborazione digitale delle immagini
• → Grafica raster
• Grafica vettoriale
Collegamenti esterni
• Introduzione al libro "VETTOR, dal bitmap al vettoriale" [1], con la definizione di immagini digitali, distinte in
bitmap (o raster) e vettoriali.
• Bitmap o vettoriale? I due tipi di immagini digitali [2]
• Differenze tra grafica bitmap e vettoriale [3]
Note
[1] http:/ / www. edilio. it/ libreriaspecializzata/ schedalibro. asp?cod=5736
[2] http:/ / venus. unive. it/ pmlett/ autoapprendimento/ grafica/ iduetipi. htm
[3] http:/ / www. stampasubito. it/ store/ stampasubito_guide_grafica_vettoriale_grafica_bitmap. asp
34
Compressione dei dati
Compressione dei dati
La compressione dati è una tecnica utilizzata in ambito informatico per la riduzione della quantità di bit necessari
alla rappresentazione in forma digitale di un'informazione.
La compressione dati viene utilizzata sia per ridurre le dimensioni di un file, e quindi lo spazio necessario per la sua
memorizzazione e l'occupazione di banda necessaria per la sua trasmissione, sia per ridurre l'occupazione di banda
necessaria in una generica trasmissione dati come ad esempio una trasmissione televisiva in diretta.
Le varie tecniche di compressione organizzano in modo più efficiente i dati, spesso perdendo una parte
dell'informazione originale, al fine di ottenere una rappresentazione dell'informazione più compatta quindi
comportante minori risorse per la sua memorizzazione e trasmissione. Come controparte la compressione dati
necessita però di potenza di calcolo per le operazioni di compressione e decompressione, spesso anche elevata se tali
operazioni devono essere eseguite in tempo reale.
Tipologie di compressione dati
Le tecniche di compressione dati si dividono in due grandi categorie:
• → compressione dati lossy: comprime i dati attraverso un processo con perdita d'informazione che sfrutta le
ridondanze nell'utilizzo dei dati;
• → compressione dati lossless: comprime i dati attraverso un processo senza perdita d'informazione che sfrutta le
ridondanze nella codifica del dato.
Le tecniche senza perdita di informazione come dice il nome si preoccupano di preservare il messaggio originale
quando effettuano la compressione. Un loro esempio è il formato ZIP per i file o il GIF per le immagini. A partire da
un file in uno di questi formati, è sempre possibile ricostruire esattamente il file d'origine.
Le tecniche con perdita di informazione ottengono delle compressioni molto spinte dei file a scapito dell'integrità del
file stesso. Il file prima della compressione e il file dopo la decompressione sono simili ma non identici.
Normalmente viene utilizzata per comprimere i file multimediali. I file multimediali in origine sono troppo grandi
per essere agevolmente trasmessi o memorizzati quindi si preferisce avere una piccola riduzione della qualità ma nel
contempo file molto più leggeri, un esempio sono le immagini in formato → JPEG (per compressione di immagini) o
in formato MPEG (per compressione di dati video e/o audio).
Bibliografia
• Bonazzi R., Catena R., Collina S., Formica L., Munna A., Tesini D.. Telecomunicazioni per l'ingegneria
gestionale. Codifica di sorgente. Mezzi di trasmissione. Collegamenti. Pitagora Editrice, 2004, ISBN
88-371-1561-X
35
Compressione dati lossy
36
Compressione dati lossy
La compressione dati con perdita, anche chiamata compressione dati lossy, è una classe di algoritmi di
compressione dati che porta alla perdita di parte dell'informazione originale durante la fase di
compressione/decompressione dei dati che la rappresentano.
Decomprimendo un file compresso con un metodo "lossy" la copia ottenuta sarà peggiore dell'originale per livello di
precisione delle informazioni che codifica, ma in genere comunque abbastanza simile da non comportare perdita di
informazioni irrinunciabili. Ciò è possibile poiché i metodi di compressione a perdita di informazioni in genere
tendono a scartare le informazioni poco rilevanti, archiviando solo quelle essenziali: per esempio comprimendo un
brano audio secondo la codifica dell'→ MP3 non vengono memorizzati i suoni non udibili, consentendo di ridurre le
dimensioni dei file senza compromettere in modo sostanziale la qualità dell'informazione.
La compressione dei dati con perdita di qualità è ampiamente usata in molti settori dell'informatica: su Internet,
nell'ambito dello → streaming dei media, nella telefonia, per la compressione di immagini o altri oggetti
multimediali, ecc.
Una volta compresso un file con un metodo lossy, le informazioni perse non saranno più recuperabili. Una sua
apertura e una sua ricompressione con metodi lossless o con un metodo lossy con una compressione minore non
permetteranno di tornare alla quantità di informazioni iniziali ma anzi, l'ulteriore compressione lossy potrebbe far
perdere ulteriori informazioni, ma ingrandendo le dimensioni del file.
Esempi
Esempio di immagine compressa con l'algoritmo JPEG standard a diverse qualità:
Qualità 100% - 87,7 kB
Qualità 90% - 30,2 kB
Qualità 50% - 6,7 kB
Qualità 10% - 3,2 kB
Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente
osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.
Compressione dati
Audio
• ADPCM
Musica e suoni
•
•
•
•
•
•
•
AAC
MPC o Musepack
→ MP3
→ Ogg Vorbis (non ristretto da brevetti)
VQF
WMA
AC3
Compressione dati lossy
Voce
• GSM 06.10
• → Ogg Speex (non ristretto da brevetti)
Foto (immagini ferme)
• JPEG
• JPEG 2000
Video (immagini in movimento)
•
•
•
•
•
•
•
•
MPEG-1
MPEG-2
→ MPEG-4
→ Ogg → Theora (non ristretto da brevetti)
DivX
XviD
3GPP
WMV
Voci correlate
• → Compressione dati lossless
• Compressione dati
• Codec
Compressione dati lossless
La compressione dati lossless (compressione dati senza perdita), è una classe di algoritmi di compressione dati
che non porta alla perdita di alcuna parte dell'informazione originale durante la fase di compressione/decompressione
dei dati stessi.
Un esempio di questo tipo di compressione è dato dai formati Zip, Gzip, Bzip2, Rar, 7z. I file per cui non è
accettabile una perdita di informazione, come i testi o i programmi, utilizzano questo metodo. Per le immagini
fotografiche generalmente non si usano algoritmi lossless in quanto sarebbero veramente poco efficienti, ma per le
immagini che contengano ampie aree con colori puri spesso la compressione lossless non solo è applicabile, ma
anche conveniente (GIF, PNG, MNG, TIFF con compressione LZW, ZIP o RLE).
Problemi della compressione lossless
Gli algoritmi di compressione lossless non possono sempre garantire che ogni insieme di dati in input diminuisca di
dimensione. In altre parole per ogni algoritmo lossless ci saranno particolari dati in input che non diminuiranno di
dimensione quando elaborati dall'algoritmo. Questo è facilmente verificabile con della matematica elementare:
• Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.
• Si supponga (per assurdo), che esista un algoritmo di compressione che trasformi ogni file in un file più corto
distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere reversibile senza perdita di dati.)
• Si considerino l'insieme dei file con lunghezza massima di N bit. Questo set ha 1 + 2 + 4 + ... + 2N = 2N+1-1
elementi, se si include il file di lunghezza zero.
37
Compressione dati lossless
• Ora considerando l'insieme dei file con N-1 bit, vi sono 1 + 2 + 4 + ... + 2N-1 = 2N-1 file che vi appartengono,
sempre considerando anche il file di lunghezza zero.
• Tale numero di elementi è più piccolo di 2N+1-1. Non è possibile collegare in modo univoco gli elementi di un
insieme più grande (i file da comprimere) con gli elementi di un insieme più piccolo (i file dopo la compressione).
• Questa contraddizione implica che l'ipotesi originale (che un algoritmo di compressione renda tutti i file più
piccoli) sia errata.
Si può notare che la differenza di dimensione è così elevata che non fa alcuna differenza se si considerano file di
dimensione esattamente N come insieme dei file da comprimere: tale insieme è comunque di dimensioni maggiori
(2N) dell'insieme dei file compressi.
Una dimostrazione anche più semplice (ma equivalente) è come segue:
1. Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.
2. Si supponga (per assurdo), che esista un algoritmo di compressione C che trasformi ogni file di lunghezza
maggiore di 1 in un file più corto distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere
reversibile senza perdita di dati.)
3. Dato un qualunque file F di lunghezza L(F)=N, si applichi C a questo file, ottenendo il file C(F)
4. Si ripeta il passo precedente applicando C a C(F) e si continui in questo modo: per l'ipotesi al punto (2), si ha:
L(F)=N>L(C(F)) > L(C2(F)) > ...
e quindi:
L(C(F))<= N-1
L(C2(F))<= N-2
L(Ck(F))<= N-k
Dopo al massimo N iterazioni, si deve avere L(CN-1(F))=1, perché ogni iterazione deve diminuire la lunghezza di
almeno un bit: questo procedimento non dipende dal valore di N. Dalle nostre ipotesi consegue quindi che
esisterebbero due soli file distinti (quello contente il bit 0 e quello contenente il bit 1). Questo è evidentemente falso,
quindi l'ipotesi è falsa.
Quindi, ogni algoritmo di compressione che rende alcuni file più piccoli, deve necessariamente rendere altri file più
grandi o lasciarli di lunghezza invariata.
Nell'uso pratico, si considerano buoni gli algoritmi di compressione che comprimono effettivamente la maggior parte
dei formati più comuni: questo non corrisponde necessariamente ad una misura di bontá in senso teorico (che misura
la distanza media, misurata su tutti i file possibili, tra la lunghezza ottenuta e il numero di bit di entropia contenuti
nel file, che, per un teorema di Shannon, è il limite di comprimibilitá teorico). Inversamente, un algoritmo
teoricamente buono potrebbe non avere applicabilitá pratica (ad esempio perché non riduce formati di uso comune).
In realtà, molti applicativi che utilizzano la compressione lossless prevedono di lasciare invariati gli insiemi di dati la
cui dimensione sia aumentata dopo la compressione. Ovviamente, il flag che indica che questo gruppo di dati non va
processato dall'algoritmo aumenta la dimensione effettiva necessaria a memorizzare il gruppo di dati, ma permette di
evitare un ulteriore spreco di spazio e di tempo necessario alla compressione/decompressione.
38
Compressione dati lossless
Qualità della compressione e velocità
In generale, non vi è un rapporto di proporzionalità indiretta tra qualità della compressione ottenibile da un algoritmo
e la sua velocità di esecuzione.
Prendiamo ad esempio la seguente stringa di dati:
005555550055555500555555005555550055555500555555
La stringa richiede 48 caratteri, ma è immediatamente disponibile all'utilizzo. Un algoritmo di compressione lossless
potrebbe essere "cifra-numero di ripetizioni". La stringa, utilizzando questo algoritmo, diviene quindi:
025602560256025602560256
È chiaro che i dati non sono più direttamente disponibili ma occorre svolgere un passaggio intermedio
(decompressione).
Poiché, dato uno stesso archivio dati, la decompressione è solitamente molto più frequente della compressione molti
algoritmi sono fortemente asimmetrici: il tempo richiesto per la compressione è sostanzialmente superiore a quello
richiesto per la decompressione. Questo accade anche nei riguardi delle richieste di memoria e di capacità di calcolo.
Tecniche di compressione
Esistono diversi algoritmi di compressione. Tra i più noti:
•
•
•
•
•
•
•
•
•
Huffman
Codifica aritmetica (o "compressione aritmetica")
Lempel-Ziv-Welch (LZW)
LZ77
LZ78
LZMA
DEFLATE - tecnica mista: LZ77 e Huffman
Prediction by Partial Matching (PPM)
Trasformata di Burrows-Wheeler - (BWT)
Programmi generici per la compressione
Tra i tanti programmi di compressione molti usano un algoritmo tra quelli elencati sopra, mentre alcuni ne hanno uno
proprio:
•
•
•
•
•
•
•
Arj - algoritmo proprio
Gzip - usa DEFLATE
PKZIP - usa DEFLATE
WinZip - usa DEFLATE
WinRar - algoritmo proprio
Bzip2 - usa la trasformata di Burrows-Wheeler
7-Zip - usa LZMA
39
Compressione dati lossless
Formati ed algoritmi
Audio
•
•
•
•
•
•
•
•
•
•
Apple Lossless - ALAC (Apple Lossless Audio Codec)
Direct Stream Transfer - DST
FLAC - Free Lossless Audio Codec
Meridian Lossless Packing - MLP
APE Monkey's Audio
RealPlayer - RealAudio Lossless
Shorten - SHN
TTA - True Audio Lossless
WavPack - WavPack lossless
WMA - comprende anche una variante lossless
Immagini
• ABO - Adaptive Binary Optimization
• GIF - Lempel-Ziv-Welch (LZW) per immagini da 2 a 256 colori
•
•
•
•
•
•
•
•
•
•
•
Portable_Network_Graphics Portable Network Graphics - usa una variante di DEFLATE
HD Photo - Contempla un metodo di compressione lossless
OptiPNG - Metodo di compressione lossless in formato PNG
JPEG - comprende una variante lossless JPEG-LS[1] (poco utilizzata)
JPEG 2000 - comprende un metodo di compressione lossless
JBIG2 - comprende una compressione lossless di immagini in bianco e nero
TIFF (Tagged Image File Format) - permette di scegliere tra diversi algoritmi sia lossless (tra cui LZW e RLE) o
lossy (JPEG)
WMPhoto - Contempla un meodo di compressione lossless
Qbit Lossless Codec - Dedicato alla compressione intra-frame
RLE Run-length encoding algoritmo usato nei formati TGA, BMP, TIFF
FAX Gruppo 3 (1D) e Gruppo 4 (2D) - algoritmo per immagini bianco e nero usato dai FAX e dal formato TIFF
Video
•
•
•
•
•
•
•
•
•
•
Huffyuv [2]
CorePNG [3]
MSU Lossless Video Codec [4]
Sheervideo [5]
LCL [6]
Qbit Lossless Codec [7]
Animation codec [8]
Lagarith [9]
H.264/MPEG-4 AVC
Motion JPEG2000 comprende anche una variante lossless
40
Compressione dati lossless
41
Voci correlate
• → Compressione dati lossy
• Compressione dati
Note
[1]
[2]
[3]
[4]
[5]
[6]
http:/ / en. wikipedia. org/ wiki/ Lossless_JPEG
http:/ / neuron2. net/ www. math. berkeley. edu/ benrg/ huffyuv. html
http:/ / corepng. corecodec. org/
http:/ / compression. ru/ video/ ls-codec/ index_en. html
http:/ / www. bitjazz. com/ it/ products/ sheervideo/ index. php
http:/ / translate. google. com/ translate?u=http%3A%2F%2Fwww. geocities. co. jp%2FPlaytown-Denei%2F2837%2FLRC. htm&
langpair=ja%7Cen& hl=en& safe=off& c2coff=1& ie=UTF-8& oe=UTF-8& prev=%2Flanguage_tools
[7] http:/ / www. qbit. com
[8] http:/ / en. wikipedia. org/ wiki/ Animation_codec
[9] http:/ / lags. leetcode. net/ codec. html
Joint Photographic Experts Group
Sviluppatore
Joint Photographic Experts Group
Tipo
Compressione dell'immagine
→ Lossy / → Lossless lossy (solitamente) e lossless
Licenza
Royality free
Sito web
http:/ / www. jpeg. org
|+ style="text-align: center; font-size: larger; margin-left: inherit;" | Joint Photographic Experts Group (JPEG)
JPEG è l'acronimo di Joint Photographic Experts Group, un comitato ISO/CCITT che ha definito il primo standard
internazionale di compressione per → immagini a tono continuo, sia a livelli di grigio che a → colori. È un formato
gratuito e open-source.
Attualmente JPEG è lo standard di compressione delle immagini fotografiche più utilizzato. Le estensioni più
comuni per questo formato sono .jpeg, .jpg, .jfif, .JPG, .JPE, anche se il più comune in tutte le piattaforme è .jpg.
JPEG specifica solamente come una immagine può essere trasformata in uno stream di byte, ma non come questo
può essere incapsulato in supporti di memorizzazione. Un ulteriore standard chiamato JFIF (JPEG File Interchange
Format), creato da Independent JPEG Group, specifica come produrre un file appropriato per la memorizzazione su
computer di uno stream JPEG. Nell'uso comune, quando qualcuno parla di "file JPEG" generalmente intende un file
JFIF o alcune volte un file Exif JPEG. Ci sono, comunque, altri formati di file basati su JPEG, come ad esempio
JNG.
Joint Photographic Experts Group
42
Da Raster Image a JPEG
Essenzialmente il JPEG opera in 3 passi fondamentali per trasformare un'immagine raster in una JPEG e viceversa.
Tali passi sono:
• Rappresentazione in ambito frequenziale tramite DCT (trasformata discreta del coseno) se opera in modalità →
lossy, uso dei predittori in modalità → lossless.
• Quantizzazione effettuata tramite opportune matrici, che solitamente, pesano i coefficienti di ordine più basso
(rappresentano le basse frequenza spaziali) in maniera più decisa, in quanto, per le proprietà della DCT, sono più
importanti ai fini della sintesi dell'immagine. Questo perché il sistema visivo umano percepisce maggiormente le
basse frequenze spaziali rispetto alle alte frequenze, risulta quindi necessario dare maggior importanza alle basse
frequenze spaziali.
• Codifica entropica ed eliminazione delle ridondanze di tipo statistico tramite codifica RLE e codici di Huffman;
la componente continua della DCT invece è codificata in DPCM.
Il fattore di compressione che si può raggiungere è determinato essenzialmente da un parametro di scalature per le
matrici di quantizzazione, tanto più piccolo è questo parametro, tanto peggiore è la qualità. Si può ottenere un fattore
di compressione 15:1 senza alterare visibilmente la qualità dell'immagine.
Compressione
Lo standard JPEG definisce due metodi di compressione di base, uno basato sull'uso della trasformata discreta del
coseno (DCT) con compressione di tipo "→ lossy" cioè con perdita di informazione, l'altro sull'uso di un metodo
predittivo con compressione di tipo "→ lossless" cioè senza perdita di informazione. L'algoritmo base dello JPEG di
tipo "lossy" viene detto "baseline", inoltre sono state definite delle estensioni opzionali del metodo "lossy" per la
compressione di tipo gerarchico e progressivo.
Esempio di immagine compressa con l'algoritmo standard a diverse qualità:
JPEG qualità 10% - 3,2 Kb
JPEG qualità 50% - 6,7 Kb
JPEG qualità 90% - 30,2 Kb
JPEG qualità 100% - 87,7 Kb
Joint Photographic Experts Group
Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente
osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.
Tra questi il più tipico per il formato JPEG (come per tutti i formati che si basano sulla DCT) è la quadrettatura o
"blocking"; oltre ad esso si verificano fenomeni di "ringing" (fenomeno di Gibbs) e "blurring" o "blur" (sfocatura).
Utilizzo
JPEG/JFIF è il formato più utilizzato per la memorizzazione di fotografie. È inoltre il formato più comune su World
Wide Web.
Non è invece adatto per disegni geometrici, testo o icone, per cui sono utilizzati comunemente i formati → PNG e
GIF.
Altri formati di compressione "lossy"
Nuovi metodi lossy, in particolare basati sulle DWT (Discrete Wavelet Transform), garantiscono migliori risultati in
alcuni casi.
Il comitato JPEG ha creato un nuovo standard basato su wavelet, JPEG2000, con la prospettiva di sostituire nel
tempo lo standard JPEG.
Voci correlate
• → Immagine digitale
• Elaborazione digitale delle immagini
• Trasformata discreta del coseno
Collegamenti esterni
• (EN) Sito ufficiale JPEG [1]
• (EN) Formato file JFIF [2]
Note
[1] http:/ / www. jpeg. org/
[2] http:/ / www. w3. org/ Graphics/ JPEG/ jfif3. pdf
43
Portable Network Graphics
44
Portable Network Graphics
Portable Network Graphics (PNG)
Estensione
.png
Sviluppatore Thomas Boutell (ideatore originario)
Tipo
Compressione dell'immagine
Licenza
BSD-Like/GPL
Sito Web
http:/ / www. libpng. org
In informatica, il Portable Network Graphics (abbreviato PNG)
è un formato di file per memorizzare immagini.
Storia
Il PNG è stato creato nel 1995 da un gruppo di autori indipendenti
e approvato il 1º ottobre 1996 dal World Wide Web Consortium
(W3C), terminando il suo iter nel gennaio 1997 come oggetto del
Request for Comments (RFC) 2083.
L'ideazione del PNG avvenne in seguito all'introduzione del
pagamento di royalties dell'allora popolarissimo e usatissimo
formato GIF. Infatti nel 1994 i detentori del brevetto decisero
improvvisamente di chiedere un pagamento per ogni programma
Confronto tra immagine JPEG (a sinistra) e PNG (a
che
utilizzasse il loro formato. La prima reazione della comunità
destra)
informatica a tale improvviso cambiamento fu la sorpresa, a cui
seguì la scelta di indirizzarsi verso lo sviluppo di un'alternativa.
Il formato PNG è superficialmente simile al GIF, in quanto è capace di immagazzinare immagini in modo →
lossless, ossia senza perdere alcuna informazione, ed è più efficiente con immagini non fotorealistiche (che
contengono troppi dettagli per essere compresse in poco spazio).
Essendo stato sviluppato molto tempo dopo, non ha molte delle limitazioni tecniche del formato GIF: può
memorizzare immagini in colori reali (mentre il GIF era limitato a 256 colori), ha un canale dedicato per la
trasparenza (canale alfa). Esiste inoltre un formato derivato, Multiple-image Network Graphics o MNG, che è simile
al GIF animato.
Caratteristiche
Il formato PNG supporta:
Immagine PNG
Opaca a sinistra
trasparente a destra
• gestione dei colori classica tipo bitmap oppure indicizzata;
Portable Network Graphics
• possibilità di trasmettere l'immagine lungo un canale di comunicazione seriale (serializzazione dell'immagine);
• visualizzazione progressiva dell'immagine, grazie all'interlacciamento della medesima;
• supporto alla trasparenza mediante un canale alfa dedicato, ampliando le caratteristiche già presenti nel tipo
GIF89a;
• informazioni ausiliare di qualsiasi natura accluse al file;
• completa indipendenza dall'hardware e dalla piattaforma in uso;
• compressione dei dati di tipo lossless;
• immagini truecolor fino a 48 bpp;
• immagini in scala di grigio sino a 16 bpp;
• filtro dei dati prima della (eventuale) compressione;
• correzione della gamma dei colori presenti nell'immagine, per riprodurre esattamente quanto visualizzato all'atto
della creazione dell'immagine;
• (debole) verifica dell'integrità dei file;
• rapida presentazione iniziale dell'immagine grazie alla visualizzazione progressiva.
Applicazione
L'utilizzo del PNG è stato inizialmente limitato, a causa del fatto che pochi programmi erano capaci di scrivere o
leggere tali immagini. Col tempo, tutti i maggiori programmi di grafica e di navigazione accettarono il formato PNG,
che trovò così più largo utilizzo.
Nel giugno 2003, il brevetto originale sul formato GIF è scaduto, ma solo negli USA. Nel resto del mondo è scaduto
durante il 2004.
Nonostante questo, nulla lascia sospettare che l'utilizzo del PNG diminuirà come conseguenza.
Voci correlate
• → Immagine digitale
45
46
Formati del video digitale
Video
Il video (dal latino "vidēre") è l'informazione elettronica[1] rappresentante un'immagine che può variare nel tempo,
quindi sia la cosiddetta immagine fissa (immagine che non varia nel tempo) che le cosiddette immagini in
movimento (immagine che varia nel tempo). In particolare il video è un flusso informativo in quanto sia l'immagine
fissa che le immagini in movimento presentano sempre una dimensione temporale.[2] Flusso informativo che scorre
all'interno di apparecchiature elettroniche sotto forma di corrente elettrica per essere manipolato, viaggia nello spazio
sotto forma di onde elettromagnetiche, o all'interno di cavi per telecomunicazioni sotto forma di corrente elettrica o
→ luce, per essere trasmesso a distanza, viene memorizzato sotto varie forme su vari tipi di supporti per essere
conservato.
Ambiti di impiego del video
Il concetto di video nasce con l'invenzione della televisione, negli anni venti del Novecento. La televisione infatti è
un'informazione elettronica rappresentante immagini in movimento e suono, nonostante non vada dimenticato che la
scansione e la riproduzione delle immagini erano in un primo momento meccaniche e non elettriche.
Il secondo impiego del termine video appare con i primi display a tubo a raggi catodici (CRT) come strumento di
interazione tra computer ed essere umano, attraverso l'utilizzo delle prime interfacce a linea di comando (CLI). Il
primo computer dotato di display CRT è stato il Whirlwind I, progettato presso il Massachusetts Institute of
Technology e divenuto operativo nel 1950. Prima gli strumenti di interazione tra computer e uomo furono la scheda
perforata, la telescrivente elettromeccanica e la lampadina. Tutt'oggi il video è impiegato per visualizzare le moderne
interfacce grafiche (GUI) sui vari tipi di display.
Il terzo impiego del video è stato nella ripresa di immagini in movimento per uso privato sia in ambito aziendale che
amatoriale. In particolare in ambito amatoriale a partire dal 1982, anno in cui sono state introdotte sul mercato le
prime videocamere portatili amatoriali. La videoregistrazione, cioè la registrazione di immagini in movimento in
forma elettronica, ha infatti sostituito col passare degli anni ormai completamente, per quanto riguarda la ripresa di
immagini in movimento per uso privato, l'unica altra tecnica di registrazione di immagini in movimento esistente
ideata nel 1895 dai fratelli Lumière e basata sulla pellicola cinematografica.
Il quarto impiego del video è stato l'home video, cioè il settore commerciale della distribuzione in ambito domestico
di contenuti audiovisivi in forma elettronica. Prima della nascita dell'home video per la distribuzione di contenuti
audiovisivi in ambito domestico veniva utilizzata la pellicola cinematografica.
Da pochi anni si è infine iniziato ad impiegare il video anche nel cinema, non solo per la realizzazione di effetti
speciali in computer grafica, come era stato in precedenza, ma anche in sostituzione della pellicola cinematografica. I
film vengono distribuiti alle sale cinematografiche in forma elettronica invece che su pellicola cinematografica e
proiettati con appositi videoproiettori. Spesso sono girati in pellicola e poi trasformati in informazione elettronica
solo per la distribuzione nelle sale, ma sono anche girati direttamente in forma elettronica con apposite videocamere.
I film d'animazione realizzati con la computer animation sono invece già in forma elettronica.
In ordine di tempo, l'ultimo campo di applicazione del video si ha con la fotografia digitale.
Video
Video analogico e video digitale
L'informazione elettronica può essere rappresentata in due forme diverse: analogica o digitale. Il video analogico è il
video in cui l'informazione elettronica è rappresentata in forma analogica, il → video digitale è il video in cui
l'informazione elettronica è rappresentata in forma digitale.
La rappresentazione analogica dell'informazione elettronica è propria dell'elettronica analogica, mentre la
rappresentazione digitale dell'informazione elettronica è propria dell'elettronica digitale.
L'elettronica nasce come elettronica analogica, il primo modo di rappresentare l'informazione elettronica è quindi
quello analogico. Nella rappresentazione analogica dell'informazione elettronica l'informazione elettronica varia con
analogia all'informazione che si vuole rappresentare, varia quindi in modo continuo e può assumere un numero molto
alto di valori.
Con la realizzazione dell'Atanasoff-Berry Computer nel 1941 nasce l'elettronica digitale. L'Atanasoff-Berry
Computer è il primo computer elettronico digitale, il primo computer elettronico quindi in cui l'informazione
elettronica è in forma digitale. Nella rappresentazione digitale dell'informazione elettronica l'informazione che si
vuole rappresentare viene codificata in una sequenza di numeri, l'informazione elettronica varia quindi in modo
discreto e assume un numero limitato di valori corrispondente al numero di cifre utilizzate dal sistema numerico
scelto. L'Atanasoff-Berry Computer utilizza la numerazione binaria quindi l'informazione elettronica assume solo
due valori. L'elettronica digitale basata sulla numerazione binaria diventerà in seguito la tecnologia consueta per la
realizzazione dei computer, e il computer, nato come strumento per eseguire calcoli matematici, quindi per trattare
numeri, col passare dei decenni verrà usato per un numero sempre maggiore di scopi, di pari passo con l'aumento
delle capacità di memorizzazione e di calcolo: si inizierà con l'elaborazione di files che rappresentano testi e
immagini statiche, per arrivare a file multimediali, che contengono suoni, musica, video in movimento (film).
Il problema della qualità
Per rappresentare l'informazione, l'elettronica analogica e l'elettronica digitale gestiscono il segnale elettrico in modo
praticamente opposto: nella prima il segnale è continuo e gli viene fatto assumere il maggior numero possibile di
valori, nella seconda al contrario, al segnale viene fatto assumere il minimo numero di valori con cui è possibile
creare un sistema di rappresentazione dell'informazione, ossia 2, che a livello software equivalgono a "0" e "1" e
vengono chiamati "bit", e a livello hardware equivalgono ad "assenza di corrente" e a "passaggio di corrente".
Per ottenere una rappresentazione di qualità dell'informazione con l'elettronica analogica è necessaria
un'implementazione circuitale molto sofisticata in quanto questo tipo di informazione, assumendo un numero molto
alto di valori e variando in modo continuo, è molto difficile da gestire senza farle subire alterazioni, e un'alterazione
equivale ad una diminuzione della corrispondenza tra il segnale elettrico e il valore che esso vuole rappresentare.
Con l'elettronica digitale il problema della qualità assume un significato completamente diverso, dovendo venir
considerati solo due valori. Con questi due valori vengono formati blocchi di uguale lunghezza e se ne ricavano tutte
le combinazioni possibili: ad ognuna di esse viene quindi associato un diverso valore dell'informazione che si vuole
rappresentare, il che significa che la codifica dell'informazione stessa produrrà una lunga sequenza di 0 e 1. Come si
può intuire, qualunque alterazione di intensità che il segnale potrebbe subire non può più intaccare la
rappresentazione in sé (dovrebbe piuttosto venir provocata una sostituzione casuale degli 0 con gli 1 e viceversa).
Con questo sistema di codifica, la qualità arriva a dipendere invece dalla quantità di valori dell'informazione reale
che vengono codificati: più valori vengono codificati, più l'informazione digitale sarà ricca di sfumature e dettagli.
Lo svantaggio sta però nel fatto che la sequenza di 0 e 1 da dover gestire (cioè elaborare, memorizzare, trasmettere)
sarà tanto più lunga quanto maggiore è il numero di dettagli che si vogliono riprodurre. Di conseguenza un contenuto
digitale di alta qualità richiede elevate potenze di calcolo e supporti di memorizzazione molto capienti. Un metodo
per limitare quest'ultimo problema è quello della → compressione dei dati.
47
Video
48
L'inarrestabile aumento della potenza di calcolo dei processori e della capacità delle memorie, unito al parallelo
abbattimento dei costi, nel corso degli anni ha fatto diventare le tecnologie digitali la scelta privilegiata, visti i suoi
indubbi vantaggi. Per questo è in atto ormai da vari decenni un progressivo passaggio al digitale, anche in ambiti in
cui l'elettronica non è mai stata usata, come ad esempio nel cinema, dove la pellicola cinematografica è sempre stata
preferibile.
Il vantaggio di sostituire la pellicola con l'elettronica digitale sta principalmente nel fatto che con quest'ultima il
materiale girato è memorizzabile su supporti come i dischi ottici, che hanno una lunghissima durata nel tempo ed è
sempre possibile effettuare copie identiche dell'originale. La pellicola cinematografica al contrario subisce un
inevitabile degrado nel corso del tempo, anche se conservata in ambienti climaticamente controllati (temperatura,
umidità, illuminazione, ecc...). La duplicazione stessa della pellicola non risolve il problema in quanto il processo di
duplicazione, anche se restituisce un supporto nuovo, produce un degrado dell'informazione allo stesso modo di
quanto avviene con la tecnologia analogica.
La pellicola cinematografica presenta, per contro, il vantaggio di una completa e ben consolidata standardizzazione,
il che la rende comunque molto adatta per materiale da conservare per molto tempo, considerando la rapida
obsolescenza di gran parte dei formati e dei supporti di registrazione impiegati per il video.
Vantaggi del video digitale
I vantaggi del video digitale sono:
• è possibile e relativamente facile ottenere una copia identica all'originale, anche se si tratta di una copia della
copia.
Con il video analogico invece il degrado della qualità è inevitabile, anche quando la duplicazione è effettuata
con le apparecchiature professionali più sofisticate, e va inoltre a sommarsi tutte le volte che si esegue una
copia della copia.
• è possibile e relativamente facile la trasmissione senza errori in un sistema di telecomunicazioni.
Trasmettere informazione elettronica digitale senza errori è possibile e relativamente facile. L'informazione
elettronica analogica invece subisce sempre un certo degrado durante la trasmissione.
• possibilità illimitate di manipolazione.
Attraverso appositi software, si va da operazioni di montaggio, all'alterazione delle immagini, come ad
esempio per la realizzazione di effetti speciali, fino alla realizzazione di filmati completamente artificiali con
la computer animation.
Caratteristiche principali del video
Le immagini in movimento, nel video, sono ottenute da immagini fisse visualizzate in rapida sequenza, similmente a
quanto avviene nella tecnica cinematografica basata sulla pellicola cinematografica. Le immagini fisse vengono
visualizzate ad una frequenza sufficientemente alta da essere percepite come immagini in movimento e non più come
una sequenza di immagini fisse. Questo avviene per il fenomeno della persistenza della visione che contrariamente a
quanto molti pensano non è dovuto ad un fenomeno di persistenza delle immagini sulla retina ma ad un
"assemblaggio" che il cervello esegue secondo meccanismi non ancora del tutto chiariti.
Le caratteristiche principali del video sono:
• risoluzione video
• frequenza delle immagini
• tipo di scansione delle immagini
• rapporto d'aspetto
Video
49
Risoluzione video
In ambito elettronico le immagini sono visualizzate come una
griglia ortogonale di aree uniformi. Tale griglia ortogonale di
aree uniformi è chiamata raster e, esclusivamente in ambito
digitale, tali aree uniformi sono chiamate → pixel.
La risoluzione video è la risoluzione dell'immagine video. Più
specificatamente è il numero di aree uniformi che
compongono in senso orizzontale e in senso verticale il raster.
In ambito digitale, dove le aree uniformi del raster sono
Confronto di risoluzioni televisive
chiamate pixel, la risoluzione video è espressa in pixel. In
ambito analogico invece la risoluzione video è espressa in
linee, in rifermento al metodo di visualizzazione di un'immagine elettronica utilizzato in ambito analogico (in ambito
analogico un'immagine elettronica viene visualizzata una linea orizzontale alla volta partendo dall'alto verso il
basso).
Il numero di aree uniformi che compongono in senso orizzontale il raster di un'immagine video è chiamato
risoluzione orizzontale. Mentre il numero di aree uniformi che compongono in senso verticale il raster di
un'immagine video è chiamato risoluzione verticale.
Le aree uniformi che compongono il raster sono gli elementi base che compongono l'immagine video. Quindi più è
alta la risoluzione video, più è alto il numero di elementi da cui è composta l'immagine video. E più è alto il numero
di elementi da cui è composta l'immagine video, maggiore è la qualità dell'immagine video.
Notazione della risoluzione video
La risoluzione di un segnale video analogico viene generalmente indicata con il numero di linee verticali. Un segnale
analogico non ha un numero discreto di punti orizzontali, ma la sua risoluzione viene espressa in genere nel numero
di linee risolvibili (per esempio, 250 o 350), che dipende fortemente del mezzo utilizzato per la trasmissione o la
risoluzione, oppure in MHz, intesi come larghezza di banda del segnale di luminanza, secondo la relazione:
80 linee = 1 MHz
Va detto tuttavia che è di uso comune, anche se scorretto, riferirsi alla risoluzione in termini di pixel orizzontali per
verticali, come si va con il video digitale, per maggiore semplicità. Inoltre, il sistema di codifica colore (NTSC, PAL,
o SÉCAM) viene di solito usato come denominazione dello standard video completo: molto spesso anche su supporti
digitali come il → DVD viene indicato che il video è in formato PAL anche se, naturalmente, non c'è nessun video
sul DVD registrato in questo formato.
La notazione che si usa per indicare la risoluzione video digitale è la seguente:
A×B
dove A e B sono il numero di aree uniformi che compongono rispettivamente in senso orizzontale e in senso
verticale il raster dell'immagine video.
Ad esempio il video usato negli standard televisivi digitali adottati in Italia ha 768 e 576 aree uniformi che
compongono rispettivamente in senso orizzontale e in verticale il raster. Tale risoluzione video viene indicata con la
notazione 768×576.
Video
Frequenza delle immagini
La frequenza delle immagini, anche chiamata frame rate, è il numero di immagini per unità di tempo che vengono
visualizzate. Varia da sei a otto immagini al secondo (fps) per le vecchie macchine da presa a 120 o più per le nuove
videocamere professionali. Gli standard PAL (Europa, Asia, Australia, etc.) e SECAM (Francia, Russia, parti
dell'Africa etc.) hanno 25 fps, mentre l'NTSC (USA, Canada, Giappone, etc.) ha 29.97 fps. La pellicola ha una
registrazione ad un frame rate minore, 24fps. Per raggiungere l'illusione di un' immagine in movimento il frame rate
minimo è di circa 10 fotogrammi al secondo.
Tipo di scansione delle immagini
Le immagini che compongono il video possono essere visualizzate secondo due metodologie diverse di scansione: la
scansione interlacciata, anche chiamata interlacciamento (dall'inglese "interlace"), e la scansione progressiva
(dall'inglese "progressive"). L'interlacciamento è stato creato come un metodo per ottenere una buona qualità di
visualizzazione nelle limitazioni di una banda di segnale ristretta. Le linee di scansione orizzontali di ogni
fotogramma interlacciato sono numerate consecutivamente e divise in due field: i "field dispari" che consistono nelle
linee di numeri dispari, e i field pari, caratterizzati invece dalle linee di numeri pari. PAL, NTSC e SECAM sono per
esempio dei formati interlacciati. Le sigle indicanti le risoluzioni video includono una lettera "i" per indicare che
sono formati che sfruttano l'interlacciamento. Per esempio il formato video PAL è specificato molto spesso come
576i50. Il primo numero indica la risoluzione delle linee verticali, la lettera "i" indica l'interlacciamento, e il secondo
numero indica 50 field (mezzi fotogrammi) al secondo
Nel sistema a scansione progressiva (tipica dei monitor per computer) si ha un aggiornamento continuo di tutte le
linee dello schermo, con il risultato di una maggiore risoluzione, e una mancanza di vari artefatti che possono far
"vibrare" parzialmente un'immagine ferma o con particolari combinazioni di colori e linee in finissima successione
(effetto moiré)
La procedura della rimozione dell'interlacciamento (deinterlacing) viene usata per convertire segnali interlacciati
(analogici, → DVD, o satellitari) in modo che possano essere utilizzati da apparecchi a scansione progressiva (come
televisori a cristalli liquidi, videoproiettori o pannelli al plasma). L'eliminazione dell'interlacciamento non può
comunque ottenere una qualità video uguale a quella che offrono gli apparecchi a scansione progressiva in quanto la
quantità di dati che il segnale contiene è pressoché la metà.
Rapporto d'aspetto
Il rapporto d'aspetto, o Aspect ratio (immagine) o
Display aspect ratio (DAR), del video è la proporzione
tra la larghezza e l'altezza dell'immagine video quindi
delle singole immagini che compongono il video.
Solitamente l'aspect ratio di uno schermo televisivo è
4:3 (o 1.33:1) (nota bene: dividendo la risoluzione
orizzontale di 768 per la risoluzione verticale di 576
Confronto di aspect ratio in cinematografia (blu e rosso) e televisione
(PAL), si ottiene proprio 1,33). I televisori ad alta
(verde)
definizione usano un'aspect ratio di 16:9 (circa 1.78:1).
L'aspect ratio di un frame di pellicola da 35 mm con
colonna sonora (nota come "Academy standard") è circa 2.37:1.
50
Video
Altre caratteristiche del video
Pixel aspect ratio
Pare logico supporre che i singoli "punti" o pixel che compongono le immagini televisive siano quadrati, e invece si
parla di "pixel rettangolari" proprio per definire quei formati che hanno un pixel aspect ratio diverso da uno. I due
maggiori standard televisivi hanno infatti pixel aspect ratio di 1,066 (PAL) e 0,9 (NTSC). I monitor per computer
hanno invece pixel aspect ratio quadrato.
L'aspect ratio dei pixel deve essere particolarmente preso in considerazione quando si vogliono trasferire disegni
realizzati con un programma grafico da PC in un video DV o PAL DVD.
Infatti un video PAL ha una risoluzione di 768x576 pixel mentre in DV o in PAL DVD vengono memorizzati
720x576 pixel; questo significa che in fase di visualizzazione in un TV i pixel verrano resi rettangolari (in
orizzontale) per compensare i 48 pixel mancanti.
Se si disegna un cerchio con un programma di grafica su di un frame da 720x576 e poi si importa in un programma
di montaggio, (render DV o PAL DVD 720x576 4:3) in un TV apparirà una ellisse.
Invece se si disegna un cerchio con un programma di grafica su di un frame da 768x576 e poi si importa in un
programma di montaggio, (render DV o PAL DVD 720x576 4:3) in un TV apparirà correttamente un cerchio.
Per lo stesso motivo se si lavora in 16:9 il cerchio deve essere disegnato su di un frame da 1024x576, quando viene
importato il programma di montaggio provvede a comprimerlo in orizzontale (render PAL DVD 720x576 16:9
anamorfico), in fase di visualizzazione l'apparecchio televisivo con schermo da 16:9 effettua uno zoom in orizzontale
riportando il cerchio al suo aspetto originale.
Storage aspect ratio
Attraverso la combinazione delle proporzioni di come le immagini vengono mostrate (DAR) e di come vengono
visualizzati i singoli pixel (PAR) otteniamo la proporzione di memorizzazione fisica su file (SAR) secondo lo
formula PAR = DAR / SAR
Video 3D
Il video 3d, video digitale in tre dimensioni, è nato alla fine del XX secolo e si crea usando sei o otto videocamere
capaci di misurare la profondità della scena e salvando le registrazioni in → MPEG-4 Part 16 Animation Framework
eXtension (AFX).
La risoluzione per i video in tre dimensioni è misurata in voxels (volume picture element, rappresentanti un valore
nello spazio tridimensionale). Per esempio una risoluzione a 512×512×512 voxels, attualmente utilizzata per un
semplice video in tre dimensioni, può anche essere visualizzata in alcuni PDAs.
51
Video
52
Descrizione
Il termine video si riferisce generalmente ai
formati di archiviazione delle immagini in
movimento: i formati video digitali, come
→ DVD, QuickTime e → MPEG-4, e
videocassette analogiche, come VHS e
Betamax. I video possono essere registrati e
trasmessi attraverso vari media fisici:
pellicole di celluloide da macchine da presa,
segnali elettrici PAL o NTSC se registrati da
videocamere, o media digitali come →
MPEG-4 o DV se registrati da videocamere
digitali.
Standard video analogici: verde chiaro - NTSC, giallo - PAL, o in conversione al
La qualità del video dipende essenzialmente
PAL, arancio - SECAM, oliva - nessuna informazione
dal metodi di registrazione e archiviazione.
La → televisione digitale (DTV) è un formato relativamente recente, con alta qualità ed è diventata lo standard per la
televisione.
Formati video
Standard dei display video
Standard della connessione video
•
•
→ Video composito (1 RCA o BNC)
•
→ Video a componenti (3 RCA o BNC)
Digitale:
•
•
•
•
•
•
Super Hi-Vision (Televisione ad Altissima Definizione in fase di sperimentazione)
→ HDTV (High Definition Television: Televisione ad Alta Definizione)
ATSC (USA, Canada, etc., Advanced Television Systems Committee)
DVB (Europa, Digital Video Broadcasting)
ISDB (Giappone, Integrated Services Digital Broadcasting)
Analogico:
•
•
•
•
MAC (Europa - Obsoleto)
MUSE (Giappone-analog HDTV)
NTSC (USA, Canada, Giappone, etc., National Television System(s) Committee)
PAL (Europa, Asia, Australia, etc., Phase-Alternating Line)
•
• PALplus (Estensione del PAL. Europa)
SECAM (Francia, ex-USSR, Africa centrale, Séquentiel Couleur Avec Mémoire:
Colore sequenziale con memoria)
•
Connettore video D4 (nuovo per l'→ HDTV)
•
S-Video (da Separated Video, 1 mini-DIN)
•
SCART (usato in Europa)
•
DVI (solo per video non compressi). HDCP
opzionale.
•
→ HDMI (video e audio non compressi). HDCP
obbligatorio.
Video
53
•
Connettore RF (da connettore coassiale Radio
Frequency)
•
•
•
•
•
•
•
•
•
Connettore BNC (Bayonet Niell-Concelman)
Connettore C (connettore Concelman)
Connettore GR (connettoreGeneral Radio)
Connettore F (usato per le TV domestiche negli
Stati Uniti)
IEC 169-2 (Connettore IEC, usato per lo più nel
Regno Unito)
Connettore N (connettore Niell)
TNC (Threaded Niell-Concelman)
Connettore UHF (es. PL-259/SO-239)
SDI e HD-SDI
•
Connettore VGA connector (DB-9/15 o mini sub
D15)
•
-VGA (usato per i computer portatili)
Supporti video analogici (vedi televisione analogica)
Supporti video digitali (vedi → video digitale)
•
VERA (formato sperimentale della BBC, ca. 1958)
•
D1 (Sony)
•
U-matic (Sony)
•
D2 (Sony)
•
Betamax (Sony)
•
D3
•
Betacam
•
D5 (standard di videoregistrazione)
•
Betacam SP
•
Digital Betacam (Sony)
•
2 pollici Quadruplex (Ampex)
•
Betacam IMX (Sony)
•
1 pollice standard C (Ampex e Sony)
•
High Definition Video
•
VCR, VCR-LP, SVR
•
ProHD (JVC)
•
VHS (Video Home System, JVC)
•
D-VHS (Digital - Video Home System, JVC)
•
S-VHS (Super - Video Home System, JVC)
•
DV (Digital Video)
•
VHS-C (Video Home System - Compact, JVC)
•
DVCAM (Sony)
•
S-VHS-C (Super- Video Home System - Compact, JVC)
•
MiniDV (Mini Digital Video)
•
Video 2000 (Philips)
•
MicroMV
•
Video8 e Hi8 (High Band 8)
•
Digital8 (Digital Video 8, Sony)
Supporti a disco ottico
Supporti digitali
•
→ DVD (già Super Density Disc, DVD Forum)
•
CCIR 601 (ITU-T)
•
Laserdisc (vecchio, MCA e Philips)
•
M-JPEG (ISO)
•
Blu-ray (Sony)
•
MPEG-1 (ISO)
•
Versatile Multilayer Disc (New Media Enterprise inc.)
•
MPEG-2 (ISO)
•
Enhanced Versatile Disc (EVD, sostenuto dal governo cinese)
•
→ MPEG-4 (ISO)
•
HD DVD (Hitachi e Toshiba)
•
H.261 (ITU-T)
•
H.263 (ITU-T)
•
H.264/MPEG-4 AVC (ITU-T + ISO)
•
→ Ogg-→ Theora
Video
54
Voci correlate
• Generalità
• Audio
• Videoclip
• Interfaccia video
• Formati video
•
•
•
•
•
•
•
•
•
•
Televisione
→ Televisione digitale
Televisione satellitare
Interlacciamento
Scansione progressiva
Telecine
→ Codec video
Timecode
→ Spazio dei colori
→ RGB
• YUV
• → Risoluzioni standard
• Caratteristiche
•
•
•
•
•
•
•
Pixel aspect ratio (PAR)
Display aspect ratio (DAR)
Storage aspect ratio (SAR)
Aspect ratio (immagine)
Video anamorfico
Formati cinematografici
24p
• Uso del video
• Videoarte
• Televisione a circuito chiuso
• Videoproiettore
Altri progetti
•
•
Wikimedia Commons contiene file multimediali su Video
Wikizionario contiene la voce di dizionario «Video»
Note
[1] "Informazione elettronica" non è intesa nel limitato senso di "informazione in forma elettronica", cioè di informazione che si presenta
esclusivamente in forma di corrente elettrica (quando è trasmessa diventando un segnale elettrico) o di tensione elettrica (quando è
memorizzata in un circuito elettronico), ma nel più ampio senso di "informazione manipolata da un'apparecchiatura elettronica", quindi di
informazione che può assumere una moltitudine di forme diverse (ad esempio la forma di magnetismo quando è memorizzata in una
videocassetta oppure la forma di luce all'interno di una fibra ottica quando è trasmessa a distanza).
[2] L'mmagine fissa, diversamente dalle immagini in movimento, non ha una natura temporale. Acquisisce una dimensione temporale quando è
rappresentata in forma di video in quanto in tale forma è continuamente ridisegnata.
Video digitale
Video digitale
Per video digitale si intende un segnale video che utilizza una rappresentazione digitale, e non analogica, del segnale
video. Questo termine generico non deve essere confuso con il nome DV, che indica uno specifico formato di video
digitale indirizzato alla grande distribuzione.
Trasporto del segnale
In ambito professionale, il primo tipo di interfaccia utilizzata, secondo la raccomandazione ITU-R BT.656, è di tipo
parallelo. I cavi erano costituiti da 11 doppini, 10 per ciascuno dei bit relativi all’informazione video più uno per il
clock a 27 MHz. La raccomandazione prevede l'uso di connettori D-Sub a 25 contatti.
La lunghezza del cavo è un fattore limitante di questo tipo di connessione, potendo raggiungere solo 50 m senza
equalizzazione e 200 m con appropriata equalizzazione.
Un tipo di interfaccia più evoluta, la SDI, spicificata dalla stessa ITU-R BT.656 prevede invece l'uso dagli stessi
cavi coassiali da 75Ω utilizzati in ambito analogico. Questo semplifica grandemente l'integrazione tra i due tipi di
segnale e riduce di molto i costi di cablaggio, nonché lo spazio e il peso dei cavi stessi. Per distanze lunghe, è anche
possibile il trasporto su fibra ottica
In campo domestico e amatoriale, le interfacce più comuni per il video digitale sono la firewire e la più recente
HDMI, concepita in particolare per alimentare televisori e monitor ad alta definizione.
Tecniche di registrazione
Il video digitale è spesso registrato su cassetta e distribuito su dischi ottici, solitamente → DVD. Ci sono comunque
delle eccezioni, come le videocamere che registrano direttamente su DVD, videocamere Digital8 che codificano
video digitale su cassette analogiche convenzionali, e alcune videocamere che registrano video digitale su hard disk.
Il successo del video digitale è basato sulla disponibilità di algoritmi di → compressione video che si sono sviluppati
fortemente a partire dagli anni '90.
Il video digitale è alla base dello sviluppo della → televisione ad alta definizione che, sebbene sia nata alla fine degli
anni ottanta come analogica, ha potuto diffondersi e divenire economicamente conveniente solo grazie alle tecniche
di registrazione e trasmissione digitali.
Cenni storici
Il video digitale è stato introdotto per la prima volta nel 1983 dal formato D-1 della Sony, che registrava un segnale
video component non compresso a definizione standard in forma digitale anziché in forma analogica. A causa del
costo molto elevato, il D-1 fu utilizzato principalmente da grandi network televisivi, e solo limitatamente a
lavorazioni che richiedevano molte generazioni successive di copie. In seguito sarebbe stato sostituito da sistemi più
economici che utilizzavano dati compressi, come il famoso Digital Betacam della Sony, tuttora largamente usati
come formato di registrazione dai grandi produttori televisivi.
Il video digitale di tipo amatoriale è apparso per la prima volta in forma di QuickTime, architettura della Apple
Computer per formati di dati time-based e di → streaming diffusasi in forma ancora grezza intorno al 1990.
Inizialmente gli strumenti amatoriali di creazione dei contenuti erano grezzi e richiedevano la digitalizzazione di una
sorgente video analogica in un formato che potesse essere elaborato dai computer. Il video digitale amatoriale
migliorò rapidamente la sua bassa qualità iniziale, dapprima con l'introduzione di standard di riproduzione come il
MPEG-1 e il MPEG-2 (adottati per l'utilizzo in trasmissioni televisive e video su → DVD), e in seguito con
l'introduzione del formato di cassette DV. Quest'ultimo permise la registrazione diretta in digitale e semplificò il
processo di montaggio, consentendo la diffusione di sistemi completi di non-linear video editing su computer
55
Video digitale
desktop.
Panoramica tecnica
Le videocamere moderne possono lavorare in due differenti modalità di scansione: interlacciata e a scansione
progressiva. In modalità interlacciata, le videocamere registrano l'immagine alternando insiemi di righe: vengono
scansionate prima le righe di numero dispari , poi le righe di numero pari, poi di nuovo quelle di numero dispari, e
così via. Un set di righe pari o dispari è chiamato semiquadro o campoe una coppia di due campi consecutivi di
parità opposta è chiamata quadro o fotogramma.
Una videocamera a scansione progressiva, invece, registra ogni fotogramma singolarmente, mediante due campi
identici. Quindi, quando entrambi operano allo stesso numero di fotogrammi al secondo, il video interlacciato cattura
un numero doppio di campi al secondo rispetto al video progressivo.
La pellicola cinematografica standard come la 16mm e la 35mm riprende a una cadenza di 24 o 25 fotogrammi al
secondo. Per il video ci sono due frequenze standard: 30/1,001 (circa 29,97) fotogrammi al secondo e 25 fotogrammi
al secondo,a seconda che lo standard di partenza sia NTSC oppure PAL.
Il video digitale può essere copiato senza perdita in qualità. Non importa per quanti passaggi una sorgente digitale
venga copiata poiché il video si mantiene sempre identico al materiale digitale originale.
L'elaborazione e il montaggio del video digitale avviene tramite postazioni non-linear editing, dispositivi costruiti
esclusivamente per montare video e audio. Queste macchine possono frequentemente importare materiale sia da una
sorgente analogica che digitale. Il video digitale può inoltre essere montato su un personal computer dotato del
software e dell'hardware appropriato. Nel mercato degli editor non lineari professionali è molto conosciuto il
software e l'hardware Avid, oltre a Final Cut Pro della Apple e Adobe Premiere Pro. Le sulozioni più usate in campo
professionale usano computer di fascia alta assistito da hardware apposito.
I software di montaggio richiedono generalmente ampio spazio su disco. Il video digitale a compressione standard
DV/DVCPRO occupa circa 250 megabyte per minuto o 13 gigabyte per ora, ma l'occupazione aumenta man mano
che che si sale con la qualità. In base alle sue caratteristiche però, il video digitale ha un costo significamente basso,
considerando tutte le lavorazioni in cui può essere coinvolto. Come termine di paragone, si consideri che il costo di
riprese cinematografiche in 35mm si aggira sui 1000€ al minuto, sviluppo e stampa inclusi.
Il video digitale è usato largamente al di fuori della cinematografia. La → Televisione digitale (incluso la → HDTV
ad altà qualità) ha iniziato a diffondersi in molti paesi sviluppati nei primi anni 2000. Il video digitale è inoltre
utilizzato nei moderni telefoni cellulari, nei sistemi di videoconferenza e nella distribuzione di media via Internet,
come lo streaming video e la distribuzione peer-to-peer.
Esistono molti tipi di → compressione video per la diffusione di video attraverso internet e media come i DVD.
Alcuni dei codec più diffusi sono MPEG-2, → MPEG-4, Real Video, Windows Media Video e il più recente H.264.
Probabilmente i formati più utilizzati per la diffusione di video attraverso internet sono → MPEG-4 e WMV, mentre
MPEG-2 è usato quasi esclusivamente per i DVD.
Al 2005, la risoluzione più alta realizzata con un video digitale è di 33 megapixel (7680 x 4320) a 60 fotogrammi al
secondo (nel formato UHDV), anche se soltanto in un test di laboratorio. La velocità più alta è ottenuta da
videocamere ad alta velocità in ambito industriale e scientifico, le quali sono capaci di filmare video di risoluzione
1024 x 1024 con un milione di fotogrammi al secondo per brevi periodi di registrazione.
56
Video digitale
Interfacce/Cavi
Per soddisfare i requisiti di trasferimento dei video digitali non compressi (di circa 400 Mbit/s) sono state realizzate
interfacce specifiche:
•
•
•
•
•
Serial Digital Interface
FireWire
→ HDMI
→ Digital Visual Interface
DisplayPort
Formati di memorizzazione
Codifica
Tutti i formati correnti elencati di seguito sono basati su PCM.
• CCIR 601 — usato per le stazioni di trasmissione
• → MPEG-4 — diffuso nella distribuzione online e nella registrazione di video su memoria flash
• MPEG-2 — diffuso per DVDs e Super-VCD e impiegato nella trasmissione video digitale DVB
•
•
•
•
•
MPEG-1 — diffuso per VCD
H.261
H.263
H.264 — conosciuto anche come MPEG-4 Part 10 o AVC Impiegato per HD DVD e Blu-ray Disc
→ Theora — standardizzato ma ancora in sviluppo
Cassette
• Betacam SX, Betacam IMX, Digital Betacam — sistemi video commerciali di Sony, orientati al mercato
professionale e broadcast. Il tipo di videocassetta deriva dal foramto domestico Betamax
• D1, D2, D3, D5, D9 o Digital-S — vari standard per video digitali commerciali definiti dalla SMPTE
• DV, MiniDV — diffusi nella maggior parte delle videocamere a cassette di larga distribuzione; progettato per
video ad alta qualità facile da montare; possono anche registrare dati in alta-definizione (HDV) in formato
MPEG-2
• DVCAM, DVCPRO — diffusi nelle operazioni di trasmissione professionali; simili al DV e compatibili con esso,
offrono miglior trattamento dell'audio
• Digital8 — dati in formato DV registrati su cassette compatibili Hi8; formato diffuso nell'uso amatoriale
• MicroMV — dati in formato MPEG-2 registrati su cassette di dimensioni molto ridotte; in disuso
• D-VHS — dati in formato MPEG-2 registrati su cassette simili alla S-VHS
Dischi ottici
•
•
•
•
•
•
Video CD (VCD)
→ DVD
HD DVD
→ Blu-ray Disc
Sony ProDATA
XDCAM
57
Video digitale
Voci correlate
•
•
•
•
•
•
•
•
•
•
•
DV
Audio digitale
Cinema digitale
→ Digital Visual Interface
Serial Digital Interface
→ DVD
Videocamera
Televisione
→ Video
Video editing
Webcam
Bibliografia
• Barbero, Shpuza, Interfacce video, Elettronica e Telecomunicazioni, n.3 Dicembre 2006
Compressione video digitale
Un segnale tv trasformato in formato digitale rappresenta una grande mole di dati da elaborare che va oltre alle
capacità degli attuali sistemi di diffusione tra cui i transponder satellitari. Questa enorme quantità di dati per essere
sfruttata nelle trasmissioni tv satellitari richiede un trattamento di "compressione" che si concretizza nella
applicazione dello standard MPEG-2. Anche se il segnale non deve venire trasmesso, comunque, sono spesso
necessarie tecniche di compressione per poterlo registrare o elaborare.
La digitalizzazione del segnale video ha una storia meno recente di quella del sistema MPEG. Già dal 1982 il CCIR,
organo consultivo internazionale che oggi è sostituito dalla sezione raccomandazioni dell'ITU denominata ITU-R,
definì le specifiche CCIR 601 "Encoding Parameters of Digital Television for Studios" (vedi collegamenti esterni).
Nell'ultima edizione del 1990, CCIR 601-2, ci sono le basi dell'odierno → sistema televisivo digitale e tale specifica
è oggi il punto di riferimento costante per chiunque operi nel campo della digitalizzazione video. Le CCIR 601
hanno permesso l'introduzione del video digitale negli studi di produzione televisiva, infatti nel broadcast già da
lungo tempo vengono impiegate macchine di registrazione video in formato digitale. Solo successivamente, con il
DVB e la compressione video, le tecniche digitali sono state applicate alle trasmissioni televisive ed oggi
rappresentano l'evoluzione del sistema televisivo in tutte le sue estensioni: via cavo, via satellite e via terrestre.
Linee TV, pixel e campioni
Una immagine TV analogica viene normalmente descritta come il risultato di una scansione operata da sinistra verso
destra e dall'alto verso il basso. Ogni scansione completa è costituita da 625 linee e, in base allo standard adottato in
Europa, viene ripetuta per 25 volte in un secondo così come in una proiezione cinematografica si hanno 24
fotogrammi in un secondo.
Le 625 linee tv non vengono impiegate totalmente per descrivere l'immagine. Infatti oltre alle informazioni sul
contenuto di luminanza e crominanza dell'immagine sono necessarie altre informazioni per la cui trasmissione
necessita un periodo di pausa pari al tempo di trasmissione di ben 49 linee. Le linee attive dell'immagine sono quindi
576.
Nel campo della TV digitale si utilizza invece un'altra modalità di descrizione dell'immagine suddividendola in →
pixel. Per ogni linea tv si considerano quindi 720 pixel pertanto una intera immagine tv è formata da 720 x 576 pixel.
58
Compressione video digitale
Ad ogni pixel sono associati i valori di informazione luminosa dell'immagine, la luminanza (Y), e i valori relativi al
colore, la crominanza (C). Ogni pixel è quindi costituito da campioni di luminanza e crominanza in numero variabile
in funzione del livello qualitativo che si deve ottenere, descritto nella raccomandazione CCIR 601 (vedi anche
televisore).
Dall'analogico al digitale 4.2.2
Le specifiche CCIR 601-2 hanno avuto il grande ruolo di normalizzare le condizioni di digitalizzazione del segnale
video al fine di facilitare l'intera operabilità tra le macchine e favorire lo scambio dei programmi televisivi. Una altra
specifica, la CCIR 656 ha invece fissato le condizioni di interfaccia tra i sistemi e le apparecchiature destinate al
trattamento dei segnali video digitali.
Secondo le CCIR 601-2 il segnale video digitale standardizzato è costituito dai dati relativi al campionamento di tre
componenti del segnale video: la componente di luminanza Y e due componenti di differenza colore Cb e Cr. Queste
tre componenti vengono campionate al fine di produrre un segnale digitale formato da 864 campioni di luminanza Y
e 432 campioni di crominanza per ogni segnale differenza colore Cb e Cr. Questi valori si riferiscono ad una
immagine televisiva completa con 625 linee e 50 semi-quadri. L'immagine reale, come abbiamo visto, invece lascia
inutilizzate alcune aree pertanto i campioni realmente utilizzati sono di meno in quanto i pixel utili alla descrizione
dell'immagine sono 720 in senso orizzontale e 576 in senso verticale.
Il rapporto tra i campioni di luminanza e crominanza all'interno dell'immagine è determinato dallo schema di →
sottocampionamento della crominanza. Gli schemi maggiormente usati sono tre: 4:2:2, 4:1:1 e 4:2:0.
Lo schema 4:2:2 è indicato dalla specifica CCIR 601-2 come lo standard di fatto per l'interscambio dei programmi e
la diffusione tv.
Gli schemi 4:2:0 e 4:1:1 sono utilizzati da alcuni codec, come il Digital Video, per ridurre ultreriormente la banda
occupata dal segnale. Questi due schemi richiedono la stessa larghezza di banda, ma l'ordine dei campioni è
differente.
In una immagine video trasmessa nel formato 4:2:2, in orizzontale per ogni linea si hanno due campioni di
crominanza Cb e Cr ogni quattro campioni di luminanza mentre in verticale si ha la successione di linee identiche.
Ciò significa che in orizzontale si ha un sottocampionamento mentre in verticale no.
Ridurre la quantità di dati
Se proviamo a calcolare il "bitrate" necessario alla trasmissione di un segnale video campionato in 4:2:2 a 8 bit
avremo delle amare sorprese in quanto ci troveremo di fronte ad un bit rate necessario di 216 Mb/s, valore molto
elevato. Ovviamente se si escludono le parti non significative dell'immagine ovvero, gli intervalli di cancellazione di
linea e di quadro, si può avere un risparmio in termini di bit rate passando da 216 Mbit/s a 166 Mbit/s.
Il "bitrate" è in stretta connessione con la larghezza di banda necessaria per eseguire la trasmissione via radio.
Pertanto per poter trasmettere un segnale digitale è necessario adattare il bit rate alla larghezza del canale satellitare.
Prendendo ad esempio un canale satellitare largo 33 MHz, questo supporta un Symbol Rate di 24,4 Ms/s che
equivale, in QPSK, ad un bit rate di 48,8 Mb/s (fuori dalla codifica Reed-Solomon e Convoluzionale). Attualmente
viene tollerato un certo degrado di qualità che mantiene il tasso di errori entro valori accettabili, pertanto viene
utilizzato frequentemente un Symbol Rate di 27,5 Ms/s il che equivale ad ottenere un bit rate massimo di 55 Mb/s.
Tale bit rate viene ridotto impiegando la codifica convoluzionale e quindi si ottengono diversi valori convenienti di
bit rate in funzione del FEC impiegato. Con un FEC di 1/2 si ottiene un bit rate di 25,43 Mb/s mentre con un FEC di
7/8 si ottiene un bit rate di 44,35 Mb/s. Attualmente viene largamente impiegato un FEC di 3/4 con il quale si ottiene
un bit rate di 38 Mb/s per un canale come quello utilizzato su Hot Bird largo 33 MHz e con un Symbol rate di 27,5
Ms/s. I valori ottenuti sono più favorevoli di quelli indicati dalla norma ETS 300 421 "Digital Broadcasting sistems
for television, sound and data services" e riportati nella tabella 1.
59
Compressione video digitale
Nonostante le possibilità del sistema di trasmissione, 38 Mb/s sono ancora pochi per supportare la trasmissione di un
segnale video digitale. Per questo motivo entra in gioco il sistema di compressione MPEG-2 adottato dal DVB.
Utilizzando la compressione si ottiene una forte riduzione della quantità di dati da trasmettere permettendo così di
sfruttare un unico canale satellitare per la trasmissione di più programmi televisivi.
Basti pensare al fatto che attualmente la migliore qualità di trasmissioni dirette agli utenti richiede un bit rate di circa
8 Mbit/s per ogni programma tv. Pertanto ciò lascia intuire che unendo l'MPEG-2 alle tecniche di multiplazione
digitale si possano trasmettere grandi quantità di dati. Ciò è infatti quello che accade con le attuali trasmissioni
digitali dove su un solo transponder da 33 MHz può trovare spazio la combinazione di programmi aventi anche tra
loro un diverso bit rate. Alla base di questo principio sta una importante applicazione, relativa alle tecniche di
compressione, attualmente sperimentata dalle trasmissioni RAI. Tali trasmissioni infatti utilizzano la tecnica di
"compressione dinamica" per mezzo della quale il bit rate dei singoli programmi che condividono lo stesso bouquet
non è fisso ma può variare dipendentemente dalle esigenze istantanee di qualità e quindi di bit rate delle singole
immagini. Ad esempio: un programma sportivo con immagini in forte movimento può avere a disposizione un bit
rate istantaneo elevatissimo sfruttando una maggiore compressione degli altri programmi presenti nello stesso
bouquet.
MPEG-2, indispensabile per il DVB
La televisione digitale DVB (Digital Video Broadcasting) adotta la compressione video chiamata MPEG-2. La sigla
MPEG deriva dal nome di un gruppo di lavoro chiamato Motion Pictures Expert Group che riunisce esperti
internazionali del settore con lo scopo di standardizzare le procedure di compressione per servizi televisivi e
multimediali. Si tratta in realtà di un gruppo di lavoro ISO/IEC con la complicata sigla identificativa
JTC1/SC29/WG11, che opera congiuntamente al gruppo 15, della sezione telecomunicazioni della ITU, che invece si
occupa di codifica video ATM. Il gruppo MPEG collabora anche con la sezione raccomandazioni della ITU, SMPTE
e la comunità americana che si occupa di → HDTV.
MPEG-2 raggruppa le specifiche divenute standard a tutti gli effetti e fissate al 29º meeting ISO/IEC di Singapore
nel novembre 1994. Tali specifiche sono raccolte nel fascicolo ISO/IEC 13813 in tre parti: 13183-1 per il sistema;
13183-2 per il video e 13183-3 per l'audio.
Esistono altre specifiche MPEG ovvero: MPEG-1, MPEG-3 e → MPEG-4; la prima non è diversa concettualmente
da MPEG-2 ma ha caratteristiche inferiori, mentre MPEG-3 era uno standard per applicazioni con immagini ad alta
definizione → HDTV in seguito abbandonato. L'MPEG-4 è una somma degli standard precedenti, è molto flessibile
e supporta molte modalità di compressione con bit rate che possono essere estremamente ridotti o molto ampi.
Collegamenti esterni
• Encoding Parameters of Digital Television for Studios [1]
Note
[1] http:/ / www-inst. eecs. berkeley. edu/ ~cs150/ fa04/ Documents. htm#Video
60
Sottocampionamento della crominanza
61
Sottocampionamento della crominanza
Il sottocampionamento della crominanza è una tecnica che consiste nel codificare immagini riservando maggiore
risoluzione al segnale di luminanza piuttosto che all'informazione di crominanza. È una tecnica utilizzata in molti
modelli di compressione per segnali sia analogici che digitali, ed è usata anche dalla compressione JPEG e MPEG.
Aspetti tecnici
Un segnale video, soprattutto se a → componenti, ha una larghezza di banda molto ampia, comportando tutta una
serie di problemi per essere registrato o trasmesso. Di conseguenza, sono spesso usate tecniche di compressione per
migliorare la gestione del segnale, aumentare la durata delle registrazione oppure aumentare il numero di canali di
trasmissione. Dal momento che la visione umana è molto più sensibile alle variazioni di livello luminoso piuttosto
che ai cambiamenti di colore[1] , si può sfruttare questo principio per ottimizzare la compressione, dedicando più
banda alla luminanza (Y) e meno alla differenza delle componenti cromatiche (Cb e Cr). Lo schema di
sottocampionatura 4:2:2 Y'CbCr, per esempio, richiede solo due terzi della banda del (4:4:4) → R'G'B'. Questa
riduzione è pressoché impercettibile all'occhio umano.
Come funziona il sottocampionamento
Il sottocampionamento della crominanza differisce dalla teoria scientifica nel fatto che le componenti di luminanza e
crominanza sono formate come somma pesata di componenti tristimolo R'G'B' dopo una correzione di gamma,
invece che da componenti RGB tristimolo lineari. Come risultato, la luminanza e i dettagli di colore non sono del
tutto indipendenti l'una dagli altri, ma avviene una sorta di "miscelazione" tra i due componenti. L'errore è maggiore
nei colori molto saturi e si nota nel verde e nel magenta delle barre colore. Invertendo l'ordine delle operazione tra la
correzione di gamma e la somma pesata dei segnali, il sottocampionamento può essere meglio applicata.
Originale senza sottocampionatura. Ingrandimento 200%.
Immagine
dopo la sottocampionatura (compressa con codec DV di Sony Vegas.)
Sottocampionamento della crominanza
Sistemi di campionatura
Lo schema di sottocampionatura è normalmente indicato con una notazione a tre cifre (es. 4:2:2) o talvolta a quattro
cifre (es. 4:2:2:4). Il significato dei numeri è il seguente:
• Riferimento di campionatura orizzontale della Luminanza (in origine, come multiplo della sottoportante a 3.579
MHz in NTSC o di 4.43 MHz in PAL).
• Fattore orizzontale Cr (relativo alla prima cifra).
• Fattore orizzontale Cb (relativo alla prima cifra), a meno che non sia posto a zero. In questo caso, lo zero indica
che il fattore orizzontale Cb è identico alla seconda cifra e, in aggiunta, sia il Cr che il Cb sono sottocampionati
2:1 in senso verticale. Lo zero è scelto affinché la formula di calcolo della larghezza di banda rimanga corretta.
• Fattore orizzontale Alfa (relativo alla prima cifra). Può essere omesso se non è presente un canale alfa.
Per calcolare la larghezza di banda necessaria rispetto a un segnale 4:4:4 (o 4:4:4:4), si sommano tutti i fattori e si
divide il risultato per 12 (o per 16 se c'è un canale alfa).
Gli esempi qui sopra sono esclusivamente teorici e a scopo dimostrativo. Si osservi anche che i diagrammi non
indicano nessun filtraggio della crominanza, che dovrebbe essere applicato per evitare l'aliasing.
Tipi di sottocampionamento
8:4:4 Y'CbCr
Ognuno dei due componenti di crominanza, Cb e Cr, è campionato alla stessa risoluzione, e il luma al doppio di
questa. Questo schema è usato in telecinema, scanner per pellicole di alta gamma e correttori di colori. Il luma ha il
doppio di larghezza di banda di uno schema 4:4:4, e una tale banda richiede due connessioni per essere trasmessa,
chiamate link A e link B, ognuno dei quali trasporta un segnale 4:2:2.
4:4:4 Y'CbCr
Ognuno dei tre componenti Y'CbCr è campionato alla stessa risoluzione. Questo schema si usa negli scanner di alta
gamma e nella post produzione cinematografica. Anche in questo case servono due connessioni: il link A trasporta
un segnale 4:2:2, il link B uno 0:2:2.
62
Sottocampionamento della crominanza
4:4:4 R'G'B' (senza sottocampionamento)
La notazione "4:4:4" può riferirsi anche allo spazio colore → R'G'B', che implicitamente non ha nessuna
sottocampionamento della crominanza. Questo segnale può essere registrato da un videoregistratore HDCAM SR se
trasmesso da una connessione dual link.
4:2:2
I due campioni di crominanza sono campionati alla metà della risoluzione della luminanza, dimezzando la
risoluzione cromatica. Questo riduce la banda del segnale video di un terzo senza quasi perdite percettibili.
Molti formato video di alta gamma usano questo schema:
•
•
•
•
•
Digital Betacam
DVCPRO50 and DVCPRO HD
DigitalS
CCIR 601 / Serial Digital Interface / D1
ProRes 422
4:2:1
Questo schema è definito tecnicamente, ma pochissimi codec lo usano. La risoluzione orizzontale Cb è la metà di
quella Cr (e un quarto di quella Y). Questo schema sfrutta il principio che l'occhio umano è più sensibile al rosso che
al blu.
4:1:1
Nella sottocampionatura 4:1:1, la risoluzione orizzontale cromatica è ridotta a un quarto. La larghezza di banda
risulta dimezzata rispetto a uno schema non sottocampionato. In alcuni ambienti professionali, lo schema 4:1:1 del
codec DV non era considerato di classe broadcast all'epoca della sua introduzione, e accettabile solo per applicazioni
non professionali.[2] [3] Con il tempo, i formati basati su questo codec sono usati invece in ambienti professionali per
l'acquisizione di immagini e l'uso nei server video, e, in maniera sporadica, il codec DV è stato usato anche nella
cinematografia digitale a basso costo.
I formati che usano questo schema includono:
• DVCPRO (NTSC e PAL)
• DV e DVCAM (NTSC)
4:2:0
Questo schema è utilizzato in:
• Tutte le versioni di codec MPEG, incluse le implementazioni MPEG-2 come il → DVD (alcuni profili di →
MPEG-4 possono usare schemi di qualità più elevata, come il 4:4:4)
• DV e DVCAM (PAL)
• HDV
• Implementazioni comuni JPEG/JFIF, H.261, e MJPEG
• VC-1
I componenti Cb Cr sono sottocampionati di un fattore 2 sia verticalmente che orizzontalmente, e centrati a metà
delle linee di scansione verticali.
Esistono tre varianti degli schemi 4:2:0, che differiscono per il posizionamento verticale e orizzontale.
• In MPEG-2, Cb e Cr coincidono orizzontalmente.
63
Sottocampionamento della crominanza
• In JPEG/JFIF, H.261, e MPEG-1, Cb e Cr sono posizionati a metà strada, tra i campioni di luminanza (Y)
alternati.
• In DV 4:2:0, Cb e Cr sono alternati riga per riga.
Gli schemi colore PAL e SECAM sono particolarmente adatti a questo tipo di compressione. La maggior parte dei
formati video digitali corrispondenti al PAL usano il sottocampionamento di crominanza 4:2:0, con l'eccezione del
DVCPRO25, che usa lo schema 4:1:1. La larghezza di banda necessaria è dimezzata rispetto al segnale pieno per
entrambi gli schemi.
Con il materiale interlacciato, il sottocampionamento 4:2:0 può creare artefatti sulle immagini in movimento, se il
sottocampionamento viene applicato nello stesso modo del materiale progressivo. I campioni di luminanza, infatti,
provengono da semiquadri diversi mentre quelli di crominanza provengono da entrambi i semiquadri. La differenza
fra i campioni genera gli artefatti. Lo standard MPEG-2 prevede l'uso di uno schema alternativo per evitare il
problema, dove la schema 4:2:0 è applicato a ogni semiquadro ma non ad entrambi i semiquadri
contemporaneamente.
Originale. *Questa immagine mostra un singolo semiquadro. Il testo in movimento ha subito una sfuocatura.
Campionamento 4:2:0 progressivo applicato a materiale in movimento interlacciato. Si noti che la crominanza
precede e segue il testo. *Questa immagine mostra un singolo semiquadro.
Campionamento 4:2:0 interlacciato applicato a materiale in movimento interlacciato. *Questa immagine mostra un
singolo semiquadro.
Nello schema 4:2:0 interlacciato,ad ogni modo, la risoluzione verticale della crominanza è pressapoco dimezzata dal
momento che i campioni comprendono un'area di 4x2 campioni invece di 2x2. Allo stesso modo, il dislocamento
temporale tra i due semiquadri può portare ad artefatti sui colori.
Immagine fissa originale.
Campionamento 4:2:0 progressivo applicato a un'immagine fissa. Sono mostrati entrambi i campi.
64
Sottocampionamento della crominanza
Campionamento 4:2:0 interlacciato applicato a un'immagine fissa. Sono mostrati entrambi i campi.
Se il materiale interlacciato deve essere deinterlacciato, gli artefatti sulla crominanza (derivati dal campionamento
4:2:0 interlacciato) possono essere rimossi sfumando la crominanza verticalmente.[4][5]
4:1:0
Questo schema è possibile (alcuni codec lo supportano), ma non molto usato. Prevede metà della risoluzione
verticale e un quarto di quella orizzontale, con solo un ottavo della larghezza di banda originale. Il video non
compresso, in questo formato, con quantizzazione a 8 bit, usa 10 byte per ogni macropixel (4 pixer x 2). La banda
della crominanza è equivalente a quella di un segnale PAL I decodificato con linea di ritardo, e ancora molto
superiore a un segnale NTSC.
• Alcuni codec video posso funzionare con schemi 4:1:0.5 o 4:1:0.25, come opzione, con una qualità superiore a un
nastro VHS e una larghezza di banda simile.
3:1:1
Usato dalla SONY per i registratori HDCAM (ma non sugli HDCAM SR), questo schema prevede il
campionamento orizzontale della luminaza a tre quarti della frequenza di un segnale ad alta definizione, cioè 1440
campioni per riga invece di 1920. La crominanza è campionata a 480 campioni per riga, un terzo del campionamento
della luminanza.
In senso verticale, entrambi i segnali sono campionati sull'intera banda del segnale (1080 righe).
Terminologia
Il termine Y'UV si riferisce a uno schema analogico di codifica mentre Y'CbCr si riferisce a uno schema digitale.
Una differenza tra i due schemi è che i fattori di scala dei componenti di crominanza (U, V, Cb, and Cr) sono
differenti. Comunque, il termine YUV è spesso erroneamente usato per riferirsi alla codifica Y'CbCr. Come
conseguenza, notazioni come "4:2:2 YUV" si riferiscono sempre allo schema 4:2:2 Y'CbCr dal momento che non
esiste un sottocampionamento 4:x:x nella codifica analogica (come è lo YUV).
In maniera simile, il termine luminanza e il simbolo Y sono spesso usata per riferirsi al luma, indicato con il simbolo
Y'. Si noti che il il luma (Y') della tecnologia video differisce dalla luminanza luminance (Y) usata come termine
scientifico (definito dalla CIE). Il Luma è dato dalla somma pesata dei componenti tristimolo RGB dopo la
correzione di gamma, mentre la luminanza è data dalla somma pesata dei componenti tristimolo RGB lineari.
In pratica, il simbolo Y della CIE spesso indica erroneamente il luma. Nel 1993, la SMPTE stabili le Engineering
Guideline EG 28, chiarendo i due termini. Il simbolo primo ′ si usa per indicare la correzione di gamma.
I termini croma/crominanza differiscono in maniera simile dalla crominanza intesa in ambito scientifico. la
crominanza della tecnologia video è formata dai componenti tristimolo corretti e non lineari. In questo ambito, i
termini croma, crominanza, e saturazione sono di spesso riferiti allo stesso concetto.
65
Sottocampionamento della crominanza
Si veda anche
•
•
•
•
•
•
•
•
•
•
Spazio colore
SMPTE - Society of Motion Picture and Television Engineers
DV
Alta definizione
YCbCr
YPbPr
CCIR 601 4:2:2 SDTV
YUV
→ Colore
Vista
• Bastoncelli
• Coni
Bibliografia
• Poynton, Charles. "YUV and luminance considered harmful: A plea for precise terminology in video" [6]
• Poynton, Charles. "Digital Video and HDTV: Algorithms and Interfaces." USA: Morgan Kaufmann Publishers,
2003.
• Carlo Solarino, Video produzione digitale, Vertical 1999
Note
[1] Margaret Livingstone, The First Stages of Processing Color and Luminance: Where and What in Vision and Art: The Biology of Seeing, New
York, Harry N. Abrams2002, pp. 46-67
[2] http:/ / www. dvcentral. org/ DV-Beta. html
[3] http:/ / www. adamwilt. com/ DV-FAQ-tech. html
[4] http:/ / www. dv. com/ news/ news_item. jhtml;?LookupId=/ xml/ feature/ 2003/ wilt0603
[5] http:/ / www. hometheaterhifi. com/ volume_8_2/ dvd-benchmark-special-report-chroma-bug-4-2001. html
[6] http:/ / www. poynton. com/ papers/ YUV_and_luminance_harmful. html
66
Video a componenti
67
Video a componenti
Il video a componenti, anche noto come component, è una tipologia
di formato → video analogico che si contrappone al → video
composito.
Il video a componenti si contraddistingue dal video composito per il
fatto di avere le informazioni video distinte in più componenti separate,
diversamente dal video composito che invece le miscela in un unico
flusso informativo.
Attualmente negli impianti domestici i cablaggi video a componenti
vengono gradatamente sostiutuiti dai cablaggi digitali → DVI e →
HDMI in grado di fonire maggiore qualità. In ambito professionale
invece il video a componenti è ancora largamente utilizzato nei
cablaggi.
Tre cavi, ognuno con connessione RCA ad
entrambi i capi, sono spesso usati per trasmettere
segnale video analogico
Video analogico a componenti
I segnali video analogici devono fornire tre informazioni (note anche come componenti) relative ai segnali rosso,
verde e blu per creare un'immagine televisiva. Il tipo più semplice di video a componenti, → RGB, consiste di tre
segnali discreti rosso, verde e blu trasportati da tre cavi coassiali. Esistono alcune varianti sul formato, relative a
come le informazioni di sincronismo sono gestite: se integrate nel canale verde, questo sistema prende il nome di
sync-on-green (RGsB). Altri schemi usano un canale di sincronismo separato, come per esempio nel caso del
connettore SCART in cui i segnali usano quattro pin (R,G,B + sync) dei ventuno disponibili (RGBS), più una massa
comune. Un altro schema possibile è il SVGA, usato a livello globale per i monitor dei computer; questo schema è
noto talvolta come RGBHV, poiché gli impulsi di sincronismo verticali e orizzontali usano a loro volta linee
separate.
Un tipo alternativo di divisione dei componenti non usa i segnali RGB ma, al loro posto, un segnale senza
informazioni di colore, chiamato luminanza (Y) combinato con uno o più segnali che trasportano le informazioni di
crominanza (C). Canali di crominanza più numerosi permettono una maggiore precisione di mappatura nello spazio
colore RGB. Questo schema di separazione è una trasformazione lineare dello spazio colore sRGB, e da luogo al tipo
di segnale a cui ci si riferisce di solito quando si parla di video a componenti. Alcune varianti di questo formato
includono gli schemi YUV, YCbCr, YPbPr e YIQ, che sono comunemente usati nei sistemi video. In questo caso, il
segnale a componenti viene trasmesso lungo tre cavi coassiali. In ambito televisivo, questo tipo di connessione è
molto comune nei videoregistratori Betacam.
Nei sistemi video a componenti, i segnali di sincronizzazione devono essere trasmessi insieme alle immagini, di
solito con uno o due cavi separati oppure inseriti nel periodo di cancellazione di uno o di tutti i componenti.
Nell'ambito informatico è molto comune avere i sincronismi separati, mentre nelle applicazioni video è più frequente
inserire i sincronismi nel componente Y, che a tutti gli effetti è un segnale televisivo monocromatico completo.
Un segnale video a componenti è anche il formato S-Video, che separa luminanza e crominanza su due cavi separati.
Questo tipo di connessione, tuttavia, non può trasmettere immagini ad alta definizione o di qualità digitale (intesa
come immagini con più di 480 linee interlacciate in NTSC e 576 in PAL). Il video a componenti, invece, è adatto a
segnali come 480p, 720p, 1080i e 1080p, mentre è richiesta una connessione digitale come → DVI (solo video) e →
HDMI (che può includere fino a 8 canali audio) per avere i migliori risultati alle risoluzioni più elevate (fino a
1080p).
Esempi di standard internazionali per il video a componenti sono:
Video a componenti
68
• RS-170 RGB (525 linee, basato su temporizzazioni NTSC, e noto ora come EIA/TIA-343)
• RS-343 RGB (525, 625 o 875 linee)
• STANAG 3350 Analogue Video Standard (NATO versione militare dello standard RS-343 RGB)
Voci correlate
•
•
•
•
Interfaccia video
→ Video composito
RCA
S-Video
Video composito
Il video composito, acronimo CVBS,[1] [2] è una
tipologia di formato → video analogico che si
contrappone al → video a componenti.
Il video composito si contraddistingue dal video a
componenti per il fatto di avere le informazioni
componenti il video (luminanza, crominanza,
sincronismi d'immagine e di colore) miscelate in un
unico flusso informativo, quindi di norma ha una
qualità peggiore rispetto al video a componenti in
quanto è estremamente difficile impedire che le
componenti video interferiscano tra loro.
Connettore RCA, usato comunemente per il video composito
Il video composito è trasmesso a distanza attraverso
cavi coassiali di tipo RG59, o equivalenti, aventi impedenza caratteristica di 75Ω.
Composizione
Lo spettro del video composito può raggiungere i 5,3 MHz. L'ampiezza
tipica è di 1 volt picco-picco ma in particolari sistemi può essere
sommato ad una componente a tensione continua. Per convenzione si
considera il livello della base dei sincronismi a -300 mV, il livello del
nero a 0 mV e il livello del bianco a 700 mV.
Il video composito è la somma elettrica della luminanza (Y) alla
crominanza (C) modulata in ampiezza su una sottoportante a 3.58 MHz
(nello standard televisivo NTSC) o 4.433 MHz (nello standard
televisivo PAL). La crominanza è modulata in frequenza nello standard
televisivo SÉCAM.
Connettore BNC, utilizzato per il video
composito in campo professionale. Questo tipo di
connettore è usato anche per ogni tipo di video
analogico e digitale.
Il sistema della sottoportante di crominanza permette al video
composito di essere compatibile sia con i sistemi in bianco e nero che a
colori. Per contro viene persa parte del dettaglio della banda video che
coincide con il centro banda colore quando il video composito viene processato per separare il colore dalla
luminanza. Inoltre rari e particolari dettagli della luminanza possono ingannare il decodificatore della crominanza
creando un effetto di battimento detto moiré che si visualizza mediante false bande colorate su immagini composte
Video composito
da righe verticali in bianco e nero molto ravvicinate. Un classico esempio di questo difetto sono abiti e cravatte a
righe sottili.
Codifica
Nello standard PAL il sincronismo della componente colore è detto burst e si compone di dieci cicli di riferimento
della durata di 2.2 μs immediatamente dopo il sincronismo di riga. Il burst serve per sincronizzare in fase l'oscillatore
quarzato presente nei ricevitori o monitor.
Nello standard PAL (utilizzato anche in Italia) la componente colore è ottenuto attraverso particolari modulazioni di
una portante colore a 4.43361975 MHz. Precisamente la modulazione di ampiezza determina la saturazione del
colore sullo schermo. La modulazione di fase determina la tinta cromatica. Il segnale in bianco e nero, ottenuto
attraverso la somma delle componenti primarie di colore (0.11% blu + 0.30% rosso + 0.59% verde) ed è
sostanzialmente identico al segnale bianco e nero creato con una sorgente di ripresa in bianco e nero (vidicon,
saticon, plumbicon, ccd). Le percentuali così ottenute formano il solo segnale video bianco e nero con ampiezza di
0.7 Volt. Al segnale bianco e nero viene sommato il sincronismo orizzontale e verticale di quadro e semiquadro di
ampiezza -0.3 volt, ottenendo un segnale bianco e nero di 1 Volt
La componente colore viene ottenuto trasmettendo i soli segnali di differenza del rosso e del blu (il verde si ottiene
sottraendo rosso e blu della luminanza) attraverso la modulazione in quadratura di una portante (carrier) a
4.43361975 MHz. I segnali di differenza del rosso e del blu sono derivati dalla sottrazione dagli stessi della
luminanza e sono indicati come R-Y e B-Y. Questi segnali vengono percentualmente ridotti e ridenominati con V ed
U a causa di problemi di sovramodulazione nella trasmissione in radiofrequenza del segnale televisivo. La
modulazione in quadratura si ottiene attraverso la modulazione in ampiezza ed in fase della portante colore. La
modulazione in ampiezza e fase si ottiene con la modulazione in quadratura, ovvero si utilizzano due portanti
derivate dallo stesso oscillatore ma sfasate tra loro di 90° (quadratura), sullo stesso principio del seno/coseno. Una
portante viene modulata dalla differenza del blu, mentre la portante sfasata di 90° viene modulata dalla differenza del
rosso. La somma delle due portanti modulate in ampiezza crea il segnale colore. L'ampiezza massima caratteristica
di picco di 0.3 Volt, a 4.433 MHz. Ampiezza e fase sono variabili in funzione del contenuto dei segnali di differenza
colore, ovvero della saturazione e della tinta del soggetto ripreso dalla telecamera o creato attraverso altri sistemi
quali videogiochi, computer, macchine fotografiche digitali, eccetera. Nel sistema PAL, per ottenere la correzione
del ritardo di fase presente nel sistema NTSC, dovuto a fattori di trasmissione o distorsione o elaborazione del
segnale che causano variazioni della tinta del colore in riproduzione, viene sfasato prima di + 90°, alla riga
successiva di -90° equivalente a +270°. La somma vettoriale di due righe colore soggette ad un ritardo di fase,
restituisce la fase corretta in quanto la riga successiva invertita contiene lo stesso segnale a +270° riportato a 90° ma
con l'errore invertito e vettorialmente annullato. Al segnale colore viene aggiunto, di riga in riga, una serie di 10
impulsi (burst) per sincronizzare in fase l'oscillatore quarzato presente nei circuiti di decodifica del colore. Il burst
colore si trova in una zona del segnale che corrisponte ad una zona non visibile della riga visualizzata sullo schermo.
Questa zona si trova immediatamente dopo il termine dell'impulso di sincronismo di riga, nel supernero. Il supernero
è la cancellazione di traccia ed è il tempo che il fascio di elettroni proiettato sullo schermo impiega per tornare dal
margine destro al margine sinistro.
I due segnali, luminanza (bianco e nero + sincronismi) e crominanza (colore + burst), formano il classico segnale
component o S - derivato da S-VHS. Con questi due segnali si ottiene un'ottima riproduzione del bianco e nero e dei
dettagli, ma si ottiene una limitazione nel dettaglio colore. Sommati tra loro formano il segnale video composito.
69
Video composito
Decodifica
I circuiti di decodificazione separano dal segnale video composito il segnale di crominanza ed il segnale di
luminanza il quale viene filtrato della componente a 4.433 MHz in modo da non creare un disturbo a reticolato
rappresentato dalla componente colore. Apposite ed elaborate circuiterie fanno in modo di recuperare il dettaglio
successivo dello spettro fino a 5.3 MHz per mantenere un dettaglio sufficientemente valido. Un circuito separa dal
segnale composito i segnali di sincronismo verticale ed orizzontale. Dal primo fronte negativo del segnale di
sincronismo orizzontale viene ricavata una finestra che serve a far passare il burst colore per sincronizzare in
frequenza ed in fase l'oscillatore colore quarzato dei circuiti di decodifica del colore. In circuito colore ricostruisce i
segnali della portante in quadratura e, attraverso il confronto col segnale colore ricevuto, ne ricava le differenze
colore B-Y ed R-Y. A questi due segnali viene sommata la luminanza e si ricava Y+(B-Y)=B e Y(R-Y)=R Con una
matrice resistiva, attraverso la sottrazione di R e di B da Y, si ricava il verde G. Le componenti RGB vengono
inviate al cinescopio il quale provvederà a visualizzare le componenti RGB sullo schermo, illuminando i
corrispondenti fosfori colorati in modo da ottenere l'immagine a colori..
Tecniche digitali
Nelle tecniche moderne digitali, il segnale non viene più trattato in modo analogico, ma le componenti dei colori
vengono immediatamente convertiti in digitale con un bitrate a circa 13.4 MHz. Il fatto che l'occhio umano ha minor
dettaglio sui colori rispetto al bianco e nero, ha fatto sì che non fosse neccessario tenere lo stesso dettaglio per i
singoli punti colore, ma vengono inserite alternativamente le differenze colore tra i dati di luminanza con questo
schema detto 4.2.2: Y, R-Y, Y, B-Y, Y, R-Y...
Voci correlate
• → Video
• Interfaccia video
Bibliografia
• Carlo Solarino, Per fare televisione, Vertical 1995
• Silvio Silvi, "Appunti di tecniche video - il video composito", Vip Videosystem 1988
Note
[1] CVBS è l'acronimo dell'inglese "Composite Video Blanking and Sync" o "Color Video Blanking and Sync"
[2] In Germania sono utilizzati gli acronimi BAS (del tedesco "Bild Austastung Synk"), per il video composito in bianco e nero, e FBAS (del
tedesco "Farb Bild Austastung Synk"), per il video composito a colori, è quindi possibile trovarli su qualche apparecchiatura video di origine
tedesca per indicare un ingresso o un'uscita video in video composito.
70
Formato contenitore
Formato contenitore
Un formato contenitore è un formato di file che può contenere diversi tipi di dati, → compressi tramite codec
audio/video. Il file contenitore è usato per identificare e disporre i differenti tipi di dati in maniera non contigua. I
formati contenitori più semplici possono contenere diversi tipi di codec audio, mentre quelli pià avanzati arrivano a
supportare anche i → codec video, sottotitoli e tag metadata.
Alcuni contenitori sono esclusivamente di matrice audio, ad esempio:
• AIFF (largamente usato nei sistemi operativi Mac OS)
• WAV (Resource Interchange File Format, usato prevalentemente nei sistemi Windows)
• XMF (Extensible Music Format)
Altri contenitori riguardano unicamente immagini digitali:
• FITS (Flexible Image Transport System), formato contenitore per file RAW ed i metadata associati.
• TIFF (Tagged Image File Format), formato contenitore per immagini ed metadata associati.
Altri contenitori supportano sia dati audio che video::
• 3GP (usato maggiormente da dispositivi portatili e telefoni cellulari)
• ASF (contenitore standard proprietario riguardante WMA and WMV)
• → AVI (contenitore standard Microsoft)
• DVR-MS ("Microsoft Digital Video Recording"), contenitore video proprietario, sviluppato da Microsoft e basato
su ASF)
• IFF (primo formato contenitore multipiattaforma)
• → MKV , (formato contenitore open source).
•
•
•
•
→ MP4 (contenitore audio/video standard per il formato .mp4)
→ MOV (contenitore video standard per Quicktime della Apple)
→ Ogg (contenitore audio standard della fondazione Xiph.org.
RealMedia (contenitore standard per RealVideo e RealAudio)
Problemi ed incompatibilità
Le differenze tra i molti formati contenitori derivano da cinque grandi problematiche:
1. Popolarità; ovvero, quanto sia diffuso il formato.
2. Overhead; ovvero, la differenza di peso (in termini di memoria occupata) tra due differenti contenitori, aventi il
medesimo contenuto.
3. Supporto per funzionalità avanzate dei codec. Ad esempio, formati considerati "vecchi" quali l'→ AVI non
supportano alcuna funzionalità avanzata, sebbene il problema possa essere aggirato attraverso hacking, causando
spesso problemi di compatibilità.
4. Supporto per contenuti avanzati quali sottotitoli, metatags et similia.
5. Supporto per lo → streaming.
71
Formato contenitore
72
Voci correlate
•
•
•
•
FFmpeg
Cross-platform
Open source
Codec
Velocità di trasmissione
Bit rate
Prefissi SI
Nome
Simbolo
kilobit per secondo
kb/s
Multiplo
103
megabit per secondo Mb/s
106
gigabit per secondo
Gb/s
109
terabit per secondo
Tb/s
1012
Prefissi binari
(IEC 60027-2)
kibibit per secondo
Kib/s
210
mebibit per secondo
Mib/s
220
gibibit per secondo
Gib/s
230
tebibit per secondo
Tib/s
240
Il termine velocità di trasmissione (o di trasferimento) viene solitamente utilizzato a proposito di scambi di
informazioni tra computer o comunque dispositivi elettronici. Siccome su questi dispositivi l'informazione viene
memorizzata e viaggia in forma digitale, ovvero è sostanzialmente una sequenza di bit, è naturale che tale velocità
venga misurata in bit per secondo (e da qui il termine equivalente inglese bitrate).
In realtà sulle veloci macchine moderne avrebbe poco senso usare come unità di misura proprio il bit/secondo, per
cui vengono utilizzati principalmente i vari multipli del bit (che è identificato con una b): abbiamo il byte (sequenza
di 8 bit, identificato da una B), la word (sequenza di 16 bit) e la double word (sequenza di 2 word oppure 32 bit) e
poi i prefissi standard del sistema decimale, cosicché, ad esempio, se in una linea ADSL abbiamo un trasferimento
dati di 4 Mb/s, cioè 4.000.000 b/s, avremo (4.000.000/8) B/s equivalenti a 500 kB/s.
Il bisogno di utilizzare questi prefissi risulta evidente se si pensa che ad esempio lo standard → USB 2.0 può
raggiungere velocità di 480 Mb/s, equivalenti a 60 MB/s.
Velocità di trasmissione
73
Confronto tra velocità di vari sistemi
• Floppy disk 3,5" 1000 kbps = 125 KiB/s = 1 Mb/s
• CD-ROM 1x = 1200 kbps = 150 KiB/s = 1,2 Mb/s
• DVD 1x = 11000 kbps = 1375 KiB/s = 11 Mb/s
Modem analogico 56k = 56000 bps = 7000 B/s = 7 kB/s = 0,007 MB/s
ADSL 1 Mega = 1000 kbps = 125 KiB/s = 1 Mb/s
nota2: anche se un byte è formato da 8 bit, bisogna considerare i bit di correzione d'errore, per cui un kB/s
corrisponde a circa 8000 b/s (secondo il sistema di correzione usato), e la corrispondenza non è esattamente 1000 b/s
= 1000/8 B/s = 125 B/s.
Teoremi di Shannon e Nyquist
I canali trasmissivi utilizzati per la comunicazione dei dispositivi si suddividono in:
• Canali perfetti: non causano distorsioni o ritardi nella propagazione dei segnali.
• Canali ideali: causano solo un ritardo costante nella propagazione.
• Canali reali: causano attenuazioni e ritardi, in funzione della frequenza dei segnali.
Shannon e Nyquist hanno rispettivamente enunciato teoremi che esprimono la massima velocità di trasmissione per
ciascun tipo di canale.
Il massimo bit rate (data rate) relativo ai canali perfetti è dato dal Teorema di Nyquist, indicato di seguito, che lega la
larghezza di banda di un canale alla quantità di informazione trasportabile:
Massimo data rate =
[b/s]
dove H è la larghezza di banda del segnale e V il numero di livelli differenti presenti nel segnale.
Il massimo bit rate (data rate) relativo ai canali reali (con rumore termico) è dato dal Teorema di Shannon, indicato
di seguito, che considera anche il rumore:
Massimo data rate =
[b/s]
Dove H è la larghezza di banda del segnale , S e 'N sono rispettivamente la potenza del segnale e del rumore del
canale. Da questa espressione si deduce chiaramente che per ogni canale esiste un ben preciso limite fisico.
Voci correlate
•
•
•
•
Baud
Larghezza di banda
Teorema di Nyquist
Teorema di Shannon
Codec video
Codec video
Un codec video è un programma o un dispositivo sviluppato per descrivere un flusso video sotto forma di dati
numerici adatti ad essere memorizzati su un supporto digitale.
Usualmente i codec video effettuano anche una → compressione dei dati in modo da ridurre l'elevata quantità di dati
che compone un flusso video. La maggior parte dei codec video adottano tecniche di → compressioni lossy (a
perdita di informazioni) in modo da poter ridurre i dati necessari per trasmettere i flussi video anche di 20 volte o
più, ma esistono anche dei codec utilizzati per applicazioni professionali che utilizzano → compressioni lossless
(senza perdita di informazione).
Codifica intraframe e codifica interframe
A seconda della diversa tecnica di codifica del flusso video, i codec video si dividono in due grandi famiglie: a
codifica intraframe e a codifica interframe.
La codifica intraframe contraddistingue i codec che codificano e decodificano un flusso video descrivendo ogni
singolo fotogramma che compone la sequenza video, rispettando quindi un approccio tradizionale alla
quantizzazione video come sequenza di immagini statiche.
Nella codifica interframe invece i codec video si occupano di descrivere i cambiamenti che occorrono tra un
fotogramma ed il successivo partendo da un fotogramma iniziale descritto con codifica intraframe e seguendo un
approccio più innovativo alla quantizzazione video allo scopo di migliorarne l'efficienza sfruttando la capacità dei
sistemi di riproduzione moderni in grado di elaborare l'informazione per poi mostrarne il risultato.
La diversa dinamica dei due approcci fa si che la codifica intraframe è più adatta alla riproduzione di sequenze video
particolarmente movimentate, descrivendo ogni singolo fotogramma infatti, un codec a codifica intraframe potrà
degradare la qualità delle singole immagini all'aumentare del rapporto di compressione, ma tenderà comunque a
lasciare inalterata la dinamica del movimento.
I codec a codifica interframe risultano invece meno adatti alla codifica di sequenze movimentate per le quali
necessitano di descrivere grossi cambiamenti tra i fotogrammi. Al contrario, in sequenze video statiche, ovvero con
pochi elementi che cambiano nella scena, la codifica interframe risulta di notevole efficienza.
Voci correlate
• Codec audio
• → Compressione video digitale
74
Contenitore multimediale
75
Contenitore multimediale
Questa è una pagina di disambiguazione per orientarsi tra voci omonime o dal titolo ambiguo.
Se sei giunto qui da un'altra pagina, per favore torna indietro e correggi il collegamento, indirizzandolo alla voce più appropriata.
Un contenitore multimediale è un formato file che può contenere vari tipi di dati. Il suo ruolo è quello di
sincronizzare codec video, codec audio, sottotitoli e menu.
I contenitori più utilizzati sono:
•
•
•
•
•
•
→ Ogg ("Ogg Media", contenitore standard open source per Vorbis, → Theora e altri)
→ Audio Video Interleave (AVI) (contenitore standard Microsoft Windows)
ASF (contenitore standard per Microsoft WMA e WMV)
→ MOV (standard di QuickTime della Apple Inc.)
RealMedia (contenitore standard per RealVideo e RealAudio)
→ Matroska / MKV (non standard per alcun sistema ma in grado di contenere tutti i formati video ed audio sia
proprietari che open source)
Audio Video Interleave
Audio Video Interleave
Estensione
.avi
Tipo MIME video/avi video/msvideo
video/x-msvideo
Sviluppatore Microsoft
Tipo
→ Contenitore multimediale
AVI, acronimo di Audio Video Interleave, è un → Contenitore multimediale realizzato dalla Microsoft nel 1992
come formato standard video per il sistema operativo Windows. Nel febbraio del 1996, Microsoft decide di integrare
nel formato AVI un set di estensioni sviluppate da Matrox OpenDML. Questo nuovo tipo di file AVI viene
chiamato, non ufficialmente, "AVI 2.0".
AVI è un → contenitore multimediale e può contenere uno o due flussi audio e un flusso video. AVI non supporta
alcun formato di sottotitoli che devono quindi essere trasformati ed inseriti dentro il flusso video. La mancanza del
supporto per sottotitoli e la mancanza di supporto per formati aperti lo differenzia da altri contenitori multimediali
come → Matroska ed → Ogg.
Audio Video Interleave
76
Formati Multimediali Supportati
Video
Audio
Supporto
Supporto
Supporto
MPEG-1
Sì
→ MP3
Sì
MPEG-2
Sì
WMA
Sì
VobSubs
No
→
MPEG-4
Sì
RealAudio
No
Ogg
Writ
No
Vorbis
No
WMV
Sì
USF
No
AC3
Sì
RealVideo
Sì
DTS
Sì
→ Theora
Sì
FLAC
No
Flash
No
Voci correlate
• → Contenitore multimediale
• ASF
• → MOV
• → Ogg
• RealMedia
• → Matroska
• Sigle dei DivX
• Screener
Sottotitoli
integrati
Matroska
77
Matroska
Nome
Matroska (Матрёшка)
logo
estensione
mime
.mkv .mka
audio/x-matroska
video/x-matroska
sviluppatore The Matroska Project
tipo
→ Contenitore
multimediale
licenza
Pubblico dominio
sito web
http:/ / www. matroska. org
Matroska (le cui estensioni classiche sono .mkv e .mka) è un progetto volto a sviluppare un contenitore
multimediale simile a QuickTime di Apple, Mp4 di MPEG o l'Advanced Systems Format di Microsoft. Il suo nome
deriva dalle bambole Matrioska.
Il progetto è stato annunciato il 7 dicembre 2002 come fork del progetto Multimedia Container Format in seguito a
disaccordi con il creatore del progetto circa l'utilizzo dell'EBML (Extensible Binary Meta Language) invece di un
altro formato binario.
I fondatori del progetto Matroska credono che l'uso dell'EBML porti numerosi vantaggi, tra i quali facilitazioni in
una futura estensione del formato.
Obiettivi
Gli obiettivi del progetto sono diversi:
• Creare un formato contenitore multimediale moderno, flessibile, estensibile e multipiattaforma che permetta lo →
streaming attraverso Internet, una ricerca rapida all'interno del file e menu tipo → DVD.
• Sviluppare una serie di strumenti per la creazione e la modifica di file Matroska, da rilasciarsi sotto licenza GNU
General Public License.
• Sviluppare librerie che possano essere utilizzate dagli sviluppatori per avere il supporto Matroska alle loro
applicazioni, da rilasciarsi sotto licenza GNU General Public License.
• Lavorare in concerto con produttori di hardware per incorporare il supporto Matroska in dispositivi multimediali.
• Fornire supporto nativo a Matroska per diversi sistemi operativi, tra cui:
•
•
•
•
Linux tramite il GStreamer multimedia framework
Haiku tramite il suo Mediakit
Windows tramite DirectShow
Mac OS X tramite il framework QuickTime
Matroska
78
Formati multimediali supportati
Formati video supportati
Supporto
MPEG-1
No
MPEG-2
Sì
→
MPEG-4
Sì
WMV
Sì
RealVideo
Sì
→ Theora
Sì
Flash
Sì
Formati audio supportati
Supporto
→ MP3
Sì
WMA
Sì
RealAudio
Sì
Vorbis
Sì
AC3
Sì
DTS
Sì
FLAC
Sì
Formati sottotitoli integrati supportati
Supporto
VobSubs
Sì
Ogg
Writ
Sì
USF
Sì
Matroska
79
Voci correlate
• → Contenitore multimediale
•
•
•
•
•
→ AVI
ASF
→ MOV
→ Ogg
RealMedia
Collegamenti esterni
Homepage Ufficiale [1]
Note
[1] http:/ / www. matroska. org/
MPEG-4
MPEG-4, nato nel 1996 e finalizzato nel 1998 (fu presentato pubblicamente ad ottobre di quell'anno), è il nome dato
a un insieme di standard per la codifica dell'audio e del → video digitale sviluppati dall'ISO/IEC Moving Picture
Experts Group (MPEG). L'MPEG-4 è uno standard utilizzato principalmente per applicazioni come la videotelefonia
e la televisione digitale, per la trasmissione di filmati via Web, e per la memorizzazione su supporti CD-ROM.
MPEG-4 è basato sugli standard MPEG-1, MPEG-2 e Apple QuickTime technology, supportandone tutte le
caratteristiche; ISO approvò il formato QuickTime come base per lo standard MPEG-4, l'MPEG group riteneva
infatti che fosse la migliore base di partenza e che integrasse già alcune caratteristiche essenziali[1] ; lo standard
evolutosi possedeva inoltre tutta una serie di nuove funzioni come la gestione tridimensionale degli oggetti (tramite
un'estensione del VRML). I flussi audio e video vengono trattati dallo standard MPEG-4 come oggetti che possono
essere manipolati e modificati in tempo reale bidirezionalmente. Lo standard supporta caratteristiche specificate da
terze parti come una particolare gestione dei DRM o una gestione interattiva dei contenuti.
La maggior parte delle caratteristiche dell'MPEG-4 sono opzionali e quindi la loro implementazione è lasciata alla
discrezione dello sviluppatore. Questo implica che parte dei lettori mediali di file MPEG-4 non saranno magari in
grado di gestire tutte le caratteristiche del formato. Per permettere un'elevata interoperabilità, nel formato sono stati
inclusi i concetti di profilo e di livello, quindi i vari lettori MPEG-4 potranno essere suddivisi a seconda dei profili e
livelli supportati.
Componenti MPEG-4
MPEG-4 è suddiviso in vari sotto standard chiamati part (termine inglese che in italiano significa "parte"):
• Part 1 (ISO/IEC 14496-1): Systems: Describes synchronization and multiplexing of video and audio.
• Part 2 (ISO/IEC 14496-2): Visual: A compression codec for visual data (video, still textures, synthetic images,
etc.). One of the many "profiles" in Part 2 is the Advanced Simple Profile
• Part 3 (ISO/IEC 14496-3): Audio: A set of compression codecs for perceptual coding of audio signals.
• Part 4 (ISO/IEC 14496-4): Conformance: Describes procedures for testing conformance to other parts of the
standard.
• Part 5 (ISO/IEC 14496-5): Reference Software: Provides software for demonstrating and clarifying the other parts
of the standard.
• Part 6 (ISO/IEC 14496-6): Delivery Multimedia Integration Framework (DMIF).
MPEG-4
• Part 7 (ISO/IEC 14496-7): Optimized Reference Software: Provides examples of how to make improved
implementations (e.g., in relation to Part 5).
• Part 8 (ISO/IEC 14496-8): Carriage on IP networks: Specifies a method to carry MPEG-4 content on IP networks.
• Part 9 (ISO/IEC 14496-9): Reference Hardware: Provides hardware designs for demonstrating how to implement
the other parts of the standard.
• Part 10 (ISO/IEC 14496-10): A codec for video signals which is also called AVC (Advanced Video Coding) and
is technically identical to the ITU-T H.264 standard.
• Part 12 (ISO/IEC 14496-12): ISO Base Media File Format: A file format for storing media content.
• Part 13 (ISO/IEC 14496-13): Intellectual Property Management and Protection (IPMP) Extensions
• Part 14 (ISO/IEC 14496-14): MP4 File Format: The designated container file format for MPEG-4 content MP4,
which is based on Part 12.
• Part 15 (ISO/IEC 14496-15): AVC File Format: For storage of Part 10 video based on Part 12.
• Part 16 (ISO/IEC 14496-16): Animation Framework eXtension (AFX)
• Part 17 (ISO/IEC 14496-17): Timed Text subtitle format (not yet finished - reached "FCD" stage in January 2005)
• Part 18 (ISO/IEC 14496-18): Font Compression and Streaming (for OpenType fonts)
• Part 19 (ISO/IEC 14496-19): Synthesized Texture Stream
• Part 20 (ISO/IEC 14496-20): Lightweight Scene Representation (LASeR) .
• Part 21 (ISO/IEC 14496-21): MPEG-J Extension for Rendering (not yet finished - reached "CD" stage in January
2005)
I profili inoltre sono definiti all'interno di diverse Part, in modo che un'esecuzione di alcune caratteristiche di una
Part non implichi la necessità di supportare l'intera Part.
MPEG-1, MPEG-2, MPEG-7 e MPEG-21 sono altri standard MPEG.
Funzionamento
Il concetto alla base del codec (COdificatore-DECodificatore) MPEG4 è la Quantizzazione. Senza scendere nello
specifico, si può riassumere come quel processo che permette, mediante un apposito algoritmo di compressione, di
trasmettere solamente la variazione dell'immagine. Allo stato dell'arte infatti esistono due modi per eseguire questa
operazione: I-frame e P-frame4: il primo codifica l'immagine senza una referenza alla precedente (refresh puro): è
più preciso ma più pesante per le applicazioni via rete, mentre la seconda esegue una compensazione nella variazione
del movimento (motion-compensated frames) analizzando appunto la differenza di immagine tra due frame correnti.
La parte statica non è ritrasmessa e non cambia tra un quadro e l'altro.
Voci correlate
•
•
•
•
•
•
•
•
•
•
Advanced Audio Coding (AAC)
XviD
DivX
3ivx
Nero Digital
H.264
M4a
MPEG-4 Part 3
→ Theora
SBR
80
MPEG-4
81
Collegamenti esterni
• Tecnologia Mpeg-4 sviluppata da Apple (in inglese) [2]
•
•
•
•
•
•
•
•
Sito italiano sull'Mpeg4 [3]
(EN) MPEG-4: The Next Generation [4]
(EN) MPEG-4 Audio: AAC [5]
(EN) MPEG Industry Forum MPEG-4 page [6]
(EN) Moving Picture Experts Group (MPEG) Official Website [7]
Galleria di filmati in formato H.264/AVC [8]
FAQ sul formato H.264/AVC [9]
MPEG-4 part 20: LASeR [10]
Note
[1]
[2]
[3]
[4]
[5]
Vedere la voce Quicktime
http:/ / www. apple. com/ quicktime/ technologies/ mpeg4/
http:/ / www. m4a. it
http:/ / www. apple. com/ mpeg4/
http:/ / www. apple. com/ mpeg4/ aac/
[6] http:/ / www. m4if. org/ mpeg4/
[7] http:/ / www. chiariglione. org/ mpeg/
[8] http:/ / www. apple. com/ quicktime/ hdgallery
[9] http:/ / www. apple. com/ mpeg4/ h264faq. html
[10] http:/ / www. mpeg-laser. org
MOV (formato di file)
QuickTime Movie
Estensione
.mov .qt
Tipo MIME video/quicktime
Sviluppatore Apple Inc.
Tipo
Formati multimediali supportati
Formati video supportati
→ Contenitore multimediale
MOV (formato di file)
82
Supporto
MPEG-1
Sì
MPEG-2
Sì
→
MPEG-4
Sì
WMV
Sì
RealVideo
Sì
→ Theora
Sì
Flash
Sì
Formati audio supportati
Supporto
→ MP3
Sì
WMA
Sì
RealAudio
No
Vorbis
Sì
AC3
Sì
DTS
Sì
FLAC
Sì
Formati sottotitoli integrati supportati
Supporto
Voci correlate
• → Contenitore multimediale
•
•
•
•
•
→ AVI
ASF
→ Ogg
RealMedia
→ Matroska
VobSubs
No
Ogg
Writ
No
USF
No
Ogg
83
Ogg
Ogg Media
Estensione
.ogg .ogm .oga .ogv
.ogx
Tipo MIME video/ogg
audio/ogg
application/ogg
Sviluppatore Xiph.Org Foundation
Tipo
→ Contenitore multimediale
Licenza
licenza BSD
Sito Web
[1]
Ogg è un → contenitore multimediale libero per il trasporto di flussi di bit progettato per permettere sia lo →
streaming che l'archiviazione in maniera efficiente.
Il nome "Ogg" si riferisce al formato di file, che include un numero di codec indipendenti per il → video, l'audio ed
il testo (ad esempio, per i sottotitoli). I file con l'estensione ".ogg" possono contenere uno qualsiasi dei formati
supportati, e poiché il formato è liberamente implementabile, i vari codec ogg sono stati incorporati in molti
riproduttori multimediali, sia proprietari, sia liberi.
Spesso il termine "ogg" è stato usato per indicare il formato di file audio Ogg Vorbis, cioè un file audio codificato in
un file ogg con l'algoritmo Vorbis, poiché questo è stato il primo codec ad usare il contenitore ogg. Altri importanti
codec sviluppati per il contenitore ogg sono → Theora per la compressione video, e Speex, un algoritmo ottimizzato
per la compressione del parlato.
Il progetto è stato sviluppato originariamente da Christopher Montgomery della Xiph.Org Foundation.
È inoltre il formato ufficialmente preferito per i file audio e video di Wikipedia.
Licenze
Le specifiche di Ogg sono di pubblico dominio. Le librerie di riferimento per la codifica e decodifica sono rilasciate
sotto licenza BSD. Gli strumenti ufficiali per la gestione del container sono rilasciati sotto GNU General Public
License (GPL).
I codec di Ogg
Ogg è solo un formato che specifica il modo in cui i dati devono essere ordinati nel flusso dati. I dati audio o video
codificati da un codec specifico saranno inseriti nel contenitore Ogg. Il contenitore Ogg può contenere flussi
codificati con diversi codec: ad esempio, un file audio/video conterrà dati codificati con un codec audio e dati
codificati con un codec video.
Essendo un formato di contenimento, Ogg può integrare diversi codec. Di seguito le specifiche di Xiph.org in tal
senso:
Ogg
84
• → Codec video
• → Theora: codec di compressione video basato su VP3 di On2
• Dirac: codec sperimentale open source sviluppato originariamente da BBC
• Tarkin: codec sperimentale che utilizza trasformate wavelet 3D, nel frattempo reso obsoleto da Theora
• OggUVS: stream video non compresso
• Codec audio
• Vorbis: compressione di segnale musicale e audio generico (~16-256 kbit/s/canale)
• Speex: compressione della voce umana a bassi bitrate (~8-32 kbit/s/canale)
• FLAC: compressione audio lossless
• OggPCM: stream PCM non compresso concettualmente paragonabile a WAVEform audio di Microsoft
• Codec testo
• Writ: codec per la gestione del testo nei sottotitoli dei filmati
• Metadati
• Ogg Skeleton: formato ancora in fase sviluppo per spostare i metadati dal livello flusso a livello contenitore
Il problema dell'estensione file
Sebbene Xiph.org avesse previsto originariamente l'estensione .ogg per il contenitore a prescindere dall'effettivo
codec contenuto, l'organizzazione è ritornata sui suoi passi nel 2007, raccomandando di impiegare le sequenti
estensioni per i file Ogg:
•
•
•
•
.ogg
.spx
.oga
.ogv
per Ogg contenente solo audio in formato Vorbis
per Ogg contenente solo audio in formato Speex
per Ogg contenente solo audio in FLAC o OggPCM
per Ogg contenente almeno un flusso video
A queste si aggiunge l'estensione .flac utilizzata per identificare un flusso FLAC privo del container Ogg. Il
formato FLAC era infatti già esistente e funzionante indipendentemente dal contenitore Ogg, e solo in seguito donato
a Xiph.org.
Prima di questa presa di posizione, il programmatore Tobias Waldvogel era intervenuto sulle specifiche di Ogg per
permettergli di raggirare la limitazione del formato AVI di Microsoft a riguardo dell'audio in formato Vorbis. Per
identificare uno di questi file Ogg, che contengono codec audio e video arbitrari, la comunità ha autonomamente
fatto nascere l'estensione non ufficiale .ogm, con il significato di Ogg Media. Il contenuto più frequentemente
riscontrato in questi file è un flusso video XviD e almeno un flusso audio Vorbis.
Curiosità
• Nonostante la nota passione di Christopher Montgomery per Terry Pratchett e i suoi libri della serie del Mondo
Disco, in cui effettivamente esiste un personaggio chiamato Ogg, la vera etimologia del termine deriva da uno
slang coniato dallo stesso Montgomery in riferimento alla pesantezza dell'algoritmo Vorbis ai tempi della sua
nascita. Riprendendo il nome di una tattica del videogioco Netrek che consisteva in un attacco suicida, è diventato
di uso comune l'espressione inglese to ogg con il significato approssimativo di "intraprendere un'azione azzardata,
con esiti incerti e conseguenze probabilmente deleterie". Lanciare un processo di codifica di un brano musicale in
Ogg Vorbis, al tempo, rendeva infatti totalmente inutilizzabile il computer per diversi minuti.
• La struttura interna di un file Ogg ne permette il concatenamento per semplice accodamento binario. Il file
risultante è un Ogg perfettamente rispettoso delle specifiche, che prevedono appunto i cosiddetti chained streams.
Il modo più pratico di verificare questa caratteristica sono i comandi DOS
copy /b file1.ogg+file2.ogg newfile.ogg
o Unix
Ogg
85
cat file1.ogg file2.ogg > newfile.ogg
che generano un file chiamato newfile.ogg contenente i due brani allacciati tra loro con continuità perfetta
(caratteristica a volte chiamata gapless output).
Collegamenti esterni
• Pagina della Xiph.org Foundation dedicata ad Ogg [1]
• RFC 3533, le specifiche ufficiali del container Ogg
• RFC 3534, le specifiche del MIME type application/ogg
Voci correlate
• → Contenitore multimediale
•
•
•
•
•
→ AVI
ASF
→ MOV
RealMedia
→ Matroska
Collegamenti esterni
• (EN) OggWatch [2] Progetto per la diffusione dei formati Ogg
Note
[1] http:/ / www. xiph. org/ ogg/
[2] http:/ / www. oggwatch. com/
Theora
86
Theora
Theora è un codec → video sviluppato dalla Xiph.Org Foundation come parte del progetto → Ogg. È basato sul
codec VP3 della On2 Technologies, ed è progettato per competere con il video → MPEG-4 (come XviD e DivX),
RealVideo, Windows Media Video, e simili schemi di compressione video a basso bit rate.
VP3 è una tecnologia brevettata, ma On2 ha concesso in modo irrevocabile una licenza royalty free perpetua dei
brevetti collegati, permettendo al pubblico di usare Theora ed altri codec derivati da VP3 per qualsiasi uso senza
dover pagare diritti a On2. L'obiettivo di sviluppare un codec video esente da royalty ha posto delle limitazioni al
progetto che non ha potuto utilizzare alcune tecniche di compressione molto efficienti ma brevettate. Questo pone il
progetto dal punto di vista delle prestazioni nel segmento medio basso dei codec video, essendo simile come qualità
video a codec come l'→ MPEG-4 ASP e inferiore a sistemi come il H.264 il DivX e il VC-1.[1]
Theora è utilizzato per tutti i video di Wikipedia. Questo codec video è stato implementato nelle nuove versioni di
Firefox (3.5) e di Opera.
Nei flussi multimediali Ogg, Theora fornisce il layer video, mentre Vorbis è usato di solito come layer audio
(sebbene anche Speex e FLAC possano essere usati per l'audio).
Cronologia dello sviluppo
Theora è il nome del codec video che Xiph.Org ha rilasciato nella sua prima versione stabile, la 1.0 [2] .
Precedentemete sono state rilasciate sette versioni Alfa; sebbene questa denominazione denoti versioni non definitive
di sviluppo, il gruppo Theora ha già annunciato di aver fermato le modifiche al bitstream dal rilascio della Alfa 3,
dunque tutti i video clip prodotti da allora saranno correttamente decodificati dalle versioni successive, in conformità
alle specifiche Theora I.
Alfa uno
rilasciata il 25 settembre 2002
Alfa due
rilasciata per metà il 16 dicembre e per metà il 27 dicembre 2002
Alfa tre
rilasciata il 20 marzo 2004
Alfa quattro
rilasciata il 15 dicembre 2004
Alfa cinque
rilasciata il 20 agosto 2005
Alfa sei
rilasciata il 30 maggio 2006
Alfa sette
rilasciata il 20 giugno 2006
Beta
rilasciata il 1 ottobre 2007[1]
Ver 1.0
rilasciato il 3 novembre 2008
Ver 1.1
rilasciato il 24 settembre 2009[3]
Theora
87
Voci correlate
• Xiph.Org Foundation
• → Ogg
Collegamenti esterni
•
•
•
•
•
(EN) Theora.org [4]
(EN) Xiph.org Foundation [5]
(EN) On2 Technologies [6]
(EN) VP3.com [7]
Elenco di video Theora [8] -- video scaricabili in formato Ogg Theora
Note
[1] Quasi pronta l'alternativa free a DivX (http:/ / punto-informatico. it/ p. aspx?i=2077274). Punto Informatico, 1-10-2007. URL consultato il
1-10-2007.
[2] La prima versione stabile di Theora (http:/ / punto-informatico. it/ 2466472/ PI/ News/ ecco-theora-10-alternativa-free-divx. aspx). Punto
Informatico, 7-11-2008. URL consultato il 7-11-2008.
[3] Theora 1.1, l'alternativa open a H.264 (http:/ / punto-informatico. it/ 2716448/ PI/ News/ theora-11-alternativa-open-h264. aspx). Punto
Informatico, 29-9-2009. URL consultato il 29-9-2009.
[4] http:/ / theora. org/
[5] http:/ / xiph. org/
[6] http:/ / on2. com/
[7] http:/ / vp3. com/
[8] http:/ / wiki. xiph. org/ index. php/ List_of_Theora_videos
88
Audio Digitale
Compressione audio digitale
La compressione audio è una tecnica che permette di ridurre le dimensioni di un file audio o la banda passante
richiesta per una trasmissione audio, anche di molto.
Un file è una sequenza di cifre binarie (bit) utilizzata come veicolo di informazione. Comprimere significa ridurre il
numero delle cifre che costituiscono la sequenza mantenendo l'informazione inalterata o in un intorno
dell'informazione originaria (ossia facendo in modo che la nuova informazione approssimi quella precedente).
I motivi della compressione sono:
• occupare minor spazio in fase di immagazzinamento
• impiegare minor tempo in fase di trasferimento dati.
Il costo è l'aumento dei tempi di lettura/scrittura legati rispettivamente a tempi di decompressione/compressione. Nel
caso di file audio si ha un costo anche in termini di qualità dell'audio.
Esistono due tipi di compressione:
• con perdita (lossy): quando l'informazione contenuta nel file compresso è minore di quella contenuta nel file di
origine
• senza perdita (lossless): quando l'informazione contenuta nel file compresso è identica a quella contenuta nel file
di origine
La prima permette compressioni maggiori, ma a scapito della qualità sonora.
Usando un algoritmo di compressione senza perdita, dal risultato della compressione si può riottenere tutta
l'informazione originaria. In questo caso la riduzione massima generalmente ottenibile, utilizzando algoritmi studiati
appositamente per l'audio è all'incirca del 60%, ma solo con alcuni tipi di suono. Si possono utilizzare gli stessi
algoritmi generali di compressione (come per esempio ZIP o Gzip) ma i risultati in termine di riduzione sono
inferiori.
Esempio: FLAC, APE, ALE
Compressione con perdita
Dal risultato della compressione audio con perdita non si può più ottenere un suono identico all'originale ma la
riduzione ottenibile è molto spinta: con rapporti di compressione di 10 a 1, il risultato è quasi indistinguibile
dall'originale ma ci si può spingere anche oltre a discapito della qualità.
Gli studi di psicoacustica hanno permesso di accertare che l'uomo non è sensibile nello stesso modo a tutte le
frequenze e che un suono ad alta intensità ne maschera uno con frequenza vicina ma intensità più bassa. Sfruttando
queste ed altre considerazioni, si può pensare di eliminare l'informazione che non verrebbe comunque percepita ed
ottenere quindi un buon rapporto di compressione.
Esempi:
• mp3 (MPEG-1 Layer III) è stato introdotto negli anni '80 ed è il più popolare. Essendo il più antico, è anche il
meno efficiente e spesso il peggiore in termini di qualità.
• Windows Media Audio (WMA) è molto diffuso sui sistemi Windows.
• Ogg Vorbis è un codec più efficiente dell'mp3 ed è open source (ossia liberamente distribuibile e modificabile)
Compressione audio digitale
• AAC è stato reso popolare dalla Apple. Apple's iTunes Music Store fa uso di file compressi con 128Kbps CBR
AAC e lo standard video MPEG4 raccomanda l'uso dell'AAC audio nei prossimi apparecchi e software.
• Dolby Digital (AC3) può comprimere fino a 6 canali audio, di cui 5 a piena larghezza di banda ed uno per gli
effetti a bassa frequenza (LFE), fino a 384 kbit/s. Viene utilizzato nei → DVD e nel sistema americano ATSC
DTV.
• MPC o Musepack è un formato opensource con una qualità maggiore dell'mp3 a parità di bitrate.
Bitrate
I file multimediali sono per loro natura connessi al tempo che scorre. In altri termini ad ogni secondo è associato un
certo contenuto informativo e quindi una certa sottosequenza di cifre binarie. Il numero di cifre binarie che
compongono queste sottosequenze è detto bitrate. In altre parole il bitrate è il numero di cifre binarie impiegate per
immagazzinare un secondo di informazione. Questo può essere costante per tutta la durata del file o variare
all'interno di esso. Ad esempio i cd musicali vengono campionati (registrati) ad una frequenza pari a 44.100Hz. Da
ciò si evince che ogni secondo si hanno 44.100 valori registrati dall'ipotetico microfono che vanno poi moltiplicati
per i 2 canali del suono stereo che vanno a loro volta moltiplicati per 2 poiché la registrazione avviene a 16 bit (pari
appunto a 2 byte). Quindi avremo:
44.100 x 2 x 2 x 60 (secondi) = ~10 MB ogni minuto
La compressione, diminuendo la lunghezza globale del file, diminuirà di conseguenza la lunghezza media delle
sottosequenze ossia diminuirà il bitrate medio. Il bitrate medio diventa dunque in questi casi l'indice dell'entità della
compressione. Ad esempio se il file di origine possedesse un bitrate di 1411 Kbit/s e il file compresso possedesse un
bitrate medio di 320 Kbit/s, allora avremmo ridotto di un fattore pari a circa 4.5.
Una compressione lossy effettua un compromesso fra la perdita d'informazione e la dimensione del file finale,
mentre una losless deve bilanciare la dimensione del file finale con i tempi di esecuzione dell'algoritmo.
89
MP3
90
MP3
Motion Picture Expert Group-1/2 Audio Layer 3
Estensione
.mp3
Sviluppatore
Istituto Fraunhofer
Tipo
→ Compressione audio digitale
Sviluppatore
Istituto Fraunhofer
Tipo
→ Compressione audio digitale
→ Lossy / → Lossless
Lossy
Licenza
Formato brevettato, specifiche pubbliche
Sito web
Istituto Fraunhofer
[1]
|+ style="text-align: center; font-size: larger; margin-left: inherit;" | MPEG 1 Audio Layer 3 MP3 (per esteso
Motion Picture Expert Group-1/2 Audio Layer 3, noto anche come MPEG-1 Audio Layer 3) è un algoritmo di
compressione audio di tipo → lossy in grado di ridurre drasticamente la quantità di dati richiesti per memorizzare un
suono, rimanendo comunque una riproduzione accettabilmente fedele del file originale non compresso.
Storia
La codifica MPEG-1/2 Layer 2 iniziò come progetto presso la DAB e
promosso dalla Fraunhofer IIS-A. Venne finanziato dall'Unione
europea come parte di un programma di ricerca più vasto chiamato
EUREKA comunemente conosciuto con il codice EU-147.
EU-147 fu attivo dal 1987 al 1994. Nel 1991 vennero fatte due
proposte per uno standard disponibile: Musicam (conosciuto come
Layer II) e ASPEC (Adaptative Spectral Perceptual Entropy Coding)
(con analogie con l'MP3). Venne scelto Musicam perché più semplice
ed affidabile.
Una delle sedi del Fraunhofer Institute
Un gruppo di lavoro condotto da Karlheinz Brandenburg e Jürgen Herre fece confluire gli studi su Musicam e
ASPEC con alcune loro idee e creò l'MP3, che fu progettato per realizzare la stessa qualità a 128 kbit/s dell'MP2 a
192 kbit/s.
Entrambi gli algoritmi furono completati nel 1992 con la sigla MPEG-1, come prima fase di sviluppo del progetto
denominato MPEG e definito come standard internazionale con il codice ISO/IEC 11172-3 e pubblicato nel 1993.
Un'ulteriore fase del progetto MPEG Audio si concluse nel 1994 con la creazione dell'MPEG-2 definito come
standard internazionale con il codice ISO/IEC 13818-3 e pubblicato nel 1995.
L'efficienza di un algoritmo di compressione è tipicamente giudicata dal bitrate finale che riesce ad ottenere, mentre
la metrica del tasso di compressione, che sembrerebbe più naturale, dipende sia dalla frequenza che dal numero di bit
del segnale in ingresso. Ciononostante, vengono comunemente comunicati tassi di compressione che utilizzano i CD
come riferimento, uno dei più comuni è quello a 44.1 kHz e 2x16bit. Qualche volta vengono utilizzati anche
parametri DAT SP (48KHz, 2x16bit). Il tasso di compressione in questo sistema di riferimento è maggiore, il che
dimostra le difficoltà nel definire il termine compressione come perdita di qualità nella codifica. Karlheinz
Brandenburg ha utilizzato il CD di Suzanne Vega, "Tom's Diner" come modello di riferimento dell'algoritmo di
MP3
91
compressione per l'MP3. Questo CD è stato scelto per la sua dolcezza e semplicità, rendendo facile l'ascolto di
qualsiasi imperfezione che la compressione può causare durante la registrazione.
La pagina web ufficiale pubblica i seguenti tassi di compressione per l'MPEG-1 Layer 1,2 e 3.
• Layer 1: 384 kbit/s, compressione 4:1
• Layer 2: 192...256 kbit/s, compressione 6:1...8:1
• Layer 3: 112...128 kbit/s, compressione 10:1...12:1
Questi sono valori piuttosto aleatori in quanto:
• La qualità dipende non solo dal formato di codifica del file, ma anche dalla qualità psico acustica del codificatore.
Il codificatore tipico layer 1 usa un modello psicoacustico molto elementare che finisce per richiedere molti più
bit per un risultato soddisfacente.
• La codifica Layer 1 a 384 kbit/s, anche con questo semplice "psico acustico" è migliore della codifica Layer 2 a
192 … 256 kbit/s.
• La codifica Layer 3 a 112 … 128kbit/s è peggiore del Layer 2 a 192 … 256 kbit/s
Un modo più realistico per considerare il bitrate è:
• Layer 1: eccellente a 384 kbit/s
• Layer 2: eccellente a 256...320 kbit/s, molto buono a 224...256 kbit/s, buono a 192...224 kbit/s, non si dovrebbe
usare sotto i 160 kbit/s
• Layer 3: eccellente a 224...256 kbit/s, molto buono a 192...224 kbit/s, buono a 160...192 kbit/s, non si dovrebbe
usare sotto i 128 kbit/s
Il confronto di un nuovo formato di file, viene fatto confrontando la qualità media di compressione del nuovo
formato con un encoder di alta qualità e molto ottimizzato, del vecchio formato.
L'algoritmo che utilizza il formato MP3, si basa su una trasformazione ibrida che trasforma il segnale dal dominio
temporale a quello delle frequenze.
• 32 band filtro in quadratura polifase
• 36 or 12 Tap MDCT, la dimensione può essere selezionata indipendentemente dalla sottobanda 0...1 e 2...31
• processamento addizionale per ridurre gli effetti di aliasing
L'AAC → MPEG-4, è il formato erede dell'MP3 sempre secondo le specifiche MPEG. Tra i successori del formato
MP3 è degno di nota l'Ogg Vorbis per la qualità di codifica e per il fatto di essere un progetto Free Software. Quasi
tutti gli altri formati sono legati a delle aziende proprietarie di diverse brevetti e licenze legate alle specifiche MPEG.
La diffusione del formato MP3 e di software gratuiti (come Winamp) apportarono una piccola rivoluzione nel
mondo della musica, la diffusione delle playlist. In precedenza le canzoni di successo erano attentamente intercalate
ai motivi meno riusciti nei CD e nelle audiocassette che si potevano ascoltare solamente nell'ordine studiato dal
produttore. Con l'avvento dei supporti digitali questo non accade più ed è possibile una maggiore personalizzazione.
Qualità del formato MP3 audio
Molti ritengono di qualità accettabile per il formato MP3 il bitrate di 128 kilobits al secondo, qualità che si avvicina
a quella di un CD. Questo bitrate è il risultato di un tasso di compressione che si avvicina al rapporto di 11.02:1.
Tuttavia test di ascolto mostrano che, attraverso un po' di pratica, molti sono in grado di distinguere un formato MP3
a 128 kbit/sec da un CD originale. Per molti altri, 128 kbit/s è una qualità di ascolto bassa, da un'analisi condotta
dalla rivista SUONO, l'opinione dei conduttori al termine della prova, risulta che solo a 256 kbit/s si può parlare di
alta fedeltà.
Possibili codificatori
• codice di riferimento ISO dist10: è la qualità peggiore; file MP3 difettoso (tutti i blocchi audio sono marcati come
difettosi)
MP3
92
•
•
•
•
•
Xing: principalmente basato sul codice ISO, qualità simile all'ISO dist10.
Blade: qualità simile all'ISO dist10
FhG: Alcune di loro sono buone, ma altre hanno gravi difetti.
ACM Producer Pro: Alcune versioni generano dei disturbi fastidiosi
L.A.M.E (è un acronimo ricorsivo, per "Lame Ain't MP3 Encoder", letteralmente "Lame non è un codificatore
MP3", iniziò come una patch dimostrativa GPL che modificava l'originale codificatore dist10 ISO, realizzata da
Mike Cheng all'inizio del 1998, ed era quindi incapace di produrre file MP3 per conto suo o di essere compilato
separatamente. Nel maggio 2000 gli ultimi resti del codice sorgente ISO furono sostituiti conferendo così al
codice sorgente LAME piena funzionalità come codificatore LGPL MP3, in grado di competere con i principali
codificatori presenti sul mercato. Lame development at Sourceforge [2].
Nel sito [3] è possibile trovare un front end di Windows per il codificatore LAME (il "popolo" di JTHZ.com utilizza
LAME dal 1998).
La qualità di un file MP3 dipende dalla qualità della codifica e dalla difficoltà con la quale il segnale deve essere
codificato. Buoni codificatori hanno una qualità accettabile da 128 a 160 kbit/s, la chiarezza perfetta di un brano si
ottiene da 160 a 192 kbit/s. Un codificatore che ha bassa qualità lo si riconosce ascoltando persino un brano a 320
kbit/s. Per questo non ha senso parlare di qualità di ascolto di un brano di 128 kbit/s o 192 kbit/s. Una buona codifica
MP3 a 128 kbit/s prodotta da un buon codificatore produce un suono migliore di un file MP3 a 192 kbit/s codificato
con uno scarso codificatore.
Una caratteristica importante dell'MP3 è la → perdita di dati dovuta alla compressione – è il modo con cui si
rimuove l'informazione dal file audio originale allo scopo di risparmiare spazio. Nei moderni codificatori MP3 gli
algoritmi più efficaci fanno di tutto per assicurare che i suoni rimossi siano quelli che non possono essere rilevati
dall'orecchio umano. Questo risultato è stato ottenuto anche grazie alla scienza della psicoacustica.
Tuttavia molti ascoltatori sono in grado di riconoscere la differenza confrontando un CD originale con un formato
MP3 da 192 kbit/s e persino a 256 kbit/s di alcuni codificatori meno potenti e più obsoleti. Se il vostro scopo è di
memorizzare file audio con una fedeltà massima indirizzatevi su un compressione audio del tipo FLAC, SHN, o
LPAC. Questi generalmente comprimono un file audio PCM a 16-bit approssimativamente dal 50 al 75%
dell'originale (questo dipende dalla caratteristiche del file audio stesso).
Bit rate
Il bit rate è il numero di unità binarie che fluiscono al secondo ed è variabile per i file MP3. La regola generale è che
maggiore è il bitrate, più informazione è possibile includere dall'originale, maggiore è la qualità del file audio
compresso. Attualmente per le codifiche dei file MP3 fissano un tasso di compressione equivalente per tutto il file
audio.
Per l'MPEG-1 layer 3 i bitrate disponibili sono: 32, 40, 48, 64, 80, 96, 112, 128, 160, 192, 224, 256 e 320 kbit/s (
bits per secondo), e le frequenze campionate disponibili sono 32, 44.1 e 48 Khz. La frequenza di
campionamento a 44.1 kHz è quasi sempre utilizzata per i CD audio, mentre i 128 Kbit/s come una sorta di bitrate
standard "abbastanza buono". L'MPEG-2 e l'MPEG-2.5 (non-ufficiale) contemplano un numero maggiore di bitrate:
8, 16, 24, 32, 40, 48, 56, 64, 80, 96, 112, 128, 144 e 160 kbit/s
I file MP3 audio sono suddivisi in settori ("chunks" in inglese) chiamati frames, ("fotogrammi" in italiano). Ognuno
di questi settori è provvisto di un marcatore del tasso di compressione; in questo modo, mentre il file audio viene
riprodotto, è possibile modificarlo dinamicamente. Questa tecnica rende possibile utilizzare più bit per la parte del
suono ad alta dinamica (suoni più complessi) e meno bit per la parte a bassa dinamica (suoni meno complessi).
MP3
93
Individuazione dei difetti nei file MP3
Vi sono diversi difetti nel formato dei file MP3, che non possono essere individuati neanche dal migliore dei
codificatori e sono insiti nelle caratteristiche stesse del formato (In parentesi il formato file dove questo difetto viene
corretto).
•
•
•
•
•
Un tempo di risoluzione troppo basso per un segnale transiente molto alto (AAC, Ogg Vorbis)
ritardo complessivo di codifica/decodifica non definito (Ogg Vorbis)
nessun fattore di banda per frequenze sotto i 15.5/15.8 kHz (AAC, Ogg Vorbis)
Il collegamento stereo è fatto sulla base di un frame, o "fotogramma" (AAC, Ogg Vorbis)
Il bitrate è limitato a 320 kbit/s (AAC, Ogg Vorbis)
Codificatori di file MP3 audio
Lo standard MPEG-1 non definisce specifiche precise per i codificatori MP3. L'algoritmo di decodifica e il formato
del file, invece sono definiti molto bene. Si presume che il creatore dello standard abbia escogitato un algoritmo per
rimuovere appropriate parti di informazioni da un file originale, o piuttosto una rappresentazione in dominio di
frequenza (MDCT). Questo processo si basa tipicamente sulla codifica psico acustica, ossia vengono rimossi quei
suoni che l'orecchio umano non è in grado di percepire sia mediante l'orecchio che il cervello.
Come risultato, vi sono molti codificatori MP3 differenti, ognuno in grado di riprodurre file di qualità differente; al
30 settembre 2001 il migliore codificatore ad alto bitrate (128 kbit/s e superiori) è LAME [2]. Per i bitrate più bassi il
miglior codificatore è il Fraunhofer, ma vi sono diverse opinioni. La decodifica MP3, è tuttavia ben definita da uno
standard. Molti decodificatori sono "bitstream compliant", ossia sono in grado di riprodurre esattamente un brano
dello stesso file MP3 non compresso.
ID3
L'ID3 tag è una classificazione dei formati che permettono l'inserimento, nel file MP3, della descrizione, del titolo,
dell'artista e dell'album, o il numero della traccia.
Alternative all'MP3
Vi sono molti altri codec audio alternativi all'MP3:
•
•
•
•
•
•
•
•
•
•
Ogg Vorbis dalla Xiph.Org Foundation, libero da brevetti;
mp3PRO dalla Thomson Multimedia;
MPEG-1/2 Audio Layer 2 (MP2), predecessore dell'MP3;
MP+, una derivato dell'MP2;
→ MPEG-4 AAC, utilizzato da LiquidAudio e Apple Inc. nell'iTunes Store;
ATRAC, usato dai Minidisc della Sony;
AC-3, usato dalla Dolby Digital per i → DVD;
QDesign, usato da QuickTime per alti bitrate;
Windows Media Audio (WMA) da Microsoft;
RealAudio da RealNetworks.
mp3PRO, MP3, AAC, e MP2 sono tutti membri della stessa famiglia tecnologica e si basano su modelli
psicoacustici simili.
Il Fraunhofer Gesellschaft è proprietario di alcune licenze di codec: Dolby Labs, Sony, Thompson Consumer
Electronics, mentre AT&T possiede altri brevetti. Su Internet si trovano altri metodi di compressione privi di perdite.
Pur non essendo simili all'MP3, essi sono buoni esempi di altri metodi di compressione disponibili:
• SHN
MP3
94
• FLAC
• Monkey's Audio (APE)
Il formato MP3 fu progettato per essere utilizzato in parallelo al formato Video MPEG-1/2, e per questo non in grado
di riprodurre adeguatamente i suoni al di sotto dei 48 kbit/s (mono) o degli 80 Kbit/s (stereo).
Nonostante alcuni fautori di codec più recenti come WMA, mp3PRO e RealAudio affermino che i loro rispettivi
algoritmi sono in grado raggiungere una qualità CD già con 64 kbit/s, i test di ascolto cieco sembrano smentirli. Va
comunque apprezzata l'indiscussa superiorità di questi e altri formati su MP3 a pari larghezza di banda impiegata.
Tra gli altri, la Xiph.Org Foundation, sviluppatrice dell'algoritmo Vorbis utilizzato assieme al container multimediale
→ Ogg, in supporto al proprio formato di compressione Free Software, fornisce in una pagina web [4] dei test di
ascolto comparato tra diversi formati audio.
Licenze e brevetti
La Thomson Consumer Electronics è proprietaria del brevetto
MPEG-1/2 Layer 3 in U.S.A. e in Giappone. La Microsoft, che ha
progettato il sistema operativo Windows, ha scelto di creare il proprio
formato proprietario WMA invece di utilizzare l'MP3, in questo modo
evita di dover pagare le relative royalties.
Per informazioni sui costi vedere: [5] e [6].
Sotto la presidenza di Mario Monti, l'antitrust europeo multò Microsoft
per abuso di posizione dominante con il massimo della sanzione, il
10% del fatturato. Microsoft fu costretta ad abilitare l'installazione su
Un lettore MP3
Windows di lettori audio diversi dal nativo Windows Media Player,
venduto insieme al sistema operativo. Questi software permettevano di ascoltare l'mp3 e altri formati diversi dal
".wma": alla fine, lo stesso software "Windows Media Player" è stato modificato per la lettura di molti codec e la
loro masterizzazione, fra i quali c'è l'mp3.
Nonostante queste scelte, il formato MP3 continua ad essere ampiamente utilizzato. Vediamo perché:
• Ormai la maggior parte degli utenti ha familiarità con il formato
• La maggior parte della musica disponibile è in formato MP3
• Una grande varietà di software e di hardware hanno ottenuto dei notevoli vantaggi da questo formato,
rivoluzionando l'industria musicale e le leggi sul copyright.
• Assenza di controlli sulla copia e distribuzione. Assenza di DRM (Digital Rights Management)
• L'mp3 è un file generalmente poco pesante rispetto a molti altri formati. Tuttavia è superato nel rapporto
qualità/bitrate sia da WMA che da Ogg Vorbis , AAC. Fornisce una qualità audio più che buona con file che
occupano da 3 ai 5 MB (MegaByte), per una tipica canzone di 5 minuti compressa ad un bitrate di 128
kbit/secondo. Ciò consente il download di singoli brani anche ad utenti che non hanno una connessione ADSL, di
memorizzare parecchie ore di musica nei lettori Multimediali.
• La rivoluzione dell'mp3 sta nel fatto che i modelli psicoacustici usati per la codifica del flusso audio sfruttano il
fenomeno del mascheramento. L'orecchio umano infatti non è in grado di percepire determinati suoni sovrapposti.
In questo modo viene codificata minore informazione, senza disturbare però la qualità percettiva.
MP3
95
Voci correlate
• Lettore MP3
• Bit rate
Collegamenti esterni
• MP3 [7] su Open Directory Project ( Segnala [8] su DMoz un collegamento pertinente all'argomento "MP3")
Note
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
http:/ / www. iis. fraunhofer. de/ amm/ techinf/ layer3/
http:/ / lame. sourceforge. net/
http:/ / jthz. com/ mp3
http:/ / www. xiph. org/ vorbis/ listen. html
http:/ / www. mp3licensing. com/ help/ developers. html
http:/ / www. mp3licensing. com/ royalty/ index. html
http:/ / www. dmoz. org/ Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/
http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Computers/ Multimedia/ Music_and_Audio/ Audio_Formats/ MP3/
96
Diffusione del Video Digitale
Televisione digitale
La televisione digitale, o TV digitale, è la televisione
rappresentata in forma digitale. Da un punto di vista tecnico,
infatti, la televisione è un'informazione elettronica e l'informazione
elettronica può essere rappresentata in due forme diverse:
analogica o digitale.
La televisione digitale si contrappone alla televisione analogica
proprio perché quest'ultima utilizza l'altra forma di
rappresentazione dell'informazione elettronica, la rappresentazione
analogica.
Tipologie di televisione digitale
Le tipologie di televisione digitale sono:
•
•
•
•
•
•
•
Box della TV digitale
televisione digitale terrestre
televisione digitale via cavo
televisione digitale satellitare
televisione mobile
→ IPTV
→ Web TV
P2P TV
La televisione digitale terrestre (DTT) è analoga per prestazioni e
qualità alla televisione digitale satellitare. Questa tecnologia
permette però un più facile accesso da parte di tutti gli utenti in
quanto non richiede l'installazione di un'antenna parabolica ma
Box della TV digitale
utilizza le strutture preesistenti create per la televisione analogica
terrestre per trasmettere e ricevere i segnali. In questo modo
l'utente deve solo dotarsi dell'apposito decoder senza dover in genere intervenire sull'impianto d'antenna preesistente.
La televisione digitale via cavo è una tecnologia di trasmissione televisiva basata su cavo coassiale o su fibra ottica
[1] anziché sulle antenne. Con questa tecnologia è necessario che l'utente finale sia connesso direttamente tramite un
cavo all'emittente con conseguente aumento dei costi per l'emittente stessa che deve raggiungere singolarmente ogni
utente ma con grandi vantaggi dell'utente finale che può usufruire dei grandi vantaggi della trasmissione digitale non
ultima anche la possibilità di contemporaneo accesso ad Internet a banda larga.
La televisione digitale satellitare (Sat TV) è una tecnologia in cui l'emittente invia i dati video ad un satellite posto in
orbita geostazionaria il quale ritrasmette il segnale ad un'area (footprint) molto vasta comprendente parecchie
nazioni. Per ricevere queste trasmissioni l'utente finale deve dotarsi di un'apposita antenna parabolica che raccoglie e
amplifica il debole segnale proveniente dal satellite posto a 36000 km di quota e lo invia al decoder collegato a sua
volta al televisore.
L'IPTV è una tecnologia non ancora molto diffusa in Italia che sfrutta la banda larga di Internet (per ora in Italia
ADSL e fibra ottica) per consentire all'utente finale di ricevere contenuti multimediali direttamente sulla TV di casa
Televisione digitale
(tramite apposito decoder) o sul computer, con una qualità variabile da quella della televisione analogica a quella
della televisione digitale a seconda della capacità della linea di trasmissione usata per connettersi a Internet.
Classificazioni
Nel dicembre del 2007 all'interno di un convegno organizzato dall’Osservatorio New TV della School of
Management del Politecnico di Milano è stata introdotta un'interessante classificazione che divide in tre categorie le
piattaforme digitali esistenti:
• Sofa TV, che comprende le televisioni che fruite tipicamente tramite il tradizionale televisore dotato di un
decoder. Questa categoria comprende Sat Tv, DTT e → IpTv;
• Desktop TV, che include tutti i canali fruibili su pc tramite Web: → Web TV, P2P TV;
• Hand TV, che include i canali Tv fruibili tramite cellulari, smartphone, palmari e tivufonini grazie alle reti
DVB-H, 2G, 3G.[2]
Caratteristiche della televisione digitale
Approfondimento di carattere generale
Nell'affrontare le differenze tra rappresentazione analogica e rappresentazione digitale dell'informazione elettronica è
importante sfatare subito un mito. A livello mediatico la rappresentazione digitale dell'informazione elettronica è
presentata come sinonimo di maggiore qualità rispetto alla rappresentazione analogica e tale idea si è ormai
diffusamente affermata. Ciò è assolutamente falso: la qualità della rappresentazione in forma elettronica di
un'informazione non dipende dal tipo di rappresentazione utilizzata. I vantaggi della rappresentazione digitale
dell'informazione elettronica rispetto a quella analogica sono altri:
• è possibile ottenere una copia identica dell'informazione elettronica, anche se si tratta di una copia della copia;
• è possibile trasmettere senza errori l'informazione elettronica in un sistema di telecomunicazioni;
• possibilità illimitate di manipolazione dell'informazione elettronica.
Questi indubbi vantaggi hanno fatto diventare la rappresentazione digitale dell'informazione elettronica la scelta
privilegiata, ed essendo la rappresentazione digitale dell'informazione elettronica più recente della rappresentazione
analogica è in atto un progressivo passaggio dalla rappresentazione analogica a quella digitale.
Nella rappresentazione analogica dell'informazione elettronica l'informazione elettronica varia con analogia
all'informazione che si vuole rappresentare in forma elettronica. Ciò significa che l'informazione elettronica varia
con continuità e può assumere un numero anche molto alto di valori. Nella rappresentazione digitale
dell'informazione elettronica invece l'informazione che si vuole rappresentare in forma elettronica viene codificata in
una sequenza di numeri binari. Ciò significa che l'informazione elettronica varia in modo discreto e può assumere
solo due valori.
Due valori possibili per l'informazione elettronica rappresentano il numero minimo di variazioni per poter
rappresentare un'informazione, se l'informazione elettronica infatti potesse assumere solo un valore non sarebbe più
in grado di rappresentare alcuna informazione. Due valori possibili per l'informazione elettronica rappresentano
anche l'informazione elettronica più semplice da trattare (trasportare ed elaborare), tanto da permettere come già
detto la copia, e la trasmissione in un sistema di telecomunicazioni, senza errori.
L'informazione elettronica analogica variando in modo continuo e potendo assumere un numero anche molto alto di
valori è invece estremamente più difficile da trattare tanto che, anche con le apparecchiature più complesse, non è
possibile copiarla, o trasmetterla in un sistema di telecomunicazioni, senza un minimo degrado. Per contro
l'informazione elettronica digitale, essendo un'informazione codifica, è sottoposta a processi di codifica e decodifica,
quindi necessita di una potenza di calcolo adeguata. Più l'informazione da rappresentare in forma elettronica è
complessa maggiore è la potenza di calcolo necessaria.
97
Televisione digitale
La rappresentazione analogica dell'informazione elettronica è propria dell'elettronica analogica, mentre la
rappresentazione digitale dell'informazione elettronica è propria dell'elettronica digitale. La prima forma di
rappresentazione dell'informazione elettronica utilizzata è stata quella analogica, l'elettronica cioè è nata come
elettronica analogica. Solo nel 1941 inizia a diffondersi la rappresentazione digitale dell'informazione elettronica con
la realizzazione dell'Atanasoff–Berry Computer, il primo computer elettronico della storia, ma la potenza di calcolo
necessaria per una televisione digitale diventa alla portata del consumatore medio solo negli anni '90 del XX secolo.
La televisione digitale inizia infatti a diffondersi solo nel 1994.
Vantaggi rispetto alla televisione analogica
La televisione digitale rispetto alla televisione analogica presenta i seguenti notevoli vantaggi:
• qualità della trasmissione: il segnale digitale ha la caratteristica di essere molto più "pulito" di quello analogico,
grazie alla complessa tecnologia di soppressione del rumore e dei disturbi; questo fa sì che le immagini ricevute in
digitale siano del tutto prive di "bande", "effetto neve", nebbia, colori sbagliati e quant'altro. Con la TV digitale,
l'immagine o si vede o non si vede, non ci sono vie di mezzo; al massimo, in casi estremi di scarsa potenza del
segnale ricevuto, si possono vedere immagini "a quadrettoni", perché i dati non vengono ricevuti bene, ma si
tratta in genere di situazioni temporanee;
• prestazioni: la migliore qualità dell'immagine non è l'unico vantaggio delle trasmissioni video digitali; un altro
grosso vantaggio è la possibilità di trasmettere una maggior quantità di dati all'interno di ogni singola
trasmissione. L'utilizzo del digitale permette infatti di ricevere sulla TV di casa, oltre alle immagini, anche
sottotitoli (anche in diverse lingue, come ad esempio in inglese e in italiano), audio multicanale per impianti home
theatre, nonché testi informativi riguardanti i programmi (ad esempio ulteriori informazioni sul programma in
onda, o su quelli che andranno in onda successivamente) tramite la EPG, Electronic Programming Guide, ossia
Guida Elettronica alla Programmazione. A tutto questo si aggiunge, in taluni casi, l'interattività (vedi anche
Multimedia Home Platform), che permette di personalizzare quanto ricevuto sul teleschermo: collegando il
ricevitore (detto anche decoder) alla presa telefonica, è possibile inviare all'emittente segnali di ritorno, sulla base
dei quali l'emittente cambia le immagini ricevute. Grazie a questo meccanismo, è possibile acquistare eventi come
film in prima visione o partite di calcio, oppure collegarsi alla propria banca e visualizzare sulla televisione il
proprio conto, o ancora effettuare votazioni e sondaggi in diretta; eccezion fatta per il pagamento on-line, queste
possibilità (operazioni bancarie, votazioni, sondaggi) sono ancora in fase sperimentale e probabilmente verranno
attivate in via definitiva sul digitale terrestre in un prossimo futuro.
Linee di sviluppo della televisione digitale in Italia
Lo sviluppo della televisione digitale in Italia è strettamente legato all'iter del disegno di legge presentato dal
ministro Paolo Gentiloni. Una particolare disanima della visione del ministro della situazione che si verrà a creare a
regime di transizione completato (2012) è data in una intervista al settimanale "Il Mondo" [3] . e prevede:
• televisione digitale terrestre con previsti 60 canali nazionali gratuiti;
• televisione digitale satellitare con centinaia di canali prevedibilmente per 3/4 a pagamento e per un quarto
gratuita;
• IPTV (televisione con protocollo IP su linea ADSL o fibra ottica) a pagamento con sviluppo della TV on demand.
Inoltre si sta ulteriormente sviluppando ed articolando il primo progetto italiano sulla televisione digitale a
piattaforma aperta e multicast denominato TW opera di Mario Cardarelli, economista e strategist advisor (Roma) e di
Vito Asta ingegnere e professore universitario (Parigi). Il progetto elaborato nell'ottobre del 2000 e sviluppatosi nel
2003 con la partnership di AX digital Sistem di Vito Asta per la piattaforma MAXX in ambiente LINUX
(piattaforma divenuta nel 2006 TW-NET) e di Technosystem di Cesare Rosa, costruttore internazionale di impianti
digitali terrestri (DTT), attualmente integra i tre vettori della televisione digitale (fibre ottiche, digitale terrestre e
satellite).
98
Televisione digitale
Storia della televisione digitale
Quando la televisione è nata, alla fine degli anni '20 del XX secolo, dopo un lungo periodo di ricerca e
sperimentazione durato decenni e frutto di scoperte in vari campi delle scienza, era una televisione analogica cioè
una televisione in cui l'informazione elettronica che la rappresentava era in forma analogica. La televisione digitale
inizia a diffondersi nel mondo solo a partire dagli anni '90 del XX secolo e rappresenta certamente il futuro della
televisione per i vantaggi offerti dalla rappresentazione digitale dell'informazione elettronica. Per questo è in atto un
lento ma certo passaggio dalla televisione analogica alla televisione digitale.
Televisione digitale in Italia
• 1º gennaio 1996: parte ufficialmente la piattaforma televisiva a pagamento Dstv per la televisione satellitare.
Offre 5 televisioni. È la prima offerta di televisione digitale per l'Italia (prima anche in Europa).
• 1997: parte ufficialmente la piattaforma televisiva a pagamento Stream per la televisione via cavo. È la prima
offerta di televisione digitale per la televisione via cavo.
• 1º dicembre 2003: Mediaset attiva un gruppo di televisioni gratuite per la televisione terrestre. È la prima offerta
di televisione digitale per la televisione terrestre.
Voci correlate
•
•
•
•
•
•
•
DVB, Digital Video Broadcasting
DVB-S, Digital Video Broadcasting Satellitare
DVB-T, Digital Video Broadcasting Terrestre
Multimedia Home Platform (MHP)
Digital Living Network Alliance (Giappone)
Elenco degli apparecchi per la televisione digitale ricevibile in Italia
Galaxy 14
Note
[1] http:/ / www. auditel. it/ cosa_viacavo. htm
[2] Il report Televisioni Digitali: le nuove Sofa-Tv... e non solo degli Osservatori ICT e Strategia della School of Management del Politecnico di
Milano è scaricabile al sito Osservatori.net (http:/ / www. osservatori. dig. polimi. it/ archivioReportGenerale. php)
[3] Il Mondo, Marco Santarelli La Tv che sarà, n.° 48, 1º dicembre 2006, p.48
99
HDTV
100
HDTV
La televisione in alta definizione, in sigla
HDTV (acronimo dell'analogo termine
inglese High Definition TeleVision), o anche
semplicemente alta definizione, è la
televisione con → video di qualità
significativamente superiore a quello degli
standard televisivi maggiormente diffusi nel
mondo nella seconda metà del XX secolo e
ancora oggi molto diffusi, standard televisivi
che rientrano nella SDTV. È in altre parole
un termine che sta ad indicare
genericamente un livello qualitativo
dell'immagine televisiva.
Un'immagine televisiva ad alta definizione mostrata da un videoproiettore.
A differenza della SDTV, in cui il rapporto
d'aspetto è sia nel tradizionale formato 4:3
che in quello widescreen 16:9, l'alta definizione moderna prevede standard unicamente in 16:9.
Caratteristiche tecniche
Un fotogramma del sistema televisivo PAL (Europeo) è composto da 2 semiquadri (field) di 312,5 linee cadauno.
Nel primo semiquadro, vengono riprodotte le linee dispari, sul secondo le linee pari. Il segnale è quindi composto da
25 fps (Fotogrammi Per Secondo), pari a 50 semiquadri. Ogni linea orizzontale ha una durata di 64 microsecondi
(15625 Hz), 53 dei quali sono utilizzati come parte attiva (quindi riproducono il segnale video), mentre i restanti 11
microsecondi sono utilizzati come segnale di sincronismo orizzontale. Lo stesso accade nei semiquadri, infatti solo
576 linee, sono da ritenersi attive, le rimanenti costituiscono l'insieme del sincronismo verticale. La risoluzione
orizzontale del fotogramma non è applicabile in termini di → pixel al video analogico, dove ogni riga è composta da
un segnale modulato analogico, quindi continuo, ma la sua risoluzione è in funzione della frequenza di trasmissione
di questo segnale; più la banda sarà ampia, più informazioni si possono trasmettere in ciascuna linea. Il segnale a
standard PAL ha una larghezza di banda di oltre 7 MHz, ma in realtà la scarsa qualità dei ricevitori TV commerciali
(e la pessima qualità degli impianti di ricezione via antenna) ha fatto col tempo ritenere che un segnale di qualità
adatto alla trasmissione ha una banda di 5 MHz, sufficienti per risolvere circa 400 linee. Questo è il massimo teorico
che può essere trasmesso con la codifica PAL, anche se la qualità ottenibile realmente è inferiore. Se la sorgente è
digitale, lo standard di campionamento prevede invece 720 pixel sull'asse orizzontale. L'evoluzione dell'informatica,
molto più rapida rispetto al broadcasting, ha fatto sì che agli standard TV si affiancassero standard per PC sempre
più performanti fino a far diventare gli standard informatici la punta di diamante degli standard video ad Alta
Definizione. Oggi conviene ragionare in termini di standard "nK" dove n è il numero di migliaia di pixel lungo l'asse
orizzontale.
HDTV
Formati video
Lo standard HDTV, all'inizio delle ricerche negli anni '80 del XX secolo, si
riteneva dovesse offrire una risoluzione "doppia" del PAL, quindi 1250 righe
non tutte attive (le attive si riducevano a 575 x 2 = 1.150, il che comportava, a
16/9, una risoluzione orizzontale di 2.040 pixel); tuttavia per ragioni
commerciali la dizione "Alta Definizione" è stata via via estesa nei decenni a
standard sempre meno performanti, fino a includere nell' "Alta Definizione"
standard con prestazioni effettive minori di un segnale PAL ricevuto con
apparati professionali. Quindi gli attuali standard 2K in realtà stanno
realizzando l'HDTV "effettiva" pensata 30 anni fa.
Oggi la tecnologia HDTV comprende quattro formati video, che differiscono
sia per la risoluzione effettiva che per le modalità di scansione dell'immagine.
• Il formato 720p, comunemente chiamato HD ready (i televisori che lo
Evidenziazione pubblicitaria per i cento
supportano riportano il logo HD ready, cioè "pronto per l'alta
canali in alta definizione della rete
definizione"), presenta una risoluzione complessiva di almeno 921.600
televisiva DirectTV
pixel (1280×720) con scansione progressiva, ovvero per ciascun ciclo di
trasmissione di un fotogramma (50 o 60 Hz a seconda dei Paesi) viene
trasmesso l'intero quadro dell'immagine. Ogni aggiornamento coinvolge tutte le 720 linee e i 921.600 pixel dello
schermo. Nel caso di schermo al plasma con pixel non-quadrati è HD ready anche la risoluzione complessiva di
786.423 pixel (1024x768).
• Il formato 1080i, presenta una risoluzione complessiva di 2.073.600 pixel (1920×1080) con scansione
interlacciata, ovvero per ciascun ciclo viene trasmesso un semiquadro formato alternativamente dalle sole linee
pari o dispari dell'immagine. Quindi ogni aggiornamento coinvolge 540 righe e 1.036.800 pixel.
• Il formato 1080p, comunemente chiamato FULL HD, è il più recente dei tre ed equivale alla versione con
scansione progressiva del 1080i, per cui ogni aggiornamento coinvolge tutte le 1080 linee e i 2.073.600 di pixel
dello schermo, ma di solito è a 24 fps, la velocità della pellicola cinematografica.
Sono previsti formati 1080p a 50 e 60 fps, ma attualmente non sono di uso pratico, solo alcune telecamere e
registratori possono riprendere e registrare così tanti dati.
• Esiste anche un formato HR.HDTV (Half Resolution High Definition TV) con risoluzione pari di 960x540 ovvero
l'esatta metà della definizione FULL HD (1920x1080) che tuttavia non è uno standard ufficiale né un formato
nativo. L'HR.HDTV si ottiene dal downscaling di materiale ad alta definizione. Questo formato non viene usato
da alcuna emittente televisiva per trasmissioni TV ma soltanto per la creazione di file video Xvid. http://en.
wikipedia.org/wiki/High-Resolution_High-Definition
Gli standard a 1035 linee di scansione, in uso soprattutto in Giappone, sono stati abbandonati.
Va evidenziato che, per loro stessa natura, gli schermi LCD e plasma visualizzano comunque qualunque segnale
video in modalità progressiva, sia che originariamente sia interlacciato, sia che sia già progressivo.
101
HDTV
102
Confronto tra i vari formati video
Per confronto, nelle riprese cinematografiche si gira a 24 fotogrammi al secondo (in pellicola) con l'utilizzo di un
otturatore a due pale che, con una frequenza doppia di 48 cicli al secondo, in proiezione copre le interlinee e i
passaggi tra un fotogramma e l'altro. Le telecamere di ripresa elettroniche (o quelle digitali) invece hanno cicli di 25
fotogrammi al secondo. Le emittenti televisive tradizionali trasmettono in scansione interlacciata 25 fotogrammi al
secondo per il sistema PAL e 30 per il sistema NTSC, quest'ultimo ha una risoluzione inferiore al precedente. [1]
La qualità relativa dei due formati HD ready è legata, oltre che a considerazioni soggettive (preferenza verso una
maggiore stabilità dell'immagine o verso una maggiore risoluzione), ai contenuti del segnale trasmesso. Le scene con
movimenti più rapidi e frequenti possono beneficiare della maggiore rapidità di aggiornamento del formato 720p,
mentre le scene statiche possono trarre vantaggio dalla maggiore ricchezza di dettagli del formato 1080i. Di fatto il
sistema progressivo elimina i difetti di fermo immagine soprattutto durante la fase di montaggio.
La definizione dei programmi HDTV è circa 4 volte superiore a quella del formato → DVD e nonostante la buona
efficienza di compressione offerta dall'→ MPEG-4, lo spazio richiesto per la loro archiviazione è comunque
rilevante. Per quanto i supporti ottici Blu-ray (lo standard HD DVD è stato abbandonato) di ultima generazione
offrano una capacità che può arrivare a 50 GB e oltre, questa sarebbe appena sufficiente per 2 ore di filmato ad alta
definizione con la codifica DVD. D'altra parte, l'uso di codec avanzati quali H.264 (MPEG-4 Part 10) consentirà la
trasmissione della qualità piena con bitrate abbastanza bassi, fino a scendere agli 8 Mbit di banda passante
disponibile sui ricevitori DTT. Questi codec vengono utilizzati anche dai lettori HD DVD e Blu-ray per abbassare la
banda passante richiesta permettendo la memorizzazione fino a 8 ore di video su supporti Blu-ray a più strati.
A partire dai primi mesi del 2009 sono presenti sul mercato televisori in grado di supportare il formato 1080p (Full
HD con scansione progressiva), anche con frequenza di ripetizione di 200 Hz.
HDTV
Confronto dei particolari
A parità di altezza dello schermo, i sistemi ad alta definizione offrono una qualità nettamente superiore per via della
dimensione grandemente inferiore dei → pixel, come si può notare dalle immagini sottostanti.
In questo caso infatti un pixel dello standard
FULL HD ha il 28,4% dell'area di un pixel dello
standard PAL, avendo un lato che equivale al
53,3% del lato di quest'ultimo. Per un pixel dello
standard HALF HD (HD READY) le percentuali
diventano il 64% per l'area e l'80% per il lato.
Altri fattori importanti per la qualità
Esistono sul mercato diverse tipologie di
telecamere che si differenziano per la risoluzione
che utilizzano per la registrazione (720p e 1080i
tra le più comuni) ma un altro fattore importante
per determinare la qualità di una registrazione
digitale è il Bitrate ovvero la quantità di bit
utilizzati per memorizzare ogni fotogramma del filmato; per gli apparecchi di classe domestica si aggira intorno ai
12/15 Mb/s utilizzando lo standard di registrazione/compressione MPEG-2.
Il sistema di connessione con cui è possibile connettere una videocamera o un lettore al monitor o al videoproiettore
si differenzia tra SDI e Component HD. Nei sistemi di montaggio non-lineare è possibile utilizzare lo standard
Firewire.
Come sfruttare l'HDTV
I notevoli miglioramenti dell'alta definizione sono apprezzabili solo se si possiede un intero set HDTV, vale a dire
sia televisore che decoder per ricevere le trasmissioni ad alta definizione trasmesse dalle emittenti televisive, o un
lettore ottico di dischi ad alta definizione come dal 2006 sono il → Blu-ray e HD DVD. In caso contrario, se si
tentasse cioè di visualizzare un contenuto HDTV con un televisore tradizionale, non si noterebbero miglioramenti
nella definizione, in quanto il vantaggio fondamentale dell'alta definizione risiede proprio nella maggiore risoluzione
del segnale video, circa quattro volte quello di un normale DVD.
C'è decisamente poca chiarezza nella maggior parte dei produttori circa le effettive caratteristiche tecniche di un
televisore che abbia supporto all'alta definizione. Non è detto che un display di elevata diagonale, con tecnologia
TFT o plasma, sia una soluzione HD. Per dare un minimo di sicurezza al consumatore, esistono i sigilli "HD ready",
103
HDTV
104
"HD TV", "FULL HD 1080p" ed "HD TV 1080p", stabiliti dalla EICTA (European Information, Communications
and Consumer Electronics Industry Technology Association), che in teoria dovrebbero dare la garanzia che un
televisore sia in grado di visualizzare contenuti HD (ma nei negozi si sono visti televisori con questo sigillo, le cui
caratteristiche tecniche non lo permettono). Il sigillo HD Ready dovrebbe garantire che il televisore:
•
•
•
•
abbia una risoluzione verticale fisica di almeno 720 righe
disponga di (almeno) una presa analogica YUV (→ Component)
disponga di (almeno) una presa digitale (→ DVI o → HDMI) protetta dal sistema HDCP
sia in grado di visualizzare contenuti con i formati 720p e 1080i.
Viceversa né "HD Ready" né "HD Ready 1080p" garantiscono che l'apparecchio riceva via etere o satellite stazioni
televisive in HD (720p o 1080i): per questa caratteristica il sigillo deve essere "HD TV" o "HD TV 1080p".
Cenni storici e prossimi sviluppi
Nel corso della storia, la sigla HDTV è stata usata più volte per indicare sistemi all'avanguardia con una risoluzione
via via sempre maggiore. In ambito analogico, il riferimento è sempre stato costituito dal numero delle righe di
scansione. Si possono indicare come HDTV i sistemi a 60 linee del 1925 e quello inglese a 240 linee del 1935,
definito precisamente come HDTV dal governo britannico. Anche un sistema sperimentale americano a 441 linee fu
presentato come HDTV nel 1939.
Dopo il secondo conflitto mondiale, il sistema francese a 819 linee fu utilizzato per alcuni anni in Francia e in Belgio
e non più utilizzato dal 1968, per la difficile compatibilità nei televisori a colori e con gli altri sistemi 625/25
continentali. [2] .
In tempi recenti, il termine HDTV viene usato per indicare i sistemi a 720, 1035 e 1080 linee.
In Giappone, la ricerca sull'alta definizione iniziò nel 1968, quando il Dr. Takashi Fujio, direttore dei Laboratori di
Ricerca della NHK, l'ente televisivo pubblico giapponese, ritenne che la tecnologia televisiva, ancorché analogica,
avesse raggiunto sufficiente maturità per passare dal tradizionale "piccolo schermo" al grande schermo
cinematografico. Diede quindi avvio ad una ricerca per un sistema di "electronic film", basato su immagini a
definizione più elevata di quella consentita allora dai sistemi televisivi. Si conveniva che l'immagine doveva:
• essere composta da più di 1000 righe attive
• avere un rapporto base/altezza di almeno 5:3 (widescreen)
In tali condizioni, uno spettatore in grado di osservare lo schermo sotto un angolo orizzontale >40° perde la
percezione del suo bordo e vive con più partecipazione la vicenda raccontata (effetto cinema).
Nel 1980 La NHK mise a punto il sistema Hi-Vision analogico a 1125 righe (totali), formato 5:3, 60 semiquadri/s
1125/60i/5:3 (1.66:1, corrispondente al formato dello European Widescreen e della variante minima dello Vista
Vision). Si costruirono anche prototipi di una telecamera, un videoregistratore, un tape-to-film transfer, un
film-to-tape transfer (telecinema).
Nel novembre 1981, con le prime riprese sperimentali eseguite a Venezia, la RAI iniziò, insieme alla NHK ed alla
CBS, una sperimentazione del sistema Hi-Vision. Installati tali prototipi su un mezzo di ripresa, produsse a Venezia
"Arlecchino", una breve fiction con regia di Giuliano Montaldo e luci di Vittorio Storaro.
Nel 1981 la SMPTE creò l'HDTV Electronic Production Working Group che sancì il sistema analogico
1125/60i/16:9 SMPTE 240M.
Nel 1983 la Sony produsse apparati di produzione in HD con lo standard 1125/60i/5:3 (1125 linee di
definizione/scansione 60hz/aspect ratio 5:3); si tratta della linea HDVS: camera HDC-100, videoregistratore
HDV-100, tape-to-film transfer EBR, mixer video HDS-100 e videoproiettore HDI-120. Per sperimentarli, la RAI
mise a punto la mini-fiction "Oniricon" con regia di Enzo Tarquini, il tutto in preparazione della produzione di un
vero film.
HDTV
Nel 1987 la NHK irradiò le prime trasmissioni analogiche in HDTV via satellite utilizzando il sistema di
compressione analogica MUSE (Multiple Sub-nyquist sampling Encoding). Lo stesso anno la RAI, in co-produzione
con la CBS e la United Artists, produsse "Julia & Julia" il primo film elettronico al mondo, con Sting e Kathleen
Turner, luci di Giuseppe Rotunno, regia di Peter Del Monte. In tale produzione venne impiegata la video-camera
Sony HDC-300 di 2ª generazione con prestazioni più cinematografiche, risultato delle prime sperimentazioni. Lo
standard HD era sempre Hi-Vision 1125/60/i però col definitivo formato di immagine 16:9 (5.33:3 / 1.78:1); da qui
in poi si utilizzerà il protocollo SMPTE SMPTE 240M (1125/60i/16:9).
La Commissione Europea (ECC), con la approvazione dei 12 paesi membri, lanciò il progetto Eureka 95 (EU-95) per
una HDTV europea col nuovo standard analogico 1250/50i/16:9 (1250linee / 50hz / aspect ratio 16:9).
Parteciparono al progetto broadcaster (BBC, ARD, RAI, RTVE, ORF, …) e costruttori (Philips, Thomson, BTS,
Seleco, Nokia, etc.). Alla Riunione Plenaria del CCIR (tenuta nel maggio 1986 a Dubrovnik), la battaglia fra i due
standard, quello giapponese (1125/60i/16:9) sostenuto dagli USA, e quello europeo (1250/50i/16:9) si tradusse in un
pareggio. Nel 1987 l'industria europea produsse apparati di produzione HD anche con lo standard analogico
1250/50i16:9: camera BTS KCH-1000, videoregistratore BTS BCH-1000. Anche la Thomson produsse camere HD e
per registrare usò coppie di VTR digitali D1. L'italiana Seleco produsse il videoproiettore HDFP-1250 tritubo CRT
interamente europeo. Per sperimentarli, i broadcaster europei realizzarono molte riprese (fiction, documentari,
concerti, sport) diffondendole via satellite a più punti di visione in occasione di mostre, congressi e presentazioni con
il sistema analogico di compressione HD-MAC.
Nel 1987 RAI produsse "Un bel dì vedremo", la sua prima mini-fiction col sistema europeo analogico 1250/50i/16:9.
Seguirono negli anni successivi altre produzioni sperimentali: "Capitan Cosmo" con Walter Chiari, "Allegro con
brio", "Incontrando Robot", "Il cielo in una stanza". Nel 1990 un consorzio formato da RAI, Telettra, RTVE e
Politecnico di Madrid, nell'ambito del progetto europeo EUREKA 256 (EU-256), mise a punto un sistema di
compressione digitale HDTV basato sull'algoritmo DCT (Discrete Cosine Transform), da cui nacque cinque anni più
tardi lo standard di compressione MPEG-2.
Il sistema venne dimostrato durante i Mondiali di Calcio Italia 1990 diffondendo ad 8 sale di visione italiane le
immagini in alta definizione riprese nei campi di calcio con i sistemi HDTV 1125/60i/16:9 e 1250/50i/16:9 e
trasmesse via satellite Olympus. I grossi gruppi industriali europei capirono così l'importanza della compressione
digitale, ma non erano ancora pronti: nel progetto europeo EU-95 si proseguì con l'impiego della compressione
analogica col sistema HD-MAC, mentre il gruppo Alcatel acquistò dalla FIAT la Telettra e trasferì nelle sue
fabbriche americane lo studio della compressione digitale. Il sogno RAI si arrestò bruscamente.
Sempre nel 1990 la CEE creò Vision-1250 , con lo scopo di fornire un sostegno tecnico-produttivo in 1250/50i/16:9
a broadcaster e produttori europei. I costruttori Thomson, Philips e BTS, oltre a Seleco ed altre ditte europee,
fornirono gli apparati necessari alla creazione di una "flotta di ripresa" Vision-1250, forte di circa 20 mezzi
attrezzati. Altri mezzi di ripresa vennero messi in campo dai broadcaster europei (RAI, BBC, SFP, RTVE, WDR,
BR, YLE, ecc.), con uno sforzo considerevole del mondo tecnico europeo.
Il 1992 fu l'anno dei XVI Giochi olimpici invernali ad Albertville e dei Giochi della XXV Olimpiade a Barcellona.
Per entrambi Vision 1250 ed NHK effettuarono una copertura HDTV con i rispettivi sistemi. Ma nubi dense si
stavano addensando sul neonato progetto EU-95 per il sistema HDTV 1250/50i/16:9. Dopo le Olimpiadi, in seno alle
autorità europee crebbe la perplessità sulla opportunità di proseguire la sperimentazione di un sistema HD europeo
analogico. E ciò per molteplici ragioni:
• gli elevati costi dell'operazione (condotta ancora con sistemi analogici),
• lo scarso favore presso il pubblico per l'indisponibilità di schermi televisivi di grandi dimensioni (oggi invece in
commercio),
• le difficoltà nel trasporto e trasmissione dei segnali HDTV affidati ancora a sistemi di compressione analogici.
Nel 1982, negli USA, un comitato congiunto, formato da Electronic Industries Alliance (EIA), Institute of Electrical
and Electronics Engineers (IEEE), NAB, NCTA e SMPTE, creò l'Advanced Television System Committee) (ATSC,
105
HDTV
organizzazione volontaria e non-profit per lo sviluppo di un sistema avanzato TV. Nel 1987 La Federal
Communications Commission (FCC), numerose università e gruppi di ricerca individuarono 23 possibili sistemi
HDTV. Nel 1993 il FCC Advisory Committee decise di prendere in considerazione solo sistemi digitali di HDTV,
sollecitando le 4 ditte proponenti a riunirsi in una Digital HDTV Grand Alliance. Nel 1995 La "Grand Alliance"
propose un HDTV "advanced television terrestrial broadcasting system" come concordato fra i membri. Tale
proposta fu trasformata dalla ATSC nella norma A/53 per uno standard digitale che prevede:
• sistemi HDTV (1080 x 1920, 720 x 1280 active line/active samples-per-line),
• sistemi SDTV (TV a definizione standard 480 x 720 ).
Nel 1996 la SMPTE scansì ed emise gli standard: SMPTE 274M - norme 1080/50i/16:9 (Eu) e 1080/60i/16:9
(USA)- e SMPTE 296M - norme 720/50p/16:9 (Eu) e 720/60p/16:9 (USA). L'anno successivo la FCC decise di
assegnare alla trasmissione digitale terrestre TV (DTTV) i cosiddetti "taboo channels" adiacenti ai canali già usati e
lasciati liberi per evitare interferenze fra di essi. Oltre alla A/53 vennero emesse altre norme per la televisione
satellitare direct-to-home (A/81), per la trasmissione dati (A/90), per la compressione audio AC3 (A/52), ecc. Nel
mese di novembre 1998 ebbero inizio le prime trasmissioni DTV comprendenti HDTV e SDTV secondo un
calendario stabilito dalla FCC.
Per l'Europa è del 2003 la nascita dell'idea di un Digital Cinema (DC), vero "cavallo di Troia" per il mondo
cinematografico con la proposta di 24 fps (in luogo dei 50hz o 60hz della TV), costituisce anche una forte sferzata
per il mondo televisivo e produttivo. I broadcaster europei presero coscienza che il DC offriva importanti
opportunità e in particolare di poter disporre di un "common format" in DC con cui creare prodotti top destinati ad
una lunga vita (fiction, documentari, ecc.) per i quali la conservazione è ancora oggi affidata alla pellicola 35mm, ma
anche di poter disporre di una "scalabilità di formato", potendosi ricavare dal master in DC copie destinate ai mercati
con minore definizione (SDTV, → DVD, VHS, ecc.). Al tempo stesso, esso costituì una minaccia, potendo aggirare
la diffusione TV con la distribuzione di supporti preregistrati (home-cinema).
Nel 2004 la società belga Alfacam diede inizio a regolari trasmissioni HDTV col satellite Astra, con la rete
Euro1080 (utilizzando il sistema 1080/50i/16:9) battendo sul tempo i broadcaster e le autorità europee. Iniziò col
canale HD1 a cui poi seguirono HD2 e HD5. La produzione necessaria a riempire questi canali fu fornita anche dalla
flotta di ripresa Alfacam che coprì importanti manifestazioni, dal "Victory Day" a Mosca a vari eventi culturali e
sportivi (nel febbraio 2006 un considerevole gruppo di tali mezzi coprirà in HD i XX Giochi olimpici invernali di
Torino).
Sempre nel luglio 2004, sotto la pressione crescente di gruppi industriali europei interessati al lancio della HDTV, il
Ministero dell'Industria francese creò un HD Forum e quell'anno il Consiglio dell'Unione Europea, col supporto della
Commissione Europea, organizzò il 7 giugno in Lussemburgo alla presenza di 300 rappresentanti decisionali
(governi e settori privati) una Conferenza Europea sulla Televisione ad Alta Definizione. In tale conferenza la EBU
(European Broadcasting Union) ed il "Digital Interoperability Forum" annunciarono la creazione di un HDTV
European Forum.
La DCI (il gruppo di ricerca costituito dalle major di Hollywood) propose nel luglio 2005 le specifiche dei due
formati: 4096x2160 (4K) e 1920x1080 (2K), ora in via di normazione da parte della SMPTE. In Europa operava già
da tempo lo EDCF (European Digital Cinema Forum). Intanto l'industria televisiva di consumo si dichiarava pronta a
immettere sul mercato apparati HDTV (ricevitori MPEG-4 AVC e lettori DVD) certificandoli col marchio HD
ready. Al Satexpo di Vicenza (ottobre 2005) vennero presentati HD Council Italia (associazione nata per promuovere
la diffusione dell'Alta Definizione in Italia) e HD Forum Italia (gruppo di lavoro e coordinamento sulle nuove
tecnologie dell'alta definizione costituito presso la Fondazione Bordoni). Questi si unirono ai Forum nazionali
inglese (UK HD Forum emanazione del DTG, Digital Television Group), tedesco (German HD Forum - emanazione
della Deutsche TV Platform), oltre che spagnolo, portoghese, svedese, belga e olandese. Gli standard in predicato per
una HDTV europea sono:
• SMPTE 296M : 720/50p (1280x720 pixel)
106
HDTV
107
• SMPTE 274M : 1080/50i (1920x1080 pixel)
Entrambi comportano un Bitrate pari a :
• in SDI (senza compressione) = 1.5 Gbps
• con compressione MPEG-2 = 18 Mbps
• con compress. MPEG-4 AVC = 9 Mbps
Ma era già pronto in laboratorio uno standard 1080/50p che comporterebbe però un bit-rate doppio. Questi standard
HDTV utilizzano tutti, come di consueto, l'aspect ratio 16:9 e la codifica audio AC3 5.1 canali.
Negli ultimi anni l'HDTV ha ricevuto una maggiore importanza, soprattutto per due motivi:
• I televisori LCD e plasma con schermi di grandi dimensioni e i videoproiettori digitali, stanno diminuendo di
prezzo, specie i primi.
• La trasmissione digitale è molto più efficace di quella analogica.
Negli Stati Uniti d'America il HDTV trasmesso in modo digitale (via sistema ATSC) esiste da alcuni anni come
anche in Giappone (sistema ISDB).
In Europa i tempi per l'introduzione si sono allungati,
perché si è deciso di usare tecnologie più avanzate per
le trasmissioni HDTV (MPEG-4 H.264 invece di
MPEG-2 per il video e DVB-S2 invece di DVB-S per
la trasmissione via satellite). Solo da gennaio 2006
sono disponibili ricevitori HDTV per satellite che
supportano queste tecnologie.
Nel 2005, in occasione dell'Expo tenuta in Giappone, la
tv NHK ha presentato un'evoluzione dell'HD, l'Ultra
Alta Definizione.
Il decoder SKY HD prodotto da PACE
Le prime trasmissioni europee HDTV MPEG-4 via DVB-S2 sono cominciate nel novembre del 2005 dai canali
tedeschi "Premiere" (criptata) e Sat1/ProSieben (FTA). Nel frattempo sono iniziate anche altre trasmissioni HDTV,
la maggior parte ancora di tipo dimostrativo o di prova, spesso ancora con video MPEG-2 invece di MPEG-4. I
grandi network televisivi europei (Sky, BBC, Canal+, ...) hanno lanciando le loro offerte HDTV nel corso del 2006,
iniziando con gli eventi di maggior richiamo quali i campionati mondiali di calcio.
Nel 2007 le reti tv australiane Seven Network e Network Ten hanno lanciato le versioni HD dei loro canali (con
alcuni contenuti esclusivi), 1 anno dopo è la volta di Nine Network.
La distribuzione di canali HDTV in Italia
In Italia la programmazione, avvenuta nel 2006, poco prima dei campionati mondiali di calcio, ha avuto il suo inizio
con l'emittente in chiaro Venice Channel seguita poi da SKY, con prima la trasmissione della finale di Champions
League, trasmessa in modalità sperimentale, poi con le trasmissioni ufficiali dei mondiali germanici, attraverso il
canale 207 di SKY, denominato allora "SKY Mondiale HD". Infine con l'offerta attuale SKY HD, con inclusi 14
canali HDTV:
•
•
•
•
•
SKY Cinema 1 HD, canale 301 SKY (solo SKYBOX HD)
SKY Cinema Hits HD, canale 306 SKY (solo SKYBOX HD)
SKY Sport 1 HD, canale 201 SKY (solo SKYBOX HD)
SKY Sport 2 HD, canale 202 SKY (solo SKYBOX HD)
SKY Sport 3 HD, canale 203 SKY (solo SKYBOX HD)
• SKY Cinema Max HD, canale 309 SKY (solo SKYBOX HD)
• SKY SuperCalcio HD, canale 205 SKY (solo SKYBOX HD)
HDTV
•
•
•
•
•
•
•
•
•
108
SKY Calcio 1 HD, canale 251 SKY (solo SKYBOX HD)
SKY Calcio 2 HD, canale 252 SKY (solo SKYBOX HD)
Discovery Channel HD, canale 401 SKY (solo SKYBOX HD)
Eurosport HD, canale 209 SKY
National geographic Channel HD, canale 402 SKY
Fox HD, canale 110 SKY (solo SKYBOX HD)
Fox Crime HD, canale 114 SKY (solo SKYBOX HD)
Primafila HD, canale 351 SKY (pay-per-view)
Premium Calcio HD"" (produzione HD di Mediaset Premium)
La TV pubblica Svizzera SRG SSR idée suisse da fine 2007 ha creato un canale satellitare ad alta definizione
trilingue (HD suisse) del tutto gratuito (sebbene riservato ai cittadini svizzeri), su cui sono stati trasmessi i Giochi
della XXIX Olimpiade, il Campionato europeo di calcio 2008.
La Tv pubblica RAI ha trasmesso i giochi olimpici invernali di Torino 2006 in HDTV in via sperimentale, sulle
frequenze terrestri a circuito chiuso a Torino e zone limitrofe, destinate alla visione solo in luoghi pubblici.
A Maggio 2008 i test sono già iniziati nell'area di Torino, e la trasmissione avviene a 720p.
Nel corso del 2008, l'ente pubblico ha trasmesso gli Europei di calcio 2008 in alta definizione → MPEG-4/H.264
nelle zone di Torino, Roma, Milano, Valle d'Aosta e Sardegna [3] .
L'evento è andato in onda, oltre che in analogico 4:3, anche in digitale terrestre, ma in formato 16:9 anamorfico.
In realtà, già dal 1 marzo 2007 Rete 4 aveva già iniziato dei test in HDTV trasmettendo il segnale con la tecnica del
digitale terrestre nella zona di Cagliari, estendendolo successivamente nelle aree in cui è avvenuto lo spegnimento
del segnale analogico terrestre.
Le trasmissioni in formato → MPEG-4/H.264 sono ricevibili solo da sintonizzatori DVB-T HD compatibili, che si
possono trovare sia in versione per personal computer (basati ad esempio su interfaccia USB 2.0) sia come
dispositivi autonomi da collegare alla televisione.
Futuro
Mentre il formato HDTV si sta diffondendo nei mercati, nei laboratori di ricerca si stanno sviluppando i successori.
Ci sono in progetto sistemi come SHD (Super High Definition), detto anche "4k", con una risoluzione di 3840x2160
pixel (quattro volte i dati di un sistema Full HD) e anche di UHDV (Ultra Alta Definizione), sistema tutt'ora in via
sperimentale elaborato in Giappone, il quale prevede una risoluzione di 7680x4320 pixel (16 volte i dati di un
sistema Full HD). Tutti questi nuovi standard prevedono, come aspect ratio, l'uso del 16:9. Mentre il progetto SHD si
prevede che venga (almeno inizialmente) destinato alle sale cinematografiche, il progetto UHDV sarebbe destinato
all'ambito domestico. Il progetto SHD dovrebbe essere introdotto nel giro di qualche anno mentre per il progetto
UHDV si prevedono tempi molto lunghi, NTT DoCoMo prevede la commercializzazione nel 2025 circa.
Voci correlate
•
•
•
•
•
•
PAL
NTSC
→ DVD
→ Blu-ray Disc
HD DVD
HD ready
• Televisione digitale terrestre
• broadcast flag
• SKY HD
HDTV
•
•
•
•
•
109
Ultra High Definition Video
Digital Rights Management
SDTV
EDTV
→ Risoluzioni standard
Altri progetti
•
Wikimedia Commons contiene file multimediali su HDTV
Collegamenti esterni
•
•
•
•
(EN) Aspect Ratios [1] - Dal sito Widescreen.org
Lista di canali HDTV trasmessi via DVB-S in europa [4]
Le basi dell'HDTV [5]
Alta Definizione: chi, cosa, come, perché e quando? [6]
Note
[1] Si noti che i due sistemi citati sono, a rigore, tecniche di codifica per un segnale video composito, che non definiscono la risoluzione e la
frequenza di scansione; tuttavia i termini sono di uso molto comune per riferirsi anche a questi aspetti delle norme relative.
[2] Charles Poynton, Digital Video and HDTV: algorithms and interfaces, San Francisco, Morgan Kaufmann, 2003. 987-1-55860-732-7
[3] http:/ / www. raiway. rai. it/ index. php?lang=IT& cat=144& showINFO=85
[4] http:/ / www. kingofsat. net/ it/ hdtv. php
[5] http:/ / www. tomshw. it/ video. php?guide=20040805
[6] http:/ / www. tomshw. it/ guide. php?guide=20061107
DVD
Disco ottico
Logo del DVD
•
•
•
•
•
Lettore CD
Lettore DVD
Masterizzatore
Super Multi
Software di masterizzazione
Dischi ottici
DVD
110
Il DVD, acronimo di Digital Versatile Disc (in italiano Disco Versatile Digitale, originariamente Digital Video Disc,
Disco Video Digitale) è un supporto di memorizzazione di tipo ottico.
Storia
Il DVD è il prodotto della cooperazione di alcune fra le maggiori aziende nel campo della ricerca e dell'elettronica di
consumo: il cosiddetto DVD forum, ovvero l'istituzione che si è incaricata di redigere le specifiche del nuovo
supporto, era infatti formata da Philips, Sony, Matsushita, Hitachi, Warner, Toshiba, JVC, Thomson e Pioneer.
L'intento era quello di creare un formato di immagazzinamento di grandi quantità di video digitali che fosse accettato
senza riserve da tutti i maggiori produttori, evitando quindi tutti i problemi di incertezza del mercato dovuti alla
concorrenza fra formati che si erano presentati al tempo dell'introduzione delle videocassette per uso domestico.
Il DVD forum individua 3 principali campi d'applicazione per il DVD:
1. il DVD-Video, destinato a contenere film, in sostituzione della videocassetta;
2. il DVD-Audio, pensato per sostituire il CD Audio grazie a una maggiore fedeltà e capacità;
3. il DVD-ROM, destinato a sostituire il CD-ROM.
Sia nel DVD-Video che nel DVD-Audio sono previsti sistemi di protezione in grado di disincentivare la
duplicazione dei contenuti. Proprio a causa di problemi nello sviluppo dei codici di sistemi di protezione adeguati, lo
standard DVD-Audio sembra essere l'applicazione meno fortunata del formato DVD. Al contrario lo standard
DVD-Video e DVD-ROM sono apparsi sul mercato sin dal 1997, ottenendo un enorme successo commerciale.
In un secondo momento, lo stesso DVD Forum introdusse gli
standard per i formati registrabili del DVD. Formalizzato nel
corso del 1999, il formato DVD-R è lo standard ufficiale per i
DVD Registrabili. Esso si suddivide nei formati "DVD-R for
authoring" e "DVD-R for general use". I primi sono destinati
alla creazione di copie di video protette da diritto d'autore,
necessitano di uno speciale masterizzatore e sono in grado di
implementare i sistemi di protezione dalla duplicazione. La
differenza fondamentale tra i due formati risiede nella diversa
lunghezza d’onda del laser: 635 nm per il DVD-R(A) e 650
nm per il DVD-R(G). I secondi sono in grado di contenere
qualunque tipo di materiale, ma non sono compatibili con i
sistemi di protezione utilizzati nei DVD-Video.
Nel 2000 è stato formalizzato lo standard DVD-RW, che
ricalca le caratteristiche dei DVD-R "for general use", ma con
la possibilità di essere riutilizzato fino a mille volte
(teoricamente).
DVD-RAM
Negli anni necessari alla formalizzazione dello standard DVD-R, sono stati commercializzati altri 2 formati per la
registrazione in formato DVD: il DVD+R (e DVD+RW) dal consorzio Sony-Philips, ed il formato DVD-RAM,
supportato da Matsushita e JVC. Questi formati differiscono notevolmente dal formato DVD-R in termini tecnici,
anche se i più moderni lettori e masterizzatori sono in grado di supportare DVD registrabili in qualunque formato
(con qualche riserva per il DVD-RAM). Il DVD-R/-RW e il DVD+R/+RW usano una tecnica di registrazione
elicoidale. Il DVD-RAM usa una tecnica di registrazione a cerchi concentrici, similare a un HardDisk, al quale è
assimilabile nell'uso.
Più recente è l'introduzione di standard per la masterizzazione di DVD a doppio strato, simili al DVD-9 industriale, e
con una capienza di circa 9 GB di informazioni. Anche in questo caso la cordata Sony-Philips ha giocato d'anticipo,
commercializzando il formato DVD+R Double Layer (c.d. DVD+R DL) fin dal 2002, mentre solo nel 2004 si è
DVD
111
formalizzato lo standard ufficiale DVD-R DL.
Il DVD-Video
I DVD-Video sono supporti digitali in grado di contenere fino a 240 minuti[1] di materiale video in formato
MPEG-2. L'audio può essere in formato non compresso PCM (da 1 a 8 canali), in formato Dolby Digital AC3 (che
prevede da 1 a 6 canali), in formato DTS (fino a 8 canali) o in formato MPEG.
I DVD-Video in commercio possiedono un codice detto codice regionale per poter essere riprodotto, usando un
lettore DVD da tavolo, solo in una determinata zona del mondo (il globo è stato suddiviso in aree dalle major
cinematografiche). I codici regionali dei DVD-Video sono i seguenti:
0 - Tutto
restrizione)
il
mondo
(nessuna
1 - Canada, USA e suoi territori
2 - Europa, Giappone, Sudafrica,
Medio Oriente
3 - Sudest asiatico
4 - Australia, Nuova Zelanda,
America centrale e meridionale
5 - Russia, India, Asia nordovest e
Africa del nord
Le zone del DVD
6 - Repubblica Popolare Cinese (tranne Hong Kong e Macao)
7 - Riservato
8 - Speciali sedi di riunioni (aeroplani, navi, hotel, etc.)
Il DVD-Audio
Il formato DVD-Audio ha subito numerosi slittamenti per problemi tecnici. Questo formato (DVDA) è stato
progettato per fornire una qualità sonora notevolmente migliore di quella del CD Audio (CDDA).
Malauguratamente, i sistemi di protezione dalla copia illegale implementati nel DVDA si sono rivelati molto efficaci
dal punto di vista della sicurezza, ma terribilmente invasivi dal punto di vista della qualità complessiva del suono. In
pratica il risultato sonoro era addirittura inferiore a quello dei normali CDDA, tanto che si è dovuto cercare altri
sistemi di protezione che avessero un effetto meno marcato sulla qualità del suono.
Nel frattempo il consorzio Sony-Philips ha introdotto, ritagliandosi una piccola fetta nel mercato audiofilo, il formato
concorrente Super Audio CD SACD.
Altro elemento che concorre al fallimento del formato DVD-Audio è la sua totale incompatibilità con gli attuali
lettori DVD-Video.
DVD
Caratteristiche tecniche del formato DVD e DVD-ROM
Le dimensioni dei DVD di produzione industriale sono di sei
tipi:
• DVD-1, detto più comunemente Mini DVD: 1,4 GB Lato
unico e singolo strato, con diametro minore di 120 mm
• DVD-3: 2,8 GB Double layer Lato unico e doppio strato,
con diametro minore di 120 mm
• DVD-5: 4,7 GB Lato unico e singolo strato
• DVD-9: 8,5 GB Lato unico e doppio strato
• DVD-10: 9,4 GB Due lati e singolo strato
• DVD-18: 17 GB Due lati e doppio strato
DVD
I DVD "double layer" permettono una doppia incisione nello
stesso lato. La capacità del supporto non raddoppia
esattamente, perché una parte di memoria è dedicata alla creazione di un indice e al controlo della distribuzione dei
dati.
Il double side o "doppio lato" è un supporto che può essere inciso o riscritto da tutti e due i lati.
Per il double layer occorre un particolare masterizzatore con tale funzionalità. Per il double side è sufficiente avere
un supporto a doppio strato, che viene inciso con i comuni masterizzatori, semplicemente girando il disco.
La memorizzazione delle informazioni avviene sullo "strato di incisione", tramite un laser, focalizzato su esso, che
ne modifica la riflettività, riproducendo la sequenza 0, 1. Ogni strato è suddiviso in tracce circolari e concentriche di
0,74 micrometri.
In lettura la luce laser viene riflessa dallo strato di memorizzazione in modo diverso a seconda dell'indice di
riflessione e conoscendo la velocità di rotazione del disco e la traccia su cui si sta leggendo, si può risalire alla
sequenza 0,1.
La minima velocità di trasmissione dati da un DVD è nove volte maggiore di quella di un CD, cosicché un lettore
DVD da 1x è quasi equivalente ad un lettore CD da 8x. Più precisamente, 1x per un lettore DVD equivale a 1350
kB/s, mentre 1x per un lettore CD equivale a 150 kB/s.
Il file system largamente usato nei DVDRom è l'UDF (Universal Disk Format).
Misure di un disco DVD
- Diametro totale disco DVD è di 120 mm (12 cm);
- Diametro totale foro centrale è di 15 mm (1,5 cm);
- Diametro totale parte stampabile è di 118 mm (11,8 cm);
- Diametro totale foro centrale non stampabile è di 22 mm (2,2 cm).
Dvd Time
È oggi possibile distribuire anche DVD a scadenza, aventi i medesimi standard di un DVD a doppio strato ma che si
differenziano da questo per la durata fisica della traccia che contengono. La parte centrale contiene sostanza citrica
che, a contatto col raggio ottico del lettore, viene lentamente sprigionata ed entro 48 ore rende il DVD inservibile
avendone deteriorato la traccia.
Esistono vari brevetti per realizzare questi nuovi supporti. Negli Stati Uniti questa tecnologia è stata sviluppata con il
marchio Flexplay dalla Flexplay Technologies, società fondata nel 1999 da Yannis Bakos and Erik Brynjolfsson.
Una tecnologia simile è utilizzata dalla Buena Vista con il nome ez-D.
112
DVD
113
Un'altra tecnologia simile, SpectraDisc, è stata sviluppata dalla SpectraDisc Corporation, acquistata interamente
dalla Flexplay Technologies nel 2003.
In Italia i DVD a scadenza sono detti Dvd Time e sono distribuiti dalla 01 Distribution che ha acquistato in esclusiva
il brevetto dalla società francese Dvd-Time. Il primo film distribuito in Italia su tale supporto è stato A History of
Violence nel 2006[2] .
Questi supporti hanno il vantaggio che il film può essere preso a noleggio senza doverlo riportare in videoteca, dopo
la visione del film.
Il futuro dei DVD
Anche se l'industria ha decretato che il DVD è tecnologicamente morto, si ha l'impressione che il suo uso continuerà
per un periodo non troppo breve.
Lo standard che ha raccolto l'eredità del DVD è il → Blu-ray Disc (BD), con una capienza di 25 GB di base, e con
una possibilità di contenere ben otto strati, raggiungendo una capienza fino a ben 400 GB (16 strati). Prima
dell'elezione del Blu-ray, lo standard rivale HD DVD aveva tentato di imporsi, ma è stato ritirato dal mercato. Una
delle cause della vittoria del Blu-ray è l'essere stato adottato dalla Sony per contenere i videogames per Play Station
3.
Lo studio di un possibile standard che permetterebbe il successivo salto di qualità è già avanzato: si tratta
dell'Holographic Versatile Disc (HVD), basato sulla tecnologia delle memorie olografiche, e permetterà di contenere
tra i 300 e gli 800 Gigabyte su un disco.
Voci correlate
•
•
•
•
DVD Forum
DVD+RW Alliance
Elenco dei produttori di lettori DVD
Video anamorfico
Formati DVD
•
•
•
•
•
•
•
•
•
DVD+R
DVD-R
DVD-RAM
DVD+RW
DVD-RW
DVD+R DL
DVD-R DL
DVD-D
mini DVD
DVD
114
Dischi ottici successori del DVD e CD
•
•
•
•
•
Versatile Multilayer Disc (VMD)
Digital Multilayer Disk (DMD)
→ Blu-ray Disc
HD DVD
Holographic Versatile Disc (HVD)
Dischi alternativi al DVD
• Enhanced Versatile Disc (EVD)
• Dual Disc
• CD-ROM
Formati Video
• MPEG-2
• → MPEG-4
• DivX
• EZ-D
• VOB
Altri progetti
•
Wikimedia Commons contiene file multimediali su DVD
Note
[1] La capienza in minuti di un DVD-video è solo indicativa e dipende da scelte di natura commerciale. La reale capienza in minuti di un
DVD-video dipende dal tipo di ripresa e dai settaggi scelti per i parametri della codifica in MPEG-2. Per qualsiasi supporto di memorizzazione
digitale, l'unità di misura della capienza in uso è il byte.
[2] cinecittà.com (http:/ / news. cinecitta. com/ news. asp?id=17398& idd=1). URL consultato il 10-01-2008.
IPTV
IPTV
Con IPTV (Internet Protocol Television) è un sistema di teleradiodiffusione dedicato alla trasmissione di contenuti
televisivi su un'infrastruttura di rete basata sulla suite di protocolli Internet, conosciuta anche come TCP/IP.
Il sistema IPTV è generalmente usato per diffondere contenuti televisivi attraverso connessioni ad Internet a banda
larga.
Spesso la fruizione dei contenuti audiovisivi è offerta in modalità Video on Demand ed abbinata all'accesso al web
ed al VOIP, poiché questi tre servizi condividono la stessa infrastruttura.
L'IPTV è stato visto da molti come un settore che potrà avere in futuro una forte diffusione, di pari passo con la
disponibilità della banda larga.
L'interesse degli utenti finali è ulteriormente spinto dalla sempre maggiore disponibilità di contenuti sia a pagamento
che gratuiti. Ma la chiusura del servizio da parte dell'operatore Tiscali nel dicembre 2008 ha sollevato forti dubbi
sulle potenzialità di crescita di questo servizio, che a dicembre 2008 conta circa 600.000 abbonati tra i provider in
Italia. Se infatti l'IPTV offre delle potenzialità tecnologiche quali il video on demand rispetto alle distribuzioni
televisive tradizionali come la televisione analogica terrestre, il digitale terrestre, il satellite e, nei paesi in cui viene
usata, la TV via cavo, contemporaneamente propone un modello chiuso, dove il provider decide quali contenuti e in
quali modalità debbano essere fruiti dagli utenti. L'utente Internet, al quale il servizio IPTV è rivolto, è invece
abituato a scegliere sul web e sugli altri servizi della rete a quali contenuti accedere e in quali modalità. Ad esempio
la Web TV, offerta sia da servizi appositi quali YouTube o Vimeo, che da singoli siti più o meno grandi, inizia a
superare l'IPTV in termini di qualità tecnologica, quantità di contenuti e modalità di accesso. O che lo scambio
tramite reti peer to peer di contenuti audio e video, nonostante i problemi legali, continua a crescere rappresentando
di fatto un'alternativa all'acquisto degli stessi contenuti.
Protocolli
L'IPTV solitamente offre 2 tipologie principali di contenuti: contenuti in presa diretta (distribuiti
contemporaneamente a più utenti) e contenuti di tipo Video-on-Demand, cioè pre-registrati e resi disponibili a
ciascun utente che ne faccia richiesta. Nel primo caso, la distribuzione dei contenuti avviene tramite protocolli di
multicast; nel secondo caso, si usa una connessione unicast tra l'utente e la piattaforma di erogazione del servizio.
I contenuti video, in genere, sono codificati in formato MPEG2, oppure MPEG4. Quest'ultima tecnologia (diffusasi
più di recente) sta soppiantando l'MPEG2, poiché consente una notevole risparmio di banda, a parità di qualità
dell'immagine. Solo ultimamente alle tecnologie di IPTV si sono affiancati sistemi di P2P-TV, ovvero di
condivisione dei flussi audiovisivi che, attraverso dei sistemi a cascata simili a quelli di Bittorrent, permettono di
replicare i contenuti tra gli utenti e permettere a tutti di ricevere agevolmente il segnale.
Trasporto
Il servizio viene erogato mediante una connessione IP che richide grande velocità per poter contenere i dati dello
stream video. Pertanto viene normalmente fornita come servizio aggiuntivo ad uno di accesso ADSL o superiore.
La tratta utente
Il trasporto del segnale video avviene mediante un canale dedicato a livello più basso del livello IP. Il servizio viene
normalmente erogato con due apparecchiature fornite al cliente: un modem e un set-top-box. Il primo stabilisce la
connessione dati con la centrale e gestisce sia i dati di traffico generato dai PC in Internet che quelli relativi ad un
eventuale filmato in visione. Il set-top-box invece riceve lo stream digitale con i contenuti video e lo trasforma in
segnale PAL fruibile tramite un normale televisore.
115
IPTV
In una normale connessione ADSL, tra l'apparato in centrale e il modem (in gergo CPE) si crea un circuito virtuale
per il trasporto dei dati (normalmente un VC del protocollo ATM). In una connessione IPTV i circuiti virtuali sono
almeno due, di cui uno interamente dedicato al trasporto del segnale video.
Mediante questa separazione in due canali, è possibile assegnare al canale video maggiore priorità e impostarlo
perché sia garantita una qualità del trasporto (QoS) superiore. In pratica si tende a dare preferenza ai pacchetti di dati
dello stream video rispetto al trasferimento dei normali dati internet, questo consente una visione senza perdita di
fotogrammi del contenuto multimediale, questo avviene a scapito del trasferimento di dati sull'altro canale virtuale:
ad esempio le pagine web trasferite da un PC sulla LAN di casa collegata al modem. Queste però normalmente non
richiedono un trasferimento sincrono.
La banda utilizzata dal segnale video dipende dal gestore e dalla qualità del segnale trasportato. Un sengale a bassa
definizione occupa tra i 4 e i 6 Mbit/sec. Un segnale ad alta definizione può richiedere 12-16 Mbit/sec e quindi non è
generalmente frubile se non dalle utenze che hanno un accesso a fibra ottica, o una linea ADSL2 in ottime
condizioni.
Gli accessi in fibra ottica sono ora ristretti agli utenti Fastweb nelle zone coperte dal servizio. Altri operatori stanno
sperimentando la tecnologia NGN basata su fibra ottica o altre soluzioni quali il VSDL.
Trasporto alla centrale
A monte del DSLAM in centrale il trasporto dei canali diffusi a più utenti utilizza un protocollo broadcast, ad
esempio basato su tecnologia a VLAN in GBE.
Questo fa si che sia possibile diffondere contenuti di alta qualità, rispetto ai video normalmente visibili via internet
(tipo YouTube) senza saturare la rete.
I contenuti on-demand, al contrario, sono necessariamente diffusi con stream dedicati per ciascuna utenza, pertanto
un accesso massivo ai servizi on-demand da più utenti in parallelo può avere impatti sulla fruibilità degli altri servizi.
Normalmente però il numero di utenze collegate ad un signolo DSLAM dedicato al trasporto IPTV sono in numero
minore di quelle su un DSLAM a solo uso traffico internet.
Gestione dei diritti digitali
Alcune IPTV trasmettono alcuni o tutti i programmi utilizzando dei sistemi di protezione digital rights management
al fine di evitare la duplicazione dei programmi visionati/acquistati. I DRM permettono di affittare/comprare i
programmi forniti dalle emittenti ma permettono la riproduzione dei filmati al solo acquirente, normalmente tramite
un numero limitato di computer/dispositivi multimediali.
Bisogna comunque osservare che la problematica inerente i diritti sulla diffusione di contenuti audiovisivi è stata più
volte oggetto di valutazione da parte del Parlamento Europeo, in particolar modo con la recente DIRETTIVA
2007/65/CE DEL PARLAMENTO EUROPEO E DEL CONSIGLIO dell’11 dicembre 2007 (DSMA - Direttiva
Servizi di Media Audiovisivi)
116
IPTV
117
IPTV in Italia
In Italia attualmente sono disponibili quattro offerte IPTV:
•
•
•
•
TVdiFASTWEB
Alice Home TV
Infostrada TV
Tiscali TV (il servizio è stato dismesso il 31 dicembre 2008)
Nel 2009 i tre fornitori di servizi ancora attivi nel settore (Fastweb, Telecom e Infostrada) si sono accordati per
progettare un decoder comune e proporre una soluzione con una tecnologia condivisa. Questo dovrebbe stimolare
ulteriormente il numero di utenze che nel 2009 è previsto crescere di oltre il 70%. Entro il primo semestre 2010 il
numero di utenze IPTV dovrebbe superare il milione.
Collegamenti esterni
•
•
•
•
Sito ufficiale dell'Associazione Italiana degli Operatori IPTV [1]
Atti del workshop "IPTV: cambia il mondo della TV" [2]
DSMA - Direttiva Servizi di Media Audiovisivi [3]
DSMA - Direttiva Servizi di Media Audiovisivi, dal sito AGCOM [4]
• Direttiva "Servizi di media audiovisivi senza frontiere" [5]
• Il Ministero delle Comunicazioni - Iptv della sezione Televisione [6]
Note
[1]
[2]
[3]
[4]
[5]
[6]
http:/ / www. associazioneiptv. it
http:/ / www. equiliber. org/ index. php?option=com_content& task=blogcategory& id=75& Itemid=78
http:/ / eur-lex. europa. eu/ LexUriServ/ site/ it/ oj/ 2007/ l_332/ l_33220071218it00270045. pdf
http:/ / www. agcom. it/ L_com/ 2007_65_CE. pdf
http:/ / europa. eu/ scadplus/ leg/ it/ lvb/ l24101a. htm
http:/ / www. comunicazioni. it/ aree_interesse/ televisione/ televisione_iptv/
Web TV
Web TV
La Web TV, anche scritta web TV, è la televisione fruita attraverso il Web. La tecnologia alla base della web TV è
lo → streaming.
La globalizzazione della Web TV
Grazie alla rete mondiale, le emittenti sono raggiungibili in tutto il mondo grazie a questo tipo di servizio.
Per avere una buona visione della Web TV occorre avere una connessione a banda larga (ADSL o meglio con cavo a
fibre ottiche).
Le Web TV nella pubblica amministrazione italiana
Il legislatore italiano con legge 7 giugno 2000[1] . ha previsto che le pubbliche amministrazioni si dotino di apposito
ufficio stampa, con responsabili iscritti all'Ordine dei Giornalisti, con la possibilità di un dialogo diretto con i
cittadini, anche senza la mediazione delle strutture tradizionali. I sistemi audiovisivi e quelli telematici sono posti
sullo stesso piano della stampa tradizionale.
In virtù di questo è in grande sviluppo il numero delle istituzioni pubbliche che utilizzano come strumento la Web
Tv, sia perché permette una comunicazione diretta, sia perché rispetto agli altri media, ha costi di impianto e di
gestione più contenuti.
La Camera dei deputati ed il Senato della Repubblica hanno messo a disposizione un servizio di trasmissione in
diretta di tutti i lavori parlamentari, accompagnate dal servizio di poter a domanda visionare tutte le sedute in
archivio. Il sistema ha permesso di democratizzare gli accessi, prima esclusiva dei giornalisti accreditati come
Stampa Parlamentare.
Gradatamente il servizio si sta estendendo alle altre istituzioni pubbliche, a partire dalle Regioni. Il Formez, che è
una associazione partecipata dal Dipartimento della Funzione Pubblica, dall'ANCI, dall'UPI, dall'UNCEM che opera
sull'intero territorio nazionale, ma che ha conservato l'originaria attenzione alle aree del Mezzogiorno, ha un ruolo
propulsivo, con la pubblicazione di una guida.[2]
La P2P TV
Un'evoluzione della Web TV è la P2P TV, che si basa sulla condivisione di video in → streaming tramite la
tecnologia peer-to-peer. L'utilizzo della tecnologia peer-to-peer permette di trasmettere ad un numero elevato di
persone senza l'utilizzo di server potenti e di banda elevata, riducendo i costi del sistema.
Le Web TV esclusivamente via Internet
Un'accezione tuttavia molto usata di Web TV corrisponde ad una costruzione di una vera e propria televisione
fruibile unicamente via Internet, e dunque non la mera ripetizione della programmazione via etere o satellite.
In questi casi il mezzo preponderante è il personal computer e l'interattività che si crea con lo spettatore che, diviene,
utente: possibilità di creare un palinsesto personalizzato, eliminazione dei tempi morti, riproducibilità senza confini
del contributo audiovisivo desiderato, interazione con storie e programmi molto più elevata delle semplici e classiche
telefonate alle redazioni.
Il vantaggio principale è di poter usufruire su base veramente senza limiti geografici di una interconnessione estesa a
tutto il globo, senza i limiti del numero dei canali, delle concessioni governative ed altro.
118
Web TV
La Web TV come "piattaforma televisiva"
Una particolare attenzione alla Web TV potrà essere data dalla riforma in atto dei diritti di trasmettere gli spettacoli
sportivi in cui gli operatori dovranno partecipare a gare di appalto suddivise per piattaforma televisiva, escludendo la
possibilità di aggiudicarsi i diritti per più di una piattaforma.
Ma il concetto che la Web Tv è, ormai, una piattaforma che ha pari dignità con le altre è stata ammessa anche dai
responsabili delle altre piattaforme, [3] che ipotizzano di "creare comunità virtuali sul Web. Tutti potranno proporre
contenuti che poi verranno intrecciati con quelli delle tv analogiche."
Convegni
Il mondo delle web TV ha attirato l'attenzione anche del mondo accademico. Il primo meeting sull'argomento è stato
organizzato nell'ottobre 2008 preso l'università IULM di Milano. Il secondo meeting è avvenuto nei giorni 22 e 23
maggio 2009 sempre allo IULM.
Bibliografia
• Domenico Serafini La Televisione via Internet: una nuova frontiera, editore Video Age (1999)
Voci correlate
•
•
•
•
•
→ Televisione digitale
→ Streaming
→ Podcasting
Web radio
Televisione comunitaria
Collegamenti esterni
• Web TV [4] su Open Directory Project ( Segnala [5] su DMoz un collegamento pertinente all'argomento "Web TV")
Note
[1] Legge 7/6/2000, Istituzione degli Uffici Stampa nella Pubblica amministrazione (http:/ / www. esteri. it/ ITA/ 5_30_78_122. asp)
[2] Formez, La web Tv delle pubbliche amministrazioni (http:/ / db. formez. it/ FontiNor. nsf/ dffcb1ad495c0dd3c1256a690056985b/
682D38DF1BC251A2C125716B002C4FE3/ $file/ Ricerca LA PA CHE SI VEDE. pdf)
[3] Web TV e TV analogichi hanno pari dignità? (http:/ / www. agi. it/ news. pl?doc=200611081145-0075-RT1-CRO-0-NF10& page=0&
id=agionline. oggitalia)
[4] http:/ / www. dmoz. org/ World/ Italiano/ Arte/ Televisione/ Reti_e_Canali/ Internet/
[5] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=World/ Italiano/ Arte/ Televisione/ Reti_e_Canali/ Internet/
119
Streaming
Streaming
Il termine streaming identifica un flusso di dati audio/video trasmessi da una sorgente a una o più destinazioni
tramite una rete telematica. Questi dati vengono riprodotti man mano che arrivano a destinazione.
Tipi di streaming
Sostanzialmente esistono due tipologie di streaming:
1. Streaming on demand
2. Streaming live
Streaming on demand
I contenuti audio/→ video sono inizialmente compressi e memorizzati su un server come file. Un utente può
richiedere al server di inviargli i contenuti audio/→ video. Non è necessario scaricarli per intero sul PC per poterli
riprodurre: i dati ricevuti vengono decompressi e riprodotti pochi secondi dopo l'inizio della ricezione. Questo ritardo
serve a creare un polmone per rimediare a ritardi o microinterruzioni della rete. Di questo tipo sono i flussi streaming
di Real Video e Real Audio, Windows Media Player, QuickTime, Adobe Flash Video (quest'ultimo tipo di formato
file utilizzato nel sito di Youtube). Addirittura esistono molti flussi streaming che permettono di visionare contenuti
in qualità divx. Alcuni siti come FreeForFun.org [1] sfruttando questi flussi permettono la visione di film in
streaming in alta definizione.
Streaming live
Simile alla tradizionale trasmissione radio o video in broadcast. Anche in questo caso i dati sono trasmessi
utilizzando opportune compressioni per alleggerire più possibile il carico sulla rete. La compressione dei contenuti
introduce nel flusso un ritardo di circa dieci secondi. Nel campo dello streaming live, di solito, questo ritardo non
costituisce un problema.
Protocollo per lo streaming
Generalmente la trasmissione in streaming avviene utilizzando il protocollo RTSP a livello di applicazione mentre a
livello di trasporto si utilizza prevalentemente il protocollo UDP. La distribuzione dei dati di streaming può essere di
tipo :
•
•
•
•
Multicast;
Unicast;
HTTP;
Peer to Peer.
Una delle più recenti applicazioni della tecnologia streaming risulta essere stata applicata nel campo della pubblicità
con la creazione di videobrochure.
Visto l'enorme successo avuto dallo streaming, ormai sono moltissimi i server costruiti appositamente per ospitare
esclusivamente file audio o video.
120
Streaming
Software e dispositivi per effettuare/visualizzare uno stream
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
VLC media player
Winamp
Windows Media Player
QuickTime
Shoutcast
Icecast
iTunes
Amarok
MPlayer
Kaffeine
Picostreamer
RealPlayer
Adobe Flash Player
Streamtuner
Location Free Player
VideoVista
•
•
•
•
LiveVista
DelFeo Radio/TV Player
Red5
Play4film.com
Collegamenti esterni
• Streaming [2] su Open Directory Project ( Segnala [3] su DMoz un collegamento pertinente all'argomento "Streaming")
Note
[1] http:/ / freeforfun. org/
[2] http:/ / www. dmoz. org/ Arts/ Music/ Music_Videos/ Streaming/
[3] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Arts/ Music/ Music_Videos/ Streaming/
121
Podcasting
Podcasting
Il podcasting è un sistema che permette di scaricare in modo automatico documenti (generalmente audio o → video)
chiamati podcast, utilizzando un programma ("client") generalmente gratuito chiamato aggregatore o feed reader.
Un podcast è perciò un file (generalmente audio o video) posto su Internet e messo a disposizione di chiunque si
abboni ad una trasmissione periodica. È scaricabile automaticamente da un apposito programma, chiamato
aggregatore, e si basa sui feed RSS.
Etimologia
Podcasting è un termine basato sulla fusione di due parole: iPod (il popolare riproduttore di file audio → MP3 di
Apple), e broadcasting. Il termine nacque quando l'uso dei feed RSS divenne popolare per lo scambio di registrazioni
audio su computer, palmari, lettori di musica digitale e anche telefoni cellulari.
Pare che il termine podcasting sia comparso per la prima volta il 12 febbraio 2004 in un articolo del giornalista Ben
Hammersley sul The Guardian intitolato " Audible revolution [1]". Uno dei pionieri di questo sistema è invece Adam
Curry, Video Jockey della MTV americana.
Il nome fu primariamente associato al solo scambio di file audio, ma l'uso delle tecniche RSS al fine di condividere
file video, iniziate già dal 2001, fece estendere il suo significato anche allo scambio dei file video, pur non avendo
alcuna relazione etimologica con essi.
Nel dicembre 2005, il dizionario americano New Oxford ha dichiarato Podcasting «parola dell'anno», definendo il
termine come «registrazione digitale di una trasmissione radiofonica o simili, resa disponibile su internet con lo
scopo di permettere il download su riproduttori audio personali».
Il termine è, in realtà, improprio, visto che né per il podcasting, né per il successivo ascolto dei file sono strettamente
necessari l'utilizzo di iPod o una trasmissione tradizionale (broadcasting). L'associazione con iPod nacque
semplicemente perché in quel periodo il lettore audio portatile ideato e prodotto da Apple era estremamente diffuso.
Il termine è stato spesso criticato poiché darebbe meriti ingiustificati alla Apple nello sviluppo della tecnologia del
podcasting. Per questo motivo si è cercato di renderlo "neutro", utilizzandolo come acronimo di "Personal Option
Digital casting" (il primo ad averlo fatto sarebbe Doc Searls nell'articolo " DIY Radio with PODcasting [2]"). La
confusione sull'origine del termine si è perciò diffusa, anche alcune importanti testate giornalistiche italiane come Il
Corriere della Sera, La Repubblica, la RAI, hanno commesso l'errore di trovare l'etimo nel suddetto acronimo: è
invece ormai internazionalmente accettato che il termine derivi dal nome del supporto della Apple.
Cos'è e come funziona
Per ricevere un podcast sono necessari:
• un qualsiasi supporto connesso ad internet (un PC, ad esempio)
• un programma client apposito (spesso gratuiti)
• un abbonamento presso un fornitore di podcast (spesso gratuiti)
Un podcast funziona alla stregua di un abbonamento ad una pubblicazione periodica, utilizzando una metafora: il
supporto connesso ad internet è la cassetta postale, il client è il postino, e il fornitore di podcast è la casa editrice.
L'abbonato riceve regolarmente le pubblicazioni, e può ascoltarle o vederle nella modalità e nei tempi che gli sono
più congeniali.
Per fruire del podcasting è innanzitutto necessario installare un semplice software gratuito (per esempio iTunes,
Juice [3] o Doppler), quindi selezionare i podcast di interesse. Il software, con la frequenza decisa dall'utente, si
collega ad internet e controlla quali file sono stati pubblicati dai siti ai quali si è abbonati: se ne trova di nuovi, li
scarica. La notifica della pubblicazione di nuove edizioni avviene tramite un feed RSS scambiato tra il sito del
122
Podcasting
produttore e il programma dell'utente.
I podcast potranno poi essere ascoltati in ogni momento poiché la copia del file, una volta scaricata
automaticamente, rimane sul computer dell'abbonato. In tal modo non si rende necessaria alcuna operazione attiva da
parte dell'utente. Inoltre, a differenza delle radio on line in → streaming, i podcast non richiedono necessariamente
un collegamento ad internet durante la fase di ascolto, ma solo in fase di download: ciò permette di fruire dei podcast
anche off-line o in condizioni di mobilità.
Differenze tra podcasting e streaming
Qualche definizione:
• Broadcast indica una trasmissione radio/tv tradizionale, ascoltabile ad una determinata ora decisa dall'emittente.
Quindi sincrona e on-line.
• → Streaming indica una risorsa audio/video fruibile in qualsiasi momento tramite un collegamento internet al sito
dell'emittente e un dispositivo per la riproduzione del flusso audio/video digitale. Si possono avere le due
modalità di streaming in memoria (video/audio on demand), che è asincrona e on-line, e di streaming dal vivo
simile alla trasmissione radio/tv tradizionale, che è sincrona e on-line.
• Podcasting indica una risorsa audio/video fruibile in qualsiasi momento, scaricata automaticamente in formato
mp3 (o altro) dal sito dell'emittente e salvata nella memoria di un dispositivo per la riproduzione. È quindi:
asincrona, off-line e nomadica.
Iscriversi ad un podcast permette all'utente di ottenere file che possono essere riprodotti anche off-line, e di disporre
di una grande quantità di fonti da cui attingere. Al contrario il broadcast offre una sola trasmissione alla volta, e
obbliga ad essere sintonizzati ad una determinata ora.
L'ascolto di audio in streaming su internet può eliminare l'obbligo di sintonizzazione in un determinato momento
dato dalle trasmissioni tradizionali, come accade nel caso del video/audio on demand, ma offre comunque una sola
risorsa alla volta ed obbliga l'utente ad essere connesso ad internet durante la riproduzione del file. La capacità di
ricevere automaticamente pubblicazioni da fonti multiple è proprio uno dei punti di forza che distinguono il
podcasting dalle trasmissioni tradizionali, e dalle trasmissioni in streaming.
Nonostante i programmi in streaming - alla stregua delle trasmissioni radio tradizionali - possano essere più o meno
facilmente registrati dal ricevente, la loro natura transitoria li distingue nettamente dai programmi podcast, che
invece arrivano già in formato compresso sul proprio computer (è la stessa differenza che c'è tra ascoltare un brano
alla radio e scaricarlo in mp3): questa rappresenta una diversità considerevole anche da un punto di vista legale, ed
ha infatti suscitato accese polemiche.
Diffusione del podcasting
L'uso del podcasting si è nel tempo enormemente diffuso, raggiungendo livelli di pubblico tali da indurre la stessa
Apple ad investire intensamente nel settore, offrendo nel firmware dell'iPod una voce di menù dedicata al
podcasting, con oltre 3000 podcast gratuiti presenti nell'iTunes Store (voce tra l'altro presente anche in alcuni
smartphone Nokia).
Molti celebri artisti (come Jovanotti, Max Pezzali, Fiorello, Bruce Springsteen, ecc.) hanno creato un proprio podcast
dove parlano di sé fra canzoni e vita privata.
Anche il mondo del giornalismo, della politica e della comunicazione si sono interessati al podcasting. In Italia, ad
esempio, RadioRAI offre le proprie trasmissioni come podcast; il quotidiano La Repubblica distribuisce via
podcasting le trasmissioni di "Repubblica Radio"; molte altre emittenti radiofoniche nazionali (tra le più importanti:
Radio DeeJay, Radio 105, Radio 24, Radio RockFM, Radio Popolare) hanno iniziato a proporre le proprie
trasmissioni con la tecnologia del podcasting. Una ricca raccolta di eventi politici e documenti originali e integrali in
podcast si trova su radio Radicale, più il suo Archivio Storico. Anche il mondo accademico e quello delle istituzioni
123
Podcasting
hanno dimostrato interesse per questo metodo di diffusione di contenuti multimediali.
La maggioranza dei podcast attivi, comunque, non fa parte del circuito a pagamento o della grande editoria, ma è
costituito dal cosiddetto "movimento indipendente", formato da semplici utenti che per passione diffondono i propri
contenuti.
A dimostrazione della rapida ascesa dell'utilizzo del termine podcasting basti pensare ai risultati mostrati da Google
per questo termine. Il 28 settembre 2004, cercando podcasting su Google, erano presenti solo 24 risultati. Tre giorni
dopo, il 1 ottobre 2004, erano già 2750, e il 18 ottobre 2004 erano già più di 100.000!
Bibliografia
•
•
•
•
Marco Traferri. Podcasting che funziona, ed. Apogeo, 2006, ISBN 88-503-2459-6
Alessandro Venturi. Come si fa un podcast, ed. Tecniche Nuove, 2006, ISBN 88-481-1947-6
Stefania Boiano e Giuliano Gaia. Il tuo podcast, ed. FAG, 2006, ISBN 88-823-3530-5
Michele Faggi. Musica e radio online: realizzare un podcast partendo da zero, ed. RGB, 2006, ISBN
88-6084-012-0
Collegamenti esterni
•
•
•
•
•
•
•
•
•
•
podcasting [4] su Open Directory Project ( Segnala [5] su DMoz un collegamento pertinente all'argomento "podcasting")
Elenco dei Podcast Italiani suddivisi per categorie [6]
Elenco dei Podcast Italiani Indipendenti [7]
Raccolta di domande e risposte sul podcasting [8]
Edidablog: Progetto del Ministero della Pubblica istruzione per tutti gli insegnanti che voglio fare podcast in
classe [9]
(EN) Siti sul podcasting [10] (da Google Directory)
Guida al podcasting [11] (da HTML.it)
Guida su come creare e pubblicare un Podcast (da pc-facile.com) [12]
Normative SIAE per il podcasting radiofonico [13]
Elenco dei Podcast Italiani suddivisi per categorie [14]
Note
[1] http:/ / technology. guardian. co. uk/ online/ story/ 0,3605,1145689,00. html
[2] http:/ / www. itgarage. com/ node/ 462
[3] http:/ / juicereceiver. sourceforge. net/
[4] http:/ / www. dmoz. org/ Computers/ Internet/ On_the_Web/ Podcasts/
[5] http:/ / www. dmoz. org/ cgi-bin/ add. cgi?where=Computers/ Internet/ On_the_Web/ Podcasts/
[6] http:/ / www. audiocast. it/ podlist/
[7] http:/ / www. gunp. it/
[8] http:/ / www. digitalino. com/ toilettecast/ faq/
[9] http:/ / www. edidablog. it/
[10] http:/ / www. google. com/ Top/ Computers/ Internet/ On_the_Web/ Podcasts/
[11] http:/ / basic. html. it/ guide/ leggi/ 130/ guida-podcasting/
[12] http:/ / www. pc-facile. com/ guide/ creare_pubblicare_podcast/
[13] http:/ / www. fabriziomondo. com/ 2007/ 08/ 20/ normative-siae-per-il-podcasting-radiofonico-in-italia/
[14] http:/ / www. podcast. it/
124
Blu-ray Disc
125
Blu-ray Disc
Disco ottico
Logo del Blu-ray Disc
•
•
•
•
•
Lettore CD
Lettore DVD
Masterizzatore
Super Multi
Software di masterizzazione
Dischi ottici
Il Blu-ray Disc è il supporto ottico proposto dalla Sony agli inizi del 2002 come evoluzione del → DVD per la →
televisione ad alta definizione. Grazie all'utilizzo di un laser a luce blu, riesce a contenere fino a 54 GB di dati, quasi
12 volte di più rispetto a un DVD Single Layer - Single Side (4,7 GB). Anche se questa capacità sembra enorme, un
disco da 25 GB può contenere a malapena 2 ore di filmato ad alta definizione utilizzando il tradizionale codec
MPEG-2. Per questo motivo, oltre all'utilizzo dei dischi a doppio strato (oltre 50 GB), è stato previsto l'impiego di
codec più sofisticati come l'→ MPEG-4 AVC o il Windows Media Video 9 (standardizzato come VC-1) che
permettono in teoria di raddoppiare il fattore di compressione rispetto all'MPEG-2 (quindi dimezzando la richiesta di
spazio) senza incidere significativamente sulla qualità video.
È stato utilizzato il termine Blu (usato in italiano) al posto del corretto Blue, poiché quest'ultimo è di uso comune
nella lingua inglese (e quindi non registrabile come marchio). Il primo apparecchio ad aver utilizzato
commercialmente questa tecnologia è stata la PlayStation 3, dopo che il 12 agosto 2004 i produttori impegnati nel
progetto Blu-ray dichiararono di aver approvato la versione 1.0 delle specifiche per i dischi BD-ROM. La
presentazione ufficiale del nuovo supporto disponibile per il cinema ad alta definizione è avvenuta il 23 maggio 2006
negli Stati Uniti.
Il 19 febbraio 2008 il Blu-ray ha definitivamente vinto la sua competizione con l'HD DVD, visto che Toshiba,
titolare dei diritti sullo standard concorrente, ha dichiarato la chiusura del progetto e la dismissione delle attività
collegate.[1] Chiusura probabilmente determinata anche dall'abbandono del supporto da parte di nomi come Warner
Bros. e Wal-Mart.
Blu-ray Disc
126
La battaglia con il concorrente HD DVD
Sia il BD che il concorrente formato HD DVD, sono supportati da insiemi di aziende, che lottano per imporre il
proprio formato. Essendo basato su una tecnologia di costruzione differente da quella utilizzata per CD-ROM e
DVD, il BD potrebbe essere più costoso da produrre, almeno inizialmente, rispetto all'HD DVD, che però ha una
capacità di soli 15 GB per strato singolo e 30 GB utilizzando il doppio strato. Il prezzo per l'utente finale, però,
dipenderà dalle politiche della case editrici: nelle produzioni BD e HD DVD americane attuali, il prezzo finale di
vendita dei film pre-registrati è identico e non c'è nulla che lasci trapelare un maggiore costo di realizzazione del
Blu-ray Disc, se non il fatto che tutti i primi titoli realizzati facciano ancora uso del disco da 25 GB (singolo strato),
con l'utilizzo dei supporti a doppio strato (50 GB) previsto nell'immediato futuro.
La capacità dei due supporti comunque non si limiterà ai valori attuali. Già al CEATEC 2004 fu presentato per il
Blu-ray Disc un prototipo di supporto a 4 strati, capace di raggiungere una capacità di 100 GB, con esperimenti in
corso per un ulteriore raddoppio fino a 8 strati o 200 GB. In risposta, il 12 maggio 2005 al Media-Tech Expo di Los
Angeles è stata proposta una evoluzione anche per l'HD DVD, dimostrando l'impiego di dischi da 45 GB a 3 strati.
Queste versioni multi-layer di HD DVD e Blu-ray saranno perfezionate e utilizzate in un prossimo futuro, mentre per
il momento si diffonderanno solamente supporti a 1 e 2 strati e player compatibili.
La tecnologia alla base di Blu-ray è più complessa e sofisticata, ma permette di raggiungere capacità teoriche
superiori ai 500 GB per singolo disco. Al contrario, HD DVD punta meno sulla capacità massima di storage e più
sulla compatibilità con l'attuale tecnologia DVD a laser rosso. Uno dei motivi principali per cui lo standard Blu-ray
consente capacità superiori rispetto al concorrente è rappresentato dal minore spessore dello strato protettivo. I dischi
DVD e HD DVD dispongono di un polimero trasparente (policarbonato) di 0,6 mm che copre i substrati, mentre lo
strato del Blu-ray è di soli 0,1 mm. Questo significa che il substrato è molto vicino alla superficie, e la diffusione del
laser è minore. Meno materiale il laser deve penetrare, maggiore sarà l'apertura numerica e minore sarà la distanza
tra due tracce e la lunghezza dei pit (il pit è la struttura di un disco ottico tramite la quale vengono immagazzinati i
dati binari sotto forma di variazioni nello spessore dello strato riflettente del disco, permettendone così il recupero
misurando la quantità di luce riflessa del fascio laser usato per la lettura). In parole povere, questi cambiamenti
permettono maggiore densità di dati su un disco Blu-ray anziché su un DVD o un HD DVD.
Questa battaglia si è chiusa, come detto, il 19 febbraio 2008.
Capacità dischi e costi
Blu-ray attualmente offre tre differenti capacità di archiviazione
(23,3, 25 e 27 GB), solo leggermente differenti in quanto
utilizzano i medesimi supporti ma variano la quantità di dati
immagazzinati grazie all'utilizzo di tre differenti lunghezze dei pit.
È anche possibile diminuire ancora di più la lunghezza dei pit, e
incrementare la capacità di archiviazione per strato, in inglese
chiamato layer. In contrasto, HD DVD utilizza una lunghezza del
pit fissa, quindi la capacità per layer è fissa a 15 GB.
Con i dischi Blu-ray da 25 GB già sul mercato, e con quelli da 50
GB sulla linea di partenza, Sony era già al lavoro sui supporti da
200 GB: una capacità che sarebbe stata raggiunta con l'adozione di
otto strati. Tale capacità è stata poi raggiunta e presentata il 26
maggio 2005 da parte della Blu-ray Disc Association che ha
Un disco Blu-ray
dichiarato, inoltre, che ormai i costi di produzione dei dischi
BD-ROM con capacità da 25 e 50 GByte sono molto simili a quelli degli odierni DVD Dual Layer.
Blu-ray Disc
In questo periodo di lotta e mancato accordo per il formato unico con il
consorzio HD DVD, il fatto che i costi di produzione siano simili alla
concorrenza (ma con risultati migliori) segna un punto a favore per il
Blu-ray. A sfavore dello standard invece c'è il costo degli impianti, gli
attuali impianti possono essere aggiornati allo standard HD-DVD con
una spesa modesta, mentre una loro modifica per la produzione di
supporti Blu Ray richiede un investimento molto più consistente.
Come per i DVD, anche i Blu-ray esistono in versione "Double layer"
in cui, grazie alla presenza di due strati di informazione sovrapposti, la
Prototipo di un disco Blu-ray
capacità viene raddoppiata, portandola a circa 50 GB. Sono comunque
allo studio versioni ancora più evolute, in cui grazie all'impiego di 4, 8
e anche 16 strati, la capacità di un Blu-ray Disc potrebbe essere in futuro portata anche a 100, 200 e 400 GB
rispettivamente.
Protezione dei dati
Sul fronte della sicurezza dei dati contro la contraffazione, Blu-ray utilizza l'Advanced Encryption Standard (AES)
con chiavi a 128 bit che cambiano ogni 6 Kb di dati. In una conferenza del 2004, Sony ha mostrato come una singola
chiave veniva utilizzata per decriptare un DVD, mentre la chiave del Blu-ray Disc cambiava centinaia di volte
durante la riproduzione. Il protocollo di gestione dei contenuti digitali funzionerà in cooperazione con il protocollo
HDCP per impedire la riproduzione a dispositivi non abilitati.
Il Blu-ray utilizza tre meccanismi di protezione dei dati.
• Il primo è l'AACS, evoluzione del Content Scrambling System (CSS) utilizzato per i DVD. L'AACS cripta i dati e
può essere decodificato solamente conoscendo le apposite chiavi rilasciate ai produttori di player. L'AACS,
quindi, di fatto serve a impedire la riproduzione di dischi da parte di dispositivi non autorizzati o contraffatti (e
che quindi potrebbero illegalmente trasferire il contenuto del supporto verso altri sistemi).
• Un secondo meccanismo di protezione è quello del Digital Watermarking. Praticamente nel disco vengono
inserite delle "impronte" realizzate mediante opportune modifiche della forma dei bit, invisibili all'occhio umano,
ma il cui schema può essere intercettato e ricostruito dal player durante la riproduzione. Se il player non individua
lo schema, il disco viene identificato come contraffatto e non riprodotto. Il Digital Watermarking, quindi, serve a
impedire la riproduzione di dischi prodotti illegalmente.
• Il terzo sistema è chiamato BD+ e si basa su una macchina virtuale che può essere eseguita nel riproduttore di
Blu-ray Disc utilizzando un codice sorgente registrato direttamente nei supporti pre-registrati. Al momento del
caricamento del disco, il codice viene estratto e portato nella memoria del player, dove viene eseguito. Il codice
permette di decodificare il materiale registrato sul disco che è stato modificato applicando un secondo livello di
protezione, aggiuntivo rispetto all'AACS, e che prevede la sostituzione di porzioni di dati utili con porzioni di dati
non significative. Se tali porzioni non vengono ripristinate, il materiale risulta corrotto e quindi non leggibile. Il
programma eseguito dalla macchina virtuale del BD player si occupa appunto di ricostruire il flusso corretto di
bit, permettendo la lettura del disco. Il BD+ offre due meccanismi molto potenti di protezione: innanzitutto il
codice non risiede mai permanentemente nel player, in quanto non appena viene estratto il disco la memoria della
Virtual Machine viene azzerata. Questo significa che il codice non è direttamente accessibile dal player e che
questo non può essere "violato".
In secondo luogo, poiché il codice risiede solo nel supporto, è possibile modificarlo ogni qualvolta il codice in uso
risulti violato, rendendo così il sistema aggiornabile.
La combinazione dei tre meccanismi di protezione è considerata molto più sicura rispetto al solo AACS utilizzato
per l'HD DVD.
127
Blu-ray Disc
128
Novità dal mondo Blu-ray
• Il 19 aprile 2004 Sony ha presentato il prototipo di supporto
Blu-ray fatto di carta per mitigare l'impatto ambientale
derivante dallo smaltimento dei supporti ottici e migliorare la
sicurezza per il loro utilizzo. Il lavoro su questo nuovo tipo di
supporto era iniziato l'anno precedente. Il disco, grazie alla
carta che ne costituisce la componente principale (il 51%), è
biodegradabile e può essere facilmente distrutto usando un
semplice paio di forbici. I costi di produzione dovrebbero
essere anche più bassi di quelli dei normali dischi, rendendo il
nuovo supporto il prodotto perfetto per la prossima generazione
di supporti ottici, anche se la particolarità di questo materiale,
seppure si basi sullo standard Blu-ray ne impedisce l'uso sui
(pochi) lettori e masterizzatori già in commercio, richiede un
hardware aggiornato per il suo utilizzo.
La PlayStation 3, il primo apparecchio ad utilizzare
commercialmente questa tecnologia
• A fine 2004 JVC invece ha annunciato la realizzazione del primo Blu-ray/DVD combo ROM disc, ovvero un
disco capace di immagazzinare fino a 33,5 GB di dati in maniera molto originale: riprendendo l'idea dei DVD a
singolo strato (layer) ma doppia faccia ha realizzato un supporto formato da un lato da un layer del Blu-ray disc
mentre dall'altro un DVD dual layer. In questo modo si potrebbero realizzare film in 2 formati diversi a diverse
risoluzioni e un utente potrebbe cominciare a vedere il film in formato DVD e poi al momento dell'acquisto di un
nuovo lettore compatibile Blu-ray poter usufruire da subito delle potenzialità del nuovo formato con una
videoteca già fornita. Teoricamente questo costituirebbe un ottimo supporto di transizione, ma nella pratica
emergono vari dubbi sulla possibilità che questo possa mai diventare un prodotto commerciale, visti i risultati
(scarsi) di tentativi analoghi già sperimentati in passato unendo i DVD e i CD per ottenere un formato unico.
• Il 20 maggio 2005 la TDK ha realizzato un prototipo di disco Blu-ray a doppio strato e doppia faccia in grado non
solo di raccogliere il doppio dei dati (cioè 100 GB) ma anche di poter essere letto/scritto a velocità maggiore
rispetto ai dischi standard realizzati finora. Il disco può registrare a 72 Mbps, il doppio rispetto ai 36 Mbps dei
correnti Blu-ray Disc originali. TDK ha migliorato la velocità di scrittura usando un laser molto più potente e
approntando alcuni cambiamenti al materiale del disco stesso. All'inizio, lo standard proposto si basava sulla
velocità di 2x e questo ha costretto TDK a proporre il nuovo standard alla Blu-ray Disc Association, ma a fine
giugno l'azienda è riuscita a raggiungere in laboratorio l'incredibile velocità di 6x ovvero 216 Mbps stabili in
scrittura. Secondo Sony dopo il lancio di tale supporto ci sarà il primo aumento di velocità durante il 2007. È stata
presentata inoltre l'evoluzione della tecnologia proprietaria Armor Plated, chiamata commercialmente con il nome
di Durabis, cioè uno stato protettivo antigraffio già applicato da TDK su alcuni DVD nel 2004 e ora applicato
anche ai supporti Blu-ray. A detta del produttore, i dischi trattati con questa resina speciale possono resistere
all'"attacco" di una spugna in lana di acciaio e respingere ogni tipo d'inchiostro, anche indelebile. Questo strato
protettivo consentirà la commercializzazione di dischi Blu-ray "nudi" ovvero privi della cartuccia protettiva che
era stata pensata inizialmente, risultando quindi in tutto simili agli attuali CD e DVD.
• Intanto la Philips si è concentrata maggiormente sull'hardware, ed ha in programma di immettere sul mercato
nella seconda metà del 2005 il primo drive ottico al mondo capace di leggere e scrivere Compact Disc (CD),
Digital Versatile Disc (DVD) e Blu-ray Disc (BD). La sua utilità, ovvero l'uso di tre laser diversi, sarà però
dimostrata solo quando ci sarà una vera espansione dei supporti Blu-ray.
• Sempre Philips a metà luglio 2005 ha effettuato i primi test di registrazione su supporti prodotti con rame e silicio
a velocità da 1x a 7x (quest'ultima equivalente alla velocità 10x per i DVD e 30x per i CD). I risultati hanno
indicato che il minor tempo di registrazione è tangibilmente praticabile a una velocità di rotazione di ben 10800
Blu-ray Disc
giri al minuto. All'atto pratico, 25 GB di dati possono essere, a velocità 7x, registrati in appena 14 minuti.
• Il 31 luglio 2005 la Twentieth Century Fox ha annunciato la prossima commercializzazione di alcuni titoli nel
nuovo formato Blu-ray ad alta definizione sui mercati asiatico, americano ed europeo. Tra questi si possono
citare: le serie dei Simpsons, X-Files, le saghe di X-Men e di Alien, oltre a molti altri titoli fra cui film di successo
come Tutti pazzi per Mary e Io, Robot.
• Il 22 ottobre 2005 La Warner Bros. ha annunciato l'intenzione di voler produrre contenuti anche su supporti
Blu-ray. La notizia risulta di particolare interesse, dal momento che Warner è comunque affiliata al gruppo a
favore del formato HD DVD. La scelta di Warner segue quella di Paramount Home Entertainment. È a questo
punto molto probabile che, a breve, anche Universal Studios, attualmente dalla parte di HD DVD, segua le orme
delle due major appena citate. Marsha King, executive vice president per lo sviluppo business di Warner Home
Video, ha dichiarato di voler rendere disponibili le proprie produzioni per il maggior numero di consumatori
possibili. Warner afferma che i sistemi anticopia previsti dallo standard Blu-ray soddisfano quelle che sono le
esigenze della compagnia stessa.
• Il 31 ottobre 2005 HP, in accordo con le polemiche sollevate da Microsoft e Intel, a proposito dell'adozione di due
requisiti, ritenuti fondamentali, come il "mandatory managed copy" e l'"iHD interactive layer" che se non
verranno adottati porteranno la casa statunitense ad appoggiare il concorrente. Sembra che, dopo uno scambio di
pareri con Microsoft, HP abbia rivalutato la propria posizione dichiarando "La Blu-ray Disc Association" deve
adottare il mandatory managed copy e l'iHD, due elementi che potrebbero aumentare le possibilità di unificazione
dei formati. Ovviamente, se questa deciderà di non cambiare da BD-J a iHD per le applicazioni interattive, HP
potrebbe supportare la tecnologia più conveniente, l'HD DVD". HP non uscirà comunque dal consorzio Blu-ray,
supporterà entrambi i formati, ma con queste premesse, per il Blu-ray, la situazione non è certo delle migliori.
• Il 30 dicembre 2005 sono state confermate le voci secondo le quali i dischi Blu-ray saranno dotati di Region code
come gli attuali DVD. Le regioni saranno però soltanto tre:
• Regione 1: Americhe e Sud Est asiatico (India, Giappone, Corea, Thailandia, Malesia, ecc.), Cina esclusa
• Regione 2: Europa e Africa
• Regione 3: Cina, Russia e altri
La novità risiede nella condivisione di codifica per Nord-America e Giappone, rendendo così possibile lo
scambio di materiale fra queste due zone di importanza cruciale per il mercato. Tale scelta infatti permette ad
esempio di utilizzare giochi per la PlayStation3 non solo in Giappone ma anche negli Stati Uniti. Ignorati
dunque i pareri di molti analisti del settore che indicavano nelle limitazioni a zone più un problema per chi
fruisce legalmente dei contenuti che per la pirateria.
• Il 10 gennaio 2006 al CES di Las Vegas TDK ha mostrato alcuni supporti da 100 GB grazie all'adozione di 4
strati. Secondo il produttore possono essere scritti a una velocità di 6x, quindi quasi 27 MB al secondo, vale a dire
circa un'ora per la masterizzazione completa. È stato inoltre migliorato il supporto di protezione, ora denominato
DuraBis 2, in grado di proteggere maggiormente il supporto dai graffi. Indiscrezioni assolutamente non
confermate indicano in circa 50-70 euro il prezzo del supporto da 100 GB, mentre per le versioni da 50 GB BD-E
e BD-RE (riscrivibile) i prezzi sarebbero rispettivamente di 40 e 55 euro circa, ovviamente destinati a scendere
drasticamente col tempo.
• Il 9 febbraio 2006 Sony ha comunicato i prezzi dei futuri film su supporto Blu-ray. Tali prezzi oscilleranno tra i
29 dollari e i 34 dollari, a seconda della popolarità dei film. In sostanza dovrebbero essere prezzi simili a quanto
era avvenuto nel 1997 con il passaggio da VHS a DVD.
• Dicembre 2006, il prezzo ai consumatori dei primi masterizzatori Blu-ray dedicati si aggira intorno tra 800 e 900
euro.
• Il 29 maggio 2007 l'azienda indiana Moser Baer, unica società non giapponese che produce dischi blu ray e
secondo produttore mondiale di dischi ottici, dichiara di aver prodotto i primi dischi Blu ray a 8x, 36MB/s
129
Blu-ray Disc
compatibili con la specifica Blu ray 1.2.[2]
• Il 19 febbraio 2008 la Toshiba ha annunciato l'abbandono del progetto HD DVD.[3]
• Il 7 luglio 2008 Pioneer annuncia un disco Blu ray da 400GB con 16 strati. Non si sa ancora per quando sarà
prevista la commercializzazione.[4]
• L'11 febbraio 2009 Sony annuncia di voler inserire in un singolo disco Blu-Ray un film in HD abbinato ad un
gioco completo. Questo per i giochi tratti o ispirati da film. Resta ancora da definire la qualità del film e del
videogioco che dovranno dividersi lo spazio disponibile del supporto.[5]
• Nella prima settimana di Gennaio 2009 il BD raggiunge quota 16% del mercato guadagnando posto sul suo
predecessore e battendo ogni suo record[6] .
• Il 10 maggio 2009 il BD si mantiene a quota 10% del mercato lasciando il DVD al 90% del market share[7] .
• Il 17 maggio 2009 il BD sale a quota 15% del mercato (DVD al 85% del market share) [8] .
• Il 7 giugno 2009 il BD si assesta al 12% del mercato (DVD al 88% del market share) [9] .
Trattative per il formato unico
Il 25 marzo 2005 Ryoji Chubachi, uno dei capi di Sony, nel suo discorso sulla lotta per il "dopo DVD" tra il
consorzio Blu-ray e quello HD DVD, ha dichiarato che una soluzione di compromesso con il consorzio HD DVD
sarebbe la cosa migliore per tutti, dai consumatori ai produttori e questo ha fatto subito scattare una serie di
commenti, polemiche e speculazioni: alcuni pensano infatti, che questo segno di apertura non sia dettato da un vero
interesse per il "bene del consumatore" ma piuttosto dal fatto che il concorrente HD DVD essendo retrocompatibile
con i lettori precedenti, comporta meno costi di produzione ed inoltre arriverà nei negozi prima del Blu-ray.
Il dubbio che rimane è che gli intenti di fusione siano spinti dal tentativo di far "cedere" l'altra parte. Del resto
l'unificazione degli standard sembrerebbe molto difficile almeno dal punto di vista hardware, il che significa che per
un tale proposito uno dei due contendenti dovrebbe in un certo senso "autoscartarsi".
Lo "scontro" tra Blu-ray e HD DVD è molto simile a quello avvenuto agli inizi degli anni ottanta tra VHS, Betamax
e Video2000, in cui alla fine trionfò il VHS nonostante l'inferiore qualità complessiva.
La posizione di Microsoft e Intel
Microsoft
Il 27 settembre 2005 Microsoft e Intel (binomio conosciuto anche con il nomignolo Wintel) hanno annunciato
apertamente di appoggiare lo standard HD DVD apportando una serie di motivazioni che non hanno certo lasciato in
silenzio i sostenitori o meglio, gli sviluppatori del formato Blu-ray. Secondo Microsoft queste sarebbero le aree in
cui Blu-ray ha fallito:
• Sembra che la possibilità per i consumatori di fare copie di un disco legalmente ottenuto sia estremamente ridotta
e Intel, che tiene molto al lancio della sua piattaforma Intel VIIV avvenuto agli inizi di settembre non "digerisce"
questa lacuna.
• Sarebbe scarso anche il supporto per dischi ibridi che possono essere letti sia dai player DVD attuali che quelli
futuri. Microsoft ha dichiarato che questa era una funzionalità inizialmente promessa da entrambi gli standard, ma
che alla fine solo HD DVD ha mantenuto, dato che il prototipo di Blu-ray è ancora nei laboratori e lontano dalla
possibile commercializzazione.
• Blu-ray non sarebbe riuscito a mantenere bassi costi né per la produzione, né per la replicazione dei dischi.
• Viene menzionata perfino la capacità di immagazzinamento, che sulla carta dovrebbe essere un punto
decisamente a favore di Blu-ray, ma che all'atto pratico sembra che il supporto da 50 GB funzioni quasi
esclusivamente in laboratorio, quindi resterebbe quello da 25 GB a scontrarsi contro il disco da 30 GB di HD
130
Blu-ray Disc
DVD.
• Infine è stata "denunciata" anche l'interattività degli standard.
Blu-ray Disc Association
A tutto questo la Blu-ray Disc Association, per voce di Dell e HP, ha risposto con le seguenti argomentazioni:
• Quando Intel e MS affermano che l'HD DVD è più capiente, mettono a confronto un dual layer (HD DVD 30 GB)
con un single layer (BD 25 GB).
• Dell e HP rispondono a Microsoft e Intel sul fatto che l' HD DVD sia il solo formato che permetta agli utenti di
realizzare copie legali dei contenuti di un disco, affermando che questa è una parte del sistema di protezione
AACS, e AACS è solo una parte delle specifiche del BD.
• Per la Blu Ray Disc Association il BD fornisce estensioni per i dischi ibridi, compatibilità con l'odierno DVD e
facilità di uso in PC notebook.
• Blu-ray sarebbe un formato superiore. Offre il 67-150 % di capacità in più, alte velocità di trasferimento,
compatibilità con i notebook ultrasottili, connettività a banda larga e un collaudato layer interattivo con BD-Java.
Intel
Il 5 ottobre 2005 anche Intel ha rivelato direttamente la propria posizione, affermando che il problema maggiore di
Blu-ray risiede in uno dei suoi sistemi di protezione che prende il nome di ROM Mark. Come detto prima, sia HD
DVD che Blu-ray dispongono di un sistema di protezione definito AACS (Advanced Access Content System), che
permette di proteggere i contenuti dalla copia non autorizzata. Blu-ray aggiungerebbe a questo altri due livelli di
protezione, BD+ (di cui non si sa molto allo stato attuale) e proprio il sistema ROM Mark, molto complesso e
articolato, che sembra veramente molto efficace. ROM Mark dovrebbe rendere inutilizzabili i contenuti che
risiedono su supporti non autorizzati e non creati da un ben preciso masterizzatore, ad esempio, l'azienda che
produce il supporto Blu-ray con contenuti multimediali, per esempio un film, posiziona un marcatore digitale in un
punto estremamente preciso della traccia e ne memorizza le coordinate fra i dati scritti sul supporto. Ogni
masterizzatore differisce in maniera lieve da un altro, e ciò costituisce di fatto una specie di "impronta digitale", una
peculiarità di ogni masterizzatore. L'estrema precisione delle coordinate del marcatore digitale permettono di rendere
praticamente impossibile copiare il contenuto del disco originale su un altro disco, senza che quest'ultimo non venga
rilevato come pirata e quindi di impossibile utilizzo. Il supporto scritto con un altro masterizzatore infatti avrà il
marcatore in una posizione differente da quanto indicato nei dati.
Il sistema, così come è concepito, risulta estremamente efficace dal punto di vista di Sony, che ha nell'elettronica di
consumo e nell'intrattenimento domestico il proprio mercato principale. Tale iniziativa inoltre va in effetti a
controbattere la pirateria, quella veramente dannosa, ovvero quella che mette in commercio dischi identici in tutto e
per tutto agli originali, che ha alle spalle delle vere e proprie associazioni a delinquere. Secondo Intel però, che ha
nell'informatica il proprio mercato principale, il concetto di Home Theatre PC ha senso solo se si possono spostare
contenuti da supporto DVD a disco rigido. HD DVD, con il solo AACS permette di farlo, allo stato attuale delle cose
Blu-ray no.
In ultima analisi, Intel si dichiara ben disposta ad appoggiare anche lo standard Blu-ray, qualora però quella che è
vista come una limitazione all'espansione del proprio mercato fosse rimossa.
131
Blu-ray Disc
132
Software di scrittura
• Nero Burning Rom nella sua versione 6.6.0.13 supporta il testing e il data recording Blu-ray.
• Toast Titanium nelle versioni successive dalla 8.0 supporta pienamente la scrittura e verifica su supporti Blu-ray.
• ImgBurn ha aggiunto il supporto ai file system UDF 2.50 ed ai dischi HD DVD e Blu-ray nella versione 2.2.0.0.
Principali finanziatori
•
•
•
•
•
•
•
•
•
•
Apple (dal 10 marzo 2005)
Dell
Hitachi
Hewlett-Packard
LG Electronics
Panasonic (Matsushita)
Philips
Pioneer
Samsung
Sharp
•
•
•
•
•
Sony
Sun Microsystems
TDK
Texas Instruments
Thomson
Case di produzione che supportano il Blu-ray
•
•
•
•
•
The Walt Disney Company (dall'8 dicembre 2004)
Metro-Goldwyn-Mayer
Sony Pictures Entertainment (Columbia Pictures/TriStar Pictures/Screen Gems)
20th Century Fox (dal 3 ottobre 2004)
Vivendi Universal Games ed Electronic Arts (dal 7 gennaio 2005)
• Warner Bros. (dal 3 ottobre 2005) fino a maggio 2008 ha pubblicato anche supporti HD DVD.[10]
• Universal Studios [11]
• Paramount Pictures
Dati tecnici e differenze tra Blu-ray Disc e HD DVD
Parametri
Blu-ray Disc
HD DVD
Capacità ROM (sola lettura) (1
layer)
25 GB
15 GB
(2
layer)
50 GB
30 GB
(3
layer)
non disponibile
49 GB (prototipo)
(4
layer)
100 GB (prototipo)
non disponibile
(8
layer)
200 GB (prototipo)
non disponibile
Blu-ray Disc
133
Capacità RW (riscrivibile)
(1
layer)
25 GB
20 GB
(2
layer)
50 GB
32 GB
(1
layer)
25 GB
15 GB
(2
layer)
50 GB
non disponibile
Processo produttivo
nuova tecnologia
nuova tecnologia
Lunghezza d'onda del laser
405 nm
405 nm
Apertura numerica
0,85
0,65
Potenza assorbita in lettura
0,35 mW
0,5 mW
Strato protettivo
0,1 mm
0,6 mm
Rivestimento resistente
si
no
Dimensione della traccia
0,32 μm
0,40 μm
Dimensione minima del pit
149,0 nm
204,0 nm
Velocità di trasferimento dati
36 Mbps (1x)
36,5 Mbps
72 Mbps (2x)
54 Mbps (video BD-ROM)
Risoluzione video
1920 × 1080
1920 × 1080
ROM
MPEG-2
→ MPEG-4 AVC (H.264)
VC-1
MPEG-2
→ MPEG-4 AVC
(H.264)
VC-1
RW/R
MPEG-2
MPEG-2
PCM
Dolby Digital
Dolby Digital Plus
DTS
DTS-HD
Dolby TrueHD
PCM
Dolby Digital
Dolby Digital Plus
DTS
DTS-HD
Dolby TrueHD
Capacità R (registrabile)
Compressione video
Codifica audio
Quote di mercato
Dopo un'iniziale superiorità di vendite dei lettori HD DVD le vendite di titoli Blu-ray hanno subito un'accelerazione.
Gli analisti hanno imputato alla diffusione della PlayStation 3 l'aumento delle vendite dei supporti Blu-ray. La
console viene venduta in milioni di esemplari e questo fornisce un notevole vantaggio al formato Blu-ray, i lettori
HD DVD invece hanno ritmi di vendita molto più ridotti difatti i maggiori produttori mondiali ne misurano le
vendite dei lettori HD DVD in centinaia di migliaia e alcuni rivedendo le stime di vendita al ribasso.[12] La catena di
negozi di vendita e noleggio di supporti audio/video Blockbuster dopo alcuni mesi di vendita contemporanea sia del
supporto Blu-ray che quello HD DVD, ha deciso di dismettere i supporti HD DVD, dato che il 70% dei clienti
chiedeva Blu-ray. Gestire entrambi i supporti ha dei costi di magazzino più elevati.[13] Secondo stime di Sony, in
Europa, a luglio, le vendite Blu-ray sono state da due a cinque volte superiori a quelle HD DVD.[14] A fine luglio
Sony ha annunciato un accordo con la catena di negozi Target che nei 1500 punti vendita forniranno solamente
soluzioni Blu-ray fino alle feste natalizie.[15] Secondo le analisi di mercato nella prima metà del 2007 il formato
Blu-ray ha venduto 1,6 milioni di dischi mentre il supporto HD DVD ha venduto 795 000 dischi.[16] Secondo
un'analisi pubblicata nell'ottobre del 2007 in Europa si sarebbero venduto un milione di dischi Blu-ray pari al 73%
Blu-ray Disc
del mercato dei supporti ad alta definizione.[17]
Al 27 settembre 2008 l'incidenza dell vendite del Blu-ray Disc in confronto al DVD è salita all'8%.[18]
Voci correlate
•
•
•
•
•
•
•
•
•
•
•
•
•
AnyDVD HD
BackupBluRay
BD-J
Blu-ray Disc Association
Compact Disc
CBHD
Digital Multilayer Disk - Successore tecnologico del Fluorescent Multilayer Disc
Enhanced Versatile Disc - Supporto ottico sviluppato in Cina in risposta agli alti costi di licenza del DVD
Holographic Versatile Disc - Un formato proposto per un futuro disco successore dell'HD DVD e del Blu-ray
Home theater
Lista di videogiochi per Blu Ray
HD DVD - Principale concorrente
Total HD
• V Media Disc
• Versatile Multilayer Disc
Altri progetti
•
Wikimedia Commons contiene file multimediali su Blu-ray Disc
Collegamenti esterni
• (EN) Blu-ray Disc Association [19]
• (EN) Blu-ray vs. HD-DVD [20] by CD Freaks.com
• (EN) Blu-ray Disc Statistics [21]e la sezione Statistiche di vendita [21]
Note
[1] Toshiba Announces Discontinuation of HD DVD Businesses (http:/ / www. toshiba. co. jp/ about/ press/ 2008_02/ pr1903. htm).
[2] Dall'India dischi Blu-ray 8x (http:/ / punto-informatico. it/ p. aspx?id=2005719& r=PI). Punto Informatico. URL consultato il 7-7-2007.
[3] Toshiba Announces Discontinuation of HD DVD Businesses (http:/ / www. toshiba. co. jp/ about/ press/ 2008_02/ pr1903. htm), cit.
[4] Pioneer svela un Blu-ray da 400 GB (http:/ / punto-informatico. it/ 2346803/ PI/ News/ Pioneer-svela-un-Blu-ray-da-400-GB-/ p. aspx)
[5] Articolo sui giochi e film assieme (http:/ / punto-informatico. it/ 2551734/ PI/ News/ sony-giochi-film-sullo-stesso-disco. aspx)
[6] Blu-ray Disc Statistic (http:/ / www. blu-raystats. com/ MarketShare/ index. php)
[7] Blu-ray Disc Statistic (http:/ / www. blu-raystats. com/ MarketShare/ index. php)
[8] Blu-ray Disc Statistic (http:/ / www. blu-raystats. com/ MarketShare/ index. php)
[9] Blu-ray Disc Statistic (http:/ / www. blu-raystats. com/ MarketShare/ index. php)
[10] Warner abbandona il formato HD DVD (http:/ / www. macitynet. it/ macity/ aA30593/ index. shtml). MaCityNet, 5-1-2008. URL consultato
il 6-1-2008.
[11] Universal passa a Blu-ray (http:/ / www. afdigitale. it/ news/ Mercato/ 13615/ Anche-Universal-con-Blu-ray. aspx). MaCityNet,
5-1-2008. URL consultato il 6-1-2008.
[12] Toshiba rivede le stime di vendita HD-DVD (http:/ / www. hwupgrade. it/ news/ multimedia/
toshiba-rivede-le-stime-di-vendita-hd-dvd_21567. html). Hardware Upgrade. URL consultato il 7-7-2--7.
[13] Blockbuster sceglie Blu-ray (http:/ / www. hwupgrade. it/ news/ multimedia/ blockbuster-sceglie-blu-ray_21605. html). Hardware Ungrade,
18-6-2007. URL consultato il 7-7-2007..
[14] Blu-ray, un successo anche europeo secondo Sony (http:/ / www. hwupgrade. it/ news/ multimedia/
blu-ray-un-successo-anche-europeo-secondo-sony_21867. html). Hardware Upgrade. URL consultato il 7-7-2007.
134
Blu-ray Disc
[15] Gli store Target diventano territorio esclusivo di Blu-ray (http:/ / www. macitynet. it/ macity/ aA29010/ index. shtml). MaCityNet,
1-8-2007. URL consultato il 1-8-2007.
[16] Blu-ray vende il doppio di HD-DVD (http:/ / www. gamesblog. it/ post/ 4615/ blu-ray-vende-il-doppio-di-hd-dvd#show_comments)
[17] Blu-ray schiaccia HD DVD anche in Europa (http:/ / punto-informatico. it/ p. aspx?i=2126715). Punto Informatico, 28-11-2007. URL
consultato il 28-11-2007.
[18] http:/ / www. nxtbook. com/ nxtbooks/ questex/ hom125531MVB/ index. php
[19] http:/ / www. blu-raydisc. com/
[20] http:/ / www. cdfreaks. com/ reviews/ Blu-ray-vs_-HD-DVD/
[21] http:/ / www. blu-raystats. com/ MarketShare/ index. php
135
136
Appendice 1 - Interfacce
Universal Serial Bus
L'Universal Serial Bus (USB) (IPA /ˌjuːnɪˈvɜːsl ˈsɪɹiəl bʌs/) è uno
standard di comunicazione seriale che consente di collegare diverse
periferiche ad un computer. È stato progettato per consentire a più
periferiche di essere connesse usando una sola interfaccia
standardizzata ed un solo tipo di connettore, e per migliorare la
funzionalità plug-and-play consentendo di collegare/scollegare i
dispositivi senza dover riavviare il computer (hot swap).
Simbolo dell’USB
Informazioni tecniche
Il sistema USB è asimmetrico, consiste in un singolo gestore e molte
periferiche collegate da una struttura ad albero attraverso dei
dispositivi chiamati hub (concentratori). Supporta fino ad un massimo
di 127 periferiche per gestore: nel computo vanno però inclusi anche
gli hub e il gestore stesso, quindi, in realtà, il numero totale di
dispositivi collegabili è sensibilmente inferiore. La lunghezza massima
che può avere il cavo senza che il segnale diventi troppo debole è pari
a 5 m; oltre questo limite è necessario ricorrere ad uno o più hub attivi
che amplifichino il segnale. Le specifiche prevedono il collegamento
consecutivo al massimo di 5 hub.
Lo standard prevede che il connettore porti anche un cavo (chiamato
Connettore maschio di tipo A
VBUS) per alimentare le periferiche a basso consumo. Le periferiche
che hanno richieste energetiche elevate vanno alimentate a parte. I
limiti energetici dello standard vanno seguiti scrupolosamente pena il probabile danneggiamento del gestore, dato
che lo standard USB non prevede nelle specifiche minime la sconnessione in caso di sovraccarico.
Il disegno dell'USB è stato pensato per consentire un semplice inserimento e rimozione. Lo standard è stato
progettato in modo da consentire un semplice aggiornamento dei sistemi sprovvisti di USB attraverso una scheda
PCI,
ISA
o
PC
Card.
Le
porte
USB
sono
dotate
Universal Serial Bus
137
del supporto del Plug and Play e supportano i dispositivi hot swap
quindi se il sistema operativo lo consente supportano la rimozione a
caldo e il reinserimento delle periferiche senza dover riavviare il
computer (questo per i dispositivi a basso consumo: verificare sul
manuale della periferica che si desidera collegare se è consentito l'hot
swap).
USB può collegare periferiche quali mouse, tastiere, memoria di massa
a stato solido e a disco rigido, scanner d'immagini, macchine
fotografiche digitali, stampanti, casse acustiche, microfoni e altro
ancora. Per i componenti multimediali ormai lo standard USB è il
metodo di collegamento più utilizzato mentre nelle stampanti
sopravvivono ancora molti modelli dotati anche di porta parallela per
questioni di compatibilità.
All'interno del computer, l'USB non ha rimpiazzato gli standard ATA o
SCSI per via della sua lentezza. Il nuovo standard serial ATA per
esempio consente trasferimenti dell'ordine di 150 Mbyte per secondo,
una velocità molto più elevata dello standard USB, che nella versione
2.0 raggiunge un massimo di 60 Mbyte per secondo (480 Mbits/s).
L'USB viene molto usato negli hard disk esterni dove si preferisce
privilegiare la praticità di poter collegare e scollegare a caldo il
componente rispetto alla velocità di una connessione tipo ATA. La
versione 3.0 raggiunge la velocità di 600 Mbyte.
Connettore maschio di tipo B
Connettori mini-A e mini-B
USB non ha ancora totalmente rimpiazzato il connettore PS/2 della
tastiera, molti costruttori preferiscono mantenerlo per consentire agli
utenti di poter utilizzare le economiche tastiere PS/2.
Lo standard 1.0 dell'USB (gennaio 1996) supporta collegamenti a solo
1,5 Mbit/s, velocità adeguata per mouse, tastiere e dispositivi lenti. La
versione 1.1 (settembre 1998) aggiunge la modalità full speed, che
innalza la velocità a 12 Mbit/s.
La maggior novità dello standard USB versione 2.0 (aprile 2000) è
l'innalzamento della velocità di trasferimento a 480 Mbit/s. Questa
velocità consente all'USB di essere competitivo con lo standard
Firewire 400 (IEEE 1394), benché agli effetti pratici quest'ultimo
risulti più veloce del primo. Lo standard USB ha tuttavia delle
limitazioni di carattere tecnico che ne sconsigliano l'utilizzo su
telecamere e dispositivi che manipolano flussi video.
Le specifiche dell'USB stabiliscono due tipi di connettori per collegare
i dispositivi, il connettore A e B. Negli ultimi anni alcuni produttori
hanno introdotto delle varianti del connettore per i loro dispositivi
miniaturizzati. Molti produttori cercando di ridurre le dimensioni dei
dispositivi hanno deciso di creare connettori più piccoli di quelli
standard. Questi dispositivi rispettano lo standard di comunicazione
USB a tutti gli effetti, l'unica differenza è il connettore che è
fisicamente diverso, sono chiamati: micro USB, mini USB di tipo A e
B.
Connettore maschio micro
USB
Hub USB
Universal Serial Bus
138
Una estensione del USB chiamata USB-On-The-Go consente ad una
singola porta di fungere sia da dispositivo che da controllore. Ciò
consente una più semplice connessione di dispositivi tipo i PDA che a
volte devono fare da dispositivo ed a volte devono comandare dei
dispositivi. Per evitare una proliferazione dei connettori proprietari,
USB-On-The-Go ha definito anche due connettori chiamati mini-A e
mini-B, che sono connettori molto più piccoli dei connettori
precedenti; questo rimuove la principale motivazione dei produttori ad
ignorare lo standard e cioè risparmiare spazio.
Adattatori USB-PS/2
L'USB è una porta facilmente installabile anche nei computer di vecchia generazione che ne sono sprovvisti: una
scheda USB 2.0 per slot PCI, da installare all'interno del case nella scheda madre, costa dai 10 ai 20 €.
Tipi di connettori USB
Riassumendo vi sono attualmente 5 tipi di connettori USB ufficiali:
•
•
•
•
•
USB di tipo A
USB di tipo B
mini USB di tipo A
mini USB di tipo B
micro USB
In realtà esistono altre versioni di connettori non standard per il collegamento USB di dispositivi con presa
"proprietaria" di vario tipo (ad esempio lettori mp3, modem UMTS, telefoni cellulari, macchine fotografiche digitali,
videocamere...) ecc...
Piedinatura
• Piedinatura del connettore USB:
• Pinout dei connettori mini USB:
Pin
Nome
segnale
Colore filo
1
VBUS
ROSSO
2
D-
BIANCO
3
D+
VERDE
4
GND
NERO
Universal Serial Bus
139
Pin
Nome
segnale
Colore filo
Note
1
VBUS
ROSSO
+5V
2
D-
BIANCO
Data −
3
D+
VERDE
Data +
4
ID
non
definito
Interconnessione Mini/Micro A e B (Tipo A connesso a GND, tipo B non connesso)
5
GND
NERO
GND
Il livello di tensione per il VBUS è di circa +5 V con una corrente massima di 500 mA.
Con i segnali D+ e D- si intendono le due linee di comunicazione dati (pseudo) differenziali.
Per tutti i connettori la protezione metallica esterna è connessa a terra.
Evoluzioni future
Pinout dei connettori standard A e B
L'evoluzione dello standard USB si concentra su due
strade, la prima prevede un innalzamento della velocità
massima di trasferimento mentre la seconda strada
chiamata wireless USB prevede l'abbandono dei cavi
per la comunicazione tramite onde radio. Una prima
specifica wireless USB è già stata standardizzata e
alcuni dispositivi sono in commercio. Tuttavia, al 2009
questi dispositivi non sono diffusi e lo stesso standard è
in evoluzione: è già stata proposta la versione 1.1 e si
attende la 2.0 per il 2010.
Rappresentazione schematica di connettori mini USB di tipo A e B
USB 3.0
Il 18 settembre 2007 Pat Gelsinger ha effettuato la prima dimostrazione pubblica di USB 3.0 all'Intel Developer
Forum. USB 3.0 è in grado di trasferire dati dieci volte più velocemente di USB 2.0 con una velocità di trasferimento
di 4,8 Gbit al secondo (l'equivalente di circa 600 MBytes al secondo, contro gli attuali 60 MB dell'USB 2.0).
utilizzando due coppie intrecciate ad alta velocità per la modalità "Superspeed" e il supporto di connessioni
ottiche.[1] [2]
Le specifiche USB 3.0 sono state rilasciate il 13 agosto 2008 [3] mentre i primi prodotti commerciali dovrebbero
essere disponibili per la fine del 2009 o l'inizio del 2010.[4] Come avvenuto in precedenza, la versione 3.0 manterrà
la retrocompatibilità con USB 2.0 e 1.0.[1]
Nella prima metà di ottobre 2008 Intel, una delle aziende che ha definito il protocollo USB, ha fornito le specifiche
tecniche per la nuova interfaccia USB 3.0, retrocompatibile con l'USB 2.0.
Universal Serial Bus
Voci correlate
• Firewire
• Wireless USB
• Micro-USB
Altri progetti
•
Wikimedia Commons contiene file multimediali su Universal Serial Bus
Collegamenti esterni
•
•
•
•
USB - Universal serial bus [5]
USB per DOS [6]
UHCI-OHCI per DOS [7]
USB 3.0 da 600MB/s [8]
Note
[1] (EN) Faster USB 3.0 Is Coming (http:/ / www. pcworld. com/ article/ 137551/ faster_usb_30_is_coming. html). PC World, 2007-09-24. URL
consultato il 2008-07-04.
[2] (EN) Revealed: USB 3.0 jacks and sockets (http:/ / www. reghardware. co. uk/ 2008/ 01/ 09/ ces_usb_3_revealed/ ). RegHardware.co.uk,
2008-01-09. URL consultato il 2008-01-22.
[3] (EN) Intel USB 3.0 update resolves dispute with Nvidia, AMD (http:/ / news. cnet. com/ 8301-13924_3-10016929-64. html)
[4] (EN) Stephen Shankland. USB 3.0 brings optical connection in 2008 (http:/ / news. cnet. com/ 8301-10784_3-9780794-7. html). cnet.com,
2007-09-18. URL consultato il 2008-07-04.
[5] http:/ / www. usb. org
[6] http:/ / www. fracassi. net/ iw2evk/
[7] http:/ / www. georgpotthast. de/ usb/
[8] http:/ / www. tomshw. it/ news. php?newsid=12572
140
IEEE 1394
141
IEEE 1394
Il FireWire (nome con il quale è noto lo standard IEEE 1394),
di proprietà della Apple Computer, ma conosciuto anche con il
nome commerciale i.Link datogli dalla Sony, è un'interfaccia
standard per un bus seriale che supporta due diverse modalità di
trasferimento dati: asincrona e isocrona. La modalità asincrona
avviene quando il dato spedito viene ricevuto dall'altra parte del
cavo. Nel caso in cui la linea non fosse libera, viene nuovamente
inviato. La modalità isocrona prevede un invio di dati attraverso
il flusso continuo in tempo reale. In questa modalità si possono
acquisire dati dagli apparecchi digitali come videocamere e
macchine fotografiche.
Connettore Firewire 400 a 6 pin
Il FireWire è stato sviluppato per essere utilizzato nei personal
computer e nei dispositivi multimediali, sviluppato inizialmente
da Apple Computer. Lo sviluppo venne terminato nel 1995 e
IEEE lo ha denominato 1394. Lo standard 1394 è attualmente
definito da tre documenti: l'originale IEEE Std 1394-1995, il
IEEE Std 1394a-2000 amendment, e il IEEE Std 1394b-2002
amendment. L'implementazione di Sony di questo standard si
chiama i.Link, e usa un connettore con solo 4 pin, eliminando i
pin dedicati all'alimentazione per esempio sulle videocamere che
non ne hanno bisogno, altri apparati della stessa ditta hanno
invece un connettore standard a 6 pin.
La connessione FireWire viene comunemente usata per
collegare dispositivi di archiviazione o dispositivi di
acquisizione video. Viene utilizzato anche in apparecchiature di
acquisizione audio e video professionali per via della ampiezza
di banda della connessione, della sua predisposizione a trattare
flussi multimediali, della capacità di sopportare potenze
maggiori e della possibilità di stabilire una connessione tra
dispositivi senza il tramite di un computer. L'interfaccia
FireWire è tecnicamente superiore all'interfaccia → USB, ma
Connettori IEEE 1394 a 6 e 4 pin a confronto
questa è molto più diffusa per via dei brevetti. L'Apple e altre
ditte richiedono il pagamento di brevetti per ogni
implementazione della FireWire (normalmente 0,25 dollari per l'utente finale). Sebbene siano cifre ridotte, molti
produttori realizzano prodotti a bassissimo margine di guadagno e quindi preferiscono utilizzare la tecnologia USB
che, essendo esente dal pagamento di brevetti, consente loro di ottenere prodotti più economici.
IEEE 1394
La FireWire supporta fino a 63 periferiche organizzate in una rete non
ciclica (a differenza per esempio della catena SCSI). Permette una
comunicazione "peer-to-peer" tra i dispositivi. Quindi i vari dispositivi
possono comunicare tra loro senza dover utilizzare il computer come
arbitro. Per esempio una videocamera digitale potrebbe riversare il
filmato video su un hard disk esterno senza l'intervento del computer.
Supporta il collegamento a caldo e la presenza di più Host tramite una
gestione degli IP software. Quindi una connessione FireWire può
essere utilizzata per creare una rete locale tra due computer quattro
volte più veloce di una normale rete Ethernet a 100 Mbit/s. Il cavo
FireWire supporta fino a 45 Watt e è quindi in grado di alimentare la
maggior parte dei dispositivi portatili.
142
Connettore Firewire 400 a 4 pin. Questo
connettore non è alimentato.
FireWire 400 specifica la velocità di trasferimento dati ai dispositivi di 100, 200, o 400 Mbps (in realtà, 98.304,
196.608, o 393.216 Mbps, usualmente indicati come S100, S200, e S400). La lunghezza del cavo è limitata a 4,5
metri e fino a 16 cavi possono essere collegati tramite dei dispositivi che provvedono a rigenerare il segnale per
arrivare a una lunghezza massima consentita dalle specifiche di 72 metri.
FireWire 800 (nome dato da Apple alla versione a 9 pin dello
standard IEEE1394b) venne reso disponibile commercialmente da
Apple nel 2003; questa evoluzione dello standard innalza la
velocità della connessione a 786.432 Mbps ed è retrocompatibile
col connettore a 6 pin della FireWire 400. Le specifiche complete
del IEEE 1394b prevedono anche una connessione ottica lunga
fino a 100 metri con una velocità di trasferimento di 3,2 Gbps. La
modalità di trasferimento S100 supportava cavi schermati di classe
5 lunghi fino a 100 metri. Le nuove specifiche 1394c estendono
questa caratteristica anche alla comunicazione a S800. Lo standard
originale 1394 e 1394a usa una codifica dei dati e del segnale di
controllo che permette di generare il clock in modo molto
economico (basta prendere i segnali e metterli in XOR). La
versione 1394b dello standard supporta questa codifica per
mantenere la retro compatibilità, ma aggiunge una nuova modalità
di codifica più complessa che consente di trasmettere il doppio dei
dati. La nuova modalità di trasferimento rende la FireWire
significativamente più veloce dello standard concorrente USB 2.0.
Quasi tutte le moderne telecamere sono dotate di connessione
FireWire, fin dal 1995. Dopo il MacBook Air, le prese
FireWire400 sono state rimosse dai nuovi modelli di MacBook e
MacBook Pro presentati da Steve Jobs nell'ottobre 2008, la presa
FireWire800 è, invece, ancora presente sui MacBook Pro. La
FireWire venne utilizzata anche dai modelli 1G e 2G del lettore di
musica digitale iPod per trasferire le canzoni e caricare la batteria.
Due porte FireWire 800
Due porte Firewire 400, su un iMac
La maggior parte delle → televisioni digitali e dei box interattivi in grado di registrare in digitale con lo standard
MPEG-2, è dotata di porta FireWire. Questa interfaccia, adottata per Hard disk esterni, risulta mediamente più
veloce dell'USB.
IEEE 1394
143
Voci correlate
• → Universal Serial Bus (USB)
• IEC 61883 - Interfaccia Digitale
Altri progetti
•
Wikimedia Commons contiene file multimediali sullo standard FireWire
Collegamenti esterni
(EN) 1394 Trade Association [1]
(EN) 1394LA [2] 1394 LA administers the rights for patented inventions necessary to implement IEEE 1394
(EN) Tecnologia Apple FireWire [3]
(EN) IEEE p1394c Working Group website [4]
(EN) USB 2.0 vs Firewire [5] - test delle prestazioni tra FireWire e USB 2.0 utilizzando un hard disk esterno e un
Macintosh
• (EN) Pinout del connettore FireWire (IEEE-1394) [6]
•
•
•
•
•
Note
[1]
[2]
[3]
[4]
[5]
[6]
http:/ / www. 1394ta. org/
http:/ / www. 1394la. com/
http:/ / www. apple. com/ it/ firewire/
http:/ / grouper. ieee. org/ groups/ 1394/ c/
http:/ / www. barefeats. com/ usb2. html
http:/ / pinouts. ws/ firewire-1394-pinout. html
Digital Visual Interface
144
Digital Visual Interface
Digital Visual Interface
Connettore DVI-D
Tipo
Connettore video analogico/digitale per computer
Informazioni storiche
Ideatore
Data rilascio
In produzione
Digital Display Working Group
Aprile 1999
dal 1999 ad oggi
Ha rimpiazzato Connettore VGA
Specifiche meccaniche
Esterno
Segnale video
Segnale dati
Si
Video Digitale.
- single link WUXGA
- 1920 × 1200 @ 60 Hz
- dual link WQXGA
- (2560 × 1600) @ 60 Hz
Video analogico
- (-3 db a 400 MHz)
RGB, clock e Display Data Channel
Banda dati
Max dispositivi
Protocollo
n° piedini
single link
- 3.96 Gbit/s
dual link
- 7.92 Gbit/s
1
3 dati Transition Minimized Differential Signaling + clock
29
Piedinatura
Digital Visual Interface
145
Un connettore femmina DVI-I
[1]
Nome
Descrizione
Pied.1
Dati TMDS 2-
Rosso dig. - (Link 1)
Pied.2
Dati TMDS 2+
Rosso dig. + (Link 1)
Pied.3
Schermatura
per TMDS 2 e 4
Pied.4
Dati TMDS 4-
Verde dig. - (Link 2)
Pied.5
Dati TMDS 4+
Verde dig. + (Link 2)
Pied.6
Clock DDC
Pied.7
Dati DDC
Pied.8
Sincronismo
verticale analogico
Pied.9
Dati TMDS 1-
Verde dig. - (Link 1)
Pied.10
Dati TMDS 1+
Verde dig. + (Link 1)
Pied.11
Schermatura
per TMDS 1 e 3
Pied.12
Dati TMDS 3-
Blu dig. - (Link 2)
Pied.13
Dati TMDS 3+
Blu dig. + (Link 2)
Pied.14
+5V
Alimentazione per stanby
Pied.15
Massa
Massa per i piedini 8, 14 e C4
Pied.16
Hot plug detect
Rileva inserimento a caldo
Pied.17
Dati TMDS 0-
Blu dig. - (Link 1) e sincronismo digitale
Pied.18
Dati TMDS 0+
Blu dig. + (Link 1) e sincronismo digitale
Pied.19
Schermatura
per TMDS 0 e 5
Pied.20
Dati TMDS 5-
Rosso dig. - (Link 2)
Pied.21
Dati TMDS 5+
Rosso dig. + (Link 2)
Pied.22
Schematura
per clock TMDS
Pied.23
Clock TMDS +
Clock dig.+ (Link 1 e 2)
Pied.24
Clock TMDS -
Clock dig.- (Link 1 e 2)
C1
Rosso
analogico
C2
Verde
analogico
C3
Blu
analogico
C4
Sincronismo orizzontale
analogico
C5
Massa
per C1, C2 e C3
La Digital Visual Interface è una porta, ovvero un apparato hardware in grado di trasmettere del segnale video. Si
trova spesso su computer, televisori e videoproiettori che richiedono video ad alta definizione. Attraverso di essa il
segnale video viene inviato al monitor in forma digitale, quindi meno soggetta ai disturbi.
Digital Visual Interface
146
La DVI viene implementata ormai in molte schede video di ultima generazione, e porta a un notevole miglioramento
rispetto alle precedenti interfacce analogiche. Le immagini prodotte dalle interfacce DVI sono molto nitide, ad alta
risoluzione e predisposte per l'→ HDTV.
Tipologie di segnali supportati dal connettore DVI
Il connettore DVI può trasportare sia segnali analogici che digitali,
anche contemporaneamente.
DVI-A
L'interfaccia DVI-A trasporta esclusivamente segnali analogici in
formato compatibile VESA VGA.
Qualità e risoluzione max sono identiche a quelle della VGA e
cioè consigliata max 1600 x 1200 per monitor LCD, 2048 x 1536
per monitor CRT anche se ad esempio NVIDIA dichiara 2560 x
1600[2] . I segnali analogici hanno dei conduttori dedicati per i
segnali RGBHV e condividono con l'interfaccia digitale i segnali
DDC.
DVI-D
L'interfaccia DVI-D trasporta esclusivamente segnali digitali.
L'interfaccia digitale può essere Single Link o Dual Link.
Single Link
Vista del connettore DVI maschio
L'interfaccia digitale DVI-D Single Link trasporta un massimo di
165 milioni di → pixel al secondo utilizzando tre segnali digitali
(RGB) a 1,65 Gbps (10 bit per pixel) permettendo così una
risoluzione max a 60Hz di 2098 x 1311 con un aspect ratio di
16:10 o di 1915 x 1436 con un aspect ratio di 4:3. La →
risoluzione standard più alta che può essere visualizzata con questa
interfaccia è 1920 x 1200 16:10.
Dual Link
Un'interfaccia digitale DVI-D Dual Link affianca al canale
utilizzato dall'interfaccia Single Link un secondo canale dati.
Questo nuovo canale è implementato sempre con tre segnali
digitali (RGB) a 1,65 Gbps (10 bit per pixel) che operano su 6 pin separati del connettore. In questo modo è possibile
trasportare il doppio dei dati dell'interfaccia Single Link.
Connettore DVI femmina. Descrizione piedini con
colorazione per tipologia
Questo canale aggiuntivo può essere utilizzato in una di queste due modalità:
• portare un secondo pixel in modo da raddoppiare la risoluzione 2895 x 1882 con un aspect ratio di 16:10 a 60 Hz
o 2707 x 2030 con un aspect ratio di 4:3. La → risoluzione standard più alta che può essere visualizzata con
questa interfaccia è 2560 x 1600 16:10.
• aumentare la profondità di colore, che nell'interfaccia Single Link è di 8bpp, portandola fino a 16bpp (in questo
caso il secondo canale porta i bit meno significativi).
Digital Visual Interface
147
DVI-I
L'interfaccia DVI-I implementa sullo stesso connettore sia i segnali analogici dell'interfaccia DVI-A che quelli
digitali dell'interfaccia DVI-D. La parte digitale può essere a un canale o a due canali esattamente come per
l'interfaccia DVI-D quindi possiamo avere una DVI-I Single Link o una DVI-I Dual Link a seconda che la parte
digitale sia Single Link o Dual Link.
Collegamenti
Esistono limiti di lunghezza del cavo. In particolare, il cavo DVI digitale ha un limite di 5 metri. Se è più lungo la
qualità video non è affidabile e non garantita. Non è possibile collegare un DVI-A ad un DVI-D poiché DVI-A è
solo analogico e DVI-D è digitale; non è possibile collegare direttamente un dispositivo DVI-A a uno DVI-D. È
possibile collegare un cavo DVI a una porta VGA usando un cavo apposito poiché DVI-I e DVI-A inviano segnali
analogici. Al contrario, non è possibile collegare direttamente una porta DVI-D a una VGA poiché DVI-D usa solo
segnali digitali. Per collegare una DVI-D a una VGA occorre utilizzare un convertitore DVI per trasformare il
segnale da digitale ad analogico e viceversa. È comunque possibile aumentare la lunghezza del cavo DVI fino a 30
mt. ed oltre tramite l'utilizzo di opportune apparecchiature atte a compensare la perdita di segnale.
Digitale o analogico?
I monitor LCD TFT con interfaccia analogica dominano il mercato, poiché è semplice installarli sui PC base, senza
dover comprare una nuova scheda grafica. I monitor LCD TFT digitali non hanno bisogno di aggiustare il clock e la
fase, e hanno il vantaggio dell'assenza di perdite di segnale.
Lo standard per interfaccia Digitale utilizza connettori totalmente differenti: per questo motivo, attualmente, i
monitor LCD TFT analogici dominano il mercato.
Digitale
Analogica
Vantaggi
Vantaggi
•
•
•
•
Nessuna perdita di segnale a causa della conversione D-A e A-D
Geometria, clock e fase non hanno bisogno di configurazione,
quindi più semplice da usare
Costi inferiori poiché è necessaria una minore circuiteria
elettronica
•
Svantaggi
•
Svantaggi
•
•
Attualmente esistono tre standard (P & D M1DA, DFP, e DVI),
probabilmente in futuro ci sarà solo più DisplayPort introdotto
nel 2008
È necessaria una scheda grafica con uscita digitale
Compatibile con le schede a standard VGA su una base di computer
esistenti
Non è necessario acquistare una nuova scheda grafica
•
•
•
Clock e fase dei TFT devono essere sincronizzati con il segnale
analogico per evitare l'effetto detto pixel jitter, che è un problema
relativamente complesso
Cavi sensibili alle influenze esterne
Alto costo della conversione del segnale all'interno del display
Non è possibile l'upgrade all'interfaccia digitale
Digital Visual Interface
148
Voci correlate
•
•
•
•
Video Graphics Array
→ Risoluzioni standard
Interfaccia video
DisplayPort
Altri progetti
•
Wikimedia Commons contiene file multimediali su Digital Visual Interface
Note
[1] (EN) Pinout del connettore DVI (http:/ / pinouts. ws/ dvi-video-pinout. html)
[2] Specifiche tecniche di scheda grafica NVIDIA con interfaccia analogica in grado di supportare 2560 x 1600 a 60Hz (http:/ / www. nvidia. it/
page/ quadroplex_tech_specs. html)
High-Definition Multimedia Interface
High-Definition Multimedia Interface
Tipo
Connettore audio/video digitale
Informazioni storiche
Ideatore
Associazione HDMI
Data rilascio
Dicembre 2002
In produzione
Dal 2003 a oggi
Specifiche meccaniche
Larghezza
Tipo A (13,9 mm), Tipo C (10,42 mm)
Altezza
Tipo A (4,45 mm), Tipo C (2,42 mm)
Inseribile a caldo Si
Esterno
Si
Segnale audio
LPCM, Dolby Digital, DTS, DVD-Audio, Super Audio CD, Dolby TrueHD, DTS-HD Master Audio,
MPCM
Segnale video
480i, 480p, 576i, 576p, 720p, 1080i, 1080p, 1440p, 1600p, etc.
High-Definition Multimedia Interface
Segnale dati
Connettore
149
Si
Banda dati
10,2 Gb/s (340 MHz)
Protocollo
TMDS
19
Piedinatura
Type A (Female) HDMI
Nome
Descrizione
Pied.1
TMDS Data2+
Rosso
Pied.2
Schermatura
TMDS Data2
Pied.3
TMDS Data2–
Rosso
Pied.4
TMDS Data1+
Verde
Pied.5
Schermatura
TMDS Data1
Pied.6
TMDS Data1–
Verde
Pied.7
TMDS Data0+
Blu
Pied.8
Schermatura
TMDS Data0
Pied.9
TMDS Data0–
Blu
Pied.10
TMDS Clock+
Pied.11
Schermatura
Pied.12
TMDS Clock–
Pied.13
CEC
Pied.14
Riservato
Pied.15
SCL
Pied.16
SDA
Pied.17
Massa
DDC/CEC
Pied.18
Alimentazione +5 V
(max 50 mA)
Pied.19
Rilevamento Hot Plug
TMDS Clock
Da non collegare sui dispositivi
HDMI (pronuncia italiana: /akkadˈdi emmeˈi/; pronuncia inglese: /eɪtʃ diː ɛm aɪ/) è la sigla che identifica la
High-Definition Multimedia Interface (in italiano, interfaccia multimediale ad alta definizione), uno standard
commerciale completamente digitale per l'interfaccia dei segnali audio e video, creato nel 2002 dai principali
produttori di elettronica, tra cui Hitachi, Matsushita Electric Industrial (Panasonic), Philips, Sony, Thomson (RCA),
Toshiba e Silicon Image.
Lo standard gode anche dell'appoggio dei principali produttori cinematografici quali Fox, Universal, Warner Bros e
Disney e degli operatori televisivi DirecTV ed EchoStar (DISH Network), di CableLabs e Samsung.
High-Definition Multimedia Interface
SCART del 2000
HDMI è la prima interfaccia non compressa completamente digitale a trasportare contemporaneamente segnali audio
e video, ed è retro-compatibile con l'interfaccia digitale → DVI che però è in grado di trasportare solamente il
segnale video. Dal punto di vista della semplicità di utilizzo da parte di un utente, HDMI ricorda molto la
connessione SCART introdotta negli anni ottanta per collegare le prime videocamere e videoregistratori, utilizzando
un'unica presa per collegare qualsiasi periferica audio/video. Anche HDMI può essere utilizzata tra differenti
dispositivi audio/video ed è una soluzione adatta (per quanto non unica) al trasporto del segnale di apparecchi digitali
come i set-top box, lettori → DVD e ricevitori satellitari verso schermi anch'essi digitali come LCD, Plasma o
videoproiettori. Esistono tuttavia anche alcuni modelli di televisore a tubo catodico (quindi analogici) dotati di
connessione HDMI per permettere la connessione di sorgenti alta definizione mediante questa interfaccia.
Interfaccia sempre in evoluzione
A differenza di quanto è avvenuto in passato con altri tipi di interfacce di collegamento, lo sviluppo dell'interfaccia
HDMI è tutt'altro che completato: uno dei principi base della nuova interfaccia, fortemente voluto dai produttori, è
proprio la sua caratteristica di essere in costante evoluzione, con ogni nuova versione identificata con un numero
univoco. La prima versione, uscita come detto nel 2002, era la HDMI 1.0. Successivamente, sono arrivati 2
aggiornamenti, 1.1 e 1.2, che hanno progressivamente aumentato la velocità di trasferimento dei dati, introducendo
contemporaneamente altre funzionalità. Dal punto di vista dei componenti hardware non è cambiato nulla, infatti il
cavo e il connettore sono rimasti invariati, ma è cambiata la gestione software del protocollo di trasmissione. Grazie
a questa serie di aggiornamenti, si è arrivati a quella che al momento è l'ultima evoluzione di HDMI, ovvero la
versione 1.3, datata giugno 2006. Per avere un'idea di quali sono stati i progressi compiuti in soli 4 anni, basti
pensare che mentre HDMI 1.0 era in grado di offrire un bitrate massimo di 4,9 Gb/s, la versione 1.3 arriva fino a
10,2 Gb/s.
Di seguito vengono illustrate brevemente alcune delle peculiarità di ciascuna versione:
• HDMI 1.0 - dicembre 2002
• Bitrate massimo di 4,9 Gb/s. Supporta fino a 165 Mpixel/s di flusso video (1080p a 60 Hz o UXGA) e audio a
8 canali codificato a 192 KHz e 24 bit.
• HDMI 1.1 - maggio 2004
• Supporto addizionale per la protezione dei contenuti dei DVD Audio.
• HDMI 1.2 - agosto 2005
• Supporto addizionale per i Super Audio CD.
• Connessione HDMI Tipo A disponibile per i PC.
• Disponibilità per i PC di utilizzare colori → RGB nativi con l'opzione dei colori YCbCr.
• Supporto per le fonti a basso voltaggio.
• HDMI 1.3 - giugno 2006
•
•
•
•
•
Bitrate aumentato a 10,2 Gb/s.
Supporto (opzionale) colori 30 bit, 36 bit e 48 bit (RGB o YCbCr).
Supporto standard colori xvYCC.
Supporto funzionalità di sincronizzazione audio automatica.
Supporto (opzionale) uscita Dolby TrueHD e DTS-HD Master Audio stream (formati audio utilizzati con i
dischi HD DVD e Blu-ray).
• Versione futura 1.4 (nome non confermato) attesa per la fine del 2009 e di cui il consorzio HDMI ha parlato in
occasione del CES di Las Vegas del 2009 e confermato in via definitiva il 28 maggio [1] [2]
• Supporto alla tecnologia 3D di seconda generazione
• Supporto alla scansione a 240Hz
150
High-Definition Multimedia Interface
151
• Supporto alla comunicazione bidirezionale, che include la connessione Ethernet fino a 100 Mbps e lo →
streaming del flusso audio
• Funzionalità HEC (HDMI Ethernet Channel)
• Supporto al canale di ritorno per l'audio
• Supporto a → risoluzioni fino a 4096 x 2160 pixel a 24 fps e 30Hz
• Funzionalità ACE (Automatic Content Enhancement)
• Nuovo mini connettore a 19 pin
Nel luglio 2009 la Silicon Image ha annunciato l'imminenza dell'avvio della produzione dei relativi chip SiI9387 e
trasmettitori SiI9334, e visto che le prime consegne all'industria sono attese per l'autunno si ritiene che i primi
prodotti saranno presentati al CES nel gennaio 2010 e quindi immessi sul mercato a partire dalla primavera [3] .
Più nello specifico si possono evidenziare maggiormente le differenze tra la versione 1.2 e la 1.3:
Caratteristiche
HDMI 1.2
HDMI 1.3
Data rate massimo
4,95 Gb/s
10,2 Gb/s
Ampiezza di banda massima
165 MHz
340 MHz
Risoluzione massima
1920x1080 progressiva (1080p) 2560x1440 progressiva (1440p)
Profondità colori massima
24 bit
48 bit
Colori codificabili
16,7 milioni
281 bilioni
Supporto DTS & Dolby Digital 5.1
Sì
Supporto Dolby TrueHD & DTS-HD
No
Sì
Campionamento audio (2 canali)
192 KHz
768 KHz
Campionamento audio (da 3 a 8 canali)
96 KHz (max 4 flussi)
192 KHz (max 8 flussi)
Formati supportati
L'interfaccia HDMI è compatibile con tutti i principali formati video, tra i quali si possono citare: PAL, NTSC e
ATSC. Tra le innovazioni che si sono susseguite nel corso dello sviluppo dello standard vi è anche l'aumento della
massima risoluzione video supportata. Se inizialmente questa era la 1080p utilizzata attualmente dalla → televisione
ad alta definizione e quindi anche dai supporti ottici HD DVD e Blu-ray, con la versione 1.3 si è arrivati al formato
1440p ovvero 2560x1440 progressivo. Come accennato anche nello schema sopra, anche la profondità dei colori
massima è aumentata enormemente, arrivando a 48 bit, il che si traduce nella possibilità, teorica, di codificare oltre
280 bilioni di colori; tutto questo abbinato ad un refresh massimo di 120 Hz.
Mini HDMI
Nel 2009 è stata annunciata la messa in commercio di un connettore mini HDMI che segue la specifica 1.3 di Tipo
D. Dotato di 19 connessioni come l'HDMI tradizionale[4] .
Meccanismi di protezione dei contenuti
Per poter essere accettato dall'industria cinematografica, lo standard HDMI ha dovuto essere dotato di un sistema di
protezione dei contenuti, o DRM (Digital Rights Management), chiamato HDCP (High-Definition Content
Protection), supportato dalla sua versione 1.10 in poi.
Tale tecnologia è stata sviluppata inizialmente da Intel, ed è fornita da una società controllata dal produttore stesso,
la Digital Content Protection, LLC. Essa è implementata in tutti i prodotti HD DVD e Blu-ray e si tratta di un
meccanismo di codifica che può essere decrittato solo da particolari dispositivi hardware e dovrebbe, quindi, essere
più difficile da aggirare da parte dei pirati (in realtà sono già state individuate diverse tecniche per superare tali
High-Definition Multimedia Interface
difese). Ad ogni modo, per godere a pieno dei contenuti ad alta definizione è opportuno appoggiarsi a questa
tecnologia abbinata all'interfaccia HDMI, perché se si utilizzano altre connessioni, come il video component, il
segnale potrebbe essere automaticamente degradato (a seconda del livello di protezione impostato) e la qualità
dell'immagine risultare molto simile a quella offerta dai tradizionali DVD, rendendo quindi inutile l'utilizzo di
sorgenti ad alta definizione.
Modalità di trasferimento del segnale audio/video
Lo standard HDMI supporta 3 modalità di trasferimento del segnale video (standard, enhanced, alta definizione) e
del segnale audio digitale multicanale, su un unico cavo. Non dipende dai vari standard di → televisione digitale
quali ATSC e DVB in quanto questi ultimi sono delle forme di incapsulamento di flussi dati MPEG, che vengono
inviati a un decoder e quindi visualizzati sotto forma di segnale video non compresso (eventualmente ad alta
definizione). Tali dati video vengono successivamente codificati in tecnologia TMDS e trasmessi in modalità digitale
su un canale HDMI. Lo standard prevede inoltre il supporto per segnali audio digitali non compressi a 8 canali. A
partire dalla versione 1.2 sono supportati fino a 8 canali audio a 1 bit, la tecnologia usata dai Super Audio CD.
Il connettore standard HDMI "Tipo A" è a 19 pin; lo standard definisce anche un "Tipo B" per risoluzioni più
elevate, che però non risulta ancora molto diffuso. Quest'ultimo tipo è a 29 pin e consente il trasporto di un segnale
video espanso per display ad alta risoluzione (superiore a 1080 pixel).
L'HDMI tipo A è retrocompatibile con l'interfaccia → DVI single-link attualmente usata sui monitor e schede
grafiche per computer. In tal modo una sorgente di segnale DVI è in grado di gestire un monitor HDMI (o viceversa)
attraverso un opportuno cavo o adattatore, anche se è necessario rinunciare all'audio e alle funzioni di controllo
remoto previste dallo standard HDMI. Inoltre, per i motivi accennati sopra, in assenza del supporto per la tecnologia
di protezione HDCP, il dispositivo di visualizzazione degraderà la qualità e la risoluzione dell'immagine.
Analogamente, l'HDMI tipo B è retrocompatibile con la tecnologia DVI dual-link.
Lacune di HDMI
Se dal punto di vista della riproduzione di contenuti ad alta definizione, lo standard HDMI risulta uno dei migliori, la
stessa cosa non si può dire della "registrazione" di contenuti audio/video. I dati che passano nell'HDMI non sono
compressi, e la funzione primaria dell'HDCP è proprio quella di proteggere i dati non compressi dalla possibilità di
copie. Quindi, al momento, non esiste alcuna possibilità di registrare i dati tramite l'HDMI, ma non è escluso che
queste funzionalità vengano introdotte con versioni future dell'interfaccia.
Specifiche tecniche
Connettori
Lo standard HDMI supporta attualmente tre tipi di connettori: A, B e C.
Il connettore HDMI di tipo A, introdotto inizialmente con HDMI 1.0, è il più diffuso: è composto da 19 pin, ed è
retro-compatibile (elettricamente) con quello DVI-D (single link).
Il connettore HDMI di tipo B, sempre introdotto con HDMI 1.0, ha 29 pin, e può trasportare il doppio dei dati
trasmessi da un connettore di tipo A. Il suo uso principale è per display ad altissime risoluzioni, ed è l'equivalente (a
livello elettrico) del DVI-D dual-link.
Infine, il connettore HDMI di tipo C è quello introdotto più recentemente, con HDMI 1.3: si tratta essenzialmente di
un connettore di tipo A di ridotte dimensioni, sviluppato per quegli apparecchi portatili (ad esempio, videocamere)
che necessitano di componenti di ridotte dimensioni. La superficie del tipo C è all'incirca 2 volte e mezzo più piccola
di quella del tipo A (10.42 mm x 2.42 mm del tipo C, contro i 13.9 mm x 4.45 mm del tipo A). Visto che le uniche
differenze tra un tipo C ed un tipo A sono solo le dimensioni, due apparecchi aventi questi due tipi di connessioni
152
High-Definition Multimedia Interface
153
possono essere facilmente collegate tramite un cavo opportuno (HDMI tipo A - tipo C), senza alcun problema di
compatibilità elettrica.
Di seguito viene illustrato uno schema che esemplifica la disposizione dei pin di contatto, e la loro funzione, di un
connettore HDMI Tipo A Molex 500254-1907:
Pin
Segnale
Pin
Segnale
1
TMDS Data2+
2
TMDS Data2 (schermatura)
3
TMDS Data2–
4
TMDS Data1+
5
TMDS Data1 (schermatura) 6
TMDS Data1–
7
TMDS Data0+
8
TMDS Data0 (schermatura)
9
TMDS Data0–
10
TMDS Clock+
11
TMDS Clock (schermatura) 12
TMDS Clock–
13
CEC
14
Riservato (N.C. sui dispositivi)
15
SCL
16
SDA
17
Massa DDC/CEC
18
Alimentazione +5V
19
Rilevazione Hot plug
Il significato delle sigle utilizzate nello schema è illustrato brevemente qui di seguito:
Canale TMDS (Transition Minimized Differential Signaling)
Si tratta di una tecnologia di trasmissione dati ad alta velocità utilizzata nelle interfacce HDMI e DVI. Consiste in 3
canali che trasportano i dati audio/video e alcuni dati ausiliari, in grado di raggiungere un volume di dati di 3,4 GB/s
per canale.
• Tecnica di segnalazione: Conforme alla specifica DVI 1.0 Single-link (HDMI Tipo A) o dual-link (HDMI Tipo
B).
• Pixel rate video: da 25 a 165 MHz (Tipo A) o 330 MHz (Tipo B).
• I formati video con pixel rate inferiore a 25 MHz (ad es. 13,5 MHz nel caso del formato 480i/NTSC) sono
trasmessi con un meccanismo di ripetizione dei pixel.
• Codifica dei pixel: → RGB 4:4:4, YCbCr 4:2:2, YCbCr 4:4:4.
• Velocità di campionamento audio: 32 kHz, 44,1 kHz, 48 kHz, 88,2 kHz, 96kHz, 176,4 kHz, 192 kHz.
• Canali audio: fino a 8.
Canale CEC (Consumer Electronics Control) - opzionale
Permette la comunicazione dei segnali di controllo e di comando a ogni componente interconnesso. Le caratteristiche
del CEC sono opzionali ed è quindi il produttore stesso della periferica a deciderne l'implementazione. Nel caso in
cui tutti i componenti dell'HDMI siano connessi tramite CEC, diventa possibile trasferire i comandi a tutti i
componenti tramite un unico dispositivo di controllo. I comandi includono l'accensione e spegnimento, l'avvio della
riproduzione, l'abilitazione della modalità Standby, la registrazione, e altri.
•
•
•
•
Basato sul protocollo standard AV Link.
Utilizzato per le funzioni di controllo a distanza.
Bus seriale unidirezionale a un conduttore.
Definito nella specifica HDMI 1.0.
High-Definition Multimedia Interface
Canale SCL (Serial Data Clock)
Viene utilizzato per la sincronizzazione del trasferimento dati.
Canale SDA (Serial Data Access)
Un canale dedicato al trasferimento seriale dei dati.
Canale DDC (Display Data Channel)
Consente la comunicazione delle specifiche del display, come il nome del produttore, il tipo di prodotto, i formati
audio e video supportati con le relative risoluzioni, etc, ai vari dispositivi connessi.
• Tecnica di segnalazione I²C con frequenza di clock a 100 kHz
• Struttura dati E-EDID conforme alle specifiche EIA/CEA-861B e VESA Enhanced EDID.
Voci correlate
• Interfaccia video
• → Digital Visual Interface (DVI)
• HDCP
• DisplayPort
• HDfury
• WHDI (Wireless High-Definition Interface)
Altri progetti
•
Wikimedia Commons contiene file multimediali sulla High-Definition Multimedia Interface
Collegamenti esterni
• (EN) Consorzio HDMI [5]
• (EN) Specifiche dell'HDMI 1.3 [6]
Note
[1]
[2]
[3]
[4]
fonte: www.hwupgrade.it (http:/ / www. hwupgrade. it/ news/ skvideo/ nuove-specifiche-per-displayport-e-hdmi_27683-0. html)
fonte: www.avmagazine.it (http:/ / www. avmagazine. it/ news/ televisori/ hdmi-14-ecco-le-specifiche_4466. html)
fonte: www.avmagazine.it (http:/ / www. avmagazine. it/ news/ sorgenti/ primi-dispositivi-hdmi-14-nel-2010_4550. html)
«Versione Stampabile Mini HDMI, in arrivo un nuovo connettore» (http:/ / www. hwupgrade. it/ news/ multimedia/
mini-hdmi-in-arrivo-un-nuovo-connettore_28935. html). Hardware Upgrade.
[5] http:/ / www. hdmi. org/
[6] http:/ / www. hdmi. org/ download/ HDMISpecification13a. pdf
154
Fonti e autori delle voci
Fonti e autori delle voci
Luce Fonte: http://it.wikipedia.org/w/index.php?oldid=27692888 Autori:: 5Y, A7N8X, ARTE, Adasinol, Alfio, AttoRenato, AvdE, Avesan, Balabiot, Barbaking, Berto, Beta16, Blakwolf,
Blueduster, Buzz lightyear, Ciano, Codas, Contezero, DanGarb, Davide, Diablo, Dinwath, Djdomix, Dr.Conati, Enne, Erococo, Fabio Vescarelli, Fernandopescia, Frazzone, Frieda, Gac, Gacio,
Gassendi, Giaccone Paolo, Gianluigi, Giannizx1, Guam, Hashar, Hellis, IngFrancesco, Jacopo, K92, Longa, Lorenzo S., Luisa, M7, Mauriziogio, Mitchan, Numbo3, Oskar '95, P tasso, Paolo Di
Febbo, Piergiorgio Massari, Piero, Pignol, Qbert88, Qualc1, Salvatore Ingala, Sbazzone, Scriban, Senza nome.txt, Skywolf, Snowdog, Square87, Starwars, Suisui, Template namespace
initialisation script, Tirinto, Traiano, Tridim, Tueg, Twice25, Venom9, Win, Ylebru, 91 Modifiche anonime
Colore Fonte: http://it.wikipedia.org/w/index.php?oldid=26604227 Autori:: Alfio, Andy91, Archenzo, Aushulz, Avesan, Berto, Biopresto, Blatta, Bob4, Boscarol, Cialz, Cisco79, DarkAp,
Desperate92, Djdomix, Dnaiele, DoppioM, Dream.x, Elwood, Fastforward, Ferrario Jacopo, Frieda, Ft1, Gac, Gacio, Gea, Gierre, Gifh, Ginosal, Hellis, Immanuel Giel, Ithunn, Joana, La voce di
Cassandra, LapoLuchini, Luke30, M7, Massimiliano Lincetto, Nick1915, No2, Nrykko, Paginazero, Patty, R0tAbLe, Remulazz, Riverblu, Sassospicco, Senza nome.txt, Simone, Sinigagl,
Snowdog, Stefano Careglio, Suturn, Talmid3, Template namespace initialisation script, Twice25, 35 Modifiche anonime
Spazio dei colori Fonte: http://it.wikipedia.org/w/index.php?oldid=27856136 Autori:: Adp, Avesan, Berto, DGC, Djdomix, Dnaiele, Ft1, Hellis, M7, Madaki, Marcok, Sassospicco, Sbisolo,
Shadowfax, Sinigagl, Smallpox, Snarchio, Snowdog, Stefano Careglio, Twice25, Wikit2006, 11 Modifiche anonime
Temperatura di colore Fonte: http://it.wikipedia.org/w/index.php?oldid=27805602 Autori:: A7N8X, Ary29, AttoRenato, Cialz, Dnaiele, Erud, Fredericks, Gassendi, Guam, Luisa, Luken,
Magica, Pequod76, Senpai, Sesquipedale, 17 Modifiche anonime
RGB Fonte: http://it.wikipedia.org/w/index.php?oldid=26180034 Autori:: Abisys, Ary29, Blackdeep81, Cassioli, Francescost, Freefranco, Ft1, Gac, Hellis, Lox, Lukius, M7, MaEr,
Marcuscalabresus, Marioquark, Mitchan, Paolo57, PersOnLine, Purodha, Robin root, Sassospicco, Simone, Snowdog, Twice25, Vermondo, Viscontino, Wiso, Yuma, 19 Modifiche anonime
CMYK Fonte: http://it.wikipedia.org/w/index.php?oldid=25895402 Autori:: Archenzo, Ares, Artwik, Ary29, Avesan, Dani4P, Djdomix, Dnaiele, Freefranco, Gianfranco, Magica, MapiVanPelt,
MiGz, Pino alpino, Riverblu, Sassospicco, Senpai, Simone, SkZ, Stefano Careglio, TierrayLibertad, Tiziano Fruet, Twice25, 10 Modifiche anonime
Hue Saturation Brightness Fonte: http://it.wikipedia.org/w/index.php?oldid=25414942 Autori:: A7N8X, Alleborgo, Ary29, Avesan, Dejudicibus, KaeZar, Llorenzi, Mamo139,
Moongateclimber, Nick1915, Poweruser, Sassospicco, 3 Modifiche anonime
Grafica raster Fonte: http://it.wikipedia.org/w/index.php?oldid=26623968 Autori:: .jhc., Alb, Ary29, ChemicalBit, Dr Zimbu, Fabio.gastone, Giovdi, Ignlig, Jotar, Lion-hearted85, Marcok,
Negadrive, Red83, Sinigagl, Vault, Wetto, 19 Modifiche anonime
Pixel Fonte: http://it.wikipedia.org/w/index.php?oldid=27773597 Autori:: .anaconda, Alberto da Calvairate, Buzz lightyear, Cruccone, EdoM, Enrique, Fragment, Frieda, Ft1, Giannib,
Guidomac, Hellis, Jalo, Laurentius, Lp, Lukius, Mela, Mitchan, Moongateclimber, Neq00, Nosferatu, Piracmone, Qualc1, Richzena, Ripepette, Sbisolo, Scriban, Simone, Snowdog, Suisui, Trixt,
Unriccio, Wetto, Михајло Анђелковић, 36 Modifiche anonime
Risoluzione (grafica) Fonte: http://it.wikipedia.org/w/index.php?oldid=20850482 Autori:: %Pier%, Alfio, Avesan, Beta16, Bultro, Cassioli, Cls-classic, Fabiob, Frieda, Goliardico, Gvf, Hellis,
Koji, Lucas, Marcel Bergeret, Mizardellorsa, Olando, Sbisolo, Trixt, Zeus57, 4 Modifiche anonime
Risoluzioni standard Fonte: http://it.wikipedia.org/w/index.php?oldid=24166516 Autori:: %Pier%, A7N8X, Abisys, Alez, Ciampix, Civvì, Dark, Diego Zuelli, EdoM, Gbodini, Hellis, Kal-El,
Kasper2006, Lenny76, Marcuscalabresus, Mr buick, Sandr0, TheDRaKKaR, TierrayLibertad, 8 Modifiche anonime
Immagine digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=23695265 Autori:: Blackdeep81, CavalloRazzo, Luciodem, Negadrive, 11 Modifiche anonime
Compressione dei dati Fonte: http://it.wikipedia.org/w/index.php?oldid=26612271 Autori:: %Pier%, Alberto Orlandini, Alfio, Alien life form, Archenzo, Blakwolf, Carlo.milanesi, Djdomix,
Dommac, F. Cosoleto, Frieda, Hellis, Ignlig, Lornova, Lukius, M@ttia, Marcok, Qualc1, Rollopack, Sbisolo, Simpod, Unriccio, 9 Modifiche anonime
Compressione dati lossy Fonte: http://it.wikipedia.org/w/index.php?oldid=22500703 Autori:: Ary29, Cruccone, Djdomix, Dommac, Fredericks, Fstefani, Gvf, Hellis, Lox, Marcok, Nosferatu,
Unriccio, Yoggysot, 11 Modifiche anonime
Compressione dati lossless Fonte: http://it.wikipedia.org/w/index.php?oldid=27774260 Autori:: Airon90, Alberto Orlandini, Alien life form, Alleborgo, Ary29, Avesan, Baruneju, CarmineXX,
Civvì, Dinwath, Djdomix, Dommac, Fmonaco, Gaetano56, Hellis, Kiwi, Laurusnobilis, Leif Erikson, Lox, Nicolap8, Piddu, Snowdog, Sylvaticus, Timendum, Unriccio, Wiso, 27 Modifiche
anonime
Joint Photographic Experts Group Fonte: http://it.wikipedia.org/w/index.php?oldid=26423319 Autori:: .anaconda, Acolleoni, Alfio, AnyFile, Ary29, Barna1000, Brownout, Coyote83,
Elborgo, Erriquez, Frieda, Gvf, Hashar, Hellis, Iskander, Kar.ma, Klemen Kocjancic, Mela, MiGz, Nico96, Objwan, Sbisolo, Simone, Suisui, Template namespace initialisation script, Unriccio,
18 Modifiche anonime
Portable Network Graphics Fonte: http://it.wikipedia.org/w/index.php?oldid=27722259 Autori:: %Pier%, A7N8X, Acolleoni, Agara73, Alfio, DonPaolo, El salvador, F l a n k e r, Fmonaco,
Giancy, Hashar, Hellis, Iskander, MiGz, Moongateclimber, Nevermindfc, Nico96, Purodha, Sbisolo, Simone, Suisui, Tia solzago, Viscontino, 12 Modifiche anonime
Video Fonte: http://it.wikipedia.org/w/index.php?oldid=27802068 Autori:: Abisys, Air France, Ary29, AttoRenato, Avesan, Diego Zuelli, Edo93, Fiertel91, Fluctuat, Frammco, Jok3r,
Limonadis, Lorenz-pictures, LucaLuca, Lucas, Marcok, Morningfrost, Nosferatu, Olando, Pakdooik, Pil56, Retaggio, Senpai, Tarf, 150 Modifiche anonime
Video digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=22298348 Autori:: Abisys, Ary29, Asdf1234, AttoRenato, Casamich, Darth Kule, Francisco83pv, Hellis, Herik, Kelvin, MaEr,
Morningfrost, Tvlocali, 7 Modifiche anonime
Compressione video digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=26253965 Autori:: %Pier%, 5Y, Absinthe, Avesan, Basilicofresco, Cantalamessa, Cassioli, Dommac, Guam,
Hellis, Luisa, Lukius, Morningfrost, Ninja, Perteghella, Snowdog, Svante, 8 Modifiche anonime
Sottocampionamento della crominanza Fonte: http://it.wikipedia.org/w/index.php?oldid=27651413 Autori:: Cantalamessa, Formica rufa, Granzotto, Hellis, Marcol-it, Morningfrost,
Nevermindfc, Rago, Sandr0, 4 Modifiche anonime
Video a componenti Fonte: http://it.wikipedia.org/w/index.php?oldid=26747733 Autori:: Abisys, Ary29, KS, Moongateclimber, Morningfrost, Pegasovagante, Regfla1, Senpai, Sergio46,
Ssspera, 17 Modifiche anonime
Video composito Fonte: http://it.wikipedia.org/w/index.php?oldid=27100447 Autori:: .jhc., Abisys, Abyssadventurer, Bultro, Hellis, Loox, Moloch981, Morningfrost, Ppalli, Sanfo, 20
Modifiche anonime
Formato contenitore Fonte: http://it.wikipedia.org/w/index.php?oldid=20963334 Autori:: Ary29, Satyricon86, Triquetra
Velocità di trasmissione Fonte: http://it.wikipedia.org/w/index.php?oldid=24022231 Autori:: Abisys, Avesan, Cassioli, Contezero, Daniele Forsi, Fabio.gastone, Franganghi, Ft1,
Giacomo.lucchese, Giant Lizard, Hellis, Loox, Maxx1972, Nemo bis, Piracmone, Poweruser, SkY`, Toobaz, 11 Modifiche anonime
Codec video Fonte: http://it.wikipedia.org/w/index.php?oldid=21618869 Autori:: %Pier%, AnjaManix, Blaxwan, Goodsheard, Hellis, SymlynX, 2 Modifiche anonime
Contenitore multimediale Fonte: http://it.wikipedia.org/w/index.php?oldid=22352637 Autori:: Ary29, Calabash, Gspinoza, Laurusnobilis, MIX, Squattaturi, 3 Modifiche anonime
Audio Video Interleave Fonte: http://it.wikipedia.org/w/index.php?oldid=27863744 Autori:: %Pier%, Acolleoni, Archenzo, Ary29, Dalfi85, Fidech, IngFrancesco, MIX, Marcok, Nichlaus,
Nico96, Stemby, Stevenworks, TheHurricanePower, Una giornata uggiosa '94, 11 Modifiche anonime
Matroska Fonte: http://it.wikipedia.org/w/index.php?oldid=25726729 Autori:: Ary29, Cochrane, DarkAp, Fabio.gastone, MIX, Nico96, Rajven, 4 Modifiche anonime
MPEG- 4 Fonte: http://it.wikipedia.org/w/index.php?oldid=26609041 Autori:: %Pier%, Aushulz, Hellis, Kriss4Christ, Kronos, Marius, Mykelyk, Roces, Senza nome.txt, Seveso, Wikibozzy, 22
Modifiche anonime
155
Fonti e autori delle voci
MOV (formato di file) Fonte: http://it.wikipedia.org/w/index.php?oldid=23179559 Autori:: Ary29, MIX, Una giornata uggiosa '94, Unop2pf, 1 Modifiche anonime
Ogg Fonte: http://it.wikipedia.org/w/index.php?oldid=27285051 Autori:: Actam, Ary29, Blakwolf, Bouncey2k, Brownout, Grifone87, Hashar, Hellis, Jalo, Laurusnobilis, LucAndrea, MIX,
Mikelima, Mitchan, Nico96, Nosferatu, Sante Caserio, Shadd, Una giornata uggiosa '94, 15 Modifiche anonime
Theora Fonte: http://it.wikipedia.org/w/index.php?oldid=27229761 Autori:: Garak, Hellis, Laurusnobilis, Mikelima, Nico96, Sandro kensan, Sinigagl, 7 Modifiche anonime
Compressione audio digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=26253877 Autori:: %Pier%, Alfio, Alfreddo, An3, Ary29, Defcon, Dommac, Hellis, Lusum, Marcok, MiGz,
Nosferatu, Sbisolo, Twice25, Xoen, 9 Modifiche anonime
MP3 Fonte: http://it.wikipedia.org/w/index.php?oldid=27766517 Autori:: .anaconda, Aamodio, Acolleoni, Afnecors, Alan p, Alfio, Alleborgo, AndreA, Ary29, Barbaking, Biopresto,
BlackMew9z, Brownout, Djechelon, Fidech, Fstefani, Gacio, Govoch, Guidomac, Hamed, Hashar, Hellis, IAF, IlCapo, Jacopo, Jorunn, Koji, LapoLuchini, Laurentius, Laurusnobilis, M7, Malex,
Marcel Bergeret, Matgio, Melkor II, MiGz, Misterioso, Mr. Blonde, Mykelyk, Nosferatu, Nur, Orionethe, P tasso, Pietrodn, Qualc1, Richhard, Rojelio, Rosario9, S-bor, Sbisolo, Scardovi,
Scimmialaser, Seveso, Simone, Simotdi, Snowdog, Suisui, Traduz, Una giornata uggiosa '94, Viscontino, Wizard, Zeus57, 78 Modifiche anonime
Televisione digitale Fonte: http://it.wikipedia.org/w/index.php?oldid=27215686 Autori:: Absinthe, Alleborgo, Ary29, Avesan, Cantalamessa, Cassioli, Ciro07, Cvp, Dani4P, Eliasoriordan,
Ferrucciolibero, Giorgio Leone, Jacopo, Losògià, Lukius, Marcuscalabresus, Orzetto, Pgianpy, Snake79, Snowdog, Turillazzo, Twice25, 47 Modifiche anonime
HDTV Fonte: http://it.wikipedia.org/w/index.php?oldid=27898404 Autori:: .anaconda, 16:9, Ab1, Abisys, Absinthe, Alleborgo, Antonino.greco, Antonio.971, Ary29, Asdf1234, AttoRenato,
Aushulz, Avesan, BMF81, Blaisorblade, Bomberman, BonAce, Brownout, Brunocip, CavalloRazzo, Codicorumus, Contezero, Derfel74, Djechelon, Elijah85, Freepenguin, Gacio, Giancy,
Golf-ball, Harrythebest93, Helix84, Hellis, Herik, Icaro829, KS, Kasper2006, Keledan, Kelvin, Klaudio, Langly, Lorenz-pictures, Loroli, Lp, LucAndrea, LucaDetomi, MaEr, Marco Bernardini,
Marcoluciano, Marcuscalabresus, Morningfrost, Nuovoastro, Oliva18, Pepe85, Piccadillo, Quoniam, Ranma25783, Rayan, Sbazzone, Scriban, Shaka, Simone, Snake79, Snowdog, Swap83, T137,
Theferro, TierrayLibertad, Tritologol, Twice25, Valepert, Vault, Viscontino, 149 Modifiche anonime
DVD Fonte: http://it.wikipedia.org/w/index.php?oldid=27621337 Autori:: %Pier%, .mau., Al Pereira, Alfio, Amux, Ary29, Asdf1234, Beta16, Bodo, Bronzino, Bunker, Cassioli,
Deliriumtremens, Dudo, Edo, Ellevi, Erriquez, Eustace Bagge, Frazzone, Frieda, Gacio, Galoppini, Hashar, Hellis, Hypermax, Kurtsb, Lephio, Losògià, Lucabon, Lucius, M7, MapiVanPelt,
Marcok, Marcuscalabresus, Michele CaMi, Microtauro, Mitchan, Moliva, Nevermindfc, Numbo3, Outer root, Paginazero, Pegasovagante, Phantomas, Piffy, Rdocb, Rojelio, Satrixx, Servator,
Shaka, Simone, Starless74, Suisui, SuperSecret, Surfy47, Template namespace initialisation script, Tennegi, Tooby, Viames, VicMer1987, Vikinger, Win, 112 Modifiche anonime
IPTV Fonte: http://it.wikipedia.org/w/index.php?oldid=27645986 Autori:: %Pier%, .jhc., Abisys, Absinthe, Amux, Andzoff, Avesan, Bruno0.5, Caceo, Cpollio, Dommac, Fcaridi,
Ferrucciolibero, Hellis, Lilja, Massimiliano Lincetto, Ranma25783, Rdocb, Rebeldeparinoz, Stemby, TekAndre, Vulkano, 67 Modifiche anonime
Web TV Fonte: http://it.wikipedia.org/w/index.php?oldid=26715028 Autori:: .snoopy., Absinthe, Broc, Buggia, Civvì, D.forte, EH101, Ferrucciolibero, FrAnCiS, GJo, Giancy, Gicotel,
Giocrea, Hellis, Horatius, Ignlig, Klaudio, Lilja, Lorenalan, Luciodem, Luisa, M7, Marcok, Mizardellorsa, Montitv, Moongateclimber, NBTV, Nalegato, Paginazero, Paulatz, PersOnLine, Riki81,
Rosellaegianni, Snowdog, Stella del vespro, Svante, Tia solzago, Trikke, Twice25, ZAGA, ZioNicco, 94 Modifiche anonime
Streaming Fonte: http://it.wikipedia.org/w/index.php?oldid=27792956 Autori:: .anaconda, Abisys, Agent59551325, Amux, Archenzo, Ary29, Avesan, Brownout, Brunocip, Buggia, Ciro1992,
Cracatua, Cruccone, Drugonot, Fabrymondo, Fale, Ferrucciolibero, Gac, Gacio, Grond, Guidomac, Hacker nait, Hal8999, Hellis, Henrykus, Iron Bishop, KS, KinG-LioN, Klaudio, Kromeboy,
LeFilsDePascal, Lilja, Loox, Ludimagister, M7, MadFool, MapiVanPelt, Marcok, Marcol-it, Marius, Mediano88, Miclen1, Mikykim, Mitchan, Moongateclimber, Nicoli, NuclearWarfare, Peppe
Cicco, Pickblack, Rdocb, Red83, Rosanna.valente, Salvorapi, Sbazzone, Sbisolo, Senpai, Senza nome.txt, Simo ubuntu, Snowdog, Superdelo, Tiziano90, Torredibabele, Xx1182, Yoruno, Yuma,
Zeusi, 153 Modifiche anonime
Podcasting Fonte: http://it.wikipedia.org/w/index.php?oldid=27870819 Autori:: .mau., Absinthe, Al Pereira, Asbesto, Brownout, Civvì, Cruccone, Dainobellofico, Dainofico, Davalv, Easy2say,
Elspad, Fabrymondo, FollowTheMedia, Fredericks, Frieda, Gacio, Gea edizioni d'avanguardia, Hellis, Indie-eye, Jacopo, L0ne, Llorenzi, Lox, Lucas, M7, Marcok, Marcozampini, Misterioso,
Paginazero, Pietrodn, Plasson, Pyotr, Santapatata, Sbisolo, Sentruper, Shaka, Simone, Snowdog, Soltanto uno, Square87, TheSneezer, Viames, Webmastro, 152 Modifiche anonime
Blu- ray Disc Fonte: http://it.wikipedia.org/w/index.php?oldid=27621681 Autori:: Aldo Iannotti, Alfa1981, Ary29, Asdf1234, Autoeconomo, Beta16, Blakwolf, Bongalone, Calabash,
ChemicalBit, Cotton, Daneelo, Darixdm, Dumbridge, El Tarantiniese, Eleonorat, ErPiAtTo^Dj, F l a n k e r, Fiertel91, Giancy, Hellis, Hill, Hypermax, KS, Kal-El, Karzac Fabio, Kasper2006,
Koji, Lilja, Lorelorelore, LucaDetomi, Mad Nick, Marco 27, Marcol-it, Marcuscalabresus, Neq00, Pietrodn, Purodha, Quicksilver, Ranma25783, Red83, Satrixx, Seveso, Shaka, Snowdog,
Ssspera, Superzen, ThePassenger, Topolinik, Vituzzu, Walter Tizzano, Yerul, Yoppy90, Zorzo Mirco, 164 Modifiche anonime
Universal Serial Bus Fonte: http://it.wikipedia.org/w/index.php?oldid=26751119 Autori:: Abisys, Alfa1981, Alfreddo, Ary29, Atlantropa, Avesan, Ciampix, DarkAp, Dragonheart, Frieda,
Govoch, Hce, Hellis, Hill, Hunk, Iskander, Jalo, KaeZar, Lorenz-pictures, Lornova, Lrobby94, Luisa, MER-C, Madison Alex, Marcol-it, Marcuscalabresus, Marius, Mess, Microst, MikyT,
Nick1915, Orlando udine, PersOnLine, Piero, Pil56, Pippu d'Angelo, Pytt, RadomE, Red83, Rojelio, Sassospicco, Sbisolo, Simone, Sky, Sonichead, Stefano86, StefanoM, Suisui, Template
namespace initialisation script, Tener, Timendum, Twice25, Valepert, Viames, 66 Modifiche anonime
IEEE 1394 Fonte: http://it.wikipedia.org/w/index.php?oldid=27881785 Autori:: Avesan, Ayato86, Beta16, Ciampix, Danielemarchi68, Deplo, Djechelon, Fabexplosive, Gacio, Hashar, Hellis,
Herik, Lorenz-pictures, MarKo, Marius, MaxDel, Memolina, Mess, Mimx, Nyc99, Orso della campagna, R0tAbLe, RanZag, Stefano Careglio, Stemby, Suisui, Tomfox, Tommaso.Calloni, 23
Modifiche anonime
Digital Visual Interface Fonte: http://it.wikipedia.org/w/index.php?oldid=27611930 Autori:: Abisys, Avesan, DanGarb, Francesco.monte, Franganghi, Gacio, Giovannigobbin, Hellis, Homer,
Icaro, Klaudio, Luca Z.za, RaminusFalcon, Ruggibrante, Sanghino, Snowdog, 30 Modifiche anonime
High- Definition Multimedia Interface Fonte: http://it.wikipedia.org/w/index.php?oldid=27651429 Autori:: Abisys, Alec, Alessio Rolleri, Asdf1234, AttoRenato, Avesan, Dragonheart,
Formica rufa, Frieda, Gacio, Grok, Hellis, KaeZar, Klaudio, Lorenz-pictures, Lp, LucaDetomi, Lusum, Marcuscalabresus, No2, Osk, Scriban, Square87, Ssspera, Svante, Theferro, 23 Modifiche
anonime
156
Fonti, licenze e autori delle immagini
Fonti, licenze e autori delle immagini
File:PrismAndLight.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:PrismAndLight.jpg Licenza: Public Domain Autori:: NASA
File:Squarci di luce.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Squarci_di_luce.jpg Licenza: sconosciuto Autori:: Dr.Conati
File:Chicago Union Station 1943.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Chicago_Union_Station_1943.jpg Licenza: Public Domain Autori:: Jack Delano
Immagine:Spectre.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectre.svg Licenza: sconosciuto Autori:: User:Phrood, User:Tatoute
Immagine:Commons-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: User:3247, User:Grunt
Immagine:Wikiquote-logo.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg Licenza: logo Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq, Maderibeyza,
Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime
Immagine:Wiktionary-ico-de.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png Licenza: logo Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Rocket000
Immagine:Colouring pencils.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Colouring_pencils.jpg Licenza: sconosciuto Autori:: User:MichaelMaggs
Immagine:Spectrum441pxWithnm.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectrum441pxWithnm.png Licenza: GNU Free Documentation License Autori:: Adoniscik,
Eno, Knutux, W!B:, 1 Modifiche anonime
Immagine:Karachi - Pakistan-market.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Karachi_-_Pakistan-market.jpg Licenza: Creative Commons Attribution 2.0 Autori::
Berrucomons, Durova, Epiktet, FlickrLickr, Fred J, Jnn, Jon Harald Søby, Mangostar, Mattes, MichaelMaggs, Neon, Ranveig, Rogerine, Shizhao, Str4nd, WikipediaMaster, 1 Modifiche anonime
Immagine:Spettro.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Spettro.gif Licenza: sconosciuto Autori:: Utente:Adp
Immagine:CIE1931 rgxy.png Fonte: http://it.wikipedia.org/w/index.php?title=File:CIE1931_rgxy.png Licenza: Public Domain Autori:: User:BenFrantzDale
Immagine:Cie.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Cie.gif Licenza: sconosciuto Autori:: Utente:Adp
Immagine:Color temperature.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_temperature.svg Licenza: sconosciuto Autori:: Hołek
Immagine:RGB.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:RGB.svg Licenza: Public Domain Autori:: User:Wiso
Immagine:AdditiveColorSynthesis_RGBpositives.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:AdditiveColorSynthesis_RGBpositives.jpg Licenza: sconosciuto Autori::
User:Magica
Immagine:SubtractiveColorSynthesis_CMYK_2.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:SubtractiveColorSynthesis_CMYK_2.jpg Licenza: sconosciuto Autori::
User:Magica
Immagine:CMY ideal version.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:CMY_ideal_version.svg Licenza: Public Domain Autori:: Terin
Image:HSV cylinder.png Fonte: http://it.wikipedia.org/w/index.php?title=File:HSV_cylinder.png Licenza: GNU Free Documentation License Autori:: (3ucky(3all at en.wikipedia
Image:Color cones.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_cones.png Licenza: GNU Free Documentation License Autori:: Djiboun, SharkD, WikipediaMaster, Wing
Immagine:Rgb-raster-image.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Rgb-raster-image.png Licenza: sconosciuto Autori:: Original uploader was Riumplus at en.wikipedia
Later versions were uploaded by Plethorapw, Guanaco, Branko, Kjoonlee at en.wikipedia.
File:Fil-Pixel-example-wiki.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Fil-Pixel-example-wiki.png Licenza: logo Autori:: Original uploader was BlueEel at da.wikipedia
Immagine:Vector Video Standards2.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Vector_Video_Standards2.svg Licenza: GNU Free Documentation License Autori:: Original
uploader was XXV at en.wikipedia Later version(s) were uploaded by Jjalocha, Aihtdikh at en.wikipedia.
Immagine:tulipanoJPEG100.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG100.jpg Licenza: sconosciuto Autori:: Coyote83
Immagine:tulipanoJPEG90.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG90.jpg Licenza: sconosciuto Autori:: Coyote83
Immagine:tulipanoJPEG50.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG50.jpg Licenza: sconosciuto Autori:: Coyote83
Immagine:tulipanoJPEG10.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG10.jpg Licenza: sconosciuto Autori:: Coyote83
Immagine:Comparison of JPEG and PNG.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Comparison_of_JPEG_and_PNG.png Licenza: sconosciuto Autori:: , cropped by
Immagine:PNG transparency demonstration 1.png Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_1.png Licenza: sconosciuto Autori:: User:ed
g2s/Dice.pov, user:ed_g2s
Immagine:PNG transparency demonstration 2.png Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_2.png Licenza: sconosciuto Autori:: User:ed
g2s/Dice.pov, user:ed_g2s
File:standard_video_res.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_video_res.svg Licenza: Public Domain Autori:: Darz Mol, Hellisp, Inductiveload, Oxam Hartog, 3
Modifiche anonime
File:Aspect ratios.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Aspect_ratios.png Licenza: GNU Free Documentation License Autori:: Andreas -horn- Hornig, Indolences
File:NTSC-PAL-SECAM.png Fonte: http://it.wikipedia.org/w/index.php?title=File:NTSC-PAL-SECAM.png Licenza: GNU Free Documentation License Autori:: Andreas -horn- Hornig, En
rouge, Interiot, Kaganer, Oldie, Responsible?, Thuresson
Immagine:Color-bars-original.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Color-bars-original.gif Licenza: Public Domain Autori:: Glenn Chan
Immagine:Color-bars-vegas-dv.gif Fonte: http://it.wikipedia.org/w/index.php?title=File:Color-bars-vegas-dv.gif Licenza: Public Domain Autori:: Glenn Chan
Immagine:Chroma subsampling ratios.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Chroma_subsampling_ratios.svg Licenza: GNU Free Documentation License Autori:: ,
w:User:MysidUser:Mysid
Immagine:444-original-single-field.png Fonte: http://it.wikipedia.org/w/index.php?title=File:444-original-single-field.png Licenza: sconosciuto Autori:: Original uploader was Glennchan at
en.wikipedia
Immagine:420-progressive-single-fiel.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-progressive-single-fiel.png Licenza: Public Domain Autori:: Glenn Chan
Immagine:420-interlaced-single-field.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-interlaced-single-field.png Licenza: sconosciuto Autori:: Glenn Chan
Immagine:420-original444.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-original444.png Licenza: Public Domain Autori:: Glenn Chan
Immagine:420-progressive-still.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-progressive-still.png Licenza: Public Domain Autori:: Glenn Chan
Immagine:420-interlaced-still.png Fonte: http://it.wikipedia.org/w/index.php?title=File:420-interlaced-still.png Licenza: Public Domain Autori:: Glenn Chan
Image:Component video RCA.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Component_video_RCA.jpg Licenza: GNU Free Documentation License Autori:: Photograph taken by
Larry D. Moore (Nv8200p on en.wikipedia) using a Kodak EasyShare Z740 camera.
Immagine:Composite.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Composite.jpg Licenza: GNU Free Documentation License Autori:: Photograph taken by Larry D. Moore
(Nv8200p on en.wikipedia) using a Kodak EasyShare Z740 camera.
Immagine:BNC connector 20050720 001.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:BNC_connector_20050720_001.jpg Licenza: Public Domain Autori:: User:bergsten
Immagine:Disambigua compass.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Disambigua_compass.svg Licenza: Public Domain Autori:: User:Krdan
Immagine:Matroska-logo-128x128.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Matroska-logo-128x128.png Licenza: GNU General Public License Autori:: Matroska project
Immagine:Torchlight_ogg.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Torchlight_ogg.png Licenza: GNU Lesser General Public License Autori:: Dake
File:Fraunhofer ITWM AM.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Fraunhofer_ITWM_AM.jpg Licenza: Public Domain Autori:: AlexanderDreyer, Túrelio
File:Ibox mp3.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Ibox_mp3.jpg Licenza: Public Domain Autori:: Derbeth, MB-one, Mohylek, 1 Modifiche anonime
Immagine:Digital-tv-box med Boxerkort.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Digital-tv-box_med_Boxerkort.jpg Licenza: sconosciuto Autori:: GeorgHH, O, Väsk
Immagine:Digital-tv-box från Nokia.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Digital-tv-box_från_Nokia.jpg Licenza: GNU Free Documentation License Autori::
MMuzammils, Mardus, Thuresson, Väsk, Wst
File:Projection-screen-home2.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Projection-screen-home2.jpg Licenza: Public Domain Autori:: User:Tysto
File:Highdefinitiontvwalldirectv.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Highdefinitiontvwalldirectv.jpg Licenza: sconosciuto Autori:: Original uploader was Jengod at
en.wikipedia
157
Fonti, licenze e autori delle immagini
File:Standard video res.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Standard_video_res.svg Licenza: Public Domain Autori:: Darz Mol, Hellisp, Inductiveload, Oxam Hartog, 3
Modifiche anonime
File:Confronto PAL - HDTV.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Confronto_PAL_-_HDTV.jpg Licenza: sconosciuto Autori:: Lorenz-pictures
File:Pixel aspect ratio pixelseitenverhaeltnis ntsc480p pal576p hdtv720p hdtv1080p uhdv4320p by hdtvtotal com.svg Fonte:
http://it.wikipedia.org/w/index.php?title=File:Pixel_aspect_ratio_pixelseitenverhaeltnis_ntsc480p_pal576p_hdtv720p_hdtv1080p_uhdv4320p_by_hdtvtotal_com.svg Licenza: Creative Commons
Attribution-Sharealike 2.5 Autori:: User:Andreas -horn- Hornig
File:Sky Box HD Pace.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Sky_Box_HD_Pace.jpg Licenza: Public Domain Autori:: User:Andreas -horn- Hornig
Immagine:DVD logo.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD_logo.png Licenza: sconosciuto Autori:: Hellis, Kanchelskis, Senpai
Immagine:DVD.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD.jpg Licenza: sconosciuto Autori:: Archaeologo, Lucius
Immagine:DVD-RAM FUJIFILM Disc-removalble Without cartridge-locking-pin.jpg Fonte:
http://it.wikipedia.org/w/index.php?title=File:DVD-RAM_FUJIFILM_Disc-removalble_Without_cartridge-locking-pin.jpg Licenza: Public Domain Autori:: User:Iainf, User:Ocrho
Immagine:DVD-Regions_with_key.png Fonte: http://it.wikipedia.org/w/index.php?title=File:DVD-Regions_with_key.png Licenza: GNU Free Documentation License Autori:: Anstalt, David
Levy, Dryke, Frukt, Lockal, Monaneko, MrWeeble, Peter17, 5 Modifiche anonime
Immagine:BluRayDisc.png Fonte: http://it.wikipedia.org/w/index.php?title=File:BluRayDisc.png Licenza: sconosciuto Autori:: Giancy
Immagine:Bluray.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Bluray.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Aholtman, J o, Mistress Selina Kyle
Immagine:IFA 2005 Panasonic Blu-ray Disc Single Layer 25GB (by HDTVTotalDOTcom).jpg Fonte:
http://it.wikipedia.org/w/index.php?title=File:IFA_2005_Panasonic_Blu-ray_Disc_Single_Layer_25GB_(by_HDTVTotalDOTcom).jpg Licenza: Creative Commons Attribution-Sharealike 2.5
Autori:: User:Andreas -horn- Hornig
Immagine:Sony PlayStation 3.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Sony_PlayStation_3.jpg Licenza: Creative Commons Attribution 2.0 Autori:: Andreas -horn- Hornig,
Bayo, Cookie, Dancter, Datrio, Gabbe, Mnts, Para, Thuresson, 1 Modifiche anonime
Immagine: Usb-svg.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:Usb-svg.svg Licenza: sconosciuto Autori:: DocMiller
Immagine:USB_TypeA_Plug.JPG Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_TypeA_Plug.JPG Licenza: Creative Commons Attribution-Sharealike 2.0 Autori::
User:Afrank99
Immagine:USB Male Plug Type B.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_Male_Plug_Type_B.jpg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori::
user:Aka
Immagine:Mini_usb_AB.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Mini_usb_AB.jpg Licenza: Creative Commons Attribution 2.5 Autori:: User Mgdunn on en.wikipedia
Immagine:USB_micro.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_micro.jpg Licenza: Public Domain Autori:: User:RadomE
Immagine:Sanwa supply USB-HUB217BK.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Sanwa_supply_USB-HUB217BK.jpg Licenza: GNU Free Documentation License
Autori:: User:Qurren
Immagine:USB PS2 Adapters.JPG Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_PS2_Adapters.JPG Licenza: GNU Free Documentation License Autori:: User:Afrank99
Immagine:USB_TypeAB_Connector_Pinout.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_TypeAB_Connector_Pinout.svg Licenza: Public Domain Autori:: Mobius,
WikipediaMaster
Immagine:USB AB mini.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:USB_AB_mini.svg Licenza: GNU Free Documentation License Autori:: User:Appaloosa
Immagine:Firewire6-pin.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Firewire6-pin.jpg Licenza: Public Domain Autori:: KoS, Stanmar
Immagine:Logo firewire125.png Fonte: http://it.wikipedia.org/w/index.php?title=File:Logo_firewire125.png Licenza: sconosciuto Autori:: Hellis, Mess, Senpai
Immagine:IEEE1394-4-6pin.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:IEEE1394-4-6pin.jpg Licenza: sconosciuto Autori:: Deplo
Immagine:Firewire4-pin.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:Firewire4-pin.jpg Licenza: Public Domain Autori:: Denniss, Essjay, KoS, Maksim
Immagine:IEEE 1394b.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:IEEE_1394b.jpg Licenza: sconosciuto Autori:: Fabexplosive
Immagine:PorteFWiMac.JPG Fonte: http://it.wikipedia.org/w/index.php?title=File:PorteFWiMac.JPG Licenza: sconosciuto Autori:: Deplo
File:DVI-D Connector.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVI-D_Connector.jpg Licenza: sconosciuto Autori:: 32bitmaschine, Keeleysam, Sergei, Sven
File:DVI Connector Pinout.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVI_Connector_Pinout.svg Licenza: Public Domain Autori:: 32bitmaschine, Mobius, Sven,
WikipediaMaster
File:DVI Connector Types.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVI_Connector_Types.svg Licenza: Public Domain Autori:: 32bitmaschine, Hungry Charlie, Mobius, Rhe
br, Sven, WikipediaMaster
File:DVI pinout.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:DVI_pinout.svg Licenza: sconosciuto Autori:: Original uploader was Ionuion at en.wikipedia
Immagine:HDMI connector-male 2 sharp Δ0059.jpg Fonte: http://it.wikipedia.org/w/index.php?title=File:HDMI_connector-male_2_sharp_Δ0059.jpg Licenza: sconosciuto Autori:: D-Kuru,
Tony Wills
Immagine:HDMI Connector Pinout.svg Fonte: http://it.wikipedia.org/w/index.php?title=File:HDMI_Connector_Pinout.svg Licenza: Public Domain Autori:: D-Kuru, Mobius,
WikipediaMaster
158
Licenza
Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/
159