Teoria dell`informazione e codici

Transcript

Teoria dell`informazione e codici
TEORIA DELL'INFORMAZIONE
¾ Problema fondamentale della comunicazione:
Facoltà di Ingegneria
Riprodurre in un punto, in modo esatto o approssimato, un messaggio selezionato
Appunti dalle lezioni del corso di
in un altro punto
¾ Obiettivo
Teoria dell’informazione e codici
Provare, per mezzo della teoria dei processi ergodici, teoremi fondamentali sulla
codificazione dell'informazione trasmessa (in cui l'entropia gioca un ruolo
Prof. Alessandro NERI
essenziale)
¾ La misura dell'informazione è
Anno accademico 2008-2009
1. Un'indicazione della libertà di scelta che una sorgente è in grado di esercitare
nel selezionare un messaggio
2. Un'indicazione del grado di incertezza di un osservatore nei riguardi del
messaggio che sarà emesso
1
Codifica a blocchi
2
Codifica a blocchi
¾ A(k) : l'alfabeto estensione di ordine k di A
S0
xk
A(k) =(b1, b2, …, bj, …bLk)
Codificatore a
blocchi
(k;M)
i cui elementi sono le Lk differenti sequenze di k caratteri ciascuno appartenente ad
A, cioè
‰ Data
una sorgente discreta S0, siano:
bj =(aj1, aj2, …, ajn , … ajk)
¾ x[n]: una realizzazione costituita da una successione indefinita di caratteri
appartenenti all'alfabeto di sorgente A ad L determinazioni
‰ Si
applichi ad x[n] una codificazione a blocchi (k; M) a lunghezza di parola non
necessariamente costante tale che a ciascun carattere bj di A(k) faccia corrispondere
A=(a1, a2, …, aj, …aL)
una stringa di nj caratteri del nuovo alfabeto ad M simboli
¾ xk: sequenza di k caratteri successivi
C =(c1, c2, …, cj, …cM)
3
4
Codifica a blocchi
carattere
a1
a2
a3
a4
PA(a)
1/2
1/4
1/8
1/8
ENTROPIA
Codice I
1
00
01
10
) Obiettivo
Codice II Codice III
0
0
10
01
110
011
111
111
cercare di assegnare le parole di codice di lunghezza più brevi alle
sequenze di caratteri d'ingresso più frequenti
 esempio:
codice MORSE
Codici:
) Definizione
univocamente decodificabili
Trasformazione invertibile
istantaneamente decodificabili
l'inversione può essere effettuata in tempo reale
senza dover attendere gli altri caratteri della
‰ Indicata
con PB(bj) la probabilità associata al carattere bj, il valore atteso
del numero di caratteri di C che corrispondono a xk vale:
sequenza.
 Regola
del prefisso: Un codice risulta univocamente istantaneamente
E B {n} =
decodificabile se non esiste nessuna parola di codice che coincida interamente
Lk
∑ n j PB (b j )
j =1
con l'inizio di parole di codice di lunghezza maggiore.
5
ENTROPIA
6
ENTROPIA (cont.)
Ciò posto, si definisce Entropia H della sorgente la quantità
‰ Teorema
H = lim
⎡ E {n}⎤
H = Inf ⎢ B ⎥
k ⎣ k
⎦
1
k →∞ k
al variare in tutti i modi possibili del sistema di codificazione a blocchi,
 Dal
⎧
1 ⎫
E B ⎨ log M
⎬
P
(b) ⎭
⎩
B
(1)
teorema discende che una serie di approssimazioni per H può essere
ottenuta a partire dalla conoscenza delle proprietà statistiche di sequenze
purché biunivocamente decodificabile.
di 1, 2, …, k simboli
 La
base del logaritmo che compare nella (1) determina l'unità di misura
per l'entropia.
7
 Per
M=2 l'entropia si misura in [bit/simbolo]
 Per
M=e l'entropia si misura in [nat/simbolo]
8
Sorgente ergodica senza memoria
Sorgente ergodica senza memoria
¾quindi una sorgente senza memoria presenta una entropia pari a:
Poiché per tale sorgente:
PB(bj)=PA(aj1, aj2, …, ajn , … ajk)=
k
⎧
1 ⎫
H = E A ⎨ log 2
⎬
PA ( a ) ⎭
⎩
= ∏ PA ( a j )
l
l =1
si ha:
⎧
⎫
⎪
⎧ k
1
1
1
1 ⎫
⎪
⎪⎪
H = lim
E A ( k ) ⎨log 2 k
E A ( k ) ⎨ ∑ log 2
= lim
⎬
⎬=
k →∞ k
k →∞ k
PAj ( a j ) ⎭
j =1
⎩
⎪
⎪
(
)
P
a
A
j
∏
j
⎪⎩
⎪⎭
i =1
1 ⎫
⎧
k E A ⎨ log 2
⎬
PA ( a ) ⎭
k →∞ k
⎩
= lim
1
9
10
Sorgente ergodica senza memoria
Sorgente ergodica senza memoria
¾Sorgente binaria
posto
¾Teorema: L'entropia di una sorgente senza memoria soddisfa la
PA(a1)=P;
diseguaglianza:
PA(a2)=1-P
per l'entropia di tale sorgente si ha:
H = P log2
H ≤ log 2 L
1
1
+ (1 − P ) log2
P
1− P
con uguaglianza quando i simboli sono equiprobabili.
Dim.: poiché
log 2 y ≤
11
1
( y − 1)
ln 2
12
Sorgente ergodica senza memoria
si ha:
H − log 2 L =
⎡
⎤
1
1 L
1
≤
∑ PA (an ) ⎢ LP (a ) − 1⎥ .
a
(
)
ln
2
n =1
⎣ A n
⎦
A n
L
∑ PA (an ) log2 LP
n =1
D’altro canto,
L
⎡
n =1
⎣
L
⎤ 1 L
1
− 1⎥ = ∑ 1 − ∑ PA ( a n ) = 1 − 1 = 0 ,
( a ) ⎦ L n =1 n =1
A n
∑ PA (a n ) ⎢ LP
pertanto si ha:
H − log 2 L ≤ 0
c.d.d.
13