Relazione Spazio dei polinomi ortogonali - Filibusta

Transcript

Relazione Spazio dei polinomi ortogonali - Filibusta
U NIVERSITÀ DEGLI S TUDI DI M ILANO
Facoltà di Scienze Matematiche, Fisiche e Naturali
Dipartimento di Tecnologie dell’Informazione
Corso di Laurea in Informatica
S PAZIO DEI POLINOMI ORTOGONALI
Prof. Massimo Cariboni
Relazione di Matematica del continuo
Daniele Bonomi (703870)
Yari Melzani (703242)
Anno Accademico 2005/2006
SPAZIO DEI POLINOMI ORTOGONALI
I NDICE
1. Premesse
1.1. Prodotto scalare e disuguaglianze
1.2. Lunghezza o norma di un vettore
1.3. Ortogonalità dei vettori
1.4. Spazio lineare generato da un insieme finito di vettori
1.5. Basi di uno spazio vettoriale
1.6. Costruzione di insiemi ortogonali: procedimento di Gram-Schmidt
1.7. Polimoni di Legendre
1.8. Complementi ortogonali e proiezioni
1.9. Approssimazione di un elemento di uno spazio euclideo con elementi di un sottospazio di
dimensione finita
1.10. Esempio. Approssimazione di funzioni continue in [−1, 1] mediante polinomi di grado ≤ n
Riferimenti bibliografici
2
2
3
5
6
6
7
9
10
12
13
14
1. P REMESSE
In questa breve relazione, cercheremo di mostrare come i polinomi ortogonali siano utili in molti ambiti
sia della matematica che della fisica per approssimare funzioni. Dopo un breve cenno riguardante i rudimenti
dell’algebra vettoriale, introdurremo il concetto di ortogonalità tra vettori per poter costruire insiemi di vettori
ortogonali, mediante il procedimento di Gram-Schmidt.
Illustreremo più nel dettaglio la costruzione di una particolare famiglia di polinomi, detti di Legendre. Nell’ultima parte della relazione mostreremo come è possibile approssimare un elemento x di uno spazio vettoriale
euclideo V con un elemento y appartenente ad un sottospazio di V , in modo che la bontà dell’approssimazione
sia massima, ossia la norma ||x − y|| sia la più piccola possibile. Per finire costruiremo uno spazio di polinomi
trigonometrici, in grado di approssimare al meglio delle funzioni continue nell’intervallo chiuso [−1, 1].
1.1. Prodotto scalare e disuguaglianze. In matematica, il prodotto scalare è una particolare operazione binaria che prende due vettori e restituisce un numero. Il prodotto scalare più usato è il prodotto scalare canonico,
calcolato sui vettori di uno spazio euclideo.
Definizione 1.1. Se a = (a1 , . . . , an ) e b = (b1 , . . . , bn ) sono due vettori di Vn , il loro prodotto scalare
canonico è indicato con a · b o (a, b) ed è così definito
a · b = (a, b) =
n
X
ak bk
k=1
Possiamo anche scrivere il prodotto scalare nella forma equivalente a · b = δik ai bk dove δik è detto simbolo
di Kronecker ed è così definito:
0 se i 6= k
δik ≡
1 se i = k
Perciò per calcolare a · b si moltiplicano le componenti di egual posto di a e b e quindi si sommano tutti i
prodotti. Il prodotto scalare gode delle seguenti proprietà di tipo algebrico.
2
Teorema 1.2. Qualunque siano i vettori a, b, c ∈ Vn e per ogni scalare k ∈ R valgono le seguenti proprietà:
a)
b)
c)
d)
e)
a·b=b·a
a · (b + c) = a · b + a · c
k(a · b) = (ka) · b = a · (kb)
a · a > 0 se a 6= 0
a · a = 0 se a = 0
(proprietà commutativa)
(proprietà distributiva)
(omogeneità)
(positività)
Le prime tre proprietà
P 2 sono una facile conseguenza della definizione. Per verificare le ultime due, usiamo la
relazione a · a =
ak . Poichè ogni addendo non è mai negativo, la somma è sempre positiva. Insomma, la
somma è zero se e solo se ogni addendo è zero e ciò può succedere solo se a = 0.
Ricordiamo anche un’importante disuguaglianza che riguarda il prodotto scalare e che è fondamentale nell’algebra vettoriale.
Teorema 1.3. DISUGUAGLIANZA DI CAUCHY-SCHWARZ.
Se a e b sono due vettori qualsiasi di Vn , si ha
(1)
(a · b)2 ≤ (a · a)(b · b)
Inoltre, il segno di uguaglianza vale se e solo se uno dei vettori è multiplo dell’altro.
Dimostrazione. Notiamo dapprima che la (1) diventa banale se uno dei vettori a o b è il vettore nullo.
Possiamo quindi supporre che a e b siano non nulli.
Sia c un vettore, combinazione lineare di a e b
c = xa − yb
ove
x=b·b e
y =a·b
Le proprietà del prodotto scalare d) ed e) implicano che c · c ≥ 0. Basterà scrivere questo fatto in termini di
x e y per ottenere la (1). Per esprimere c · c in termini di x e y si ricorre alle proprietà a), b) e c), ottenendo
c · c = (xa − yb) · (xa − yb) = x2 (a · a) − 2xy(a · b) + y 2 (b · b)
Usando la definizioni di x e y e la disuguaglianza c · c ≥ 0, si ottiene
(b · b)2 (a · a) − 2(a · b)2 (b · b) + (a · b)2 (b · b) ≥ 0
Raccogliendo b · b, risulta
(b · b) (b · b)(a · a) − (a · b)2 ≥ 0
La proprietà d) implica che b · b > 0 in quanto b 6= 0; così si può dividere per (b · b) e ottenere
(b · b)(a · a) − (a · b)2 ≥ 0
cioè la (1). Questa dimostrazione fa vedere che il segno di uguaglianza vale nella (1) se e solo se c = 0. Ma
c = 0 se e solo se xa = yb. Ne segue che l’uguaglianza vale nella (1) se e solo se uno dei vettori è un multiplo
scalare dell’altro.
1.2. Lunghezza o norma di un vettore. La figura 1 mostra il vettore geometrico dall’origine a un punto
a = (a1 , a2 ) nel piano. Dal teorema di Pitagora si deduce che la lunghezza (o norma) di a, che indichiamo con
kak, è data dalla relazione
q
kak = a21 + a22
Situazione analoga nello spazio tridimensionale è illustrata nella figura 2. Applicando due volte il teorema
di Pitagora si trova che la lunghezza di un vettore geometrico a in uno spazio tridimensionale è data da
q
kak = a21 + a22 + a23
p
Si noti che in ogni caso la lunghezza di a è data da (a · a), cioè dalla radice quadrata del prodotto scalare
di A per se stesso. Questa formula suggerisce un modo per introdurre il concetto di lunghezza in uno spazio a
n dimensioni.
3
F IGURA 1. Lunghezza di un vettore in V2 .
F IGURA 2. Lunghezza di un vettore in V3 .
Definizione 1.4. Se a è un vettore in Vn , si chiama norma del vettore e si indica con ||a|| la quantità:
p
kak = (a · a)
Teorema 1.5. Se a è un vettore in Vn e se c ∈ R è uno scalare, si hanno le seguenti proprietà:
a) kak > 0 se a 6= 0 (positività)
b) kak = 0 se a = 0
c) kcak = |c| kak
(omogeneità)
La disuguaglianza di Cauchy-Schwarz può essere anche espressa in termini di norma. Precisamente
(2)
(a · b)2 ≤ kak2 kbk2
Prendendo le radici quadrate positive dei due membri, si può anche scrivere la disuguaglianza di CauchySchwarz nella forma equivalente
(3)
|a · b| ≤ kak kbk
Useremo ora la disuguaglianza di Cauchy-Schwarz per dedurre la disuguaglianza triangolare.
Teorema 1.6. DISUGUAGLIANZA TRIANGOLARE.
Se a e b sono vettori in Vn , si ha
(4)
ka + bk ≤ kak + kbk
Inoltre il segno di uguaglianza si ha se e solo se a = 0, b = 0 o b = ca per qualche c 6= 0.
Dimostrazione. Per evitare le radici quadrate, scriviamo la disuguaglianza triangolare nella forma equivalente
(5)
ka + bk2 ≤ (kak + kbk)2
4
F IGURA 3. Significato geometrico della disuguaglianza triangolare: kA + Bk ≤ kAk + kBk
Il primo membro della (5) è
ka + bk2 = (a + b) · (a + b) = a · a + 2a · b + b · b = kak2 + 2a · b + kbk2
mentre il secondo membro è
(kak + kbk)2 = kak2 + 2 kak kbk + kbk2
Confrontando queste due relazioni, vediamo che la (5) vale se e solo se si ha
(6)
a · b ≤ kak kbk
Essendo a · b ≤ |a · b|; pertanto la (6) segue dalla disuguaglianza di Cauchy-Schwarz, nella forma espressa
dalla (3). Ciò prova che la disuguaglianza triangolare è una conseguenza della disuguaglianza di CauchySchwarz.
E’ anche vero il viceversa. Cioè, se vale la disuguaglianza triangolare allora anche la (6) vale per a e per −a,
e da ciò segue la (2). Se nella (5) vale l’uguaglianza, allora a · b = kak kbk, così b = ca per qualche scalare
c ∈ R. Quindi a · b = |c| kak2 e kak kbk = |c| kak2 . Se a 6= 0 ciò implica che |c| ≥ 0. Se b 6= 0 allora
b = ca con c > 0.
1.3. Ortogonalità dei vettori. Nel corso della dimostrazione della disuguaglianza triangolare (teorema 1.2),
si era ottenuta la formula
(7)
ka + bk2 = kak2 + 2a · b + kbk2
che è valida per ogni coppia di vettori a e b in Vn . La figura 4 mostra due vettori geometrici perpendicolari
nel piano. Essi determinano un triangolo rettangolo i cui cateti hanno lunghezza kak e kbk e la cui ipotenusa
ha lunghezza ka + bk. Il teorema di Pitagora dice che
(8)
ka + bk2 = kak2 + kbk2
Confrontandola con la (7), vediamo che A · B = 0. In altre parole il prodotto scalare di due vettori perpendicolari in un piano è zero. Questa proprietà è la motivazione per la definizione di perpendicolarità di vettori in Vn .
Definizione 1.7. Due vettori a e b in Vn si dicono perpendicolari (od ortogonali) se a · b = 0.
L’equazione (7) mostra che due vettori a e b in Vn sono ortogonali se e solo se ka + bk2 = kak2 + kbk2 .
Questa identità si chiama identità pitagorica in Vn .
5
F IGURA 4. Due vettori perpendicolari soddisfano l’identità pitagorica: ka + bk2 = kak2 + kbk2
1.4. Spazio lineare generato da un insieme finito di vettori. Sia S = {A1 , ..., Ak } un insieme non vuoto
costituito da k vettori in Vn , dove il numero k di vettori può anche essere diverso dalla dimensione n dello
spazio. Se un vettore X in Vn può essere rappresentato come combinazione lineare di A1 , ..., An , diciamo
X=
n
X
ci Ai
i=1
allora diremo che l’insieme S genera il vettore X.
Definizione 1.8. L’insieme di tutti i vettori generati da S si chiama spazio lineare generato da S e si indica
con L(S).
Lo spazio lineare generato da S non è altro che l’insieme di tutte le possibili combinazioni lineari dei vettori
si S. Si osserva che le combinazioni lineari dei vettori di L(S) sono ancora in L(S). Si dice che S genera
l’intero spazio Vn se L(S) = Vn .
Teorema 1.7. Un insieme S genera ogni vettore di L(S) in maniera univoca se e solo se S genera in modo
univoco il vettore nullo.
Teorema 1.8. Sia S = {A1 , ..., Ak } un insieme linearmente indipendente di k vettori in Vn , e sia L(S)lo
spazio lineare generato. Allora, ogni insieme di k + 1 vettori in L(S) è linearmente dipendente.
Dimostriamo ora che la nozione di ortogonalità è legata strettamente all’indipendenza lineare.
Definizione 1.9. Un insieme S = {A1 , ..., Ak } di vettori in Vn è detto insieme ortogonale se ∀i 6= j si ha
Ai · Aj = 0. In altre parole due vettori distinti qualsiasi in un insieme ortogonale sono perpendicolari.
Teorema 1.9. Ogni insieme ortogonale S = {A1 , ..., Ak } di vettori non nulli in Vn è linearmente indipendente. Inoltre, se S genera un vettore X, diciamo
(9)
X=
k
X
ci Ai
i=1
allora gli scalari c1 , ..., ck sono dati dalle relazioni
X Aj
∀j = 1, 2, ..., k
(10)
cj =
Aj Aj
1.5. Basi di uno spazio vettoriale. Un insieme di vettori di uno spazio vettoriale si dice sistema di generatori se ogni vettore v dello spazio vettoriale si scrive come combinazione lineare dei vettori dell’insieme. I
coefficienti della combinazione lineare si chiamano componenti di v rispetto al sistema di generatori scelto.
Definizione 1.10. Un insieme S = {A1 , ..., Ak } di vettori in Vn è una base per Vn se S genera ogni vettore
in Vn in modo univoco. Se, inoltre, è ortogonale allora S è detto base ortogonale.
Così una base è un insieme di vettori linearmente indipendente che genera l’intero spazio Vn . L’insieme dei
versori delle coordinate è un esempio di base ortogonale. Ora si tratta di dimostrare che ogni base contiene lo
stesso numero di vettori.
6
Teorema 1.10. In un dato spazio vettoriale Vn le basi hanno le seguenti proprietà:
Ogni base contiene esattamente n vettori
Ogni insieme di vettori linearmente indipendenti è un sottoinsieme di qualche base.
Ogni insieme di n vettori linearmente indipendenti è una base.
a)
b)
c)
1.6. Costruzione di insiemi ortogonali: procedimento di Gram-Schmidt.
Sappiamo che ogni spazio lineare di dimensione finita possiede una base finita. Per base di uno spazio si
intende un sistema finito di generatori linearmente indipendenti dallo spazio vettoriale stesso. Se lo spazio è
euclideo, possiamo sempre costruire una base ortogonale. Il risultato si ottiene come conseguenza di un teorema
generale la cui dimostrazione indica come si costruiscano degli insiemi ortogonali in ogni spazio euclideo, di
dimensione finita o no. La costruzione è detta ortogonalizzazione di Gram-Schmidt, in onore di J. P. Gram
(1850-1916) e di E. Schmidt (1845-1921).
Teorema 1.11. TEOREMA DI ORTOGONALIZZAZIONE. Consideriamo una successione, finita o infinita,
x1 , x2 , ..., di vettori di uno spazio euclideo V ; sia L(x1 , ..., xk ) il sottospazio generato dai primi k elementi
della successione stessa. Allora esiste in corrispondenza una successione di elementi y1 , y2 , ... di V che per
ogni intero k possiede le seguenti proprietà:
a) L’elemento yk è ortogonale ad ogni elemento di L (y1 , . . . , yk−1 ).
b) Il sottospazio generato da y1 , . . . , yk coincide con quello generato da x1 , . . . , xk
L (y1 , . . . , yk ) = L (x1 , . . . , xk )
0
0
c) La successione y1 , y2 , . . . è univocamente determinata a meno di fattori scalari. Cioè, se y1 , y2 , . . . è
un’altra successione di elementi di V verificante le proprietà a) e b) per ogni k c’è uno scalare ck tale che
0
yk = ck yk .
Dimostrazione. Costruiamo gli elementi y1 , y2 , . . . per induzione. Per iniziare il procedinento, assumiamo
y1 = x1 . Ora supponiamo di aver costruito y1 , . . . , yr in modo che a) e b) siano verificate per k = r e
definiamo yr+1 così:
(11)
yr+1 = xr+1 −
r
X
ai yi
i=1
dove gli scalari a1 , . . . , ar sono al momento incogniti. Per j ≤ r il prodotto scalare di yr+1 per yj è dato da
(yr+1 , yj ) = (xr+1 , yj ) −
r
X
ai (yi , yj ) = (xr+1 , yj ) − aj (yj , yj )
i=1
poiché (yi , yj ) = 0 se i 6= j. Se yj 6= 0, possiamo rendere yr+1 ortogonale a yj ponendo
(12)
aj =
(xr+1 , yj )
(yj , yj )
Se yj = 0, allora yr+1 è ortogonale a yj per ogni scelta di aj , e in questo caso scegliamo aj = 0. Allora
l’elemento yr+1 è ben definito e ortogonale a ciascuno dei precedenti elementi y1 , . . . , yr . Esso è allora
ortogonale ad ogni elemento del sottospazio lineare
L (y1 , . . . , yr )
Ciò dimostra a) per k = r + 1
Per dimostrare b) con k = r+1, faremo vedere che L (y1 , . . . , yr+1 ) = L (x1 , . . . , xr+1 ). I primi r elementi
y1 , . . . , yr sono in
L (x1 , . . . , xr )
7
e quindi essi sono anche nel sottospazio di dimensione maggiore L (x1 , . . . , xr+1 ). Il nuovo elemento yr+1
fornito dalla (11) è differenza di due elementi L (x1 , . . . , xr+1 ) e quindi è anch’esso in L (x1 , . . . , xr+1 ). Ciò
dimostra che
L (y1 , . . . , yr+1 ) ⊆ L (x1 , . . . , xr+1 )
La (11) mostra che xr+1 è somma di due elementi di L (y1 , . . . , yr+1 ) e quindi un simile argomento ci dà
l’inclusione nell’altra direzione:
L (x1 , . . . , xr+1 ) ⊆ L (y1 , . . . , yr+1 )
Ciò dimostra b) quando k = r + 1. Allora a) e b) sono entrambe dimostrate per induzione su k.
Finalmente dimostriamo c), ancora per induzione su k. Il caso k = 1 è banale. Allora supponiamo che c) sia
vera per k = r e consideriamo l’elemento yr+1 . In virtù di b) questo elemento appartiene a
L (y1 , . . . , yr+1 )
e così possiamo scrivere
y0 r+1 =
r+1
X
ci yi = zr + cr+1 yr+1
i=1
0
ove zr ∈ L (y1 , . . . , yr ). Vogliamo dimostrare che zr = 0. Per la proprietà a) entrambi gli elementi yr+1 e
cr+1 yr+1 sono ortogonali a zr . Allora la loro differenza è ortogonale a zr . In altre parole zr è ortogonale a sè
stesso; quindi zr = 0. Questo completa la dimostrazione del teorema di ortogonalizzazione.
Nella costruzione precedente, supponiamo che si abbia yr+1 = 0 per qualche r. Allora la (11) mostra che
xr+1 è una combinazione lineare di y1 , . . . , yr , e quindi anche di x1 , . . . , xr . Gli elementi x1 , . . . , xk+1 sono
pertanto linearmente dipendenti. In altre parole, se i primi k elementi x1 , . . . , xk sono linearmente indipendenti,
allora i corrispondenti elementi y1 , . . . , yk sono tutti non nulli. In questo caso i coefficienti ai che compaiono
nella (11) sono dati dalla (12), e le formule che definiscono y1 , . . . , yk diventano
(13)
y1 = x1 ,
yr+1 = xr+1 −
r
X
(xr+1 , yi )
i=1
(yi , yi )
yi
per r = 1, 2, . . . k − 1
Queste formule descrivono il processo di Gram-Schmidt per costruire un insieme ortogonale di elementi
non nulli y1 , . . . , yk che generi lo stesso sottospazio generato da un dato sistema indipendente x1 , . . . , xk . In
particolare, se x1 , . . . , xk è una base per uno spazio euclideo di dimensione finita, allora y1 , . . . , yk è una base
ortogonale per lo stesso spazio. Possiamo poi convertire questa base in una base ortonormale normalizzando
ciascuno degli elementi yi , cioè dividendolo per la sua norma. Allora, come corollario del teorema (1.6), si ha
il seguente:
Teorema 1.12. Ogni spazio euclideo di dimensione finita possiede una base ortonormale.
Se x e y sono elementi di uno spazio euclideo, con y 6= 0, l’elemento
(x, y)
y
(y, y)
si chiama proiezione di x lungo y. Nel procedimento di Gram-Schmidt (13) per ottenere yr+1 si sottraggono
da xr+1 le sue proiezioni lungo ciascuno dei precedenti elementi y1 , . . . , yr .
ESEMPIO. In V4 , determinare una base ortonormale per il sottospazio generato dai tre vettori x1 = (1, −1, 1, −1), x2 =
(5, 1, 1, 1), x3 = (−3, −3, 1, −3).
Soluzione. Applicando il procedimento di Gram-Schmidt si ha
y1 = x1 = (1, −1, 1, −1)
8
y2 = x2 −
(x2 , y1 )
y1 = x2 − y1 = (4, 2, 0, 2)
(y1 , y1 )
(x3 , y1 )
(x3 , y2 )
y1 −
y2 = x3 − y1 + y2 = (0, 0, 0, 0)
(y1 , y1 )
(y2 , y2 )
Poichè y3 = 0, i tre vettori x1 , x2 , x3 sono dipendenti. Ma poiché y1 e y2 non sono nulli, i vettori x1 e
x2 sono indipendenti. Allora L(x1 , x2 , x3 ) è un sottospazio di dimensione 2. L’insieme {y1 , y2 } è una base
ortogonale per questo sottospazio. Dividendo ciascuno dei due vettori per la corrispondente norma, si ottiene
una base ortonormale costituita dai due vettori
y3 = x3 −
1
y1
= (1, −1, 1, −1)
ky1 k
2
e
y2
1
= √ (2, 1, 0, 1)
ky2 k
6
1.7. Polimoni di RLegendre. Consideriamo lo spazio lineare di tutti i polinomi dotati di prodotto scalare così
1
definito (x, y) = −1 x(t)y(t)dt. Tale relazione gode delle proprietà del prodotto scalare descritte nel teorema
1.1.
Consideriamo la successione infinita x0 , x1 , x2 , . . ., ove xn (t) = tn . Quando si applica il teorema di ortogonalizzazione a questa successione si perviene a un’altra successione di polinomi y0 , y1 , y2 , . . ., studiata per
la prima volta dal matematico francese A. M. Legendre (1752-1833) nel corso del suo lavoro sulla teoria del
potenziale. Prima di tutto si ha y0 (t) = x0 (t) = 1. Poiché
Z
1
(y0 , y0 ) =
Z
dt = 2
e
1
(x1 , x0 ) =
−1
tdt = 0
−1
si trova che
y1 (t) = x1 (t) −
(x1 , y0 )
y0 (t) = x1 (t) = t
(y0 , y0 )
Successivamente, calcoliamo
1
Z 1
2
(x2 , y0 ) =
t dt = , (x2 , y1 ) =
t3 dt = 0,
3
−1
−1
per poter utilizzare il procedimento di Gram-Shmidt.
Z
2
y2 (t) = x2 (t) −
Z
1
(y1 , y1 ) =
t2 dt =
−1
2
3
(x2 , y0 )
(x2 , y1 )
1
y0 (t) −
y1 (t) = t2 −
(y0 , y0 )
(y1 , y1 )
3
In modo simile si trova
3
y3 (t) = t3 − t,
5
I polinomi Pn dati da
6
3
y4 (t) = t4 − t2 + ,
7
35
y5 (t) = t5 −
10 3
5
t + t
9
21
(2n)!
1 dn 2
y
(t)
=
(t − 1)n
n
2n (n!)2
2n n! dtn
sono noti come polinomi di Legendre. I polinomi della corrispondente successione ortonormale ϕ0 , ϕ1 , ϕ2 , . . .,
dati da ϕn = kyynn k , si dicono polinomi di Legendre normalizzati. Dalle formule per y0 , . . . , y5 scritte in
precedenza si deduce
q
q
q
q
ϕ0 (t) = 12 , ϕ1 (t) = 32 t, ϕ2 (t) = 12 52 3t2 − 1 , ϕ3 (t) = 12 72 5t3 − 3t ,
q
q
5
3
ϕ4 (t) = 81 92 35t4 − 30t2 + 3t , ϕ5 (t) = 18 11
2 63t − 70t + 15t
Pn (t) =
9
F IGURA
5. Grafici
dei
polinomi
di
Legendre
http://mathworld.wolfram.com/OrthogonalPolynomials.html
Pn
tratti
da
1.8. Complementi ortogonali e proiezioni. Siano V uno spazio euclideo e S un suo sottospazio di dimensione finita. Vogliamo considerare il seguente tipo di problema di approssimazoine: dato un elemento x in
V , determinare in S un elemento la cui distanza da x sia minima. La distanza tra due elementi x, y è, per
definizione, la norrma kx − yk.
Consideriamo il caso particolare in cui V è lo spazio vettoriale V3 e S è un sottospazio bidimensionale,
ovvero un piano passante per l’origine. Dato x in V , il problema è quello di determinare sul piano S quel punto
s che ha distanza minima da x.
Se x ∈ S, allora s = x è chiaramente la soluzione. Se x ∈
/ S, allora il punto più vicino a x si ottiene tracciando la perpendicolare da x al piano. Questo semplice esempio suggerisce un modo di affrontare il problema
generale di approssimazione e giustifica le seguenti argomentazioni.
Definizione 1.11. Sia S un sottoinsieme di uno spazio euclideo V . Un elemento di V si dice ortogonale ad
S se esso è ortogonale ad ogni elemento di S. L’insieme di tutti gli elementi ortogonali a S si denota con S ⊥ e
si dice l’ortogonale di S.
Si verifica facilmente che S ⊥ è un sottospazio di V , indipendentemente dal fatto che S sia o non sia un
sottospazio. Quando S è un sottospazio si dice che S ⊥ è il complemento ortogonale di S.
ESEMPIO. Se S è un piano passante per l’origine, s⊥ è la retta uscente dall’origine e perpendicolare al
piano. Questo esempio dà anche un’interpretazione geometrica del seguente teorema.
Teorema 1.13. TEOREMA DI DECOMPOSIZIONE ORTOGONALE. Siano V uno spazio euclideo e S
un suo sottospazio di dimensione finita. Allora, ogni elemento x di V può essere rappresentato in modo unico
come somma di due elementi, uno ∈ S e uno ∈ S ⊥ . Cioè si ha:
(14)
x = s + s⊥ ,
dove s ∈ S e s⊥ ∈ S ⊥
Inoltre la norma di x è data dalla formula pitagorica
10
F IGURA 6. Interpretazione geometrica del teorema di decomposizione ortogonale in V3 .
2
kxk2 = ksk2 + s⊥ (15)
Dimostrazione. Incominciamo col dimostrare che una decomposizione ortogonale (14) esiste effettivamente.
Poiché S ha dimensione finita, esso possiede una base ortogonale, costituita da un insieme finito di vettori
{e1 , . . . , en }. Dato x, definiamo gli elementi di s e s⊥ come segue:
s=
(16)
n
X
(x, ei ) ei ,
s⊥ = x − s
i=1
Notiamo che ciascun (x, ei ) ei è la proiezione di x lungo ei . L’elemento s è la somma delle sue proiezioni
lungo ciascuno degli elementi base. Poiché s è combinazione lineare degli elementi di base, s è in S. La
definizione di s⊥ mostra che la (16) è vera. Per dimostrare che s⊥ giace in S ⊥ , consideriamo il prodotto scalare
di s⊥ per uno qualsiasi degli elementi base ej . Si ha
s⊥ , ej = (x − s, ej ) = (x, ej ) − (s, ej )
Ma dalla (16) segue che (s, ej ) = (x, ej ), e quindi s⊥ è ortogonale a ej ; quindi, s⊥ è ortogonale ad ogni
elemento di S e ciò significa che s⊥ ∈ S ⊥ .
Dimostriamo ora l’unicità della decomposizione ortogonale (14). Supponiamo che x abbia due decomposizioni differenti e precisamente
(17)
x = s + s⊥
e
x = t + t⊥
dove s e t sono in S e s⊥ e t⊥ sono in S ⊥ . Dalle (17) si ricava s − t = t⊥ − s⊥ . Ma s − t ∈ S e
∈ S ⊥ , quindi s − t è allo stesso tempo perpendicolare e uguale a t⊥ − s⊥ . Poiché 0 è l’unico elemento
ortogonale a sé stesso, si conclude che s − t = 0. Ciò mostra che la decomposizione è unica.
Infine, dimostriamo che la norma di x è data dalla formula (15). Risulta:
t⊥ − s⊥
kxk2 = (x, x) = s + s⊥ , s + s⊥ = (s, s) + s⊥ , s⊥
essendo nulli i rimanenti termini a causa dell’ortogonalità di s e s⊥ . Ciò dimostra la (15).
11
Definizione 1.12. Sia S un sottospazio di dimensione finita di uno spazio euclideo V e sia {e1 , . . . , en } una
base ortonormale per S. Se x ∈ V , l’elemento s definito dalla formula
s=
n
X
(x, ei ) ei
i=1
si chiama la proiezione di x sul sottospazio S.
1.9. Approssimazione di un elemento di uno spazio euclideo con elementi di un sottospazio di dimensione
finita. Teorema 1.14. TEOREMA DI APPROSSIMAZIONE. Sia S un sottospazio di dimensione finita di uno
spazio euclideo V , e sia x un elemento di V . Allora la proiezione di x su S è l’elemento di S che ha distanza
minima da x; cioè, se s è la proiezione di x su S, si ha
kx − sk ≤ kx − tk
per ogni t in S; e il segno di uguaglianza vale se e solo se t = s.
Dimostrazione. Per il teorema 1.8 possiamo scrivere x nella forma x = s + s⊥ con s ∈ S e s⊥ ∈ S ⊥ . Per
ogni t ∈ S si ha poi
x − t = (x − s) + (s − t)
e poichè s − t ∈ S e x − s = s⊥ ∈ S ⊥ , questa è una decomposizione ortogonale di x − t. La norma di x − t
è allora data dalla formula pitagorica
kx − tk2 = kx − sk2 + ks − tk2
D’altra parte ks − tk2 ≥ 0, e dunque risulta kx − tk2 ≥ kx − sk2 e il segno di ugualianza è valido se e solo
se s = t. Ciò completa la dimostrazione.
ESEMPIO. Approssimazione di funzioni continue in [0, 2π] mediante polinomi trigonometrici. Sia V =
C(0, 2π) lo spazio lineare delle funzioni reali continue nell’intervallo [0, 2π] e definiamo un prodotto scalare
R 2π
mediante l’ugualianza (f, g) = 0 f (x)g(x)dx.
Consideriamo il seguente insieme ortonormale di funzioni trigonometriche ϕ0 , ϕ1 , ϕ2 , . . ., ove
1
ϕ0 (x) = √ ,
2π
(18)
cos kx
ϕ2k−1 (x) = √ ,
π
sin kx
ϕ2k (x) = √ ,
π
per k ≥ 1.
I 2n + 1 elementi ϕ0 , ϕ1 , ϕ2 , . . . , ϕ2n generano un sottospazio S di dimensione 2n + 1. Gli elementi di S si
chiamano polinomi trigonometrici.
Se f ∈ C(0, 2π) e se fn è la proiezione di f sul sottospazio S, si ha
fn =
(19)
2n
X
Z
(f, ϕk )ϕk ,
dove (f, ϕk ) =
2π
f (x)ϕk (x)dx.
0
k=0
I numeri (f, ϕk ) si chiamano coefficienti di Fourier di f . Ricorrendo alle (18) possiamo scrivere le (19)
nella forma
n
X
1
(ak cos kx + bk sin kx),
fn (x) = a0 +
2
(20)
k=1
dove
ak =
1
π
Z
2π
f (x) cos kxdx ,
0
bk =
1
π
Z
2π
f (x) sin kxdx ,
0
a0 =
1
π
Z
2π
f (x)dx
0
per k = 1, 2, . . . , n. Il teorema di approssimazione ci dice che il polinomio (20) approssima f meglio che
qualsiasi altro polinomio trigonometrico di S, nel senso che la norma kf − fn k è la minima possibile.
12
1.10. Esempio. Approssimazione di funzioni continue in [−1, 1] mediante polinomi di grado ≤ n. Sia
R1
V = C(−1, 1) lo spazio delle funzioni reali continue in [−1, 1] e sia (f, g) = −1 f (x)g(x)dx. Gli n + 1
polinomi di Legendre normalizzati ϕ0 , ϕ1 , ϕ2 , . . . , ϕn , introdotti precedentemente, generano un sottospazio S
di dimensione n + 1 consistente di polinomi di grado ≤ n. Se f ∈ C(−1, 1), sia fn la proiezione di f su S.
Risulta
Z 1
n
X
fn =
(f, ϕk )ϕk , dove (f, ϕk ) =
f (t)ϕk (t)dt.
−1
k=0
Questo è il polinomio di grado ≤ n per il quale la norma kf − fn k è minima.
Per esempio, quando f (t) = sin πt, i coefficienti (f, ϕk ) sono dati da
Z 1
(f, ϕk ) =
sin πtϕk (t)dt.
−1
In particolare, essendo f (t) una funzione dispari, i contributi (f, ϕk ) = 0, k pari .
r
√
Z 1r
3
32
6
(f, ϕ1 ) =
t sin πtdt =
=
2
2π
π
−1
r
√
Z 1
1 7 2
14(−15 + π 2 )
(f, ϕ3 ) =
(5t − 3t) sin πtdt =
2
π3
−1 2
√
3
6
(f, ϕ1 )ϕ1 =
ϕ1 (t) = t
π
π
√
14(−15 + π 2 )
7(−15 + π 2 )(5t3 − 3t)
(f, ϕ3 )ϕ3 =
ϕ
=
3
π3
2π 3
Allora il polinomio di terzo grado f3 (t) più vicino a sin πt in [−1, 1] è
3
7(−15 + π 2 )(5t3 − 3t)
t+
π
2π 3
Approssimando i coefficienti del polinomio a quattro cifre decimali si ottiene
f3 (t) = (f, ϕ1 )ϕ1 + (f, ϕ3 )ϕ3 =
f3 (t) ' 2.6922t − 2.8956t3
La figura 7 mostra la bontà dell’approssimazione ottenuta utilizzando il polinomio di Legendre di grado 3.
La curva in verde f (t) = sin πx mentre quella in rosso è il polinomio approssimante f3 (t).
F IGURA 7. Grafico che mostra la bontà di approssimazione della funzione f (x) = sin πx con
un polinomio di Legendre di terzo grado. La curva in verde è f (x) mentre quella in rosso è il
polinomio approssimante f3 (t).
13
R IFERIMENTI BIBLIOGRAFICI
[1] Tom M. Apostol, Calcolo. Vol.2: geometria, Bollati Boringhieri, 1977
[2] M. Bianchi, A. Gillio, Introduzione alla matematica discreta, McGraw-Hill, 2001
[3] Eric
W.
Weisstein,
Orthogonal
Polynomials,
from
MathWorld–A
Wolfram
Web
http://mathworld.wolfram.com/OrthogonalPolynomials.html
[4] Legendre Polynomials, from Wikipedia, the free encyclopedia. http://en.wikipediqa.org/wiki/Legendre_polynomials
14
Resource.