Relazione Spazio dei polinomi ortogonali - Filibusta
Transcript
Relazione Spazio dei polinomi ortogonali - Filibusta
U NIVERSITÀ DEGLI S TUDI DI M ILANO Facoltà di Scienze Matematiche, Fisiche e Naturali Dipartimento di Tecnologie dell’Informazione Corso di Laurea in Informatica S PAZIO DEI POLINOMI ORTOGONALI Prof. Massimo Cariboni Relazione di Matematica del continuo Daniele Bonomi (703870) Yari Melzani (703242) Anno Accademico 2005/2006 SPAZIO DEI POLINOMI ORTOGONALI I NDICE 1. Premesse 1.1. Prodotto scalare e disuguaglianze 1.2. Lunghezza o norma di un vettore 1.3. Ortogonalità dei vettori 1.4. Spazio lineare generato da un insieme finito di vettori 1.5. Basi di uno spazio vettoriale 1.6. Costruzione di insiemi ortogonali: procedimento di Gram-Schmidt 1.7. Polimoni di Legendre 1.8. Complementi ortogonali e proiezioni 1.9. Approssimazione di un elemento di uno spazio euclideo con elementi di un sottospazio di dimensione finita 1.10. Esempio. Approssimazione di funzioni continue in [−1, 1] mediante polinomi di grado ≤ n Riferimenti bibliografici 2 2 3 5 6 6 7 9 10 12 13 14 1. P REMESSE In questa breve relazione, cercheremo di mostrare come i polinomi ortogonali siano utili in molti ambiti sia della matematica che della fisica per approssimare funzioni. Dopo un breve cenno riguardante i rudimenti dell’algebra vettoriale, introdurremo il concetto di ortogonalità tra vettori per poter costruire insiemi di vettori ortogonali, mediante il procedimento di Gram-Schmidt. Illustreremo più nel dettaglio la costruzione di una particolare famiglia di polinomi, detti di Legendre. Nell’ultima parte della relazione mostreremo come è possibile approssimare un elemento x di uno spazio vettoriale euclideo V con un elemento y appartenente ad un sottospazio di V , in modo che la bontà dell’approssimazione sia massima, ossia la norma ||x − y|| sia la più piccola possibile. Per finire costruiremo uno spazio di polinomi trigonometrici, in grado di approssimare al meglio delle funzioni continue nell’intervallo chiuso [−1, 1]. 1.1. Prodotto scalare e disuguaglianze. In matematica, il prodotto scalare è una particolare operazione binaria che prende due vettori e restituisce un numero. Il prodotto scalare più usato è il prodotto scalare canonico, calcolato sui vettori di uno spazio euclideo. Definizione 1.1. Se a = (a1 , . . . , an ) e b = (b1 , . . . , bn ) sono due vettori di Vn , il loro prodotto scalare canonico è indicato con a · b o (a, b) ed è così definito a · b = (a, b) = n X ak bk k=1 Possiamo anche scrivere il prodotto scalare nella forma equivalente a · b = δik ai bk dove δik è detto simbolo di Kronecker ed è così definito: 0 se i 6= k δik ≡ 1 se i = k Perciò per calcolare a · b si moltiplicano le componenti di egual posto di a e b e quindi si sommano tutti i prodotti. Il prodotto scalare gode delle seguenti proprietà di tipo algebrico. 2 Teorema 1.2. Qualunque siano i vettori a, b, c ∈ Vn e per ogni scalare k ∈ R valgono le seguenti proprietà: a) b) c) d) e) a·b=b·a a · (b + c) = a · b + a · c k(a · b) = (ka) · b = a · (kb) a · a > 0 se a 6= 0 a · a = 0 se a = 0 (proprietà commutativa) (proprietà distributiva) (omogeneità) (positività) Le prime tre proprietà P 2 sono una facile conseguenza della definizione. Per verificare le ultime due, usiamo la relazione a · a = ak . Poichè ogni addendo non è mai negativo, la somma è sempre positiva. Insomma, la somma è zero se e solo se ogni addendo è zero e ciò può succedere solo se a = 0. Ricordiamo anche un’importante disuguaglianza che riguarda il prodotto scalare e che è fondamentale nell’algebra vettoriale. Teorema 1.3. DISUGUAGLIANZA DI CAUCHY-SCHWARZ. Se a e b sono due vettori qualsiasi di Vn , si ha (1) (a · b)2 ≤ (a · a)(b · b) Inoltre, il segno di uguaglianza vale se e solo se uno dei vettori è multiplo dell’altro. Dimostrazione. Notiamo dapprima che la (1) diventa banale se uno dei vettori a o b è il vettore nullo. Possiamo quindi supporre che a e b siano non nulli. Sia c un vettore, combinazione lineare di a e b c = xa − yb ove x=b·b e y =a·b Le proprietà del prodotto scalare d) ed e) implicano che c · c ≥ 0. Basterà scrivere questo fatto in termini di x e y per ottenere la (1). Per esprimere c · c in termini di x e y si ricorre alle proprietà a), b) e c), ottenendo c · c = (xa − yb) · (xa − yb) = x2 (a · a) − 2xy(a · b) + y 2 (b · b) Usando la definizioni di x e y e la disuguaglianza c · c ≥ 0, si ottiene (b · b)2 (a · a) − 2(a · b)2 (b · b) + (a · b)2 (b · b) ≥ 0 Raccogliendo b · b, risulta (b · b) (b · b)(a · a) − (a · b)2 ≥ 0 La proprietà d) implica che b · b > 0 in quanto b 6= 0; così si può dividere per (b · b) e ottenere (b · b)(a · a) − (a · b)2 ≥ 0 cioè la (1). Questa dimostrazione fa vedere che il segno di uguaglianza vale nella (1) se e solo se c = 0. Ma c = 0 se e solo se xa = yb. Ne segue che l’uguaglianza vale nella (1) se e solo se uno dei vettori è un multiplo scalare dell’altro. 1.2. Lunghezza o norma di un vettore. La figura 1 mostra il vettore geometrico dall’origine a un punto a = (a1 , a2 ) nel piano. Dal teorema di Pitagora si deduce che la lunghezza (o norma) di a, che indichiamo con kak, è data dalla relazione q kak = a21 + a22 Situazione analoga nello spazio tridimensionale è illustrata nella figura 2. Applicando due volte il teorema di Pitagora si trova che la lunghezza di un vettore geometrico a in uno spazio tridimensionale è data da q kak = a21 + a22 + a23 p Si noti che in ogni caso la lunghezza di a è data da (a · a), cioè dalla radice quadrata del prodotto scalare di A per se stesso. Questa formula suggerisce un modo per introdurre il concetto di lunghezza in uno spazio a n dimensioni. 3 F IGURA 1. Lunghezza di un vettore in V2 . F IGURA 2. Lunghezza di un vettore in V3 . Definizione 1.4. Se a è un vettore in Vn , si chiama norma del vettore e si indica con ||a|| la quantità: p kak = (a · a) Teorema 1.5. Se a è un vettore in Vn e se c ∈ R è uno scalare, si hanno le seguenti proprietà: a) kak > 0 se a 6= 0 (positività) b) kak = 0 se a = 0 c) kcak = |c| kak (omogeneità) La disuguaglianza di Cauchy-Schwarz può essere anche espressa in termini di norma. Precisamente (2) (a · b)2 ≤ kak2 kbk2 Prendendo le radici quadrate positive dei due membri, si può anche scrivere la disuguaglianza di CauchySchwarz nella forma equivalente (3) |a · b| ≤ kak kbk Useremo ora la disuguaglianza di Cauchy-Schwarz per dedurre la disuguaglianza triangolare. Teorema 1.6. DISUGUAGLIANZA TRIANGOLARE. Se a e b sono vettori in Vn , si ha (4) ka + bk ≤ kak + kbk Inoltre il segno di uguaglianza si ha se e solo se a = 0, b = 0 o b = ca per qualche c 6= 0. Dimostrazione. Per evitare le radici quadrate, scriviamo la disuguaglianza triangolare nella forma equivalente (5) ka + bk2 ≤ (kak + kbk)2 4 F IGURA 3. Significato geometrico della disuguaglianza triangolare: kA + Bk ≤ kAk + kBk Il primo membro della (5) è ka + bk2 = (a + b) · (a + b) = a · a + 2a · b + b · b = kak2 + 2a · b + kbk2 mentre il secondo membro è (kak + kbk)2 = kak2 + 2 kak kbk + kbk2 Confrontando queste due relazioni, vediamo che la (5) vale se e solo se si ha (6) a · b ≤ kak kbk Essendo a · b ≤ |a · b|; pertanto la (6) segue dalla disuguaglianza di Cauchy-Schwarz, nella forma espressa dalla (3). Ciò prova che la disuguaglianza triangolare è una conseguenza della disuguaglianza di CauchySchwarz. E’ anche vero il viceversa. Cioè, se vale la disuguaglianza triangolare allora anche la (6) vale per a e per −a, e da ciò segue la (2). Se nella (5) vale l’uguaglianza, allora a · b = kak kbk, così b = ca per qualche scalare c ∈ R. Quindi a · b = |c| kak2 e kak kbk = |c| kak2 . Se a 6= 0 ciò implica che |c| ≥ 0. Se b 6= 0 allora b = ca con c > 0. 1.3. Ortogonalità dei vettori. Nel corso della dimostrazione della disuguaglianza triangolare (teorema 1.2), si era ottenuta la formula (7) ka + bk2 = kak2 + 2a · b + kbk2 che è valida per ogni coppia di vettori a e b in Vn . La figura 4 mostra due vettori geometrici perpendicolari nel piano. Essi determinano un triangolo rettangolo i cui cateti hanno lunghezza kak e kbk e la cui ipotenusa ha lunghezza ka + bk. Il teorema di Pitagora dice che (8) ka + bk2 = kak2 + kbk2 Confrontandola con la (7), vediamo che A · B = 0. In altre parole il prodotto scalare di due vettori perpendicolari in un piano è zero. Questa proprietà è la motivazione per la definizione di perpendicolarità di vettori in Vn . Definizione 1.7. Due vettori a e b in Vn si dicono perpendicolari (od ortogonali) se a · b = 0. L’equazione (7) mostra che due vettori a e b in Vn sono ortogonali se e solo se ka + bk2 = kak2 + kbk2 . Questa identità si chiama identità pitagorica in Vn . 5 F IGURA 4. Due vettori perpendicolari soddisfano l’identità pitagorica: ka + bk2 = kak2 + kbk2 1.4. Spazio lineare generato da un insieme finito di vettori. Sia S = {A1 , ..., Ak } un insieme non vuoto costituito da k vettori in Vn , dove il numero k di vettori può anche essere diverso dalla dimensione n dello spazio. Se un vettore X in Vn può essere rappresentato come combinazione lineare di A1 , ..., An , diciamo X= n X ci Ai i=1 allora diremo che l’insieme S genera il vettore X. Definizione 1.8. L’insieme di tutti i vettori generati da S si chiama spazio lineare generato da S e si indica con L(S). Lo spazio lineare generato da S non è altro che l’insieme di tutte le possibili combinazioni lineari dei vettori si S. Si osserva che le combinazioni lineari dei vettori di L(S) sono ancora in L(S). Si dice che S genera l’intero spazio Vn se L(S) = Vn . Teorema 1.7. Un insieme S genera ogni vettore di L(S) in maniera univoca se e solo se S genera in modo univoco il vettore nullo. Teorema 1.8. Sia S = {A1 , ..., Ak } un insieme linearmente indipendente di k vettori in Vn , e sia L(S)lo spazio lineare generato. Allora, ogni insieme di k + 1 vettori in L(S) è linearmente dipendente. Dimostriamo ora che la nozione di ortogonalità è legata strettamente all’indipendenza lineare. Definizione 1.9. Un insieme S = {A1 , ..., Ak } di vettori in Vn è detto insieme ortogonale se ∀i 6= j si ha Ai · Aj = 0. In altre parole due vettori distinti qualsiasi in un insieme ortogonale sono perpendicolari. Teorema 1.9. Ogni insieme ortogonale S = {A1 , ..., Ak } di vettori non nulli in Vn è linearmente indipendente. Inoltre, se S genera un vettore X, diciamo (9) X= k X ci Ai i=1 allora gli scalari c1 , ..., ck sono dati dalle relazioni X Aj ∀j = 1, 2, ..., k (10) cj = Aj Aj 1.5. Basi di uno spazio vettoriale. Un insieme di vettori di uno spazio vettoriale si dice sistema di generatori se ogni vettore v dello spazio vettoriale si scrive come combinazione lineare dei vettori dell’insieme. I coefficienti della combinazione lineare si chiamano componenti di v rispetto al sistema di generatori scelto. Definizione 1.10. Un insieme S = {A1 , ..., Ak } di vettori in Vn è una base per Vn se S genera ogni vettore in Vn in modo univoco. Se, inoltre, è ortogonale allora S è detto base ortogonale. Così una base è un insieme di vettori linearmente indipendente che genera l’intero spazio Vn . L’insieme dei versori delle coordinate è un esempio di base ortogonale. Ora si tratta di dimostrare che ogni base contiene lo stesso numero di vettori. 6 Teorema 1.10. In un dato spazio vettoriale Vn le basi hanno le seguenti proprietà: Ogni base contiene esattamente n vettori Ogni insieme di vettori linearmente indipendenti è un sottoinsieme di qualche base. Ogni insieme di n vettori linearmente indipendenti è una base. a) b) c) 1.6. Costruzione di insiemi ortogonali: procedimento di Gram-Schmidt. Sappiamo che ogni spazio lineare di dimensione finita possiede una base finita. Per base di uno spazio si intende un sistema finito di generatori linearmente indipendenti dallo spazio vettoriale stesso. Se lo spazio è euclideo, possiamo sempre costruire una base ortogonale. Il risultato si ottiene come conseguenza di un teorema generale la cui dimostrazione indica come si costruiscano degli insiemi ortogonali in ogni spazio euclideo, di dimensione finita o no. La costruzione è detta ortogonalizzazione di Gram-Schmidt, in onore di J. P. Gram (1850-1916) e di E. Schmidt (1845-1921). Teorema 1.11. TEOREMA DI ORTOGONALIZZAZIONE. Consideriamo una successione, finita o infinita, x1 , x2 , ..., di vettori di uno spazio euclideo V ; sia L(x1 , ..., xk ) il sottospazio generato dai primi k elementi della successione stessa. Allora esiste in corrispondenza una successione di elementi y1 , y2 , ... di V che per ogni intero k possiede le seguenti proprietà: a) L’elemento yk è ortogonale ad ogni elemento di L (y1 , . . . , yk−1 ). b) Il sottospazio generato da y1 , . . . , yk coincide con quello generato da x1 , . . . , xk L (y1 , . . . , yk ) = L (x1 , . . . , xk ) 0 0 c) La successione y1 , y2 , . . . è univocamente determinata a meno di fattori scalari. Cioè, se y1 , y2 , . . . è un’altra successione di elementi di V verificante le proprietà a) e b) per ogni k c’è uno scalare ck tale che 0 yk = ck yk . Dimostrazione. Costruiamo gli elementi y1 , y2 , . . . per induzione. Per iniziare il procedinento, assumiamo y1 = x1 . Ora supponiamo di aver costruito y1 , . . . , yr in modo che a) e b) siano verificate per k = r e definiamo yr+1 così: (11) yr+1 = xr+1 − r X ai yi i=1 dove gli scalari a1 , . . . , ar sono al momento incogniti. Per j ≤ r il prodotto scalare di yr+1 per yj è dato da (yr+1 , yj ) = (xr+1 , yj ) − r X ai (yi , yj ) = (xr+1 , yj ) − aj (yj , yj ) i=1 poiché (yi , yj ) = 0 se i 6= j. Se yj 6= 0, possiamo rendere yr+1 ortogonale a yj ponendo (12) aj = (xr+1 , yj ) (yj , yj ) Se yj = 0, allora yr+1 è ortogonale a yj per ogni scelta di aj , e in questo caso scegliamo aj = 0. Allora l’elemento yr+1 è ben definito e ortogonale a ciascuno dei precedenti elementi y1 , . . . , yr . Esso è allora ortogonale ad ogni elemento del sottospazio lineare L (y1 , . . . , yr ) Ciò dimostra a) per k = r + 1 Per dimostrare b) con k = r+1, faremo vedere che L (y1 , . . . , yr+1 ) = L (x1 , . . . , xr+1 ). I primi r elementi y1 , . . . , yr sono in L (x1 , . . . , xr ) 7 e quindi essi sono anche nel sottospazio di dimensione maggiore L (x1 , . . . , xr+1 ). Il nuovo elemento yr+1 fornito dalla (11) è differenza di due elementi L (x1 , . . . , xr+1 ) e quindi è anch’esso in L (x1 , . . . , xr+1 ). Ciò dimostra che L (y1 , . . . , yr+1 ) ⊆ L (x1 , . . . , xr+1 ) La (11) mostra che xr+1 è somma di due elementi di L (y1 , . . . , yr+1 ) e quindi un simile argomento ci dà l’inclusione nell’altra direzione: L (x1 , . . . , xr+1 ) ⊆ L (y1 , . . . , yr+1 ) Ciò dimostra b) quando k = r + 1. Allora a) e b) sono entrambe dimostrate per induzione su k. Finalmente dimostriamo c), ancora per induzione su k. Il caso k = 1 è banale. Allora supponiamo che c) sia vera per k = r e consideriamo l’elemento yr+1 . In virtù di b) questo elemento appartiene a L (y1 , . . . , yr+1 ) e così possiamo scrivere y0 r+1 = r+1 X ci yi = zr + cr+1 yr+1 i=1 0 ove zr ∈ L (y1 , . . . , yr ). Vogliamo dimostrare che zr = 0. Per la proprietà a) entrambi gli elementi yr+1 e cr+1 yr+1 sono ortogonali a zr . Allora la loro differenza è ortogonale a zr . In altre parole zr è ortogonale a sè stesso; quindi zr = 0. Questo completa la dimostrazione del teorema di ortogonalizzazione. Nella costruzione precedente, supponiamo che si abbia yr+1 = 0 per qualche r. Allora la (11) mostra che xr+1 è una combinazione lineare di y1 , . . . , yr , e quindi anche di x1 , . . . , xr . Gli elementi x1 , . . . , xk+1 sono pertanto linearmente dipendenti. In altre parole, se i primi k elementi x1 , . . . , xk sono linearmente indipendenti, allora i corrispondenti elementi y1 , . . . , yk sono tutti non nulli. In questo caso i coefficienti ai che compaiono nella (11) sono dati dalla (12), e le formule che definiscono y1 , . . . , yk diventano (13) y1 = x1 , yr+1 = xr+1 − r X (xr+1 , yi ) i=1 (yi , yi ) yi per r = 1, 2, . . . k − 1 Queste formule descrivono il processo di Gram-Schmidt per costruire un insieme ortogonale di elementi non nulli y1 , . . . , yk che generi lo stesso sottospazio generato da un dato sistema indipendente x1 , . . . , xk . In particolare, se x1 , . . . , xk è una base per uno spazio euclideo di dimensione finita, allora y1 , . . . , yk è una base ortogonale per lo stesso spazio. Possiamo poi convertire questa base in una base ortonormale normalizzando ciascuno degli elementi yi , cioè dividendolo per la sua norma. Allora, come corollario del teorema (1.6), si ha il seguente: Teorema 1.12. Ogni spazio euclideo di dimensione finita possiede una base ortonormale. Se x e y sono elementi di uno spazio euclideo, con y 6= 0, l’elemento (x, y) y (y, y) si chiama proiezione di x lungo y. Nel procedimento di Gram-Schmidt (13) per ottenere yr+1 si sottraggono da xr+1 le sue proiezioni lungo ciascuno dei precedenti elementi y1 , . . . , yr . ESEMPIO. In V4 , determinare una base ortonormale per il sottospazio generato dai tre vettori x1 = (1, −1, 1, −1), x2 = (5, 1, 1, 1), x3 = (−3, −3, 1, −3). Soluzione. Applicando il procedimento di Gram-Schmidt si ha y1 = x1 = (1, −1, 1, −1) 8 y2 = x2 − (x2 , y1 ) y1 = x2 − y1 = (4, 2, 0, 2) (y1 , y1 ) (x3 , y1 ) (x3 , y2 ) y1 − y2 = x3 − y1 + y2 = (0, 0, 0, 0) (y1 , y1 ) (y2 , y2 ) Poichè y3 = 0, i tre vettori x1 , x2 , x3 sono dipendenti. Ma poiché y1 e y2 non sono nulli, i vettori x1 e x2 sono indipendenti. Allora L(x1 , x2 , x3 ) è un sottospazio di dimensione 2. L’insieme {y1 , y2 } è una base ortogonale per questo sottospazio. Dividendo ciascuno dei due vettori per la corrispondente norma, si ottiene una base ortonormale costituita dai due vettori y3 = x3 − 1 y1 = (1, −1, 1, −1) ky1 k 2 e y2 1 = √ (2, 1, 0, 1) ky2 k 6 1.7. Polimoni di RLegendre. Consideriamo lo spazio lineare di tutti i polinomi dotati di prodotto scalare così 1 definito (x, y) = −1 x(t)y(t)dt. Tale relazione gode delle proprietà del prodotto scalare descritte nel teorema 1.1. Consideriamo la successione infinita x0 , x1 , x2 , . . ., ove xn (t) = tn . Quando si applica il teorema di ortogonalizzazione a questa successione si perviene a un’altra successione di polinomi y0 , y1 , y2 , . . ., studiata per la prima volta dal matematico francese A. M. Legendre (1752-1833) nel corso del suo lavoro sulla teoria del potenziale. Prima di tutto si ha y0 (t) = x0 (t) = 1. Poiché Z 1 (y0 , y0 ) = Z dt = 2 e 1 (x1 , x0 ) = −1 tdt = 0 −1 si trova che y1 (t) = x1 (t) − (x1 , y0 ) y0 (t) = x1 (t) = t (y0 , y0 ) Successivamente, calcoliamo 1 Z 1 2 (x2 , y0 ) = t dt = , (x2 , y1 ) = t3 dt = 0, 3 −1 −1 per poter utilizzare il procedimento di Gram-Shmidt. Z 2 y2 (t) = x2 (t) − Z 1 (y1 , y1 ) = t2 dt = −1 2 3 (x2 , y0 ) (x2 , y1 ) 1 y0 (t) − y1 (t) = t2 − (y0 , y0 ) (y1 , y1 ) 3 In modo simile si trova 3 y3 (t) = t3 − t, 5 I polinomi Pn dati da 6 3 y4 (t) = t4 − t2 + , 7 35 y5 (t) = t5 − 10 3 5 t + t 9 21 (2n)! 1 dn 2 y (t) = (t − 1)n n 2n (n!)2 2n n! dtn sono noti come polinomi di Legendre. I polinomi della corrispondente successione ortonormale ϕ0 , ϕ1 , ϕ2 , . . ., dati da ϕn = kyynn k , si dicono polinomi di Legendre normalizzati. Dalle formule per y0 , . . . , y5 scritte in precedenza si deduce q q q q ϕ0 (t) = 12 , ϕ1 (t) = 32 t, ϕ2 (t) = 12 52 3t2 − 1 , ϕ3 (t) = 12 72 5t3 − 3t , q q 5 3 ϕ4 (t) = 81 92 35t4 − 30t2 + 3t , ϕ5 (t) = 18 11 2 63t − 70t + 15t Pn (t) = 9 F IGURA 5. Grafici dei polinomi di Legendre http://mathworld.wolfram.com/OrthogonalPolynomials.html Pn tratti da 1.8. Complementi ortogonali e proiezioni. Siano V uno spazio euclideo e S un suo sottospazio di dimensione finita. Vogliamo considerare il seguente tipo di problema di approssimazoine: dato un elemento x in V , determinare in S un elemento la cui distanza da x sia minima. La distanza tra due elementi x, y è, per definizione, la norrma kx − yk. Consideriamo il caso particolare in cui V è lo spazio vettoriale V3 e S è un sottospazio bidimensionale, ovvero un piano passante per l’origine. Dato x in V , il problema è quello di determinare sul piano S quel punto s che ha distanza minima da x. Se x ∈ S, allora s = x è chiaramente la soluzione. Se x ∈ / S, allora il punto più vicino a x si ottiene tracciando la perpendicolare da x al piano. Questo semplice esempio suggerisce un modo di affrontare il problema generale di approssimazione e giustifica le seguenti argomentazioni. Definizione 1.11. Sia S un sottoinsieme di uno spazio euclideo V . Un elemento di V si dice ortogonale ad S se esso è ortogonale ad ogni elemento di S. L’insieme di tutti gli elementi ortogonali a S si denota con S ⊥ e si dice l’ortogonale di S. Si verifica facilmente che S ⊥ è un sottospazio di V , indipendentemente dal fatto che S sia o non sia un sottospazio. Quando S è un sottospazio si dice che S ⊥ è il complemento ortogonale di S. ESEMPIO. Se S è un piano passante per l’origine, s⊥ è la retta uscente dall’origine e perpendicolare al piano. Questo esempio dà anche un’interpretazione geometrica del seguente teorema. Teorema 1.13. TEOREMA DI DECOMPOSIZIONE ORTOGONALE. Siano V uno spazio euclideo e S un suo sottospazio di dimensione finita. Allora, ogni elemento x di V può essere rappresentato in modo unico come somma di due elementi, uno ∈ S e uno ∈ S ⊥ . Cioè si ha: (14) x = s + s⊥ , dove s ∈ S e s⊥ ∈ S ⊥ Inoltre la norma di x è data dalla formula pitagorica 10 F IGURA 6. Interpretazione geometrica del teorema di decomposizione ortogonale in V3 . 2 kxk2 = ksk2 + s⊥ (15) Dimostrazione. Incominciamo col dimostrare che una decomposizione ortogonale (14) esiste effettivamente. Poiché S ha dimensione finita, esso possiede una base ortogonale, costituita da un insieme finito di vettori {e1 , . . . , en }. Dato x, definiamo gli elementi di s e s⊥ come segue: s= (16) n X (x, ei ) ei , s⊥ = x − s i=1 Notiamo che ciascun (x, ei ) ei è la proiezione di x lungo ei . L’elemento s è la somma delle sue proiezioni lungo ciascuno degli elementi base. Poiché s è combinazione lineare degli elementi di base, s è in S. La definizione di s⊥ mostra che la (16) è vera. Per dimostrare che s⊥ giace in S ⊥ , consideriamo il prodotto scalare di s⊥ per uno qualsiasi degli elementi base ej . Si ha s⊥ , ej = (x − s, ej ) = (x, ej ) − (s, ej ) Ma dalla (16) segue che (s, ej ) = (x, ej ), e quindi s⊥ è ortogonale a ej ; quindi, s⊥ è ortogonale ad ogni elemento di S e ciò significa che s⊥ ∈ S ⊥ . Dimostriamo ora l’unicità della decomposizione ortogonale (14). Supponiamo che x abbia due decomposizioni differenti e precisamente (17) x = s + s⊥ e x = t + t⊥ dove s e t sono in S e s⊥ e t⊥ sono in S ⊥ . Dalle (17) si ricava s − t = t⊥ − s⊥ . Ma s − t ∈ S e ∈ S ⊥ , quindi s − t è allo stesso tempo perpendicolare e uguale a t⊥ − s⊥ . Poiché 0 è l’unico elemento ortogonale a sé stesso, si conclude che s − t = 0. Ciò mostra che la decomposizione è unica. Infine, dimostriamo che la norma di x è data dalla formula (15). Risulta: t⊥ − s⊥ kxk2 = (x, x) = s + s⊥ , s + s⊥ = (s, s) + s⊥ , s⊥ essendo nulli i rimanenti termini a causa dell’ortogonalità di s e s⊥ . Ciò dimostra la (15). 11 Definizione 1.12. Sia S un sottospazio di dimensione finita di uno spazio euclideo V e sia {e1 , . . . , en } una base ortonormale per S. Se x ∈ V , l’elemento s definito dalla formula s= n X (x, ei ) ei i=1 si chiama la proiezione di x sul sottospazio S. 1.9. Approssimazione di un elemento di uno spazio euclideo con elementi di un sottospazio di dimensione finita. Teorema 1.14. TEOREMA DI APPROSSIMAZIONE. Sia S un sottospazio di dimensione finita di uno spazio euclideo V , e sia x un elemento di V . Allora la proiezione di x su S è l’elemento di S che ha distanza minima da x; cioè, se s è la proiezione di x su S, si ha kx − sk ≤ kx − tk per ogni t in S; e il segno di uguaglianza vale se e solo se t = s. Dimostrazione. Per il teorema 1.8 possiamo scrivere x nella forma x = s + s⊥ con s ∈ S e s⊥ ∈ S ⊥ . Per ogni t ∈ S si ha poi x − t = (x − s) + (s − t) e poichè s − t ∈ S e x − s = s⊥ ∈ S ⊥ , questa è una decomposizione ortogonale di x − t. La norma di x − t è allora data dalla formula pitagorica kx − tk2 = kx − sk2 + ks − tk2 D’altra parte ks − tk2 ≥ 0, e dunque risulta kx − tk2 ≥ kx − sk2 e il segno di ugualianza è valido se e solo se s = t. Ciò completa la dimostrazione. ESEMPIO. Approssimazione di funzioni continue in [0, 2π] mediante polinomi trigonometrici. Sia V = C(0, 2π) lo spazio lineare delle funzioni reali continue nell’intervallo [0, 2π] e definiamo un prodotto scalare R 2π mediante l’ugualianza (f, g) = 0 f (x)g(x)dx. Consideriamo il seguente insieme ortonormale di funzioni trigonometriche ϕ0 , ϕ1 , ϕ2 , . . ., ove 1 ϕ0 (x) = √ , 2π (18) cos kx ϕ2k−1 (x) = √ , π sin kx ϕ2k (x) = √ , π per k ≥ 1. I 2n + 1 elementi ϕ0 , ϕ1 , ϕ2 , . . . , ϕ2n generano un sottospazio S di dimensione 2n + 1. Gli elementi di S si chiamano polinomi trigonometrici. Se f ∈ C(0, 2π) e se fn è la proiezione di f sul sottospazio S, si ha fn = (19) 2n X Z (f, ϕk )ϕk , dove (f, ϕk ) = 2π f (x)ϕk (x)dx. 0 k=0 I numeri (f, ϕk ) si chiamano coefficienti di Fourier di f . Ricorrendo alle (18) possiamo scrivere le (19) nella forma n X 1 (ak cos kx + bk sin kx), fn (x) = a0 + 2 (20) k=1 dove ak = 1 π Z 2π f (x) cos kxdx , 0 bk = 1 π Z 2π f (x) sin kxdx , 0 a0 = 1 π Z 2π f (x)dx 0 per k = 1, 2, . . . , n. Il teorema di approssimazione ci dice che il polinomio (20) approssima f meglio che qualsiasi altro polinomio trigonometrico di S, nel senso che la norma kf − fn k è la minima possibile. 12 1.10. Esempio. Approssimazione di funzioni continue in [−1, 1] mediante polinomi di grado ≤ n. Sia R1 V = C(−1, 1) lo spazio delle funzioni reali continue in [−1, 1] e sia (f, g) = −1 f (x)g(x)dx. Gli n + 1 polinomi di Legendre normalizzati ϕ0 , ϕ1 , ϕ2 , . . . , ϕn , introdotti precedentemente, generano un sottospazio S di dimensione n + 1 consistente di polinomi di grado ≤ n. Se f ∈ C(−1, 1), sia fn la proiezione di f su S. Risulta Z 1 n X fn = (f, ϕk )ϕk , dove (f, ϕk ) = f (t)ϕk (t)dt. −1 k=0 Questo è il polinomio di grado ≤ n per il quale la norma kf − fn k è minima. Per esempio, quando f (t) = sin πt, i coefficienti (f, ϕk ) sono dati da Z 1 (f, ϕk ) = sin πtϕk (t)dt. −1 In particolare, essendo f (t) una funzione dispari, i contributi (f, ϕk ) = 0, k pari . r √ Z 1r 3 32 6 (f, ϕ1 ) = t sin πtdt = = 2 2π π −1 r √ Z 1 1 7 2 14(−15 + π 2 ) (f, ϕ3 ) = (5t − 3t) sin πtdt = 2 π3 −1 2 √ 3 6 (f, ϕ1 )ϕ1 = ϕ1 (t) = t π π √ 14(−15 + π 2 ) 7(−15 + π 2 )(5t3 − 3t) (f, ϕ3 )ϕ3 = ϕ = 3 π3 2π 3 Allora il polinomio di terzo grado f3 (t) più vicino a sin πt in [−1, 1] è 3 7(−15 + π 2 )(5t3 − 3t) t+ π 2π 3 Approssimando i coefficienti del polinomio a quattro cifre decimali si ottiene f3 (t) = (f, ϕ1 )ϕ1 + (f, ϕ3 )ϕ3 = f3 (t) ' 2.6922t − 2.8956t3 La figura 7 mostra la bontà dell’approssimazione ottenuta utilizzando il polinomio di Legendre di grado 3. La curva in verde f (t) = sin πx mentre quella in rosso è il polinomio approssimante f3 (t). F IGURA 7. Grafico che mostra la bontà di approssimazione della funzione f (x) = sin πx con un polinomio di Legendre di terzo grado. La curva in verde è f (x) mentre quella in rosso è il polinomio approssimante f3 (t). 13 R IFERIMENTI BIBLIOGRAFICI [1] Tom M. Apostol, Calcolo. Vol.2: geometria, Bollati Boringhieri, 1977 [2] M. Bianchi, A. Gillio, Introduzione alla matematica discreta, McGraw-Hill, 2001 [3] Eric W. Weisstein, Orthogonal Polynomials, from MathWorld–A Wolfram Web http://mathworld.wolfram.com/OrthogonalPolynomials.html [4] Legendre Polynomials, from Wikipedia, the free encyclopedia. http://en.wikipediqa.org/wiki/Legendre_polynomials 14 Resource.