вбгб деажб диз £ © вб ¤ £ ¤ гбг con () %C34343D%E(# ed F
Transcript
вбгб деажб диз £ © вб ¤ £ ¤ гбг con () %C34343D%E(# ed F
Corso di laurea in matematica Anno accademico 2004/05 B 1 LHM N("O 9LTE 9L 4#UQS<2L +"!"!"!#!"!#!,$- . " !"!#!"$. &%('*) WV$X 1 LHM N*"O P%(IRQSL2. LX 1 LHM N("O 9LTE YL34"UQH. LX /*0 . 1 #.23"!#!"!" /*0 . 1 . 64 5879<=5;>: ? <? 1 4 Z Z 1 4K#!#!"!"H: . X P%(I A B@ D1 C A@FE GH< C V[L\ V X A ] ^ 1 A@ Z < C _`ba Cc1dC _ J $a J C _`$aW&T B 1 %(I <KJ C V[L H VHX CR1D1DCC L %(I O . L Q J H X %*I O . X Q J CC < B 12L M P%(IRQSL"<#L &%(I .. L O %(%*'(I ) Q J $$. . X C O %(I Q J LHN*"O D 1 C &%(I 1DC eL2. L $. X Cf1 eL C . L b. X Cf1hg Combinazioni lineari Situazione 25.1. sia la nostra ma. Come nella nota trice di dati con 24.7 e quando non indicato diversamente, siano gli autovalori di con ed una batale che se ortonormale di Inoltre sia Nota 25.2. Sia nizione . con . Per defi- Numero 7 In questo numero 25 In particolare abbiamo per ogni . è La -esima componente principale di quindi una combinazione lineare delle colonne di con i coefficienti dell’autovettore . 26 27 28 £9¤H£ Combinazioni lineari Autovalori La matrice Un metodo con molti nomi Componenti principali Inversione al cerchio unitario La lemniscata ellittica La traccia Ortoregressione su iperpiani Bibliografia ¥ ¦2¥ §A ¨P> © g ¨ 1hg ¨ 1 X M N( TXª¨ X J J$= «= J C g P ¨ > 1 D 1 C i#jlk#i$m ~m |2qnbz n ~ }l ~w&b2l#u#lm3"z$z {n rj n m 1 ¨ J J ¨ O ¨`Q J ¨ ¨¬H¨ n b n | qt$u#{ r ib{"{ j %('() ¨P= J 1hg ¨ 1hg 1hg n m o"pqsr2t"obu i#vbwlx ¨ J J ¨ ¨ 1-g &%*'() C¨ 1h¨UHg ¨ C1hg ¨ ¨ 1hJ g J ¨ ybr2t#o$u i#v by r2i2z${ nb| v }l ~i2jbqk#t$u#i$m{ nr2`t" no mnb|o"pj=qsw&r2t"lobu"u mKi#z$vb{wlxj n mh`Sv"j ~#~ wl 3 ~" n nb| n ® g J Dg vl} ~ lp ~"~ bin { | j"zbw2nl|v#j "~ ~ bylr2t"o$u i2nvl ~"~ }ll~ n q~t$qu2w2tbu#{ ~{n r2qr2ibz {#iln ~{"{ {nb| j j= wGn ~ lSu"v#m3j ~"zb{~ jwlxKhmb 3 i2jbqk#t$u#i$m{ r2`ibS{"vb{p ~#~ ibj={ wP| j#lzbu"w2mKv"z$j {~#j~ bmybr2i2`z${Sv"nbj| v" wl 3 ~"~ wGlu"m3z${3j n m~#3 n nb| kqz"i$m b2b# qt$u#{ r2ib{"{ j3 ~" l} ~ qtbu#{ n r2t# o nb| j | n H j 3 m z }l~ qt$u#{ n r ib{"{ nb| j ~" ~w qs| ~jHm3w&z ln u"~# mK z${ jbny2mv"z nb| i2v ~v#j "~ wlx j m t i#v $wl~ l 2¡#~ ¡`¢ j m t i#v $wll 2¡#¡ %*'() ~ kUqzli$m & * % ( ' ) " ~ P%('*) 1 O AE4"Qll O AQ }ll~ n q~t$qu2w2tbu#{ ~{n r2n qr2t"z t#no ~nbo |nb|jj= wGn ~ lSu"v"m3j ~"z${3~ wlj nx3ml 3 è la lunghezza con segno (calcolata a partire dal baricentro ) della proiezione ortogonale del punto sulla retta generata da . Per l’osservazione 24.9 abbiamo Questa, per la nota 22.15, è una combinaziocon i coeffine lineare delle colonne di cienti : Osservazione 25.3. . per ogni Dimostrazione. Siccome per ab, dove il secondo biamo prodotto scalare è calcolato in , possiamo scrivere che, tenendo conto della definizione di , possiamo scrivere in forma ancora più esplicita: Autovalori Osservazione 25.4. Sia . Allora le colonne di sono linearmente dipendenti se e solo se esiste tale che . Dimostrazione. è una e combinazione lineare delle colonne di ogni tale combinazione lineare può essere scritta in questo modo. Osservazione 25.5. Sia . Allora la è simmetrica. Inoltre: matrice (1) (2) è positivamente semidefinita. è positivamente definita se e solo se le colonne di sono linearmente indipendenti. Dimostrazione. (1) Sia In R gli autovalori di una matrice reale o . complessa si trovano con la funzione Essa calcola, se non si pone l’opzione anche un sistema di autovettori; ciò può rallentare il calcolo per matrici molto grandi. Il risultato è una lista in R e le componenti si e . ottengono con la sintassi Creiamo due funzioni per la nostra libreria: La matrice . Allora . Siccome per è una matrice le cui colonne sono gli autovettori di già normati e nell’ordine desiderato (cioè corrispondenti agli autovalori elencati in ordine decrescente) e tenendo conto del fatto che questi autovettori in R sono vettori colonna, possiamo trovare gli aucon tovettori e i componenti principali di le seguenti funzioni: (2) sia positivamente definita ed tale che . Ciò implica e quindi . linearSiano viceversa le colonne di mente indipendenti. Sia , cioè . Allora e quindi . Corollario 25.6. Sia . Allora gli autovalori di sono . Essi sono tutti se e solo se le colonne di sono linearmente indipendenti. Un metodo con molti nomi restituisce la lista degli autovalori di , in ordine decrescente (rispetto al modulo se complessi). restituisce una matrice le cui colonne sono autovettori di corrispondenti agli autovalori nell’ordine indicato. possiamo accelerare i Con l’opzione calcoli per matrici simmetriche. potremmo usare la Per il calcolo di definidefinizione 24.2 e la funzione ta a pagina 15; possiamo però anche usare la relazione con Potremmo anche usare la funzione di R: L’istruzione ha lo scopo di ridurre gli attributi della matrice a quelli di una matrice pura. Per gli autovalori di usiamo L’analisi delle componenti principali appare in molti campi della matematica applicata con diversi nomi: Trasformazione sugli assi principali in geometria, trasformazione di Karhunen-Loève in ingegneria e nella teoria del riconoscimento delle forme e nell’elaborazione delle immagini, analisi spettrale in fisica e analisi matematica (ad esempio problemi agli autovalori per equazioni differenziali), analisi fattoriale in psicologia (anche se con questo termine spesso si associano obiettivi più ambiziosi della sola riduzione delle dimensioni). Essa è spesso un primo passo preparatorio che permette di applicare altri metodi della statistica multivariata, come l’analisi dei raggruppamenti e la ricerca di funzioni discriminanti. STATISTICA MULTIVARIATA a.a. 2004/05 Componenti principali !#"%$&&')*-( + *,(/+ . !#"#$ 0/12 3 054687 91 94 : ' * . : ' . ;=< ?> ?@A B> C DDEFHGDIJLK? 1 PO 94 91 Nota 26.1. Consideriamo la matrice di dati Con e Ad essi corrispondono gli autovettori ortonormali S *XV W*5UU ZY1 \[ V * @ 9 1 [ 9 1 5 !Q 91 NQ WU=] R Q 1 ZY^NQR 1 NM !QR 1 R 1 1 uOR 1 S R4 1 S 1 NMR 1 !Q w%"#$ Inversione al cerchio unitario ~w | x ,y{z}| *5~U y ~ Nota 26.3. Chiamiamo inversione al cerchio che unitario l’applicazione manda ogni punto nel punto che si trova sulla semiretta che parte dall’origine e passa per , avendo però un modulo che è il reciproco di quello di , cioè tale che 91 PMR 1 NM , cioè . Quindi l’immagi- è univocamente determina- ~ x Questa applicazione è talvolta anche detta riflessione al cerchio unitario. è univocamente determinata dalla condizione enunciata e x < ~ C ~~ 4 ~ , vediamo che Verificare da soli che ; è invece chiaro direttamente dalla definizione che i punti fissi di sono esattamente i punti del cerchio unitario e che ogni punto all’interno del cerchio unitario viene trasformato in un punto esterno e viceversa. x <~ C L’inversione al cerchio unitario possiede interessanti proprietà geometriche, molte delle quali sono descritte nel bellissimo libro di Needham e di cui la più importante è ogni cerchio che quella che attraverso non passa per l’origine viene trasformato in un cerchio (anch’esso non passante per l’origine). 6 /0 1- 3 0e4v7 1 R1 ~L ~ ciò è equivalente a x x <~ C . Sappiamo dalla nota 24.13 che la varianza di questi punti in è uguale a , mentre la varianza della proiezione sul secondo asse principale è uguale a e quindi molto minore. Possiamo perciò sperare che da solo ci dia sufficienti informazioni. Assumiamo che, in un altro esempio, le proiezioni sull’asse più importante siano distribuite come nella seguente figura: 0/1 NQR 1 ; essendo ~ Allora possiamo considerare i punti come appartenenti a tre gruppi distinti e se gli sono molto più altri autovalori di piccoli di , questo raggruppamento potrà, con molta prudenza, essere considerato significativo. Si tenga conto del fatto che proprio l’analisi delle componenti principali è molto sensibile alla scala usata, ad esempio al cambio delle unità di misura nel rilevamento delle variabili. Come osservato, è la lunghezza con segno (calcolata rispetto al centro ) della sulla retta geproiezione ortogonale di nerata da : Dimostrazione. Infatti dobbiamo avere con e inoltre deve valere 91 Il cerchietto bianco è qui l’origine di 91 . ta. Osservando che __Hb` c _ ab _/hai J3de fDJHge 3 j li ak imj l lDl onHk kprqk j ikporqsDtk ll oonHnHkk 26 X~ yPz | < C w| x ~ ~ ~ Z| ~ ~ } 4 ~ ~ x < ~ C ~~ 4 4 ~ ~~ x < ~ C ~~~ ~ > xx ) x per ogni ne in cui la prima colonna si riferisce all’asse determinato da . Usare un righello per misurare (in cm) le lunghezze sull’ultima figura della nota 26.1 per convincersi che il risultato è corretto. su un’ascisse otRiportando i valori teniamo un’immagine undimensionale dei nostri dati: Vediamo che effettivamente si ha l’impressione che la variazione maggiore avvenga nella direzione , quella minore nella direzione , in accordo con quanto osservato nella nota 24.13. Ciò si vede ancora meglio se togliamo le leggende: 91 vengo- ottenendo la matrice Il baricentro è ; lo troviamo con oppure, in un esempio cosı̀ semplice, con un calcolo diretto. 94 S-T Nell’esempio della nota 26.1 calcoliamo prima le lunghezze delle proiezioni sugli assi principali con sono 4 91 Nota 26.2. Una volta determinato (in una delle possibili scelte) , otteniamo una proiezione nella quale in particolare i punti no proiettati secondo otteniamo Gli autovalori di Numero 7 | ~ Si noti che il centro di del centro di ! 6 non è l’immagine Vedremo adesso che, mentre l’inversione al cerchio unitario trasforma cerchi in cerchi, un’ellisse (che non sia un cerchio) con centro nell’origine viene invece trasformata in una curva di quarto grado (una lemniscata ellittica); infatti la geometria dell’ellisse è molto più profonda e difficile della geometria del cerchio. STATISTICA MULTIVARIATA La lemniscata ellittica dove è una forma quadratica (reale) positivamente defini "$# scriviamo anche ! inveta. Per ! % , ce di . Per ogni &('*) allora &+! & ! . È ovvio inoltre che l’origine non ap.-%-/0 1-34 2 partiene all’ellisse, perché . Denotiamo di nuovo con 5 l’inversione al cerchio unitario. Siano adesso ! un punto dell’ellisse e ! Allora 6 9 ! 9: ! ! 9 9 ! 9 !J 9 9 ! ! J0_ \ ! J !J _ \ !J Il punto 6 che si ottiene da un punto ! dell’ellisse mediante inversione al cerchio unitario è quindi quel vettore che si ottiene moltiplicando il vettore unitario !/J con \ la radice del quoziente di Rayleigh ! J in quella direzione. K "`acbd Nel caso statistico di con A \ e !HJ il fattore è uguale alla de`gf viazione standard di J . La realizzazione in R è semplicissima. Definizione 27.3. Sia ¢£')0¤ . Definiamo la traccia di ¢ , denotata con ¤¥%¦¢ , come la somma degli elementi della diagonale principale di ¢ , quindi 9 « Si noti che per definizione di 5 e quindi I punti 6 dell’immagine dell’ellisse sotto soddisfano quindi l’equazione 9: 96 6 9: @C che, se poniamo 6 con può essere scritta anche nella forma @E,FCGH%$ 'D) @CG Otteniamo questa figura con il programma h ikj/lnmVo/pVqnlrmHsVtVtVlBu=vxwHlyVz {}|{ 3 ~3r~njVuGqkw/pnvku8/ H GyV/|xy V y Nota 27.2. Vediamo adesso che la lemniscata ellittica può essere utilizzata per rappresentare il quoziente di Rayleigh di una forma quadratica in due dimensioni. Nelle ipotesi e con la notazione della nota 27.1 sia !HJ il punto sulla circonferenza uni ! 9 9 . taria determinato da ! , cioè ! J ! M 7 VUW ) ) trico associato. Allora X ZT[ diamo che ! J ! J ziente di Rayleigh di O in !J 9 9 ! e quindi 9 ! ]\ ! 9 YS X è veè proprio il quo!HJ . D’altra parte O S 9 !HJ ! ! 9= oppure, equivalen- §« X ¨©ª \ ') ¨ ¬ ! J possiamo evidenziare i raggi tra i punti !/J del cerchio unitario e i corrispondenti punti 6 sulla lemniscata. ! J ¨ ¢ C e ¤ '±) R ´kC² C ¤ 'B)>« ´kCGCG´ ¥%¦¢ . . ¢ . Allora 'B)>« ¤ ´ ¬ ¬ ° ´µ ´ ¬ ¥%¦ ´ ¬ R § 23.7 abbiamo §« X ¨©cª ¨ ¬ 3 X C ° Xx¢ °©ª $ "CG´ X ´ ¬ ¬ ´ ´%C ¢0¢ e . L’enunciato segue dalla proposizione 27.4. Nota 27.7. Sia ¥%¦¢ ´ ¢<'®)>« ¢ ¤ ¥¦¢0¢ ¯ « 9 ¯ « . Allora ´ ¨ 9 ¢ ¯ ¤ 9 °k©cª ¯ ¤ ° ¢ ¨©cª °©ª 9 ° ¢ ¨ non è altro che il quadrato della lunghezza di ¢ considerata come vettore di )0¤¶« . Lemma 27.8. Sia ¨ §« § ¸ ` X ¨©ª °k©cª . Allora ·Q')$¸ ¤ ° $ · X ` U `rabd ¥%¦· · ´ Dimostrazione. Dal corollario 27.6 abbiamo, usando anche la proposizione 22.13, ¯ ¸ ¯ « , dove ¬ '±) ¬ e ° ¨ ¢ ¬ Dimostrazione. Per le proposizioni 23.5 e ¯ « °k©cª ¨©cª ¥%¦ ¢0¢ ¤ $ X X ¨©ª °©cª ³ "CG´ X (2) Siano ¨©cª Questa prima equazione mostra che il moT ^ è dulo di un punto ! dell’ellisse ! uguale a kC ° Xx¢ ¯ « \ ¯ ¤ 9 temente, 9 ° ° ¨©cª l’operatore simmeS o {Y/v w qko/pkwEV}yVVtVsk=H|{Y V}}/ tlxoV pkuwHsxoV/lVtVtVvn/q}VtVlnoVytVlxoyH oEpuw/sxoVHlVttVvpuHwHsxoVHltVtVvH ltx~Hln s y =ptVskuHnwVHzn/ snx %|np lVtn~HlH tHpu/s }/ tHpu/s }xoV~E/V tHpu/s } oV~E/V mHsx{vx~~E+ o/lnVHpxVn q} o ~/ oHsk }tVsxuHnwn } /VVo/pxx/sV¡H tHpu/s oHlnVHpH EN 7 QP RTS K hHlnmHpqnsrmHpB~ /{ o~~VjVu=qkw/pVvku"/ VnHs}/(V=% / n oVwE~ /x § °©cª Aggiungendo le righe Siano O ° ¢ ¨ Corollario 27.6. (1) Siano ¢'B)0« e R Allora , Si osservi però che oltre ai punti riflessi dell’ellisse anche l’origine soddisfa questa equazione. Curve con questa equazione si chiamano lemniscate ellittiche quando, come nella nostra ipotesi, la forma quadratica è positivamente definita. e ¬ ¨ ¬ Corollario 27.5. Siano C² C ¥%¦ . Allora @E,FCGH%$ 8@E,F@EC0I CG 7 ?L ¯ ¤ ° ¢ . oppure, ancora più esplicitamente, K ¨ ¯ ¤ °©ª 5 . ¤ ¨ ¬ ¢ ¨©ª °k©cª A@B"#C ¯ « > ?9 6 « ¨©ª 9 6 , '®)0« ¯ « ¬ ¥%¦¢ ; < 96 ¬ ¢ Dimostrazione. Abbiamo 9= ! ¢8'B)0« e ¬ ¤ ¢ . ¬ mentre ¢'®)0¤ Proposizione 27.4. Siano ¬ ¬ ')0¤ . Allora ¥%¦¢ ¥%¦ perché ! essendo ! un punto dell’ellisse. D’altra parte abbiamo 9 ¨ È chiaro che l’applicazione ¥%¦ 7 )$¤ UW ) è ¤ lineare. La traccia gode però di molte altre proprietà importanti, tra cui i sorprendenti corollari 27.5 e 27.6. 9: ! ¨ §¤ ¢ ¨©ª 7 ¥%¦¢ ! 9 ! quindi 6 5 6 27 La traccia Oltre a ciò abbiamo però anche Nota 27.1. Consideriamo un’ellisse nel piano con centro nell’origine, descritta da un’equazione 687 Numero 7 a.a. 2004/05 !HJ è il vettore uni- tario che mostra nella stessa direzione di ! . ¨ ¯ « `* U ` ¥%¦· ¥%¦· ¥%¦· ` ¨ ¨ ` ` abd · X `T ´ ` U ¨©ª ° · `T ´ ` U ´ ¨ `B ¨ U U ´ · `B% · ´ STATISTICA MULTIVARIATA Ortoregressione su iperpiani !" $#%'&( ")# * !+ ,& - ./0 Per la proposizione 8.2 la proiezione 1 2 di 3 su è data da 1 2 & 4 5 87 "9!" ")6 in modo Noi dobbiamo scegliere 5 ; 8 7 1 2 ; < . da minimizzare : 6 3 K Dimostrazione. Infatti in questo caso LSN9K ORP=Q UK T &MLSN O=PRQ K T K/&MLSN O=P=Q V . Diciamo Definizione 28.4. Sia K che K possiede righe ortonormali e scrivia J G , se le righe di K hanno tutte mo K lunghezza F e sono ortogonali tra di loro. . Allora Osservazione 28.5. Sia K K J GXWZY KUK T &/( F e quindi ( è la matrice Si noti che KUK T identica in . G sia la Definizione 28.6. [B\ ]>^ ` F _ _ diagonamatrice diagonale i cui coefficienti . li sono _ _ X , b J G Lemma 28.7. Siano a b F per e tali che b a-& _ _ c . Allora _ ogni bUadb T &[9\ ]>^ G F`_ _ 5 e quindi LSN9bUadb T & . ")6 _ " Dimostrazione. Per ogni c * abbiamo baeb T G " & ba G b T G " F F F & b b "fG T & ( " _ F _ G Osservazione 28.8. g&H[B\ ]>^ j . Allora _ sia una matrice diagonale e i Fh_ L)N9gkil& 5 " i " " ")6 _ ; 3=7 1 2 ; < & ; 3=7 ; < 7 ; 1 2 7 ; < Ma ; 1 2 7 ; < & 5 3=7 > "? < "!6 cosicché ; 7 1 2 ; < @ : ; 7 ; < 7 @ : @ 7 " < 6 6 ")6 5 ; 3A7 ; < però dipende soLa somma : 6 e non dai vetlo dalla matrice dei dati tori " che vogliamo variare per ottenere il 5 ; 37 1 2 ; < e vediamo che minimo di : 6 quest’ultima somma è minima se e solo se 5 : 5 387 "B < è massima. 6 ")6 Osserviamo adesso che @ : @ 7 " < 6 ")6 @ @ : 7 " < @ & & "G ")6 6 ")6 ?C3DBEF usando la nota 24.6. Dobbiamo quindi mas5 >" G , dove I vasimizzare C 9 D H E F ")6 ria tra i sistemi ortogonali di vettori di Dimostrazione. Infatti @ gki G & F " # 6 @ & #6 i "# _ L)N9oUgpo T &MLSN?gko T oq& 5 " o T o ")6 _ F ; ;< . Ma o T o G " & o " " F , s p Osservazione 28.10. Siano r p ) R z t r e u/v &xw s9; y ; < ; ; < . ; ; < Allora u & r s . ; ;< ; u Ciò implica in particolare r Dimostrazione. Per l’osservazione 28.8 Definizione 28.2. sia l’insieme delle matrici ortogonali di rango . È chiaro che una matrice appartiene ad se e solo se le righe costituiscono una base ortonormale di . Corso di laurea in matematica g # ( # i "# & i " _ G Osservazione 28.9. gm&n[9\ ]f^ jF`_ U . Allora _ sia una matrice diagonale e o 5 ; ; < L)N9oUgpo T & " o " ")6 _ lunghezza . J G F K K K @ ")6 @ K "G &ML)N O=PRQ 9 D E ? C F ")6 Vediamo cosı̀ che questa espressione non dipende da . Anche qui abbiamo @: 6 & @: 6 & 1 2 K J G . Allora F 7 K " < Osservazione 28.3. Sia Nota 28.1. Vogliamo adesso dimostrare , l’iperpiano che, per minimizza la somma dei quadrati delle distanze dei punti da un iperpiano -dimensionale di . Chiamiamo un iperpiano con questa proprietà un -iperpiano di regressione ortogonale per ; si può dimostrare anche in questo caso che esso passa per il baricentro . Possiamo quindi trovare vettori con per ogni e Numero 7 a.a. 2004/05 J G F Statistica multivariata G "" t ;< . 28 o J G. F LSN{o T o/&q j , per cui Dimostrazione. oo T &/( L)N9o T oq&MLSN?oUo T &|L)N?(&q . Lemma 28.12. Siano dati numeri reali } } , f tali che siano sod_ _ disfatte le seguenti condizioni: } (1) ~k per ogni * . 5 } " &q . (2) ")6 " (3) _ 5 _ 5 } Allora . ")6 _ " ")6 _ " " Lemma 28.11. Sia Allora . Dimostrazione. L’enunciato può essere interpretato come l’affermazione che il compito di ottimizzazione } } G &Z]f f } } G v & F 5 " } " sotto le concon F ")6 _ dizioni (1) e (2) possiede la soluzione } & & } &n } )z= & & } &M~ } Ciò è evidente, perché significa che dobbianei primi mo concentrare le risorse“ ” posti dove la rendita è massima, esaurendo in questo modo però la risorsa totale . " Teorema 28.13. Siano a ed J G . Sia b / la matrice con le > ) F righe . Allora b J G e per J G vale LSN?badb T LSF N?KUadK T . ogni K F J G. Dimostrazione. Sia K una baSiccome le righe di costituiscono , per ogni c esiste unaF rappresentase di & 5 o " . I coefficienti o forzione K ")6 " per cui Kq&/" o . mano una matrice o G . Sia gv &M[B\ ]>^ Fh_ _ Per il lemma 28.7 abbiamo KadK T &/o a T o T &/oUgko T , cosicché 28.9 segue dall’osservazione L)N9KUaeK T & 5 " ; o " ; < . ")6 _ T e quindi Abbiamo inoltre oq&/K oo T &/ K T K T &MKK T &/( , per cui o J G. F J G Esiste perciò una matrice F o tale che v & w 3y J ; F ; < G . Per; l’osserva;< zione 28.10 ciò implica o " " & per ogni * . LSN9o T o&x e quindi, Per il lemma 28.11 5 ; o ; < &q . per la nota 27.7, ")6 " 5 . Per il lemma 28.7 LSN{badb T & "!6 _ " L’enunciato segue dal lemma 28.12. f=lI| è un Teorema 28.14. -iperpiano di regressione ortogonale per . Bibliografia 17123 A. Coffman/M. Frantz: Möbius transformations and ellipses. Internet 2004, 9p. 15993 I. Jolliffe: Principal component analysis. Springer 2002. (16783) T. Needham: Visual complex analysis. Oldenbourg 2001. Docente: Josef Eschgfäller