Dall`Algebra Lineare a questioni irrisolte
Transcript
Dall`Algebra Lineare a questioni irrisolte
Dall’Algebra Lineare a questioni irrisolte Alessandra Bernardi May 15, 2008 “Non hai veramente capito qualcosa finché non sei in grado di spiegarlo a tua nonna.” (Albert Einstein) Con queste note mi piacerebbe dare un assaggio di problemi matematici che pur avendo le loro radici in questioni classiche sono ancora problemi attuali sui quali molti matematici (e non solo) stanno ancora lavorando. Mi piacerebbe dare questo assaggio usando strumenti che dovrebbero essere alla portata anche di chi ha da poco iniziato a studiare matematica. Non si scoraggi il lettore se queste note non riusciranno nell’intento che si propongono: potrebbe significare solo che chi le ha scritte non ha ancora veramente capito ciò che ha provato a raccontare. 1 Applicazioni lineari e tensori Tutti gli spazi vettoriali che verranno trattati in queste note saranno di dimensione finita e a valori su un campo K algebricamente chiuso e di caratteristica 0. Siano V e W due spazi vettoriali come sopra. Iniziamo con lo studiare lo spazio vettoriale V ∗ ⊗ W . Ricordiamo che esso è uno spazio vettoriale che contiene i prodotti di vettori di V ∗ e W in un senso universale. Si può dimostrare che esso è identificabile con lo spazio delle applicazioni lineari da V a W , ossia: V ∗ ⊗ W ' Hom(V, W ). Questa osservazione sarà fondamentale per tutte queste note, nel senso che considereremo sempre un elemento di V ∗ ⊗ W come un’applicazione lineare f : V → W . Definizione 1.1. Un elemento f ∈ V ∗ ⊗ W è detto completamente decomponibile se esistono α ∈ V ∗ e w ∈ V tali che f (v) = α(v)w per ogni v ∈ V . In tal caso viene indicato come f := α ⊗ w. 1 Applicazioni lineari e tensori Chiaramente non tutti gli elementi di V ∗ ⊗ W sono completamente decomponibili. Proposizione 1.2. Se B1 = (v1 , . . . , vn ) è una base dello spazio vettoriale V , allora se αi : V → K è definita tramite αi (vj ) = δji , allora B1∗ = (α1 , . . . , αn ) è una base di V ∗ ed è detta la base duale di B1 . Proposizione 1.3. Siano B1 = (v1 , . . . , vn ) una base dello spazio vettoriale V , B1∗ = (α1 , . . . , αn ) la sua base duale e B2 = (w1 , . . . , wm ) una base dello spazio vettoriale W . Allora {αj ⊗wi }j=1,...,n; i=1,...,m è una base di V ∗ ⊗ W . Dimostrazione. Sia f ∈ V ∗ ⊗ W e sia MB1 ,B2 (f ) = (ai,j )i=1,...,m; j=1,...,n la matrice rappresentativa di f rispetto alle basi B1 e B2 . Proviamo che X f= ai,j αj ⊗ wi . i=1,...,m; j=1,...,n Pn Sia v = j=1 bj vj ∈ V . Applichiamo f a v tenendo conto dei fatti che f è una mappa lineare e che (ai,j )i=1,...,m; j=1,...,n è la matrice rappresentativa f nelle basi B1 e B2 . di P P Pm Pn Pn n f (v) = f i=1,...,m; j=1,...,m bj ai,j wi . i=1 ai,j wi = j=1 bj j=1 bj f (vj ) = j=1 bj vj = P Proviamo ora che i=1,...,m; j=1,...,n ai,j αj ⊗ wi (v) è lo stesso vettore individuato da f (v) ∈ W per ogni v ∈ P P P PV . Infatti i=1,...,m; j=1,...,n ai,j αj ⊗ wi ( nk=1 bk vk ) = i=1,...,m; j=1,...,n ai,j αj ( nk=1 bk vk ) wi = P P P = i=1,...,m; j=1,...,n ai,j ( nk=1 αj (bk vk )) wi = i=1,...,m; j=1,...,m ai,j bj wi perché αj (vk ) = δkj in quanto base duale di B1 . P Dunque ogni elemento f ∈ V ∗ ⊗W si scrive nella forma ai,j αj ⊗wi dove (ai,j )i=1,...,m; j=1,...,n = MB1 B2 (f ). Ovviamente il rango di MB1 ,B2 (f ) è indipendente dalla scelta delle basi B1 e B2 . Ha quindi senso associare ad ogni vettore di V ∗ ⊗ W il rango delle matrici che lo rappresentano. Definizione 1.4. Il rango di un tensore f ∈ V ∗ ⊗ W è il rango delle matrici che lo rappresentano rispetto alle basi di V e di W . Un tensore è quindi completamente decomponibile se e solo ha rango 1. Una definizione equivalente di rango di un tensore è la seguente: Definizione 1.5. Il rango di un tensore è il minimo numero di addendi con cui può essere espresso come combinazione lineare di tensori completamente decomponibili. L’equivalenza di queste due definizioni dipende dal fatto che se per ogni base B1 di V e per ogni base B2 di W la matrice MB1 ,B2 (f ) rappresentativa di f ∈ V ∗ ⊗ W ha rango r, allora esistono delle basi B10 di V e B20 di W tali che MB10 ,B20 (f ) è una matrice a blocchi di Jordan. 2 Azione di GL(V ) su V ⊗d 2 Applicazioni multilineari La descrizione fatta per le applicazioni lineari può essere generalizzata alle applicazioni multilineari. Definizione 2.1. Siano V1 , . . . , Vk , W spazi vettoriali di dimensione finita. Un’applicazione multilineare è una mappa f : V1 × · · · × Vk → W linare rispetto all’addizione e al prodotto per scalari in ogni Vi con i = 1, . . . , k. Definizione 2.2. Lo spazio vettoriale V1∗ ⊗ · · · ⊗ Vk∗ ⊗ W è lo spazio delle applicazioni multilineari f : V1 × · · · × Vk → W . Osserviamo che se W ' K allora V ∗ ⊗ W ' V ∗ ⊗ K = Hom(V, K) = V ∗ . Analogamente W ' K allora V1∗ ⊗ · · · Vk∗ ⊗ W ' V1∗ ⊗ · · · Vk∗ . Anche nel caso delle funzioni multilineari se dim(Vi ) = ni e se {αi,ji }j=1,...,ni è una base di Vi∗ per ogni i = 1, . . . , k, allora {α1,j1 , . . . , αk,jk }j1 =1,...,n1 ;...;jk =1,...,nk è una base di V1∗ ⊗ · · · , ⊗Vk∗ . Dunque esisteranno ai1 ,...,ik ∈ K con ij = 1, . . . , nj e j = 1, . . . , k tali che ogni v ∈ V1∗ ⊗ · · · ⊗ Vk∗ si scrive nella forma X ai1 ,...,ik α1,i1 ⊗ · · · ⊗ αk,ik . v= ij = 1, . . . , nj j = 1, . . . , k Definizione 2.3. Se esistono αi ∈ Vi∗ tali che un vettore v ∈ V1∗ ⊗ · · · ⊗ Vk∗ si può scrivere come v = α1 ⊗ · · · ⊗ αk , allora si dice che v è completamente decomponibile. Definizione 2.4. Il rango di un tensore v ∈ V1∗ ⊗ · · · ⊗ Vk∗ è il minimo numero di addendi che compaiono in una una combinazione lineare di vettori completamente decomponibili il cui “risultato” sia v. È quest’ultima definizione ben posta? Cosa rappresentano gli elementi ai1 ,...,ik ∈ K con ij = 1, . . . , nj e j = 1, . . . , k che compaiono nella decomosizione di v ∈ V1∗ ⊗ · · · ⊗ Vk∗ tramite gli elementi della base di V1∗ ⊗ · · · ⊗ Vk∗ ? Si può stabilire una relazione tra il rango di un tensore v ∈ V1∗ ⊗· · ·⊗Vk∗ e tali elementi ai1 ,...,ik ∈ K? 3 Azione di GL(V ) su V ⊗d Indichiamo con GL(V ) l’insieme delle mappe lineari dallo spazio vettoriale V in sè stesso, i.e. le matrici invertibili di Mdim(V ) (K). 3 Azione di GL(V ) su V ⊗d Si dice che G agisce su V (o che V è un G-modulo) se G è un sottogruppo di GL(V ) e l’azione si indica nel modo seguente: G×V → V (g, v) 7→ g.v := g(v) Se esiste U ⊂ V tale che g.u ∈ U per ogni g ∈ G e per ogni u ∈ U , si dice che U è un G-sottomodulo di V o anche che U è invariante per l’azione di G. Studiamo l’azione di GL(V ) su V ⊗d := V · · ⊗ V}. | ⊗ ·{z d Siano g ∈ GL(V ) e v1 ⊗ · · · ⊗ vd ∈ V ⊗d ; indichiamo g.(v1 ⊗ · · · ⊗ vd ) = (g.v1 ) ⊗ · · · ⊗ (g.vd ). Esistono sottospazi di V ⊗d invarianti per l’azione di GL(V )? La risposta a questa domanda è ovviamente affermativa. Si potrebbe tenere un intero corso per calcolare i sottospazi invarianti di V ⊗d per l’azione di GL(V ). Noi non siamo interessati a tutti questi sottospazi ma solo a due in particolare perché producono degli esempi geometrici interessati. Quindi il nostro studio è da ora finalizzato a cercare di capire l’interpretazione geometrica di questi due sottospazi, non tanto a cercare di calcolare tutti i sottospazi invarianti. Introduciamo quindi ora questi due sottospazi, prima nel caso particolare di d = 2 poi nel caso più generale di d ≥ 2. Nel caso d = 2 abbiamo a che fare con V ⊗ V ; dobbiamo quindi studiare Hom(V ∗ , V ) che abbiamo già visto che possiamo pensare come l’insieme delle matrici quadrate di ordine dim(V ). È un buon esercizio dimostrare che sia l’insieme delle matrici simmetriche che l’insieme delle matrici antisimmetriche sono invarianti per l’azione di GL(V ) su V ⊗V . Questi due insiemi possono essere definiti rispettivamente nel modo seguente: < {w ∈ V ⊗ V | ∃ vi , vj ∈ V t.c. w = vi ⊗ vj + vj ⊗ vi } >= {Matrici simmetriche}, < {w ∈ V ⊗ V | ∃ vi , vj ∈ V t.c. w = vi ⊗ vj − vj ⊗ vi } >= {Matrici antisimmetriche}. Entrambe le uguaglianze non sono difficili da provare. Notazione: • v1 ◦ v2 := 12 (v1 ⊗ v2 + v2 ⊗ v1 ), • v1 ∧ v2 := 12 (v1 ⊗ v2 − v2 ⊗ v1 ). Se si definiscono S 2 (V ) := V ⊗2 / < {vi ⊗ vj − vj ⊗ vi } > e Λ2 (V ) := V ⊗2 / < {vi ⊗ vj + vj ⊗ vi } >, 4 Varietà Proiettive si può provare che S 2 (V ) := V ⊗2 / < {vi ⊗ vj − vj ⊗ vi } >=< {vi ⊗ vj + vj ⊗ vi } >= {Matrici simmetriche}, Λ2 (V ) := V ⊗2 / < {vi ⊗ vj + vj ⊗ vi } >=< {vi ⊗ vj − vj ⊗ vi } >= {Matrici antisimmetriche}. Nel caso di V ⊗2 abbiamo già trovato i due sottospazi a cui siamo interessanti. Infatti • sia S 2 (V ) che Λ2 (V ) sono invarianti per l’azione di GL(V ); • V ⊗ V = S 2 (V ) ⊕ Λ2 (V ). Prima di vedere il motivo del nostro interesse verso questi due sottospazi, vediamo come descriverli nel caso generare di V ⊗d con d ≥ 2. P Sia πS : V ⊗d → V ⊗d tale che πS (v1 ⊗ · · · ⊗ vd ) = d!1 σ∈Sd vσ(1) ⊗ · · · ⊗ vσ(d) , allora πS (V ⊗d ) = S d (V ). Analogamente sia πΛ : V ⊗d → V ⊗d tale che πΛ (v1 ⊗ · · · ⊗ vd ) = allora πΛ (V ⊗d ) = Λd (V ). 1 d! P σ∈Sd (sgn(σ))vσ(1) ⊗ · · · ⊗ vσ(d) , Osserviamo che sia S d (V ) che Λd (V ) sono sottospazi di V ⊗d invarianti per l’azione di GL(V ) ma che non sono tutti e soli i sottospazi inviarianti per tale azione, ossia S d (V ) ⊕ Λd (V ) ( V ⊗d . Da ora in avanti il nostro studio sarà finalizzato all’interpretazione geometrica di S d (V ) e Λd (V ). 4 Varietà Proiettive Alcuni semplicissimi preliminari di geometria proiettiva. Definizione 4.1. Sia V uno spazio vettoriale. Si definisce P(V ) lo spazio proiettivo associato a V come l’insieme delle rette di V . Un punto P ∈ P(V ) è quindi una classe di equivalenza P = [v] di un vettore v 6= 0, v ∈ V tale che [v] = [w] per un altro vettore w ∈ V se e solo se esiste λ ∈ K, λ 6= 0 tale che v = λw. Definizione 4.2. Sia π : V \{0} → P(V ) π(v) 7→ [v]. Se U ⊆ V è un sottospazio lineare di V , si dice che π(U ) è la proiettivizzazione di U . 5 (1) 4.1 Varietà di Segre Varietà Proiettive Definizione 4.3. Una Varietà Proiettiva è l’immagine via la mappa π appena definita di un luogo di zeri di un insieme finito di polinomi omogenei su V (ossia di polinomi omogenei in K[x0 , . . . , xn ] se dim(V ) = n + 1). Definizione 4.4. Sia V ⊂ Pn una varietà proiettiva. L’ideale omogeneo I(V ) ⊂ K[x0 , . . . , xn ] cosı̀ definito I(V ) = {f ∈ K[x0 , . . . , xn ] | f omogeneo , f (P ) = 0 ∀ P ∈ V } è l’ideale rappresentativo di V . Osserviamo che la definizione di varietà proiettiva è ben posta se il suo ideale rappresentativo è un ideale primo. Questa affermazione ci sarà utile in seguito quando, nel dare un’interpretazione geometrica a S d (V ) e Λd (V ) cercheremo gli ideali delle varietà ad essi legate. Vedremo che sarà abbastanza intuitivo trovare delle equazioni di tali varietà, ma non sarà per nulla banale dimostrare che esse ne generano effettivamente l’ideale rappresentativo. In realtà non ci inoltreremo in quest’ultimo studio in quanto si tratta di un problema di ricerca che solo in alcuni casi è stato risolto: nella maggior parte dei casi è ancora un problema aperto. La questione risiede proprio nel fatto che una volta individuate le equazioni che descrivono la varietà come luogo di zeri di polinomi omogenei sembra essere estremamente complicato dimostrare che l’ideale da esse generato è un ideale primo. Siamo finalmente pronti per introdurre quegli oggetti che ci daranno un’interpretazione geometrica di S d (V ) e Λd (V ). 4.1 Varietà di Segre Definiamo l’embedding di Segre nel modo seguente: Seg : P(V1 ) × · · · × P(Vn ) → P(V1 ⊗ · · · ⊗ Vn ) ([v1 ], . . . , [vn ]) 7→ [v1 ⊗ · · · ⊗ vn ]. Definizione 4.5. La varietà di Segre è la chiusura proiettiva dell’immagine della mappa Seg appena introdotta. Per controllare che quest’ultima definizione sia ben posta bisogna controllare che Seg(P(V1 ) × · · · × P(Vn )) ⊂ P(V1 ⊗ · · · ⊗ Vn ) sia effettivamente ottenibile come immagine via la mappa π definita in (1) di luogo di zeri di polinomi omogeni su V1 ⊗ · · · ⊗ Vn . Per fare questo basta trovare delle equazioni omogenee per la varietà di Segre. Per definizione gli elementi di Seg(P(V1 ) × · · · × P(Vn )) sono ottenuti proiettando l’insieme dei 6 4.1 Varietà di Segre Varietà Proiettive tensori completamente decomponibili di V1 ⊗ · · · ⊗ Vn con π : V1 ⊗ · · · ⊗ Vn → P(V1 ⊗ · · · ⊗ Vn ). Nel caso n = 2 abbiamo già visto che un elemento di V1 ⊗ V2 è completamente decomponibile se e solo se è individuato da una matrice di rango 1. Dunque per avere un insieme di equazioni per Seg(P(V1 ) × P(V2 )) basta prendere una matrice di ordine n2 × n1 , con ni = dim(Vi ) per i = 1, 2, le cui entrate siano indeterminate: x0,0 · · · xn1 ,0 .. .. . . xn2 ,0 · · · xn2 ,n1 ed imporre che abbia rango 1; il che equivale ad imporre l’annullarsi di tutti i minori di ordine 2 di tale matrice. Osserviamo che in questo modo otteniamo delle equazioni per la varietà di Segre di due fattori, ma che quanto appena visto non basta per dimostrare che esse individuano anche l’ideale rappresentativo di tale varietà. Come si tratta il caso generale Seg(P(V1 ) × · · · × P(Vn )) con n ≥ 2? Un tensore ora non è più individuato da una matrice ma da una ipermatrice. Ad ogni modo Seg(P(V1 ) × · · · × P(Vn )) parametrizza tensori completamente decomponibili e quindi di rango 1. Il primo problema è cercare di capire come si calcola il rango di una ipermatrice. Dopodiché occorre trovare una definizione di minore di ordine 2. Fatto questo si hanno le equazioni della varietà di Segre. Il fatto che tali equazioni individuino la varietà di Segre è noto fin dal 19771 ma che generino effettivamente il suo ideale rappresentativo è stato dimostrato solo nel 20022 . Se invece di studiare la varietà di Segre che parametrizza tensori di rango 1 fossimo interessati a studiare la varietà che parametrizza tensori di rango r > 1, sapremmo trovare delle equazioni? È bene che il lettore a questo punto sappia che se anche il problema appare intuitivamente di semplice soluzione, si tratta di un problema fino ad ora aperto, ossia non si è ancora riusciti a dimostrare che l’insieme delle equazioni che si ottengono imponendo ad una ipermatrice di indeterminate di avere rango r costituisca effettivamente l’ideale rappresentativo della varietà che parametrizza tensori di rango r (il problema, come si è anche già accennato, sta nel dimostrare che quell’ideale sia un ideale primo). 1 R. Grone, Decomposable tensors as a quadratic variety, Proc. Amer. Math. 43 (2) (1977) 227230. MR0472853 (57) 12542). 2 H.T. Hà, Box-shaped matrices and the defining ideal of certain blowup surface, J. Pure Appl. Algebra 167 (23) (2002) 203224. MR1874542 (2002h:13020). 7 4.2 Varietà di Veronese 4.2 Varietà Proiettive Varietà di Veronese Definiamo il d-esimo embedding di Veronese come: νd : P(V ) → P(S d (V )) ([v]) 7→ [v ◦ · · · ◦ v]. Definizione 4.6. La d-esima varietà di Veronese è la chiusura proiettiva di νd (P(V )) ⊂ P(S d (V )). Come si ottengono equazioni per la varietà di Veronese? Vediamo il caso d = 2. Il secondo embedding di Veronese è la mappa seguente: ν2 : P(V ) → P(S 2 (V )) ([v]) 7→ [v ◦ v]. La varietà ν2 (P(V )) parametrizza tensori simmetrici che quindi possono essere individuati da matrici simmetriche. Non solo ma un elemento del tipo v ◦ v = 12 (v ◦ v + v ◦ v) ha rango 1. Dunque S 2 (V ) ⊕ Λ2 (V ) = V ⊗ V ⊃ Seg(P(V ) × P(V )) ∩ P(S 2 (V )) = ν2 (P(V )). Ossia un sistema di equazioni per la seconda varietà di Veronese può essere ottenuto imponendo ad una matrice simmetrica di indeterminate di avere rango 1. Anche in questo caso questa procedura permette solo di trovare un sistema di equazioni per la varietà che stiamo studiando “set theoretically”, ossia non garantisce di aver effettivamente trovato l’ideale di definizione di ν2 (P(V )). Come generalizzare alla d-esima varietà di Veronese? Le equazioni di questa varietà erano già note fin dal 19183 ma che esse individuassero l’ideale di definizione di νd (Pn ) è stato dimostrato tra il 19984 e il 20045 . Come generalizzare alla varietà che parametrizzano tensori simmetrici di rango r > 1? Per questa varietà si sono trovate le equazioni anche in termini di ideale di definizione, contrariamente a quanto accadeva nel caso della varietà che parametrizza tensori di rango r > 1 per la quale non è ancora stato dimostrato che i minori di rango r + 1 di un’ipermatrice di indeterminate ne generano l’ideale rappresentativo. 3 K. Wakeford, On canonical forms, Proc. London Math. Soc. 18 (191819) 403410. M. Pucci, The Veronese variety and Catalecticant matrices, J. Algebra 202 (1) (1998) 7295. MR1614174 (2000c:14071). 5 A. Parolin, Variet‘a Secanti alle Variet‘a di Segre e di Veronese e Loro Applicazioni, Tesi di dottorato, Universit‘a di Bologna, A.A. 2003/2004. 4 8 4.3 Grassmanniane 4.3 Varietà Proiettive Grassmanniane Definizione 4.7. La Grassmanniana vettoriale dei k-spazi di uno spazio vettoriale V è l’insieme degli spazi lineari di dimensione k contenuti in V e la si indica G(k, V ). Definizione 4.8. La Grassmanniana proiettiva dei k-spazi di uno spazio proiettivo P(V ) è l’insieme degli spazi proiettivi di dimensione k contenuti in P(V ) e la si indica G(k, P(V )). Osserviamo che G(k, V ) ' G(k − 1, P(V )). Proposizione 4.9. Le Grassmaniane sono varietà proiettive. Innanzitutto esse possono essere immerse nello spazio proiettivo nel modo seguente: G(k, V ) → P(Λk (V )) . < v1 , . . . , vk > 7→ [v1 ∧ · · · ∧ vk ] Cerchiamo un sistema di equazioni per il caso k = 2. L’embedding da considerare è: G(2, V ) → P(Λ2 (V )) . < v1 , v2 > 7→ [v1 ∧ v2 ] (2) Per definizione v1 ∧ v2 = 21 (v1 ⊗ v2 − v2 ⊗ v1 ). Dunque un elemento di G(2, V ) è rappresentato da una matrice antisimmetrica... ma (ATTENZIONE!!!) di quale rango? Per ottenere le equazioni di questa varietà ora non possiamo più procedere in modo analogo al caso della varietà di Veronese dove intersecavamo la varietà di Segre con il sottospazio delle matrici simmetriche ossia non possiamo intersecare il sottospazio delle matrici antisimmetrice con la varietà di Segre perché le matrici associate alla Grassmanniana non hanno rango 1. Dunque per trovare le equazioni della varietà che stiamo cercando occorre prendere una matrice antisimmetrica costituita da indeterminate ed imporre che abbia rango 2 (osserviamo che non occorre imporre l’annullarsi di tutti i minori 3 × 3 in quanto una matrice antisimmetrica ha rango pari e quindi è sufficiente richiedere l’annullarsi dei minori di ordine 4). Potrebbe essere un buon esercizio partire dalle equazioni parametriche della Grassmanniana che si ottengono dall’esplicitare l’embedding (2), ricavarne le equazioni implicite e verificare che definiscono la stessa varietà che si ottiene imponenedo ad una matrice antisimmetrica di indeterminate di avere rango 2. 9 4.4 Varietà che parametrizzano tensori di rango superiore ad 1 4.4 Varietà Proiettive Varietà che parametrizzano tensori di rango superiore ad 1 Più volte abbiamo parlato di varietà che parametrizzano tensori di un certo rango r > 1, è ora arrivato il momento di dargli un nome. Definizione 4.10. Sia X ⊂ Pn una varietà proiettiva. Sia σs (X) la varietà cosı̀ definita: σs (X) := [ P(< P1 , . . . , Pk >). P1 ,...,Ps ∈X Tale varietà prende il nome di varietà delle s-secanti di X. La varietà delle s-secanti di una certa varietà X si ottiene quindi prendendo l’insieme di tutti gli spazi proiettivi di dimensione proiettiva (s − 1) ottenuti proiettivizzando spazi lineari generati da s-uple di punti di X. Dunque un punto P ∈ σs (X) sarà del tipo P = [α1 P1 + · · · + αs Ps ] con αi ∈ K e Pi ∈ X per ogni i = 1, . . . , s (osserviamo cheSP1 , . . . , Ps non devono necessariamente essere distinti in quanto σs (X) è la chiusura proiettiva di P1 ,...,Ps ∈X P(< P1 , . . . , Pk >)). Dunque se X = Seg(P(V1 ) × · · · × P(Vk )), un elemento della sua s-esima varietà dell secanti sarà del tipo [α1 P1 + · · · + αs Ps ] con Pi ∈ Seg(P(V1 ) × · · · × P(Vk )), ossia Pi la classe di un vettore completamente decomponibile. Quindi un elemento di σs (Seg(P(V1 ) × · · · × P(Vk ))) è la classe di un tensore di ragno al più s. Trovare quindi le equazioni della varietà che parametrizza tensori di rango al più s equivale a trovare le equazioni della varietà delle s-secanti della varietà di Segre. Per quanto possa apparire un problema di semplice risposta questo è un problema all’oggi ancora aperto e oltretutto di grande interesse scientifico perché la sua soluzione permetterebbe di risolvere problemi di filogenetica, tecnica delle trasmissioni, statistica... Per quanto riguarda la filogenetica i problemi legati allo studio delle varietà delle secanti a varietà di Segre sono i cosiddetti problemi ad albero: ad esempio “stabilire se esistono antenati comuni a due specie di vertebrati”, oppure “quali sono le possibili mutazioni del virus HIV da un certo stadio in poi”... Altro problema interessante legato allo studio delle varietà delle secanti di varietà proiettive è il computo della loro dimensione. Ad esempio per quanto riguarda le varietà delle secanti di varietà di Veronese se ne è risciti a calcolare la dimensione solo nel 19956 con l’utilizzo di tecniche molto sofisticate. Per quanto riguarda le varietà delle secanti a varietà di Segre o varietà delle secanti a Grassmanniane non è ancora stata fatta una classificazione completa. 6 J. Alexander, A. Hirschowitz; Polynomial interpolation in several variables., J. Alg. Geom. 4 (1995), 201-222. 10