Algebra lineare

Transcript

Algebra lineare
Algebra lineare
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].
PDF generated at: Thu, 26 Jan 2012 08:11:20 UTC
Indice
Voci
Premessa
1
Algebra lineare
2
Spazio vettoriale
13
Trasformazione lineare
20
Base (algebra lineare)
24
Teorema del rango
29
Formula di Grassmann
32
Teorema di Rouché-Capelli
35
Rango (algebra lineare)
37
Determinante
40
Diagonalizzabilità
48
Autovettore e autovalore
52
Polinomio caratteristico
60
Polinomio minimo
63
Forma canonica di Jordan
66
Prodotto scalare
68
Forma bilineare
75
Spazio euclideo
78
Base ortonormale
81
Ortogonalizzazione di Gram-Schmidt
83
Forma sesquilineare
86
Teorema spettrale
88
Note
Fonti e autori delle voci
93
Fonti, licenze e autori delle immagini
94
Licenze della voce
Licenza
95
Premessa
1
Premessa
Cos'è questo libro
Questo è un libro di Wikipedia.
È una raccolta di voci tratte dall'edizione italiana dell'enciclopedia online Wikipedia [1]. Le voci di Wikipedia sono
scritte collettivamente e i lettori sono anche gli autori. Nessuno è stato pagato per scrivere questo libro.
Come usare questo libro
Quest'opera può essere liberamente utilizzata, riprodotta, modificata, distribuita per qualsiasi scopo (anche
commerciale), a patto di attribuire correttamente la provenienza dei contenuti e citare gli autori, nel rispetto della
licenza Creative Commons Attribuzione-Condividi allo stesso modo (CC-BY-SA) 3.0 [2] per quanto riguarda i testi.
Le opere derivate devono mantenere la stessa licenza o una compatibile. In fondo al libro sono riportati l'elenco degli
autori dei testi e delle immagini. Prima di distribuire il libro, verifica in particolare che le licenze delle immagini
siano riportate correttamente.[3]
Proprio per la natura del contributo libero e gratuito di tutti gli autori, compresi gli utenti anonimi, Wikipedia non
può fornire garanzie sulla validità e l'accuratezza dei contenuti. Benché la comunità degli utenti cerchi di essere nel
complesso vigile e accurata, in ogni istante è sempre possibile che una pagina venga vandalizzata o modificata in
modo improprio, seppure in buona fede, con informazioni errate, illegali o non conformi alle consuetudini della
comunità o dell'area in cui vivi. Per favore, leggi attentamente le avvertenze [4] e tieni presente che le informazioni
qui riportate hanno un valore puramente illustrativo e divulgativo. Wikipedia non fornisce alcun consiglio medico,
legale o professionale.
Dove trovare altri libri come questo
Se desideri scaricare gratuitamente altri libri di Wikipedia, oppure la versione più aggiornata di questo stesso libro,
vai alla pagina http://it.wikipedia.org/wiki/Wikipedia:Libri
Ce ne sono molti altri, tutti gratuiti, sui più vari argomenti. Se non trovi quello che fa per te, lo puoi costruire tu
facilmente, raccogliendo assieme le voci dell'enciclopedia.
Come correggere questo libro
Se leggendo questo libro incontri degli errori o ritieni di poter migliorare i suoi contenuti per le future edizioni, ti
invitiamo a raggiungere il sito web http:/ / it. wikipedia. org , cercare la voce sull'argomento relativo e fare clic su
"modifica". In pochi secondi puoi eliminare l'errore. Ricordati che la tua collaborazione è preziosa. Una volta
effettuate le correzioni, puoi aggiornare la tua versione del libro e ristampare le pagine interessate dalle modifiche.
Buona lettura.
Wikipedia, 26/01/2012
Premessa
2
Note
[1] http:/ / it. wikipedia. org
[2] http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/
[3] A causa di un problema tecnico, la licenza di alcune immagini potrebbe risultare sconosciuta ("unknown"). Alcune di queste immagini
potrebbero non essere utilizzabili al di fuori del sito di Wikipedia. Si consiglia di scaricare il libro in formato ODT per rimuovere i contenuti
non liberi e correggere tali licenze.
[4] http:/ / it. wikipedia. org/ wiki/ WP:General_disclaimer
Algebra lineare
Alcuni oggetti studiati in algebra lineare
Spazi vettoriali
Vettori
Trasformazioni lineari
Sistemi di equazioni lineari
Autovettori e autovalori
Matrici
Quadriche
Tensori
L'algebra lineare è la branca della matematica che si occupa dello studio dei vettori, spazi vettoriali (o spazi lineari),
trasformazioni lineari e sistemi di equazioni lineari. Gli spazi vettoriali sono un tema centrale nella matematica
moderna; l'algebra lineare è usata ampiamente nell'algebra astratta, nella geometria e nell'analisi funzionale.
L'algebra lineare ha inoltre una rappresentazione concreta nella geometria analitica.
Con l'algebra lineare si studiano completamente tutti i fenomeni fisici "lineari", cioè quelli in cui intuitivamente non
entrano in gioco distorsioni, turbolenze e fenomeni caotici in generale. Anche fenomeni più complessi, non solo
della fisica ma anche delle scienze naturali e sociali, possono essere studiati "approssimando il sistema" con un
modello lineare.
Algebra lineare
Storia
La storia dell'algebra lineare moderna inizia negli anni 1843 e 1844. Nel 1843, William Rowan Hamilton (che ha
introdotto il termine vettore) inventò i quaternioni. Nel 1844, Hermann Grassmann pubblicò il suo libro Die lineale
Ausdehnungslehre (vedi i Riferimenti). Arthur Cayley introdusse le matrici (2×2), una delle idee fondamentali
dell'algebra lineare, nel 1857.
Introduzione elementare
L'algebra lineare ha le sue origini nello studio dei vettori negli spazi
cartesiani a due e a tre dimensioni. Un vettore, in questo caso, è un
segmento orientato, caratterizzato da lunghezza (o magnitudine),
direzione e verso. I vettori possono essere usati per rappresentare
determinate entità fisiche come le forze, e possono essere sommati fra
loro e moltiplicati per uno scalare, formando quindi il primo esempio
di spazio vettoriale sui reali.
L'algebra lineare moderna è stata estesa per comprendere spazi di
dimensione arbitraria o infinita. Uno spazio vettoriale di dimensione n
è chiamato n-spazio. Molti dei risultati utili nel 2-spazio e nel 3-spazio
possono essere estesi agli spazio di dimensione maggiore. Anche se
molte persone non sanno visualizzare facilmente i vettori negli n-spazi,
questi vettori o n-uple sono utili per rappresentare dati. Poiché i vettori,
come n-uple, sono liste ordinate di n componenti, molte persone
Uno spazio vettoriale è una collezione di oggetti,
comprendono e manipolano i dati efficientemente in questa struttura.
chiamati "vettori", che possono essere sommati e
riscalati.
Ad esempio, in economia, si può creare e usare vettori 8-dimensionali
(ottuple) per rappresentare il Prodotto Interno Lordo di 8 stati. Si può
decidere di visualizzare il PIL di 8 stati per un particolare anno, ad esempio (Stati Uniti, Gran Bretagna, Francia,
Germania, Spagna, India, Giappone, Australia), usando un vettore (v1, v2, v3, v4, v5, v6, v7, v8) dove il PIL di ogni
stato è nella sua rispettiva posizione.
Uno spazio vettoriale è definito sopra un campo, come il campo dei numeri reali o il campo dei numeri complessi.
Gli operatori lineari mappano elementi da uno spazio vettoriale su un altro (o su se stesso), in modo che sia
mantenuta la compatibilità con l'addizione e la moltiplicazione scalare definiti negli spazi vettoriali. L'insieme di
tutte queste trasformazioni è anch'esso uno spazio vettoriale. Se è fissata una base per uno spazio vettoriale, ogni
trasformazione lineare può essere rappresentata da una tabella chiamata matrice. Nell'algebra lineare si studiano
quindi le proprietà delle matrici, e gli algoritmi per calcolare delle quantità importanti che le caratterizzano, quali il
rango, il determinante e l'insieme dei suoi autovalori.
Uno spazio vettoriale (o spazio lineare), come concetto puramente astratto sul quale proviamo teoremi, è parte
dell'algebra astratta, e ben integrato in questo campo: alcuni oggetti algebrici correlati ad esempio sono l'anello delle
mappe lineari da uno spazio vettoriale in sé, o il gruppo delle mappe lineari (o matrici) invertibili. L'algebra lineare
gioca anche un ruolo importante in analisi, specialmente nella descrizione delle derivate di ordine superiore
nell'analisi vettoriale e nella risoluzione delle equazioni differenziali.
Concludendo, si può dire semplicemente che i problemi lineari della matematica - quelli che esibiscono "linearità"
nel loro comportamento - sono quelli più facili da risolvere, e che i problemi "non lineari" vengono spesso studiati
approssimandoli con situazioni lineari. Ad esempio nell'analisi, la derivata è un primo tentativo di approssimazione
lineare di una funzione. La differenza rispetto ai problemi non lineari è molto importante in pratica: il metodo
generale di trovare una formulazione lineare di un problema, in termini di algebra lineare, e risolverlo, se necessario
con calcoli matriciali, è uno dei metodi più generali applicabili in matematica.
3
Algebra lineare
4
Nozioni di base
Spazio vettoriale
La nozione più importante in algebra lineare è quella di spazio
vettoriale. Uno spazio vettoriale è un insieme
di elementi, detti
vettori, aventi delle proprietà che li rendono simili ai vettori applicati
in un punto fissato (l'origine) del piano o dello spazio.
Più precisamente, sono definite su
• due vettori e
nuovo vettore
un paio di operazioni binarie:
possono essere sommati, dando così luogo ad un
,
• un vettore può essere riscalato, cioè moltiplicato per un numero
, dando così luogo ad un nuovo vettore
.
Un vettore può essere riscalato, cioè
moltiplicato per un numero. Qui sono mostrati i
vettori
e
, ottenuti moltiplicando
rispettivamente per 2 e -1.
Il numero
(detto scalare) appartiene ad un campo che viene fissato
fin dall'inizio: questo può essere ad esempio il campo
reali o il campo
Due vettori e
possono essere sommati
usando la regola del parallelogramma.
dei numeri
dei numeri complessi.
Le due operazioni devono soddisfare una lunga lista di assiomi. Ad
esempio, la somma fra vettori deve essere associativa e commutativa.
Deve inoltre esistere un elemento neutro per la somma, ovvero un
particolare vettore, chiamato origine, vettore nullo, O oppure 0, tale
che
per ogni vettore .
Il piano cartesiano è l'esempio fondamentale di spazio vettoriale. Ogni punto del piano è in realtà identificato
univocamente come una coppia
di numeri reali. L'origine è il punto
. Il punto
può essere
interpretato alternativamente come punto del piano o come vettore applicato nell'origine che parte da
in
e arriva
.
Analogamente lo spazio cartesiano è formato da triple di punti
. Più in generale, le ennuple di
numeri
reali
formano uno spazio vettoriale che viene indicato con
campo
e ottenere quindi lo spazio vettoriale
.
. Ancora più in generale, si può sostituire
con un altro
Algebra lineare
5
Applicazioni lineari
Una applicazione lineare è una funzione fra due spazi vettoriali
che sia compatibile con le operazioni definite su entrambi. Devono
cioè valere le proprietà seguenti:
per ogni coppia di vettori
in
e ogni scalare
. I termini
"applicazione",
"funzione",
"trasformazione",
"mappa"
e
"omomorfismo" sono in questo contesto tutti sinonimi. Il termine
"lineare" sta a indicare la compatibilità con le operazioni. Una
applicazione lineare manda necessariamente l'origine (di
)
nell'origine (di
Una rotazione del piano cartesiano centrata
nell'origine (0,0) è una trasformazione lineare.
):
Gli spazi
e
possono coincidere. In questo caso
l'applicazione è più propriamente una trasformazione di
, ovvero una funzione che sposta i punti di
,
chiamata anche endomorfismo. Una trasformazione di
deve necessariamente tenere fissa l'origine O.
Molte trasformazioni del piano cartesiano o dello
spazio che tengono fissa l'origine O sono lineari: tra
Una trasformazione lineare può distorcere gli oggetti.
queste, le rotazioni (intorno a O), le riflessioni rispetto
ad una retta o un piano (passante per O), le omotetie
(centrate in O) e le proiezioni (su una retta o piano passante per O).
Le applicazioni lineari compaiono in contesti molto
differenti. Ad esempio, il funzionale
che associa ad una funzione
il suo integrale è una
applicazione lineare
dallo spazio
reali in
.
delle funzioni continue a valori
Una trasformazione lineare può allargare un oggetto orizzontalmente
e comprimerlo verticalmente.
Algebra lineare
6
Basi e dimensione
Un punto ha dimensione zero, una retta
ha dimensione uno, un piano ha
dimensione due. L'algebra lineare
permette di definire e trattare
agevolmente spazi di dimensione più
alta. Lo spazio fondamentale di
dimensione
è lo spazio vettoriale
delle ennuple, indicato con
. Per
, questo è l'usuale piano
cartesiano.
Ogni spazio vettoriale
ha una
dimensione. Questa è definita in modo
algebrico, come il numero di elementi
in una base per
: una base è un
I vettori
e
formano la base canonica del piano cartesiano
. Ogni
altro vettore si scrive (in modo univoco) come combinazione lineare di questi due vettori.
Ad esempio, il vettore
si scrive come
.
insieme di vettori che funge da sistema
di riferimento per . Rigorosamente, una base è una successione
di vettori indipendenti che generano lo spazio
. Uno spazio vettoriale può avere anche dimensione infinita: gli
spazi vettoriali di dimensione infinita sono spesso più complicati, e molti teoremi di algebra lineare richiedono come
ipotesi che abbia dimensione finita.
Le nozioni di base e dimensione si applicano a
(che ha dimensione
) e ai sottospazi ivi contenuti. Essendo
però definite in modo puramente algebrico, si applicano anche in contesti molto differenti: ad esempio, le matrici
formano uno spazio vettoriale di dimensione
. I polinomi in una variabile formano uno spazio
vettoriale di dimensione infinita: restringendo però il grado dei polinomi ad un certo valore massimo
uno spazio vettoriale di dimensione
.
si ottiene
Prodotto scalare
Due vettori e di uno spazio vettoriale possono essere sommati: il
risultato è un vettore
. Inoltre un vettore e uno scalare
possono essere moltiplicati: il risultato è un vettore
. Nella
definizione di spazio vettoriale non è però prevista una operazione di
prodotto fra due vettori.
In alcuni contesti è però utile aggiungere una ulteriore operazione
binaria fra vettori, che si comporti come un prodotto. Il risultato di
questo prodotto può essere a sua volta un vettore o uno scalare. Nel
primo caso, questa operazione si chiama prodotto vettoriale, e nel
secondo prodotto scalare. L'operazione di prodotto vettoriale risulta
però interessante solo in dimensione tre, mentre i prodotti scalari
esistono (e sono utili) in tutte le dimensioni: per questo motivo questi
ultimi sono molto più studiati.
Il prodotto scalare euclideo nel piano fra due
vettori
e
è definito come il prodotto
delle lunghezze di
su
e della proiezione di
. Esistono però molti altri modi utili di
definire un prodotto scalare, in spazi di
dimensione arbitraria.
Algebra lineare
7
Nella definizione di spazio vettoriale non è inoltre neppure prevista una nozione di lunghezza (equivalentemente,
norma) per i vettori, né di angolo fra due di questi. Entrambe le nozioni di lunghezza e angolo risultano però definite
se è fissato un opportuno prodotto scalare.[1]
Applicazioni
Sistemi lineari
Un sistema di equazioni lineari è il dato di un certo numero
di equazioni lineari in alcune variabili
.
Usando le matrici e la moltiplicazione riga per colonne, un sistema può essere scritto in modo stringato nel modo
seguente:
In questa espressione
è una matrice
,
è il vettore delle variabili
, ...,
e
è un altro vettore
formato da costanti.
L'algebra lineare fornisce molti algoritmi per determinare le soluzioni di un sistema lineare. Il legame fra i sistemi di
equazioni e l'algebra lineare sta nel fatto che la matrice
può essere interpretata come applicazione lineare da
in
: secondo questa interpretazione, le soluzioni
sono esattamente le controimmagini di
.
Il metodo di eliminazione di Gauss consente di determinare le soluzioni di un sistema. Il teorema di Rouché-Capelli
fornisce un metodo per contare le soluzioni, senza necessariamente determinarle completamente.[2] Nel caso in cui il
sistema sia quadrato e abbia una sola soluzione, questa può essere determinata usando la regola di Cramer.
Geometria analitica
In geometria analitica una retta o un piano sono descritti da sistemi di
equazioni lineari: come si è appena visto, questi possono essere
agevolmente studiati con gli strumenti dell'algebra lineare. Si possono
quindi affrontare problemi quali le posizioni reciproche di due rette (o
piani) nello spazio (che possono essere incidenti, paralleli o sghembi),
e come queste variano per trasformazioni lineari.
Una retta nel piano cartesiano è desritta da una
equazione lineare del tipo
. Due rette distinte sono
parallele se il sistema formato dalle loro due
equazioni non ha soluzione.
Le coniche nel piano come ellisse, parabola e iperbole sono
determinate da equazioni di secondo grado. Queste equazioni sono più
complicate di quelle lineari, che sono di primo grado. Nonostante ciò,
la classificazione delle coniche è realizzata in modo efficace con gli
strumenti dell'algebra lineare, grazie a teoremi non banali quali il
teorema spettrale e il teorema di Sylvester. Con gli stessi strumenti si
classificano le quadriche nello spazio.
Calcolo differenziale
L'analisi matematica delle funzioni in una variabile non fa uso
dell'algebra lineare. L'analisi delle funzioni in più variabili invece dipende fortemente da questo settore. La nozione
di derivata è infatti estesa in più variabili a quella di differenziale: mentre la derivata è un semplice numero reale che
indica la pendenza di una funzione in un punto, il differenziale è una applicazione lineare, che indica sempre la
"pendenza" di una funzione (a più variabili) in un punto.
Algebra lineare
8
Anche la nozione di derivata seconda si estende a più variabili: il
risultato è una matrice detta matrice hessiana. Questa matrice è
simmetrica e può essere agevolmente rappresentata come diagonale
grazie al teorema spettrale.
Analisi funzionale
Molti problemi dell'analisi funzionale, quali la ricerca di una soluzione
per una equazione differenziale, vengono affrontati analizzando un
particolare spazio di funzioni. Uno spazio di funzioni è uno spazio
vettoriale i cui elementi sono funzioni di un certo tipo (ad esempio
continue, integrabili, derivabili... definite su un dominio fissato). Spazi
di questo tipo sono generalmente di dimensione infinita, e sono dotati
di alcune strutture aggiuntive, quali ad esempio un prodotto scalare
(negli spazi di Hilbert), una norma (negli spazi di Banach) o una più
generale topologia (negli spazi vettoriali topologici).
Tre piani nello spazio possono avere varie
configurazioni differenti: in questo caso si
intersecano in un punto. Ciascun piano è descritto
da una equazione. Il punto di intersezione è
ottenuto come soluzione di un sistema con 3
equazioni e 3 variabili.
Esempi di spazi di funzioni includono gli spazi Lp e gli spazi di
Sobolev.
Meccanica quantistica
La meccanica quantistica fa ampio uso dei teoremi più
avanzati dell'algebra lineare. Il modello matematico usato in
questo settore della fisica (formalizzato principalmente da
Paul Dirac e John Von Neumann) descrive i possibili stati di
un sistema quantistico come elementi di un particolare spazio
di Hilbert e le grandezze osservabili (quali posizione, velocità,
etc.) come operatori autoaggiunti. I valori che possono
assumere queste grandezze quando vengono effettivamente
misurate sono gli autovalori dell'operatore.
L'introduzione e l'uso di questi concetti matematici non banali
nella fisica quantistica è stato uno dei maggiori stimoli allo
sviluppo dell'algebra lineare nel XIX secolo.
Strumenti
Le funzioni d'onda associate agli stati di un elettrone in un
atomo di idrogeno sono gli autovettori di alcuni particolari
operatori autoaggiunti usati in meccanica quantistica.
Matrici
Una matrice è una tabella di numeri, come ad esempio:
Le matrici sono utili in algebra lineare per rappresentare le applicazioni lineari. Questo viene fatto tramite la
moltiplicazione riga per colonna. Ad esempio, la matrice descritta
rappresenta una trasformazione del piano
cartesiano
in sé. Questa trasformazione manda il punto
nel punto
Algebra lineare
9
Questa trasformazione non è nient'altro che una rotazione antioraria di 90º con centro l'origine.
La relazione fra matrici e applicazioni lineari è molto forte. Ogni applicazione lineare fra spazi vettoriali di
dimensione
e è descrivibile tramite una matrice associata di tipo
, purché in entrambi gli spazi
vettoriali siano fissate delle basi. L'effetto di un cambiamento di base è codificato dalla matrice di cambiamento di
base e la composizione di funzioni si traduce in una moltiplicazione fra matrici.
Eliminazione di Gauss
L'eliminazione di Gauss è un algoritmo che consente di ridurre una matrice in una forma più semplice tramite
opportune mosse sulle righe. Questo algoritmo è usato principalmente per determinare le soluzioni di un sistema di
equazioni lineari, ma ha anche applicazioni più interne all'algebra lineare: con l'eliminazione di Gauss si può
determinare il rango, il determinante o l'inversa di una matrice, si può estrarre una base da un insieme di generatori.
Determinante
Il determinante è un numero associato ad
una matrice quadrata
, generalmente
indicato come
. Da un punto di vista
algebrico, il determinante è importante
perché vale zero precisamente quando la
matrice non è invertibile; quando non è zero,
fornisce inoltre un metodo per descrivere la
matrice inversa tramite la regola di Cramer.
Una trasformazione lineare del piano cartesiano descritta da una matrice quadrata
. Il determinante della matrice fornisce delle informazioni sulla
trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segno
descrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice ha
determinante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si
trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano
(cambia il verso della freccia circolare).
Da un punto di vista geometrico, il
determinante fornisce molte informazioni
sulla trasformazione associata ad
: il suo
segno (sui numeri reali) indica se la
trasformazione mantiene l'orientazione dello
spazio, ed il suo valore assoluto indica come
cambiano le aree degli oggetti dopo la
trasformazione.
Algebra lineare
10
Autovalori e autovettori
Per caratterizzare un endomorfismo è utile studiare
alcuni
vettori,
chiamati
autovettori.
Geometricamente, un autovettore è un vettore che
non cambia direzione. Da un punto di vista
algebrico, si tratta di un vettore tale che
per
qualche
scalare
,
detto
autovalore.
L'endomorfismo è particolarmente semplice da
descrivere se è diagonalizzabile: geometricamente,
questo vuol dire che esiste una base di autovettori;
algebricamente, vuol dire che l'endomorfismo può
essere rappresentato tramite una matrice diagonale,
come ad esempio
Gli autovalori possono essere trovati agevolmente
calcolando il polinomio caratteristico della matrice
associata, definito come
Gli autovalori di
In questa trasformazione lineare della Gioconda, l'immagine è modificata
ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato
lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un
autovettore della trasformazione e quello blu no.
sono precisamente le radici di questo polinomio. Gli autovettori si organizzano in sottospazi
vettoriali chiamati autospazi. Quando lo spazio vettoriale è uno spazio di funzioni, l'autovalore è una particolare
funzione, chiamata autofunzione.
Forma canonica di Jordan
Una endomorfismo diagonalizzabile è rappresentabile in modo agevole tramite una matrice diagonale. Non tutti gli
endomorfismi sono però diagonalizzabili: ad esempio, una rotazione antioraria del piano cartesiano
di angolo
è rappresentata dalla matrice
che (per
diverso da 0 e
) non ha autovalori né autovettori, e quindi a maggior ragione non può essere
diagonalizzabile. Un altro esempio di matrice non diagonalizzabile è la seguente
Se il campo considerato è però il campo
dei numeri complessi, è comunque possibile rappresentare
l'endomorfismo tramite una matrice che assomiglia il più possibile ad una matrice diagonale, come nel secondo
esempio mostrato. Questa rappresentazione, detta forma canonica di Jordan, caratterizza completamente gli
endomorfismi. Esiste una analoga rappresentazione nel campo reale, leggermente più complicata.
Algebra lineare
11
Ortogonalizzazione
Similmente ad un endomorfismo, anche un prodotto scalare può essere rappresentato da una matrice quadrata. Anche
in questo contesto, la forma più semplice da trattare è quella in cui la matrice risulta essere diagonale, e questo
accade precisamente quando si fissa una base ortogonale.
A differenza degli endomorfismi, in questo contesto è sempre possibile trovare una matrice diagonale. In altre
parole, per qualsiasi prodotto scalare è possibile trovare basi ortogonali. Se il prodotto scalare è definito positivo, un
algoritmo efficiente a questo scopo è l'ortogonalizzazione di Gram-Schmidt. Per prodotti scalari più generali si può
usare l'algoritmo di Lagrange.
Teoremi
Teorema della dimensione
Il teorema della dimensione (o del rango) è un teorema che mette in relazione le dimensioni del nucleo e
dell'immagine di una applicazione lineare , secondo la formula:
Qui Im e Ker denotano immagine e nucleo, mentre
è la dimensione del dominio di
. Questo risultato è anche
chiamato teorema del rango, perché tradotto nel linguaggio delle matrici assume la forma seguente:
Qui rk e null indicano rispettivamente il rango e l'indice di nullità di una matrice
del tipo
.
Teorema di Rouché-Capelli
Il teorema di Rouché-Capelli dà alcune informazioni sull'insieme delle soluzioni di un generico sistema lineare:
Il teorema afferma due cose:
• il sistema ha soluzione se e solo se le matrici
e
hanno lo stesso rango ;
• se ci sono soluzioni, queste formano un sottospazio affine di dimensione
, dove
incognite (cioè il numero di colonne di
è il numero di
).
In particolare, il numero di soluzioni può essere solo zero, uno o infinito (se le equazioni sono a coefficienti reali o
complessi).
Il teorema è generalmente usato per determinare rapidamente se un sistema ammette una o più soluzioni: non può
però essere usato per determinarle esplicitamente. Uno strumento per questo scopo è il metodo di eliminazione di
Gauss.
Relazione di Grassmann
La formula di Grassmann mette in relazione le dimensioni di vari sottospazi, definiti a partire da due sottospazi
entrambi contenuti uno spazio fissato
e
. La formula è la seguente:
Nell'espressione compaiono i sottospazi ottenuti come somma e intersezione di
e
.
Teorema spettrale
Il teorema spettrale fornisce una condizione forte di diagonalizzabilità per alcuni endomorfismi, detti simmetrici o
autoaggiunti (a volte il termine operatore è usato come sinonimo di endomorfismo). La nozione di endomorfismo
simmetrico (o operatore autoaggiunto) dipende dalla presenza di un fissato prodotto scalare definito positivo (o
Algebra lineare
hermitiano se si usano spazi vettoriali complessi). Il teorema spettrale asserisce che un tale endomorfismo ha una
base ortonormale formata da autovettori.
Generalizzazione e argomenti correlati
I metodi dell'algebra lineare sono stati estesi ad altre branche della matematica, grazie al loro successo. Nella teoria
dei moduli si sostituisce il campo degli scalari con un anello. L'algebra multilineare si occupa dei problemi che
mappano linearmente 'molte variabili' in un numero differente di variabili, portando inevitabilmente al concetto di
tensore. Nella teoria spettrale degli operatori si riescono a gestire matrici di dimensione infinita applicando l'analisi
matematica in una teoria non puramente algebrica. In tutti questi casi le difficoltà tecniche sono maggiori. Inoltre,
l'algebra lineare viene a essere fondamentale per ambiti riguardanti l'ottimizzazione, in particolare la Ricerca
Operativa.
Note
[1] Più precisamente, questo accade per uno spazio vettoriale reale dotato di un prodotto scalare definito positivo.
[2] Lo spazio delle soluzioni di un sistema è uno spazio affine, ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione.
Il numero di soluzioni può essere solo 0, 1 o infinito.
Bibliografia
• (EN) Serge Lang (2002): Algebra. Revised 3rd edition, Springer, ISBN 0-387-95385-X
• (EN) Steven Roman (1992): Advanced linear algebra, Springer, ISBN 0-387-97837-2
• (EN) de Boor, Carl, Applied Linear Algebra (http://digital.library.wisc.edu/1793/11635), (University of
Wisconsin-Madison, 2002).
• (EN) Rife, Susan A, Matrix Algebra. (http://handle.dtic.mil/100.2/ADA316035) (Naval Postgraduate School,
Monterey, California, 1996)
• (EN) Delatorre, Anthony R. e Cooke, William K., Matrix Algebra. (http://handle.dtic.mil/100.2/ADA350689)
(Naval Postgraduate School, Monterey, California, 1998)
• (EN) Beezer, Rob, A First Course in Linear Algebra (http://linear.ups.edu/index.html), licenza GFDL.
• (EN) J. H. M. Wedderburn Lectures on Matrices (http://www.ams.org/online_bks/coll17/) (American
Mathematical Society, Providence, 1934) ISBN 0-8218-3204-2
• (EN) Fearnley-Sander, Desmond, Hermann Grassmann and the Creation of Linear Algebra (http://www.maths.
utas.edu.au/People/dfs/Papers/GrassmannLinAlgpaper/GrassmannLinAlgpaper.html), American
Mathematical Monthly 86 (1979), pp. 809 – 817.
• (EN) Grassmann, Hermann, Die lineale Ausdehnungslehre ein neuer Zweig der Mathematik: dargestellt und
durch Anwendungen auf die übrigen Zweige der Mathematik, wie auch auf die Statik, Mechanik, die Lehre vom
Magnetismus und die Krystallonomie erläutert (http://books.google.com/books?id=bKgAAAAAMAAJ), O.
Wigand, Leipzig, 1844.
12
Algebra lineare
Voci correlate
• Spazio vettoriale
• Matrice
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Linear
algebra
Collegamenti esterni
• (EN) Linear Algebra Toolkit (http://www.math.odu.edu/~bogacki/lat/).
• (EN) Linear Algebra Workbench (http://www.algebra.com/algebra/college/linear/): moltiplica e inverte
matrici, risolve sistemi, trova autovalori, ecc.
• (EN) Linear Algebra (http://mathworld.wolfram.com/topics/LinearAlgebra.html) su MathWorld.
Spazio vettoriale
In matematica, uno spazio vettoriale, anche detto spazio lineare, è una struttura algebrica composta da:
• un campo
• un insieme i cui elementi sono detti vettori
• due operazioni binarie, dette somma e moltiplicazione per scalare, caratterizzate da determinate proprietà.[1]
Si tratta di una struttura algebrica di grande importanza, ed è una generalizzazione dell'insieme formato dai vettori
del piano cartesiano ordinario (o dello spazio tridimensionale) dotati delle operazioni di somma di vettori e di
moltiplicazione di un vettore per un numero reale.
Si incontrano spazi vettoriali in numerosi capitoli della matematica moderna e nelle sue applicazioni: questi servono
innanzitutto per studiare le soluzioni dei sistemi di equazioni lineari e delle equazioni differenziali lineari. Con
queste equazioni si trattano moltissime situazioni: quindi si incontrano spazi vettoriali nella statistica, nella scienza
delle costruzioni, nella meccanica quantistica, nella teoria dei segnali, nella biologia molecolare, ecc. Negli spazi
vettoriali si studiano anche sistemi di equazioni e disequazioni e in particolare quelli che servono alla
programmazione matematica e in genere alla ricerca operativa.
Strutture algebriche preliminari agli spazi vettoriali sono quelle di gruppo, anello e campo. Vi sono poi numerose
strutture matematiche che generalizzano e arricchiscono quella di spazio vettoriale; alcune sono ricordate nell'ultima
parte di questo articolo.
13
Spazio vettoriale
14
Definizione formale
La definizione di uno spazio vettoriale richiede di servirsi di un campo:
sono interessanti soprattutto il campo dei numeri reali R e quello dei
complessi C. Molti risultati dell'algebra lineare però si possono
sviluppare servendosi del semplice campo dei numeri razionali Q e di
notevole interesse sono anche i campi finiti, ed in particolare i campi
delle classi di resto modulo p Fp, per ogni p numero primo.
Sia K un generico campo, e si denotino rispettivamente con 0 e 1 il suo
zero e la sua unità. Si dice che l'insieme V è sostegno di uno spazio
vettoriale sul campo K se in V è definita un'operazione binaria interna
(+) per la quale (V,+) è un gruppo commutativo (ossia un gruppo
abeliano) ed è altresì definita una legge di composizione esterna (*)
K×V→V - detta prodotto esterno o moltiplicazione per uno scalare per la quale valgono le seguenti proprietà:[2][3]
1. Associatività del prodotto esterno
∀ a,b ∈ K, ∀ v ∈ V: a * (b * v) = (ab) * v.
Uno spazio vettoriale è una collezione di oggetti,
chiamati "vettori", che possono essere sommati e
riscalati.
2. Neutralità di 1 rispetto al prodotto esterno
∀ v ∈ V, 1 * v = v.
3. Distributività del prodotto esterno rispetto all'addizione di vettori
∀ a ∈ K, ∀ u, v ∈ V, a * (u + v) = a * u + a * v.
4. Distributività del prodotto esterno rispetto all'addizione di scalari
∀ a,b ∈ K, ∀ v ∈ V, (a + b) * v = a * v + b * v.
La struttura algebrica così definita si simboleggia con (V, K) o semplicemente con V laddove non ci siano equivoci
sul campo di definizione. Per uno spazio V sopra un campo K gli elementi di K sono detti scalari o numeri, mentre
gli oggetti di V si dicono vettori o punti. I vettori si simboleggiano con caratteri in grassetto, sottolineati o sormontati
da una freccia. Tale linguaggio consente di sostituire la dicitura prodotto esterno con prodotto per uno scalare.
Poiché la moltiplicazione per uno scalare è una legge di composizione esterna K×V→V si dice che V ha struttura di
spazio vettoriale sinistro. Nulla vieta di definire la composizione con uno scalare a destra; in tal caso si parlerà di
spazio vettoriale destro.
Da queste proprietà, possono essere immediatamente dimostrate le seguenti formule, valide per ogni a in K e ogni v
in V:
a *0=0*v=0
-(a * v) = (-a) * v = a * (-v)
dove 0 è lo zero in K e 0 è lo zero in V.
Uno spazio vettoriale reale o complesso è uno spazio vettoriale in cui K è rispettivamente il campo R dei numeri
reali o il campo C dei numeri complessi.
Spazio vettoriale
Primi esempi
Di seguito si elencano alcuni importanti esempi di spazi vettoriali; si denotano con m ed n due interi positivi.
Spazi Kn
L'insieme
formato da tutte le sequenze finite e ordinate di elementi di K, con le operazioni di somma e di prodotto per uno
scalare definite termine a termine (puntuali), è detto l'n-spazio numerico, spazio delle n-uple o spazio
n-dimensionale delle coordinate e può essere considerato il prototipo di spazio vettoriale.
Si osserva che gli spazi Rn e Cn posseggono una infinità continua di elementi, mentre Qn ha cardinalità numerabile e
per ogni p primo lo spazio Fpn è costituito da un numero finito di vettori, per la precisione pn.
Polinomi
L'insieme K [x] dei polinomi a coefficienti in K e con variabile x, con le operazioni usuali di somma fra polinomi e
prodotto di un polinomio per uno scalare, forma uno spazio vettoriale.
Matrici
L'insieme delle matrici m×n su K, con le operazioni di somma tra matrici e prodotto di uno scalare per una matrice,
forma uno spazio vettoriale.
Funzioni
L'insieme Fun(X, K) di tutte le funzioni da un fissato insieme X in K, dove:
• la somma di due funzioni f e g è definita come la funzione (f + g) che manda x in f(x)+g(x),
• il prodotto (λf) di una funzione f per uno scalare λ in K è la funzione che manda x in λf(x) è uno spazio vettoriale.
Ad esempio, l'insieme Fun(X, R) di tutte le funzioni da un aperto X dello spazio euclideo Rn in R è uno spazio
vettoriale.
15
Spazio vettoriale
16
Nozioni basilari
Lo studio della specie di struttura di spazio vettoriale si svolge sviluppando le nozioni di sottospazio vettoriale, di
trasformazione lineare (l'omomorfismo per questa specie di struttura), di base e di dimensione.
Sottospazi
Un sottospazio vettoriale di uno spazio
vettoriale
è un sottoinsieme
che
eredita da
una struttura di spazio
vettoriale. Per ereditare questa struttura, è
sufficiente che
sia chiuso rispetto alle
due operazioni di somma e prodotto per
scalare. In particolare,
deve contenere lo
zero di
.
Esempi
Una retta passante per l'origine è un
sottospazio vettoriale del piano cartesiano
R2; nello spazio vettoriale R3 tutti i piani e
tutte le rette passanti per l'origine sono
sottospazi.
Gli spazi formati dalle matrici simmetriche
o antisimmetriche sono sottospazi vettoriali
dell'insieme delle matrici m×n su K.
Tre sottospazi distinti di dimensione 2 in
: sono piani passanti per l'origine.
Due di questi si intersecano in un sottospazio di dimensione 1, cioè una retta
passante per l'origine (una di queste è disegnata in blu).
Altri importanti sottospazi vettoriali sono quelli di Fun(X, R), quando X è un insieme aperto di Rn: gli insiemi
formati dalle funzioni continue, dalle funzioni differenziabili e dalle funzioni misurabili.
Generatori e basi
Una combinazione lineare di alcuni vettori
è una scrittura del tipo
Una combinazione lineare è l'operazione più generale che si può realizzare con questi vettori usando le due
operazioni di somma e prodotto per scalare. Usando le combinazioni lineari è possibile descrivere un sottospazio
(che è generalmente fatto da un insieme infinito di punti[4]) con un numero finito di dati. Si definisce infatti il
sottospazio generato da questi vettori come l'insieme di tutte le loro combinazioni lineari.
Un sottospazio può essere generato a partire da diversi insiemi di vettori. Tra i possibili insiemi di generatori alcuni
risultano più economici di altri: sono gli insiemi di vettori con la proprietà di essere linearmente indipendenti. Un
tale insieme di vettori è detto base del sottospazio.
Si dimostra che ogni spazio vettoriale possiede una base; alcuni spazi hanno basi costituite da un numero finito di
vettori, altri hanno basi costituenti insiemi infiniti. Per questi ultimi la dimostrazione dell'esistenza di una base deve
ricorrere al Lemma di Zorn.
Alla nozione di base di uno spazio vettoriale si collega quella di sistema di riferimento di uno spazio affine.
Spazio vettoriale
Dimensione
Si dimostra che tutte le basi di uno spazio vettoriale posseggono la stessa cardinalità (questo risultato è dovuto a
Felix Hausdorff). Questa cardinalità viene chiamata dimensione di Hamel dello spazio; questa entità in genere viene
chiamata semplicemente dimensione dello spazio. La distinzione più rilevante fra gli spazi vettoriali vede da una
parte gli spazi finito-dimensionali e dall'altra quelli di dimensione infinita.
Per ogni intero naturale n lo spazio Kn ha dimensione n: in effetti una sua base è costituita dalle n n-uple aventi tutte
le componenti nulle ad eccezione di una uguale alla unità del campo. In particolare l'insieme costituito dal solo 0 del
campo può considerarsi uno spazio a 0 dimensioni, la retta dotata di un'origine è uno spazio monodimensionale su R,
il piano cartesiano è uno spazio di dimensione 2, lo spazio R3 ha dimensione 3.
Anche i polinomi con grado al più n formano un sottospazio vettoriale di dimensione n+1, mentre la dimensione
dell'insieme delle funzioni Fun(X, K) è pari alla cardinalità di X.
Tra gli spazi infinito dimensionali si trovano quelli formati dall'insieme dei polinomi in una variabile o in più
variabili e quelli formati da varie collezioni di funzioni ad esempio gli spazi Lp.
I vettori di uno spazio di n dimensioni, facendo riferimento ad una base fissata di tale spazio, possono essere
rappresentati come n-uple di scalari: queste sono le loro coordinate. Questo fatto consente di affermare che ogni
spazio n-dimensionale su K è sostanzialmente identificabile con Kn.
Trasformazioni lineari e omomorfismi
Una trasformazione lineare fra due spazi vettoriali V e W sullo stesso campo K è una applicazione che manda vettori
di V in vettori di W rispettando le combinazioni lineari. Dato che le trasformazioni lineari rispettano le operazioni di
somma di vettori e di moltiplicazioni per scalari, esse costituiscono gli omomorfismi per le strutture della specie
degli spazi vettoriali. Per denotare l'insieme degli omomorfismi da V in W scriviamo Hom(V, W). Particolarmente
importanti sono gli insiemi di endomorfismi; questi hanno la forma Hom(V, V).
Si osserva che per le applicazioni lineari di Hom(V, W) si possono definire le somme e le moltiplicazioni per
elementi di K, come per tutte le funzioni aventi valori in uno spazio su questo campo. L'insieme Hom(V, W) munito
di queste operazioni costituisce a sua volta uno spazio vettoriale su K, di dimensione dim(V)×dim(W). Un caso
particolare molto importante è dato dallo spazio duale V * := Hom(V, K); questo spazio ha le stesse dimensioni di V e
in effetti i suoi vettori sono strettamente collegati ai vettori di V.
Esempi più avanzati
Spazio vettoriale libero
Un esempio particolare spesso usato in algebra (e una costruzione piuttosto comune in questo campo) è quello di
spazio vettoriale libero su un insieme. L'obiettivo è creare uno spazio che abbia gli elementi dell'insieme come base.
Ricordando che, dato un generico spazio vettoriale, si dice che un suo sottoinsieme U è una base se gli elementi di U
sono linearmente indipendenti e ogni vettore si può scrivere come combinazione lineare finita di elementi di U, la
seguente definizione nasce naturalmente: uno spazio vettoriale libero V su B e campo K è l'insieme di tutte le
combinazioni lineari formali di un numero finito di elementi di B a coefficienti in K, cioè i vettori di V sono del tipo
dove i coefficienti non nulli sono in numero finito, e somma e prodotto sono definite come segue
17
Spazio vettoriale
Da tener ben presente che queste somme sono dette formali perché sono da considerarsi appunto dei puri simboli. In
pratica gli elementi di B servono solo come "segnaposto" per i coefficienti. Oltre a questa definizione più intuitiva ne
esiste una del tutto equivalente in termine di funzioni da B su K con supporto finito (supp f := { b ∈ B | f(b) ≠ 0 }),
cioè V ≅ { f: B → K | supp f è finito } dove per il secondo insieme le operazioni di somma e prodotto sono quelle
naturali e la corrispondenza è
Specializzazioni del concetto di spazio vettoriale
La nozione di spazio vettoriale è servita innanzi tutto a puntualizzare proprietà algebriche riguardanti ambienti ed
entità geometriche; inoltre essa costituisce la base algebrica per lo studio di questioni di analisi funzionale, che
possiamo associare ad una geometrizzazione dello studio di funzioni collegate ad equazioni lineari. La sola struttura
di spazio vettoriale risulta comunque povera quando si vogliono affrontare in modo più efficace problemi geometrici
e dell'analisi funzionale. Infatti va osservato che con la sola struttura di spazio vettoriale non si possono affrontare
questioni riguardanti lunghezze di segmenti, distanze ed angoli (anche se la visione intuitiva degli spazi vettoriali a 2
o 3 dimensioni sembra implicare necessariamente queste nozioni di geometria elementare). Per sviluppare le
"potenzialità" della struttura spazio vettoriale risulta necessario arricchirla in molteplici direzioni, sia con ulteriori
strumenti algebrici (ad es. proponendo prodotti di vettori), sia con nozioni topologiche, sia con nozioni differenziali.
In effetti si può prospettare una sistematica attività di arricchimento degli spazi vettoriali con costruzioni che si
aggiungono a quella di combinazione lineare al fine di ottenere strutture di elevata efficacia nei confronti di tanti
problemi matematici, computazionali e applicativi. Per essere utili, queste costruzioni devono essere in qualche
modo compatibili con la struttura dello spazio vettoriale, e le condizioni di compatibilità variano caso per caso.
Spazio normato
Uno spazio vettoriale in cui è definita una norma, cioè una lunghezza dei suoi vettori, è chiamato spazio normato.
L'importanza degli spazi vettoriali normati dipende dal fatto che a partire dalla norma dei singoli vettori si definisce
la distanza fra due vettori come norma della loro differenza e questa nozione consente di definire costruzioni
metriche e quindi costruzioni topologiche.
Spazio di Banach
Uno spazio normato completo rispetto alla metrica indotta è detto spazio di Banach.
Spazio di Hilbert
Uno spazio vettoriale complesso (risp. reale) in cui è definito un prodotto scalare hermitiano (risp. bilineare) definito
positivo, e quindi anche i concetti di angolo e perpendicolarità di vettori, è chiamato spazio prehilbertiano. Uno
spazio dotato di prodotto scalare è anche normato, mentre in generale non vale il viceversa.
Uno spazio dotato di prodotto scalare che sia completo rispetto alla metrica indotta è detto spazio di Hilbert.
Spazio vettoriale topologico
Uno spazio vettoriale munito anche di una topologia è chiamato spazio vettoriale topologico.
18
Spazio vettoriale
Algebra su campo
Uno spazio vettoriale arricchito con un operatore bilineare che definisce una moltiplicazione tra vettori costituisce
una cosiddetta algebra su campo. Ad esempio, le matrici quadrate di ordine n munite del prodotto di matrici formano
un'algebra. Un'altra algebra su un campo qualsiasi è fornita dai polinomi su tale campo muniti dell'usuale prodotto
fra polinomi.
Generalizzazioni del concetto di spazio vettoriale
Una generalizzazione del concetto di spazio vettoriale è invece quella di modulo; essa si basa su richieste analoghe a
quelle viste, ma per K non si chiede che sia un campo, ma un più generico anello.
Note
[1]
[2]
[3]
[4]
Hoffman, Kunze, op. cit., Pag. 28
S. Lang, op. cit., Pag. 37
Hoffman, Kunze, op. cit., Pag. 29
Questo è sempre vero se il campo è infinito, come ad esempio Q, R e C, tranne nel caso in cui il sottospazio sia semplicemente un punto (lo
zero).
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• Kenneth Hoffman; Ray Kunze, Linear Algebra, Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971. ISBN
01-353-6821-9
• Marco Abate; Chiara de Fabritiis, Geometria analitica con elementi di algebra lineare, Milano, McGraw-Hill,
2006. ISBN 88-386-6289-4.
• Luciano Lomonaco, Un'introduzione all'algebra lineare, Roma, Aracne, 2005. ISBN 88-548-0144-5.
• Giulio Campanella, Appunti di algebra, Roma, Nuova Cultura, 2005. ISBN 88-89362-22-7.
• Werner Greub, Linear Algebra, 4a ed., New York, Springer, 1995. ISBN 0-387-90110-8.
• Steven Roman, Advanced linear algebra, Springer, 1992. ISBN 0-387-97837-2.
• Edoardo Sernesi, Geometria 1, 2a ed., Torino, Bollati Boringhieri, 1989. ISBN 88-339-5447-1.
• Serge Lang, Linear Algebra, 3a ed., New York, Springer, 1987. ISBN 0-387-96412-6.
• Georgi Evgen'evich Shilov, Linear Algebra, Tradotto da Richard Silverman, New York, Dover, 1977. ISBN
0-486-63518-X.
• Paul Halmos, Finite-Dimensional Vector Spaces, 2a ed., New York, Springer, 1974. ISBN 0-387-90093-4.
• Silvana Abeasis, Elementi di algebra lineare e geometria, Bologna, Zanichelli, 1993. ISBN 88-08-16538-8.
Voci correlate
•
•
•
•
•
•
•
Vettore (matematica)
Applicazione lineare
Dimensione
Sottospazio vettoriale
Spazio duale
Prodotto scalare
Norma
19
Trasformazione lineare
20
Trasformazione lineare
In matematica, più precisamente in algebra lineare, una trasformazione lineare, detta anche applicazione lineare o
mappa lineare, è una funzione tra due spazi vettoriali che preserva la forma delle operazioni di somma di vettori e
di moltiplicazione per scalare. In altre parole, preserva le combinazioni lineari, cioè le composizioni che
caratterizzano la specie di struttura spazio vettoriale; quindi nel linguaggio dell'algebra astratta, una trasformazione
lineare è un omomorfismo di spazi vettoriali, in quanto conserva la forma di ogni istanza dell'operazione che
caratterizza gli spazi vettoriali.
Definizione
Siano
e
due spazi vettoriali sullo stesso campo
. Una funzione
è una trasformazione
[1][2]
lineare se soddisfa le seguenti proprietà:
•
•
per ogni coppia di vettori
e
in
e per ogni scalare
in
. La prima proprietà è detta additività, la seconda
omogeneità di grado 1.
Equivalentemente,
è lineare se "preserva le combinazioni lineari", ovvero se:
per ogni intero positivo m e ogni scelta dei vettori
Se
è una applicazione lineare e
e togliendo
e degli scalari
e
.
sono i vettori nulli di
e
rispettivamente, allora:[3]
da ambo i membri si ottiene
Sostituendo allo zero una combinazione lineare di vettori linearmente dipendenti si dimostra che un'applicazione
lineare non banale manda sottoinsiemi del dominio linearmente indipendenti in sottoinsiemi del codominio
linearmente indipendenti.[4]
Un'applicazione lineare è descritta completamente attraverso la sua azione sui vettori di una base qualsiasi del
dominio.[5] Poiché la scrittura di un vettore in una data base è unica, la linearità dell'applicazione determina l'unicità
del vettore immagine.
Un'applicazione lineare biunivoca (o invertibile) è inoltre un isomorfismo tra spazi vettoriali.[6]
Esistenza ed unicità dell'applicazione lineare
Siano
e
due spazi vettoriali di dimensione finita. Sia
vettori di
. Allora esiste un'unica applicazione lineare da
una base di
in
e siano
[7]
tale che:
Nel caso non si conosca la forma esplicita dell'applicazione è comunque possibile stabilirne l'esistenza e l'unicità
attraverso la conoscenza dell'azione dell'applicazione su un insieme di vettori dati
, dei quali si conosce
quindi l'immagine. Se l'insieme di vettori è una base del dominio allora l'applicazione è univocamente determinata,
mentre se i vettori dati non costituiscono una base vi sono due casi:
• I vettori di cui si conosce l'immagine sono linearmente indipendenti: in tal caso l'applicazione esiste ma non è
unica.
• I vettori di cui si conosce l'immagine non sono linearmente indipendenti: in tal caso uno o più vettori sono
combinazione lineare dei restanti. Si ha:
Trasformazione lineare
21
L'applicazione esiste (ma non è unica) se e solo se:
Matrice associata
Siano
e
due spazi vettoriali di dimensione finita. Scelte due basi
trasformazione lineare da
Ogni vettore
in
Se
a
e
per
e
, ogni
è rappresentabile come una matrice. Si ponga:
è univocamente determinato dalle sue coordinate
, definite in modo che:
è una trasformazione lineare si ha:
Quindi la funzione
La funzione
e
è determinata dai vettori
. Ciascuno di questi è scrivibile come:
è dunque interamente determinata dai valori di
, che formano la matrice associata a
nelle basi
[8]
.
La matrice associata
è di tipo
, e può essere usata agevolmente per calcolare l'immagine
vettore di
grazie alla relazione seguente:
dove
e
sono le coordinate di
e
di ogni
nelle rispettive basi.
Notiamo che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazioni
lineari diverse.
Struttura di spazio vettoriale
L'insieme
delle applicazioni lineari da
formato da tutte le funzioni da
in
in
è un sottospazio vettoriale dello spazio vettoriale
[9]
, infatti:
• La composizione di trasformazioni lineari è anch'essa una trasformazione lineare. Se
e
sono applicazioni lineari, allora lo è anche
• Se
e
sono lineari, allora lo è la loro somma
• Se
è lineare e
è un elemento del campo
, definita dalla relazione:
, allora la mappa
, definita da
, è anch'essa lineare.
Nel caso finito-dimensionale, dopo aver fissato delle basi, le operazioni di composizione, somma e prodotto per
scalare di mappe lineari corrispondono rispettivamente a moltiplicazione di matrici, somma di matrici e
moltiplicazione di matrici per scalare.
Le basi definiscono quindi un isomorfismo
lineari e delle matrici
, dove
e
tra gli spazi vettoriali delle applicazioni
sono le dimensioni rispettivamente di
e
.
Trasformazione lineare
22
Nucleo e immagine
Se
è lineare, si definisce nucleo di
si definisce immagine di
L'insieme ker(
l'insieme:[10]
[11]
l'insieme:
) è un sottospazio di
, mentre Im(
) è un sottospazio di
. Se
e
hanno dimensione
[12]
finita, il teorema della dimensione asserisce che:
Tale teorema fornisce un criterio necessario e sufficiente al fine di stabilre l'esistenza di una trasformazione lineare.
Endomorfismi e automorfismi
Una trasformazione lineare
è un endomorfismo di
. L'insieme di tutti gli endomorfismi Endo(
)
insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebra
associativa con unità sul campo
: in particolare formano un anello e un spazio vettoriale su
. L'elemento
identità di questa algebra è la trasformazione identità di
Un endomorfismo biiettivo di
.
viene chiamato automorfismo di
nuovo un automorfismo, e l'insieme di tutti gli automorfismi di
, chiamato Aut(
) o GL(
Se la dimensione di
; la composizione di due automorfismi è di
forma un gruppo, il gruppo generale lineare di
).
è finita basterà che f sia iniettiva per poter affermare che sia anche suriettiva (per il teorema
della dimensione). Inoltre l'isomorfismo
fra gli endomorfismi e le matrici quadrate
automorfismi di
in
descritto sopra è un isomorfismo di algebre. Il gruppo degli
è isomorfo al gruppo lineare generale GL(
,
) di tutte le matrici
invertibili a valori
.
Pull-Back di funzioni ed applicazione trasposta
Siano A,B,C degli insiemi ed F ( A, C ), F ( B, C ) le famiglie di funzioni da A in C e da B in C rispettivamente. Ogni
φ: A → B determina univocamente una corrispondenza φ*: F ( B, C ) → F ( A, C ), chiamata pull-back tramite φ,
che manda f in f φ.
Se nello specifico prendiamo A = V, B = W due spazi vettoriali su campo k = C, e anziché prendere gli interi F ( V, k
), F ( W, k ) ci restringiamo agli spazi duali V* e W*, abbiamo che ad ogni trasformazione lineare φ : V → W
possiamo associare l'opportuna restrizione del pull-back tramite φ, φ*: W* → V*, che prende il nome di trasposta di
φ.
Segue direttamente da come sono definite le operazioni in V* e W* che φ* è a sua volta lineare. Con un semplice
calcolo si vede che fissate delle basi per V e W, e le rispettive duali in V*, W*, la matrice che rappresenta φ* è la
trasposta di quella di φ (o, se rappresentiamo i funzionali come matrici riga e quindi viene tutto trasposto, le due
matrici sono uguali).
Segue dalla definizione che un funzionale w* ∈ W* viene mandato a 0 se e solo se l'immagine di φ è contenuta nel
nucleo di w* cioè, indicando con U⊥ il sottospazio dei funzionali che annullano U ⊂ W, si ha ker φ* = (im φ)⊥.
Trasformazione lineare
23
Esempi
• La moltiplicazione per una costante fissata
in
è una trasformazione lineare su qualsiasi spazio vettoriale su
.
• Una rotazione del piano euclideo rispetto all'origine di un angolo fissato.
• Una riflessione del piano euclideo rispetto ad una retta passante per l'origine.
• La proiezione di uno spazio vettoriale V decomposto in somma diretta
su uno dei due sottospazi U o W.
• Una matrice
di tipo
con valori reali definisce una trasformazione lineare
dove
è il prodotto di
e
. Ogni trasformazione lineare tra spazi vettoriali di dimensione finita è
essenzialmente di questo tipo: si veda la sezione seguente.
• L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzioni
continue definite sull'intervallo nello spazio vettoriale R.
• La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervallo
aperto di R nello spazio di tutte le funzioni.
• Lo spazio C dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche di
spazio vettoriale reale di dimensione 2. La coniugazione
è una mappa R-lineare ma non C-lineare: infatti la proprietà di omogeneità vale solo per scalari reali.
Note
[1] S. Lang, op. cit., Pag. 82
[2] Hoffman, Kunze, op. cit., Pag. 67
[3] Hoffman, Kunze, op. cit., Pag. 68
[4] Hoffman, Kunze, op. cit., Pag. 80
[5] S. Lang, op. cit., Pag. 86
[6] S. Lang, op. cit., Pag. 96
[7] Hoffman, Kunze, op. cit., Pag. 69
[8] S. Lang, op. cit., Pag. 84
[9] S. Lang, op. cit., Pag. 85
[10] S. Lang, op. cit., Pag. 90
[11] S. Lang, op. cit., Pag. 91
[12] S. Lang, op. cit., Pag. 92
Trasformazione lineare
24
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.
ISBN 01-353-6821-9
Voci correlate
•
•
•
•
•
•
Matrice di trasformazione
Autovettore e autovalore
Trasformazione affine
Funzionale lineare
Operatore lineare continuo
(EN) wikibooks:Linear Algebra/Linear Transformations
Collegamenti esterni
• (EN) http://www.falstad.com/matrix/
Base (algebra lineare)
In matematica, e più precisamente in algebra lineare, la base di uno spazio vettoriale è un insieme di vettori
linearmente indipendenti che generano lo spazio.[1] In modo equivalente, ogni elemento dello spazio vettoriale può
essere scritto in modo unico come combinazione lineare dei vettori appartenenti alla base.[2]
Se la base di uno spazio vettoriale è composta da un numero finito di elementi allora la dimensione dello spazio è
finita.[3] In particolare, il numero di elementi della base è la dimensione dello spazio.[4]
Definizione
Sia V uno spazio vettoriale su un campo K. L'insieme v1, v2, ..., vn di elementi di V è una base di V se valgono
entrambe le seguenti proprietà:[2]
• I vettori v1, ..., vn sono linearmente indipendenti in K, ovvero la relazione:
è verificata solo se i numeri a1, a2, .., an sono tutti uguali a zero.
• I vettori v1, ..., vn generano V, ovvero:
In particolare, per ogni vettore v di V i numeri a1, a2, .., an sono le sue coordinate rispetto alla base scelta.
Si dice anche che i vettori
appartenenti ad una qualsiasi base di V costituiscono un sottoinsieme massimale di
vettori linearmente indipendenti dello spazio.[5] Questo significa che i vettori
sono tali che esistono a1, a2, ..,
an tali che:
ovvero l'aggiunta al sottoinsieme massimale di un qualsiasi altro elemento dello spazio determina la dipendenza
lineare degli elementi del sottoinsieme.[6]
Base (algebra lineare)
Una base è dunque composta dal minimo numero di vettori linearmente indipendenti che genera lo spazio. Un
insieme di infiniti elementi possiede infinite possibili basi diverse.
Dimensione di uno spazio vettoriale
Uno spazio vettoriale in generale non ha una sola base, e solitamente si trattano spazi con infinite basi possibili. Il
teorema della dimensione per spazi vettoriali afferma che tutte le possibili basi di uno stesso spazio hanno la stessa
cardinalità, sono formate cioè sempre dallo stesso numero di vettori.[7] Questo numero è la dimensione dello spazio,
e permette di definire spazi di dimensione arbitrariamente alta. La dimensione dello spazio è inoltre pari sia al
massimo numero di vettori indipendenti che esso contiene, sia al minimo numero di vettori necessari per generare lo
spazio stesso.
Esistenza
Qualsiasi sia lo spazio vettoriale V, è sempre possibile trovarne una base. La dimostrazione richiede l'uso del lemma
di Zorn nel caso generale, mentre nel caso particolare degli spazi finitamente generati esistono dimostrazioni più
semplici.
Si consideri la collezione I(V) dei sottoinsiemi di V linearmente indipendenti. È immediato dedurre che l'inclusione ⊂
è un ordine parziale su I(V), e che per ogni catena {Bi} l'insieme ∪ Bi ne è un maggiorante (è linearmente
indipendente in quanto unione di elementi di una catena ordinata per inclusione). Applicando il lemma di Zorn,
esiste un insieme massimale linearmente indipendente B in I(V). Dunque B è una base, infatti se v ∈ V e v ∉ B, allora
per la massimalità di B l'insieme B ∪ {v} deve essere linearmente dipendente, cioè esistono degli scalari a, a1, ..., an
non tutti nulli tali che
con a ≠ 0, dal momento che se fosse nulla allora anche gli altri ai dovrebbero esserlo, essendo gli elementi di B
linearmente indipendenti. Quindi v può essere scritto come combinazione lineare finita di elementi di B, che oltre a
essere linearmente indipendenti generano V. Dunque B è una base.
Coordinate rispetto ad una base
Per esprimere un vettore in modo unico attraverso una base è necessario definire un ordinamento nell'insieme dei
vettori che costituiscono la base. Una base ordinata è una successione di vettori linearmente indipendenti che
generano lo spazio. In particolare, se la successione v1, v2, ..., vn di elementi è una base ordinata di V, allora l'insieme
di tali vettori è una base di V.[8]
Ogni vettore w di V si può scrivere in modo unico come combinazione lineare dei vettori di base:
Si definisce l'insieme delle coordinate di w rispetto alla base data il vettore:[8]
Si tratta del vettore che ha come componenti i coefficienti della combinazione lineare di vettori di base attraverso i
quali si può scrivere w. Tale vettore dipende dalla base scelta.
La mappa f: V → Kn che associa ad ogni vettore v le sue coordinate f(v) è un isomorfismo di spazi vettoriali, cioè è
una applicazione lineare biettiva.[9]
25
Base (algebra lineare)
26
La base canonica
Sia K un campo. L'insieme Kn è uno spazio vettoriale di dimensione n. Si definisce base canonica di Kn l'insieme di
vettori:[1]
Ogni vettore w di Kn si può allora scrivere come combinazione lineare dei vettori di base:
Il vettore:
è il vettore delle coordinate di w rispetto alla base canonica.[10] Solitamente si identifica un vettore attraverso le sue
coordinate rispetto alla base canonica, ovvero w = a.
Ad esempio, i vettori
sono una base di R2, infatti ogni vettore
ed
si scrive
come:
Generalizzazioni in dimensione infinita
Il concetto di base in spazi di dimensione infinita (in cui cioè esista un insieme infinito di vettori linearmente
indipendenti) è più problematico. Per tali spazi esistono due nozioni differenti di base: la prima, detta base di Hamel,
è definita algebricamente, mentre la seconda, detta base di Schauder, necessita della presenza di una topologia.
Base di Hamel
Una base di Hamel per uno spazio vettoriale
parametrizzato da un insieme ordinato
di vettori linearmente indipendenti[11],
è un insieme
di indici, tale che ogni vettore
di
è combinazione lineare di un
insieme finito di questi.
Nel caso in cui è un insieme finito, la definizione coincide con quella data precedentemente.
Grazie al lemma di Zorn ogni spazio vettoriale ha una base di Hamel, ed inoltre due basi di Hamel qualsiasi di uno
stesso spazio vettoriale hanno la stessa cardinalità, che è pari alla dimensione (di Hamel) dello spazio vettoriale.
Infine, continua a rimanere vero il fatto che ogni vettore dello spazio si scrive in modo unico come combinazione
lineare dei vettori di una base di Hamel.
Ad esempio, una base di Hamel per lo spazio vettoriale
campo
formato da tutti i polinomi a coefficienti in un
è data dall'insieme di tutti i monomi:
Infatti ogni polinomio
è combinazione lineare di un insieme finito di questi.
L'insieme dei numeri reali può essere considerato uno spazio vettoriale su
. Ne consegue che ogni numero reale
può essere espresso come combinazione lineare finita di elementi presi da un sottoinsieme proprio di
sottoinsieme non potrà essere finito o numerabile poiché
possono essere fatte considerando
: tale
ha la potenza del continuo (analoghe considerazioni
come spazio vettoriale su
).
Base (algebra lineare)
27
Base di Schauder o topologica
Se lo spazio è dotato di una topologia, è possibile estendere la definizione di base in modo diverso, ammettendo
somme infinite di vettori. Il senso di queste somme infinite è infatti dato dalle nozioni di limite di una successione e
di serie.
Se
è uno spazio vettoriale topologico (ad esempio uno spazio di Hilbert o di Banach), un insieme ordinato
di vettori linearmente indipendenti è una base di Schauder (o topologica) se lo spazio da essi generato è
denso in
. In altre parole, se ogni vettore
di
può essere approssimato da somme (finite) di vettori in
, e quindi come limite di una somma infinita di questi:
dove
è un sottoinsieme numerabile.
Problema di esistenza della base di Schauder
Si pone il problema dell'esistenza di una base di Schauder in spazi di Hilbert o di Banach. La risposta, in generale, è
negativa: infatti, dalla definizione consegue, in particolare, che uno spazio di Hilbert o di Banach che possiede una
base di Schauder deve necessariamente essere separabile (infatti, dallo spazio generato dai
, che è denso in
è sempre possibile estrarre un sottoinsieme denso e numerabile utilizzando le combinazioni lineari a coefficienti
in
)
In uno spazio di Hilbert, è di particolare importanza la nozione di base ortonormale: in uno spazio di Hilbert
separabile, una base ortonormale è una base di Schauder.
L'esistenza di una base di Schauder in uno spazio di Banach non è, in genere, assicurata nemmeno aggiungendo
l'ipotesi (peraltro necessaria) che si tratti di uno spazio separabile: un controesempio è stato fornito nel 1973 da Per
Enflo. Un teorema di Stanisław Mazur mostra che in uno ogni spazio di Banach (a dimensione infinita) esiste sempre
un sottospazio di dimensione infinita che possiede una base di Schauder.
L'esistenza di una base di Schauder consente di estendere alcuni teoremi . .
Cardinalità
Le due nozioni di basi sono generalmente molto differenti, e anche le loro cardinalità possono differire, portando a
due concetti diversi di dimensione, chiamati rispettivamente dimensione di Hamel e dimensione di Schauder. La
dimensione di Hamel può avere cardinalità superiore a quella di Schauder (pur essendo entrambe infinite).
Ad esempio, sia
lo spazio delle funzioni continue reali definite sull'intervallo
. Questo è uno spazio di
Banach con la norma
Come conseguenza della teoria delle serie di Fourier, una base di Schauder per
è costruita a partire dalle funzioni
trigonometriche
ed ha cardinalità numerabile. Una base di Hamel ha invece cardinalità non numerabile, ed è molto più difficile da
costruire (e scarsamente utilizzata).
Base (algebra lineare)
28
Note
[1] Hoffman, Kunze, op. cit., Pag. 41
[2] S. Lang, op. cit., Pag. 44
[3] Si ha anche che se la base è composta da un numero infinito di elementi allora la dimensione è infinita, tuttavia questa affermazione non
segue direttamente dalla definizione.
[4] Hoffman, Kunze, op. cit., Pag. 44
[5] S. Lang, op. cit., Pag. 45
[6] S. Lang, op. cit., Pag. 47
[7] S. Lang, op. cit., Pag. 49
[8] Hoffman, Kunze, op. cit., Pag. 50
[9] Hoffman, Kunze, op. cit., Pag. 51
[10] Hoffman, Kunze, op. cit., Pag. 49
[11] Per definizione
è un insieme di vettori indipendenti se ogni suo sottoinsieme finito è formato da vettori indipendenti.
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.
ISBN 01-353-6821-9
Voci correlate
•
•
•
•
•
•
•
Base ortonormale
Completamento a base
Estrazione di una base
Formula di Grassmann
Matrice di cambiamento di base
Span lineare
Sottospazio vettoriale
Teorema del rango
29
Teorema del rango
In matematica, in particolare in algebra lineare, il teorema del rango, anche detto teorema di nullità più rango o
teorema della dimensione, afferma che la somma della dimensione dell'immagine più la dimensione del nucleo di
una trasformazione lineare è pari alla dimensione del dominio. In modo equivalente, la somma del rango e della
nullità di una matrice è pari al numero di colonne della matrice.
Enunciato
Il teorema vale nel contesto delle trasformazioni lineari fra spazi vettoriali, con l'ipotesi che lo spazio vettoriale di
partenza abbia dimensione finita. Data una applicazione lineare fra spazi vettoriali:
il teorema stabilisce che vale la relazione:[1]
dove
e
sono rispettivamente l'immagine e il nucleo di
In modo equivalente, se
è una matrice
e
è la dimensione di
.
allora:
L'equivalenza degli enunciati deriva dal fatto che ogni applicazione lineare
può essere scritta nel
[2]
seguente modo:
dove A è la matrice di trasformazione associata ad
rispetto ad una data base.
Il nucleo di f è lo spazio delle soluzioni del sistema di equazioni lineari omogeneo associato alla matrice A, mentre
l'immagine è lo spazio generato dalle sue colonne
.[3]
Dimostrazione
Poiché
ha dimensione finita, il sottospazio vettoriale
ha anch'esso dimensione finita. Il nucleo ha quindi
una base:
Per il teorema della base incompleta esistono
sia una base di
. Per concludere è sufficiente mostrare che i vettori:
formano una base di
I primi
tali che:
. L'immagine è generata dai vettori:
vettori sono però nulli, quindi l'immagine è generata dagli ultimi
vettori:
Resta quindi da verificare che questi vettori siano linearmente indipendenti. Si suppone quindi data una
combinazione lineare nulla:
Per linearità si ottiene:
Quindi:
Teorema del rango
30
Poiché questo vettore sta nel nucleo, è esprimibile come combinazione lineare dei vettori
:
In altre parole:
Poiché
è una base di
, tutti i coefficienti qui presenti sono nulli. In particolare,
. Quindi i vettori
per ogni
sono effettivamente indipendenti. L'immagine ha quindi dimensione
. Pertanto:
Dimostrazione con il teorema di isomorfismo
Il teorema del rango può essere visto come corollario al primo teorema di isomorfismo:
,
dove
è un omomorfismo di gruppi (in particolare, di spazî vettoriali) che agisce su V. Si ha infatti:
,
che è l'asserto del teorema.
Caso di dimensione infinita
Supponiamo il caso particolare in cui l'applicazione lineare è un endomorfismo, cioè una applicazione lineare dallo
spazio V in sé stesso
La relazione appena dimostrata
dice che l'iniettività e la suriettività dell'applicazione si implicano a vicenda.
Nel caso infinito questo cessa di essere vero. Ad esempio considerando
come spazio vettoriale su
e l'applicazione
che agisce "spostando" in avanti le coordinate e
mettendo lo zero in prima posizione, cioè
è immediato mostrare che tale applicazione è lineare e iniettiva, ma banalmente non suriettiva.
Teorema del rango
Riformulazioni e generalizzazioni
In linguaggio più moderno, il teorema può essere espresso nel seguente modo: se
è una successione esatta corta di spazi vettoriali, allora
Qui R gioca il ruolo di im T e U è ker T.
Nel caso finito-dimensionale questa formulazione è suscettibile di generalizzazione: se
è una successione esatta di spazi vettoriali a dimensioni finite, allora
Il teorema del rango per gli spazi vettoriali a dimensioni finite può anche essere formulato in termini degli indici di
una mappa lineare. L'indice di una mappa lineare T : V → W, dove V e W sono a dimensioni finite, è definito da
indice T = dim(ker T) - dim(coker T).
Intuitivamente, dim(ker T) è il numero di soluzioni indipendenti x dell'equazione Tx = 0, e dim(coker T) è il numero
di restrizioni indipendenti che devono essere poste su y per rendere Tx = y risolvibile. Il teorema del rango per gli
spazi vettoriali a dimensioni finite è equivalente all'espressione
index T = dim(V) - dim(W).
Si vede che possiamo facilmente leggere l'indice della mappa lineare T dagli spazi coinvolti, senza la necessità di
esaminare T in dettaglio. Questo effetto si trova anche in un risultato molto più profondo: il teorema dell'indice di
Atiyah-Singer afferma che l'indice di determinati operatori differenziali può essere letto dalla geometria degli spazi
coinvolti.
Note
[1] S. Lang, op. cit., Pag. 92
[2] S. Lang, op. cit., Pag. 105
[3] S. Lang, op. cit., Pag. 176
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• Philippe Ellia, Appunti di Geometria I, Bologna, Pitagora Editrice, 1997, ISBN 88-3710958-X
31
Formula di Grassmann
32
Formula di Grassmann
In matematica, la formula di Grassmann è una relazione che riguarda le dimensioni dei sottospazi vettoriali di uno
spazio vettoriale o dei sottospazi proiettivi di uno spazio proiettivo.
La formula di Grassmann, il cui nome è stato scelto in onore del matematico tedesco Hermann Grassmann, afferna
inoltre che i sottospazi di uno spazio vettoriale muniti delle operazioni binarie + e
costituiscono un reticolo
modulare.
Definizione
Sia
uno spazio vettoriale su un campo
due sottospazi di
e con
dotato di dimensione finita, cioè dotato di una base finita. Siano
. Indichiamo con
il sottospazio somma di
e
e
[1]
, dato da:
il loro sottospazio intersezione.
La formula di Grassman afferma che:[2]
Somma diretta
Due sottospazi
e
sono in somma diretta se
. In questo caso la formula di Grassmann
asserisce che:
Se inoltre
, si dice che
si decompone in somma diretta di
In questo caso il sottospazio
è un supplementare di
Ad esempio, lo spazio
delle matrici quadrate
e
e si scrive:
(e viceversa).
a coefficienti in un campo
si decompone nei
sottospazi delle matrici simmetriche e delle antisimmetriche:
La formula di Grassmann porta alla uguaglianza concernente le dimensioni dei due sottospazi della forma:
Dimostrazione
Struttura della dimostrazione
La formula si dimostra individuando due basi per
e
che hanno in comune i vettori che costituiscono una base
per la loro intersezione. Più precisamente, si prende una base
di
, e ad una base
di
. I vettori in
generano lo spazio
per
, e si completa ad una base
, si verifica che sono indipendenti, e quindi sono una base per
degli elementi nelle quattro basi trovate fornisce la formula di Grassmann.
. Un conteggio
Formula di Grassmann
33
Verifica dell'indipendenza lineare
L'unico fatto che necessita di una dimostrazione approfondita è l'indipendenza dei vettori in
che viene mostrata nel modo seguente: sia
Supponiamo l'esistenza di una combinazione lineare nulla
In altre parole, raggruppando
si ottiene
Da questo segue che
a
. Quindi
, e poiché sia
appartiene all'intersezione
D'altra parte, come elemento di
che
appartengono a
, ne segue che anche
appartiene
, e si scrive come combinazione lineare di elementi di
, è descritto come combinazione lineare di elementi di
.
: poiché ogni
elemento ha un'unica descrizione come combinazione lineare di elementi di una base, ne segue che entrambe queste
combinazioni hanno tutti i coefficienti nulli. Quindi
Si ottiene quindi
sono una base di
. Poiché i vettori
, sono quindi indipendenti, e ne segue che anche
Quindi i coefficienti sono tutti nulli: l'insieme
è formato da elementi indipendenti, ed è quindi una base.
Conteggio dimensioni
Usando le notazioni appena introdotte, il conteggio delle dimensioni dà proprio
Dimostrazione alternativa
Si consideri la funzione:
che si verifica essere un'applicazione lineare. Si ha:
Il nucleo è uno spazio vettoriale isomorfo a
Si ha quindi:
dove si è applicato il teorema del rango più nullità.
, e l'isomorfismo è dato da:
Formula di Grassmann
34
Dimostrazione con il teorema di isomorfismo
La formula di Grassmann può essere vista come corollario del secondo teorema di isomorfismo:
con U e W visti come gruppi (notazione additiva), e dove con
si intende l'ordinario quoziente insiemistico. Infatti
si ha:
che è la formula di Grassmann.
Esempi
Questa formula si visualizza facilmente e significativamente nel caso in cui
tridimensionale sui reali
sia lo spazio vettoriale
; le possibilità per i sottospazi portano alla seguente casistica:
• Uno dei due sottospazi
o
ha dimensione 0 o 3: in questo caso (a meno di scambiare i nomi dei due
sottospazi) abbiamo
e
e la formula si riduce a una identità.
•
e sono sottospazi di dimensione 1 (cioè rette passanti per l'origine):
• se le rette sono distinte
contiene solo il vettore nullo ed ha dimensione 0 e
è il piano
contenente le due rette, per cui la formula si riduce a 1 + 1 = 2 + 0.
• se coincidono
e ancora si ha una identità.
•
è una retta per l'origine e un piano per l'origine:
• se la retta non giace nel piano si ha: 1 + 2 = 3 + 0;
• se la retta giace nel piano: 1 + 2 = 2 + 1.
•
e sono piani per l'origine:
• se non coincidono la loro intersezione è una retta e si ha: 2 + 2 = 3 + 1;
• se coincidono si ha un'identita` che numericamente afferma: 2 + 2 = 2 + 2.
• per il calcolo della dimensione di H si utilizza la seguente formula: H=9-dimA*(3-dimB)
Note
[1] S. Lang, op. cit., Pag. 52
[2] Hoffman, Kunze, op. cit., Pag. 46
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.
ISBN 01-353-6821-9
Voci correlate
• base
• Teorema della dimensione
Teorema di Rouché-Capelli
35
Teorema di Rouché-Capelli
Il teorema di Rouché-Capelli è un teorema di algebra lineare che permette di calcolare il numero di soluzioni di un
sistema di equazioni lineari in funzione del rango di alcune matrici.
Prende il nome dal matematico francese Eugène Rouché, suo ideatore, e dal matematico italiano Alfredo Capelli, che
lo riscrisse in maniera più semplice.
Il teorema
Un sistema di equazioni lineari:
può essere descritto usando la matrice:
detta matrice associata al sistema. Essa è ottenuta dalla giustapposizione della matrice
un'ulteriore colonna
, detta colonna dei termini noti. Le matrici
e
dei coefficienti e di
sono dette rispettivamente
incompleta e completa. I coefficienti del sistema lineare (e quindi delle matrici) sono elementi di un campo
quale ad esempio quello dei numeri reali
o complessi
,
.
Il teorema di Rouché-Capelli afferma che esistono soluzioni per il sistema se e solo se il rango della matrice
completa è uguale al rango della matrice incompleta:
Se esistono soluzioni, queste formano un sottospazio affine di
campo
è infinito si ha che se
di dimensione
. In particolare, se il
allora la soluzione è unica, altrimenti ci sono infinite soluzioni.[1]
Dimostrazione
Il sistema può essere descritto in modo più stringato, introducendo il vettore delle coordinate:
ed usando il prodotto fra matrici e vettori, nel modo seguente:
In altre parole,
è l'immagine del vettore
ottenuta mediante l'applicazione lineare
associata
alla matrice dei coefficienti:
Quindi il sistema ammette soluzione se e solo se
nell'immagine di
. Del resto l'immagine di
è l'immagine di un qualche vettore
contenuto nell'immagine se e solo se lo span delle colonne di
di
è uguale allo span delle colonne di
di
è generata dai vettori dati dalle colonne di
contiene
, ovvero se è
. Quindi
è
, cioè se e solo se lo span delle colonne
. Quest'ultima affermazione è equivalente a chiedere che le due
Teorema di Rouché-Capelli
36
matrici abbiano lo stesso rango.
Se esiste una soluzione
, ogni altra soluzione si scrive come
, dove
è una soluzione del sistema
[2]
lineare omogeneo associato:
Infatti:
Lo spazio delle soluzioni, ottenuto traslando il nucleo con il vettore
, è quindi il sottospazio affine dato da:
La dimensione dello spazio delle soluzioni del sistema completo è uguale alla dimensione dello spazio delle
soluzioni del sistema omogeneo associato.[3]
Le soluzioni del sistema lineare omogeneo associato sono il nucleo dell'applicazione
dimensione il nucleo è un sottospazio vettoriale di dimensione
ottenuto traslando il nucleo con il vettore
, e per il teorema della
. Quindi lo spazio delle soluzioni,
, è un sottospazio affine della stessa dimensione.
Note
[1] Informalmente, il fatto che le soluzioni formano un sottospazio affine di dimensione
gradi di libertà. Alcuni testi sintetizzano questo fatto asserendo che ci sono
equivale al fatto che queste hanno
soluzioni, tuttavia questa notazione
è errata da un punto di vista matematico in quanto lascia intendere che la cardinalità dell'insieme dipenda dalla dimensione
,
mentre la cardinalità è sempre la stessa e quello che varia è la dimensione dell'oggetto.
[2] S. Lang, op. cit., Pag. 177
[3] S. Lang, op. cit., Pag. 178
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.
ISBN 01-353-6821-9
• F. Odetti; M. Raimondo, Elementi di Algebra Lineare e Geometria Analitica, ECIG, 1992. ISBN 88-7545-717-4
Voci correlate
• Teorema della dimensione
Rango (algebra lineare)
37
Rango (algebra lineare)
Nell'algebra lineare, il rango o caratteristica di una matrice
colonne (o righe) linearmente indipendenti in
a valori in un certo campo è il massimo numero di
.
Il rango di una matrice può essere formulato in numerosi modi equivalenti, ed è una quantità fondamentale in algebra
lineare, utile per risolvere i sistemi lineari e studiare le applicazioni lineari. È comunemente indicato con rango(
), rg(
)o
(
), o con le versioni inglesi rank(
) o rk(
).
Definizione
Sia
•
•
•
•
una matrice, a valori in un campo
. Le seguenti definizioni di rango di
sono tutte equivalenti:
Il massimo numero di colonne linearmente indipendenti
Il massimo numero di righe linearmente indipendenti
La dimensione del sottospazio di
generato dalle colonne di
La dimensione del sottospazio di
generato dalle righe di
• La dimensione dell'immagine dell'applicazione lineare
da
in
seguente:
• Il massimo ordine di un minore invertibile di
Rango di una trasformazione lineare
Si può attribuire un rango anche ad una generica applicazione lineare, definendolo come la dimensione dello spazio
vettoriale dato dalla sua immagine.
In una esposizione con fini tendenzialmente generali una definizione di questo genere ha il vantaggio di essere
applicabile senza la necessità di fare riferimento ad alcuna matrice che rappresenti la trasformazione. Quando invece
ci si trova in un ambito di applicazioni concrete, il calcolo effettivo del rango di una trasformazione ben raramente si
può ottenere evitando di operare su una matrice.
Proprietà del rango di una matrice
In quanto segue,
è una matrice
su un campo
, che descrive una mappa lineare
come
sopra.
Proprietà di base
• Solo la matrice nulla ha rango 0.
• Il rango di
è uguale al rango della sua trasposta.
• Il rango di
è minore o uguale sia di
che di . In altre parole, è minore o uguale del minimo dei due valori
Rango (algebra lineare)
Relazioni fra
38
ed
•
è iniettiva se e solo se
ha rango (in questo caso si dice che
ha rango per colonne massimo).
•
è suriettiva se e solo se
ha rango
(in questo caso si dice che
ha rango per righe massimo).
• nel caso di una matrice quadrata
(cioè,
), allora
è invertibile se e solo se
ha rango (e si
dice che
ha rango massimo). Questo accade se e solo se
è biettiva.
Prodotto fra matrici
• Se
è una matrice
rango di
, allora il rango del prodotto
è minore o uguale sia del rango di
che del
. In altre parole:
Come esempio del caso "<", si consideri il prodotto
Entrambi i fattori hanno rango 1, ma il prodotto ha rango 0.
• Se
• Se
è una matrice
è una matrice
• Il rango di
invertibile
dove
è uguale a
con rango
con rango
, allora
, allora
ha lo stesso rango di
ha lo stesso rango di
se e solo se esistono una matrice
.
.
invertibile
ed una matrice
tali che
denota la matrice identità
.
• Dall'ultima proprietà si deduce che il rango di una matrice è un invariante completo per matrici equivalenti
destra-sinistra.
Teorema del rango-nullità
Il rango di una matrice più la nullità della matrice è uguale al numero di colonne della matrice (questo è il teorema
del rango, o "teorema del rango-nullità").
SD-equivalenza
Il rango è un invariante completo per la equivalenza sinistra-destra tra matrici: due matrici
lo stesso rango se e solo se esistono due matrici invertibili
e
tali che
e
hanno
.
Calcolo
Algoritmo di Gauss
Il modo più semplice per calcolare il rango di una matrice
è dato dall'algoritmo di Gauss. L'algoritmo trasforma
la matrice in una matrice a scalini con lo stesso rango, dato dal numero di righe non nulle, o equivalentemente di
pivot.
Si consideri ad esempio la matrice
Rango (algebra lineare)
39
Vediamo che la seconda colonna è il doppio della prima colonna, e la quarta colonna è uguale alla somma della
prima e della terza. La prima e la terza colonna sono linearmente indipendenti, quindi il rango di
è due. Questo
può essere confermato dall'algoritmo di Gauss, che produce la seguente matrice a scalini
:
con due righe non nulle.
Criterio dei minori
Un altro metodo, in alcuni casi più diretto, sfrutta le proprietà del determinante di una matrice quadrata, e in
particolare dei determinanti delle sottomatrici quadrate di
, dette minori. Si basa sul fatto seguente:
• Il rango di
è pari al massimo ordine di un minore invertibile di
Ad esempio, la matrice
i suoi minori
.
data sopra ha determinante nullo, e quindi può avere rango al massimo 3. Anche tutti
hanno determinante nullo, e quindi può avere rango al massimo 2. Infine, esiste almeno un
minore invertibile di ordine 2, ad esempio quello in basso a destra
che ha determinante
. Quindi
ha rango esattamente 2. Questo criterio può essere utile ad esempio per verificare
rapidamente se il rango di una matrice è superiore o inferiore ad un certo valore.
Generalizzazioni
Esistono diverse generalizzazioni del concetto di rango per matrici su anelli arbitrari. In queste generalizzazioni il
rango colonna, il rango riga, dimensione dello spazio colonna, dimensione dello spazio riga di una matrice possono
essere diversi l'uno dall'altro o non esistere.
Un'altra generalizzazione riguarda le matroidi, entità che generalizzano le matrici.
Bibliografia
• (EN) Werner Greub (1981): Linear algebra, 4th edition, Springer Verlag
• (EN) Roger A. Horn, Charles R. Johnson (1985): Matrix Analysis. Cambridge University Press, ISBN
0-521-38632-2.
Determinante
40
Determinante
In algebra lineare, il determinante è una
funzione che associa ad ogni matrice
quadrata
uno scalare che ne sintetizza
alcune proprietà algebriche.
Esso viene generalmente indicato con
ed a volte con
, quest'ultima
notazione è più compatta ma ambigua, in
quanto utilizzata talvolta per descrivere una
norma della matrice.[1]
Il determinante è un potente strumento usato
in vari settori della matematica: innanzitutto
nello studio dei sistemi di equazioni lineari,
quindi nel calcolo infinitesimale a più
dimensioni (ad esempio nel Jacobiano), nel
calcolo
tensoriale,
nella
geometria
differenziale, nella teoria combinatoria, etc.
Una trasformazione lineare del piano cartesiano è descritta da una matrice quadrata
. Il determinante della matrice fornisce delle informazioni sulla
trasformazione: il valore assoluto descrive il cambiamento di area, mentre il segno
descrive il cambiamento di orientazione. Nell'esempio qui riportato, la matrice ha
determinante -1: quindi la trasformazione preserva le aree (un quadrato di area 1 si
trasforma in un parallelogramma di area 1) ma inverte l'orientazione del piano.
Il significato geometrico principale del
determinante si ottiene interpretando la
matrice quadrata
di ordine
come
trasformazione lineare di uno spazio
vettoriale a
dimensioni: con questa
interpretazione, il valore assoluto di
è il fattore con cui vengono
modificati i volumi degli oggetti contenuti
nello spazio. Se è diverso da zero, il segno
del determinante indica inoltre se la
trasformazione
preserva o cambia
l'orientazione dello spazio rispetto agli assi
di riferimento.
Definizione
Il volume di questo parallelepipedo è il valore assoluto del determinante della
matrice
formata dai vettori
e
. Questa relazione fra volume e
Definizione
determinante è valida in qualsiasi dimensione.
Sia V uno spazio vettoriale sul campo C di
dimensione n e D una forma n-lineare e alternante e non identicamente nulla da V in C, il determinante di un
endomorfismo
è definito come:
Con
una qualsiasi base di V.
Definizione tramite assiomi
Sia
lo spazio vettoriale delle matrici quadrate
numeri reali o complessi).
a valori in un campo
(ad esempio, il campo dei
Determinante
41
Il determinante è l'unica funzione
avente le proprietà seguenti:
•
• Si comporta nel modo seguente rispetto all'algoritmo di Gauss-Jordan:
• se
• se
• se
è ottenuta scambiando due righe o due colonne di
, allora
,
è ottenuta moltiplicando una riga o una colonna di
per , allora
è ottenuta sommando una riga o una colonna rispettivamente di
ad un'altra, allora
dove la matrice
,
è la matrice identità.
Le proprietà elencate hanno un significato geometrico: sono le proprietà che deve verificare una funzione il cui
valore assoluto è il volume del poliedro individuato dai vettori riga della matrice B e il cui segno è positivo se e solo
se tali vettori sono equiorientati alla base canonica.
Definizione costruttiva
Il determinante di una matrice
Nella formula,
può essere definito in un modo più costruttivo, tramite la formula di Leibniz:
è l'insieme di tutte le permutazioni
il segno della permutazione (
Per esteso:
se
dell'insieme numerico
e
denota
è una permutazione pari, −1 se è dispari).
In particolare:
• Se
, il determinante di
è semplicemente
• Se
, si ottiene la formula già vista
• Se
, si ottiene
Quest'ultima formula può essere memorizzata tramite la regola di Sarrus (che non è però estendibile ai casi
).
La complessità della definizione costruttiva (comprese la generazione delle permutazioni) è elevata:
Determinante
42
Metodi di calcolo
La definizione costruttiva del determinante è spesso complicata da usare per un calcolo concreto, perché si basa su
una somma di ben
addendi. Esistono altri algoritmi che consentono di calcolare il determinante più facilmente.
Ciascun metodo ha una efficienza variabile, dipendente dalla grandezza della matrice e dalla presenza di zeri.
Sviluppo di Laplace
Lo sviluppo di Laplace è un metodo di calcolo del determinante, che risulta efficiente per matrici non troppo grandi e
contenenti un gran numero di zeri. Si procede scegliendo una riga, la -esima, tramite la formula:
dove
è il complemento algebrico della coppia
, cioè
minore di ordine
ottenuto dalla matrice
eliminando la riga
Esiste uno sviluppo analogo anche lungo la -esima colonna.
è data da
-esima e la colonna
per il determinante del
-esima.
Matrici quadrate di ordine 2
Il determinante di una matrice 2 × 2 è pari a
Il valore assoluto di questa espressione è
pari all'area del parallelogramma con vertici
in
e
. Il segno del determinante (se questo è
diverso da zero) dipende invece dall'ordine
ciclico con cui compaiono i vertici del
parallelogramma (il segno è negativo se il
parallelogramma è stato "ribaltato", e
positivo altrimenti).
Come spiegato più sotto, questa proprietà
L'area del parallelogramma è il determinante della matrice
geometrica si estende anche in dimensioni
maggiori di 2: il determinante di una matrice
è ad esempio il volume del poliedro i cui vertici si ricavano dalle colonne della matrice con lo stesso
procedimento visto.
Determinante
43
Matrici quadrate di ordine 3
Il determinante di una matrice 3 × 3 è pari a
Un metodo mnemonico per ricordare questa formula,
espresso dalla regola di Sarrus (questo metodo non si
estende a matrici più grandi), prevede di calcolare i
prodotti dei termini sulle diagonali "continue":
ripetendo a destra della matrice le sue prime due
colonne
Calcolo del determinante di una matrice
tramite un metodo
equivalente alla regola di Sarrus. Questo metodo non si estende a
matrici più grandi.
i prodotti delle componenti sulle 3 "diagonali" che
partono dall'alto a sinistra (diagonali principali) sono
aei, bfg e cdh, mentre sulle 3 "diagonali" che partono dal basso a sinistra (diagonali secondarie) si trovano gec, hfa,
idb. Il determinante della matrice è esattamente la differenza tra la somma dei primi tre termini (aei + bfg + cdh) e la
somma degli ultimi tre (gec + hfa + idb).
Algoritmo di Gauss
La definizione assiomatica fornisce un altro utile strumento di calcolo del determinante, che si basa su questi due
principi:
• Il determinante di una matrice triangolare è semplicemente il prodotto degli elementi sulla diagonale, cioè
.
• Usando l'algoritmo di Gauss, è possibile trasformare ogni matrice in una matrice triangolare tramite mosse di
Gauss, il cui effetto sul determinante è determinato dagli assiomi.
Esempio
Supponiamo di voler calcolare il determinante di
.
Si può procedere direttamente tramite la definizione costruttiva:
Alternativamente si può utilizzare lo sviluppo di Laplace secondo una riga o una colonna. Conviene scegliere una
riga o una colonna con molti zeri, in modo da ridurre gli addendi dello sviluppo; nel nostro caso sviluppiamo
secondo la seconda colonna:
Determinante
44
Lo sviluppo di Laplace può essere combinato con alcune mosse di Gauss. Ad esempio qui risulta particolarmente
vantaggioso sommare la seconda colonna alla prima:
Questa mossa non cambia il determinante. Sviluppando lungo la prima colonna si ottiene quindi ancora:
Applicazioni
Sistemi lineari
Il determinante è utile a calcolare il rango di una matrice e quindi a determinare se un sistema di equazioni lineari ha
soluzione, tramite il teorema di Rouché-Capelli. Quando il sistema ha una sola soluzione, questa può essere
esplicitata usando il determinante, mediante la regola di Cramer.
Matrici e trasformazioni invertibili
Una matrice è detta singolare se ha determinante nullo. Una matrice singolare non è mai invertibile, e se è definita
su un campo vale anche l'inverso: una matrice non singolare è sempre invertibile.
Una trasformazione lineare del piano, dello spazio, o più in generale di uno spazio euclideo o vettoriale (di
dimensione finita)
è rappresentata (dopo aver scelto una base) da una matrice quadrata
dipende dalla base scelta, e quindi solo dalla funzione
con
. Il determinante è una quantità che non
: si può quindi parlare di determinante di
, che si indica
.
Molte affermazioni su
sono equivalenti:
è una corrispondenza biunivoca
è un isomorfismo
è iniettiva
è suriettiva
Quindi ciascuna di queste affermazioni equivalenti è vera se e solo se il determinante non è zero.
Autovalori e autovettori
Il determinante consente di trovare gli autovalori di una matrice
dove
è la matrice identità avente stesso numero di righe di
mediante il suo polinomio caratteristico
.
Basi, sistemi di riferimento
Dati
vettori nello spazio euclideo
, sia
la matrice avente come colonne questi vettori. Le seguenti
affermazioni sono equivalenti:
i vettori sono indipendenti
Se gli
i vettori generano
vettori formano una base, allora il segno di
i vettori formano una base
determina l'orientazione della base: se positivo, la
base forma un sistema di riferimento destrorso, mentre se è negativo si parla di sistema di riferimento sinistrorso
(in analogia con la regola della mano destra).
Determinante
45
Volumi
Il
valore
assoluto
del
determinante è uguale al volume del
parallelepipedo sotteso dai vettori dati dalle
colonne di
(il parallelepipedo è in realtà
un parallelogramma se
solido di dimensione
, ed un
in generale).
Più in generale, data una trasformazione
lineare
rappresentata da una matrice
qualsiasi sottoinsieme
di
, ed un
misurabile
Cubo prima della trasformazione, di volume 1.
secondo Lebesgue, il volume dell'immagine
è dato da
Ancora più in generale, se la trasformazione
lineare
è rappresentata da
una matrice
di tipo
sottoinsieme di
e
è un
misurabile secondo
Lebesgue, allora il volume di
è dato
da
Proprietà
L'immagine del cubo dopo la trasformazione è un parallelepipedo, il cui volume è
pari al determinante della trasformazione.
Proprietà elementari
Dalle proprietà elencate nella definizione assiomatica, è facile dedurre che:
• Se tutti gli elementi di una riga (o colonna) sono nulli, allora
.
• Se
ha due righe (o colonne) eguali, o proporzionali, allora
.
• Se una riga (o colonna) è combinazione lineare di due o più altre righe (o colonne) a essa parallele, allora
.
• Se
viene modificata tramite mosse di Gauss sulle colonne (invece che sulle righe), l'effetto è sempre quello
descritto nella definizione assiomatica.
• Se una riga (o una colonna) è somma di due righe (o colonne),
è la somma dei due determinanti che si
ottengono sostituendo a quella riga (o colonna) rispettivamente le due righe (o colonne) di cui è somma.
Determinante
46
Moltiplicazione di matrici
Il
determinante
è
una
funzione
moltiplicativa, nel senso che vale il teorema
di Binet:
Una matrice quadrata
campo
con valori in un
è invertibile se e solo se
. In caso affermativo vale
l'uguaglianza:
Le proprietà appena elencate mostrano che
l'applicazione
dal gruppo generale lineare negli elementi
non nulli di
è un omomorfismo di
gruppi.
Come conseguenza del teorema di Binet, se
verificare che
Il determinante misura il volume del parallelepipedo generato dai vettori colonna
della matrice. Moltiplicando un vettore per due, il volume viene moltiplicato per
due (come richiesto dalla definizione assiomatica)
è la matrice identità di tipo
e
uno scalare, è facile
. Quindi:
Trasposte, matrici simili
Una matrice e la sua trasposta hanno lo stesso determinante:
Se
e
sono simili (cioè esiste una matrice invertibile
tale che
=
) allora per il teorema di
Binet
Questo significa che il determinante è un invariante per similitudine. Da questo segue che il determinante di una
trasformazione lineare
è ben definito (non dipende dalla scelta di una base per lo spazio vettoriale
).
D'altra parte, esistono matrici con lo stesso determinante che non sono simili.
Autovalori
Il determinante di una matrice triangolare è il prodotto degli elementi nella diagonale.
Se
è di tipo
con valori reali o complessi e ha tutti gli autovalori
nel campo (contati con
molteplicità), allora
Questa uguaglianza segue dal fatto che
è sempre simile alla sua forma normale di Jordan, che è una matrice
triangolare superiore con gli autovalori sulla diagonale principale.
Dal collegamento fra determinante e autovalori si può derivare una relazione fra la funzione traccia, la funzione
esponenziale e il determinante:
Determinante
47
Derivata
Il determinante può considerarsi una funzione polinomiale
quindi essa è differenziabile rispetto ad ogni variabile corrispondente al valore che può assumere in una casella e per
qualunque suo valore. Il suo differenziale può essere espresso mediante la formula di Jacobi:
dove cofT(A) denota la trasposta della matrice dei cofattori (detta anche dei complementi algebrici) di A, mentre tr(A)
ne denota la traccia. In particolare, se A è invertibile abbiamo
o, più colloquialmente, se i valori della matrice
Il caso particolare di
sono sufficientemente piccoli
coincidente con la matrice identità
comporta
Generalizzazioni
Pfaffiano
Lo pfaffiano è un analogo del determinante per matrici antisimmetriche di tipo
di grado
. Si tratta di un polinomio
il cui quadrato è uguale al determinante della matrice.
Infinite dimensioni
Per gli spazi ad infinite dimensioni non si trova alcuna generalizzazione dei determinanti e della nozione di volume.
Sono possibili svariati approcci, inclusa la utilizzazione dell'estensione della traccia di una matrice.
Note
[1] La notazione
fu introdotta per la prima volta nel 1841 dal matematico inglese Arthur Cayley ( MacTutor (http:/ / www-history. mcs.
st-andrews. ac. uk/ HistTopics/ Matrices_and_determinants. html)).
Bibliografia
In italiano
• Ernesto Pascal I determinanti: teoria ed applicazioni. Con tutte le più recenti ricerche (http://name.umdl.umich.
edu/ABZ4755.0001.001) (Milano: U. Hoepli, 1897)
• Francesco Calderara Trattato dei determinanti (http://resolver.library.cornell.edu/math/1927647) (Palermo:
Virzì, 1913)
In lingua straniera
• (FR) Francesco Brioschi Théorie des déterminants et leurs principales applications; traduit de l'italien par M.
Édouard Combescure (http://gallica.bnf.fr/notice?N=FRBNF30162093) (Parigi : Mallet-Bachelier, 1856)
• (FR) R. Baltzer Théorie et applications des déterminants, avec l'indication des sources originales; traduit de
l'allemand par J. Hoüel, (http://gallica.bnf.fr/notice?N=FRBNF30050936) (Parigi : Mallet-Bachelier, 1861)
• (EN) Lewis Carroll An elementary treatise on determinants, with their application to simultaneous linear equations
and algebraical geometry (http://www.archive.org/details/elementarytreati00carrrich) (Oxford: University
Press, 1867)
Determinante
• (EN) R. F. Scott e G. B. Matthews The theory of determinants and their applications (http://www.archive.org/
details/theoryofdetermin00scotuoft) (Cambridge: University Press, 1904)
• (EN) T. Muir The theory of determinants in the historical order of development (4 vol.) (http://quod.lib.umich.
edu/cgi/t/text/text-idx?c=umhistmath&amp;idno=ACM9350) (London: Macmillan and Co., Limited, 1906)
• (EN) T. Muir Contributions To The History Of Determinants 1900 1920 (http://www.archive.org/details/
contributionstot032405mbp) (Blackie And Son Limited, 1930)
Voci correlate
•
•
•
•
•
•
Storia del determinante
Sviluppo di Laplace
Algoritmo di Gauss
Regola di Sarrus
Determinante jacobiano
Matrice unimodulare
Collegamenti esterni
• (EN) Storia dell'uso delle matrici e dei determinanti (http://www-history.mcs.st-andrews.ac.uk/HistTopics/
Matrices_and_determinants.html) su MacTutor
Diagonalizzabilità
In matematica, e più precisamente in algebra lineare, una trasformazione lineare di uno spazio vettoriale è
diagonalizzabile o semplice[1] se esiste una base dello spazio rispetto alla quale la matrice di trasformazione è
diagonale. In modo equivalente, una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale.
Una trasformazione lineare è diagonalizzabile se esistono n "assi" passanti per l'origine la cui direzione rimane
invariata nella trasformazione stessa: ognuno di tali assi è un autospazio relativo ad un autovettore della
trasformazione, e la trasformazione effettua una omotetia. Diagonalizzare una trasformazione significa porsi in un
sistema di riferimento che rimane "solidale" con essa, e la trasformazione risulta completamente definita quando si
conosce il suo comportamento sugli assi del sistema.
Ad esempio, la trasformazione del piano cartesiano che sposta ogni punto (x, y) nel punto (2x, -y) è diagonalizzabile.
Infatti gli assi x e y rimangono invariati: l'asse x è espanso di un fattore 2, mentre l'asse y è ribaltato rispetto
all'origine. Notiamo che nessuna altra retta passante per l'origine rimane invariata.
Una rotazione oraria o antioraria del piano di 90 gradi intorno all'origine non è invece diagonalizzabile, perché
nessun asse viene fissato.
Definizione
Sia T un endomorfismo di uno spazio vettoriale V, cioè una trasformazione lineare T:V → V. Si dice che T è
diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale.[2] In particolare,
la base che diagonalizza T è composta da suoi autovettori.
In modo equivalente, una matrice quadrata è diagonalizzabile se è simile ad una matrice diagonale.[3] La matrice T è
quindi diagonalizzabile nel campo di appartenenza se esiste una matrice invertibile P tale che:
48
Diagonalizzabilità
ovvero:
Scrivendo P in termini dei vettori colonna:
la precedente relazione diventa:
I vettori colonna di P sono dunque autovettori di T, ed i corrispondenti elementi della matrice diagonale sono i
rispettivi autovalori. L'invertibilità di P implica inoltre l'indipendenza lineare degli autovettori, che formano una base
dello spazio.
Criteri di diagonalizzabilità
Una matrice quadrata A di rango n sul campo F è diagonalizzabile se e solo se la somma delle dimensioni dei suoi
autospazi è pari a n. Tale condizione si verifica se e solo se esiste una base di Fn composta da autovettori di A. Se la
base esiste, è possibile definire una matrice P avente i vettori di tale base come colonne, ed in tal caso P−1AP è
diagonale. Gli elementi della diagonale sono gli autovalori di A. Le condizioni di diagonalizzabilità per le
applicazioni lineari sono equivalenti a quelle per le matrici rappresentative.
Polinomio caratteristico
Un modo per verificare che una applicazione è diagonalizzabile è quello di studiare la diagonalizzabilità della sua
matrice associata A nelle base degli insiemi di partenza e di arrivo. A tal fine, uno strumento di notevole importanza
è il polinomio caratteristico, che permette di ottenere gli autovalori con la loro molteplicità.
Sia A una matrice quadrata con n righe a valori in un campo K. Il polinomio caratteristico di A è un polinomio di
grado n definito nel modo seguente:
Le radici λ1, ..., λk di p(λ) appartenenti al campo K sono gli autovalori di A.[4] Ogni autovalore λi ha una sua
molteplicità come radice di p(λ), detta molteplicità algebrica,[5] ed un autovalore con molteplicità algebrica 1 si dice
semplice.
Il teorema di diagonalizzabilità fornisce un criterio necessario e sufficiente che permette di stabilire se
un'applicazione lineare è diagonalizzabile. Una matrice quadrata A con n righe è diagonalizzabile se e solo se
valgono entrambi i fatti seguenti:
• La somma delle molteplicità algebriche dei suoi autovalori è n, ovvero il polinomio caratteristico può essere
fattorizzato nel campo attraverso polinomi di primo grado.
• Le molteplicità algebriche e geometriche di ogni autovalore sono coincidenti, ovvero la dimensione degli
autospazi è pari alla molteplicità con la quale il relativo autovalore è radice del polinomio caratteristico. Poiché la
molteplicità geometrica è sempre minore o uguale di quella algebrica, se l'applicazione ha n autovalori distinti nel
campo allora è diagonalizzabile.
49
Diagonalizzabilità
50
Il teorema spettrale
Nel caso complesso, che ha validità generale, afferma che un endomorfismo è normale se e solo se esiste una base
ortonormale dello spazio fatta di suoi autovettori.[6] L'endomorfismo è quindi unitariamente diagonalizzabile se e
solo se è normale.
Nel linguaggio matriciale, il teorema afferma che ogni matrice normale è simile ad una matrice diagonale tramite
una matrice unitaria. In altre parole, per ogni matrice normale H esistono una matrice unitaria U ed una diagonale D
per cui:
Come corollario segue che se e solo se l'operatore T è autoaggiunto la base ortonormale conta solo autovalori reali,
mentre se T è unitario il modulo degli autovalori è 1. In particolare, gli autovalori di una matrice hermitiana sono
tutti reali, mentre quelli di una matrice unitaria sono di modulo 1.
Esempi
Esempio di calcolo
Consideriamo la matrice
Il polinomio caratteristico è:
che si annulla per gli autovalori
Quindi ha 3 autovalori distinti. Per il primo criterio esposto precedentemente, la matrice è diagonalizzabile.
Se si è interessati a trovare esplicitamente una base di autovettori, dobbiamo fare del lavoro ulteriore: per ogni
autovalore, si imposta l'equazione:
e si risolve cercando i valori del vettore
che la soddisfano,
sostituendo volta per volta i tre autovalori precedentemente calcolati.
Una base di autovettori per esempio è data da:
Si vede facilmente che sono indipendenti, quindi formano una base, e che sono autovettori, infatti
Possiamo scrivere esplicitamente la matrice di cambiamento di base incolonnando i vettori trovati:
Quindi la matrice invertibile P diagonalizza A, come si verifica calcolando:
La matrice finale deve essere diagonale e contenere gli autovalori, ciascuno con la sua molteplicità.
.
Diagonalizzabilità
51
Numeri complessi
Se il campo su cui lavoriamo è quello dei numeri complessi, una matrice n per n ha n autovalori (contando ciascuno
con la relativa molteplicità, per il teorema fondamentale dell'algebra). Se le molteplicità sono tutte 1, la matrice è
diagonalizzabile. Altrimenti, dipende. Un esempio di matrice complessa non diagonalizzabile è descritto sotto.
Il fatto che vi siano comunque n autovalori implica che è sempre possibile ridurre una matrice complessa ad una
forma triangolare: questa proprietà, più debole della diagonalizzabilità, è detta triangolabilità.
Numeri reali
Sui numeri reali le cose cambiano, perché la somma delle molteplicità di un polinomio di grado n può essere
inferiore a n. Ad esempio la matrice
non ha autovalori, perché il suo polinomio caratteristico
nessuna matrice reale Q tale che
non ha radici reali. Quindi non esiste
sia diagonale! D'altro canto, la stessa matrice B vista con i numeri
complessi ha due autovalori distinti i e -i, e quindi è diagonalizzabile. Infatti prendendo
troviamo che
è diagonale. La matrice
considerata sui reali invece non è neppure triangolabile.
Ci sono anche matrici che non sono diagonalizzabili né sui reali né sui complessi. Questo accade in alcuni casi, in
cui ci sono degli autovalori con molteplicità maggiore di uno. Ad esempio, consideriamo
Questa matrice non è diagonalizzabile: ha 0 come unico autovalore con molteplicità 2, e se fosse diagonalizzabile
sarebbe simile alla matrice nulla, cosa impossibile a prescindere dal campo reale o complesso.
Note
[1]
[2]
[3]
[4]
[5]
[6]
F. Odetti, op. cit., Pag. 246
S. Lang, op. cit., Pag. 114
S. Lang, op. cit., Pag. 115
S. Lang, op. cit., Pag. 228
S. Lang, op. cit., Pag. 230
S. Lang, op. cit., Pag. 251
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• F. Odetti; M. Raimondo, Elementi di Algebra Lineare e Geometria Analitica, ECIG, 1992. ISBN 88-7545-717-4
Diagonalizzabilità
52
Voci correlate
•
•
•
•
Polinomio caratteristico
Autovettore e autovalore
Teorema spettrale
Forma canonica di Jordan
Autovettore e autovalore
In matematica, in particolare in algebra lineare, un
autovettore di una trasformazione lineare tra spazi
vettoriali è un vettore la cui immagine è il vettore
stesso moltiplicato per uno scalare, detto
autovalore.[1]
Si definisce autospazio il sottospazio generato da
tutti gli autovettori aventi in comune lo stesso
autovalore.[2]
Si tratta di un concetto fondamentale utilizzato in
molti settori della matematica e della fisica. In
meccanica classica gli autovettori delle equazioni
che descrivono un sistema fisico corrispondono
spesso ai modi di vibrazione di un corpo, e gli
autovalori alle loro frequenze. In meccanica
quantistica gli operatori corrispondono a variabili
osservabili, gli autovettori sono chiamati anche
autostati e gli autovalori di un operatore
rappresentano quei valori della variabile
corrispondente che hanno probabilità non nulla di
essere misurati.
In questa trasformazione lineare della Gioconda l'immagine è modificata
ma l'asse centrale verticale rimane fisso. Il vettore blu ha cambiato
lievemente direzione, mentre quello rosso no. Quindi il vettore rosso è un
autovettore della trasformazione e quello blu no. Inoltre, poiché il vettore
rosso non è stato né allungato, né compresso, né ribaltato, il suo autovalore
è 1. Tutti i vettori sull'asse verticale sono multipli scalari del vettore rosso,
e sono tutti autovettori: assieme all'origine formano l'autospazio relativo
all'autovalore 1.
Il termine autovettore è stato tradotto dalla parola
tedesca Eigenvektor, coniata da Hilbert nel 1904. Eigen significa proprio, caratteristico. Anche nella letteratura
italiana troviamo spesso l'autovettore indicato come vettore proprio, vettore caratteristico o vettore latente.
Introduzione informale
Autovettore e autovalore
53
Il piano cartesiano e lo spazio euclideo sono esempi particolari di spazi
vettoriali: ogni punto dello spazio può essere descritto tramite un
vettore che collega l'origine al punto. Rotazioni, omotetie e riflessioni
sono esempi particolari di trasformazioni lineari dello spazio: ciascuna
di queste trasformazioni viene descritta agevolmente dall'effetto che
produce sui vettori.
In particolare, un autovettore è un vettore
trasformazione viene moltiplicato per un fattore scalare
che nella
. Nel piano
o nello spazio cartesiano, questo equivale a dire che il vettore non
cambia direzione. Può però cambiare verso se
, e modulo per
un fattore dato dal valore assoluto
:
• se
il modulo resta inalterato,
• se
il modulo cresce,
• se
il modulo decresce.
Il valore
è l'autovalore di
Una sfera che ruota intorno
ad un suo asse.
.
Ad esempio, in una rotazione spaziale il vettore coincidente con l'asse
di rotazione resta fisso: in altre parole, è un vettore che non cambia né
direzione, né verso, né modulo, ed è quindi un autovettore con
autovalore 1. I vettori perpendicolari all'asse, invece, ruotano di un
certo angolo e cambiano direzione: ogni rotazione piana (di angolo
diverso da e ) non possiede autovettori.
Rotazione del piano intorno ad un punto
Autovettori e autovalori sono definiti ed usati in
matematica e fisica nell'ambito di spazi più
complessi e astratti di quello tridimensionale della
fisica classica. Questi spazi possono avere
dimensione maggiore di 3 o addirittura infinita (ad
Un'onda stazionaria in una corda fissata agli estremi è una autofunzione
esempio, possono essere uno spazio di Hilbert). Ad
della trasformazione data dallo scorrere del tempo.
esempio, le possibili posizioni di una corda
vibrante in una chitarra formano uno spazio di
questo tipo: una vibrazione della corda è quindi interpretata come trasformazione di questo spazio, e i suoi
autovettori (più precisamente, le sue autofunzioni) sono le onde stazionarie.
Autovettore e autovalore
54
Definizione
Dal punto di vista formale, autovettori e autovalori sono definiti come segue: sia
campo
, che può essere ad esempio il campo dei numeri reali
endomorfismo di
Se
Poiché
. Sia
un
, cioè una trasformazione lineare:
è un vettore non nullo in
allora
uno spazio vettoriale su un
o il campo dei complessi
e
è uno scalare tali che:
è un autovettore della trasformazione
è lineare, se
,e
è il suo autovalore.[1]
è un autovettore con autovalore
autovettore con lo stesso autovalore
, allora ogni multiplo non-nullo di
è anch'esso un
. Più in generale, gli autovettori aventi lo stesso fissato autovalore
insieme al vettore nullo, generano un sottospazio di
chiamato l'autospazio relativo all'autovalore
,
, solitamente
[2]
indicato con
.
Lo spettro di
è l'insieme dei suoi autovalori. Il raggio spettrale di
è l'estremo superiore dei moduli dei suoi
autovalori.
Nel caso in cui
sia di dimensione finita, per ogni scelta di basi a
è associata univocamente una matrice, detta
matrice di trasformazione.[3] Gli autovettori e autovalori associati ad un'applicazione possono essere associati alla
matrice di trasformazione nel medesimo modo. Sia il vettore delle coordinate di rispetto ad una base e sia A la
matrice di trasformazione rappresentante rispetto alla medesima base. Si ha:[4]
In particolare, gli autovalori di A non dipendono dalla base scelta.
Polinomio caratteristico
Si definisce polinomio caratteristico p(x) nella variabile x associato ad una matrice quadrata A il determinante:[5]
dove I è la matrice identità con lo stesso numero di righe di A. In particolare, le radici del polinomio caratteristico
sono tutti gli autovalori di T.[6]
Due matrici che rappresentano un endomorfismo
di uno spazio vettoriale
a dimensione finita sono simili, ed in
particolare hanno il medesimo polinomio caratteristico, e dunque gli stessi autovalori. Si tratta di uno strumento di
grande importanza, che ha permesso di sviluppare un metodo generale per l'individuazione di autovalori e autovettori
di un endomorfismo nel caso in cui lo spazio vettoriale V abbia dimensione finita.[7] Il polinomio permette inoltre di
stabilire l'esistenza di autovalori e autovettori per un'applicazione lineare:
• Il polinomio caratteristico di T ha grado n, e quindi ha al più n radici: segue che T ha al più n autovalori distinti.
• Se K è algebricamente chiuso allora il polinomio caratteristico ha sempre almeno una radice: segue che T ha
almeno un autovalore, e quindi anche almeno un autovettore.[8] Nel caso reale questo non succede sempre, ad
esempio si possono trovare autovalori complessi.
• Se la dimensione n di V è dispari, e K = R è il campo dei numeri reali, il polinomio caratteristico ha grado dispari,
e quindi ha sempre almeno una radice reale. Ad esempio, ogni endomorfismo di R3 ha almeno un autovettore.
Autovettore e autovalore
55
Diagonalizzabilità
L'endomorfismo
è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è
diagonale, e si ha che gli elementi della diagonale sono gli autovalori di
.[9] In particolare, la base che
diagonalizza T è composta da suoi autovettori. Inoltre, una proprietà generale di T è che se
autovettori con autovalori
sono suoi
a due a due distinti, allora questi sono linearmente indipendenti.
Il teorema spettrale
Nel caso complesso, che ha validità generale, afferma che un endomorfismo è normale se e solo se esiste una base
ortonormale dello spazio fatta di suoi autovettori.[10] L'endomorfismo è quindi unitariamente diagonalizzabile se e
solo se è normale.
Nel linguaggio matriciale, il teorema afferma che ogni matrice normale è simile ad una matrice diagonale tramite
una matrice unitaria. In altre parole, per ogni matrice normale H esistono una matrice unitaria U ed una diagonale D
per cui:
Come corollario segue che se e solo se l'operatore T è autoaggiunto allora la base ortonormale conta solo autovalori
reali, mentre se T è unitario allora il modulo degli autovalori è 1. In particolare, gli autovalori di una matrice
hermitiana sono tutti reali, mentre quelli di una matrice unitaria sono di modulo 1.
Per il teorema spettrale, in particolare, ogni endomorfismo di Rn dato da una matrice simmetrica è diagonalizzabile,
ed ha una base di autovettori ortogonali fra loro.[11] Se il polinomio caratteristico di T non ha tutte le radici in K,
allora T non è diagonalizzabile. Ad esempio, una rotazione ha un polinomio caratteristico di secondo grado con delta
negativo e quindi non ha soluzioni reali: quindi non è diagonalizzabile.
Spazi di dimensione infinita
In uno spazio di dimensione infinita la definizione di autovalore è identica al caso di dimensione finita. Tuttavia, Il
polinomio caratteristico non è uno strumento disponibile in questo caso. Per questo ed altri motivi, si definisce come
spettro l'insieme di quei valori λ per cui l'inverso dell'operatore (T - λ I) non è limitato; tale insieme è solitamente
indicato con σ(T). A differenza del caso finito-dimensionale lo spettro e l'insieme degli autovalori, generalmente
detto spettro puntuale, in generale non coincidono. Compito della teoria spettrale è l'estensione delle tecniche valide
in dimensione finita nel caso in cui l'operatore T e lo spazio V abbiano delle buone proprietà.
Seguono alcuni esempi classici.
• Un operatore limitato su uno spazio di Banach V ha spettro compatto e non vuoto.
• Un operatore compatto su uno spazio di Banach V ha spettro e spettro puntuale coincidenti a meno dello 0. Gli
operatori compatti si comportano in modo molto simile agli operatori con immagine a dimensione finita.
• Un operatore autoaggiunto su uno spazio di Hilbert H ha spettro reale. Tali operatori sono fondamentali nella
teoria della meccanica quantistica.
Autovettore e autovalore
56
Applicazioni
Operatori in meccanica quantistica
Un esempio di operatore definito su uno spazio
infinito-dimensionale è dato dall'operatore hamiltoniano
indipendente dal tempo in meccanica quantistica:
dove H è l'operatore che agendo sull'autovettore (o autoket)
restituisce l'autovettore moltiplicato per l'autovalore E,
che è interpretato come l'energia dello stato. Teniamo presente
che H è un operatore hermitiano, per cui i suoi autostati
formano una base ortonormale dello spazio degli stati e gli
autovalori sono tutti reali. Proiettando sulla base della
posizione otteniamo la rappresentazione tramite funzione
d'onda:
dove stavolta Hx indica l'operatore differenziale che
rappresenta l'operatore astratto nella base della posizione
mentre la funzione d'onda
è l'autofunzione
corrispondente all'autovalore E. Dati i postulati della
meccanica quantistica gli stati accessibili ad un sistema sono
vettori in uno spazio di Hilbert e quindi è definito un prodotto
scalare fra di essi del tipo:
Le funzioni d'onda associate agli stati di un elettrone in un
atomo d'idrogeno sono gli autovettori sia della Hamiltoniana
dell'atomo di idrogeno che del momento angolare. Gli
autovalori associati sono interpretati come le loro energie
(crescenti dall'alto in basso n=1,2,3,...) e momenti angolari
(crescenti da sinistra a destra: s, p, d,...). Sono disegnati qui i
quadrati dei valori assoluti delle autofunzioni. Aree più
luminose corrispondono a densità di probabilità maggiori per
la posizione in una misurazione. Il centro di ogni figura è il
nucleo dell'atomo, un protone.
.
dove la stella * indica il passaggio alla complessa coniugata della funzione d'onda. Questo limita la possibilità di
scelta dello spazio di Hilbert allo spazio delle funzioni a quadrato integrabile sul dominio scelto D, che può al limite
essere tutto
.
Teoria dei numeri
Lo studio degli autovalori di una matrice ha importanti applicazioni anche nella teoria dei numeri. In particolare, si
congettura che alcune statistiche sugli zeri non banali della funzione zeta di Riemann, quali ad esempio quelle sulla
distanza tra zeri consecutivi, siano le stesse di quelle relative alle matrici hermitiane aleatorie (rispetto alla Misura di
Haar) di dimensione N al tendere di N all'infinito. Inoltre, è stato congetturato che anche la distribuzione dei valori
della funzione zeta di Riemann sia ben approssimata, in media, dai valori assunti dal polinomio caratteristico di tali
matrici. Analoghe considerazioni si possono fare su altre famiglie di funzioni speciali, quali ad esempio le funzioni L
di Dirichlet, coinvolgendo anche altre famiglie di matrici aleatorie, come ad esempio le matrici simplettiche o
ortogonali. Dacché un gran numero di statistiche sono molto più facili da calcolare all'interno della teoria delle
matrici aleatorie che investigando direttamente queste funzioni speciali, questa connessione ha avuto come risultato
un fiorire di una serie di nuove congetture in teoria dei numeri.[12]
Autovettore e autovalore
57
Autofacce
Nella elaborazione digitale delle immagini, l'immagine di una
faccia si associa ad un vettore le cui componenti rappresentano la
luminosità dei singoli pixel. Gli autovettori di una particolare
matrice, detta matrice di covarianza, sono chiamati autofacce. Essi
sono molto utili per esprimere ogni faccia come una combinazione
lineare di queste autofacce, e sono quindi anche un ottimo
strumento di compressione dei dati per memorizzare ed
identificare un alto numero di facce.
Tensore d'inerzia
In meccanica, gli autovettori del tensore di inerzia definiscono gli
assi principali di un corpo rigido. Il tensore di inerzia è una
quantità chiave, necessaria per determinare la rotazione di un
corpo rigido intorno al suo baricentro. Gli autovettori del tensore
delle deformazioni definiscono gli assi principali di deformazione.
Le autofacce sono esempi di autovettori.
Esempi nel piano e nello spazio
Fra le trasformazioni del piano cartesiano R2 possiamo distinguere i seguenti casi speciali:
• Rotazione antioraria di angolo θ: se θ non è un multiplo intero di π non esiste alcun autovettore: infatti ogni
vettore viene ruotato e cambia di direzione. Nei casi particolari relativi a θ = k π, con k intero dispari, ogni vettore
viene trasformato nell'opposto, quindi ogni vettore non nullo è autovettore, con autovalore -1. Se invece k è pari,
la trasformazione non è altro che l'identità, per cui ogni vettore non nullo è autovettore, con autovalore +1.
• Riflessione rispetto ad una retta r passante per l'origine: i vettori in r restano fermi e sono quindi autovettori con
autovalore 1, quelli della retta s perpendicolare a r e passante per l'origine vengono ribaltati, e quindi sono
autovettori con autovalore -1. Non esistono altri autovettori.
• Omotetia: ogni vettore viene moltiplicato per uno scalare λ e quindi tutti i vettori non nulli sono autovettori con
autovalore λ.
• Proiezione ortogonale su una retta r passante per l'origine: i vettori su r restano fermi e quindi sono autovettori
con autovalore 1, i vettori sulla retta s ortogonale a r e passante per l'origine vanno tutti sull'origine e quindi sono
autovettori con autovalore 0. Non ci sono altri autovettori.
Gli esempi appena elencati possono essere rappresentati rispettivamente dalle seguenti matrici (per semplicità, la
retta r è l'asse orizzontale):
• Non tutte le trasformazioni del piano e dello spazio ricadono in uno degli esempi mostrati sopra. In generale, un
endomorfismo (cioè una trasformazione) di Rn è rappresentabile tramite una matrice quadrata con n righe.
Consideriamo per esempio l'endomorfismo di R3 indotto dalla matrice:
Usando la moltiplicazione fra matrice e vettore vediamo che:
Autovettore e autovalore
e quindi l'endomorfismo rappresentato da A ha un autovettore con autovalore 2.
Si vuole ora trovare il polinomio caratteristico di A. Poiché la trasformazione è già scritta in forma di matrice,
saltiamo al punto 2 e calcoliamo il polinomio caratteristico:
quindi gli autovalori di A sono 2, 1 e −1.
I tre autovettori ortogonali sono:
Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore x in
R3 può essere scritto in modo unico come:
e quindi abbiamo
• Se il polinomio caratteristico di T ha tutte le radici in K con molteplicità 1, allora T è diagonalizzabile.
• Se il polinomio caratteristico di T ha tutte le radici in K, alcune delle quali con molteplicità maggiore di 1, non è
necessariamente diagonalizzabile: ad esempio la matrice seguente, che rappresenta la trasformazione della
Gioconda in figura ha come polinomio caratteristico (x-1)2 e non è diagonalizzabile (per
):
Note
[1]
[2]
[3]
[4]
[5]
[6]
[7]
S. Lang, op. cit., Pag. 220
S. Lang, op. cit., Pag. 221
S. Lang, op. cit., Pag. 104
S. Lang, op. cit., Pag. 105
S. Lang, op. cit., Pag. 227
S. Lang, op. cit., Pag. 228
Nella pratica gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico, esistendo metodi numerici più veloci e
sufficientemente stabili.
[8] S. Lang, op. cit., Pag. 223
[9] S. Lang, op. cit., Pag. 114
[10] S. Lang, op. cit., Pag. 251
[11] S. Lang, op. cit., Pag. 245
[12] Jon Keating, L-functions and the Characteristic Polynomials of Random Matrices in Francesco Mezzadri e Nina Snaith (a cura di), Recent
perspectives in random matrix theory and number theory (in inglese), Cambridge, Cambridge University Press, 2005, pp. 251-278. ISBN
978-0-521-62058-1
58
Autovettore e autovalore
Bibliografia
•
•
•
•
•
•
•
•
•
•
•
Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
Marius Stoka, Corso di geometria, Cedam, ISBN 88-13-19192-8
Serge Lang (2002): Algebra, 3rd edition, Springer, ISBN 0-387-95835-X
Steven Roman (1992): Advanced Linear Algebra, Springer, ISBN 0-387-97837-2
Paul Richard Halmos (1993): Finite-dimensional Vector Spaces, Springer, ISBN 0-387-90093-3
Werner H. Greub (1981): Linear Algebra, Springer, 4th edition, ISBN 0-387-90110-8
Jim Hefferon (2001): Linear Algebra, Online book (http://joshua.smcvt.edu/linearalgebra/), St Michael's
College, Colchester, Vermont, USA
Gene H. Golub, Charles F. van Loan (1996): Matrix computations, 3rd Edition, Johns Hopkins University Press,
ISBN 0-8018-5414-9
Nelson Dunford, Jacob Schwartz (1958): Linear Operator. Part I General Theory Wiley-Interscience, ISBN
0-471-60848-3
V. G. Prikazchikov: Eigen values of differential operators, numerical methods accessibile (http://eom.springer.
de/E/e035160.htm) in Encyclopaedia of Mathematics
A. B. Bakushinskii: Eigen values of integral operators, numerical methods accessibile (http://eom.springer.de/
E/e035170.htm) in Encyclopaedia of Mathematics
• T. S. Pigolkina, V. S. Shul'man: Eigen vector accessibile (http://eom.springer.de/E/e035180.htm) in
Encyclopaedia of Mathematics
• Leonid Vital'evič Kantorovič, G. P. Akilov (1982): "Functional analysis", Pergamon Press
Voci correlate
•
•
•
•
•
•
•
•
•
Autofunzione
Autostato
Diagonalizzabilità
Forma canonica di Jordan
Polinomio caratteristico
Spazio vettoriale
Teorema spettrale
Teoremi di Gerschgorin
Trasformazione lineare
Altri progetti
•
Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/autovettore
•
Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/autovalore
Collegamenti esterni
• (EN) Eigenvector (http://mathworld.wolfram.com/Eigenvector.html) in MathWorld
• (EN) Earliest Known Uses of Some of the Words of Mathematics: E - vedi eigenvector e termini correlati (http://
members.aol.com/jeff570/e.html)
• (EN) Numerical solution of eigenvalue problems (http://www.cs.utk.edu/~dongarra/etemplates/index.html)
Edited by Zhaojun Bai, James Demmel, Jack Dongarra, Axel Ruhe, Henk van der Vorst
Calcolatrici in linea
• Calculator for Eigenvalues (http://www.arndt-bruenner.de/mathe/scripts/engl_eigenwert.htm) nel sito di
Arndt Brünner
59
Autovettore e autovalore
60
• Online Matrix Calculator (http://www.bluebit.gr/matrix-calculator/) presso BlueBit Software
• Matrix calculator (http://wims.unice.fr/wims/wims.cgi?session=6S051ABAFA.2&+lang=en&+
module=tool/linear/matrix.en) in WIMS, WWW Interactive Multipurpose Server, presso l'Université Nice
Sophia Antipolis
Polinomio caratteristico
In matematica, e in particolare in algebra lineare, il polinomio caratteristico di una matrice quadrata su un campo è
un polinomio definito a partire dalla matrice che ne descrive molte proprietà essenziali.
Il polinomio caratteristico è un oggetto che dipende solo dalla classe di similitudine di una matrice, e pertanto
fornisce molte informazioni sulla natura intrinseca delle trasformazioni lineari, caratterizzate attraverso la traccia e il
determinante. In particolare, le radici del polinomio sono gli autovalori della trasformazione lineare associata alla
matrice. I coefficienti del polinomio sono pertanto detti invarianti della matrice e dell'applicazione ad essa associata.
Il polinomio è anche utilizzato per determinare la forma canonica di luoghi geometrici esprimibili mediante matrici,
come coniche e quadriche.
Definizione
Sia A una matrice quadrata a valori in un campo K. Il polinomio caratteristico di A nella variabile x è il polinomio
definito nel modo seguente:[1]
cioè è il determinante della matrice
avente la stessa dimensione di
, ottenuta sommando
, e quindi
e
. Qui
denota la matrice identità,
è la matrice diagonale avente il valore
su ciascuna delle n
caselle della diagonale principale.
In particolare,
è autovalore di A se e solo se è radice del suo polinomio caratteristico.[2]
Grado e coefficienti del polinomio
Sia
una matrice quadrata di ordine
. Il polinomio caratteristico di
ha grado
. Alcuni dei suoi coefficienti
sono (a meno di segno) quantità notevoli per la matrice, come la traccia ed il determinante:
Il coefficiente di
Ad esempio, se
Se
del polinomio è la somma moltiplicata per
"centrati" sulla diagonale.
è una matrice 2 per 2 si ha:
è una matrice 3 per 3 si ha:
con:
dove
è l'elemento di
nella posizione
.
dei
determinanti dei minori
Polinomio caratteristico
61
Autovalori
Le radici in K del polinomio caratteristico sono gli autovalori di
Questo si dimostra formalmente ponendo
.[2]
autovettore di A. Si ha allora
Si ha quindi che il nucleo dell'applicazione
, ed in particolare:
è non nullo se
è autovalore, e tale condizione è
soddisfatta se e solo se:
.
Se
è una matrice triangolare (superiore o inferiore) avente i valori
sulla diagonale principale,
allora
.
Quindi il polinomio caratteristico di una matrice triangolare ha radici nel campo, date dai valori nella diagonale
principale. In particolare, questo fatto è vero per le matrici diagonali.
Invarianza per similitudine e diagonalizzabilità
Due matrici simili hanno lo stesso polinomio caratteristico.[3] Infatti, se:
per qualche matrice invertibile
, si ottiene:
In tale catena di uguaglianze si fa uso del fatto che la matrice della forma
commuta con qualsiasi altra e del
teorema di Binet.
Poiché due matrici che rappresentano un endomorfismo
di uno spazio vettoriale
simili, il polinomio caratteristico è una grandezza intrinseca di
a dimensione finita sono
che riassume molte delle caratteristiche
dell'endomorfismo considerato, come traccia, determinante ed autovalori. Come conseguenza di questo fatto si ha
che è diagonalizzabile se esiste una base di V rispetto alla quale la matrice che rappresenta T è diagonale, e gli
elementi della diagonale sono gli autovalori.[4] In particolare, la base che diagonalizza T è composta da suoi
autovettori.
Il teorema di diagonalizzabilità fornisce, inoltre, un criterio necessario e sufficiente che permette di stabilire se
un'applicazione lineare è diagonalizzabile. Una matrice quadrata A con n righe è diagonalizzabile se e solo se
valgono entrambi i fatti seguenti:
• La somma delle molteplicità algebriche dei suoi autovalori è n, ovvero il polinomio caratteristico può essere
fattorizzato nel campo attraverso polinomi di primo grado.
• Le molteplicità algebriche e geometriche di ogni autovalore sono coincidenti, ovvero la dimensione degli
autospazi è pari alla molteplicità con la quale il relativo autovalore è radice del polinomio caratteristico. Poiché la
molteplicità geometrica è sempre minore o uguale di quella algebrica, se l'applicazione ha n autovalori distinti nel
campo allora è diagonalizzabile.
Polinomio caratteristico
62
Invarianza per trasposizione
La matrice trasposta
ha lo stesso polinomio caratteristico di
. Infatti
Qui si fa uso del fatto che il determinante è invariante per trasposizione.
Esempio
• Data:
allora
e quindi
Gli autovalori di A sono le radici del polinomio: 4 e 1.
• Data:
in modo analogo si trova
Note
[1]
[2]
[3]
[4]
S. Lang, op. cit., Pag. 227
S. Lang, op. cit., Pag. 228
S. Lang, op. cit., Pag. 229
S. Lang, op. cit., Pag. 114
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
Voci correlate
•
•
•
•
Polinomio minimo
Autovettore e autovalore
Determinante
Teorema di Hamilton-Cayley
Polinomio minimo
63
Polinomio minimo
In matematica, e più precisamente in algebra lineare, il polinomio minimo di una trasformazione lineare di uno
spazio vettoriale o di una matrice quadrata è il polinomio monico di grado minore fra tutti quelli che annullano la
trasformazione o matrice.
Il polinomio minimo è utile per determinare la diagonalizzabilità e la forma canonica di Jordan della trasformazione
o matrice.
Definizione
Matrici quadrate
Data una matrice quadrata
a valori in un certo campo
di tutti i polinomi che si annullano in
polinomi con coefficienti in
L'anello
, si considera l'insieme
. Questo insieme risulta essere un ideale nell'anello
di tutti i
.
è un anello euclideo: è infatti possibile fare una divisione fra polinomi con resto. Conseguentemente,
è un anello ad ideali principali: ogni ideale è generato da un unico elemento. In particolare,
è generato da un elemento
. Tale elemento è unico solo a meno di moltiplicazione per una costante non nulla:
è quindi unico se lo si suppone monico (cioè con coefficiente 1 nel termine
polinomio minimo di
tale polinomio
più grande). Si definisce quindi il
.
Endomorfismi
Dato un endomorfismo
di uno spazio vettoriale
su
di dimensione finita, il polinomio minimo
di
è definito in modo analogo
come il generatore monico dell'ideale
formato da tutti i polinomi che annullano
. L'endomorfismo
è costruito interpretando la moltiplicazione
come composizione di endomorfismi.
Proprietà
Le proprietà qui elencate per le matrici quadrate valgono anche per gli endomorfismi.
Polinomio caratteristico
Per il teorema di Hamilton-Cayley, se
è un elemento dell'ideale
è il polinomio caratteristico di una matrice
, e perciò il polinomio minimo è un divisore del polinomio caratteristico.
Più precisamente, se il polinomio caratteristico
si decompone in fattori primi come
allora il polinomio minimo si decompone in fattori primi come
dove
allora
. Quindi
Polinomio minimo
64
In particolare, i polinomi minimo e caratteristico hanno gli stessi fattori primi.
Triangolarizzabilità
Una matrice è triangolarizzabile se e solo se il suo polinomio minimo ha tutte le radici nel campo
.
Diagonalizzabilità
Una matrice è diagonalizzabile se e solo se ha tutti gli autovalori nel campo K e la molteplicità algebrica di ogni
autovalore è uguale alla sua molteplicità geometrica. In particolare ogni matrice è diagonalizzabile se e solo se il
polinomio minimo ad essa associato ha tutte radici nel campo K di molteplicità pari a 1.
Esempi
Grado uno
Il polinomio minimo di una matrice
D'altra parte, se
ottenuta moltiplicando uno scalare
è di grado uno, la matrice è necessariamente del tipo
Diagonale
Il polinomio minimo della matrice diagonale
è
mentre il polinomio caratteristico è
Blocco di Jordan
Il polinomio minimo di un blocco di Jordan
è
per la matrice identità
.
è pari a
Polinomio minimo
65
Applicazioni
Diagonalizzabilità
Il polinomio minimo è uno strumento potente per determinare la diagonalizzabilità di un endomorfismo.
Proiezioni
Una proiezione, nella sua accezione più generale, è un endomorfismo
tale che
Una proiezione è sempre diagonalizzabile: infatti prendendo
vale
Poiché
. Ne segue che
appartiene all'ideale
ha due radici 0 e 1 di molteplicità 1, anche
, ed è quindi diviso dal polinomio minimo
ha radici di molteplicità 1, e quindi
di
.
è diagonalizzabile.
Involuzioni
Una involuzione è un endomorfismo
Analogamente,
tale che
è radice del polinomio
diagonalizzabile.
Voci correlate
• Polinomio caratteristico
• Forma canonica di Jordan
che ha due radici distinte. Quindi
è
Forma canonica di Jordan
66
Forma canonica di Jordan
In matematica, più precisamente in algebra lineare, la forma canonica di Jordan di una matrice quadrata A
definisce una matrice triangolare J simile ad A che ha una struttura il più possibile vicina ad una matrice diagonale.
La matrice è diagonale se e solo se A è diagonalizzabile, altrimenti è divisa in blocchi detti blocchi di Jordan.
La forma canonica caratterizza univocamente la classe di similitudine di una matrice. In altre parole, due matrici
sono simili se e solo se hanno la stessa forma di Jordan (a meno di permutazione dei blocchi).
Il nome è dovuto al matematico francese Camille Jordan che si è occupato di matrici diagonalizzabili.
Definizione
Blocco di Jordan
Un blocco di Jordan di ordine k è una matrice triangolare superiore con k righe costituita nel seguente modo:
in cui ogni elemento della diagonale è uguale a
caratteristico è
l'autospazio relativo a
, e quindi ha
ed in ogni posizione (i, i+1) si trova un 1. Il suo polinomio
come unico autovalore con la molteplicità algebrica k. D'altra parte,
è:
avente, quindi, dimensione 1. Dal teorema di diagonalizzabilità segue che se k>1 il blocco di Jordan non è
diagonalizzabile.
Matrice di Jordan
Una matrice di Jordan è una matrice a blocchi del tipo
dove Ji è un blocco di Jordan con autovalore λi. Ogni blocco di Jordan contribuisce con un autospazio
unidimensionale relativo a λi.
Come sopra, si vede che la molteplicità geometrica di λi, definita come la dimensione del relativo autospazio, è pari
al numero di blocchi con autovalore λi. D'altra parte, la molteplicità algebrica di λi, definita come la molteplicità
della radice λi nel polinomio caratteristico di J, è pari alla somma degli ordini di tutti i blocchi con autovalore λi.
In questo contesto, il teorema di diagonalizzabilità asserisce, quindi, che J è diagonalizzabile se e solo se le
molteplicità algebriche e geometriche coincidono, ovvero se e solo se i blocchi hanno tutti ordine pari ad 1: in altre
parole, J è diagonalizzabile se e solo se è già diagonale.
Forma canonica di Jordan
67
Teorema di Jordan
Diciamo che una matrice quadrata A con elementi in un campo K ha "tutti gli autovalori nel campo" se la somma
delle molteplicità algebriche dei suoi autovalori è pari al numero di righe di A. Questo equivale a dire che il suo
polinomio caratteristico ha "tutte le radici nel campo", cioè che si spezza come prodotto di polinomi di primo grado.
Questo è sempre vero se K è algebricamente chiuso, ad esempio se K = C è il campo dei numeri complessi.
Il teorema di Jordan asserisce che ogni matrice ha una "forma canonica di Jordan", e che due matrici sono simili se e
solo se hanno la stessa forma canonica:
• Sia A una matrice quadrata con elementi in K avente tutti gli autovalori nel campo. Allora A è simile ad una
matrice di Jordan.
• Due matrici di Jordan J e J' sono simili se e solo se si ottengono l'una dall'altra permutando i blocchi.
Esempi
Calcoliamo la forma canonica di Jordan della matrice
Il suo polinomio caratteristico è
, quindi i suoi autovalori sono 4, 4, 2 e 1. Ricordiamo
che, se indichiamo con malg(λ) e mgeo(λ) le molteplicità algebrica e geometrica di un autovalore λ, valgono sempre le
seguenti disuguaglianze:
Quindi in questo caso le molteplicità algebriche e geometriche degli autovalori 2 e 1 sono tutte 1, e l'unica grandezza
da trovare è la molteplicità geometrica di 4, che può essere 1 o 2. La molteplicità geometrica di un autovalore indica
il numero di blocchi di jordan presenti relativi a quell'autovalore. Vediamo che
Segue quindi che A non è diagonalizzabile, e l'autovalore 4 ha un solo blocco di Jordan. I dati che abbiamo sono
sufficienti a determinare la matrice di Jordan, che è la seguente:
Polinomio minimo
Il polinomio minimo m(x) di una matrice A è calcolabile a partire dalla sua forma di Jordan J. Infatti si decompone
come
dove λ1, ..., λk sono gli autovalori (distinti, cioè elencati senza molteplicità) di A, e ji è l'ordine del blocco di Jordan
più grande fra tutti quelli relativi all'autovalore λi.
Ad esempio, la seguente matrice
Forma canonica di Jordan
ha
come polinomio caratteristico e
68
come polinomio minimo.
Usando il teorema di Jordan e la decomposizione del polinomio minimo enunciata, si ha che le due matrici seguenti
hanno gli stessi polinomi caratteristici (e quindi anche lo stesso determinante, la stessa traccia e gli stessi autovalori),
gli stessi polinomi minimi, ma non sono simili:
Voci correlate
•
•
•
•
Autovettore e autovalore
Diagonalizzabilità
Polinomio caratteristico
Polinomio minimo
Prodotto scalare
In matematica, il prodotto scalare è un'operazione binaria che associa ad ogni coppia di vettori appartenenti ad uno
spazio vettoriale definito sul campo reale un elemento del campo.[1] Si tratta di un prodotto interno sul campo reale,
ovvero una forma bilineare simmetrica definita positiva a valori reali.
Alcuni autori propongono una definizione più generale di prodotto scalare, senza specificarne l'appartenenza al
campo reale. Talvolta si identifica il prodotto scalare con il prodotto interno o con il concetto di forma bilineare
simmetrica.[2]
Si tratta di uno strumento fondamentale sia in fisica che in vari settori della matematica, ad esempio nella
classificazione delle coniche, nello studio di una funzione differenziabile intorno ad un punto stazionario, delle
trasformazioni del piano o nella risoluzione di alcune equazioni differenziali. Spesso in questi contesti viene fatto
uso del teorema spettrale, un importante risultato connesso al prodotto scalare. Nel piano cartesiano il prodotto
scalare mette in relazione due vettori e le loro lunghezze con l'angolo fra questi, e permette di definire e trattare le
nozioni geometriche di lunghezza, angolo e perpendicolarità in spazi vettoriali di dimensione arbitraria.
La nozione di prodotto scalare è generalizzata in algebra lineare dallo spazio euclideo ad uno spazio vettoriale
qualsiasi: tale spazio può avere dimensione infinita ed essere definito su un campo arbitrario K. Questa
generalizzazione è di fondamentale importanza ad esempio in geometria differenziale e in meccanica razionale.
Aggiungendo un'ulteriore proprietà, la completezza, porta inoltre al concetto di spazio di Hilbert, per il quale la
teoria si arricchisce di strumenti più sofisticati, basilari nella modellizzazione della meccanica quantistica e in molti
campi dell'analisi funzionale.
Prodotto scalare
Definizione
Si definisce prodotto scalare sullo spazio vettoriale V una forma bilineare simmetrica che associa a due vettori v e w
di V uno scalare nel campo reale R, generalmente indicato con
o
.[3]
Si tratta di un operatore binario che verifica le seguenti condizioni per v, w, u vettori arbitrari e k elemento del
campo:
• Simmetria:
• Linearità rispetto al primo termine:
Diversi autori richiedono anche che la forma sia definita positiva, cioè che:[1]
per ogni v diverso da zero.
Le precedenti richieste implicano anche le seguenti proprietà:
• Linearità rispetto al secondo termine:
e dal momento che un vettore moltiplicato per 0 restituisce il vettore nullo, segue che:
Se il prodotto scalare tra un vettore ed i restanti elementi dello spazio vettoriale è nullo solo se l'elemento considerato
è il vettore nullo, il prodotto scalare è detto non degenere.
Prodotto scalare definito positivo e negativo
Un prodotto scalare su uno spazio vettoriale V è definito positivo se:[4]
definito negativo se:
semi-definito positivo:
semi-definito negativo se:
Un prodotto scalare semi-definito positivo è (raramente) chiamato anche prodotto pseudoscalare.
69
Prodotto scalare
70
Prodotto scalare nello spazio euclideo
Il prodotto scalare di due vettori a e b del piano, applicati sullo
stesso punto, è definito come
dove |a| e |b| sono le lunghezze di a e b, e θ è l'angolo tra i due
vettori. Il prodotto scalare si indica come a·b, e soddisfa le
proprietà algebriche di simmetria,
per ogni coppia di vettori a e b, e di bilinearità:
Interpretazione geometrica del prodotto scalare
(quando B ha lunghezza unitaria)
per ogni tripletta di vettori a, b, c e per ogni numero reale
. Le
prime due relazioni esprimono la "linearità a destra" e le altre due
"a sinistra".
Il prodotto scalare di un vettore con se stesso è sempre maggiore o
uguale a zero:
Inoltre, questo è zero se e solo se il vettore è zero (proprietà di
annullamento del prodotto scalare):
Questa proprietà può essere espressa affermando che il prodotto
scalare è definito positivo.
Interpretazione geometrica
Poiché |a|·cos(θ) è la lunghezza della proiezione ortogonale di a su
b, si può interpretare geometricamente il prodotto scalare come il
prodotto delle lunghezze di questa proiezione e di b. Si possono
inoltre scambiare i ruoli di a e b, interpretare |b|·cos(θ) come la
lunghezza della proiezione di b su a ed il prodotto scalare come il prodotto delle lunghezze di questa proiezione e di
a.
Prodotto scalare
71
Prodotto scalare positivo, nullo e negativo
Il coseno di un angolo θ è positivo se θ è un angolo acuto (cioè -90° <θ < 90°), nullo se θ è un angolo retto e
negativo se è un angolo ottuso. Ne segue che il prodotto scalare a·b è:
• positivo se |a| > 0, |b| >0 e l'angolo θ è acuto;
• nullo se |a|=0, |b|=0 oppure θ è retto;
• negativo se |a|>0, |b|>0 e l'angolo θ è ottuso.
I casi in cui θ è acuto ed ottuso sono mostrati in figura. In entrambi i casi il prodotto scalare è calcolato usando
l'interpretazione geometrica, ma il segno è differente.
In particolare, valgono inoltre le proprietà seguenti
• se θ = 0 i vettori sono paralleli ed a·b = |a|·|b|;
• se θ = 90° i vettori sono ortogonali ed a·b = 0;
• se θ = 180° i vettori sono paralleli ma orientati in verso opposto, ed a·b = - |a|·|b|.
Se a e b sono versori, cioè vettori di lunghezza 1, il loro prodotto scalare è semplicemente il coseno dell'angolo
compreso.
Il prodotto scalare di un vettore a con se stesso a·a = |a|2 è il quadrato della lunghezza |a| del vettore.
Applicazioni in fisica
Nella fisica classica, il prodotto scalare è usato nei contesti in cui si
debba calcolare la proiezione di un vettore lungo una determinata
componente. Ad esempio, il lavoro
prodotto da una forza su un
corpo che si sposta in direzione
è il prodotto scalare
dei due vettori.
Applicazioni in geometria
Il teorema del coseno può essere formulato agevolmente usando il
prodotto scalare. Dati tre punti
qualsiasi del piano, vale la
relazione seguente:
Il lavoro è il prodotto scalare fra i vettori
e
.
Espressione analitica
Il prodotto scalare è definito in geometria analitica in modo differente: si tratta della funzione che, in un qualsiasi
spazio euclideo associa a due vettori a = [a1, a2, ... , an] e b = [b1, b2, ... , bn] il numero
dove Σ denota una sommatoria.
Ad esempio, il prodotto scalare di due vettori tridimensionali [1, 3, −2] e [4, −2, −1] è [1, 3, −2]·[4, −2, −1] = 1×4 +
3×(−2) + (−2)×(−1) = 0.
In questo modo è possibile definire l'angolo θ compreso fra due vettori in un qualsiasi spazio euclideo, invertendo la
formula data sopra, facendo cioè dipendere l'angolo dal prodotto scalare e non viceversa:
Prodotto scalare
72
Notazioni
Spesso il prodotto scalare fra a e b si indica anche come
o come
.
Utilizzando il prodotto tra matrici e considerando i vettori come matrici
anche come
, il prodotto scalare canonico si scrive
dove aT è la trasposta di a. L'esempio visto sopra si scrive quindi in notazione matriciale nel modo seguente:
Equivalenza fra le due definizioni
L'equivalenza fra le due definizioni può essere verificata facendo uso del teorema del coseno. Nella forma descritta
sopra, il teorema asserisce che il prodotto scalare di due vettori a e b nel piano, definito in modo geometrico, è pari a
Ponendo a = [a1, a2] e b = [b1, b2] ed usando il teorema di Pitagora si ottiene
L'equivalenza in uno spazio euclideo di dimensione arbitraria può essere verificata in modo analogo.
Applicazioni
Norma di un vettore
Se K=R ed il prodotto scalare è definito positivo, è possibile dotare lo spazio vettoriale di una norma. Più
precisamente, la funzione:
soddisfa per ogni vettori x, y e per ogni scalare
•
•
•
le proprietà:
se e solo se
e dunque rende lo spazio vettoriale uno spazio normato.
Matrice associata
In modo analogo alla matrice associata ad una applicazione lineare, fissata una base
, un prodotto
scalare φ è identificato dalla matrice simmetrica associata M, definita nel modo seguente:
D'altro canto, ogni matrice simmetrica dà luogo ad un prodotto scalare. Molte proprietà del prodotto scalare e della
base possono essere lette sulla matrice associata.
Prodotto scalare
73
Radicale
Il radicale di un prodotto scalare è l'insieme dei vettori v in V per cui:
per ogni w in V. Il radicale è un sottospazio vettoriale di V. Il prodotto scalare si dice degenere se il radicale ha
dimensione maggiore di zero.
Se V ha dimensione finita e M è la matrice associata a φ rispetto ad una qualsiasi base, applicando il teorema della
dimensione si trova facilmente che:
dove rk(M) è il rango di M e rad(V) è il radicale. Quindi un prodotto scalare è non degenere se e solo se la matrice
associata è invertibile. Si definisce il rango del prodotto scalare come rk(M).
Un prodotto scalare definito positivo o negativo è necessariamente non degenere. Non è vero il contrario, infatti il
prodotto scalare associato rispetto alla base canonica alla matrice:
non è degenere, ma non è né definito positivo né definito negativo.
Vettori isotropi
Un vettore v è isotropo se
= 0. Tutti i vettori del radicale sono isotropi, ma possono esistere vettori isotropi
che non appartengono al radicale. Ad esempio, per il prodotto scalare associato alla matrice A descritta sopra il
vettore
è isotropo ma non è contenuto nel radicale, che ha dimensione zero.
Ortogonalità
Due vettori v e w si dicono ortogonali se
. Il sottospazio ortogonale ad un sottospazio W di V è
definito come:
Il sottospazio ortogonale è appunto un sottospazio vettoriale di V. Contrariamente a quanto accade con il prodotto
canonico nello spazio euclideo, un sottospazio ed il suo ortogonale non si intersecano in generale in un punto solo
(possono addirittura coincidere). Per quanto riguarda le loro dimensioni, vale la seguente disuguaglianza:
Se il prodotto scalare è non degenere, vale l'uguaglianza
Infine, se il prodotto scalare è definito positivo o negativo, effettivamente uno spazio e il suo ortogonale si
intersecano solo nell'origine e sono in somma diretta. Si ottiene:
Una base ortogonale di vettori di V è una base di vettori a due a due ortogonali. Una base è ortogonale se e solo se la
matrice associata al prodotto scalare rispetto a questa base è diagonale.
Prodotto scalare
Trasformazione ortogonale
Una trasformazione ortogonale è una applicazione lineare invertibile T:V → V in sé che preserva il prodotto scalare,
cioè tale che:
Teorema di Sylvester
Se K = R è il campo dei numeri reali e V ha dimensione n, il teorema di Sylvester reale afferma che, dato un prodotto
scalare φ su V, si ha:
• Esiste una base ortogonale di V per φ.
• Due basi ortogonali per V hanno la stessa segnatura, che dipende quindi solo da φ• Due prodotti scalari con la stessa segnatura sono isomorfi.
Quindi la matrice associata è una matrice diagonale avente sulla diagonale solo i numeri 0, 1, e -1, in ordine sparso.
Siano i0, i+ e i- rispettivamente il numero di volte che compaiono i numeri 0, 1 e -1 sulla diagonale: la terna (i0, i+ e
i-) è la segnatura del prodotto scalare.
La segnatura è un invariante completo per l'isometria: due spazi vettoriali con prodotto scalare sono isometrici se e
solo se hanno la stessa segnatura.
Il teorema di Sylvester complesso dice invece che esiste sempre una base ortogonale v1, ..., vn tale che per ogni i il
numero
è uguale a 0 oppure 1. In questo caso, il rango è un invariante completo per l'isometria: due spazi
vettoriali complessi con prodotto scalare sono isometrici se e solo se hanno lo stesso rango.
Endomorfismo simmetrico
Un endomorfismo T:V → V è simmetrico o autoaggiunto rispetto al prodotto scalare se:
per ogni coppia di vettori v e w in V. Un endomorfismo è simmetrico se e solo se la matrice associata rispetto ad una
qualsiasi base ortonormale è simmetrica.
Esempi
• Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è un prodotto scalare definito positivo.
• Sia C([0, 1]) lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Definiamo un prodotto
scalare su C[0, 1] ponendo: :
Questo prodotto scalare è definito positivo, perché l'integrale di f2 è strettamente positivo se f non è costantemente
nulla.
• Definiamo sullo spazio vettoriale M([0, 1]) delle funzioni misurabili a valori reali lo stesso prodotto scalare del
punto precedente. Qui il prodotto scalare è solo semidefinito positivo: infatti se f è la funzione che vale 1 su 1/2 e
0 su tutto il resto, l'integrale di f2 è zero (f è isotropa).
74
Prodotto scalare
75
Note
[1]
[2]
[3]
[4]
Hoffman, Kunze, op. cit., Pag. 271
S. Lang, op. cit., Pag. 149
S. Lang, op. cit., Pag. 185
S. Lang, op. cit., Pag. 151
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.
ISBN 01-353-6821-9
Voci correlate
•
•
•
•
•
Prodotto vettoriale
Spazio euclideo
Spazio di Hilbert
Teorema di Sylvester
Teorema spettrale
• Identità di polarizzazione
Altri progetti
•
Wikibooks contiene testi o manuali: http://it.wikibooks.org/wiki/Implementazioni di algoritmi/Prodotto
scalare
Forma bilineare
In matematica, più precisamente in algebra lineare, una forma bilineare è una mappa bilineare V × W → F, dove F è
un campo, lineare in entrambe le componenti.
Definizione
Siano V e W spazi vettoriali. Una forma bilineare sul campo
che associa ad ogni coppia di elementi
,
è una mappa
lo scalare
componenti, cioè:[1]
con
e
.
Fissato uno dei due argomenti la funzione è quindi lineare rispetto all'altro.
Se V e W coincidono, la forma si dice bilineare su V (o su W).[2]
ed è lineare su entrambe le
Forma bilineare
76
Rappresentazione in coordinate
Se V ha dimensione n finita, ogni forma bilineare φ su V può essere rappresentata come una matrice quadrata con n
righe. Come per le applicazioni lineari, per fare ciò è necessario scegliere una base {v1, ... vn} per V, in quanto la
matrice risultante dipende dalla base scelta.
La matrice B è definita per componenti da
. A questo punto, l'azione della forma bilineare su due
vettori u e w di V si ricava nel modo seguente, tramite moltiplicazione tra matrici:
dove u e w sono le coordinate di u e w rispetto alla base, aventi componenti ui e wj.
Relazione con lo spazio duale
Ogni forma bilineare B su V definisce una coppia di mappe lineari da V nel suo spazio duale V*. Si definiscano B1,
B2:V → V* nel modo seguente:
In altre parole, B1(v) è l'elemento di V* che manda w in B1(v, w).
Per distinguere l'elemento v dall'argomento w della funzione ottenuta si usa la notazione:
dove ( ) indica il posto per l'argomento della mappa.
Ogni mappa lineare T: V → V* definisce analogamente una funzione bilineare:
Forme simmetriche e antisimmetriche
Una forma bilineare φ: V × V → K è detta simmetrica se:[3]
per ogni v, w in V.
Una forma bilineare φ: V × V → K è detta antisimmetrica o alternante se:
per ogni v, w in V.
Una forma bilineare φ è simmetrica se e solo se la sua matrice associata (rispetto ad una base qualsiasi) è
simmetrica, ed è antisimmetrica se e solo se la matrice associata è antisimmetrica.
Se la forma bilineare è simmetrica, le due mappe φ1, φ2: V → V* definite sopra coincidono.
Se K non ha caratteristica 2, allora una caratterizzazione equivalente di una forma antisimmetrica è:
per ogni v in V. In caso contrario, la condizione precedente è solo sufficiente.
Forma bilineare
77
Prodotto scalare
Una forma bilineare simmetrica è spesso chiamata prodotto scalare.[3] Altri autori definiscono invece il prodotto
scalare come una forma bilineare simmetrica a valori nel campo R dei numeri reali che sia definita positiva, ovvero
con
per ogni v diverso da zero e
.
Forma degenere
Una forma bilineare φ definita su uno spazio V di dimensione finita è degenere se la matrice B che la rappresenta
rispetto ad una base ha determinante nullo. Altrimenti, è detta non degenere. La definizione non dipende dalla base
scelta per rappresentare la forma come matrice.
I fatti seguenti sono equivalenti:
• φ è degenere;
• esiste un vettore
• esiste un vettore
non nullo tale che
non nullo tale che
per ogni
per ogni
;
.
Esempi
• Il prodotto scalare canonico fra vettori del piano o dello spazio euclideo è una forma bilineare simmetrica.
• Sia C[0, 1] lo spazio vettoriale delle funzioni continue sull'intervallo [0,1], a valori reali. Un esempio di forma
bilineare simmetrica su C[0, 1] è data da:
Note
[1] S. Lang, op. cit., Pag. 182
[2] S. Lang, op. cit., Pag. 183
[3] S. Lang, op. cit., Pag. 185
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
Voci correlate
• Prodotto scalare
• Forma quadratica
• Forma sesquilineare
Spazio euclideo
78
Spazio euclideo
In matematica, la nozione di spazio euclideo fornisce una generalizzazione degli spazi a due e a tre dimensioni
studiati dalla geometria euclidea. Per ogni intero naturale n si dispone di uno spazio euclideo ad n dimensioni: questo
si ottiene dallo spazio vettoriale ad n dimensioni arricchendolo con le nozioni che consentono di trattare le nozioni di
distanza, lunghezza e angolo. È l'esempio "standard" di spazio di Hilbert reale a dimensione finita.
Spazio
Definizione
Sia
il campo dei numeri reali e sia n un numero naturale. Una n-upla di numeri reali è una sequenza (ossia un
insieme ordinato)
di n numeri reali. Lo spazio di tutte le n-uple di numeri reali forma uno spazio
vettoriale di dimensione n su
, indicato con
. Le operazioni di somma e prodotto per scalare sono definite da
Basi di spazi vettoriali
Una base dello spazio
che presenta vari vantaggi è la sua cosiddetta base canonica
.
Un vettore arbitrario in
Lo spazio
è il prototipo di uno spazio vettoriale reale a dimensione n: infatti ogni spazio vettoriale V di
dimensione n è isomorfo a
tra
può dunque essere scritto nella forma
. Notiamo che non si impone un isomorfismo canonico: la scelta di un isomorfismo
e V è equivalente alla scelta di una base per V. In molte fasi dello sviluppo dell'algebra lineare gli spazi
vettoriali a dimensione n vengono comunque studiati in astratto, perché molte considerazioni sono più semplici ed
essenziali se svolte senza fare riferimento ad una base particolare.
Struttura euclidea
Lo spazio euclideo è più che un semplice spazio vettoriale. Per ottenere la geometria euclidea si deve poter parlare di
distanze e angoli, iniziando con la distanza fra due punti e l'angolo formato da due rette o da due vettori. Il modo
intuitivo per fare questo è l'introduzione di quello che viene chiamato prodotto scalare standard su
. Questo
prodotto, se i vettori x e y sono riferiti alla base canonica definita sopra, è definito da
Lo spazio delle n-uple di numeri reali arricchito con il prodotto scalare, funzione che a due n-uple di reali x e y
associa un numero reale, costituisce una struttura più ricca di
chiamata spazio euclideo n-dimensionale. Per
distinguerlo dallo spazio vettoriale delle n-uple reali in genere viene denotato con En .
Il prodotto scalare permette di definire una "lunghezza" non negativa per ogni vettore x di En nel seguente modo
Spazio euclideo
79
Questa funzione lunghezza soddisfa le proprietà richieste per una norma e viene chiamata norma euclidea o norma
pitagorica su
. L'angolo (interno) θ fra due vettori x e y di En è quindi definito come
dove arccos è la funzione arcocoseno.
Con queste definizioni la base canonica dello spazio vettoriale
diventa una base ortonormale per lo spazio
euclideo ottenuto arricchendolo con il prodotto scalare standard.
A questo punto si può usare la norma per definire una funzione distanza (o metrica) su
nel seguente modo
La forma di questa funzione distanza è basata sul teorema di Pitagora, ed è chiamata metrica euclidea.
Ogni spazio euclideo quindi costituisce un esempio (a dimensione finita) di spazio di Hilbert (v. a. spazio
prehilbertiano), di spazio normato e di spazio metrico.
Va osservato che in molti contesti, lo spazio euclideo di n dimensioni viene denotato con
, dando per scontata la
struttura euclidea. In effetti per molti fini applicativi la distinzione che abbiamo fatta non ha gravi conseguenze e la
suddetta identificazione va considerata un abuso di linguaggio veniale. Infatti negli spazi euclidei si possono
introdurre le nozioni di sottospazio e di trasformazione lineare senza complicazioni rispetto a quanto fatto per gli
spazi vettoriali.
Osserviamo anche che ogni sottospazio vettoriale W di dimensione m (< n) di En è isometrico allo spazio euclideo
Em, ma non in modo canonico: per stabilire una corrispondenza utilizzabile per dei calcoli è necessaria la scelta di
una base ortonormale per W e questa, se in W non si trova alcun vettore della base canonica di En, non può servirsi di
alcun elemento di tale base.
Generalizzazione sui complessi
Accanto agli spazi euclidei reali si possono introdurre loro varianti sui numeri complessi, arricchendo lo spazio
vettoriale n-dimensionale sul campo dei complessi con un cosiddetto prodotto interno hermitiano costituito da una
forma sesquilineare.
In questo caso il prodotto scalare tra vettori viene definito con l'espressione:
La proprietà riflessiva di tale composizione diventa:
e per la moltiplicazione per uno scalare si ha:
.
Spazio euclideo
80
Topologia euclidea
Dal momento che lo spazio euclideo è uno spazio metrico, lo si può considerare anche uno spazio topologico
dotandolo della naturale topologia indotta dalla metrica. Questo può farsi definendo come base di insiemi aperti
l'insieme delle palle aperte, insiemi dei punti che distano da un punto dato meno di un reale positivo fissato (raggio
della palla). Mediante questi insiemi aperti si definiscono tutte le nozioni che servono alla topologia metrica su En.
Questa è detta topologia euclidea e si rivela equivalente alla topologia prodotto su
considerato come prodotto
di n copie della retta reale
dotata della sua usuale topologia.
Con la "strumentazione" degli spazi vettoriali topologici gli spazi euclidei sono in grado da fornire gli ambienti nei
quali sviluppare sistematicamente numerose nozioni dell'analisi matematica, della geometria euclidea, della
geometria differenziale e della fisica matematica classica.
Invarianza dei domini
Un risultato importante per la topologia di
è l'invarianza dei domini di Brouwer. Ogni sottoinsieme di
la sua topologia del sottospazio), omeomorfo a un altro sottoinsieme aperto di
Un'immediata conseguenza di questo è che
non è omeomorfo a
se
(con
, è esso stesso aperto.
- un risultato intuitivamente
"ovvio" ma che è difficile da dimostrare rigorosamente.
Varietà e strutture esotiche
Lo spazio euclideo è il prototipo di varietà topologica, e anche di varietà differenziabile. I due concetti coincidono in
generale, tranne in dimensione 4: come mostrato da Simon Donaldson e da altri, è possibile assegnare a
delle
"strutture differenziali esotiche", che rendono lo spazio topologico
Voci correlate
•
•
•
•
Geometria euclidea
Prodotto scalare
Spazio di Minkowski
Superspazio
non diffeomorfo allo spazio standard.
Base ortonormale
81
Base ortonormale
In matematica, e più precisamente in algebra lineare, una base ortonormale di uno spazio vettoriale munito di
prodotto scalare definito positivo è una base composta da vettori di norma unitaria.
Una base ortogonale è una base di vettori ortogonali rispetto al prodotto scalare definito sullo spazio vettoriale, non
necessariamente definito positivo. Si tratta di una condizione meno restrittiva rispetto a quella di
ortonormalizzazione, e solitamente si costruiscono basi ortonormali a partire da basi ortogonali.
I concetti di base ortonormale e ortogonale generalizzano la nozione di sistema di riferimento nel piano cartesiano, e
rendono possibile definire degli assi perpendicolari, e quindi un sistema di riferimento che assegna ad ogni punto
delle coordinate su uno spazio vettoriale con dimensione arbitraria.
Definizione
Sia
uno spazio vettoriale di dimensione finita sul campo K, nel quale sia definito un prodotto scalare. Una base
ortogonale per
è una base composta da vettori
a due a due ortogonali, cioè tali che:[1]
Si ponga il prodotto scalare definito positivo. Una base ortonormale è una base ortogonale in cui ogni vettore ha
norma uno, cioè tale che:[2]
Questa nozione si generalizza ad uno spazio di Hilbert
(che può essere reale o complesso, e con dimensione finita
o infinita) nel modo seguente: una base ortonormale è un insieme di vettori indipendenti, ortogonali e di norma 1,
che generano un sottospazio denso in . Una tale base è spesso detta base hilbertiana.
Se B è una base ortogonale di
, ogni elemento x di
può essere scritto in maniera unica come:
ed il numero:
è detto coefficiente di fourier di x rispetto al vettore di base vi.[3]
Se B è una base ortonormale si ha:
La norma di x è quindi data da:[4]
Se B è unabase ortonormale di
, allora
Φ : H -> ℓ 2(B) tale che:
per ogni coppia di vettori x e y di
.
è isomorfo a ℓ 2(B) nel senso che esiste una mappa lineare e biunivoca
Base ortonormale
82
Esempi
• L'insieme {(1,0,0),(0,1,0),(0,0,1)} costituisce una base ortogonale e ortonormale di
.
• L'insieme {fn : n ∈ } con fn(x) = exp(2πinx) costituisce una base ortonormale dello spazio complesso L2([0,1]).
Ciò è di fondamentale importanza nello studio delle Serie di Fourier.
• L'insieme {eb : b ∈ B} con eb(c) = 1 se b=c e 0 altrimenti costituisce una base ortonormale di l2(B).
Proprietà
• Ogni spazio vettoriale di dimensione finita, dotato di un prodotto scalare, possiede basi ortogonali grazie al
teorema di Sylvester.
• Da ogni base ortogonale si può ottenere una base ortonormale normalizzando (dividendo) i componenti della base
per la loro norma. Ad esempio, da
che già sappiamo ortogonale, abbiamo
.
• Ogni spazio euclideo possiede basi ortonormali, grazie all'algoritmo di ortogonalizzazione di Gram-Schmidt.
• Una matrice di cambiamento di base fra basi ortonormali è una matrice ortogonale.
• Se B è una base ortonormale di uno spazio di Hilbert V, ogni elemento v di V si scrive in modo unico come
e la norma di v è data dall'identità di Parseval
Inoltre il prodotto scalare fra due vettori è dato da
Queste espressioni hanno senso anche se B è non numerabile: in questo caso solo un insieme numerabile di addendi è
non-nullo. Le serie di Fourier sono un esempio.
• Una base hilbertiana è numerabile se e solo se lo spazio è separabile
Note
[1]
[2]
[3]
[4]
S. Lang, op. cit., Pag. 151
S. Lang, op. cit., Pag. 155
S. Lang, op. cit., Pag. 152
S. Lang, op. cit., Pag. 154
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
Voci correlate
•
•
•
•
Prodotto scalare
Forma hermitiana
Spazio di Hilbert
Identità di Parseval
Ortogonalizzazione di Gram-Schmidt
83
Ortogonalizzazione di Gram-Schmidt
In matematica, e in particolare in algebra lineare, l'ortogonalizzazione Gram-Schmidt è un algoritmo che permette
di ottenere un insieme di vettori ortogonali a partire da un generico insieme di vettori linearmente indipendenti in
uno spazio vettoriale dotato di un prodotto scalare definito positivo.[1]
L'algoritmo
Sia V uno spazio vettoriale reale con un prodotto scalare definito positivo. Siano
dei vettori indipendenti in V. L'algoritmo di Gram-Schmidt restituisce n vettori linearmente indipendenti
tali che:
In altre parole, i vettori restituiti sono ortonormali, ed i primi i generano lo stesso sottospazio di prima.[1]
Procedimento
Definiamo la proiezione ortogonale come la funzione che proietta il vettore v in modo ortogonale su u:[2]
Il procedimento di Gram–Schmidt permette di costruire una base ortogonale
generica
a partire da una base
. Normalizzando quindi la base ortogonale si ottiene una base ortonormale dello spazio.
Il procedimento è il seguente:[3]
I primi due passi dell'algoritmo.
Ortogonalizzazione di Gram-Schmidt
Dimostrazione
Per verificare che queste formule producono una sequenza di vettori mutuamente ortogonali, per prima cosa
calcoliamo il prodotto scalare fra e1 e e2 sostituendo la precedente espressione per u2: troveremo zero.
Successivamente teniamo conto di questo fatto per calcolare il prodotto scalare fra e1 ed e3, ora sostituendo u3 con la
relativa espressione: troveremo ancora zero. La dimostrazione generale procede per induzione.
Geometricamente, questo metodo viene descritto come segue. Per calcolare ui, si proietta vi ortogonalmente sul
sottospazio Ui-1 generato da u1,...,ui-1, che è lo stesso del sottospazio generato da v1,...,vi-1. si definisce allora ui come
differenza tra vi e questa proiezione, in modo che risulta garantito che esso sia ortogonale a tutti i vettori nel
sottospazio Ui-1.
Poiché però vogliamo dei vettori di norma uno, ad ogni passo normalizziamo il vettore ui.
Generalizzazioni
Il processo di Gram-Schmidt si applica anche ad una successione infinita {vi}i di vettori linearmente indipendenti. Il
risultato è sempre una successione {ei}i di vettori ortogonali e con norma unitaria, tale che
Uso del determinante
Il risultato del procedimento di Gram–Schmidt può essere espresso in modo non ricorsivo utilizzando la seguente
formula:
dove D 0=1, e per j ≥ 1 D j è la matrice di Gram:
L'espressione per uk è un determinante "formale", ovvero la matrice contiene sia scalari che vettori.
Esempio
Consideriamo i vettori seguenti nel piano euclideo R2, con il prodotto scalare standard.
Applichiamo il procedimento di Gram-Schmidt per ottenere vettori ortogonali:
Verifichiamo che i vettori u1 e u2 sono effettivamente ortogonali:
84
Ortogonalizzazione di Gram-Schmidt
Cenni storici
Il procedimento è così chiamato in onore del matematico danese Jørgen Pedersen Gram (1850-1916) e del
matematico tedesco Erhard Schmidt (1876-1959); esso però è stato introdotto precedentemente ai loro studi e si
trova in lavori di Laplace e Cauchy.
Quando si implementa l'ortogonalizzazione su un computer, al processo di Gram-Schmidt di solito si preferisce la
trasformazione di Householder, in quanto questa è numericamente più stabile, cioè gli errori causati
dall'arrotondamento sono minori.
Note
[1] Hoffman, Kunze, op. cit., Pag. 280
[2] S. Lang, op. cit., Pag. 152
[3] S. Lang, op. cit., Pag. 154
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.
ISBN 01-353-6821-9
Voci correlate
•
•
•
•
Teorema di Sylvester
Prodotto scalare
Teorema spettrale
Algoritmo di Lagrange
85
Forma sesquilineare
86
Forma sesquilineare
In matematica una forma sesquilineare sopra uno spazio vettoriale complesso è una funzione che associa ad ogni
coppia di vettori dello spazio un numero complesso e che è antilineare nel primo argomento e lineare nel secondo. Il
nome trae origine dal prefisso sesqui che significa "uno e mezzo", in sintonia con il termine forma bilineare,
funzione con due argomenti che è lineare in entrambi.
Talora si chiede invece che una trasformazione sesquilineare sia lineare nel primo argomento e antilineare nel
secondo: questa è infatti la convenzione utilizzata dai matematici. La convenzione qui scelta è invece quella seguita
dai fisici quando trattano di meccanica quantistica, e trae origine dalla notazione bra-ket introdotta da Paul Dirac nel
formalismo della meccanica quantistica. Inoltre vari autori che studiano implicitamente soltanto spazi vettoriali
complessi, usano per brevità il termine forma bilineare al posto di sesquilineare.
Una forma sesquilineare simmetrica è detta forma hermitiana, ed è analoga alla forma bilineare simmetrica nel caso
reale.[1] Una forma hermitiana definita positiva è inoltre detta prodotto interno o prodotto hermitiano. Se si
considera il campo reale tale prodotto è detto prodotto scalare.[2]
Definizione
Sia V uno spazio vettoriale complesso. Una forma sesquilineare sul campo
è una mappa:
che associa ad ogni coppia di elementi
.
e
lo scalare
Si tratta di un'applicazione lineare su una componente ed antilineare sull'altra, cioè:
•
•
•
con
e
.
In altre parole, per ogni z in V fissato, le applicazioni
sono rispettivamente lineare e antilineare.
Forma hermitiana
Data una qualsiasi forma sesquilineare
su V, è sempre possibile associare una seconda forma sesquilineare
che si dice ottenuta per trasposizione coniugata:
e si ha:
Una forma hermitiana è una forma sesquilineare
: V × V → C tale che:[3]
La forma hermitiana standard sullo spazio Cn è definita nel modo seguente:
Tali forme sono l'equivalente complesso delle forme bilineari simmetrica e antisimmetrica. Analogamente a quanto
accade nel caso reale, ogni forma sesquilineare può essere scritta come somma di una hermitiana e di una
antihermitiana:
Forma sesquilineare
87
Prodotto interno
Il prodotto interno, anche detto prodotto hermitiano, è una forma hermitiana definita positiva, cioè tale che:[2]
se
. Un prodotto hermitiano è sovente indicato con
, ed uno spazio vettoriale complesso munito di
prodotto hermitiano si dice spazio prehilbertiano.
Il prodotto interno è in generale definito sul campo complesso, e nel caso si consideri il campo reale tale prodotto è
detto prodotto scalare.
Forma antihermitiana
Una forma antihermitiana è una forma sesquilineare
: V × V → C tale che:
ovvero:
Ogni forma antihermitiana si può esprimere come:
dove i è l'unità immaginaria e
è una forma hermitiana.
Analogamente al caso precedente, in dimensione finita una forma antihermitiana è rappresentabile tramite una
matrice antihermitiana. La forma quadratica associata ad una forma antihermitiana ha solo valori immaginari.
Matrice associata
Supponiamo che V abbia dimensione finita. Sia
una base di V. Ogni forma hermitiana
è rappresentata da una matrice hermitiana H definita come
e vale la relazione
dove
è il vettore in Cn delle coordinate di v rispetto a B. D'altra parte, ogni matrice hermitiana definisce un
prodotto hermitianwo. Come per le applicazioni lineari, questa corrispondenza fra forme e matrici dipende
fortemente dalla scelta della base B.
Forma sesquilineare
Forma quadratica
Ad una forma hermitiana è possibile associare una forma quadratica definita come:
Tale forma ha tutti valori reali: una forma sesquilineare è hermitiana se e solo se la forma quadratica a lei associata
ha solo valori reali.
Note
[1] S. Lang, op. cit., Pag. 197
[2] Hoffman, Kunze, op. cit., Pag. 271
[3] S. Lang, op. cit., Pag. 158
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• Kenneth Hoffman; Ray Kunze, Linear Algebra, 2a ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971.
ISBN 01-353-6821-9
Voci correlate
•
•
•
•
forma bilineare
teorema spettrale
spazio prehilbertiano
spazio di Hilbert
Teorema spettrale
In matematica, in particolare nell'algebra lineare e nell'analisi funzionale, il teorema spettrale si riferisce a una serie
di risultati relativi agli operatori lineari oppure alle matrici. In termini generali il teorema spettrale fornisce
condizioni sotto le quali un operatore o una matrice possono essere diagonalizzati, cioè rappresentati da una matrice
diagonale in una certa base.
In dimensione finita, il teorema spettrale asserisce che ogni endomorfismo simmetrico di uno spazio vettoriale reale
dotato di un prodotto scalare definito positivo ha una base ortonormale formata da autovettori. Equivalentemente,
ogni matrice simmetrica reale è simile ad una matrice diagonale tramite una matrice ortogonale.
In dimensione infinita, il teorema spettrale assume forme diverse a seconda del tipo di operatori cui si applica. Ad
esempio, esiste una versione per operatori autoaggiunti in uno spazio di Hilbert.
Il teorema spettrale fornisce anche una decomposizione canonica, chiamata decomposizione spettrale, dello spazio
vettoriale.
88
Teorema spettrale
Caso finito-dimensionale
Il teorema spettrale è innanzitutto un importante teorema riguardante gli spazi vettoriali (reali o complessi) di
dimensione finita.
Enunciato
Il teorema spettrale può essere enunciato per spazi vettoriali reali o complessi muniti di prodotto scalare o hermitiano
definito positivo. L'enunciato è essenzialmente lo stesso nei due casi.
Il teorema nel caso reale può anche essere interpretato come il caso particolare della versione complessa. Come molti
altri risultati in algebra lineare, il teorema può essere enunciato in due forme diverse: usando il linguaggio delle
applicazioni lineari o delle matrici. Nel caso complesso l'enunciato per spazi vettoriali complessi muniti di un
prodotto hermitiano è analogo a quello reale, ma sotto ipotesi più deboli: anziché autoaggiunto, è sufficiente
richiedere che l'operatore sia normale, cioè che commuti con il proprio aggiunto.
Caso reale
Sia T un endomorfismo su uno spazio vettoriale reale V di dimensione n, dotato di un prodotto scalare definito
positivo. Allora T è autoaggiunto se e solo se esiste una base ortonormale di V fatta di autovettori per T.[1]
L'endomorfismo T è quindi diagonalizzabile.
Una versione equivalente del teorema, enunciata con le matrici, afferma che ogni matrice simmetrica è simile ad una
matrice diagonale tramite una matrice ortogonale.[2]
Come conseguenza del teorema, per ogni matrice simmetrica S esistono una matrice ortogonale M (cioè tale che
MTM = I) ed una diagonale D per cui:[3]
In particolare, gli autovalori di una matrice simmetrica sono tutti reali.
Caso complesso
Sia T un operatore lineare su uno spazio vettoriale complesso V di dimensione n, dotato di un prodotto hermitiano,
cioè di una forma hermitiana definita positiva. Allora T è un operatore normale se e solo se esiste una base
ortonormale di V fatta di autovettori per T.[4]
Nel linguaggio matriciale, il teorema afferma che ogni matrice normale è simile ad una matrice diagonale tramite
una matrice unitaria. In altre parole, per ogni matrice normale H esistono una matrice unitaria U ed una diagonale D
per cui:
Un operatore è quindi normale se e solo se è unitariamente diagonalizzabile.
Come corollario segue che se e solo se l'operatore T è autoaggiunto la base ortonormale conta solo autovalori reali,
mentre se T è unitario il modulo degli autovalori è 1.
In particolare, gli autovalori di una matrice hermitiana sono tutti reali, mentre quelli di una matrice unitaria sono di
modulo 1.
89
Teorema spettrale
90
Dimostrazione
Nel dimostrare il teorema spettrale è sufficiente considerare il caso complesso, e per provare l'esistenza di una base
di autovettori si utilizza il principio d'induzione sulla dimensione di V.
Se la dimensione di V è pari a 1 non c'è nulla da dimostrare. Si ponga che l'enunciato valga per gli spazi vettoriali di
dimensione n - 1: si vuole mostrare che questo implica la validità del teorema per gli spazi di dimensione n. Poiché
C è un campo algebricamente chiuso, il polinomio caratteristico di T ha almeno una radice: quindi T ha almeno un
autovalore ed un autovettore relativo a tale autovalore. Si consideri lo spazio:
formato dai vettori di V ortogonali a
. W ha dimensione
L'endomorfismo T manda W in sé, ossia
, poiché i due sottospazi sono in somma diretta.
. Infatti, l'immagine di T è ortogonale a
:
essendo v e w ortogonali per ipotesi.
La restrizione
di T a W è ancora un endomorfismo di W normale:
Poiché W ha dimensione
si può applicare l'ipotesi induttiva per
, e supporre che esista una base
ortonormale di suoi autovettori. Dal momento che v può essere supposto di norma unitaria, v e la base ortonormale di
W costituiscono una base ortonormale di V, come richiesto.
Nel caso in cui T sia autoaggiunto si dimostra che tutti i suoi autovalori sono reali. Infatti, sia x un autovettore per T
con autovalore λ. Essendo T =T* si ha:
Segue che λ è uguale al suo coniugato, e quindi è reale. Questo permette di considerare il teorema spettrale enunciato
nel caso reale come corollario di quello complesso.
Viceversa, si supponga che esista una base ortonormale di V composta da autovettori di T. Allora la matrice che
rappresenta l'operatore rispetto a tale base è diagonale, da cui segue che T è normale.
Teorema di decomposizione spettrale
Come immediata conseguenza del teorema spettrale, sia nel caso reale che nel caso complesso, il teorema di
decomposizione spettrale afferma che gli autospazi di T sono ortogonali e in somma diretta:
Equivalentemente, se Pλ è la proiezione ortogonale su Vλ, si ha:
La decomposizione spettrale è un caso particolare della decomposizione di Schur. È anche un caso particolare della
decomposizione ai valori singolari.
Teorema spettrale
91
Caso infinito-dimensionale
Il caso infinito-dimensionale costituisce una generalizzazione del caso precedente, ed esistono diverse formulazioni
del teorema a seconda della classe di operatori che si vuole considerare. La principale distinzione riguarda gli
operatori limitati e non limitati.
Operatori limitati
Il teorema spettrale afferma che un operatore limitato e autoaggiunto
definito su uno spazio di Hilbert
è un
operatore di moltiplicazione.
In modo equivalente, esiste una famiglia di misure
su
ed un operatore unitario:
tali che:[5]
con:
Una tale scrittura di
è detta rappresentazione spettrale dell'operatore.
Come corollario, segue che esiste una misura
su uno spazio di misura
ed esiste un operatore unitario:
tali che:[6]
per una qualche funzione misurabile limitata ed a valori reali
su
.
Operatori non limitati
Sia
un operatore non limitato e autoaggiunto su uno spazio di Hilbert separabile
esistono uno spazio di misura
• Se
è una misura finita, un operatore unitario:
misurabile quasi ovunque tali che:[7]
ed esiste una funzione
•
, dove
se e solo se:
allora:
con dominio
. Allora
Teorema spettrale
Note
[1]
[2]
[3]
[4]
[5]
[6]
[7]
S. Lang, op. cit., Pag. 245
S. Lang, op. cit., Pag. 248
S. Lang, op. cit., Pag. 246
S. Lang, op. cit., Pag. 251
Reed, Simon, op. cit., Pag. 227
Reed, Simon, op. cit., Pag. 221
Reed, Simon, op. cit., Pag. 261
Bibliografia
• Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992. ISBN 88-339-5035-2
• (EN) Michael Reed; Barry Simon, Methods of Modern Mathematical Physics, Vol. 1: Functional Analysis, 2a ed.,
San Diego, California, Academic press inc., 1980. ISBN 0125850506
Voci correlate
• Autovettore e autovalore
• Decomposizione di Jordan
•
•
•
•
•
•
Operatore autoaggiunto
Operatore lineare limitato
Prodotto scalare
Spazio di Hilbert
Teoria spettrale
Trasformazione lineare
92
Fonti e autori delle voci
Fonti e autori delle voci
Premessa Fonte:: http://it.wikipedia.org/w/index.php?oldid=41050131 Autori:: M7, Marcok, Oile11, 1 Modifiche anonime
Algebra lineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=46382625 Autori:: Aepasto, Amarvudol, Ary29, Banus, Dom De Felice, Fire90, Hellis, Jollyroger, Laurentius, Neta, No2,
Phantomas, Piddu, Pracchia-78, Sandrobt, Thedoctor90, Vanalon, Ylebru, 28 Modifiche anonime
Spazio vettoriale Fonte:: http://it.wikipedia.org/w/index.php?oldid=44849064 Autori:: Achillu, Alberto da Calvairate, AnyFile, Aushulz, Balabiot, Damnit, Dr Zimbu, Dzag, Gac, Gianluigi,
Giulianap, Hashar, Luk.wk, Marcuscalabresus, Maupag, Ndakota73, Nihil, Palica, Phantomas, Piddu, Pracchia-78, Romanm, Rrronny, Salvatore Ingala, Sandrobt, Skyhc, Suisui, Wiso, Ylebru,
^musaz, 61 Modifiche anonime
Trasformazione lineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=46431431 Autori:: .jhc., Alberto da Calvairate, Beewan1972, Cls-classic, Colom, Den.90, Eumolpo, Giulianap,
Marco Matassa, Mawerick, Phantomas, Piddu, Pokipsy76, Pracchia-78, Sandrobt, Simone, Skyhc, TheRedOne, Tridim, Unit, Valerio.scorsipa, Wiso, Ylebru, ^musaz, 30 Modifiche anonime
Base (algebra lineare) Fonte:: http://it.wikipedia.org/w/index.php?oldid=46441089 Autori:: Andreas Carter, Dissonance, Eumolpo, Gac, Giomini, Habemusluigi, Lacurus, Marcok, MrCrow,
Nemo bis, Nickanc, Piddu, Sartore, Sbisolo, Simone, Skyhc, Square87, Vonvikken, Ylebru, ^musaz, 23 Modifiche anonime
Teorema del rango Fonte:: http://it.wikipedia.org/w/index.php?oldid=46409801 Autori:: Banus, Helios, IESteve, Kamina, Pracchia-78, Salvatore Ingala, Ylebru, ^musaz, 4 Modifiche anonime
Formula di Grassmann Fonte:: http://it.wikipedia.org/w/index.php?oldid=46494111 Autori:: .jhc., Alberto da Calvairate, Alfio, Faucct, Gabriele Nunzio Tornetta, Giulio84, Kamina, Piddu,
Popop, Roberto Mura, Salvatore Ingala, Senpai, Ylebru, ^musaz, 37 Modifiche anonime
Teorema di Rouché-Capelli Fonte:: http://it.wikipedia.org/w/index.php?oldid=46302170 Autori:: Amanconi, Bink, Claude, Continillo, FrancescoT, Freddyballo, Ginosal, Goemon,
Joségiuseppe, Kiado, Leitfaden, Pere prlpz, Pokipsy76, Salvatore Ingala, Senpai, Ulisse0, Ylebru, Zénon Kitieùs, ^musaz, 19 Modifiche anonime
Rango (algebra lineare) Fonte:: http://it.wikipedia.org/w/index.php?oldid=46653927 Autori:: Alberto da Calvairate, Banus, Chionatan, Freddyballo, Google, Guidomac, Piddu, Red Power,
Stefanobra, Tizio X, Tridim, Turgon, Ylebru, ^musaz, 17 ,‫ אלי פ‬Modifiche anonime
Determinante Fonte:: http://it.wikipedia.org/w/index.php?oldid=46697655 Autori:: Alberto da Calvairate, AnyFile, Blakwolf, Cruccone, DaniDF1995, Davice, Dom De Felice, Domenico De
Felice, Dr Zimbu, Fede Reghe, Frieda, Giulio.orru, Grifone87, Laurentius, Marco Ciaramella, Piddu, Pokipsy76, Riccardocc2, Salvatore Ingala, Simone Scanzoni, SquallLeonhart ITA, Square87,
Taueres, Ulisse0, Wikinomane, Ylebru, Zio Illy, ^musaz, 46 Modifiche anonime
Diagonalizzabilità Fonte:: http://it.wikipedia.org/w/index.php?oldid=43883996 Autori:: CristianCantoro, Eumolpo, Ft1, Goemon, Luisa, Mark91, MartinoK, Pracchia-78, Ylebru, ^musaz, 22
Modifiche anonime
Autovettore e autovalore Fonte:: http://it.wikipedia.org/w/index.php?oldid=46570853 Autori:: AMenteLibera, Alberto da Calvairate, Alfio, Aushulz, Berto, Domenico De Felice, Engineer123,
F l a n k e r, Formica rufa, Franz Liszt, Gecob, Ggonnell, Huatulco, Jean85, Luisa, M&M987, Magma, Marco82laspezia, Midnight bird, Onnisciente, Piddu, Piero, Pokipsy76, Pracchia-78,
RanZag, Restu20, Rob-ot, Robmontagna, Sandrobt, Sartore, Shony, SimoneMLK, Sir marek, SkZ, Stefano80, Tommaso Ferrara, Tridim, Ulisse0, Valepert, Vipera, Xander89, Ylak, Ylebru,
^musaz, 36 Modifiche anonime
Polinomio caratteristico Fonte:: http://it.wikipedia.org/w/index.php?oldid=46621269 Autori:: Alberto da Calvairate, Claude, Eumolpo, Fred Falcon, Kronolf, Luisa, Lupin85, Poeta60,
Pokipsy76, Ylebru, ^musaz, 23 Modifiche anonime
Polinomio minimo Fonte:: http://it.wikipedia.org/w/index.php?oldid=44973233 Autori:: Franci237, Kronolf, Piddu, Wiso, Ylebru, 2 Modifiche anonime
Forma canonica di Jordan Fonte:: http://it.wikipedia.org/w/index.php?oldid=43530181 Autori:: .:Andrea:., Bauletto, Geppo985, MaiDireChiara, Piddu, Tino 032, Toobaz, Ylebru, Zio Illy,
^musaz, 12 Modifiche anonime
Prodotto scalare Fonte:: http://it.wikipedia.org/w/index.php?oldid=46690340 Autori:: Alberto da Calvairate, Ceskino, Eumolpo, F l a n k e r, Gala.martin, Gatto Bianco 1, Giacomo.lucchese,
Goemon, MaEr, Moroboshi, Nihil, No2, Phantomas, Piddu, Pietrodn, Pracchia-78, Sandrobt, Sir marek, SkZ, Superedit, Ticket 2010081310004741, Triph, Ulisse0, Unriccio, Valerio.scorsipa,
Voldemort87, Wiso, Ylebru, ^musaz, 47 Modifiche anonime
Forma bilineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=43301956 Autori:: Bordaigorl, Piddu, Pracchia-78, Sandrobt, Tridim, Ylebru, ^musaz, 10 Modifiche anonime
Spazio euclideo Fonte:: http://it.wikipedia.org/w/index.php?oldid=45859342 Autori:: Airon90, Alberto da Calvairate, B3t, Banus, Boscarol, Damnit, Guidomac, Hellis, Piddu, Pokipsy76,
Poldo328, Pracchia-78, Tridim, Ylebru, ^musaz, 11 Modifiche anonime
Base ortonormale Fonte:: http://it.wikipedia.org/w/index.php?oldid=43509243 Autori:: AKappa, Alberto da Calvairate, Alez, Ceskino, Goemon, Hellis, M7, Nihil, Piddu, Pracchia-78,
TDLemon, The Ouroboros, Tomi, Unriccio, Xufanc, Ylebru, ^musaz, 14 Modifiche anonime
Ortogonalizzazione di Gram-Schmidt Fonte:: http://it.wikipedia.org/w/index.php?oldid=45967134 Autori:: Agnul, Alberto da Calvairate, Alec, AttoRenato, Banus, Ceskino, Colom,
Cruccone, Giacomo.lucchese, Hellis, Laurusnobilis, Mess, Piddu, Simone, Snowdog, Ylebru, ^musaz, 8 Modifiche anonime
Forma sesquilineare Fonte:: http://it.wikipedia.org/w/index.php?oldid=43615548 Autori:: Alberto da Calvairate, Piddu, Pracchia-78, Toobaz, Wiso, Ylebru, ^musaz, 10 Modifiche anonime
Teorema spettrale Fonte:: http://it.wikipedia.org/w/index.php?oldid=46451251 Autori:: Almadannata, Banus, Chionatan, Eumolpo, Fontafox, Kamina, Leitfaden, Leonardis, Lucha, Nase,
Nicolaennio, Piddu, Pracchia-78, Qualc1, Salvatore Ingala, Walter89, Wiso, Ylebru, Zuccaccia, Zviad, ^musaz, 12 Modifiche anonime
93
Fonti, licenze e autori delle immagini
Fonti, licenze e autori delle immagini
File:Vector space illust.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vector_space_illust.svg Licenza: Public Domain Autori:: Oleg Alexandrov
File:Linear subspaces with shading.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Linear_subspaces_with_shading.svg Licenza: Creative Commons Attribution-Sharealike 3.0
Autori:: en:User:Alksentrs Original uploader was Alksentrs at en.wikipedia
File:Rotation illustration.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration.png Licenza: Public Domain Autori:: HB, Juiced lemon, Maksim, Oleg Alexandrov,
Tano4595, W!B:
File:Intersecting Lines.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Intersecting_Lines.svg Licenza: Public Domain Autori:: Jim.belk
File:Matrix.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Matrix.gif Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Steven Fox
File:Eigenvector.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigenvector.png Licenza: Public Domain Autori:: Sandycx
File:Ellipsoide.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ellipsoide.png Licenza: Public Domain Autori:: Anarkman, Cwbm (commons), Darapti, Denniss, EugeneZelenko,
Helder.wiki
File:Epsilontensor.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Epsilontensor.svg Licenza: Creative Commons Attribution 2.5 Autori:: Arian Kriesch, corrections made by
Xmaster1123 and Luxo
File:Scalar multiplication of vectors.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalar_multiplication_of_vectors.svg Licenza: Public Domain Autori:: User:Bdesham
File:Vector addition3.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vector_addition3.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Jakob.scholbach
File:Rotation illustration2.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotation_illustration2.svg Licenza: Public Domain Autori:: Oleg Alexandrov
File:VerticalShear m=1.25.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:VerticalShear_m=1.25.svg Licenza: Public Domain Autori:: RobHar
File:Squeeze r=2.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Squeeze_r=2.svg Licenza: Public Domain Autori:: RobHar
File:Basis graph (no label).svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Basis_graph_(no_label).svg Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori::
Original uploader was Spindled at en.wikipedia. Later version(s) were uploaded by Cic at en.wikipedia.
File:Scalarproduct.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalarproduct.gif Licenza: GNU Free Documentation License Autori:: Darapti, Flappiefh, Rocha, Werckmeister,
Ysangkok
File:Parallel Lines.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Parallel_Lines.svg Licenza: Public Domain Autori:: Jim.belk
File:Secretsharing-3-point.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Secretsharing-3-point.png Licenza: GNU Free Documentation License Autori:: stib
File:HAtomOrbitals.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:HAtomOrbitals.png Licenza: GNU Free Documentation License Autori:: Admrboltz, Benjah-bmm27, Dbc334,
Dbenbenn, Ejdzej, Falcorian, Kborland, MichaelDiederich, Mion, Saperaud, 6 Modifiche anonime
File:Determinant Example.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_Example.png Licenza: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Autori::
Jakob.scholbach
File:Eigen.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigen.jpg Licenza: Public Domain Autori:: User:Vb
Immagine:Commons-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: SVG version was created by User:Grunt and cleaned up by
3247, based on the earlier PNG version, created by Reidab.
File:Determinant parallelepiped.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_parallelepiped.svg Licenza: Creative Commons Attribution 3.0 Autori:: Claudio
Rocchini
File:Determinant.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant.jpg Licenza: Public Domain Autori:: Darapti, Kilom691, Ylebru
File:Determinant 3x3 Example.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Determinant_3x3_Example.svg Licenza: Public Domain Autori:: derivative work: Fiachra (talk)
Determinant_3x3_Example_Barking_Mad_1.jpg: user:Barking Mad142
File:Transvection-1.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-1.jpg Licenza: GNU Free Documentation License Autori:: GeorgHH, Ylebru, 1 Modifiche anonime
File:Transvection-2.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Transvection-2.jpg Licenza: GNU Free Documentation License Autori:: GeorgHH, Ylebru, 1 Modifiche anonime
File:Déterminant-3D.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Déterminant-3D.jpg Licenza: GNU Free Documentation License Autori:: Darapti, GeorgHH, Kilom691, Pieter
Kuiper, Ylebru
File:Rotating Sphere.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Rotating_Sphere.gif Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Maksim, Oleg
Alexandrov, W!B:, WikipediaMaster, 4 Modifiche anonime
File:Standing wave.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Standing_wave.gif Licenza: Public Domain Autori:: BrokenSegue, Cdang, Joolz, Kersti Nebelsiek, Kieff,
Mike.lifeguard, Pieter Kuiper, Ptj
File:Eigenfaces.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Eigenfaces.png Licenza: Attribution Autori:: Laurascudder, Liftarn, Man vyi, Ylebru
Immagine:Wiktionary-ico-de.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png Licenza: logo Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Nodulation,
Rocket000, Saibo
Immagine:Scalarproduct.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Scalarproduct.gif Licenza: GNU Free Documentation License Autori:: Darapti, Flappiefh, Rocha,
Werckmeister, Ysangkok
Immagine:ProdScal1.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal1.png Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Darapti, HB
Immagine:ProdScal2.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:ProdScal2.png Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Darapti, HB
Immagine:TravailForce2.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:TravailForce2.png Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: HB
Immagine:Wikibooks-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikibooks-logo.svg Licenza: logo Autori:: User:Bastique, User:Ramac et al.
File:Gram–Schmidt process.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Gram–Schmidt_process.svg Licenza: Public Domain Autori:: Gustavb
94
Licenza
Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
//creativecommons.org/licenses/by-sa/3.0/
95