Alcuni punti spesso trascurati nei corsi di Algebra Lineare, necessari

Transcript

Alcuni punti spesso trascurati nei corsi di Algebra Lineare, necessari
Alcuni punti spesso trascurati nei corsi di Algebra Lineare, necessari nel corso di Econometria
Giorgio Calzolari
La riga i-esima di AB si ottiene moltiplicando la riga i-esima di A per la matrice B: [AB]i. = Ai. B. La colonna j-esima di
AB si ottiene moltiplicando la matrice A per la colonna j-esima di B: [AB].j = AB.j .
Trasposta del prodotto di matrici
Inversa del prodotto di due o più matrici quadrate non singolari.
Se X è una matrice (rettangolare o quadrata) diagonale a blocchi, X 0 X è una matrice quadrata diagonale a blocchi, con
blocchi diagonali quadrati.
Una matrice quadrata simmetrica n × n, con autovalori non necessariamente distinti, ha n autovettori tra loro ortogonali.
Se A è una matrice quadrata simmetrica, la matrice ortogonale degli autovettori diagonalizza A, cioè Q0 AQ = Λ, dove Λ è
la matrice diagonale degli n autovalori.
Rango (limitarsi, negli esempi, al caso di una matrice rettangolare X con più righe che colonne).
Se r(X) < k le colonne sono linearmente dipendenti
Se r(X) = m < k, m è il massimo numero di colonne linearmente indipendenti; e’ anche il massimo numero di righe
linearmente indipendenti.
r(X 0 X) = r(XX 0 ) = r(X); se X ha rango pieno = k (k < n), anche X 0 X ha rango pieno (= k), ma non XX 0 (che ha rango
k, ma dimensioni n × n).
r(AB) è minore o uguale sia a r(A) che a r(B).
Se B è una matrice quadrata non singolare, allora r(AB) = r(A).
Il rango di una matrice quadrata simmetrica è uguale al numero degli autovalori diversi da zero.
Traccia di una matrice quadrata.
T r(AB) = T r(BA) (se A e B hanno dimensioni compatibili per fare entrambi i prodotti).
La traccia di una matrice quadrata simmetrica è uguale alla somma degli autovalori.
Matrice simmetrica idempotente.
In una matrice quadrata simmetrica idempotente gli autovalori valgono 0 o 1; il rango è quindi uguale alla traccia.
Forme quadratiche.
Matrici quadrate definite positive e semidefinite positive.
A0 A e AA0 sono sempre matrici simmetriche definite o semidefinite positive, per qualsiasi matrice A.
Date due matrici simmetriche e semidefinite positive di uguali dimensioni, si dice che la prima è maggiore della seconda se
la differenza è una matrice non nulla e semidefinita positiva.
Se A è simmetrica e definita positiva, tutti gli autovalori sono positivi.
L’inversa di una matrice definita positiva è definita positiva (gli autovalori sono tutti positivi).
Se P ha dimensioni m × n, con n ≤ m, e r(P ) = n (rango pieno), allora P 0 P (quadrata n × n) è definita positiva; se A è
simmetrica e definita positiva, P 0 AP è simmetrica e definita positiva.
In particolare, se P è quadrata e non singolare (rango pieno), allora P 0 P e P P 0 sono definite positive.
Elementi di Probabilita’ e Statistica
Some basic probability concepts
Random variables: discrete, continuous, cumulative distribution function, probability density function, expectation, variance.
Bivariate Random Variables: discrete, continuous, joint cumulative distribution function, joint probability density function,
marginal, conditional, expectations, variances, covariances.
Independent Random Variables, correlation coefficient, uncorrelated Random Variables.
Random vectors, vector of expectations, variance-covariance matrices, expected value and variance-covariance matrices of a
linear transformation of random vectors.
Functions of random variables Probability density function of a transformed random variables.
Probability density function of a transformed random vector (with the Jacobian determinant).
Univariate normal distribution (with detailed formulas and proofs).
Other distributions (with main concepts, without detailed formulas for the complicated density functions etc.)
The Bernoulli Distribution.
The Binomial Distribution.
Uniform Distribution.
Chi-square distribution.
Student’s t-distribution.
F-distribution.
General concepts for test of hypthesis.
Piuttosto dettagliata: Multivariate normal distribution, marginal distribution of subvectors.
If X has Multivariate normal distribution with block diagonal var cov matrix, the corresponding sub-vectors of X are
independent multivariate normal vectors (with proofs).
Distributions of linear forms, when the vectors have a multivariate normal distribution (with proofs).
If X has Multivariate normal distribution any sub-vector of X has a marginal distribution multivariate normal (with proofs).
If X has Multivariate normal distribution decomposed in X1, X2,the conditional distribution of X1 given X2 is multivariate
normal (with proofs).
La Massima verosimiglianza la faccio io. Eventualmente ci sarebbe da aggiungere qualcolsa sui tre test basati sulla
verosimiglianza (Wald, LR e LM) verso la fine del corso.
NIENTE su characteristic function, moment generating function, Poisson, Beta, Gamma, Logistic, campionamento, se no si
confondono e non capiscono piu’ niente (troppo poche lezioni).
I concetti di correttezza, efficienza, minima varianza, consistenza, efficienza asintotica, come pure i rudimenti di legge dei
grandi numeri e limite centrale li faccio io.

Documenti analoghi

Polinomio di Taylor del secondo ordine per funzioni di due variabili

Polinomio di Taylor del secondo ordine per funzioni di due variabili In altre parole, indicando con v1 e v2 gli autovettori (normalizzati) di Hf (x0 , y0 ) relativi agli autovalori λ1 e λ2 rispettivamente, se scriviamo il vettore incremento v = (x − x0 , y − y0 ) co...

Dettagli

Dispensa sulle potenze di matrici - Università degli Studi di Trento

Dispensa sulle potenze di matrici - Università degli Studi di Trento In conclusione, una volta trovata la matrice diagonalizzante B e la sua inversa B −1 , il calcolo della potenza k-esima della matrice A si riduce al calcolo della potenza di una matrice diagonale D...

Dettagli

Matrici

Matrici Esercizio 10. Data una matrice quadrata A di ordine 2 qualsiasi, si ha che (1) A +tA è una matrice simmetrica; (V) (F) (2) se A ha rango massimo, anche A +tA ha rango massimo; (V) (F) (3) se det(A...

Dettagli

Diagonalizzazione delle forme bilineari simmetriche.

Diagonalizzazione delle forme bilineari simmetriche. b21 + · · · + b2ρ > 0; nel secondo sistema coordinate b(h, h) = −βσ+1 − · · · − βn2 ≤ 0 e questo è chiaramente assurdo. Il teorema di Sylvester è dimostrato. Osservazione. Il teorema di Sylvester...

Dettagli

SISTEMI LINEARI, METODO DI GAUSS Abbiamo visto che un

SISTEMI LINEARI, METODO DI GAUSS Abbiamo visto che un (Nel caso più semplice: sommare a una equazione un’altra equazione moltiplicata per un numero) Naturalmente è sufficiente fare queste operazioni sulle righe della matrice A|b (matrice orlata), ch...

Dettagli

Lezione 12: Ancora sulle matrici

Lezione 12: Ancora sulle matrici questo sarà possibile, ma ovviamente non sarà cosı̀ banale come nel caso appena visto. Non è difficile convincersi del fatto che se ci aspettiamo un metodo simile a quello visto per una singola ...

Dettagli