(Lemma) di Farkas-Minkowski - Università degli studi di Pavia

Transcript

(Lemma) di Farkas-Minkowski - Università degli studi di Pavia
Le molte dimostrazioni del Teorema
(Lemma) di Farkas-Minkowski (∗)
GIORGIO GIORGI
UNIVERSITÀ DI PAVIA – FACOLTÀ DI ECONOMIA
SUNTO. Il teorema (o lemma) di Farkas (o di Farkas-Minkowski) è forse il più noto ed il più
utilizzato teorema dell’alternativa per sistemi lineari. Anche a causa dei diversi contesti
ove tale risultato è introdotto (programmazione lineare e non, teoria dei sistemi di disequazioni lineari, modelli economici multisettoriali, teoria dei giochi ecc.), le relative motivazioni ed i relativi metodi di dimostrazione possono variare ampiamente. Spesso le dimostrazioni disponibili sono incomplete ed insoddisfacenti, in quanto viene dato per scontato che un cono (convesso) poliedrico è chiuso. Scopo del presente lavoro è di offrire una
rassegna, non esaustiva, dei principali approcci alla dimostrazione di tale fondamentale risultato. Qualche nuova considerazione viene presentata.
1. Introduzione
Il teorema (o lemma) di Farkas o di Farkas-Minkowski è forse il più noto teorema dell’alternativa per sistemi lineari. Ha di conseguenza dato origine ad una vasta letteratura concernente la relativa dimostrazione e soprattutto per quel che riguarda le applicazioni. Inoltre si dimostra (cfr. [15, 24, 28]) che da tale risultato è
possibile ottenere, direttamente o indirettamente, tutti gli altri teoremi dell’alternativa per sistemi lineari. Il teorema di Farkas-Minkowski può essere descritto nella seguente versione.
• Per ogni assegnata matrice A di ordine (m, n) e ogni assegnato vettore b ∈ Rm
uno ed uno solo dei seguenti sistemi lineari ammette soluzione:
S:
Ax = b, x > [0]
S*:
yA > [0], yb < 0.
Facciamo notare che l’enunciato del teorema è equivalente anche al seguente:
• Il sistema
Ax = b,
x > [0]
ammette soluzione se e solo se yA > [0] ⇒ yb > 0.
(∗) Presentato al XXX Convegno A.M.A.S.E.S., Trieste 4 – 7 settembre 2006
2
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
Ovviamente il sistema duale S* può essere riscritto nella forma equivalente
S*: yA < [0], yb > 0
e quindi è possibile enunciare che il sistema Ax = b, x > [0] ammette soluzione se
e solo yA < [0], ⇒ yb < 0.
Nonostante la “popolarità” di tale teorema “centenario”, le relative dimostrazioni sono spesso carenti (si veda, in proposito, [25]). Usualmente il teorema di Farkas-Minkowski viene infatti dimostrato utilizzando un classico teorema di separazione tra insiemi convessi chiusi. In tale tipo di dimostrazione viene spesso data
come scontata la chiusura del cono
Z = {z | Ax = z,
x > [0]}.
Si vedano, ad es., i lavori [3, 6, 39, 40, 49], nei quali forse non ci si rende conto
che l’ottenimento della chiusura di Z è di fatto equivalente all’ottenimento della tesi del teorema di Farkas-Minkowski. Il presente lavoro è, in un certo senso, una
prosecuzione del lavoro [25]. Si presenteranno innanzitutto tre dimostrazioni, non
troppo complicate, che Z (cono poliedrico convesso) è insieme chiuso e si farà poi
una rassegna (non esaustiva!) delle possibili dimostrazioni del teorema di FarkasMinkowski, nelle quali si evita di utilizzare il fatto che Z sia insieme chiuso.
2. Dimostrazioni che un cono poliedrico convesso (cono finito) è insieme chiuso
Alcune dimostrazioni disponibili in letteratura (cfr. [11, 17, 30, 31, 42] sono
piuttosto lunghe e anche complesse; altre sono stringate ma sottintendono concetti
e ragionamenti non sempre elementari. Proponiamo tre dimostrazioni che costituiscono una sorta di “via di mezzo”. La prima è la più lunga ma è alquanto elementaare e sfrutta sostanzialmente un risultato di Caratheodory. La seconda è per ricorrenza e la terza si appoggia sulla decomposizione di un sottospazio lineare.
I) Se M = [b1, ..., bq} è un insieme finito non vuoto di punti dello spazio Rn, allora l’insieme
cone M = {x ∈ Rn : ∃v ∈ R q+ , x = v1b1 + ... + vqbq}
si chiama inviluppo conico dell’insieme M o cono finito generato da M o cono poliedrico convesso generato da M. Distinguiamo ora due casi:
a) L’insieme M è costituito da vettori linearmente indipendenti. Conformemente ad un risultato conosciuto nella teoria degli spazi lineari, esiste allora una base
{x1, ..., xn} per lo spazio Rn in modo tale che M ⊆ {x1, ..., xn}. Sia I0 l’insieme di
quegli indici i ∈ {1, ..., n} per i quali xi ∉ M. L’applicazione f: Rn → Rn definita da
f (v) = v1x1 + ... + vnxn per ogni v = ( v1, ..., vn) ∈ Rn è un isomorfismo, poiché trasforma l’insieme K = {v ∈ R n+ : ∀ i ∈ I0, vi = 0} in cone M. Poiché K è insieme
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
3
chiuso e f –1 è un’applicazione continua, risulta che l’insieme (f –1)–1 (K) è chiuso.
Ma (f –1)–1 (K) coincide con f (K), cioè con cone M. Di conseguenza cone M è un
insieme chiuso.
b) L’insieme M è costituito da vettori linearmente dipendenti. Se M = {[0]}, allora cone M = {[0]}, che è evidentemente un insieme chiuso. Supponiamo quindi
M ≠ {[0]}. Denotiamo con b1, ..., bq gli elementi dell’insieme M, mentre con L
la totalità dei sottoinsiemi linearmente indipendenti (non vuoti) formati da M. Evidentemente L è un insieme finito non vuoto. Conformemente al caso precedente,
l’inviluppo conico di ciascun insieme L di L è chiuso. Poiché l’unione di un numero finito di insiemi chiusi è chiusa, risulta che l’insieme
M0 =
∪ cone L
L∈L
è a sua volta chiuso. Dimostriamo ora che cone M = M0, di modo che la dimostrazione della chiusura di cone M è completa.
Dato che l’inclusione cone L ⊆ cone M è verificata per ogni L ∈ L, abbiamo
M0 ⊆ cone M. Resta quindi da dimostrare l’inclusione opposta cone M ⊆ M0. A tale
scopo consideriamo un punto qualsiasi x di cone M. Se x = [0] allora evidentemente
x ∈ M0. Se x ≠ [0], allora si può rappresentare sotto la forma
x = ∑ vi b i ,
(1)
i∈I
ove I è un sottoinsieme non vuoto dell’insieme {1, ..., 9}, e vi, i ∈ I, sono numeri
reali positivi.
Se l’insieme {bi, i ∈ I}, che interviene in questa rappresentazione del vettore x,
è linearmente indipendente, allora la relazione (1) implica x ∈ cone { bi, i ∈ I} ⊆ M0.
In caso contrario esiste un sistema di numeri reali ai, i ∈ I, non tutti nulli, tali per
cui
(2)
∑ ai b i = [0].
i∈I
Senza perdita di generalità, possiamo supporre che almeno uno dei numeri ai,
i ∈ I, sia positivo. Scegliendo il numero a = min {vi | ai : i ∈ I, ai > 0} e ponendo
wi = vi – aai per ogni i ∈ I, si constata che tutti i numeri wi, i ∈ I, sono positivi e
almeno uno di essi è nullo. Poiché in base alle relazioni (1) e (2) è verificata
l’uguaglianza
x = x − a[0] = ∑ wi b i ,
(3)
i∈I
risulta che i numeri wi, i ∈ I, non possono essere tutti nulli. L’insieme I = {i ∈ I :
wi > 0} è quindi non vuoto e soddisfa la disuguaglianza card I < card I, mentre x si
scrive nel seguente modo:
x=
∑ wi b i .
j∈I
4
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
Se l’insieme {bi, j ∈ I} che interviene in questa uguaglianza è linearmente indipendente, allora abbiamo x ∈ cone { bi, j ∈ I } ⊆ M0. Se tale insieme è linearmente dipendente, ripetiamo il ragionamento fatto precedentemente, partendo questa volta dalla nuova rappresentazione di x, nella quale interviene un numero più
piccolo di termini che nella rappresentazione (1). Continuando questa procedura di
riduzione dei termini nella rappresentazione di x, otteniamo, dopo un numero finito
di passi, una rappresentazione di x sotto forma di una combinaizone lineare con coefficienti positivi di vettori linearmente indipendenti di M. Quindi x ∈ M0.
‰
II) Dimostriamo per induzione che l’insieme (cono poliedrico convesso)
Z = {z : z = Ax, x > [0]}
è chiuso. Un cono generato da un singolo vettore è ovviamente chiuso (è una semiretta). Supponiamo che il teorema sia vero per un cono generato da k – 1 vettori
generatori e consideriamo un cono Z generato da k vettori A1, A2, ..., Ak, Aj indicando la j-esima colonna della matrice A. Due casi possono sorgere. Nel primo caso i vettori – A1, – A2, ..., – Ak sono in Z. In questo caso Z coincide con – Z ed è
quindi uno spazio lineare, che è perciò un insieme chiuso. Nel secondo caso, uno
almeno dei vettori – A1, – A2, ..., – Ak non appartiene a Z, ad esempio sia – Ak ∉ Z.
Ogni z ∈ Z può essere rappresentato come z = z + α Ak, α > 0, ove z ∈ Z . Consideriamo una successione {zn} convergente a z. Per quanto detto, z n = z n + α n A k ,
αn > 0, per ogni n. Se la successione {αn} è limitata, possiamo assumere, senza
perdita di generalità, che lim α n = α , è di conseguenza
n →∞
z − αA k = lim ( z n − α n A k ) = lim z n ≡ z ∈ Z ,
n →∞
n →∞
poiché Z è chiuso. Perciò z = z + αA k ∈ Z . Quindi se la successione {αn} è limitata, l’insieme Z è chiuso. Assumiamo ora che lim α n = +∞. Allora
n →∞
{αn}–1 zn = {αn}–1 z n + A k .
Poiché lim (α n ) −1 z n = [0], abbiamo z ≡ lim (α n ) −1 z n = − A k . Tuttavia, poiché
n →∞
n →∞
Z è chiuso, abbiamo z ∈ Z e di conseguenza − A k ∈ Z , il che è una contraddizione.
‰
III) Sia Z = {z ∈ Rm | Ax = z, x > [0]}, ossia, ponendo x = λ ed evidenziando così z come combinazione lineare, con pesi non negativi, delle colonne di A,
n
Z = {z ∈ Rm | z = ∑ λ i Ai ,
i =1
λ i ≥ 0} ,
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
5
con A1, ..., An ≠ [0]. Sia poi {zk} ⊆ Z una successione con zk → z0 ≠ [0]. Dobbiamo
dimostrare che anche z0 ∈ Z.
Nel caso in cui è Z ∩ (– Z) = {[0]} (il che significa che [0] ∉ conv {A1, ..., An}),
abbiamo
n
n
i =1
i =1
z k = ∑ λ ik Ai = λ k ∑
ove λ
n
k
= ∑ λ
i =1
λ ik i
A = λ k An ,
λi
> 0 (per k sufficientemente grande) e
ik
λ ik i
A ∈ conv{ A1 ,..., A n }.
λ
i =1 k
n
Ak = ∑
Poiché [0] ∉ conv{ A1 ,..., A n } e a causa della compattezza di tale insieme,
{ A k } è inferiormente limitato da un numero positivo; quindi {λ k } è inferiormente limitato. Esistono perciò sottosuccessioni convergenti di {A k } e di {λ k } che
convergono a A 0 ∈ conv{ A1 ,..., A n } ed a λ0 > 0 rispettivamente, ossia è
z 0 = λ 0 a 0 ∈ cone{ A1 ,..., A n } = Z .
Nel caso cui è Z ∩ (– Z) = L, con L sottospazio lineare di Rm, usiamo la decomposizione unica Ai = bi + ci, con bi ∈ L e ci ∈ L⊥ (complemento ortogonale L), di
modo che Z è dato dalla somma diretta
n
⎧
Z = ⎨ z ∈ R m z =∑ λ i b i ,
⎩
i =1
n
⎫ ⎧
λ i ≥0⎬ + ⎨ z ∈ R m z = ∑ λ i c i ,
⎭ ⎩
i =1
⎫
λ i ≥ 0 ⎬ = L + Z1 .
⎭
Poiché Z1 ∩ (– Z1) = {[0]}, otteniamo la chiusura di Z1, in base a quanto precedentemente dimostrato. Anche L è chiuso, in quanto spazio lineare. Quindi Z è
chiuso in quanto somma diretta di L e Z1. (In effetti, sia {zk} ={bk + ck} ⊆ L + Z1,
convergente a z0 = b0 + c0 ∈ L + L⊥. Allora zk – z0 = (bk – b0) + (ck – c0) tende a [0].
2
La moltiplicazione per (bk – b0) porta a b k – b 0 → 0 , la moltiplicazione per (ck –
c0) porta a c k – c 0
2
→ 0. Quindi è z0 = b0 + c0 ∈ L + Z1 = Z).
‰
2. Le molte dimostrazioni del teorema di Farkas-Minkowski che non
utilizzano il teorema di separazione tra insiemi convessi e chiusi
Elenchiamo qui di seguito una serie di osservazioni (alcune non ancora considerate in letteratura, almeno per quanto ci consta) sulle varie procedure che si possono adottare per ottenere il teorema di Farkas-Minkowski, evitando di dimostrare
preventivamente che un cono poliedrico convesso (cono finito) è un insieme chiuso. Alcune osservazioni sono già state fatte nei lavori [23, 24, 25, 26, 27].
6
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
1. Dimostrazioni geometriche
Hanno lo svantaggio di non essere generali (sono condotte in R2) e di appoggiarsi un po’ troppo su evidenze visive ed intuizioni.
Una buona dimostrazione “intuitiva” è contenuta nell’appendice del celebre libro di Dorfman, Samuelson e Solow “Linear Programming and Economic Analysis
[16].
2. Dimostrazione che utilizza il teorema di dualità della Programmazione Lineare
È una dimostrazione elementare e veloce, a patto di dare come acquisito il teorema di dualità della P.L., teorema che quasi sempre viene ottenuto tramite le condizioni di Kuhn-Tucker, che a loro volta abbisognano di un teorema dell’alternativa. Va però detto che esiste la possibilità (cfr., ad es., [5, 43, 56]) di ottenere il
teorema di dualità della P.L. sfruttando basilari proprietà del metodo del simplesso.
Il teorema di dualità della P.L. è ottenuto, ad esempio, da Karlin [33] e da Manara e
Nicola [37] (che espressamente si rifanno al testo citato di Karlin) senza l’utilizzo
diretto del teorema di Farkas (vengono usati risultati di separazione tra coni). Una
volta ottenuto il classico teorema di dualità della P.L., la dimostrazione del teorema
di Farkas è pressoché immediata. Dobbiamo fare vedere che le seguenti affermazioni sono equivalenti:
a) La disuguaglianza lineare yb > 0 è verificata per tutte le soluzioni del sistema
di disuguaglianze yA > [0].
b) Il sistema Ax = b, x > [0] ammette soluzione.
Consideriamo il problema di P.L.
(P)
min bTy
ATy > [0]
Il problema duale è
(D)
max [0] x = 0
Ax = b
x > [0].
Valga a); il problema (P) ammette allora soluzione y = [0], con valore della funzione obiettivo pari a zero. Dal teorema di dualità della (PL), anche (D) ha soluzione, ossia vale b).
Valga b); banalmente (D) ammette soluzione (con funzione obiettivo pari a zero). Dal teorema di dualità della P.L., anche (P) ammette soluzione, con valore della funzione obiettivo pari a zero. Ossia vale a).
3. Dimostrazioni algebriche
Sono usualmente piuttosto lunghe, anche se a volte richiedono soltanto nozioni elementari. Qui ci occuperemo soltanto delle dimostrazioni algebriche “diret-
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
7
te” del teorema di Farkas-Minkowski, rimandando successivamente quelle che
ottengono algebricamente altri risultati, che a loro volta generano quello di FarkasMinkowski.
Un lavoro interessante, che utilizza nozioni e tecniche dell’Algebra Lineare è
quello di Pearl [45] che fornisce però una dimostrazione piuttosto lunga e complessa.
Una dimostrazione elegante e non eccessivamente lunga e complicata è quella
effettuata per ricorrenza da D. Gale [19, 20] e ripresa da altri autori (cfr., ad es.,
[25, 36].
Tra le dimostrazioni algebriche rientrano quelle che riprendono lo storico metodo di “eliminazione” di J.B. Fourier per la risoluzione di sistemi di uguaglianze e
disuguaglianze lineari. E l’approccio utilizzato da Kuhn [35], da Stoer e Witzgall
[52] e da Rockafeller [47]. I passaggi sono abbastanza elementari ma numerosi.
Recentemente [51] è stato dimostrato che tale procedura può essere brevemente ottenuta dal teorema dell’alternativa di Motzkin, il che evidenzia la sostanziale equivalenza tra il metodo di Kuhn-Fourier e la classe dei teoremi dell’alternativa per
sistemi lineari. È comunque abbastanza sorprendente che i risultati della procedura
di “eliminazione”, tra i primi nella teoria delle disequazioni e dei sistemi di disequazioni lineari, siano stati scarsamente considerati nella letteratura specialistica.
4. Dimostrazioni algoritmiche
Segnaliamo il recente lavoro di Dax [13] che propone una “Elementary proof
of the Farkas’lemma” che si snoda per quattro pagine a stampa (formato “SIAM
Review”). Una altro lavoro “algoritmico” che si propone di risolvere sistemi di
disequazioni lineari, e quindi di ottenere una dimostrazione “costruttiva” del teorema di Farkas, è quello di Avis e Kaluzny [2].
5. Dimostrazioni che utilizzano proprietà di equilibrio di sistemi fisico-meccanici
Sono “curiosità” che si trovano nel volume di Razoumikhine [46].
6. Dimostrazioni che utilizzano risultati di “distanza minima”
Si può vedere l’articolo di rassegna [12] e il lavoro [14]. L’applicazione diretta del metodo in questione richiede comunque l’asserto che il cono Z precedentemente definito sia chiuso.
Un approccio che ricade in questa tipologia di dimostrazioni è quello, breve
ed elegante, di V. Komornik [34], basato sul seguente risultato.
Lemma 1. Per ogni a ∈ Rn esiste nel cono Z un punto b che è il più vicino al
punto a.
L’autore fa notare che il punto b è unico ma nella dimostrazione ciò non viene
usato. Parimenti fa notare che il lemma implica che Z sia chiuso, ma ciò non necessita esplicitamente alla dimostrazione.
8
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
7. Dimostrazioni che utilizzano il teorema di Weyl
È noto ([4, 28, 44]) che un cono poliedrico convesso, può essere caratterizzato, oltre che dalla definizione già richiamata, anche dalla seguente.
• Sia B una matrice di ordine (k, m). Allora Z è un cono poliedrico convesso
se consiste di tutti i vettori v tali che Bv > [0].
È questo, sostanzialmente, il teorema di Weyl sui coni poliedrici convessi: in
altre parole Z può essere equivalentemente espresso dall’intersezione di un numero finito di semispazi chiusi i cui iperpiani generatori passano per l’origine.
L’immediato “sottoprodotto” di tale teorema è la proprietà di chiusura del cono
poliedrico Z. Purtroppo quasi tutte le dimostrazioni disponibili del teorema di
Weyl sono alquanto complesse ed utilizzano, a loro volta, il teorema di FarkasMinkowski.
Un’eccezione è costituita dal citatissimo (e forse poco studiato) lavoro di Gale
[18], che pur non fornendo una dimostrazione autonoma completa del teorema di
Weyl indica la strada per dimostrare il teorema di Farkas-Minkowski, assumendo
quale definizione di cono poliedrico convesso, quella espressa da disuguaglianze
deboli, appena richiamata. L’approccio è sviluppato anche nei lavori [25, 53].
Una dimostrazione, per ricorrenza, abbastanza breve e non eccessivamente
complicata, del teorema di Weyl, è quella fornita da R.J.-B. Wets nel lavoro [57],
che rappresenta quindi un approccio sintetico e abbastanza elementare all’ottenimento di risultati fondamentali sui coni poliedrici convessi, sui teoremi dell’alternativa lineari e sui sistemi di disuguaglianze lineari. Ribadiamo nuovamente che
la dimostrazione di Wets del teorema di Weyl non utilizza il teorema di FarkasMinkowski.
Il lavoro di Uzawa [55] fornisce anch’esso una dimostrazione completa del
teorema di Weyl, facendo a meno di quello di Farkas-Minkowski, ed ottenendo
anche, in modo costruttivo, una formula che consente di passare dalla matrice A,
che interviene nella prima definizione, alla matrice B, che interviene nella seconda definizione e viceversa.
La dimostrazione è piuttosto lunga, anche se formalmente abbastanza elementare.
8. Dimostrazioni che utilizzano i teoremi di Tucker
I teoremi di Tucker che a loro volta generano il teorema di Farkas-Minkowski
(nonché altri teoremi dell’alternativa per sistemi lineari) sono i seguenti (cfr. [24,
26, 38, 54].
Teorema 1. Per ogni matrice emisimmetrica K (ossia è K = – KT) esiste un
vettore non negativo x tale che
Kx > [0], x + Kx > [0].
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
9
Teorema 2. Per ogni matrice K di ordine (m, n), i sistemi
Ax > [0]
e
ATy = [0], y > [0]
ammettono soluzioni x e y tali che
Ax + y > [0].
Il teorema 1 è stato recentemente ottenuto da C.G. Broyden [9] utilizzando una
semplice proprietà delle matrici ortogonali. Questo risultato stabilisce che per qualsiasi matrice ortogonale Q (ossia QQT = QTQ = I, ossia QT = Q–1) esiste un’unica
matrice diagonale D avente sulla diagonale principale + 1 oppure – 1, tale che
Qx = Dx, con x > [0]. Purtroppo la dimostrazione di tale risultato è alquanto lunga,
benché non eccessivamente complicata. Dopo di che il teorema 1 è ottenuto abbastanza speditamente: se K è emisimmetrica, allora
Q = (I + K)–1(I – K)
è matrice ortogonale (la dimostrazione di questo fatto è puramente algebrica e
semplice). Di conseguenza, a causa del teorema di Broyden, esistono una matrice
diagonale D, del tipo sopra specificato, ed un vettore positivo z, tali che
(I + K)–1(I – K)z = Dz.
Tale relazione può essere riscritta nella forma
(I – K)z = (I + K)Dz
da cui
z – Kz = Dz + KDz
ossia
z – Dz = K(z + Dz).
Ponendo x = z + Dz si ha x > [0], Kx > [0], x + Kx = 2z > [0], ossia la tesi del
teorema 1 di Tucker. Per altri commenti sull’articolo di Broyden si veda [48].
Il teorema 2 di Tucker, dimostrato per ricorrenza dal suo scopritore (ugualmente
Mangasarian [38] lo dimostra per ricorrenza), è stato ottenuto in modo più intuitivo
e meno formale da Good [29], purtroppo con una dimostrazione terribilmente lunga. Due diverse dimostrazioni del teorema di Tucker sono fornite da Singh e Praton
[50]; la prima dimostrazione è piuttosto breve e sfrutta proprietà fondamentali
dell’involucro convesso di un insieme (finito) di punti (politopo): in particolare, tale insieme è compatto (cfr. ed es. [44]). La seconda dimostrazione è fatta per ricorrenza ma appare più lunga e complessa di quella originale di Tucker o quella di
Mangasarian.
10
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
A parere dello scrivente, un modo spiccio ed elementare per ottenere il teorema
di Tucker 2 è quello di ottenerlo dal teorema dell’alternativa di Gordan, come descritto nel punto successivo.
9. Dimostrazioni che utilizzano il teorema dell’alternativa di Gordan
Nel lavoro [26] è stata dimostrata l’equivalenza tra i teoremi dell’alternativa
di Gordan, Stiemke e il teorema 2 di Tucker, con dimostrazioni abbastanza semplice e brevi (l’equivalenza tra i teoremi di Stiemke e 2 di Tucker è stata dimostrata in Nikaido [44], in modo alquanto complesso).
Ricordiamo la formulazione dei teoremi dell’alternativa di Gordan (forse il
primo teorema dell’alternativa per sistemi lineari che è stato pubblicato nel 1873)
e di Stiemke (1915).
Teorema 3 (di Gordan). Sia A matrice reale di ordine (m, n); i due seguenti
risultati sono in alternativa:
I) ∃ x ∈ Rn | Ax > [0];
II) ∃ p ∈ Rm | ATp = [0], p > [0], p ≠ [0].
Teorema 4 (di Stiemke). Sia A matrice reale di ordine (m, n); i due seguenti
risultati sono in alternativa:
I) ∃ x ∈ Rn | Ax > [0], Ax ≠ [0];
II) ∃ p ∈ Rm | ATp = [0], p > [0].
L’equivalenza tra il teorema di Gordan e quello di Stiemke è provata in modo
elementare in [26]. Anche Antosiewicz [1] fornisce una dimostrazione di tale equivalenza. Sempre in [26] il teorema 2 di Tucker è poi ottenuto in modo abbastanza
semplice dal teorema di Stiemke e poiché dal teorema 2 di Tucker si possono ottenere vari teoremi dell’alternativa, tra cui quello di Farkas-Minkowski e di Stiemke,
l’equivalenza tra questi risultati viene così dimostrata.
Il teorema di Stiemke può poi essere dimostrato in modo semplice, per induzione, come fatto nel lavoro [26], oppure tramite l’equivalente teorema di Gordan, che
può essere a sua volta dimostrato semplicemente utilizzando il classico teorema di
separazione debole, poiché qui, contrariamente al caso del teorema di FarkasMinkowski, non occorre dimostrare la chiusura di alcun insieme (si veda nuovamente il lavoro [26]).
10. Dimostrazioni che utilizzano proprietà dei coni polari di coni convessi
In Bazaraa e Shetty [4] e in Gale [20] si trovano le seguenti interessanti considerazioni. Siano C1 e C2 coni poliedrici convessi. Allora è
(C1 ∩ C 2 ) * = C1* + C 2*
(3)
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
11
ove C* indica il cono polare del cono C (o anche, più generalmente, dell’insieme C
di Rn), ossia C* ={z | zy < 0, ∀y ∈ C}.
La relazione (3) è dimostrato in modo veloce ma richiede a sua volta due risultati preliminari (va notato che la (3) non vale se C1 e C2 non sono coni poliedrici; se
C1 e C2 sono coni convessi chiusi risulta (C1 ∩ C2 )* = (C1 )* + (C2 )* , C denotando la chiusura di C).
Lemma 2. Siano C1 e C2 coni non vuoti di Rn, allora risulta
(C1 + C 2 ) * = C1* ∩ C 2* ,
ove C1 + C2 è l’insieme di tutti i vettori esprimibili come somma di vettori da C1 e
C2.
Dimostrazione. Supponiamo x ∈ C1* ∩ C 2* ; allora xy1 < 0 per tutti gli y1 ∈ C1 e
xy < 0 per tutti gli y2 ∈ C2. Ma se y ∈ C1+ C2, abbiamo y = y1 + y2, con y1 ∈ C1,
y2 ∈ C2; perciò xy = xy1 + xy2 < 0 e quindi x ∈ (C1+ C2)*.
Viceversa, se x ∈ (C1+ C2)*, allora xy < 0 per y = y1 + y2, y1 ∈ C1, y2 ∈ C2. In
particolare, per y2 = [0] otteniamo xy1 < 0 per tutti gli y1 ∈ C1 e per y1 = [0] otteniamo xy2 < 0 per tutti gli y2 ∈ C2 e quindi x ∈ C1* e x ∈ C 2* , cioè x ∈ C1* ∩ C1* . ‰
2
Lemma 3. Sia C cono chiuso e convesso di Rn. Allora risulta (“proprietà di dualità”)
C = C**.
Dimostrazione. Dimostriamo prima che è C ⊆ C**. Sia c ∈ C e y ∈ C*; per definizione yc < 0 per ogni c e y e C** è l’insieme di tutti i vettori v tali che vy < 0 per
tutti gli y ∈ C*. Poiché yc = cy < 0, c ∈ C**. Dimostriamo ora l’inclusione opposta C** ⊆ C. Sia x ∈ C** e supponiamo che x ∉ C. Poiché C è cono chiuso e convesso, esiste un iperpiano di equazione yp = α, p ≠ 0, tale che yp < α per ogni
y ∈ C e yp > α. Ma poiché y = [0] ∈ C, è allora α > 0 e quindi xp > 0. Ciò è però
impossibile poiché (come mostreremo) p ∈ C* (si ricordi che x ∈ C** per ipotesi).
Supponiamo per assurdo che p ∉ C*; allora esiste y ∈ C con yp > 0. Ma allora
λy ⋅ p può essere reso arbitrariamente grande, scegliendo λ sufficientemente grande
il che viola la disequazione λy ⋅ p < α per ogni λ > 0.
‰
Dimostriamo ora la relazione (3). Poiché duale, somma e intersezione di coni
poliedrici sono ancora coni poliedrici, si ha, di seguito,
C1* + C 2* = (C1* + C 2* ) ** =
= (C1** ∩ C 2** ) * = (C1 ∩ C 2 ) * .
Da tali relazioni ricaviamo ora il teorema di Farkas.
12
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
Sia Ci = {x | x ai < 0} per i = 1, 2, ..., m. In altre parole ogni Ci rappresenta un
semispazio chiuso con ai quali vettori normali. Si noti che è
m
C = ∩ Ci = { x AT ≤ [0]},
i =1
ove A è la matrice n × m con colonna a1, a2 ..., am. Ciò significa allora che C* è
composto da vettori b tali che bx < 0 qualora ATx < [0], cioè C* = {b | ATx < [0] ⇒
xb < 0}. È chiaro dalla definizione di ogni Ci che Ci* = {λai : λ > [0]}. Applicando
la relazione (3) abbiamo perciò il seguente risultato: il sistema ATx < [0] implica
che xb < 0 è consistente se e solo se il sistema b = Aλ ammette soluzione λ > [0].
‰
Cio è precisamente il teorema di Farkas-Minkowski.
Un’altra dimostrazione similare si trova nel volume di Giannessi [21]. Anche
Gale [20] osserva esplicitamente che parecchi teoremi dell’alternativa lineari si
possono ottenere dalle proprietà viste sui coni finiti.
11. Dimostrazione che utilizza le condizioni di ottimalità di Fritz John e di KuhnTucker
Nel volume [8] l’Autore propone una via per la dimostrazione del teorema di
Farkas che utilizza, quale risultato preliminare, il teorema di Fritz John sulla programmazione matematica. Beninteso, tale teorema va ottenuto senza uso di teoremi
dell’alternativa per sistemi lineari, ad esempio seguendo l’approccio di Mc Shane
[41] o di Hiriart-Urruty [32].
Bertsekas considera il seguente classico problema di programmazione non lineare
min f ( x )
sub h1 ( x ) = 0,..., hm ( x ) = 0,
g1 ( x ) ≤ 0,..., g r ( x ) ≤ 0,
(P)
ove tutte le funzioni f: Rn → R; hi : Rn → R, i = 1, ..., m; gj: Rn → R, j = 1, ..., r,
sono differenziabili con continuità.
L’Autore propone poi la seguente versione del teorema di Fritz John, ove la tesi
sub iv) è solitamente non esplicitata.
Teorema 5. Sia x* soluzione locale di (P). Allora esistono moltiplicatori (reali)
µ1* ,..., µ *r , λ*1 ,..., λ*m , tali che
µ *0 ,
m
r
i) µ *0 ∇f ( x * ) + ∑ λ*i ∇hi ( x * ) + ∑ µ *j ∇g j ( x * ) = [ 0] ;
i =1
ii)
µ *j
≥ 0, j =
0, 1, ..., r ; µ *0 ,
j =1
λ*1 ,..., λ*m ,
iii) µ *j g j ( x * ) = 0, j = 1, ..., r ;
µ1* ,..., µ *r non tutti indenticamente nulli;
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
13
iv) In ogni intorno N(x*) di x* esiste x ∈ N(x*) tale che λ*i hi ( x ) > 0 per tutti gli
indici i per cui è λ*i ≠ 0 e tale che µ *j g j ( x ) > 0 per tutti gli indici j per cui è
µ*j > 0 .
Nello stesso volume, la proposizione iv) figura anche nelle classiche condizioni
necessarie di ottimalità di Kuhn-Tucker per il problema (P) (ossia le precedenti i),
ii), iii) ove è µ *0 > 0, integrate con la condizione iv)), ottenute da Bertsekas sotto
ipotesi di indipendenza lineare dei vincoli attivi in x*. Successivamente (proposizione 3.3.7 in [8]) vengono ottenute le condizioni di Kuhn-Tucker, assumendo,
quale condizione di qualificazione dei vincoli, che le funzioni hi siano tutte lineari
affini e che le funzioni gj siano tutte concave (condizioni di qualificazione “contraria”-“reverse” constraint qualification; si veda [28, 38]). Viene utilizzata, nella relativa dimostrazione, la proprietà iv) del teorema di Fritz John.
Sulla base dei precedenti risultati, dimostriamo il teorema di Farkas-Minkowski
nella versione:
• Data la matrice A di ordine (n, r), e il vettore c ∈ Rn, risulta cy < 0 per tutti gli
y tali che ATy < [0], se e solo se esistono scalari non negativi µ1, ..., ur, tali che
Aµ = c.
Dimostrazione. Se c = Aµ, con µ > [0], allora per ogni y tale che ATy < [0], ossia
yA < [0], abbiamo
cy = yAµ < 0.
Viceversa, se il vettore c soddisfa la disequazione cy < 0 per tutti gli y tali che
ATy < [0], allora y* = [0] minimizza – cy nell’insieme dei vincoli ATy < [0]. L’esistenza di scalari non negativi µ1, ..., ur tali che
c = µ1A1 + ... + µ1Ar
(Aj indicando il j-esima vettore colonna di A) segue dal teorema di Kuhn-Tucker, (i
vincoli, essendo lineari, sono automaticamente qualificati, in base alla citata dimo‰
strazione di Bertsekas).
12. Dimostrazioni che utilizzano versioni di teoremi dell’alternativa per sistemi
non lineari
Sono disponibili in letteratura parecchi teoremi dell’alternativa per sistemi non
lineari, con varie ipotesi di convessità (concavità) generalizzata sulle funzioni in
essi implicate e con riferimento sia a spazi con dimensione finita che a spazi topologici con infinite dimensioni. Curiosamente, molti di tali risultati non si prestano
ad ottenre direttamente il teorema di Farkas-Minkowski o altri noti teoremi dell’alternativa per sistemi lineari. In [23], sfruttando un teorema sull’intersezione di insiemi convessi, dovuto a C. Berge e che può essere considerato una generalizzazione del celebre teorema di Helly (si veda [7]), è dimostrato il seguente risultato.
14
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
Teorema 6. Siano fk(x), k ∈ T = {1, ..., t}; gi(x), i ∈ M = {1, ..., m}, funzioni
convesse sull’insieme aperto e convesso C ⊆ Rn e hj(x), j ∈ P = {1, ..., p}, funzioni
lineari affini. Supponiamo poi che il sistema
⎧ g i ( x ) < 0,
⎨
⎩ h j ( x ) ≤ 0,
i = 1,..., m
j = 1,..., p
ammetta soluzione x* ∈ C. Allora il sistema
⎧ f k ( x ) < 0,
⎪
⎨ g i ( x ) ≤ 0,
⎪ h ( x ) ≤ 0,
⎩ j
k ∈T
i∈M
j∈P
non ammette soluzioni x ∈ C se e solo se esistono moltiplicazioni (α1, α2, ..., αt) > [0],
non tutti nulli, (λ1, λ2, ..., λm) > [0]; (µ1, µ2, ..., µp) > [0], tali per cui risulta
∑ α k f k ( x ) + ∑ λ i g i ( x ) + ∑ µ j h j ( x ) ≥ 0, ∀x ∈ C .
k
i
j
Per k = 1 si può facilmente dedurre da tale teorema il teorema di FarkasMinkowski. Una volta osservato che i sistemi S e S* non possono essere simultaneamente compatibili, resta da dimostrare che se S* è incompatibile, allora S è compatibile. Si scriva S* nella forma
f1 ( y ) = yb < 0;
h j ( y ) = – yAi ≤ 0,
i = 1,..., n.
Se S* è incompatibile, allora esiste, in base al teoerma 6, un vettore di moltiplicatori x = (xi) > 0, i = 1, 2, ..., n, tale che (yb – yAx) > 0, ∀y ∈ Rm, relazione da cui
risulta che il sistema b – Ax = [0], x > [0] ammette soluzione.
Anche, ad esempio, il teorema di Motzkin può essere facilmente ottenuto dal teorema 6.
Una versione un pò più generale del teorema 6 è stata dimostrata in [27], basandosi, anziché sul teorema di Berge, sul più noto teorema dell’alternativa di FanGlicksberg-Hoffman (si veda ad es., [28, 38]) che può essere a sua volta considerato una generalizzazione al caso non lineare del teorema di Gordan.
Ridimostriamo ora, in modo “autonomo” ed elementare, il teorema 6 nella seguente versione.
Teorema 7. Sia dato il sistema
⎧ f ( x ) < 0,
⎪
⎨ g j ( x ) ≤ 0,
⎪⎩ x ∈ C
j = 1,..., m
(4)
ove f: C → R, gj: C → R sono funzioni convesse sul convesso C ⊆ Rn. Supponiamo poi che sia verificato il sistema (“condizione generalizzata di Slater”)
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
15
0
⎧ g j ( x ) < 0, ∀J per cui g j è non lineare
⎪
0
⎨ g j ( x ) ≤ 0, ∀J per cui g j è lineare
⎪ x 0 ∈ relint C
⎩
(5)
(essendo relint C l’interno relativo di C).
Allora il sistema (4) non ammette soluzioni se e solo se esiste un vettore
y = (y1, ..., ym) > [0] tale che
m
f ( x ) + ∑ λ j g j ( x ) ≥ 0, ∀x ∈ C .
(6)
j =1
Sia
F ={x ∈C | gj(x) < 0, j = 1, ..., m}.
Può accadere che alcune funzioni gj(x) possano essere identicamente nulle su F.
Tali funzioni saranno dette singolari. Definiamo poi i seguenti insiemi di indici:
I = {1, 2, ..., m}
Is = {j ∈ I | gj(x) = 0, ∀ x ∈ F}
Ir = I \Is = { j ∈ I | gj(x) < 0, per qualche x ∈ F }.
Notiamo poi che se vale la condizione di Slater generalizzata, tutte le funzioni gj
singolari devono essere lineari.
Ricordiamo infine il seguente classico teorema di separazione che non richiede
che l’insieme in esso considerato sia chiuso (si veda, ad es. [4, 47, 52]), risultato
peraltro già citato nella dimostrazione del Lemma 2.
Teorema 8. Sia X ⊆ Rn un insieme convesso e non vuoto e sia [0] ∉ X. Allora
esiste un iperpiano H = {x | x ∈ Rn, cx = 0}, c ≠ [0], che separa X e l’origine [0],
ossia cx > 0, ∀ x ∈ X e cx > 0 per qualche x ∈ X.
Dimostrazione del teorema 7. Se il sistema (4) ammette soluzione ovviamente
la (6) non può essere vera per quella soluzione. Questa è la parte “banale” del teorema, che sussiste senza ipotesi di convessità e di “regolarità” (à la Slater) delle
funzioni. Il resto della dimostrazione è meno banale. Assumiamo che il sistema (4)
non ammetta soluzione e dimostriamo che allora vale la (6).
Ponendo u = (u0, ..., um) ∈ Rm+1, si definisca l’indieme U come segue.
U = {u | ∃ x ∈ C con u0 > f(x), uj > gj(x), se j ∈ Ir, uj = gj(x), se j ∈ Is}.
Chiaramente U è convesso e, grazie alle ipotesi fatte, non contiene l’origine.
Dunque, in base al teorema 8, esiste un iperpiano di separazione, definito dal vettore (y0, y1, ..., ym) tale che
m
∑ y ju j
j =0
≥ 0, ∀u ∈ U
(7)
16
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
e per qualche u ∈ U si avrà
m
∑ y ju j > 0
(8)
j =0
Il resto della dimostrazione è diviso in tre parti.
I. Dapprima dimostriamo che è y0 > 0 e yj > 0 per ogni j ∈ Ir.
II. Poi dimostriamo che la (7) vale per u = ( f(x), g1(x), ..., gm(x)) se x ∈ C.
III. Poi dimostriamo che y0 > 0.
I. Dimostriamo che è y0 > 0 e yj > 0 per ogni j ∈ Ir. Assumiamo per assurdo
che sia y0 < 0 e prendiamo un vettore arbitrario (u0, u1, ..., um) ∈ U. Per definizione (u0 + λ, u1, ..., um) ∈ U per ogni λ > 0. Quindi dalla (7) risulta
m
λy 0 + ∑ y j u j ≥ 0, ∀λ ≥ 0.
j =0
Per λ sufficientemente grande si ha che la precedente espressione è negativa, il
che comporta una contraddizione. Quindi è y0 > 0. La dimostrazione per la non
negatività di yj, j ∈ Ir, è analoga.
II. Ora dimostriamo che
m
y 0 f ( x ) + ∑ y j g j ( x ) ≥ 0,
∀x ∈ C .
(9)
j =1
Ciò segue dall’osservazione che per ogni x ∈ C e per ogni λ > 0 si ha u = (f(x) + λ,
g1(x), ..., gm(x)) ∈ U, perciò
m
y 0 ( f ( x ) + λ ) + ∑ y j g j ( x ) ≥ 0,
∀x ∈ C .
j =1
Prendendo il limite per λ → 0 segue il risultato.
III. Dimostriamo ora che è y0 > 0. La dimostrazione è per assurdo. Già sappiamo che è y0 > 0; assumiamo allora per assurdo che sia y0 = 0. Dalla (9) segue
m
∑ y j g j ( x ) + ∑ y j g j ( x ) = ∑ y j g j ( x ) ≥ 0,
j∈I r
j∈I s
j =1
Prendendo un punto x* ∈ relint C, tale che
g j ( x* ) < 0, ∀j ∈ Ir
g j ( x* ) = 0, ∀j ∈ Is
(valendo la (5), tale punto sicuramente esiste), si ha
∀x ∈ C .
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
17
∑ y j g j ( x * ) ≥ 0.
j∈I r
Poiché yj > 0 e gj(x*) < 0, ∀ j ∈ Ir, ciò implica yj = 0, ∀ j ∈ Ir. Quindi
∑ y j g j ( x ) ≥ 0,
∀x ∈ C .
(10)
j∈I s
Ora, dalla (8), con x ∈ C tale che u j = g j ( x ) se j ∈ Is, abbiamo
∑ y j g j ( x ) > 0.
(11)
j∈I s
x ∈ C tale che x* = λx + (1 − λ ) ~
x , λ ∈ (0, 1).
Poiché x* ∈ relint C, esiste un vettore ~
Ricordando che è gj(x*) = 0, j ∈ Is, e che le funzioni gj singolari sono lineari, si ha
0=
∑ y j g j ( x * ) = ∑ y j g j (λx + (1 − λ ) ~x ) =
j∈I s
=λ
j∈I s
∑ y j g j ( x ) + (1 − λ ) ∑ y j g j ( ~x ) >(1 − λ ) ∑ y j g j ( ~x ).
j∈I s
j∈I s
j∈I s
L’ultima disuguaglianza segue dalla (11). La disuguaglianza
(1 − λ )
y g (~
x) < 0
∑
j∈I s
j
j
contraddice le (10), essendo (1 – λ) > 0. Quindi è y0 > 0. Abbiamo quindi la (9), con
yj
,
y0 > 0 e yj > 0 per ogni j ∈Ir. Dividendo per y0 > 0 la (9) e definendo y j =
y0
j ∈ I, abbiamo la (6):
m
f ( x ) + ∑ y j g j ( x ) ≥ 0,
∀x ∈ C .
j =1
‰
Un altro teorema dell’alternativa per sistemi non lineari utile per ricavare direttamente il teorema di Farkas-Minkowski è dovuto a F. Giannessi [21, 22]. Si veda
anche il lavoro di Cambini [10]. La versione che ci interessa e che è, in realtà, un
corollario di risultati più generali, è la seguente.
Teorema 9. Sia X ⊆ Rn convesso e non vuoto. Siano f: x → Rt, g: X → Rn funzioni convesse su X. Allora:
i) Se il sistema
f(x) < [0], g(x) < [0], x ∈ X
è impossibile, esistono vettori ϕ > [0], λ > [0], con (ϕ, λ) ≠ [0], tali che
(12)
18
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
ϕf(x) + λg(x) > 0,
∀x∈X
(13)
ii) Supponiamo che esistano vettori ϕ > [0], λ > [0], (ϕ, λ) ≠ [0], tali che valga
la (13) e inoltre è
{x ∈ X: f(x) < [0], g(x) < [0], λg(x) = 0} = ∅
qualora sia ϕ = [0]. Allora il sistema (12) è impossibile.
Dunque se, con ϕ = [0], la (13) vale con il segno di disuguaglianza stretta, la
(12) è senz’altro non verificata.
Da tale risultato si ottiene subito la versione non omogenea del teorema di Farkas-Minkowski, usualmente accreditata a Duffin (si veda [38]).
Teorema 10 (di Duffin). Sia A una matrice di ordine (m, n), b un vettore di Rn e
c un vettore di Rm e β uno scalare. Il sistema
bx < β, A x > c
(14)
è impossibile se e solo se è possibile almeno uno dei seguenti sistemi
⎧ yA = b,
⎨
⎩ yc ≥ β
y ≥ [ 0] ⎧ yA = [ 0],
; ⎨
⎩ yc > 0
y ≥ [ 0]
(15)
ove y è un vettore di Rm.
Dimostrazione. Identificando la (14) con il sistema f(x) < [0], g(x) < [0], si può
applicare il teorema con t = 1, a norma del quale la (14) è impossibile, se e solo se,
⎛1⎞
posto y = x, quando ϕ = 0, e y = ⎜⎜ ⎟⎟ λ , quando ϕ > 0, risulta
⎝ϕ⎠
(yA – b) x < y c – β, y > [0], ∀ x ∈ Rn, se ϕ > 0
oppure
yAx < y c, y > [0], ∀ x ∈ Rn, se ϕ > 0.
Questi due sistemi sono equivalenti, rispettivante ai sistemi (15).
‰
Ponendo, nel teorema di Duffin, β = 0 e c = [0], si ha subito che il secondo dei
sisteni (15) è sempre impossibile e resta quindi soltanto il primo dei due sistemi
(15) ove la relazione yc > β è ridondante. Tale versione è precisamente il teorema
di Farkas-Minkowski. Dal teorema 9 è pure possibile ricavare direttamente, ad esempio, il teorema di Motzkin che a sua volta genera vari teoremi dell’alternativa
per sistemi lineari, tra cui quello di Farkas-Minkowski.
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
19
Riferimenti bibliografici
[1]
ANTOSIEWICZ H.A., A theorem on alternatives for pair of matrices, Pacific J. of
Mathematics, 5, 1955, 641-642.
[2]
AVIS D.-KALUZNY B., Solving inequalities and proving Farkas’s lemma made
easy, Amer. Math. Monthly, 111, 2001, 152-157.
[3]
AVRIEL M., Nonlinear Programming: Analysis and Methods, Prentice Hall,
Englewood Cliffs, N.J., 1976.
[4]
BAZARAA M.S.-SHETTY C.M., Foundations of Optimization, Springer Verlag,
Berlin, 1976.
[5]
BAZARAA M.S.-JARVIS J.J.-SHERALI H.D., Linear Programming and Network
Flows, John Wiley & Sons, New York, 1990.
[6]
BEAVIS B.-DOBBS I, Optimization and Stability Theory for Economic Analysis,
Cambridge Univ. Press., Cambridge, 1990.
[7]
BERGE C.-GHOUILA-HOURI A., Programming, Games & Transportation Networks, Methuen & Co., London, 1965.
[8]
BERTSEKAS D.P., Nonlinear Programming (Second Edition), Athena Scientific,
Belmont, Mass. 1999.
[9]
BROYDEN C.G., A simple algebraic proof of Farkas’s lemma and related theorems, Optimization Methods and Sotware, 8, 1998, 185-199.
[10]
CAMBINI A, Nonlinear separation theorems, duality and optimality conditions,
in R. Conti, E. De Giorgi, F. Giannesi (Eds.), “Optimization and Related
Fields”, Springer Verlag, Berlin, 1986, 57-93.
[11]
CIARLET P.G., Introduzione all’Analisi Numerica Matriciale e all’Ottimizzazione, Masson, Milano, 1989.
[12]
DAX A., The relationship between theorems of the alternative, least norm problems, steepest descent directions and degeneracy: a review, Annals of Operations Research, 46, 1993, 11-60.
[13]
DAX A., An elementary proof of Farkas’lemma, SIAM Review, 39, 1997, 503-507.
[14]
DAX A.-SREEDHARAN V.P., Theorems of the alternative and duality, J.O.T.A.,
94, 1997, 561-590.
[15]
DE GIULI M.E.-GIORGI G.-MAGNANI U., A general theorem of the alternative:
how to get its special cases quickly, P.U.M.A., 8, 1997, 215-232.
20
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
[16]
DORFMAN R.-SAMUELSON P.-SOLOW R., Linear Programming and Economic
Analysis, Mc Graw-Hill, New York, 1958.
[17]
FRANKLIN J.N., Methods of Mathematical Economics. Linear and Non linear
Programming, Fixed-Point Theorems, Springer Verlag, New York, 1980.
[18]
GALE D., Convex polyhedral cones and linear inequalities, in T.C. Koopmans
(Eds.), “Activily Analysis of Production and Allocation”, John Wiley & Sons,
New York, 1951, 287-297.
[19]
GALE D., The basic theorems of real linear equations, inequalities, linear programming, and game theory, Naval Research Logistics Quarterly, 3, 1956, 193200.
[20]
GALE D., The Theory of Linear Economic Models, Mc Graw-Hill, New York,
1960.
[21]
GIANNESSI F., Metodi Matematici della Programmazione. Problemi Lineari e
Non lineari, Pitagora Editrice, Bologna, 1982.
[22]
GIANNESSI F., Theorems of the alternative and optimality conditions, J.O.T.A.,
43, 1984, 331-365. Errata Corrige in J.O.T.A., 44, 1984, 363-364.
[23]
GIORGI G., Alcune applicazioni di teoremi dell’alternativa a condizioni di ottimalità, Fascicoli Ist. Mat. Gen. e Finanziaria, Università di Pavia, n. 79, a.a.
1983-84.
[24]
GIORGI G., Un approccio unificante ai teoremi dell’alternativa per sistemi lineari, Atti X Convegno A.M.A.S.E.S., Siena, 8-10 settembre 1986, Pitagora,
Bologna, 103-106.
[25]
GIORGI G., Alla ricerca di una dimostrazione elementare del teorema di FarkasMinkowski, Atti XXIII Convegno A.M.A.S.E.S., Rende, 8-11 settembre 1999,
211-221.
[26]
GIORGI G., Sui teoremi di Gordan, Stiemke e Tucker, Atti XXIV Convegno
A.M.A.S.E.S., Padenghe sul Garda, 6-9 settembre 2000, Università degli Studi
di Bergamo e di Brescia, 623-630.
[27]
GIORGI G., Osservazioni sui teoremi dell’alternativa non lineari implicanti relazioni di uguaglianza e vincolo insiemistico, in G. Crespi e altri, “Optimization in
Economics”, Finance and Industry, Datanova, Milano, 2002, 171-183.
[28]
GIORGI G.-GUERRAGGIO A.-THIERFELDER J., Mathematics of Optimizations:
Smooth and Nonsmooth Case, American Elsevier, Amsterdam, 2004.
[29]
GOOD R.A., Systems of linear relations, SIAM Review, 1, 1959, 1-31.
[30]
HESTENES M.R., Calculus of Variations and Optimal Control Theory, John
Wiley & Sons, New York, 1966.
[31]
HESTENES M.R., Optimization Theory. The Finite Dimensional Case, John
Wiley & Sons, New York, 1975.
[32]
HIRIART-URRUTY J.B., What conditions are satisfied at points minimizing the
maximum of a finite number of differentiable functions?, in F. Giannessi (Eds.),
“Nonsmooth Optimization: Methods and Applications”, Gordon & Breach Sciences
Publishers, London, 1992, 166-174.
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
21
[33]
KARLIN S., Mathematical Methods and Theory in Games, Programming and
Economics, Vol. I, Addison-Wesley, Reading, Mass., 1959.
[34]
KOMORNIK V., A simple proof of Farkas’ lemma, Amer. Math. Monthly, 105,
1998, 949-950.
[35]
KUHN H.W., Solvability and consistency for linear equations and inequalities,
Amer. Math. Monthly, 63, 1956, 217-232.
[36]
LANCASTER K., Mathematical Economics, Macmillan, London, 1968.
[37]
MANARA C.F.-NICOLA P.C., Elementi di Economia Matematica, Editrice Viscontea, Milano, 1970.
[38]
MAGASARIAN O.L., Nonlinear Programming, Mc Graw-Hill, New York, 1969.
[39]
MARTOS B., Nonlinear Programming: Theory and Methods, North Holland,
Amsterdam, 1976.
[40]
MC CORMIK G.P., Nonlinear Programming, J. Wiley, New York, 1983.
[41]
MC SHANE E.J., The Lagrange multiplier rule, Amer. Math. Monthly, 80, 1973,
922-924.
[42]
MICHEL P., Cours de Mathématiques pour Economistes, Economica, Paris,
1989.
[43]
MURACCHINI L.-GUIDOTTI L., Programmazione matematica, UTET, Torino,
1988.
[44]
NIKAIDO H., Convex Structures and Economic Theory, Academic Press, New
York, 1968.
[45]
PEARL M.H., A matrix proof of Farka’s theorem, Quarterly Journal of Mathematics, 18, 1967, 193-197.
[46]
RAZOUMIKHINE B., Modèles Physiques et Méthodes de la Théorie de l’Equilibre
en Programmation et en Economie, Editions MIR, Mosca, 1978.
[47]
ROCKAFELLAR R.T., Convex Analysis, Princeton Univ. Press, Princeton, 1970.
[48]
ROOS C.-TERLAKY T., Note on a paper of Broyden, Operations Research Letters,
25, 1999, 183-186.
[49]
SAIGAL R., Linear Programming. A Modern Integrated Analysis, Kluwer Academic Publishers, Boston, 1995.
[50]
SINGH C.-PATRON I., Some variations, extensions, and generalizations of
Tucker’s theorems, Journal of Information & Optimization Sciences, 17, 1996,
243-253.
[51]
SZILAGYI P., A simple proof and short forms for the Kuhn-Fourier theorem,
P.U.M.A., 4, 1999, 381-384.
[52]
STOER C.-WITZGALL C., Convexity and Optimization in Finite Dimensions, I,
Springer Verlag, Berlin, 1970.
[53]
TRUCHON M., Théorie de l’Optimisation Statique et Différentiable, G. Morin
Editeur, Chicontini, Québec, Canada, 1987.
22
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski
[54]
TUCKER A.W., Dual systems of homogeneous linear relations, in H.W. Kuhn,
A.W. Tucker (Eds.), “Linear Inequalities and Related Systems”, Princeton Univ.
Press, Princeton, 1956, 3-18..
[55]
UZAWA H., A theorem on convex polyhedral cones, in K.J. Arrow, L. Hurwicz,
H. Uzawa (Eds.), “Studies in Linear and Non-linear Programming”, Stanford
Univ. Press, Stanford, 1958, 23-31.
[56]
VANDERBEI R.J., Linear Programming. Foundations and Extensions, Kluwer
Academic Publishers, Boston, 2001.
[57]
WETS R. J.B., Elementary, constructive proofs of the theorems of Farkas, Minkowski and Weyl, in J.J. Gabszewicz, J.F. Richard, L.A. Wolsey (Eds.), “Economic Decision-Making: Games, Econometrics and Optimization”. Contributions in Honour of Jacques H. Drèze, North Holland, Amsterdam, 1990, 427432.