Metodi Decisionali Multi Criterio

Transcript

Metodi Decisionali Multi Criterio
Decisione Multicriterio: scelta di una azione o alternativa tra un insieme di alternative ammissibili
effettuata sulla base di due o più criteri.
Multiple Criteria Decision Making (MCDM) - Processo decisionale in presenza di più criteri
Metodi Decisionali Multi Criterio
Criterio: indicazione su come valutare un tipo di prestazione misurata per le diverse alternative,
ovvero su come deve essere scelta l'alternativa più efficiente rispetto a quella prestazione
(e.g., il calcolatore meno costoso, la moto più maneggevole, l'auto con i minori consumi)
Appunti per il Corso di Metodi e Modelli per il Supporto alle Decisioni
Nel caso del MCDM i criteri in generale sono contrastanti.
Le alternative considerate possono essere:
Massimo Paolucci
•
discrete e finite (enumerabili)
•
continue ed infinite (non enumerabili)
Attributo: misura (valore) di una prestazione di una alternativa; è un parametro; è fornito nel caso
di alternative discrete.
Obiettivo: una funzione che misura una prestazione per un'alternativa definita come punto nello
spazio delle variabili decisionali; utilizzata nel caso di alternative di tipo continuo.
DIST - Università di Genova
Un attributo (obiettivo) può fornire direttamente indicazioni sul livello di un criterio (e.g., attributo
"il profitto netto in lire" rispetto al criterio "massimizzare il profitto".
In altri casi un criterio può non avere un attributo (obiettivo) direttamente corrispondente (e.g.,
criterio "migliorare la qualità di un sistema di trasporto pubblico urbano").
Può esistere in questi casi un attributo (o un insieme di attributi), detto Proxy Attribute, che
2000/2001
indirettamente fornisce indicazioni su tale criterio (e.g., attributi "il rapporto tra il tempo medio di
percorrenza e la lunghezza del tragitto", "il numero di utenti medi sui mezzi nelle ore di punta").
2
Passi generali di un processo decisionale:
Componenti di un processo decisionale:
1.
Inizializzazione (definizione del problema)
•
obiettivi/attributi
2.
Formulazione del problema (specifica degli attributi o obiettivi e dei criteri)
•
criteri
3.
Costruzione del modello (identificazione delle variabili decisionali, vincoli, formalizzazione
•
Decisore(i) ed eventuali supporti per l'elaborazione dell'informazione (DM Unit)
di proprietà strutturali, uso di tecniche di rappresentazione come grafi)
•
Regola decisionale (decision rule)
4.
Analisi, valutazione e decisione (generazione dell'insieme delle alternative ammissibili e
stima dei valori degli attributi o obiettivi; raccolta di informazioni sullo stato (state of nature)
Decision rule: regola usata per ordinare le alternative secondo le informazioni acquisite e le
e dei giudizi di preferenza del decisore(i)); definizione di una decisione
5.
preferenze del decisore.
Implementazione (attuazione) della decisione e rivalutazione della decisione (eventuale
iterazione del processo)
Esempi:
- Problema banale con singolo obiettivo (costo), e criterio (minimizzare il costo). Regola
Nelle prime fasi (inizializzazione, ma soprattutto formulazione) la definizione degli obiettivi e degli
attributi può avvenire attraverso un processo di brainstorming.
decisionale: scegliere l'alternativa con il costo più piccolo.
- Problema ambientale: stabilire i livelli di depurazione che devono essere garantiti da certe
Obiettivi ed attributi possono venire definiti progressivamente (top-down) per mezzo di una
aziende che scaricano in un fiume in modo che la qualità dell'acqua sia "buona". Attributi: il
struttura gerarchica.
valore di vari inquinanti disciolti nell'acqua. Regola decisionale: scegliere i livelli di depurazione
in modo che il valore degli inquinanti non superi delle soglie fissate (goal - accettabilità delle
Esempi: scelta di un bene (automobile, computer,...); selezione del personale; selezione tra progetti
alternative)
(gara d'appalto); analisi di impatto ambientale
Due tipi generali di regole decisionali:
Caratteristiche generali di un problema MCDM:
•
molti criteri
•
molti attributi/obiettivi
•
conflitto tra i criteri
•
incommensurabilità tra attributi/obiettivi
•
scelta tra un insieme finito di alternative definite esplicitamente oppure un
•
Optimizing rule (stabilire un ordinamento completo tra tutte le alternative - l'ottimo)
•
Satisficing rule (determinare un'alternativa soddisfacente senza ottimizzare globalmente)
Formulazione dei problemi MCDM
max F( x ) = [f1 ( x ),..., f k ( x )]T
insieme infinito di alternative definite implicitamente
s.t.
Approccio generale al MCDM: utilizzare le informazioni note (factual elements) insieme ai
x ∈ X ⊆ Rn
x = vettore delle variabili decisionali
giudizi espressi dal decisore (value elements) per determinare una decisione di compromesso
fj(.) = j-mo obiettivo
(best compromise solution/decision). Ovvero, aiutare il decisore a selezionare quella
X= insieme delle alternative ammissibili
alternativa maggiormente coerente con la sua struttura di preferenza.
•
X può essere infinito, allora le alternative sono definite implicitamente per mezzo di relazioni
(vincoli) matematici.
3
4
•
X può essere finito, allora si definisce l'insieme discreto delle alternative ammissibili come
Definizione
A = {F( x ) : x ∈ X}; in tal caso le funzioni fj(.) rappresentano la misura della prestazione j-ma di
Una soluzione (alternativa) ammissibile x0∈X è efficiente (non dominata, Pareto ottima) se e solo
una alternativa.
se non esiste x∈X tale che fj(x)≥ fj(x0) per ogni j∈K={1,...,k} e fj(x)≠fj(x0) per almeno un j∈K.
Per una alternativa i-ma Ai corrispondente al punto xi, xij=fj(xi) è il valore dell'attributo j-mo. Nel
Le alternative efficienti sono quelle per cui non esiste un'altra alternativa ammissibile in grado di
caso di alternative discrete nella fase di analisi vengono individuati gli attributi e le alternative.
produrre un miglioramento rispetto ad un obiettivo/attributo senza peggiorarne almeno un altro.
Queste vengono distinte tra loro per i diversi valori assunti dagli attributi (Ai=[ xij, j=1,...,k] con k
I metodi decisionali multicriterio intervengono nella fase di analisi e valutazione delle alternative e
numero degli attributi).
decisione. Hanno tutti una struttura comune
I problemi di MCDM si distinguono in:
•
problemi Multiattributo (MultiAttribute Decision Making, MADM) (selezione tra un numero
finito di alternative discrete)
•
Formulazione del
problema
(obiettivi e alternative)
Metodo
MCDM
problemi Multiobiettivo (MultiObjective Decision Making, MODM) (progettazione della
miglior alternativa, alternative infinite conosciute in maniera implicita)
Informazioni fornite
dal decisore
(giudizi di preferenza)
(decision rule, ipotesi
sulla struttura di
preferenza del decisore)
Decisione
(Alternativa scelta,
ordinamento tra
le alternative)
In generale l'esito di una decisione (azione) dipende dal contesto in cui la decisione viene
implementata:
Considereremo metodi per problemi MADM e MODM. Tali metodi sono piuttosto semplici ma
•
decisioni in condizioni di certezza (contesto deterministico)
sono utili per mettere in evidenza alcuni principi generali.
•
decisioni in condizioni di rischio (aleatorietà ma nota la probabilità)
•
decisioni in condizioni di incertezza (aleatorietà non note le probabilità)
Metodi Decisionali Multiattributo (MADM)
In funzione del contesto possono essere utilizzate diverse metodologie decisionali (ad esempio,
Un problema MADM è definito attraverso una Matrice delle Decisioni nella quale sono descritte le
alberi decisionali, risk analysis).
alternative (finite) che si vogliono considerare.
In generale sono presenti m alternative Ai, i=1,...,m, definite per mezzo di n attributi xj, j=1,..,n.
Nel caso dei problemi MCDM verrà considerato un contesto di tipo deterministico.
Il valore assunto dall'attributo xj di un'alternativa Ai è indicato con xij.
Verrà considerato il caso della presenza di un singolo decisore.
L'alternativa Ai è definita come Ai=[xi1,...,xin].
Una regola decisionale molto generale applicata per i problemi MCDM consiste nei seguenti due
La matrice delle decisioni D è una matrice mxn tale che D=[xij, i=1,...,m; j=1,...,n].
passi:
L'insieme delle alternative (la matrice D) è determinato dall'analisi del problema decisionale
1. individuare l'insieme delle alternative efficienti (non dominate, Pareto ottimali);
(individuazione dei criteri ed attributi, selezione di un insieme di alternative candidate, valutazione
2. selezionare l'alternativa efficiente di compromesso utilizzando le informazioni di preferenza che
dei valori degli attributi per le alternative).
Consideriamo sempre condizioni di certezza.
il decisore mette a disposizione.
Un esempio: una compagnia aerea vuole scegliere quale tipo di aereo da trasporto acquistare tra 4
A volte i passi non sono completamente distinti. Un esempio ....
possibili candidati.
5
6
In generale su tali intervalli può essere definita una funzione di appartenenza (membership) che
specifica la corrispondenza tra numero e valore qualitativo (e.g., 6,3 potrebbe avere 0.2 di
Vengono individuati 6 attributi rilevanti:
appartenenza a Medio e 0.8 ad Alto).
x1 Velocità massima (mach)
x2 Raggio di azione (km)
La matrice scalarizzata
x3 Carico massimo trasportabile (Kg)
x4 Costo (M$)
x1
x2
x3
x4
x5
x6
x5 Affidabilità (qualitativo)
A1
2.0
1500
20000
5.5
5
9
x6 Manovrabilità (qualitativo)
A2
2.5
2700
18000
6.5
3
5
A3
1.8
2000
21000
4.5
7
7
A4
2.2
1800
20000
5.0
5
5
Agli attributi qualitativi è assegnata una scala di valori qualitativi: Molto Basso, Basso, Medio,
Alto, Molto Alto
Non esistono nell'esempio alternative dominate.
La matrice delle decisioni
Dominanza (alternative discrete)
x1
x2
x3
x4
x5
x6
Date due alternative distinte Ai e Ak, Ai domina Ak (Ai≥Ak) se e solo se xij≥xkj per ogni
A1
2.0
1500
20000
5.5
Media
Molto Alta
j=1,...,n (gli attributi misurano tutti dei benefici).
A2
2.5
2700
18000
6.5
Bassa
Media
A3
1.8
2000
21000
4.5
Alta
Alta
A4
2.2
1800
20000
5.0
Media
Media
Il concetto di compensazione
Compensazione tra attributi: la possibilità nella valutazione di un'alternativa di compensare un
Non c'è un'alternativa che è chiaramente la migliore.
valore "non buono" di un attributo con un valore "buono" di un altro attributo.
Non tutti gli attributi sono numerici.
Quando un decisore accetta la compensazione tra due attributi è possibile definire un trade-off tra di
essi, ovvero una misura dello scambio.
Scalarizzazione degli attributi qualitativi
Esempio: sono disposto a rinunciare in capacità di memoria per un calcolatore per ridurre il costo
In generale i valori di un attributo possono essere forniti in una delle seguenti scale:
dello stesso.
-
scala nominale (identificatori)
-
scala ordinale (ordinamento tra gli identificatori)
I metodi MADM possono essere classificati come:
-
scala di intervalli (significativa la differenza tra i valori)
•
non compensatori (non permettono di esprimere trade-off tra gli attributi)
-
scala di rapporti (invarianza rispetto al rapporto tra valori di scale diverse per la stessa misura;
•
compensatori (costruzione di una valutazione globale dell'alternativa); tre modelli generali:
origine)
Scoring models (definiscono un punteggio globale)
Gli attributi qualitativi dell'esempio possono essere scalarizzati associandoli ad una scala di
Compromizing models (valutano la prossimità rispetto all'ideale)
intervalli arbitraria che ne conservi l'ordine.
Concordance models (valutano in base alla concordanza con i giudizi del decisore)
Una possibilità è assegnare ai valori qualitativi degli intervalli fuzzy centrati nel punto medio:
Molto Basso = [0,2]; Basso = [2,4]; Medio = [4,6]; Alto = [6,8]; Molto Alto = [8,10]
7
8
Vedremo un insieme di metodi MADM classificandoli in funzione del tipo di informazione di
preferenza fornita dal decisore:
1. Nessuna informazione
a) rij =
x ij
b) rij = 1 −
2.1. Livelli standard
[Disgiuntivo, Congiuntivo]
2.2. Informazione ordinale
[Lessicografico, Eliminazione per aspetti]
2.3. Informazione cardinale
[Simple Additive Weighting (SAW), ELECTRE, Permutazioni]
2.4. Tasso marginale di sostituzione
(note: benefici; scala "spostata" verso 1)
i
x ij
(note: costi; scala "spostata" verso 0)
x max
j
c) ponendo x ij ←
1
x ij
si ottiene rij =
x min
j
x ij
dove x min
= min x ij (note: costi; scala "spostata"
j
i
verso 1)
[Trade-off gerarchici]
3. Informazione sulle alternative
d) rij =
[LINMAP]
3.2. Ordine di prossimità tra coppie
dove x max
= max x ij
j
x max
j
[Dominanza, Maximin, Maximax]
2. Informazione sugli attributi
3.1. Preferenza tra coppie
Esistono diverse possibilità:
[solo cenni]
e) rij =
1. Metodi MADM senza informazione dal decisore
x ij − x min
j
(note: benefici; scala equidistribuita)
− x min
x max
j
j
− x ij
x max
j
(note: costi; scala equidistribuita)
− x min
x max
j
j
x ij
f) rij =
m
(note: benefici; normalizzazione vettoriale; ampiezze diverse; per costi
2
∑ x ij
i =1
Analisi di dominanza
Si eliminano dalla matrice delle decisioni le alternative dominate e si propongono al decisore le
sostituire come in c))
rimanenti.
Un esempio: la scelta tra gli aerei da trasporto usando (a) e (c)
MAXIMIN
r1
r2
r3
r4
r5
A1
0.8
0.56
0.95
0.82
0.71
1.0
A2
1.0
1.0
0.86
0.69
0.43
0.56
A3
0.72
0.74
1.0
1.0
1.0
0.78
A4
0.88
0.67
0.95
0.9
0.71
0.56
r6
Ciascuna alternativa viene rappresentata dal valore dell'attributo peggiore (caratteristica più debole)
e si seleziona l'alternativa (le alternative) con il migliore tra tali valori (approccio pessimista).
L'insieme delle alternative selezionate




A* = A i : i = arg max  min x ij , i = 1,..., m; j = 1,..., n 
 j

i


r6
Il metodo MAXMIN:
- Gli attributi devono essere commensurabili (misurati rispetto ad una scala comune).
r1
r2
r3
r4
r5
A1
0.8
0.56
0.95
0.82
0.71
1.0
0.56
A2
1.0
1.0
0.86
0.69
0.43
0.56
0.43
Normalizzazione degli attributi
A3
0.72
0.74
1.0
1.0
1.0
0.78
0.72
Trasformare xij, misurato in una scala particolare, in rij con 0≤rij≤1.
A4
0.88
0.67
0.95
0.9
0.71
0.56
0.56
- Utilizza un sottoinsime delle informazioni disponibili.
- Non esiste la possibilità di compensare tra loro i valori degli attributi.
9
A3
10
MAXIMAX
Un'alternativa Ai è considerata accettabile se e solo se xij≥xj0, per j∈S (assumendo che tutti gli
Ciascuna alternativa viene rappresentata dal valore dell'attributo migliore (caratteristica più forte) e
attributi siano dei benefici).
si seleziona l'alternativa (le alternative) con il migliore tra tali valori (approccio ottimista).
- Attributi non normalizzati
L'insieme delle alternative selezionate
- Scale almeno ordinali




A* = A i : i = arg max  max x ij , i = 1,..., m; j = 1,..., n 
j


i


Esempio: Livelli standard per gli aerei da trasporto
x0=(2.0, 1500, 20000, 6.0, MEDIA, MEDIA) ⇒ A4 è la sola alternativa accettabile.
- Attributi commensurabili.
- Limitato uso dell'informazione disponibile.
Metodo Disgiuntivo
- Non compensatorio.
Un'alternativa Ai è considerata accettabile se e solo se per almeno un suo attributo si ha xij≥xj0
(assumendo che tutti gli attributi siano dei benefici).
Esempio: Livelli standard per gli aerei da trasporto
Esempio:
1.0 (x6)
A1
x0=(2.4, 2500, 21000, 4.5, MOLTO ALTA, MOLTO ALTA)
1.0 (x1,x2)
A2
⇒ A1, A2, A3 le alternative accettabili.
1.0 (x3,x4,x5)
A3
2.2
0.95 (x3)
Informazione ordinale
Il decisore indica l'importanza relativa degli attributi. Non è un'informazione quantitativa.
Procedura di Hurwicz
Metodo Lessicografico
Un compromesso tra MAXIMIN e MAXIMAX
Il decisore ordina gli attributi in funzione della loro importanza.
Gli attributi ordinati: x1, x2, ... , xn



A* = A i : i = arg max α ⋅ min x ij + (1 − α) max x ij  
j
j


i

α=0 MAXIMAX, α=1 MAXIMIN
2.
2.1
Metodi MADM che utilizzano informazione sugli attributi
Informazione su livelli standard
Il decisore indica un insieme di livelli di accettabilità per gli attributi.
Metodo Congiuntivo
Le alternative: A={A1,...,Am}
con 0≤α≤1
L'insieme degli indici delle alternative: I={1,...,m}
Il metodo procede iterativamente restringendo l'insieme delle alternative, considerando un attributo
alla volta secondo l'ordine fissato.
Passo 0: k=0, I0=I.


Passo 1: k=1, I1 = i : i = arg max x h1  .
0


h∈I
Se |I1|=1 fine, altrimenti vai al passo 2.


I r = i : i = arg max x hr 


h∈I r −1
Se |Ir|=1 fine, altrimenti vai al passo r+1.
Passo r-mo (generico): k=r,.
Livelli standard: xj0, per j∈S⊆{1,...,n}.
12
L'iterazione termina comunque quando k=n.
n
w=[w1,...,wn] vettore dei pesi tali che ∑ w j = 1
j=1
- Se |In|>1 le alternative Ai, i∈In sono considerate equivalenti.
Gli attributi devono essere commensurabili (normalizzati).
- Gli attributi non devono essere commensurabili.
- Limitato uso dell'informazione disponibile.
n
Il punteggio dell'alternativa i-ma: R i = ∑ w jx ij
j=1
Variante: intervalli di indifferenza ±∆
Esempio. tre alternative e due attributi
L'insieme delle alternative selezionate (preferite):
x1
x2
A1
2
6
A2
3
4
A3
4
2


A* = A i : i = arg max R i 


i
E' un metodo molto semplice che appartiene alla classe dei metodi decisionali che utilizzano
"funzioni valore" (Value Function)
Gli attributi sono benefici. x1 più importante di x2. L'intervallo di indifferenza è ∆=1.
Considerando x1 si conclude che A3≈A2; quindi considerando x2 è scelta A2.
Metodi basati su "funzioni valore" (Value Function)
L'esempio mette in evidenza un comportamento anomalo se si confrontano a due a due le
v(.) tale che, date due alternative A e B, v(A)≥v(B) se e solo se A è preferita o equivalente a B
alternative.
Nel caso di decisioni in condizioni di rischio si parla di funzioni di utilità u(.) (Utility Function). La
Metodo dell'eliminazione per aspetti
Multiattribute Utility Theory (MAUT) si occupa del problema della definizione di tali funzioni
E' una via di mezzo tra il metodo congiuntivo e quello lessicografico.
(function assessment).
Il decisore fornisce dei livelli di accettabilità per gli attributi e ordina gli attributi in funzione della
loro importanza.
L'ipotesi di questa teoria: la struttura di preferenza del DM può essere rappresentata da una funzione
Si esaminano le alternative considerando gli attributi nell'ordine e si eliminano le alternative che
definita nello spazio delle alternative.
non superano i livelli indicati.
La ricerca nel campo dei metodi MADM è caratterizzata da tre approcci principali:
2.3
Informazione cardinale
1. si ipotizza che esista una funzione v(.) (u(.)) e si cerca di determinarla esplicitamente;
Il decisore fornisce una misura dell'importanza degli attributi (pesi). Informazione quantitativa.
2. si ipotizza che esista una v(.) e si fanno assunzioni circa la sua struttura che vengono utilizzate
Simple Additive Weighting (SAW) Method
3. si ipotizza che non esista una v(.).
localmente senza cercare di determinarla esplicitamente in modo globale;
Il decisore fornisce un peso wj, j=1,...,n, per indicare l'importanza di ciascun attributo.
Viene costruito un punteggio (score) per ogni alternativa.
Il metodo SAW usa una v(.) che è un caso particolare della seguente funzione valore ADDITIVA
Viene scelta l'alternativa con il punteggio più alto.
n
v(x ) = ∑ v j (x j )
j=1
13
14
Il metodo sceglie la permutazione con il punteggio più alto.
Un risultato (teorema) importante della MAUT:
Una funzione valore può assumere struttura additiva se e solo se esiste "mutua indipendenza nel
- Non è necessario che gli attributi siano numerici o commensurabili
senso delle preferenze" (mutual preferential independence) tra gli attributi.
- Viene individuato un ordinamento completo
- Non è un metodo realmente compensatorio
Preferenza condizionata:
La preferenza in un sottospazio degli attributi condizionata al fatto di aver fissato un valore per gli
Variante: Metodo delle permutazioni pesate
attributi del sottospazio complementare.
Rh =
Indipendenza nel senso delle preferenze:
∑




∑  ∑ ( x kj − x lj ) w j 
 ∑ ( x kj − x lj ) w j − ∑ ( x lj − x kj ) w j  =
j∈D kl

 ( k, l )∈Ω h  j
( k , l )∈Ω h  j∈C kl
Si ha indipendenza nel senso delle preferenze degli attibuti di un sottospazio X' da quelli del
sottospazio complementare X" (X=X'∩X") se le preferenze in X' condizionate a X" non
dipendendono dai valori fissati per gli attributi in X".
Seconda variante: il DM fornisce per ogni attributo j la matrice di preferenza secondo il criterio jmo ad esso relativo,
Metodo delle permutazioni
(j)
dove: p
kl=1
Mj=[p(j)kl] (matrice mxm antisimmetrica)
se Ak è preferita ad Al secondo il criterio j-mo
Date m alternative si confrontano gli m! possibili ordinamenti (permutazioni) calcolandone un
p(j)kl=-1 se Al è preferita ad Ak secondo il criterio j-mo
punteggio.
p(j)kl=0 se Ak è indifferente ad Al secondo il criterio j-mo
E' un'informazione alternativa a D (i valori degli attributi possono non essere esplicitati). In questo
Alternative:
A={Ai; i=1,...,m}
modo il DM può esprimere anche preferenze parziali o non transitive.
Permutazioni: Ph=(...,Ak,....,Al,...) h=1,...,m!
Pesi:
w
Ckl={j: p(j)kl=1 oppure p(j)kl=0}, Dkl={j: p(j)kl=-1}, R h =
Insieme di concordanza (sottinsieme di attributi):
∑
( j)
∑ p kl w j
( k , l )∈Ω h j
Ckl={j: xkj≥xlj} per ogni coppia Ak, Al indicata anche con (k,l), assumendo gli attributi
benefici o opportunamente normalizzati.
Metodo ELECTRE (Elimination Et Choice Translating Reality)
Insieme di discordanza (sottinsieme di attributi):
Metodo che costruisce una "relazione di outranking" tra le alternative.
Dkl={j: xkj<xlj} per ogni coppia Ak, Al.
Date due alternative efficienti Ak ed Al, una relazione di outranking tra esse, ad esempio, Ak→Al,
estende il concetto di dominanza sulla base dei giudizi di preferenza del DM, ovvero stabilisce che
Il punteggio Rh di Ph, h=1,...,m!, si costruisce considerando ogni coppia ordinata presente nella
il DM accetta il rischio di considerare Ak come non peggiore di Al.
permutazione e sommando i pesi degli attributi presenti nell'insieme di concordanza e sottraendo
E' una relazione in generale non transitiva.
quelli nell'insieme di discordanza.
Rh =
∑


 ∑ w j − ∑ w j
j∈D kl

L'approccio alle decisioni multiattributo che usa relazioni di outranking si contrappone a quello
della MAUT poichè non considera possibile costruire una valutazione globale delle preferenze del
( k , l )∈Ω h  j∈C kl
DM partendo da giudizi espressi su un numero limitato di alternative.
dove Ωh è l'insieme di coppie ordinate di alternative in Ph.
15
16
Si accetta l'ipotesi che Ak domini Al se ckl≥ c0
Metodo ELECTRE (B. Roy)
step 1) Normalizzazione della matrice delle decisioni
dove rij =
D=[xij] → R=[rij]
1 se c kl ≥ c 0
La matrice di dominanza di concordanza F=[fkl] dove f kl = 
0 se c kl < c 0
x ij
m
2
∑ x ij
i =1
step 7) Calcolo della matrice di dominanza di discordanza
step 2) Introduzione dei pesi nella matrice delle decisioni normalizzata
W=[wjj]
Soglia per l'indice di discordanza d0<1, definito dal DM o calcolato come media dei dkl.
V=RW
Si accetta l'ipotesi che Ak domini Al se dkl≤ d0
1 se d kl ≤ d 0
La matrice di dominanza di discordanza G=[gkl] dove g kl = 
0 se d kl > d 0
step 3) Determinazione degli insiemi di concordanza e discordanza
Per ogni coppia (Ak, Al), k,l=1,...,m, k≠l, si definiscono Ckl, insieme di concordanza e Dkl,
insieme di discordanza.
step 8) Calcolo della matrice di dominanza aggregata
E=[ekl] con ekl=fkl ⋅ gkl
step 4) Calcolo della matrice di concordanza
Per ogni coppia (Ak, Al), k,l=1,...,m, k≠l, si calcola l'indice di concordanza che riflette la
step 9) Eliminazione delle alternative meno favorevoli
Analisi di dominanza sulla base di E.
dominanza relativa di una alternativa Ak su un'altra Al, tenendo conto dei pesi assegnati agli
Al è dominata e possono essere eliminate la riga e la colonna l-ma da E, se ekl=1 per almeno
attributi
un k≠l.
∑ wj
c kl =
j∈C kl
∑wj
0≤ckl≤1,
Ak non è dominata se eik=0 per ogni i≠k
la matrice di concordanza C=[ckl, k,l=1,...,m, k≠l]
Una volta eliminate le alternative dominate il procedimento si può iterare variando le soglie
j
c0 e d0.
step 5) Calcolo della matrice di discordanza
Per ogni coppia (Ak, Al), k,l=1,...,m, k≠l, si calcola l'indice di discordanza che indica quanto
è valida l'ipotesi che Ak sia meno favorevole di Al tenendo conto dei valori pesati degli
attributi. E' un'informazione complementare rispetto a quello di concordanza.
Note:
Se c0=1 e d0=0 si ha dominanza completa.
Il metodo dipende dalla scelta delle soglie.
La matrice E permette la definizione di un ordinamento parziale tra le alternative (esempio
max | v kj − v lj |
d kl =
j∈D kl
max | v kj − v lj |
grafico).
0≤dkl≤1, la matrice di discordanza D=[dkl, k,l=1,...,m, k≠l]
j
Variante: Calcolare gli indici di concordanza e discordanza netti per Ak
m
l =1
l≠k
l =1
l≠k
m
m
l =1
l≠k
l =1
l≠k
d k = ∑ d kl − ∑ d lk
Selezionare l'alternativa tale che k = arg max[c k ,−d k ]
step 6) Calcolo della matrice di dominanza di concordanza
k
Soglia per l'indice di concordanza, c0<1, definita dal DM oppure calcolata come
c0 =
m
c k = ∑ c kl − ∑ c lk
Nota: se ckl=1→ dkl=0 Ak domina Al (che può essere eliminata).
m m
1
∑ ∑ c kl
m( m − 1) k =1 l =1
l≠k
17
18
2.4
Tasso marginale di sostituzione
Metodi che usano esplicitamente l'informazione circa la possibilità di compensazione tra (coppie) di
x2
(beneficio)
attributi.
preferenza
crescente
Tasso marginale di sostituzione:
Dati due attributi x1 ed x2 ed una alternativa corrispondente ad un punto (x°1,x°2) nel sottospazio di
x1 ed x2, il tasso marginale di sostituzione λ(x°1,x°2) misura la disponibilità del DM a peggiorare il
valore di x1 dell'alternativa considerata per ottenere un miglioramento unitario del valore di x2.
x1 − x10 ∆x1
λ( x10 , x 02 ) = 1
=
x12 − x 02 ∆x 2 ( x 0 , x 0 )
1 2
x1
(beneficio)
Metodo dei trade-off gerarchici (o dell'aggregazione gerarchica)
Il decisore esprime esplicitamente il trade-off tra (coppie di) attributi.
Note le curve di isopreferenza per il DM, riduce il numero degli attributi aggregando coppie di
E' una proprietà locale. E' definito solo per attributi non indipendenti.
attributi non indipendenti.
Andamento caratteristico del tasso marginale di sostituzione tra due attributi:
Esempio: Tre alternative, A1, A2, A3, descritte da 4 attributi x1, x2, x3, x4.
Per x1, x2, attributi non indipendenti sono note le curve di isopreferenza. Si può eliminare dalla
x2
matrice delle decisioni l'attributo x2:
∆
b
∆λb
∆
a
e
∆λe
x2
∆λa
∆
d
x32
∆λd
A'1 A'2 A
3
c
∆λc
x1
A2
x22
dove
λb <λa< λc
e
x12
λe <λa< λd
A1
x'11 x'21 x31
x21
x11
x1
Curva di indifferenza (isopreferenza): luogo delle punti nel piano associato a due attributi non
indipendenti formato da alternative indifferenti nel senso delle preferenze (ovvero, alternative a cui
il decisore associa uguale preferenza sulla base dei due attributi considerati).
 x11 x12
D =  x 21 x 22

 x 31 x 32
19
x13
x 23
x 33
x14 
 x '11 x 32
x 24  →  x ' 21 x 32


x 34 
 x ' 31 x 32
x13
x 23
x 33
x14 
 x '11 x13
x 24  ⇒ D' =  x ' 21 x 23


x 34 
 x ' 31 x 33
x14 
x 24 

x 34 
20
Problema: determinare i valori di x* e w* in modo che siano il più possibile congruenti con i
In linea di principio è possibile iterare sino ad avere un solo attributo aggregato sulla cui base
giudizi forniti dal DM.
decidere.
Se il DM indica una coppia (Ak,Al)∈Ω (per comodità la coppia si può indicare con
Il metodo riduce la dimensione del problema.
(k,l)), si ha congruenza se sk≤sl.
Incongruenza della soluzione rispetto a (k,l) ∈Ω
3.
Metodi MADM che utilizzano informazione sulle alternative
3.1
se s l ≥ s k
0
(s l − s k ) − = 
s k − s l
se s l < s k
= max[0, s k − s l ]
Preferenze tra coppie di alternative
Il decisore specifica la sua preferenza tra coppie di alternative. Questa informazione è rappresentata
da un insieme di coppie ordinate Ω={(Ak,Al): Ak è preferita ad Al}. In generale Ω è un sottinsieme
dell'insieme di tutte le possibili coppie tra le alternative disponibili.
Livello di incongruenza (poorness of fit)
B=
∑ (s l − s k )
( k , l )∈Ω
−
, B≥0
Il problema consiste nell'identificare x* e w* in modo che B sia minimo.
Per evitare la soluzione banale wj*=0 (B=0) viene imposto che la congruenza della soluzione
Metodo LINMAP (LINear Programming techniques for Multidimensional Analysis of Preference)
rispetto ai giudizi del DM sia più grande dell'incongruenza.
Sono date m alternative descritte da n attributi ed un insieme Ω di coppie di preferenza espresse dal
decisore.
Congruenza della soluzione rispetto a (k,l) ∈Ω
Principio: viene ipotizzata l'esistenza di una alternativa "ideale" per il decisore; viene identificata
s − s
(s l − s k ) + =  l k
0
tale alternativa e vengono ordinate le alternative disponibili sulla base della loro
distanza pesata da quella ideale nello spazio degli attributi.
Livello di congruenza (goodness of fit)
Note:
Il problema:
se s l ≥ s k
= max[0, s l − s k ]
se s l < s k
G=
∑ (s l
( k , l )∈Ω
− sk )+
min B
il DM può anche indicare un insieme di preferenze non transitive
s.t.
gli output del metodo sono l'alternativa ideale A*=(x*), il vettore dei pesi ideali w*,
G>B ovvero G-B=h>0 per h arbitrario
l'ordinamento (parziale) tra le alternative;
min B = min
Distanza euclidea pesata dell'alternativa Ai=(xij) dall'alternativa ideale A*=(xj*)
∑ max[0, s k − s l ]
( k, l )∈Ω
s.t.
G-B =
12
 n

d i =  ∑ w *j ( x ij − x *j ) 2
 j =1

∑ (s l − s k ) = h
( k, l )∈Ω
Le incognite sono le variabili nei vettori x* e w*
LINMAP ordina le alternative in base al quadrato della distanza si=di2 : le alternative migliori sono
Il problema non è lineare: si introducono delle variabili ausiliarie zkl, ∀(k,l)∈Ω
quelle con il più piccolo valore di si.
21
22
min
Le alternative vengono ordinate in base alla distanza (al quadrato) calcolata come:
∑ z kl
( k, l )∈Ω
s.t.
s l − s k + z kl ≥ 0
(1)
s i = ∑ w*j ( x ij − x *j ) 2 − 2 ∑ v *jx ij
∀( k, l) ∈ Ω
j∈I '
∑ (s l − s k ) = h
( 2)
j∈I"
i = 1,..., m
( k , l )∈Ω
z kl ≥ 0
(3)
∀( k, l ) ∈ Ω
dove I'={j: wj*>0} ed I"={j: wj*=0 e vj*≠0}
Note:
Scrivendo i vincoli in funzione delle x* e w* si ottiene che
LINMAP si basa su una funzione di costo quadratica
n
n
n
s l − s k = ∑ w *j ( x lj − x *j ) 2 − ∑ w *j ( x kj − x *j ) 2 = ∑ w *j ( x 2 − x 2kj ) − 2 ∑ w*jx *j ( x lj − x kj )
lj
j=1
j=1
j=1
j=1
i pesi degli attributi sono un output del metodo
risulta non lineare.
preferenze
n
identifica la funzione di costo nell'ipotesi di indipendenza degli attributi nel senso delle
Si sostituisce w *jx *j ← v *j ottenendo il problema
3.2
min
Ordine di prossimità tra coppie
Il decisore ordina le coppie di alternative in base alla similarità tra le due alternative considerate.
∑ z kl
( k, l )∈Ω
s.t.
E' un'informazione che può essere fornita in presenza di numerosi attributi o nel caso in cui gli
n
n
* 2
2
*
∑ w j ( x lj − x kj ) − 2 ∑ v j ( x lj − x kj ) + z kl ≥ 0
(1)
j=1
j=1
n
n * 2

2
*
 ∑ w j ( x lj − x kj ) − 2 ∑ v j ( x lj − x kj ) − h = 0
j=1

∑
( 2)
attributi non siano ben definiti o noti esplicitamente.
∀( k, l) ∈ Ω
Il metodo dello "Scalamento Multidimensionale con punto ideale" (cenni):
( k , l )∈Ω  j=1
(3)
z kl ≥ 0
∀( k, l ) ∈ Ω
( 4)
w*j ≥ 0
v *j libera
ipotizza che non sia noto lo spazio degli attributi in cui rappresentare le alternative e che le
alternative simili siano comunque "vicine", qualunque spazio venga scelto;
j = 1,..., n
identifica uno spazio di dimensione minima;
determina l'alternativa ideale;
ordina le alternative in base alla distanza dall'ideale.
Il metodo LINMAP interpreta la soluzione del problema come segue:
1)
se wj*>0
2)
se wj*=0 e vj*=0
3)
4)
si calcola xj*=vj*/wj*
si definisce xj*=0
*
*
si definisce xj*=+∞
*
*
si definisce xj*=-∞
se wj =0 e vj >0
se wj =0 e vj <0
23
24
Metodi Decisionali Multiobiettivo (MODM)
Teorema:
Problema di ottimizzazione vettoriale (Vector Optimization Problem, VOP)
x* è soluzione efficiente di VOP se e solo se x* risolve Pz(ε*) per ogni z=1,...,k, dove εj*=fj(x*).
max F( x ) = [f1 ( x ),..., f k ( x )]T
Teorema:
x ∈ X ⊆ Rn
s.t.
se x* risolve Pz(ε*) per qualche z ed è soluzione unica allora x* è soluzione efficiente di VOP.
x = vettore delle variabili decisionali
Una possibile classificazione dei metodi di MODM sulla base del tipo di informazione di preferenza
fj(.) = j-mo obiettivo
X = { x : g i ( x ) ≤ 0 i = 1,..., m, x ∈ S} ⊆ R
fornita dal DM:
n
Risolvere il VOP consiste nel determinare X* l'insieme delle soluzioni efficienti.
Per determinare X* si definiscono e risolvono problemi di ottimizzazione scalare.
Tre approcci:
1. Scalarizzazione con pesi
k


Dato W =  w : w ∈ R k , w j ≥ 0, ∑ w j = 1 si risolve il problema


j=1
1.
Metodi senza informazione dal DM
2.
Metodi che usano informazioni fornite a priori dal DM
3.
Metodi interativi (che usano informazione fornita progressivamente dal DM)
4.
Metodi che usano informazione fornita a posteriori dal DM
1.
Metodi senza informazione dal DM
Metodo del criterio globale
La soluzione x° è determinata minimizzando un criterio globale definito in base agli obiettivi
k
originali.
P( w ) : max ∑ w jf j ( x )
x∈X j=1
La soluzione ideale rispetto all'obiettivo j-mo è x*(j) determinata risolvendo
definito per un w∈W
max fj(x)
Teorema:
*
*
x è soluzione efficiente di VOP se esiste w∈W tale che x risolve P(w) e se wj>0 per ogni
s.t. gi(x)≤0 i=1,...,m
j=1,...,k, oppure x* è soluzione unica.
Il valore ideale dell'obiettivo j-mo è fj(x*(j)).
Il criterio globale è definito come:
2. Ottimizzazione del z-mo obiettivo con scalarizzazione lagrangiana
Pz ( u ) : max f z ( x ) + ∑ u jf j ( x )
x∈X
*
k  f j ( x ( j) ) − f j ( x ) 

Fp = ∑ 


f j ( x *( j) )
j=1


j≠ z
con u=[u1,...,uz-1,uz+1,..,uk]
p
p è un parametro che può essere ad esempio fissato come p=1 oppure p=2 (in questo secondo caso il
criterio globale può essere calcolato come (Fp)1/2).
3. Ottimizzazione del z-mo obiettivo con soglie
Pz ( ε) : max f z ( x )
s.t.
La soluzione x° è calcolata risolvendo
f j ( x ) ≥ ε j j = 1,..., k; j ≠ z
min Fp
con ε=[ε1,..., εz-1, εz+1,.., εk]
s.t. gi(x)≤0 i=1,...,m
25
26
2.
Metodi che usano informazioni fornite a priori dal DM
2.2 Informazione a priori cardinale
Questo tipo d'informazione può essere suddivisa in tre classi:
Il DM fornisce un vettore w di pesi per gli obiettivi.
2.1
Informazione di tipo ordinale
2.2
Informazione di tipo cardinale
2.3
Livelli di accettabilità
Generalizzazione del criterio globale: una misura pesata dell'insoddisfazione
1/ p
r ( y, p, w ) = y* − y
2.1 Informazione a priori ordinale (Metodo Lessicografico)


=  ∑ w p ( y*j − y j ) p 
p, w  j j

dove yj=fj(x), p≥1, w=[w1,...,wk]T
Il DM indica un'ordine di importanza (priorità) per gli obiettivi.
Per p=∞ si definisce r ( y, ∞, w ) = max { y*j − y j w j , j = 1,..., k}
La soluzione si determina ottimizzando un obiettivo alla volta, iniziando da quello più importante.
j
Supponendo l'indice dell'obiettivo indicativo della sua importanza:
Metodi basati su funzioni di utilità o valore.
(P1) max f1(x)
s.t.
La funzione di valore V(f1(x),..., fk(x)) fornisce un numero reale rappresentativo del valore (qualità)
gi(x)≤0 i=1,...,m
di una soluzione x.
Il problema decisionale diventa
Se la soluzione di (P1), x*(1), è unica x°=x*(1), altrimenti si risolve
max V(f1 ( x ),..., f k ( x ))
x
s.t.
g i ( x ) ≤ 0 ∀i
s.t.
(P2) max f2(x)
gi(x)≤0 i=1,...,m
Il problema è determinare la V(.). Alcuni metodi interattivi ipotizzano che la V(.) sia concava e la
f1(x)=f1(x*(1))
determinando x*(2).
approssimano localmente.
Il procedimento itera, risolvendo al j-mo passo
Se la funzione valore è additiva, V( F) = ∑ V j (f j ( x )) , con componenti Vj (f j ( x )) = w jf j ( x ) , si ha
k
j=1
la semplice scalarizzazione additiva e la soluzione x° è determinata dal problema
(Pj) max fj(x)
s.t.
gi(x)≤0 i=1,...,m
fw(x)=fw(x*(w)) w=1,...,j-1
k
max ∑ w jf j ( x )
x
s.t.
sino a j=k o quando x*(w) risulta soluzione unica.
g i ( x ) ≤ 0 ∀i
2.3 Informazione a priori: livelli di accettabilità
Variante: ad ogni passo si considera una soglia di tolleranza, δj j=1,...,k, sugli obiettivi.
Il DM indica delle soglie di accettabilità che devono essere soddisfatte dagli obiettivi.
(Pj) max fj(x)
s.t.
j=1
Questa informazione è di solito utilizzata insieme ad altre in metodi più complessi.
gi(x)≤0 i=1,...,m
fw(x)≥fw(x*(w))-
δw w=1,...,j-1
27
28
Bounded Objective Method
Se gli obiettivi ed i vincoli sono lineari è un problema di Linear Goal Programming, che viene
Il DM sceglie un obiettivo r-mo da privilegiare (priorità) e fissa dei livelli Lj per gli altri. La
risolta con un simplesso modificato che tiene conto implicitamente del vincolo non lineare (che
decisione è determinata risolvendo il problema
impone che una delle variabili deviazionali sia sempre nulla).
Le deviazioni possono essere pesate anche diversamente.
max fr(x)
Nel caso in cui uno di tali pesi sia nullo si parla di One-side Goal Programming.
s.t. gi(x)≤0 i=1,...,m
In generale un problema di Goal Programming ha la seguente forma:
fj(x)≥Lj j=1,...,k; k≠r
x
E' una metodologia generale che può utilizzare i tre tipi di informazione a priori.
s.t.
Principio: il DM indica quali valori per i diversi obiettivi rappresentano i sui goal ed il metodo cerca
una soluzione di compromesso più vicina possibile ad essi.
I goal:
yj*
j=1,...,k
Posto yj=fj(x) si definiscono due deviational variables
 y − y*j
Over-achievement d +j =  j
0
b*i − g i ( x ) = d i− − d i+
∀i
y*j − f ji ( x ) = d −j − d +j
∀j
d i− ⋅ d i+ = 0
d i− ≥ 0 d i+ ≥ 0
∀i
d −j ⋅ d +j = 0
d −j ≥ 0 d +j ≥ 0
∀j
]
dove:
bi* rappresentano i goal rispetto ai vincoli (vincoli fuzzy)
y*j
se y j >
altrimenti
 y* − y j
Under-achievement d −j =  j
0
le funzioni hq(.,.) esprimono particolari relazioni che vogliono essere imposte per le deviazioni
rispetto a certi goal (ad esempio, una somma pesata)
se y j < y*j
altrimenti
Pq rappresentano dei pesi "ordinali", ovvero indicano l'ordine di priorità lessicografico con cui le
funzioni hq(.,.) debbono essere considerate (Pe>> Pe+1)
Dalle definizioni si ha che
y*j − y j = d −j − d +j
[
min P1 ⋅ h1 (d − , d + ), P2 ⋅ h 2 (d − , d + ),..., Pq ⋅ h q (d − , d + )
La Goal Programming
y*j − y j = d −j + d +j
d −j ⋅ d +j = 0
d −j ≥ 0 d +j ≥ 0
3.
Metodi interativi (che usano informazione fornita progressivamente dal DM)
La soluzione di compromesso di può determinare risolvendo
min ∑ w j y*j − f j ( x )
x
s.t.
Il DM fornisce informazione circa le proprie preferenze mentre "esplora" le soluzioni.
p
Le informazioni corrispondono a trade-off locali rispetto alla soluzione corrente e vengono usate
j
gi (x) ≤ 0
∀i
per determinare una nuova soluzione.
ovvero
Vantaggi dei metodi interattivi:
min ∑ w j (d −j + d +j ) p
x
s.t.
j
gi (x ) ≤ 0
∀i
y*j − f j ( x ) = d −j − d +j ∀j
d −j ⋅ d +j = 0
d −j ≥ 0 d +j ≥ 0
∀j
∀j
29
1.
nessuna informazione a priori
2.
apprendimento del DM (parte attiva nel processo decisionale)
3.
preferenze locali
4.
migliore accettabilità della soluzione finale
5.
ipotesi in genere meno restrittive
30
3. Determinazione delle variabili fuori base efficienti
Due classi di metodi:
Per ogni variabile fuori base xi si calcola
- Metodi che usano informazione esplicita sui trade-off
- Metodi che usano informazione implicita sui trade-off
λ ij =
3.1
Metodi interativi con informazione esplicita sui trade-off
f j ( x * ) − f j ( x (i) )
xi
che corrisponde ad una misura della variazione del j-mo obiettivo causata da un aumento unitario
Il metodo di Ziont e Wallenius
della xi, calcolata rispetto al punto corrispondente alla soluzione x* calcolata al passo 2.
Si può usare per funzioni obiettivo lineari o concave e con vincoli lineari.
Il vettore x(i) corrisponde ad una soluzione ammissibile corrispondente ad una variazione unitaria
Viene ipotizzata la presenza di una value function V(.) non nota a priori, ma con struttura lineare o
concava.
di xi; ad esempio, x(i) potrebbe essere trovato determinando il punto estremo di X in cui xi
assume il valore più grande, calcolato come max xi con x∈X.
Nel caso lineare considerato, si può osservare come i λij corrispondano ai costi ridotti delle
Principio
Determinare iterativamente i pesi di un problema P(w) in modo che esso fornisca la miglior
soluzione di compromesso estraendola dall'insieme delle soluzioni efficienti.
variabili fuori base rispetto le varie funzioni obiettivo.
Se λij≥0 per ogni fj(x), allora tutti gli obiettivi peggiorano aumentando la variabile fuori base xi
che risulta non efficiente.
Metodo operativo (obiettivi lineari)
Si aggregano le fj() con pesi arbitrari wj. Si determina l'ottimo. Si selezionano tra le variabili
Se qualche λij<0 allora si verifica se la xi è efficiente risolvendo il seguente problema:
xi fuori base quelle "efficienti" (se portate in base producono un miglioramento in qualche
k
Z = min ∑ λ ijw j
obiettivo ed un peggioramenti in qualche altro). Per ogni xi efficiente si calcolano i trade-off
w j=1
rispetto gli obiettivi. Si verifica se il DM è disposto ad accettare qualcuna di tali variazioni
s.t.
rispetto ai valori degli obiettivi associati alla soluzione corrente. In caso positivo si
k
∑ λ ej w j ≥ 0 ∀e ≠ i con x e var . fuori base
determinano i nuovi pesi degli obiettivi e si itera il procedimento. L'algoritmo termina se non
j=1
esistono variabili fuori base efficienti o se il DM non accetta alcun trade-off.
k
∑ wj =1
j=1
Algoritmo di Zionts e Wallenius
w j ≥ 0 ∀j
Le variabili sono i pesi w.
Si cerca se, per una data xi, esistono dei pesi per gli obiettivi con i quali può essere costruita una
1. Inizializzazione
diversa funzione scalare (criterio globale) che presenta un valore migliore (rispetto al corrente)
k
q=1, w pesi arbitari tali che ∑ w1j = 1
j=1
1
per una soluzione con la xi in base (positiva).
w1j ≥ ε > 0.
I vincoli sono imposti per escludere l'influenza di altre variabili fuori base.
2. Soluzione del problema scalarizzato (ipotesi: fj(x) e gh(x) lineari)
Se Z<0, allora la xi è efficiente.
Si risolve
k
max ∑ w qj f j ( x )
x∈X j=1
3. Fase decisionale
dove X={gh(x)≤0 ∀h, x≥0}
Se non esistono variabili fuori base efficienti l'algoritmo termina, i pesi wq sono quelli che
permettono di costruire la funzione scalare da ottimizzare e la soluzione corrente è la migliore
soluzione di compromesso.
31
32
Altrimenti, per ogni xi variabile fuori base efficiente si verifica se il DM è disposto ad accettare
Si calcolano i valori ideali per gli obiettivi:
complessivamente una variazione di λi1 per l'obiettivo f1(x), di λi2 per l'obiettivo f2(x), e così via.
fj*= fj(xj) =max fj(x)
Il DM può accettare o non accettare la variazione o considerarla indifferente.
Se il DM non accetta alcuna variazione per ogni xi efficiente, la procedura termina, i pesi w
q
s.t. gi(x)≤0 i=1,...,m
sono quelli definitivi e la soluzione corrente è la migliore soluzione di compromesso.
Altrimenti, se ci sono variazioni accettate, si costruisce un insieme di vincoli nelle variabili w per
Si assume che il DM abbia un comportamento pessimista: l'insoddisfazione del DM per la soluzione
determinare un nuovo insieme di pesi per gli obiettivi. In particolare:
è rappresentata dalla più grande deviazione rispetto ai valori ideali.
k
per ogni xi efficiente per cui il DM ha risposto positivamente ⇒ ∑ λ ijw j ≤ −ε
j=1
k
per ogni xi efficiente per cui il DM ha risposto negativamente ⇒ ∑ λ ijw j ≥ ε
j=1
k
per ogni xi efficiente per cui il DM è rimasto indifferente ⇒ ∑ λ ijw j = 0
j=1
(a)
min d∞(F(x),F*)
x∈X
(b)
j
dove ε>0 è una costante piccola a piacere che rappresenta la soglia minima oltre la quale è
interessante una variazione del criterio globale.
problema, ad ogni passo q si risolve un problema lineare.
Per q=0 il problema corrisponde a
(P0) min λ
k
s.t. λ≥wj[fj* - fj(x)]
Si risolve il problema di ammissibilità per i vincoli (a), (b), (c) e per ∑ w j = 1
j=1
j∈J0
x∈X0 λ≥0
Si pone q=q+1 e si assegna la soluzione del problema di ammissibilità a wq.
Si itera al passo 2.
nelle variabili x e λ.
I pesi wj sono calcolati ad ogni passo in base alla matrice dei payoff
Metodi interativi con informazione implicita sui trade-off
Il metodo STEM (STEP-Method)
f1
E' un metodo per la Multiobjective Linear Programming (MOLP).
Richiede al DM di specificare i livelli di accettabilità locali rispetto una soluzione (più semplice che
valutare un trade-off).
Problema MOLP:
]}
Posto J0={1,...,k} l'insieme degli indici degli obiettivi ed X 0 l'insieme di ammissibilità originale del
4. Calcolo dei nuovi pesi
3.2
{ [
dove d ∞ ( F( x ), F* ) = max w j f *j − f j ( x )
(c)
[
max c1T x ,..., c Tk x
]
L fk
f1* L f1j L f1k
M
fj
M
M
M
f 1j L f *j L f jk
M
M
fk
Ax ≤ b
L fj
f1
M
M
f k1 L f kj L f k*
dove fj*= fj(xj) e fji= fj(xi).
x≥0
33
34
(Pq+1) min λ
I pesi wj vengono calcolati per esprimere l'importanza relativa degli scostamenti rispetto i vari
obiettivi, ovvero una misura di quanto sia difficile avvicinarsi al valore massimo dell'obiettivo:
s.t. λ≥wj[fj* - fj(x)]
j∈Jq+1
x∈Xq+1 λ≥0
uj
wj =
k
Il processo termina quando il DM è soddisfatto della soluzione corrente, oppure se nessun obiettivo
∑ uh
h =1
soddisfa il DM oppure se q=k.
dove:
uj =
f *j − f jmin
⋅
f̂ j
1
Algoritmo STEM
1/ 2
1) Determinare fj*, j=1,...,k. Inizializzare q=0; Xq=X; Jq={1,...,k}
 n 2
 ∑ c ij 
 i =1 
2) Risolvere il problema (Pq) e calcolare fj(x(q)), j=1,...,k
3) Far valutare al DM i valori fj(x(q)) con fJ*, j=1,...,k.
con
Se il DM è soddisfatto l'algoritmo termina e x(q) è la miglior soluzione di compromesso;
f jmin = min f j ( x r )
1≤ r ≤ k
altrimenti se nessun obiettivo soddisfa il DM l'algoritmo termina non essendo in grado di
determinare una soluzione di compromesso;
f *j

f̂ j =  min
 f j
se f *j > 0
altrimenti se il DM è soddisfatto solo da alcuni obiettivi, si chiede al DM di scegliere un
se f *j < 0
obiettivo h rispetto al quale sia disposto ad accettare un peggioramento per cercare di migliorare
gli obiettivi non soddisfacenti. Sia ∆fh il peggioramento accettato.
4) Se q=k l'algorimo termina senza che sia stata determinata una soluzione di compromesso;
n
f i ( x ) = ∑ c ijx j
altrimenti q=q+1, si aggiorna Xq, Jq ed i pesi w e si itera al passo 2).
j=1
Se uj=0 allora wj=0, quindi la j-ma funzione obiettivo non risulta critica.
Risolto il problema ad una iterazione q e trovata una soluzione x(q), si interroga il DM chiedendo di
*
confrontare i valori degli obiettivi, f1(x(q)),..., fk(x(q)), rispetto i valori ideali, f1 ,..., fk .
Se il DM identifica degli obiettivi il cui valore non è soddisfacente, viene chiesto al DM di indicare
quali tra gli obiettivi che risultano soddisfacenti potrebbero essere peggiorati nella speranza di poter
migliorare i primi. In questo modo il DM specifica implicitamente un trade-off.
Se il DM accetta una diminuzione di ∆fh rispetto l'obiettivo fh, allora si procede ad una nuova
iterazione (q+1) definendo
{
X̂ q = x : x ∈ X, f h ( x ) ≥ f h ( x ( q ) ) − ∆f h , f j ( x ) ≥ f j ( x ( q ) ) ∀j ≠ h
X q +1 = X q ∩ X̂ q , wh=0, w j =
uj
∑ uj
4.
Metodi che usano informazione fornita a posteriori dal DM
*
Sono metodi che risolvono il VOP determinando l'insieme delle soluzioni non dominate, o un suo
sottinsieme. Queste alternative vengono proposte successivamente al DM che seleziona quella
preferita.
Non vengono fatte ipotesi sulla struttura della V(.).
Di solito sono metodi non pratici poichè il numero delle soluzioni generato può essere molto
elevato.
}
Spesso sono incorporati in altri metodi.
, Jq+1=Jq-{h}
Il metodo parametrico
j≠h
Utilizza la scalarizzazione per generare le soluzioni non dominate, ovvero risolve una sequenza di
e risolvendo il nuovo problema
problemi P(w), fissando di volta in volta i valori dei parametri w.
35
36
Se la preferenza varia in maniera monotona rispetto i valori di ciascuna funzione obiettivo e la
regione di ammissibilità delle soluzioni è convessa, facendo variare sistematicamente i valori dei
pesi w è possibile generare l'insieme delle soluzioni non dominate.
Geometricamente ciò corrisponde a determinare, nello spazio degli obiettivi, quali tra gli iperpiani
L={F(x): wTF(x)=c} sono tangenti allo spazio di ammissibilità con c massimo.
Un metodo generale per determinare le soluzioni non dominate (poco pratico):
1. Per ogni wj scegliere un insieme di valori discreti tra 0 ed 1, Wj={wj1,...,wje1}, dove wj1=0 e
wje1=1.
Generare l'insieme di k-ple W1xW2x...xWk.
2. Per ciascuna delle e1xe2x...xek combinazioni risolvere P(w).
3. Verificare se le soluzioni ottenute sono non dominate, ovvero se vale almeno una delle seguenti
condizioni:
a.
wj>0 per j=1,...,k;
b.
la soluzione è unica;
c.
la soluzione supera il seguente "test di non inferiorità" (noninferiority test)
k
δ = max ∑ α jε j
j=1
s.t.
x∈X
f j ( x ) − ε j = f j ( x * ) ∀j
ε j ≥ 0 ∀j
con αj>0, j=1,...,k
Il test è superato se δ=0;
se δ>0 la soluzione x* è dominata, e la nuova soluzione trovata e non dominata;
se δ=∞, nell'ipotesi che X sia convesso e le fj(x) siano concave (massimizzazione), non
esistono soluzioni non dominate per il VOP.
Se il problema è MOLP esiste un algoritmo basato sul simplesso per la soluzione del LVOP.
37