Algoritmo del simplesso

Da testwiki.
Vai alla navigazione Vai alla ricerca

Template:Nota disambigua LTemplate:'algoritmo del simplesso, ideato dall'americano George Dantzig nel 1947, è un metodo numerico per risolvere problemi di programmazione lineare. È citato dalla rivista statunitense Computing in Science and Engineering come uno dei dieci migliori algoritmi del secolo.[1]

Questo algoritmo fa uso del concetto di simplesso, cioè un politopo di N+1 vertici in N dimensioni, ossia un segmento di retta in una dimensione, un triangolo in due dimensioni, un tetraedro in tre dimensioni.

La programmazione lineare

Template:Vedi anche Un problema di programmazione lineare consiste nel massimizzare o minimizzare una funzione lineare definita sull'insieme delle soluzioni di un sistema di disequazioni lineari, dette vincoli.

Per esempio il problema:

{maxx+2yxy4x0y0

è un problema di programmazione lineare.

I vincoli definiscono la regione ammissibile (cioè l'insieme dei punti che soddisfano tutti i vincoli del problema, in inglese "feasible region"). Nel caso della programmazione lineare la regione ammissibile è un poliedro che può essere vuoto, limitato o illimitato. La funzione che va minimizzata o massimizzata è la "funzione obiettivo": essa in pratica calcola il "costo" di ogni soluzione dei vincoli.

È quindi obiettivo della risoluzione di un tale problema trovare tra le soluzioni che soddisfino i vincoli, quella cui corrisponde il costo minimo (o massimo, se si tratta di un ricavo).

L'algoritmo

Errore nella creazione della miniatura:
Un sistema di disequazioni lineari definisce come regione ammissibile un politopo. L'algoritmo del simplesso inizia da un vertice iniziale e si sposta lungo i lati del politopo fin quando non raggiunge il vertice della soluzione ottima.

L'algoritmo del simplesso è in grado di determinare di che tipo di poliedro si tratta e trova la soluzione ottima, che è, sotto opportune ipotesi, un vertice del poliedro, nel caso il problema abbia una soluzione ottimale finita.

L'algoritmo viene solitamente formulato su problemi posti nella cosiddetta forma standard dove si deve cioè massimizzare una funzione lineare sottoposta (in inglese "subject to" abbreviato s.t.) a vincoli di uguaglianza, e in cui le variabili siano positive o nulle:

Massimizzare γT𝐱 s.t. A𝐱=𝐛 e xi0, dove 𝐀 è una matrice, 𝐛,𝐱,γ sono vettori colonna, le xi sono le n componenti di 𝐱 e la T ad esponente è l'operatore di trasposizione.

A tale formulazione si perviene facilmente, sommando o sottraendo, a seconda della necessità, una variabile chiamata "di slack" (se sommata) o "di surplus" (se sottratta) ad un problema formulato in forma canonica γT𝐱 tale che A𝐱𝐛 e xi0. Riassumibile in un tableau del tipo (𝐀𝐛γT0), l'algoritmo si articola nei seguenti passi applicati al tableau:

  1. Verifica di ottimalità: condizione sufficiente perché la tabella sia ottima è che γi0, per ogni i=1,,n (se è un problema di massimo) o γi0, per ogni i=1,,n (se di minimo).
  2. Se non si ha ancora una tabella ottima, si sceglie una colonna h corrispondente al massimo fra i γi0 (costi ridotti positivi) (ve ne sarà almeno uno, altrimenti ci saremmo fermati al punto 1).
  3. Verifica di illimitatezza. Condizione sufficiente perché il problema sia illimitato è che nella colonna h individuata si abbiano solo valori negativi nella matrice, cioè 𝐚ih<0,i=1,,n. Dunque il problema è illimitato lungo questa direzione.
  4. Se non siamo in presenza di un problema illimitato, si sceglie il pivot che genera il minimo rapporto tra il termine noto e il coefficiente della relativa variabile nella colonna h della matrice 𝐀, cioè i=min{𝐛i𝐚ih:𝐚ih>0,i=1,,n} e si applica l'operazione di cardine.

L'operazione cardine è quella operazione che permette di spostarsi lungo una direzione ammissibile per un certo passo in modo che la nuova soluzione sia anch'essa ammissibile ma migliore di quella precedente di partenza.

Verifica di ottimalità / Criterio d'arresto

Dato il problema di programmazione lineare min{γ(𝐱):=𝐜T𝐱:A𝐱=𝐛,𝐱𝟎} si considera la base ammissibile B contenente colonne linearmente indipendenti di A. Si può riscrivere la relazione A𝐱=𝐛 come:

B𝐱B+F𝐱F=𝐛

con F matrice contenente le colonne di A escluse dalla base ammissibile B.

Ancora si può riscrivere la relazione precedente come:

B𝐱B=𝐛F𝐱F𝐱B=B1𝐛B1F𝐱F

e, andando a sostituire la relazione nella funzione obiettivo relativa al problema iniziale, si ha:

𝐜T𝐱=[[𝐜BT𝐜FT]][[𝐱B𝐱F]]
𝐜T𝐱=[[𝐜BT𝐜FT]][[B1𝐛B1F𝐱F𝐱F]]
𝐜T𝐱=𝐜BTB1𝐛+(𝐜FT𝐜BTB1F)𝐱F=𝐜T𝐱+k

con k valore costante e 𝐜T:=𝐜FT𝐜BTB1A vettore dei costi ridotti.

Sotto tali condizioni se il vettore dei costi ridotti risulta non negativo, la soluzione base ammissibile associata ad A risulta essere ottima. Ciò significa che il valore assunto dalla funzione obiettivo γ(𝐱) è il minimo globale per la funzione nel dominio considerato.

Prestazioni

Template:Senza fonte, ma in teoria non è polinomiale e si possono costruire speciali esempi in cui l'algoritmo richiede di visitare un numero di vertici esponenziale rispetto alle dimensioni del problema. Reali competitori del metodo del simplesso per problemi di grandi dimensioni sono i metodi a punti interni.

Tipi di simplesso

La descrizione data in precedenza è quantomai generica: l'idea generale di Dantzig è stata poi applicata a molti problemi pratici di ricerca operativa, quindi alla fine questo ha prodotto una lunga serie di algoritmi del simplesso, ognuno per uno specifico problema.

Citiamo in seguito alcuni dei principali metodi del simplesso:

Note

  1. Computing in Science and Engineering, volume 2, no. 1, 2000

Voci correlate

Altri progetti

Template:Interprogetto

Collegamenti esterni

Template:Controllo di autorità Template:Portale