Minimizzazione del rischio empirico

Da testwiki.
Vai alla navigazione Vai alla ricerca

Nella teoria dell'apprendimento statistico, la minimizzazione del rischio empirico (Template:Inglese, da cui la sigla ERM) è un principio che definisce una famiglia di algoritmi di apprendimento e viene utilizzato per fornire limiti teorici alle loro prestazioni.

L'idea centrale è che non è possibile sapere esattamente quanto bene funzionerà un algoritmo nella pratica (il "rischio vero") perché è ignota la vera distribuzione dei dati su cui lavorerà l'algoritmo, ma è invece possibile misurarne le prestazioni su un insieme di dati di addestramento noto (il rischio "empirico").

Contesto

In molti problemi di apprendimento supervisionato, l'impostazione generale prevede due spazi X e Y con l'obiettivo è conoscere una funzione h:XY (spesso chiamato ipotesi) che genera un oggetto yY, dato xX. Per fare ciò, si utilizza un training set con n campioni {(x1,y1),,(xn,yn)} dove xiX è un input e yiY è la risposta corrispondente da cui desideriamo ottenere h(xi) .

In modo più formale, viene assunta l'esistenza di una distribuzione di probabilità congiunta P(x,y) su X e Y, e che i campioni del training set (x1,y1),,(xn,yn) siano stati estratte in maniera i. i. d. da P(x,y). Si noti che l'assunzione di una distribuzione di probabilità congiunta consente di modellizzare l'incertezza nelle previsioni (ad esempio dal rumore nei dati) perché y non è una funzione deterministica di Template:Tutto attaccato ma piuttosto una variabile casuale con distribuzione condizionale P(y|x) per un fisso x .

Si assuma inoltre di avere una funzione obiettivo a valori reali non negativa L(y^,y) che misura quanto sia diversa la previsione y^ di un'ipotesi dal vero risultato y. Il rischio associato all'ipotesi h(x) viene quindi definita come il valore atteso della funzione obiettivo:

R(h)=𝐄[L(h(x),y)]=L(h(x),y)dP(x,y).

Una funzione obiettivo comunemente usata in teoria è la funzione 0-1:

L(y^,y)={1sey^y0sey^=y .

L'obiettivo finale di un algoritmo di apprendimento è trovare un'ipotesi h* tra una classe fissa di funzioni per cui il rischio R(h) è minimo:

h*=argminhR(h).

Per problemi di classificazione, il classificatore di Bayes è definito come il classificatore che minimizza il rischio definito con la funzione di perdita 0-1.

Minimizzazione del rischio empirico

In generale, il rischio R(h) non può essere calcolato perché la distribuzione P(x,y) è sconosciuto all'algoritmo di apprendimento (questa situazione viene definita apprendimento agnostico). Tuttavia, si calcola un'approssimazione, chiamata rischio empirico, che corrisponde alla media della funzione obiettivo sul training set:

Remp(h)=1ni=1nL(h(xi),yi).

Il principio della minimizzazione del rischio empirico[1] afferma che l'algoritmo di apprendimento dovrebbe scegliere un'ipotesi h^ che minimizza il rischio empirico:

h^=argminhRemp(h).

Pertanto l'algoritmo di apprendimento definito dal principio ERM consiste nella risoluzione del problema di ottimizzazione sopra descritto.

Proprietà

Complessità computazionale

È noto che la minimizzazione del rischio empirico per un problema di classificazione con una funzione 0-1 sia un problema NP-difficile anche per una classe di funzioni relativamente semplice come i classificatori lineari.[2] Tuttavia, può essere risolto in modo efficiente quando il rischio empirico minimo è zero, ovvero i dati sono separabili linearmente.

In pratica, gli algoritmi di apprendimento automatico affrontano questo problema utilizzando un'approssimazione convessa alla funzione 0-1 (come la hinge loss per SVM), che è più facile da ottimizzare, o imponendo ipotesi sulla distribuzione P(x,y).

Note

Bibliografia

Voci correlate

Template:Apprendimento automatico Template:Portale