Perplessità

Da testwiki.
Vai alla navigazione Vai alla ricerca

In teoria dell'informazione, la perplessità è una misura dell'incertezza riguardo il valore di un campione tratto da una distribuzione di probabilità discreta.

È una misura di predicibilità legata all'entropia: maggiore la perplessità, meno probabile che un osservatore riesca a predire un valore estratto dalla distribuzione.

Il termine è stata proposto originariamente nel 1977 in un lavoro di F. Jelinek et al. sul riconoscimento vocale.

Essa è molto usata nell'apprendimento automatico e nella modellizzazione statistica.

Definizioni

La perplessità PP di una distribuzione discreta p è definita come segue:

PP(p)2(p)=2xp(x)log2p(x)=xp(x)p(x)

dove (p) è l'entropia (in bit) della distribuzione e x varia su tutti gli eventi, i valori che una variabile aleatoria X con distribuzione p può assumere.

Si noti che la base del logaritmo non è necessariamente 2, essendone la perplessità indipendente a patto che entropia ed esponenziale usino una stessa base.

Dato un insieme di dati 𝒟, con la relativa distribuzione empirica p𝒟, si possono misurare le qualità predittive di p su 𝒟 mediante la seguente definizione della perplessità:

PP(p𝒟,p)2ce(p)

dove ce denota l'entropia incrociata delle due distribuzioni.

Riferimenti

  • Jelinek, F.; Mercer, R. L.; Bahl, L. R.; Baker, J. K. (1977). "Perplexity—a measure of the difficulty of speech recognition tasks". The Journal of the Acoustical Society of America. 62 (S1): S63. bibcode:1977ASAJ...62Q..63J. doi:10.1121/1.2016299. ISSN 0001-4966.