Kappa di Cohen

Da testwiki.
Versione del 14 mag 2019 alle 17:19 di imported>Bladerun (Ho specificato meglio il primo paragrafo, che descriveva il concetto in modo approssimativo)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Vai alla navigazione Vai alla ricerca

Template:S Il Kappa di Cohen è un coefficiente statistico che rappresenta il grado di accuratezza e affidabilità in una classificazione statistica; è un indice di concordanza che tiene conto della probabilità di concordanza casuale; l'indice calcolato in base al rapporto tra l'accordo in eccesso rispetto alla probabilità di concordanza casuale e l'eccesso massimo ottenibile.

Questo valore deve il suo nome allo scienziato Jacob Cohen.

Attraverso la matrice di confusione è possibile valutare questo parametro:

κ=Pr(a)Pr(e)1Pr(e),

dove Pr(a) è data dalla somma della prima diagonale della matrice divisa per il totale dei giudizi e rappresenta la percentuale di giudizio, di fatto, concorde tra i giudici.

Mentre Pr(e) è il prodotto dei totali positivi sommato a quelli negativi, il tutto diviso per il quadrato del totale dei giudizi (PP+NN)/T2, e rappresenta la probabilità di accordo casualmente. Infatti P/T è la percentuale di valutazioni positive "reali" (o assegnate da uno dei due controllori) e lo stesso in modo analogo per P/T, N/T ed N/T; la probabilità di accordo positivo (casuale o statistico) tra i due è quindi P/T*P/T=PP/T2 così come quella di accordo negativo è N/T*N/T=NN/T2, da cui si ottiene la formula per la percentuale di accordo casuale, sommando le due probabilità.

Se κ=1, allora la statistica rappresenta il caso ottimo. Infatti 1<=κ<=1.

Esistono diversi "gradi di concordanza", in base ai quali possiamo definire se Kappa di Cohen è scarso o ottimo:

  • se k assume valori inferiori a 0, allora non c'è concordanza;
  • se k assume valori compresi tra 0-0,4, allora la concordanza è scarsa;
  • se k assume valori compresi tra 0,4-0,6, allora la concordanza è discreta;
  • se k assume valori compresi tra 0,6-0,8, la concordanza è buona;
  • se k assume valori compresi tra 0,8-1, la concordanza è ottima.
  Valori
reali
  p n totale
Valori
predetti
p' Veri
positivi
Falsi
positivi
P'
n' Falsi
negativi
Veri
negativi
N'
totale P N

Template:Statistica Template:Controllo di autorità Template:Portale