Em estatística, fiabilidade entre avaliadores, concordância ou concordância entre avaliadores é o grau de concordância entre avaliadores. Ele dá uma pontuação de quanta homogeneidade, ou consenso, existe nas classificações dadas pelos juízes.
As Kappas aqui cobertas são as mais apropriadas para dados “nominais”. A ordenação natural dos dados (se existir alguma) é ignorada por estes métodos. Se você vai usar estas métricas, certifique-se de que você está ciente das limitações.
Existem duas partes para isto:
Calcular a concordância observada
Calcular a concordância por acaso
Vamos dizer que estamos a lidar com respostas de “sim” e “não” e 2 avaliadores. Aqui estão as classificações:
rater1 = rater2 =
Tornando estas classificações numa matriz de confusão: