全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 SAS专版
5597 2
2013-01-28
今天花时间看了一下Kappa Coefficients, 用来度量两个raters对同一事物的评价的一致性(agreement), 根据Kappa的值来判定这种一致性是偶然发生,还是有内在联系的。计算方法比较简单,而且在SAS 中使用Proc freq就可以得到,但是Kappa检验也是一个备受争议的方法,很容易导致错误的使用和解释。因此,目前,学术界对这个检验还有较大的质疑,对此,许多学者也都提出了各种改进的方法。
这里有一个不错的连接,简洁却又系统了Kappa的前世今生,废话就不多说了,直接上图。

http://www.john-uebersax.com/stat/kappa.htm#procon
http://www.agreestat.com/research_papers/kappa_statistic_is_not_satisfactory.pdf


常见的使用Kappa检验的场景是
  • Kappa statistics are appropriate for testing whether agreement exceeds chance levels for binary and nominal ratings.

Interpreting kappa
如何解释计算得出的Kappa的值呢,很多学者认为给出下面的这样一个range是非常危险的,因为有可能导致用户错误的使用该值,并且该定义并不具备通用性,不同的

场景该定义可能会截然不同,所以下面这个只是供大家一个参考,帮助大家了解Kappa检验的作用,请勿作为Best Practice.
Kappa measures the strength of agreement of the row and column variables, which typically represent the same categorical rating variable as applied by two raters to a set of subjects or items. Note that the minimum value of kappa, when there is complete disagreement, is negative. When there is perfect agreement, all cell counts off the diagonal are 0 and kappa is 1. Kappa is zero when there is no more agreement than would be expected under independence of the row and column variables. Landis and Koch ( Biometrics, 1977) give this interpretation of the range of kappa:
  • <=0 Poor
  • 0-.2 Slight
  • .2-.4 Fair
  • .4-.6 Moderate
  • .6-.8 Substantial
  • .8-1 Almost perfect


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2013-6-25 16:36:59
赞一个
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2016-12-14 15:16:35
值得学习
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群