全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 学道会
993 2
2019-07-05
TCAV:揭示算法为什么会有“算法歧视”

学习笔记:算法也像它的人类缔造者一样,存在着各种偏见和歧视。算法歧视属于社会结构性歧视的延伸,因为算法的有效性建基于大量数据材料分析,而这些材料大多都源自社会现实,算法的可解释性和透明度就显得无比重要。
Google的TCAV(Testing with Concept Activation Vectors,概念激活向量测试)技术是一种算法可解释性的方法,能够直观显示神经网络模型运算所依据的概念及其比重。TCAV可以让我们可以理解算法思考过程的每一步:因为A得到B,所以C,最后得出了D。而不是像以往的AI那样给予A的输入便获得D的结果。因此,普通人也能够轻松理解算法的“思维”。

心得与思考:个人理解,算法本身是清白的,依赖于使用。是不是有选择、考量学习所使用的样本的“无偏性”、属性性质的方法呢?从样本入手,降低“歧视性”?TCAV从输出端着手,从输入着手是不是更有效?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2019-7-5 12:02:13
thanks for sharing
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-7-5 16:03:00
学习笔记奖!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群