全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 数据分析与数据挖掘
781 0
2020-10-20
为什么我同意Geoff Hinton的观点:我相信可解释的AI被媒体过度炒作了
我实际上倾向于同意杰夫。
可解释的人工智能被媒体高估和炒作。
我很高兴他的个子高喊
需要澄清的是,我并不是说可解释性,透明性和可解释性并不重要(Geoff Hinton也不重要)
整个行业如雨后春笋般冒出一种商业模式,这种模式使所有人都对AI难以解释产生了恐惧。
他们使用诸如歧视之类的词来制造震惊感。
但是,对于初学者-在大多数西方国家-我们已经有了禁止歧视的法律。
无论媒介(AI),这些都是有效的
现在,让我们看一下可解释性本身。
Google的Cassie Kozyrkov正确地指出:“一切都归结为您如何应用算法。如果您根据项目目标来进行讨论,则无可争辩。”。
从最简单的意义上讲,这意味着如果您需要提供可解释性–您可以运行另一种可以解释结果的算法(例如基于树的算法)(例如,可以为拒绝贷款提供解释)
另一个很棒的资源是克里斯托弗·莫纳尔(Christoph molnar)的关于可解释性的免费书
我强烈推荐它,因为它显示了问题的复杂性和多方面性
例如,这本书谈到:
没有可解释性的数学定义。
可解释性具有分类法
包括特定方面:本征或事后,特征摘要统计,特征摘要可视化,模型内部(例如,学习的权重),数据点,本征可解释模型,特定于模型还是不可知模型,局部或全局?
可解释性的范围:算法透明度,全局,整体,模块化,局部,用于单个预测等
可解释性评估:应用程序级别评估(实际任务),人员级别评估(简单任务),功能级别评估(代理任务)
解释方法的属性:表达,半透明,可移植性,算法复杂性
个别说明的属性:准确性,保真度,一致性,稳定性,可理解性,确定性,重要性程度,新颖性,代表性:
好的解释是对比性的,选择性的,社交性的,专注于异常的,真实的,与被解释者的先前信念一致的,一般性的和可能的。
最后,)对可解释的人工智能以及为什么需要它做了很好的介绍。
通过共享这些链接,我希望我们可以提高讨论的水平
总而言之,我认为可解释性是特定于上下文(项目/问题)的
从业务角度看,问题有很多方面/可能的解决方案
1
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群