随着大型科技公司、警察部门、保险公司和大学招生办公室越来越依赖算法来做出长期决策,我们必须退后一步来考虑算法决策的社会影响。
有许多
人工智能算法在社会中表现出性别和种族偏见的例子,包括那些在刑事司法系统、企业招聘和其他商业战略中做出决策的例子。公司和机构不太可能试图加剧种族、性别和社会经济不平等,但他们的算法最终是如何做到的呢?
算法决策出错的地方
专注于可解释的 AI 算法对于防止此类偏见至关重要。当技术供应商构建可解释的 AI 版本时——能够证明他们所有预测的合理性——这将提高透明度,并有助于识别任何潜在问题以防止偏见。但是,识别模式取决于人类。反馈和分析对于识别可能导致偏差的任何限制分类器至关重要。
可解释性是关键,没有透明度,算法偏差是不可避免的。还,
机器学习算法的好坏取决于它们所基于的数据。如果向算法提供不完整的数据、不具代表性的数据或带有人类历史偏见的数据,就会出现问题。
正如数学家 Cathy O'Neil 在她的《数学毁灭武器》一书中警告的那样,如果不能适当地缓解,算法可以编纂过去,强化现状,并使社会不平等现象永久化。对于不完整的数据集,算法会强化现状。
解决方案是什么?
为了防止算法决策中出现偏差,公司必须进行定期审计,以确保在实施人工智能工具之前、期间和之后的“算法卫生”。
进行审计:
请务必经常检查您的算法是否存在偏见,并删除您发现的任何有偏见的关联。对事物进行适当分类很重要,因为这些决定本质上是政治性的。正如 O'Neil 指出的那样,“这些模型不仅是根据数据构建的,而且还根据我们对哪些数据应该关注和哪些数据的选择做出的选择。”
从用户那里获得反馈:
除了在内部衡量算法的性能外,寻求客户的反馈也很重要。用户可以识别不恰当地推销给他们的内容,包括来自对话式 AI 助手的奇怪建议、不相关的电子邮件以及许多其他算法错误。
确保您的 AI 工具透明且可解释:
尽管软件公司的算法通常是其知识产权的一部分,但重要的是要避免“黑盒效应”。当您自动化您的电子邮件、流程和决策时,您的 AI 需要是可解释的。对于任何给定的自动化行为,开发人员必须能够解释为什么算法会参与该特定的行动过程。
原因之一比利·比恩点球成金理论之所以如此有说服力,是因为 Bean 的决策算法是透明的。奥尼尔写道,“棒球模型是公平的,部分原因是它们是透明的。每个人都可以访问统计数据,并且或多或少地了解它们是如何被解释的。” 软件公司应遵循这一趋势,独立制定决策算法,并确保这些算法尽可能透明。通过透明的算法和频繁的审核,您将确保您的客户满意并且您的算法没有偏见。
相关帖子DA内容精选
- 大厂数据分析面试指南!来自亚马逊、谷歌、微软、头条、美团的面试问题!
|