人工智能伦理
当我们想象人工智能背景下的最坏情况时,就会想到机器学习中的伦理。例如,我们可以考虑《 2001:太空漫游》中的HAL 9000和《终结者》电影中的天网,或者最近来自《复仇者联盟》中的Ultron。可悲的是,所描绘的大多数自觉式人工智能背后的主要思想是,它们变得有知觉,其唯一目的是摧毁人类以确保其生存。
虽然这样的情况并非不可能,但幸运的是,这种反乌托邦式的未来还有一段路要走。但是,人工智能中迫切需要解决的道德问题,我们现在需要考虑。在《终结者》系列中,机器并没有因为他们正在学习数据并对其进行操作而感到恐惧,这毕竟是AI的目的。他们之所以害怕,是因为他们正在从数据中学习并以意想不到的方式采取行动,这些无意的后果是当今AI社区面临的最大的道德困境之一。当然,这可能是由于编程错误而发生的,对于AI,更可能是在指定或训练模型时发生错误。
训练数据
急于宣传酷炫的新AI。微软研究人员创建了Tay,这是一种自然语言处理实验,由聊天机器人组成,可以训练青少年bot语的细微差别。2016年3月23日,微软在推特上发布了Tay,不到16小时,从14岁到18岁的用户就将该机器人变成了纳粹分子,微软不得不退出实验。后来,微软用Zo代替了它,它是一个聊天机器人,到目前为止,它仍然可以正常工作并且模仿少女的会话模式,大多数流行的聊天服务都可以使用它。
显然,道德培训对于AI设计师和开发人员非常重要。项目的技术方面不是唯一重要的方面,考虑与之进行对话的用户也非常重要。
偏压
2015年6月,当Google的新照片标记算法错误地将一对黑人夫妇归为大猩猩时,他们陷入了尴尬的境地。工程师迅速而抱歉地做出了回应,但这种偏见已经显现出来。火车数据中根本没有足够的有色人种来使算法正确地对照片进行分类。
尼康公司也发生了这种情况,缺乏多样性和培训数据将继续是一个主要的道德问题,因为它以开发人员无法想象的所有方式表现出来。即使是无意的,隐性偏见也起着巨大的作用。全面的道德培训应包括有关多样性和内在偏见的章节。
安全
安全是另一个主要问题,应该指出,人工智能可以大大提高我们的安全性。从特斯拉的碰撞预测和警告系统到联邦政府强制性的积极火车控制程序,该程序旨在阻止火车之间的正面碰撞。人工智能可以做人类无法做到的事情,并且可以在人类容易出错时介入,尽管我们对人工智能的信任越多,我们就越需要意识到固有的风险。
像Roomba之类的东西所带来的危害不会比吓the猫或挠地板要大,但是我们选择特斯拉这样的自动驾驶仪,赌注会大大增加。一个人已经被杀,是因为他正在看电影时完全信任特斯拉的自动驾驶仪,尽管系统警告了他多达七次,但他却忽略了警告,并在撞车事故中丧生。作为工程师,我们不仅必须将安全功能集成到我们的算法中,而且还必须确保用户了解风险以及如何安全地操作我们的产品。
您可能熟悉Isaac Asimov的机器人三定律。它们是:第一,机器人可能不会伤害人类,也可能由于无所作为而使人类受到伤害。第二,机器人必须服从人类的命令,除非这些命令会与第一定律发生冲突。第三,只要这种预测与第一定律或第二定律不冲突,机器人就必须保护自己的存在。后来增加了几部法律,围绕它们有很多辩论,但是这是原始的三部法律,它们是由艾萨克·阿西莫夫(Isaac Asimov)于40年代制定的,它们又受到了许多辩论,但事实是,这些实际上不是政府或国际社会制定的法律,而是科幻小说家的指导方针。
实际上,会造成伤害的自主机器人已经出现。我们当然拥有开发它们的技术。关于我们围绕危害人类的自主机器制定的法律,存在着广泛的争论。这个话题在很大程度上是前所未有的,也许与诸如古怪而不是像太空战争之类的不可思议的事物相抗衡。如果我们尚未建立道德基础,那么进入这个未知领域的唯一指导就是我们对道德的现有掌握。
那么什么是良好道德?通过一些先前的案例研究,您可以开始理解,存在某种形式的道德需求。最终,这是一个棘手的问题,我们开始用机器学习的二进制1和0分开,跌入模糊的哲学世界。亚里斯多德(Aristotle)辩称,在他的《尼古玛主义》第一本书中,我们都可以同意我们的行动目标是获得某种好处,但是我们对好处的看法是我们与众不同的原因。界定良好道德仍然是一个尚未解决的问题,但是,这始终是亟待解决的问题。随着处理器技术的进步,近年来,
机器学习算法的复杂性已大大提高。
道德与法规
调节AI很难
“我一直在敲响警钟,但是直到人们看到机器人在街上撞死人,他们才知道该如何做,因为它看起来如此空灵,他们不知道该如何反应”
?伊隆·马斯克
这句话应该引起大家的注意,麝香和他的努力正在使用一些最先进的AI,因此他是该主题的可靠来源。谷歌大脑研究人员大卫·哈德(David Hard)的信誉同样令人信服,他认为真正的问题将在于人类如何利用统计数据和机器学习掩盖不道德的行为。我相信,哈德(Hard)的主张对眼前的需求更为紧迫,而埃隆·马斯克(Elon Musk)的主张更受关注。但是无论如何,政府将很难调节人工智能。
2012年10月,一家意大利法院以误杀罪判处其科学家六年徒刑,原因是他没有预测会导致300多人丧生的地震。这个句子最终被推翻,科学家们争辩说,这开创了一个危险的先例,因为担心报复错误答案,这很可能使其他科学家不愿从事重要的工作。在阻止过??失行为但要鼓励研究和发现之间要寻求一种平衡。这可能是一场道德艰难的战斗。
“计算机科学家和工程师必须检查机器道德的可能性,因为他们是否知道他们已经从事某种形式的工作”
?JH摩尔
这是事实,只要您使用这些非常高级的功能,便会从事某种道德行为或不道德行为。为此,有必要将道德培训整合到计算机科学的核心课程中,也许它应该出现在所有技术课程中。迈出这一小步可以对后代的研究人员和工程师产生重大影响。
结论
正在锻造AI前沿技术的硅谷先驱者,或者就此而言,介入这种技术设计的任何人,都需要自己运用它以建立强大的道德标准。创建具有高道德标准的整体文化为AI能够壮成长而不会造成有意或无意的伤害奠定了坚实的基础。但是现在是考虑的时候了,如果我们再等下去将道德规范纳入对话,那就太迟了。
1