全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 数据分析与数据挖掘
976 0
2020-08-19
AI道德挑战:了解被动与主动道德
我的几个朋友向我发起挑战,要求我参与AI伦理讨论。我当然没有接受任何特殊的道德培训。但是话又说回来,也许我愿意。从我小的时候起,我就一直在大多数星期天去教堂(而不仅仅是在圣诞节前夕),并且从圣经中学习了很多“道德”课。因此,分别让我尽我最大的努力来分享我对AI道德主题至关重要的想法。
什么是AI伦理?
道德被定义为道德原则支配一个人的行为或行动,其中的道德原则是通常由个人或社会团体接受的“对与错”的原则。“对与错”行为……不完全是简单地用简单的数学方程式就可以将其编码的东西。 这就是使AI道德讨论如此具有挑战性和重要性的原因。
要了解AI伦理困境,首先必须了解AI模型如何做出决策:
AI模型依赖于与环境互动学习的“ AI理性主体”的创建,其中以行为相关的奖惩定义为指导。
“ AI理性主体”寻求做出“正确”决策的奖励和惩罚受到AI效用函数中所代表的价值定义的限制。
为了创建做出“正确”决定的“ AI理性代理人”,AI效用功能必须包含“价值”的整体定义,包括财务/经济,运营,客户,社会,环境和精神等。
底线:把“ AI理性剂 ”确定“ 是非基于的定义中的” 值作为挂接在AI效用函数(参见图1)。
简单吧?
图 1:AI Rational Agent根据AI Utility Function做出“正确”决策
恐吓我的不是AI模型。我不担心AI模型不会按设计工作。 到目前为止,我的经验是AI模型可以很好地工作。但是,关键是AI模型将努力精确地优化人类已经通过AI Utility Function进行编程的内容。
这就是我们应该关注AI伦理对话的地方,因为人类倾向于做出错误的决定。如果您对此声明存有疑问,请访问拉斯维加斯(或阅读“数据分析和人类启发式:如何避免做出糟糕的决定”)。人们努力定义将根据这些行为进行衡量的规则有时会导致意想不到的后果。
意外后果的后果
简化流程以定义用于监视任何复杂业务计划的措施是幼稚的,并且最终是危险的。文章“十个令人意想不到的后果的迷人例子”详细介绍了“被认为是好事”的行动,这些行动最终导致灾难性的后果,包括:
该SS伊斯特兰,一个糟糕设计的,笨拙的容器,意在通过增加几个救生艇进行更安全。不幸的是,救生艇的超重导致船舶倾覆,从而困住并杀死了甲板下方的800名乘客。
凡尔赛条约要求德国放弃投降条款以结束第一次世界大战。不幸的是,这些条款使阿道夫·希特勒及其追随者获得了权力,导致了第二次世界大战。
烟熏熊野火预防运动创造了数十年非常成功的防火措施。不幸的是,这破坏了对森林健康至关重要的正常火灾过程。结果是大火摧毁了道路上的所有物体,甚至毁坏了在正常火灾条件下已经屹立数千年的巨大松树。
有关正确定义衡量进步和成功的标准所面临的挑战的更多见解,请参见“错误措施的意外后果”。并且,如果您想知道它可能带来的不好,请查看“现实世界数据科学挑战:何时'足够好',实际上'足够好”,以了解错误肯定和错误否定的代价。是的,定义不正确的度量标准以及对误报和误报成本的理解不足会导致灾难性的后果(请参阅波音Max 737)!
通过汇集各种甚至冲突的观点来彻底辩论和定义AI实用程序功能,可以减轻意外后果和与误报和误报相关的成本。
定义AI Utility功能
要创建一个“理性的AI代理”以理解如何区分“对与错”行动,AI模型必须在一个整体的AI实用程序函数的基础上进行工作,该函数在各种经常相互冲突的维度中考虑“价值”。例如,增加财务价值,同时降低运营成本和风险,同时提高客户满意度和推荐的可能性,同时提高社会价值和生活质量,同时减少环境影响和碳足迹(见图2)。
图 2:“为什么实用程序确定对于定义AI成功至关重要”
如果我们要创建能够利用AI理性代理来做出正确与错误决策的AI Utility Function,则道德必须成为这些价值维度之一。这给我们带来了一个非常重要的概念- 被动伦理与主动伦理之间的区别。
被动伦理与主动伦理
在辩论伦理学时,我们必须考虑被动伦理学与主动伦理学之间的困境。它始于一个我们都在很小的时候就学过的故事-好撒玛利亚人的寓言。
耶稣讲述了一个犹太旅行者的故事,他被剥夺衣服,殴打并在马路旁丧生。先是一个牧师,然后是一个利未人,但都避开了那个人。最后,撒玛利亚人(撒玛利亚人和犹太人互相鄙视)发生在旅行者身上,无论如何帮助受虐者。撒玛利亚人用绷带包扎伤口,将他运送到他的野兽上休息并医治,并支付撒玛利亚人在旅馆的照顾和住宿费用。
牧师和利未人在“无害” 的被动道德规范下运作。从技术上讲,他们没有做错任何事情。
但是在由AI模型驱动的世界中,这种思维方式是完全不够的。我们的AI模型必须通过“做善事”来拥抱主动道德。也就是说,我们的AI模型和指导AI模型操作的AI Utility Function必须积极寻求行善。
善良撒玛利亚人的寓言很好地说明了“无害”与“做好”之间的巨大差异。
人工智能伦理摘要
让我们用一个简单的道德测试(我称为“妈妈测试”)来包装有关AI道德的博客。 运作方式如下:如果您要告诉妈妈您在特定问题上采取了哪些决定或采取的行动,那么她会对您的决定感到骄傲还是失望?除非您的母亲是Ma Baker,否则简单的测试可能会最大程度地减少我们对AI道德的担忧。
当人类定义AI实用程序功能来区分对与错决策时,我们必须了解被动道德与主动道德之间的差异。 否则,准备好生活在被终结者广泛追捕的世界中,因为正如阿诺德所说:“我会回来的” ...

关注 CDA人工智能学院 ,回复“录播”获取更多人工智能精选直播视频!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群