将道德与数据管理和人工智能相结合可以建立一个人们信任的组织。道德行为促进人类互动(包括商业)的顺利运作,并支持整个社区。
人工智能具有做出道德决策的潜力,并可用于与客户群建立健康的关系。
企业可以大致分为两个基本类别——依赖稳定的新客户流的企业和努力建立回头客群的企业。互联网企业要想取得真正的、长期的成功,必须应用基本的道德保障在收集和使用数据方面。一个组织的长期可持续性是基于对信任的期望。对于处理数据的公司,其道德使用已成为所有信任模型设计的核心特征。
有能力从大局看现实的人通常是有道德的。还有一些人似乎天生就是道德的,好像这是他们基因结构的一部分。然而,大约 30% 的人口似乎对不同程度的不道德行为(主要是盗窃和欺骗)感到满意。他们通常缺乏同理心,无论是通过培训还是遗传。一般来说,不道德的行为会损害个人和整个社区,同时奖励个人或小团体。(至少,在短期内)。
数据管理和道德
伦理道德数据管理可能是模棱两可的,并有可能限制短期利润。因此,过去一些公司只是简单地避免讨论这个问题——在与互联网提供的不知名的客户群打交道时,同理心和道德问题很容易被阻止和忽视。这种缺乏道德行为导致了法律的制定(社会为执行道德而做出的努力),因为公众越来越意识到他们的个人数据和行为模式是如何被操纵的。
在欧洲,互联网企业缺乏道德行为受到了重视,并导致制定了被称为《通用数据保护条例》(或GDPR)。这些法律保护欧盟公民的权利数据隐私,并且在欧盟开展业务时必须考虑到这一点。从数据管理的角度来看,必须遵守这些法律,否则企业将面临支付巨额罚款的风险。(在退出欧盟后,英国通过了自己的 GDPR 版本。)
在美国,加利福尼亚也实施了类似的法律(CCPA),但在全国范围内没有可与 GDPR 相媲美的法律或法规。美国的大多数互联网消费者没有同样的法律保护,在追求利润时忽略了“道德考量”。在选择如何将道德规范纳入其数据管理计划时,有四个难题可能对企业有所帮助:
出售这些数据是否会让个人在不知不觉中被操纵?
数据是否真实准确?
个人权利是否受到侵犯?(谁拥有数据?)
数据使用得当吗?(共享有关性行为的数据可能有益于科学,但如果涉及特定的、具名的个人,则可能被认为是不道德的。)
数据只是一种工具。就其本身而言,它没有伦理意义。另一方面,它的使用方式确实具有伦理意义。对数据做什么(或不做什么)引发了关于我们如何收集数据、如何保护数据以及如何使用数据的道德问题。
信任因素
信任不是固定的、永久的特征。虽然最初可以免费给予,但它可能会在瞬间丢失,然后只能随着时间和一系列积极的体验而重新获得。信任是基于满足期望— 在大多数工业化国家开展业务时,诚实是一种期望。诚实是道德行为的主要组成部分,传达“可靠的信息”,这总体上非常有用,对于维护数据的完整性.
故意歪曲数据以支持隐藏议程的典型例子是一些银行雇员,他们处于权威地位,他们秘密决定将种族偏见纳入银行的贷款筛选过程。法律规定,在贷款决策中无法使用种族,这些银行员工创建了一个程序,根据他们居住的社区来筛选人们。从大局来看,这种行为是在规避法律,扭曲数据的完整性,减少潜在利润,并通过阻碍特定社区的人们的成长和改善来损害社区。换句话说,这是不道德的。(一旦被发现,这种失真通常被称为“立即纠正的错误”。)
另一个例子来自谷歌,并展示了算法如何无意中转变为不道德的“偏见”行为。2016 年,谷歌不得不处理其一种助长偏见的算法。谷歌有一种算法,可以根据问题的受欢迎程度来预测被问的问题。例如,在 2016 年,当在搜索引擎中输入关于少数群体的部分查询时,该算法会为查询呈现各种结尾,第一个选项是一个刻板的响应,导致许多反少数群体的网站,促进过程中的偏见。谷歌立即修复了这一特定问题,但该示例表明,如果没有人注意,意外的不道德行为很容易通过算法发生。
它会变得多么糟糕
假新闻现在是一种众所周知的现象,并且将变得更加难以发现,这要归功于生成对抗网络. 尽管仍然是一项相当新的技术,但它足以引起一些严重的道德问题。
该过程使用算法架构来构建两个
神经网络。然后,这两个 AI 网络相互“对抗”(“对抗性地”,应用博弈论技术),目标是构建与现实相当的幻觉。“生成器网络”将向量构建到音频矩阵或图像中。输出被输入所谓的“鉴别器网络”,该网络学习如何区分真实内容和计算机生成的内容。这两个网络协同工作和学习。随着生成器网络不断学习和改进其欺骗鉴别器网络的技术,鉴别器网络开发了越来越好的技术来识别人工生成的内容。
这个过程产生的结果看起来和听起来都像现实的录音。然而,这是假新闻。虽然这些生成性对抗网络确实具有创造艺术和政治幽默的巨大潜力,但也存在利用它来制造假新闻和广告的危险潜力。单个欺骗性视频可能会对组织或个人的声誉造成重大损害。
用道德规范构建人工智能
2017 年,亚马逊首席执行官杰夫·贝佐斯 (Jeff Bezos) 给股东写了一封信,称:
“在过去的几十年里,计算机具有广泛的自动化任务,程序员可以用清晰的规则和算法来描述这些任务。现代
机器学习技术现在允许我们对描述精确规则更加困难的任务做同样的事情。”
虽然有几种方法人类可以将道德标准应用于他们的数据收集和使用,人工智能提供了一种新颖的、标准化的方法,将道德纳入数据处理中。(它还可以防止企业违反法律——GDPR 和 CCPA。)
人工智能/机器学习可以在收集和处理数据时提供强大的治理机制。人工智能使用的道德规范应该反映组织的道德规范,这将涉及讨论和确定这些道德规范是什么。如果组织足够大,建立一个伦理委员会是合适的。在使用“基于共识”的决策模型时包括反对道德和偏袒利润的人将是灾难性的。广告和实际使用道德准则确实具有获得客户和公众信任的效果。
尽管创建算法支持道德决策可能听起来很简单,但偏见问题可能会无意中浮出水面。我们都有无意识的偏见,机器学习可以放大这些偏见。了解数据如何影响道德算法设计有助于防止偏见在人工智能系统中发展,定期监控可以防止其意外发展和维持偏见。在某些时候,在人工智能/机器学习中安装道德计划可能会成为一项法律要求——社会努力执行道德。
相关帖子DA内容精选
- 大厂数据分析面试指南!来自亚马逊、谷歌、微软、头条、美团的面试问题!
|