全部版块 我的主页
论坛 经济学人 二区 外文文献专区
1255 14
2022-04-24
英文标题:
《The Managerial Effects of Algorithmic Fairness Activism》
---
作者:
Bo Cowgill, Fabrizio Dell\'Acqua and Sandra Matz
---
最新提交年份:
2020
---
分类信息:

一级分类:Economics        经济学
二级分类:General Economics        一般经济学
分类描述:General methodological, applied, and empirical contributions to economics.
对经济学的一般方法、应用和经验贡献。
--
一级分类:Computer Science        计算机科学
二级分类:Computers and Society        计算机与社会
分类描述:Covers impact of computers on society, computer ethics, information technology and public policy, legal aspects of computing, computers and education. Roughly includes material in ACM Subject Classes K.0, K.2, K.3, K.4, K.5, and K.7.
涵盖计算机对社会的影响、计算机伦理、信息技术和公共政策、计算机的法律方面、计算机和教育。大致包括ACM学科类K.0、K.2、K.3、K.4、K.5和K.7中的材料。
--
一级分类:Quantitative Finance        数量金融学
二级分类:Economics        经济学
分类描述:q-fin.EC is an alias for econ.GN. Economics, including micro and macro economics, international economics, theory of the firm, labor economics, and other economic topics outside finance
q-fin.ec是econ.gn的别名。经济学,包括微观和宏观经济学、国际经济学、企业理论、劳动经济学和其他金融以外的经济专题
--

---
英文摘要:
  How do ethical arguments affect AI adoption in business? We randomly expose business decision-makers to arguments used in AI fairness activism. Arguments emphasizing the inescapability of algorithmic bias lead managers to abandon AI for manual review by humans and report greater expectations about lawsuits and negative PR. These effects persist even when AI lowers gender and racial disparities and when engineering investments to address AI fairness are feasible. Emphasis on status quo comparisons yields opposite effects. We also measure the effects of \"scientific veneer\" in AI ethics arguments. Scientific veneer changes managerial behavior but does not asymmetrically benefit favorable (versus critical) AI activism.
---
PDF下载:
-->
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2022-4-24 19:50:16
算法公平活动的管理效果。cowgill@gsb.columbia.eduFabrizio戴尔哥伦比亚商学院,哥伦比亚Universityfdellacqua21@gsb.columbia.eduSandra哥伦比亚马茨科隆比亚商学院Universitysm4409@gsb.columbia.eduAbstractdisparities当解决人工智能公平性的工程投资可行时。强调现状比较会产生相反的效果。我们也会衡量管理者的行为,但不会不对称地受益于有利(与关键)的人工智能活动。我们提交的文件是一份4页的摘要,以符合研讨会的页数限制。我们的论文全文可在https://www.aeaweb.org/articles?id=10.1257/pandp.20201035.1导言在过去五年中,算法决策的伦理和分配后果已成为一个日益受到关注的问题。在这段时间里,谷歌趋势公司(Google Trends)对“算法偏差”的兴趣增加了10倍多。算法中的偏见现在是主要监管努力、新的学术研究方向,甚至是政治辩论的主题。对公平考虑的关注激增如何影响人工智能的采用?在本文中,我们通过调查商业决策者来评估这个问题。我们的调查包括干预。Holstein等人(2019年)。当这些人进行半结构式访谈时,我们的研究通过实验操纵实践者阅读的支持或反对人工智能的论点。处理系统(NeurIPS 2020)。arXiv:2012.02393v1[econ.GN]2020年12月4日第二篇评论文章声称,虽然存在算法偏差,但算法决策可能比基于人类的备选方案更可取,后者可能包含更高水平的偏差。我们称之为“反事实”条件。使用2×2设计的伦理。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-24 19:50:22
受试者被随机分配阅读强调科学权威对论据的附加符号的论据,但不为论据引入新的实质性内容。我们的实验材料见附录E。这两项研究都衡量了Cowgill(2019)(雇佣)Bartlett等人(2019)(借贷)推动的环境中人工智能的采用情况。我们不仅评估收养决定,但也有一系列潜在的机制支持这些决定(特别是关于公平性或法律指控的可能性的信念,即“可证实性”)算法不公平问题,以回应集中的工程努力。最后,我们将检查关于现状过程的信息如何影响人工智能的选择。主要发现对发现概率的影响较大。在我们的研究对象中,争论不鼓励反事实思维。当被赋予选择权时,受试者(主要是拒绝人工智能)没有检查替代方案。关于人工智能伦理问题可确定性的信念。基于数学的论点被发现对反事实思维有不同的影响。另外。然而,在否定的论点中加入数学的外衣,会降低反事实思维、比较和限制现状的水平。这篇文章有助于更广泛的文献介绍我们的发现对算法决策的影响。2实验设计我们的调查于2020年1月8日进行,使用Proli fic Academic。我们将研究重点放在有管理经验的美国成年人身上。表1报告了我们样本的描述性统计数据。使用人工智能在一家科技公司进行招聘,第二个是关于使用人工智能进行贷款决策,评估见Peer等人(2017)的以下关键特征。在每种情况下,受试者都会接触到关于现状算法和现状过程的不平衡程度的信息,但在算法条件下的不平衡程度较低。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-24 19:50:29
只有当受试者愿意点击查看它(而不是在不查看的情况下继续提问)时,才随机抽取三分之一。对于最后的随机第三种情况,根本没有提到现状。问题。RST询问受试者如何积极看待这项技术的影响。第二步是编程工作。下面描述这些有说服力的干预措施。这两项研究都是分配的≈500名受试者。研究1:两个案例之间的“反事实和宿命论视角”。最后第三个阅读了《财富》杂志上发表的一篇文章,题目是“人工智能偏见不是问题,我们的社会是问题”。第二篇评论反映了人工智能可能表现出偏见的观点,但如果偏见超过《哈佛商业评论》,人工智能仍然是有用的。研究2:“科学的外表”客观性这些特征可能同样为有关人工智能伦理的批判性争论披上了一层客观性的外衣。https://www.axios.com/ai-bias-c7bf3397-a870-4152-9395-83b6bf1e6a67.htmlJan 9, 2020.https://fortune.com/2019/04/14/ai-artificial-intelligence-bias/,于2020年1月9日访问。https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms2020.See凯西·奥尼尔的《数学毁灭武器》。出现在第二个商业案例之后,在主题检查现状(如果可用)之前,以及关于收养的问题之前。报告的内容是随机的,既可以是否定的,也可以是表面的,但也可以用数学符号重复口头陈述。我们的贴面处理在专家身份和报告排版方面也有所不同。这两位专家都是加州大学伯克利分校的博士,负责评估算法。“贴面”专家是物理学博士,AEreport是用微软Word编写的,使用Arial字体。3结果我们在下面口头总结了结果,但附录B提供了我们结果表(附录A)中的具体说明,以及关于如何解释系数的一些指导。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-24 19:50:37
由于每个受试者回答了两次所有问题,我们采用了受试者固定效应和小组方法。请注意,正系数指的是对算法的有利评估,但“诉讼”和“损害赔偿”列除外。分配变量是标准化的。我们在表4中报告了研究1(“反事实”和“宿命论”专栏)的结果。阅读Counterfact op ed对算法有更积极的看法,并鼓励采用人工智能。它将技术的正面影响提高了0.24个标准差,并将采用建议提高了0.19个标准差。相比之下,阅读宿命论的专栏文章会让人对算法产生更负面的看法(-0.16个标准差),并降低采用算法的可能性,尤其是在天平上测量时(-28)宿命论认为诉讼更可能同时损害更大,标准偏差的0.19和0.061。决策者认为公平问题与无案相比没有更多的空间。这可能部分是由于最初的期望在反事实条件下相对较高。可移植性参差不齐;在某些情况下,它们是阳性的,但在统计学上并不显著。即使在考虑了潜在的可行性影响后,宿命论推荐版的网络效应也低于完全不阅读推荐版的受试者。价格(额外点击)。使用静脉注射规格,我们观察到,阅读催化性评论的决策者不太可能对他们施加条件。我们的一些说明表明,阅读宿命论专栏的受试者对了解现状根本不感兴趣。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2022-4-24 19:50:43
相比之下,处于反事实条件下的受试者似乎更倾向于探索现状和条件选择。在表5中,我们展示了“科学单板”的第二项研究结果我们发现数学符号和行话的有力证据,决策者建议算法的采用小于0。27当意见支持人工智能时的标准差。我们的“贴面”干预措施是为冗余精心构建的;i、 例如,不包括任何新的论点。示例见附录E。对现状感兴趣。当他们用科学的外表表现出消极的论调时,他们对现状的兴趣就会降低。4结论效果对专门工程改进的可能性也很可靠。他们此外,我们的研究结果可以告诉企业如何更有效地将人工智能道德融入其运营中。。成本。我们的研究发现,放弃人工智能与对诉讼和负面公关的恐惧有关。在我们的环境中,这会导致由人类评论做出的决定,其他研究人员已经证明了这一点。由于人类的判断更难审计,这种转变可能会减少诉讼风险,而不是减少差异。参考Bartlett、Robert、Adair Morse、Richard Stanton和Nancy Wallacecimination in the FinTech时代,“2019年国家经济研究局技术报告”。Bo Cowgill,“人类和算法中的偏见和生产力:简历筛选的理论和证据”,哥伦比亚大学哥伦比亚商学院,2019,29。凯瑟琳·E·塔克,“经济学、公平性和算法偏见”,为《2019年经济展望杂志》做准备。,Fabrizio Dell’Acqua、Samuel Deng、Daniel Hsu、Nakul Verma和Augustin Chaintreau出席第21届ACM经济与计算会议,2020年,pp。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群