人工智能需要进一步的神秘化和民主化
最近,有两个特别的事件使我注意到了将AI信息民主化为治理和大众文化的重要性。第一次是在Facebook首席执行官马克·扎克伯格(Cambridge Analytica的故事)的一次国会听证会上,他在某个时候不得不解释有关Facebook收入模型的基本原理。第二个是最近由STOA(科学和技术选择评估)组织的欧盟议会小组(2017年10月),旨在为受众准备新技术及其潜在影响。我将在后者中进行更详细的说明,并指出专家对AI的性质和潜力的看法与欧盟专家和整个社会等非专家的看法之间仍然存在很大的分歧。
欧盟会议由四个发言人组成(Peter J Bentley,Miles Brundage,OlleH?ggstr?m和Thomas Metzinger),由认知心理学家Steven Pinker主持。会议成功地提出了四位专家关于AI的挑战和机遇的不同观点,范围从一个方面的反乌托邦到乌托邦,在另一个方面从乐观到怀疑。我最赞赏主持人史蒂文·平克(Steven Pinker)的开场白,他举了许多定量的例子,这些例子表明,随着时间的流逝,进步导致生活质量的提高,但趋势是消极偏见和否认这一进步。他的立场是,可以担心核战争和气候变化的潜在威胁,但不要担心某些“失控的AI”。计算机科学家Peter J Bentley清楚地指出了AI研究和产品生产的辛勤工作,旨在解决非常具体的任务,因此放弃了任何超智能都会在短期内破坏我们的生态系统的想法。Miles Brundage从人工智能的社会含义的角度提出了这一观点,并指出,只要解决了技术和治理方面的挑战,有条件的乐观主义就适合于AI的发展,并且我们提防拟人化-如此一来,便可以促进对等改进和道德规范休闲社会。在接下来的两位发言人的讨论中,焦点转移到了更加谨慎的叙述上。数理统计教授OlleH?ggstr?m的工作假设是理性乐观(如果我们致力于做正确的事情,我们可以期望获得正确的结果),但是,必须通过设置友好的AI来实现诸如AI自我保存之类的工具性目标。框架,使其价值观与我们的价值观保持一致,并在AI达到超智能水平之前进行。但是,黑格斯特伦(H?ggstr?m)认为这是一个非常困难的项目-但值得认真对待。最后,理论哲学教授托马斯·梅琴格(Thomas Metzinger)警告说,不要对人工意识进行研究,并呼吁制定道德准则,这不应该来自行业,而应该来自政治机构,我们应该致力于基于证据的风险管理。诸如AI自我保存之类的工具性目标必须通过建立一个友好AI框架来实现,使其与我们的价值观保持一致,并在AI达到超智能水平之前做到这一点。但是,黑格斯特伦(H?ggstr?m)认为这是一个非常困难的项目-但值得认真对待。最后,理论哲学教授托马斯·梅琴格(Thomas Metzinger)警告说,不要对人工意识进行研究,并呼吁制定道德准则,这不应该来自行业,而应该来自政治机构,我们应该致力于基于证据的风险管理。诸如AI自我保存之类的工具性目标必须通过建立一个友好AI框架来实现,使其与我们的价值观保持一致,并在AI达到超智能水平之前做到这一点。但是,黑格斯特伦(H?ggstr?m)认为这是一个非常困难的项目-但值得认真对待。最后,理论哲学教授托马斯·梅琴格(Thomas Metzinger)警告说,不要对人工意识进行研究,并呼吁制定道德准则,这不应该来自行业,而应该来自政治机构,我们应该致力于基于证据的风险管理。
在问答环节中问题的扩散说明了AI的范围与其理解之间的鸿沟。一个突出的问题是“人工智能对量子计算意味着什么?”。相反,现在这绝不是一个愚蠢的问题,而是获得了头奖,因为它提出了一个问题,即今天几乎不了解的潜力,而最初却很难定义的东西。其他问题反映在以下方面:使用AI识别恐怖分子的能力,如何使用AI避免激进运动,如何在AI周围提供安全网以避免在暗网中看到的问题扩散,最后,解释者应该为他们的未来担忧。对...
AI的领域定义不明确,将AI的所有表现汇总在一个保护伞下是危险的。没有“ AI”。相反,有许多不同的工具和技术被设计(通过努力)来解决特定的问题。 现在,如果我们将AI视为标签,那么通过吸收被AI标签的主题,每个人都会对AI形成自己的看法。通过标记,这是一种非常自然但危险的定义形式,因为可以保证至少执行以下操作之一。1)它将为每个人塑造不同的含义。2)一旦媒体和舆论人士开始在适合其目的的环境中标记AI,它将遭受标记参考偏差的困扰。3)这将导致意义超载,其中AI几乎归因于任何可想到的主题或概念,这使得很难进行集中讨论。上面的情况明确地导致了上下文之外的讨论,误解,错误归因,混乱和错误的政策。所有这些后果可能比破坏人类的某些超级情报突然醒来要糟得多。当然,当您在任意儿童百科全书中查找人工智能时,通常会找到一半的定义,而另一半则被定义为相反的定义。例如,维基百科将其定义为机器展示的情报,与人类和其他动物展示的自然情报相反。现在已经有一些关于人工与自然的说法。一个停在哪里,另一个停在哪里?那情报呢?那是一个湿滑的斜坡。难怪主持人对这个问题的辩论需要额外的注意,以保持一定的重点并增加价值和洞察力。在这场特别的议会辩论中,听众接触了AI影响的多个方面,很明显,问题与听众一样多。有关AI与量子计算之间的关系,有关性行业中AI代理人的权利,对工作的影响等问题。。。当问题跨越如此广泛的领域时,要么是因为主题如此,要么是范围很广,功能强大,或者定义不明确,但却笼罩在模糊的面纱中,给广大观众,尤其是决策者们带来了恐惧和不确定性。那么该怎么办呢?绝对有必要继续辩论。无疑,人们对AI的整体主题越来越感兴趣。应该花更多的精力来使这个主题神秘化,以便使观众在一个共同的理解框架中对它更加自在。去神秘化应包括阐明今天可以做什么,如何完成以及达到什么目的。应澄清对整个生态系统的影响。从中可以清楚地看到,当今的AI由解决特定问题的工具组成。很难开发这些工具,也很难解决它们所解决的问题。当更好地解释AI在其实际环境中的定义时,过度关注AI超速驾驶的潜在破坏性后果将大为改观,并且很可能导致对该领域的更多了解。它是如何完成的,目的是什么。应澄清对整个生态系统的影响。从中可以清楚地看到,当今的AI由解决特定问题的工具组成。很难开发这些工具,也很难解决它们所解决的问题。当更好地解释AI在其实际环境中的定义时,过度关注AI超速驾驶的潜在破坏性后果将大为改观,并且很可能导致对该领域的更多了解。它是如何完成的,目的是什么。应澄清对整个生态系统的影响。从中可以清楚地看到,当今的AI由解决特定问题的工具组成。很难开发这些工具,也很难解决它们所解决的问题。当更好地解释AI在其实际环境中的定义时,过度关注AI超速驾驶的潜在破坏性后果将大为改观,并且很可能导致对该领域的更多了解。
题库