人工智能的眼光可能会让全世界蒙蔽
现代机器的人工智能,意味着计算机程序模仿人类大脑的概念推理(无论是软件还是通过物理机器)的能力正在逐年提高。今年9月,艾伦人工智能研究所(Allen Institute for AI)显示,一门AI可以通过12年级科学测试获得90%的成绩。该研究所最近在2016年发现,没有一台机器能获得超过60%的收益。有充分的理由认为这种发展速度会持续下去,长期以来,科幻小说中的各种问题将成为当今的紧迫问题。
各国正在盲目地采用AI。在美国,政府没有主要部门研究或监管该技术,白宫的AI工作组狭ly地关注将AI用于经济,军事和安全利益。在中国,政府加大了对这项技术的投资,并已在学校开始了一项试点计划,为中国儿童做好与AI合作的准备。该课程缺少什么?关于道德或风险的任何讨论。
虽然关于人类是什么的争论已经充满了数百年的大学隔离墙,但是现在,各国政府必须认识到忽视人工智能伦理学的潜在影响,并采取措施确保技术以安全和负责任的方式发展。
就目前而言,人工智能的现有能力对人类几乎没有威胁。我们在很大程度上是安全的,因为支配人工智能的行为守则(即AI做出决策的流程)是由程序员输入的。人工程序员没有为人工智能设置的功能几乎没有。尽管可以对一台机器进行编程以伤害其他人,但它仍无法自行做出决定。然而,一种叫做神经形态芯片的东西威胁要改变这一点。
当机器不再从程序员那里获得决策过程时,机器的基本本质将发生变化,而是学习如何根据环境来表现和适应其行为-就像人类“成长”一样,并且他们的推理被告知根据他们的经验。
通过复制大脑的神经结构以及神经元通过复杂连接进行操作的独特方式,神经形态芯片就可以做到这一点。与传统的二进制编程相比,它们将允许AI以非线性方式处理信息。这些芯片实际上使机器像我们一样“思考”。
如今,许多公司都在研究神经形态技术,从IBM的TrueNorth芯片到APT的SpiNNaker,声称可以实时模拟
神经网络。SpiNNaker计划始于2006年,仅配备18个处理器,但去年安装了第百万个处理器内核。他们的目标是实时建模多达十亿个生物神经元,约占人脑的1%。鉴于当前的进展速度,看来他们会实现的。
人工智能正在迅速成为整个行业不可或缺的一部分,例如金融业,技术可以在其中完成交易者的工作;警察行动,其中AI在视频监控中为面部识别提供支持;以及医疗行业,借助AI可以比人类研究人员更快地识别新药。我们无法预测这些技术的确切发展。但是,非常清楚的是,如果没有明确的道德监督,政府将不为所动。
领先的国家是法国。由法国数学家,菲尔兹奖得主和MP Cedric Villani领导的AI 的国家战略已经建立。在今年早些时候的一次采访中,维拉尼说:“我们必须重视研究,确定我们的行业重点,在道德和法律框架以及人工智能培训方面开展工作。”
但是,国际合作的方式很少。今年6月,包括美国在内的经合组织成员国签署了新的AI原则,要求在处理开发中的技术时遵守道德规范。但是,经合组织的原则不具有法律约束力,表达意图的时间已经过去。在9月的联合国大会(UNGA)上,世界各国领导人讨论了诸如气候变化和健康覆盖率之类的话题-人工智能以及与之相关的伦理和风险甚至没有列入议程。
现在,我们需要道德监督计划来评估和规范AI。世界经济论坛的“平台”之一名为“塑造技术治理的未来”。我们需要进一步的大胆举措,更频繁的讨论,并且至关重要的是,在这种高级别的私人聚会中表现出的兴趣感和紧迫感必须反映在国际政治领域中。
随着神经形态芯片变得越来越广泛,并且人工智能已嵌入我们的日常生活中,政府不再能够将人工智能的伦理和风险视为与其应用无关的东西。即使到明年的UNGA,减轻AI增长的风险可能为时已晚。

关注 CDA人工智能学院 ,回复“录播”获取更多人工智能精选直播视频!