全部版块 我的主页
论坛 经济学论坛 三区 行为经济学与实验经济学
732 4
2017-03-11
霍金:人工智能进化或威胁人类 应组建“世界政府”应对

“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”英国著名天体物理学教授斯蒂芬·霍金在接受英国《泰晤士报》采访时再次发出警告。

据英国《独立报》3月8日报道,此前霍金就曾经多次警告人工智能可能会对人类自身带来威胁,他在此次接受采访时表示,人类必须建立有效机制尽早识别威胁所在,防止新科技对人类带来的威胁进一步上升。

“自从人类文明开始以来,侵略便一直存在,往往出现在相对具有生存能力优势的不同群体之间,而未来人工智能进一步发展便可能具备这种‘优势’”,霍金解释自己的警告时说道,“他们本身也是生根于达尔文的进化论之中。因此人类需要利用逻辑和理性去控制未来可能发生的威胁。”

在谈及具体的建议时,霍金说,人类可以组成一定程度与形式上的“世界政府”用于防止科技和人工智能可能带来的威胁,不过他也同时表示“世界政府”本身也将是问题的来源。

2015年8月,霍金在美国Reddit网的问答互动中首次提出自己对于人工智能的“威胁论”。此前霍金曾在《卫报》上撰文表示,“人类的生存环境正在改变,这种改变大于历史上的任何时期,需要我们人类抛弃世俗的政治观念,从种群的角度开展合作。”
转自:http://culture.ifeng.com/a/20170310/50767778_0.shtml
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2017-3-11 10:38:42
谢谢分享
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2017-3-11 12:16:00
i think he has a great point, it is just a matter of time...
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2017-3-11 13:45:32
谢谢楼主分享!
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2017-3-11 13:45:48
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群