摘要:随着人工智能和机器学习技术在互联网的各个领域的广泛应用,其受攻击的可能性,以及其是否具备强抗打击能力一直是安全界关注的。之前关于机器学习模型攻击的探讨常常局限于对训练数据的污染。由于其模型经常趋向于封闭式的部署,该手段在真实的情况中并不可行。在Geek Pwn2016硅谷分会场上,来自北美工业界和学术界的项尖安全专家们针对当前流行的图形对象识别、语音识别的场景,为大家揭示了如何通过构造对抗性攻击数据,要么让其与源数据的差别细微到人类无法通过感官辨识到,要么该差别对人类感知没有本质影响,而
机器学习模型可以接受并做出错误的分类决定,并且同时做了攻击演示。本文将详细介绍专家们的攻击手段。
原文链接:http://www.cqvip.com/QK/88457X/201705/672155673.html
送人玫瑰,手留余香~如您已下载到该资源,可在回帖当中上传与大家共享,欢迎来CDA社区交流学习。(仅供学术交流用。)