全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 数据分析与数据挖掘
745 0
2020-07-28
AI缺陷如何帮助我们
人工智能(AI)的发展令人震惊。与拥有数十年经验的医生相比,使用它的系统通常可以更准确地诊断疾病,或者确定图像的内容,然后自动对其进行标记,以便以后进行检索。
但是,人工智能并非没有缺陷。使用它的人都知道AI有盲点。这些所谓的对抗性例子代表了AI错误计算事物时可能发生的情况。
它们是可能使AI行为不当或忽略了它应易于识别的信息的错误。熟悉AI和机器学习的人都知道,例如,当有人对图像进行细微调整后,对抗性示例就会出现。
它们可能导致严重的问题,但一些研究人员认为,他们可以使用这些AI盲点来保护用户的隐私。
处理AI数据导致错误
尼尔·龚(Neil Gong)最近加入杜克大学(Duke University)教授,研究将虚假信息插入个人资料以保护其隐私的有效性。他的工作重点是弄清楚哪种信息最适合该信息,以及需要多少数据来保护数据安全。
龚与另一位杜克大学的研究员贾进元一起,依靠的数据集与Cambridge Analytica丑闻中的数据集相似,该丑闻未经允许就将Facebook个人资料信息暴露给了第三方。
Duke团队使用了根据Google Play商店中的用户评分收集的信息。关键是与在提交有关应用程序的意见的同时显示其位置的用户一起工作。
研究人员与这些用户一起训练了机器学习算法,发现该算法可以仅凭一次 Google Play成功地成功预测一个人所在的城市,准确率达到44%。
但是,科学家仅需进行少量调整就消除了正确性的可能性。例如,如果他们删除了应用评分或仅使三个评分提到了不正确的城市,该算法的准确性就会突然与随机猜测相提并论。
使用对抗性示例阻止其他隐私泄漏
罗彻斯特理工学院和德克萨斯大学阿灵顿分校的研究人员提出了另一种与对抗性例子相关的隐私保护方法。黑客使用一种称为“网络指纹识别”的技术来识别哪些人。研究小组发现,在对抗性示例中加上“噪声”会使该技术的准确率从95%降至29-57%之间。
他们将对抗性示例的变化与诱饵网络流量混合在一起,采用了一种随机方法,据报道这种方法很难被黑客注意到。这是至关重要的,因为网络罪犯可以进行对抗性培训,以欺骗他们认为可以保护隐私的现有算法。
从不同角度看AI缺陷
人们对学习AI及其如何塑造未来越来越感兴趣。他们的着迷为Tim Hwang这样的人提供了机会,让他们可以对期望的东西进行权衡。蒂姆·黄(Tim Hwang)在Google和麻省理工学院度过了时光,并参与了一项2600万美元的AI计划。现在,他以演讲嘉宾的身份度过了一段时间,向人们介绍有关机器学习和相关主题的知识。
随着公众对AI及其工作原理的逐渐熟悉,他们可能逐渐意识到,在上述情况下,不完善的AI并不总是一件坏事。但是,除了使用AI错误来提高隐私性之外,与AI相关的缺陷可能会提醒开发人员放慢速度,并记住某些AI进度可能会带来意想不到的后果。
例如,研究人员知道AI算法可能会有意想不到的偏差。发生这种情况时,负责任的开发人员会关闭这些项目,然后与他们一起回到制图板上。
一个共同的思路是,人工智能不是危险的,但人类带来的偏见却构成危险。这样,在某些情况下,导致AI出错的实例可能会提醒人们不要随意构建AI工具,并且对它们抱有过多的盲目信念。
通过另一种基于AI的方法增强隐私
将对抗性示例应用于机器学习无疑是增强隐私的一种有趣方式。但是,这并不是带来AI来解决与隐私相关问题的唯一选择。一种选择是称为DeepPrivacy的程序,该程序涉及使用生成对抗网络(GAN)来将某人的面部与包含147万张面部的数据库中的一些特征进行交换。
结果是像面具一样呈现出不断变化的脸部,这些脸部出现在某人的实际脸部位置。这种技术几乎不可能通过其面部特征来识别一个人。
不过,DeepPrivacy仍在开发中,它并不能使人脸的各个部分(包括耳朵)匿名化。即使这样,这项研究仍可能导致更好的方法来掩盖某人在镜头前讲话并提供敏感信息时的特征。
重塑人们不完美AI的观点
尽管AI取得了长足的进步,但它并不完美-没关系。此处给出的示例应鼓励人们扩大对他们认为有缺陷的AI的理解。即使AI在每种情况下的表现都无法达到人们的预期,它仍然会很有价值。

关注 CDA人工智能学院 ,回复“录播”获取更多人工智能精选直播视频!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群