全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 数据分析与数据挖掘
844 0
2020-07-29
人工智能和绿野仙踪:不理会幕后的人类
您无疑听说过可怕的消息,人工智能将接替我们的工作。想到将工作丢给机器,您甚至可能会感到不安。
但是,人类似乎没有在从事人工智能工作,而不仅仅是从事人类工作。
近年来,一些“ AI企业”在其AI部署中采用了Oz向导方法。也就是说,他们希望您不要理会幕后的人。
但是这种欺骗性的AI实践对真正的人工智能意味着什么?
人工智能中的绿野仙踪
绿野仙踪的AI方法是企业使用伪装成人工智能的人力劳动。这是一种由故意欺骗引起的假AI(或“ AI蛇油 ”)形式。
人类没有假装成人类的机器人,而是躲在窗帘后面,假装成机器人。
例如,今年的一项调查发现,大约40%的欧洲AI初创企业不使用AI。人类假装是聊天机器人。他们甚至代替机器将语音邮件和其他声音文件转录为文本。
为什么会这样呢?
某些虚假的AI是由真正的误解引起的。也就是说,将自动化软件与AI混淆,或者遭受第三方的错误分类。但是《绿野仙踪》 AI有所不同,因为它是故意制造的。
绿野仙踪(AI)背后的原因之一是渴望从技术炒作中获利。投资者对人工智能特别感兴趣。如此之多,以至于“ AI”分类可以吸引多达15 – 50%的资金增长。
将人类隐藏在AI幕后的(略)合理的理由是测试水域。因此,一家完全有意构建和使用AI技术的公司正在对该技术进行原型设计。
人工智能很昂贵;它需要大量数据才能将其训练为有用的工具。通过对人类进行测试,人工智能初创企业和企业可以确保对这种人工智能功能的需求。(在他们投入时间,精力和金钱之前)。
道德影响和AI接受
尽管围绕《绿野仙踪》 AI出现了明显的道德担忧,但这种做法还是有潜在好处的。
首先,在人工智能出现之前就引入它可能会在早期突出伦理问题。想一想使用Twitter的消费者表达他们的疑虑,或者认为客户留下的反馈意见是他们不信任帮助他们的新“ AI”代理。这样一来,品牌就可以在遇到问题之前解决AI问题。反过来,这可以帮助鼓励AI接受。因此,一旦技术达到目标能力,就更容易采用AI。
也就是说,这种做法带来了自己的伦理问题。除了公然的欺骗,还有对隐私的关注。考虑用于精神健康或医疗支持的AI工具。或者是人类在听您的对话-甚至您以为没有人会听到的人。这种受损的信任可能会阻碍AI的接受和未来的实施,而不是有所帮助。
需求还是幻灭?
从长远来看,这种做法可能会影响AI的未来使用。它可以帮助AI研究人员确定最需要该技术的地方。因此,他们然后将开发导向这些领域。
但是这种做法可能会导致严重的幻灭。随着人们发现其基于AI的工具是伪造的,他们不可避免地会变得对该技术不信任。因此,当他们遇到真正的AI工具时,他们将不会信任它。
此外,人工智能要达到人类水平还有很长的路要走。假装自己是机器人的人可能会过分提升技术的能力,从而降低“真实”人工智能的成就。
所有这些不信任感和幻灭感可能会进入另一个AI冬天。那就是一段低进展和低迷的发展时期。“人工智能”将成为一个肮脏的流行词。   
绿野仙踪
毫无疑问,将人类隐藏在AI幕后是不道德的做法。积极欺骗人们总是会附有道德问号。不管背后的原因。
随着技术逐渐发展为人类在幕后所扮演的角色,对Wizard of Oz AI的需求将越来越小。
现在,当窗帘揭开这一切都是骗局时,这令人沮丧。只有时间才能证明实践对AI进步有多大破坏作用。

关注 CDA人工智能学院 ,回复“录播”获取更多人工智能精选直播视频!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群