首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

当前AI的硬伤:易被忽悠产生“幻觉”,安全性极低

到目前为止,上述问题还只是出现在实验室的模拟实验中,并没有在现实生活中遇到过。尽管如此,人们还是意识到了解决这一问题的紧迫性。要想进一步发展自动驾驶汽车的视觉系统或者提高语音助手支付的安全性,都需要先解决好这上述问题。博士后研究员Bo LiLi表示,上述问题很可能会带来巨大的威胁。 被Athalye的团队“攻破”的7篇论文中,有一篇就出自Li之手。作为论文的合著者之一,Li和其他作者一起在这篇论文中介绍了一种可以用来分析对抗性攻击的方法,并指出该方法还可以用于检测。Li坦然地接受了Athalye的团队对论文所作出的“攻击”,并表示他们提出的防御方法既然能被攻破,就说明他们的研究还存在着一些问题,这些都将进一步推动他们研究的发展。 为了提高对这些攻击的防御能力,机器学习的研究者们可能需要更加谨慎。上个月发布的一份重要报告也提出了类似的建议。报告指出,机器学习研究者们需要更多考虑一下他们创造的科技将被如何利用或者滥用,以便更好的防范各种可能出现的危险。 对于一些AI系统来说,防范这些对抗性攻击可能要比做其他方面的事情更加容易一些。Biggio表示,训练检测恶意软件的学习系统要更容易。因为恶意软件是功能性的,这就限制了它的多样性。而保护计算机视觉系统则更加困难,因为自然世界变化多端,图片中会含有很多像素。 为了解决这个对自动驾驶汽车来说至关重要的问题,研究人员可能需要对机器学习进行更彻底的思考。在Li看来,最根本的问题就是,深度学习神经网络和人脑有着很大的不同。 人类并不能对来自感官的欺骗完全免疫。我们可能会被看到的事物所误导。最近谷歌在的一篇论文创造了奇怪的图像,它欺骗了软件和人类,让他们在不到1/10秒的时间内把图像里的猫误认为是狗。但是,在解释照片时,我们看的不仅仅是像素的图案,还要考虑图像不同组成部分之间的关系,例如人脸的特征。 谷歌最杰出的机器学习研究员Geoff Hinton表示,他们正在努力开发机器的这种识别功能,以实现其能在几张而不是几千张图片中识别物体。Li表示,如果机器能够拥有一个更加人性化的视角,那么将极大的提高它们的辨识能力。现在,Li等人已经开始和神经科学家、生物学家合作,试图从大自然中获取一些线索。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180314C0R38X00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券
http://www.vxiaotou.com