小花招让“智能”变“智障”

发表时间:2017-10-11 11:08:42 0 条评论

  杰米·康德利夫

  《麻省理工科技评论》(MIT Technology Review)新闻和评论副主编。

  人工智能(AI)可以精准地识别图像和人类语音,但是其算法跟人类的大脑运作方式并不相同——这就意味着骗不过人类的花招却可以轻易蒙骗它们。

  《新科学家》(New Scientist)报道,以色列巴伊兰大学(Bar-Ilan University)和Facebook人工智能团队的研究人员发现,将一段音频微微调整之后,人类依然可以照常理解其内容,但是语音识别人工智能设备听到的却是完全不一样的内容。调整方式是给一段音频加上一层噪音层,噪音层包含的特殊模式会让神经网络将其与其他词语联系在一起。

  该团队将这一名为Houdini新算法应用到一系列音频上,然后让Google Voice进行识别。以下即为一段原声音频的内容:

  “她举止优雅、充满生气,手牵着儿子,走在她前面的是两个女佣,拿着烛光闪烁的银色烛台。”

  当这段原声音频经Google Voice识别后是这样的:

  “举止优雅、一个充满生气,她手牵着儿子,走在他前面的是两个女佣,拿着烛光闪烁的银色烛台。”

  但是,该音频经过处理后,虽然人类听到的和原声音频几乎没有什么差别,但机器读出来的却成了这般模样:

  “玛丽很感激,然后承认她让儿子走在前面,梅斯将喜欢切片炉过滤计数六。”

  该团队的招数也可以运用到其他的机器学习算法上。

  稍稍改动人的图像,就可以让用于识别人类姿态的算法发生错乱,从而会将人的姿态误读为另一种。该团队给路况图像添加噪声后,自动驾驶汽车上用于识别道路和标识的人工智能算法会被愚弄,它看到的不再是路况图像,而是匪夷所思的“仆人”。上述这些基于图像的研究结果,与OpenAI和Google Brain研究人员2016年发布的机器学习研究结果相似。

  这些所谓的“对抗样本”(adversarial examples)(通常指人为制造的,让一个机器学习模型发生错误的样本)看似是一个奇怪的研究领域,但是,这些技术也可用于机器学习算法的应力应变测试。

  不过更令人不安的是,这些技术也可用于邪恶目的,比如说,让人工智能“看见”或“听见”事实上并不存在的东西,从而让自动驾驶汽车看见假的路况,或者让智能扬声器听见假的指令。

  当然,在现实中实施这些恶意攻击和实验室里的实验还是不同的,主要是因为输入这类欺骗性数据并不容易。

  所有这些研究最有趣的地方或许在于,找到保护人工智能免受这类招数攻击的方法非常困难。我们还没有真正理解深度神经网络的内部运作方式,这也意味着我们并不了解为什么这些人工智能算法会特别关注音频或图像中的细微特点。在我们彻底搞清楚这些问题前,“对抗样本”将会一直存在;当然,对人工智能算法的对抗性测试也会一直持续下去。

 

热门文章
商学院微博
商学院二维码