偏见才是人工智能的真正危险

发表时间:2017-11-09 14:13:36 0 条评论

  谷歌人工智能负责人约翰·詹南德雷亚(John Giannandrea)担心的并不是超级智能杀手机器人,而是可能潜伏在机器学习算法里的危险,这种算法每分钟都要做数百万个决定。

  “真正的安全问题是,如果我们给这些系统有偏见的数据,它们就会有偏见。”詹南德雷亚在谷歌最近举办的一个人类和人工智能系统之间关系的会议上说道。

  随着技术在医学和法律等重要领域的传播,随着虽然没有对技术的深入理解,但要负责部署技术的人越来越多,机器学习的偏见问题可能会变得越来越重要。一些专家警告说,在许多行业中,算法偏见已经很普遍了,可几乎没有人为识别或改正付出努力。

  詹南德雷亚还谈道:“重要的是,我们要让我们正在使用的训练数据透明,并寻找其中隐藏的偏见,否则我们就会构建出有偏见的系统。如果有人试图向你兜售为医疗决策提供支持的黑盒系统,可你不知道它的工作原理,或者不知道用来训练它的是什么数据,那么我就不会信任它。”

  黑盒机器学习模式已经对一些人的生活产生了重大影响。Northpointe公司开发了一个名为COMPAS的系统,该系统可预测被告再次犯罪的可能性,一些法官就用这一系统来判定犯人是否可被假释。ProPublica在调查中发现,该模型可能对少数族裔有偏见。

  詹南德雷亚有充分的理由强调偏见会悄悄潜入人工智能系统这一问题。因为谷歌是将云计算平台的人工智能技术应用到所有业务的几家大公司之一。

  受邀参加这次会议的几位演讲人也论述了偏见的问题。谷歌研究员玛雅·古普塔(Maya Gupta)谈到了她为构建更透明算法所做的努力,这些工作是团队内部一个名为GlassBox(意为“玻璃盒”)的项目的一部分。伊利诺斯大学计算机科学教授凯利·卡拉哈丽奥斯(Karrie Karahalios)谈到的一项研究表明,即便在最常见的算法中发现偏见也是相当棘手的事情。卡拉哈丽奥斯说,用户通常不理解Facebook在给他们推送新闻时如何过滤某些帖子。虽然这么做看起来是无害的,但这个例子清楚说明质询一个算法是多么困难。

  Facebook的新闻推送算法无疑会塑造公众对社会互动甚至重大新闻事件的看法。有些算法可能已经巧妙地扭曲了一个人应该接受的医疗护理类型,有些则神鬼不知地改变了某些人在刑事司法系统得到的待遇。至少从目前看来,这些问题远比杀手机器人重要得多。

  近年来,在一些关于人工智能构成风险的警告中,詹南德雷亚无疑是一个理性的声音。特别值得一提的是埃隆·马斯克(Elon Musk),他在这方面制造了无数头条新闻,比如,他最近警告称,人工智能可能导致第三次世界大战。

  詹南德雷亚说:“我反对的是这样一种假设——我们会一举推出某种超级智能系统,而这个系统则会淘汰人类。我理解人们为什么会担心这个问题,可我认为这类言辞已经太滥了。我实在看不出这样的危机有什么技术基础。”

  来源:MIT

热门文章
商学院微博
商学院二维码