当人工智能遇见伦理拷问

发表时间:2018-01-04 15:16:55 0 条评论

  最近在著名的“神经信息处理系统”(Neural Information Processing Systems,简称NIPS)大会上,业界领先的人工智能研究者济济一堂,除了探讨前沿研究、小组讨论以及开展社交活动以外,他们还在大会上提出了一个新话题:对人工智能影响力的关切。

  来自微软公司的研究者凯特·克劳福德幽默风趣的主题演讲,使这一问题渐趋明朗化。她吁请与会者开始考虑他们创造的成果、造成的意外伤害或有意伤害,并积极寻找缓解这些伤害的途径。“除了令人激动不已的成果以外,有些非常让人担心的问题也浮出了水面。” 克劳福德谈道。

  这类问题的其中之一,是2015年谷歌的照片服务误将某些黑人标记为大猩猩。最近,研究者发现,某些图像处理算法既能学会,也会夸大性别刻板印象。克劳福德表示:“我今天在这里所说的普遍问题,还只是冰山的一角。”

  有些研究者演示了可以约束或审查人工智能软件的技术。来自Alphabet旗下研究小组DeepMind的研究者维多利亚·克拉科夫那发表了一个有关“人工智能安全”的演讲,演讲谈到了一项开展不久的工作——阻止软件出现不良或令人惊讶的行为,比如试图避免被关闭。

  从本质上来说,很多机器学习系统目前还是“黑盒子”,他们的创建者知道它们在运行,但无法清楚解释它们为什么会做出某些特定的决策。随着初创企业和谷歌等大型企业将机器学习应用于人员聘用和医疗保健等领域,这类问题会越来越多。“在医疗等领域,我们可不能放任这些模型处在黑盒子状态——你输入某些东西,之后会得到某些结果,可你并不知道为什么得到那些结果。”谷歌的机器学习研究者梅斯拉·拉古说。

  但归根结底,只靠人工智能研究者还无法也不应该决定社会如何将他们的创意投入使用。“这一领域未来的很多决策,都无法出自这些技术发端的学科。”关注人工智能社会影响的科技公司2016年成立的非营利组织Partnership on AI的总经理他拉·里昂谈到。

  然而,正如奥迪、塔吉特等公司的招聘人员在“神经信息处理系统”大会上的热情所表明的,人工智能研究人员在诸多领域的重要性,为他们赋予了不同寻常的权力。克劳福德在演讲即将结束时表示,不合作主义可能会给人工智能的应用施加影响。她谈到了法国工程师雷内·卡米尔的故事,他故意破坏纳粹用于追踪法国犹太人的编表机。克劳福德希望,今天的人工智能工程师认真考虑这样一个问题:不要让自己的技术跨越红线。“是不是有些东西我们本来就不应该开发呢?”她问道。

  来源:《连线》Wired


热门文章
商学院微博
商学院二维码