AI 播客:人类如何让人工智能产生偏见(以及人工智能如何帮助人类减少偏见)

作者 英伟达中国

在人们的印象中,很容易把人工智能与冷酷、公正、客观联系起来。Narrative Science 首席科学家 Kris Hammond 表示事情并非如此,原因在于我们永远不知道人工智能何时会将我们的偏见故技反作用到我们身上。

美国西北大学计算机科学与新闻学教授兼 Computer Science Plus X 项目主任 Hammond 说:“正如同我们的偏见会溜进在我们对孩子的对话、训练、教育方式里,这些偏见也会悄悄出现在我们对人工智能系统的对话、训练和教育方式里。”

Narrative Science 利用人工智能将数据转换成故事,帮助人们更好地理解周围的世界。该公司的自然语言生成平台 Quill 通过逐字生成标题的方式生成标题:为 USAA、Fannie Mae 和 Deloitte 等客户自动生成客户投资总结和内部业绩报告并自动完成其他任务。

人工智能的偏见:案例层出不穷

对于 Hammond 而言,偏见方面的问题已不只是学术兴趣问题。挑战不仅仅在于培训人工智能进行诸如审美等难以量化的任务,还在于进行某些人认为受偏见影响较小的任务(例如评估信誉)。

在与我们的播客主持人 Michael Copeland 进行的一次宽泛谈话中,Hammond 表示:“我们希望,我们建立的人工智能系统能够冷酷到不带一丝情绪,这样它们就不会像我们一样聪明、优秀和富有创意,我们才能凭此取笑人工智能。不过实际情况是,我们建立、训练这些系统,有时还赋予它们我们要使用的推理规则,因此根本没有办法避免将我们的世界观灌输到这些系统中。”

人工智能是否可以让我们消除偏见?

解决之道不能只是了解我们在训练人工智能时抱有的偏见,而且还要理解我们自身的局限性,进而训练人工智能帮助我们超越局限。Hammond 说:“我们人类身上集合着许多貌似有用的经验法则,并由此完全误解了统计数据。因为有人理解人类,理解人类的行为和思考模式,绝对可以设计出迎合人类喜好,为我们提供帮助的机器。”

如需收听完整的谈话内容,请关注本周的 AI 播客,您可以通过 iTunesGoogle Play MusicSoundcloud 订阅。

快速、刺激、低成本

如果错过了 AI 播客第 6 集,那您很值得返回来听一次:平面设计师兼 Power Racing Series 创始人 Jim Burke 讲述计算机专家如何利用几台电脑、数百根骨架和一辆粉红色的芭比吉普车打造了一个快速、刺激且低成本的自动驾驶赛车联盟。

如需在 iPhone Android 上收听 AI 播客,请通过iTunes  Google Play Music订阅。

图片来源:Valerie Everett 通过 Flickr 提供