微软开发新工具试图防止AI算法中的偏见
新智元编译
来源:futurism
编辑:肖琴
【新智元导读】微软希望创建一种工具来检测AI算法,并提醒人们算法可能基于种族或性别对待他们。
微软公司最新加入试图解决算法偏见的科技公司行列——算法偏见是指,提供给AI系统的数据不足,以致结果反映出社会本身的偏见或不公平的观点。
微软加入谷歌和Facebook的行列,创建工具来寻找未适当训练的AI。但是微软用于发现算法偏见的新算法只能找到并标记算法已经存在的问题。这意味着,比如说,导致警察偏见增加的程序如果没被发现,仍然会被建立和使用。
为了真正地创造公平、惠及每一个人的AI,需要在前端有更多关注。公司可以通过第三方来审查他们的算法,例如引入外部专家,并在代码本身或被输入的数据中寻找偏见的迹象。
一些人工智能公司已经开始聘请审查人员来查看他们的代码。但这也要求AI系统足够简单,一遍有人能够发现问题区域,或者要求审查人员精通代码。对于更复杂的深度学习算法来说,这种方法并不总是可行。
另一个可能的答案是,为实际创造AI的人提供更好的培训,这样他们就能更好地发现自己的观点和偏见,并防止这些偏见被算法解释为事实。这并不意味着程序员们正在编码种族主义机器。但是,因为每个人都有某些隐含的偏见,技术世界将会从帮助人们更好地理解他们自己的世界观中受益。
这些都是主要的解决方案,需要对技术的开发方式进行观念上的转变,即使对希望开发这些过滤器和标记算法偏见的公司来说也是如此。
研究人员和公司开始关注这个问题,这是一个好的迹象。
相关推荐
湾区人工智能 2020-11-20
baijingjing 2020-11-16
baijingjing 2020-11-15
Site 2020-11-07
Pokemogo 2020-11-16
lwnylslwnyls 2020-11-06
justaipanda 2020-11-05
MachineIntellect 2020-11-02
xueyuediana 2020-10-30
GeraldJones 2020-10-30
Tips 2020-10-29
baijingjing 2020-10-28
baijingjing 2020-10-27
硕鼠 2020-10-26
playoffs 2020-10-26
scuyxi 2020-10-25
playoffs 2020-10-25
yise001 2020-10-23