人工智能也有存在“偏见”嘛?
偏见是人工智能面临的一个挑战,主要是来自“算法偏见”,当然偏见并不止这些。与人类不同,算法不能撒谎,那么产生结果的不同必将是数据带来的问题。人工智能算法及系统的测试与验证,如何避免人工智能的偏见呢?
相信大家都看过《机器公敌》这个电影,虽然它只是一个科幻题材的电影,但和它相类似的机器控制了世界而人类被毁灭的电影比比皆是。好在这些电影是娱乐性的,而且人们都认为这些场景是不会发生的。然而,一个更应该关注的现实问题是:算法偏见。
算法偏见带来的问题
所谓“算法偏见”是指在在看似没有恶意的程序设计中带着创建者的偏见,或者所采用的数据是带有偏见的。结果当然是带来了各种问题,例如,被曲解的谷歌搜索,合格的候选人被禁止进入医学院,聊天机器人在推特上发布种族主义和性别歧视信息等。
算法偏见造成的最棘手的问题是,从事编程的工程师即使主观上没有种族主义、性别歧视、年龄歧视等倾向,也有可能造成偏见。人工智能(AI)本质上就是为了自学而设计的,有时它的确会出错。当然,人们可以在事后做出调整,但最好的解决办法是一开始就防止它发生。那么,怎样才能让人工智能远离偏见呢?
具有讽刺意味的是人工智能最令人兴奋的可能性之一就是能够搭建一个没有人类偏见的世界。比如当涉及到招聘时,一种算法可以让男性和女性在申请同一份工作时获得平等的待遇,或者在警务工作中防止发生种族偏见。
不管人们是否意识到,人类创造的机器确实反映了人们怎样是看待世界的,因此也会有类似的刻板印象和世界观。由于人工智能越来越深入到生活中,人类必须重视它。
“换句话说,决策中的偏见或偏差将从我们认为是人类偏见的事情转变为我们不再这样认为的事情,因此也无法检查到——因为我们已经将 AI 的决策视为理所当然。”
偏见的分类
人工智能面临的另外一个挑战是,偏见不仅仅是以一种形式出现的,而是有各种类型的。
潜意识偏见:潜意识偏见是指算法错误地把观念与种族和性别等因素联系起来。例如,当搜索一名老师的图像时,人工智能会把男性老师的图像呈现给一名女性。
交互偏见:交互偏见是指用户由于自己与算法的交互方式而使算法产生的偏见。当机器被设置向周围环境学习时,它们不能决定要保留或者丢弃哪些数据,哪些是对的,哪些是错的。相反,它们只能够使用提供给它们的数据,并在此基础上做出决策。
数据驱动的偏见:数据驱动的偏见是指用来训练算法的原始数据已经存在偏见了。机器就像孩子一样:他们不会质疑所给出的数据,只会寻找其中的模式。如果数据在最一开始就已经被曲解,那么其输出的结果也将会反映出这一点。
选择偏见:选择偏见是指用于训练算法的数据被倾向性地用于表示一个群体或者分组,从而使该算法对这些群体有利,而代价是牺牲其他群体。以招聘为例,如果人工智能被训练成只识别女性的简历,那么男性求职者在申请过程中就会很难求职成功。
确认偏见:确认偏见类似于数据驱动的偏见,但它更偏向于那些先入为主的信息。它会影响人们怎样收集信息和人们怎样解读信息。
当我们了解了人工智能中有这么多偏见的例子时,似乎会引起我们的担忧。但重要的是要认清事实,这个世界本身就是存在偏见的,因此,在某些情况下,人们对从人工智能中得到的结果并不奇怪。
总结
机器的偏见是来自人的偏见。人工智能的偏见有多种方式的表现,但实际上,它只有一个来源:人类自己。
处理这一问题的关键在于技术公司、工程师和开发人员,他们都应该采取有效的措施来防止无意中创建一种带有偏见的算法。通过进行算法审计并始终保持透明度,就有信心让人工智能算法渐渐远离偏见。
想要了解更多变成内容,请关注本头条号。