欧莱雅用AI招聘,亚马逊用AI裁员,人类的饭碗要看机器的脸色
天下网商记者 张超
欧莱雅、可口可乐、亚马逊……随着越来越多的大公司,将人工智能(AI)应用于HR工作,未来你找不找得到饭碗,保不保得住饭碗,恐怕都要看AI的脸色。
欧莱雅2018MBA暑期精英项目招聘流程 第一关就是网申、Seedlink测试和面试
欧莱雅的AI面试官
欧莱雅,全球最大的化妆品公司,财富世界500强中排名392位,业务遍布150个国家和地区,旗下拥有34个全球品牌,82600名员工,让无数求职者趋之若鹜。
欧莱雅每年开放15000个新岗位,同时会收到100万人的申请,相当于66个人竞争一个岗位,怎么从众多应聘者中招到合适的员工,深深困扰着欧莱雅的人力资源部门。
“对我们来说,人工智能解决方案,是应对这些挑战的最佳方式。”欧莱雅人力资源全球副总裁Eva Azoulay说。
欧莱雅的应对之策,是引进了两套专门针对招聘场景的AI系统——Mya和Seedlink。
Mya负责初期筛选,通过学历、工作经历等硬性条件,验证求职者能否进入下一环节,同时,Mya也会回答一些关于公司文化、政策和福利等问题。
在Mya提供的模拟面试场景中,Mya的名字边上会标示出「机器人」,面试体验和即时通讯软件类似。如果Mya遇到不懂的问题,面试官就会代替回答,而Mya也能够从面试官的回答中学习,如果再遇到同样的问题就不用面试官出手。
Mya 在模拟练习中与 NASA 面试者的对话 图来自网络
如果求职者过了Mya这一关,将会遇到Seedlink,这套AI系统会给出一些开放性问题,根据求职者的回答进行评分。据说它能够帮助招聘者找到更符合组织文化的人才,并拥有公司所需的技能,具有数据驱动的客观性,不带任何偏见。
Seedlink技术总监Simon Blanchard曾解释:“本质上来说,我们做的是提取一个人的自然语言,可以是文字、语音或视频形式。然后透过语言去预测这个人的个性、胜任力、文化和职位匹配等等。”
如果只看招聘效率,AI干得还不赖——过去七个月,有13000名求职者与Mya交谈,过去,筛选、安排、电话面试一个求职者需要花费HR45分钟,而Mya在4-5分钟内就能完成。有统计称,短短半年,Mya为欧莱雅英国招聘团队节省了45个工作日。
AI招聘已成趋势
在中国,欧莱雅也早就将AI用于招聘。去年年初,有位国内大学应届生通过欧莱雅面试后发出了经验分享帖,里面就提到了Seedlink,不过跟国外不同,国内应聘者第一关就是挑战seedLink,进行三个开放问题的回答,之后才是人工视频面试等环节。
据这位应届生介绍,AI的三个开放问题,分别是关于对产品和行业的熟悉度、逻辑思维和组织语言的能力、多任务处理能力以及与人合作的能力,“公司希望能找到一个符合欧莱雅价值观的员工。”
求职者面试成功后在论坛上发帖描述欧莱雅AI面试的情况
除了欧莱雅,可口可乐,达能等公司都已经在校招环节用上了AI。
联合利华在国内的校招也使用了AI系统,今年3月还有求职者在网上发帖询问,联合利华网申是不是用AI审核,发帖者表示,“非人工的话,总感觉语音题会受客观因素影响”。随后联合利华的HR回帖称:“我们的考察是结合人工和AI。”
求职者在论坛询问联合利华HR关于AI招聘的问题
换个角度理解一下,发帖者是不是在担心,AI不能很好地理解中文语境,毕竟中文博大精深。
比如有时候对人说一句“意思一下,不成敬意”,对方会觉得你很识礼数,但是AI说不定会觉得,“你这是什么意思?”然后不明就里地给个差评pass掉了。
亚马逊AI“一键裁员”
除了用AI招聘,也有越来越多的企业开始用AI考核绩效,在这方面,亚马逊可以说是登峰造极。
最近曝光的一份亚马逊内部文件显示,在亚马逊的仓库里,有一套强大的AI系统,可以深度自动化的跟踪员工工作状况。如果员工的工作速度变慢,或者长时间没有接触包裹(如上厕所、喝水等情况),该系统会将这些情况视作偷懒,算在“摸鱼”时间内。
亚马逊中国APP截图
很多亚马逊员工坦言,由于害怕“摸鱼”时间超过限制,他们甚至不敢在工作时间上厕所。在英国,有的仓库工人怕厕所距离太远来回时间太长,只好在过道或者车间格子里用塑料瓶解决排泄问题。
英国一家劳工保护组织的问卷调查显示,74%的亚马逊受访员工表示,上班时间会尽量避免使用厕所,因为他们担心自己错过生产目标进度甚至因此遭到解雇。
这是因为,亚马逊不光利用AI算法监工,还利用AI算法“一键裁员”,比如有员工的生产率指标数次不达标,AI系统会自动生成警告,并且最终在线生成解雇员工的指令,甚至都不需要主管或者HR来跟员工谈离职,在拥有2500名全职员工的巴尔的摩仓库中心,2017年8月至2018年9月间至少有300名员工,因未能达到生产率指标遭到解雇。
AI并非尽善尽美
尽管Mya、Seedlink等公司都一再强调,AI可以帮助HR消除偏见,对求职者更加公平,但事实并非尽善尽美。
去年,亚马逊就被爆出招聘程序存在性别歧视,这款程序主要是用AI通过检索简历中的关键词,评估应聘者的能力以及和申请职位的匹配度,然后给简历打分,帮HR分担压力。
结果,工程师们发现AI在打分时,给男性求职者的简历打分明显比给女性打分高,也就是说AI更偏爱男性求职者。
这主要是因为AI学习的样本来自于亚马逊过去10年内收到的所有简历。这些简历中,男性求职者和录用者居多,因此AI在学习过程中就有了认知,认为男性应聘者比女性更优秀。
因此,AI在分析简历时,会识别暗示应聘者性别的关键词,比如“女子学校”、“女子篮球队”等,通过这些关键词推断应聘者的性别,并降低女性应聘者简历的评分。
工程师们也搞不定这个问题,于是这个程序在应用一年后,被亚马逊高层宣布关停。
由此可见,如果学习样本存在局限,AI并不一定能够做到客观中立。
本文由天下网商原创,未经授权,不得转载。