AI研究“重男轻女”要不得!亚马逊被迫解散研究团队

自2014年以来,美国亚马逊公司的机器学习团队一直在秘密研发和使用一款计算机程序,用于审查求职者的简历,希望能将寻找顶尖人才的工作智能化。但在专家发现新招聘引擎不喜欢女性后,亚马逊最终在去年年初解散了该研究团队。

效率提升需求推动机器学习应用

无论是在仓库内部还是在推动定价决策方面,自动化是亚马逊电子商务主导地位的关键。由于低成本计算能力的激增,机器学习在技术领域越来越受欢迎。亚马逊的智能化招聘实验就始于这家全球最大在线零售商的关键时刻。

监管机构的文件显示,自2015年6月以来,亚马逊的全球员工人数增加了两倍多,达到57万多名。为缓解人力资源部门剧增的工作压力,提升其工作效率,亚马逊爱丁堡工程中心建立了一支研发团队,目标是开发人工智能技术,快速抓取网络信息并发现值得招募的候选人。

该公司的实验性招聘工具使用人工智能为求职者提供一星到五星的评分,类似于购物者对亚马逊所售产品的评分。研究人员希望这个招聘软件能达到“给软件输入100份简历,它会吐出前5名,然后公司就可优先雇用他们”的目标。

人工智能招聘软件“重男轻女”

经过培训,亚马逊的计算机模型学习了过去10年内提交给公司的简历,找出了其固有模式,并据此来审查申请人。但从2015年开始,亚马逊意识到在评定软件开发和其他技术职位的申请人时,该招聘系统并非性别中立。因为大多数申请者都是男性,这反映了整个科技行业男性主导地位的现实。

研究团队创建了500个专注于特定工作职能和职位的计算机模型。他们教会每个模型识别过去候选人简历中出现的约5万个术语。这些算法对IT应用程序中常见的技能几乎没有重要意义,例如编写各种计算机代码的能力等。相反,这项技术有利于那些用男性工程师简历中诸如“执行”“捕获”等常见动词来描述自己的候选人。

事实上,亚马逊的系统通过自学得出了男性候选人更可取的结论。系统对包含“女性”这个词的简历进行了处罚,如“女子国际象棋俱乐部队长”等。系统还降低了两所全女子大学毕业生的评级。

亚马逊曾尝试对程序进行更新,力图使其对特定术语保持中立。但这并不能保证机器不会根据其他方式来对可能具有歧视性的候选人进行分类。

性别偏见也不是唯一的问题。支持模型判断的数据也有问题,这意味着不合格的候选人经常被推荐到各种工作岗位。亚马逊最终在去年年初解散了该团队,因为高管们对这个项目已失去信心。

算法公平之路任重道远

根据人才软件公司“职业创造者”2017年的一项调查显示,约55%的美国人力资源经理表示,未来5年内,人工智能将成为他们工作的常规部分。

长期以来,雇主一直梦想利用技术扩大招聘网络,减少对招聘人员主观意见的依赖。但亚马逊的失败案例,为越来越多正在寻求自动化招聘流程的大型公司提供了一个教训。

卡内基梅隆大学机器学习专家表示,如何确保算法公平、真正可理解和可解释的道路还相当遥远。

《麻省理工技术评论》在此次事件的报道中指出,我们不能将人工智能视为内在的无偏见。在有偏见的数据上训练系统,意味着算法也会变得有偏见。如果这样不公平的人工智能招聘计划在实施之前没有被发现,将使长期存在于商业中的多样性问题延续下去,而不是解决它们。

免责声明:本文由用户投稿,(图文、音视频)均由用户自行上传分享,文章内容不代表本站立场,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,文章版权归原作者所有。若您的权利被侵害,请联系本站在线客服进行删除。

给TA打赏
共{{data.count}}人
人已打赏
百科

2050年打个“飞的”上班不是梦

2021-4-28 0:09:17

百科

中国的人工智能又是一个“大而不强”?

2021-4-28 0:09:26

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
购物车
优惠劵
搜索