译者 | 崔皓
尽管人工智能发展迅猛,但我们并没有体验到人工智能(AI)及其能力辐射的全部范围。毕竟,人工智能影响的范围以及发展前景仍然主导着研究工作,科学家们依旧热衷于从人工智能的创新中寻找出新的应用案例。
目前为止,我们已经遇到了人工智能在各种情况下的应用。这是因为我们所光顾的许多公司已经增加了对人工智能技术的应用。例如互动式个人助理Siri,它使苹果公司的客户能够通过各种应用获取信息,听写电子邮件,并利用iOS手机、智能手表、电脑和电视执行任务。
很多品牌方也在利用聊天机器人来提供无可挑剔的客户体验,这种方式不仅能促进销售,还能消除重复性工作,从而提高人类员工的参与度。
就在人工智能工具应用率上升的同时,其企业的投资也在飙升。根据麦肯锡的2022年人工智能状况报告,52%的受访者确认其数字预算的5%以上是用于人工智能。在2018年,这一比例为40%。
在人力资源方面,人工智能可以帮助企业提高员工对当前角色的满意度并协助员工快速完成任务,从而节省了时间和金钱这两个不可缺少的因素。除此以外,企业可以通过使用人工智能驱动的软件来筛选数以千计的申请,并筛选出少数有经验的候选人,从而完善招聘。
然而,也出现了该系统偏向于某一特定群体或性别而非其他人的情况。这是危险的趋势,如果不加以控制,可能会大大损害公司的形象,并否定该技术带来的益处。为了帮助你有效地处理人工智能处理上的“偏见”,本文提供了一些指导意见。
以前,人们在报纸的分类广告中查找招聘信息,并通过手写信件的方式作出回应。如今,任何人都可以在互联网上通过大量的渠道获得招聘信息。
招聘是一项公司优先考虑的任务。这解释了越来越多地使用人才招聘机构的原因。使用人工智能不仅简化了这个过程,而且扩大了领域自动化的可能性。从Tidio针对人工智能对招聘影响的调查中发现,近67%的人力资源专业人士承认,这种创新对招聘阶段产生了积极的影响。
但是,“偏见”是如何不期而至的呢?
2014年,电子商务巨头亚马逊选择将人工智能纳入其招聘系统。虽然这在很大程度上被认为是朝着正确方向迈出的一步,因为亚马逊是一个坚定的自动化倡导者,但当某一现象的发生,导致之前的努力化为泡影。该招聘系统更加偏好男性候选人,而不是女性候选人。
为什么会发生这种情况?路透社的一份报告显示
"......亚马逊的计算机模型经过训练,通过观察10年间提交给该公司的简历的模式来审查申请人。大多数人来自男性,这反映了整个科技行业的男性主导地位。"
人工智能的偏见可以以多种方式表现出来,某些性别、群体、宗教和其他隶属关系等。
减轻招聘中的人工智能偏见的三种最佳做法
虽然可能无法完全消除人工智能模型中的偏见,但有一些策略能够减少偏见事件发生的几率。
以下是三种必须掌握的方法。
1.始终让人类了解情况
虽然人们越来越担心智能工具会取代人类工人,但我们应该把这看作是一种合作关系,而不是一种彻底的接管。还有,人工智能主导的工具应该在没有人类监督的情况下运作,因为它们表现出相当高的效率,这种观念也需要修正。
有趣的是,人机协作已被证明是更有价值的。《哈佛商业评论》的一项研究发现,12个行业的1075家公司获得了速度、成本节约和利润的提高。
鉴于这一事实,公司应确保有一个人力团队持续监督招聘中使用的软件。他们可以减少偏袒的风险。另外,员工应该从多元化的人才库中抽取,以便每个群体都有代表,从而减少歧视。
2.对人工智能模型进行定期审计
如果对人工智能算法的概率结果不进行经常性地检查,可能会给公司的反偏见努力带来严重打击。通过组织对算法的定期检查,企业可以发现阻碍模型传递公平结果的问题。不完整或不准确的数据应在发现后立即纠正。
3.光顾人工智能招聘软件供应商,厌恶偏见
就像汽车经销商一样,你会发现各种招聘软件的选择。为了做出正确的决定,努力了解供应商设置的机制是如何解决各种偏见的。
你应该要求系统在各种情况下得到测试,同时观察它们的表现。除了偏见之外,还要检查软件的可扩展性、价格和成本节约。符合所有或大部分条件的才是优秀的供应商。
人工智能的发展对我们所有人来说都是一件好事。从使汽车能够自动转向和停车(有司机主动监督)到在更短的时间内寻找和雇用合格的候选人,人工智能在招聘方面显现出优势。但是,我们应该有目的地管理人工智能技术,以避免与人工努力相关的失误。
译者介绍
崔皓,51CTO社区编辑,资深架构师,拥有18年的软件开发和架构经验,10年分布式架构经验。
原文标题:Three Best Practices for Tackling AI Bias in Recruitment,作者:Michael Akuchie