应企业招聘中人工智能的广泛应用的趋势,Allen Smith博士发表名为《人工智能:歧视输入带来歧视生成》的文章,探讨了人工智能算法歧视的问题。文章共分为三大部分,即:人工智能的用途、歧视风险、验证人工智能工具。译文请见下文。
作者简介:Allen Smith,法学博士,SHRM(Society for Human Resource Management,美国人力资源管理协会)法律事务部经理。1994-2005年,Allen于汤普森出版集团(Thompson Publishing Group)担任撰稿人和编辑,负责编辑《美国残疾人法合规指南》(the ADA Compliance Guide)和《休假与残疾协调手册》(The Leave & Disability Coordination Handbook),并为这两本书的配套通讯撰写文章。他在北卡罗来纳大学法学院获得法律学位,并以优异成绩获得戴维森学院历史学学士学位。2005年,Allen加入SHRM。
人工智能:歧视输入带来歧视生成
Allen Smith
随着人工智能(AI)在招聘中的应用越来越广泛,输入的数据一旦存在缺陷,可能会在无意中造成妇女和少数族裔的歧视。人工智能供应商和雇主都可能会因为这种歧视而被起诉,但供应商通常都有合同条款,声明其不承担任何就业索赔的责任,因此雇主只能自认倒霉。
匹兹堡 Ogletree Deakins 律师事务所的律师珍妮弗·贝茨(Jennifer Betts)表示,歧视诉讼最初很可能是针对雇主而不是人工智能供应商提起的,但雇主很可能会试图让供应商参与诉讼。
只有大公司才有能力讨价还价,说服人工智能供应商在商业合同中放弃免责条款。加州帕洛阿尔托保罗-黑斯廷斯公司(Paul Hastings)的律师布拉德福德·纽曼(Bradford Newman)说,供应商几乎永远不会同意向雇主支付因人工智能歧视所产生的任何赔偿费用。
诚然,与就业相关的人工智能诉讼数量并不多。尽管如此,纽曼说:“通过与原告律师协会的对话,我知道就业相关的人工智能诉讼可能已近在眼前,而且很可能会从用于招聘和筛选候选人的人工智能开始。”
人工智能的用途
雇主使用人工智能的方式多种多样。一些人工智能工具通过向不主动求职的人发送有针对性的招聘广告来进行招聘。
位于旧金山的利特勒公司(Littler)机器人、人工智能和自动化实践小组联合主席娜塔莉·皮尔斯(Natalie Pierce)说,人工智能还被应用于大型求职者数据库,通过筛选简历来确定哪些求职者应进入面试。她说,人工智能程序“使用的算法会考虑工作经验、教育程度、工作进展和相关工作技能等关键指标,还能存储应聘者的相关数据,这样招聘经理就能联系到过去的应聘者,来填补当前的职位空缺”。
Epstein Becker Green 律师事务所纽约办事处的马修·萨维奇·艾贝尔(Matthew Savage Aibel)指出,人工智能使聊天机器人能够回复应聘者的一般问题,检查求职者的可用性和签证要求等细节,并帮助新员工入职。他说:“其他人工智能工具会分析简历或面试问答的视频,为招聘经理缩小选择范围或推荐成功的候选人。”伊利诺伊州已经对人工智能在视频面试中的使用做出了限制,该限制将于2020年1月1日生效。
歧视风险
贝茨说:“人工智能软件不太可能是为了歧视少数族裔或妇女而故意开发的。”有时,人工智能可以防止歧视。一些雇主使用人工智能驱动的工具来筛选招聘启事中的一些用词,来判断是否有可能无意中阻止某些潜在求职者的代码。
但是贝茨也表示:“更大的风险是,这些工具可能会无意中歧视受保护群体。”
艾贝尔解释说,人工智能可能会导致偏见,主要是通过选择某些对少数群体或妇女有歧视性影响的特点,但这些特点往往是中性的。例如,研究表明,住得离办公室近的人工作起来更开心。因此,人工智能算法可能通过只选择某些附近地区的简历,而潜在地限制通勤时间。这种算法可能会对那些不住在附近的人产生歧视性影响,无意中将少数族裔聚居区的居民排除在外。
当公司试图根据成功员工的资料来招聘员工时,人工智能也可能导致偏见。艾伯尔提醒说,如果大多数或所有被用作范例的高绩效员工都是男性,那么任何评估一个人成功与否的人工智能算法都可能非法地将女性排除在外。
如果数据受到以往偏见的玷污,算法就可能会反映这些偏见,使一些候选人处于不利地位。皮尔斯说,由于过去女性在技术领域的代表性不足,人工智能可能会偏向于男性。
“如果公司里所有排名靠前的员工在大学时都属于某个校友会,而人工智能程序通过简历或互联网搜索发现了这一点,那又会怎样呢?”艾伯尔说,“突然之间,程序可能只会推荐同样属于该兄弟会的候选人,从而造成歧视性影响”。
“当计算机可以在几分之一秒内做出这些决定时,受影响人群的范围就会进一步扩展” 。
验证人工智能工具
纽曼说,平等就业机会委员会(The Equal Employment Opportunity Commission)希望运用人工智能的公司能采取合理措施,在真实场景中测试算法的功能,以确保结果不带偏见。
贝茨则表示:“让一个跨学科的多元化团队——包括来自运营、法律、人力资源、首席知识官或创新官以及 IT 部门的利益相关者——参与评估工具的内部决策过程,是很有帮助的。”这个小组可以解决各种问题,包括技术是否符合企业文化的问题。
位于加州布雷亚的背景调查公司 PeopleG2 的创始人兼首席执行官克里斯·戴尔(Chris Dyer)表示,多元化的团队将使该工具“达到人工智能可以消除人为偏见的阶段,而且他们将知道人类需要在哪些方面检查机器人无意中的偏见”。
一些雇主在广泛使用人工智能工具之前,会先开展试点项目。贝茨认为这效果似乎不错。
艾贝尔则说,雇主应该经常测试他们的人工智能算法,这并不需要针对现有系统进行测试,因为现有系统本身就可能存在偏差,而是应该由数据科学家进行统计验证——最好是在律师指导下进行操作,这样才能保证工作的保密性。
随着人工智能在企业中发挥越来越大的作用,纽曼建议企业考虑任命一位首席人工智能官。他说:“一家公司可能会在其运营的多个不同方面使用人工智能,让一个人了解所有方面可能不太合理。但是,应该有一位高管定期汇报,并对公司内部的人工智能部署进行全面监督。”
编译|汪雨波
排版|强心语
审核|裴 轶
声明:本文来自数据治理与竞争法研究,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。