人工智能面试官:效率提升还是就业歧视?
近年来,越来越多企业开始在招聘过程中引入人工智能 ( AI ) 技术,借助 AI 提高效率、节省人力。但与此同时,AI 招聘系统的公平性和透明度问题也引发广泛关注。求职者常怀疑自己是否因 AI 带有偏见而遭到排斥,却无从查证。监管部门则忧虑 AI 可能加剧就业歧视,但缺乏监督手段。如何在效率与公平之间寻求平衡,正成为一大挑战。
AI 渗透招聘市场
根据数据显示,目前已有 99% 的财富 500 强企业采用 AI 技术自动过滤求职申请,40% 的公司更打算在今年使用 AI 与潜在人才 " 对话 "。这些企业常会采用预先录制的视频问题,由 AI 语音助手向求职者提问,要求他们在规定时间内回答。也有雇主要求求职者在面试环节中完成小游戏或测试,通过 AI 评估他们的注意力、反应能力等。
甚至有些公司会在正式面试前,就通过 AI 分析求职者在社交媒体上的数字足迹,评估其是否与企业文化相符。这些做法的目的,都是为了借助 AI 的力量提高招聘效率 , 降低人力和财务成本。
" 电脑说不行 " 难辩解
然而,AI 招聘系统也存在一些潜在的风险和问题。一些研究发现,AI 系统可能会对求职者的口语习惯、社会阶层等因素产生负面评价。比如对于说话方式较为口语化的蓝领阶层求职者,AI 就可能做出不利评判。
再者,一些游戏化的 AI 测评环节,可能会排斥视力或手眼反应略有障碍的身心障碍人士。更有研究者担忧,雇主若将求职者的社会阶层、家庭背景等转化为 " 数字化指标 ", 可能会激发出无意识中的认知偏见,导致歧视。
最令人不安的是,很多时候求职者并不知道自己是否遭到 AI 的 " 无心之失 " 评判。一旦被 AI 系统筛选出局,他们收到的往往只是一封冰冷的拒绝邮件,无从得知落选原因。" 反歧视法主要由投诉驱动,如果应聘者不知道发生了什么,就沒人抱怨被剥夺了工作机会。" 牛津大学法学教授 Sandra Wachter 说。
监管与透明度需加强
针对这一问题,去年 11 月纽约市政府出台新规:未来任何 AI 招聘系统若没有每年通过公正性审核,都将被禁止使用。年审将检查 AI 系统是否存在种族或性别歧视,雇主也必须为求职者提供人工审核的替代方案。
但这一规定也受到一些质疑。一些人工智能专家和数字权利活动家认为,这只是要求 AI 开发商自我证明符合现有的反歧视法要求,并未提出更高的监管标准。而法案对于 " 如何审核偏见 " 的具体要求也十分模糊。
事实上,造成 AI 系统带有偏见的主因,常常是训练数据本身存在问题。比如亚马逊之前就曾停用一款 AI 简历扫描工具,因为发现它会系统性偏向男性求职者。部分原因是该系统的训练数据集过于依赖该公司现有的男性技术人员比例。
与此类似,如果 AI 系统吸收了某些存在种族或性别差异的行业数据,那么它产生的结果也将继承和加剧这些偏见。今年更有研究发现,Facebook 的广告投放算法也可能带有性别歧视——男性用户更容易看到快递员招聘广告,而女性用户则会被推送更多购物类广告。
这种潜在的算法偏见,很容易在人们意识不到的情况下滋生并永久化。与那些努力消除偏见的公司相比,一些公司之所以更容易出现问题,就是因为其系统擅长于固化并 " 合理化 " 现有的不合理情况。
因此,要杜绝 AI 系统带来的就业歧视风险,确实需要加强监管。与纽约市新规定的目标一致,相关方面首先需要提高 AI 系统的透明度,让普通求职者能了解自己是否遭到 AI 评估、AI 是如何评估的,以及评估所依据的数据来源。
其次,需要对 AI 系统进行独立的年度审核,明确审核的标准和指标,并由第三方权威机构执行,而不只是开发者的自我评估。很多时候,只有通过持续审计和监督,才能发现隐藏在算法深处的潜在问题。
除了加强监管,社会各界同样也应当引导 AI 系统朝着更加包容、多元的方向发展。众所周知,培养出偏见 AI 的最主要原因,恰恰是训练数据中长期存在的系统性偏见和代表性失衡。要解决问题的根源,就必须在教育、就业等社会领域中持续改革,创造更加公平的环境。
只有提高透明度、强化监管,并与消除社会偏见的努力相结合,我们才能防止 AI 带来的新的就业歧视风险,充分发挥 AI 提高效率的优势,让 AI 真正成为企业和求职者的 " 助手 ",而非无心的 " 伤害者 "。