95后|面试你的不是人?纽约计划限制人工智能「面试官」

【95后|面试你的不是人?纽约计划限制人工智能「面试官」】
95后|面试你的不是人?纽约计划限制人工智能「面试官」
文章图片
95后|面试你的不是人?纽约计划限制人工智能「面试官」
文章图片
95后|面试你的不是人?纽约计划限制人工智能「面试官」
文章图片
「我们无法提供有关您面试结果的具体反馈 。 」
在美国 , 越来越多的雇主利用人工智能(AI)加快招聘流程 。 但求职者很少知道 AI 招聘工具为何拒绝他们的简历 , 或者如何分析他们的视频面试 。 当他们落选时 , 往往只能收到这样一封冷冰冰的邮件 , 不知道自己到底为什么落选 。
▲ 图片来自:unsplash
这不免令人不安 , AI 在我们的职业生涯中究竟起到怎样的决定权?
美联社报道 , 11 月初 , 纽约市议会以 38 票对 4 票通过了一项法案:如果 AI 招聘系统没有通过年度审计 , 将被禁止使用 。 年度审计将检查 AI 招聘系统有没有种族或性别歧视 , 允许求职者选择人工审查等替代方案 , AI 开发人员还需披露更多过去不透明的细节 。
有趣的是 , 负责年度审计的是 AI 开发人员 , 但会被处罚的是雇主 , 如果他们使用了未通过年度审计的 AI 招聘系统 , 每项违规行为最高处罚 1500 美元 。
支持者认为 , 该法案将为复杂的算法打开一扇窗户 。 算法往往根据求职者的说话或写作方式对技能和个性进行排名 , 但机器能否准确公正地判断性格特征和情绪信号值得怀疑 , 这一过程未来会更加透明 。
至少 , 知道「因为算法有偏见而被拒绝」就是有意义的 , 牛津大学技术法教授 Sandra Wachter 曾经表示:
反歧视法主要是由投诉驱动的 , 如果他们不知道发生在自己身上的事情 , 就没有人可以抱怨被剥夺了工作机会 。
初创公司 Pymetrics 也非常支持这一法案 , 他们提倡借助 AI 通过游戏等方法面试 , 并认为其符合公平要求 。 与此同时 , 过时的 AI 面试方案将被扫进垃圾堆 。 AI 招聘系统提供商 HireVue 在今年初已开始逐步淘汰其面部扫描工具 , 这项工具被学术界称为「伪科学」 , 让人想起有关种族主义的颅相学理论 。
对法案的反对意见 , 大多是出于「这远远不够」 。 民主与技术中心主席 Alexandra Givens 指出 , 提案实际上只是要求雇主满足美国民权法的现有要求——禁止因种族、民族或性别而产生不同影响的招聘行为 , 但忽略了针对残疾或年龄的偏见 。
▲ 图片来自:unsplash
而一些人工智能专家和数字权利活动家担心 , 法案只是让 AI 开发人员自证他们遵守了基本要求 , 也只是为联邦监管机构和立法者设定薄弱标准 , 具体如何「审计偏见」非常模糊 。
值得注意的是 , 偏见在面试中并不少见 , 主要问题出在喂养算法的样本 , 但它们往往被置于「黑箱」之中 , 普通求职者很难发觉 。
几年前 , 亚马逊停用了简历扫描工具 , 因为它偏向让男性担任技术岗位 。 部分原因在于 , 它将求职者的条件与公司内部的男性技术劳动力进行比较;同理 , 如果算法从种族和性别差异已经普遍存在的行业中获取养料 , 那么它只是在巩固偏见 。
这种偏见并不只是招聘中 。 今年 4 月 , 南加州大学一项新的研究表明 , Facebook 正在以可能违反《反歧视法》的方式展示广告 , 男性更有可能看到披萨送货司机招聘广告 , 而女性更有可能看到购物广告 。
▲ 图片来自:unsplash
本质上 , AI 歧视就是被人类社会培养的 , 个人的偏见行为甚至是下意识的 , 我们自己不一定察觉 。 如果将一家偏见较少的公司与偏见严重的公司比较 , 一般就是两种原因——前者在有意消除偏见方面做得更好 , 后者更擅长收集并不合理的现状并使它们永久化 。
所以 , 中性意见认为纽约市提案最好的部分是它的披露要求 , 让人们知道自己正在被 AI 评估、如何被 AI 评估以及他们的数据去向是哪里 。
▲ 参考资料:1.https://apnews.com/article/technology-business-race-and-ethnicity-racial-injustice-artificial-intelligence-2fe8d3ef7008d299d9d810f0c0f7905d2.https://apnews.com/article/job-seekers-artificial-intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9