第394集:《AI招聘的伦理反歧视规范》(第2页)
“这会增加巨大的人工成本!”马克的声音提高了几分,“我们的训练数据集有120万条样本,逐一复核高偏见风险数据,至少需要三个月。而且谁来判断‘是否合理’?这本身就带有主观性。”
“成本不能和公平比。”林砚走到会议室中央,调出一组匿名访谈视频。画面里,一位戴着黑框眼镜的年轻女孩局促地攥着简历,背景是简陋的出租屋:“我毕业于家乡的职业技术学院,但我自学了python、java,还开发过两个小工具在github上获得了上千星标。可我投了三十多家企业的技术岗,连一次面试都没收到过。后来才知道,我的‘学历’在Ai眼里,就是‘低潜力’的标签。”
视频结束时,会议室里陷入了短暂的沉默。周明趁机补充道:“我们的‘偏见清洗’不是‘删除数据’,而是‘修正标准’。比如,对于‘学历’字段,我们会保留‘专业匹配度’‘技能证书’等有效信息,剔除‘院校排名’这种隐性歧视因子;对于‘年龄’,则用‘项目经验年限’‘技术更新频率’等更能反映能力的指标替代。这样既能保留Ai的筛选效率,又能切断偏见的传递链。”
三天后,“偏见清洗”技术框架初步成型。但新的难题接踵而至——如何让求职者知晓被Ai淘汰的真实原因?某互联网企业的hr总监李娜提出了担忧:“如果公开核心评估维度,会不会有人针对性‘包装’简历?比如知道Ai看重‘大型项目经验’,就编造不存在的经历。到时候Ai筛选出来的,可能全是‘简历高手’,而非真正的人才。”
“可如果不公开,求职者连被歧视的原因都找不到。”林砚调出另一组数据,某求职者半年内投递23家企业均未通过初筛,团队介入后发现,他简历中的“xx职业技术学院”学历,被Ai自动归类为“低潜力群体”,但他所应聘的“运维工程师”岗位,核心要求是“3年以上服务器维护经验”,与学历无关。“我们要的不是‘防作弊’,是让Ai回归‘评估职业能力’的本质。如果一个人的能力达标,就算知道评估维度,也不需要‘包装’;如果能力不达标,再怎么‘包装’也经不起后续考核。”
经过七轮跨领域研讨,团队终于在《Ai招聘伦理规范》中敲定了两条核心规则。第一条,企业必须在招聘启事中标注Ai筛选的核心评估维度,且维度需与岗位需求直接相关——例如“后端开发工程师”的评估维度应包括“java开发经验匹配度”“分布式系统问题解决能力”“代码质量评分”,而非“年龄”“院校背景”等无关因素;第二条,未通过初筛的求职者,可通过官方渠道申请获取“Ai评估反馈报告”,报告需具体说明未达标的维度及原因,如“项目经验中缺乏‘千万级用户系统运维’相关案例”,而非模糊的“综合评分不足”或“不符合岗位要求”。
规范落地前,团队选择了曾因Ai招聘歧视被投诉17次的“星途科技”作为试点企业。首次“偏见清洗”就剔除了1.2万条高偏见风险样本,其中包括“年龄超过35岁自动降分”“非985高校毕业生直接标记低潜力”等隐性规则。调整后的第一个招聘周期,星途科技35岁以上求职者的初筛通过率从18%跃升至35%,女性技术岗候选人占比从15%提升至29%,偏远地区高校毕业生的面试邀请数量更是翻了两番。