第238集:《人工智能的伦理挑战升级》
算法的裂痕
林深第一次意识到算法不是中立的,是在那个暴雨倾盆的午后。他站在“启明科技”的落地窗前,看着玻璃上蜿蜒的水痕,像极了刚才那份被算法标记为“低潜力”的简历——那是他亲自招进团队的实习生小周的转正申请。
“系统显示小周的协作评分低于部门均值3.2个百分点。”hr的声音透过电话传来,带着电子合成般的平稳,“虽然项目贡献度达标,但综合评估不符合转正阈值。”
林深捏紧了手机,指节泛白。他清楚记得小周为了优化医疗Ai的诊断模型,连续三周泡在实验室,连母亲住院都只去过两次。协作评分?不过是因为小周有严重的口吃,在视频会议里总是跟不上讨论节奏。算法把沉默误读成了消极,却看不见那些深夜发在工作群里、字字斟酌的代码建议。
“这不合理。”他听见自己的声音在发抖,“算法不能这么判断一个人。”
“林博士,”hr的语气多了一丝为难,“这是集团刚上线的智能人力系统,用的是行业最先进的深度学习模型,误差率低于0.3%。”
0.3%?对被刷掉的小周来说,就是100%的不公。林深推开椅子,办公室里此起彼伏的键盘声突然变得刺耳。作为启明科技伦理委员会的负责人,他一直以为自己筑起的防线足够坚固——数据脱敏、模型审计、用户授权……却没料到偏见会以这样隐蔽的方式,从算法的毛细血管里渗透出来。
当晚,林深在伦理委员会的加密服务器里,调出了人力系统的训练数据集。屏幕的蓝光映着他疲惫的脸,一行行代码在眼前流淌,像某种神秘的符文。突然,他停在了一组参数上——系统在评估“沟通能力”时,赋予了“语速”和“发言时长”过高的权重。
“原来如此。”林深喃喃自语。这个由数据喂养长大的算法,悄悄继承了人类社会的隐性偏见。它奖励那些能言善辩的人,却对不善言辞者关上了大门。而这仅仅是个开始,当他用同样的方法检测司法辅助系统时,发现算法对特定地域的被告人,自动给出了更严厉的量刑建议。
消息在团队内部引起了轩然大波。数据科学家陈曦连夜开发出一款算法偏见检测工具,像给Ai装上了ct扫描仪,能逐层剖析模型的决策逻辑。他们把工具接入了启明科技所有的Ai系统,三天后得出的报告让所有人倒吸一口凉气:在招聘、信贷、司法三个领域,算法的隐性偏见发生率分别高达7.8%、11.2%和9.5%。