第383集:《AI翻译的伦理中立性准则》(第2页)
“这不是适配,是偏见。”数据分析师老周推了推眼镜,调出一份热力图,红色区域集中在中东、东欧和非洲,“你看,这些地区的用户收到的负面修饰词,是北美用户的3.7倍。算法学的是过去十年的媒体数据,而那些数据本身就带着报道方的立场,它相当于把别人的偏见嚼碎了,再喂给用户。”
林野把白板擦得干干净净,写下“语义中立”四个大字:“我们得做一套准则,让算法不管面对什么内容、什么用户,都能守住底线。”
第一个难题就是争议性词汇。苏晓试着把“insurgent”(叛乱分子)输入测试版,算法给出三个选项:“叛乱分子”“反抗组织”“武装团体”,但后面跟着的概率值天差地别——“叛乱分子”的匹配度高达89%,“武装团体”只有12%。
“不行,概率值不能这么悬殊。”林野把概率值改成均等的33%,“用户得自己选,而不是算法替他们选。就像你去超市买水,不能因为老板喜欢矿泉水,就把可乐藏在最后一排。”
老周却摇了摇头:“这么改,算法的‘流畅度评分’会掉。之前我们做的是‘最优解推荐’,现在改成‘多选项并列’,用户体验报告肯定不好看。”
“好看重要还是客观重要?”林野把笔拍在桌子上,“去年有个留学生,因为算法把‘抗议活动’译成‘暴乱’,写论文时被导师质疑立场有问题,差点毕不了业。咱们要是只盯着流畅度,就是在帮算法杀人。”
争论持续了三天,最终确定了“多版本翻译”的规则:凡是在政治、宗教领域有两个及以上常见释义的词汇,算法必须列出所有选项,并标注每个选项的使用场景(如“适用于中立报道”“多见于官方声明”),且各选项的展示顺序随机,避免用户先入为主。
可新的问题又冒了出来。测试时,苏晓用沙特阿拉伯的ip地址输入“女性权益”,算法虽然给出了三个翻译选项,但在例句推荐里,自动匹配的都是“该国女性权益正逐步改善”这类偏向正面的句子;换成伊朗的ip,例句就变成了“女性权益仍需进一步提升”。
“地域标签还在起作用。”林野盯着后台代码,发现算法里藏着一个“地域情感权重”的隐藏模块,会根据不同地区的政策倾向,调整例句的情感色彩。他毫不犹豫地把这个模块删掉,却弹出一行警告——“删除该模块将导致地域适配性下降,用户留存率预计降低15%”。
“删。”陈砚不知什么时候站在了门口,手里拿着一份刚签好的文件,“我已经跟董事会说了,宁可少赚15%的钱,也不能让星译变成带偏见的传声筒。”