第247集:《智能交通的伦理困境与突破》
红绿灯下的代码伦理
凌晨三点的测试场弥漫着橡胶灼烧后的金属味,林夏盯着监控屏上跳动的数据流,指尖在触控板上悬停了半秒。屏幕里,自动驾驶测试车正以每小时60公里的速度冲向突然闯入虚拟道路的"行人"——一个由光影构成的小女孩模型。
"第17次模拟开始。"她按下录制键,实验室的冷光灯在镜片上投下蓝白色光斑。
测试车的激光雷达突然发出急促的蜂鸣,车身周围的传感器如同受惊的昆虫般震颤。林夏看着屏幕上迅速展开的决策树:左侧是护栏,碰撞会导致车内假人颈椎断裂;右侧车道有辆时速40公里的电动车,避让会引发连环追尾;而正前方的虚拟女孩正在追逐滚到路中间的红色气球。
数据流在0.3秒内完成了三次迭代,最终测试车选择了紧急制动。轮胎在地面拖出两道黑色弧线,车头在距离虚拟女孩0.8米处停下。林夏松了口气,却发现屏幕右下角跳出一行警告:决策系统优先选择最小伤亡算法时,忽略了车内儿童安全座椅的存在。
"又是这个问题。"她摘下眼镜揉了揉眉心,办公桌上的相框里,七岁的侄子正举着奖状笑得露出豁牙。三天前,加州那场自动驾驶事故的新闻画面突然在脑海里闪回:失控的suv撞上护栏时,安全气囊没有按预设弹出,只因系统判定碰撞角度"不符合常规事故模型"。
清晨的阳光透过百叶窗在会议室地板上切割出明暗交错的条纹,交通部门的张科长把一份泛黄的事故报告推到桌中央。纸页上的照片显示着五年前那场暴雨中的连环车祸,七辆追尾的车里有三辆是早期自动驾驶原型车。
"当时的算法只认前车刹车灯,"张科长的指甲在照片边缘划出浅痕,"可暴雨天谁看得清灯?现在你们的新系统号称能处理极端天气,但上周那场沙尘暴,还是有五辆车在立交桥上集体停摆。"
林夏翻开带来的伦理评估报告,第17页用荧光笔标出的数据格外刺眼:在过去三个月的城市道路测试中,自动驾驶系统在面临道德两难选择时,有23%的决策不符合公众问卷调查结果。最具争议的案例发生在上个月的学校门口,一辆测试车为避让突然冲出的宠物狗,猛打方向盘撞上了路边的自行车。
"公众在意的不是技术参数,"汽车制造商代表李总突然把钢笔拍在桌上,金属笔帽与桌面碰撞的声音让所有人都抬了头,"是信任。上周我们的预订量掉了15%,就因为有人在网上说我们的车'会为了救猫而撞死孕妇'。"
会议室里陷入短暂的沉默,空调出风口的气流声突然变得清晰可闻。林夏想起昨天去小学做调研时,那个扎羊角辫的小姑娘举着画满问号的纸问她:"阿姨,你的车会像童话故事里的骑士一样保护我吗?"
技术组的王工突然打破沉默,他推过来的平板电脑上显示着新开发的伦理决策模型:"我们加入了文化权重因子,在商业区会优先保护行人,进入工业区则侧重减少财产损失。但问题在于..."他滑动屏幕调出另一组数据,"不同社区的偏好差异太大,老城区居民最在意尊老爱幼,科技园附近则更看重通行效率。"
林夏注意到王工指尖下的图表,代表"伦理偏好分歧度"的曲线在过去半年里一直呈上升趋势。她突然想起上周参加的社区听证会,穿旗袍的老奶奶拍着桌子说"汽车就该让着人",而程序员打扮的年轻人反驳"算法不能搞道德绑架"时涨红的脸。