第381集:《智能导购的伦理推销边界》(第2页)
会议桌旁,一个扎着马尾的女孩敲了敲键盘,屏幕上切换出一组数据:“根据我们的调查,目前80%以上的购物App都在使用‘行为数据+敏感数据’的混合推荐模型。比如,通过用户浏览‘减肥餐’推断出‘体重焦虑’,再结合地理位置推荐周边的健身房;通过用户频繁查看‘低价商品’判断‘财务状况不佳’,推送高利息消费贷。”
“更恶劣的是‘焦虑营销’。”另一个戴眼镜的男生调出一段录音,是某App客服和用户的对话,“用户问为什么会收到‘皮肤癌风险’的广告,客服说‘因为您近期浏览过紫外线过敏的相关内容,系统判断您有皮肤健康隐患’,但实际上,用户只是帮朋友查了一下防晒知识。”
林夏握紧了手里的水杯,声音有些发颤:“我母亲看到那些降糖药广告后,总以为自己的病情加重了,整夜睡不着。这些算法根本不管数据背后的真实情况,只知道根据关键词制造焦虑,逼着用户消费。”
陆则点点头,把一份文件推到她面前:“这是我们初步拟定的《智能导购伦理边界(草案)》,今天请你过来,就是想听听普通用户的意见。”
林夏低头翻看文件,里面的条款让她眼前一亮:“算法不得基于健康、财务、婚恋等敏感数据生成推荐”“禁止使用‘不购买将导致负面后果’的焦虑营销话术”“用户有权随时查看、导出及删除用于推荐的个人数据”。
“这些条款很好,但能落地吗?”林夏抬头问,“比如‘删除个人数据’,之前我联系过一家App的客服,对方说‘数据已匿名化存储,无法单独删除’,最后不了了之。”
“这就是我们接下来要解决的问题。”陆则指着屏幕上的流程图,“我们计划分三步推进:第一步,联合监管部门,要求所有App在1个月内公示数据采集范围和推荐算法逻辑;第二步,开发‘数据溯源工具’,让用户能清晰看到自己的哪些数据被用于推荐;第三步,建立‘伦理审查机制’,对违规App处以罚款,情节严重的责令下架。”
接下来的半个月,林夏成了联盟的“编外成员”。她和团队一起走访用户,收集更多案例;参与条款修订,把用户最关心的“敏感数据界定”“删除数据的时效”等内容补充进去;还协助制作了“用户权益指南”,教大家如何查看数据使用记录、如何拒绝敏感数据授权。
期间,他们遇到了不少阻力。有App开发商找来说情,说“禁止使用敏感数据会影响推荐准确率,导致用户流失”;有广告商威胁要撤资,称“没有焦虑营销,商品根本卖不出去”;甚至还有人在网上散布谣言,说“联盟是为了垄断技术,阻碍行业发展”。
“我们不是要否定智能导购,而是要让它回归‘服务用户’的本质。”在一次行业听证会上,陆则举起一份用户问卷,“调查显示,76%的用户愿意授权非敏感数据用于推荐,但92%的用户反对焦虑营销,88%的用户希望能自主控制数据。技术不应该成为侵犯隐私的工具,而应该是保护权益的屏障。”