Chrome悄然移除隐私承诺,静默下载AI模型引争议

Chrome设置页面隐去数据本地化承诺

在Chrome 147版本中,系统设置路径下的“设备端AI”功能曾明确标注:相关人工智能模型将在用户本地运行,无需上传数据至谷歌服务器,以保障隐私安全。然而,在最新发布的Chrome 148.0.7778.97版本中,该说明已彻底消失,仅保留一句模糊提示——“可使用本地运行的AI模型,关闭后部分功能将不可用”。

用户发现界面变更并引发舆论震荡

这一细微调整被技术社区用户敏锐捕捉,并迅速在Chrome主题论坛及多个开发者平台引发讨论。相关话题短时间内获得超250次关注,成为隐私议题的新焦点。有用户直言:“谷歌反复证明其不可信,任何看似保护隐私的设计都可能是数据收集的伪装。”另有观点指出,该机制实质上是隐形的数据采集通道,不仅收集行为痕迹,还由终端用户承担算力消耗成本,设计极具隐蔽性。

后台静默下载行为暴露系统漏洞

据多方验证,当前版本的Chrome会在满足最低硬件条件的设备上自动下载约4GB的Gemini Nano模型权重文件。整个过程无弹窗提醒、无用户确认流程,也无显著状态提示。该文件存储于用户数据目录的特定子路径中,即便手动删除,浏览器重启后仍会重新下载。

研究人员通过macOS系统日志首次记录此行为,并随后在Windows 11和Ubuntu环境中复现,证实其跨平台普遍性。

原承诺失效背后的逻辑断裂

此前声明中强调“数据不外传”的说法,曾是谷歌解释为何可在未经用户同意下部署本地AI模型的核心依据。但这一主张本身存在明显矛盾:位于地址栏的“AI模式”功能实际将所有查询内容发送至云端处理,而非调用本地的Gemini Nano模型。

因此,移除“无需发送数据”的表述并未修复系统设计的根本缺陷,反而使谷歌失去唯一可用的伦理辩护依据,暴露出其策略上的自相矛盾。

潜在法律风险持续累积

针对此次设置页修改及后台下载行为,媒体未能获得谷歌官方回应。最早披露问题的研究者指出,该操作可能触犯欧盟《电子隐私指令》中关于用户知情同意的规定——即在设备上存储或执行程序前必须取得明确授权。

尽管谷歌已撤回原始承诺,但其行为模式仍未符合合规要求。目前Chrome 148版本正在逐步推送,147版本用户仍可见旧说明,而更新用户则面临隐私条款的实质性缺失。