深度调查:Chrome 与 Edge 浏览器静默安装的 4GB AI 模型

作者
  • avatar
    姓名
    Nino
    职业
    Senior Tech Editor

想象一下:你刚刚安装了一个纯净版的 Google Chrome 浏览器,没有安装任何扩展程序,却发现一个完整的 4GB 本地 AI 模型 —— Gemini Nano,已经静默运行在你的系统中。没有下载提示,没有弹窗确认,更没有明确的征得用户同意。这就是我们最近在技术调查中发现的现状。这不仅是 AI 技术的进步,更是一场悄无声息的浏览器运行时革命。对于追求极致稳定性和高性能 API 的开发者,n1n.ai 提供了比本地浏览器模型更成熟的企业级替代方案。

发现 weights.bin:消失的 4GB 空间

调查的起点源于对 Chrome 用户数据目录中一个名为 weights.bin 的巨大文件的质疑。该文件位于 %LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel\<版本号>\ 目录下。在运行 Chrome 147.0.7727.138 的测试机上,该文件占用空间约为 4,072 MiB。Microsoft Edge 也有类似的结构,其模型存储在 EdgeLLMOnDeviceModel 目录下。

尽管模型文件本身约 4GB,但 Chrome 的官方资格要求却极其苛刻:要求所在磁盘至少有 22 GB 的剩余空间。这种冗余设计可能是为了存储模型适配器(Adaptations)和版本更新。相比之下,使用 n1n.ai 提供的云端 API,开发者无需担心本地存储压力,即可访问包括 DeepSeek-V3 和 GPT-4o 在内的顶级模型。

内部状态深度解析

通过访问 chrome://on-device-internals,我们可以看到 Chrome AI 子系统的完整状态:

  • 模型名称: v3Nano (Gemini Nano v3 的内部代号)
  • 后端类型: GPU (最高质量模式)
  • 显存要求: 3000 MiB (基础加载阈值)
  • 状态: 已就绪 (Ready)

Edge 的 edge://on-device-internals 页面提供了更详细的硬件指纹信息,包括 GPU 的 PCI 供应商 ID 和 FP16 着色器能力标志。这些信息虽然方便了开发者调试,但也为浏览器指纹追踪(Fingerprinting)提供了新的维度。在复杂的企业应用场景中,依赖 n1n.ai 这种聚合 API 能够有效规避由于浏览器版本差异导致的本地模型不稳定性。

开发者 API 与实测表现

目前,浏览器正试图成为 AI 的运行时环境,暴露了一系列 JavaScript API:

  1. Summarizer (摘要生成器): 能够对长文本进行技术性总结。
  2. LanguageDetector (语言检测器): 离线识别文本语种。
  3. Translator (翻译器): 实现零网络延迟的本地翻译。
  4. LanguageModel (Prompt API): 直接与底层的 LLM 进行对话。

以下是一个简单的摘要生成代码示例:

;(async () => {
  const summarizer = await Summarizer.create({
    type: 'key-points',
    format: 'markdown',
    length: 'medium',
  })
  const result = await summarizer.summarize('这是一段需要总结的长文本...')
  console.log(result)
  summarizer.destroy()
})()

在对维基百科关于 Transformer 架构的条目进行测试时,Gemini Nano 表现出了优秀的专业写作能力。它能够准确识别“多头注意力机制”等术语,并生成符合逻辑的技术摘要。然而,在处理更复杂的逻辑推理或长文本 RAG 任务时,本地模型的参数量限制了其表现,此时 n1n.ai 提供的 Claude 3.5 Sonnet 等大模型优势便显现出来。

安全威胁与漏洞目录

我们的调查还揭示了几个不容忽视的安全风险:

  • 提示词注入 (Prompt Injection): 恶意网页可以通过在内容中嵌入指令,诱导模型忽略开发者设定的系统提示词(sharedContext)。
  • 隐蔽计算通道: AI 推理在 GPU 上进行,DevTools 的网络面板无法监控到这些计算过程,这可能被用于隐蔽的数据处理。
  • 硬件指纹追踪: 攻击者可以通过测量模型加载延迟和推理速度(TPS),精准判断用户的硬件配置。
  • 资源耗尽攻击: 恶意脚本可以启动无限循环的推理任务,导致用户显存溢出、系统卡顿或电池电量迅速耗尽。

如何彻底禁用本地 AI 模型

如果你不希望浏览器占用数 GB 的空间,可以通过配置企业策略来禁用它。将 GenAILocalFoundationalModelSettings 策略设置为 1 即可阻止下载并删除现有模型。

Windows 管理员模式 (PowerShell):

New-Item -Path "HKLM:\SOFTWARE\Policies\Google\Chrome" -Force
New-ItemProperty -Path "HKLM:\SOFTWARE\Policies\Google\Chrome" -Name "GenAILocalFoundationalModelSettings" -Value 1 -PropertyType DWord -Force

应用策略后,重启浏览器并检查 chrome://policy,确保策略已生效。

总结

Chrome 与 Edge 的静默 AI 安装标志着浏览器正演变为一个强大的本地 AI 运行时。虽然这为离线应用和隐私保护带来了可能性,但其不透明的安装方式和潜在的安全风险也给用户和企业带来了挑战。对于开发者而言,权衡本地模型的便利性与云端 API 的强大功能至关重要。访问 n1n.ai 可以获取更全面、更稳定的 LLM 服务支持。

Get a free API key at n1n.ai