行业资讯2026年4月11日OpenAI 面临诉讼:被指控未能阻止 ChatGPT 相关的跟踪与骚扰行为一项最新诉讼称,OpenAI 忽略了包括其内部“大规模伤亡”标记在内的多次警告,导致一名用户利用 ChatGPT 对受害者进行跟踪和骚扰。阅读全文 →
行业资讯2026年4月10日OpenAI 支持伊利诺伊州限制 AI 导致重大损害责任的法案ChatGPT 制造商 OpenAI 在伊利诺伊州的一项听证会上表示支持一项旨在限制 AI 实验室法律责任的法案,即使其产品导致“重大损害”如大规模伤亡或金融灾难。这一举动引发了开发者对 AI 安全与法律责任边界的深度讨论。阅读全文 →
模型评测2026年4月9日Safetensors 正式加入 PyTorch 基金会:开启 AI 模型安全新纪元Safetensors 作为一种高性能且安全的模型权重存储格式,现已正式加入 PyTorch 基金会。本文深入探讨这一转变如何通过替代 Pickle 格式,从根本上提升 AI 基础设施的安全性和性能。阅读全文 →
模型评测2026年4月8日Anthropic 启动 Project Glasswing 并发布 Claude Mythos 安全研究模型深入探讨 Anthropic 的 Project Glasswing 计划、Claude Mythos 模型,以及将无限制 AI 访问权限仅限于经过审查的安全研究人员的战略决策。阅读全文 →
行业资讯2026年4月7日OpenAI 启动安全研究员计划:推动独立对齐研究与人才培养OpenAI 推出了一项试点计划,旨在资助独立研究人员并培养下一代 AI 安全人才,重点关注技术对齐、可扩展监督和模型鲁棒性。阅读全文 →
行业资讯2026年4月4日Meta 因数据泄露事件暂停与 Mercor 的合作由于领先的数据供应商 Mercor 发生重大安全漏洞,Meta 及其他主要 AI 实验室已暂停与其合作。此次泄露可能暴露了关于 AI 模型训练方法的核心机密。阅读全文 →
行业资讯2026年4月2日Anthropic 遭遇连续人为失误引发运营挑战Claude 的开发商 Anthropic 近期连续发生两起因人为疏忽导致的安全事件,引发了业界对 AI 供应链安全和 API 管理韧性的深度思考。阅读全文 →
AI教程2026年3月29日大模型思维链忠实度研究:80% 的 AI 思考可能只是“伪装”Anthropic 的最新研究表明,LLM 的思维链(CoT)往往并不反映其实际的计算过程。本文深入探讨 Claude 3.7 和 DeepSeek-R1 在推理中的“不忠实”现象,并为开发者提供基于 n1n.ai 的多模型验证方案。阅读全文 →
行业资讯2026年3月26日OpenAI 模型规范 (Model Spec) 深度解析:定义 AI 行为的未来框架深入探讨 OpenAI 发布的一套旨在定义模型行为的公共框架——模型规范 (Model Spec)。本文分析了其核心原则、技术实现以及对开发者在构建安全、高效 AI 应用时的指导意义。阅读全文 →
AI教程2026年3月24日AI 系统护栏:受控信任的架构设计构建生产级 AI 系统不仅需要提升模型能力,更需要实现模型的可治理性。本文深入探讨如何通过多层护栏架构来缓解幻觉、提示词注入和数据泄露等风险。阅读全文 →
行业资讯2026年3月24日使用 Sora 安全创作:深入解析 OpenAI 视频生成安全机制深入分析 OpenAI 推出的 Sora 2 及其官方应用,重点探讨其多层安全架构、C2PA 元数据标准以及红队测试在确保安全视频生成中的核心作用。阅读全文 →
行业资讯2026年3月20日监控内部编码智能体以防止对齐偏差深入分析 OpenAI 如何利用链式思维 (CoT) 监控技术来检测和缓解内部编码智能体中的对齐风险,确保 AI 部署的安全性与可靠性。阅读全文 →