行业资讯2026年3月29日法院 授予 初步 禁令 以 阻止 五角大楼 对 Anthropic 的 禁令一名 联邦 法官 针对 五角大楼 试图 将 Anthropic 列入 黑名单 的 行为 发布了 初步 禁令,理由 是 该 行为 违反了 第一 修正案,并在“供应链 风险”认定 中 存在 程序 违规。阅读全文 →
行业资讯2026年3月21日Anthropic 在新法庭文件中挑战五角大楼的国家安全指控Anthropic 向加州联邦法院提交了两份宣誓声明,反驳五角大楼关于其 AI 模型构成“不可接受的国家安全风险”的说法,并揭示双方在政治干预前已接近达成一致。阅读全文 →
行业资讯2026年3月8日OpenAI 机器人负责人 Caitlin Kalinowski 因五角大楼协议离职曾主导 Meta 硬件开发的资深高管 Caitlin Kalinowski 宣布辞去 OpenAI 机器人团队负责人一职,原因是不满公司与美国国防部达成的军事合作协议。阅读全文 →
行业资讯2026年3月7日五角大楼正式将 Anthropic 列为供应链风险美国国防部正式将 AI 巨头 Anthropic 列为“供应链风险”,此举将禁止国防承包商在政府项目中使用 Claude 模型,主要原因是双方在 AI 使用政策和安全边界上存在严重分歧。阅读全文 →
行业资讯2026年3月6日五角大楼正式将 Anthropic 列为供应链风险企业美国国防部(DoD)正式将 Claude 模型的开发商 Anthropic 列为“供应链风险”企业。这是美国本土主流 AI 公司首次获此标签。与此同时,美军仍在伊朗等敏感地区的行动中继续使用该公司的 AI 技术,引发了广泛的行业关注与技术讨论。阅读全文 →
行业资讯2026年3月2日OpenAI 披露与五角大楼合作协议的更多细节OpenAI 首席执行官 Sam Altman 针对公司与美国国防部合作引发的争议做出回应,承认在处理这一合作的“公众观感”方面过于仓促,并详细说明了双方合作的技术范围和战略目标。阅读全文 →
行业资讯2026年3月1日OpenAI 与五角大楼达成协议:通过技术保障确保军事 AI 安全山姆·奥特曼宣布 OpenAI 与美国国防部达成新协议,通过技术手段解决此前曾困扰 Anthropic 的 AI 军事应用争议。阅读全文 →
行业资讯2026年3月1日美国国防部将 Anthropic 列为供应链风险紧随政府的强硬表态,五角大楼正式将 AI 巨头 Anthropic 标记为供应链风险。这一举动预示着 AI 采购和安全政策的重大转向,对全球开发者和企业具有深远影响。阅读全文 →
行业资讯2026年2月27日Anthropic 首席执行官拒绝五角大楼关于不受限访问 AI 系统的要求Anthropic 首席执行官 Dario Amodei 公开拒绝了美国国防部(五角大楼)要求对其 Claude 核心模型进行不受限访问的要求,坚持公司的“责任缩放策略”和 AI 安全底线。阅读全文 →
行业资讯2026年2月27日Anthropic 拒绝五角大楼关于致命性 AI 与大规模监视的新条款Anthropic 坚定拒绝美国国防部关于无限制访问其 AI 模型的要求,重申在致命自主武器和对美大规模监视方面的红线。阅读全文 →