行业资讯2026年3月30日法官裁定政府无权将 Anthropic 列入黑名单一名联邦法官裁定,现任政府及战争部无权将 Anthropic 列入黑名单,理由是政府未能提供合理的禁令依据。这一裁决对 AI 开发者和 LLM 生态系统的稳定性具有深远影响。阅读全文 →
行业资讯2026年3月29日法院 授予 初步 禁令 以 阻止 五角大楼 对 Anthropic 的 禁令一名 联邦 法官 针对 五角大楼 试图 将 Anthropic 列入 黑名单 的 行为 发布了 初步 禁令,理由 是 该 行为 违反了 第一 修正案,并在“供应链 风险”认定 中 存在 程序 违规。阅读全文 →
行业资讯2026年3月27日Anthropic 赢得针对特朗普政府国防部限制令的初步禁制令一名联邦法官授予 Anthropic 一项初步禁制令,要求特朗普政府撤销最近对该公司在国防部合同方面施加的限制。这一裁决对 AI 行业的合规性与市场竞争具有深远影响。阅读全文 →
行业资讯2026年3月25日Anthropic 推出的 Claude Code 和 Cowork 现已支持自主控制计算机Anthropic 为其 Claude Code 和 Cowork AI 工具引入了革命性的自主计算机控制功能,允许 AI 直接操作文件、浏览器和开发工具。阅读全文 →
行业资讯2026年3月21日Anthropic 在新法庭文件中挑战五角大楼的国家安全指控Anthropic 向加州联邦法院提交了两份宣誓声明,反驳五角大楼关于其 AI 模型构成“不可接受的国家安全风险”的说法,并揭示双方在政治干预前已接近达成一致。阅读全文 →
行业资讯2026年3月19日司法部 质疑 Anthropic 对 军事 AI 系统 的 限制美国司法部在针对 Anthropic 的诉讼中作出回应,辩称政府有权对该公司进行处罚,原因是该公司试图限制其 Claude AI 模型在军事和作战系统中的使用方式。阅读全文 →
行业资讯2026年3月19日美国国防部称 Anthropic 的“红线”政策构成国家安全风险美国国防部指出,Anthropic 的安全“红线”可能导致其在作战期间禁用技术,这被视为供应链风险,引发了关于 AI 安全与军事连续性的广泛讨论。阅读全文 →
行业资讯2026年3月16日Anthropic 国防部争议与 AI 在风险投资中的应用深度解析深入探讨 Anthropic 与美国国防部之间的法律紧张关系、AI 生成内容对信息战的影响,以及大语言模型如何自动化风险投资行业。分析 AI 时代的“恐怖谷”效应及其对开发者和企业的启示。阅读全文 →
行业资讯2026年3月13日Claude AI 现在可以生成交互式图表和可视化内容Anthropic 更新了 Claude,使其能够生成行内交互式图表、图表和其他复杂的可视化内容。这一更新将 Claude 从一个简单的聊天机器人转变为一个面向开发人员和数据科学家的动态协作空间。阅读全文 →
行业资讯2026年3月9日Claude 用户增长势头强劲:在五角大楼争议后超越 ChatGPTAnthropic 旗下的 Claude 应用正经历爆发式增长。尽管面临企业级交易的争议,其在移动端下载量和日活跃用户增长率方面已开始超越 ChatGPT,显示出强劲的市场吸引力。阅读全文 →
行业资讯2026年3月8日Anthropic 挑战美国国防部供应链风险标签Anthropic 首席执行官 Dario Amodei 宣布将对美国国防部的供应链风险认定发起法律挑战,强调 Claude 模型在企业和联邦应用中的安全性。阅读全文 →
行业资讯2026年3月7日五角大楼正式将 Anthropic 列为供应链风险美国国防部正式将 AI 巨头 Anthropic 列为“供应链风险”,此举将禁止国防承包商在政府项目中使用 Claude 模型,主要原因是双方在 AI 使用政策和安全边界上存在严重分歧。阅读全文 →