行业资讯2026年2月23日AI 智能体安全风险与 OpenClaw 事件深度分析深入探讨 AI 编程工具 Cline 的安全漏洞,分析黑客如何利用提示词注入在多个系统中强制安装 OpenClaw,并讨论自主代理时代的安全性挑战与应对策略。阅读全文 →
行业资讯2026年2月22日OpenAI 就在 ChatGPT 对话中发现暴力倾向内容是否报警展开内部辩论内部报告揭示了 OpenAI 在面对用户隐私与公共安全时的抉择困境。在 ChatGPT 自动检测到一名加拿大用户发布暴力威胁内容后,公司高层就何时应向警方介入展开了激烈讨论。阅读全文 →
行业资讯2026年2月12日OpenAI 解散任务对齐团队以重组安全战略OpenAI 正式解散了其任务对齐(Mission Alignment)团队,将研究人员重新分配,并任命了新的首席未来学家。这一举措标志着该公司在处理 AI 安全和 AGI 开发方式上的重大转变。阅读全文 →
行业资讯2026年2月9日Moltbook 数据泄露与不断演进的 AI 安全格局深入分析 AI 智能体社交网络 Moltbook 的安全失败案例,探讨真实用户数据泄露的原因,并结合 Apple 的锁定模式和 Starlink 的地缘政治动态,分析 AI 时代的隐私保护策略。阅读全文 →
AI教程2026年2月7日机械可解释性:深度拆解大语言模型的认知逻辑 (Mechanistic Interpretability)深入探讨 AI 安全与透明度的前沿领域:机械可解释性。了解研究人员如何解码 Claude 3.5 Sonnet 和 DeepSeek-V3 等模型的内部运作机制,揭示它们如何“思考”。阅读全文 →
AI教程2026年2月5日内存投毒威胁:AI 智能体 4 小时内 87% 被攻陷的深度解析最新研究显示,内存投毒可以在短短四小时内渗透 AI 智能体 87% 的决策过程。本文将深入探讨这一静默威胁的原理及应对策略。阅读全文 →
AI教程2026年2月3日LLM 提示词注入攻击:开发者构建 AI 应用的完整安全指南深入探讨大语言模型(LLM)中的提示词注入漏洞,涵盖直接与间接攻击、RAG 投毒以及针对现代 AI 应用的生产级防御策略。阅读全文 →
AI教程2026年2月3日Moltbook 泄露深度分析:150 万 API 密钥因 Supabase 配置错误暴露深入分析 Moltbook 安全漏洞:由于 Supabase 缺少行级安全性 (RLS) 配置,导致 150 万个 API 密钥、代理私信和用户数据遭到泄露。阅读全文 →
行业资讯2026年1月29日AI 智能体点击链接时的隐私安全防护机制深入探讨 OpenAI 如何通过沙箱化、URL 过滤和隔离浏览技术,防止 AI 智能体在访问网页时发生数据泄露和提示词注入攻击。阅读全文 →
行业资讯2026年1月22日Anthropic 首席执行官在达沃斯抨击英伟达及美国芯片出口政策Anthropic 首席执行官 Dario Amodei 在达沃斯论坛上发表重磅言论,公开批评美国政府及英伟达等芯片巨头对华出口政策,引发了关于 AI 安全、硬件供应链与国家安全的深度讨论。阅读全文 →
行业资讯2026年1月20日为什么风险投资正大举押注 AI 安全与影子 AI 治理随着自主智能体和影子 AI 成为企业风险,VC 正在向 Witness AI 等安全初创公司投入巨资,以确保下一代 LLM 部署的安全与合规。阅读全文 →
行业资讯2026年1月15日微软 Copilot 遭遇单次点击隐蔽多阶段攻击安全研究人员演示了一种针对微软 Copilot 的复杂多阶段攻击,该攻击能够从聊天记录中窃取数据,甚至在用户关闭聊天窗口后依然有效。阅读全文 →