Okta 首席执行官 Todd McKinnon 谈 AI 智能体身份识别与 SaaS 的未来

作者
  • avatar
    姓名
    Nino
    职业
    Senior Tech Editor

企业级软件的格局正经历着一场翻天覆地的变化。在最近的一次深度访谈中,Okta 的联合创始人兼首席执行官 Todd McKinnon 谈到了业界热议的 “SaaS 启示录”(SaaSpocalypse)—— 在这个未来,AI 驱动的 “氛围编程”(vibe coding)允许企业自行构建内部工具,而不再为传统的 SaaS 席位付费。然而,McKinnon 并没有坐以待毙,他正将这家市值 140 亿美元公司的未来押注在一个全新的概念上:AI 智能体身份(AI Agent Identity)。随着开发者越来越多地利用 n1n.ai 等平台部署复杂的模型,管理 “谁” 或 “什么” 在访问公司数据变得前所未有的重要。

SaaS 启示录与智能体企业的兴起

McKinnon 的 “健康偏执” 源于这样一个现实:像 Claude 3.5 Sonnet 和 OpenAI o3 这样的工具正在大幅降低软件开发的门槛。如果一名开发人员可以通过提示词让智能体在一个下午内构建出一个定制化的 Trello 或 Jira 克隆版,那为什么还要支付昂贵的 SaaS 授权费呢?这种颠覆性力量正促使 Okta 将目光投向人类用户之外的领域。

“智能体企业”(Agentic Enterprise)代表了一种转变,即工作由人类和 AI 智能体组成的混合团队共同完成。这些智能体不仅仅是简单的脚本,它们是具备推理、计划和跨系统执行任务能力的非确定性实体。当你使用 n1n.ai 这样的聚合器来访问多个大语言模型(LLM)时,你实际上是在创建一支数字员工队伍,它们需要与人类员工同等级别的安全保障和身份验证。

定义智能体身份:介于人与系统之间的混合体

McKinnon 最深刻的见解之一是:AI 智能体的身份介于 “人” 和 “系统” 之间。这种混合属性决定了传统的身份管理模式必须进化。

属性人类身份系统 / 服务账户AI 智能体身份
确定性低(人类行为不可预测)高(静态逻辑)中(概率推理)
访问方式生物识别 / 密码API 密钥 / 机密动态令牌 + 人机协同
持久性长期有效长期有效任务特定或持久性
问责机制个人法律实体系统所有者混合型(用户 + 模型所有者)

管理这种混合实体需要一个全新的框架。传统的 IAM(身份与访问管理)是为登录应用的人类设计的。而新的前沿领域是关于 “智能体登录其他智能体”。例如,如果你使用 n1n.ai 将查询路由到 DeepSeek-V3 或 GPT-4o,接收系统如何知道该智能体有权访问特定的数据库?

Okta 智能体蓝图的三大支柱

为了解决这一挑战,Okta 提出了一个保护智能体企业的蓝图,重点关注三个核心领域:

  1. 将智能体作为身份入驻:每个智能体都必须有一个可验证的记录系统。这不仅仅是一个机器人账号,而是一个包含所用模型、所有者和预期用途的详细配置文件。通过 n1n.ai 调用的每一个模型请求都应该能够追溯到其背后的智能体身份。
  2. 标准化的连接点:正如 SAML 或 OIDC 彻底改变了人类的单点登录(SSO)一样,我们需要一套关于智能体如何在不同孤岛之间传递凭证的标准。这对于 RAG(检索增强生成)工作流至关重要,因为智能体必须穿梭于多个数据仓库之间。
  3. 智能体熔断开关(Kill Switch):由于 AI 的行为是非确定性的,安全团队需要能够立即撤销某个智能体的访问权限,而无需关闭整个系统。如果一个智能体开始产生 “幻觉” 并发起未经授权的数据请求,熔断开关将切断其与企业网络的连接。

技术实现指南:保护 AI 智能体工作流

对于使用 LangChain 或 AutoGPT 构建智能体工作流的开发者来说,实现身份请求头(Identity Headers)是一项最佳实践。以下是一个概念性的 Python 示例,展示了如何在使用 n1n.ai 提供的 API 调用中封装身份上下文。

import requests

# 定义智能体身份上下文
agent_identity_context = {
    "agent_id": "finance-analysis-bot-007",
    "model_provider": "n1n-aggregator",
    "base_model": "deepseek-v3",
    "access_level": "restricted-financials"
}

# 通过 n1n.ai 访问 LLM 并携带身份识别头
def secure_llm_call(user_prompt):
    # 访问 n1n.ai 聚合 API
    api_url = "https://api.n1n.ai/v1/chat/completions"
    headers = {
        "Authorization": "Bearer YOUR_N1N_API_KEY",
        "X-Agent-Context": str(agent_identity_context),
        "Content-Type": "application/json"
    }
    payload = {
        "model": "deepseek-v3",
        "messages": [{"role": "user", "content": user_prompt}]
    }

    # 执行请求并处理响应
    try:
        response = requests.post(api_url, headers=headers, json=payload)
        response.raise_for_status()
        return response.json()
    except Exception as e:
        return {"error": str(e)}

# 调用示例
output = secure_llm_call("分析 2025 年第一季度财报风险")
print(output)

为什么开发者需要统一的 API 层

正如 McKinnon 所指出的,软件市场的 “蛋糕” 正在变大。我们正在构建比以往多出 10 倍的软件,因为智能体编写代码的速度远超人类。然而,这导致了基础设施的碎片化。开发者现在不得不管理来自 OpenAI、Anthropic、DeepSeek 和 Google 的各种 API 密钥。

这正是 n1n.ai 成为技术栈中不可或缺的一部分的原因。通过提供一个单一且稳定的 API 来访问所有主流 LLM,n1n.ai 简化了基础设施层,使开发者能够专注于 McKinnon 所描述的 “智能层” 和 “身份层”。无论你是担心 “SaaS 启示录”,还是对智能体未来感到兴奋,目标都是一致的:构建具有韧性、安全且高性能的 AI 应用。

总结:信任的未来

向智能体身份迈进不仅仅是一个技术更新,更是信任哲学的一次转变。随着我们数字化国民身份证并转向生物识别支持的数字钱包,人类与机器之间的界限将继续模糊。那些能够掌握如何管理这些 “数字员工” 的公司,将引领下一个企业技术时代。

n1n.ai 获取免费的 API 密钥。