OpenAI 与 微软 AGI 条款的历史演变与终结

作者
  • avatar
    姓名
    Nino
    职业
    Senior Tech Editor

OpenAI 与微软之间的关系可能是计算历史上最重要的合作伙伴关系。这是一项价值数百亿美元的联盟,重新定义了人工智能的发展轨迹。然而,在这项合作的核心位置,曾存在着一个奇特的法律机制:'AGI 条款'。该条款旨在确保一旦 OpenAI 实现了通用人工智能(AGI),微软对其技术的商业授权将自动终止。近期 OpenAI 企业结构的转变以及有关重新谈判条款的报道表明,这一条款实际上已经名存实亡。为了理解为什么这对使用 n1n.ai 获取尖端模型的开发者至关重要,我们必须追溯这一独特契约边界的历史。

AGI 条款的起源 (2019)

2019 年,OpenAI 从纯粹的非营利组织转型为“利润上限”(capped-profit)实体。这是一个充满争议的举动,旨在让组织能够筹集到计算能力所需的海量资金,同时在理论上维持其造福人类的使命。当微软投入首笔 10 亿美元时,合同中包含了一个安全阀。协议规定,微软的授权仅适用于“预 AGI”(pre-AGI)技术。

OpenAI 董事会将 AGI 定义为“一种在大多数具有经济价值的工作中表现优于人类的高度自主系统”。关键细节在于,OpenAI 的非营利董事会——而非微软,也非其营利性子公司——拥有宣布 AGI 何时实现的唯一权力。这给了董事会一个“核选项”:他们只需宣布最新模型已达到 AGI 水平,即可有效切断微软对其最先进技术的访问权限。

为什么需要这个条款?

AGI 条款有两个目的。首先,它是对 OpenAI 创始团队中关注安全的一派的妥协。它确保了超智能系统不会被单一的利润驱动型公司所控制。其次,这是一种监管对冲。通过将 AGI 排除在商业交易之外,OpenAI 可以辩称其仍在优先履行非营利使命。

对于开发者和企业而言,这创造了一种隐约的不确定性。如果你将整个基础设施建立在 OpenAI 的 API 之上,如果董事会明天宣布“实现 AGI”会发生什么?这就是像 n1n.ai 这样的聚合器变得至关重要的地方。通过提供连接到包括 Anthropic、Google 和 Meta 在内的多个供应商的统一接口,n1n.ai 允许开发者减轻 OpenAI 与微软关系中固有的“平台风险”。

AGI 的定义:一个移动的目标

AGI 定义的模糊性既是其最大的优势,也是其最终的弱点。随着模型从 GPT-3 演进到 GPT-4,再到具备推理能力的 OpenAI o1 甚至即将推出的 o3,高级大语言模型(LLM)与 AGI 之间的界限开始变得模糊。

在原始章程中,AGI 是一个二进制状态。但在实践中,智能是一个频谱。董事会宣布 AGI 的权力是一个主观的法律触发器。这种主观性在 2023 年 11 月的董事会“政变”期间成为了焦点。当 Sam Altman 被短暂赶下台时,传闻称董事会担心某项突破(通常被称为 Q*)已接近 AGI 阈值。如果董事会将该突破宣布为 AGI,微软的投资在法律上将与其所资助的技术脱节。

条款的终结

在 2023 年危机以及随后的董事会重组之后,权力动态发生了变化。微软获得了一个无投票权的观察员席位,董事会成员也换成了更符合商业现实的人士。更重要的是,OpenAI 开始向完全营利性的公益公司转型。

在这种新结构下,“AGI 条款”已成为大气中的幽灵。虽然它可能仍存在于旧文件中,但实际情况是,OpenAI 现在与微软的 Azure 基础设施结合得太深,无法真正“拔掉插头”。像 o3 这样的模型对算力的海量需求,意味着 OpenAI 对微软的依赖程度与微软对 OpenAI 知识产权的依赖程度不相上下。

技术实现:为多模型世界做准备

作为一名开发者,你不能依赖单一供应商的公司治理稳定性。“AGI 条款”的消亡标志着向纯粹商业化的转变。为了保持灵活性,你的代码应该是模型无关的。使用像 n1n.ai 这样的聚合器可以确保如果一个供应商更改了条款或遇到了监管障碍,你的应用程序仍能保持在线。

以下是如何使用 n1n.ai API 结构实现健壮的多模型回退系统:

import openai

# 配置客户端使用 n1n.ai 的高速网关
client = openai.OpenAI(
    base_url="https://api.n1n.ai/v1",
    api_key="YOUR_N1N_API_KEY"
)

def generate_response(prompt, model_priority=["gpt-4o", "claude-3-5-sonnet", "deepseek-v3"]):
    for model in model_priority:
        try:
            response = client.chat.completions.create(
                model=model,
                messages=[{"role": "user", "content": prompt}],
                timeout=10
            )
            return response.choices[0].message.content
        except Exception as e:
            print(f"模型 {model} 失败: {e}。正在尝试下一个...")
    return "所有模型均失败。"

# 使用示例
result = generate_response("分析 AGI 对法律合同的影响。")
print(result)

在这个例子中,n1n.ai 充当了编排层。如果 OpenAI 的授权条款发生变化,或者微软的访问权限受到限制,你可以零摩擦地从 gpt-4o 切换到 claude-3-5-sonnetdeepseek-v3

衡量 AGI 阈值

要理解为什么该条款正在消亡,我们必须查看当前的基准测试。“AGI”的定义要求在“大多数具有经济价值的工作”中胜过人类。

模型编程 (HumanEval)数学 (GSM8K)推理 (MMLU)
GPT-4o90.2%92.0%88.7%
Claude 3.5 Sonnet92.0%96.4%88.7%
DeepSeek-V390.5%94.5%88.5%
OpenAI o192.3%98.0%90.1%

随着这些数字接近 100%,董事会声称这些系统仍处于“预 AGI”阶段在数学上变得越来越困难。行业正在转向一个“后 AGI”现实,在这种现实中,这种区分不再具有商业意义。

专家建议:以“算力”为护城河的策略

对于企业来说,AGI 条款的真正教训不在于智能的定义,而在于对算力的控制。微软提供了算力,OpenAI 提供了权重。当 AGI 条款威胁到这种平衡时,算力提供者最终获胜。

在选择 API 供应商时,请寻找那些提供以下服务的供应商:

  1. 低延迟:确保你的聚合器(如 n1n.ai)拥有全球边缘节点。
  2. 高频率限制:避免在高峰时段被限流。
  3. 模型多样性:不要被锁定在 OpenAI/微软的生态系统中。

结论

OpenAI 与微软的 AGI 条款曾是一个高尚但天真的尝试,旨在防止超智能的垄断。它的消亡标志着 AI 开发“浪漫主义”时代的终结和工业时代的开始。对于开发者来说,这意味着重点必须从“哪个模型最好”转向“哪个 API 最可靠且最具成本效益”。

通过利用 n1n.ai,你可以访问全频谱的高性能模型,而不必受制于任何单一公司合作伙伴关系中不断变化的法律泥潭。AGI 条款可能已经不复存在,但对稳定、高速 AI 访问的需求从未如此强烈。

n1n.ai 获取免费 API 密钥。