杨立昆的 AMI Labs 融资 10.3 亿美元构建世界模型
- 作者

- 姓名
- Nino
- 职业
- Senior Tech Editor
人工智能领域的格局再次发生巨变。Meta 首席 AI 科学家、深度学习先驱杨立昆 (Yann LeCun) 正式启动了他的新公司 AMI Labs (Autonomous Machine Intelligence)。这一举动在硅谷引起了巨大轰动,AMI Labs 宣布已成功完成 1.03 亿美元的融资,使这家尚处于研发阶段的初创公司估值达到惊人的 35 亿美元。这一举措代表了人工智能范式的根本性转变,从自 ChatGPT 发布以来一直占据主导地位的生成式 AI (Generative AI) 转向“世界模型” (World Models) 的开发——杨立昆一直认为这是通往通用人工智能 (AGI) 的真正路径。
对于目前依赖 n1n.ai 等平台获取全球最强大 LLM API 的开发者和企业来说,这一消息预示着我们构建和交互 AI 系统方式的潜在演变。虽然 LLM 在文本预测和综合方面表现出色,但 AMI Labs 的目标是构建能够像人类一样推理、计划并理解物理世界的系统,而这是目前的 Transformer 架构所无法实现的。
核心愿景:超越自回归 LLM 的局限
杨立昆一直是行业单一关注大语言模型 (LLM) 的批评者。他认为,通过自回归标记预测 (Autoregressive Token Prediction) 运行的 LLM 存在固有局限性。它们缺乏“世界模型”——即关于因果关系、物理约束和常识的心理地图。这导致了众所周知的幻觉问题、缺乏规划能力,以及无法处理需要在物理或逻辑环境中进行多步推理的任务。
AMI Labs 的技术基石是联合嵌入预测架构 (Joint Embedding Predictive Architecture, JEPA)。与试图填充每个像素或单词的生成式模型不同,基于 JEPA 的世界模型专注于预测场景的潜在表示 (Latent Representation)。这使得 AI 能够忽略无关紧要的细节(例如树上每一片叶子的具体运动),而专注于对决策至关重要的结构和因果要素。
技术对比:LLM 与世界模型
| 特性 | 自回归 LLM (如 GPT-4, Claude 3.5) | AMI 世界模型 (基于 JEPA) |
|---|---|---|
| 核心机制 | 下一个 Token 预测 | 潜在空间状态预测 |
| 学习来源 | 海量文本语料库 | 感官数据/物理交互 |
| 推理能力 | 概率性/涌现性 | 结构性/因果性 |
| 规划能力 | 有限 (思维链) | 原生支持 (内部模拟) |
| 幻觉风险 | 高 | 低 (受物理规律约束) |
| 延迟 | 较高 (逐字生成) | 在状态转换中可能更低 |
对于那些正在通过 n1n.ai 将 AI 集成到复杂业务流程中的人来说,理解这种转变至关重要。虽然您今天可以通过 n1n.ai 访问顶级模型,但下一代 API 的形态可能更像模拟引擎,而非聊天界面。
技术深挖:JEPA 与潜在空间预测
AMI Labs 面临的核心技术挑战是创建一个能像人类儿童一样学习的系统。孩子不需要数万亿个单词就能明白,如果摔碎玻璃杯,它会破裂。他们通过观察和互动学习。AMI 的“世界模型”旨在捕捉这种“常识”。
在 JEPA 架构中,系统由一个将输入映射到潜在空间的编码器和一个预测该空间内下一个状态的预测器组成。这避免了生成高分辨率数据(如图像像素)所带来的计算开销,因为对于高层推理来说,这些细节并非必要。以下是这种系统中状态转换建模的简化概念表示:
import torch
import torch.nn as nn
class WorldModelPredictor(nn.Module):
def __init__(self, latent_dim, action_dim):
super(WorldModelPredictor, self).__init__()
# 根据当前状态和动作预测下一个潜在状态
self.predictor = nn.Sequential(
nn.Linear(latent_dim + action_dim, 512),
nn.ReLU(),
nn.Linear(512, latent_dim)
)
def forward(self, current_latent, action):
# 潜在空间中的转换:s_{t+1} = f(s_t, a_t)
next_latent = self.predictor(torch.cat([current_latent, action], dim=-1))
return next_latent
# 机器人手臂控制示例
latent_state = torch.randn(1, 128) # 编码后的感官输入
planned_action = torch.randn(1, 10) # 代表物理动作的向量
# 世界模型在不渲染完整图像的情况下预测结果
predicted_outcome = WorldModelPredictor(128, 10)(latent_state, planned_action)
通过专注于这些潜在状态的转换,AMI Labs 希望创建能够规划复杂动作序列的 AI,例如引导机器人在拥挤的房间中穿行,或管理全球供应链,其可靠性将远超目前的 LLM。
市场影响与 35 亿美元估值的背后
由顶级风险投资机构和战略主权财富基金领投的 10.3 亿美元巨额投资,凸显了市场对“后 LLM 时代”突破的渴望。在 35 亿美元的估值下,尽管 AMI Labs 仍处于产品开发早期,但它已成为全球最有价值的 AI 初创公司之一。
投资者押注的是“杨立昆溢价”。作为“深度学习三巨头”之一,杨立昆从 Meta 离职预示着他认为当前的企业环境过于受限,过度追求 LLM 聊天机器人的短期商业回报。相比之下,AMI Labs 拥有充足的资金来追求可能重新定义整个技术栈的长期基础研究。
开发者应关注的三个重点
- AI 架构的多样化:我们正在走向一个多模态、多架构的世界。开发者不应仅仅依赖一种模型。像 n1n.ai 这样的平台至关重要,因为它们提供了统一的 API,允许在不同类型的模型出现时进行灵活切换。
- 自主代理的兴起:如果世界模型获得成功,我们将看到从“聊天机器人”到“自主代理” (Autonomous Agents) 的转变。这些代理可以在现实世界或复杂的软件环境中运行,无需人类不断的提示 (Prompting)。
- 数据效率的提升:世界模型承诺比 LLM 具有更高的数据效率。这可能会降低为特定行业微调和部署专用 AI 的成本。
专家建议:如何为世界模型时代做准备
为了保持领先地位,开发者应关注以下策略:
- 精通向量嵌入 (Vector Embeddings):由于世界模型在潜在空间中运行,理解如何管理和优化向量数据库将变得比以往任何时候都重要。
- 关注因果推理 (Causal Inference):超越简单的相关性。学习如何构建能够理解事件发生原因的系统,这是 AMI Labs 任务的核心。
- 利用聚合器平台:使用 n1n.ai 等服务来保持灵活性。当 AMI Labs 最终发布自己的 API 时,身处一个能够快速集成新端点的平台将是巨大的竞争优势。
总结
杨立昆的 AMI Labs 是对当前 AI 行业发展轨迹的一次大胆博弈。通过专注于世界模型和 JEPA 架构,杨立昆试图解决 LLM 的根本缺陷。这笔 10.3 亿美元的投资是否会催生出第一个真正的 AGI 还有待观察,但它无疑标志着机器智能新篇章的开启。
对于那些希望站在 AI 开发最前沿的人来说,获取最先进的模型是第一步。您可以通过集成的 API 解决方案体验最新的 LLM 技术,并为未来的自主智能做好准备。
立即在 n1n.ai 获取免费 API 密钥。