Google 与 Thinking Machines Lab 达成数十亿美元协议深化合作

作者
  • avatar
    姓名
    Nino
    职业
    Senior Tech Editor

人工智能领域的版图再次发生巨变。据可靠消息,由 OpenAI 前首席技术官 Mira Murati 创立的新初创公司 Thinking Machines Lab 已经与 Google Cloud(谷歌云)达成了一项价值数十亿美元的深度合作协议。这项协议的核心在于,Thinking Machines 将获得 Google Cloud 提供的、基于英伟达(Nvidia)最新 GB300 “Blackwell-Ultra” 芯片的高性能计算算力。这一举动标志着 Mira Murati 在离开 OpenAI 后,正式选择了 Google 作为其技术背书与算力支撑,直接挑战现有的 AI 权力结构。

算力竞赛的新高地:GB300 芯片的战略地位

在 AI 开发中,算力就是生命线。Thinking Machines Lab 此次选择 Google Cloud 而非微软 Azure 或 AWS,其核心考量在于对英伟达 GB300 芯片的早期访问权。GB300 作为 Blackwell 架构的增强版,其性能相较于目前的 H100 或 GB200 有了质的飞跃。对于正在构建超大规模参数模型的 Thinking Machines 而言,GB300 提供的万亿级参数处理能力是不可或缺的。

GB300 的技术优势主要体现在:

  • 更高的互联带宽:采用 NVLink 6.0 技术,使得成千上万颗 GPU 能够像一颗超大 CPU 一样协同工作,这对于训练超过 10 万亿参数的模型至关重要。
  • 新型 HBM3e 内存:大幅提升了数据吞吐量,能够支持更大规模的上下文窗口(Context Window),从而让模型具备更强的“长程记忆”。
  • 低功耗高性能:在同等算力下,GB300 的能效比大幅提升,这对于需要消耗巨额电力的 AI 实验室来说,意味着更可持续的研发投入。

对于开发者而言,虽然直接接触这类顶级硬件的门槛极高,但通过 n1n.ai 这样的 API 聚合平台,可以间接享受到这些顶级算力孵化出的模型能力。 n1n.ai 致力于将全球最领先的 LLM 能力整合,让开发者无需担心底层硬件的复杂性。

为什么是 Google Cloud?

长期以来,Google 一直在推广其自研的 TPU(张量处理单元)。然而,此次与 Thinking Machines 的合作显示了 Google Cloud 的灵活性:他们愿意投入巨资采购英伟达的 GPU 来吸引顶尖的 AI 实验室。这种“双轨制”策略让 Google Cloud 成为了 AI 初创公司的理想选择。相比之下,Azure 与 OpenAI 的绑定过于紧密,而 AWS 的自研芯片生态尚在完善中。

通过这次合作,Thinking Machines Lab 可以利用 Google 的全球数据中心网络和先进的液冷技术,确保 GB300 集群能够在极端负载下稳定运行。这种稳定、高速的 API 响应正是 n1n.ai 平台所追求的核心体验。

技术深度:如何在大规模集群上优化训练?

在拥有了 GB300 算力后,Thinking Machines Lab 预计将采用以下尖端技术来提升模型性能:

  1. 混合专家模型 (MoE, Mixture of Experts):通过 GB300 的高速互联,可以更有效地实现专家路由,让模型在保持低推理成本的同时,拥有巨大的参数量。
  2. 算子融合 (Operator Fusion):在编译器层面针对 Blackwell 架构进行深度优化,减少显存与计算单元之间的数据交换。
  3. FP4 精度推理:利用 GB300 对新精度格式的支持,在不损失模型智能的前提下,将推理速度提升数倍。

对于广大开发者,这意味着未来在 n1n.ai 平台上调用的模型将变得更快、更聪明,且价格更具竞争力。

开发者指南:利用 n1n.ai 接入下一代 AI

随着 Thinking Machines Lab 等实验室推出新模型,API 的集成将变得复杂。 n1n.ai 为开发者提供了一套标准化的接口,屏蔽了不同厂商之间的差异。以下是使用 Python 调用聚合 API 的示例:

# 使用 n1n.ai 聚合 SDK 的示例代码
import requests
import json

def call_next_gen_llm(user_prompt):
    url = "https://api.n1n.ai/v1/chat/completions"
    headers = {
        "Authorization": "Bearer YOUR_N1N_API_KEY",
        "Content-Type": "application/json"
    }
    payload = {
        "model": "thinking-machines-ultra", # 假设的模型标识符
        "messages": [{"role": "user", "content": user_prompt}],
        "temperature": 0.7
    }

    # 这里的 API 调用将受益于 Google Cloud 的底层 GB300 算力
    response = requests.post(url, headers=headers, data=json.dumps(payload))
    return response.json()

# 开发者提示:始终检查响应中的 usage 字段以优化 Token 消耗

行业影响分析

这次数十亿美元的交易不仅仅是两家公司的合作,它预示着 AI 行业进入了“重资产、高技术”的双重竞争阶段。Mira Murati 凭借其在 OpenAI 积累的经验,加上 Google 提供的无限算力,极有可能在短期内打破 GPT-4o 的垄断地位。对于企业用户来说,这意味着在 n1n.ai 平台上将会有更多高质量的选择,不再受限于单一供应商。

总结与展望

Thinking Machines Lab 与 Google Cloud 的联手,是 AI 算力与顶尖人才的强强联合。英伟达 GB300 的加入,为这场变革提供了最强劲的引擎。无论未来的模型如何进化,n1n.ai 都将站在技术的最前沿,为全球开发者提供最稳定、最快速的 API 接入服务。

Get a free API key at n1n.ai