OpenAI 投资 Sam Altman 的脑机接口初创公司 Merge Labs

作者
  • avatar
    姓名
    Nino
    职业
    Senior Tech Editor

人工智能与神经技术的融合正迎来一个新的里程碑。OpenAI 最近对 Merge Labs 进行了重大投资,这一举动引发了科技界的广泛关注。作为一家传统上专注于大语言模型 (LLM) 数字架构的实体,OpenAI 进军硬件密集型的脑机接口 (BCI) 领域,标志着我们对人类与计算机交互未来认知的范式转移。Merge Labs 在 Sam Altman 的领导下,已获得 2.52 亿美元的融资,旨在开发一种独特的技术:利用超声波在大脑中进行读取和写入操作。这不仅是一个硬件项目,更是下一代 AI 驱动的认知增强技术的基础设施。

超声波脑机接口的技术前沿

与埃隆·马斯克的 Neuralink 不同,后者依赖于侵入性手术将高密度电极阵列直接植入运动皮层,Merge Labs 则押注于超声波物理学。脑机接口的核心挑战一直是“侵入性”与“分辨率”之间的权衡。脑电图 (EEG) 是非侵入性的,但由于颅骨的阻尼效应,其空间分辨率较低。相反,侵入式微电极虽然分辨率极高,但伴随着巨大的手术风险。

Merge Labs 采用的是聚焦超声 (Focused Ultrasound, FUS) 技术。通过调制超声波,该系统可以在不破坏皮肤的情况下,以毫米级的精度瞄准特定的神经集群。该技术在两个层面上运作:

  1. 读取 (解码): 利用功能性超声成像 (fUSI) 测量血容量或流量的变化,这些变化与神经活动(血液动力学)密切相关。随后,复杂的算法会处理这些数据以解释用户的意图。
  2. 写入 (编码): 利用低强度聚焦超声 (LIFU) 触发神经刺激。这可以调节神经元的兴奋性,从而有效地将信息或感觉“写入”大脑回路。

对于开发这些集成技术的开发者来说,数据吞吐量是惊人的。实时处理这些信号需要现代 LLM 集群所具备的高速推理能力。像 n1n.ai 这样的平台正成为开发者的必备工具,他们需要桥接生物数据流与云端 AI 处理之间的鸿沟。通过使用 n1n.ai,研究人员可以利用低延迟 API 将复杂的神经模式解析为可执行的指令。

脑机接口技术方案对比

特性Merge Labs (超声波)Neuralink (电极)Kernel (光学/MEG)
侵入性非侵入性 / 微创高度侵入性 (手术)非侵入性 (可穿戴)
空间分辨率高 (毫米级)极高 (微米级)中等
信号类型血液动力学 / 声学电信号 (动作电位)血氧 / 磁场
主要风险热效应 (低)感染、组织瘢痕化设备体积庞大
可扩展性高 (消费级潜力)低 (仅限临床)中等

为什么 OpenAI 押注生物集成?

OpenAI 的参与表明,通用人工智能 (AGI) 的最终目标不仅是一个聊天机器人,而是与人类意识的无缝融合。如果 LLM 能够通过像 Merge Labs 正在构建的高带宽链路理解用户的思想语境,那么“提示词 (Prompting)”的摩擦力就会消失。我们将从“提示词工程”转向“思维工程”。

从技术角度来看,这需要巨大的计算能力。在构建与 BCI 数据交互的应用时,开发者通常依赖强大的 API 聚合器。例如,n1n.ai 提供了处理将神经“噪声”转化为语义含义所需的高负荷推理所需的稳定性和速度。随着 Merge Labs 的规模扩大,对可靠 LLM 访问点的需求只会增加。

实现指南:利用 LLM 处理神经数据

为了理解 LLM 如何与 Merge Labs 的数据进行交互,我们可以设想一个场景:原始神经信号被转换为简化的向量空间。以下是一个概念性的 Python 实现,使用标准 API 结构将神经衍生令牌发送到 LLM 进行意图分类。

import requests
import json

# 模拟来自 Merge Labs 硬件的神经信号向量
neural_data_vector = [0.12, -0.45, 0.88, 0.23, 0.05]

def process_neural_intent(vector):
    # 在实际场景中,该向量将被映射为语义提示词
    prompt = f"分析此神经活动模式:{vector}。识别用户意图。"

    # 使用 n1n.ai 访问高速 LLM 推理服务
    api_url = "https://api.n1n.ai/v1/chat/completions"
    headers = {
        "Authorization": "Bearer YOUR_N1N_API_KEY",
        "Content-Type": "application/json"
    }

    payload = {
        "model": "gpt-4o",
        "messages": [{"role": "user", "content": prompt}],
        "temperature": 0.2
    }

    response = requests.post(api_url, headers=headers, json=payload)
    return response.json()

# 示例执行
# result = process_neural_intent(neural_data_vector)
# print(result['choices'][0]['message']['content'])

专业建议:优化 BCI 应用的延迟

在脑机接口领域,延迟是最大的敌人。如果用户想到“向下滚动”,而动作在 < 100ms 内发生,感觉就像是身体的延伸。如果延迟 > 500ms,感觉就像是一个坏掉的工具。为了优化您的 BCI-AI 流水线,请参考以下建议:

  1. 边缘预处理: 在将数据发送到云端之前,使用本地快速傅里叶变换 (FFT) 清洗超声波信号。
  2. 精简 API 调用: 使用聚合了最快模型的供应商。n1n.ai 允许您在 Claude 3.5 Sonnet 或 GPT-4o-mini 等模型之间切换,以在推理深度和响应速度之间找到完美平衡。
  3. 量化: 在部署本地模型处理初始的“信号到令牌”转换时,使用 4 位或 8 位量化以保持高帧率。

未来之路:伦理与技术挑战

通往消费级超声波脑机接口的道路充满了挑战。颅骨是一个声学屏障;虽然超声波可以穿透它,但必须精确管理信噪比,以避免对大脑组织产生热效应。此外,“写入”大脑的伦理影响是深远的。OpenAI 和 Merge Labs 需要建立严格的安全协议,以确保神经刺激不会被用于未经授权的行为修改。

展望 2025 年及以后,Merge Labs 的硬件与 OpenAI 的认知模型的整合可能会定义下一个计算时代。我们正在从屏幕时代走向直接神经接口时代。这种技术不仅能帮助残障人士恢复功能,还能极大地扩展人类的认知边界。

通过 n1n.ai 获取免费 API 密钥,开始您的 AI 开发之旅。