OpenAI 投资 Sam Altman 的脑机接口初创公司 Merge Labs
- 作者

- 姓名
- Nino
- 职业
- Senior Tech Editor
人工智能与神经技术的融合正迎来一个新的里程碑。OpenAI 最近对 Merge Labs 进行了重大投资,这一举动引发了科技界的广泛关注。作为一家传统上专注于大语言模型 (LLM) 数字架构的实体,OpenAI 进军硬件密集型的脑机接口 (BCI) 领域,标志着我们对人类与计算机交互未来认知的范式转移。Merge Labs 在 Sam Altman 的领导下,已获得 2.52 亿美元的融资,旨在开发一种独特的技术:利用超声波在大脑中进行读取和写入操作。这不仅是一个硬件项目,更是下一代 AI 驱动的认知增强技术的基础设施。
超声波脑机接口的技术前沿
与埃隆·马斯克的 Neuralink 不同,后者依赖于侵入性手术将高密度电极阵列直接植入运动皮层,Merge Labs 则押注于超声波物理学。脑机接口的核心挑战一直是“侵入性”与“分辨率”之间的权衡。脑电图 (EEG) 是非侵入性的,但由于颅骨的阻尼效应,其空间分辨率较低。相反,侵入式微电极虽然分辨率极高,但伴随着巨大的手术风险。
Merge Labs 采用的是聚焦超声 (Focused Ultrasound, FUS) 技术。通过调制超声波,该系统可以在不破坏皮肤的情况下,以毫米级的精度瞄准特定的神经集群。该技术在两个层面上运作:
- 读取 (解码): 利用功能性超声成像 (fUSI) 测量血容量或流量的变化,这些变化与神经活动(血液动力学)密切相关。随后,复杂的算法会处理这些数据以解释用户的意图。
- 写入 (编码): 利用低强度聚焦超声 (LIFU) 触发神经刺激。这可以调节神经元的兴奋性,从而有效地将信息或感觉“写入”大脑回路。
对于开发这些集成技术的开发者来说,数据吞吐量是惊人的。实时处理这些信号需要现代 LLM 集群所具备的高速推理能力。像 n1n.ai 这样的平台正成为开发者的必备工具,他们需要桥接生物数据流与云端 AI 处理之间的鸿沟。通过使用 n1n.ai,研究人员可以利用低延迟 API 将复杂的神经模式解析为可执行的指令。
脑机接口技术方案对比
| 特性 | Merge Labs (超声波) | Neuralink (电极) | Kernel (光学/MEG) |
|---|---|---|---|
| 侵入性 | 非侵入性 / 微创 | 高度侵入性 (手术) | 非侵入性 (可穿戴) |
| 空间分辨率 | 高 (毫米级) | 极高 (微米级) | 中等 |
| 信号类型 | 血液动力学 / 声学 | 电信号 (动作电位) | 血氧 / 磁场 |
| 主要风险 | 热效应 (低) | 感染、组织瘢痕化 | 设备体积庞大 |
| 可扩展性 | 高 (消费级潜力) | 低 (仅限临床) | 中等 |
为什么 OpenAI 押注生物集成?
OpenAI 的参与表明,通用人工智能 (AGI) 的最终目标不仅是一个聊天机器人,而是与人类意识的无缝融合。如果 LLM 能够通过像 Merge Labs 正在构建的高带宽链路理解用户的思想语境,那么“提示词 (Prompting)”的摩擦力就会消失。我们将从“提示词工程”转向“思维工程”。
从技术角度来看,这需要巨大的计算能力。在构建与 BCI 数据交互的应用时,开发者通常依赖强大的 API 聚合器。例如,n1n.ai 提供了处理将神经“噪声”转化为语义含义所需的高负荷推理所需的稳定性和速度。随着 Merge Labs 的规模扩大,对可靠 LLM 访问点的需求只会增加。
实现指南:利用 LLM 处理神经数据
为了理解 LLM 如何与 Merge Labs 的数据进行交互,我们可以设想一个场景:原始神经信号被转换为简化的向量空间。以下是一个概念性的 Python 实现,使用标准 API 结构将神经衍生令牌发送到 LLM 进行意图分类。
import requests
import json
# 模拟来自 Merge Labs 硬件的神经信号向量
neural_data_vector = [0.12, -0.45, 0.88, 0.23, 0.05]
def process_neural_intent(vector):
# 在实际场景中,该向量将被映射为语义提示词
prompt = f"分析此神经活动模式:{vector}。识别用户意图。"
# 使用 n1n.ai 访问高速 LLM 推理服务
api_url = "https://api.n1n.ai/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_N1N_API_KEY",
"Content-Type": "application/json"
}
payload = {
"model": "gpt-4o",
"messages": [{"role": "user", "content": prompt}],
"temperature": 0.2
}
response = requests.post(api_url, headers=headers, json=payload)
return response.json()
# 示例执行
# result = process_neural_intent(neural_data_vector)
# print(result['choices'][0]['message']['content'])
专业建议:优化 BCI 应用的延迟
在脑机接口领域,延迟是最大的敌人。如果用户想到“向下滚动”,而动作在 < 100ms 内发生,感觉就像是身体的延伸。如果延迟 > 500ms,感觉就像是一个坏掉的工具。为了优化您的 BCI-AI 流水线,请参考以下建议:
- 边缘预处理: 在将数据发送到云端之前,使用本地快速傅里叶变换 (FFT) 清洗超声波信号。
- 精简 API 调用: 使用聚合了最快模型的供应商。n1n.ai 允许您在 Claude 3.5 Sonnet 或 GPT-4o-mini 等模型之间切换,以在推理深度和响应速度之间找到完美平衡。
- 量化: 在部署本地模型处理初始的“信号到令牌”转换时,使用 4 位或 8 位量化以保持高帧率。
未来之路:伦理与技术挑战
通往消费级超声波脑机接口的道路充满了挑战。颅骨是一个声学屏障;虽然超声波可以穿透它,但必须精确管理信噪比,以避免对大脑组织产生热效应。此外,“写入”大脑的伦理影响是深远的。OpenAI 和 Merge Labs 需要建立严格的安全协议,以确保神经刺激不会被用于未经授权的行为修改。
展望 2025 年及以后,Merge Labs 的硬件与 OpenAI 的认知模型的整合可能会定义下一个计算时代。我们正在从屏幕时代走向直接神经接口时代。这种技术不仅能帮助残障人士恢复功能,还能极大地扩展人类的认知边界。
通过 n1n.ai 获取免费 API 密钥,开始您的 AI 开发之旅。