Humans& 聚焦协作领域:构建下一代 AI 基础模型的新前沿

作者
  • avatar
    姓名
    Nino
    职业
    Senior Tech Editor

人工智能领域正在经历一场深刻的范式转移。如果说过去两年是“聊天机器人”(Chatbot)的时代——以 GPT-4 和 Claude 3.5 Sonnet 为代表的大语言模型(LLM)主要进行线性、轮次式的对话——那么现在,行业正迅速向“智能体 AI”(Agentic AI)转型。一家名为 Humans& 的初创公司正处于这一浪潮的最前沿。该公司由来自 Anthropic、Meta、OpenAI、xAI 和 Google DeepMind 的顶尖研究人员组成,他们认为 AI 的真正潜力不在于“对话”,而在于“协同”(Coordination)。他们正在构建专门为高风险、多方协作设计的下一代基础模型。

从对话到协同的跨越

目前的绝大多数大语言模型都是基于“预测下一个 Token”的逻辑,并针对对话上下文进行了优化。虽然这种模式在撰写邮件或总结文档方面表现出色,但在处理涉及多个利益相关者或工具的复杂、多步骤工作流时,往往显得力不从心。Humans& 提出,“协同”是一个独立的技术原语,它需要一种与标准聊天模型完全不同的架构方法。

当我们观察像 n1n.ai 这样的平台时,我们可以清楚地看到市场对“非对话式”能力的需求正在激增。开发者们越来越倾向于寻找能够为自主智能体提供稳定逻辑和决策支持的 API。Humans& 旨在填补这一空白,通过创建理解博弈论、资源分配和冲突解决的模型,解决标准 Transformer 模型在复杂任务调度中的短板。

为什么协同是 AI 领域最难的问题?

在 AI 领域实现真正的协同涉及多个层面的技术复杂性,而目前的模型仅触及皮毛:

  1. 意图对齐(Intent Alignment):理解多个用户或智能体的不同需求,并找到一条能够满足集体目标的路径。
  2. 状态管理(State Management):在一个多个参与者同时改变变量的动态环境中,实时跟踪并更新全局状态。
  3. 可靠性与验证(Reliability & Verification):确保 AI 智能体不仅是“幻觉”出一个解决方案,而是真正执行了一系列可验证的动作。

对于通过 n1n.ai 调用 API 的开发者来说,协同中心化模型的出现意味着可以大幅减少目前构建多智能体系统所需的“胶水代码”。基础模型本身将承担任务分配和冲突处理的职责,而不是由开发者手动编排不同 LLM 之间的调用。

技术架构:超越 Transformer?

虽然 Humans& 尚未公布其模型的完整技术细节,但其核心团队的背景暗示了他们可能会向“系统 2 思维”(System 2 Thinking)靠拢——即模型在采取行动之前能够进行深思熟虑和规划。这与 OpenAI o1 或 DeepSeek-V3 的趋势不谋而合,即利用强化学习和思维链(CoT)来提升推理能力。然而,Humans& 的独特之处在于其专注于“智能体间”的交互空间。

想象一个场景:一个 AI 必须管理企业的供应链。它需要与物流智能体、仓储智能体和财务智能体进行沟通。标准的聊天模型会将每次交互视为独立的 Prompt。而协同模型会将整个生态系统视为一个需要优化的单一状态空间。

利用现代 API 实现协作逻辑

在等待 Humans& 发布其首个模型期间,开发者已经可以利用 n1n.ai 上提供的高性能模型来构建具备协作能力的应用程序。通过结合 Claude 3.5 Sonnet 的推理能力和 GPT-4o 的工具调用能力,我们可以利用 LangChain 或 CrewAI 等框架模拟复杂的协同流程。

以下是一个使用 Python 调用 API 实现智能体协同逻辑的概念性示例:

import requests

# 模拟智能体协同循环
def coordinate_agents(task_description):
    # 通过 n1n.ai 访问高速推理模型
    api_url = "https://api.n1n.ai/v1/chat/completions"
    headers = {"Authorization": "Bearer YOUR_API_KEY"}

    # 第一步:任务拆解 (Decomposition)
    # 使用逻辑严密的模型进行规划
    plan_payload = {
        "model": "claude-3-5-sonnet",
        "messages": [
            {"role": "system", "content": "请将此任务拆解为多智能体团队的子任务。"},
            {"role": "user", "content": task_description}
        ]
    }
    plan_response = requests.post(api_url, json=plan_payload).json()

    # 第二步:分布式执行
    # 在未来的协同模型中,这将是一个原子化调用
    # 目前我们通过循环处理子任务来模拟
    results = []
    tasks = plan_response['choices'][0]['message']['content'].split('\n')
    for task in tasks:
        if task.strip():
            res = requests.post(api_url, json={
                "model": "gpt-4o",
                "messages": [{"role": "user", "content": task}]
            }).json()
            results.append(res['choices'][0]['message']['content'])

    return results

AI 生态系统的未来趋势

Humans& 进入市场标志着“聊天机器人”炒作周期正在进入成熟期。企业不再满足于一个只能“聊天”的窗口,他们需要一个能够协同工作的“数字劳动力”。这种转变将推动对低延迟、高可靠性 API 服务的需求。像 n1n.ai 这样的平台在这种转型中至关重要,因为它们提供了运行这些复杂多智能体循环所需的基础设施,避免了管理多个供应商带来的复杂性。

对比分析:对话模型 vs. 协同模型

特性对话中心化模型 (如 GPT-4)协同中心化模型 (如 Humans&)
核心目标生成类人文本完成跨多个角色的复杂任务
底层逻辑概率性下一个 Token 预测基于博弈论的状态优化
上下文处理单线程对话流多维状态空间管理
工具集成被动响应 (Function Calling)主动编排 (Orchestration)
延迟敏感度中等极高 (需实时同步)

开发者专业建议 (Pro Tips)

  1. 路由模式 (Router Pattern):在构建当前系统时,不要依赖单一模型。将简单的任务发送给较小、较快的模型,而将复杂的协同任务交给专门的推理模型。通过 n1n.ai 的统一接口,你可以非常轻松地实现这种模型分级策略。
  2. 状态持久化:在多智能体交互中,确保有一个中心化的数据库或缓存(如 Redis)来存储全局状态,避免模型因上下文窗口限制而遗忘关键进度。
  3. 成本优化:协同任务通常涉及多次 API 调用。利用 n1n.ai 提供的价格优势和聚合能力,可以有效控制大规模智能体集群的运行成本。

随着 Humans& 继续开发其基础模型,全球开发者都将密切关注他们是否能真正解决“协同难题”。如果他们取得成功,下一代 AI 将不再仅仅是助手,而是真正的团队成员。

立即在 n1n.ai 获取免费 API 密钥。