OpenAI 正式发布插件功能让 Codex 超越编程
- 作者

- 姓名
- Nino
- 职业
- Senior Tech Editor
大语言模型(LLM)的演进正处于一个关键的转折点。虽然最初围绕 GPT-3 和专门的 Codex 模型的兴奋点集中在它们生成类人文本和功能代码的能力上,但行业现在正转向 “行动导向” 的 AI。OpenAI 正式通过集成强大的插件架构发出了这一转变的信号,该架构将 Codex 带出了 IDE(集成开发环境),进入了通用自动化的领域。
对于一直依赖 n1n.ai 获取稳定高速 API 访问的开发者来说,这一进展代表了单一端点所能实现的功能得到了重大扩展。插件的引入允许模型实时与物理和数字世界互动,有效地将 LLM 变成了 Web 的操作系统。
从代码生成到行动执行
Codex 最初被设计为 GPT-3 的后代,专门针对来自 GitHub 的公共代码进行了微调。它的主要用途是在 GitHub Copilot 中,作为一个复杂的自动完成工具。然而,局限性显而易见:Codex 可以编写获取天气数据或执行交易的代码,但它本身无法 “实际” 执行这些操作。它是一个没有手的聪明大脑。
随着新插件功能的推出,OpenAI 正在提供这些 “手”。通过允许模型调用外部 API,OpenAI 弥合了 “知道如何做” 与 “实际去做” 之间的鸿沟。这一举动在很大程度上被视为对开源社区和竞争对手快速增长的回应,后者已经尝试 “智能代理”(Agents)数月之久。像 LangChain 和 AutoGPT 这样的工具已经展示了递归提示和工具使用的力量,而 OpenAI 现在正在其生态系统内将这一过程标准化。
技术深度解析:插件的工作原理
这些插件的架构依赖于标准化的清单文件(通常是 ai-plugin.json)和 OpenAPI 规范。当用户发出请求时,模型会根据清单中提供的描述,决定是否需要特定插件来完成提示。
例如,如果开发者使用 n1n.ai 网关访问最新的 GPT-4 或 Codex 衍生模型,工作流程如下:
- 用户提示:“分析我 SQL 数据库中的最后 100 笔交易并总结趋势。”
- 模型推理:模型识别出它无法直接访问 SQL 数据库,但看到有一个可用的 “SQL 连接器” 插件。
- API 调用:模型生成对插件 API 的结构化调用。
- 执行:插件执行查询并返回原始数据。
- 综合:模型处理数据并向用户返回自然语言摘要。
这种能力是企业级应用的变革者。它降低了 “幻觉” 风险,因为模型可以根据通过插件检索到的实时数据来锚定其答案。
竞争格局:AI 接口之争
OpenAI 在这一追求中并不孤单。像 Anthropic(拥有 Claude)和 Google(拥有 Gemini)这样的竞争对手也在竞相构建 “工具使用” 能力。然而,OpenAI 的优势在于其庞大的开发者基础和 Codex 现有的基础设施。
| 特性 | OpenAI Codex/插件 | LangChain (开源) | 竞争对手代理 |
|---|---|---|---|
| 易用性 | 高 (托管) | 中 (需要配置) | 参差不齐 |
| 延迟 | 低 (经过优化) | 取决于提供商 | 中等 |
| 安全性 | 沙盒化 | 用户管理 | 不确定 |
| 生态系统 | 庞大 | 持续增长 | 小众 |
通过使用像 n1n.ai 这样的聚合器,开发者可以并排比较这些不同 “具备行动能力” 的模型的性能,以确保他们获得最低的延迟和最佳的性价比。
实战指南:构建具备行动能力的 API 应用
为了有效地实现这些功能,开发者必须超越简单的字符串提示。你现在需要在 API 调用中定义 “函数” 或 “工具”。以下是开发者如何向支持这些能力的模型构建请求的概念示例:
import requests
# 使用 n1n.ai 作为高速网关
API_URL = "https://api.n1n.ai/v1/chat/completions"
headers = {"Authorization": "Bearer YOUR_N1N_KEY"}
payload = {
"model": "gpt-4-turbo",
"messages": [{"role": "user", "content": "NVIDIA 的当前股价是多少?"}],
"tools": [{
"type": "function",
"function": {
"name": "get_stock_price",
"description": "获取给定股票代码的当前价格",
"parameters": {
"type": "object",
"properties": {
"ticker": {"type": "string"}
},
"required": ["ticker"]
}
}
}]
}
response = requests.post(API_URL, json=payload, headers=headers)
print(response.json())
专家优化建议 (Pro Tips)
- 精细化描述:模型根据
description字段选择使用哪个插件。务必极其具体。不要只写 “获取数据”,而要使用 “从纳斯达克交易所检索实时 JSON 格式的股票市场数据”。 - Token 管理:请记住,插件定义和 API 响应都会消耗 Token。在使用 n1n.ai 时,请监控您的使用仪表板,以优化您发送的上下文量。
- 错误处理:插件可能会失败。始终实现回退机制,让模型可以向用户解释失败原因,而不是陷入无限循环。
- 安全性考量:当赋予 AI 执行操作的能力时,务必在插件端实施严格的权限控制。不要让 AI 拥有删除数据库的权限,除非那是你的本意。
结论:自主开发的未来
让 Codex 超越编程的举动清楚地表明,软件开发的未来不仅仅是编写代码行;它是关于编排智能服务。随着 OpenAI 继续完善其插件生态系统, “软件” 与 “智能” 之间的界限将继续模糊。对于企业来说,这意味着更快的上市时间和构建以前不可能实现的复杂应用的能力。
在 n1n.ai 获取免费 API 密钥。