Databricks 首席执行官 Ali Ghodsi:AI 将使传统 SaaS 变得无关紧要

作者
  • avatar
    姓名
    Nino
    职业
    Senior Tech Editor

企业软件领域正面临一场剧震。Databricks 的首席执行官 阿里 · 戈德西 (Ali Ghodsi) 最近在科技界引发了广泛讨论。他提出,虽然软件即服务 (SaaS) 作为一种交付模式并不一定会“死亡”,但保护大型 SaaS 厂商的传统护城河正在迅速瓦解。戈德西认为,人工智能生成代码和管理复杂逻辑的能力,很快就会让那些本质上只是“带 UI 的数据库”的传统 SaaS 模型变得无关紧要。

对于开发者和企业架构师来说,这不仅仅是一个哲学上的预测,它是未来十年软件开发的蓝图。为了应对这一转型,许多人开始转向 n1n.ai 等平台,获取构建下一代 AI 原生应用所需的高性能 LLM API。

“带 UI 的数据库”模式的终结

在过去的二十年里,SaaS 行业建立在一个相对简单的前提之上:创建一个专有数据库,在其上构建一个功能性的用户界面,并收取订阅费。Salesforce、ServiceNow 和 Workday 都遵循这一模式。它们的“护城河”在于构建软件的复杂性,以及将数据移出系统的摩擦力。

Ali Ghodsi 指出,生成式 AI 摧毁了这条护城河。当 AI 可以在几秒钟内编写出 CRM 或 ERP 系统的代码时,创建竞争对手的技术门槛几乎降为零。我们正走向一个“氛围编程” (Vibe-coding) 的世界——即根据自然语言描述由 AI 生成的软件,可以轻松复制价值数十亿美元平台的功能。

为什么 AI 原生竞争对手正在崛起

对现有的 SaaS 巨头真正的威胁并不是某个单一的 AI 会取代它们,而是 AI 允许创建成千上万个高度专业化的竞争对手。这些新进入者没有沉重的旧代码库负担。他们利用“数据智能”来提供传统 SaaS 无法提供的洞察。

为了构建这些竞争对手,开发者需要可靠地访问世界上最强大的模型。通过使用 n1n.ai 这样的服务商,开发者可以在 Claude 3.5 Sonnet、GPT-4o 和 DeepSeek-V3 等模型之间无缝切换,为特定的使用场景找到推理能力与成本之间的完美平衡。

技术对比:传统 SaaS vs. AI 原生应用

特性传统 SaaSAI 原生 (Ghodsi 愿景)
核心逻辑硬编码业务规则LLM 驱动的推理与智能体 (Agents)
数据结构僵化的关系型模式向量嵌入与非结构化数据
用户界面静态仪表盘自然语言与生成式 UI
开发周期数月的冲刺计划数小时的提示词工程与迭代
集成方式复杂的 REST API语义搜索与代理化 RAG

使用 n1n.ai 实施“AI 原生”战略

如果软件本身正在变成一种商品,那么价值就会转移到数据和 AI 模型的编排上。现代开发者正在构建“代理化” (Agentic) 工作流,软件不再仅仅是存储数据,而是根据数据采取行动。

以下是一个简单的示例,展示开发者如何使用 n1n.ai 实现多模型回退策略,以确保任务关键型 AI 功能的 100% 可用性:

import requests

def call_llm_with_fallback(prompt):
    # 首选模型:通过 n1n.ai 调用 Claude 3.5 Sonnet
    models = ["claude-3-5-sonnet", "gpt-4o", "deepseek-v3"]

    for model in models:
        try:
            response = requests.post(
                "https://api.n1n.ai/v1/chat/completions",
                headers={"Authorization": "Bearer YOUR_API_KEY"},
                json={
                    "model": model,
                    "messages": [{"role": "user", "content": prompt}]
                },
                timeout=10
            )
            if response.status_code == 200:
                return response.json()
        except Exception as e:
            print(f"模型 {model} 调用失败,正在尝试下一个...")

    return None

RAG (检索增强生成) 的作用

Ghodsi 强调,未来属于“数据智能平台”。这就是 RAG 发挥作用的地方。通过将 LLM 连接到您自己的专有数据,您可以创造出 AI 无法轻易复制的护城河。逻辑很简单:任何人都可以构建 UI,但只有您拥有数据。

在构建 RAG 系统时,延迟是敌人。开发者经常发现,直接连接到某些提供商可能会受到限制或不稳定。通过 n1n.ai 路由请求,企业可以确保始终使用到达模型的最快可用路径,保持专业 SaaS 体验所需的“响应速度”。

后 SaaS 时代的专家建议

  1. 专注于垂直领域 AI: 不要构建通用的 CRM。构建一个专门理解欧盟制药行业法律合规要求的 AI。
  2. 拥有上下文,而非代码: 您的应用代码可能是由 AI 生成的,但“上下文” (Context,即用户的特定历史和偏好) 才是您真正的知识产权。
  3. 模型无关性: 永远不要把自己锁定在单一的 AI 提供商上。每 3 个月,“最强”的模型就会发生变化。使用 n1n.ai 这样的聚合器来保持灵活性。
  4. 优化成本: 随着 AI 原生应用的规模扩大,Token 成本可能会爆炸式增长。对于分类任务使用较小、较便宜的模型,而将 o1 等“重型武器”留给复杂的逻辑推理。

总结

Ali Ghodsi 的警告是给整个行业的一记警钟。销售简单 CRUD (创建、读取、更新、删除) 应用程序的时代即将结束。下一代软件领导者将是那些能够利用 LLM 的力量提供真正智能,而不仅仅是数据存储的人。

无论您是正在构建挑战现有巨头的初创公司,还是正在实现技术栈现代化的企业开发者,您选择的工具都将决定您的成功。高速、稳定且多样化的 API 访问是这个新时代的基石。

Get a free API key at n1n.ai