为什么我们构建 AIGNE

AI 代理领域充斥着为演示而优化的框架。五分钟构建一个聊天机器人。把几个提示词串在一起。发布一个在屏幕录制中看起来很厉害、但在生产负载下不堪一击的东西。

我们构建 AIGNE 是因为我们需要根本不同的东西:一个将 AI 代理视为一等软件组件的框架 — 在隔离、组合、测试和部署方面具有我们对任何生产系统所期望的同等严谨性。

这个名字反映了我们的理念:AI 原生工程不是把 AI 附加到现有的软件模式上。它是在 AI 成为开发和执行过程中的核心参与者时,重新思考软件的构建方式。

函数隔离架构

大多数代理框架在组件之间自由共享状态。这使得简单的演示变得容易,但让生产系统变得脆弱。AIGNE 采取相反的方法:每个代理函数都在隔离中运行

每个函数具有:

  • 定义的输入和输出 — 没有隐式共享状态
  • 自己的上下文边界 — 一个函数不能破坏另一个函数的状态
  • 显式通信通道 — 数据通过声明的接口流动

这不是一个限制。这是一个借鉴自数十年操作系统研究的设计原则。隔离是使系统可组合、可测试和安全的关键。当你的代理做出错误决策时,爆炸半径是可控的。

多模型支持

AIGNE 不绑定单一 LLM 提供商。框架通过统一接口抽象模型交互,因此你可以:

  • 在同一应用中为不同任务使用不同模型
  • 切换提供商而无需重写代理逻辑
  • 开发时使用本地模型,生产时使用云端模型
  • 跨提供商实现降级链

模型是一个依赖项,而不是一个身份标识。你的代理逻辑不应该因为你从一个提供商切换到另一个而改变。

工作流模式

真实的代理应用不是单轮对话。它们是工作流 — 必须可靠执行的决策、操作和验证序列。AIGNE 为常见模式提供一等支持:

  • 顺序管道 — 带有类型化传递的逐步处理
  • 并行扇出 — 同时将工作分发给多个代理
  • 条件路由 — 根据中间结果引导流程
  • 人在环中 — 暂停执行以等待人工审核和批准

这些模式是声明式的。你描述工作流结构,AIGNE 处理执行、错误恢复和可观测性。

AFS 集成

AIGNE智能体文件系统(AFS)深度集成。每个代理的工作空间都是一个 AFS 命名空间,这意味着:

  • 代理状态是持久的,可以通过标准文件操作检查
  • 配置、提示词和工具都是人类和 AI 都可以读写的文件
  • 审计追踪是自动的 — 每个文件操作都带有身份上下文记录
  • 代理可以通过定义良好的文件路径共享数据,而不是临时的消息传递

AFS 为代理提供了一个对人类和机器都自然的共享抽象层。你不需要特殊工具来检查代理做了什么 — 只需查看文件即可。

MCP 支持

AIGNE 实现了模型上下文协议(MCP),使代理能够通过标准化接口连接外部工具和数据源。这意味着你的代理可以访问数据库、API、文件系统和其他服务,而无需为每个服务编写自定义集成代码。

为 Blocklet 生态而生

AIGNE 代理作为 Blocklet 部署在 Blocklet Server 上。这为你提供:

  • 一键部署 — 打包代理应用并部署到任何运行 Blocklet Server 的地方
  • 内置 DID 身份 — 每个部署的代理自动获得去中心化标识符
  • 资源管理 — CPU、内存和网络约束在平台层面强制执行
  • 生命周期管理 — 通过统一接口启动、停止、更新和回滚代理

AIGNE 的代理框架与 Blocklet Server 的部署基础设施相结合,意味着你可以从原型到生产无需切换平台。

开源

AIGNE 在 Apache 2.0 许可证下完全开源。源代码、文档和示例都可以在 GitHub 上获取。我们相信,AI 代理的基础设施必须是开放的 — 无论是为了信任还是为了生态增长。

我们在开放环境中构建 AIGNE,因为我们正在解决的问题太重要了,不能被锁在专有围墙之后。如果 AI 代理将成为关键基础设施,那么构建它们的框架需要是可审计的、可扩展的和社区拥有的。

开始使用 AIGNE 构建

AIGNE 是开源的,已准备好供开发者使用。

在 GitHub 上查看 | 阅读文档


推荐阅读