苏米注:上周 LangChain 连放两个大招:Deep Agents v0.5 和 Deploy beta。一个解决 Agent 编程的核心痛点,一个让部署变成一条命令的事。如果你正在做 AI Agent 相关的开发,这两个更新值得认真看看。
一、Deep Agents 是什么
Deep Agents 是 LangChain 在 2026 年 3 月推出的开源 Agent 框架(Python + TypeScript),专门为长时间运行的多步骤任务设计。
跟大多数 Agent 框架不同,它内置了五个核心能力:
- write_todos 规划工具 — Agent 自动把复杂任务拆解成步骤,跟踪进度
- 虚拟文件系统 — Agent 可以读写文件,把中间结果存起来
- 子 Agent 生成(Subagents) — 主 Agent 可以派生子 Agent 独立工作
- 自动上下文管理 — 长对话不爆上下文窗口
- Skills(技能系统) — 用 Markdown 文件定义可复用的能力模块
核心理念:信任 LLM,在工具层面设边界,而不是靠提示词约束模型。
二、v0.5 的两个关键更新
1. 异步子 Agent(Async Subagents)
这是 v0.5 最大的变化。
之前的子 Agent 是同步阻塞的 — 主 Agent 派活给子 Agent 后,必须等它干完才能继续。对于耗时几分钟的深度研究、大规模代码分析这种任务,阻塞就成了瓶颈。
v0.5 引入了异步子 Agent:
from deepagents import AsyncSubAgent, create_deep_agent
agent = create_deep_agent(
model="anthropic:claude-sonnet-4-6",
subagents=[
AsyncSubAgent(
name="researcher",
description="Performs deep research on a topic.",
url="https://my-agent-server.dev",
graph_id="research_agent",
),
],
)
主 Agent 会获得 5 个新工具来管理后台任务:
| 工具 | 作用 |
|---|---|
| start_async_task | 启动异步任务,立即返回任务 ID |
| check_async_task | 查询任务状态和结果 |
| update_async_task | 给运行中的任务追加指令 |
| cancel_async_task | 取消任务 |
| list_async_tasks | 列出所有任务及状态 |
苏米注:交互模式变成了"发射后不管":主 Agent 可以同时启动多个子任务,继续跟用户对话,等结果出来了再回来收。
异步子 Agent 是有状态的 — 它们维护自己的对话线程,主 Agent 可以中途追加上下文纠正方向。
关键优势:这打开了异构部署的大门:轻量级编排器可以把任务分发给运行在不同硬件、使用不同模型、拥有不同工具集的远程 Agent。
2. 扩展的多模态支持
之前 Deep Agents 的虚拟文件系统只支持读取图片。v0.5 把支持扩展到了 PDF、音频、视频等文件类型。
API 没有任何变化,还是用同一个 read_file 工具。系统根据文件扩展名自动检测类型,以合适的 MIME 格式传给模型。
踩坑记录:具体支持哪些模态取决于底层模型的能力。
三、Deep Agents Deploy:一条命令上生产
如果说 v0.5 解决的是"怎么写"的问题,那 Deploy 解决的就是"怎么上"的问题。
deepagents deploy 一条命令,帮你搞定:
- 部署 Agent 编排逻辑和内存(多租户、可水平扩展)
- 自动按会话拉起沙箱环境
- 暴露 30+ 个 API 端点

这些端点覆盖了主流协议:
- MCP — 把部署的 Agent 当工具调用
- A2A — 多 Agent 协作
- Agent Protocol — 构建前端 UI 交互
- Human-in-the-loop — 人工审批守卫
- Memory — 短期/长期记忆访问
四、为什么 LangChain 要对标 Claude Managed Agents?
Deploy 的博客标题直接写了:"an open alternative to Claude Managed Agents"。
LangChain 认为 Claude Managed Agents 的架构(harness + agent server + sandboxes)方向是对的,但它是一个封闭花园,会造成严重的厂商锁定。
核心论点是记忆(Memory)。
Agent 框架和记忆是深度绑定的。框架的核心职责就是管理上下文(记忆本质上就是上下文)。当你把记忆锁在一个封闭 API 后面,迁移成本就变得极高。

苏米注:想象一下:你搭了一个内部销售 Agent,运行几个月后积累了大量客户交互记忆。这些记忆全存在 Anthropic 的服务器上。如果你想换模型或换框架,就得从头再来。
Deep Agents 的做法是把记忆存成标准格式(AGENTS.md、Skills 文件等),可以直接通过 API 查询,自托管时数据完全在你自己的数据库里。
五、协议选择:为什么不用 ACP 或 A2A?
异步子 Agent 需要一个标准的服务端协议。LangChain 评估了三个选项:
ACP(Agent Client Protocol):专为编辑器到 Agent 的通信设计,但目前只支持 stdio 传输(HTTP 还没发布),远程部署不可行。
A2A(Agent-to-Agent Protocol):技术上兼容,HTTP 和异步任务模型都支持。但 A2A 旨在解决更广泛的行业互操作问题(发现、能力协商、订阅等),对异步子 Agent 来说过于重量级。
Agent Protocol(LangChain 自家):基于 threads + runs 的模型,跟异步子 Agent 的交互模式天然匹配,且已经在 LangGraph Platform 中验证过。
LangChain 表示未来可能会支持 A2A。
六、实际使用建议
如果你在评估要不要用 Deep Agents,几个参考点:
适合的场景
- 需要长时间运行的多步骤任务(深度研究、代码审查、数据分析)
- 多 Agent 协作,需要上下文隔离
- 需要自托管,不想被厂商锁定
- 已经在用 LangChain 生态(LangSmith、LangGraph)
需要注意的
- 目前还是 beta 阶段,API 可能有变动
- 异步子 Agent 依赖 Agent Protocol,跨语言部署需要额外配置
- 多模态支持依赖底层模型能力,不是所有模型都支持 PDF/音频/视频
七、总结

Deep Agents v0.5 的异步子 Agent 和多模态扩展,加上 Deploy 的一条命令上生产,让 LangChain 在 Agent 基础设施这个赛道上有了更具竞争力的产品。
苏米注:"Harness Engineering"(框架工程)这个概念正在成为新的关注点 — 怎么把 LLM 变成能干实事的 Agent,不是靠更强的模型,而是靠更好的框架。
对开发者来说,选择一个开放、模型无关、记忆自托管的框架,在 2026 年这个 Agent 爆发年,可能是更稳妥的选择。