LeoTalk AI周知 5: Deep Agent

最近开始有不少人聊Deep Agent这个词了,人们热衷于发明新的名词,但是同时热词也反映了人们的共同经历。

Deep Agent,或者说Agent 2.0大体上就是从Loop进化了,不单是套一个Loop就够了,比较窄面的理解其实就是往Multi Agent的方向演进了

原因是任务越来越复杂,没办法通过简单的基于Loop实现ReAct类型的Agent了,上下文会爆炸,各种任务混杂在一起,也很难将上下文精准卸载出去或者做摘要缩减,而拆分成多Agent的好处也在AI Agent度过初期阶段后成为必须。业务场景的扩展、任务复杂度提升、迭代差异和效果评估等因素都促使大家往这个方面去推进了,所以不难理解现在Deep Agent的重要性持续提升。Agent 1.0大家都在关注Prompting Engineering、MCP、记忆等,Agent 2.0需要开始考虑编排、稳健运行的runtime环境、agent的通信等。

技术研究/技术突破

产品&模型发布

  • InclusionAI(蚂蚁金服)发布Ring-1T,基于Ling2.0架构,总1万亿参数(500亿活跃,128K上下文),取得IMO银牌
  • Encord E-MM1,号称全球最大规模的多模态数据集开源了
  • Google发布Veo3.1:引用RundownAI的一句话很有趣:在今天这个注意力经济的时代,有用可能比不过有记忆点。暗讽Veo3.1的风光已经被Sora2抢光了。对于Google来说不可谓不深刻,之前就已经被OAI搞了好几次
  • Anthropic发布Claude Haiku4.5:主打便宜&快(比Sonnet4.5快一倍)。不得不说现在CC比Codex的速度快很多
  • Google和耶鲁大学研究者发布C2S-Scale 27B基础模型(基于Google的open-Gemma):发现了此前未知的癌症治疗路径。
  • 微软发布MAI-Image-1,文生图模型,莫前在LMArena排Top10(值得注意的是第一还是腾讯的Hunyuan-image-3.0)
  • ChatGPT Go(便宜版订阅)在89个国家可用
  • Anthropic发布Agent Skills:通过SKILL.md定义为出发点,分了三级的Skills设定,感觉有点类似插件系统了,写各种Prompt和工具使用,还可以使用脚本,甚至感觉有些场景下比MCP更好用
  • ChatGPT现在可以自动管理保存的记忆了,不会再有memory full的提醒了,非常make sense的一个功能,原来我一直觉得让用户手动管理内存是非常不合理的一件事情。
  • Andrej Karpathy发布了nanochat:用最小的方式展示了端到端的训练、微调的ChatGPT克隆,非常值得学习,可以有个全局的认知
  • Cognition推出SWE-grep和SWE-grep-mini模型(RL后),用于快速的上下文检索
  • n8n推出Workflow Builder
  • DeepSeek推出DeepSeek-OCR

热点论文

其他阅读




    Enjoy Reading This Article?

    Here are some more articles you might like to read next:

  • LeoTalk · Hacker News Daily · 2025.12.06
  • LeoTalk AI周知 11: VLA到世界模型
  • 大模型采样策略
  • 大模型上下文工程实践指南-第7章:智能体
  • LeoTalk AI周知 10: 基模&专模