——解读《The Landscape of Agentic Reinforcement Learning for LLMs: A Survey》
- 为什么需要 Agentic RL?
====================
过去几年,大语言模型(LLM)的主流训练范式可以概括为一句话:
在静态数据上,学会给出“看起来正确”的回答。
无论是预训练、SFT,还是 RLHF / DPO,本质上都将 LLM 视为一次性文本生成器。但真实世界并不是“一问一答”的:
- 任务是多轮的
- 环境是动态的
- 信息是不完全可观测的
- 决策需要长期规划与试错
这正是本文提出Agentic Reinforcement Learning(Agentic RL)的根本动机:将 LLM 从“序列生成模型”升级为“嵌入环境中的决策智能体”。
这篇 2025 年的超长综述,系统性地梳理了 Agentic RL 的理论定义、能力模块、任务版图、算法体系、环境与未来挑战,是目前该方向最完整的地图之一。
- 从 LLM-RL 到 Agentic RL 的范式跃迁
==============================
传统 LLM-RL:退化的一步 MDP,文章将 RLHF / DPO 等方法形式化为一个退化的 MDP:
- 状态:只有一个 prompt
- 动作:一整段文本
- 时序长度:T = 1
- 奖励:最终一个标量
- 无环境演化
本质上,这是在做:“带奖励的序列建模”
而 Agentic RL 明确建模为POMDP:
- 多步交互(T > 1)
- 状态部分可观测(Observation ≠ State)
- 动作 = 文本 + 环境行为(工具调用、GUI 操作、移动等)
- 环境会因动作而改变
- 奖励可稀疏、密集、过程化
一句话总结区别:LLM-RL 优化“回答质量”,Agentic RL 优化“行为策略”。
文章给出了形式化的对比:
- 能力视角:RL 如何“激活”智能体的六大核心模块
===========================
论文的第 3 章,是我认为最有洞察力的一部分:它不是按任务,而是按Agent 能力模块来重新组织 RL 的作用。
3.1 规划(Planning)
两条路线:
- RL 作为外部指导
- RL 作为内部驱动
趋势:搜索 + 内化规划策略的融合,让模型“学会什么时候思考、思考多深”。
3.2 工具使用(Tool Use / TIR)
从 ReAct → SFT →Tool-Integrated RL
RL 带来的质变在于:
- 不再模仿“何时用工具”
- 而是自己学会是否、何时、如何组合工具
- 工具成为确定性状态转移器
但最大挑战仍是:长序列工具调用的 credit assignment
3.3 记忆(Memory)
RL 让记忆从“被动存储”变成“可决策模块”:
- RAG-style:RL 决定“是否 / 如何检索”
- Token-level:RL 决定“保留 / 覆盖哪些 token”
- Latent memory:RL 控制隐式记忆更新
- Structured memory(未来方向):图结构、时间结构的 RL 管理
关键转变:Memory = Action Space 的一部分
3.4 自我改进(Self-Improvement)
从三阶段演化:
- 语言级反思(Reflexion / Self-Refine)
- RL 内化反思能力(DPO / PPO on reflection)
- 完全自举的自训练循环(Absolute Zero、R-Zero)
最前沿问题是:能否对“反思策略本身”做 RL(Meta-Reflection)?
3.5 推理(Reasoning)
文章采用“快思考 / 慢思考”框架:
- Fast reasoning:高效但易幻觉
- Slow reasoning:RL 激发长链推理、验证、回溯
RL 的作用包括:
- 延长思考链
- 学会验证与回退
- 控制“是否需要慢思考”
但副作用是:过度思考(overthinking)与延迟爆炸
3.6 感知(Perception,多模态)
RL 将视觉 / 音频从“被看见”升级为“被操作”:
- Grounded CoT(指向具体图像区域)
- 工具驱动视觉(crop / zoom / draw)
- 生成式想象(画草图辅助思考)
核心理念:感知不只是输入,而是推理中的中间状态。
- 任务视角:Agentic RL 已经“打到哪里了”?
=============================
论文第 4 章几乎是一个Agent 应用百科全书,覆盖:
- 🔍 搜索 / Deep Research(GAIA、BrowseComp)
- 💻 代码与软件工程(SWE-bench)
- ➗ 数学(非形式 & 形式证明)
- 🖱 GUI / Web / OS 操作
- 👁 Vision / Video / 3D
- 🤖 Embodied Agent
- 👥 多智能体系统
一个重要趋势是:奖励越“可验证”,Agentic RL 越强。这也是为什么代码、数学、GUI 成为 Agentic RL 的“主战场”。
- 底层算法层面:为什么 GRPO 会成为“新主流”?
============================
文章系统比较了底层的 RL 算法: PPO / DPO / GRPO 家族,结论非常清晰:
- PPO:稳定但代价高(critic 巨大)
- DPO:简单但受限于静态偏好数据
- GRPO:无需 critic;利用组内相对奖励;非常适合长推理与 agent 轨迹
这也是 DeepSeek-R1、R1 系列能规模化成功的重要原因:
| 算法 | 核心特点 | 优势场景 |
|---|---|---|
| PPO | 稳定可靠,限制策略更新幅度 | LLM 对齐、多步决策 |
| DPO | 无需单独奖励模型,依赖偏好数据 | 数据高效的单轮 / 多轮优化 |
| GRPO | 基于组相对奖励,无需绝对价值评估 | 大规模多智能体、长时序任务 |
- Agentic RL Frameworks
========================
最后
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。
我整理出这套 AI 大模型突围资料包:
- ✅AI大模型学习路线图
- ✅Agent行业报告
- ✅100集大模型视频教程
- ✅大模型书籍PDF
- ✅DeepSeek教程
- ✅AI产品经理入门资料
完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
为什么说现在普通人就业/升职加薪的首选是AI大模型?
人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。
AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。
资料包有什么?
①从入门到精通的全套视频教程⑤⑥
包含提示词工程、RAG、Agent等技术点
② AI大模型学习路线图(还有视频解说)
全过程AI大模型学习路线
③学习电子书籍和技术文档
市面上的大模型书籍确实太多了,这些是我精选出来的
④各大厂大模型面试题目详解
⑤ 这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势,构建起"前沿课程+智能实训+精准就业"的高效培养体系。
课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事!
如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!
应届毕业生:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。
零基础转型:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界。
业务赋能 突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型。
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**