news 2026/5/15 17:54:09

收藏!小白程序员轻松上手大模型:Hermes Agent 自我进化秘籍

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
收藏!小白程序员轻松上手大模型:Hermes Agent 自我进化秘籍

Hermes Agent 正在 OpenRouter 排行榜上迅速崛起,其 Self-Improving 闭环设计让 Agent 能从工作中学习并自我提升。本文深入解析了 Hermes 的 Memory、Skill 和 Nudge Engine 三个子系统,展示了它们如何协同工作,使 Agent 在使用过程中不断积累经验,越用越强。同时,文章还对比了 Hermes 与 OpenClaw 的设计差异,并介绍了 RDSHermes 如何将这套能力带给不写代码的用户,实现团队级的智能应用。

背景

OpenRouter 排行榜上正在发生一场换代:Hermes Agent 增速 +204%,Top Coding Agents 排第一,Top Productivity 排第二。上线不到半年,GitHub 从 0 到 106k+ Star。开发者在用数据说话——选的不是"另一个 OpenClaw",是一种完全不同的东西。

区别在哪?OpenClaw 的 Skill 是手写的 Markdown 文件——你写多少它会多少,你不写它就不会。Hermes 做了一件 OpenClaw 架构上做不了的事:Agent 干完活之后,会自动把踩坑经验提炼成可复用的 Skill,下次遇到同类问题直接调用。用得越久,能力越强。这不是功能差异,是设计哲学的分野——一个靠人喂,一个自己长。

这篇文章拆开 Hermes 的源码,看看这个 Self-Improving 闭环到底怎么跑的。文末也会聊聊 RDSHermes 怎么把这套能力搬给不写代码的人用。

仓库地址:

github.com/NousResearch/hermes-agent


总览:三个子系统,一个闭环

大多数 Agent 每次会话结束后就"失忆"了。Hermes 在内部搭了一套学习闭环,由三个子系统撑起来:

打个比方:Memory 是助理随身带的小本子,记着"老板喜欢喝美式"这些事实;Skill 是助理积累的操作手册——“部署 K8s 第 2 步一定要先推镜像”;Nudge Engine 是定时响的闹钟,提醒助理回头想想有没有什么值得记的。


Memory:越用越懂你

两个文件,就是 Agent 对你的全部认知

Memory 系统设计得很克制——两个纯文本文件,用§分隔条目:

~/.hermes/memories/├── MEMORY.md # Agent 的个人笔记(环境事实、项目约定、工具怪癖)└── USER.md # Agent 对用户的认知(偏好、沟通风格、工作习惯)

字符上限故意设得很紧:MEMORY 限 2200 chars,USER 限 1375 chars。容量有限就迫使 Agent 挑重要的记,不重要的自然被挤掉。对比 OpenClaw——它的 MEMORY.md 是纯追加模式,用几个月就膨胀成几万行的怪兽文件,找几个月前的一句话只能笨拙地通读全文。Hermes 的做法反过来:容量有限就倒逼 Agent 做信息压缩,过时的自然被挤掉,留下的都是高密度事实。

具体实现上,MemoryStore 维护两组平行状态——实时可写的条目列表,和会话开始时冻结的快照:

# tools/memory_tool.py:116-122class MemoryStore: def __init__(self, memory_char_limit=2200, user_char_limit=1375): self.memory_entries: List[str] = [ ] self.user_entries: List[str] = [ ] self.memory_char_limit = memory_char_limit self.user_char_limit = user_char_limit self._system_prompt_snapshot: Dict[str, str] = {"memory": "", "user": ""}

但"设了上限"只是第一步,关键是超限之后怎么处理。Hermes 不会静默丢弃旧条目,也不会自动压缩——它选择让add直接失败,然后把当前所有条目返回给模型:

# tools/memory_tool.py:248-259if new_total > limit: current = self._char_count(target) return { "success": False, "error": ( f"Memory at {current:,}/{limit:,} chars. " f"Adding this entry ({len(content)} chars) would exceed the limit. " f"Replace or remove existing entries first." ), "current_entries": entries, "usage": f"{current:,}/{limit:,}", }

错误信息里一句 “Replace or remove existing entries first” 就把模型引导到了replaceremove操作上。同时返回current_entries,让模型能看到现有的所有条目,自己决定哪些过时了该删、哪些可以合并压缩。模型不是被动地执行淘汰规则,而是主动做信息整理——这本身就是一次"自我反思"。

冻结快照机制

每次会话启动时,Memory 加载后立刻捕获一份快照,之后系统提示词里用的都是这份快照:

# tools/memory_tool.py:124-140def load_from_disk(self): mem_dir = get_memory_dir() self.memory_entries = self._read_file(mem_dir / "MEMORY.md") self.user_entries = self._read_file(mem_dir / "USER.md") # 会话开始时冻结快照,之后不再变动 self._system_prompt_snapshot = { "memory": self._render_block("memory", self.memory_entries), "user": self._render_block("user", self.user_entries), }

快照注入系统提示词后,Agent 还没看到用户消息就已经知道你的环境和偏好了。为什么"冻结"而不是实时更新?因为系统提示词会话内不变就能共享前缀缓存(Prefix Cache),省掉重复计费。新写入的内容只改磁盘,下一个会话才刷新进来。

提示词引导:什么该记、什么不该记

Agent 怎么知道什么时候该往 Memory 里写东西?靠 Prompt 引导。系统提示词中的 MEMORY_GUIDANCE:

# agent/prompt_builder.py:144-162MEMORY_GUIDANCE = ( "You have persistent memory across sessions. Save durable facts using the memory " "tool: user preferences, environment details, tool quirks, and stable conventions./n" "Prioritize what reduces future user steering — the most valuable memory is one " "that prevents the user from having to correct or remind you again./n" "Write memories as declarative facts, not instructions to yourself. " "'User prefers concise responses' ✓ — 'Always respond concisely' ✗. " "'Project uses pytest with xdist' ✓ — 'Run tests with pytest -n 4' ✗.")

注意这里的区别:Memory 要求写成声明式事实(“User prefers concise responses”),而不是命令式指令(“Always respond concisely”)。前者是偏好,可以被当前上下文覆盖;后者是死命令,会限制 Agent 的灵活性。

Tool Schema 里还有一句关键的边界规则:“If you’ve discovered a new way to do something, save it as a skill.” —— Memory 不存操作步骤,操作步骤归 Skill 管。这一句话把两个系统的分工画清了。


Skill:把做过的事变成会做的事

Skill 长什么样

Memory 是"我知道什么",Skill 是"我会做什么"。每个 Skill 是一个目录,核心是 SKILL.md 文件:

~/.hermes/skills/├── devops/│ └── flask-k8s-deploy/│ ├── SKILL.md # 主指令│ ├── references/ # 参考文档│ └── templates/ # 模板文件└── software-development/ └── fix-pytest-fixtures/ └── SKILL.md

一个典型的 SKILL.md:

---name: flask-k8s-deploydescription: Deploy a Flask app to Kubernetes with health checksversion: 1.0.0---# Flask K8s Deployment## When to use- User wants to deploy a Flask/Python app to Kubernetes- User mentions K8s, kubectl, or container deployment## Steps1. Create Dockerfile with gunicorn (not dev server)2. Build and push image to registry BEFORE creating deployment3. Write deployment.yaml with livenessProbe pointing to /health4. Write service.yaml with correct port mapping5. kubectl apply both files6. Verify with kubectl get pods and kubectl logs## Pitfalls- MUST push image to registry before kubectl apply, otherwise ImagePullBackOff- Flask 默认没有 /health 端点,需要手动添加- Django 需要额外设置 ALLOWED_HOSTS 环境变量- livenessProbe path 必须返回 200,不能用需要认证的路径

Pitfalls 这一节不是预先写好的,而是 Agent 踩坑后追加的——这就是 Skill 层面的"self-improving"。

什么时候创建 Skill

Agent 不需要用户说"帮我创建一个 Skill"。驱动力来自skill_manage工具的 schema:

# tools/skill_manager_tool.py:681-701SKILL_MANAGE_SCHEMA = { "name": "skill_manage", "description": ( "Manage skills (create, update, delete). Skills are your procedural " "memory — reusable approaches for recurring task types./n/n" "Create when: complex task succeeded (5+ calls), errors overcome, " "user-corrected approach worked, non-trivial workflow discovered, " "or user asks you to remember a procedure./n" "Update when: instructions stale/wrong, OS-specific failures, " "missing steps or pitfalls found during use. " "If you used a skill and hit issues not covered by it, " "patch it immediately with skill_manage(action='patch') " "— don't wait to be asked./n/n" "After difficult/iterative tasks, offer to save as a skill. " "Skip for simple one-offs." ),}

创建的门槛设得比较清楚:工具调用超过 5 次才值得创建(简单任务不记)、踩过坑再修复的经验才有价值、用户纠正过的做法要铭记。

OpenClaw 也有 Skill 系统,也是 SKILL.md + YAML frontmatter,但 Skill 要么是你手写的,要么是从社区装的。手写的成本高,懒得维护;社区装的不是针对你的环境。关键问题是:Agent 本身不会从工作中学到任何东西——干了一百次部署,第一百零一次犯的错跟第一次一模一样。HN 上有个帖子叫"Data Is the Final Moat"——当模型智能被商品化、Agent 框架被开源,真正的护城河是 Agent 在工作中积累的领域知识。OpenClaw 的 Skill 是手写的配置文件,用了一年还是那份手写的配置文件;Hermes 的 Skill 是越用越厚的经验资产——每一次踩坑都在加固护城河。这不是 OpenClaw 团队不想做,而是它的架构没有为"Agent 自主学习"预留通路——没有创建触发、没有 patch 机制、没有 review agent。要补这一课,是要重写核心架构。

Hermes 这边,Agent 踩了坑、修了 bug、用了 12 次工具调用才搞定一个部署——这些经验被自动提炼成 Skill,下次再遇到同类任务就是 6 次调用零错误。

系统提示词里还有一句"Skills that aren’t maintained become liabilities"——通过提示词给 Agent 灌输责任感,防止它只管创建不管维护。

Skill 的自我修补

当 Agent 按照已有 Skill 执行,但中途发现步骤有遗漏或者踩了新坑时,它会在完成任务后回头修补 Skill。不是全量重写,而是做精确的局部 patch:

# tools/skill_manager_tool.py:397-485def _patch_skill(name, old_string, new_string, file_path=None, replace_all=False): """Targeted find-and-replace within a skill file.""" from tools.fuzzy_match import fuzzy_find_and_replace new_content, match_count, _strategy, match_error = fuzzy_find_and_replace( content, old_string, new_string, replace_all ) if match_error: return {"success": False, "error": match_error, "file_preview": content[:500]} # ...(省略 _validate_content_size、_validate_frontmatter 等校验) # 修改前备份原内容 original_content = content _atomic_write_text(target, new_content) # 修改后重新做安全扫描 scan_error = _security_scan_skill(skill_dir) if scan_error: _atomic_write_text(target, original_content) # 不通过就回滚 return {"success": False, "error": scan_error}

这里用了 fuzzy_find_and_replace 做模糊匹配——Agent 给出的 old_string 可能跟原文有格式差异,模糊匹配能容忍这些差异。每次修改后还要跑一遍_security_scan_skill(),不通过就自动回滚。Agent 在踩完坑的当场就把 Pitfalls 补上了,下次同事遇到同样的场景,直接绕过去。

Skill 的渐进式加载

Skill 多了以后不能全塞进系统提示词——这也是 OpenClaw 的一个痛点:它采用"重型背包"模式,每次会话把 SOUL.md、IDENTITY.md 和各种设定一股脑塞进上下文,设定越多背包越沉,Token 浪费严重,模型注意力也被稀释。Hermes 更像一座"动态图书馆",默认上下文极其轻量,只放一个轻量索引——每个 Skill 的名字和一句话描述:

Available skills: devops: - flask-k8s-deploy: Deploy a Flask app to Kubernetes with health checks - nginx-reverse-proxy: Configure Nginx reverse proxy with SSL software-development: - fix-pytest-fixtures: Debug and fix pytest fixture scope issues

Agent 判断某个 Skill 跟当前任务相关时,才通过skill_view加载完整内容。“先看目录再翻全文”,按需加载。

开源版的 Skill 需要 Agent 从零积累。RDSHermes 的 Skill Hub 则提供了另一条路:预装智能巡检、慢 SQL 诊断、索引优化等数据库专业技能——Agent 上线第一天就具备领域能力,不用等它踩完所有坑。换句话说,Skill Hub 解决冷启动,自进化解决越用越强——两条腿走路。


Nudge Engine:谁来提醒 Agent “该学习了”

Memory 和 Skill 都是存储系统,写入需要有人触发。Nudge Engine 就是这个触发器——运行时维护两个计数器,定时提醒 Agent 该停下来想想了。

两个计数器,两种粒度

# run_agent.py:1328-1331 — Memory 计数器self._memory_nudge_interval = 10 # 每 10 个用户回合触发一次self._turns_since_memory = 0 # run_agent.py:1428-1431 — Skill 计数器(从配置读取,默认 10)self._skill_nudge_interval = int(skills_config.get("creation_nudge_interval", 10))self._iters_since_skill = 0

粒度不同是有道理的:Memory 的信息来自用户输入,按回合计;Skill 的经验来自工具使用过程,按迭代计。计数器到阈值就触发审查,Agent 主动调用了memoryskill_manage则重置——已经在做了就不用催。

后台 fork Agent:不打扰用户的静默审查

Nudge 触发后怎么处理?它不会在主对话中插一条"让我想想有没有什么该记的"——那样太打扰用户了。而是在后台 fork 一个独立的 Agent 实例,拿着主对话的快照去做审查:

# run_agent.py:2665-2711def _spawn_background_review(self, messages_snapshot, review_memory=False, review_skills=False): def _run_review(): with open(os.devnull, "w") as _devnull, / contextlib.redirect_stdout(_devnull), / contextlib.redirect_stderr(_devnull): review_agent = AIAgent( model=self.model, max_iterations=8, quiet_mode=True, ) review_agent._memory_store = self._memory_store review_agent._memory_enabled = self._memory_enabled review_agent._user_profile_enabled = self._user_profile_enabled # 禁用 review agent 自身的 nudge,否则会无限递归 review_agent._memory_nudge_interval = 0 review_agent._skill_nudge_interval = 0 review_agent.run_conversation( user_message=prompt, conversation_history=messages_snapshot, ) thread = threading.Thread(target=_run_review, daemon=True) thread.start()

几个细节:输出重定向到/dev/null,用户完全无感知;最多 8 次工具调用,不会无限消耗 API;review agent 自身的 nudge 被禁用,避免无限递归;和主 agent 共享同一份 Memory,写入直接生效。"干活"和"反思"拆成两个实例,互不干扰。

Review Agent 靠两套审查提示词决定做什么:Memory Review 关注用户偏好和个人信息,Skill Review 关注非平凡的解题过程。每个 prompt 都以 “If nothing is worth saving, just say ‘Nothing to save.’ and stop.” 收尾——防止 review agent 每次都往里塞东西来"交差"。审查在响应发送给用户之后才触发,用户收到回复后该干嘛干嘛,Agent 在后台默默复盘。


完整案例:从"不会"到"精通"的三次会话

用一个 K8s 部署场景串一下三个子系统的协同。

第 1 次会话:冷启动

用户: 帮我把这个 Flask 应用部署到 K8s 集群

Memory 和 Skills 都是空的,Agent 靠基座知识摸索,12 次工具调用,踩了两个坑:

iter 1: terminal("kubectl version") → 确认集群版本 iter 2: read_file("app.py") → 读取应用代码 iter 3: write_file("Dockerfile") → 创建 Dockerfile iter 4: terminal("docker build -t myapp .") → 构建镜像 iter 5: write_file("deployment.yaml") → 编写 K8s 部署文件 iter 6: terminal("kubectl apply -f deployment.yaml") → 💥 ImagePullBackOff!忘记推镜像到 registry iter 7: terminal("docker push myregistry.azurecr.io/myapp") iter 8: terminal("kubectl apply -f deployment.yaml") → 重新部署 iter 9: write_file("service.yaml") → 编写 Service iter 10: terminal("kubectl apply -f service.yaml") iter 11: terminal("kubectl get pods") → 💥 CrashLoopBackOff!livenessProbe 路径不对 iter 12: 修改 deployment.yaml → 重新部署 → ✅ 成功

12 次迭代触发 Skill Review,Review Agent 看到两次报错和修复过程,创建了一个 Skill:

Review Agent 执行: → skill_manage(action="create", name="flask-k8s-deploy", category="devops", content=""" --- name: flask-k8s-deploy description: Deploy a Flask app to Kubernetes with health checks --- ## Steps 1. Create Dockerfile with gunicorn 2. Build and push image to registry BEFORE kubectl apply 3. Write deployment.yaml with livenessProbe → /health ... ## Pitfalls - MUST push image to registry first, otherwise ImagePullBackOff - Flask 默认没有 /health 端点,需手动添加 - livenessProbe path 必须返回 200 """)

安全扫描通过后写入磁盘,用户对这一切毫不知情。

第 2 次会话:Skill 复用 + 自我修补

用户: 帮我再部署一个 Django 应用到 K8s

系统提示词里多了 Skills 索引,Agent 加载flask-k8s-deploy后照着步骤做:

iter 1: skill_view("flask-k8s-deploy") → 加载完整 Skill iter 2: read_file("manage.py") → 确认 Django 项目结构 iter 3: write_file("Dockerfile") → 用 gunicorn(Skill 指示) iter 4: 添加 /health 端点(Skill Pitfalls 提醒) iter 5: terminal("docker build && docker push") → 先 push 再 apply(Skill Steps 第 2 步) iter 6: write_file("deployment.yaml") → livenessProbe → /health iter 7: terminal("kubectl apply") → 💥 DisallowedHost 错误!Django 特有的问题,Skill 没覆盖 iter 8: 修改 deployment.yaml 添加 ALLOWED_HOSTS env iter 9: terminal("kubectl apply") → ✅ 成功

从 12 次调用降到 9 次,已知坑被绕过,但遇到 Django 特有的新坑。Review Agent 一口气做了三件事:写入用户画像、记住 registry 地址、patch Skill 补上 ALLOWED_HOSTS 坑。

第 3 次会话:零错误,一次搞定

用户: 帮我部署一个新的 FastAPI 微服务
Agent 已经知道你是谁、registry 在哪、集群在哪,Skill 里也包含了 ALLOWED_HOSTS 的坑——6 次调用,零错误。

三次对比:

维度会话 1 (冷启动)会话 2 (Skill 复用)会话 3 (全协同)
工具调用12 次9 次6 次
错误数210
Memory触发写入系统提示词注入
Skill触发创建复用 + 自我修补复用已修补版本

在开源 Hermes 中,这些经验积累在单个用户的~/.hermes/目录下。RDSHermes 把 Skill 存储从本地磁盘搬到了云端——一个 DBA 踩过的坑,团队里所有人的 Agent 都能绕过。自我进化不再是单点的,而是组织级的。


安全机制:进化也需要约束

Agent 能往自己"脑子"里写东西,也就意味着攻击面。Hermes 做了两层防护。

第一层,Memory 内容扫描:

# tools/memory_tool.py:65-81_MEMORY_THREAT_PATTERNS = [ (r'ignore/s+(previous|all|above|prior)/s+instructions', "prompt_injection"), (r'do/s+not/s+tell/s+the/s+user', "deception_hide"), (r'system/s+prompt/s+override', "sys_prompt_override"), (r'curl/s+[^/n]*/$/{?/w*(KEY|TOKEN|SECRET|PASSWORD)', "exfil_curl"), ...]

因为 Memory 最终会注入系统提示词,如果被诱导记住 “ignore all previous instructions”,下次会话就等于被劫持了。

第二层,Skill 安全扫描:

# tools/skill_manager_tool.py:56-74def _security_scan_skill(skill_dir): result = scan_skill(skill_dir, source="agent-created") allowed, reason = should_allow_install(result) if allowed is False: report = format_scan_report(result) return f"Security scan blocked this skill ({reason}):/n{report}"

自创的和从 Hub 安装的 Skill 走同一套扫描,不通过就回滚。

开源 Hermes 的安全扫描解决了单机场景的问题。但在团队落地时,还有一个开源版管不到的风险:密钥安全。API Key 写在环境变量里、数据库密码明文存配置文件——一旦 Agent 有了终端权限,这些凭证就暴露在攻击面上。RDSHermes 用加密托管解决了这个问题:AK/SK 由网关代理鉴权,密钥不落盘,不暴露给 Agent 也不暴露给用户。Agent 自我进化的自由度越大,凭证隔离就越不可少。


设计取舍一览

源码中的设计取舍:

设计决策表面效果背后的考量
Memory 限 2200 chars迫使 Agent 挑重要的记低质量 Memory 注入系统提示词 = 每次 API 调用都带噪声
声明式事实 vs 操作步骤分离Memory 存事实,Skill 存步骤两者的更新频率、触发条件、安全风险完全不同
冻结快照模式系统提示词会话内不变保护前缀缓存,避免每轮 API 调用重新计费
后台 fork 审查用户感知不到 review 过程自省不应占用用户任务的 attention budget
Nudge 计数器可配置默认 10太频繁浪费 API 成本,太稀疏错过学习机会
patch 优先于全量重写局部修复 Skill保留已验证的稳定部分,只改需要改的
安全扫描 + 自动回滚拒绝恶意写入Memory/Skill 最终进入系统提示词,是一等安全边界

Skill 自动进化的下一步

"自动创建"和"自我修补"已经跑通了,接下来几个方向值得做:

生命周期管理:目前 YAML frontmatter 只有namedescriptionversion。加上last_useduse_countsuccess_rate就能实现自动降权、归档和过时检测。

技能组合:现在 Skill 是孤立的。如果能自动识别经常一起用的 Skill 合成工作流(如flask-k8s-deploy+nginx-reverse-proxyfull-stack-deploy),就不只是"记住",而是"思考"了。

创建透明度:Skill 创建是静默的,用户没有参与感。创建后给个简短通知,用户就能审核和纠正。

团队治理:一个人用还好,团队落地需要知道"谁让 Agent 做了什么"。RDSHermes 的做法是写操作需二次确认才执行,每一次会话可追溯、可审计——Agent 能自我进化,但每一步操作都在审计链路上。


RDSHermes:

从"开发者工具"到"团队都能用"

前面讲的 Self-Improving 是 Hermes 的核心竞争力,但说实话,开源版 Hermes 仍然是一个偏开发者的工具——你得会写config.yaml,得懂怎么配 API Key 和 Gateway,出了问题要看日志排查。对于不写代码的团队成员来说,这个门槛还是太高了。

RDSHermes 解决的就是这个问题:把 Hermes 的自进化能力包装成开箱即用的服务。

对比开源 Hermes 的使用门槛:

开源 Hermes AgentRDSHermes
开始使用命令行安装,手写 config.yaml控制台一键开通,零配置
对话界面终端 CLI内置 WebUI,打开浏览器就能对话
接入 IM内置 Gateway,config.yaml 配凭证后命令行启动控制台里填个 App ID 就完成
数据库连接手动配连接串,密码明文写配置一键接入 RDS 实例,密码自动加密
云凭证管理AK/SK 写进环境变量或配置文件加密托管,网关代理鉴权,密钥不落盘
技能管理Agent 自动创建,磁盘文件Skill Hub 预装专业技能

简单说:开源 Hermes 是给开发者的引擎,RDSHermes 是给整个团队的成品车。

它在 Hermes 的 Self-Improving 能力之上,补齐了四件事:

  • 数据库安全纳管:MySQL、PostgreSQL、SQL Server、MariaDB 多引擎一键接入,密码提交瞬间加密。可以设只读模式——Agent 能查但不能改,生产环境安全有底线。
  • 身份认证托管:AK/SK 加密托管,Agent 调用云 API 时由网关代理鉴权,密钥不暴露给 Agent 也不暴露给用户。
  • 内置数据库专业技能:Skill Hub 预装智能巡检、慢 SQL 诊断、索引优化等技能。DBA 说一句"帮我巡检一下 prod-mysql",Agent 连着你的库做真实分析。
  • 全链路监控审计:写操作需确认才执行,会话可追溯,Token 消耗可监控,安全事件有告警。

效果是什么?市场部的同事打开 WebUI 用一句话查渠道数据,不需要装任何东西;开发者排查线上问题不用等 DBA 排期;DBA 在飞书群里 @一下就能做晨间巡检,从 40 分钟缩短到 2 分钟。不是所有人都会写config.yaml,但所有人都会打字。


总结

Hermes Agent 的 Self-Improving 就是三件事的配合:Memory 记住你是谁,Skill 记住怎么做事,Nudge Engine 保证这个循环不停转。用得越久,Agent 帮你干活就越快、踩坑就越少。

OpenClaw 在 AI Agent 普及上立下了汗马功劳。但一个需要"调教指南"的工具、一个升级就崩溃的系统、一个越用记忆文件越大越慢的架构——它正在完成自己的历史使命。

开发者正在用数据说话。不是因为 Hermes 的功能更多,而是因为 Hermes 做了一件 OpenClaw 架构上做不了的事:用得越久,越好用。v0.6.0 之前,Hermes 还有"只能跑单 Agent"的硬伤;现在 Profiles 补上了多实例、MCP Server Mode 打通了 IDE 生态、迁移工具覆盖了 sessions/cron/memory——OpenClaw 用户的切换门槛已经被系统性地拆掉了。再加上 RDSHermes 把数据库和云资源的安全访问也管起来了,Agent 能触达的边界远不止写代码。

如果你现在还在手写 Skill、手动维护 MEMORY.md、每次升级前先做好心理建设——不妨想想:你的时间应该花在给 Agent 做运维上,还是让 Agent 自己学会做事上?

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。


对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

👇👇扫码免费领取全部内容👇👇

1、大模型学习路线

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

4、AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5、面试试题/经验

【大厂 AI 岗位面经分享(107 道)】

【AI 大模型面试真题(102 道)】

【LLMs 面试真题(97 道)】

6、大模型项目实战&配套源码

适用人群

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/13 18:32:41

Bob插件集成OpenAI:AI文本润色从原理到实战指南

1. 项目概述:一个为Bob而生的AI写作润色插件如果你是一名经常需要处理外文资料、撰写双语内容,或者对文字质量有极致追求的写作者、翻译或学生,那么你很可能已经听说过或者正在使用Bob这款强大的Mac端翻译和OCR工具。Bob以其优雅的设计和高效…

作者头像 李华
网站建设 2026/5/13 18:31:46

体验Taotoken聚合路由在单一模型临时故障时的自动容灾效果

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。 👉 点击领取海量免费额度 体验Taotoken聚合路由在单一模型临时故障时的自动容灾效果 在实际的AI应用开发与集成过程中,服务的稳定性是开发者关注…

作者头像 李华
网站建设 2026/5/15 17:53:12

3分钟学会语雀文档完整导出:零门槛迁移指南

3分钟学会语雀文档完整导出:零门槛迁移指南 【免费下载链接】yuque-exporter export yuque to local markdown 项目地址: https://gitcode.com/gh_mirrors/yuq/yuque-exporter 还在为语雀文档迁移而烦恼吗?想要完整保存你的知识库却不知从何下手&…

作者头像 李华
网站建设 2026/5/13 18:30:39

语音机器人选哪家口碑好?高评分品牌深度解析

在数字化转型浪潮中,企业客户服务正经历一场深刻变革。随着大语言模型与AI Agent技术的深度融合,企业级智能客服机器人已从简单的“问答工具”进化为具备业务执行能力的“数字员工”。它不再只是被动应答,而是能够理解复杂意图、处理多轮对话…

作者头像 李华
网站建设 2026/5/13 18:29:38

建筑消防防火分区专用钢质卷帘门

在现代建筑消防设计体系中,防火分区的科学划分与有效分隔,是控制火灾蔓延、减少人员伤亡与财产损失的核心环节。建筑消防防火分区专用钢质卷帘门,作为固定式防火分隔的重要配套设施,凭借稳定的耐火性能、可靠的启闭功能与强适配性…

作者头像 李华
网站建设 2026/5/13 18:29:19

基于PureMVC与PyQt5的微信自动化办公助手架构设计与实现

1. 项目概述与核心价值最近在折腾一个挺有意思的玩意儿,一个基于Python和微信的自动化办公助手。说白了,就是写了个程序,让它帮你“看”着微信,自动处理一些重复性的消息回复、群管理、定时任务,甚至还能接上AI大模型&…

作者头像 李华