news 2026/4/15 20:06:20

当AI遇见大脑:从认知神经科学到自主agent的记忆系统统一综述

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
当AI遇见大脑:从认知神经科学到自主agent的记忆系统统一综述

为什么需要这篇综述

记忆是连接过去与未来的认知枢纽,为人类和AI系统提供宝贵的概念和经验来驾驭复杂任务。自主agent的研究越来越关注通过借鉴认知神经科学来设计高效的记忆工作流。然而,受限于跨学科壁垒,现有工作难以吸收人类记忆机制的精髓。

这篇综述系统性地综合记忆的跨学科知识,连接认知神经科学与LLM驱动agent的洞见,覆盖57页、多个维度的深度分析。

记忆定义的三重视角

(1) 认知神经科学视角

记忆是大脑处理和管理信息的过程,分两个阶段。第一阶段,大脑获取新概念或遇到新事件时,快速形成特定神经表征并编码整合信息。第二阶段,大脑操作存储的表征——随时间巩固或响应未来类似情况时检索。

记忆对认知和行为产生持久影响,作为连接过去经验与未来决策的认知桥梁。

(2) LLM视角

LLM中的记忆以多种形式存在,跨越不同存储基底:

参数记忆:编码在神经网络权重中的参数化知识,是LLM最基本的记忆形式。局限性包括时间滞后(参数在训练完成后冻结)、事实幻觉(知识编码为概率分布而非精确事实)、高训练计算成本和灾难性遗忘风险。

工作记忆:基于上下文窗口,执行实时交互和推理功能。虽然Gemini 3和GPT-5等已将上下文扩展到百万token级别,但处理长序列的高计算成本仍限制其作为存储大量信息的主要载体。且存在类似人类记忆的位置偏差——更关注窗口的首尾信息,容易忽略中间部分。

显式外部记忆:通过外部存储和检索机制实现,将LLM从被动知识库转变为主动知识编排者。RAG(Retrieval-Augmented Generation,检索增强生成)利用向量数据库或知识图谱存储大量信息,有效缓解幻觉和时间滞后,但检索延迟、无关上下文噪声和大规模索引构建复杂性仍是瓶颈。

(3) agent视角

agent视角的记忆超越单纯数据存储,演化为复杂动态认知架构,沿三个核心维度解构:(1)结构化存储——时间流(线性记忆封装交互记录)、层次流(金字塔索引递归摘要)、符号库(技能描述向量为键、可执行代码为值);(2)动态调度机制——平衡有限注意力资源与庞大记忆存储之间的张力;(3)认知处理与演化——从碎片化原始记录总结归纳为一般经验。

[Fig. 1: LLM驱动agent中记忆效用概览] 记忆通过缓解上下文窗口约束、实现长期个性化、以及驱动基于经验的推理来扩展agent能力。(a)上下文窗口负担缓解 (b)深度个性化 ©推理增强与自主演化。

记忆分类法

(1) 认知神经科学:短期vs长期记忆

短期/工作记忆特点:容量有限(Miller的7±2项目)、持续时间短暂(秒到分钟级)、高度易受干扰、支持当前信息处理和中间结果保留。

长期记忆分为两类。显式/陈述性记忆包括情景记忆(个人经历和事件)和语义记忆(事实、概念和关系)。隐式/非陈述性记忆包括程序记忆(运动技能和习惯)、条件反射、启动效应等。

(2) agent记忆分类

基于性质分类:经验记忆(原始轨迹、反思、摘要/洞察)、程序记忆(技能和习惯)、以及混合形式。

基于范围分类:轨迹内记忆(单个任务会话内)和跨轨迹记忆(跨会话持久化)。

[Fig. 2: agent中记忆分类概览] (a)基于性质的分类法,根据编码信息类型对记忆分类。(b)基于范围的分类,区分轨迹内和跨轨迹记忆。

记忆存储:位置与格式

(1) 存储位置

认知神经科学:短期记忆依赖分布式感觉-额顶网络,长期记忆依赖海马-新皮层协调。

agent:临时记忆存储在上下文窗口,持久信息存储在外部记忆库(向量数据库、知识图谱、文件系统等)。

(2) 存储格式

大脑:短期保留使用持续活动和突触连接权重,长期记忆使用结构化形式如认知地图。

agent:自然语言文本、保留关系信息的图结构、内化参数、高维向量空间中的潜在表示。

记忆管理生命周期

论文分析人脑和agent中记忆管理机制的完整闭环生命周期:提取、更新、检索、利用。

(1) 记忆提取

认知神经科学:海马在记忆编码中起核心作用,感觉信息被转换为神经表征形式。编码类型包括自动编码、努力编码、自我参照编码。

agent提取范式:(1)扁平化提取——直接存储原始记录或通过LLM生成摘要;(2)层次化提取——构建多级抽象表示(如MemTree的递归摘要树);(3)生成式提取——主动探索提取更泛化的记忆(如ExpeL的跨任务洞察提取)。

(2) 记忆更新

认知神经科学:记忆巩固将短期记忆转换为稳定的长期记忆,涉及海马-新皮层对话。记忆再激活打开可塑性窗口,允许更新、强化或弱化。

agent更新机制:(1)轨迹内更新——任务过程中的实时调整(如Self-Notes的即时工作记忆更新);(2)跨轨迹更新——构建和维护持久记忆内容(如MemoryBank基于遗忘曲线的动态更新)。

(3) 记忆检索

认知神经科学:线索依赖检索——外部或内部线索激活海马重放,重建过去事件信息。

agent检索策略:(1)基于相似性——向量余弦相似度、关键词匹配等;(2)多因素融合——结合相关性、新近性、重要性等多维信号(如Generative Agents的加权组合)。

(4) 记忆利用

agent利用方式:(1)上下文增强——将检索记忆作为额外上下文注入提示;(2)参数内化——将记忆直接融入模型权重(如MEMORYLLM的Self-Update机制)。

[Fig. 3: 认知神经科学中记忆存储机制概览] 包括短期和长期记忆的存储位置和存储格式。

[Fig. 4: 认知神经科学中记忆管理概览] 框架展示信息处理的动态循环,包括记忆形成、更新和检索,长期记忆通过这些过程支持对外部环境的灵活适应。

[Fig. 5: agent中记忆管理概览] 框架形成由记忆提取、更新、检索和利用组成的闭环流水线,实现持久经验调节和任务感知知识激活。

记忆评估基准

(1) 语义导向基准

评估内部状态维护和高阶认知能力,代表性基准包括LongMemEval(5个维度:信息提取、多会话推理、时间推理、知识更新、拒绝回答)和PersonalLLM(用户级别的个性化评估)。

(2) 情景导向基准

评估垂直领域性能,涵盖Web搜索(GAIA、WebArena)、工具使用(ToolBench、APIBench)、环境交互(Minecraft、ALFWorld、BabyAI)等场景。

[Table 1: 评估语义导向agent的代表性基准] 属性定义:保真度(Fidelity)衡量agent准确检索和复现信息的能力。

[Table 2: 评估情景导向agent记忆的代表性基准] 涵盖Web搜索、工具使用、环境交互等垂直领域评估。

记忆安全:攻击与防御

(1) 攻击视角:敏感信息提取(从RAG系统中窃取私有数据)、后门植入(通过恶意数据污染记忆)、判断力降级(引入噪声和冲突信号)。

(2) 防御视角:检索源净化(过滤和验证外部知识来源)、实时有害响应阻断(部署安全护栏检测和阻止有害输出)、全生命周期敏感数据保护(加密、访问控制、差分隐私)。

未来方向

(1) 多模态记忆系统

能够处理和整合文本、图像、音频、视频模态信息的记忆系统——当前大多数工作仍局限于文本模态。

(2) agent技能:记忆共享与迁移

使记忆能在异构agent间共享和迁移,将领域专业知识转化为可组合、可复用、可移植的模块化资源。

这篇综述弥合了认知神经科学与AIagent之间的跨学科鸿沟,提供了记忆系统最系统化的统一视角。核心贡献包括:从大脑到LLM到agent的渐进定义框架、基于性质和范围的双维度分类法、存储位置与格式的对比分析、完整闭环生命周期管理、以及攻防两面的安全分析。

那么,如何系统的去学习大模型LLM?

作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 15:33:27

Beyond Compare 5完全激活指南:3种简单方法告别试用期限制

Beyond Compare 5完全激活指南:3种简单方法告别试用期限制 【免费下载链接】BCompare_Keygen Keygen for BCompare 5 项目地址: https://gitcode.com/gh_mirrors/bc/BCompare_Keygen 还在为Beyond Compare 5的30天试用期而烦恼吗?作为一款专业的文…

作者头像 李华
网站建设 2026/4/16 16:27:14

Sass混合宏设计:AI生成可复用样式片段

VibeThinker-1.5B-APP:轻量模型如何在数学与算法推理中“以小博大”在当前大模型军备竞赛愈演愈烈的背景下,百亿、千亿参数的庞然大物层出不穷,训练成本动辄百万美元起步。然而,一个越来越被关注的问题浮出水面:我们真…

作者头像 李华
网站建设 2026/4/16 14:32:40

CSRF防御机制:VibeThinker推荐SameSite Cookie策略

CSRF防御机制:VibeThinker推荐SameSite Cookie策略 在现代Web应用的日常开发中,一个看似不起眼的Cookie设置,可能就是抵御大规模攻击的关键防线。想象这样一个场景:用户刚刚登录了某个AI推理平台,准备运行一段数学代码…

作者头像 李华
网站建设 2026/4/16 15:24:50

WinAsar:Windows平台asar文件可视化管理的完整解决方案

WinAsar:Windows平台asar文件可视化管理的完整解决方案 【免费下载链接】WinAsar 项目地址: https://gitcode.com/gh_mirrors/wi/WinAsar 还在为Electron应用中的asar文件处理而困扰吗?🤔 复杂的命令行操作让你望而生畏,文…

作者头像 李华