news 2026/4/16 18:09:56

Titans + MIRAS:让AI拥有长期记忆能力

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Titans + MIRAS:让AI拥有长期记忆能力

我们推出了Titans架构和MIRAS框架,这些技术能让AI模型在运行时更新核心记忆,从而实现更快的处理速度并处理大规模上下文内容。

Transformer架构通过引入注意力机制彻底改变了序列建模,该机制允许模型回顾早期输入以优先处理相关的输入数据。然而,计算成本随序列长度急剧增加,这限制了基于Transformer的模型扩展到极长上下文的能力,比如完整文档理解或基因组分析所需的上下文。

研究社区探索了各种解决方案,例如高效的线性循环神经网络(RNN)和状态空间模型(SSM),如Mamba-2。这些模型通过将上下文压缩到固定大小来提供快速的线性扩展。然而,这种固定大小的压缩无法充分捕获超长序列中的丰富信息。

在两篇新论文Titans和MIRAS中,我们介绍了一种架构和理论蓝图,它结合了RNN的速度和Transformer的准确性。Titans是具体的架构(工具),MIRAS是推广这些方法的理论框架(蓝图)。它们共同推进了测试时记忆化的概念,即AI模型在运行时通过融入更强大的"惊喜"指标(即意外信息片段)来维持长期记忆的能力,无需专门的离线重训练。

MIRAS框架以Titans为例,引入了向实时适应的重要转变。该架构不是将信息压缩到静态状态,而是在数据流入时主动学习和更新自身参数。这一关键机制使模型能够即时将新的具体细节纳入其核心知识。

有效的学习系统需要独特而相互连接的记忆模块

有效的学习系统需要独特而相互连接的记忆模块,这反映了人类大脑对短期和长期记忆的分离。

虽然注意力机制在精确的短期记忆方面表现出色,但Titans引入了一个新颖的神经长期记忆模块,与传统RNN中的固定大小向量或矩阵记忆不同,它作为一个深度神经网络(具体来说,是一个多层感知器)。这个记忆模块提供了显著更高的表达能力,允许模型在不丢失重要上下文的情况下总结大量信息。模型不仅仅是做笔记,而是理解和综合整个故事。

至关重要的是,Titans不只是被动地存储数据。它主动学习如何识别和保留连接整个输入中Token的重要关系和概念主题。这种能力的一个关键方面是我们称之为"惊喜指标"的东西。在人类心理学中,我们知道我们会快速且容易地忘记常规、预期的事件,但会记住打破模式的事情——意外的、令人惊讶的或高度情感化的事件。

在Titans的上下文中,"惊喜指标"是模型检测当前记忆的内容与新输入告诉它的内容之间的巨大差异。

模型使用这个内部错误信号(梯度)作为数学上等价于说"这是意外的和重要的!"这允许Titans架构仅用最新颖和打破上下文的信息选择性地更新其长期记忆,保持整个过程的快速和高效。

Titans通过融入两个关键元素来完善这一机制:

序列建模中的每一个重大突破——从现代Transformer到新的超高速线性RNN——本质上都是同一回事:一个高度复杂的联想记忆模块。

相应地,MIRAS的独特性和实用性在于它看待AI建模的方式。它不是看到多样化的架构,而是看到解决同一问题的不同方法:有效地将新信息与旧记忆结合,而不让基本概念被遗忘。

MIRAS通过四个关键设计选择定义序列模型:

几乎所有成功的现有序列模型都依赖均方误差(MSE)或点积相似性来实现其偏差和保留。这种依赖可能使模型对异常值敏感,并限制其表达能力。

MIRAS通过提供一个生成框架来超越这种限制,探索一个由优化和统计学文献指导的更丰富的设计空间。这允许创建具有非欧几里得目标和正则化的新颖架构。

使用MIRAS,我们创建了三个具体的无注意力模型:

我们严格比较了Titans以及MIRAS变体(YAAD、MONETA、MEMORA)与领先架构,包括Transformer++、Mamba-2和Gated DeltaNet。我们通过在基因组建模(DNA)和时间序列预测上测试Titans,进一步验证了其多功能性,证明该架构在文本之外有效地泛化。

在标准语言建模数据集(C4、WikiText)和零样本推理任务(HellaSwag、PIQA)中,我们的模型始终表现出更高的准确性和困惑度(衡量大语言模型在查看一段文本时的惊讶程度)。

消融研究清楚地表明,记忆架构的深度至关重要。当比较相同大小但不同深度的长期记忆模块时,具有更深记忆的模块在语言建模中始终实现更低的困惑度。此外,它们表现出更好的扩展特性,随着序列长度显著增加时保持性能。

在语言建模和常识推理任务中,Titans架构优于最先进的线性循环模型(如Mamba-2和Gated DeltaNet)和可比较大小的Transformer++基线。新颖的MIRAS变体(MONETA、YAAD、MEMORA)与这些基线相比也实现了改进的性能,验证了探索鲁棒的非MSE优化机制的益处。重要的是,这些模型保持了高效的可并行化训练和快速的线性推理速度。

这些新架构最显著的优势是它们处理超长上下文的能力。这在BABILong基准测试中得到了突出体现,该任务需要对分布在超长文档中的事实进行推理。在这种具有挑战性的设置中,Titans优于所有基线,包括像GPT-4这样的超大型模型,尽管参数要少得多。Titans进一步证明了有效扩展到超过200万Token的上下文窗口大小的能力。

Titans和MIRAS框架的引入标志着序列建模的重大进步。通过采用深度神经网络作为学会在数据流入时记忆的记忆模块,这些方法克服了固定大小循环状态的限制。此外,MIRAS提供了强大的理论统一,揭示了在线优化、联想记忆和架构设计之间的联系。通过超越标准的欧几里得范式,这项研究为新一代序列模型打开了大门,这些模型结合了RNN的效率和长上下文AI时代所需的表达能力。

Q&A

Q1:Titans是什么,它有什么特别的能力?

A:Titans是一种新型AI架构,能够在运行时更新核心记忆,实现更快的处理速度并处理大规模上下文内容。它的特别能力是结合了RNN的速度和Transformer的准确性,可以有效处理超长上下文,例如完整文档理解或基因组分析。

Q2:什么是"惊喜指标",它在Titans中如何工作?

A:"惊喜指标"是Titans检测当前记忆内容与新输入信息之间巨大差异的机制。类似人类容易忘记常规事件但记住意外事件的特点,Titans使用这个内部错误信号来识别"意外且重要"的信息,只用最新颖和打破上下文的信息来更新长期记忆。

Q3:Titans相比传统模型有什么优势?

A:Titans最显著的优势是处理超长上下文的能力。在BABILong基准测试中,Titans优于所有基线,包括GPT-4等超大型模型,尽管参数更少。它能有效扩展到超过200万Token的上下文窗口,同时保持高效的可并行化训练和快速的线性推理速度。


版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 14:50:08

【PHP分布式缓存实战】:Redis集群适配的5大核心难题与解决方案

第一章:PHP分布式缓存与Redis集群的适配背景在现代高并发Web应用架构中,单一服务器的性能瓶颈促使系统向分布式架构演进。PHP作为广泛使用的后端语言,其传统文件或内存缓存机制已难以满足大规模请求下的性能需求。引入分布式缓存成为提升系统…

作者头像 李华
网站建设 2026/4/16 0:06:11

为什么90%的PHP微服务项目忽略服务网格?真相令人震惊

第一章:为什么90%的PHP微服务项目忽略服务网格?真相令人震惊在现代微服务架构中,服务网格(Service Mesh)已成为保障通信安全、可观测性和弹性的重要基础设施。然而,在PHP微服务生态中,超过90%的…

作者头像 李华
网站建设 2026/4/15 12:06:34

PHP 8.7 JIT增强到底多猛?真实基准测试结果震惊业界

第一章:PHP 8.7 JIT增强到底多猛?真实基准测试结果震惊业界 PHP 8.7 即将发布的 JIT(Just-In-Time)编译器增强版本在开发者社区引发了广泛关注。此次升级不仅优化了类型推断引擎,还重构了中间代码(IR&#…

作者头像 李华
网站建设 2026/4/16 14:49:35

YOLOv8训练超参数搜索:Grid Search自动化脚本

YOLOv8训练超参数搜索:Grid Search自动化脚本 在目标检测的实际项目中,一个常见但棘手的问题是:明明用了最新的YOLOv8模型,数据也标注得很规范,为什么最终的mAP就是上不去?很多时候,问题不在于模…

作者头像 李华
网站建设 2026/4/16 16:23:02

独家揭秘:某上市制造企业PHP数据采集平台架构(日均处理2亿条记录)

第一章:PHP工业控制数据采集平台概述在现代工业自动化系统中,实时、稳定地采集和处理设备数据是实现智能监控与决策的基础。PHP作为一种广泛应用于Web开发的脚本语言,凭借其快速开发、良好的数据库集成能力和丰富的开源生态,逐渐被…

作者头像 李华
网站建设 2026/4/16 14:37:23

YOLOv8未来路线图:v9及更高版本功能预告

YOLOv8未来路线图:v9及更高版本功能预告 在自动驾驶、智能监控和工业质检等实时视觉系统中,目标检测的“速度-精度”平衡始终是工程落地的核心挑战。YOLO系列自2015年诞生以来,凭借其单阶段端到端推理架构,持续定义着高效感知的技…

作者头像 李华