RAG架构为大模型提供"长期记忆",企业和个性化需求推动RAG存储需求增长。AI推理中的RAG向量数据库存储介质正从"内存参与检索"向"全SSD存储架构"过渡,推动高带宽、大容量SSD需求增加。火山引擎TOS Vectors开启向量存储新范式,采用多层级本地缓存架构,满足高/低频数据分层需求,降低企业大规模使用向量数据的门槛。
RAG架构为大模型提供长期记忆,企业和个性化需求推动了对RAG存储需求的增长。AI推理中的RAG向量数据库存储介质正在从“内存参与检索”向“全SSD存储架构”过渡,推动高带宽、大容量SSD的需求将持续增加。建议关注产业链核心受益标的。
摘 要
**RAG为大模型提供“长期记忆”,企业&个性化需求推动RAG****需求增长。**在RAG(检索增强生成)架构中,LLM(大语言模型)在生成响应前,先向向量数据库发起查询,其中向量数据库作为连接用户查询与外部知识的关键中枢,负责高效存储、管理和检索高维向量化的知识表示,从而提升生成结果的准确性和时效性。从企业侧看,RAG正逐步渗透至在线场景(电商、Web搜索等)、离线场景(企业、法律、工程研究等)。从个人侧看,个性化RAG保留用户长期记忆、偏好与上下文信息,形成“用户级向量空间”,显著推高RAG需求增长。
**AI推理RAG向量数据库推动SSD****需求增长。**向量数据库存储介质需承载大规模向量数据及索引结构,要求支持高吞吐和低时延,以满足高并发场景下的相似度检索需求。目前向量数据库存储介质正在从“内存参与检索”走向“全SSD存储架构”。根据《All-in-storage ANNS Algorithms Optimize VectorDB Usability within a RAG System》以KIOXIA AiSAQ为例,向量、PQ量化结果及索引统一存储于SSD,10B级向量规模所需SSD容量为11.2TB,其中PQ Vectors占1.28TB,索引占10TB。在采用TLC/QLC SSD下,AiSAQ相较于DiskANN介质成本具备4-7倍的成本优势;此外,AiSAQ所有租户处于激活状态,租户可直接开始查询,不存在必须先从SSD加载到DRAM后才能开始查询的“冷启动”延迟,提升RAG系统的规模化扩展能力与经济可行性。
**火山引擎TOS Vectors开启向量存储新范式,对SSD需求提高。**根据火山引擎开发者社区公众号,TOS推出Vector Bucket,该架构采用字节自研的Cloud-Native向量索引库Kiwi与多层级本地缓存协同架构(涵盖DRAM、SSD与远程对象存储)。在大规模、长周期存储和低频查询的场景下,该架构不仅满足高/低频数据的分层需求,而且显著降低企业大规模使用向量数据的门槛。TOS Vector与火山引擎高性能向量数据库、火山AI agent等产品深度协同,以交互型Agent场景来看,将高频访问的记忆(如用户的核心偏好、近期的任务执行结果等)存放在向量数据库中,实现毫秒级的高频检索;将低频访问的记忆(如半年前的交互记录或历史执行结果)沉淀到TOS Vector中,允许秒级延迟,以此换取更低的存储成本和更广阔的记忆空间;以处理复杂任务的Agent场景来看,TOS Vectors既能承载海量的语义向量存储,又能保证长期数据的可持续积累。
**投资建议。**RAG架构为大模型提供长期记忆,企业和个性化需求推动了对RAG存储需求的增长。AI推理中的RAG向量数据库存储介质正在从“内存参与检索”向“全SSD存储架构”过渡,推动高带宽、大容量SSD的需求将持续增加。建议关注产业链核心受益标的。
风险提示
AI产业发展以及需求不及预期;AI服务器出货量不及预期,国产厂商技术和产品进展不及预期。
正 文
一、RAG为大模型提供“长期记忆”,企业&个性化需求推动RAG存储需求
二、AI推理RAG向量数据库推动SSD需求增长
三、火山引擎TOS Vectors开启向量存储新范式
四、投资建议
RAG架构为大模型提供长期记忆,企业和个性化需求推动了对RAG存储需求的增长。AI推理中的RAG向量数据库存储介质正在从“内存参与检索”向“全SSD存储架构”过渡,推动高带宽、大容量SSD的需求将持续增加。建议关注产业链核心受益标的。
风险提示
(一)AI产业发展以及需求不及预期
若AI相关模型和应用发展或下游需求发展不如预期,使得产业发展不如预期,进而影响AI服务器需求。
(二)AI服务器出货量不及预期
AI服务器出货量一方面受到企业IT支出,尤其是云计算厂商的Capex支出影响,因此若企业对算力设施的投入不及预期,可能影响AI服务器的出货量;另一方面AI服务器价值量占比较高的GPU和CPU若出现供应紧张等问题,也会对AI服务器的出货量级和节奏造成一定消极影响。
(三)国产厂商技术和产品进展不及预期
目前国内厂商不断开发模型以及相关应用,若在算力、数据、算法等某一因素上支 撑不及预期,则可能导致国内厂商技术和产品进展不及预期。
那么,如何系统的去学习大模型LLM?
作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
👉大模型学习指南+路线汇总👈
我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!