本文首先拆解传统搜索基于倒排索引的底层机制,帮大家理解传统搜索的局限性;随后详解RAG技术的核心逻辑——如何通过Embedding模型将文本转化为高维语义向量,利用向量距离衡量语义相似度,结合主流向量数据库实现精准知识检索;最后聚焦LightRAG开源实现,从知识索引构建、4种检索策略(Local、Global、Hybrid、Naive),到结合检索结果生成精准回答,每一步都搭配实操示例,小白也能轻松看懂、快速上手。
1、 传统搜索
在RAG技术普及之前,我们日常使用的搜索引擎(如百度、谷歌基础检索)、文档检索工具,核心都依赖「倒排索引」机制,这也是小白入门检索技术必须掌握的基础知识点。
1.1 倒排索引
倒排索引(英语:Inverted index),也常被称为反向索引、置入档案或反向档案,
是一种索引方法,被用来存储在全文搜索下某个单词在一个文档或者一组文档中的存储位置的映射。
倒排索引是Term到DocID的映射。
1.2 搜索语句示例
Lucene针对某个字段进行搜索样例
title:hello world就意味着,搜索title为hello,或者包含title关键字的文档
伪代码形如
doc.title contains "hello" OR doc.title contains "world"假定
“hello”-> [1, 5, 8]
“world”-> [5, 8, 10, 12]
然后搜索引擎对2个doc ID集合的求并集,并对所有文档进行打分,选出分数最高的前N个文档。
2、 RAG
RAG (检索增强生成) 是一种人工智能技术,它结合了信息检索和生成式模型的功能,
以提高生成文本的准确性和相关性。 RAG 先从外部知识库中检索相关信息,然后结合这些信息,使用生成式模型,
生成更准确、更有上下文相关的文本。
提到RAG,需要先聊一聊Embedding models
2.1 Embedding models
2.1.1 高维向量表征文本
嵌入式模型,可以把一段文本转换为纯数值的高维向量
通过嵌入模型(如bge-m3)将文本转换为1024维的数值向量,这个向量包含了文本的语义特征
curl--location'http://192.168.100.2:21434/api/embed'\--header'Content-Type: application/json'\--data'{ "model": "bge-m3:latest", "input": "这个故事的主题是什么?" }'2.1.2 向量距离反映语义相似度
当两个向量在向量空间中的距离越近(通常用余弦相似度或欧氏距离衡量) 说明它们对应的文本在语义上越相似
例如"猫"和"猫咪"的向量会比"猫"和"汽车"的向量更接近
高维向量可以使用专门的向量数据库存储和检索。
2.1.3 常见向量数据库一览
| 名称 | 是否开源 | 社区影响力 | 编程语言 | 核心特性 |
|---|---|---|---|---|
| Pinecone | 否 | 未知 | 向量存储与检索全托管 | |
| weaviate | 是 | 13.7k star | Go | 同时支持向量与对象的存储、支持向量检索与结构化过滤、具备主流模式成熟的使用案例。高速、灵活,不仅仅具备向量检索,还会支持推荐、总结等能力 |
| qdrant | 是 | 24.3k star | Rust | 向量存储与检索、云原生、分布式、支持过滤、丰富的数据类型、WAL日志写入 |
| milvus | 是 | 35.6k star | Go | 极高的检索性能: 万亿矢量数据集的毫秒级搜索非结构化数据的极简管理丰富的API跨平台实时搜索和分析可靠;具有很高的容灾与故障转移能力高度可拓展与弹性支持混合检索统一的Lambda架构社区支持、行业认可 |
| Chroma | 是 | 20.7k star | Python | 轻量、内存级 |
3、lightRAG 实现
https://github.com/HKUDS/LightRAG
“talk is cheap show me the code” – Linus Torvalds
这一部分将介绍一个开源的RAG实现LightRAG。RAG通常被用来构建知识库, 萌叔将从使用和细节上2方面来介绍LightRAG。
对代码有兴趣的读者也可也阅读参考资料4.深度解析比微软的GraphRAG简洁很多的LightRAG,一看就懂
LightRAG可以使用下面的命令直接启动
lightrag-server此服务其实包含1)API服务器 + 2)WebUI
API详情见 http://localhost:9621/webui/#/
由于是知识库,那么必然我们需要先创建知识库,为知识库添加知识
3.1 提交文件,针对知识构建索引
提交的文件,会被异步任务处理。
step1: 把文件切分成chunk
默认情况(函数chunking_by_token_size),文件会被按照固定的token size切割成chunk, 为防止某些entity出现在chunk的交界处,chunk会有一定的重叠。
step2: 将chunk+prompt提交给大语言模型,进行知识抽取
从上图可以看到,从chunk中,抽取了实体和关系, 为了存储实体和关系,引入了向量数据库和图数据库
LightRAG 默认使用的向量数据库是 Nano Vector,默认使用的图数据库是 NetworkX。
step2使用大语言模型,有一定的开销。萌叔测试官方的示例book.txt188K,花费大约2元人民币。
3.2 检索知识,结合知识使用大模型,生成对应的回答。
① 针对用户的的查询语句生成高阶和低阶的关键词
下面是某个查询得到的关键词
2025-05-0918:58:42,458 - lightrag - DEBUG - High-level keywords:['Character analysis','Literature','Social themes']2025-05-0918:58:42,459 - lightrag - DEBUG - Low-level keywords:['Bob Cratchit','A Christmas Carol','Charles Dickens','Scrooge','Victorian era']② 根据查询类型从向量数据库和图数据库中提取数据
下面是不同查询类型提取的数据差异
# localINFO: Local query uses10entites,127relations,3chunks# globalINFO: Global query uses11entites,10relations,3chunks# hybridINFO: Local query uses10entites,127relations,3chunks INFO: Global query uses12entites,10relations,3chunksLocal search针对的是节点以及与节点相关的边,包含节点、边对应的实际数据Global search针对的是边,包含边对应的实际数据Hybrid search同时包含Local search和Global search的结果Naive search只使用原始的chunk
有个重要的参数topK,用于控制entity或者relation的数量
③ 根据检索到的数据和提示词生成合适的回答
3、 总结
透过RAG技术,我们可以清晰地看到大语言模型如何颠覆传统的信息检索和知识问答领域,
通过结合检索与生成的优势,实现了更准确、更智能的知识获取与内容生成。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2025 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
以上资料如何领取?
为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!
不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。