news 2026/4/16 17:24:45

【AI领域】n8n+Ollama+Qwen3构建企业级RAG检索系统-知识库

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【AI领域】n8n+Ollama+Qwen3构建企业级RAG检索系统-知识库

n8n+Ollama+Qwen3构建企业级RAG检索系统-知识库

1、Qwen3-Embedding介绍

硅基流动:https://cloud.siliconflow.cn/me/models

魔搭社区:https://www.modelscope.cn/search?search=Qwen3-Embedding

HuggingFace:https://huggingface.co/Qwen/collections

2、Ollama安装下载

Ollama官方地址:https://ollama.com/

我的Ollama安装路径:E:\S_Software\Ollama

① 手动创建Ollama安装目录

我手动创建的文件夹目录为:E:\S_Software\Ollama

② 运行安装命令

创建好之后,把Ollama的安装包exe放在这个目录下,接着再到这个目录下运行cmd命令:

OllamaSetup.exe /DIR=E:\S_Software\Ollama

DIR后面的路径是之前手动创建的文件夹路径。

输入命令后直接回车,Ollama就会进入安装程序,这个时候可以看到安装的路径变成了我们刚刚创建的文件夹。

③ 安装完毕

安装好了之后,在控制台输入ollama,可以正常显示ollama版本则表示安装成功。

2.1、修改模型下载目录

① 创建models目录&修改默认模型下载目录

在之前的安装目录下创建一个models文件夹:E:\S_Software\Ollama\models

打开ollama软件,点击settings,找到Model location,把路径修改成上面创建好的这个。

② 模型转移

在命令行输入ollama list,如果发现有模型,则进行这一步操作。

先退出ollama,接着进入C盘-->用户-->你自己的电脑名称-->.ollama-->剪切整个models下的内容到刚刚上面新建的存储目录下,之后删掉C盘的这个models文件夹。

如果之前修改过存储目录,那就自己找到再去复制。

这个时候就是正常的了。

2.2、安装nodejs

如果想用nodejs安装n8n,可以安装nodejs,推荐安装v22以上的版本,这里我安装的是v24.11.1。

nodejs官网:https://nodejs.cn/download/

一路默认安装就行,有其他想法的自行AI搜索。 使用如下命令下载即可:

npm install -g n8n # -g表示全局安装,可在任意目录运行,整个过程大概需要5-10分钟
  • Windows报错gyp ERR! find VS:需安装Visual Studio的C++桌面开发工具(勾选Windows SDK)。
  • Linux/macOS报错distutils缺失:安装Python 3.x并确保distutils可用。
解决gyp ERR! find VS报错

1、报错内容

npm error gyp ERR! stack Error: Could not find any Visual Studio installation to use

原因是:n8n 依赖的 sqlite3 模块需要本地编译,但你的系统缺少 Visual Studio 的 C++ 编译工具链。而Visual Studio几乎是必备工具,因为支持:

  • C++ 开发工具链
  • .NET 框架
  • Windows SDK 和系统库

2、解决方案

下载对应的工具:https://visualstudio.microsoft.com/zh-hans/visual-cpp-build-tools/

下载2022版本,最新版2026的VS在npm没兼容无法识别

旧版下载链接:https://visualstudio.microsoft.com/zh-hans/vs/older-downloads/

实在下载不了就直接找我给安装包

  • ① 选择 “C++ 桌面开发”,勾选windows sdk(我的是win11,勾选的是win11的sdk)注意要是2022

  • ② 自定义安装目录

    安装需要十几个G的空间,建议更改盘符,另外一个windows11的sdk也勾上,win10那个也勾上,我在这踩了好多坑,我也不知道为什么我win11的电脑装win11还是报错找不到windows sdk,建议还是用docker安装,一个命令就结束。

这是后面我补充安装好的配置。

等待安装完毕即可,安装完成之后重启电脑。

3、重新安装n8n

# 1、卸载全局安装的 n8n 包npm uninstall -g n8n# 2、强制清理 npm 缓存文件npm cache clean --force# 3、验证缓存完整性并优化空间npm cache verify# 4、全局安装 n8n 包npm install -g n8n# 5、查看全局安装的 n8n 版本和依赖npm list -g n8n

4、启动n8n

配置好环境变量后,在命令行中输入n8n即可启动。

浏览器输入http://localhost:5678/setup即可访问。

3、Qwen3-Embedding本地模型下载及配置

① 模型下载

方式一:在HuggingFace里面下载下载量化之后的GGUF格式的模型:https://huggingface.co/Qwen/Qwen3-Embedding-4B-GGUF/tree/main

如果使用这种方法下载的模型,需要使用ollama再创建嵌入模型,推荐使用方式二。

Ollama创建嵌入模型

  1. 创建最简Modefile```plaintext
    echo FROM 上一步你下载的模型路径 > Modelfile# 示列echo FROM E:\Ollama\Qwen3-Embedding-4B-Q4_K_M.gguf > Modelfile
  2. 创建模型```plaintext
    ollama create qwen3_embedding -f Modelfile

方式二:使用Ollama命令直接下载模型

ollama run hf.co/Qwen/Qwen3-Embedding-4B-GGUF:Q4_K_M

② 测试嵌入模型

**方式一的测试方法:**命令行输入(注意windows需要双引号裹住json,所以需要转义)

curl http://localhost:11434/api/embed -d "{\"model\":\"qwen3_embedding\",\"input\":\"Hello\"}"

model的名称要看ollama list输出的name,需要一致,方式一只做展示,推荐方式二。

**方式二的测试方法:**在命令行中输入:

ollama run hf.co/Qwen/Qwen3-Embedding-4B-GGUF:Q4_K_M "这是一个测试文本"

效果就是会输出一堆向量化的内容。

方式二用curl命令测试:

curl http://localhost:11434/api/embed -d "{\"model\": \"hf.co/Qwen/Qwen3-Embedding-4B-GGUF:Q4_K_M\",\"input\": \"Hello World\"}"

效果如下。

4、n8n创建RAG工作流

1、选择触发方式

这里暂时选择的是Trigger manually

2、添加步骤,搜索file

找到Read/Write Files from Disk,选择Read即可(因为是本地知识库,所以选的这个,还有其他方式)。

填入的E:\\F_File\\RAG\\**,表示读取RAG文件夹下的所有文件。

点击测试,提示成功则表示通过了。

也可以直接在这一个步骤里面运行,在右侧可以看到输出,这里可以看到直接输出了我在这个文件夹下面的两个文件,一个md格式,一个pdf格式。

3、添加循环组件Loop over Items

对应的中文文档:https://docs.n8ncn.io/integrations/builtin/core-nodes/n8n-nodes-base.splitinbatches/

循环组件loop,这个步骤是为了一直读取文件夹下的文件,循环读取。

Batch Size表示输入每次调用要返回的项目数。

执行当前整个业务流。

4、加入向量数据库

  1. 在loop的节点中加入Vector,这里我们作为学习演示,选择Simple Vector Store即可。

  2. 选择第二个Add documents from vector store,将文档转换为向量。

  3. Memory key这里直接使用的是默认的,也可以自己进行修改添加,后续将会使用到。

  4. 发现有红色感叹号,是因为还需要配置两个组件,一个是Embedding模型配置,一个是Document。

5、配置文件解析模型&语义分割

1、Embedding模型配置

我们选择的是本地Ollama模型部署。

配置Ollama默认的是localhost,如果localhost提示连接不上,就修改成127.0.0.1

选择对应的Embedding模型。

2、Document对文件进行分块

选择Default Data Loader

  • Type of Data可以选择JSON或者Binary(二进制),这里我们选择二进制。

  • Mode选择默认的Load All Input Data

  • Data Format选择自己的文件类型,或者选择自动解析。

  • Text Splitting选择自定义Custom

这个时候工作流如下图所示,需要对文本分割进行处理了。

3、选择语义分割

6、创建检索知识库工作流

当前完整工作流如下图所示。

1、当前工作流运行成功显示

2、创建一个新的工作流

选择On chat message

3、创建一个AI Agent节点

AI Agent下方的Chat Mode接入一个对话大模型,这里我选择的是Deepseek,需要有API Key,使用硅基流动或者Deepseek官方API生成ApiKey填入即可。 第一次建立需要点击Create new credential

接着在AI Agent下方的Tool接入Answer questions with vector store(使用向量存储回答问题),在描述里面填入:当前工具是用来检索向量数据的。

到这一步创建完,工作流如图所示。

4、接入向量数据库、向量模型、对话模型

接上一步骤,在Answer questions with vector store(使用向量存储回答问题)下面的Vector Store接入向量数据库:Simple Vector Store

注意:和创建向量数据库那个时候的key要匹配一致。

Model节点中继续接入Deepseek Chat model

最后一步,在Simple Vector Store下面的Embedding模型中接入我们的本地向量模型,依旧和5-1步骤一样,最终工作流如下所示:

7、测试知识库的准确性

点击open chat进行对话,输入问题:找一下ios禁止系统更新的网址。 发现可以很精准的回答问题,并且没有任何的添油加醋,完全就是我笔记里面的内容,只是进行了一个简单的排版。

而在deepseek的官方对话里面问的是找不到我笔记里面的这个网址的。

使用另外一个问题,发现分段式的内容不能非常精准的找到,但进一步进行提示后,还是可以准确的回答。 这就是后续可以优化的点。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 14:32:54

揭秘端侧大模型协同训练难题:Open-AutoGLM带来哪些颠覆性突破?

第一章:端侧大模型与 Open-AutoGLM 协同进化的时代背景随着人工智能技术的迅猛发展,大模型正从云端密集计算逐步向终端设备迁移,开启端侧智能的新纪元。这一转变不仅降低了响应延迟、提升了数据隐私保护能力,也推动了边缘计算与本…

作者头像 李华
网站建设 2026/4/16 14:32:44

百度网盘解析工具:告别龟速下载的终极解决方案

还在为百度网盘那令人崩溃的下载速度而抓狂吗?这款强大的百度网盘解析工具将彻底改变你的下载体验,让你轻松获取真实下载地址,享受极速下载的畅快!无论你是需要下载单个文件还是整个文件夹,这个工具都能帮你突破官方限…

作者头像 李华
网站建设 2026/4/16 12:58:50

Unity游戏本地化利器:XUnity自动翻译器深度解析

在游戏全球化浪潮中,语言障碍成为玩家体验的首要挑战。XUnity自动翻译器作为一款专为Unity引擎设计的实时翻译解决方案,通过创新的技术架构和灵活的配置方式,为游戏爱好者打开了通往多语言世界的大门。 【免费下载链接】XUnity.AutoTranslato…

作者头像 李华
网站建设 2026/4/3 16:46:24

XUnity.AutoTranslator:让外语游戏秒变母语的智能翻译神器

还在为看不懂的外语游戏发愁吗?🤔 面对精美的日系RPG、欧美独立游戏,却被陌生的文字挡住了去路?别担心,XUnity.AutoTranslator这款专为Unity游戏设计的实时翻译插件,将彻底解决你的语言困扰!无论…

作者头像 李华
网站建设 2026/4/16 13:08:14

Unity游戏翻译终极指南:轻松实现多语言游戏本地化方案

还在为外语游戏的语言障碍而烦恼吗?想要畅玩全球热门游戏却苦于语言不通?XUnity.AutoTranslator正是你需要的完美解决方案!这款强大的Unity游戏自动翻译工具能够智能识别游戏内文本并实时翻译,让你无障碍享受全球游戏乐趣。本文将…

作者头像 李华