小白必看:Flowise拖拽搭建AI工作流完全指南
你是不是也遇到过这些情况:
- 想用大模型做点实际事,比如把公司文档变成问答机器人,但一看到 LangChain 的代码就头大?
- 看到别人演示 RAG 效果很惊艳,自己却卡在向量库配置、分块逻辑、LLM 调用链路上,改十次 config 还跑不通?
- 明明只是想快速验证一个想法,结果花两天搭环境、装依赖、调端口,最后连首页都没打开?
别折腾了。今天这篇指南,就是为你写的——不写一行代码、不配一个参数、不查一次文档,5 分钟内,从零做出能回答你知识库问题的 AI 助手。
Flowise 不是又一个需要你“先学三个月再上手”的工具。它像乐高一样,把 LLM 应用里最复杂的部分(模型调用、提示词编排、文档切分、向量检索、工具集成)全封装成一个个可拖拽的彩色节点。你只需要像画流程图一样,把它们连起来,点一下“保存并启动”,一个真正可用的 AI 工作流就活了。
本文全程面向零基础用户,所有操作基于你本地电脑就能完成,不需要云服务、不需要 GPU 服务器、甚至不需要懂什么是 vLLM——它已经为你预装好了。我们不讲架构图,不聊微服务,只说:你点哪里、拖什么、连哪条线、输什么字,最后得到什么结果。
准备好后,咱们直接开始。
1. 为什么 Flowise 是小白的第一选择
1.1 它真的不用写代码
很多“低代码”平台,表面拖拽,背后还是得写 JavaScript 函数或 Python 脚本。Flowise 不同:它的每个节点都是开箱即用的功能模块。
- 你想调用本地大模型?选一个「LLM」节点,下拉菜单里选
vLLM,填上模型路径,完事。 - 你想让 AI 读你的 PDF?拖一个「Document Loader」节点,选「PDF」,再连到「Text Splitter」节点,自动分段。
- 你想让它记住公司制度?把分好的文本连到「Vector Store」节点,选「Qdrant」或「Chroma」,一键入库。
- 你想加个判断逻辑?拖一个「Conditional Node」,输入“如果用户问的是报销流程,走 A 路;否则走 B 路”。
没有 import、没有 async/await、没有 try-catch。你看到的,就是你运行的。
1.2 它不是玩具,而是生产级工具
有人担心:“拖拽做的东西,能用吗?”答案是:不仅能用,而且很多团队已经在用它上线真实业务。
- 某电商公司用 Flowise 搭建了客服知识库助手,接入企业微信,平均响应时间从 90 秒降到 3 秒;
- 某律所把 2000 份合同模板和司法解释导入 Flowise,律师提问“竞业限制最长多久”,AI 直接返回法条+案例+风险提示;
- 某 SaaS 厂商用 Flowise 快速生成了 12 个客户支持 Bot,每个 Bot 对应一个产品模块,全部通过 REST API 嵌入到自家后台。
关键在于:Flowise 导出的工作流,本身就是标准的 API 接口。你做完流程,点击「Export as API」,它会给你一个 curl 命令、一个 Swagger 文档链接、一段 Python 调用示例——业务系统直接调用,和调用任何后端接口没区别。
1.3 它足够轻,树莓派都能跑
官方明确支持树莓派 4(4GB 内存),这意味着:
- 你不用租云服务器,家里的旧电脑、NAS、甚至开发板就能当 AI 服务器;
- 部署就是一条命令:
docker run -d -p 3000:3000 -v flowise-data:/app/server/storage flowiseai/flowise; - 默认端口 3000,浏览器打开
http://localhost:3000,登录即用; - 所有数据默认存在本地文件夹,不上传、不联网、不依赖第三方账号。
对小白来说,这等于把“部署”这个最吓人的环节,压缩成了一次鼠标点击。
2. 三步完成本地安装:从零到首页
2.1 确认你的电脑满足最低要求
Flowise 对硬件非常友好,只要你的电脑满足以下任一条件,就能流畅运行:
- Windows 10/11(64 位),8GB 内存以上;
- macOS Monterey(12.0)及以上,8GB 内存;
- Ubuntu/Debian 系统,已安装 Docker(推荐)或 Node.js 18+。
小贴士:如果你用的是 Mac M 系列芯片(M1/M2/M3),Flowise 官方镜像已原生支持 ARM 架构,无需 Rosetta 转译,速度更快更省电。
2.2 两种安装方式,选最顺手的一种
方式一:Docker 一键启动(推荐给绝大多数人)
这是最简单、最干净、最不容易出错的方式。全程只需复制粘贴 3 条命令:
# 1. 拉取最新镜像(约 1.2GB,首次需下载) docker pull flowiseai/flowise # 2. 创建数据卷,确保重启后流程不丢失 docker volume create flowise-data # 3. 启动服务(后台运行,端口映射到本地 3000) docker run -d -p 3000:3000 -v flowise-data:/app/server/storage flowiseai/flowise等待约 20 秒,打开浏览器访问http://localhost:3000,你会看到 Flowise 的登录页。
登录账号(来自镜像文档):
- 用户名:kakajiang@kakajiang.com
- 密码:KKJiang123
方式二:npm 全局安装(适合喜欢折腾的开发者)
如果你习惯用 Node.js,也可以全局安装:
# 确保已安装 Node.js 18+ node -v # 应显示 v18.x 或更高 # 全局安装 Flowise npm install -g flowise # 启动服务 flowise start启动成功后,同样访问http://localhost:3000即可。
注意:npm 方式需手动配置
.env文件来设置模型路径等参数,Docker 方式已内置 vLLM 和默认模型,对小白更友好,本文后续所有操作均基于 Docker 方式。
2.3 首次登录后的必要设置
首次登录后,你会看到一个空画布和顶部导航栏。请先完成这两项基础设置:
设置默认 LLM 模型
点击右上角头像 → 「Settings」→ 「LLM」→ 在「Default Model」下拉框中,选择vLLM。这是本镜像预装的高性能推理引擎,已加载好一个轻量级中文模型(如 Qwen2-0.5B-Instruct),开箱即用。开启用户认证(可选但建议)
同样在 Settings 中,找到「Authentication」→ 开启「Enable Authentication」→ 设置你的管理员密码。这样下次重启服务,就不会再用默认账号登录,更安全。
完成这两步,你就可以正式进入拖拽世界了。
3. 第一个工作流:三分钟做出“公司制度问答机器人”
我们不做虚的,直接做一个真实能用的场景:把一份《员工手册》PDF 变成随时可问的 AI 助手。
3.1 准备你的知识文档
找一份 PDF 格式的内部制度文档(如果没有,可临时用任意 PDF 测试,比如官网下载的开源协议)。把它放在你电脑的桌面或下载目录,记下完整路径,例如:
- Windows:
C:\Users\YourName\Desktop\员工手册.pdf - macOS:
/Users/YourName/Downloads/员工手册.pdf - Linux:
/home/yourname/Downloads/员工手册.pdf
提示:Flowise 支持直接上传文件,但首次建议用本地路径方式,更稳定,且便于后续批量更新。
3.2 拖拽四步,连成一条工作流
回到 Flowise 主界面,点击左上角「+ Create New Flow」,进入空白画布。
现在,请按顺序完成以下四步(每步都对应一个节点):
步骤一:添加文档加载器(Document Loader)
- 点击左侧节点栏的「Document Loaders」→ 拖一个「PDF File」节点到画布中央;
- 双击该节点,在弹出面板中:
- 「File Path」填入你刚才记下的 PDF 路径(如
/Users/YourName/Downloads/员工手册.pdf); - 「Encoding」保持默认
UTF-8; - 点击「Save」。
- 「File Path」填入你刚才记下的 PDF 路径(如
步骤二:添加文本分块器(Text Splitter)
- 从「Text Splitters」中拖一个「RecursiveCharacterTextSplitter」节点到画布右侧;
- 双击设置:
- 「Chunk Size」填
500(每段最多 500 字,适合中文阅读); - 「Chunk Overlap」填
50(相邻段落重叠 50 字,避免语义断裂); - 其他保持默认;
- 点击「Save」。
- 「Chunk Size」填
步骤三:添加向量数据库(Vector Store)
- 从「Vector Stores」中拖一个「Qdrant」节点到画布下方;
- 双击设置:
- 「Collection Name」填
handbook_qa(自定义名称,用于区分不同知识库); - 「URL」填
http://localhost:6333(Qdrant 默认地址,本镜像已内置); - 「API Key」留空(本镜像未启用鉴权);
- 点击「Save」。
- 「Collection Name」填
步骤四:添加大模型(LLM)与提示词(Prompt)
- 从「LLMs」中拖一个「vLLM」节点到画布右上角;
- 从「Prompts」中拖一个「Chat Prompt Template」节点到它旁边;
- 双击「Chat Prompt Template」,在「Template」框中粘贴以下内容(已优化中文问答):
你是一个专业的 HR 助手,正在回答员工关于《员工手册》的问题。 请严格依据提供的知识片段作答,不要编造、不要推测、不要引用外部信息。 如果知识片段中没有相关信息,请直接回答“根据《员工手册》,该问题暂无明确说明”。 以下是相关知识片段: {context} 问题:{question} 答案:- 将「PDF File」节点的输出(绿色小圆点)连线到「RecursiveCharacterTextSplitter」的输入(灰色小圆点);
- 将「RecursiveCharacterTextSplitter」的输出连到「Qdrant」的输入;
- 将「Qdrant」的输出(代表检索到的相关文本)连到「Chat Prompt Template」的
{context}输入; - 将「Chat Prompt Template」的输出连到「vLLM」的输入;
- 最后,将「vLLM」的输出(绿色圆点)连到画布右上角的「Output」节点(它默认存在,代表整个流程的最终返回值)。
此时,你的画布应该像这样连成一条清晰的直线:PDF File → Text Splitter → Qdrant → Prompt → vLLM → Output
3.3 保存、测试、导出 API
- 点击右上角「Save」按钮,给这个流程起个名字,比如「员工手册问答」;
- 点击「Start Chat」按钮(或顶部导航栏的「Chat」),进入聊天界面;
- 在输入框中输入:“试用期是多久?”、“年假怎么计算?”、“离职需要提前几天申请?”……
你会看到 AI 基于你 PDF 里的内容,给出准确、简洁、带依据的回答。
成功!你刚刚完成了第一个 RAG 工作流,全程无需写代码、无需装依赖、无需调参。
- 想把它嵌入到公司内部系统?点击「Export as API」→ 复制 curl 命令,后端工程师 1 分钟就能接入;
- 想换一份新文档?只需双击「PDF File」节点,改个路径,重新点击「Save」,流程自动更新;
- 想加个“找不到答案时推荐联系 HR”的兜底逻辑?拖一个「Conditional Node」进来,连在 vLLM 后面即可。
4. 进阶技巧:让工作流更聪明、更实用
4.1 加一个“记忆”功能:让对话有上下文
默认的问答是“无状态”的,每次提问都独立处理。但真实对话需要记忆。只需两步:
- 从「Memory」节点组中拖一个「Buffer Memory」节点到画布;
- 将它插入在「Chat Prompt Template」之前,连接顺序变为:
Qdrant → Buffer Memory → Chat Prompt Template → vLLM
然后,在「Chat Prompt Template」的模板中,把{context}替换成{history}\n{context},并在模板开头加上:
以下是本次对话的历史记录: {history}这样,AI 就能记住你上一句问了什么,回答更连贯。比如你先问“试用期多久”,再问“那转正流程呢?”,它会自动关联上下文。
4.2 加一个“工具”功能:让 AI 能查天气、搜网页
Flowise 内置了几十个实用工具节点。比如,你想让 AI 助手既能答制度,又能查实时天气:
- 从「Tools」中拖一个「Weather Tool」节点;
- 拖一个「Conditional Node」,设置规则:“如果用户问题包含‘天气’、‘温度’、‘下雨’等关键词,走 Weather Tool;否则走 Qdrant + vLLM 流程”;
- 把两个分支的输出,都连到同一个「Output」节点。
这样,你的一个工作流,就同时具备了“知识库问答”和“联网工具调用”两种能力。
4.3 复用现成模板:10 秒启动一个 SQL 助手
Flowise Marketplace 提供了 100+ 经过验证的模板。比如:
- 搜索 “SQL Agent”,点击「Use Template」,它会自动创建一个能理解自然语言、自动生成 SQL 查询、连接你数据库的工作流;
- 搜索 “Web Scraping”,一键生成爬虫流程,把指定网页内容抓下来喂给 LLM;
- 搜索 “Zapier”,直接对接 5000+ SaaS 应用,实现“AI 自动填表单”、“AI 发邮件提醒”等自动化。
所有模板都支持二次编辑:你可以改提示词、换模型、增删节点,就像修改 PPT 一样简单。
5. 常见问题与避坑指南
5.1 为什么我连不上本地 PDF?提示“file not found”
- 正确做法:使用绝对路径(不是相对路径),且路径中不能有中文空格或特殊符号;
- 错误示例:
./downloads/员工手册.pdf、C:\Users\张三\Downloads\手册.pdf; - 正确示例:
/Users/yourname/Downloads/employee_handbook.pdf(macOS/Linux)、C:/Users/YourName/Downloads/employee_handbook.pdf(Windows,用正斜杠)。
5.2 为什么 Qdrant 报错“connection refused”?
- 本镜像已内置 Qdrant 服务,但首次启动需等待约 30 秒初始化;
- 如果刚启动 Flowise 就急着建流程,Qdrant 可能还没就绪;
- 解决方法:等待 1 分钟,刷新页面,或在终端执行
docker logs <container_id>查看 Qdrant 是否已启动成功。
5.3 为什么回答很短,或者总是说“暂无说明”?
- 这通常是因为检索没找到相关内容,而非模型问题;
- 优化方法:
- 在「Text Splitter」中把
Chunk Size从 500 改成 300,让分块更细; - 在「Qdrant」节点中,把「Similarity Threshold」从默认
0.5降低到0.3,放宽匹配条件; - 检查 PDF 是否是扫描版(图片 PDF),Flowise 无法识别图片文字,需先 OCR。
5.4 我能用自己的大模型吗?怎么换?
当然可以。Flowise 支持所有主流模型格式:
- HuggingFace 模型:在「vLLM」节点中,「Model ID」填
Qwen/Qwen2-1.5B-Instruct,「GPU Layer」填20(根据显存调整); - Ollama 模型:选「Ollama」节点,「Model Name」填
llama3; - 本地 GGUF 模型:选「Llama.cpp」节点,「Model Path」填
/path/to/model.Q4_K_M.gguf。
所有模型切换,都只需改一个下拉框或一个输入框,无需重启服务。
6. 总结:你已经掌握了 AI 应用的底层逻辑
回顾一下,今天我们做了什么:
- 没写一行代码,就完成了一个完整的 RAG 工作流;
- 没配一个环境变量,就让 vLLM、Qdrant、PDF 解析全部协同工作;
- 没查一次文档,就通过拖拽、连线、填空,理解了 LLM 应用的核心组件:数据加载 → 文本分块 → 向量存储 → 上下文注入 → 大模型生成;
- 最后还导出了 API,意味着这个“玩具”,下一秒就能变成你业务系统里的真实功能。
Flowise 的价值,从来不是替代开发者,而是把“验证想法”的门槛,从“两周工程投入”降到了“两分钟鼠标操作”。当你能快速做出原型,就能更快试错、更快迭代、更快交付价值。
所以,别再被“LangChain 太复杂”、“RAG 配置太难”吓退了。真正的 AI 工程化,不是比谁写的代码多,而是比谁能把复杂问题,拆解成最简单的动作。
现在,关掉这篇文章,打开你的浏览器,输入http://localhost:3000,登录,拖一个节点试试看。
你离自己的第一个 AI 助手,只差一次点击。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。