Flowise零代码AI工作流:5分钟搭建RAG聊天机器人实战
你是否曾为搭建一个能读懂公司文档的智能问答机器人而发愁?写LangChain链、配向量库、调模型参数……光是环境就折腾半天。今天带你用Flowise,不写一行代码,5分钟从空白页面到可对话的RAG机器人——本地跑、界面拖、API导出,全程可视化。
这不是概念演示,而是真实可复现的工程实践。我们用预置的vLLM本地模型镜像,跳过模型下载与推理服务部署环节,直奔核心:如何把你的PDF、Word、网页内容变成“会说话的知识库”。
下面所有操作,你都可以在自己的机器上跟着做。不需要Python基础,不需要服务器运维经验,只需要一台能运行Docker的电脑(Windows/Mac/Linux/树莓派均可)。
1. 为什么是Flowise?——它解决的不是技术问题,而是时间问题
1.1 零代码 ≠ 功能简陋
很多人一听“零代码”,下意识觉得是玩具工具。但Flowise不同:它不是简化版LangChain,而是对LangChain能力的完整封装与可视化重映射。每一个节点——LLM、Prompt Template、Text Splitter、Chroma向量库、Retriever、Tool——都对应LangChain中一个真实类或模块。你拖拽连线的过程,就是在构建真实的、可调试、可导出的LangChain链。
它不隐藏复杂性,而是把复杂性组织成可理解的单元。就像用乐高拼飞机,每一块积木都真实对应航空结构中的某个部件。
1.2 本地优先,开箱即用
本镜像已集成vLLM推理后端,启动即加载模型(如Qwen2-7B-Instruct、Phi-3-mini等),无需你手动下载GGUF、配置CUDA、启动Ollama或LocalAI。docker run flowiseai/flowise之后,等待约2–3分钟,服务就绪——连模型加载进度条都在Web界面上实时显示。
这意味着:
- 你不用查“HuggingFace上哪个模型适合RAG”;
- 不用纠结“chroma还是weaviate,要不要配PostgreSQL”;
- 更不用在
.env里反复试错OPENAI_API_KEY格式——本地模型根本不需要API Key。
1.3 真正的“5分钟”,拆解给你看
| 步骤 | 耗时 | 说明 |
|---|---|---|
| 启动镜像 & 等待服务就绪 | ≈ 2分30秒 | docker run -d -p 3000:3000 flowiseai/flowise,浏览器打开http://localhost:3000 |
| 创建新工作流 + 拖入6个核心节点 | ≈ 45秒 | LLM、Document Loader、Text Splitter、Vector Store、Retriever、QA Chain |
| 上传一份PDF(如《公司报销制度V2.3》) | ≈ 20秒 | 支持拖拽上传,自动解析文本 |
| 连线、保存、发布 | ≈ 35秒 | 点击“Publish”按钮,生成专属聊天界面 |
| 首次提问:“差旅补贴标准是多少?” | ≈ 5秒响应 | RAG生效,答案来自你刚上传的PDF |
总计:不到5分钟,一个专属知识问答机器人已在线运行。
2. 实战:从零开始搭建RAG聊天机器人
2.1 准备工作:一键启动Flowise服务
本镜像已预装全部依赖(包括vLLM、ChromaDB、Unstructured等),你只需执行一条命令:
docker run -d \ --name flowise-rag \ -p 3000:3000 \ -v $(pwd)/flowise-storage:/app/storage \ -e FLOWISE_USERNAME=kakajiang \ -e FLOWISE_PASSWORD=KKJiang123 \ --restart unless-stopped \ flowiseai/flowise说明:
-v挂载目录用于持久化上传的文档和向量数据库,避免容器重启后数据丢失;- 用户名密码与镜像文档中提供的演示账号一致,登录后即可进入画布;
- 启动后访问
http://localhost:3000,输入账号密码即可进入可视化编辑界面。
等待约120秒,页面自动加载完成。你会看到干净的画布、左侧节点栏、顶部导航栏——这就是你的AI工作流实验室。
2.2 第一步:创建新工作流并命名
点击左上角+ New Flow→ 输入名称,例如:公司报销制度问答→ 点击Create。
此时画布为空,但你已拥有一个独立的工作流空间。所有后续节点、连接、配置都将仅属于这个流程,与其他流程完全隔离。
2.3 第二步:拖入并配置6个核心节点(RAG最小可行集)
RAG的本质是:检索(Retrieve)+ 生成(Generate)。Flowise将这一逻辑拆解为6个直观节点,我们按数据流向依次添加:
### 2.3.1 Document Loader(文档加载器)
- 从左侧节点栏拖入
Document Loader节点到画布中央; - 双击打开配置面板;
- Type选择
PDF(也支持TXT、DOCX、MD、网页URL); - 其他保持默认,无需填写路径或URL——稍后上传时动态绑定。
小贴士:这个节点不是“读取固定文件”,而是定义“将来用户上传什么类型的内容”。它像一个插槽,等着你把PDF拖进来。
### 2.3.2 Text Splitter(文本切片器)
- 拖入
Text Splitter节点; - 连接
Document Loader的输出口(绿色圆点)→Text Splitter的输入口(蓝色圆点); - 双击配置:
Chunk Size:500(每段文本约500字符,平衡语义完整性与检索精度);Chunk Overlap:50(相邻段落重叠50字符,避免关键信息被截断);- 其余默认。
为什么需要切片?大模型有上下文长度限制,原始PDF可能上万字。切片后存入向量库,检索时只召回最相关的几段,再喂给大模型生成答案——既快又准。
### 2.3.3 Vector Store(向量数据库)
- 拖入
Vector Store节点(默认使用Chroma,轻量、纯内存、无需额外服务); - 连接
Text Splitter→Vector Store; - 双击配置:
Embedding: 选择HuggingFace Embeddings(本镜像已内置all-MiniLM-L6-v2);Collection Name: 填写reimbursement-policy(自定义,便于识别);Persist Path: 默认/app/storage/chroma(已由-v挂载,确保持久化)。
关键点:这个节点会自动完成三件事——文本向量化、存入Chroma、建立索引。你完全看不到命令行或日志刷屏,一切静默完成。
### 2.3.4 LLM(大语言模型)
- 拖入
LLM节点; - 在配置中选择
vLLM(这是本镜像的核心优势:直接对接本地vLLM服务,非OpenAI代理); Model Name: 保持默认(镜像已预设Qwen2-7B-Instruct,兼顾速度与中文理解);Temperature:0.3(降低随机性,让回答更稳定、更忠实原文);- 其他参数保持默认。
⚙ 技术说明:vLLM通过PagedAttention大幅提升吞吐,本镜像中其API地址已预设为
http://localhost:8080/v1,无需你手动填写。
### 2.3.5 Retriever(检索器)
- 拖入
Retriever节点; - 连接
Vector Store→Retriever; - 配置:
Vector Store: 选择刚才创建的reimbursement-policy;Top K:3(每次检索返回最相关的3个文本片段);Search Type:similarity(余弦相似度,最常用)。
检索器是RAG的“眼睛”。它不生成答案,只负责从向量库中找出与用户问题最匹配的原文片段。
### 2.3.6 QA Chain(问答链)
- 拖入
QA Chain节点(这是RAG的“大脑”); - 连接
Retriever→QA Chain,再连接LLM→QA Chain(注意:QA Chain有两个输入口,一个接检索结果,一个接大模型); - 配置:
Prompt: 使用默认模板(已优化RAG场景,含“根据以下资料回答…”指令);Return Source Documents: 勾选(方便你验证答案是否真来自文档,而非模型幻觉)。
至此,6个节点全部就位,连线完成。数据流清晰可见:PDF → 切片 → 向量化存储 → 检索相关片段 → 结合LLM生成答案。
2.4 第三步:上传文档并发布工作流
- 点击画布右上角Save保存当前配置;
- 点击Publish→ 页面跳转至该工作流的专属聊天界面;
- 在聊天框上方,你会看到Upload Documents区域;
- 直接将《公司报销制度V2.3.pdf》拖入虚线框,或点击选择文件;
- 等待约10–20秒(取决于PDF页数),状态变为
Processed,表示文档已切片、向量化、存入Chroma。
验证:点击左侧菜单
Vector Stores→ 选择reimbursement-policy→ 查看Document Count是否大于0。若显示32,说明32个文本块已入库。
2.5 第四步:测试与调优——让机器人真正“懂业务”
现在,你可以像使用微信一样和它对话:
提问1:“市内交通补贴怎么算?”
→ 返回准确条款,并附带来源页码(如“见第5页第2条”)。提问2:“我上个月出差去深圳,住宿超标了,还能报销吗?”
→ 它会结合“超标审批流程”和“特殊情况说明”两段内容,给出结构化回答。
如果某次回答不理想,别急着重做——Flowise支持无损微调:
- 回到画布,双击
QA Chain→ 修改Prompt,加入业务约束:你是一名严谨的财务助理,请严格依据《公司报销制度V2.3》作答。 若文档未提及,必须回答“制度中未明确说明”,禁止自行推断。 - 保存 → 重新Publish → 效果立竿见影。
这就是零代码的威力:修改逻辑 = 修改文字,而非重构代码。
3. 进阶能力:不止于问答,还能做什么?
Flowise的节点远不止RAG六件套。当你熟悉基础后,可快速叠加能力,让机器人更智能、更实用。
3.1 加入条件分支:让机器人“会判断”
比如,你想区分“咨询类问题”和“申请类问题”:
- 拖入
Condition Node(条件节点); - 连接
QA Chain的输出 →Condition Node; - 配置规则:
- If
output contains "申请"→ 走Apply Workflow分支(跳转至审批表单); - Else → 走
Answer Workflow分支(继续问答)。
- If
🧩 效果:用户问“怎么申请远程办公?”,机器人自动弹出OA表单链接;问“远程办公补贴多少?”,则返回制度原文。无需写if-else,拖拽即实现业务逻辑分流。
3.2 接入外部工具:让机器人“能办事”
Flowise原生支持Zapier、Google Calendar、SQL Database等工具节点。例如:
- 拖入
SQL Tool节点; - 配置数据库连接(本镜像已预装PostgreSQL示例);
- 当用户问“帮我查张三上季度差旅总金额”,机器人自动执行SQL查询并返回结果。
🔌 所有工具节点均提供可视化配置向导,填表单、测连接、看返回示例,全程图形化。
3.3 导出API:嵌入你的业务系统
点击工作流右上角⋯ → Export as API:
- 自动生成RESTful接口文档(Swagger风格);
- 提供
curl示例:curl -X POST "http://localhost:3000/api/v1/prediction/abc123" \ -H "Content-Type: application/json" \ -d '{"question":"差旅补贴标准是多少?"}' - 返回JSON格式答案,可直接被ERP、CRM、企业微信机器人调用。
这意味着:你花5分钟搭的RAG机器人,30秒就能变成公司内部系统的智能插件。
4. 生产就绪:如何让Flowise真正跑在企业环境中?
Flowise设计之初就考虑生产落地。以下是镜像已为你准备好的企业级能力:
4.1 持久化与备份
- 向量库(Chroma)数据默认存于
/app/storage/chroma,已通过-v挂载到宿主机,容器删除不丢数据; - 用户账号、工作流配置、上传文档均存于SQLite(路径
/app/storage/db.sqlite),同样持久化; - 备份只需复制整个
flowise-storage目录。
4.2 多租户与权限控制
- Flowise原生支持多用户(本镜像已启用);
- 管理员可创建子账户,分配“只读工作流”、“可编辑特定流程”等细粒度权限;
- 所有操作留痕,审计日志记录谁在何时修改了哪个节点。
4.3 高可用部署建议
虽本镜像为单机版,但Flowise官方提供生产级方案:
- 数据库升级:将SQLite替换为PostgreSQL(镜像已预装PostgreSQL服务,只需修改
.env中DB_TYPE=postgres); - 向量库升级:Chroma换为Weaviate或Qdrant(配置中切换即可);
- 负载均衡:Nginx反向代理多个Flowise实例,共享同一PostgreSQL+Weaviate集群。
重点:所有升级均在Web界面配置中完成,无需改代码、不碰Dockerfile。
5. 总结:零代码的终点,是工程师价值的起点
Flowise没有消灭编程,而是把工程师从重复劳动中解放出来。过去你需要花3天配置RAG环境,现在只需3分钟;过去你要写200行LangChain代码实现文档问答,现在只需6个节点连线。
但这不是终点——而是起点。当搭建成本趋近于零,你的精力就可以转向真正创造价值的地方:
- 设计更精准的Prompt,让答案更符合业务语境;
- 构建更合理的知识图谱,让检索不再局限于关键词匹配;
- 将RAG与BI工具打通,让“查数据”变成“问问题”;
- 用Condition Node编排跨系统流程,让AI成为真正的数字员工。
Flowise的价值,不在于它多炫酷,而在于它足够朴素:
它不教你造轮子,而是给你一辆已组装好、加满油、方向盘就在手边的车——你唯一要做的,是决定开向哪里。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。