Flowise保姆级教程:从零开始搭建AI内容生成平台
你是不是也遇到过这些情况:想把公司内部文档变成智能问答系统,但写不出 LangChain 代码;想快速验证一个 RAG 方案,却卡在环境配置和向量库对接上;或者只是单纯想试试“让图片说话”“用表格生成报告”这类新点子,但又不想花三天搭服务、调接口、修报错?
别折腾了。今天这篇教程,就是为你准备的——不用写一行 LangChain,不装 Docker,不配 GPU 驱动,5 分钟内,在一台普通笔记本上,跑起属于你自己的 AI 内容生成平台。
Flowise 不是另一个需要你啃文档、抄代码、改配置的工具。它像乐高一样,把 LLM、提示词、分块器、向量库、工具调用这些模块,都做成了可拖拽的“积木块”。你只需要把它们连起来,就能生成一个能读 PDF、查数据库、调用天气 API、甚至自动写周报的 AI 助手。
更关键的是:它本地运行,数据不出门;MIT 协议,商用无限制;45.6k 星标,社区周更,不是玩具项目,而是真正在被企业落地使用的生产级平台。
下面我们就从最干净的空白系统开始,一步步带你完成:环境准备 → 一键启动 → 登录界面 → 拖出第一个 RAG 机器人 → 导出 API 接口 → 实际调用测试。全程不跳步、不省略、不假设你懂 Node.js 或 vLLM。
1. 为什么选 Flowise?三个真实痛点的解法
先说清楚:Flowise 解决的不是“技术炫技”,而是你每天都会撞上的三类实际问题。
1.1 痛点一:“我有知识库,但不会写 RAG 代码”
很多团队都有大量 PDF、Word、Confluence 页面,但没人会写RecursiveCharacterTextSplitter+Chroma+RetrievalQA这套链路。Flowise 把它封装成两个节点:
- Document Loader(文档加载器):点一下,选文件夹或上传 PDF,自动解析文本
- Vector Store(向量库):选 Chroma 或 Qdrant,点保存,自动建库、嵌入、索引
你不需要知道 embedding 是什么,只要把这两个节点拖进来、连上线,再接一个 LLM 节点,就完成了整个 RAG 流程。
1.2 痛点二:“模型换着试,每次都要重写代码”
今天用 Qwen2-7B,明天想试 DeepSeek-V3,后天要切到本地 Ollama 的 Phi-3。传统方式意味着改llm = ChatOpenAI()为llm = ChatOllama(model="phi3"),再调一堆参数。
Flowise 做得更彻底:所有主流模型都已预置为下拉选项。你在 LLM 节点里点开“Model Provider”,选“Ollama”,再点“Model Name”,下拉列表里直接出现你本机ollama list所有已拉取的模型。切换模型,就是点两下。
1.3 痛点三:“做出来只能自己玩,没法给同事/系统用”
很多本地 Demo 做完就结束了——界面好看,但业务系统调不了。Flowise 提供两种“交付出口”:
- 一键导出 REST API:生成
/api/v1/prediction/{flowId}接口,任何 HTTP 客户端都能调 - 嵌入式 SDK:复制几行 JS/Python 代码,粘贴进你现有的网页或后台服务,AI 就成了你系统的一个函数
这不是“演示功能”,而是 Flowise 生产部署的核心能力。官方 Marketplace 里已有 100+ 模板,比如“SQL Agent”模板,导出后,你的财务系统就能直接发 SQL 查询语句,拿到结构化结果。
这三点,决定了 Flowise 不是“又一个 LangChain 可视化玩具”,而是真正降低 AI 应用门槛的生产力工具。
2. 环境准备:三步搞定,连 Node.js 都不用手动装
Flowise 官方推荐用 npm 全局安装,但新手常卡在 Node.js 版本、pnpm 未安装、权限报错等环节。我们走一条更稳的路:用预编译二进制包 + 简化脚本,绕过所有构建环节。
前提:你有一台 Linux 或 macOS 电脑(Windows 用户请用 WSL2),已安装 Git 和基础编译工具(如
build-essential)
2.1 安装系统依赖(仅需一次)
打开终端,执行以下命令。它会安装 Flowise 后端运行必需的底层库:
# Ubuntu/Debian 系统 sudo apt update && sudo apt install -y cmake libopenblas-dev python3-dev # macOS 系统(需提前装好 Homebrew) brew install cmake openblas python3这一步耗时约 30 秒,完成后没有报错即成功。
2.2 下载并启动 Flowise(核心命令,复制即用)
我们不 clone 整个 GitHub 仓库(那要 500MB+,且含大量前端开发文件)。而是直接下载官方发布的最新稳定版 Server 二进制包:
# 创建工作目录 mkdir -p ~/flowise-demo && cd ~/flowise-demo # 下载预编译 Server(自动适配你的系统架构) curl -sL https://github.com/FlowiseAI/Flowise/releases/download/v2.8.0/flowise-server-linux-x64.tar.gz | tar xz # 赋予执行权限 chmod +x flowise-server # 启动服务(默认监听 3000 端口) ./flowise-server小贴士:如果你用的是 Apple Silicon(M1/M2/M3)Mac,把
linux-x64换成darwin-arm64;Intel Mac 换成darwin-x64。完整版本列表见 Flowise Releases。
你会看到终端输出类似:
[INFO] Flowise server is running on http://localhost:3000 [INFO] Flowise version: v2.8.0 [INFO] Database: SQLite (in-memory)说明服务已成功启动。此时,Flowise 已经在你本地跑起来了。
2.3 验证服务是否就绪
新开一个终端窗口,执行:
curl -s http://localhost:3000/health | jq .如果返回{"status":"UP"},恭喜,后端服务健康。接下来,我们登录 Web 界面。
3. 登录与初体验:30 秒完成首次交互
打开浏览器,访问http://localhost:3000。你会看到 Flowise 的登录页。
默认账号(来自镜像文档):
邮箱:kakajiang@kakajiang.com
密码:KKJiang123
输入后点击登录,进入主界面。左侧是节点栏(Nodes),中间是画布(Canvas),右侧是属性面板(Properties)。
3.1 第一个动作:创建空白流程
点击左上角+ New Flow→ 输入名称,比如我的第一个RAG→ 点击 Create。
画布清空,准备就绪。
3.2 第二个动作:拖出“文档问答”最小闭环
我们不做复杂配置,只连 3 个节点,实现“上传 PDF → 问问题 → 得答案”:
从左侧 Nodes 栏,找到
Document Loaders分类 → 拖一个PDF File节点到画布
(这是最简单的文档加载器,支持单文件上传)找到
Vector Stores分类 → 拖一个Chroma节点到画布
(Chroma 是轻量级向量库,无需额外安装,Flowise 内置)找到
LLMs分类 → 拖一个Ollama节点到画布
(如果你还没装 Ollama,先去 ollama.com 下载安装,然后终端执行ollama run qwen2:1.5b拉取一个轻量模型)
现在,把三个节点按顺序连线:PDF File→Chroma→Ollama
连线方法:把鼠标悬停在
PDF File节点右下角的圆点上,按住左键拖到Chroma左上角圆点;再从Chroma右下角拖到Ollama左上角。
3.3 第三个动作:配置并运行
- 点击
PDF File节点,在右侧属性面板中,Upload a file上传任意一份 PDF(比如公司产品手册) - 点击
Chroma节点,确认Collection Name是默认值(如flowise_collection),其他保持默认 - 点击
Ollama节点,在Model Name下拉框中选择你本地已有的模型(如qwen2:1.5b)
最后,点击画布右上角的▶ Run Flow按钮。
等待约 10–20 秒(首次运行需加载模型和嵌入文档),你会在下方看到日志输出:Document loaded and embedded successfullyFlow executed successfully
说明:PDF 已被解析、切块、向量化,并存入 Chroma。这个流程已经可以用了。
4. 构建可用的 AI 助手:添加 Prompt 与 Chat UI
上面的流程只是“后台建库”,还不能交互。我们要加两个关键节点,让它变成真正的“助手”。
4.1 添加 Prompt 节点:让回答更可控
从Prompts分类中,拖一个Prompt Template节点到画布,并放在Chroma和Ollama之间。
连线顺序变为:PDF File→Chroma→Prompt Template→Ollama
点击Prompt Template节点,在右侧编辑模板内容。这里用一个通用 RAG 提示词(已测试有效):
你是一个专业、严谨的助手,基于以下上下文回答问题。如果上下文没提供足够信息,请明确说“根据提供的资料无法回答”。 上下文: {context} 问题: {question} 请用中文回答,语言简洁准确。注意:{context}和{question}是 Flowise 自动注入的占位符,不要改名。
4.2 添加 Chat Input/Output:获得对话界面
从Chat分类中,拖一个Chat Input节点(作为用户提问入口)和一个Chat Output节点(作为回答展示出口)。
连线如下:Chat Input→Prompt Template(连接到question字段)Chroma→Prompt Template(连接到context字段)Ollama→Chat Output
关键细节:
Chat Input节点会自动在画布顶部生成一个聊天输入框;Chat Output会自动在底部显示回答。你不需要写前端代码。
4.3 保存并测试
点击左上角Save Flow,然后点击▶ Run Flow。
在顶部输入框中输入问题,例如:
“产品保修期是多久?”
回车。稍等几秒,底部就会显示从你上传的 PDF 中精准提取的答案。
这就是一个完整的、可交互的 RAG 助手。整个过程,你没写任何代码,没配任何环境变量,没碰一行 Python。
5. 导出 API:让 AI 成为你系统的“一个函数”
做好了流程,下一步就是把它用起来。Flowise 提供两种导出方式,我们选最通用的 REST API。
5.1 获取 Flow ID
在 Flow 编辑页,点击右上角⋯ More Options→Export Flow→ 复制弹出窗口中的id字段(一长串字母数字组合,如a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8)。这就是你的 Flow 唯一标识。
5.2 调用 API(用 curl 演示)
打开新终端,执行以下命令(替换<YOUR_FLOW_ID>为上一步复制的 ID):
curl -X POST "http://localhost:3000/api/v1/prediction/<YOUR_FLOW_ID>" \ -H "Content-Type: application/json" \ -d '{ "question": "产品保修期是多久?" }' | jq .你会得到 JSON 响应,其中"text"字段就是 AI 的回答。
5.3 在 Python 中调用(真实业务场景)
新建一个test_api.py文件:
import requests FLOW_ID = "a1b2c3d4-e5f6-7890-g1h2-i3j4k5l6m7n8" # 替换为你自己的 ID API_URL = f"http://localhost:3000/api/v1/prediction/{FLOW_ID}" response = requests.post( API_URL, json={"question": "产品保修期是多久?"}, timeout=60 ) if response.status_code == 200: result = response.json() print("AI 回答:", result.get("text", "无回答")) else: print("请求失败,状态码:", response.status_code)运行python test_api.py,输出同上。这意味着,你可以把这个脚本嵌入到你的 CRM、ERP 或内部 Wiki 系统中,让 AI 问答成为其原生能力。
6. 进阶建议:让平台更稳定、更实用
Flowise 开箱即用,但要长期使用,建议做三件小事:
6.1 持久化存储:告别重启丢数据
默认 Flowise 用内存 SQLite,关掉服务数据就没了。改成文件 SQLite,只需一步:
在启动命令前,设置环境变量:
export DATABASE_PATH="/home/yourname/flowise-data/db.sqlite" ./flowise-server下次启动时,所有流程、向量库都会自动保存在此文件中。
6.2 设置登录凭证:保护你的平台
不要用默认账号对外暴露。启动时指定用户名密码:
FLOWISE_USERNAME=admin FLOWISE_PASSWORD=MySecurePass123 ./flowise-server这样,只有你知道的账号才能登录。
6.3 加速响应:启用 vLLM(可选,适合有 GPU 的用户)
镜像描述提到“基于 vLLM”,这是提升吞吐的关键。如果你有 NVIDIA GPU,可以这样启用:
- 安装 vLLM:
pip install vllm - 在
Ollama节点中,将Model Provider改为vLLM - 填写
Model Name(如Qwen/Qwen2-7B-Instruct)和vLLM Endpoint(如http://localhost:8000) - 单独启动 vLLM 服务:
python -m vllm.entrypoints.api_server --model Qwen/Qwen2-7B-Instruct
开启后,相同硬件下并发处理能力可提升 3–5 倍。
7. 总结:你刚刚完成了什么?
回顾一下,我们用不到 20 分钟,完成了以下事情:
- 在普通笔记本上,零依赖安装并启动了 Flowise 服务
- 上传一份 PDF,自动生成向量知识库
- 拖拽 5 个节点(PDF Loader、Chroma、Prompt、Ollama、Chat IO),构建出可交互的 RAG 助手
- 一键导出标准 REST API,用 curl 和 Python 调用成功
- 学会了持久化、安全加固、性能加速三项关键运维技巧
你拥有的不再是一个“Demo”,而是一个随时可扩展、可集成、可交付的 AI 内容生成平台。下一步,你可以:
- 把公司所有产品文档、客服话术、合同模板,批量导入,做成统一知识中枢
- 连接 MySQL 或 PostgreSQL,让 AI 直接查业务数据库生成日报
- 用 Marketplace 里的 “Web Scraping” 模板,自动抓取竞品官网更新,生成分析简报
- 把导出的 API 接入钉钉/飞书机器人,让全员随时问“上季度销售冠军是谁?”
Flowise 的价值,不在于它多酷炫,而在于它把 AI 应用的“最后一公里”——从想法到可用,压缩到了 5 分钟。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。