Flowise部署教程:WSL2环境下Windows平台Flowise快速启动
1. 什么是Flowise?——零代码构建AI工作流的可视化平台
Flowise 是一个在2023年开源的、专为大模型应用而生的「拖拽式 LLM 工作流」平台。它把 LangChain 中那些需要写代码才能串联起来的核心组件——比如语言模型(LLM)、提示词模板(Prompt)、文本分块器(Splitter)、向量数据库(VectorStore)、外部工具(Tool)等——全部封装成一个个可拖拽的图形化节点。
你不需要写一行 Python,只要在画布上把它们拖出来、连上线,就能快速搭建出功能完整的 AI 应用:
- 一个能读取公司文档并精准回答问题的 RAG 聊天机器人;
- 一个自动抓取网页内容再总结提炼的智能助手;
- 一个连接数据库、能听懂自然语言并生成 SQL 的数据分析 Agent;
- 甚至还能接入 Zapier,让 AI 自动触发邮件、通知或表单提交。
更关键的是,Flowise 不只是“玩玩而已”。它支持一键导出为标准 REST API,你可以直接嵌入到自己的业务系统、前端页面或内部管理后台中,真正实现从原型到落地的无缝衔接。
2. 为什么选 Flowise?——本地优先、开箱即用、不设门槛
如果你正在找一个既能快速验证想法、又能在本地稳定运行、还不用担心 API 调用费用和隐私泄露的 AI 工具平台,Flowise 就是目前最务实的选择之一。
它不是另一个需要你配环境、调参数、改源码的“技术玩具”,而是一个真正面向工程实践的生产力工具。它的核心优势非常清晰:
- 零代码上手:所有逻辑都通过图形界面完成。拖节点、连线条、加条件分支、设循环逻辑——就像搭乐高一样直观。新手5分钟就能跑通第一个问答流程。
- 多模型自由切换:OpenAI、Anthropic、Google Gemini、Ollama、HuggingFace、LocalAI……官方已内置主流模型接入方式。想换模型?点一下下拉框,改个配置项,不用重写任何代码。
- 100+ 现成模板开箱即用:Flowise Marketplace 提供大量经过验证的模板,比如“PDF知识库问答”、“网页内容摘要”、“SQL查询助手”、“Zapier自动化集成”等。你可以一键导入,再根据实际需求微调几个节点,立刻投入试用。
- 本地优先,轻量可靠:支持 npm 全局安装,也提供 Docker 镜像。哪怕是一台树莓派4,也能流畅运行。默认端口 3000,启动后浏览器打开就能用,没有云服务依赖,数据完全留在你自己的机器里。
- 生产就绪,扩展性强:支持 PostgreSQL 持久化存储流程与用户数据;可导出为独立 API 服务;官方还提供了 Railway、Render、Northflank 等平台的一键部署模板,方便后续平滑迁移到云端。
- MIT 协议,商用无忧:完全开源,无任何使用限制。GitHub 星标已达 45.6k,社区活跃,插件生态持续丰富,每周都有新功能更新。
一句话总结 Flowise 的定位:
“45k Star、MIT 协议、5 分钟搭出 RAG 聊天机器人,本地/云端都能跑。”
一句话帮你判断是否该用它:
“不会写 LangChain,却想 10 分钟把公司知识库变成问答 API,直接docker run flowiseai/flowise即可。”
3. 为什么要在 WSL2 下部署?——兼顾 Windows 生态与 Linux 兼容性
很多 Windows 用户想用 Flowise,但又担心原生 Windows 支持不够稳定,或者怕装一堆 Python、Node.js、CUDA 环境太麻烦。这时候,WSL2(Windows Subsystem for Linux 2)就是一个极佳的折中方案。
它不是虚拟机,也不是双系统,而是 Windows 内核直接支持的 Linux 子系统。你可以在 Windows 上获得近乎原生的 Ubuntu/Debian 体验,同时又能无缝调用 Windows 文件、访问本地网络、使用 VS Code 远程开发,甚至还能跑 vLLM 这类对 CUDA 和 Linux 环境要求严格的推理引擎。
更重要的是,Flowise 官方文档和社区案例绝大多数基于 Linux 或 macOS,WSL2 让你在 Windows 平台上也能复用这些经验,避免踩坑。整个部署过程干净利落,不需要折腾 Cygwin、MinGW 或各种兼容层。
本教程将带你从零开始,在 WSL2 中完成 Flowise + vLLM 的完整本地部署,最终实现:
- 基于本地大模型(如 Qwen2、Phi-3、Llama3)的 RAG 问答;
- 可视化拖拽搭建 Agent 工作流;
- 浏览器直接访问,账号登录,流程保存;
- 后续可随时导出 API,对接自有系统。
4. WSL2 环境准备——三步搞定基础依赖
在正式安装 Flowise 前,我们需要先确保 WSL2 环境已就绪,并安装好必要的编译与运行依赖。
4.1 启用并安装 WSL2
如果你尚未启用 WSL2,请以管理员身份打开 PowerShell,依次执行以下命令:
wsl --install该命令会自动启用 WSL 功能、下载最新内核、安装默认发行版(通常是 Ubuntu)。安装完成后重启电脑。
启动 Ubuntu 终端,首次运行会提示设置用户名和密码。记好这个账户,后续所有操作都在此环境中进行。
4.2 更新系统并安装基础编译工具
打开 WSL2 终端(Ubuntu),执行以下命令更新软件源并安装关键依赖:
sudo apt update && sudo apt upgrade -y sudo apt install -y cmake libopenblas-dev build-essential python3-dev python3-pip curl git wget注意:
libopenblas-dev是 vLLM 编译所必需的线性代数库,cmake是构建 C++ 扩展的关键工具,缺一不可。
4.3 安装 Node.js 18+ 与 pnpm
Flowise 基于 Node.js 构建,推荐使用 Node.js 18 或更高版本(v20 更佳)。我们使用nvm(Node Version Manager)来管理版本,避免系统级污染:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash source ~/.bashrc nvm install 20 nvm use 20然后安装 pnpm(比 npm/yarn 更快、更节省磁盘空间的包管理器):
npm install -g pnpm至此,WSL2 环境已具备运行 Flowise + vLLM 的全部底层能力。
5. Flowise 源码部署——从克隆到启动全流程
Flowise 官方推荐 Docker 部署,但在需要深度定制、接入本地 vLLM 或调试节点逻辑时,源码部署是最灵活的方式。以下是完整步骤:
5.1 克隆仓库并进入项目目录
cd /home/$USER mkdir -p ~/projects && cd ~/projects git clone https://github.com/FlowiseAI/Flowise.git cd Flowise建议将项目放在
/home/用户名/projects/下,便于后续 VS Code 远程连接和文件管理。
5.2 配置环境变量
Flowise 启动前需配置.env文件。我们复制示例文件并添加必要变量:
cp packages/server/.env.example packages/server/.env用你喜欢的编辑器(如nano或code .)打开packages/server/.env,修改以下几项(其余保持默认即可):
NODE_ENV=production PORT=3000 FLOWISE_USERNAME=kakajiang@kakajiang.com FLOWISE_PASSWORD=KKJiang123. APIKEY_REQUIRED=false说明:
APIKEY_REQUIRED=false表示无需 API Key 即可调用接口,适合本地开发;若需加强安全,可设为true并配置FLOWISE_APIKEY。
5.3 安装依赖并构建服务
Flowise 使用 pnpm 管理 monorepo 依赖,执行以下命令完成安装与构建:
pnpm install pnpm build首次构建可能耗时 3–5 分钟(取决于 CPU 性能),请耐心等待。期间会自动下载 TypeScript 类型定义、编译前端资源、打包后端服务。
5.4 启动 Flowise 服务
构建完成后,执行:
pnpm start你会看到类似如下输出:
> flowise@2.12.0 start > pnpm --filter @flowiseai/server run start > @flowiseai/server@2.12.0 start > node dist/index.js Flowise server is running on http://localhost:3000 Authentication enabled: true Flowise data directory: /home/kakajiang/projects/Flowise/storage此时服务已在http://localhost:3000启动。但注意:这是 WSL2 内部地址,Windows 浏览器还无法直接访问。
6. Windows 端访问与登录——打通 WSL2 与宿主机网络
WSL2 默认使用虚拟网络,其localhost与 Windows 宿主机localhost并不互通。我们需要做一次简单映射。
6.1 在 Windows 上配置端口转发
以管理员身份打开 Windows PowerShell,执行:
netsh interface portproxy add v4tov4 listenport=3000 listenaddress=127.0.0.1 connectport=3000 connectaddress=$(wsl hostname -I | awk '{print $1}')这条命令的作用是:把 Windows 的127.0.0.1:3000请求,自动转发到 WSL2 实际 IP 的3000端口。
验证是否成功:在 PowerShell 中运行
netsh interface portproxy show v4tov4,应能看到对应条目。
6.2 浏览器访问 Flowise 控制台
现在,打开 Windows 上任意浏览器,访问:
http://localhost:3000你应该能看到 Flowise 的登录页。使用以下默认凭证登录:
- 邮箱:
kakajiang@kakajiang.com - 密码:
KKJiang123.
登录成功后,即可进入可视化工作流画布,开始拖拽节点、配置模型、上传文档、测试问答。
7. 接入本地 vLLM 模型——让 Flowise 真正“离线可用”
Flowise 默认支持多种模型后端,其中LocalAI和Ollama是最常用的本地方案。但若你追求更高性能、更低延迟、更强控制力(比如量化、LoRA 微调、自定义 stop token),vLLM 是当前最成熟的选择。
7.1 在 WSL2 中安装 vLLM
确保你已安装 CUDA 驱动(Windows 上需先安装 NVIDIA Game Ready 或 Studio 驱动,WSL2 会自动复用)。然后在 WSL2 终端中执行:
pip3 install vllm验证安装:运行
python3 -c "import vllm; print(vllm.__version__)",应输出版本号(如0.6.3)。
7.2 启动 vLLM API 服务
以 Qwen2-1.5B-Instruct 为例(你可替换为任意 HuggingFace 上的 GGUF 或 AWQ 模型):
python3 -m vllm.entrypoints.openai.api_server \ --model Qwen/Qwen2-1.5B-Instruct \ --tensor-parallel-size 1 \ --dtype half \ --port 8000 \ --host 0.0.0.0该命令会在http://localhost:8000启动一个兼容 OpenAI 格式的 API 服务。Flowise 只需将其当作普通 OpenAI 接口接入即可。
7.3 在 Flowise 中配置 vLLM 模型节点
登录 Flowise 后,点击左上角+ Create New Flow→ 选择Blank Flow→ 在左侧节点栏找到LLM分类 → 拖入OpenAI节点。
在右侧配置面板中填写:
- Base Path:
http://localhost:8000/v1 - API Key:留空(vLLM 默认无需 key)
- Model Name:
Qwen2-1.5B-Instruct(必须与启动时一致) - Temperature:0.3(可根据需要调整)
保存后,该节点即可调用本地 vLLM 进行推理,全程不联网、不依赖任何第三方服务。
8. 实战演示:5 分钟搭建一个 PDF 知识库问答机器人
现在我们用一个真实场景,走一遍从文档上传到问答测试的全流程。
8.1 创建新流程并添加核心节点
新建流程 → 拖入以下节点并按顺序连线:
Document Loader(加载本地 PDF)RecursiveCharacterTextSplitter(自动分块)HNSWLib Vector Store(本地向量库,无需额外服务)OpenAI LLM(已配置为 vLLM)Prompt Template(输入:“你是一个专业客服,请基于以下内容回答用户问题:{context}\n问题:{question}”)RetrievalQA Chain(连接向量库与 LLM)
8.2 上传文档并构建知识库
点击Document Loader节点右上角⋯→Upload File→ 选择一份产品说明书 PDF。Flowise 会自动解析文本、分块、嵌入并存入向量库。
⏱ 首次构建可能需 30–60 秒,后续查询毫秒级响应。
8.3 测试问答效果
点击画布右上角Chat图标 → 输入问题,例如:
“这款设备支持哪些无线协议?”
Flowise 将自动检索相关段落,交由 vLLM 生成自然语言答案,整个过程完全本地完成。
你还可以点击Export→Export as API,获取一个标准 REST 接口地址,供其他程序调用。
9. 常见问题与优化建议——少走弯路的实用提醒
部署过程中,你可能会遇到一些典型问题。以下是高频场景及应对方案:
9.1 启动失败:Error: Cannot find module 'xxx'
原因:pnpm 构建未完成或依赖未正确链接。
解决:
pnpm clean pnpm install pnpm build9.2 浏览器打不开localhost:3000
原因:端口转发未生效,或 WSL2 IP 变化后未更新规则。
解决:
- 重新运行端口转发命令(见 6.1 节);
- 或直接在 Windows 浏览器中访问
http://$(wsl hostname -I | awk '{print $1}'):3000。
9.3 vLLM 报错CUDA out of memory
原因:显存不足,尤其在运行 7B+ 模型时。
解决:
- 启动时加参数
--gpu-memory-utilization 0.8; - 或改用量化模型(如
TheBloke/Qwen2-1.5B-Instruct-AWQ); - 或降低
--max-num-seqs(默认 256,可设为 64)。
9.4 Flowise 登录后空白页或报 404
原因:前端资源未正确构建,或缓存未刷新。
解决:
- 清除浏览器缓存(Ctrl+Shift+R 强制刷新);
- 或在 WSL2 中执行
pnpm build:frontend单独重建前端。
9.5 想长期运行?别用pnpm start
pnpm start是前台进程,关闭终端即退出。生产建议用:
# 安装 PM2 进程管理器 npm install -g pm2 # 启动 Flowise(后台守护) pm2 start packages/server/dist/index.js --name flowise # 查看日志 pm2 logs flowise10. 总结:Flowise 是你通往 AI 应用落地的第一块坚实跳板
Flowise 不是一个炫技的 Demo 工具,而是一个真正把“大模型能力”转化成“业务价值”的工程化桥梁。它用最直观的图形界面,消除了 LangChain 学习曲线;用最简化的部署路径,绕开了复杂的环境配置;用最开放的架构设计,支撑从本地实验到云端生产的全生命周期。
在 WSL2 环境下完成本次部署后,你已经拥有了:
- 一个完全可控、数据不出本地的 AI 工作流平台;
- 一套可复用、可导出、可嵌入的 RAG/Agent 构建能力;
- 一条从“想法→原型→API→业务集成”的清晰路径。
接下来,你可以:
- 把公司内部的 SOP 文档、产品手册、会议纪要全部接入,打造专属知识助手;
- 将销售话术、客服FAQ、培训材料结构化,生成智能应答 Bot;
- 结合 Webhook 和数据库节点,让 AI 自动查库存、填工单、发通知。
技术的价值,从来不在参数有多高,而在能否解决真问题。Flowise 正是这样一款“让 AI 回归本质”的工具。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。