Stable Diffusion 3.5本地部署与远程访问
在生成式 AI 技术飞速发展的今天,越来越多的创作者和开发者希望将强大的文生图模型真正“握在手中”——不依赖云端服务、不受限于算力门槛,还能随时随地调用。而Stable Diffusion 3.5 FP8的出现,正是迈向这一目标的关键一步。
这个由 Stability AI 推出的高性能量化版本,在几乎无损图像质量的前提下,大幅降低了显存占用与推理延迟,让 RTX 3060 这类中端显卡也能流畅运行 1024×1024 分辨率的高质量图像生成任务。更关键的是,它为本地部署提供了极佳的工程可行性,尤其适合用于内容生产、设计辅助或团队协作场景。
本文将以 Windows 系统为例,带你从零开始搭建一个基于ComfyUI + SD3.5-FP8的完整图像生成系统,并通过cpolar 内网穿透实现公网远程访问。整个过程无需公网 IP、无需复杂网络配置,真正做到“一次部署,随处可用”。
部署环境准备与 ComfyUI 安装
我们选择ComfyUI作为前端界面,原因很明确:它采用节点式工作流设计,灵活性远超传统 WebUI,支持高度自定义流程编排,同时资源占用更低,更适合长期运行和集成部署。
环境要求
- 操作系统:Windows 10/11(推荐专业版)
- 显卡:NVIDIA GPU(建议至少 6GB 显存,如 RTX 3050 及以上)
- 存储空间:预留 20GB 以上(含模型缓存与输出文件)
- Python 环境:由 ComfyUI 自带便携包自动管理,无需手动安装
下载并启动 ComfyUI
前往官方仓库获取最新免安装版本:
🔗 GitHub - comfyanonymous/ComfyUI
找到以ComfyUI_windows_portable命名的压缩包,下载后解压到任意路径,例如D:\AI\ComfyUI。
进入目录后你会看到多个.bat启动脚本:
run_cpu.bat—— 使用 CPU 推理(极慢,仅应急使用)run_nvidia_gpu.bat—— 使用 CUDA 加速(强烈推荐)
双击运行run_nvidia_gpu.bat,首次启动会自动安装 PyTorch 和相关依赖库,耗时约 3~5 分钟,请耐心等待。
当命令行窗口显示如下信息时,表示服务已成功启动:
To see the GUI go to: http://127.0.0.1:8188打开浏览器访问 http://127.0.0.1:8188,即可进入图形界面。
⚠️ 若提示“无法连接”,请检查杀毒软件或防火墙是否阻止了 Python 进程;也可尝试右键编辑
.bat文件,确认其中 CUDA 版本与你的驱动兼容。
切换为中文界面
默认英文对新手不够友好,可通过安装社区插件实现汉化。
前往项目地址下载语言包:
🔗 GitHub - AIGODLIKE/AIGODLIKE-ComfyUI-Translation
下载后解压,将整个文件夹复制到:
ComfyUI\custom_nodes\AIGODLIKE-ComfyUI-Translation重启 ComfyUI,在页面右上角点击齿轮图标(⚙️),选择「Language」→「简体中文」,刷新页面即可完成切换。
这一步虽小,但极大提升了操作效率,特别是处理复杂节点逻辑时,能显著减少理解成本。
获取并配置 Stable Diffusion 3.5 FP8 模型
SD3.5 采用了三阶段文本编码架构(CLIP-L, CLIP-G, T5XXL),因此模型组件比以往更复杂。FP8 版本在此基础上进一步优化了精度与性能平衡,是目前最适合本地部署的 SD3.5 变体之一。
核心优势一览
| 特性 | 表现 |
|---|---|
| 推理速度 | 相比 FP16 提升 30%~40%,批量生成响应更快 |
| 显存需求 | 最低 6GB 显存可运行,8GB 支持 1024×1024 输出 |
| 图像质量 | 视觉差异极小,保留原始艺术风格与细节还原能力 |
| 兼容性 | 支持 ComfyUI、WebUI Forge、InvokeAI 等主流框架 |
📌 尤其适合以下用户:
- 想在笔记本或小型主机上部署 AI 绘画系统的个人创作者
- 需要构建自动化出图流水线的技术团队
- 对生成效率敏感的内容工厂或电商设计部门
下载模型文件
主模型(Checkpoint)
前往 Hugging Face 下载核心权重文件:
🔗 stabilityai/stable-diffusion-3.5-fp8
需下载两个关键文件:
sd3.5_fp8.safetensors—— 基础模型sd3.5_fp8_merged.safetensors—— 已融合通用 LoRA 的增强版(推荐新手使用)
放入目录:
ComfyUI/models/checkpoints/文本编码器(Text Encoders)
由于 SD3.5 使用三种不同的编码器,必须分别下载以下三个文件:
clip_l.safetensors
🔗 https://huggingface.co/stabilityai/stable-diffusion-3-medium/resolve/main/text_encoders/clip_l.safetensorsclip_g.safetensors
🔗 https://huggingface.co/stabilityai/stable-diffusion-3-medium/resolve/main/text_encoders/clip_g.safetensorst5xxl_fp8_e4m3fn.safetensors(FP8 专用)
🔗 https://huggingface.co/Comfy-Org/stable-diffusion-3.5-fp8/resolve/main/text_encoders/t5xxl_fp8_e4m3fn.safetensors
全部放置于:
ComfyUI/models/clip/❗ 必须确保这三个文件齐全,否则会在加载提示词时报错
KeyError: 'clip'或missing key t5xxl。
示例工作流导入
官方提供了一个标准文生图流程模板,可直接复用:
🔗 SD3.5-FP8 Example Workflow
下载.json文件后,直接拖拽至 ComfyUI 页面即可自动加载节点图。
测试图像生成流程
现在我们来验证部署是否成功。
加载并检查模型
将刚才下载的SD3.5_FP8_example_workflow.json拖入浏览器界面,系统会解析并构建完整的生成链路。
主要节点包括:
- 【Load Checkpoint】加载主模型
- 【CLIP Text Encode】处理正向与负向提示词
- 【KSampler】设置采样器参数
- 【VAE Decode】解码潜变量为可视图像
- 【Save Image】保存结果
点击【Load Checkpoint】节点,下拉菜单应列出sd3.5_fp8_merged.safetensors。若未出现,请检查文件路径是否正确,且扩展名为.safetensors(不是.ckpt或.pt)。
输入提示词并生成图像
在两个【CLIP Text Encode】节点中填写示例提示词:
Prompt(正向):
“a cinematic portrait of a cyberpunk samurai standing on a neon-lit rooftop in Tokyo, rain falling, dramatic lighting, ultra-detailed, 8k resolution”
Negative Prompt(负向):
“blurry, low quality, distorted face, extra limbs, bad proportions”
设置 KSampler 参数建议:
- 采样器:Euler a
- 步数(steps):25
- CFG scale:7
- 分辨率:1024×1024
点击右上角【Queue Prompt】提交任务。
根据硬件性能不同,生成时间通常在 8~15 秒之间。完成后图像会出现在右侧预览区,并自动保存至ComfyUI/output文件夹。
✅ 至此,你已完成本地部署的核心环节:模型加载 → 提示词编码 → 图像推理 → 结果保存,整套流程稳定可靠。
实现公网远程访问:使用 cpolar 内网穿透
本地运行固然方便,但一旦离开电脑就无法操作,限制了实际应用场景。比如你想用手机提交任务、让同事协同编辑节点、或将生成能力接入其他系统,就必须突破“只能局域网访问”的瓶颈。
这时候就需要内网穿透工具来帮忙。我们选用cpolar,因为它配置简单、支持 HTTPS、具备 Web 管理界面,且在国内节点速度快、稳定性高。
安装与登录
前往官网下载客户端:
🔗 https://www.cpolar.com
注册账号并安装 Windows 版本,全程默认选项即可。
安装完成后,打开浏览器访问:
👉 http://localhost:9200
使用注册账号登录,进入 Web 控制台。
创建临时公网隧道
在 cpolar 控制台中,点击左侧「隧道管理」→「创建隧道」,填写以下配置:
| 参数 | 设置值 |
|---|---|
| 隧道名称 | comfyui-sd35-fp8 |
| 协议类型 | HTTP |
| 本地地址 | 8188 |
| 域名类型 | 随机域名 |
| 地区节点 | China Top |
| 高级配置 | 启用 HTTP Auth(建议设置用户名密码,如 user:ai123) |
点击「保存」后,系统会生成两个公网地址(HTTP 和 HTTPS),例如:
https://1a2b3c4d.rX.cpolar.cn在任意设备(手机、平板、公司电脑)上打开浏览器,输入该地址,输入账号密码后即可访问你本地运行的 ComfyUI!
💡 实际体验非常接近云服务:你可以躺在沙发上用 iPad 调参,也可以把链接发给客户让他们自助查看效果,完全摆脱物理位置束缚。
不过要注意:这种随机域名每次重启都会变化,不适合长期使用。
升级为固定公网地址
如果你希望拥有一个稳定不变的访问入口,就需要升级到二级子域名。
步骤一:预留固定子域名
登录 cpolar 官网,进入「预留」→「保留二级子域名」:
- 域名前缀:输入你喜欢的名字,如
sd35fp8 - 地区:China VIP
- 备注:Stable Diffusion 3.5 FP8 生产环境
点击「保留」后,获得永久地址,例如:
https://sd35fp8.cpolar.cn这个域名将始终指向你的服务,不会因重启而改变。
步骤二:绑定到现有隧道
回到控制台,编辑之前的隧道配置:
- 域名类型 → 选择「二级子域名」
- Sub Domain → 输入你保留的前缀(如 sd35fp8)
- 地区 → China VIP
点击「更新」后,原随机地址将被替换为固定地址。
从此以后,无论你在哪台设备上,只要访问https://sd35fp8.cpolar.cn,就能连接到你家中的 AI 绘画系统。
这对于团队协作、嵌入 CMS 或对接微信机器人等场景尤为有用——你可以把这个地址当作自己的“私有 API 端点”来使用。
总结与延伸思考
通过上述步骤,我们已经完成了一整套从本地部署到公网暴露的技术闭环:
- 成功运行了Stable Diffusion 3.5 FP8高性能量化模型
- 在消费级显卡上实现了 1024×1024 高清图像生成
- 借助 cpolar 实现安全可控的远程访问
- 配置了固定域名,具备长期服务能力
相比传统的 FP16 模型,FP8 版本的意义不仅在于“省资源”,更在于它推动了 AI 模型的边缘化部署趋势。过去只有数据中心才能跑动的旗舰模型,如今可以在一台笔记本上持续运行,甚至作为轻量服务嵌入到小程序、电商平台或企业内部系统中。
未来你可以进一步拓展这个系统的能力:
- 添加API 接口,供 Python 脚本或 Flask 应用调用
- 配合自动化任务调度器实现定时批量出图
- 结合LoRA 微调模型库构建专属风格引擎
- 将输出结果自动上传至图床或 CDN,实现全流程无人值守
AI 创作的门槛正在不断降低,而掌握这套“本地+远程”双模部署技能的人,将成为第一批真正掌控生产力工具的创造者。
附录:实用资源推荐
为了让读者更快上手,我整理了一份精选资料包,涵盖部署、学习与实战所需的核心内容:
✅ 安装包集合
- 包含 Windows/Mac 可执行版 ComfyUI
- 自动配置 CUDA 与 Python 环境
- 预装常用插件(ControlNet、Impact Pack、Manager 等)
✅ 视频教程合集(入门到进阶)
- 详解 ComfyUI 节点逻辑与数据流机制
- SD3.5 提示词工程实战技巧
- FP8 模型性能对比测试演示
✅ 模型与 LoRA 精选包(50+ 款)
- 覆盖写实、动漫、赛博朋克、水墨风等多种风格
- 支持一键导入使用,无需额外配置
✅ 中文提示词手册(PDF + Excel)
- 结构化模板:主体 + 场景 + 光影 + 材质 + 风格
- 提供高频关键词组合,提升出图成功率
✅ 实战课程:SD3.5 从 0 到落地
- 15 天系统训练计划
- 涵盖本地部署、API 接入、批量生成、前端对接等完整链路
- 完成即具备独立开发 AI 绘画系统的初步能力
📥立即领取完整资料包👇
点击此处获取资源下载链接(关注公众号回复关键词「SD35FP8」获取)
AI 正在重塑创意产业的边界。而像Stable Diffusion 3.5 FP8这样的高性能开源模型,正在让顶尖技术不再局限于大厂和高端设备。只要你愿意动手尝试,每个人都可以成为自己的“AI 设计师”。
别再观望,现在就开始部署属于你的 AI 图像引擎吧!
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考