news 2026/4/16 17:31:22

零基础教程:在 Linux 上通过 Docker 快速部署 Dify

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
零基础教程:在 Linux 上通过 Docker 快速部署 Dify

零基础教程:在 Linux 上通过 Docker 快速部署 Dify

Dify 是一款强大的 LLM 应用开发平台,它可以让你轻松构建自己的 AI 助手、知识库和工作流。本文将手把手教你如何在 Linux 服务器上从零开始搭建 Dify 环境。

一、 环境准备

在开始之前,请确保你的服务器满足以下最低配置要求:

  • CPU: 2 核及以上
  • 内存: 4 GB 及以上(推荐 8GB+,否则运行多个模型插件时可能会卡顿)
  • 磁盘: 至少 50 GB 可用空间
  • 操作系统: Ubuntu 20.04+, CentOS 7+ 或其他主流 Linux 发行版

1. 安装 Docker 和 Docker Compose

Dify 依赖 Docker 环境运行。如果你的服务器尚未安装,可以使用以下官方脚本快速安装:

# 安装 Docker# Docker 版本建议 25.0.1curl-fsSL https://get.docker.com|bash-sdocker# 启动并设置开机自启sudosystemctl startdockersudosystemctlenabledocker# 安装 Docker Compose (V2版本)# 现在的 Docker 通常自带 compose,可以检查一下dockercompose version


二、 下载 Dify 源码

我们直接从 GitHub 获取 Dify 的部署配置:
Dify历史版本

# 克隆项目仓库gitclone https://github.com/langgenius/dify.git# 进入目录cddify/docker

三、 配置环境变量

Dify 使用.env文件来管理配置。我们需要从模板创建一个:

# 复制环境变量模板cp.env.example .env

提示:一般情况下,默认配置即可直接运行。如果你需要修改默认端口(默认 80 端口),可以用vim .env修改NGINX_PORT变量。

# HTTP portNGINX_PORT=80

四、 启动部署

dify/docker目录下执行启动命令。第一次启动时,Docker 会下载所需的镜像(包括 PostgreSQL, Redis, Weaviate 等),耗时视网络情况而定:

dockercompose up -d

启动完成后,你可以通过以下命令查看容器状态:

dockercomposeps

如果看到所有服务(如api,worker,web,db等)都显示UpHealthy,说明部署成功。

更新容器:

# 停止并删除容器(不会删除数据,因为数据在 volumes 里)dockercompose down# 重新启动dockercompose up -d

五、 初始化与访问

  1. 访问后台:在浏览器中输入http://你的服务器IP
  2. 设置管理员:第一次访问时,系统会提示你设置管理员账号和密码。
  3. 配置模型:进入系统后,点击右上角的“设置” -> “模型供应商”,填入你的 OpenAI、Claude 或 DeepSeek 的 API Key。

六、 常见问题排查 (FAQ)

  • 访问不了页面?
    请检查服务器防火墙是否开放了 80 端口(或者你在.env中设置的端口)。
  • 镜像下载太慢?
    建议配置国内的 Docker 镜像加速器。
  • 如何更新 Dify?
cddify/dockerdockercompose downgitpull origin maindockercompose pulldockercompose up -d

结语

恭喜你!现在你已经拥有了一套属于自己的私有化 AI 开发平台。你可以在上面创建情感助手、接入本地知识库,甚至构建复杂的 AI 工作流。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 15:35:55

你还在手写Java代码?Open-AutoGLM自动化生成已覆盖80%场景!

第一章:你还在手写Java代码?Open-AutoGLM改变开发范式在传统Java开发中,重复的实体类、DAO接口和Service层代码占据了大量开发时间。如今,Open-AutoGLM的出现正在彻底重构这一模式。它基于大语言模型与代码生成引擎,能…

作者头像 李华
网站建设 2026/4/16 15:34:16

【Open-AutoGLM性能优化黄金法则】:3步实现Web界面响应速度翻倍

第一章:Open-AutoGLM Web性能优化的背景与意义随着大语言模型(LLM)在实际应用中的快速普及,前端与模型服务之间的交互复杂度显著上升。Open-AutoGLM 作为一个面向自动化生成与推理任务的开源框架,其 Web 端性能直接影响…

作者头像 李华
网站建设 2026/4/16 14:29:30

揭秘Open-AutoGLM核心功能:5大技巧提升Web端AI开发效率

第一章:揭秘Open-AutoGLM Web操作界面核心架构Open-AutoGLM 作为一款面向自动化生成语言模型任务的开源工具,其 Web 操作界面采用前后端分离架构,前端基于 Vue.js 构建动态交互体验,后端通过 FastAPI 提供异步 RESTful 接口支持。…

作者头像 李华
网站建设 2026/4/16 16:06:35

深度优先遍历:JavaScript递归查找树形数据结构中的节点标签

概述在Web开发中,我们经常需要处理树形结构数据(如组织架构、分类目录、菜单等)。今天我将分享一个实用的JavaScript方法,用于在复杂的树形数据结构中根据ID查找对应的节点标签。核心算法/*** 根据id在树形数据结构中查找对应的节…

作者头像 李华
网站建设 2026/4/16 10:43:28

GitHub上发现近乎完美的免费大模型课程!科学家+工程师双路径学习路线,附带实战Notebook,小白/程序员必收藏!

简介 GitHub上发现近乎完美的免费大语言模型课程,提供科学家和工程师双路径学习路线。科学家路径涵盖模型训练全流程,工程师路径专注于应用开发。课程包含8个开箱即用的Google Colab工具,大幅降低技术门槛。项目持续更新,提供精选…

作者头像 李华