Qwen3-4B-Instruct部署教程:CentOS/Ubuntu双平台防火墙开放7860端口指南
1. 模型简介
Qwen3-4B-Instruct-2507是Qwen3系列的端侧/轻量旗舰模型,具备强大的文本理解和生成能力。该模型原生支持256K token(约50万字)上下文窗口,并可扩展至1M token,能够轻松处理整本书、大型PDF、长代码库等长文本任务。
2. 部署前准备
2.1 系统要求
在开始部署前,请确保您的系统满足以下最低要求:
- 操作系统:CentOS 7+/Ubuntu 18.04+
- GPU:NVIDIA显卡(至少8GB显存)
- 内存:16GB以上
- 存储空间:至少20GB可用空间
2.2 环境检查
在部署前,建议先检查系统环境:
# 检查GPU驱动 nvidia-smi # 检查Python版本 python --version # 检查Conda是否安装 conda --version3. 部署步骤详解
3.1 下载模型文件
模型默认存放在/root/ai-models/Qwen/Qwen3-4B-Instruct-2507路径下。如果您需要手动下载:
mkdir -p /root/ai-models/Qwen cd /root/ai-models/Qwen git lfs install git clone https://huggingface.co/Qwen/Qwen3-4B-Instruct-25073.2 创建Conda环境
项目使用torch29环境,包含以下关键依赖:
conda create -n torch29 python=3.10 conda activate torch29 pip install torch==2.9.0 transformers==5.5.0 gradio accelerate3.3 启动WebUI服务
使用Gradio启动Web界面:
cd /root/Qwen3-4B-Instruct python webui.py服务启动后默认监听7860端口,可通过http://localhost:7860访问。
4. 防火墙配置
4.1 CentOS/RHEL系统配置
# 添加防火墙规则 firewall-cmd --add-port=7860/tcp --permanent # 重新加载防火墙 firewall-cmd --reload # 验证端口是否开放 firewall-cmd --list-ports | grep 78604.2 Ubuntu/Debian系统配置
# 允许7860端口通过防火墙 ufw allow 7860/tcp # 启用防火墙规则 ufw enable # 查看防火墙状态 ufw status5. 服务管理
5.1 使用Supervisor管理服务
建议使用Supervisor来管理服务进程:
# 查看服务状态 supervisorctl status qwen3-4b-instruct # 重启服务 supervisorctl restart qwen3-4b-instruct # 停止服务 supervisorctl stop qwen3-4b-instruct # 启动服务 supervisorctl start qwen3-4b-instruct5.2 日志查看
# 查看实时日志 tail -f /root/Qwen3-4B-Instruct/logs/webui.log # 查看完整日志 cat /root/Qwen3-4B-Instruct/logs/webui.log6. 常见问题解决
6.1 端口冲突问题
如果7860端口被占用:
# 检查端口占用情况 ss -tlnp | grep 7860 # 终止占用进程 kill -9 <PID>6.2 GPU显存不足
# 查看GPU显存使用情况 nvidia-smi --query-gpu=memory.used --format=csv # 实时监控GPU使用 watch -n 1 nvidia-smi6.3 依赖缺失问题
如果遇到ModuleNotFoundError错误:
source /opt/miniconda3/bin/activate torch29 pip install <package_name>7. 总结
通过本教程,您已经完成了Qwen3-4B-Instruct模型在CentOS/Ubuntu系统上的部署,并成功配置了防火墙规则开放7860端口。现在您可以通过浏览器访问http://<服务器IP>:7860来使用模型服务。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。