GPEN镜像推理命令详解,新手一看就懂
你是不是刚拿到 GPEN 人像修复增强模型镜像,打开终端却卡在了“接下来该敲什么命令”这一步?别急,这篇文章就是为你写的——不讲原理、不堆参数、不绕弯子,只说你真正需要敲的那几行命令,以及每行命令背后到底发生了什么。哪怕你连 conda 是啥都不清楚,照着做也能跑通第一张修复图。
全文没有一个生僻词,所有操作都在镜像里预装好了,不需要额外下载、编译或配置。我们直接从登录进镜像后的第一个命令开始,手把手带你走完从启动环境到生成高清人像的全过程。
1. 镜像启动后,第一步做什么?
很多新手一进镜像就懵:界面是黑的,光标在闪,但不知道该输啥。其实就一句话:
conda activate torch25这就是你必须敲的第一条命令。它不是可选的,也不是“建议”,而是强制前提——因为整个 GPEN 推理环境(PyTorch 2.5.0 + CUDA 12.4)就装在这个叫torch25的 conda 环境里。不激活它,后面所有 Python 命令都会报错:“ModuleNotFoundError: No module named 'torch'”。
正确做法:
复制粘贴上面这行命令,回车执行。你会看到命令行提示符前多了一个(torch25),比如变成:(torch25) root@xxx:~#
这就说明环境激活成功了。
❌ 常见错误:
- 直接跳过这步,运行
python inference_gpen.py→ 报错退出 - 打错环境名,比如写成
torch250或torch-25→ 提示 “Could not find environment” - 用
source activate torch25(旧版 conda 语法)→ 在新版 conda 中已弃用,会失败
小提醒:这个环境名
torch25是镜像预设的,和你本地电脑上的环境名无关。不用记版本号,只记住这四个字母加数字就行。
2. 进入代码目录:别在根目录瞎试
环境激活后,下一步是找到 GPEN 的推理脚本。它不在家目录/root下随便放着,而是在一个固定路径:
cd /root/GPEN这条命令的作用,就是把你当前的工作目录切换到 GPEN 项目的根文件夹。为什么必须切?因为:
- 脚本
inference_gpen.py就在这里; - 它默认依赖同目录下的配置文件、模型路径和测试图;
- 如果你在
/root下直接运行python GPEN/inference_gpen.py,虽然也能跑,但容易因相对路径出错,尤其当你改参数时。
正确做法:
敲完cd /root/GPEN,再用ls看一眼,你应该能看到这些关键文件:inference_gpen.py、options/test_gpen.yaml、pretrained/文件夹等。
❌ 常见错误:
- 忘记
cd,直接在/root下运行python GPEN/inference_gpen.py→ 可能报 “Config file not found” - 错误地进入
/root/GPEN/GPEN/(多进了一层)→ 脚本找不到模型权重路径
3. 推理命令的三种用法,对应三种真实需求
GPEN 的推理脚本inference_gpen.py支持三种最常用场景,每种都对应一条简洁命令。我们不列所有参数,只讲你99% 会用到的那三条,并告诉你它们分别适合什么情况。
3.1 场景一:先跑通,看效果(零输入,零配置)
这是给完全没接触过 GPEN 的人准备的“一键验证”命令:
python inference_gpen.py它会自动加载镜像内置的一张经典测试图(1927 年索尔维会议合影),完成人脸检测、对齐、修复、增强全流程,并把结果保存为output_Solvay_conference_1927.png。
适合谁:
- 第一次使用,想确认镜像是否正常工作
- 没有自己照片,只想看看修复效果长啥样
- 想快速对比原图和修复图的差异
实际发生了什么?
- 脚本自动调用
facexlib检测图中所有人脸; - 对每张脸做 512×512 分辨率的超分+细节增强;
- 输出图保留原始构图,只替换人脸区域,背景不变;
- 整个过程约 10–20 秒(取决于 GPU 性能),无需任何干预。
3.2 场景二:修复自己的照片(指定输入,自动命名)
你有一张模糊、带噪点或低分辨率的人脸照,想试试修复效果。这时用:
python inference_gpen.py --input ./my_photo.jpg注意:./my_photo.jpg是你放在/root/GPEN/目录下的图片路径。如果图片叫me.png,那就写--input ./me.png。
适合谁:
- 有自己想修复的照片,但不想折腾输出名
- 图片已上传到镜像,放在当前目录下
- 想用默认设置快速出结果
小技巧:
- 支持 JPG、PNG、JPEG 格式,大小建议在 500KB–5MB 之间(太大可能显存溢出);
- 如果图片不是正脸,GPEN 仍能检测并修复,但侧脸/遮挡严重时效果略弱;
- 输出文件名自动变成
output_my_photo.jpg,和输入名一一对应,不会覆盖。
3.3 场景三:自定义输出名 + 灵活路径(进阶但实用)
有时候你希望输出图不叫output_xxx.jpg,而是直接叫enhanced_portrait.png;或者你的图不在当前目录,而在/root/images/下。这时用:
python inference_gpen.py -i /root/images/test.jpg -o enhanced_portrait.png这里-i是--input的简写,-o是--output的简写。两个参数可以同时用,顺序不限。
适合谁:
- 要批量处理多张图,需要明确区分输出文件;
- 图片存在其他目录,不想移动文件;
- 想把结果直接保存到特定文件夹,比如
/root/results/;
路径小贴士:
- 输入路径支持绝对路径(以
/开头)和相对路径(以./或../开头); - 输出路径如果是相对路径(如
-o results/final.png),会生成在当前目录下的results/子文件夹; - 如果
results/文件夹不存在,脚本会自动创建,不用提前mkdir。
4. 模型权重在哪?需要自己下载吗?
答案很干脆:不需要。镜像已经为你准备好了全部权重,离线可用。
所有模型文件都预装在:~/.cache/modelscope/hub/iic/cv_gpen_image-portrait-enhancement/
这个路径里包含三类核心文件:
generator.pth:GPEN 主生成器,负责人脸超分与纹理重建;detection_Resnet50_Final.pth:人脸检测模型,基于 ResNet50;alignment_256.pth:关键点对齐模型,确保修复区域精准贴合五官。
你完全不用关心这些文件名,也不用手动下载。只要运行上面任意一条python inference_gpen.py命令,脚本就会自动检查、自动加载。
唯一例外:如果你删掉了~/.cache/modelscope整个文件夹,或者清空了镜像缓存,那么第一次运行时会触发自动下载(需联网)。下载总量约 320MB,耗时 1–3 分钟,之后永久缓存。
划重点:这不是“备用方案”,而是镜像设计的默认行为。你不需要执行
git clone、wget或modelscope download任何命令。
5. 输出结果在哪?怎么查看?
推理完成后,结果图默认保存在/root/GPEN/目录下,文件名以output_开头,比如:output_Solvay_conference_1927.pngoutput_my_photo.jpgenhanced_portrait.png(如果你用了-o参数)
查看方式(任选其一):
终端查看尺寸与信息:
ls -lh output_*.png output_*.jpg你会看到类似:
-rw-r--r-- 1 root root 2.1M Jan 15 10:22 output_my_photo.jpg,说明生成成功且大小合理。用镜像内置的轻量看图工具(推荐):
eog output_my_photo.jpgeog(Eye of GNOME)是 Linux 图形界面下的默认图片查看器,双击即可放大、拖动、对比。导出到本地查看(如果你用的是远程 Jupyter 或容器平台):
在网页端点击文件列表中的.png或.jpg文件,大多数平台支持直接预览;或右键“下载”到本地电脑。
效果判断小指南(普通人也能看懂):
- 眼睛更亮、睫毛更清晰→ 细节增强生效;
- 皮肤纹理自然,没有塑料感或糊边→ GAN 生成质量好;
- 发丝、胡茬、耳廓边缘锐利→ 超分能力在线;
- 整张脸比例协调,没变形→ 对齐模块稳定。
6. 常见问题快查:三句话解决 80% 卡点
我们把新手最容易遇到的几个问题,浓缩成三句“人话解答”,不绕弯、不甩术语。
6.1 “报错:CUDA out of memory”,怎么办?
→ 你的图片太大了。把原图缩放到短边 ≤ 800 像素再试(例如用convert my.jpg -resize 800x my_small.jpg),或加参数--size 256强制输入尺寸。
6.2 “报错:No module named 'facexlib'”,明明环境激活了?
→ 你没进/root/GPEN目录就运行了命令。请严格按顺序:conda activate torch25→cd /root/GPEN→python inference_gpen.py。
6.3 “输出图是黑的/全是灰色块”,是什么原因?
→ 输入图格式异常(如 CMYK 色彩模式)或损坏。用系统自带的图片查看器先打开确认能正常显示;或转成标准 RGB:convert input.jpg -colorspace sRGB output.jpg。
其他问题?优先检查:① 是否漏了
conda activate;② 是否cd到了正确目录;③ 输入图是否真存在于指定路径。90% 的“报错”都出在这三步。
7. 总结:你只需要记住这四步
现在,你已经掌握了 GPEN 镜像从启动到出图的完整链路。不需要背命令,只需要建立一个清晰的操作节奏:
- 激活环境:
conda activate torch25—— 让 Python 找到所有库; - 进入目录:
cd /root/GPEN—— 让脚本找到所有资源; - 运行推理:选一条命令(默认测试 / 自定义输入 / 自定义输入输出);
- 查看结果:在同目录找
output_*.png,用eog或下载查看。
没有玄学,没有隐藏步骤,没有必须修改的配置文件。镜像的设计哲学就是:你提供图,它还你高清人像。
下一步你想做什么?
- 想批量修复几十张照片?加个 for 循环就行;
- 想调整修复强度?改一行
--channel 64参数; - 想换模型风格?镜像里还预装了另一套权重,随时可切。
这些进阶玩法,我们留到下一篇文章再聊。现在,去敲那行python inference_gpen.py吧——第一张修复图,正在等你生成。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。