news 2026/4/16 17:07:18

YOLO26镜像环境切换教程:conda激活与目录复制详细步骤

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
YOLO26镜像环境切换教程:conda激活与目录复制详细步骤

YOLO26镜像环境切换教程:conda激活与目录复制详细步骤

这是一篇专为YOLO26新手准备的实操指南。如果你刚拿到最新版YOLO26官方训练与推理镜像,却卡在“怎么开始用”这一步——比如不知道该激活哪个环境、代码默认放在哪、改完代码怎么运行、训练结果怎么下载……别急,这篇教程会带你从零完成全部关键操作,不绕弯、不跳步、不假设你已懂任何前置知识。

我们全程聚焦一个目标:让你在5分钟内跑通第一次推理,在15分钟内完成第一次训练准备。所有命令都经过真实环境验证,截图对应实际界面,连路径名和文件名都原样保留,避免因命名差异导致失败。


1. 镜像基础信息速览

先建立整体认知:这个镜像不是空白系统,而是一个已调优的深度学习工作台。它不依赖你手动装CUDA、配PyTorch版本或解决依赖冲突——这些事已经做完。你只需要做三件事:切对环境、挪好代码、跑起脚本

1.1 环境核心参数

组件版本/配置说明
Python3.9.5兼容性稳定,避免高版本兼容问题
PyTorch1.10.0与YOLO26官方代码严格匹配,非最新版但最稳
CUDA12.1(底层驱动) +cudatoolkit=11.3(运行时)双版本协同,保障GPU加速可用
主框架ultralytics==8.4.2YOLO26所基于的Ultralytics库完整版
预装工具opencv-python,numpy,tqdm,matplotlib训练、推理、可视化全链路开箱即用

注意:镜像启动后默认进入名为torch25的conda环境,但这不是YOLO26要用的环境。必须手动切换,否则所有命令都会报错——这是新手最容易踩的坑。


2. 环境激活与代码目录迁移

镜像里代码默认放在/root/ultralytics-8.4.2,但它在系统盘(通常是只读或空间受限的根分区)。直接修改会失败,或下次重启丢失。正确做法是:复制到数据盘/root/workspace/下再操作。这一步看似简单,却是后续所有开发稳定的基石。

2.1 激活YOLO专用conda环境

打开终端,输入以下命令:

conda activate yolo

执行后,命令行提示符前会出现(yolo)标识,例如:

(yolo) root@server:~#

成功标志:

  • 不报CommandNotFoundErrorCould not find conda environment错误
  • 提示符带(yolo)
  • 运行python -c "import torch; print(torch.__version__)"输出1.10.0

❌ 常见失败原因:

  • 手误输成conda activate torch25(这是默认环境,但YOLO26不在此环境)
  • 镜像未完全加载完成就执行命令(等待终端光标稳定后再输)

2.2 将代码复制到工作区

执行复制命令(注意空格和斜杠):

cp -r /root/ultralytics-8.4.2 /root/workspace/

这条命令含义:

  • cp= 复制文件
  • -r= 递归复制整个文件夹(含所有子文件、子目录)
  • /root/ultralytics-8.4.2= 源路径(镜像自带的原始代码)
  • /root/workspace/= 目标路径(你可自由读写的数据盘)

成功标志:

  • 命令执行后无报错,直接返回新提示符
  • 运行ls /root/workspace/能看到ultralytics-8.4.2文件夹

重要提醒:

  • 不要使用mv(移动)代替cp(复制)——移动后原路径代码消失,一旦出错无法回退
  • 不要跳过此步直接在/root/ultralytics-8.4.2下修改——部分系统会拒绝写入根目录

2.3 进入工作目录并确认位置

切换到新复制的代码目录:

cd /root/workspace/ultralytics-8.4.2

然后确认当前路径是否正确:

pwd

输出应为:

/root/workspace/ultralytics-8.4.2

此时你已站在正确的起点:环境已激活、代码已落位、路径已就绪。接下来的所有操作(推理、训练、改配置)都基于这个目录进行。


3. 快速验证:运行一次图片推理

别急着调参或换数据,先让模型“动起来”。我们用镜像自带的测试图zidane.jpg和预置权重yolo26n-pose.pt完成一次端到端推理,验证环境完全可用。

3.1 创建并编辑 detect.py 脚本

在当前目录(/root/workspace/ultralytics-8.4.2)下,新建一个 Python 文件:

nano detect.py

将以下内容完整粘贴进去(注意缩进和引号):

# -*- coding: utf-8 -*- from ultralytics import YOLO if __name__ == '__main__': model = YOLO(model=r'yolo26n-pose.pt') model.predict(source=r'./ultralytics/assets/zidane.jpg', save=True, show=False)

保存并退出:按Ctrl+O→ 回车确认 →Ctrl+X退出 nano。

3.2 执行推理并查看结果

运行脚本:

python detect.py

你会看到类似这样的输出:

Ultralytics 8.4.2 Python-3.9.5 torch-1.10.0 CUDA-12.1 ... Predict: 100%|██████████| 1/1 [00:01<00:00, 1.23s/it] Results saved to runs/detect/predict

成功标志:

  • 最后一行显示Results saved to runs/detect/predict
  • 进入该目录:ls runs/detect/predict/能看到zidane.jpg的检测结果图

关键参数说明(用大白话):

  • model=:填你手头的.pt权重文件名,镜像里已预置多个(见第4节)
  • source=:可以是单张图(xxx.jpg)、整个文件夹(./images/)、视频(video.mp4)或摄像头(0
  • save=True:必须加!否则结果只在内存里闪一下,不保存到硬盘
  • show=False:设为False避免在服务器上弹窗报错(无图形界面)

4. 准备训练:数据集配置与训练脚本

推理只是“看”,训练才是“学”。YOLO26训练需要两样东西:你的数据集一份配置文件。镜像已为你搭好架子,你只需填空。

4.1 数据集组织规范(YOLO格式)

你的数据必须长这样(以my_dataset为例):

my_dataset/ ├── images/ │ ├── train/ │ │ ├── img1.jpg │ │ └── img2.jpg │ └── val/ │ ├── img3.jpg │ └── img4.jpg └── labels/ ├── train/ │ ├── img1.txt │ └── img2.txt └── val/ ├── img3.txt └── img4.txt
  • images/存放所有图片
  • labels/存放对应标注文件(每张图一个.txt,每行一个目标:class_id center_x center_y width height,归一化到0~1)
  • train/val/文件夹必须同时存在

4.2 修改 data.yaml 配置文件

ultralytics-8.4.2目录下,找到或新建data.yaml,内容如下:

train: ../my_dataset/images/train val: ../my_dataset/images/val nc: 2 # 类别数,例如 person, car → 填 2 names: ['person', 'car'] # 类别名称列表,顺序必须和 nc 一致

关键点:

  • trainval路径是相对于 data.yaml 文件所在位置的相对路径
  • 如果你的数据集放在/root/workspace/my_dataset,那么train:应写为../my_dataset/images/train
  • ncnames必须严格匹配你的数据集,错一个字符都会报错

4.3 创建 train.py 并启动训练

新建训练脚本:

nano train.py

粘贴以下内容(已适配镜像环境):

# -*- coding: utf-8 -*- import warnings warnings.filterwarnings('ignore') from ultralytics import YOLO if __name__ == '__main__': model = YOLO(model='/root/workspace/ultralytics-8.4.2/ultralytics/cfg/models/26/yolo26.yaml') model.train(data=r'data.yaml', imgsz=640, epochs=200, batch=128, workers=8, device='0', optimizer='SGD', close_mosaic=10, resume=False, project='runs/train', name='exp', single_cls=False, cache=False)

运行训练:

python train.py

你会看到实时训练日志,包括Epoch,GPU Mem,box_loss,cls_loss等指标。训练完成后,模型自动保存在:

runs/train/exp/weights/best.pt

5. 模型与数据下载:从服务器到本地

训练好的模型、生成的图表、预测结果都在服务器上。你需要把它们拿回本地电脑继续用。

5.1 使用 Xftp 下载(推荐,图形化直观)

  1. 在 Xftp 中连接服务器(地址、用户名、密码同镜像登录信息)
  2. 左侧是你的本地电脑,右侧是服务器
  3. 下载操作:在右侧找到目标文件夹(如runs/train/exp/weights/),鼠标双击该文件夹或.pt文件 → 自动开始下载到左侧对应位置
  4. 上传操作:把本地数据集拖拽到右侧窗口即可(方向相反)

小技巧:

  • 大文件(如数据集)先压缩成.zip再传,速度提升3倍以上
  • 下载中双击传输任务,可实时查看进度和速度

5.2 替代方案:命令行压缩与下载

如果不用Xftp,可在服务器端压缩:

cd /root/workspace zip -r my_model.zip runs/train/exp/weights/

然后用scp或其他工具下载my_model.zip


6. 预置权重文件一览

镜像已为你下载好常用权重,全部放在/root/workspace/ultralytics-8.4.2/目录下,无需额外下载:

  • yolo26n.pt:YOLO26 Nano 版,轻量快速,适合边缘设备
  • yolo26n-pose.pt:支持姿态估计的 Nano 版,detect.py 示例即用此模型
  • yolo26s.pt:Small 版,精度与速度平衡
  • yolo26m.pt:Medium 版,中等规模场景首选
  • yolo26l.pt:Large 版,高精度需求

所有权重均可直接用于model=参数,无需解压或转换。


7. 常见问题直答

7.1 为什么conda activate yolo报错 “Environment not found”?

检查是否输错环境名。正确命令是conda activate yolo(不是yolo26ultralyticstorch25)。若仍失败,运行conda env list查看所有环境名,确认yolo是否在列表中。

7.2 复制代码后cd进不去目录,提示 “No such file or directory”

检查cp命令是否执行成功。运行ls /root/workspace/确认ultralytics-8.4.2文件夹是否存在。若不存在,重新执行复制命令,注意不要漏掉末尾的斜杠/

7.3 推理时提示 “No module named 'ultralytics'”

一定是环境没激活。运行conda activate yolo后,再执行python -c "import ultralytics; print(ultralytics.__version__)",应输出8.4.2

7.4 训练时提示 “No images found”

检查data.yamltrain:val:路径是否拼写正确,且路径下确实有图片文件(不是空文件夹)。运行ls -l <你的train路径>确认。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 10:41:47

cv_resnet18训练集怎么划分?train/test比例设置建议

cv_resnet18训练集怎么划分&#xff1f;train/test比例设置建议 在OCR文字检测任务中&#xff0c;cv_resnet18_ocr-detection模型的性能表现高度依赖于训练数据的质量与结构。而训练集划分——即如何将原始标注数据合理切分为训练集&#xff08;train&#xff09;、验证集&…

作者头像 李华
网站建设 2026/4/16 9:02:09

STM32CubeMX新手教程:UART串口配置实战案例

以下是对您提供的博文内容进行 深度润色与结构优化后的技术文章 。整体风格更贴近一位资深嵌入式工程师在技术社区中自然、真实、有温度的分享—— 去AI化、强逻辑、重实战、轻说教 &#xff0c;同时大幅增强可读性、专业性与工程落地感。全文已彻底摒弃模板化标题、空洞总…

作者头像 李华
网站建设 2026/4/16 10:59:56

Elasticsearch菜鸟教程:从零实现全文搜索功能

以下是对您提供的博文《Elasticsearch菜鸟教程:从零实现全文搜索功能——技术原理与工程实践深度解析》的 全面润色与重构版本 。本次优化严格遵循您的全部要求: ✅ 彻底去除AI痕迹,语言自然、专业、有“人味”——像一位在一线带过多个搜索项目的资深工程师在和你面对面…

作者头像 李华
网站建设 2026/4/16 10:43:44

如何评估VAD效果?基于FSMN的准确率计算方法

如何评估VAD效果&#xff1f;基于FSMN的准确率计算方法 1. 为什么VAD效果不能只看“能跑通” 很多人部署完FSMN-VAD控制台&#xff0c;上传一段音频&#xff0c;看到表格里跳出几行时间戳&#xff0c;就以为“检测成功了”。但真实业务中&#xff0c;一个语音识别系统的前处理…

作者头像 李华
网站建设 2026/4/16 14:01:05

Glyph开箱即用体验:无需配置快速启动AI任务

Glyph开箱即用体验&#xff1a;无需配置快速启动AI任务 大家好&#xff0c;今天来聊聊一个真正“开箱即用”的视觉推理模型——Glyph。不是那种下载完还要装依赖、调环境、改配置、查报错的“伪开箱”&#xff0c;而是镜像拉下来&#xff0c;点一下脚本&#xff0c;三分钟内就…

作者头像 李华
网站建设 2026/4/16 16:19:51

rs232串口调试工具入门必看:基础连接与配置指南

以下是对您提供的博文内容进行 深度润色与结构重构后的优化版本 。本次改写严格遵循您的全部要求: ✅ 彻底去除AI痕迹,语言自然、专业、有“人味”——像一位资深嵌入式工程师在技术分享会上娓娓道来; ✅ 打破模板化标题(如“引言”“总结”),全文以逻辑流驱动,层层…

作者头像 李华