news 2026/4/23 2:39:11

让YOLO飞起来:从CPU到GPU的配置指南

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
让YOLO飞起来:从CPU到GPU的配置指南

最近在配置YOLO(You Only Look Once)进行物体检测和图像分割任务时,发现默认安装的情况下,YOLO使用的是CPU进行计算。

这对于需要处理大量图像或实时检测的任务来说,效率明显不足。

本文将详细介绍如何将YOLO从CPU模式切换到GPU模式,显著提升运行效率。

1. 配置步骤

1.1. 检查当前PyTorch是否支持GPU

首先需要确认当前安装的PyTorch是否支持GPU。打开Python环境,运行以下代码:

import torch

print(f"PyTorch版本: {torch.__version__}")

print(f"CUDA是否可用: {torch.cuda.is_available()}")

print(f"当前设备: {torch.cuda.current_device() if torch.cuda.is_available() else 'CPU'}")

print(f"设备名称: {torch.cuda.get_device_name(0) if torch.cuda.is_available() else '无GPU设备'}")

如果输出显示CUDA是否可用: False,说明需要重新安装支持GPU的PyTorch版本。

我在默认安装 YOLO 之后,显示的就是False。

1.2. 卸载现有的torch库

如果当前PyTorch不支持GPU,需要先卸载相关库:

pip uninstall torch torchvision torchaudio

1.3. 查看本机GPU情况(Windows 11系统)

在Windows 11系统中,可以通过以下方式查看GPU信息:

按Win + X键,选择"任务管理器"

切换到"性能"选项卡

查看GPU信息,确认GPU型号和CUDA支持情况

或者使用命令行:

nvidia-smi

这将显示NVIDIA GPU的详细信息,包括CUDA版本。

我的电脑显示信息如下:

Sat Sep 27 17:35:25 2025

+-----------------------------------------------------------------------------------------+

| NVIDIA-SMI 556.12 Driver Version: 556.12 CUDA Version: 12.5 |

|-----------------------------------------+------------------------+----------------------+

| GPU Name Driver-Model | Bus-Id Disp.A | Volatile Uncorr. ECC |

| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |

| | | MIG M. |

|=========================================+========================+======================|

| 0 NVIDIA GeForce RTX 2060 WDDM | 00000000:01:00.0 On | N/A |

| N/A 35C P8 14W / 80W | 937MiB / 6144MiB | 10% Default |

| | | N/A |

+-----------------------------------------+------------------------+----------------------+

1.4. 安装匹配的GPU版本PyTorch

从上面的命令显示结果来看,我的CUDA Version是 12.5。

所以应该使用如下命令安装:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu125

但是,目前似乎没有提供cu125的版本,上面的命令会报错,于是安装了cu121版本。

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

至此,安装成功。

1.5. 验证GPU使用效果

安装成功后,运行验证代码:

import torch

from ultralytics import YOLO

# 检查GPU是否可用

print(f"CUDA是否可用: {torch.cuda.is_available()}")

print(f"设备名称: {torch.cuda.get_device_name(0) if torch.cuda.is_available() else '无GPU设备'}")

# 加载YOLO模型并指定使用GPU

model = YOLO('yolov11n.pt') # 以YOLOv8n为例

results = model('path/to/your/test.mp4')

2. 性能对比

完成配置后,你会注意到:

训练速度:GPU训练通常比CPU快很多

推理速度:实时检测的帧率大幅提升

批量处理:GPU可以并行处理更多图像

在我的电脑上,换成GPU之后,那个test.mp4的处理速度从44秒多降到7秒多,大约快了6倍多。

我的显卡很一般,好的显卡效果更明显。

3. 常见问题解决

CUDA版本不匹配:确保安装的PyTorch版本与系统CUDA版本兼容

内存不足:如果遇到GPU内存不足,可以减小批量大小(batch size)

驱动问题:确保安装了最新的NVIDIA显卡驱动

4. 总结

通过将YOLO从CPU迁移到GPU,你可以显著提升模型训练和推理的效率。

这一简单的配置调整将为你的计算机视觉项目带来质的飞跃。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/21 21:55:31

Flink SQL EXPLAIN “看懂计划”到“用 PLAN_ADVICE 调优”

1. EXPLAIN 能解决什么问题? 在 Flink Table/SQL 里,EXPLAIN 主要用来: 看清楚:SQL 会被解析成什么 逻辑计划(Logical Plan / AST)看明白:优化器做了哪些 算子改写(如 Filter 下推、…

作者头像 李华
网站建设 2026/4/23 17:23:47

一生一芯学习:程序,运行时环境与AM(一)

前我们已经跑通了cpu-test和实现了riscv-I型指令所需的42条指令,现在我们已经可以到跑简单程序的地步了,我们也希望运行简单的程序,因此我们需要运行时环境(runtime environment)。比如现在要结束程序,那我们就要用提前准备好的AP…

作者头像 李华
网站建设 2026/4/21 3:16:56

DAY27 pipeline管道

一、知识回顾: 1、转化器和估计器的概念 (1)转换器 转化器通俗的来说就是对数据进行预处理的工具,转换器的特点是无状态的,即它们不会存储任何关于数据的状态信息(指的是不存储内参)&#xff0c…

作者头像 李华
网站建设 2026/4/21 9:49:31

Colima 下 docker pull 失败自查流程

macOS Colima 下 docker pull 超时问题排查总结 一、问题现象 在 macOS 上使用 colima 运行 Docker service 时,执行: docker pull BALABALA报错: Error response from daemon: Get "https://registry-1.docker.io/v2/": net/http…

作者头像 李华
网站建设 2026/4/18 3:50:21

基于springboot的健身房预约与学习管理系统

博主介绍:java高级开发,从事互联网行业六年,熟悉各种主流语言,精通java、python、php、爬虫、web开发,已经做了多年的设计程序开发,开发过上千套设计程序,没有什么华丽的语言,只有实…

作者头像 李华
网站建设 2026/4/23 17:26:21

STM32H723 芯片基本配置指南:从新手到专家的进阶之路

引言 作为一名初次接触 STM32H723 芯片的开发者,我在基本配置过程中遇到了不少挑战和困惑。这款高性能的 Cortex-M7 微控制器虽然功能强大,但复杂的配置选项和参数设置确实让人望而生畏。经过一番摸索和实践,我终于掌握了正确的配置方法。今天,我将通过这篇博客,分享我在…

作者头像 李华