YOLOv11 环境配置教程

YOLOv11 需要先配置两个环境,Python 和 Pytorch
Pytorch 又需要先安装 Anaconda、CUDA

1. 安装 Python

Python 的安装步骤此处略过,可自行前往 Python 官网 下载合适的版本并安装

Pytorch 对 Python 版本需求大于 3.9

2. 安装 Anaconda

Anaconda 是一个用于管理 Python 及其相关数据科学和机器学习库的工具。安装步骤如下:

  1. 前往 Download Now | Anaconda 下载适用于自己系统的 Anaconda 安装包
  2. 运行安装程序,并按照提示完成安装。
  3. 安装完成后,在 Anaconda 命令行中输入 conda --version 以验证安装是否成功

3. 安装 CUDA

CUDA 是 NVIDIA 提供的 GPU 计算平台,我们需要安装适用于自己显卡的版本

3.1 确定显卡支持的最高 CUDA 版本

在命令行输入以下命令,查看显卡支持的最高 CUDA 版本:

1
nvidia-smi


根据输出结果,前往 CUDA Toolkit Archive | NVIDIA Developer 下载不高于显卡支持版本的 CUDA 进行安装。

3.2 安装 CUDA

  1. 下载适合自己系统的 CUDA 版本。
  2. 运行安装程序,并按照提示完成安装
  3. 安装完成后,在命令行输入 nvcc -V 验证 CUDA 是否安装成功

4. 安装 PyTorch

PyTorch 是 YOLOv11 运行所需的深度学习框架,PyTorch 官网不支持 conda,我们使用 pip 下载的方法

  1. 进入 Start Locally | PyTorch 选择适合自己环境的安装命令

  2. 例如,安装适用于 CUDA 12.8 的 PyTorch,可以执行以下命令:

    1
    pip3 install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu128

  3. 验证安装

    1
    2
    import torch
    touch.cuda.is_available()

    返回 True 表示已经安装成功了

5. 创建 PyTorch 虚拟环境

在 Anaconda 中创建一个名为 pytorch 的虚拟环境

步骤 1:打开 Anaconda Prompt

在 Windows 上,可以通过 开始菜单 -> Anaconda Prompt 打开命令行

步骤 2:创建 pytorch 虚拟环境

使用以下命令创建一个 Python 3.9 的虚拟环境(可以修改 3.9 为你需要的 Python 版本):

1
conda create -n pytorch python=3.9

解释

  • conda create:创建新的虚拟环境
  • -n pytorch:指定环境名称为 pytorch
  • python=3.9:指定 Python 版本为 3.9

步骤 3:激活虚拟环境

创建成功后,激活 pytorch 环境:

1
conda activate pytorch

成功激活后,命令行前面会显示 (pytorch),表示你已经进入该环境

6. 选择 PyTorch 解释器

在 Anaconda 中,我们已经创建了 pytorch 这个虚拟环境,因此我们不需要在 VS Code 里的新文件夹再创建一个虚拟环境,直接使用 pytorch 这个解释器即可

至此,YOLOv11 运行所需的环境已经配置完成!

7. 安装 Ultralytics

ultralytics 是一个 Python 包,它是 Ultralytics YOLO (You Only Look Once) 系列的官方库,主要用于目标检测、实例分割、姿态估计、分类等计算机视觉任务


确认 Python 和 PyTorch 版本符合要求后,运行:

1
2
conda activate pytorch
pip install ultralytics

默认情况下,pip install 会将 Python 包安装到 全局 Python 环境当前虚拟环境site-packages 目录

所以需要使用刚才创建的 虚拟环境(venv)

安装完成后,可以测试一下:

1
pip show ultralytics


如果能正确输出版本号,说明安装成功!

8.使用 YOLO 进行目标检测

下载模型文件
如果你没有下载模型文件,可以从官方源或者其他地方下载预训练模型

官方文档 ultralytics/ultralytics: Ultralytics YOLO11 🚀

另一种方法是从 Ultralytics 直接下载 YOLO 模型:

1
wget https://github.com/ultralytics/yolov11/releases/download/v11.0/yolov11n.pt

使用 ultralytics

方法 1:命令行 (CLI)

1
yolo predict model=yolov11n.pt source='https://ultralytics.com/images/bus.jpg'
  • yolov11n.pt 是官方提供的 轻量级 YOLOv11 预训练模型
  • source='https://ultralytics.com/images/bus.jpg' 表示使用在线图片进行目标检测。

其他 CLI 示例

1
2
3
4
5
# 训练 YOLOv11 模型
yolo train model=yolov11n.pt data=coco128.yaml epochs=10

# 评估模型
yolo val model=yolov11n.pt data=coco128.yaml

方法 2:Python 代码

📌 检测图片中的物体

1
2
3
4
5
6
7
8
9
10
from ultralytics import YOLO

# 加载 YOLOv11 预训练模型
model = YOLO("yolov11n.pt")

# 对一张图片进行目标检测
results = model("https://ultralytics.com/images/bus.jpg")

# 显示检测结果
results[0].show()


📌 训练自己的 YOLOv11 模型

1
2
3
4
5
6
7
from ultralytics import YOLO

# 加载 YOLOv11 模型(未训练)
model = YOLO("yolov11n.yaml")

# 训练模型
model.train(data="coco128.yaml", epochs=100, imgsz=640, device="gpu")

这会用 COCO128 数据集训练 50 轮。

如果你有自己的数据集(比如 data.yaml),可以替换 data=coco128.yaml

📌 导出模型

1
2
# 导出模型到 ONNX 格式
model.export(format="onnx")

参考代码

视频训练

1
2
3
4
5
6
7
8
from ultralytics import YOLO

# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")

# Start tracking objects in a video
# You can also use live video streams or webcam input
model.track(source="path/to/video.mp4")

更多示例参考

官方文档 主页 -Ultralytics YOLO 文档