跳转至

0x0 动机

为了说明使用 OneFlow 训练目标检测模型的可行性以及性能的优越性,最近我们将 ultralytics 版 YOLOv5(https://github.com/ultralytics/yolov5)通过import oneflow as torch的方式迁移为了OneFlow后端(对应YOLOv5的commit号为:48a85314bc80d8023c99bfb114cea98d71dd0591)。并对 YOLOv5 中相关的教程进行了汉化,添加了一系列详细的代码解读,原理讲解以及部署教程,希望使得 YOLOv5 项目对用户更加透明化。另外我们也将在性能这个角度进行深入探索,本次我们发布的OneFlow后端的YOLOv5只是一个基础版本,没有用上任何的优化技巧。目前我们在小 Batch 进行训练时相比于 PyTorch 有5%-10%左右的性能优势,而对于大 Batch 则性能和 PyTorch 持平。相信在后续的一些定制化的性能优化技巧下(比如nn.Graph加持,算子的优化),我们可以继续提升YOLOv5在COCO等数据集的训练速度,更有效缩短目标检测模型的训练时间。

  • 🎉代码仓库地址:https://github.com/Oneflow-Inc/one-yolov5
  • 🎉文档网站地址:https://start.oneflow.org/oneflow-yolo-doc/index.html
  • OneFlow 安装方法:https://github.com/Oneflow-Inc/oneflow#install-oneflow

不过即使你对 OneFlow 带来的性能提升不太感兴趣,我们相信文档网站中对 YOLOv5 教程的汉化以及源码剖析也会是从零开始深入学习 YOLOv5 一份不错的资料。欢迎在仓库给我们提出宝贵的意见。🌟🌟🌟

欢迎star one-yolov5项目 获取最新的动态。

0x1. 差异

我们将 YOLOv5 的后端从 PyTorch 换成 OneFlow 之后除了性能优势外还做了一些差异化的内容,其中一些内容已经完成,还有一些正在进行中,下面简单展示一下:

这一系列的文章我们将逐步开发,Review 以及发布并且会有相应的视频讲解,我们将这个系列的文章叫作:《YOLOv5全面解析教程》 🎉🎉🎉

0x2. 在COCO上的精度表现

我们以 yolov5n 网络为例, result.csv 这个日志展示了我们基于 one-yolov5 在 COCO 上从零开始训练 YOLOv5n 网络的日志。下图展示了 box_loss , obj_loss, cls_lossmap_0.5, map_0.5:0.95 等指标在训练过程中的变化情况:

图片

最终在第 300 个 epoch 时,我们的 map_0.5 达到了 0.45174map_0.5:0.95 达到了 0.27726

ultralytics/yolov5 给出的精度数据 一致(注意官网给出的精度指定 iou 为 0.65 的精度,而上述 csv 文件中是在 iou 为 0.60 下的精度,使用我们训练的权重并把 iou 指定为 0.65 可以完全对齐官方给出的精度数据)。

关于这一点,我们可以使用 ultralytics/yolov5 来验证一下:

python val.py  --weights yolov5n.pt --data data/coco.yaml --img 640 --iou 0.60

输出:

val: data=data/coco.yaml, weights=['yolov5n.pt'], batch_size=32, imgsz=640, conf_thres=0.001, iou_thres=0.6, max_det=300, task=val, device=, workers=8, single_cls=False, augment=False, verbose=False, save_txt=False, save_hybrid=False, save_conf=False, save_json=True, project=runs/val, name=exp, exist_ok=False, half=False, dnn=False
YOLOv5 🚀 v6.1-384-g7fd9867 Python-3.8.13 torch-1.10.0+cu113 CUDA:0 (NVIDIA GeForce RTX 3080 Ti, 12054MiB)

cuda:0
Fusing layers... 
YOLOv5n summary: 213 layers, 1867405 parameters, 0 gradients, 4.5 GFLOPs
val: Scanning '/data/dataset/fengwen/coco/val2017.cache' images and labels... 4952 found, 48 missing, 0 empty, 0 corrupt: 100%|█████
                 Class     Images  Instances          P          R      mAP50   mAP50-95: 100%|██████████| 157/157 [00:40<00:00,  3.
                   all       5000      36335      0.573      0.432      0.456      0.277

上面的输出可以说明我们和 ultralytics/yolov5 的精度是完全对齐的。

在 one-yolov5 从零开始训练 yolov5n 进行精度复现的命令为 (2卡DDP模式) :

python  -m oneflow.distributed.launch --nproc_per_node 2 train.py --data  data/coco.yaml  --weights ' ' --cfg models/yolov5n.yaml --batch 64

0x3. 在COCO上的性能表现

以下的性能结果都是直接将 PyTorch 切换为 OneFlow 之后测试的,并没有做针对性优化,后续会在此基础上继续提升 OneFlow 后端 YOLOv5 的训练速度。

在 3080Ti 的性能测试结果

单卡测试结果

  • 以下为GTX 3080ti(12GB) 的yolov5测试结果(oneflow后端 vs PyTorch后端)
  • 以下测试结果的数据配置均为coco.yaml,模型配置也完全一样,并记录训练完coco数据集1个epoch需要的时间
  • 由于oneflow eager目前amp的支持还不完善,所以我们提供的结果均为fp32模式下进行训练的性能结果
  • PyTorch版本 yolov5 code base链接:https://github.com/ultralytics/yolov5
  • OneFlow版本 yolov5 code base链接:https://github.com/Oneflow-Inc/one-yolov5
  • cuda 版本 11.7, cudnn 版本为 8.5.0
  • 测试的命令为:python train.py --batch 16 --cfg models/yolov5n.yaml --weights '' --data coco.yaml --img 640 --device 0 ,其中 batch 参数是动态变化的

图片

可以看到,在 batch 比较小的时候 OneFlow 后端的 YOLOv5 相比于 PyTorch 有 5%-10% 左右的性能优势,这可能得益于 OneFlow 的 Eager 运行时系统可以更快的做 CUDA Kernel Launch。而 batch 比较大的时候 OneFlow 后端的 YOLOv5 相比于 PyTorch 的性能差不多是持平,这可能是因为当 Batch 比较大的时候 CUDA Kernel Launch 的开销相比于计算的开销会比较小。

两卡DDP测试结果

  • 配置和单卡均一致
  • 测试的命令为:python -m oneflow.distributed.launch --nproc_per_node 2 train.py --batch 16 --data coco.yaml --weights '' --device 0,1 ,其中 batch 参数是动态变化的

图片

得益于单卡的性能优势,在 2 卡DDP模式下,OneFlow 后端的 YOLOv5 在小 batch 的训练时间也是稍微领先 PyTorch 后端的 YoloV5 ,而对于大 Batch 来说性能和 PyTorch 相比也是差不多持平。

0x4. 总结

我们基于 OneFlow 移植了 ultralytics 版的 YOLOv5 ,在精度训练达标的情况下还可以在 Batch 比较小时取得一些性能优势。此外,我们对 YOLOv5 中相关的教程进行了汉化,添加了一系列详细的代码解读,原理讲解以及部署教程,希望使得 YOLOv5 项目对用户更加透明化。相信对想深入了解 YOLOv5 的读者我们的 《YOLOv5全面解析教程》 也是一份不错的学习资料。

Back to top