点击上方“3D视觉工坊”,选择“星标”
干货第一时间送达
编辑丨AI深度学习视线
教程来自:https://github.com/PeterH0323/Smart_Construction
一、YOLO v5训练自己数据集教程
-
1.1 创建自己的数据集配置文件
-
1.2 创建每个图片对应的标签文件
-
1.3 文件放置规范
-
1.4 聚类得出先验框(可选)
-
1.5 选择一个你需要的模型
-
1.6 开始训练
-
1.7 看训练之后的结果
二、侦测
三、检测危险区域内是否有人
-
3.1 危险区域标注方式
-
3.2 执行侦测
-
3.3 效果:在危险区域里面的人体会被 红色框 选出来
四、生成 ONNX
五、增加数据集的分类
该项目是使用YOLOv5 v2.x来训练在智能工地安全领域中头盔目标检测的应用,先来一波演示!
对应的权重文件:https://pan.baidu.com/share/init?surl=ELPhtW-Q4G8UqEr4YrV_5A,提取码:b981
yolov5m 为基础训练,epoch = 100 分类 P R mAP0.5 总体 0.886 0.915 0.901 人体 0.844 0.906 0.887 头 0.9 0.911 0.9 安全帽 0.913 0.929 0.916对应的权重文件:https://pan.baidu.com/share/init?surl=0hlKrgpxVsw4d_vHnPHwEA,提取码:psst
yolov5l 为基础训练,epoch = 100 分类 P R mAP0.5 总体 0.892 0.919 0.906 人体 0.856 0.914 0.897 头 0.893 0.913 0.901 安全帽 0.927 0.929 0.919对应的权重文件:https://pan.baidu.com/share/init?surl=iMZkRNXY1fowpQCcapFDqw,提取码:a66e
1
YOLOv5训练自己数据集教程
使用的数据集:Safety-Helmet-Wearing-Dataset ,感谢这位大神的开源数据集!
https://github.com/njvisionpower/Safety-Helmet-Wearing-Dataset
本文结合 YOLOv5官方教程 来写
环境准备首先确保自己的环境:
Python >= 3.7 Pytorch == 1.5.x训练自己的数据 提示:
关于增加数据集分类的方法,请看【5. 增加数据集的分类】
1.1 创建自己的数据集配置文件因为我这里只是判断 【人没有带安全帽】、【人有带安全帽】、【人体】 3个类别 ,基于data/coco128.yaml文件,创建自己的数据集配置文件custom_data.yaml
# 训练集和验证集的 labels 和 image 文件的位置 train: ./score/images/train val: ./score/images/val # number of classes nc: 3 # class names names: ['person', 'head', 'helmet']1.2 创建每个图片对应的标签文件
使用标注工具类似于 Labelbox 、CVAT 、精灵标注助手 标注之后,需要生成每个图片对应的.txt文件,其规范如下:
-
每一行都是一个目标
-
类别序号是零索引开始的(从0开始)
-
每一行的坐标class x_center y_center width height格式
-
框坐标必须采用归一化的 xywh格式(从0到1)。如果您的框以像素为单位,则将x_center和width除以图像宽度,将y_center和height除以图像高度。代码如下:
import numpy as np def convert(size, box): """ 将标注的 xml 文件生成的【左上角x,左上角y,右下角x,右下角y】标注转换为yolov5训练的坐标 :param size: 图片的尺寸:[w,h] :param box: anchor box 的坐标 [左上角x,左上角y,右下角x,右下角y,] :return: 转换后的 [x,y,w,h] """ x1 = int(box[0]) y1 = int(box[1]) x2 = int(box[2]) y2 = int(box[3]) dw = np.float32(1. / int(size[0])) dh = np.float32(1. / int(size[1])) w = x2 - x1 h = y2 - y1 x = x1 + (w / 2) y = y1 + (h / 2) x = x * dw w = w * dw y = y * dh h = h * dh return [x, y, w, h]
生成的.txt文件放置的名字是图片的名字,放置在 label 文件夹中,例如:
./score/images/train/00001.jpg # image ./score/labels/train/00001.txt # label
生成的 .txt 例子
1 0.1830000086920336 0.1396396430209279 0.13400000636465847 0.15915916301310062 1 0.5240000248886645 0.29129129834473133 0.0800000037997961 0.16816817224025726 1 0.6060000287834555 0.29579580295830965 0.08400000398978591 0.1771771814674139 1 0.6760000321082771 0.25375375989824533 0.10000000474974513 0.21321321837604046 0 0.39300001866649836 0.2552552614361048 0.17800000845454633 0.2822822891175747 0 0.7200000341981649 0.5570570705458522 0.25200001196935773 0.4294294398277998 0 0.7720000366680324 0.2567567629739642 0.1520000072196126 0.231231236830353741.3 文件放置规范
文件树如下
使用代码./data/gen_anchors/clauculate_anchors.py,修改数据集的路径
FILE_ROOT = r"xxx" # 根路径 ANNOTATION_ROOT = r"xxx" # 数据集标签文件夹路径 ANNOTATION_PATH = FILE_ROOT + ANNOTATION_ROOT
跑完会生成一个文件anchors.txt,里面有得出的建议先验框:
Best Accuracy = 79.72% Best Anchors = [[14.74, 27.64], [23.48, 46.04], [28.88, 130.0], [39.33, 148.07], [52.62, 186.18], [62.33, 279.11], [85.19, 237.87], [88.0, 360.89], [145.33, 514.67]]1.5 选择一个您需要的模型
在文件夹./models下选择一个你需要的模型然后复制一份出来,将文件开头的nc =修改为数据集的分类数,下面是借鉴./models/yolov5s.yaml来修改的
# parameters nc: 3 # number of classes <============ 修改这里为数据集的分类数 depth_multiple: 0.33 # model depth multiple width_multiple: 0.50 # layer channel multiple # anchors anchors: # <============ 根据 ./data/gen_anchors/anchors.txt 中的 Best Anchors 修改,需要取整(可选) - [14,27, 23,46, 28,130] - [39,148, 52,186, 62.,279] - [85,237, 88,360, 145,514] # YOLOv5 backbone backbone: # [from, number, module, args] [[-1, 1, Focus, [64, 3]], # 0-P1/2 [-1, 1, Conv, [128, 3, 2]], # 1-P2/4 [-1, 3, BottleneckCSP, [128]], [-1, 1, Conv, [256, 3, 2]], # 3-P3/8 [-1, 9, BottleneckCSP, [256]], [-1, 1, Conv, [512, 3, 2]], # 5-P4/16 [-1, 9, BottleneckCSP, [512]], [-1, 1, Conv, [1024, 3, 2]], # 7-P5/32 [-1, 1, SPP, [1024, [5, 9, 13]]], [-1, 3, BottleneckCSP, [1024, False]], # 9 ] # YOLOv5 head head: [[-1, 1, Conv, [512, 1, 1]], [-1, 1, nn.Upsample, [None, 2, 'nearest']], [[-1, 6], 1, Concat, [1]], # cat backbone P4 [-1, 3, BottleneckCSP, [512, False]], # 13 [-1, 1, Conv, [256, 1, 1]], [-1, 1, nn.Upsample, [None, 2, 'nearest']], [[-1, 4], 1, Concat, [1]], # cat backbone P3 [-1, 3, BottleneckCSP, [256, False]], # 17 [-1, 1, Conv, [256, 3, 2]], [[-1, 14], 1, Concat, [1]], # cat head P4 [-1, 3, BottleneckCSP, [512, False]], # 20 [-1, 1, Conv, [512, 3, 2]], [[-1, 10], 1, Concat, [1]], # cat head P5 [-1, 3, BottleneckCSP, [1024, False]], # 23 [[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5) ]1.6 开始训练
这里选择了yolov5s模型进行训练,权重也是基于yolov5s.pt来训练
python train.py --img 640 --batch 16 --epochs 10 --data ./data/custom_data.yaml --cfg ./models/custom_yolov5.yaml --weights ./weights/yolov5s.pt
其中,yolov5s.pt需要自行下载放在本工程的根目录即可,下载地址 官方权重
1.7 看训练之后的结果训练之后,权重会保存在./runs文件夹里面的每个exp文件里面的weights/best.py,里面还可以看到训练的效果
2
推断
侦测图片会保存在./inferenct/output/文件夹下
运行命令:
python detect.py --source 0 # webcam file.jpg # image file.mp4 # video path/ # directory path/*.jpg # glob rtsp://170.93.143.139/rtplive/470011e600ef003a004ee33696235daa # rtsp stream http://112.50.243.8/PLTV/88888888/224/3221225900/1.m3u8 # http stream
例如使用我的s权重检测图片,可以运行以下命令,侦测图片会保存在./inferenct/output/文件夹下
python detect.py --source 图片路径 --weights ./weights/helmet_head_person_s.pt
3
检测危险区域内是否有人 3.1 危险区域标注方式我这里使用的是 精灵标注助手 标注,生成了对应图片的 json 文件
3.2 执行侦测侦测图片会保存在./inferenct/output/文件夹下
运行命令:
python area_detect.py --source ./area_dangerous --weights ./weights/helmet_head_person_s.pt3.3 效果:在危险区域里面的人体会被 红色框 选出来
4
生成 ONNX 4.1 安装onnx库pip install onnx4.2 执行生成
python ./models/export.py --weights ./weights/helmet_head_person_s.pt --img 640 --batch 1
onnx和torchscript文件会生成在./weights文件夹中
5
增加数据集的分类关于增加数据集分类的方法:
SHWD数据集里面没有person的类别,先将现有的自己的数据集执行脚本生成yolov5需要的标签文件.txt,之后再用yolov5x.pt加上yolov5x.yaml,使用指令检测出人体
python detect.py --save-txt --source ./自己数据集的文件目录 --weights ./weights/yolov5x.pt
yolov5 会推理出所有的分类,并在 inference/output 中生成对应图片的 .txt 标签文件;
修改./data/gen_data/merge_data.py中的自己数据集标签所在的路径,执行这个python脚本,会进行person类型的合并
本文仅做学术分享,如有侵权,请联系删文。
下载1
在「3D视觉工坊」公众号后台回复:3D视觉,即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。
下载2
在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总,即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。
下载3
在「3D视觉工坊」公众号后台回复:相机标定,即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配,即可下载独家立体匹配学习课件与视频网址。
重磅!3DCVer-学术论文写作投稿 交流群已成立
扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。
同时也可申请加入我们的细分方向交流群,目前主要有3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。
一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。
▲长按加微信群或投稿
▲长按关注公众号
3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:
学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
圈里有高质量教程资料、可答疑解惑、助你高效解决问题
觉得有用,麻烦给个赞和在看~