您当前的位置: 首页 > 

R-CenterNet:用CenterNet对旋转目标进行检测

发布时间:2020-12-03 11:00:00 ,浏览量:2

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

编辑丨GiantPandaCV

【导语】前段时间纯粹为了论文凑字数做的一个工作,本文不对CenterNet原理进行详细解读,如果对CenterNet原理不了解,建议简单读一下原论文然后对照本文代码理解(对原版CenterNet目标检测代码进行了极大程度精简)。

代码开源:https://github.com/ZeroE04/R-CenterNet

demo
  • R-DLADCN(推荐)

  • 推荐

  • R-ResDCN(主干网用的ResNet而不是DLA)

  • 主干网用的ResNet而不是DLA

  • R-DLANet(未编译DCN的主干网)

  • 未编译DCN的主干网

  • DLADCN(原始CenterNet)

  • 原始CenterNet

前言

基本想法就是直接修改CenterNet的head部分,但是是直接在长宽图上加一层通道表示角度,还是多引出一 路feature-map呢?实测是多引出一张feature map比较好,直接在长宽图上加一层通道很难收敛,具体原因我也是猜测,角度和尺度特征基本无共享,且会相互干扰(角度发生些许变化,目标的长宽可能就变了,如果角度是错的,长宽本来是对的呢?反之亦然)引出的feature-map只经历了一层卷积层就开始计算loss,对于这种复杂的关系表征能力不够,可能造成弄巧成拙。网络结构如下:

R-CenterNet网络结构图

代码说明

代码主要分为五个部分:

{R-CenterNet}
 |-- backbone
  -- |-- dlanet.py
  -- |-- dlanet_dcn.py
 |-- dataset.py
 |-- Loss.py
 |-- train.py
 |-- predict.py
  • train.py:模型的训练

  • predict.py:模型的前向推理

  • backbone:模型的主干网,给了DLA和ResNet的DCN与普通版本,层数可以自定义

  • loss.py:模型的损失函数

  • dataset.py:模型的数据处理

不是很重要:

{R-CenterNet}
 |-- data/airplane
 |-- dcn
  • data/airplane:示例训练数据与图片

  • dcn:编译好的dcn,说明一下,这里与原版CenterNet编译dcn一样,直接文件夹复制过来即可,如果你不会编译dcn,就用backbone内的dlanet.py与resnet.py

  1. 原版CenterNet代码较多,我只需要做目标检测,所以把各种3D检测等都删了,模型架构也拆了只保留了有用部分,并对代码架构进行了重构,方便自己阅读以及魔改。

  2. 其次,因为只是加了一个角度检测,所以主要是修改了一下数据处理部分,用的还是VOC格式,只是在.josn文件里面加了一个角度信息,打标签的时候用[0,π]表示,后续在loss内添加了角度的feature-map损失,用的Smooth-L1 loss,打标签方法已在下方。

2020.1021代码更新(不是很重要)

{R-CenterNet}
 |-- labelGenerator
 |-- evaluation.py
 |-- imgs
  • labelGenerator:生成自己的训练数据

  • evaluation.py:性能指标计算

  • imgs:性能指标计算示例图片

  1. 鉴于一些同学想知道怎么对自己的数据打标签以及生成R-CenterNet可以训练的数据,所以更新一个labelGenerator文件夹,内包含转换函数以及用例。注意,这个文件夹以及其内部函数不是网络必须的,只是想训练自己打标签的数据时用的。

  2. 鉴于一些同学想知道模型训练完毕,怎么对比性能,比如旋转框怎么计算mIOU等,所以更新一个evaluation.py以及对应的案例图片和文件夹imgs。注意,这个.py和imgs文件夹不是必须的,只是模型训练结束计算性能用的。

  • 注:每个label里面的目标五个数值:分别为目标中心点(x,y),以及宽度,长度,角度,角度是以12点钟为0°,顺时针旋转的角度,最大为179.99999°(旋转180°,相当于没转)

训练自己的多分类网络
  • 打标签用labelGenerator文件夹里面的代码

  • 修改代码中所有num_classes为你的类别数目

  • 增加predict.py中方框颜色,我这里只检测单目标,所以只有红蓝框。

  • 修改back_bone中hm的数目为你的类别数,如:

def DlaNet(num_layers=34, heads = {'hm': your classes num, 'wh': 2, 'ang':1, 'reg': 2}, head_conv=256, plot=False)
环境
  • python3

  • 理论上torch >1.0即可,如果报了显存不足的问题就是torch版本低了

  • (可选)如何编译DCN以及环境需求, 与CenterNet 原版保持一致,不会编译dcn就用backbone中的非dcn版本,性能相比dcn下降一个点左右,随着数据的增大逐渐缩小。

结束
  • 有问题可以github提issue

  • 后续有时间会将上面的工作工程化,C++落地

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉,即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总,即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

在「3D视觉工坊」公众号后台回复:相机标定,即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配,即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

关注
打赏
1688896170
查看更多评论

暂无认证

  • 2浏览

    0关注

    106485博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文
立即登录/注册

微信扫码登录

0.0482s