《You Only Look Once:Unified, Real-Time Object Detection》
论文地址:.02640
作为单阶段的目标检测网路,YOLO的速度比fasterrcnn快得多,目前YOLO已经出到V5,精度也大大提升。学习YOLO还是从V1开始看再看后面就更容易,因此,这里对V1简单的总结一下,也为后面的学习做个铺垫,这里就对整个pipeline进行介绍即可。
1)主干特征提取:
主干网络使用的GoogLeNet,并在此基础上加入了一些新的层,为了提高性能。最后的输出是7x7x30的特征图,分成7x7个cell,每个cell有2个bbox。每一个cell的30维特征分布如下:
说明:
2)优化损失函数:
说明:
loss采用的是误差平方和(Sum-squared error),对于花写的1的解释如下:
首先会得到每个cell的2个bbox的预测得分(就是将我们前面提到的confidence乘以分类的分数):
然后,分别对每个类别的分数进行如下操作,剔除分数小于阈值的,再排序,之后进行NMS,将会得到一组有很多0的分数向量。
之后对7x7x2个bbox的分数进行判断,打上其最可能(分数最高)那一类的标签,如果全为0,那就打上0。
YOLO对相互靠的很近的物体,还有很小的群体检测效果不好,这是因为一个网格中只预测了两个框,并且只属于一类。对测试图像中,同一类物体出现的新的不常见的长宽比和其他情况是。泛化能力偏弱。由于损失函数的问题,定位误差是影响检测效果的主要原因。尤其是大小物体的处理上,还有待加强。
下一篇:目标检测之YOLO V2
本文发布于:2024-02-04 18:07:27,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170713292058119.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |