关于行人重识别(ReID)的一份读书报告

阅读: 评论:0

关于行人重识别(ReID)的一份读书报告

关于行人重识别(ReID)的一份读书报告

关于行人重识别(ReID)的一份读书报告

    • 关于行人重识别(ReID)的一份读书报告
      • 1. 概述
      • 2. 研究进展
      • 3. 研究展望

关于行人重识别(ReID)的一份读书报告

1. 概述

行人重识别(Person Re-identification)也称行人再识别,简称ReID,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术。广泛被认为是一个图像检索的子问题。给定一个监控行人图像,检索跨设备下的该行人图像,这是行人重识别的一个重要特征。在监控视频中,由于摄像机的角度不好和分辨率不足等问题,难以得到质量很高的人脸图片,于是需要ReID作为代替技术。

传统的方法通常将这个问题分为两个步骤行人检测行人重识别。而行人重识别也往往是利用裁剪好的行人图片组作为输入,这与真实场景是有差异的。行人检测和行人重识别应当放在一个框架下进行优化,才能更好地应用于现实世界。

2. 研究进展

传统的行人重识别研究方法往往靠手动设计特征值 ,手动将跨摄像机视图变为特征值和手动设计距离度量函数来解决问题。在2014年以后,大多数的工作开始基于深度学习。得益于深度学习,尤其是卷积神经网络(CNN)的快速发展,发展出许多基于表征特征学习度量特征学习的ReID方法。前者直接提取图像的特征来对图片进行分类,而后者旨在学习出两张图片之间的相似度。

论文1利用Classification/Identification loss和verification loss来训练网络。网络输入为若干对行人图片,包括分类子网络和验证子网络。分类子网络对图片进行ID预测,根据预测的ID来计算分类误差损失。验证子网络融合两张图片的特征,判断这两张图片是否属于同一个行人,该子网络实质上等于一个二分类网络。经过足够数据的训练,再次输入一张测试图片,网络将自动提取出一个特征,这个特征用于行人重识别任务。

常用的度量学习损失方法有成对损失,将一种端到端的孪生(Siamese)CNN架构用于行人重识别,孪生网络的输入为一对(两张)图片,这两张图片可以为同一行人,也可以为不同行人。目的是将相似对的图像(即相同的身份)投影为彼此接近,那些不相似的对彼此远离,如论文234 利用三元组样本训练CNN,以最小化同一个人之间的特征距离,并最大化不同人之间的距离。

除了使用成对或三元组损失函数之外,论文5提出通过对身份进行分类来学习特征。

ReID还有一个问题就是数据获取困难。因此,诞生了使用GAN(生成对抗网络)来扩大ReID数据集的方法,如论文6

3. 研究展望

对于行人重识别的研究,计划从如下几个方面着手:

  • 将行人检测与行人重识别放在一个CNN中进行优化;
  • 尝试使用多种行人检测器和行人重识别方法,比较它们的性能差异;
  • 使用多种不同的损失函数,使用文献中提到的OIM损失函数;
    目标希望能构建一个较好的行人重识别网络,并探索其产品化能力。

以上大多数的研究全部都是以手动裁剪好的行人图片作为输入,而在实际需求中,是要从整个场景图中寻找行人图像的,也就是不存在给定的行人边界框。因此在实际中会不可避免的出现因使用行人检测器而导致的边界框的错误。2014年,论文7提出了一种基于行人检测和人物匹配分数相结合的滑动窗口搜索方案。但是,由于性能受到手动设计特征值的限制,滑动窗口框架不可扩展。在2016年Xiao和Zheng等人同时提出了基于大规模数据集的端到端ReID系统,将行人检测与行人重识别进行了较好的结合。


  1. Mengyue Geng, Yaowei Wang, Tao Xiang, Yonghong Tian. Deep transfer learning for person reidentification,arXiv preprint, arXiv:1611.05244,2016. ↩︎

  2. Rahul Rama Varior, Mrinal Haloi, Gang Wang. Gated siamese convolutional neural network architecture for human re-identification. European Conference on Computer Vision. Springer, 2016:791-808. ↩︎

  3. S. Ding, L. Lin, G. Wang, and H. Chao. Deep feature learning with relative distance comparison for person re-identification.PR, 2015. ↩︎

  4. D. Cheng, Y. Gong, S. Zhou, J. Wang, and N. Zheng. Personre-identification by multi-channel parts-based cnn withimproved triplet loss function. CVPR, 2016. ↩︎

  5. T. Xiao, H. Li, W. Ouyang, and X. Wang. Learning deep featurerepresentations with domain guided dropout for personre-identification. CVPR, 2016. ↩︎

  6. Zheng Z, Zheng L, Yang Y. Unlabeled samples generated by gan improve the person re-identification baseline in vitro. arXiv preprint arXiv:1701.07717, 2017. ↩︎

  7. Y. Xu, B. Ma, R. Huang, and L. Lin. Person search in a scene by jointly modeling people commonness and person uniqueness. ACM’MM, 2014. ↩︎

本文发布于:2024-01-29 06:39:48,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170648159513421.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:行人   报告   ReID
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23