Abstract:
随着Transformer在视觉任务中的迅速发展,它的自注意力机制能够提取不同图像块之间的信息进而提升行人再识别精度,从而来缓解卷积神经网络(convolutional neural networks,CNN)长距离依赖问题。此外,由于CNN下采样后细节信息的丢失问题,视觉Transformer因为不会对图像进行下采样,所以可以保留细节的特征。根据上述问题,本文研究了一种改进视觉Transformer的行人再识别方法,并提出一种随机打乱patch模块,即通过重新组合成多个特征来进行特征重排,并且加入视角辅助embedding来提高网络模型的学习鲁棒性特征。实验结果表明,该方法在Market-1501和DukeMTMC-reID两个行人再识别数据集上的准确性优于基于视觉Transformer行人再识别方法基线,其mAP比原始视觉Transformer分别提升1.8%和1.5%。
Keyword:
Reprint 's Address:
Email:
Source :
信息技术与信息化
Year: 2023
Issue: 08
Volume: 4
Page: 164-167
Cited Count:
WoS CC Cited Count: 0
SCOPUS Cited Count:
ESI Highly Cited Papers on the List: 0 Unfold All
WanFang Cited Count:
Chinese Cited Count:
30 Days PV: 8
Affiliated Colleges: