BDNet: A BERT-based dual-path network for text-to-image cross-modal person re-identification

计算机科学 特征(语言学) 特征学习 人工智能 公制(单位) 鉴定(生物学) 代表(政治) 模式识别(心理学) 联营 特征提取 路径(计算) 机器学习 哲学 语言学 植物 生物 运营管理 政治 政治学 法学 经济 程序设计语言
作者
Qiang Liu,Xiaohai He,Qizhi Teng,Linbo Qing,Honggang Chen
出处
期刊:Pattern Recognition [Elsevier BV]
卷期号:141: 109636-109636 被引量:24
标识
DOI:10.1016/j.patcog.2023.109636
摘要

Text-to-image person re-identification (TI-ReID) aims to provide a descriptive sentence to find a specific person in the gallery. The task is very challenging due to the huge feature differences between both image and text descriptions. Currently, most approaches use the idea of combining global and local features to get more fine-grained features. However, these methods usually acquire local features with the help of human pose or segmentation models, which makes it difficult to use in realistic scenarios due to the introduction of additional models or complex training evaluation strategies. To facilitate practical applications, we propose a BERT-based framework for dual-path TI-ReID. Without the help of additional models, our approach directly employs visual attention in the global feature extraction network to allow the network to adaptively learn to focus on salient local features in image and text descriptions, which enhances the network’s attention to local information through a visual attention mechanism, thus strengthening the global feature representation and effectively improving the global feature representation. In addition, to learn text and image modality invariant feature representations, we propose a convolutional shared network (CSN) to learn image and text features together. To optimize cross-modal feature distances more effectively, we propose a global hybrid modal triplet global metric loss. In addition to combining local metric learning and global metric learning, we also introduce the CMPM loss and CMPC loss to jointly optimize the proposed model. Extensive experiments on the CUHK-PEDES dataset show that the proposed method performs significantly better than the current research results, achieving a Rank-1/mAP accuracy of 66.27%/ 57.04%.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
666666完成签到,获得积分10
1秒前
科研猫完成签到,获得积分10
2秒前
lian完成签到 ,获得积分10
4秒前
Bi完成签到,获得积分10
5秒前
打打应助niaoniao采纳,获得10
7秒前
偏偏完成签到 ,获得积分10
10秒前
折柳完成签到 ,获得积分10
12秒前
13秒前
GTR的我完成签到 ,获得积分10
13秒前
hj完成签到,获得积分10
14秒前
ken131完成签到 ,获得积分10
14秒前
机智的黑猫完成签到 ,获得积分10
15秒前
niaoniao发布了新的文献求助10
19秒前
一个爱打乒乓球的彪完成签到 ,获得积分10
22秒前
莫三颜完成签到 ,获得积分10
23秒前
i2stay完成签到,获得积分0
23秒前
小白完成签到,获得积分10
30秒前
31秒前
li8888li8888完成签到 ,获得积分10
33秒前
EVIE完成签到,获得积分20
33秒前
尊敬的机器猫完成签到 ,获得积分10
34秒前
甄晓溪发布了新的文献求助10
36秒前
欣欣完成签到 ,获得积分10
36秒前
Rouadou完成签到,获得积分10
41秒前
EVIE发布了新的文献求助10
43秒前
顺利的靖巧完成签到,获得积分10
44秒前
Xi ~完成签到,获得积分10
45秒前
热心市民完成签到 ,获得积分10
47秒前
张凡完成签到 ,获得积分10
48秒前
飞云完成签到 ,获得积分10
50秒前
幸福妙柏完成签到 ,获得积分10
51秒前
小亮完成签到 ,获得积分10
52秒前
52秒前
xmqaq完成签到,获得积分10
53秒前
11111完成签到,获得积分10
57秒前
59秒前
俺村俺最牛完成签到 ,获得积分10
1分钟前
ZSZ完成签到,获得积分10
1分钟前
feng完成签到,获得积分10
1分钟前
Yuyu完成签到 ,获得积分10
1分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Lewis’s Child and Adolescent Psychiatry: A Comprehensive Textbook Sixth Edition 2000
Engineering for calcareous sediments : proceedings of the International Conference on Calcareous Sediments, Perth 15-18 March 1988 / edited by R.J. Jewell, D.C. Andrews 1000
Wolffs Headache and Other Head Pain 9th Edition 1000
Continuing Syntax 1000
Signals, Systems, and Signal Processing 510
Austrian Economics: An Introduction 400
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6229936
求助须知:如何正确求助?哪些是违规求助? 8054592
关于积分的说明 16795596
捐赠科研通 5311681
什么是DOI,文献DOI怎么找? 2829194
邀请新用户注册赠送积分活动 1807013
关于科研通互助平台的介绍 1665393