BDNet: A BERT-based dual-path network for text-to-image cross-modal person re-identification

计算机科学 特征(语言学) 特征学习 人工智能 公制(单位) 鉴定(生物学) 代表(政治) 模式识别(心理学) 联营 特征提取 路径(计算) 机器学习 哲学 政治学 政治 经济 生物 程序设计语言 法学 植物 语言学 运营管理
作者
Qiang Liu,X. T. He,Qizhi Teng,Linbo Qing,Honggang Chen
出处
期刊:Pattern Recognition [Elsevier]
卷期号:141: 109636-109636 被引量:5
标识
DOI:10.1016/j.patcog.2023.109636
摘要

Text-to-image person re-identification (TI-ReID) aims to provide a descriptive sentence to find a specific person in the gallery. The task is very challenging due to the huge feature differences between both image and text descriptions. Currently, most approaches use the idea of combining global and local features to get more fine-grained features. However, these methods usually acquire local features with the help of human pose or segmentation models, which makes it difficult to use in realistic scenarios due to the introduction of additional models or complex training evaluation strategies. To facilitate practical applications, we propose a BERT-based framework for dual-path TI-ReID. Without the help of additional models, our approach directly employs visual attention in the global feature extraction network to allow the network to adaptively learn to focus on salient local features in image and text descriptions, which enhances the network’s attention to local information through a visual attention mechanism, thus strengthening the global feature representation and effectively improving the global feature representation. In addition, to learn text and image modality invariant feature representations, we propose a convolutional shared network (CSN) to learn image and text features together. To optimize cross-modal feature distances more effectively, we propose a global hybrid modal triplet global metric loss. In addition to combining local metric learning and global metric learning, we also introduce the CMPM loss and CMPC loss to jointly optimize the proposed model. Extensive experiments on the CUHK-PEDES dataset show that the proposed method performs significantly better than the current research results, achieving a Rank-1/mAP accuracy of 66.27%/ 57.04%.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
齐佑龙发布了新的文献求助10
2秒前
wow发布了新的文献求助10
4秒前
5秒前
过时的起眸完成签到,获得积分10
6秒前
祯果粒完成签到,获得积分10
8秒前
8秒前
9秒前
齐佑龙完成签到,获得积分10
12秒前
12秒前
14秒前
14秒前
江南完成签到,获得积分10
14秒前
简单的红酒完成签到 ,获得积分10
15秒前
15秒前
所所应助qd采纳,获得10
15秒前
17秒前
18秒前
开放的悒发布了新的文献求助10
18秒前
半岛岛发布了新的文献求助30
18秒前
19秒前
23秒前
愉快的老三完成签到,获得积分10
24秒前
26秒前
chen完成签到,获得积分10
29秒前
搜集达人应助奔奔采纳,获得10
29秒前
阔达曲奇发布了新的文献求助10
30秒前
yuanaohua完成签到 ,获得积分10
31秒前
洛水桦完成签到,获得积分10
33秒前
饱满松鼠完成签到 ,获得积分10
33秒前
34秒前
38秒前
39秒前
41秒前
Hello应助季秋十二采纳,获得10
41秒前
42秒前
斯文败类应助FF采纳,获得10
42秒前
43秒前
lalala发布了新的文献求助10
43秒前
44秒前
noob发布了新的文献求助10
44秒前
高分求助中
The Oxford Handbook of Social Cognition (Second Edition, 2024) 1050
The Young builders of New china : the visit of the delegation of the WFDY to the Chinese People's Republic 1000
юрские динозавры восточного забайкалья 800
English Wealden Fossils 700
Chen Hansheng: China’s Last Romantic Revolutionary 500
Mantiden: Faszinierende Lauerjäger Faszinierende Lauerjäger 500
PraxisRatgeber: Mantiden: Faszinierende Lauerjäger 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3141258
求助须知:如何正确求助?哪些是违规求助? 2792257
关于积分的说明 7801943
捐赠科研通 2448459
什么是DOI,文献DOI怎么找? 1302536
科研通“疑难数据库(出版商)”最低求助积分说明 626638
版权声明 601237