Cross-Modal Adaptive Dual Association for Text-to-Image Person Retrieval

计算机科学 联想(心理学) 对偶(语法数字) 模态(人机交互) 模式 人工智能 鉴定(生物学) 特征(语言学) 图像(数学) 失真(音乐) 钥匙(锁) 情态动词 情报检索 模式识别(心理学) 自然语言处理 语言学 化学 计算机网络 社会科学 计算机安全 带宽(计算) 放大器 高分子化学 认识论 社会学 植物 哲学 生物
作者
D. M. Lin,Yi-Xing Peng,Jingke Meng,Wei‐Shi Zheng
出处
期刊:IEEE Transactions on Multimedia [Institute of Electrical and Electronics Engineers]
卷期号:26: 6609-6620 被引量:4
标识
DOI:10.1109/tmm.2024.3355644
摘要

Text-to-image person re-identification (ReID) aims to retrieve images of a person based on a given textual description. The key challenge is to learn the relations between detailed information from visual and textual modalities. Existing work focuses on learning a latent space to narrow the modality gap and further build local correspondences between two modalities. However, these methods assume that image-to-text and text-to-image associations are modality-agnostic, resulting in suboptimal associations. In this work, we demonstrate the discrepancy between image-to-text association and text-to-image association and proposecross-modal adaptive dual association (CADA) to build fine bidirectional image-text detailed associations. Our approach features a decoder-based adaptive dual association module that enables full interaction between visual and textual modalities, enabling bidirectional and adaptive cross-modal correspondence associations. Specifically, this paper proposes a bidirectional association mechanism: Association of text Tokens to image Patches (ATP) and Association of image Regions to text Attributes (ARA). We adaptively model the ATP based on the fact that aggregating cross-modal features based on mistaken associations will lead to feature distortion. For modeling the ARA, since attributes are typically the first distinguishing cues of a person, we explore attribute-level associations by predicting the masked text phrase using the related image region. Finally, we learn the dual associations between texts and images, and the experimental results demonstrate the superiority of our dual formulation. The code used in this article will be made publicly available at https://github.com/LinDixuan/CADA .
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
nihao发布了新的文献求助10
刚刚
1秒前
花无双完成签到,获得积分0
1秒前
33完成签到 ,获得积分10
3秒前
fffff完成签到,获得积分10
5秒前
6秒前
SJD完成签到,获得积分0
9秒前
小猪鱿鱼发布了新的文献求助10
12秒前
香蕉觅云应助落寞银耳汤采纳,获得10
13秒前
14秒前
yuyu完成签到 ,获得积分10
14秒前
Tinsulfides完成签到,获得积分10
16秒前
懒熊发布了新的文献求助10
19秒前
嗒嗒发布了新的文献求助10
20秒前
liz关注了科研通微信公众号
23秒前
Yacon完成签到 ,获得积分10
27秒前
俺村俺最牛完成签到,获得积分10
32秒前
33秒前
35秒前
CMCM发布了新的文献求助30
39秒前
40秒前
41秒前
42秒前
43秒前
43秒前
44秒前
舒心靖琪完成签到 ,获得积分10
45秒前
酷波er应助三水采纳,获得10
45秒前
刘子龙发布了新的文献求助10
45秒前
46秒前
liz发布了新的文献求助10
46秒前
薛定谔的猫完成签到 ,获得积分10
46秒前
无花果应助duxy采纳,获得10
46秒前
47秒前
11完成签到,获得积分20
49秒前
古卡可可完成签到,获得积分10
49秒前
打打应助qiu采纳,获得10
50秒前
任性访风完成签到,获得积分10
52秒前
53秒前
55秒前
高分求助中
Production Logging: Theoretical and Interpretive Elements 2700
Ophthalmic Equipment Market 1500
Neuromuscular and Electrodiagnostic Medicine Board Review 1000
こんなに痛いのにどうして「なんでもない」と医者にいわれてしまうのでしょうか 510
いちばんやさしい生化学 500
Genre and Graduate-Level Research Writing 500
The First Nuclear Era: The Life and Times of a Technological Fixer 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3673458
求助须知:如何正确求助?哪些是违规求助? 3229111
关于积分的说明 9784159
捐赠科研通 2939678
什么是DOI,文献DOI怎么找? 1611198
邀请新用户注册赠送积分活动 760859
科研通“疑难数据库(出版商)”最低求助积分说明 736290