Cross-modality synergy network for referring expression comprehension and segmentation

计算机科学 模态(人机交互) 特征(语言学) 参照物 人工智能 表达式(计算机科学) 模式 自然语言处理 自然语言 代表(政治) 相似性(几何) 图像(数学) 语言学 政治 哲学 社会学 政治学 程序设计语言 法学 社会科学
作者
Qian‐Zhong Li,Yujia Zhang,Shiying Sun,Jinting Wu,Xiaoguang Zhao,Min Tan
出处
期刊:Neurocomputing [Elsevier]
卷期号:467: 99-114 被引量:17
标识
DOI:10.1016/j.neucom.2021.09.066
摘要

Referring expression comprehension and segmentation aim to locate and segment a referred instance in an image according to a natural language expression. However, existing methods tend to ignore the interaction between visual and language modalities for visual feature learning, and establishing a synergy between the visual and language modalities remains a considerable challenge. To tackle the above problems, we propose a novel end-to-end framework, Cross-Modality Synergy Network (CMS-Net), to address the two tasks jointly. In this work, we propose an attention-aware representation learning module to learn modal representations for both images and expressions. A language self-attention submodule is proposed in this module to learn expression representations by leveraging the intra-modality relations, and a language-guided channel-spatial attention submodule is introduced to obtain the language-aware visual representations under language guidance, which helps the model pay more attention to the referent-relevant regions in the images and relieve background interference. Then, we design a cross-modality synergy module to establish the inter-modality relations for modality fusion. Specifically, a language-visual similarity is obtained at each position of the visual feature map, and the synergy is achieved between the two modalities in both semantic and spatial dimensions. Furthermore, we propose a multi-scale feature fusion module with a selective strategy to aggregate the important information from multi-scale features, yielding target results. We conduct extensive experiments on four challenging benchmarks, and our framework achieves significant performance gains over state-of-the-art methods.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
是赤赤呀完成签到,获得积分10
刚刚
阮人雄完成签到,获得积分10
刚刚
王饱饱完成签到 ,获得积分10
刚刚
Mr_Hao完成签到,获得积分10
1秒前
Keira_Chang完成签到,获得积分10
1秒前
起承转合完成签到 ,获得积分10
1秒前
风姿物语完成签到,获得积分10
2秒前
xiaopeng完成签到,获得积分10
2秒前
Jenny应助艺玲采纳,获得10
3秒前
一平发布了新的文献求助80
3秒前
樱桃味的火苗完成签到,获得积分10
3秒前
3秒前
波波完成签到,获得积分10
4秒前
322628完成签到,获得积分10
4秒前
领导范儿应助silong采纳,获得10
4秒前
身为风帆发布了新的文献求助10
4秒前
applepie完成签到,获得积分10
4秒前
顾己完成签到,获得积分10
4秒前
宋嬴一完成签到,获得积分10
4秒前
4秒前
我超爱cs完成签到,获得积分10
5秒前
沉静哲瀚完成签到,获得积分10
5秒前
MADKAI发布了新的文献求助10
6秒前
喝汤一样完成签到,获得积分10
6秒前
6秒前
6秒前
wormzjl发布了新的文献求助10
6秒前
虚拟的眼神完成签到,获得积分10
8秒前
陈_Ccc完成签到 ,获得积分10
8秒前
文静达完成签到,获得积分10
8秒前
rui发布了新的文献求助30
8秒前
CC发布了新的文献求助10
8秒前
8秒前
兴奋的果汁完成签到,获得积分10
9秒前
9秒前
9秒前
浮三白完成签到,获得积分10
9秒前
爆米花应助沉静的夜玉采纳,获得10
10秒前
aodilee完成签到,获得积分10
10秒前
思源应助非常可爱采纳,获得20
10秒前
高分求助中
Continuum Thermodynamics and Material Modelling 3000
Production Logging: Theoretical and Interpretive Elements 2700
Social media impact on athlete mental health: #RealityCheck 1020
Ensartinib (Ensacove) for Non-Small Cell Lung Cancer 1000
Unseen Mendieta: The Unpublished Works of Ana Mendieta 1000
Bacterial collagenases and their clinical applications 800
El viaje de una vida: Memorias de María Lecea 800
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 量子力学 光电子学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3527304
求助须知:如何正确求助?哪些是违规求助? 3107454
关于积分的说明 9285518
捐赠科研通 2805269
什么是DOI,文献DOI怎么找? 1539827
邀请新用户注册赠送积分活动 716708
科研通“疑难数据库(出版商)”最低求助积分说明 709672