Cross-modal Graph Matching Network for Image-text Retrieval

计算机科学 匹配(统计) 情态动词 人工智能 代表(政治) 模式识别(心理学) 图形 关系(数据库) 图像检索 水准点(测量) 图像(数学) 理论计算机科学 数据挖掘 数学 统计 政治 化学 政治学 高分子化学 法学 地理 大地测量学
作者
Yuhao Cheng,Xiaoguang Zhu,Jiuchao Qian,Wen Fei,Peilin Liu
出处
期刊:ACM Transactions on Multimedia Computing, Communications, and Applications [Association for Computing Machinery]
卷期号:18 (4): 1-23 被引量:65
标识
DOI:10.1145/3499027
摘要

Image-text retrieval is a fundamental cross-modal task whose main idea is to learn image-text matching. Generally, according to whether there exist interactions during the retrieval process, existing image-text retrieval methods can be classified into independent representation matching methods and cross-interaction matching methods. The independent representation matching methods generate the embeddings of images and sentences independently and thus are convenient for retrieval with hand-crafted matching measures (e.g., cosine or Euclidean distance). As to the cross-interaction matching methods, they achieve improvement by introducing the interaction-based networks for inter-relation reasoning, yet suffer the low retrieval efficiency. This article aims to develop a method that takes the advantages of cross-modal inter-relation reasoning of cross-interaction methods while being as efficient as the independent methods. To this end, we propose a graph-based Cross-modal Graph Matching Network (CGMN) , which explores both intra- and inter-relations without introducing network interaction. In CGMN, graphs are used for both visual and textual representation to achieve intra-relation reasoning across regions and words, respectively. Furthermore, we propose a novel graph node matching loss to learn fine-grained cross-modal correspondence and to achieve inter-relation reasoning. Experiments on benchmark datasets MS-COCO, Flickr8K, and Flickr30K show that CGMN outperforms state-of-the-art methods in image retrieval. Moreover, CGMM is much more efficient than state-of-the-art methods using interactive matching. The code is available at https://github.com/cyh-sj/CGMN .
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
温柔孤兰发布了新的文献求助10
刚刚
墨aizhan发布了新的文献求助10
1秒前
深情安青应助勤劳的飞飞采纳,获得10
1秒前
3秒前
852应助wuxunxun2015采纳,获得10
3秒前
3秒前
Akim应助小s采纳,获得10
3秒前
4秒前
4秒前
能干的小海豚完成签到,获得积分10
5秒前
5秒前
shanshan完成签到,获得积分10
6秒前
6秒前
yanyan发布了新的文献求助10
6秒前
科研通AI2S应助希光光采纳,获得10
6秒前
6秒前
芒果发布了新的文献求助10
7秒前
7秒前
jjq完成签到,获得积分10
7秒前
Penny发布了新的文献求助10
9秒前
mimi发布了新的文献求助10
10秒前
ming发布了新的文献求助10
10秒前
11秒前
shanshan发布了新的文献求助50
11秒前
11秒前
郝南烟发布了新的文献求助10
11秒前
chenlin完成签到,获得积分10
14秒前
所所应助小嘉采纳,获得10
15秒前
共享精神应助桐伶采纳,获得10
16秒前
16秒前
feishxixi完成签到,获得积分10
16秒前
sandy完成签到,获得积分10
17秒前
18秒前
鲸鱼打滚发布了新的文献求助10
18秒前
18秒前
18秒前
等待的风华完成签到,获得积分10
19秒前
19秒前
芒果完成签到,获得积分10
20秒前
21秒前
高分求助中
The late Devonian Standard Conodont Zonation 2000
Nickel superalloy market size, share, growth, trends, and forecast 2023-2030 2000
The Lali Section: An Excellent Reference Section for Upper - Devonian in South China 1500
Very-high-order BVD Schemes Using β-variable THINC Method 870
Mantiden: Faszinierende Lauerjäger Faszinierende Lauerjäger 800
PraxisRatgeber: Mantiden: Faszinierende Lauerjäger 800
Fundamentals of Dispersed Multiphase Flows 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3254378
求助须知:如何正确求助?哪些是违规求助? 2896597
关于积分的说明 8293307
捐赠科研通 2565536
什么是DOI,文献DOI怎么找? 1393084
科研通“疑难数据库(出版商)”最低求助积分说明 652418
邀请新用户注册赠送积分活动 629946