CrossFormer: Cross-modal Representation Learning via Heterogeneous Graph Transformer

计算机科学 情态动词 变压器 图形 代表(政治) 理论计算机科学 人工智能 电压 化学 物理 量子力学 政治 政治学 高分子化学 法学
作者
Xiao Liang,Erkun Yang,Cheng Deng,Yanhua Yang
出处
期刊:ACM Transactions on Multimedia Computing, Communications, and Applications [Association for Computing Machinery]
被引量:4
标识
DOI:10.1145/3688801
摘要

Transformers have been recognized as powerful tools for various cross-modal tasks due to their superior ability to perform representation learning through self-attention. Existing transformer-based cross-modal models can be categorized into single-stream and dual-stream ones. By performing fine-grained interaction with self-attention on the cross-modal concatenated features, the former can simultaneously learn intra- and inter-modal correlations. However, this simple concatenation treats the inputs of different modalities equally; as a result, the heterogeneous differences between modalities are ignored, leading to a modality gap. The latter process the inputs of different modalities separately, then perform cross-modal interaction on the subsequently fused networks, resulting in a failure to integrate the fine-grained correlations of both intra- and inter-modality in a uniform module. To this end, we propose an effective heterogeneous graph transformer for dual-stream cross-modal representation learning, named CrossFormer, which constructs a heterogeneous graph as a bridge to achieve fine-grained intra- and inter-modal interaction on a dual-stream network. Specifically, we first represent multi-modal data with a heterogeneous graph, then develop a dual-positional encoding strategy that enables the heterogeneous graph to obtain the relative positional information. Finally, a dual-stream self-attention is performed on the heterogeneous graph, bridging the gap between modalities and effectively capturing fine-grained intra- and inter-modal interactions simultaneously. Extensive experiments on various cross-modal tasks demonstrate the superiority of our method.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
cgliuhx完成签到,获得积分10
1秒前
3秒前
CAST1347完成签到,获得积分0
5秒前
Cherry完成签到 ,获得积分10
6秒前
YYYYYYYYY发布了新的文献求助10
9秒前
大力的远望完成签到 ,获得积分10
9秒前
大方的曼容完成签到 ,获得积分10
11秒前
研友_5Zl4VZ完成签到,获得积分10
16秒前
包容的思菱完成签到,获得积分10
17秒前
高大绝义完成签到,获得积分10
17秒前
小天才完成签到 ,获得积分10
18秒前
Panchael完成签到,获得积分10
18秒前
Sue完成签到 ,获得积分10
19秒前
谦让的道之完成签到 ,获得积分10
19秒前
科研牛马完成签到 ,获得积分10
23秒前
桐桐应助always采纳,获得10
24秒前
Young完成签到 ,获得积分10
27秒前
科研牛马完成签到,获得积分10
31秒前
psj完成签到,获得积分10
32秒前
科研通AI6.2应助fancy采纳,获得10
39秒前
chenm0333042完成签到,获得积分10
39秒前
无语的断缘完成签到,获得积分10
40秒前
机智的天蓉完成签到 ,获得积分10
41秒前
缥缈的灵凡关注了科研通微信公众号
43秒前
斯文败类应助Muran采纳,获得10
44秒前
勤奋完成签到 ,获得积分10
44秒前
清蒸可达鸭完成签到 ,获得积分0
45秒前
三七二十一完成签到 ,获得积分10
48秒前
美味的屑狐狸完成签到 ,获得积分10
48秒前
兜兜完成签到 ,获得积分10
55秒前
山东人在南京完成签到 ,获得积分10
56秒前
58秒前
寄托完成签到 ,获得积分10
1分钟前
fqk完成签到,获得积分10
1分钟前
bkagyin应助drosophila406采纳,获得10
1分钟前
lq完成签到 ,获得积分10
1分钟前
mang完成签到 ,获得积分10
1分钟前
1分钟前
凝芙完成签到 ,获得积分10
1分钟前
明亮的咖啡豆完成签到,获得积分10
1分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
PowerCascade: A Synthetic Dataset for Cascading Failure Analysis in Power Systems 2000
Various Faces of Animal Metaphor in English and Polish 800
Signals, Systems, and Signal Processing 610
Unlocking Chemical Thinking: Reimagining Chemistry Teaching and Learning 555
Photodetectors: From Ultraviolet to Infrared 500
On the Dragon Seas, a sailor's adventures in the far east 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6355794
求助须知:如何正确求助?哪些是违规求助? 8170527
关于积分的说明 17201079
捐赠科研通 5411739
什么是DOI,文献DOI怎么找? 2864385
邀请新用户注册赠送积分活动 1841922
关于科研通互助平台的介绍 1690224