亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Disentangled Cross-Modal Transformer for RGB-D Salient Object Detection and Beyond

人工智能 情态动词 变压器 计算机科学 RGB颜色模型 模式识别(心理学) 工程类 电压 电气工程 化学 高分子化学
作者
Hao Chen,Feihong Shen,Ding Ding,Yongjian Deng,Chao Li
出处
期刊:IEEE transactions on image processing [Institute of Electrical and Electronics Engineers]
卷期号:33: 1699-1709 被引量:6
标识
DOI:10.1109/tip.2024.3364022
摘要

Previous multi-modal transformers for RGB-D salient object detection (SOD) generally directly connect all patches from two modalities to model cross-modal correlation and perform multi-modal combination without differentiation, which can lead to confusing and inefficient fusion. Instead, we disentangle the cross-modal complementarity from two views to reduce cross-modal fusion ambiguity: 1) Context disentanglement. We argue that modeling long-range dependencies across modalities as done before is uninformative due to the severe modality gap. Differently, we propose to disentangle the cross-modal complementary contexts to intra-modal self-attention to explore global complementary understanding, and spatial-aligned inter-modal attention to capture local cross-modal correlations, respectively. 2) Representation disentanglement. Unlike previous undifferentiated combination of cross-modal representations, we find that cross-modal cues complement each other by enhancing common discriminative regions and mutually supplement modal-specific highlights. On top of this, we divide the tokens into consistent and private ones in the channel dimension to disentangle the multi-modal integration path and explicitly boost two complementary ways. By progressively propagate this strategy across layers, the proposed Disentangled Feature Pyramid module (DFP) enables informative cross-modal cross-level integration and better fusion adaptivity. Comprehensive experiments on a large variety of public datasets verify the efficacy of our context and representation disentanglement and the consistent improvement over state-of-the-art models. Additionally, our cross-modal attention hierarchy can be plug-and-play for different backbone architectures (both transformer and CNN) and downstream tasks, and experiments on a CNN-based model and RGB-D semantic segmentation verify this generalization ability.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI

祝大家在新的一年里科研腾飞
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
21秒前
pathway发布了新的文献求助10
30秒前
justinshi完成签到,获得积分10
38秒前
47秒前
53秒前
1分钟前
科研通AI2S应助科研通管家采纳,获得10
1分钟前
1分钟前
2分钟前
乐乐应助Guo99采纳,获得10
3分钟前
深情安青应助科研通管家采纳,获得10
3分钟前
科研通AI2S应助科研通管家采纳,获得10
3分钟前
3分钟前
3分钟前
3分钟前
朱珠贝完成签到,获得积分10
3分钟前
Guo99发布了新的文献求助10
3分钟前
nvatk16发布了新的文献求助150
3分钟前
3分钟前
义气的书雁完成签到,获得积分10
3分钟前
4分钟前
yiguo发布了新的文献求助30
4分钟前
Guo99完成签到,获得积分10
4分钟前
4分钟前
科研通AI2S应助科研通管家采纳,获得10
5分钟前
5分钟前
5分钟前
5分钟前
袁宁蔓发布了新的文献求助30
5分钟前
yiguo完成签到,获得积分20
5分钟前
5分钟前
张宝完成签到,获得积分10
6分钟前
甜甜圈完成签到 ,获得积分10
6分钟前
迅速的巧曼完成签到 ,获得积分10
6分钟前
6分钟前
专注半烟完成签到 ,获得积分10
6分钟前
7分钟前
SCINEXUS完成签到,获得积分0
7分钟前
7分钟前
Orange应助爱听歌笑寒采纳,获得10
7分钟前
高分求助中
Востребованный временем 2500
The Three Stars Each: The Astrolabes and Related Texts 1500
Les Mantodea de Guyane 1000
Very-high-order BVD Schemes Using β-variable THINC Method 970
Field Guide to Insects of South Africa 660
Foucault's Technologies Another Way of Cutting Reality 500
Forensic Chemistry 400
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 细胞生物学 免疫学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3393035
求助须知:如何正确求助?哪些是违规求助? 3003391
关于积分的说明 8809133
捐赠科研通 2690184
什么是DOI,文献DOI怎么找? 1473496
科研通“疑难数据库(出版商)”最低求助积分说明 681603
邀请新用户注册赠送积分活动 674534