Learnable Cross-modal Knowledge Distillation for Multi-modal Learning with Missing Modality

模式 模态(人机交互) 计算机科学 情态动词 人工智能 特征(语言学) 机器学习 任务(项目管理) 分割 代表(政治) 自然语言处理 模式识别(心理学) 高分子化学 社会科学 语言学 化学 哲学 管理 社会学 政治 政治学 法学 经济
作者
Hu Wang,Congbo Ma,Jianpeng Zhang,Yuan Zhang,Jodie Avery,M. Louise Hull,Gustavo Carneiro
出处
期刊:Lecture Notes in Computer Science 卷期号:: 216-226 被引量:6
标识
DOI:10.1007/978-3-031-43901-8_21
摘要

The problem of missing modalities is both critical and non-trivial to be handled in multi-modal models. It is common for multi-modal tasks that certain modalities contribute more compared to other modalities, and if those important modalities are missing, the model performance drops significantly. Such fact remains unexplored by current multi-modal approaches that recover the representation from missing modalities by feature reconstruction or blind feature aggregation from other modalities, instead of extracting useful information from the best performing modalities. In this paper, we propose a Learnable Cross-modal Knowledge Distillation (LCKD) model to adaptively identify important modalities and distil knowledge from them to help other modalities from the cross-modal perspective for solving the missing modality issue. Our approach introduces a teacher election procedure to select the most "qualified" teachers based on their single modality performance on certain tasks. Then, cross-modal knowledge distillation is performed between teacher and student modalities for each task to push the model parameters to a point that is beneficial for all tasks. Hence, even if the teacher modalities for certain tasks are missing during testing, the available student modalities can accomplish the task well enough based on the learned knowledge from their automatically elected teacher modalities. Experiments on the Brain Tumour Segmentation Dataset 2018 (BraTS2018) shows that LCKD outperforms other methods by a considerable margin, improving the state-of-the-art performance by 3.61% for enhancing tumour, 5.99% for tumour core, and 3.76% for whole tumour in terms of segmentation Dice score.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
1秒前
1秒前
苗条的凝雁完成签到,获得积分10
1秒前
1秒前
完美世界应助zxvcbnm采纳,获得10
1秒前
yry完成签到,获得积分10
2秒前
顾矜应助木村拓哉采纳,获得10
2秒前
Hh发布了新的文献求助10
2秒前
科研通AI2S应助豆子采纳,获得10
3秒前
chup发布了新的文献求助10
3秒前
3秒前
荔枝凉完成签到,获得积分10
3秒前
666关注了科研通微信公众号
4秒前
asjdia123发布了新的文献求助10
4秒前
大方芾完成签到,获得积分20
4秒前
Crw__发布了新的文献求助10
5秒前
5秒前
所所应助孙小猪采纳,获得10
5秒前
善学以致用应助北雨采纳,获得10
5秒前
SaSa发布了新的文献求助10
5秒前
zhizhaomai发布了新的文献求助10
5秒前
隐形曼青应助Liu1YT采纳,获得10
6秒前
徐老师关注了科研通微信公众号
7秒前
欣欣完成签到 ,获得积分10
7秒前
二胡完成签到,获得积分10
7秒前
情怀应助real采纳,获得10
8秒前
阿巴阿巴完成签到,获得积分10
8秒前
辣鸡小王完成签到,获得积分10
8秒前
猫大熊完成签到,获得积分10
8秒前
大林子完成签到 ,获得积分10
9秒前
我爱乒乓球完成签到,获得积分10
10秒前
10秒前
10秒前
chup完成签到,获得积分10
10秒前
大模型应助衰锅儿采纳,获得10
10秒前
11秒前
许可完成签到,获得积分10
11秒前
英俊的念寒完成签到,获得积分10
11秒前
含蓄的花生完成签到,获得积分10
12秒前
CucRuotThua完成签到,获得积分10
12秒前
高分求助中
Evolution 10000
Sustainability in Tides Chemistry 2800
юрские динозавры восточного забайкалья 800
English Wealden Fossils 700
A new species of Coccus (Homoptera: Coccoidea) from Malawi 500
A new species of Velataspis (Hemiptera Coccoidea Diaspididae) from tea in Assam 500
Diagnostic immunohistochemistry : theranostic and genomic applications 6th Edition 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3156157
求助须知:如何正确求助?哪些是违规求助? 2807647
关于积分的说明 7873898
捐赠科研通 2465881
什么是DOI,文献DOI怎么找? 1312484
科研通“疑难数据库(出版商)”最低求助积分说明 630109
版权声明 601905