已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

MultiModN- Multimodal, Multi-Task, Interpretable Modular Networks

计算机科学 人工智能 可解释性 稳健性(进化) 机器学习 模块化设计 任务(项目管理) 特征(语言学) 概率逻辑 基因 操作系统 生物化学 哲学 经济 化学 管理 语言学
作者
Vinitra Swamy,Malika Satayeva,Jibril Frej,Thierry Bossy,Thijs Vogels,Martin Jäggi,Tanja Käser,Mary-Anne Hartley
出处
期刊:Cornell University - arXiv
标识
DOI:10.48550/arxiv.2309.14118
摘要

Predicting multiple real-world tasks in a single model often requires a particularly diverse feature space. Multimodal (MM) models aim to extract the synergistic predictive potential of multiple data types to create a shared feature space with aligned semantic meaning across inputs of drastically varying sizes (i.e. images, text, sound). Most current MM architectures fuse these representations in parallel, which not only limits their interpretability but also creates a dependency on modality availability. We present MultiModN, a multimodal, modular network that fuses latent representations in a sequence of any number, combination, or type of modality while providing granular real-time predictive feedback on any number or combination of predictive tasks. MultiModN's composable pipeline is interpretable-by-design, as well as innately multi-task and robust to the fundamental issue of biased missingness. We perform four experiments on several benchmark MM datasets across 10 real-world tasks (predicting medical diagnoses, academic performance, and weather), and show that MultiModN's sequential MM fusion does not compromise performance compared with a baseline of parallel fusion. By simulating the challenging bias of missing not-at-random (MNAR), this work shows that, contrary to MultiModN, parallel fusion baselines erroneously learn MNAR and suffer catastrophic failure when faced with different patterns of MNAR at inference. To the best of our knowledge, this is the first inherently MNAR-resistant approach to MM modeling. In conclusion, MultiModN provides granular insights, robustness, and flexibility without compromising performance.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
孤独的以菱完成签到 ,获得积分10
2秒前
一只快乐的小比熊完成签到 ,获得积分10
2秒前
111发布了新的文献求助10
2秒前
4114发布了新的文献求助10
5秒前
wx发布了新的文献求助10
5秒前
6秒前
叮当完成签到,获得积分10
7秒前
huangfan完成签到,获得积分20
8秒前
Laraineww完成签到 ,获得积分10
9秒前
风清扬发布了新的文献求助10
9秒前
ILS发布了新的文献求助30
10秒前
科研通AI2S应助科研通管家采纳,获得10
10秒前
大模型应助科研通管家采纳,获得10
10秒前
科目三应助科研通管家采纳,获得10
10秒前
完美世界应助科研通管家采纳,获得10
10秒前
情怀应助科研通管家采纳,获得10
10秒前
FashionBoy应助科研通管家采纳,获得10
10秒前
CodeCraft应助科研通管家采纳,获得10
11秒前
LPPQBB应助科研通管家采纳,获得50
11秒前
科研通AI6应助科研通管家采纳,获得10
11秒前
11秒前
科研通AI6应助科研通管家采纳,获得10
11秒前
LPPQBB应助科研通管家采纳,获得50
11秒前
科目三应助科研通管家采纳,获得10
11秒前
CipherSage应助科研通管家采纳,获得30
11秒前
共享精神应助科研通管家采纳,获得10
11秒前
11秒前
12秒前
BUlKY完成签到 ,获得积分10
12秒前
隐形大米完成签到 ,获得积分10
14秒前
Jonathan发布了新的文献求助10
16秒前
17秒前
19秒前
19秒前
21秒前
ccl发布了新的文献求助10
22秒前
浮游应助过了年我就四岁采纳,获得10
24秒前
wop111发布了新的文献求助10
24秒前
myz发布了新的文献求助10
24秒前
25秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Bandwidth Choice for Bias Estimators in Dynamic Nonlinear Panel Models 2000
HIGH DYNAMIC RANGE CMOS IMAGE SENSORS FOR LOW LIGHT APPLICATIONS 1500
Constitutional and Administrative Law 1000
The Social Work Ethics Casebook: Cases and Commentary (revised 2nd ed.). Frederic G. Reamer 800
Vertébrés continentaux du Crétacé supérieur de Provence (Sud-Est de la France) 600
Vertebrate Palaeontology, 5th Edition 530
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 遗传学 催化作用 冶金 量子力学 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 5355997
求助须知:如何正确求助?哪些是违规求助? 4487796
关于积分的说明 13971120
捐赠科研通 4388602
什么是DOI,文献DOI怎么找? 2411155
邀请新用户注册赠送积分活动 1403696
关于科研通互助平台的介绍 1377356