已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

Vision Meets Language: Multimodal Transformers Elevating Predictive Power in Visual Question Answering

答疑 计算机科学 变压器 人工智能 自然语言处理 预测能力 工程类 电气工程 认识论 哲学 电压
作者
Sajidul Islam Khandaker,Tahmina Talukdar,Prima Sarker,Md Humaion Kabir Mehedi,Ehsanur Rahman Rhythm,Annajiat Alim Rasel
标识
DOI:10.1109/iccit60459.2023.10441514
摘要

Visual Question Answering (VQA) is a field where computer vision and natural language processing intersect to develop systems capable of comprehending visual information and answering natural language questions. In visual question answering , algorithms interpret real-world images in response to questions expressed in human language. Our paper presents an extensive experimental study on Visual Question Answering (VQA) using a diverse set of multimodal transformers. The VQA task requires systems to comprehend both visual content and natural language questions. To address this challenge, we explore the performance of various pre-trained transformer architectures for encoding questions, including BERT, RoBERTa, and ALBERT, as well as image transformers, such as ViT, DeiT, and BEiT, for encoding images. Multimodal transformers' smooth fusion of visual and text data promotes cross-modal understanding and strengthens reasoning skills. On benchmark datasets like the Visual Question Answering (VQA) v2.0 dataset, we rigorously test and fine-tune these models to assess their effectiveness and compare their performance to more conventional VQA methods. The results show that multimodal transformers significantly outperform traditional techniques in terms of performance. Additionally, the models' attention maps give users insights into how they make decisions, improving interpretability and comprehension. Because of their adaptability, the tested transformer topologies have the potential to be used in a wide range of VQA applications, such as robotics, healthcare, and assistive technology. This study demonstrates the effectiveness and promise of multimodal transformers as a method for improving the effectiveness of visual question-answering systems.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
qianzhihe完成签到,获得积分10
刚刚
静静呀完成签到 ,获得积分10
刚刚
四月的海棠完成签到 ,获得积分10
1秒前
FODCOC完成签到,获得积分10
2秒前
clcl完成签到,获得积分10
2秒前
明朗完成签到 ,获得积分10
2秒前
2秒前
顾矜应助lulu采纳,获得10
2秒前
4秒前
GGBond完成签到 ,获得积分10
4秒前
上上签关注了科研通微信公众号
5秒前
如意的手套完成签到,获得积分20
6秒前
anders完成签到 ,获得积分10
6秒前
violet完成签到 ,获得积分10
7秒前
cnuwxc完成签到,获得积分10
7秒前
EED完成签到 ,获得积分10
7秒前
8秒前
qiucheng1227完成签到,获得积分10
8秒前
Chaos完成签到 ,获得积分10
8秒前
Emiya发布了新的文献求助10
9秒前
万能图书馆应助夕楠枫采纳,获得10
9秒前
Yoo完成签到 ,获得积分10
10秒前
玻璃外的世界完成签到,获得积分10
10秒前
烂漫的新竹完成签到,获得积分10
10秒前
卧镁铀钳完成签到 ,获得积分10
11秒前
11秒前
luohao完成签到,获得积分10
11秒前
雾见春完成签到 ,获得积分10
12秒前
梁海萍发布了新的文献求助10
13秒前
暮色晚钟完成签到,获得积分10
13秒前
hjc完成签到,获得积分10
13秒前
王w完成签到 ,获得积分10
13秒前
hins完成签到 ,获得积分10
13秒前
康康XY完成签到 ,获得积分10
15秒前
16秒前
桥抱千嶂发布了新的文献求助10
17秒前
隐形曼青应助qiucheng1227采纳,获得10
17秒前
766465完成签到 ,获得积分0
18秒前
怕黑钢笔完成签到 ,获得积分10
18秒前
科研通AI6应助小池同学采纳,获得10
19秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Zeolites: From Fundamentals to Emerging Applications 1500
Encyclopedia of Materials: Plastics and Polymers 1000
Architectural Corrosion and Critical Infrastructure 1000
Early Devonian echinoderms from Victoria (Rhombifera, Blastoidea and Ophiocistioidea) 1000
Hidden Generalizations Phonological Opacity in Optimality Theory 1000
Handbook of Social and Emotional Learning, Second Edition 900
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 内科学 生物化学 物理 计算机科学 纳米技术 遗传学 基因 复合材料 化学工程 物理化学 病理 催化作用 免疫学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 4925461
求助须知:如何正确求助?哪些是违规求助? 4195826
关于积分的说明 13030926
捐赠科研通 3967287
什么是DOI,文献DOI怎么找? 2174555
邀请新用户注册赠送积分活动 1191821
关于科研通互助平台的介绍 1101483

今日热心研友

注:热心度 = 本日应助数 + 本日被采纳获取积分÷10