亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Cross-modal incongruity aligning and collaborating for multi-modal sarcasm detection

讽刺 计算机科学 保险丝(电气) 模态(人机交互) 人工智能 模式 情态动词 自编码 过程(计算) 自然语言处理 图像融合 机器学习 图像(数学) 深度学习 语言学 工程类 社会科学 讽刺 程序设计语言 高分子化学 化学 社会学 哲学 电气工程 操作系统
作者
Jie Wang,Yan Yang,Yongquan Jiang,Minbo Ma,Zhuyang Xie,Tianrui Li
出处
期刊:Information Fusion [Elsevier]
卷期号:103: 102132-102132 被引量:21
标识
DOI:10.1016/j.inffus.2023.102132
摘要

Sarcasm embodies a linguistic phenomenon that highlights a significant incongruity between the literal meanings of words and intended attitudes. With the proliferation of image–text content on social media, the task of multi-modal sarcasm detection (MSD) has gained considerable attention recently. Tremendous progress have been made in developing better MSD models, primarily relying on a straightforward extract-then-fuse paradigm. However, such a setting encounters two potential challenges. First, the utilization of separately pre-trained unimodal models for extracting visual and textual features frequently lacks the fundamental alignment capabilities required for effective multimodal data integration. Second, the detrimental modality gaps between vision and language make it challenging to comprehensively integrate multi-modal information solely via diverse cross-modal fusion techniques. Consequently, this poses a prominent challenge in further capturing cross-modal incongruity and improving the effectiveness of MSD. In this paper, we propose a Multi-modal Mutual Learning (MuMu) network to tackle these issues. Specifically, we initialize the MuMu network with image and text encoders from the large-scale Contrastive Language-Image Pretraining model to enhance the underlying image–text correspondence. Moreover, to improve the capability of capturing cross-modal inconsistency during the fusion process, we design an align-fuse-collaborate mechanism to align disparate modalities before fusion and enhance the collaborative modeling ability between the two modalities with mutual learning after fusion. The proposed MuMu achieves new state-of-the-art results on a public dataset, demonstrating a substantial improvement of approximately 3% to 9% in terms of accuracy, micro-F1, and macro-F1 scores.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
didi发布了新的文献求助10
5秒前
Cj完成签到 ,获得积分10
13秒前
lengzixing完成签到,获得积分10
21秒前
核潜艇很优秀完成签到 ,获得积分0
23秒前
23秒前
24秒前
左江夜渔人完成签到 ,获得积分10
25秒前
YUEER发布了新的文献求助30
30秒前
KJ完成签到,获得积分10
30秒前
科研通AI6.1应助Timon采纳,获得30
30秒前
37秒前
42秒前
Jasper应助镜缘采纳,获得10
46秒前
Timon发布了新的文献求助30
47秒前
didi完成签到,获得积分10
50秒前
52秒前
冷静新烟完成签到 ,获得积分10
54秒前
科研通AI2S应助小侯采纳,获得10
56秒前
华仔应助LKSkywalker采纳,获得10
59秒前
1分钟前
情怀应助科研通管家采纳,获得10
1分钟前
汉堡包应助小猫嘶嘶采纳,获得10
1分钟前
Wu完成签到,获得积分10
1分钟前
xzlijingjing完成签到 ,获得积分10
1分钟前
爆米花应助可乐采纳,获得10
1分钟前
1分钟前
1分钟前
1分钟前
镜缘发布了新的文献求助10
1分钟前
小猫嘶嘶发布了新的文献求助10
1分钟前
JamesPei应助E塔采纳,获得50
2分钟前
田様应助科研启动采纳,获得10
2分钟前
香蕉觅云应助镜缘采纳,获得10
2分钟前
小猫嘶嘶完成签到,获得积分20
2分钟前
可爱的函函应助奋斗的悦采纳,获得10
2分钟前
2分钟前
彭于晏应助神勇立果采纳,获得30
2分钟前
530发布了新的文献求助10
2分钟前
2分钟前
传奇3应助dut杜采纳,获得10
2分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Kinesiophobia : a new view of chronic pain behavior 2000
Psychology and Work Today 1000
Research for Social Workers 1000
Mastering New Drug Applications: A Step-by-Step Guide (Mastering the FDA Approval Process Book 1) 800
Signals, Systems, and Signal Processing 510
Discrete-Time Signals and Systems 510
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5900290
求助须知:如何正确求助?哪些是违规求助? 6737707
关于积分的说明 15745841
捐赠科研通 5023222
什么是DOI,文献DOI怎么找? 2704967
邀请新用户注册赠送积分活动 1652496
关于科研通互助平台的介绍 1599964