亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Context-Based Adaptive Multimodal Fusion Network for Continuous Frame-Level Sentiment Prediction

计算机科学 模式 情绪分析 背景(考古学) 人工智能 多模态 机器学习 帧(网络) 一致性(知识库) 语义学(计算机科学) 程序设计语言 电信 万维网 古生物学 生物 社会科学 社会学
作者
Maochun Huang,Chunmei Qing,Junpeng Tan,Xiangmin Xu
出处
期刊:IEEE/ACM transactions on audio, speech, and language processing [Institute of Electrical and Electronics Engineers]
卷期号:31: 3468-3477 被引量:10
标识
DOI:10.1109/taslp.2023.3321971
摘要

Recently, video sentiment computing has become the focus of research because of its benefits in many applications such as digital marketing, education, healthcare, and so on. The difficulty of video sentiment prediction mainly lies in the regression accuracy of long-term sequences and how to integrate different modalities. In particular, different modalities may express different emotions. In order to maintain the continuity of long time-series sentiments and mitigate the multimodal conflicts, this paper proposes a novel Context-Based Adaptive Multimodal Fusion Network (CAMFNet) for consecutive frame-level sentiment prediction. A Context-based Transformer (CBT) module was specifically designed to embed clip features into continuous frame features, leveraging its capability to enhance the consistency of prediction results. Moreover, to resolve the multi-modal conflict between modalities, this paper proposed an Adaptive multimodal fusion (AMF) method based on the self-attention mechanism. It can dynamically determines the degree of shared semantics across modalities, enabling the model to flexibly adapt its fusion strategy. Through adaptive fusion of multimodal features, the AMF method effectively resolves potential conflicts arising from diverse modalities, ultimately enhancing the overall performance of the model. The proposed CAMFNet for consecutive frame-level sentiment prediction can ensure the continuity of long time-series sentiments. Extensive experiments illustrate the superiority of the proposed method especially in multimodal conflicts videos.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
刚刚
shenxin完成签到,获得积分10
1秒前
孙意冉完成签到,获得积分10
2秒前
旨酒欣欣应助gravity采纳,获得10
2秒前
emo发布了新的文献求助10
3秒前
Monnine发布了新的文献求助10
3秒前
香蕉觅云应助QianYang采纳,获得10
9秒前
殷楷霖发布了新的文献求助10
11秒前
12秒前
若宫伊芙应助emo采纳,获得10
12秒前
JamesPei应助Monnine采纳,获得10
15秒前
墨绝完成签到,获得积分10
15秒前
木有完成签到 ,获得积分10
16秒前
17秒前
墨绝发布了新的文献求助10
18秒前
20秒前
刻苦小鸭子完成签到,获得积分10
25秒前
青柠发布了新的文献求助10
26秒前
26秒前
llyyzzl完成签到,获得积分20
26秒前
若宫伊芙应助青柠采纳,获得10
34秒前
34秒前
HHH完成签到 ,获得积分10
34秒前
linkman发布了新的文献求助50
34秒前
llyyzzl关注了科研通微信公众号
38秒前
39秒前
瑶瑶啊发布了新的文献求助10
44秒前
xpeng完成签到,获得积分10
44秒前
科研帽完成签到,获得积分10
45秒前
xdd完成签到 ,获得积分10
45秒前
qaxt完成签到,获得积分10
46秒前
ioii完成签到,获得积分10
46秒前
47秒前
Diane完成签到,获得积分10
48秒前
moyu123发布了新的文献求助10
51秒前
风中雁山发布了新的文献求助10
53秒前
桐桐应助yuyuyuyu采纳,获得10
54秒前
55秒前
若宫伊芙应助兜兜采纳,获得10
57秒前
58秒前
高分求助中
From Victimization to Aggression 10000
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Encyclopedia of Reproduction Third Edition 3000
Comprehensive Methanol Science Production, Applications, and Emerging Technologies 2000
化妆品原料学 1000
1st Edition Sports Rehabilitation and Training Multidisciplinary Perspectives By Richard Moss, Adam Gledhill 600
小学科学课程与教学 500
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5644412
求助须知:如何正确求助?哪些是违规求助? 4764051
关于积分的说明 15025013
捐赠科研通 4802816
什么是DOI,文献DOI怎么找? 2567616
邀请新用户注册赠送积分活动 1525332
关于科研通互助平台的介绍 1484790