Attribute-Guided Cross-Modal Interaction and Enhancement for Audio-Visual Matching

计算机科学 匹配(统计) 水准点(测量) 特征(语言学) 情态动词 人工智能 嵌入 模式识别(心理学) 相似性(几何) 特征提取 图像(数学) 统计 化学 数学 高分子化学 语言学 哲学 大地测量学 地理
作者
Jiaxiang Wang,Aihua Zheng,Yan Yan,Ran He,Jin Tang
出处
期刊:IEEE Transactions on Information Forensics and Security [Institute of Electrical and Electronics Engineers]
卷期号:19: 4986-4998 被引量:8
标识
DOI:10.1109/tifs.2024.3388949
摘要

Audio-visual matching is an essential task that measures the correlation between audio clips and visual images. However, current methods rely solely on the joint embedding of global features from audio clips and face image pairs to learn semantic correlations. This approach overlooks the importance of high-confidence correlations and discrepancies of local subtle features, which are crucial for cross-modal matching. To address this issue, we propose a novel Attribute-guided Cross-modal Interaction and Enhancement Network (ACIENet), which employs multiple attributes to explore the associations of different key local subtle features. The ACIENet contains two novel modules: the Attribute-guided Interaction (AGI) module and the Attribute-guided Enhancement (AGE) module. The AGI module employs global feature alignment similarity to guide cross-modal local feature interactions, which enhances cross-modal association features for the same identity and expands cross-modal distinctive features for different identities. Additionally, the interactive features and original features are fused to ensure intra-class discriminability and inter-class correspondence. The AGE module captures subtle attribute-related features by using an attribute-driven network, thereby enhancing discrimination at the attribute level. Specifically, it strengthens the combined attribute-related features of gender and nationality. To prevent interference between multiple attribute features, we design a multi-attribute learning network as a parallel framework. Experiments conducted on a public benchmark dataset demonstrate the efficacy of the ACIENet method in different scenarios. Code and models are available at https://github.com/w1018979952/ACIENet.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
林JJ的小可爱完成签到,获得积分10
刚刚
xfy应助濮阳冰海采纳,获得10
刚刚
等待的谷波完成签到 ,获得积分10
4秒前
齐欢完成签到,获得积分10
6秒前
8秒前
爱学习的小李完成签到 ,获得积分10
8秒前
LionontheMars完成签到,获得积分10
8秒前
小牛完成签到,获得积分10
11秒前
小小鱼儿完成签到,获得积分10
12秒前
You完成签到,获得积分10
13秒前
顾矜应助printzhao采纳,获得100
13秒前
15秒前
Yaon-Xu发布了新的文献求助30
15秒前
yyn完成签到,获得积分10
16秒前
李冰完成签到,获得积分10
18秒前
科研通AI6.1应助小刘采纳,获得10
19秒前
Yaon-Xu完成签到,获得积分10
21秒前
十二完成签到 ,获得积分10
21秒前
果冻完成签到,获得积分10
22秒前
研友_LN3xyn完成签到,获得积分10
22秒前
22秒前
张路完成签到 ,获得积分10
22秒前
等乙天发布了新的文献求助10
24秒前
cathyliu完成签到,获得积分10
24秒前
脑洞疼应助胡胡嘉嘉磊磊采纳,获得10
25秒前
惜缘完成签到 ,获得积分10
26秒前
魔法披风完成签到,获得积分10
27秒前
dadaup完成签到 ,获得积分10
27秒前
27秒前
27秒前
27秒前
文乐完成签到,获得积分10
27秒前
crz完成签到,获得积分10
27秒前
guangshuang发布了新的文献求助10
28秒前
激昂的如柏完成签到,获得积分10
28秒前
农夫三拳完成签到,获得积分10
28秒前
yangxt-iga完成签到,获得积分20
29秒前
swallow完成签到,获得积分10
29秒前
范白容完成签到 ,获得积分0
29秒前
清秀的砖头完成签到,获得积分10
31秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Modern Epidemiology, Fourth Edition 5000
Handbook of pharmaceutical excipients, Ninth edition 5000
Digital Twins of Advanced Materials Processing 2000
Weaponeering, Fourth Edition – Two Volume SET 2000
Polymorphism and polytypism in crystals 1000
Social Cognition: Understanding People and Events 800
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 纳米技术 有机化学 物理 生物化学 化学工程 计算机科学 复合材料 内科学 催化作用 光电子学 物理化学 电极 冶金 遗传学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 6028609
求助须知:如何正确求助?哪些是违规求助? 7693681
关于积分的说明 16187150
捐赠科研通 5175832
什么是DOI,文献DOI怎么找? 2769768
邀请新用户注册赠送积分活动 1753163
关于科研通互助平台的介绍 1638963