已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

Knowledge distillation-driven semi-supervised multi-view classification

判别式 计算机科学 人工智能 机器学习 蒸馏 提取器 班级(哲学) 模式识别(心理学) 工艺工程 工程类 有机化学 化学
作者
Xiaoli Wang,Yongli Wang,Guanzhou Ke,Yupeng Wang,Xiaobin Hong
出处
期刊:Information Fusion [Elsevier BV]
卷期号:103: 102098-102098 被引量:22
标识
DOI:10.1016/j.inffus.2023.102098
摘要

Semi-supervised multi-view classification is a critical research topic that leverages the discrepancy between different views and limited annotated samples for pattern recognition in computer vision. However, it encounters a significant challenge: obtaining comprehensive discriminative representations with a scarcity of labeled samples. Although existing methods aim to learn discriminative features by fusing multi-view information, a significant challenge persists due to the difficulty of transferring complementary information and fusing multiple views with limited supervised information. In response to this challenge, this work introduces an innovative algorithm that integrates Self-Knowledge Distillation (Self-KD) to facilitate semi-supervised multi-view classification. Initially, we employ a view-specific feature extractor for each view to learn discriminative representations. Subsequently, we introduce a self-distillation module to drive information interaction across multiple views, enabling mutual learning and refinement of multi-view unified and specific representations. Moreover, we introduce a class-aware contrastive module to alleviate confirmation bias stemming from noise in the generated pseudo-labels during knowledge distillation. To the best of our knowledge, this is the first attempt to extend Self-KD to address semi-supervised multi-view classification problems. Extensive experimental results validate the efficiency of this approach in semi-supervised multi-view classification compared to existing state-of-the-art methods.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
明明发布了新的文献求助10
1秒前
Yas完成签到,获得积分10
1秒前
imbecile完成签到 ,获得积分10
2秒前
CodeCraft应助甜甜元柏采纳,获得10
2秒前
明子完成签到 ,获得积分10
2秒前
zkexuan发布了新的文献求助10
2秒前
传奇3应助3237507683采纳,获得10
4秒前
笨笨如之完成签到 ,获得积分10
4秒前
老黑完成签到,获得积分10
6秒前
8秒前
甜甜长颈鹿完成签到,获得积分10
9秒前
__完成签到,获得积分10
10秒前
10秒前
NexusExplorer应助科研通管家采纳,获得10
14秒前
14秒前
Akim应助泽泽采纳,获得10
15秒前
3237507683发布了新的文献求助10
15秒前
22秒前
泽泽完成签到,获得积分10
24秒前
qwq发布了新的文献求助10
24秒前
25秒前
甜甜元柏完成签到,获得积分20
25秒前
dongqulong完成签到 ,获得积分10
25秒前
在水一方应助小怪兽采纳,获得10
26秒前
w1x2123完成签到,获得积分0
27秒前
踏实青梦完成签到 ,获得积分10
27秒前
泽泽发布了新的文献求助10
28秒前
可可发布了新的文献求助10
28秒前
打打应助jitanxiang采纳,获得10
29秒前
小二郎应助缓慢的花生采纳,获得10
30秒前
FashionBoy应助缓慢的花生采纳,获得10
30秒前
30秒前
勤奋的溪流完成签到,获得积分10
32秒前
zkexuan完成签到,获得积分10
32秒前
南宇发布了新的文献求助10
36秒前
老年学术废物完成签到 ,获得积分10
36秒前
joyland完成签到,获得积分10
41秒前
思源应助可可采纳,获得10
47秒前
3237507683完成签到,获得积分10
48秒前
结实寒风完成签到,获得积分10
49秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
PowerCascade: A Synthetic Dataset for Cascading Failure Analysis in Power Systems 2000
Various Faces of Animal Metaphor in English and Polish 800
The SAGE Dictionary of Qualitative Inquiry 610
Signals, Systems, and Signal Processing 610
On the Dragon Seas, a sailor's adventures in the far east 500
Yangtze Reminiscences. Some Notes And Recollections Of Service With The China Navigation Company Ltd., 1925-1939 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6344488
求助须知:如何正确求助?哪些是违规求助? 8159283
关于积分的说明 17156243
捐赠科研通 5400524
什么是DOI,文献DOI怎么找? 2860547
邀请新用户注册赠送积分活动 1838420
关于科研通互助平台的介绍 1687965