Reciprocal Teacher-Student Learning via Forward and Feedback Knowledge Distillation

计算机科学 互惠的 蒸馏 人机交互 多媒体 人工智能 哲学 语言学 化学 有机化学
作者
Jianmin Gou,Yu Chen,Baosheng Yu,Jinhua Liu,Lan Du,Shaohua Wan,Yi Zhang
出处
期刊:IEEE Transactions on Multimedia [Institute of Electrical and Electronics Engineers]
卷期号:26: 7901-7916 被引量:18
标识
DOI:10.1109/tmm.2024.3372833
摘要

Knowledge distillation (KD) is a prevalent model compression technique in deep learning, aiming to leverage knowledge from a large teacher model to enhance the training of a smaller student model. It has found success in deploying compact deep models in intelligent applications like intelligent transportation, smart health, and distributed intelligence. Current knowledge distillation methods primarily fall into two categories: offline and online knowledge distillation. Offline methods involve a one-way distillation process, transferring unvaried knowledge from teacher to student, while online methods enable the simultaneous training of multiple peer students. However, existing knowledge distillation methods often face challenges where the student may not fully comprehend the teacher's knowledge due to model capacity gaps, and there might be knowledge incongruence among outputs of multiple students without teacher guidance. To address these issues, we propose a novel reciprocal teacher-student learning inspired by human teaching and examining through forward and feedback knowledge distillation (FFKD). Forward knowledge distillation operates offline, while feedback knowledge distillation follows an online scheme. The rationale is that feedback knowledge distillation enables the pre-trained teacher model to receive feedback from students, allowing the teacher to refine its teaching strategies accordingly. To achieve this, we introduce a new weighting constraint to gauge the extent of students' understanding of the teacher's knowledge, which is then utilized to enhance teaching strategies. Experimental results on five visual recognition datasets demonstrate that the proposed FFKD outperforms current state-of-the-art knowledge distillation methods.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
科科通通完成签到,获得积分10
9秒前
欣欣子完成签到 ,获得积分10
14秒前
czzlancer完成签到,获得积分10
18秒前
hgl发布了新的文献求助20
21秒前
共享精神应助2333采纳,获得10
21秒前
名侦探柯基完成签到 ,获得积分10
24秒前
duxh123完成签到 ,获得积分10
34秒前
keke完成签到 ,获得积分10
40秒前
ChenYX完成签到 ,获得积分10
47秒前
海阔天空完成签到 ,获得积分10
47秒前
77完成签到 ,获得积分10
49秒前
墨墨完成签到 ,获得积分10
52秒前
20240901完成签到,获得积分10
55秒前
i2stay完成签到,获得积分10
56秒前
huanfid完成签到 ,获得积分10
1分钟前
一剑温柔完成签到 ,获得积分10
1分钟前
tinysweet完成签到,获得积分10
1分钟前
幽默的太阳完成签到 ,获得积分10
1分钟前
山山而川完成签到 ,获得积分10
1分钟前
yydsyyd完成签到 ,获得积分10
1分钟前
飘逸锦程完成签到 ,获得积分10
1分钟前
1分钟前
btcat完成签到,获得积分10
1分钟前
kingcoffee完成签到 ,获得积分10
1分钟前
Owen应助666采纳,获得20
1分钟前
李剑鸿发布了新的文献求助10
1分钟前
居居侠完成签到 ,获得积分10
1分钟前
耶耶喵喵完成签到 ,获得积分10
1分钟前
鹏虫虫完成签到 ,获得积分10
1分钟前
劉劉完成签到 ,获得积分10
1分钟前
科研通AI2S应助科研通管家采纳,获得10
1分钟前
科研通AI5应助科研通管家采纳,获得10
1分钟前
小二郎应助科研通管家采纳,获得10
1分钟前
虚心醉蝶完成签到 ,获得积分10
1分钟前
king完成签到,获得积分10
1分钟前
1分钟前
小太阳完成签到 ,获得积分10
2分钟前
666发布了新的文献求助20
2分钟前
研友Bn完成签到 ,获得积分10
2分钟前
幸福妙柏完成签到 ,获得积分10
2分钟前
高分求助中
Production Logging: Theoretical and Interpretive Elements 2700
Neuromuscular and Electrodiagnostic Medicine Board Review 1000
こんなに痛いのにどうして「なんでもない」と医者にいわれてしまうのでしょうか 510
The First Nuclear Era: The Life and Times of a Technological Fixer 500
岡本唐貴自伝的回想画集 500
Distinct Aggregation Behaviors and Rheological Responses of Two Terminally Functionalized Polyisoprenes with Different Quadruple Hydrogen Bonding Motifs 450
Ciprofol versus propofol for adult sedation in gastrointestinal endoscopic procedures: a systematic review and meta-analysis 400
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3671320
求助须知:如何正确求助?哪些是违规求助? 3228175
关于积分的说明 9778709
捐赠科研通 2938413
什么是DOI,文献DOI怎么找? 1610009
邀请新用户注册赠送积分活动 760503
科研通“疑难数据库(出版商)”最低求助积分说明 736020