Multi-perspective analysis on data augmentation in knowledge distillation

透视图(图形) 蒸馏 计算机科学 人工智能 工艺工程 数据挖掘 生化工程 色谱法 化学 工程类
作者
Wei Li,Shitong Shao,Ziming Qiu,Aiguo Song
出处
期刊:Neurocomputing [Elsevier BV]
卷期号:583: 127516-127516
标识
DOI:10.1016/j.neucom.2024.127516
摘要

Knowledge distillation stands as a capable technique for transferring knowledge from a larger to a smaller model, thereby notably enhancing the smaller model's performance. In the recent past, data augmentation has been employed in contrastive learning based knowledge distillation techniques yielding superior results. Despite the significant role of data augmentation, its value remains underappreciated within the domain of knowledge distillation, with no in-depth analysis in the literature thus far. To make up for this oversight, we conduct a multi-perspective theoretical and experimental analysis on the role that data augmentation can play in knowledge distillation. We summarize the properties of data augmentation and list the core findings as follows. (a) Our investigations validate that data augmentation significantly boosts the performance of knowledge distillation on the tasks of image classification and object detection. And this holds true even if the teacher model lacks comprehensive information about the augmented samples. Moreover, our novel Joint Data Augmentation (JDA) approach outperforms single data augmentation in knowledge distillation. (b) The pivotal role of data augmentation in knowledge distillation can be theoretically explained via Sharpness-Aware Minimization. (c) The compatibility of data augmentation with various knowledge distillation methods can enhance their performance. In light of these observations, we propose a new method called Cosine Confidence Distillation (CCD) for more reasonable knowledge transfer from augmented samples. Experimental results not only demonstrate that CCD becomes the state-of-the-art method with less storage requirement on CIFAR-100 and ImageNet-1k, but also validate the superiority of CCD over DIST on the object detection benchmark dataset, MS-COCO.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
爆米花完成签到,获得积分10
1秒前
务实土豆完成签到 ,获得积分10
2秒前
Shanglinqin完成签到,获得积分10
3秒前
田様应助科研通管家采纳,获得10
3秒前
科研通AI2S应助科研通管家采纳,获得10
3秒前
顾矜应助科研通管家采纳,获得10
3秒前
升学顺利身体健康完成签到,获得积分10
3秒前
jia完成签到,获得积分10
5秒前
5秒前
lzy完成签到,获得积分10
5秒前
善良的疯丫头完成签到,获得积分10
6秒前
6秒前
bigpluto完成签到,获得积分10
7秒前
v3688e完成签到,获得积分10
8秒前
可可完成签到 ,获得积分10
8秒前
帅气的听白完成签到 ,获得积分10
10秒前
TUTU发布了新的文献求助15
10秒前
韭黄发布了新的文献求助10
10秒前
zhuboujs完成签到,获得积分10
12秒前
种田完成签到,获得积分10
13秒前
冯博伦完成签到,获得积分10
14秒前
xiaofenzi完成签到,获得积分10
15秒前
英姑应助韭黄采纳,获得10
16秒前
Wu完成签到,获得积分10
18秒前
充电宝应助陆汲采纳,获得10
20秒前
赵亚南完成签到,获得积分10
21秒前
一屿完成签到,获得积分10
22秒前
天明完成签到,获得积分10
24秒前
韭黄完成签到,获得积分20
25秒前
小韩完成签到,获得积分10
26秒前
米奇完成签到 ,获得积分10
26秒前
蕉鲁诺蕉巴纳完成签到,获得积分0
29秒前
29秒前
姜姜完成签到,获得积分10
29秒前
yuli完成签到 ,获得积分10
31秒前
31秒前
lql完成签到 ,获得积分10
31秒前
ruixuekuangben完成签到,获得积分0
32秒前
WCheng完成签到,获得积分10
32秒前
xuhang完成签到,获得积分10
32秒前
高分求助中
こんなに痛いのにどうして「なんでもない」と医者にいわれてしまうのでしょうか 510
Seven new species of the Palaearctic Lauxaniidae and Asteiidae (Diptera) 400
Where and how to use plate heat exchangers 350
Handbook of Laboratory Animal Science 300
Fundamentals of Medical Device Regulations, Fifth Edition(e-book) 300
A method for calculating the flow in a centrifugal impeller when entropy gradients are present 240
《上海道契1-30卷(1847—1911)》 200
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 物理 生物化学 纳米技术 计算机科学 化学工程 内科学 复合材料 物理化学 电极 遗传学 量子力学 基因 冶金 催化作用
热门帖子
关注 科研通微信公众号,转发送积分 3705071
求助须知:如何正确求助?哪些是违规求助? 3254423
关于积分的说明 9888715
捐赠科研通 2966189
什么是DOI,文献DOI怎么找? 1626821
邀请新用户注册赠送积分活动 771164
科研通“疑难数据库(出版商)”最低求助积分说明 743190