已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

Explanation Guided Knowledge Distillation for Pre-trained Language Model Compression

蒸馏 压缩(物理) 计算机科学 自然语言处理 语言模型 人工智能 化学 材料科学 色谱法 复合材料
作者
Zhao Yang,Yuanzhe Zhang,Dianbo Sui,Yiming Ju,Jun Zhao,Kang Liu
出处
期刊:ACM Transactions on Asian and Low-Resource Language Information Processing 卷期号:23 (2): 1-19
标识
DOI:10.1145/3639364
摘要

Knowledge distillation is widely used in pre-trained language model compression, which can transfer knowledge from a cumbersome model to a lightweight one. Though knowledge distillation based model compression has achieved promising performance, we observe that explanations between the teacher model and the student model are not consistent. We argue that the student model should study not only the predictions of the teacher model but also the internal reasoning process. To this end, we propose Explanation Guided Knowledge Distillation (EGKD) in this article, which utilizes explanations to represent the thinking process and improve knowledge distillation. To obtain explanations in our distillation framework, we select three typical explanation methods rooted in different mechanisms, namely gradient-based , perturbation-based , and feature selection methods. Then, to improve computational efficiency, we propose different optimization strategies to utilize the explanations obtained by these three different explanation methods, which could provide the student model with better learning guidance. Experimental results on GLUE demonstrate that leveraging explanations can improve the performance of the student model. Moreover, our EGKD could also be applied to model compression with different architectures.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
4秒前
Cecilia完成签到,获得积分10
5秒前
5秒前
and999发布了新的文献求助10
6秒前
10秒前
10秒前
千柳发布了新的文献求助20
10秒前
xiong发布了新的文献求助10
10秒前
djbj2022发布了新的文献求助10
13秒前
14秒前
14秒前
传奇3应助南部之星琪采纳,获得10
14秒前
xiaoran发布了新的文献求助10
14秒前
19秒前
火星野花发布了新的文献求助10
19秒前
个性的紫菜应助xiong采纳,获得10
21秒前
未来可期完成签到,获得积分10
21秒前
直率心锁完成签到,获得积分10
21秒前
今后应助单纯的雅香采纳,获得10
21秒前
22秒前
23秒前
华仔应助千柳采纳,获得30
26秒前
善学以致用应助tomboy采纳,获得10
27秒前
orixero应助南部之星琪采纳,获得10
27秒前
29秒前
打打应助Hippocampus采纳,获得10
29秒前
29秒前
老中医发布了新的文献求助10
30秒前
轩轩完成签到 ,获得积分20
32秒前
34秒前
34秒前
34秒前
38秒前
略略略发布了新的文献求助10
39秒前
39秒前
39秒前
隐形迎丝完成签到,获得积分10
39秒前
40秒前
领导范儿应助阿飞采纳,获得10
43秒前
平淡扬发布了新的文献求助10
44秒前
高分求助中
Evolution 10000
Sustainability in Tides Chemistry 2800
The Young builders of New china : the visit of the delegation of the WFDY to the Chinese People's Republic 1000
юрские динозавры восточного забайкалья 800
English Wealden Fossils 700
Foreign Policy of the French Second Empire: A Bibliography 500
Chen Hansheng: China’s Last Romantic Revolutionary 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3146409
求助须知:如何正确求助?哪些是违规求助? 2797811
关于积分的说明 7825638
捐赠科研通 2454147
什么是DOI,文献DOI怎么找? 1306157
科研通“疑难数据库(出版商)”最低求助积分说明 627642
版权声明 601503