DDK: Dynamic structure pruning based on differentiable search and recursive knowledge distillation for BERT

计算机科学 修剪 水准点(测量) 蒸馏 可微函数 加权 机器学习 人工智能 语言模型 比例(比率) 数学 地理 量子力学 放射科 有机化学 大地测量学 物理 数学分析 医学 生物 农学 化学
作者
Zhou Zhang,Yang Lu,Tengfei Wang,Xing Wei,Zhen Wei
出处
期刊:Neural Networks [Elsevier]
卷期号:173: 106164-106164 被引量:3
标识
DOI:10.1016/j.neunet.2024.106164
摘要

Large-scale pre-trained models, such as BERT, have demonstrated outstanding performance in Natural Language Processing (NLP). Nevertheless, the high number of parameters in these models has increased the demand for hardware storage and computational resources while posing a challenge for their practical deployment. In this article, we propose a combined method of model pruning and knowledge distillation to compress and accelerate large-scale pre-trained language models. Specifically, we introduce a dynamic structure pruning method based on differentiable search and recursive knowledge distillation to automatically prune the BERT model, named DDK. We define the search space for network pruning as all feed-forward layer channels and self-attention heads at each layer of the network, and utilize differentiable methods to determine their optimal number. Additionally, we design a recursive knowledge distillation method that employs adaptive weighting to extract the most important features from multiple intermediate layers of the teacher model and fuse them to supervise the student network learning. Our experimental results on the GLUE benchmark dataset and ablation analysis demonstrate that our proposed method outperforms other advanced methods in terms of average performance.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
Akim应助wf采纳,获得10
刚刚
sunsun10086完成签到 ,获得积分10
1秒前
琦琦完成签到 ,获得积分10
1秒前
1秒前
科目三应助xanderxue采纳,获得10
1秒前
1秒前
晶晶发布了新的文献求助10
1秒前
森森完成签到,获得积分10
2秒前
2秒前
Ava应助温暖的颜演采纳,获得10
2秒前
Ky_Mac应助Lee采纳,获得20
3秒前
ww发布了新的文献求助10
3秒前
3秒前
4秒前
抗氧剂完成签到,获得积分20
5秒前
直率的玉米完成签到 ,获得积分10
5秒前
英俊的铭应助ZMl采纳,获得10
5秒前
5秒前
爆米花应助wh雨采纳,获得10
5秒前
丘比特应助冷水鱼采纳,获得10
5秒前
LiZH完成签到,获得积分10
6秒前
7秒前
传奇3应助ivy采纳,获得10
7秒前
7秒前
Persepolis完成签到,获得积分10
7秒前
mm完成签到,获得积分10
8秒前
量子星尘发布了新的文献求助10
8秒前
小蘑菇应助sweettt3采纳,获得10
8秒前
10秒前
花粉过敏发布了新的文献求助10
10秒前
xianglinnnn完成签到,获得积分10
10秒前
陈2026完成签到,获得积分10
10秒前
xmj发布了新的文献求助10
10秒前
10秒前
善学以致用应助脆脆鲨采纳,获得10
10秒前
跳跃完成签到,获得积分10
10秒前
Wang完成签到,获得积分0
12秒前
12秒前
sssssss发布了新的文献求助10
12秒前
扶瑶可接发布了新的文献求助10
12秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
The Cambridge History of China: Volume 4, Sui and T'ang China, 589–906 AD, Part Two 1000
The Composition and Relative Chronology of Dynasties 16 and 17 in Egypt 1000
Russian Foreign Policy: Change and Continuity 800
Real World Research, 5th Edition 800
Qualitative Data Analysis with NVivo By Jenine Beekhuyzen, Pat Bazeley · 2024 800
Superabsorbent Polymers 700
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5710603
求助须知:如何正确求助?哪些是违规求助? 5199800
关于积分的说明 15261321
捐赠科研通 4863194
什么是DOI,文献DOI怎么找? 2610478
邀请新用户注册赠送积分活动 1560802
关于科研通互助平台的介绍 1518423