DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter

杠杆(统计) 计算机科学 推论 语言理解 蒸馏 语言模型 计算 任务(项目管理) 代表(政治) 人工智能 边缘设备 机器学习 GSM演进的增强数据速率 自然语言处理 算法 工程类 云计算 有机化学 系统工程 政治 法学 政治学 操作系统 化学
作者
Victor Sanh,Lysandre Debut,Julien Chaumond,Thomas Wolf
出处
期刊:Cornell University - arXiv 被引量:4538
标识
DOI:10.48550/arxiv.1910.01108
摘要

As Transfer Learning from large-scale pre-trained models becomes more prevalent in Natural Language Processing (NLP), operating these large models in on-the-edge and/or under constrained computational training or inference budgets remains challenging. In this work, we propose a method to pre-train a smaller general-purpose language representation model, called DistilBERT, which can then be fine-tuned with good performances on a wide range of tasks like its larger counterparts. While most prior work investigated the use of distillation for building task-specific models, we leverage knowledge distillation during the pre-training phase and show that it is possible to reduce the size of a BERT model by 40%, while retaining 97% of its language understanding capabilities and being 60% faster. To leverage the inductive biases learned by larger models during pre-training, we introduce a triple loss combining language modeling, distillation and cosine-distance losses. Our smaller, faster and lighter model is cheaper to pre-train and we demonstrate its capabilities for on-device computations in a proof-of-concept experiment and a comparative on-device study.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
昭奚发布了新的文献求助10
1秒前
Hello应助小启采纳,获得10
1秒前
hulian发布了新的文献求助10
1秒前
1秒前
2秒前
2秒前
2秒前
illi发布了新的文献求助10
2秒前
我来也完成签到 ,获得积分10
3秒前
ccqy完成签到,获得积分10
3秒前
4秒前
烟雨醉巷完成签到 ,获得积分10
5秒前
6秒前
洪都百岁山完成签到,获得积分10
6秒前
7秒前
fiife应助生动凝旋采纳,获得10
7秒前
JamesPei应助豆沙包采纳,获得10
7秒前
8秒前
9秒前
苏落凡完成签到,获得积分10
11秒前
NexusExplorer应助年轻的丹亦采纳,获得10
12秒前
12秒前
激动的严青完成签到,获得积分10
13秒前
研友_VZG7GZ应助粗暴的大门采纳,获得10
13秒前
14秒前
西瑾凉应助粥粥采纳,获得50
14秒前
14秒前
17秒前
wenwenzi完成签到,获得积分10
18秒前
18秒前
CCCcc完成签到,获得积分10
18秒前
胖头鱼完成签到 ,获得积分10
18秒前
hydroxyl发布了新的文献求助10
19秒前
豆沙包发布了新的文献求助10
19秒前
21秒前
犹豫依丝完成签到,获得积分10
21秒前
我我我发布了新的文献求助100
22秒前
卿霜完成签到 ,获得积分10
24秒前
24秒前
24秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Clinical Microbiology Procedures Handbook, Multi-Volume, 5th Edition 临床微生物学程序手册,多卷,第5版 2000
List of 1,091 Public Pension Profiles by Region 1621
Les Mantodea de Guyane: Insecta, Polyneoptera [The Mantids of French Guiana] | NHBS Field Guides & Natural History 1500
The Victim–Offender Overlap During the Global Pandemic: A Comparative Study Across Western and Non-Western Countries 1000
King Tyrant 720
T/CIET 1631—2025《构网型柔性直流输电技术应用指南》 500
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5589919
求助须知:如何正确求助?哪些是违规求助? 4674386
关于积分的说明 14793761
捐赠科研通 4629344
什么是DOI,文献DOI怎么找? 2532468
邀请新用户注册赠送积分活动 1501123
关于科研通互助平台的介绍 1468527