亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter

杠杆(统计) 计算机科学 推论 语言理解 蒸馏 语言模型 计算 任务(项目管理) 代表(政治) 人工智能 边缘设备 机器学习 GSM演进的增强数据速率 自然语言处理 算法 工程类 云计算 有机化学 系统工程 政治 法学 政治学 操作系统 化学
作者
Victor Sanh,Lysandre Debut,Julien Chaumond,Thomas Wolf
出处
期刊:Cornell University - arXiv 被引量:4538
标识
DOI:10.48550/arxiv.1910.01108
摘要

As Transfer Learning from large-scale pre-trained models becomes more prevalent in Natural Language Processing (NLP), operating these large models in on-the-edge and/or under constrained computational training or inference budgets remains challenging. In this work, we propose a method to pre-train a smaller general-purpose language representation model, called DistilBERT, which can then be fine-tuned with good performances on a wide range of tasks like its larger counterparts. While most prior work investigated the use of distillation for building task-specific models, we leverage knowledge distillation during the pre-training phase and show that it is possible to reduce the size of a BERT model by 40%, while retaining 97% of its language understanding capabilities and being 60% faster. To leverage the inductive biases learned by larger models during pre-training, we introduce a triple loss combining language modeling, distillation and cosine-distance losses. Our smaller, faster and lighter model is cheaper to pre-train and we demonstrate its capabilities for on-device computations in a proof-of-concept experiment and a comparative on-device study.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
3秒前
6秒前
7秒前
李健应助优美紫槐采纳,获得10
9秒前
11秒前
15秒前
18秒前
五原日落发布了新的文献求助10
23秒前
Criminology34举报奋斗语柳求助涉嫌违规
28秒前
40秒前
40秒前
优美紫槐发布了新的文献求助10
44秒前
Criminology34举报高兴电脑求助涉嫌违规
48秒前
dida完成签到,获得积分10
56秒前
CipherSage应助lemon采纳,获得10
56秒前
陶醉的烤鸡完成签到 ,获得积分10
56秒前
56秒前
张子捷应助精明葶采纳,获得10
57秒前
1分钟前
菲1208完成签到,获得积分10
1分钟前
三三完成签到 ,获得积分0
1分钟前
rwq完成签到 ,获得积分10
1分钟前
慕青应助优美紫槐采纳,获得10
1分钟前
英姑应助11111采纳,获得10
1分钟前
刘瑞吉完成签到,获得积分10
1分钟前
666完成签到,获得积分20
1分钟前
1分钟前
向北游完成签到 ,获得积分10
1分钟前
1分钟前
大模型应助段dwh采纳,获得10
1分钟前
1分钟前
11111发布了新的文献求助10
1分钟前
1分钟前
归去来兮发布了新的文献求助10
1分钟前
1分钟前
英姑应助旺拽硫乃采纳,获得10
1分钟前
Cumin完成签到 ,获得积分10
1分钟前
量子星尘发布了新的文献求助10
1分钟前
段dwh发布了新的文献求助10
1分钟前
1分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Encyclopedia of Agriculture and Food Systems Third Edition 2000
Clinical Microbiology Procedures Handbook, Multi-Volume, 5th Edition 临床微生物学程序手册,多卷,第5版 2000
Les Mantodea de Guyane: Insecta, Polyneoptera [The Mantids of French Guiana] | NHBS Field Guides & Natural History 1500
The Victim–Offender Overlap During the Global Pandemic: A Comparative Study Across Western and Non-Western Countries 1000
King Tyrant 720
T/CIET 1631—2025《构网型柔性直流输电技术应用指南》 500
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5595661
求助须知:如何正确求助?哪些是违规求助? 4680904
关于积分的说明 14818037
捐赠科研通 4651473
什么是DOI,文献DOI怎么找? 2535551
邀请新用户注册赠送积分活动 1503527
关于科研通互助平台的介绍 1469754