DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter

杠杆(统计) 计算机科学 推论 语言理解 蒸馏 语言模型 计算 任务(项目管理) 代表(政治) 人工智能 边缘设备 机器学习 GSM演进的增强数据速率 自然语言处理 算法 工程类 云计算 有机化学 系统工程 政治 法学 政治学 操作系统 化学
作者
Victor Sanh,Lysandre Debut,Julien Chaumond,Alexander M. Rush
出处
期刊:Cornell University - arXiv 被引量:3817
标识
DOI:10.48550/arxiv.1910.01108
摘要

As Transfer Learning from large-scale pre-trained models becomes more prevalent in Natural Language Processing (NLP), operating these large models in on-the-edge and/or under constrained computational training or inference budgets remains challenging. In this work, we propose a method to pre-train a smaller general-purpose language representation model, called DistilBERT, which can then be fine-tuned with good performances on a wide range of tasks like its larger counterparts. While most prior work investigated the use of distillation for building task-specific models, we leverage knowledge distillation during the pre-training phase and show that it is possible to reduce the size of a BERT model by 40%, while retaining 97% of its language understanding capabilities and being 60% faster. To leverage the inductive biases learned by larger models during pre-training, we introduce a triple loss combining language modeling, distillation and cosine-distance losses. Our smaller, faster and lighter model is cheaper to pre-train and we demonstrate its capabilities for on-device computations in a proof-of-concept experiment and a comparative on-device study.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
做实验太菜完成签到,获得积分10
刚刚
SciGPT应助BaBa采纳,获得10
1秒前
2秒前
Gtingting关注了科研通微信公众号
3秒前
llll完成签到,获得积分10
3秒前
涨涨涨发布了新的文献求助10
4秒前
Galaxy完成签到,获得积分10
4秒前
英吉利25发布了新的文献求助10
6秒前
6秒前
8秒前
科研通AI2S应助凶狠的便当采纳,获得10
9秒前
华仔应助高工采纳,获得10
10秒前
11秒前
深情安青应助诸缘郡采纳,获得10
11秒前
11秒前
wyblobin完成签到,获得积分10
12秒前
努力学习完成签到,获得积分10
12秒前
BaBa发布了新的文献求助10
13秒前
13秒前
14秒前
14秒前
Wuc发布了新的文献求助10
14秒前
还没想好完成签到,获得积分10
16秒前
DaLu完成签到,获得积分10
18秒前
18秒前
19秒前
19秒前
lenon完成签到,获得积分10
19秒前
Gtingting发布了新的文献求助10
20秒前
研友_Zl1w68完成签到,获得积分20
20秒前
sumuuchen完成签到,获得积分20
20秒前
kathleen完成签到,获得积分10
20秒前
标致绮露完成签到,获得积分10
21秒前
luochen完成签到,获得积分10
21秒前
孙晓婷完成签到,获得积分10
21秒前
22秒前
hana完成签到 ,获得积分10
23秒前
24秒前
标致绮露发布了新的文献求助10
24秒前
橙子abcy完成签到,获得积分10
24秒前
高分求助中
A new approach to the extrapolation of accelerated life test data 1000
Cognitive Neuroscience: The Biology of the Mind 1000
Technical Brochure TB 814: LPIT applications in HV gas insulated switchgear 1000
Immigrant Incorporation in East Asian Democracies 600
Nucleophilic substitution in azasydnone-modified dinitroanisoles 500
不知道标题是什么 500
A Preliminary Study on Correlation Between Independent Components of Facial Thermal Images and Subjective Assessment of Chronic Stress 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 3966458
求助须知:如何正确求助?哪些是违规求助? 3511940
关于积分的说明 11161056
捐赠科研通 3246726
什么是DOI,文献DOI怎么找? 1793483
邀请新用户注册赠送积分活动 874465
科研通“疑难数据库(出版商)”最低求助积分说明 804403