标题 |
Explanation Guided Knowledge Distillation for Pre-trained Language Model Compression
用于预训练语言模型压缩的解释引导知识提取
相关领域
蒸馏
压缩(物理)
计算机科学
自然语言处理
语言模型
人工智能
化学
材料科学
色谱法
复合材料
|
网址 | |
DOI | |
其它 |
期刊:ACM transactions on Asian and low-resource language information processing 作者:Zhao Yang; Yuanzhe Zhang; Dianbo Sui; Yiming Ju; Jun Zhao; et al 出版日期:2024-02-08 |
求助人 | |
下载 | 该求助完结已超 24 小时,文件已从服务器自动删除,无法下载。 |
温馨提示:该文献已被科研通 学术中心 收录,前往查看
科研通『学术中心』是文献索引库,收集文献的基本信息(如标题、摘要、期刊、作者、被引量等),不提供下载功能。如需下载文献全文,请通过文献求助获取。
|