标题 |
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
Transformer model-XL:超越固定长度语境的注意语言模型
相关领域
困惑
计算机科学
语言模型
变压器
人工智能
超参数
树库
自然语言处理
依赖关系(UML)
工程类
电气工程
电压
|
网址 | |
DOI | |
其它 |
期刊:Cornell University - arXiv 作者:Zihang Dai; Zhilin Yang; Yiming Yang; Jaime Carbonell; Quoc V. Le; et al 出版日期:2019-01-01 |
求助人 | |
下载 | 求助已完成,仅限求助人下载。 |
温馨提示:该文献已被科研通 学术中心 收录,前往查看
科研通『学术中心』是文献索引库,收集文献的基本信息(如标题、摘要、期刊、作者、被引量等),不提供下载功能。如需下载文献全文,请通过文献求助获取。
|