ESIE-BERT: Enriching sub-words information explicitly with BERT for intent classification and slot filling

计算机科学 安全性令牌 话语 语言模型 自然语言理解 人工智能 适配器(计算) 判决 F1得分 水准点(测量) 自然语言处理 机器学习 自然语言 计算机安全 大地测量学 地理 操作系统
作者
Yu Guo,Zhilong Xie,Xingyan Chen,Huangen Chen,Leilei Wang,Huaming Du,Shaopeng Wei,Yu Zhao,Qing Li,Gang Wu
出处
期刊:Neurocomputing [Elsevier]
卷期号:591: 127725-127725 被引量:2
标识
DOI:10.1016/j.neucom.2024.127725
摘要

Natural language understanding (NLU) has two core tasks: intent classification and slot filling. The success of pre-training language models resulted in a significant breakthrough in the two tasks. The architecture based on autoencoding (BERT-based model) can optimize the two tasks jointly. However, we note that BERT-based models convert each complex token into multiple sub-tokens by the Wordpiece algorithm, which generates an out-of-alignment between the lengths of the tokens and the labels. This leads to BERT-based models not performing well in label prediction, which limits the improvement of model performance. Many existing models can address this issue, but some hidden semantic information is discarded during the fine-tuning process. We addressed the problem by introducing a novel joint method on top of BERT. This method explicitly models multiple sub-token features after the Wordpiece tokenization, thereby contributing to both tasks. Our proposed method effectively extracts contextual features from complex tokens using the Sub-words Attention Adapter (SAA), preserving overall utterance information. Additionally, we propose an Intent Attention Adapter (IAA) to acquire comprehensive sentence features, assisting users in predicting intent. Experimental results confirm that our proposed model exhibits significant improvements on two public benchmark datasets. Specifically, the slot-filling F1 score improves from 96.5 to 98.2 (an absolute increase of 1.7%) on the Airline Travel Information Systems (ATIS) dataset.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
刚刚
好学者完成签到 ,获得积分10
1秒前
谨慎不二发布了新的文献求助10
6秒前
xiaojcom完成签到,获得积分10
7秒前
科研通AI2S应助科研通管家采纳,获得10
7秒前
biopig应助科研通管家采纳,获得10
7秒前
CodeCraft应助科研通管家采纳,获得10
7秒前
ss完成签到 ,获得积分20
11秒前
11秒前
蛋壳柯完成签到,获得积分10
11秒前
13秒前
13秒前
13秒前
14秒前
xubee完成签到,获得积分10
15秒前
qq完成签到,获得积分10
15秒前
谨慎不二完成签到,获得积分10
16秒前
乐乐应助jiangjiang采纳,获得10
17秒前
blossoms完成签到 ,获得积分10
17秒前
司南完成签到 ,获得积分10
18秒前
19秒前
athena发布了新的文献求助30
19秒前
小志呀发布了新的文献求助10
19秒前
19秒前
19秒前
学术大白完成签到 ,获得积分10
23秒前
24秒前
旦斯特尼发布了新的文献求助10
24秒前
彭云峰发布了新的文献求助10
25秒前
25秒前
jie完成签到 ,获得积分10
25秒前
25秒前
27秒前
娇咩咩发布了新的文献求助10
27秒前
英姑应助你命网友采纳,获得10
27秒前
29秒前
oboul发布了新的文献求助10
30秒前
30秒前
阿盛完成签到,获得积分10
30秒前
30秒前
高分求助中
Sustainability in Tides Chemistry 2800
The Young builders of New china : the visit of the delegation of the WFDY to the Chinese People's Republic 1000
Rechtsphilosophie 1000
Bayesian Models of Cognition:Reverse Engineering the Mind 888
Le dégorgement réflexe des Acridiens 800
Defense against predation 800
Very-high-order BVD Schemes Using β-variable THINC Method 568
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3134930
求助须知:如何正确求助?哪些是违规求助? 2785800
关于积分的说明 7774244
捐赠科研通 2441682
什么是DOI,文献DOI怎么找? 1298076
科研通“疑难数据库(出版商)”最低求助积分说明 625075
版权声明 600825