亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

An empirical evaluation of attention-based multi-head models for improved turbofan engine remaining useful life prediction

计算机科学 水准点(测量) 感知器 人工智能 机器学习 背景(考古学) 网络体系结构 多任务学习 人工神经网络 任务(项目管理) 工程类 古生物学 生物 系统工程 地理 计算机安全 大地测量学
作者
Abiodun Ayodeji,Wenhai Wang,Jianzhong Su,Jianquan Yuan,Xinggao Liu
出处
期刊:Cornell University - arXiv 被引量:3
标识
DOI:10.48550/arxiv.2109.01761
摘要

A single unit (head) is the conventional input feature extractor in deep learning architectures trained on multivariate time series signals. The importance of the fixed-dimensional vector representation generated by the single-head network has been demonstrated for industrial machinery condition monitoring and predictive maintenance. However, processing heterogeneous sensor signals with a single-head may result in a model that cannot explicitly account for the diversity in time-varying multivariate inputs. This work extends the conventional single-head deep learning models to a more robust form by developing context-specific heads to independently capture the inherent pattern in each sensor reading. Using the turbofan aircraft engine benchmark dataset (CMAPSS), an extensive experiment is performed to verify the effectiveness and benefits of multi-head multilayer perceptron, recurrent networks, convolution network, the transformer-style stand-alone attention network, and their variants for remaining useful life estimation. Moreover, the effect of different attention mechanisms on the multi-head models is also evaluated. In addition, each architecture's relative advantage and computational overhead are analyzed. Results show that utilizing the attention layer is task-sensitive and model dependent, as it does not provide consistent improvement across the models investigated. The best model is further compared with five state-of-the-art models, and the comparison shows that a relatively simple multi-head architecture performs better than the state-of-the-art models. The results presented in this study demonstrate the importance of multi-head models and attention mechanisms to an improved understanding of the remaining useful life of industrial assets.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
37秒前
肥皂剧发布了新的文献求助10
42秒前
1分钟前
脑洞疼应助皮鲂采纳,获得10
2分钟前
科研狗完成签到 ,获得积分10
2分钟前
huangbs完成签到,获得积分10
2分钟前
3分钟前
皮鲂发布了新的文献求助10
3分钟前
共享精神应助皮鲂采纳,获得10
3分钟前
皮鲂完成签到,获得积分10
3分钟前
感动初蓝完成签到 ,获得积分10
3分钟前
SciGPT应助云骥采纳,获得10
4分钟前
4分钟前
hizj发布了新的文献求助10
4分钟前
4分钟前
云骥发布了新的文献求助10
4分钟前
科研通AI2S应助科研通管家采纳,获得10
4分钟前
4分钟前
Owen应助zjcbk985采纳,获得10
6分钟前
6分钟前
yangyu完成签到,获得积分20
6分钟前
Rooooi发布了新的文献求助10
6分钟前
6分钟前
zjcbk985发布了新的文献求助10
6分钟前
yangyu发布了新的文献求助10
6分钟前
6分钟前
Rain完成签到,获得积分20
6分钟前
Rain发布了新的文献求助10
6分钟前
Cheffe完成签到 ,获得积分10
6分钟前
zjcbk985完成签到,获得积分10
6分钟前
隐形曼青应助yangyu采纳,获得10
6分钟前
6分钟前
Rooooi完成签到,获得积分10
7分钟前
雷阵雨完成签到 ,获得积分10
7分钟前
李健应助学者宫Sir采纳,获得10
8分钟前
8分钟前
9分钟前
suolonglong完成签到,获得积分10
9分钟前
学者宫Sir发布了新的文献求助10
9分钟前
suolonglong发布了新的文献求助10
9分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Inorganic Chemistry Eighth Edition 1200
Free parameter models in liquid scintillation counting 1000
Standards for Molecular Testing for Red Cell, Platelet, and Neutrophil Antigens, 7th edition 1000
The Organic Chemistry of Biological Pathways Second Edition 800
The Psychological Quest for Meaning 800
Signals, Systems, and Signal Processing 610
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6313757
求助须知:如何正确求助?哪些是违规求助? 8130183
关于积分的说明 17037093
捐赠科研通 5370023
什么是DOI,文献DOI怎么找? 2851132
邀请新用户注册赠送积分活动 1828940
关于科研通互助平台的介绍 1681102