亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

An empirical evaluation of attention-based multi-head models for improved turbofan engine remaining useful life prediction

计算机科学 水准点(测量) 感知器 人工智能 机器学习 背景(考古学) 网络体系结构 多任务学习 人工神经网络 任务(项目管理) 工程类 古生物学 生物 系统工程 地理 计算机安全 大地测量学
作者
Abiodun Ayodeji,Wenhai Wang,Jianzhong Su,Jianquan Yuan,Xinggao Liu
出处
期刊:Cornell University - arXiv 被引量:3
标识
DOI:10.48550/arxiv.2109.01761
摘要

A single unit (head) is the conventional input feature extractor in deep learning architectures trained on multivariate time series signals. The importance of the fixed-dimensional vector representation generated by the single-head network has been demonstrated for industrial machinery condition monitoring and predictive maintenance. However, processing heterogeneous sensor signals with a single-head may result in a model that cannot explicitly account for the diversity in time-varying multivariate inputs. This work extends the conventional single-head deep learning models to a more robust form by developing context-specific heads to independently capture the inherent pattern in each sensor reading. Using the turbofan aircraft engine benchmark dataset (CMAPSS), an extensive experiment is performed to verify the effectiveness and benefits of multi-head multilayer perceptron, recurrent networks, convolution network, the transformer-style stand-alone attention network, and their variants for remaining useful life estimation. Moreover, the effect of different attention mechanisms on the multi-head models is also evaluated. In addition, each architecture's relative advantage and computational overhead are analyzed. Results show that utilizing the attention layer is task-sensitive and model dependent, as it does not provide consistent improvement across the models investigated. The best model is further compared with five state-of-the-art models, and the comparison shows that a relatively simple multi-head architecture performs better than the state-of-the-art models. The results presented in this study demonstrate the importance of multi-head models and attention mechanisms to an improved understanding of the remaining useful life of industrial assets.

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
2秒前
3秒前
8秒前
年年有余完成签到,获得积分10
9秒前
JamesPei应助mmyhn采纳,获得10
12秒前
fedehe完成签到 ,获得积分10
17秒前
Smithjiang完成签到,获得积分10
17秒前
Yetta发布了新的文献求助30
18秒前
21秒前
自觉思萱完成签到 ,获得积分10
22秒前
库小学生完成签到,获得积分10
23秒前
23秒前
打打应助友好续采纳,获得10
26秒前
28秒前
29秒前
29秒前
mrjohn完成签到,获得积分10
31秒前
库小学生发布了新的文献求助10
32秒前
熊大发布了新的文献求助10
33秒前
顾晓完成签到 ,获得积分10
34秒前
袅世完成签到 ,获得积分10
35秒前
打酱油的土八路完成签到,获得积分10
35秒前
科研通AI2S应助科研通管家采纳,获得10
41秒前
赘婿应助科研通管家采纳,获得10
41秒前
润润润完成签到 ,获得积分10
42秒前
45秒前
科研通AI6.4应助MatildaDownman采纳,获得10
50秒前
51秒前
充电宝应助早点下班采纳,获得10
53秒前
54秒前
54秒前
loser发布了新的文献求助10
59秒前
晚饭发布了新的文献求助30
1分钟前
空人有情完成签到 ,获得积分10
1分钟前
1分钟前
光亮如彤完成签到,获得积分0
1分钟前
殷勤的岱周完成签到,获得积分10
1分钟前
麻瓜发布了新的文献求助10
1分钟前
小张完成签到 ,获得积分10
1分钟前
loser发布了新的文献求助10
1分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Lewis’s Child and Adolescent Psychiatry: A Comprehensive Textbook Sixth Edition 2000
Continuing Syntax 1000
Encyclopedia of Quaternary Science Reference Work • Third edition • 2025 800
Signals, Systems, and Signal Processing 510
Pharma R&D Annual Review 2026 500
荧光膀胱镜诊治膀胱癌 500
热门求助领域 (近24小时)
化学 材料科学 医学 生物 纳米技术 工程类 有机化学 化学工程 生物化学 计算机科学 物理 内科学 复合材料 催化作用 物理化学 光电子学 电极 细胞生物学 基因 无机化学
热门帖子
关注 科研通微信公众号,转发送积分 6217726
求助须知:如何正确求助?哪些是违规求助? 8042946
关于积分的说明 16765325
捐赠科研通 5304735
什么是DOI,文献DOI怎么找? 2826178
邀请新用户注册赠送积分活动 1804272
关于科研通互助平台的介绍 1664266