已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

TS-Fastformer: Fast Transformer for Time-series Forecasting

计算机科学 瓶颈 变压器 推论 编码器 时间序列 人工智能 深度学习 系列(地层学) 机器学习 电压 物理 古生物学 嵌入式系统 操作系统 生物 量子力学
作者
Sangwon Lee,Junho Hong,Ling Liu,Wonik Choi
出处
期刊:ACM Transactions on Intelligent Systems and Technology [Association for Computing Machinery]
卷期号:15 (2): 1-20 被引量:7
标识
DOI:10.1145/3630637
摘要

Many real-world applications require precise and fast time-series forecasting. Recent trends in time-series forecasting models are shifting from LSTM-based models to Transformer-based models. However, the Transformer-based model has a limited ability to represent sequential relationships in time-series data. In addition, the transformer-based model suffers from slow training and inference speed due to the bottleneck incurred by a deep encoder and step-by-step decoder inference. To address these problems, we propose a time-series forecasting optimized Transformer model, called TS-Fastformer. TS-Fastformer introduces three new optimizations: First, we propose a Sub Window Tokenizer for compressing input in a simple manner. The Sub Window Tokenizer reduces the length of input sequences to mitigate the complexity of self-attention and enables both single and multi-sequence learning. Second, we propose Time-series Pre-trained Encoder to extract effective representations through pre-training. This optimization enables TS-Fastformer to capture both seasonal and trend representations as well as to mitigate bottlenecks of conventional transformer models. Third, we propose the Past Attention Decoder to forecast target by incorporating past long short-term dependency patterns. Furthermore, Past Attention Decoder achieves high performance improvement by removing a trend distribution that changes over a long period. We evaluate the efficiency of our model with extensive experiments using seven real-world datasets and compare our model to six representative time-series forecasting approaches. The results show that the proposed TS-Fastformer reduces MSE by 10.1% compared to state-of-the-art model and demonstrates 21.6% faster training time compared to the existing fastest transformer, respectively.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
火星完成签到 ,获得积分10
1秒前
斯文白梦完成签到 ,获得积分10
3秒前
fxy完成签到 ,获得积分10
4秒前
香锅不要辣完成签到 ,获得积分10
4秒前
Sailzyf完成签到,获得积分10
4秒前
111111完成签到,获得积分0
4秒前
云帆完成签到,获得积分10
5秒前
hh完成签到 ,获得积分10
6秒前
EED完成签到 ,获得积分10
7秒前
7秒前
DiJia完成签到 ,获得积分10
8秒前
JOBZ完成签到,获得积分10
9秒前
10秒前
肚子好e啊完成签到 ,获得积分10
11秒前
斯文麦片完成签到 ,获得积分10
11秒前
壮观的谷冬完成签到 ,获得积分0
11秒前
糊糊发布了新的文献求助30
11秒前
12秒前
Emma完成签到,获得积分10
12秒前
rongrongrong完成签到,获得积分10
12秒前
13秒前
13秒前
miracle完成签到 ,获得积分10
13秒前
优pp完成签到 ,获得积分10
14秒前
LRxxx完成签到 ,获得积分0
15秒前
16秒前
16秒前
甘sir完成签到 ,获得积分10
17秒前
Julie发布了新的文献求助10
19秒前
失眠无声完成签到,获得积分10
20秒前
可靠的一手完成签到 ,获得积分10
20秒前
喵呜发布了新的文献求助30
22秒前
mathmotive完成签到,获得积分10
22秒前
zhongxia完成签到 ,获得积分10
22秒前
23秒前
最棒哒完成签到 ,获得积分10
24秒前
小人物的坚持完成签到 ,获得积分10
25秒前
ZJX完成签到,获得积分10
26秒前
科研通AI6应助晚风采纳,获得10
26秒前
可爱安白完成签到,获得积分10
28秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Fermented Coffee Market 2000
PARLOC2001: The update of loss containment data for offshore pipelines 500
A Treatise on the Mathematical Theory of Elasticity 500
Critical Thinking: Tools for Taking Charge of Your Learning and Your Life 4th Edition 500
Phylogenetic study of the order Polydesmida (Myriapoda: Diplopoda) 500
A Manual for the Identification of Plant Seeds and Fruits : Second revised edition 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 内科学 生物化学 物理 计算机科学 纳米技术 遗传学 基因 复合材料 化学工程 物理化学 病理 催化作用 免疫学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 5252991
求助须知:如何正确求助?哪些是违规求助? 4416534
关于积分的说明 13750009
捐赠科研通 4288755
什么是DOI,文献DOI怎么找? 2353041
邀请新用户注册赠送积分活动 1349815
关于科研通互助平台的介绍 1309493

今日热心研友

沉心静气搞学习
70
差不多先生
2 20
Li
3
豆子
20
注:热心度 = 本日应助数 + 本日被采纳获取积分÷10