清晨好,您是今天最早来到科研通的研友!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您科研之路漫漫前行!

TS-Fastformer: Fast Transformer for Time-series Forecasting

计算机科学 瓶颈 变压器 推论 编码器 时间序列 人工智能 深度学习 系列(地层学) 机器学习 电压 物理 古生物学 嵌入式系统 操作系统 生物 量子力学
作者
Sangwon Lee,Junho Hong,Ling Liu,Wonik Choi
出处
期刊:ACM Transactions on Intelligent Systems and Technology [Association for Computing Machinery]
卷期号:15 (2): 1-20 被引量:7
标识
DOI:10.1145/3630637
摘要

Many real-world applications require precise and fast time-series forecasting. Recent trends in time-series forecasting models are shifting from LSTM-based models to Transformer-based models. However, the Transformer-based model has a limited ability to represent sequential relationships in time-series data. In addition, the transformer-based model suffers from slow training and inference speed due to the bottleneck incurred by a deep encoder and step-by-step decoder inference. To address these problems, we propose a time-series forecasting optimized Transformer model, called TS-Fastformer. TS-Fastformer introduces three new optimizations: First, we propose a Sub Window Tokenizer for compressing input in a simple manner. The Sub Window Tokenizer reduces the length of input sequences to mitigate the complexity of self-attention and enables both single and multi-sequence learning. Second, we propose Time-series Pre-trained Encoder to extract effective representations through pre-training. This optimization enables TS-Fastformer to capture both seasonal and trend representations as well as to mitigate bottlenecks of conventional transformer models. Third, we propose the Past Attention Decoder to forecast target by incorporating past long short-term dependency patterns. Furthermore, Past Attention Decoder achieves high performance improvement by removing a trend distribution that changes over a long period. We evaluate the efficiency of our model with extensive experiments using seven real-world datasets and compare our model to six representative time-series forecasting approaches. The results show that the proposed TS-Fastformer reduces MSE by 10.1% compared to state-of-the-art model and demonstrates 21.6% faster training time compared to the existing fastest transformer, respectively.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
喜悦向日葵完成签到 ,获得积分10
3秒前
量子星尘发布了新的文献求助10
15秒前
yellowonion完成签到 ,获得积分10
19秒前
cheng完成签到 ,获得积分10
20秒前
喜悦的香之完成签到 ,获得积分10
24秒前
小昕思完成签到 ,获得积分10
31秒前
随心所欲完成签到 ,获得积分10
34秒前
星辰大海应助科研通管家采纳,获得10
35秒前
所所应助科研通管家采纳,获得10
35秒前
心想事成完成签到 ,获得积分10
42秒前
如意2023完成签到 ,获得积分10
42秒前
mochalv123完成签到 ,获得积分10
47秒前
空儒完成签到 ,获得积分10
47秒前
sll完成签到 ,获得积分10
52秒前
坦率的从波完成签到 ,获得积分10
1分钟前
yan完成签到,获得积分10
1分钟前
白柏233完成签到,获得积分10
1分钟前
hz_sz完成签到,获得积分10
1分钟前
氟锑酸完成签到 ,获得积分10
1分钟前
1分钟前
1分钟前
困困困完成签到 ,获得积分10
1分钟前
ZhaoZitong发布了新的文献求助10
1分钟前
mumu发布了新的文献求助10
1分钟前
1分钟前
alanbike完成签到,获得积分10
1分钟前
unicornmed发布了新的文献求助10
1分钟前
mumu完成签到,获得积分10
1分钟前
沈呆呆完成签到,获得积分10
2分钟前
赵李锋完成签到,获得积分10
2分钟前
Shandongdaxiu完成签到 ,获得积分10
2分钟前
启程完成签到 ,获得积分10
2分钟前
千帆破浪完成签到 ,获得积分10
2分钟前
2分钟前
量子星尘发布了新的文献求助50
2分钟前
飞云完成签到 ,获得积分10
3分钟前
LOST完成签到 ,获得积分10
3分钟前
huiluowork完成签到 ,获得积分10
3分钟前
康康完成签到 ,获得积分10
3分钟前
小果完成签到 ,获得积分10
4分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
网络安全 SEMI 标准 ( SEMI E187, SEMI E188 and SEMI E191.) 1000
Inherited Metabolic Disease in Adults: A Clinical Guide 500
计划经济时代的工厂管理与工人状况(1949-1966)——以郑州市国营工厂为例 500
INQUIRY-BASED PEDAGOGY TO SUPPORT STEM LEARNING AND 21ST CENTURY SKILLS: PREPARING NEW TEACHERS TO IMPLEMENT PROJECT AND PROBLEM-BASED LEARNING 500
The Pedagogical Leadership in the Early Years (PLEY) Quality Rating Scale 410
Why America Can't Retrench (And How it Might) 400
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 催化作用 遗传学 冶金 电极 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 4612797
求助须知:如何正确求助?哪些是违规求助? 4017872
关于积分的说明 12436835
捐赠科研通 3700139
什么是DOI,文献DOI怎么找? 2040580
邀请新用户注册赠送积分活动 1073377
科研通“疑难数据库(出版商)”最低求助积分说明 957018