Deep learning methods for atmospheric PM2.5 prediction: A comparative study of transformer and CNN-LSTM-attention

变压器 均方误差 计算机科学 卷积神经网络 人工智能 北京 机器学习 统计 数学 工程类 地理 电气工程 电压 考古 中国
作者
Bowen Cui,Minyi Liu,Shanqiang Li,Zhifan Jin,Yu Zeng,Xiaoying Lin
出处
期刊:Atmospheric Pollution Research [Elsevier]
卷期号:14 (9): 101833-101833 被引量:50
标识
DOI:10.1016/j.apr.2023.101833
摘要

A transformer-based method was firstly developed to predict the hourly PM2.5 concentration at 12 monitoring stations in Beijing. Convolutional neural network-long short-term memory-attention mechanism (CNN-LSTM-Attention) model were introduced to compare with Transformer model. Experiments on historical long time series data and future prediction were conducted to evaluate the model performance and generalization ability over a long period of time. The four metrics, namely, the explained variance score (EVS), R2, mean absolute error (MAE), and mean square error (MSE), were selected to evaluate the models. The results revealed that the EVS, MAE, MSE, and R2 values of Transformer model were 12%, 9%, 6%, and 30% higher than those of the CNN-LSTM-Attention model, respectively. The forecast results revealed that the Transformer model outperformed the CNN-LSTM-Attention model in terms of the goodness-of-fit R2 (94.4% vs. 83.6%). Transformer model can capture short-term pollution changes affected by abruptly changing meteorological conditions and long-term trends with significant seasonal changes, especially in autumn and winter when the pollution situation is more complex. Transformer model has obvious advantages in overcoming the interdependence problem of the influencing factors in long sequences, providing a new method for the long-term prediction of air quality.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
刚刚
1秒前
2秒前
充电宝应助wei采纳,获得10
3秒前
xinyue946983发布了新的文献求助10
3秒前
3秒前
透明木头完成签到,获得积分10
3秒前
4秒前
领导范儿应助小居居采纳,获得10
4秒前
stars完成签到,获得积分10
5秒前
巴斯光年发布了新的文献求助10
5秒前
星之发布了新的文献求助10
5秒前
初晴应助IrisFang1030采纳,获得10
5秒前
wzw发布了新的文献求助10
5秒前
科目三应助食量大如牛采纳,获得10
6秒前
SML发布了新的文献求助10
7秒前
星河完成签到,获得积分10
7秒前
8秒前
可爱的函函应助有生之年采纳,获得10
8秒前
务实采文发布了新的文献求助10
8秒前
wenwen发布了新的文献求助10
8秒前
烟泽亮发布了新的文献求助10
9秒前
董123完成签到 ,获得积分20
9秒前
完美世界应助刘屁屁采纳,获得30
10秒前
10秒前
ding应助犹豫芝麻采纳,获得10
10秒前
10秒前
镜哥发布了新的文献求助10
11秒前
11秒前
李健应助ZDTT采纳,获得10
12秒前
超超完成签到,获得积分10
12秒前
刘帅完成签到,获得积分10
12秒前
12秒前
13秒前
银杏叶完成签到 ,获得积分10
13秒前
FashionBoy应助菲菲采纳,获得10
13秒前
14秒前
15秒前
科研通AI6.1应助Jeux采纳,获得10
15秒前
天气阴发布了新的文献求助10
15秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
Handbook of pharmaceutical excipients, Ninth edition 5000
Aerospace Standards Index - 2026 ASIN2026 2000
Digital Twins of Advanced Materials Processing 2000
晋绥日报合订本24册(影印本1986年)【1940年9月–1949年5月】 1000
Social Cognition: Understanding People and Events 1000
Polymorphism and polytypism in crystals 1000
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 纳米技术 有机化学 物理 生物化学 化学工程 计算机科学 复合材料 内科学 催化作用 光电子学 物理化学 电极 冶金 遗传学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 6032480
求助须知:如何正确求助?哪些是违规求助? 7721223
关于积分的说明 16200379
捐赠科研通 5179205
什么是DOI,文献DOI怎么找? 2771703
邀请新用户注册赠送积分活动 1754977
关于科研通互助平台的介绍 1639993