SFAM: Lightweight Spectrum Unreferenced Attention Network

计算机科学 人工智能 离散余弦变换 模式识别(心理学) 变压器 计算复杂性理论 频域 人工神经网络 特征提取 特征(语言学) 图像(数学) 算法 计算机视觉 工程类 哲学 电气工程 语言学 电压
作者
Xuanhao Qi,Min Zhi,Y. Yin,Ping Ping,Y. Zhang
标识
DOI:10.1145/3652583.3658006
摘要

The construction of deep neural networks depends on a significant number of parameters and computational complexity, which poses a challenge in the field of image processing. To address the issue of the Transformer network model's large size and inability to effectively capture local features of the image, this paper proposes a lightweight composite Transformer structure that combines a spectral feature refinement module (SFRM) and a parameterless attention augmentation module (PAAM). The SFRM and PAAM work together to improve the quality of the spectral features used in the transformer. The proposed structure aims to enhance the performance of the transformer without adding unnecessary complexity. The SFRM utilises the two-dimensional discrete cosine transform to convert the image from the spatial domain to the frequency domain. This process extracts both the overall image structure and detailed feature information from the high-frequency and low-frequency regions, respectively. The aim is to purify the spatially-insignificant features in the original image. The PAAM introduces a parameter-free channel, spatial, and 3D attention enhancement mechanism to extract correlation features of local information in the spatial domain without increasing the number of parameters. This improves the expression of local features in the image. Additionally, Depth Separable (DConv MLP) is introduced to further reduce the network model's weight. The experimental results show that the proposed algorithm achieves an accuracy of 79.6% on the ImageNet-1K dataset, 91.6% on the Oxford 102 Flower Dataset, and 94.1% on the CIFAR-10 dataset. Compared to ViT-B, Swin-T, and CSwin-T, respectively, the number of covariates decreases by 86.11%, 58.62%, and 47.83%. The number of parameters is also lower than VGG-16 and ResNet-110 by 91.07% and 77.70%, respectively.

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
1秒前
1秒前
Jasper应助子俞采纳,获得10
2秒前
香蕉觅云应助Dobrzs采纳,获得10
2秒前
上官若男应助jade采纳,获得10
4秒前
畅快的饼干完成签到 ,获得积分10
4秒前
树池完成签到,获得积分10
5秒前
6秒前
学呀学完成签到 ,获得积分10
7秒前
8秒前
金垚发布了新的文献求助10
8秒前
hanpanpan完成签到,获得积分10
9秒前
9秒前
lv发布了新的文献求助10
11秒前
12秒前
龙九局完成签到 ,获得积分10
12秒前
一个西藏发布了新的文献求助10
13秒前
王小海111完成签到 ,获得积分10
13秒前
Zeee发布了新的文献求助10
13秒前
permanent完成签到,获得积分10
14秒前
子俞发布了新的文献求助10
14秒前
我是老大应助sh采纳,获得10
14秒前
忐忑的天真完成签到 ,获得积分10
16秒前
yyy发布了新的文献求助20
17秒前
haiyangzhao发布了新的文献求助10
19秒前
PSCs完成签到,获得积分10
19秒前
领导范儿应助meimingzi采纳,获得10
21秒前
今年发论文完成签到,获得积分10
22秒前
笑到死完成签到,获得积分10
23秒前
花开富贵完成签到 ,获得积分10
24秒前
24秒前
孤独的涔完成签到,获得积分10
25秒前
量子星尘发布了新的文献求助10
27秒前
青年才俊发布了新的文献求助10
27秒前
buno完成签到,获得积分0
28秒前
arniu2008应助nanmu采纳,获得10
28秒前
CipherSage应助往海深处听采纳,获得10
28秒前
sh发布了新的文献求助10
28秒前
29秒前
快嘎了黑土豆完成签到,获得积分10
29秒前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
人脑智能与人工智能 1000
King Tyrant 720
Silicon in Organic, Organometallic, and Polymer Chemistry 500
Principles of Plasma Discharges and Materials Processing, 3rd Edition 400
Pharmacology for Chemists: Drug Discovery in Context 400
El poder y la palabra: prensa y poder político en las dictaduras : el régimen de Franco ante la prensa y el periodismo 400
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 计算机科学 有机化学 物理 生物化学 纳米技术 复合材料 内科学 化学工程 人工智能 催化作用 遗传学 数学 基因 量子力学 物理化学
热门帖子
关注 科研通微信公众号,转发送积分 5604088
求助须知:如何正确求助?哪些是违规求助? 4688919
关于积分的说明 14857074
捐赠科研通 4696569
什么是DOI,文献DOI怎么找? 2541150
邀请新用户注册赠送积分活动 1507314
关于科研通互助平台的介绍 1471851