Sparse self-attention transformer for image inpainting

修补 变压器 计算机科学 人工智能 计算机视觉 模式识别(心理学) 图像(数学) 工程类 电压 电气工程
作者
Wenli Huang,Ye Deng,S. Hui,Yang Wu,Sanping Zhou,Jinjun Wang
出处
期刊:Pattern Recognition [Elsevier]
卷期号:145: 109897-109897 被引量:36
标识
DOI:10.1016/j.patcog.2023.109897
摘要

Learning-based image inpainting methods have made remarkable progress in recent years. Nevertheless, these methods still suffer from issues such as blurring, artifacts, and inconsistent contents. The use of vanilla convolution kernels, which have limited perceptual fields and spatially invariant kernel coefficients, is one of the main causes for these problems. In contrast, the multi-headed attention in the transformer can effectively model non-local relations among input features by generating adaptive attention scores. Therfore, this paper explores the feasibility of employing the transformer model for the image inpainting task. However, the multi-headed attention transformer blocks pose a significant challenge due to their overwhelming computational cost. To address this issue, we propose a novel U-Net style transformer-based network for the inpainting task, called the sparse self-attention transformer (Spa-former). The Spa-former retains the long-range modeling capacity of transformer blocks while reducing the computational burden. It incorporates a new channel attention approximation algorithm that reduces attention calculation to linear complexity. Additionally, it replaces the canonical softmax function with the ReLU function to generate a sparse attention map that effectively excludes irrelevant features. As a result, the Spa-former achieves effective long-range feature modeling with fewer parameters and lower computational resources. Our empirical results on challenging benchmarks demonstrate the superior performance of our proposed Spa-former over state-of-the-art approaches.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
小蘑菇应助糖果采纳,获得10
1秒前
baling发布了新的文献求助10
2秒前
XULIJING应助你可真行采纳,获得10
2秒前
Demons完成签到 ,获得积分10
2秒前
李铜完成签到,获得积分10
3秒前
5秒前
小马甲应助Lin采纳,获得10
7秒前
已知中的未知完成签到 ,获得积分10
7秒前
8秒前
夏夏完成签到,获得积分10
8秒前
10秒前
亲亲亲完成签到,获得积分10
11秒前
12秒前
14秒前
NexusExplorer应助蝶步韶华采纳,获得10
19秒前
神凰完成签到,获得积分10
20秒前
22秒前
22秒前
深情安青应助lfg采纳,获得30
24秒前
怕孤单的灵竹完成签到,获得积分10
26秒前
Corioreos发布了新的文献求助10
27秒前
郭郭郭发布了新的文献求助10
28秒前
shencong1002发布了新的文献求助10
29秒前
可爱大悦城完成签到,获得积分10
30秒前
31秒前
MRJJJJ发布了新的文献求助10
31秒前
33秒前
大方泥猴桃完成签到,获得积分10
35秒前
sissi完成签到,获得积分10
35秒前
36秒前
沐风发布了新的文献求助10
36秒前
holps发布了新的文献求助10
37秒前
40秒前
传奇3应助郭郭郭采纳,获得10
40秒前
42秒前
李爱国应助Junkie采纳,获得10
42秒前
豆腐青菜雨完成签到 ,获得积分10
42秒前
大个应助lfg采纳,获得10
43秒前
ZX612完成签到,获得积分10
43秒前
43秒前
高分求助中
Production Logging: Theoretical and Interpretive Elements 2500
Востребованный временем 2500
Agaricales of New Zealand 1: Pluteaceae - Entolomataceae 1040
지식생태학: 생태학, 죽은 지식을 깨우다 600
海南省蛇咬伤流行病学特征与预后影响因素分析 500
Neuromuscular and Electrodiagnostic Medicine Board Review 500
ランス多機能化技術による溶鋼脱ガス処理の高効率化の研究 500
热门求助领域 (近24小时)
化学 医学 材料科学 生物 工程类 有机化学 生物化学 纳米技术 内科学 物理 化学工程 计算机科学 复合材料 基因 遗传学 物理化学 催化作用 细胞生物学 免疫学 电极
热门帖子
关注 科研通微信公众号,转发送积分 3461239
求助须知:如何正确求助?哪些是违规求助? 3054973
关于积分的说明 9045828
捐赠科研通 2744888
什么是DOI,文献DOI怎么找? 1505722
科研通“疑难数据库(出版商)”最低求助积分说明 695812
邀请新用户注册赠送积分活动 695233