APALU: A Trainable, Adaptive Activation Function for Deep Learning Networks

适应性功能 功能(生物学) 计算机科学 激活函数 人工智能 深度学习 人工神经网络 心理学 生物 发展心理学 细胞生物学
作者
Barathi Subramanian,Rathinaraja Jeyaraj,Rakhmonov Akhrorjon Akhmadjon Ugli,Jeonghong Kim
出处
期刊:Cornell University - arXiv
标识
DOI:10.48550/arxiv.2402.08244
摘要

Activation function is a pivotal component of deep learning, facilitating the extraction of intricate data patterns. While classical activation functions like ReLU and its variants are extensively utilized, their static nature and simplicity, despite being advantageous, often limit their effectiveness in specialized tasks. The trainable activation functions also struggle sometimes to adapt to the unique characteristics of the data. Addressing these limitations, we introduce a novel trainable activation function, adaptive piecewise approximated activation linear unit (APALU), to enhance the learning performance of deep learning across a broad range of tasks. It presents a unique set of features that enable it to maintain stability and efficiency in the learning process while adapting to complex data representations. Experiments reveal significant improvements over widely used activation functions for different tasks. In image classification, APALU increases MobileNet and GoogleNet accuracy by 0.37% and 0.04%, respectively, on the CIFAR10 dataset. In anomaly detection, it improves the average area under the curve of One-CLASS Deep SVDD by 0.8% on the MNIST dataset, 1.81% and 1.11% improvements with DifferNet, and knowledge distillation, respectively, on the MVTech dataset. Notably, APALU achieves 100% accuracy on a sign language recognition task with a limited dataset. For regression tasks, APALU enhances the performance of deep neural networks and recurrent neural networks on different datasets. These improvements highlight the robustness and adaptability of APALU across diverse deep-learning applications.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
blue发布了新的文献求助10
刚刚
忐忑的盼易完成签到 ,获得积分10
刚刚
刚刚
3秒前
4秒前
4秒前
ZHEN发布了新的文献求助20
6秒前
8秒前
8秒前
善学以致用应助blue采纳,获得10
9秒前
9秒前
Lucas应助李理采纳,获得10
11秒前
11秒前
机智的凡梦完成签到,获得积分10
12秒前
Ava应助文静的千秋采纳,获得10
14秒前
Diamond发布了新的文献求助10
14秒前
15秒前
16秒前
jack发布了新的文献求助30
17秒前
DX120210165发布了新的文献求助10
17秒前
blue完成签到,获得积分10
18秒前
嘎嘎米小骑士完成签到,获得积分20
18秒前
19秒前
yj发布了新的文献求助10
20秒前
共享精神应助ZHEN采纳,获得10
20秒前
哇咔咔发布了新的文献求助10
23秒前
jack完成签到,获得积分10
25秒前
DX120210165完成签到,获得积分10
25秒前
26秒前
RMgX完成签到,获得积分10
26秒前
希望天下0贩的0应助yj采纳,获得10
26秒前
ZHEN完成签到,获得积分20
28秒前
SDNUDRUG完成签到,获得积分10
28秒前
29秒前
星辰大海应助dsaifjs采纳,获得10
29秒前
小鹤完成签到,获得积分10
29秒前
29秒前
lzq1116发布了新的文献求助10
30秒前
无聊的听寒完成签到 ,获得积分10
30秒前
Xu发布了新的文献求助10
31秒前
高分求助中
The Oxford Handbook of Social Cognition (Second Edition, 2024) 1050
The Young builders of New china : the visit of the delegation of the WFDY to the Chinese People's Republic 1000
юрские динозавры восточного забайкалья 800
English Wealden Fossils 700
Chen Hansheng: China’s Last Romantic Revolutionary 500
COSMETIC DERMATOLOGY & SKINCARE PRACTICE 388
Case Research: The Case Writing Process 300
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3141752
求助须知:如何正确求助?哪些是违规求助? 2792736
关于积分的说明 7804057
捐赠科研通 2449017
什么是DOI,文献DOI怎么找? 1303050
科研通“疑难数据库(出版商)”最低求助积分说明 626718
版权声明 601260