已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

Sample Self-Selection Using Dual Teacher Networks for Pathological Image Classification with Noisy Labels

计算机科学 人工智能 机器学习 深度学习 人工神经网络 对偶(语法数字) 样品(材料) 滤波器(信号处理) 过程(计算) 模式识别(心理学) 噪音(视频) 图像(数学) 数据挖掘 计算机视觉 文学类 色谱法 操作系统 艺术 化学
作者
Gang Han,Wenping Guo,Haibo Zhang,Jie Jin,Xingli Gan,Xiaoming Zhao
出处
期刊:Computers in Biology and Medicine [Elsevier]
卷期号:174: 108489-108489 被引量:1
标识
DOI:10.1016/j.compbiomed.2024.108489
摘要

Deep neural networks (DNNs) involve advanced image processing but depend on large quantities of high-quality labeled data. The presence of noisy data significantly degrades the DNN model performance. In the medical field, where model accuracy is crucial and labels for pathological images are scarce and expensive to obtain, the need to handle noisy data is even more urgent. Deep networks exhibit a memorization effect, they tend to prioritize remembering clean labels initially. Therefore, early stopping is highly effective in managing learning with noisy labels. Previous research has often concentrated on developing robust loss functions or implementing training constraints to mitigate the impact of noisy labels; however, such approaches have frequently resulted in underfitting. We propose using knowledge distillation to slow the learning process of the target network rather than preventing late-stage training from being affected by noisy labels. In this paper, we introduce a data sample self-selection strategy based on early stopping to filter out most of the noisy data. Additionally, we employ the distillation training method with dual teacher networks to ensure the steady learning of the student network. The experimental results show that our method outperforms current state-of-the-art methods for handling noisy labels on both synthetic and real-world noisy datasets. In particular, on the real-world pathological image dataset Chaoyang, the highest classification accuracy increased by 2.39%. Our method leverages the model's predictions based on training history to select cleaner datasets and retrains them using these cleaner datasets, significantly mitigating the impact of noisy labels on model performance.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
婷123完成签到 ,获得积分10
1秒前
yzxzdm完成签到 ,获得积分0
2秒前
酷酷涫完成签到 ,获得积分0
6秒前
李昕123完成签到 ,获得积分10
9秒前
徐rl完成签到 ,获得积分10
9秒前
10秒前
疯狂的沛岚完成签到,获得积分10
11秒前
硫酸二铵合银完成签到 ,获得积分10
12秒前
捉住一只羊完成签到 ,获得积分10
14秒前
火星完成签到 ,获得积分10
14秒前
ma发布了新的文献求助10
15秒前
eschew发布了新的文献求助30
15秒前
lynh0508发布了新的文献求助30
15秒前
小鱼发布了新的文献求助10
16秒前
舒适的方盒完成签到 ,获得积分10
19秒前
21秒前
哈呼呼完成签到 ,获得积分10
23秒前
脑洞疼应助chruse采纳,获得10
23秒前
在水一方应助伶俐的高烽采纳,获得10
24秒前
24秒前
oilmelech发布了新的文献求助10
26秒前
小炮仗完成签到 ,获得积分10
26秒前
钮祜禄萱完成签到 ,获得积分10
26秒前
27秒前
昏睡的笑南完成签到,获得积分10
29秒前
樊冀鑫完成签到 ,获得积分10
29秒前
kaka完成签到,获得积分0
30秒前
31秒前
sfxnxgu完成签到,获得积分20
31秒前
31秒前
Tao完成签到 ,获得积分10
32秒前
秋秋秋完成签到,获得积分10
34秒前
chruse发布了新的文献求助10
35秒前
nenoaowu应助cookieMichael采纳,获得30
36秒前
哇咔咔发布了新的文献求助10
36秒前
Zhang_Yakun完成签到 ,获得积分10
38秒前
邹小天发布了新的文献求助10
39秒前
Wish完成签到,获得积分10
40秒前
风中凡霜完成签到,获得积分10
40秒前
果汁完成签到 ,获得积分10
41秒前
高分求助中
The Young builders of New china : the visit of the delegation of the WFDY to the Chinese People's Republic 1000
юрские динозавры восточного забайкалья 800
English Wealden Fossils 700
Chen Hansheng: China’s Last Romantic Revolutionary 500
宽禁带半导体紫外光电探测器 388
COSMETIC DERMATOLOGY & SKINCARE PRACTICE 388
Pearson Edxecel IGCSE English Language B 300
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3142499
求助须知:如何正确求助?哪些是违规求助? 2793418
关于积分的说明 7806563
捐赠科研通 2449664
什么是DOI,文献DOI怎么找? 1303383
科研通“疑难数据库(出版商)”最低求助积分说明 626861
版权声明 601309