已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

CCNet: Criss-Cross Attention for Semantic Segmentation

计算机科学 水准点(测量) 判别式 人工智能 分割 解析 块(置换群论) 像素 图像分割 集合(抽象数据类型) 模式识别(心理学) 语义学(计算机科学) 试验装置 目标检测 计算机视觉 数学 几何学 程序设计语言 地理 大地测量学
作者
Zilong Huang,Xinggang Wang,Yunchao Wei,Lichao Huang,Humphrey Shi,Wenyu Liu,Thomas S. Huang
出处
期刊:IEEE Transactions on Pattern Analysis and Machine Intelligence [IEEE Computer Society]
卷期号:45 (6): 6896-6908 被引量:416
标识
DOI:10.1109/tpami.2020.3007032
摘要

Contextual information is vital in visual understanding problems, such as semantic segmentation and object detection. We propose a criss-cross network (CCNet) for obtaining full-image contextual information in a very effective and efficient way. Concretely, for each pixel, a novel criss-cross attention module harvests the contextual information of all the pixels on its criss-cross path. By taking a further recurrent operation, each pixel can finally capture the full-image dependencies. Besides, a category consistent loss is proposed to enforce the criss-cross attention module to produce more discriminative features. Overall, CCNet is with the following merits: 1) GPU memory friendly. Compared with the non-local block, the proposed recurrent criss-cross attention module requires 11× less GPU memory usage. 2) High computational efficiency. The recurrent criss-cross attention significantly reduces FLOPs by about 85 percent of the non-local block. 3) The state-of-the-art performance. We conduct extensive experiments on semantic segmentation benchmarks including Cityscapes, ADE20K, human parsing benchmark LIP, instance segmentation benchmark COCO, video segmentation benchmark CamVid. In particular, our CCNet achieves the mIoU scores of 81.9, 45.76 and 55.47 percent on the Cityscapes test set, the ADE20K validation set and the LIP validation set respectively, which are the new state-of-the-art results. The source codes are available at https://github.com/speedinghzl/CCNethttps://github.com/speedinghzl/CCNet.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
凯文完成签到 ,获得积分10
2秒前
2秒前
凶狠的白竹完成签到,获得积分10
3秒前
瘦瘦的迎南完成签到 ,获得积分10
3秒前
4秒前
SUE发布了新的文献求助10
4秒前
fanyueyue应助niuma采纳,获得20
5秒前
6秒前
7秒前
9秒前
tangyuanliang发布了新的文献求助10
9秒前
hhllhh发布了新的文献求助10
12秒前
负责怀莲发布了新的文献求助10
13秒前
慕容半邪完成签到,获得积分10
14秒前
冰兰完成签到,获得积分10
15秒前
15秒前
Jing关注了科研通微信公众号
18秒前
乐糖完成签到 ,获得积分10
20秒前
斐嘿嘿发布了新的文献求助10
20秒前
小桐完成签到,获得积分10
21秒前
陌上花开完成签到,获得积分0
22秒前
yuan完成签到,获得积分10
25秒前
Arui发布了新的文献求助10
26秒前
wanci应助谨慎哈密瓜采纳,获得10
29秒前
29秒前
SciGPT应助平淡的乐曲采纳,获得30
30秒前
mw完成签到,获得积分10
31秒前
hyhyhyhy发布了新的文献求助10
34秒前
乐乐应助hhllhh采纳,获得10
34秒前
yumiao发布了新的文献求助10
35秒前
小橙子完成签到,获得积分10
36秒前
Mtx3098520564完成签到 ,获得积分10
36秒前
FF完成签到 ,获得积分10
37秒前
45秒前
陈军应助雪山飞鹰采纳,获得10
46秒前
sky发布了新的文献求助10
46秒前
谨慎哈密瓜完成签到,获得积分10
48秒前
50秒前
51秒前
Yuson_L发布了新的文献求助10
52秒前
高分求助中
A new approach to the extrapolation of accelerated life test data 1000
ACSM’s Guidelines for Exercise Testing and Prescription, 12th edition 500
Indomethacinのヒトにおける経皮吸収 400
Phylogenetic study of the order Polydesmida (Myriapoda: Diplopoda) 370
基于可调谐半导体激光吸收光谱技术泄漏气体检测系统的研究 350
Robot-supported joining of reinforcement textiles with one-sided sewing heads 320
Aktuelle Entwicklungen in der linguistischen Forschung 300
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 3989868
求助须知:如何正确求助?哪些是违规求助? 3531994
关于积分的说明 11255752
捐赠科研通 3270793
什么是DOI,文献DOI怎么找? 1805053
邀请新用户注册赠送积分活动 882215
科研通“疑难数据库(出版商)”最低求助积分说明 809208