Learning Generalisable Omni-Scale Representations for Person Re-Identification

计算机科学 判别式 人工智能 编码(集合论) 比例(比率) 特征学习 块(置换群论) 适应(眼睛) 鉴定(生物学) 域适应 特征工程 模式识别(心理学) 机器学习 特征(语言学) 深度学习 卷积神经网络 程序设计语言 集合(抽象数据类型) 光学 哲学 物理 几何学 分类器(UML) 生物 量子力学 植物 语言学 数学
作者
Kaiyang Zhou,Yongxin Yang,Andrea Cavallaro,Tao Xiang
出处
期刊:IEEE Transactions on Pattern Analysis and Machine Intelligence [Institute of Electrical and Electronics Engineers]
卷期号:: 1-1 被引量:165
标识
DOI:10.1109/tpami.2021.3069237
摘要

An effective person re-identification (re-ID) model should learn feature representations that are both discriminative, for distinguishing similar-looking people, and generalisable, for deployment across datasets without any adaptation. In this paper, we develop novel CNN architectures to address both challenges. First, we present a re-ID CNN termed omni-scale network (OSNet) to learn features that not only capture different spatial scales but also encapsulate a synergistic combination of multiple scales, namely omni-scale features. The basic building block consists of multiple convolutional streams, each detecting features at a certain scale. For omni-scale feature learning, a unified aggregation gate is introduced to dynamically fuse multi-scale features with channel-wise weights. OSNet is lightweight as its building blocks comprise factorised convolutions. Second, to improve generalisable feature learning, we introduce instance normalisation (IN) layers into OSNet to cope with cross-dataset discrepancies. Further, to determine the optimal placements of these IN layers in the architecture, we formulate an efficient differentiable architecture search algorithm. Extensive experiments show that, in the conventional same-dataset setting, OSNet achieves state-of-the-art performance, despite being much smaller than existing re-ID models. In the more challenging yet practical cross-dataset setting, OSNet beats most recent unsupervised domain adaptation methods without using any target data. Our code and models are released at https://github.com/KaiyangZhou/deep-person-reid .
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
大幅提高文件上传限制,最高150M (2024-4-1)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
性感的孤狼完成签到,获得积分10
刚刚
kk发布了新的文献求助10
1秒前
1秒前
ma发布了新的文献求助10
1秒前
許1111完成签到 ,获得积分10
2秒前
思源应助欢欢采纳,获得10
2秒前
SciGPT应助sheh采纳,获得10
2秒前
astral完成签到,获得积分10
3秒前
ggb发布了新的文献求助10
3秒前
3秒前
澄澄发布了新的文献求助10
3秒前
华仔应助YwYzzZ采纳,获得10
3秒前
Moonber完成签到,获得积分10
4秒前
李爱国应助虚幻采枫采纳,获得10
4秒前
4秒前
在水一方应助skyfall采纳,获得10
5秒前
大个应助伊可采纳,获得10
5秒前
najibveto发布了新的文献求助30
6秒前
6秒前
6秒前
kele完成签到,获得积分20
7秒前
7秒前
健忘可愁发布了新的文献求助10
9秒前
蜂蜜柚子发布了新的文献求助10
9秒前
兔兔应助研友_VZGvVn采纳,获得10
9秒前
天天完成签到,获得积分20
10秒前
lee发布了新的文献求助10
10秒前
董浩珍发布了新的文献求助10
10秒前
Singularity应助sskk采纳,获得10
11秒前
carl发布了新的文献求助10
11秒前
12秒前
13秒前
13秒前
yufanhui应助mochi采纳,获得10
13秒前
崔志玥完成签到,获得积分10
13秒前
橘子海完成签到 ,获得积分10
14秒前
14秒前
高兴的蜻蜓完成签到,获得积分10
15秒前
英俊的铭应助蜂蜜柚子采纳,获得10
15秒前
Owen应助pura卷卷采纳,获得10
15秒前
高分求助中
The Data Economy: Tools and Applications 1000
Bayesian Models of Cognition:Reverse Engineering the Mind 800
Essentials of thematic analysis 700
A Dissection Guide & Atlas to the Rabbit 600
Внешняя политика КНР: о сущности внешнеполитического курса современного китайского руководства 500
Academia de Coimbra: 1537-1990: história, praxe, boémia e estudo, partidas e piadas, organismos académicos 500
Revolution und Konterrevolution in China [by A. Losowsky] 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 基因 遗传学 催化作用 物理化学 免疫学 量子力学 细胞生物学
热门帖子
关注 科研通微信公众号,转发送积分 3120530
求助须知:如何正确求助?哪些是违规求助? 2771150
关于积分的说明 7706625
捐赠科研通 2426370
什么是DOI,文献DOI怎么找? 1288511
科研通“疑难数据库(出版商)”最低求助积分说明 621036
版权声明 600069