亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Depth Image–Based Deep Learning of Grasp Planning for Textureless Planar-Faced Objects in Vision-Guided Robotic Bin-Picking

人工智能 计算机视觉 抓住 计算机科学 机器人 卷积神经网络 特征(语言学) 对象(语法) 分割 特征提取 语言学 哲学 程序设计语言
作者
Ping Jiang,Yoshiyuki Ishihara,Nobukatsu Sugiyama,Junji Oaki,Seiji Tokura,Atsushi Sugahara,Akihito Ogawa
出处
期刊:Sensors [Multidisciplinary Digital Publishing Institute]
卷期号:20 (3): 706-706 被引量:36
标识
DOI:10.3390/s20030706
摘要

Bin-picking of small parcels and other textureless planar-faced objects is a common task at warehouses. A general color image–based vision-guided robot picking system requires feature extraction and goal image preparation of various objects. However, feature extraction for goal image matching is difficult for textureless objects. Further, prior preparation of huge numbers of goal images is impractical at a warehouse. In this paper, we propose a novel depth image–based vision-guided robot bin-picking system for textureless planar-faced objects. Our method uses a deep convolutional neural network (DCNN) model that is trained on 15,000 annotated depth images synthetically generated in a physics simulator to directly predict grasp points without object segmentation. Unlike previous studies that predicted grasp points for a robot suction hand with only one vacuum cup, our DCNN also predicts optimal grasp patterns for a hand with two vacuum cups (left cup on, right cup on, or both cups on). Further, we propose a surface feature descriptor to extract surface features (center position and normal) and refine the predicted grasp point position, removing the need for texture features for vision-guided robot control and sim-to-real modification for DCNN model training. Experimental results demonstrate the efficiency of our system, namely that a robot with 7 degrees of freedom can pick randomly posed textureless boxes in a cluttered environment with a 97.5% success rate at speeds exceeding 1000 pieces per hour.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
9秒前
Owen应助科研通管家采纳,获得10
10秒前
朴素绿蝶发布了新的文献求助10
15秒前
痴痴的噜完成签到,获得积分10
18秒前
江姜酱先生完成签到,获得积分10
27秒前
搞科研的小李同学完成签到 ,获得积分10
33秒前
科研通AI6应助朴素绿蝶采纳,获得10
34秒前
可爱的函函应助hulahula采纳,获得10
35秒前
fabius0351完成签到 ,获得积分10
39秒前
李健应助阿米尔盼盼采纳,获得10
48秒前
49秒前
hulahula发布了新的文献求助10
53秒前
57秒前
1分钟前
长度2到发布了新的文献求助10
1分钟前
xuan发布了新的文献求助10
1分钟前
长度2到完成签到,获得积分10
1分钟前
1分钟前
xtheuv发布了新的文献求助10
1分钟前
Hello应助hulahula采纳,获得10
1分钟前
嘻嘻哈哈完成签到 ,获得积分10
1分钟前
1分钟前
科研通AI6应助xtheuv采纳,获得10
1分钟前
drirshad完成签到,获得积分10
1分钟前
芜湖发布了新的文献求助10
1分钟前
1分钟前
冷静新烟完成签到,获得积分10
1分钟前
芜湖完成签到,获得积分10
1分钟前
111发布了新的文献求助10
1分钟前
2分钟前
wanci应助111采纳,获得10
2分钟前
高级牛马完成签到 ,获得积分10
2分钟前
2分钟前
2分钟前
无花果应助科研通管家采纳,获得10
2分钟前
赘婿应助科研通管家采纳,获得10
2分钟前
动听衬衫应助科研通管家采纳,获得20
2分钟前
椒桢发布了新的文献求助10
2分钟前
NexusExplorer应助廖少跑不快采纳,获得10
2分钟前
sdfdzhang完成签到 ,获得积分0
2分钟前
高分求助中
Pipeline and riser loss of containment 2001 - 2020 (PARLOC 2020) 1000
哈工大泛函分析教案课件、“72小时速成泛函分析:从入门到入土.PDF”等 660
Theory of Dislocations (3rd ed.) 500
Comparing natural with chemical additive production 500
The Leucovorin Guide for Parents: Understanding Autism’s Folate 500
Phylogenetic study of the order Polydesmida (Myriapoda: Diplopoda) 500
A Manual for the Identification of Plant Seeds and Fruits : Second revised edition 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 内科学 生物化学 物理 计算机科学 纳米技术 遗传学 基因 复合材料 化学工程 物理化学 病理 催化作用 免疫学 量子力学
热门帖子
关注 科研通微信公众号,转发送积分 5220819
求助须知:如何正确求助?哪些是违规求助? 4394077
关于积分的说明 13680135
捐赠科研通 4257061
什么是DOI,文献DOI怎么找? 2335959
邀请新用户注册赠送积分活动 1333553
关于科研通互助平台的介绍 1287992