Publications

Detailed Information

Robot Grasping from Partial Point Cloud Data: Merging Deformable Models with Deep Learning : 부분 관측된 점 구름으로부터의 로봇 파지: 변형 가능한 모델과 딥러닝의 병합

DC Field Value Language
dc.contributor.advisor박종우-
dc.contributor.author안태균-
dc.date.accessioned2021-11-30T02:02:37Z-
dc.date.available2021-11-30T02:02:37Z-
dc.date.issued2021-02-
dc.identifier.other000000165866-
dc.identifier.urihttps://hdl.handle.net/10371/175144-
dc.identifier.urihttps://dcollection.snu.ac.kr/common/orgView/000000165866ko_KR
dc.description학위논문 (석사) -- 서울대학교 대학원 : 공과대학 기계공학부, 2021. 2. 박종우.-
dc.description.abstractGrasping novel and complex objects with partial observation is a challenging task
for robots. One solution for this problem is through full shape estimation. Previous
works estimated the full geometry by optimization of tting loss between
observed partial point cloud to a set of shape primitive surfaces. However, these
optimization-based tting cannot constrain the shape of the unobserved region,
where points do not exist. Thus, they show disappointing performance of full shape
estimation.
In order to solve such issue, we propose a novel supervised learning framework
for full geometry estimation of partially observed objects. Also, we propose
deformable-superquadrics, which can represent various shapes in continuous parameter
space, as shape primitives to estimate the full geometry of complex objects.
We show that our new learning framework well estimates the full geometry
of complex household objects. By sampling antipodal points on the estimated surface,
we could successfully nd grasp poses of the robot gripper.
-
dc.description.abstract로봇 파지에서 새로 본 복잡한 물체를 부분 관측만으로 파지하는 것은 어려운 문제이다. 이 문제를 해결하는 하나의 방법은 전체 형상을 먼저 예측한 후 파지하는 것이다. 이전의 연구들은 부분 관측된 점 구름과 단위 형상의 표면 사이의 거리를 최소화하는 최적화하는 문제를 풀어 부분 관측된 물체의 전체 형상을 예측하였다. 하지만, 이러한 최적화 기반의 방법들은 점 구름이 존재하지 않는 부분에 대해 맞춰질 단위 형상의 모양에 대해 정보를 주지 못한다. 이로 인해 기존의 방법들은 부분 관측된 물체의 전체 형상 예측 성능이 떨어진다.
이러한 문제를 해결하기 위해, 우리는 부분 관측된 전체 형상을 예측할 수 있는 새로운 지도 학습 방법을 제안한다. 또한, 우리는 다양한 형상을 연속적인 변수 공간에서 표현할 수 있는, 변형 가능한 슈퍼 쿼드릭을 복잡한 물체를 근사하기 위한 단위 형상으로 제안을 한다. 이를 이용하면 이전의 연구와 비교하여 부분 관측된 물체의 전체 형상을 잘 예측하는 것을 실험적으로 확인하였다. 우리의 방법으로 예측한 전체 형상에서 정반대의 두 점을 찾아 물체를 성공적으로 파지할 수 있는 자세를 찾았다.
-
dc.description.tableofcontentsAbstract i
List of Tables vi
List of Figures vii
1 Introduction 1
1.1 Related Works . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Contributions of Our Work . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Organization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Preliminaries 8
2.1 Superquadrics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 De nition of Superquadrics . . . . . . . . . . . . . . . . . . . 9
2.1.2 Radial Distance of Superquadrics . . . . . . . . . . . . . . . 10
2.1.3 Error Metric for Superquadric Fitting . . . . . . . . . . . . . 11
2.2 Deformable-Superquadrics . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 Tapering Deformation . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Bending Deformation . . . . . . . . . . . . . . . . . . . . . . 14
2.2.3 Combined Deformation . . . . . . . . . . . . . . . . . . . . . 16
2.3 Deep Learning Networks for Point Cloud . . . . . . . . . . . . . . . 18
2.3.1 Permutation Invariance . . . . . . . . . . . . . . . . . . . . . 18
2.3.2 Convolution on Point Cloud Data . . . . . . . . . . . . . . . 19
3 Grasping Pipeline 20
3.1 Recognition Module . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.1.1 Shape Primitives Segmentation . . . . . . . . . . . . . . . . . 22
3.1.2 Deformable-Superquadric Fitting . . . . . . . . . . . . . . . . 23
3.2 Grasping Module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Antipodal Grasp Pose Sampling . . . . . . . . . . . . . . . . 26
3.2.2 Collision and Kinematic Feasability Check . . . . . . . . . . 28
3.2.3 Grasp Pose Selection . . . . . . . . . . . . . . . . . . . . . . . 29
4 Experiments 30
4.1 Evaluation Metric . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2 Optimization vs Learning . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3 Recognition Module . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3.1 Dataset . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3.2 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3.3 Fitting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4 Grasping Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5 Conclusion 43
Bibliography 45
국문초록 50
-
dc.format.extentviii, 50-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subjectgrasp pose generation-
dc.subjectpartially observed point cloud-
dc.subjectfull shape estimation-
dc.subjectsupervised learning-
dc.subjectdeformable-superquadrics-
dc.subject파지 자세 생성-
dc.subject부분 관측된 점 구름-
dc.subject전체 형상 예측-
dc.subject지도 학습-
dc.subject변형 가능 한 슈퍼 쿼드릭-
dc.subject.ddc621-
dc.titleRobot Grasping from Partial Point Cloud Data: Merging Deformable Models with Deep Learning-
dc.title.alternative부분 관측된 점 구름으로부터의 로봇 파지: 변형 가능한 모델과 딥러닝의 병합-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorAhn Tae Gyun-
dc.contributor.department공과대학 기계공학부-
dc.description.degreeMaster-
dc.date.awarded2021-02-
dc.identifier.uciI804:11032-000000165866-
dc.identifier.holdings000000000044▲000000000050▲000000165866▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share