Publications

Detailed Information

Recurrent Neural Network Architectures for Sub-Optimal Motion Generation : 최적 근사 경로 생성을 위한 회귀 인공 신경망 모델 : 구조 로봇 적용 사례
A Rescue Robot Case Study

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

박성균

Advisor
박종우
Major
공과대학 기계공학과
Issue Date
2019-02
Publisher
서울대학교 대학원
Description
학위논문 (석사)-- 서울대학교 대학원 : 공과대학 기계공학과, 2019. 2. 박종우.
Abstract
Rescue robots typically consist of one or more manipulators mounted on a mobile platform,and must operate in complex and unstructured environments with limited power. As such, motion planning for such high-dimensional systems must be done in close to real-time, producing motions that are efficient and meet all task requirements. As an alternative to dynamics-based optimal trajectory generation, which requires accurate dynamic models and significant computation, particularly for high-dimensional systems, we present in this thesis an imitation learning-based recurrent neural network architecture for rapidly generating near-optimal trajectories. Specifically, we examine the Long-Short Term Memory-Mixture Density Network (LSTM-MDN) as a possible network for generating efficient motions. We train this network with dynamically optimal motions provided by a dynamics-based motion optimization algorithm, and use the network to generate real-time, near-optimal motions for a prototype mobile dual-arm rescue robot.
구난 로봇은 재난 상황과 같은 운영 환경의 특성으로 인해 다중 관절로 설계되었으며 제한된 에너지 원 하에서 고중량 작업을 수행 할 수 있어야한다. 이러한 제약 때문에 최적화는 로봇 동작 생성에 중요한 요구 사항이다. 그러나 고차원 공간에서 최적의 동작을 생성하는 것은 어떠한 최적화 알고리즘 하에서도 상당한 시간과 컴퓨팅 리소스가 필요하다. 본 연구에서는 모방 학습의 하나인 LSTM-MDN (Long-Short Term Memory-Mixture Density Network)을 통해 최적화된 경로를 학습하고 이를 모방하는 방법을 제안한다. 이 방법을 통해서, 다 관절 로봇의 최적화 경로 생성 시간을 단축 할 수 있고, 학습 데이터가 적은 환경 하에서도 효율적인 학습을 수행할 수 있다. 이번 연구에서는 이를 Hurcules 구난 로봇의 다양한 동작에 적용하여 기존의 최적화 알고리즘에 대한 개선점을 보였다.
Language
eng
URI
https://hdl.handle.net/10371/150620
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share