Publications

Detailed Information

Sample-Efficient Robot Learning for Optimal Decision Making under Complex and Uncertain Environments : 복잡하고 불확실한 환경에서 최적 의사 결정을 위한 효율적인 로봇 학습

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

이경재

Advisor
Songhwai Oh
Issue Date
2021-02
Publisher
서울대학교 대학원
Keywords
Multi-Armed BanditsOnline LearningReinforcement LearningInverse Reinforcement LearningLearning from DemonstrationsImitation Learning로봇 학습실시간 학습강화 학습역강화 학습시범 기반 학습모방 학습
Description
학위논문 (박사) -- 서울대학교 대학원 : 공과대학 전기·정보공학부, 2021. 2. Songhwai Oh.
Abstract
The problem of sequential decision making under an uncertain and complex environment is a long-standing challenging problem in robotics. In this thesis, we focus on learning a policy function of robotic systems for sequential decision making under which is called a robot learning framework. In particular, we are interested in reducing the sample complexity of the robot learning framework. Hence, we develop three sample efficient robot learning frameworks. The first one is the maximum entropy reinforcement learning. The second one is a perturbation-based exploration. The last one is learning from demonstrations with mixed qualities.

For maximum entropy reinforcement learning, we employ a generalized Tsallis entropy regularization as an efficient exploration method. Tsallis entropy generalizes Shannon-Gibbs entropy by introducing a entropic index. By changing an entropic index, we can control the sparsity and multi-modality of policy. Based on this fact, we first propose a sparse Markov decision process (sparse MDP) which induces a sparse and multi-modal optimal policy distribution. In this MDP, the sparse entropy, which is a special case of Tsallis entropy, is employed as a policy regularization. We first analyze the optimality condition of a sparse MDP. Then, we propose dynamic programming methods for the sparse MDP and prove their convergence and optimality.
We also show that the performance error of a sparse MDP has a constant bound, while the error of a soft MDP increases logarithmically with respect to the number of actions, where this performance error is caused by the introduced regularization term. Furthermore, we generalize sparse MDPs to a new class of entropy-regularized Markov decision processes (MDPs), which will be referred to as Tsallis MDPs, and analyzes different types of optimal policies with interesting properties related to the stochasticity of the optimal policy by controlling the entropic index.

Furthermore, we also develop perturbation based exploration methods to handle heavy-tailed noises. In many robot learning problems, a learning signal is often corrupted by noises such as sub-Gaussian noise or heavy-tailed noise. While most of the exploration strategies have been analyzed under sub-Gaussian noise assumption, there exist few methods for handling such heavy-tailed rewards. Hence, to overcome heavy-tailed noise, we consider stochastic multi-armed bandits with heavy-tailed rewards. First, we propose a novel robust estimator that does not require prior information about a noise distribution, while other existing robust estimators demand prior knowledge. Then, we show that an error probability of the proposed estimator decays exponentially fast. Using this estimator, we propose a perturbation-based exploration strategy and develop a generalized regret analysis scheme that provides upper and lower regret bounds by revealing the relationship between the regret and the cumulative density function of the perturbation. From the proposed analysis scheme, we obtain gap-dependent and gap-independent upper and lower regret bounds of various perturbations. We also find the optimal hyperparameters for each perturbation, which can achieve the minimax optimal regret bound with respect to total rounds.
For learning from demonstrations with mixed qualities, we develop a novel inverse reinforcement learning framework using leveraged Gaussian processes (LGP) which can handle negative demonstrations. In LGP, the correlation between two Gaussian processes is captured by a leveraged kernel function. By using properties, the proposed inverse reinforcement learning algorithm can learn from both positive and negative demonstrations. While most existing inverse reinforcement learning (IRL) methods suffer from the lack of information near low reward regions, the proposed method alleviates this issue by incorporating negative
demonstrations. To mathematically formulate negative demonstrations, we introduce a novel generative model which can generate both positive and negative demonstrations using a parameter, called proficiency.
Moreover, since we represent a reward function using a leveraged Gaussian process which can model a nonlinear function, the proposed method can effectively estimate the structure of a nonlinear reward
function.
본 학위 논문에서는 시범과 보상함수를 기반으로한 로봇 학습 문제를 다룬다. 로봇 학습 방법은 불확실하고 복잡 업무를 잘 수행 할 수 있는 최적의 정책 함수를 찾는 것을 목표로 한다. 로봇 학습 분야의 다양한 문제 중에, 샘플 복잡도를 줄이는 것에 집중한다. 특히, 효율적인 탐색 방법과 혼합 시범으로 부터의 학습 기법을 개발하여 적은 수의 샘플로도 높은 효율을 갖는 정책 함수를 학습하는 것이 목표이다.

효율적인 탐색 방법을 개발하기 위해서, 우리는 일반화된 쌀리스 엔트로피를 사용한다. 쌀리스 엔트로피는 샤논-깁스 엔트로피를 일반화한 개념으로 엔트로픽 인덱스라는 새로운 파라미터를 도입한다. 엔트로픽 인덱스를 조절함에 따라 다양한 형태의 엔트로피를 만들어 낼 수 있고 각 엔트로피는 서로 다른 레귤러라이제이션 효과를 보인다. 이 성질을 기반으로, 스파스 마르코프 결정과정을 제안한다. 스파스 마르코프 결정과정은 스파스 쌀리스 엔트로피를 이용하여 희소하면서 동시에 다모드의 정책 분포를 표현하는데 효과적이다. 이를 통해서 샤논-깁스 엔트로피를 사용하였을때에 비해 더 좋은 성능을 갖음을 수학적으로 증명하였다. 또한 스파스 쌀리스 엔트로피로 인한 성능 저하를 이론적으로 계산하였다. 스파스 마르코프 결정과정을 더욱 일반화시켜 일반화된 쌀리스 엔트로피 결정과정을 제안하였다. 마찬가지로 쌀리스 엔트로피를 마르코프 결정과정에 추가함으로써 생기는 최적 정책함수의 변화와 성능 저하를 수학적으로 증명하였다. 나아가, 성능저하를 없앨 수 있는 방법인 엔트로픽 인덱스 스케쥴링을 제안하였고 실험적으로 최적의 성능을 갖음을 보였다.

또한, 헤비테일드 잡음이 있는 학습 문제를 해결하기 위해서 외란(Perturbation)을 이용한 탐색 기법을 개발하였다. 로봇 학습의 많은 문제는 잡음의 영향이 존재한다. 학습 신호안에 다양한 형태로 잡음이 들어있는 경우가 있고 이러한 경우에 잡음을 제거 하면서 최적의 행동을 찾는 문제는 효율적인 탐사 기법을 필요로 한다. 기존의 방법론들은 서브 가우시안(sub-Gaussian) 잡음에만 적용 가능했다면, 본 학위 논문에서 제안한 방식은 헤비테일드 잡음을 해결 할 수 있다는 점에서 기존의 방법론들보다 장점을 갖는다. 먼저, 일반적인 외란에 대해서 리그렛 바운드를 증명하였고 외란의 누적분포함수(CDF)와 리그렛 사이의 관계를 증명하였다. 이 관계를 이용하여 다양한 외란 분포의 리그렛 바운드를 계산 가능하게 하였고 다양한 분포들의 가장 효율적인 탐색 파라미터를 계산하였다.

혼합시범으로 부터의 학습 기법을 개발하기 위해서, 오시범을 다룰 수 있는 새로운 형태의 가우시안 프로세스 회귀분석 방식을 개발하였고, 이 방식을 확장하여 레버리지 가우시안 프로세스 역강화학습 기법을 개발하였다. 개발된 기법에서는 정시범으로부터 무엇을 해야 하는지와 오시범으로부터 무엇을 하면 안되는지를 모두 학습할 수 있다. 기존의 방법에서는 쓰일 수 없었던 오시범을 사용 할 수 있게 만듦으로써 샘플 복잡도를 줄일 수 있었고 정제된 데이터를 수집하지 않아도 된다는 점에서 큰 장점을 갖음을 실험적으로 보였다.
Language
eng
URI
https://hdl.handle.net/10371/175296

https://dcollection.snu.ac.kr/common/orgView/000000164762
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share