Publications

Detailed Information

Development of Pedestrian State Estimation Algorithm on Autonomous Driving : 자율주행 차량의 보행자 상태 추정 알고리즘 개발

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

서호태

Advisor
이경수
Major
공과대학 기계항공공학부
Issue Date
2019-02
Publisher
서울대학교 대학원
Description
학위논문 (석사)-- 서울대학교 대학원 : 공과대학 기계항공공학부, 2019. 2. 이경수.
Abstract
This paper proposes development algorithm that can improve the performance of pedestrian state estimation of autonomous vehicle and verifying performance of developed algorithm. Research on autonomous vehicle technology is now more active than ever, and fully autonomous vehicles are expected to be commercialized in the near future. However, since autonomous driving technology is based on vehicles, it is very important to secure safety compared to advanced future technologies that are currently being discussed. Especially in the case of urban roads, it is much more difficult to secure the safety of autonomous driving vehicle compare to highway, because traffic factors such as pedestrians, intersections, traffic lights, and shoulder cars are much more complicated compare to highway. In order to fully commercialize an autonomous vehicle, it is essential that autonomous driving is performed on the urban roads, and precise perception of pedestrians is a very important task. In order to fully commercialize. Pedestrians are smaller than the vehicles, inconsistent in the direction of movement, and cannot solve based on communication like V2I in case of signal information.
The vehicle used in this study was HMC IONIQ EV. Sensors mounted on the vehicle include 6 number of IBEO 2-D laser scanners, a vision sensor from Mobileye, and an AVM camera. In case of perceive an obstacle with laser scanner, the position information of the obstacle is accurate and has excellent performance has perceive vehicle or a road facility. However, a post-treatment process is required for classification, and pedestrians is too small to distinguish with other obstacles such as poles or trees. In the case of the vision sensor, h the image processing is excellent in the classification of the object, but, there are big position errors, so it is impossible to estimate the motion of the pedestrian.
In this stud, sensor fusion is used to compensate for the disadvantages of the two sensors. When it is perceived using the sensor configuration of this vehicle, the position of the obstacle perceived by the laser scanner is assumed to be the true value at the corresponding step, since the most accurate data is the laser scanner data. After then, to identify which obstacle is the pedestrian, we selected pedestrian candidates as the nearest laser scanner obstacle to the pedestrian data perceived by the vision sensor. Since the longitudinal error of the vision sensor is considerably larger than the lateral error, the Mahalanobis distance is used instead of Euclidean distance to improve the accuracy of the matching. Since the algorithm is iterated every 0.1 second in this vehicle, the obstacle is estimated to be a pedestrian candidate at every step. If the same obstacle is repeatedly selected as a pedestrian candidate, the obstacle is more likely to be a pedestrian. The reliability information is added to the information of this track to take into information of this track to take into account the number of pedestrian candidates selected. Finally, although the laser scanner data is the most accurate position information that can be perceived in the vehicle, that is different with the actual position of the obstacle, no matter how small. Even if the error is very small, the error can be amplified when the error is used to estimate the speed. Especially, this phenomenon is particularly noticeable when the speed tis small and the direction changes frequently, such as a pedestrian. To reduce this phenomenon as much as possible, the accuracy of speed estimation is improved by using an EKF.
In this study, algorithm development and simulation were performed using MATLAB/Simulink. Data collection and algorithm verification were performed using real vehicle experiments using autonomous vehicle.
본 연구는 자율주행 차량의 보행자 상태 추정 성능을 향상할 수 있는 알고리즘을 개발하고 그 성능을 검증한 것에 관한 내용이다.
차량의 자율주행기술 연구는 현재 그 어느 때보다 활발히 진행되고 있으며, 완전자율주행차량의 상용화도 가까운 미래에 이루어질 전망이다. 하지만 자율주행 기술은 자동차를 기반으로 하고 있기에 현재 화제가 되고 있는 첨단미래기술에 비해 안전성 확보가 매우 중요하다. 특히 보행자, 교차로, 신호, 갓길차량 등의 교통요소가 자동차전용도로에 비해 훨씬 복잡한 도심도로의 경우 자율주행 차량의 안전성 확보는 훨씬 난이도가 높다. 자율주행차량의 완전한 상용화를 위해서는 도심도로에서의 자율주행이 필수적으로 이루어져야 하고, 이 때 보행자를 정확히 인지하는 것은 매우 중요한 과제이다. 보행자는 차량에 비해 크기가 작고, 이동방향에 일관성이 적으며, 신호정보와 같이 V2I 등의 통신기반 해결이 불가능하기 때문이다.
본 연구의 실험에 사용된 차량은 현대자동차 IONIQ EV를 사용하였다. 인지를 위하여 차량에 장착된 센서는 IBEO 사의 2-D 레이저스캐너 6개, 모빌아이사의 비전센서, AVM 카메라 등이 있다. 레이저스캐너로 장애물을 인지할 경우 장애물의 위치정보가 정확하여 차량이나 도로시설물 탐지 등에 우수한 성능을 보이나 장애물들 중 어떤 것이 분류하는 후처리 과정이 필요하며, 보행자의 경우 크기가 작아 가로수, 폴 등과의 구분에 있어 어려움이 있다. 비전센서의 경우 이미지 처리과정을 통하여 물체의 분류에는 뛰어난 성능을 보이나, 위치 오차가 다소 존재할 수 밖에 없고, 이로 인해 보행자의 움직임을 추정하기란 불가능하다.
본 연구에서는 두 센서의 단점을 보완하기 위해 센서융합 기법을 사용하였다. 본 차량의 센서 구성을 이용하여 인지하였을 때, 추정 등의 후처리 과정을 거치지 않은 단계에서 가장 정확한 데이터는 레이저 스캐너 데이터이므로, 레이저 스캐너로 인지된 장애물의 위치를 해당 단계에서의 참값으로 가정하였다. 이 후 장애물들 중 어떤 장애물이 보행자인지 분류하기 위하여, 비전 센서로 인지된 보행자와 가장 가까운 레이저 스캐너 장애물을 보행자 후보로 선정하였다. 이 때 비전센서의 종방향 오차가 횡방향 오차에 비해 상당히 크므로, 유클리드 거리 대신 마할라노비스 거리를 사용하여 매칭의 정확도를 향상시켰다. 본 차량은 0.1초마다 알고리즘이 반복적으로 돌아가므로 매 스텝마다 보행자 후보로 추정되는 장애물이 발생하게 되는데, 동일한 장애물이 반복하여 보행자 후보로 선정되면 해당 장애물은 보행자일 확률이 높다. 장애물이 동일한지를 확인하기 위하여 트랙을 만들어 관리하였고, 이 트랙의 정보에 신뢰도 정보를 추가함으로써 보행자후보로 선정된 횟수 등을 고려하도록 하였다. 마지막으로, 레이저 스캐너 데이터가 차량에서 인지할 수 있는 가장 정확한 위치정보이지만, 장애물의 실제 위치정보와는 아무리 작은 수준이라도 오차가 있다. 작은 위치오차라도 이를 이용해 속도를 추정하게 되면, 특히 보행자처럼 속력이 작고 방향이 자주 변하는 경우에는 오차가 증폭되게 된다. 이러한 현상을 최대한 줄이기 위하여 본 논문에서는 확장 칼만 필터를 사용하여 속도 추정의 정확도를 향상하도록 하였다.
본 연구에서의 알고리즘 개발 및 시뮬레이션은 MATLAB / Simulink를 사용하였으며, 자율주행 차량을 이용한 실차실험으로 데이터 수집 및 알고리즘 검증을 수행하였다.
Language
eng
URI
https://hdl.handle.net/10371/150686
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share