Publications

Detailed Information

Sensor Fusion Algorithm for Multi Pedestrians Tracking : 다중 보행자 인지를 위한 센서 융합 알고리즘 개발

DC Field Value Language
dc.contributor.advisor이경수-
dc.contributor.author문종식-
dc.date.accessioned2019-10-18T15:24:39Z-
dc.date.available2019-10-18T15:24:39Z-
dc.date.issued2019-08-
dc.identifier.other000000158097-
dc.identifier.urihttps://hdl.handle.net/10371/161016-
dc.identifier.urihttp://dcollection.snu.ac.kr/common/orgView/000000158097ko_KR
dc.description학위논문(석사)--서울대학교 대학원 :공과대학 기계항공공학부,2019. 8. 이경수.-
dc.description.abstract환경 센서를 이용하여 보행자를 인지하고 추적하는 알고리즘은 안전한 도심 자율주행을 위해 가장 중요한 기술 중 하나이다. 본 논문은 상업용 비전 센서, 라이다 센서, 그리고 디지털 지도 정보를 융합해 보행자를 추적하는 새로운 알고리즘을 제시한다. 상업용 비전 센서는 보행자를 효과적으로 탐지하는 반면 라이다 센서는 거리를 정확하게 측정한다. 본 시스템은 상업용 비전 센서를 이용해 보행자를 탐지하며, 라이다 센서를 이용하여 상태 추정 성능을 향상시켰다. 또한 디지털 지도를 이용해 라이다 센서의 관심 영역을 설정하였다. 탐지 결과는 서울대학교 캠퍼스에서 약 4600프레임 주행 데이터로, 추정의 정확성은 주행 실험을 통해 검증하여 복잡한 도심 주행 상황에서도 본 알고리즘이 유용함을 검증하였다.-
dc.description.abstractPedestrian detection and tracking algorithm using environmental sensors is one of the most fundamental technology for safe urban autonomous driving. This paper presents a novel sensor fusion algorithm for multi pedestrian tracking using commercial vision sensor, LiDAR sensor, and digital HD map. The commercial vision sensor effectively detects pedestrian, whereas LiDAR sensor accurately measures a distance. Our system uses commercial vision sensor as detector and utilize LiDAR sensor to enhance estimation. In addition, digital HD map is utilized to properly define Region of Interest (ROI) of LiDAR sensor point cloud data. The detection performance is validated by about 4600 frames of SNU campus driving data and estimation accuracy is calculated through driving experiment. The proposed algorithm can be utilized for autonomous driving vehicles in various urban driving situation-
dc.description.tableofcontentsChapter 1 Introduction……………………………………………………1
1.1 Motivation…………………………………………………………1
1.2 Previous Research………………………………………………3
1.3 Contributions……………………………………………………4
1.4 Thesis Outline ……………………………………………………5

Chapter 2 System Architecture ……………………………………………6
2.1 Vehicle Sensor Configuration……………………………………6
2.2 Fusion Architecture………………………………………………8

Chapter 3 Vision Track Management & Filtering………………………9
3.1 Filtering for Target Tracking……………………………………10
3.1.1 Process Model……………………………………………10
3.1.2 Measurement model……………………………………13
3.2 Data Association…………………………………………………14

Chapter 4 Vision Guided LiDAR Track Management & Filtering……15
4.1 Cluster Validation…………………………………………………17
4.2 Filtering for Target Tracking……………………………………18
4.2.1 Process Model…………………………………………18
4.2.2 Measurement model…………………………………18
4.3 Track Management Rule………………………………………19

Chapter 5 Fusion Method…………………………………………………20
5.1 Track Association…………………………………………………20
5.2 State Fusion…………………………………………………………21

Chapter 6 Experimental Result……………………………………………22
6.1 Track Initializing and Association Probability along Longitudinal distance ……………………………………………………………………………………23
6.2 Detection & Association Rate in SNU Campus Driving Data…25
6.3 Error of States……………………………………………………………26
Chapter 7 Conclusion ………………………………………………………28

Bibliography……………………………………………………………………29

국문 초록…………………………………………………………………………32
-
dc.language.isoeng-
dc.publisher서울대학교 대학원-
dc.subjectAutonomous Vehicle-
dc.subjectPedestrian-
dc.subjectCommercial Vision Sensor-
dc.subject2D LiDAR-
dc.subjectHD Map-
dc.subjectSensor Fusion-
dc.subjectMulti Target Tracking-
dc.subjectTrack to Track Fusion-
dc.subject.ddc621-
dc.titleSensor Fusion Algorithm for Multi Pedestrians Tracking-
dc.title.alternative다중 보행자 인지를 위한 센서 융합 알고리즘 개발-
dc.typeThesis-
dc.typeDissertation-
dc.contributor.AlternativeAuthorJongsik Moon-
dc.contributor.department공과대학 기계항공공학부-
dc.description.degreeMaster-
dc.date.awarded2019-08-
dc.contributor.major기계공학과-
dc.identifier.uciI804:11032-000000158097-
dc.identifier.holdings000000000040▲000000000041▲000000158097▲-
Appears in Collections:
Files in This Item:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share