Publications

Detailed Information

Computationally Efficient Models for Image and Video Segmentation by Reducing Redundancy : 중복 연산 생략을 통한 효율적인 영상 및 동영상 분할 모델

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

박효진

Advisor
곽노준
Issue Date
2021
Publisher
서울대학교 대학원
Keywords
2D segmentationImage semantic segmentationLightweight segmentationVideo object segmentationSemi-supervised video object segmentationVideo object trackingDeep learning2차원 세그멘테이션이미지 세그멘테이션경량화 세그멘테이 션비디오 물체 세그멘테이션준감독 비디오 물체 세그멘테이션비디오 물 체 추적딥러닝
Description
학위논문(박사) -- 서울대학교대학원 : 융합과학기술대학원 융합과학부(지능형융합시스템전공), 2021.8. 곽노준.
Abstract
분할모델은 다른 컴퓨터 비전 분야와 마찬가지로 딥러닝 신경망을 사용하여 많은 성능 향상을 이루어냈다.
이 기술은 AR/VR, 자율 주행, 감시 시스템 등 다양한 시각 응용 분야에서 주변 장면을 이해하고 물체의 모양을 인식 할 수 있기 때문에 필수적이다.
그러나 기존에 제안 된 방법의 대부분은 많은 연산량을 요구 하기 때문에 실제 시스템에 곧바로 적용하는 것이 불가능하다.
본 논문은 모델 복잡성을 줄이기 위해 전체 분할 영역 중에서 Image semantic segmentation 및 semi-supervised video object segmentation 에서 쓰이는 모델 경량화를 목표로 한다.
이를 위해 기존 프레임 워크에서 불필요한 연산을 지적하고 세 가지 관점에서 해결방법을 제안한다.

먼저 decoder의 spatial redundancy 문제에 대해 논의한다.
Decoder는 upsampling을 수행하여 작은 해상도 feature map을 원래의 input image 해상도로 복구하여 정확한 모양의 마스크를 생성하고, semantic 정보를 찾기 위해 각 픽셀의 클래스를 판별한다.
그러나 인접 픽셀들은 정보를 공유하고 서로 동일한 의미를 가질 확률이 높으나 이 특성을 고려한 연구가 없다.
이 문제를 해결하기 위해 spatial redundancy을 줄여 decoder의 프로세스를 제거하는 superpixel-based sampling architecture를 제안한다.
제안 된 네트워크는 통계적 프로세스 제어 방법론을 활용하여 각 레이어의 학습률을 재조정하는 학습방법을 통해 총 픽셀의 0.37 만으로 학습 및 추론을 한다.
Pascal Context, SUN-RGBD 데이터셋을 이용한 실험에서, 다양한 기존 방법들과 제안 된 방법을 비교하여 연산량은 훨씬 더 적지만 더 우수하거나 비슷한 정확도를 가지는 것을 실험적으로 증명한다.

두번째로 encoder 에서 널리 쓰이는 dilated convolution 대해 논의한다.
Dilated convolution 은 encoder가 큰 receptive field를 지니도록 하여 더 나은 성능을 얻기 위해 널리 사용되는 방법론이다.
모바일 디바이스에서 활용하기 위해서는 연산량을 줄여야 하며, 가장 쉬운 방법 중 하나는 depth-wise separable convolution 방법을 dilated convolution에 적용하는 것이다.
그러나 이 두 가지 방법의 간단한 조합은 지나치게 단순화 된 연산으로 인해 feature map의 정보 손실을 야기하고, 이로 인해 심각한 성능 저하가 나타난다.
이 문제를 해결하기 위해 정보 손실을 보안하는 Concentrated-Comprehensive Convolution (C3)이라는 새로운 convolutional block을 제안한다.
C3-block을 다양한 분할 모델인 (DRN, ERFnet, Enet 및 Deeplab V3)에 적용하여 Cityscapes와 Pascal VOC 데이터셋에서 제안 된 방법의 장점을 실험적으로 증명한다.
또 다른 dilated convolution의 문제는 dilation rate 에 따라 모델 수행시간이 달라지는 점이다.
이론적으로 dilated convolution은 dilation rate 관계없이 유사한 모델 수행시간을 가져야하지만, 실제 수행시간이 디바이스에서는 최대 2 배까지 크게 달라진다.
이 문제를 완화하기 위해 spatial squeeze (S2) block 이라고하는 또 다른 convolutional block을 제안한다.
S2-block은 장거리 정보를 이해하고 많은 계산을 줄이기 위해 average pooling을 활용하여 공간 정보를 압축한다.
다른 경량화 분할모델과 S2-block 기반의 제안된 모델과 정성 및 정량 분석을 Cityscapes 데이터셋을 이용하여 제공한다.
또한 앞에서 연구한 C3-block과 성능을 비교하며, 실제 모바일 장치에서 제안된 모델이 성공적으로 실행되는 것을 보여준다.

세번째로 비디오에서 temporal redundancy 문제에 대해 논의한다.
컴퓨터 비전의 중요한 기술 중 하나는 비디오 데이터를 효율적으로 처리하는 방법이다.
Semi-supervised Video Object Segmentation (semi-VOS)은 이전 프레임의 정보를 전파하여 현재 프레임에 대한 segmentation 마스크를 생성한다.
그러나 이전 연구들은 모든 프레임을 동일하게 중요하다고 판단하고, 모델의 전체 네트워크를 사용하여 매 프레임마다 해당 마스크를 생성한다.
이를 통해 물체모양의 변화나 물체가 가려지는 어려운 비디오에서도 정확한 마스크를 생성할 수 있으나, 물체가 움직이지 않거나 느리게 움직여서 프레임 간 변화가 거의 없는 경우에는 불필요한 계산이 발생한다.
제안된 방법은 temporal information을 사용하여 물체의 움직임 정도를 측정한 뒤, 변화가 미비하다면 무거운 마스크 생성 단계를 생략한다.
이를 실현하기 위해 프레임 간의 변화량을 측정하고 프레임 간의 유사성에 따라 경로를 (전체 네트워크 계산 또는 이전 프레임 결과를 재사용) 결정하는 새로운 동적 네트워크를 제안한다.
제안된 방법은 다양한 semi-VOS 데이터셋에 (DAVIS 16, DAVIS 17 및 YouTube-VOS) 대해 정확도 저하없이 추론 속도를 크게 향상시킨다.
또한 우리의 접근 방식은 다양한 semi-VOS 방법에 적용가능함을 실험적으로 증명한다.
Segmentation has seen a remarkable performance advance by using deep convolution neural networks like other fields of computer vision.
This is necessary technology because we can understand surrounded scenes and recognize the shape of an object for various visual applications such as AR/VR, autonomous driving, surveillance system, etc.
However, most previous methods can not directly be used for real-world systems due to tremendous computation.
This dissertation focuses on image semantic segmentation and semi-supervised video object segmentation among various sub-fields in the overall segmentation realm to reduce model complexity.
We point out redundant operations from conventional frameworks and propose solutions from three different perspectives.

First, we discuss the spatial redundancy issue in a decoder.
The decoder conducts upsampling to recover small resolution feature maps into the original resolution to generate a sharp mask and classify each pixel for finding their semantic categories.
However, neighboring pixels share information and get the same semantic category each other, and thus we do not need independent pixel-wise computation in the decoder.
We propose superpixel-based sampling architecture to eliminate the decoder process by reducing spatial redundancy to resolve this problem.
The proposed network is trained and tested with only 0.37% of total pixels with a re-adjusting learning rate scheme by statistical process control (SPC) of gradients in each layer.
We show that our network performs better or equal accuracy comparison with various conventional methods on Pascal Context, SUN-RGBD dataset.


Second, we point out the dilated convolution in an encoder.
This is widely used for an encoder to get the advantage of a large receptive field and improve performance.
One practical choice to reduce computation for executing mobile devices is applying a depth-wise separable convolution strategy into a dilated convolution.
However, the simple combination of these two methods incurs severe performance degradation due to the loss of information in the feature map from an over-simplified operation.
We propose a new convolutional block called Concentrated-Comprehensive Convolution (C3) to compensate for the information loss to resolve this problem.
We apply the C3-block to various segmentation frameworks (DRN, ERFnet, Enet, and Deeplab V3) to prove our proposed method's beneficial properties on Cityscapes and Pascal VOC datasets.
Another issue in the dilated convolution is different latency times depending on the dilation rate.
Theoretically, the dilated convolution has a similar latency time regardless of dilation rate, but we observe that the latency time is seriously different up to 2 times.
To mitigate this issue, we devise another convolutional block called the spatial squeeze (S2) block.
S2-block utilizes an average pooling trick for squeezing spatial information to understand long-range information and reduce lots of computation.
We provide qualitative and quantitative analysis of a proposed network based on S2-block with other lightweight segmentation and compare the performance with C3-block on the Cityscapes dataset.
Also, we demonstrate that our method successfully is executed for a mobile device.

Third, we also tackle the temporal redundancy problem in video segmentation.
One of the critical techniques in computer vision is how to handle video data efficiently.
Semi-supervised Video Object Segmentation (semi-VOS) propagates information from previous frames to generate a segmentation mask for the current frame.
However, previous works treat every frame with the same importance and use a full-network path.
This generates high-quality segmentation across challenging scenarios such as shape-changing and occlusion.
However, it also leads to unnecessary computations for stationary or slow-moving objects where the change across frames is little.
In this work, we exploit this observation by using temporal information to quickly identify frames with little change and skip the heavyweight mask generation step.
To realize this efficiency, we propose a novel dynamic network that estimates change across frames and decides which path -- computing a full network or reusing the previous frame's feature -- to choose depending on the expected similarity.
Experimental results show that our approach significantly improves inference speed without much accuracy degradation on challenging semi-VOS datasets -- DAVIS 16, DAVIS 17, and YouTube-VOS.
Furthermore, our approach can be applied to multiple semi-VOS methods demonstrating its generality.
Language
eng
URI
https://hdl.handle.net/10371/177541

https://dcollection.snu.ac.kr/common/orgView/000000166957
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share