Publications

Detailed Information

AI-based Metal Artifact Reduction and Multi-organ Segmentation in Computed Tomography for Radiotherapy : 방사선치료를 위한 인공지능 기반 컴퓨터 단층영상 인공음영 제거 및 주요 장기 자동분할 기술 개발

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

이지민

Advisor
예성준
Issue Date
2021-02
Publisher
서울대학교 대학원
Keywords
RadiotherapyComputed TomographyArtificial IntelligenceDeep LearningMetal Artifact ReductionMulti-organ Segmentation방사선치료컴퓨터 단층영상인공지능딥러닝인공음영 제거장기 자동분할
Description
학위논문 (박사) -- 서울대학교 대학원 : 융합과학기술대학원 융합과학부(방사선융합의생명전공), 2021. 2. 예성준.
Abstract
암은 전세계적으로 주요한 사망원인이다. 암의 치료를 위해 수술요법, 항암 화학요법, 방사선치료(radiotherapy) 등 다양한 방법이 활용되고 있다. 현재 전체 암 환자 중 50% 가량이 방사선치료를 받고 있기 때문에, 방사선치료의 질을 높이는 것은 매우 중대한 사안이다. 방사선치료에서 컴퓨터 단층영상(computed tomography)은 진단 및 선량 계산을 위해 사용되고 있다. 그리고 정확한 선량 계산을 위해서는 컴퓨터 단층영상에 발생한 금속인공음영(metal artifact)을 제거하고, 암 및 주요 장기를 분할(contouring)하는 과정이 매우 중요하다. 최근 인공지능(artificial intelligence), 그 중에서도 딥러닝(deep learning) 기술이 여러 연구 분야에 접목되며 좋은 성과를 보여주고 있다. 특히 의료 영상 분야에서도 병변 분류(classification), 객체 검출(detection), 주요 부위 분할(segmentation) 등의 연구에 활발히 활용되며, 기존의 연구 결과들을 뛰어넘는 성과를 보여주었다. 따라서 본 학위논문에서도 고품질 방사선치료를 위해 컴퓨터 단층영상에서 해결해야 하는 중요한 두 가지 문제에 딥러닝 기술을 적용하였다. 그 첫 번째 연구 내용으로서 금속 보형물(metallic implant)을 삽입한 환자의 컴퓨터 단층영상에서 발생하는 인공음영(metal artifact)을 제거하는 기술을 개발하였다. 인공음영 제거를 위한 인공지능 모델 개발 시, 정답(ground truth)으로 활용할 수 있는 영상이 현실에 존재하지 않는다는 문제가 있다. 이를 해결하기 위해 데이터 시뮬레이션을 위한 사이노그램 핸들링(sinogram handling) 방법론을 개발하였고, 이를 통해 모델 학습을 위한 데이터셋을 구축하였다. 구축된 데이터셋을 활용해 딥러닝 모델(KMAR-Net)을 학습하였고, 학습된 모델의 인공음영 제거 성능을 실제 환자의 영상에 대하여 평가하였다. 또한 현재 병원에서 활용되고 있는 상용 소프트웨어(O-MAR)와의 비교도 수행하여, 본 연구를 통해 개발된 KMAR-Net이 월등히 우수한 성능을 보임을 확인하였다. 더 나아가 무릎, 척추, 두경부 등의 다양한 부위를 촬영한 컴퓨터 단층영상에 개발된 KMAR-Net이 범용적으로 사용될 수 있음 역시 검증되었다. 두 번째 연구 내용으로서 방사선치료 시 환자의 컴퓨터 단층영상에서 주요 장기를 분할(contour)하는 과정을 자동화하기 위한 인공지능 기반 장기 자동분할 기술을 개발하였다. 방사선치료를 받았던 400명의 환자 데이터(컴퓨터 단층영상 및 RT-structure 파일)를 수집하여 3D 분할(segmentation)을 위한 딥러닝 모델(BOS-Net) 개발에 활용하였다. 개발된 BOS-Net은 상용 소프트웨어(Mim software)와 비교하였을 때 우수한 성능을 보여주었다. 또한 BOS-Net이 분할한 영역에 대한 불확실도(uncertainty)를 함께 제공하여 의료진의 의사 결정에 도움이 되도록 하였다. 외부 기관 두 곳으로부터 각각 20명의 환자 데이터를 제공 받아 BOS-Net을 적용한 결과(external evaluation), 각 기관 별 환자 데이터의 특성이 상이함에도 불구하고 유의미한 성능을 보여주었다. 해당 기관의 데이터를 추가로 수집하여 BOS-Net 학습을 수행한다면 훨씬 더 우수한 성능을 확보할 수 있을 것이다. 본 학위논문을 통해 개발된 인공음영 제거 및 장기 자동분할 기술이 실제 임상에서 적용된다면, 환자의 상태 진단 및 방사선치료 시간 단축, 선량 계산 정확도 향상에 유용하게 활용될 수 있을 것이라 기대된다.
Cancer has become leading cause of death globally such as breast cancer for women. Among various treatment modalities, radiotherapy (RT) is an important component of curative treatment, since approximately 50% of all cancer patients receive radiotherapy during their treatment course. Compute Tomography (CT) plays an important role in RT process, because CT images are utilized for diagnosis and dose calculation. For the accurate dose calculation, precise delineation of tumor and organs-at-risk regions is a crucial step. In addition, if there is metal artifact occurred in CT images, dose calculation is not accurate because of the artifact. Thus, metal artifact reduction (MAR) and automatic segmentation techniques in CT are highly important for quality of RT.
Recently, artificial intelligence (AI), especially deep learning technology, has been applied to various research fields and has shown good results. In particular, in the field of medical imaging, deep learning has been widely utilized in studies such as lesion classification, object detection, or segmentation, and has surpassed existing research results. Therefore, in this dissertation, deep learning technology was applied to two significant problems in CT.
First, AI-based metal artifact reduction (MAR) technique was developed to reduce metal artifact in computed tomography (CT) images of patients with metallic implants. To develop AI-based MAR model (KMAR-Net), there is a crucial problem that ground truth images with metallic implants but completely free of metal artifacts do not exist in reality. To overcome this, a sinogram handling method for data simulation was proposed and utilized to generate a simulated dataset for KMAR-Net training and evaluation. MAR performance of the trained KMAR-Net was evaluated on actual patients CT images and compared with a commercial software (O-MAR) currently used in hospitals. As a result, KMAR-Net showed superior MAR performance than the commercial software even in case of severe metal artifacts present in the CT images. Furthermore, the proposed KMAR-Net was successfully applied to the CT images of various body parts such as knee, spine, and head and neck.
Second, AI-based breast and organs-at-risk (OARs) segmentation technique (BOS-Net) was developed to automate a process of contouring major organs in patients CT images during radiotherapy. CT images and RT-structure files of 400 patients who underwent radiotherapy were collected and utilized to develop BOS-Net for automated 3D segmentation with uncertainty quantification. The trained BOS-Net showed superior segmentation performance for all organs compared to a commercial software (MIM software). The uncertainty of segmentation results by BOS-Net was also provided to help physicians to make decisions whether to modify the results. In addition, BOS-Net was applied to patients' CT from two external institutions, and showed significant segmentation performance despite the different characteristics of CT data for each institution. If more CT images are collected from external institution and used for additional training, the segmentation performance of BOS-Net will be much more improved.
In conclusion, it is expected that the proposed KMAR-Net and BOS-Net will show superior MAR and multi-organ segmentation performance in the real clinic and help physicians' diagnosis, contouring process, and enhanced dose calculation accuracy in RT.
Language
eng
URI
https://hdl.handle.net/10371/175862

https://dcollection.snu.ac.kr/common/orgView/000000163962
Files in This Item:
There are no files associated with this item.
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share