Publications

Detailed Information

Non-Contact Sleep Monitoring Using Impulse Radio Ultra-Wideband Radar Based on Long Short-Term Memory Network : 장단기 메모리 네트워크 기반의 초광대역 레이더를 이용한 비접촉식 수면 모니터링 기술 개발

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

권현빈

Advisor
박광석
Issue Date
2021
Publisher
서울대학교 대학원
Keywords
non-contact sleep monitoringsleep apnea hypopnea syndromeimpulse radio ultra-widebandlong short-term memory networkattention mechanismconvolutional neural network비접촉식수면 모니터링임펄스-무선 초광대역수면 무호흡 저호흡 증후군장단기 기억 신경망주의 집중 메ㅓ니즘합성곱 신경망
Description
학위논문(박사) -- 서울대학교대학원 : 공과대학 협동과정 바이오엔지니어링전공, 2021.8. 박광석.
Abstract
Manual scoring of sleep stages and sleep events from polysomnography (PSG) records is essential to understand the sleep architecture and sleep-related breathing disorder. Since the PSG requires a specialized expert, a lab environment, and obtrusive sensors, non-contact methods for sleep staging and sleep disorder monitoring using impulse-radio ultra-wideband (IR-UWB) radar have been investigated over the past years. However, the existing sleep staging models need to be improved interpretability and reliability. Moreover, the existing methods for monitoring SAHS (sleep apnea hypopnea syndrome), one of the most common sleep disorders, have limitations in that the radar-person distance is fixed, and the detected apnea hypopnea (AH) event cannot be provided in real-time.
In sleep staging study, an attention-based bidirectional long short-term memory (attention-based Bi-LSTM) model for automatic sleep stage scoring using an IR-UWB radar which can remotely detect vital signs is proposed. Sixty-five young (30.0 ± 8.6 yrs.) and healthy volunteers underwent nocturnal PSG and IR-UWB radar measurement simultaneously. However, the 14 subjects were excluded because they had sleep apnea, periodic limb movement, and abnormal sleep. Among 51 recordings, 26 were used for training, 8 for validation, and 17 for testing. Sixteen features including movement-, respiration-, and heart rate variability-related indices were extracted from the raw IR-UWB signals in each 30-s epoch. Sleep stage classification performances of attention-based Bi-LSTM model with optimized hyperparameters were evaluated and compared with those of the conventional LSTM networks for the same test dataset. In the results, an accuracy of 82.6 ± 6.7% and a Cohens kappa coefficient of 0.73 ± 0.11 for the classification of wake, REM sleep, light (N1+N2) sleep, and deep (N3) sleep which is significantly higher than those using the conventional LSTM networks (p < 0.01) were achieved. Moreover, the classification performances were higher than those reported in the comparative studies.
In the SAHS detection study, a novel approach for real-time AH event detection with IR-UWB radar using a deep learning model is proposed. Thirty six PSG recordings and simultaneously measured IR-UWB radar data were used in the experiments. After the clutter was removed, IR-UWB radar images were segmented by sliding a 20-s window at 1-s shift, and categorized into two classes: AH and N (Normal). A hybrid model combining the convolutional neural networks and LSTM (CNN-LSTM) was trained with the data, which consisted of class-balanced segments. Time sequenced outputs were then fed to an event detector in order to identify valid AH events. Therefore, the proposed method showed a Cohens kappa coefficient of 0.728, sensitivity of 0.781, specificity of 0.956, and an accuracy of 0.930. According to the apnea-hypopnea index (AHI) estimation analysis, the Pearson correlation coefficient between the estimated AHI and reference AHI was 0.97. In addition, the average accuracy and kappa of SAHS diagnosis was 0.98 and 0.96, respectively, for AHI cutoffs of ≥ 5, 15, and 30 events/h. The proposed method achieved the state-of-the-art performance for classifying SAHS severity without any hand-engineered feature regardless of the users location.
The experimental results demonstrated that the effectiveness of the LSTM networks which coupled with attention mechanism and CNN model for sleep monitoring. Our approaches can be utilized for a cost-effective and reliable sleep monitoring system in a home environment.
수면다원검사를 통한 수면 단계와 수면 이벤트의 수동 판독은 수면 구조와 수면 관련 호흡 장애를 분석하기 위해 필수적이다. 그러나 수면다원검사는 전문 인력, 연구실 환경, 그리고 불편한 센서 부착을 요구하기 때문에 지난 몇 년간 임펄스 무선 초광대역 레이더를 이용한 비접촉식 수면 단계 분류 및 수면 무호흡 저호흡 증후군 관찰 방법이 제안되어 왔다. 기존의 연구들의 수면 단계 분류 모델은 설명력과 신뢰도를 높일 필요가 있으며, 수면 무호흡 저호흡 증후군 관찰 모델 또한 레이더-사람 간 거리가 고정되어 있고, 수면 무호흡 저호흡 이벤트가 실시간으로 검출되지 않는다는 제한점이 있다.
수면 단계 분류 연구에서는, 초광대역 레이더로 측정한 생체 정보를 기반으로 수면 단계를 분류하는 양방향성 장단기 기억 네트워크와 주의 집중 메커니즘을 결합한 모델을 제안한다. 65명 (30.0 ± 8.6 세)의 젊고 건강한 참여자들이 야간 수면다원검사를 수행하였고, 동시에 초광대역 레이더를 측정하였다. 51건의 기록 중, 26건은 학습, 8건은 검증, 17건은 테스트 데이터로 사용하였다. 움직임, 호흡, 심박 변이율 관련 16개의 특징점들이 초광대역 레이더 신호에서 매 30초 에폭마다 추출되었다. 최적의 하이퍼파라미터로 구성된 주의 집중 기반 양방향 장단기 기억 모델의 수면 단계 분류 성능을 평가하고, 이를 기존의 장단기 기억 모델과 같은 데이터 세트로 비교하였다. 그 결과, 수면 4단계 (깸, 렘 수면, 얕은 수면, 깊은 수면)으로 분류하는 정확도 가 82.6 ± 6.7%, Cohen의 카파값이 0.73 ± 0.11으로 나타났고 이 성능은 기존 장단기 기억 네트워크에 비해 유의미하게 높은 값이 였다 (p < 0.01). 그리고, 수면 단계 분류 성능은 기존 연구들에서 보고된 결과값보다 더 높았다.
수면 무호흡 저호흡 검출 연구에서는, 초광대역 레이더를 이용한 실시간 수면 무호흡 저호흡 검출을 위한 딥러닝 모델을 제안한다. 36건의 수면다원검사 데이터, 그리고 동시에 측정한 초광대역 레이더 데이터가 연구에 사용되었다. 클러터가 제거된 후, 초광대역 레이더의 이미지는 1초씩 이동하는 20초 윈도우에 의해 분할되었고, 수면무호흡저호흡 또는 정상으로 분류되었다. 합성곱 신경망과 결합된 장단기 기억 네트워크는 클래스 간 샘플 수의 균형이 맞춰진 데이터를 기반으로 학습되었다. 분류된 시계열 결과는 이벤트 검출기에 입력되어 유효한 수면무호흡저호흡 이벤트가 확인되었다. 그 결과, 본 모델은 평균 Cohens 카파값 0.728, 민감도 0.781, 특이도 0.956, 그리고 정확도 0.930으로 나타났다. 수면 무호흡 저호흡 지수 분석에서는 예측된 지수값과 레퍼런스 지수값 간의 피어슨 상관 계수가 0.97로 나타났다. 또한, 수면 무호흡 저호흡 지수의 컷오프 기준을 5, 15, 30 이벤트/시간을 기준으로 설정하였을 때, 수면 무호흡 저호흡 증후군의 중증도 분류 결과로 평균 정확도 0.98, Cohens 카파값 0.96이 나타났다. 본 방법은 사용자의 위치에 상관없이 가공된 특징점 없이도 수면 무호흡 저호흡 증후군의 중증도를 분류하는데 가장 최신 기술의 상태를 달성하였다.
본 실험 결과들은 수면 단계 분류를 위해 주의 집중 메커니즘과 결합한 장단기 기억 네트워크와 수면 무호흡 저호흡 증후군 진단을 위해 합성곱 신경망과 결합 장단기 기억 네트워크 모델의 효과를 보여준다. 이러한 접근법은 가정 환경에서 경제적이고 신뢰할 수 있는 수면 모니터링 시스템을 위한 새로운 전략으로 활용될 것으로 기대된다.
Language
eng
URI
https://hdl.handle.net/10371/178177

https://dcollection.snu.ac.kr/common/orgView/000000166668
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share