VDE 기반 클라우드 데이터 센터를 위한 클라이언트 단위 네트워크 성능 고립화: FS-VDE : Per-Client Network Performance Isolation in VDE-basedPer-Client Network Performance Isolation in VDE-based Cloud Data Centers: FS-VDE

Cited 0 time in Web of Science Cited 0 time in Scopus

차승우; 유종훈; 홍성수

Issue Date
정보과학회논문지 Vol.39 No.3, pp. 223-230
공학네트워크 성능 고립화클라우드 컴퓨팅VDEproportional fair share resource allocationNetwork performance isolationcloud computing
Authors' final version
클라우드 데이터 센터는 계층적 네트워크로 연결된 수천 대의 서버로 구성되고 각 서버는 서로 다른
클라이언트에게 속하는 복수의 가상 머신을 수행한다. 이들은 서버의 네트워크 링크를 공유하기 때문에 서비스 품질
보장을 위해서는 클라이언트 단위로 네트워크 성능을 고립시키는 것이 매우 중요하다. 그런데 기존의 네트워크 성능
고립화 기술은 클라이언트라는 개념 없이 TCP 흐름 단위의 고립만을 지원하기 때문에 클라우드 데이터 센터에
효과적이지 못하다. 뿐만 아니라 기존 네트워크 설비와 게스트 OS에 수정을 요구하여 대규모 도입에 어려움이 있다. 이
논문에서는 이 같은 문제를 해결하기 위해 각 클라이언트에게 가중치를 부여하고 이에 비례하여 네트워크 대역폭을
할당해 주는 FS-VDE를 제안한다. 제안된 기법은 송신 트래픽에 대해 쉐이핑 메커니즘을 수행하고 수신 트래픽에 대해
폴리싱 메커니즘을 사용한다. 이 기법은 기존 시스템에 최소한의 변경만을 요구하므로 대규모 도입에 효과적이다.
우리는 FS-VDE를 Linux 상에 구현하고 실험을 통해 성능을 측정하였다. 실험 결과 각 클라이언트는 가중치로부터
도출된 송신 및 수신 대역폭에 비해 각각 99.4%, 96.5% 이상을 보장 받았으며 이는 단 5%의 성능 저하로 달성될 수
A cloud data center consists of thousands of servers connected by a hierarchical network. Each server runs multiple
virtual machines owned by different clients. Since several virtual machines share network links, it is important to provide for
per-client network performance isolation for quality of service guarantees. Unfortunately, existing network performance isolation
techniques provide only per-flow isolation without the notion of clients and thus are not effective for a cloud data center. Moreover,
these techniques lack scalability as they require non-trivial modification to legacy network equipment and the protocol stack of a
guest OS. In this paper, we propose FS-VDE, a mechanism that assigns each client a weight and allocates it network bandwidth
proportional to the weight. To do so, our approach performs outgoing traffic shaping and incoming traffic policing. FS-VDE can be
widely adopted since it only requires limited modification to the host OS. We have implemented the proposed mechanism in Linux
and measured the throughput of clients. Experimental results show that each client receives 99.4% and 96.5% of desired outgoing
and incoming bandwidth, as specified by its weight, respectively. This result was achieved with only 5% of performance overhead.
Files in This Item:
Appears in Collections:
College of Engineering/Engineering Practice School (공과대학/대학원)Dept. of Electrical and Computer Engineering (전기·정보공학부)Journal Papers (저널논문_전기·정보공학부)
  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.