Publications

Detailed Information

사용자 생성 태그를 이용한 멀티미디어 객체의 검색 및 추천에 관한 연구 : A Study on Retrieval and Recommendation of Multimedia Objects Using User Annotated Tags

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

이상진

Advisor
박종헌
Major
산업공학과
Issue Date
2012-02
Publisher
서울대학교 대학원
Abstract
최근 다양한 웹 서비스 사이트에서 태깅을 지원하면서 효율적 멀티미디어 객체 관리를 위한 대안으로 태그가 주목 받고 있다. 본 논문에서는 멀티미디어 객체의 내용을 텍스트로 나타내는 태그를 이용하여, 멀티미디어 객체의 효과적인 검색 및 추천을 가능하게 하는 방법론을 제시한다. 추천 시스템은 사용자의 선호도와 사용 패턴 정보를 활용하여 정보 검색 및 정보 필터링에 용이하도록 개인화된 추천을 제공한다. 웹 서비스 사이트에서 사용자들이 생산하는 콘텐트가 급격히 증가함에 따라, 사용자가 관심 있어할 콘텐트를 즉시 발견하도록 돕는 추천 시스템의 중요성은 증가하고 있다. 본 논문에서는 온라인 동영상 사이트의 동영상에 붙여진 태그를 활용한 추천 방법을 제시하고 있다. 제안된 방법은 사용자가 관람한 동영상들의 태그 클라우드를 집적시킴을 통해 각 사용자 별 프로파일을 생성하고, 이러한 사용자 프로파일을 활용하여 자신과 유사한 관람 패턴을 가지는 다른 사용자들을 추천에 활용하는 두 가지 단계로 구성된다. 실험을 통하여 태그 클라우드 집적에 의해 만들어진 사용자 별 프로파일이 자신과 관람 패턴이 유사한 이웃을 찾는데 효율적이었으며, 특별히 관람 편수가 적은 사용자에 대해 보다 정확한 추천이 가능하게 됨을 확인할 수 있었다. 다음으로 본 논문은 태그를 활용하여 효과적인 멀티미디어 객체 집합 검색을 가능하게 하는 방법론을 제시한다. 멀티미디어 객체 집합은 사용자가 생성한 멀티미디어 객체들의 저장 단위를 말하며, 이러한 객체 집합을 대상으로 집합 검색은 사용자들의 정보 필요를 충족시킬, 유의한 집합 반환이 검색의 목적이다. 집합은 분리 가능한 여러 개의 객체가 모여있다는 점에서 기존의 단일 객체를 대상으로 하는 멀티미디어 객체 검색 방법론과 차이가 있다. 본 논문에서는 주어진 사용자 질의에 대해 집합이 가지는 주제적 유의성을 측정하는 새로운 방법론을 제시하고 있다. 이러한 방법론의 핵심 개념은 질의와 관련된 세부 토픽을 가능한 많이 포함하는 집합을 선호한다는 것이며, 보다 정확한 계산을 위하여 태그 동시 발생 빈도수 기반의 태그 중요성 평가를 통하여 노이즈 포함 태그를 제거하는 방법을 제시하고 있다. 실험 결과 본 논문에서 제시하는 방법이 기존의 다른 방법에 비해 보다 우수한 성능을 보임을 확인할 수 있었다. 결과적으로 본 논문에서 제시하는 사용자 생성 태그를 이용한 멀티미디어 객체 검색 및 추천 방법을 통해 학술적으로 태그를 보다 효과적으로 사용할 수 있는 방법을 제시하고, 이들의 활용 범위를 넓히는데 기여하였다고 판단된다.
Tag has been receiving increased attention recently in web service sites. In this paper, we suggest effective recommendation and search algorithm for multimedia objects of web environment by means of tag. Recommender systems make use of various sources of information about users such as preferences and usage patterns, and provide personalized recommendations, facilitating the information retrieval and filtering processes. In particular, with the recent unprecedented growth of user generated content in social media sites, the role of recommender systems that can prune large information spaces and assist users in discovering items becomes increasingly important. The proposed method operates by constructing a per-user profile as an aggregate of the tag clouds of videos viewed by the user, and recommendations are then generated based on the viewing patterns of similar users identified according to a similarity function over the user profiles. Experimental results demonstrate that the tag clouds aggregated for a user can effectively characterize the user profile for similarity computation, enabling more accurate recommendations particularly for the casual users with a few video views in the social media communities that support tagging. As a storage and retrieval unit of user generated web objects, set has been receiving increased attention recently in information retrieval research community. Set search requires relevant sets to be retrieved to meet information needs of users. Set search and individual object search are different in terms of content granularity. This paper proposes a new approach that can effectively measure topical relevance of sets against a user query. The main idea of the proposed approach is to prefer the set which covers as many query related subtopics as possible. In particular, in order to compute the topical relevance while addressing the problem of noisy tags, the notion of tag significance score is introduced based on tag co-occurrence frequency. We consider a problem domain of photo set search at flickr.com where individual photos are annotated with texts such as title and tags. Experimental results show that our proposed method outperforms the previous approaches for photo set retrieval.
Language
kor
URI
https://hdl.handle.net/10371/156390

http://dcollection.snu.ac.kr:80/jsp/common/DcLoOrgPer.jsp?sItemId=000000001595
Files in This Item:
There are no files associated with this item.
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share