Publications

Detailed Information

인공지능 알고리즘 기반 의사결정의 공정성 지각 : Human perception of fairness on algorithmic decision making

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

손영신

Advisor
김청택
Issue Date
2020
Publisher
서울대학교 대학원
Description
학위논문(석사)--서울대학교 대학원 :사회과학대학 심리학과,2020. 2. 김청택.
Abstract
최근 인공지능 알고리즘이 급속도로 발전하고 있다. 이를 활용할 수 있는 분야 중 하나는 의사결정을 내리기 전에 미리 그 위험과 영향을 예측하여 사람의 판단을 보조하거나 자동화하는 것이다. 치안, 정책, 금융, 의학, 채용 등 다양한 주제에서 알고리즘은 과거의 데이터를 통해 의사결정 모형을 학습할 수 있다. 그러나 이러한 의사결정 모형들은 종종 사회에 존재하는 편향까지도 그대로 학습한다. 따라서 대상자의 삶에 중대한 영향을 미칠 수 있는 알고리즘이 내린 결정들은 종종 그 결정과 무관해야 하는 특성에 따라 편향될 수 있으며, 그 결과 성별·인종·종교 등 특정 집단에 속한 개인들에게 불리하게 작용한다.
본 연구는 이처럼 알고리즘이 소수 집단에게 차별적일 수 있다는 점에 대한 우려에서 출발하였다. 현 시대 가장 주목받는 기술이 기존의 차별을 그대로 반복하여 차별을 강화하거나 영속화할 수 있음을 고려할 때, 알고리즘의 공정성을 보장하는 것은 중요한 문제이다. 공정한 알고리즘을 위해서는 우선적으로 공정성을 계량적으로 정의 내리는 것, 그리고 다양한 사회적 맥락에서 공정성 개념을 적용하는 것이 우선적인 과제가 될 것이다. 컴퓨터 공학 분야에서는 지난 몇 년 동안 알고리즘의 사용자들의 의사결정 도구로서 적절히 활용할 수 있도록 여러 공정성의 공식과 수학적 정의를 제안해왔다. 그러나 현재까지는 어떤 알고리즘이 공정한가에 대한 합의가 거의 이루어지지 않은 상황이며, 성능과 공정성 간의 관계에 대한 명확한 윤리적 기준도 성립되지 않았다.
본 연구는 알고리즘의 공정성을 선행적으로 정의하는 대신, 다양한 공정성 문제에 관하여 사람들이 실제로 지각하는 바를 알아보는 것을 목표로 한다. 현재까지의 공학 분야의 연구와는 달리 이러한 접근은 알고리즘 활용 장면에 있어 그 결과로부터 영향을 받는 일반 사람들을 공정성 논의에 포함시킬 수 있는 바탕이 된다. 다양한 학문적 정의들이 제안되었더라도 사람들이 인지하는 정의와 합치하지 않으면 실용적 맥락에서 받아들여지기 어려울 수 있다. 본 연구는 첫번째로 다양한 공정성 개념의 바탕이 되는 수치들과 공정성 지각 간의 관계를 탐구하고, 두번째로는 여러 다양한 과제들에 있어서 공정성과 성능 간의 교환 관계의 문제를 다루었다.
연구1에서는 우선 다른 수치들에 비해 인구 집단 간의 양성 비율(positive rate)의 차이가 공정성 지각에 영향을 미친다는 점을 확인하였다. 이는 실제 결과와의 일치도보다 각 집단에게 이득을 주는 정도와 더 관련이 있다는 점을 시사한다. 또한 단순히 이익을 집단별로 동일하게 분배하는 것뿐만 아니라 차별 받기 쉬운 집단의 이익을 보장한다는 공정성의 다차원적 측면도 확인하였다. 연구2에서는 사람들이 주어진 문제가 대출처럼 개인의 사적인 이익과 관련된 상황일 때 치안과 같은 그렇지 않은 문제보다 더 공정성을 중시한다는 것을 발견하였다. 사람들이 일반적으로 판단할 때보다 자신이 결정의 영향을 받는다고 생각할 때 더 공정성을 중시하는 효과는 자신이 인구통계변수 상 알고리즘의 불공정성으로 혜택을 받는 집단인지에 따라 다르게 나타났다.
본 연구는 고도화된 기술에 관해 윤리적 합의가 어려운 문제들에 관해 사람들의 지각 위주로 접근함으로써 추후 알고리즘 공정성을 계량적으로 정의함에 있어 고려할 만한 방향성을 제공하였다는 데 그 의의가 있다. 마지막으로 본 연구는 위 결과를 바탕으로 공정성 지각에 관한 의미 있는 후속 과제를 함께 제시하였다.
Artificial intelligence algorithms can assist or even automate human judgement by predicting the risks and effects in advance. Decision making models learn from the past data in various social domains such as policing, finance, medicine and recruiting. However, these models often learn bias that already exists in society. Therefore, the decisions that may have serious impact on people's lives could be biased according to some irrelevant attributes, which means that algorithms could work against people with certain gender, race, age, sexual orientation or religion.
Guaranteeing algorithmic fairness is one of the most important issues in this new area of decision making. Regarding that quantifying algorithmic (un)fairness could be the first step of handling the problem, computer science literature has focused on suggesting different mathematical formulations of fair algorithm. Although a variety of notions have been suggested, there is no consensus on an appropriate definition and rules to deal with trade-off issues between algorithmic fairness and performance.
This study has investigated how people perceive the fairness of algorithm in different social contexts without defining algorithmic fairness in advance. Since it is human subjects that are actually influenced by these algorithmic decisions, it is critical to understand their perception of fairness.
Study 1 has explored relationship between fairness perception of subjects and indices related to many fairness definitions, including positive rate, false positive rate and accuracy. The results showed that the variance of positive rate between demographic groups are more important than other indices in fairness perception. Also, algorithm that assures profit for minority groups led to higher fairness perception, indicating that fairness perception is not just related to equal distribution.
Study 2 covered the issue of trade-off between performance and fairness. The results suggest that fairness can be more important in context that are more related to individual profit like loan approval that public matter such as crime prediction. Moreover, fairness becomes more important than performance when people take the situation personally, and only when they are not getting advantages from algorithmic unfairness.
Language
kor
URI
http://dcollection.snu.ac.kr/common/orgView/000000159920
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share