Publications

Detailed Information

인공지능 언어모델에 대한 규범적 연구 : Normative study on AI language model
일반 대화형 챗봇에 대한 실증연구를 중심으로

Cited 0 time in Web of Science Cited 0 time in Scopus
Authors

정종구

Advisor
고학수
Issue Date
2022
Publisher
서울대학교 대학원
Keywords
인공지능법정책인공지능윤리인공지능언어모델자연어처리챗봇실증연구공정성투명성책무성개인정보보호이루다
Description
학위논문(박사) -- 서울대학교대학원 : 법과대학 법학과, 2022. 8. 고학수.
Abstract
인공지능은 기존의 기술발전보다 급격하고 근본적인 사회변화를 초래할 것이다. 하지만 기존 국내외 정책당국의 대응은 실증적이고 객관적인 데이터에 근거했던 것으로 보이지 않는다. 이에 본 연구는 인공지능 활용에 있어 실제로 문제되는 위해가 무엇인지를 실증적으로 규명하였다. 문제의 원인을 어떻게 파악하는지에 따라 그 대응방안이 달라질 것이다. 구체적으로는 한국 사회에서 일반 대화형 챗봇을 둘러싸고 2021년 동안 전개되었던 실제 사건을 토대로 확보한 데이터에서 경험적으로 발현된 위해를 기존 인공지능 윤리담론에서 사변적으로 전제하였던 위해와 비교·대조함으로써 시사점을 도출하였다.
제2장 기존 인공지능 윤리담론의 분석적 정리에서는 연구대상인 인공지능 언어모델과 챗봇에 대한 기술적 배경을 소개하였다. 이를 바탕으로, 인공지능 언어모델에서 제기되었던 규범적 문제를 체계적으로 정리하였다. 규범적인 논의는 일반적으로 인공지능 윤리의 문제로 언급되어 오던 공정성, 투명성, 책무성, 그리고 개인정보보호 측면에서 체계적으로 분류하여 소개하였다. 단순히 추상적인 윤리담론을 열거하는 수준에 그치지 않고 해당 영역에서 먼저 도입되었던 실정법이 있다면 그와의 관계를 유기적으로 살펴보았고, 관련된 기술적 쟁점이 있다면 필요한 만큼 언급하였다. 이러한 방식으로 선행연구를 검토함으로써 실증연구를 바탕으로 비판적으로 검토할 수 있는 이론적인 토대를 마련하였다.
제3장 실제 데이터에 기초한 검증 및 평가에서는 기존에 전개되었던 인공지능 윤리담론을 실제 사건을 토대로 확보한 9,747 건의 데이터에 비추어 실증적으로 검토하였다. 기존의 추상적인 관념과 단편적인 사례 위주로 이론화되어 전개되었던 인공지능 윤리담론이 전제했던 위해의 범주와 비중이 실제 사안에서는 그대로 유효하지 않을 수 있다는 점을 확인했다. 인공지능 윤리담론은 공정성-투명성-책무성-식별성 침해라는 위해를 고르게 전제하고 있었고 실제 법정책에도 그러한 내용이 반영되고 있는 반면, 실제 챗봇으로부터 발생한 위해는 주로 책무성 측면에 치우쳐 있었다. 이러한 위해는 결정적이지 않고 확률적이었으며, 이용자와의 상호작용을 염두에 두어야 비로소 온전히 파악하고 대처할 수 있었다.
앞으로 더 많은 실증연구가 필요하다. 인공지능 기술이 발전하면서 어떠한 위해를 새로이 유발하게 될지는 아무도 모르며 단일한 기술을 전제하더라도 개별 응용프로그램 단계에서 어떻게 활용되는지에 따라 발생할 수 있는 위해의 양상은 크게 달라질 수 있기 때문이다. 편익이 비용을 상회하는 이상 실제 경험적인 데이터에 기초하여 위해를 측량하고 이를 규명한 후 적절히 대처할 수 있는 방안을 모색하는 피드백 루프를 구축해야 한다. 또한 이용자의 행태에 관심을 가져야 한다. 개별 인공지능 시스템의 특성에 따라 인공지능이 인간에게 미치는 영향뿐만 아니라, 인간과 인공지능의 상호작용 내지 인간과 인간 사이의 상호작용이 중요할 수 있기 때문이다. 이용자의 전략적인 행동과 이용자 상호간 정보교류를 통한 위해의 심화 내지 완화를 충분히 고민한 실증적인 윤리담론과 그에 기초한 법·정책이 필요하다.
Artificial intelligence will bring about radical and fundamental social changes than existing technological developments. However, the existing domestic and foreign policy authorities do not appear to have been based on empirical and objective data. Therefore, this study empirically identifies the risks that are actually problematic in the use of artificial intelligence. Depending on how we identify the cause of the problem, our response will be different. Using data based on actual events in 2021, we compare and contrast the empirically expressed harm with the theoretically assumed harm.
In Chapter 2, we first introduced the technical background of the artificial intelligence language model and chatbot, which are the research subjects. Based on this, the normative problems raised in the artificial intelligence language model are systematically arranged. The normative discussion is introduced by classifying it in terms of fairness, transparency, accountability, and personal information protection, which have been generally mentioned as issues of artificial intelligence ethics. The normative discussion did not stop at the level of simply enumerating abstract ethical discourse. If there are any regulations that are introduced first in the relevant area, the relationship with them is examined in detail. If there are related technical issues, they are mentioned as much as necessary. By reviewing previous studies in this way, a theoretical foundation is laid for critical review based on empirical studies.
In Chapter 3, the existing artificial intelligence ethical discourse is empirically reviewed according to 9,747 data points based on actual events. It was confirmed that the category and weight of harm presupposed by the existing theorized artificial intelligence ethical discourse may not be valid as it is in actual cases. The ethical discourse of artificial intelligence evenly presupposes the harm of fairness-transparency-accountability-identity infringement, and such content is reflected in actual legal policy. On the other hand, the harm caused by the actual chatbot is mainly biased towards accountability. These risks are stochastic, not deterministic, and could only be fully understood and dealt with only when interaction with users is in mind.
More empirical studies are needed in the future. No one knows what kind of harm will be caused as a result of artificial intelligence technology advances. Even if a single technology is assumed, the aspect of harm can vary greatly depending on how it is used in the individual application level. As long as the benefits outweigh the costs, it is necessary to build a feedback loop that measures the risks based on actual empirical data, identifies them, and finds ways to deal with them appropriately. Also, we should pay attention to the behavior of artificial intelligence service users. This is because, depending on the characteristics of individual artificial intelligence systems, not only the effects of artificial intelligence on humans, but also human-artificial intelligence or human-human interactions may be important. Research is needed to empirically consider the deepening or mitigation of harm through strategic actions and interactions of users. Also, laws and policies should be based on them.
Language
kor
URI
https://hdl.handle.net/10371/188010

https://dcollection.snu.ac.kr/common/orgView/000000172498
Files in This Item:
Appears in Collections:

Altmetrics

Item View & Download Count

  • mendeley

Items in S-Space are protected by copyright, with all rights reserved, unless otherwise indicated.

Share