한 줄 요약: 사람에게서 성별 고정관념을 없애는 것보다, 머신러닝 1에서 제거하는 것이 더 쉽다.

살리그라마(Saligrama), 볼루크바시(Bolukbasi), 창(Chang), 저우(Zou), 그리고 나는, 최근의 논문에서 단어 표현(Word Embeddings)에 대해 몇 가지 좋은 소식과 나쁜 소식을 찾아냈다. 단어 표현(Word Embeddings)은 인공지능 연구자들 사이에서 만능 도구로 유명한데, 특히 유사어 퍼즐을 푸는 데에 사용될 수 있다. 이를테면,

남자:왕 = 여자:x

라는 도식을 만든다면, 인공지능 연구자들은 컴퓨터가

x = 여왕

을 찾아냈을 때 매우 기뻐할 것이다. (보통 사람들은 그렇게 단순한 퍼즐이 컴퓨터에게 큰 도전이라는 것을 알면 놀랄 것이다.) 우리의 사회과학 연구자들에게 영향을 받아(특히, 낸시 바임(Nancy Baym), 탈튼 질레스피(Tarleton Gillespie)와 매리 그레이(Mary Gray)) 우리는 조금 더 파고 들어가 간단한 프로그램을 짰다. 그것은

그:x = 그녀:y

의 도식에 “가장 알맞은” 단어를 찾는 프로그램인데, 가장 많이 쓰이고 접근 가능한 단어 표현 프로그램인 Word2vec을 이용하여 일상에서 많이 사용하는 어구들의 단어표현에 따라 결정되도록 하였다. 우리는 그 프로그램을 구글 뉴스 기사에서 나오는 1000조 단어의 말뭉치로 학습시켰다.

프로그램의 결과물은 다양한 x-y쌍들의 집합으로써, 남자형제-여자형제와 같은 단순한 정의에서부터 시작해서 (이를테면, 그는 남동생이고 그녀는 누나) 파랑-분홍, 기타리스트-보컬리스트와 같은 성별 고정관념에 관한 것들, 심지어 의사-간호사, 프로그래머-가정주부, 똑똑한-사랑스러운과 같이 매우 성차별적인 조합까지 이어졌다. 재미있는 것도 있었는데, 남자는 신장 담석과 여자는 임신, 소세지와 빵, WTF와 OMG 같은 것들이었다. 더 많은 쌍들, 그리고 이들이 짝 지어진 근거와 설명에 대해서는 우리의 논문<남자는 컴퓨터 프로그래머, 여자는 가정주부? 단어 표현에서 편향 지우기(Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings)>을 참고하라.

안 좋은 소식: 단어 표현의 직접적인 적용은 부주의하게 편향을 증폭시킬 수 있다. 단어 표현은 점점 더 많은 응용 프로그램에 사용되고 있다. 단어 표현을 웹 검색, 입사 지원서 처리, 챗봇 등에 사용하는 방법에 대한 수많은 논문들 중에서, 수백 개가 왕-여왕 관계를 언급하지만 그 중에 어느 것도 명백한 성차별주의가 존재한다는 것은 알아채지 못하고 있다.

어떤 사람이 ‘컴퓨터 프로그래머’를 검색한다고 하자. 한 논문은 ‘컴퓨터 프로그래머’라는 단어가 ‘자바스크립트’와 같은 단어와 연관되어 있는 ‘단어 표현’의 지식을 이용해 어떻게 검색 결과를 향상시킬 수 있는지 보여주었다. 이것을 이용해, 연관 단어들을 포함한 검색 결과들이 나타나고, 통계적으로 검색어에 훨씬 더 알맞은 평균적 결과가 나온다는 것이 밝혀졌다. 그러나, 사람 이름 ‘존’은 ‘매리’보다 컴퓨터 프로그래머라는 단어에 더 강한 연관성을 보인다. 말인즉슨, 컴퓨터 프로그래머에 관한 검색 결과에서는 단지 존과 매리로 이름만 다를 뿐인데도, 존에 관한 것이 더 상위에 보일 것이다. 이것은 여성 프로그래머들을 검색 결과에서 하위에 위치시킴으로써 대부분의 컴퓨터 프로그래머가 남성이라는 통계적 편향을 ‘증폭’시킬 것이다.

이제 당신은 우리가 이 문제를 단지 단어 표현에서 이름을 삭제하는 것만으로 풀 수 있다고 생각할지도 모른다. 그러나 여전히 간접 미묘한 편향들이 존재한다. 컴퓨터 프로그래머라는 단어는 ‘체조’보다 ‘야구’에 더 가깝다. 이제 여러분이 상상할 수 있는 것처럼, 이름을 지우는 것만으로는 모든 문제를 해결할 수 없다.

좋은 소식: 단어 표현에서는 편향을 쉽게 낮추거나 삭제할 수 있다. 버튼을 누르는 것으로, 우리는 단어 표현 내에 있는 모든 직업, 이름, 스포츠들 사이의 젠더 연관성을 삭제할 수 있다. 사실, 단어 표현 자체가 이런 개념을 잡아내기 때문에 당신은 몇 가지를 제거하거나 유지하고 싶은 연관성의 예만 들어주면 된다. 컴퓨터에 적용하는 것은 사람의 경우보다 훨씬 더 쉬울 것이다. 남자와 여자는 언제나 젠더 연관성을 내포하는 것으로 나타났다. 단어 표현 또한 그들이 학습하는 텍스트에 내포된 놀라운 양의 젠더 연관성을 마주할 것이다.

사람은 채용 후보자를 평가하는 등의 작업에서 이러한 연관성을 무시하려고 시도는 할 수 있겠지만, 지속적인 노력을 요하는 어려운 일이다. 그러나 컴퓨터는 여러가지 다른 단어 집합 속에서 그러한 연관성을 제거하고 프로그래밍 될 수 있으며, 쉽게 그 일을 해낼 것이다. 당연히, 기계학습 연구자들 또한 조심해야 한다 – 적용해 본 결과에 따르면, 편향은 여전히 다른 방식으로 숨어있을 수 있다. 나는 우리가, 다른 사람들 역시도 정의하고 제거하고, 부정할 수 있는, 동시에 그들의 응용 프로그램을 위해 선택함으로써 편향을 증폭시킬 가능성이 있는 도구를 제공하는 것임을 언급하고 싶다.

기계학습과 인공지능이 점점 더 편재(Ubiquitous)하게 되면서, 인공지능의 사회적 효능과 가능한 위험에 대해 공개적인 토론이 늘어나고 있다. 우리의 연구는 흔한, 지도 받지 않은 기계학습 알고리즘이 우리 사회와 데이터 속의 고정관념을 반영하고 결정화시키는 사례에 대한 통찰이다. 이러한 알고리즘이 널리 적용되는 것은, 고정관념을 증폭시켜 심각한 결과를 가져올 수 있다. 우리의 연구는, 기계학습에서의 이와 같은 편향을 수량화하고 이해하는 것의 중요성과, 어떻게 기계학습이 편향을 줄이기 위해 사용될 수 있는지를 밝히는 것이다.

비록 이 연구는 남성-여성 성차를 중심으로 한 젠더 편향에 초점을 맞추었지만, 우리는 현재 단어 표현에서 인종 편향을 포함한 모든 종류의 편향을 밝혀내고 지우기 위한 기술을 개발하고 있다.

원제:  How machine learning can amplify or remove gender stereotypes @ Social Media Collective
원문 게재일: 2016년 8월 6일 
원저자: adamkalai
번역: 진달래
편집: 지연

Notes:

  1. 머신 러닝(machine learning) 또는 기계 학습(機械 學習)은 인공 지능의 한 분야로, 컴퓨터가 학습할 수 있도록 하는 알고리즘과 기술을 개발하는 분야를 말한다. 출처: 위키백과

댓글

comments