생각해봅시다, 머신러닝의 윤리학

2017/05/04 by 임백준
공유 레이어 열기/닫기
주소가 복사되었습니다.

세상을 잇(IT)는 이야기. 생각해봅시다, 머신러닝의 윤리학. 하루가 다르게 급변하는 세상, '지금 여기'를 관통하는 최신 기술의 현주소가 궁금하신가요? IT 전문가 칼럼 '세상을 잇(IT)는 이야기'는 현대인이 알아두면 좋을 첨단 테크놀로지 관련 상식을 전하고, 거기서 얻을 수 있는 메시지를 다 함께 생각해보는 삼성전자 뉴스룸의 신규 기획 연재입니다. 분야별 국재 최고 석학들이 직접 만들어가는 고급 지식의 향연, 맘껏 누려보세요!

지난달 미국 뉴욕에서 개최된 머신러닝[1] 컨퍼런스(2017 MLConf NY)에 다녀왔다. 매해 열리는 행사인데 지난 2015년에 이어 2년 만에 다시 참석했다. 올해에도 세계 각지에서 내로라하는 데이터과학자가 모여들었고, 그들이 뿜어내는 열기는 2년 전보다 한층 뜨거워진 느낌이었다. 참가자들의 표정은 하나같이 밝고 활기찼다. 그간 주로 참석해온 개발자 위주 행사에 비해 중국인과 여성 비율이 상대적으로 높은 점도 흥미로웠다.

 

‘여성 사용자’란 이유로 꽃꽂이 모임 추천한 시스템

여성 사용자

바이두(Baidu)와 알리바바(Alibaba)로 대표되는 중국의 인공지능 열기를 떠올리면 중국 사람이 많은 건 당연한 현상이다. 그런데 여성 참가자가 유독 많은 배경은 사뭇 궁금해졌다. 여성 과학자(혹은 엔지니어)들이 코드보다 데이터 다루는 일을 더 선호하는 걸까? (참고로 코딩 분야에선 전통적으로 여성 비율이 낮다. 이는 전 세계적 현상이다. 익히 알려진 것처럼 어린 자녀를 둔 부모가 아들에겐 컴퓨터를, 딸에겐 바비인형을 사주는 식의 문화적 성차별이 그 원인이다.)

데이터과학 부문에서 여성 비율이 높은 건 성차별 현상이 과거에 비해 상당 부분 개선된 데서 그 이유를 찾아야 할 것 같다. 데이터과학이 최근 급부상한 분야란 사실을 고려하면 그 이외의 원인은 딱히 떠오르지 않는다. 물론 그렇다고 해서 성차별이 완전히 사라진 건 아니다. 노골적 차별이 모습을 감췄을 뿐 은밀하게 이뤄지는 차별은 여전히, 그리고 엄연히 존재한다.

데이터과학 부문에서 여성 비율이 높은 건 성차별 현상이 과거에 비해 상당 부분 개선된 데서 그 이유를 찾아야 할 것 같다. 데이터과학이 최근 급부상한 분야란 사실을 고려하면 그 이외의 원인은 딱히 떠오르지 않는다. 물론 그렇다고 해서 성차별이 완전히 사라진 건 아니다. 노골적 차별이 모습을 감췄을 뿐 은밀하게 이뤄지는 차별은 여전히, 그리고 엄연히 존재한다.

전 세계적으로 약 3000만 명의 사용자를 보유한 밋업(Meetup)[2]의 데이터 엔지니어 에반 에스톨라(Evan Estola)는 이번 행사에서 ‘머신러닝의 이단과 최적화란 이름의 교회(Machine Learning Heresy and Church of Optimality)’란 도발적 제목으로 강연에 나섰다. ‘머신러닝’과 ‘최적화’란 단어가 포함되긴 했지만 강의의 주된 내용은 머신러닝의 기술적 측면이 아니라 윤리적 측면이었다.

내가 만든 시스템은 비즈니스 리더 모임에 가입한 여성 사용자에게 (단지 그들이 여자란 이유만으로) 꽃꽂이나 수예 모임 가입을 권했다. 남성 사용자였다면 아마 다른 비즈니스 리더 모임을 찾아 추천했을 것이다.

밋업에 가입해본 사람이라면 알겠지만 밋업 사용자는 가끔 모임 추천 이메일을 받는다. 홈페이지를 방문하면 ‘추천밋업(suggested meetups)’ 섹션에 밋업 머신러닝이 추천하는 모임 목록도 떠오른다. 에스톨라의 임무는 바로 이 추천 시스템을 구동시키기 위한 머신러닝 모델 개발이었다. 그는 강연에서 이렇게 고백했다. “내가 만든 시스템은 비즈니스 리더 모임에 가입한 여성 사용자에게 (단지 그들이 여자란 이유만으로) 꽃꽂이나 수예 모임 가입을 권했다. 남성 사용자였다면 아마 다른 비즈니스 리더 모임을 찾아 추천했을 것이다.”

에스톨라는 자신이 만든 시스템이 저지르는 성차별을 목격한 후 충격을 받았다. 그 즉시 해당 시스템이 사용 중인 알고리즘에 개입, 잘못된 행동을 바로잡은 그는 이 사건을 계기로 머신러닝 모델의 윤리를 고민하게 됐다. 미국 전역을 돌며 ‘머신러닝의 윤리학’을 주제로 강연에 나선 것도 그 즈음부터였다.

 

대출 신청 시스템이 흑인과 히스패닉 차별한다면?

차별

에스톨라의 강연명에 포함된 ‘최적화란 이름의 교회’는 일종의 풍자다. 일부 데이터과학자는 “특정 시스템이 여성 사용자에게 꽃꽂이와 수예 모임을 추천했다면 그게 객관적으로 최선이기 때문”이라고 판단한다. 이렇게 볼 때 해당 시스템의 행동에 개입, 알고리즘을 수정하는 건 최적화에 대한 훼손이 된다. 반면, 에스톨라는 그런 주장에 대해 “정치적으로 올바르지 않은 맹신에 불과하다”고 비판한다.

은행에서 머신러닝 모델을 이용해 고객의 대출신용을 평가한다고 하자. 이때 은행은 모델이 평가의 각 단계에서 무슨 정보에 근거해 어떻게 판단 내리는지 모두 설명할 수 있어야 한다. 그런 의미에서 모델은 속이 환히 들여다보이는 ‘화이트박스’여야 한다.

글로벌 컨설팅 기업 액센츄어(Accenture)에서 인공지능을 연구하고 있는 루만 차우드허리(Rumman Chowdhury, 시니어 매니저)는 “정치∙사회적으로 민감한 정보를 다루는 모델은 (내부가 보이지 않는) 블랙박스 방식을 사용할 수 없다”고 말한다. 예를 들어 은행에서 머신러닝 모델을 이용해 고객의 대출신용을 평가한다고 하자. 이때 은행은 모델이 평가의 각 단계에서 무슨 정보에 근거해 어떻게 판단 내리는지 모두 설명할 수 있어야 한다. 그런 의미에서 모델은 속이 환히 들여다보이는 ‘화이트박스’여야 한다. 차우드허리에 의하면 그런 투명성은 법으로 보장될 필요가 있다.

만약 투명성이 보장되지 않으면 몇 가지 문제가 생길 수 있다. 예를 들어 머신러닝 모델이 특정 대출 신청 고객에 대해 흑인(혹은 히스패닉)이란 이유로 대출을 불허했다고 하자. 앞서 에스톨라가 겪은 사례를 생각하면 그런 일은 얼마든지 일어날 수 있다. 머신러닝 모델은 사회적∙정치적 의미를 고려하지 않고 최적화만 추구하기 때문이다.

ETHICS

이런 차별을 ‘최적화’란 이름으로 정당화하면 향후 은행은 이런 종류의 차별에 대한 책임 일체를 모델에 전가할 수 있다. “(그런 차별을) 의도하지 않았지만 머신러닝 모델이 그렇게 판단했다”고 말하면 끝이기 때문이다. 이는 인종∙성∙나이∙종교 등을 포함, 모든 종류의 차별에 반대하는 미국의 헌법적 가치에 위배된다. 차우드허리는 이런 가치 훼손이 불러오는 사회적 비용이 은행이 취하는 일시적 이익보다 훨씬 크기 때문에 블랙박스 모델을 금지하는 데 정부 개입이 불가피하다고 본다.

구글은 스위니 교수가 검색 창에 자신의 이름 ‘Latanya Sweeney’를 입력하자, 해당 인물이 흑인이란 사실을 감지했다. 이어 구글 애드센스는 "Latanya Sweeney, Arrested(라탄야 스위니, 체포됐었나요)?"란 문구와 함께 범죄 이력 확인 서비스 광고를 보여줬다. 백인(으로 추정되는) 이름이 입력됐다면 노출하지 않았을 광고를 ‘흑인이니까’ 보여준 것이다.

차별은 여기서 멈추지 않는다. 지난 2013년 라탄야 스위니(Latanya Sweeney) 미국 하버드대학교교수가 폭로한 구글 광고 속 인종차별은 미국 전역에서 큰 논란을 불러일으켰다. 구글은 스위니 교수가 검색 창에 자신의 이름 ‘Latanya Sweeney’를 입력하자, 해당 인물이 흑인이란 사실을 감지했다. 이어 구글 애드센스는 “Latanya Sweeney, Arrested(라탄야 스위니, 체포됐었나요)?”란 문구와 함께 범죄 이력 확인 서비스 광고를 보여줬다. 백인(으로 추정되는) 이름이 입력됐다면 노출하지 않았을 광고를 ‘흑인이니까’ 보여준 것이다. 이 사례는 ‘모든 흑인을 잠재적 범죄자로 취급하는’ 미국 주류 사회의 편견을 여과 없이 드러냈다. 동시에 구글 애드센스 머신러닝 모델의 맹점이 노출된 사건이기도 했다.

 

효율성∙윤리 함께 고려한 인공지능, 삼성도 고민해야

사람 손에 들려있는 저울

국내에서도 머신러닝 활용 범위가 점차 넓어지고 있다. △온라인 광고 △금융 △채용 △택시 △대출 △의료 시스템 △대학 입시 등이 대표적 분야다. 이와 함께 머신러닝 모델이 사람들의 삶에 미치는 영향도 날로 깊어지는 추세다.

전기는 물이나 공기처럼 인간이 직접 소비하는 대상이지만 AI는 그 자체가 소비의 대상이기보다 (인간이 소비하는 판단과 지능을 만들어내는) 생산의 주체다. 당연히 그 ‘주체’가 품은 윤리 역시 인류의 삶에 직접적 영향을 끼친다.

인공지능 분야의 세계적 권위자 중 한 명인 앤드류 응(Andrew Ng) 미국 스탠퍼드대학교 교수는 일찍이 “인공지능은 머지않아 전기처럼 전재적(全在)적 존재가 될 것”이라고 말했다. (머신러닝 같은) 인공지능 없인 살 수 없는 시대가 온단 뜻이다. 전기와 AI의 차이는 따로 설명할 필요가 없다. 전기는 물이나 공기처럼 인간이 직접 소비하는 대상이지만 AI는 그 자체가 소비의 대상이기보다 (인간이 소비하는 판단과 지능을 만들어내는) 생산의 주체다. 당연히 그 ‘주체’가 품은 윤리 역시 인류의 삶에 직접적 영향을 끼친다.

인공지능 분야에 관한 한 한국은 미국이나 중국에 비해 후발주자다. 하지만 기술의 윤리적 측면까지 고려한다면 이 점이 오히려 유리하게 작용할 수 있다. 효율성과 윤리를 동시에 고려하며 발전시켜갈 수 있기 때문이다. 사회적 합의가 비교적 빠르게 이뤄지는 한국이 인류 보편의 문제에 기여할 수 있는 여지를 갖게 된 셈이다. 이는 한국 기업, 특히 향후 100년을 책임질 먹거리 모색에 한창일 삼성전자가 진지하게 고민해야 할 문제이기도 하다.

인공지능 분야에 관한 한 한국은 미국이나 중국에 비해 후발주자다. 하지만 기술의 윤리적 측면까지 고려한다면 이 점이 오히려 유리하게 작용할 수 있다. 효율성과 윤리를 동시에 고려하며 발전시켜갈 수 있기 때문이다. 사회적 합의가 비교적 빠르게 이뤄지는 한국이 인류 보편의 문제에 기여할 수 있는 여지를 갖게 된 셈이다. 이는 한국 기업, 특히 향후 100년을 책임질 먹거리 모색에 한창일 삼성전자가 진지하게 고민해야 할 문제이기도 하다.

※이 칼럼은 해당 필진의 개인적 소견이며 삼성전자의 입장이나 전략을 담고 있지 않습니다


[1] Machine Learning. 인간의 학습 능력과 같은 기능을 컴퓨터에서 실현하고자 하는 기술∙기법. 인공지능의 대표적 연구 분야 중 하나다
[2] meetup.com. 온라인상에서 공통 관심사를 지닌 사람을 연결해주는 서비스

by 임백준

삼성전자 상무(DMC연구소 데이터인텔리전스랩)

기획·연재 > 오피니언 > 세상을 잇(IT)는 이야기

기획·연재 > 오피니언

삼성전자 뉴스룸의 직접 제작한 기사와 이미지는 누구나 자유롭게 사용하실 수 있습니다.
그러나 삼성전자 뉴스룸이 제공받은 일부 기사와 이미지는 사용에 제한이 있습니다.
<삼성전자 뉴스룸 콘텐츠 이용에 대한 안내 바로가기>

TOP