차별을 배운 인공지능, 차별을 아는 인공지능

2017.04.28 페이스북 트위터

shutterstock


2017년 4월 14일, 많은 언론들이 조애너 브라이슨의 연구를 소개했다. 여기에 인공지능이 몰래 인종차별과 성차별을 배우고 있다는 식의 제목을 달았는데, 그걸 읽고 편견과 아집으로 똘똘 뭉친 인공지능이 결국 뛰어난 능력으로 사회를 파괴하고 사람들을 탄압할 거라고 상상하는 사람들도 나는 몇 보았다.

사실 그 연구 내용에도 드러나 있듯이, 사람의 패턴을 분석하고 그것을 따라 하는 형태의 인공지능이라면 사람이 갖고 있는 편견이 인공지능에서도 그대로 나타나는 것은 너무 당연한 현상이다. 인종에 대한 편견을 갖고 있는 사회에서 작성된 소설, 독후감, 문서, 상거래 기록을 인공지능에 입력해두었다면, 자연히 그 사회에 널리 퍼진 편견까지 인공지능은 흉내낼 것이다.

흑인을 차별하는 사회의 자료를 입력해서 만든 인공지능에게 “좋은 이름”을 추천하라고 하면, 흑인들이 자주 쓰는 이름은 부정적인 기록과 관련이 높다고 판단하여 덜 좋은 것으로 판정하고 백인들이 자주 쓰는 이름을 위주로 추천할 거라는 이야기다. 비슷하게, 차별의식에 빠져 있는 인사팀 간부가 “좋은 직원”이라면서 골라놓은 기록이 모두 남자 직원뿐이라면, 이런 기록을 바탕으로 인공지능 인사 고과 프로그램을 운영할 경우, 이 프로그램은 남자 직원을 괜시리 좋은 직원으로 평가할 것이다.

그러므로 이런 기사들이 암시하는 진짜 결론은 인공지능 프로그램이 사람을 잘 흉내내고 여러 용도로 쉽게 활용할 수 있다고 해도 별생각 없이 함부로 써서는 안 된다는 것이다. 여기까지는 이미 실제로 적용되고 있는 인공지능 활용 분야에 대한 조언이기도 하다.

그런데 내가 인공지능 기술을 좋아하는 이유는, 인공지능은 그 판단의 과정을 들여다보고 조작할 수 있다는 것 때문이다. 즉, 우리는 한 꺼풀 더 파헤쳐서 이렇게 편견과 차별의식을 배운 인공지능의 내부를 분석해볼 수 있다. 사람이라면 두뇌 속을 들여다본다 한들 그 판단 과정을 정확히 알아내기란 어렵다. 그렇지만 인공지능의 내부는 들춰 보고 건드려볼 수 있다.

인공지능이 어떤 이름을 “좋은 이름”이라고 추천했을 때, 거기에 인종에 대한 인식이 얼마나 들어가 있는지, 우리는 몇 가지 통계 기법으로 파헤쳐 볼 수 있다. 인공지능이 어떤 직원을 “최고 등급”이라고 평가했을 때, 그 직원의 성별을 만약 남자에서 여자로 바꿀 경우에 평가를 어떻게 바꿀지 우리는 시험해볼 수 있다. 인간이라면 “나는 직원 평가를 최대한 객관적으로 했다”며 자신의 속내를 끝내 숨기려 들겠지만, 인공지능이라면 프로그램이 내린 판단에 성별, 나이, 국적의 영향이 얼마나 개입되어 있는지 계산해볼 수 있다. 숫자로 비교해볼 수도 있을 것이다.

즉 인간의 편견을 그대로 학습하는 인공지능은 역으로 우리 인간의 차별의식을 연구해볼 수 있는 좋은 표본이 되고, 도구가 된다. 예를 들어, 디지털 카메라에 관한 어느 인터넷 커뮤니티에 올라온 글들을 입력해서 만든 인공지능과 스포츠 팬들이 모이는 인터넷 커뮤니티에 올라온 글들을 입력해 만든 인공지능 중에 누가 더 인종차별 의식이 강한 결과를 출력하는지 비교하고 측정해볼 수 있다. 작년의 초등학생과 금년의 초등학생이 제출한 독후감을 인공지능 기술로 비교해보면 시대에 따라 성차별 의식이 어떻게 변해가는지 따져볼 수도 있을 것이다.

인공지능 기술을 이용해서 우리는 사회 곳곳에 퍼져 있는 불공정한 차별을 더 세세히, 더 빨리, 더 분명하게 알아낼 수 있고, 더 공정한 대책을 찾아낼 수도 있다. 인공지능의 한 분야인 자연어 처리 기술을 통해 개발된 몇몇 기법들은 이미 인간의 문화를 분석하는 여러 연구에 자주 쓰이고 있다. 앞으로 윤리학, 사회학, 정치학, 철학 분야에서 인공지능 기술을 이용한 더 방대하고 더 정확한 연구는 더욱더 늘어날 거라고 나는 생각한다.

다시 조금 더 미래로 가본다면, SF 작가가 이끌릴 만한 장면은 다음과 같은 상황이다. 뛰어난 가수를 뽑는 오디션에서 최고의 프로듀서가 두 후보에 대해 판정하고 있다. 두 후보의 실력은 막상막하라서 프로듀서가 깊은 고민을 한다. 결국 프로듀서는 2점 정도의 아주 작은 차이로 1번 후보를 우승자로 꼽는다. 그런데, 인공지능 프로그램의 분석에 따르면, 인간은 같은 고향인 사람에게 약간 더 이끌리는 편견이 있을 수밖에 없으므로, 프로듀서와 같은 고향 출신인 1번 후보에게는 3점 정도를 감점하는 것이 옳다는 결과를 준다. 그래서, 이 인공지능 프로그램의 분석을 적용한 “공정한” 결과는 2번 후보가 승리한다는 것이다.

자기 스스로 최선을 다해서 평가했다고 생각하는 프로듀서가 이 결과를 받아들일 수 있을까? 이 오디션을 지켜보는 대중은 어떤 것이 공정하다고 생각할까? 비슷한 방식으로 인공지능이 판정하여 조정하는 공정성 기준을 공무원 채용에 반영한다면 그것은 옳을까? 국회의원 선거에서 이 지역 사람들은 너무 심하게 비판 없이 한 정당에 몰표를 주는 경향이 있으므로 5% 정도 득표율을 감해야지 공정해진다는 인공지능 분석 결과를 적용해도 될까? 대통령 선거 결과에 적용하는 것은 어떤가? 이것은 로봇 황제가 인간 노예에게 채찍질을 하는 미래와는 아주 다른 장면이지만, 재미있고 실감나는 SF물의 한 장면으로서는 역시 모자람이 없다고 생각한다. 나도 이런 문제의 답은 정말 모르겠다. 그래서 더 고민해보고 싶은 이야기다.
CREDIT 글 | 곽재식(화학자/작가)
교정 | 김영진