초반부터 히트예감으로 다가왔다. 인간 못지 않은 대화 콘셉트로 보는 이들의 눈과 귀를 사로 잡았다. 나오자마자 몰려든 80만명의 사용자가 이를 대변했다. 하지만 기대감이 너무 컸기 때문이었까. 돌풍에 비해 유효기간은 3주에 불과했다. '혐오 학습' 논란으로 서비스 잠정 중단에 들어간 인공지능(AI)인 챗봇 '이루다' 얘기다. 이루다를 개발한 업체인 스캐터랩은 "AI 윤리성을 열심히 고민해 사람에게 더 이로운 'AI 이루다'로 돌아오겠다"는 입장을 내놨다. 더 똑똑해진 이루다로 복귀를 약속했지만 세간의 걱정은 여전하다. 이에 대해 AI 전문가는 보다 근본적인 시각에서 바라봐야 한다며 이루다 사태를 신중하게 접근했다.
장병탁(사진) 서울대 AI연구원장(컴퓨터공학부 교수)은 13일 본보와 가진 인터뷰에서 "최근 제기된 이루다의 혐오 발언처럼 AI 윤리와 관련된 문제는 기술적으로 완전히 해결하는 건 불가능하다"고 거듭 강조했다. 미흡한 기술에만 모든 책임을 돌릴 게 아니라 이번 사태를 우리 사회가 'AI 윤리문제'에 대해 깊이 고민하고 성찰하는 계기로 삼아야 한다는 게 장 원장의 진단이다.
장 원장은 이번 사태와 관련해 "AI 이루다는 분명 과거에 견줘 강을 하나 건넜을 만큼 기술 진보를 이룬 성과가 있다"며 인정했다. 하지만 "개발사의 손을 떠난 AI 기술은 결국 개발사도 완벽하게 통제할 수 없는데 개발사가 그런 부분을 제대로 예측하지 못한 것 같다"고 지적했다. 실제 AI 이루다가 더 똑똑해진 건 맞다. 이루다 초기 버전은 마이크로소프사가 2014년 중국에서 선보인 AI 챗봇 '샤오이스(XIAOICE)' 기술을 기반으로 했는데, 최근 출시된 이루다는 샤오이스보다 대화 능력이 배 이상 향상됐다는 게 회사 측 설명이다.
하지만 AI 챗봇은 데이터를 기반으로 끊임없이 자가학습을 하기 때문에 이번처럼 개발사 의도와는 전혀 다른 모습이 나타날 가능성이 적지 않다. 스캐터랩도 "서비스 출시 이후 사전에 대비한 것보다 다양하고 심각한 사용자 발화가 등장하면서 예상치 못한 이루다의 편향성이 드러났다"고 인정했다.
이런 사례는 많다. 마이크로소프트(MS)는 2016년 3월 야심차게 AI 챗봇 '테이'를 선보였는데, 테이는 16시간만에 퇴출됐다. 일부 사용자가 테이를 상대로 인종 차별, 성차별 등을 유도하자, 이를 학습 데이터로 인식한 테이가 트위터에 "대량학살을 지지한다"는 식의 부적절한 트윗을 쏟아냈기 때문이다. 이후 MS는 'ZO'라는 챗봇을 내놨는데, 이번엔 아예 정치 관련 키워드를 제외하면서 "맥락 없는 검열"이란 비판을 받기도 했다.
결국 기술 보완만이 능사가 아니라 개발자는 물론 사용자 역시 'AI 윤리 감수성'을 끌어올려야 한다는 게 장 원장의 주장이다. 그는 "개발자들은 전공 지식만 배우다 보니 아무래도 윤리적 민감도가 떨어질 수 있다"며 "AI 기술을 개발할 땐 인문·사회 전공자들을 참여시키는 등의 노력이 필요하다"고 조언했다. 실제 스캐터랩이 이루다 출시 전 공개한 기술 개발 과정을 담은 30분짜리 영상을 보면 얼마나 성능이 좋아졌는지만 나열돼 있을 뿐, 정작 AI 윤리 문제 등에 고민은 전혀 담겨 있지 않다. 장 교수가 윤리적인 문제에 주목한 배경이다.
20살 여대생으로 설정된 이루다에게 음담패설, 혐오발언을 하도록 유도하는 우회 질문을 쏟아내는 사용자들의 행태도 바람직하지 않다고 지적했다. 장 교수는 "이런 이슈가 터지고 나서 AI 윤리에 대한 문제가 제기되고 있는데 지금 정부에서도 AI 초·중·고 교과서가 만들고 있고 여기서 AI 윤리도 중요하게 다뤄진다"고 했다.
장 교수는 특히 인터뷰 말미에선 이번 사태가 되풀이되는 걸 막기 위해 정부가 지나치게 규제하는 쪽으로 정책 방향을 틀어서는 안 된다는 점도 분명히 했다. 그는 "논란을 일으킨 회사에만 책임을 몰고가면 자칫 이런 기술을 개발하려는 회사가 모두 사라지고 결국 AI 산업 자체가 멈춰 국가경쟁력이 떨어질 수도 있다"고 우려했다. 그는 이어 "이 기회에 우리 사회가 AI 산업을 어떤 식으로 발전시켜 나갈지 고민해 한 걸음 더 나아가는 계기로 삼아야 한다"고 강조했다.