보내는 기사
배운 대로 말한 '이루다'는 죄가 없다...문제는 AI윤리실종
이미 가입된 회원입니다.
만 14세 이상만 회원으로 가입하실 수 있습니다.
국내외 주요 흐름과 이슈들을 해당 분야 전문가들이 깊이 있는(deep) 지식과 폭넓은(wide) 시각으로 분석하는 심층 리포트입니다
지난달 23일 출시한 인공지능(AI) 챗봇 '이루다'가 많은 이슈와 숙제를 남기며 3주 만에 서비스를 중단했다. 짧은 시간이었지만 우리 사회와 AI산업에 던진 메시지는 결코 적지 않다. 이번 사례를 계기로 인간과 AI기술과의 근원적 관계를 돌아보고 다가올 4차산업, AI 시대를 대비하는 반면교사로 삼았으면 한다.
이루다는 20세 여대생으로 설정된 AI챗봇이다. 우리가 SNS 메신저를 통해 대화하는데, 상대방이 가상의 AI라고 생각하면 되겠다. 문제의 발단은 일부 사용자들이 이루다를 성적 도구화하고 성희롱하면서 붉어졌다. 그리고 곧이어 두 번째 문제가 터졌다. 대화 과정에서 이루다가 동성애, 장애인, 임산부, 흑인 등에 대해 혐오와 차별 발언을 쏟아낸 것이다. 마지막 가장 큰 문제가 발생했다. 개인정보 유출 논란이 대두된 것이다.
먼저 이루다의 편향성 논란을 살펴보면, AI 챗봇이 대화과정에서 동성애, 장애인 등 사회적 약자, 소수자를 대상으로 혐오와 차별을 말하며 문제가 됐다. 이루다의 경우 10대~20대 청소년들에게 크게 인기를 끌면서, 2주 동안 75만명이 넘는 사람들이 이용했다. 이렇게 수십만명의 사람들이 이용하는 챗봇이 혐오와 차별을 아무렇지 않게 내뱉는다면 사용자인 인간에게 잘못된 정보와 인식을 심어주는 악영향을 끼치게 될 것이다. 특히 주사용자층이 아직 이성적으로 미성숙한 청소년들이라면 문제는 더욱 심각해진다.
AI가 이러한 혐오와 차별을 말하게 된 원인은 무엇일까. AI는 학습을 위해 실제 사용자들의 대화 데이터가 필요하다. 거기엔 편향되고 편견이 들어간 사용자들의 데이터도 포함될 수밖에 없었다. 다시 말해 혐오적, 차별적 내용의 대화를 배웠기 때문에 그런 말을 뱉은 것이다. 따라서 근원적 문제는 그런 사고를 갖고 그런 대화를 한 인간과 사회의 구조이고, 그렇다면 AI 편향성 문제는 결국 사람의 도덕성과 시민의식이 높아지고 사회 구조도 건강해질 때 해결된다.
하지만 AI 편향성 문제를 인간 탓으로만 돌릴 순 없다. 예를 들어 우리가 주스를 만들 때 물이 필요한데, 현재 지구상에 존재하는 물은 흙탕물 밖에 없다고 치자. 기업은 흙탕물로 주스를 만들고 판매하면서 "지금 지구상에 흙탕물만 존재하니 흙탕물로 주스를 만들 수밖에 없다"고 해야 할까. 기업은 사전에 최대한 흙탕물을 정제하고 정수하여 깨끗이 만든 후 주스로 만들어 판매해야 할 것이다. 이번 이루다 사례에서도 기업은 출시가 조금 늦어지더라도, 보다 충분한 데이터의 정제과정과 선별작업, 그리고 반복된 품질검사와 시뮬레이션을 거쳐 출시했어야 하는데 그렇지 못한 점이 매우 아쉽다.
현재 세계 각국의 기업들은 AI 편향성 문제 해결을 위해 노력하고 있다. IBM은 'AI 오픈스케일'이라는 기술을 통해 AI 모델들을 실시간 모니터링해 편향성 발견 시 관리자에게 알려주는 기술을 연구하고 있다. 링크드인도 'LiFT'라는 툴을 통해, 특정 성별, 인종, 연령, 지역에 속하는 회원이 학습 데이터 세트에 지나치게 많거나 적으면 개발자에게 알려주는 기술을 개발하고 있다. 이러한 기술들이 개발되면 AI 기업과 개발자들은 도움을 받을 수 있을 것이다.
두 번째 개인정보 유출 논란은 이번 사례에서 가장 심각했던 AI 윤리 문제다. 인공지능은 학습을 위해 데이터를 필수로 요하는데, 이루다에서는 개인의 SNS 메신저상의 사생활 대화들을 AI 학습을 위한 데이터로 사용했다. 문제는 이러한 개인정보 수집 시, 사용자들에게 명확한 고지를 하지 않은 데 있다. 또 대화 내용에는 대화 상대방이 있는데, 그 상대방에게 동의를 받지 않은 문제도 있다. 해당 기업의 일부 직원들이 이렇게 수집된 개인의 사적 대화 내용을 공유하고, '깃허브'라는 개발자 사이트에 유출시킨 것도 논란이다.
AI의 빅데이터는 합법적 데이터만을 수집해야 하고, 반드시 합법적 절차에 따라야 한다. 이것은 개인의 프라이버시권에 관련된 문제다. 유럽연합(EU)의 개인정보보호법(GDPR)에는 이점이 명시되어 있고, 전세계 정부와 기업, AI연구기관들이 발표한 AI 윤리 가이드라인들에도 프라이버시권이 공통적으로 들어가 있다.
앞으로 AI기술은 더욱 대중화되고 보편화될 것이다. 우리 주변에 AI제품과 서비스도 매우 흔해질 것이다. 각종 매장이나 공공기관, 심지어 거리에도 CCTV나 센서 등을 통해 AI가 개인의 데이터를 지속적으로 수집해 활용하게 될 것이다. 이렇게 되면 개인의 프라이버시권이나 초상권 침해 가능성은 더욱 커지게 된다. '양날의 검'인 AI를 통한 개인정보 수집과 프라이버시권에 대해 지금부터라도 사회적 논의와 합의가 필요한 이유다.
마지막으로는 사용자들의 AI 악용 논란이다. 인간도 아닌 AI 챗봇 프로그램에 성희롱과 학대를 한 것이 잘못인가라는 의문이다. 이번 이루다 사례는 한때 온라인상에서 화제가 됐던 로봇 학대 영상을 떠오르게 한다. 당시 로봇개발회사 개발자들은 로봇을 발로 차거나 때려서 넘어뜨리는 등의 행위를 했고, 이에 대한 논란이 불거졌다.
로봇 개가 기어갈 때 매우 안정적이라는 사실을 보여주기 위해 옆에서 사람이 스팟의 허리를 발로 차는 장면이 등장한다.
독일의 철학자 칸트는 “동물을 학대하는 행위는 해서는 안되는 행위이다. 왜냐하면 동물을 학대하는 사람들은 그 행위로부터 인간성과 이성이 상실되고, 결국 인간도 학대하게 되기 때문이다”라고 말했다. 법적으로는 아무 문제가 없더라고, 윤리적으로는 AI 챗봇이든, 로봇이든, AI 캐릭터든 인간이나 생명체와 유사한 인식을 가질 수 있는 대상에 대해 학대나 폭력 등을 가하는 것은 매우 잘못된 행동이다. 이러한 행위를 AI 챗봇에 죄의식 없이 하다가 결국 그 폭력은 인간에게 향할 가능성이 크다.
인류의 발전과 기술의 발전에는 시행착오가 있을 수밖에 없다. 모든 기술에는 부작용과 역기능이 있기 때문에 완벽하게 안전한 개발은 불가능하다. 하지만 그러한 부작용과 역기능을 최소화하기 위해 AI윤리가 필요한 것이며, 따라서 AI 기술과 AI 윤리는 반드시 조화롭게 같이 가야 한다.
AI 윤리가 절대로 AI 기술을 규제하자는 얘기가 아니다. 오히려 그 반대다. 진정 AI 산업과 기술을 발전시키기 위해서, AI 기술에 윤리라는 안전장치가 들어가야 한다는 것이다. AI 윤리라는 안전장치가 들어가지 않은 AI 제품과 서비스를 소비자들은 선택하지 않을 것이다. AI 윤리라는 안전장치가 들어간 안전하고 윤리적인 AI 제품과 서비스들이 소비자들에게 선택받고 사랑받을 것이다. 그리고 그러한 제품을 만들어내는 기업들이 성공하게 될 것이다.
또하나 AI 윤리에 대한 오해로 윤리와 법을 혼동하는 측면이 있다. 윤리는 말 그대로 우리 사회의 보편적인 가치를 말하는 것이다. 따라서 윤리와 도덕은 법과 달리 강제성이 없다. 지키지 않는다고 해서 처벌받지도 않는다.
따라서 기업들이 AI 제품과 서비스를 개발하고 출시하기 전, AI 윤리 가이드라인을 자율적으로 준수하고 적용한 후 출시하는 것이 가장 바람직하다. 그렇지 못하면 법적 규제가 대두하게 될 것이다. 우리나라는 아직 AI 선진국들에게 비해 AI 기술과 산업이 뒤쳐져 있기 때문에 가능한 한 법적 규제는 최소화하거나 지양해야 한다.
이번 이루다 사례를 통해 AI 기업들과 AI 소비자들이 AI 윤리의 중요성과 필요성을 명확히 인식하는 계기가 되었으면 한다. 한국인공지능윤리협회 인공지능 윤리 헌장 1장 1조를 소개하며 마무리 짓고자 한다. “인공지능은 인간을 편리하고 행복하게 하기 위한 도구이다.”
전창배 한국인공지능윤리협회 이사장
서울대 윤리교육과를 졸업하고 인터파크, 야후코리아, TU미디어 등에서 근무했다. 블록체인기업 ㈜아이오냅 대표, 비영리기관 한국인공지능윤리협회 이사장을 맡고 있다. 인공지능 윤리의 연구, 교육, 전파에 힘쓰고 있으며 서울시 교육청 자문관을 역임 중이다.
신고 사유를 선택해주세요.
작성하신 글을
삭제하시겠습니까?
로그인 한 후 이용 가능합니다.
로그인 하시겠습니까?
이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.
구독을 취소하시겠습니까?
해당 컨텐츠를 구독/취소 하실수 없습니다.
댓글 0