편집자주
가속화한 인공지능 시대. 인간 모두를 위한, 인류 모두를 위한 AI를 만드는 방법은? AI 신기술과 그 이면의 문제들, 그리고 이를 해결할 방법과 Good AI의 필요충분조건
지난 칼럼에 이어 인공지능 윤리의 5대 문제(편향성, 오류와 안전성, 악용, 개인정보보호, 킬러로봇) 중 '악용' 문제에 대해 좀 더 살펴보고자 한다. '딥페이크' 사례를 중심으로 살펴보고 있는데, 또 하나의 사례로, AI를 통해 진짜 같은 가짜 음성을 만들어 악용하는 '딥보이스(deep voice)' 문제도 심각할 수 있다.
실제로 2019년 독일의 한 에너지 회사의 영국 지사 대표가 모회사인 독일 본사 회장의 가짜 음성에 속아 22만 유로(약 2억9,455만 원)를 사기 당한 사건이 일어났다. 독일 본사 회장이 다급한 목소리로 전화를 걸어와 헝가리에 있는 제휴사에 송금하라는 지시였는데, 회장의 목소리와 똑같아 한치의 의심 없이 입금을 했다고 한다.
이렇게 AI기술이 보이스피싱 사기 사건에 악용된다면, 지금도 수천억 원에 달하는 보이스피싱 피해 규모가 걷잡을 수 없이 커질 수 있다. 만약 나의 부모, 자녀가 다급한 목소리로 지금 사고가 났으니 빨리 어디로 얼마를 송금해달라고 할 때 딱 잘라 안 된다고 할 수 있는 사람은 많지 않을 것이다. 이렇게 되면 결국 우리 인류와 사회를 지탱하는 가장 큰 축인 '신뢰'라는 가치는 크게 훼손될 수밖에 없을 것이다.
최근 AI 가상인간, 디지털휴먼이 큰 인기를 끌고 있다. 우리나라에는 가상인간 정치인까지 등장했다. 필자가 최근 AI 가상인간 정치인에 대한 질문을 종종 받는데, 공통으로 제시하는 점이 두 가지다.
첫째는 AI 기술을 이용하여 정치 분야에도 다양하게 활용한다는 것은 나쁜 일이 아니라는 점이다. AI 가상인간 정치인을 통해 미디어 선거운동에 활용하고, AI 기술을 이용하여 유권자 통계분석이나 득표율 예측 등에 활용하는 것은 고무적인 일이다.
하지만 둘째로, 이러한 AI 기술을 악용할 경우에 따르는 문제는 짚어봐야 한다는 것이다. 만약 누군가 상대방 후보를 모함할 목적으로, AI 가상인간 정치인을 만들어 온라인상에 유포하거나 SNS에 퍼뜨려 공정한 정치문화와 선거체제를 훼손하면 안 될 것이다.
또한 AI 가상인간 정치인을 활용하는 측면에서도, 영상과 미디어에 AI 가상인간 정치인이 등장할 때 실제 인간인지 AI 가상인간인지를 명확하게 밝혀서 유권자들에게 정확한 정보와 선택권을 보장해야 한다. 그러기 위해서는 AI 가상인간 정치인이 등장할 때, 화면 하단에 처음부터 영상 끝까지 'AI로 만든 가상인간'이라는 점을 명확하게 지속적으로 밝히고 노출할 필요가 있다.
이와 같이 살펴본 AI 악용 문제의 해결 방안은 무엇일까? 가장 중요한 것은 인공지능을 악용하는 주체가 결국 사람이기 때문에, '교육'을 통해 AI의 개발과 활용을 올바르게 인식하고 실천하게 하는 것이다. 특히 미래의 인공지능 과학자와 소비자가 될 우리 청소년들이 어렸을 때부터 이러한 교육을 통해서 AI에 대한 올바른 인식과 활용을 배우는 것이 매우 필요하다.
다음으로 중요한 것은 자율적인 'AI 윤리 가이드라인'의 설정이다. 최근 이슈가 된 AI 가상인간이나 가상인간 정치인이 인간과 사회에 어떤 영향을 미칠지, 개발과 활용에서 유의하고 지켜야 할 점들은 무엇인지 연구하고 도출해보고 정리해보는 것이다. 물론 이러한 가이드라인은 법이 아니기 때문에 강제성은 없다. 정부, 기업, 학계, 시민사회 등 모든 AI 관련 주체들이 자율적으로 논의하고 합의하고 실천하는 것이 중요하다.
마지막으로 이러한 가이드라인 중 일부는 법적 제도화가 필요할 것이다. 우리나라에서도 2020년 6월부터 성폭력처벌법 개정안을 통해 딥페이크 성범죄에 대한 규정과 처벌이 시행 중이다. 추후에는 AI를 악용한 보이스피싱 범죄, 공직선거 방해 행위에 관한 법률도 제정이 필요할 것이다.
댓글 0