인공지능 윤리의 5대 문제(편향성, 오류와 안전성, 악용, 개인정보보호, 킬러로봇) 중 현재 가장 많이, 자주 일어나고 있는 문제가 두 가지 있다. 첫째는 지난 칼럼에서 다룬 'AI의 편향성' 문제이고, 또 하나는 'AI의 악용' 문제이다.
인공지능의 악용 문제는 말 그대로 인공지능 기술을 인간이 올바른 목적과 방법으로 사용하지 않고 악용하면서 발생하는 문제이다. 인공지능의 악용 문제가 왜 중요하고 심각한 것일까? 우리가 AI의 악용 하면 가장 먼저 떠오르는 것이 바로 '딥페이크(deepfake)'일 것이다.
딥페이크는 딥러닝의 'deep'과 가짜라는 뜻의 'fake'의 합성어로, 인공지능 기술로 만든 가짜 콘텐츠를 의미한다. 하지만 정확한 어원은 2017년 온라인 커뮤니티 사이트 레딧(reddit)에서 할리우드 여배우의 얼굴과 성인 동영상을 합성한 영상을 올려 화제가 된 'deepfakes'란 이름의 사용자에서 비롯되었다.
딥페이크에는 인간이 구별할 수 없을 정도로 정교한 가짜 영상, 가짜 이미지, 가짜 음성 등이 모두 포함된다. 이러한 진짜 같은 가짜 콘텐츠를 만들어 내는 AI 기술을 'GAN(Generative Adversarial Network, 생성적 적대 신경망)'이라고 하는데, 이 기술은 2014년 구글의 연구원인 이안 굿펠로우(Ian Goodfellow) 박사가 개발했다.
물론 처음에 이 GAN 기술을 개발한 굿펠로우 박사는 자신의 기술이 이렇게 악용되리라고는 생각지 않았을 것이다. GAN 기술을 우리가 잘 이용한다면, 손상된 이미지나 영상을 복원하고, 디자인 업무를 자동화하며, 영화나 드라마의 특수 효과에도 활용하는 등 편리한 용도로 활용할 수 있다.
그런데 GAN 기술이 악용되면서 전 세계적으로 딥페이크 성범죄가 끊임없이 일어나고 있다. 현재 우리나라에도 '딥페이크 처벌법'이 제정되어 작년 6월부터 시행되고 있는데, 올해 5월 경찰청에서 발표한 자료에 따르면, 딥페이크 성범죄로 검거된 피의자 중 90%가 10대, 20대 청소년들이라고 밝혀 충격을 주었다. 그만큼 10대, 20대 청소년들이 딥페이크 성범죄에 취약하다는 것인데, 이것은 어렸을 때부터 청소년 인공지능 윤리 교육이 얼마나 중요한지를 방증한다.
우리나라도 대선이라는 큰 선거를 앞두고 있다. 사실 딥페이크는 성범죄뿐만 아니라 가짜 뉴스 문제도 매우 심각할 수 있다. 딥페이크 가짜 뉴스가 정치적, 사회적, 경제적으로 큰 혼란을 야기할 수 있는 것이다.
실제 2018년에는 인도에서 정부를 비판한 여성 언론인의 얼굴이 음란물과 합성된 딥페이크 영상으로 유포되어 해당 언론인이 곤혹을 치른 적이 있으며, 같은 해 멕시코에서도 대선 기간 중 현 대통령 캠프 측 인사들이 뇌물을 받았다는 가짜 딥페이크 음성이 유포되어 정치적으로 큰 혼란이 야기되기도 했다.
이렇게 딥페이크 가짜 뉴스는 상대 정치인을 모함하고 선거를 교란하고, 경제적으로도 특정 기업의 주가를 급등시키고 급락시키는 등 주가 조작에도 악용될 소지가 크다. 문제는 이와 같은 가짜 뉴스로 인한 피해가 즉각적으로 발생하여 되돌릴 수도 없고 회복하기도 힘들다는 점이다.
이와 같이 딥페이크 문제가 전 세계적으로 확산하자 이제 세계 각국 정부와 주요 AI기업들은 딥페이크 문제 해결을 위해 팔을 걷어붙이기 시작했다. 법적 제도화, 기술적 대응, 교육과 같은 방법을 통해서인데, 이러한 노력들과 더불어 우리가 진정 딥페이크 문제를 해결하기 위해 함께 논의할 점이 무엇인지 다음 칼럼에서 계속 이야기해 보고자 한다.