성범죄, 명예훼손, 사기, 선거법... 딥페이크는 모든 범죄로 확산 중

입력
2024.09.13 08:30
10면
학계 "AI 범죄 중 가장 위험" 4년 전 주장
성범죄 피해 크지만 다른 범죄에도 악용
"단속 땐 마약처럼 국가 간 공조 필요해"


"향후 15년간 발생할 AI 기반 범죄 가운데 가장 위험하다."
연구 논문 'AI 기반 미래 범죄'(AI-enabled future crime)

4년 전 영국 런던대학교 연구진은 딥페이크(인공지능 기반 이미지 합성)를 이렇게 평가했다. 범죄의 해악·실현 가능성 등 네 가지 척도로 18개 범죄를 학계와 수사당국 등 전문가 31명이 논의한 결과였다. 딥페이크 기술은 이처럼 심각한 범죄에 활용될 우려 속에서 태동했다.

인공지능(AI)으로 단 몇 분이면 '진짜 같은 가짜'를 만들 수 있는 딥페이크 범죄는 국내에서도 활개를 치고 있다. 최근 큰 논란을 일으킨 성범죄뿐만 아니라 교묘한 가짜 정보를 퍼뜨리거나, 유명 연예인을 사칭해 사기를 벌일 때도 딥페이크가 쓰인다. 전문가들은 기술 자체를 규제하는 건 불가능하니 국제 공조 강화 같은 차선책을 펴야 할 시점이라고 말한다.

대통령, 연예인, 일반인 얼굴 전부 악용

"저 윤석열, 국민을 괴롭히는 법을 집행해온 사람입니다." 올해 2월 윤석열 대통령이 이렇게 말하는 46초짜리 영상이 등장했다. 우리나라에서 정치인을 대상으로 한 가짜 영상의 대표 사례로 꼽힌다. 2개월 뒤 이 영상을 만들고 사회관계망서비스(SNS)에 유포한 50대 남성은 정보통신망법상 명예훼손 혐의로 경찰에 붙잡혔다. 선거에 영향을 미칠 목적으로 딥페이크가 활용되는 일도 잦아지고 있다. 한병도 더불어민주당 의원실이 중앙선거관리위원회에서 받은 자료에 따르면 4·10 총선에서 딥페이크를 활용한 불법 선거운동 게시물은 388건에 달했다. 이 가운데 97건(25%)은 선관위의 삭제 요청에도 지워지지 않았다. 사이버상에서 공직선거법을 위반한 전체 건수 역시 7만 4,172건으로 19대 총선(1,793건)보다 크게 늘었다.

카메라 앞에 설 일이 많은 연예인 얼굴도 범죄에 이용되기 일쑤다. 지난해 한 투자 사기 일당은 배우 조인성과 송혜교가 투자를 독려하는 듯한 딥페이크 영상으로 피해자들을 꾀어내기도 했다. 올해 2월 홍콩에선 일반인 얼굴을 이용한 사기 행각도 터졌다. 미국 CNN에 따르면 한 다국적기업 직원은 최고재무책임자(CFO)의 요청을 받아 회삿돈 약 2,500만 달러(약 334억 원)를 입금했다. 거금을 보내라는 메일을 처음엔 의심했지만, CFO와 함께 화상 회의에 참석한 동료들 중 아는 얼굴이 보여 의심을 풀었다고 한다. 그러나 모두 딥페이크를 활용해 조작한 영상이었다.

"기술 발전 막긴 어려워... 교육·국제 공조 중요"

무서운 속도로 발전한 딥페이크 기술 자체를 막긴 어렵다. 이미 누구나 쉽게 만들고 유통할 수 있는 환경이 갖춰졌기 때문이다. 김민호 성균관대 법학전문대학원 교수(전 개인정보보호법학회장)는 "딥페이크는 수년 전부터 있던 기술이지만 비전문가가 돈 들이지 않고 쉽게 만들 수 있게 되면서 사회적 문제가 되기 시작한 것"이라며 "텔레그램 같은 유통망을 모니터링해서 불법 행위를 단속해야 한다"고 했다. 딥페이크가 단순 놀이가 아닌 심각한 범죄라는 걸 교육해야 한다는 의견도 높다.

이미 발생한 딥페이크 범죄는 국가 간 철저한 공조를 통해 단속해야 한다. 임종인 고려대학교 정보보호대학원 명예교수는 "딥페이크는 우리 사회에 불신 풍조를 퍼뜨린다는 점에서 민주주의의 위기까지 초래할 수 있다"면서 "전 인류가 문제의식을 갖고 있는 마약 범죄를 다룰 때처럼 국제 협력이 필요하다"고 평가했다. 이어 "나라별로 온도 차가 크지만 우리 정부부터 강력한 의지를 보여야 할 것"이라고 강조했다.


최현빈 기자