딥페이크 성범죄, 어떻게 막아야 할까?

입력
2024.10.16 04:30
25면

요즘 일부 텔레그램에 거론조차 하기 민망한 메시지가 오간다. 게다가 사회관계망서비스(SNS) 프로필 사진 한 장을 다른 여성의 적나라한 성관계 영상에 합성한 것도 나돈다.

딥페이크(AI 기반 이미지·영상 합성)는 문화·예술 등에 활용되지만, 디지털 성범죄에 악용되고 있다. 각 기관 통계에 따르면, 올 연말 1만여 건, 3년 후인 2027년에는 2만5,000건을 넘을 것으로 보인다.

지능정보사회진흥원(NIA)의 ‘딥페이크 기반 디지털 성범죄 피해 대응 방안’ 연구로 파악한 실태는 ‘타인의 성적 영상에 얼굴을 붙이는‘ 맞춤형 음란물이 아니었다. 본질은 ’모욕‘, ’학대‘였다. 성적 이미지에 능욕할 여성 얼굴 붙이기, 성기‧정액 합성, 얼굴 표정 바꾸기, 지인 사진 옆에 타인의 성관계 이미지, 개인 정보 편집하기 등이다.

텔레그램은 디지털 성범죄 산업 시스템을 만들었다. ’대피소‘로 회원과 콘텐츠를 옮겨 저장한다. ’대피소‘가 많을수록 인기가 있다. ’채널‘ 기능으로 연예인별 ’능욕방‘을 운영한다. 도박 등 불법 콘텐츠로 유입시킨다. 합성 이미지‧음향을 스티커‧이모티콘, '움짤(움직이는 사진)'로 소비한다.

소매 조직은 돈이나 사진‧영상‧글‧신상을 받는다. 채널 운영자가 도매 수익을 얻고 생태계를 키우고자 ’합성학교’를 운영하기도 한다. 운영자-도매-소매상이 해외 거점을 두고 텔레그램 등으로 교류하다가 다른 SNS, 불법 사이트로 퍼지고 있다. ‘텔레그램 차단’ 주장도 있다. 시정 조치 등 행정 처분과 사용 정지 수순을 검토할 만하다.

성폭력범죄의 처벌 등에 관한 특례법은 ’반포 목적으로 성적 수치심을 유발하는 사람의 얼굴ㆍ신체 등으로 영상물 등을 만든 자‘를 처벌한다. 합성을 요청하거나(교사범), 혼자 보려고 만들었다면(반포 목적 부정) 처벌할 수 없다. 소지, 구입, 저장, 시청, 운반, 광고, 소개, 이용 협박까지 처벌을 확대하고 ‘반포 목적’ 항목을 삭제하는 법 개정이 필요하다.

기술 대응도 절실하다. 다만, 딥페이크 생성 기술(창)은 여러 방식으로 빨리 발전하지만, 억제-탐지 기술(방패)은 모든 방식에 대응해야 하기에 어렵다. 생성형 인공지능(AI) 인프라가 필요한데 공익적 예방‧탐지 서비스는 지속 가능성도 고민해야 한다.

AI 역기능을 사회가 따라가지 못하고 있다. 딥페이크 성범죄는 시작에 불과하다. 범죄 조직은 AI 맞춤형 플랫폼으로 개인을 표적화하고 딥페이크‧딥보이스를 활용한 성범죄, 사기, 협박, 정보 침해를 할 것이다. 필자는 학교와 AI 회사에서 ‘AI 안전 서비스’를 개발하고 있다. AI 역기능 대응을 국가의 중차대한 정책으로 육성하길 희망한다.



장광호 ㈜CNAI 대표·한신대 연구교수