개인간에 사진, 일러스트 등을 사고파는 일본의 콘텐츠 거래 플랫폼인 C사이트에 'OO 온천 여행(샘플 있음)'이라는 제목으로 올라온 게시글이다. 게시 글에는 "모든 이미지는 AI로 작성한 일러스트입니다. 등장인물은 모두 18세 이상입니다"라는 설명이 있었지만 첨부된 샘플 이미지는 누가 봐도 미성년자 사진이었다. 이 게시글의 작성자는 월 5,000원을 내면 이와 비슷한 수위의 사진 20장을, 월 7,000원을 내면 아동 포르노 수준의 사진을 제공하겠다는 조건을 내밀었다. 해당 글은 일본어로 작성되어 있지만 이 사이트에 콘텐츠를 판매하거나 구입하는 한국인들도 상당수인 것으로 알려진다.
이미지 생성 인공지능(AI) 기술로 음란물을 만들어 파는 시장까지 생긴 것으로 확인됐다. 특히 해외 플랫폼을 중심으로 연예인 대상 딥페이크 이미지부터 미성년자를 대상으로 한 AI 음란물까지 활발하게 거래되면서 2020년 사회적으로 큰 파장을 일으킨 'N번방 사건'이 재현될 수 있다는 우려가 나오고 있다. 게다가 AI 기술을 통해 이미지를 만들어내는 만큼 이러한 음란물이 얼마나 많이 생성되고 퍼졌는지 추정조차 어렵다.
12일 업계에 따르면 일부 해외 콘텐츠 거래 플랫폼에서는 AI 기술로 제작한 음란물이 거래되는 것을 쉽게 찾아볼 수 있다. 이들은 AI로 생성한 사진 수십 장을 월 3,000~1만 원으로 등급을 나누고 그에 따라 사진을 보내주는 식이다.
글로벌 플랫폼이지만 국내 제작자와 이용자 모두 상당한 것으로 전해진다. AI 이미지 관련 국내 온라인 커뮤니티인 A사이트에는 해외 거래 사이트에서 음란물을 판매하는 요령까지 공유되기도 한다. 미국 기반의 P사이트에서 음란물을 파는 한 한국인 업자는 "아청법(아동청소년의 성보호에 관한 법률)에 걸리지 않으려면 작성 글에 절대 한국인인 것을 드러내지 말고 후원금도 페이팔이나 비트코인으로 받아라"라며 "진짜 수위가 높아 문제 될 수 있는 사진은 구글 드라이브나 텔레그램으로 옮겨가 거래하는 것도 방법"이라고 설명했다. 또 다른 판매자가 "P사이트에 사진을 올렸더니 쪽지로 '실제 관계를 하는 사진은 없나' 등 더 높은 수위의 사진을 요구해서 고민"이라고 글을 올리자 "처음에는 수영복 사진을 시작해서 점점 수위를 높이면서 가격도 높게 불러라"라는 답이 달렸다.
AI 음란물 유통 구조를 잘 안다는 제보자 A씨는 "주로 일본 플랫폼에서 많이 거래되는데 보통 한 달에 10만 엔(약 100만 원) 이상 후원을 받는 사람들도 많은 것으로 알고 있다"면서 "다만 최근 거래 플랫폼에서도 아동 포르노를 제재하려 하면서 수익을 얻기 힘들어지자 간접 방식으로 트위터, 디스코드, 텔레그램 등으로 후원을 유도하는 움직임도 보인다"고 말했다.
판매자들은 주로 유튜브와 트위터 등 커뮤니티를 통해 샘플 사진과 영상을 올려 자신의 거래 플랫폼 페이지를 알리고 있었다. 각종 커뮤니티에서 올라와 화제가 된 AI 이미지 상당수가 이들의 홍보 게시글이었던 것이다.
어떻게 보면 단순히 음란물을 유포하는 것처럼 보이지만 실상은 매우 심각하다. 이들이 AI를 통해 음란물을 무제한으로 만들어 유포할 수 있다는 점 때문이다. 게다가 이들이 판매하는 이미지가 실제 사진을 학습한 것이라는 점은 더 큰 문제다. 모든 생성 AI는 기술 구조상 입력한 데이터를 학습해 창작물을 만든다. 결국 AI 음란물은 누군가의 실제 사진을 바탕으로 제작되는 만큼 또 다른 방식의 '성 착취' 피해로 볼 수 있다.
A씨는 "N번방의 경우 '박사' 등이 성 착취 콘텐츠를 직접 만들고 배포했는데 이들이 만들 수 있는 음란물의 양은 제한적이었다"며 "반면 AI로는 어떠한 규제나 검열 없이 누구나 특정인을 대상으로 한 이미지를 만들고 배포한다는 점에서 심각하다"고 말했다.
최근 이미지 생성 AI에서는 결과물의 스타일을 만들어주는 프로그램 '모델(Model)'과 특정인의 얼굴을 학습한 '로라' 데이터(Low-Rank Adaptation)를 결합하는 방식이 주목을 받고 있다. 이용자가 원하는 결과물을 더욱 효과적으로 도출하는 기술이다. 가령 배우 B씨의 사진을 학습해 생성된 로라에 코스프레 콘텐츠를 집중적으로 공부한 모델을 결합하면 B씨 얼굴을 띤 모델이 코스프레를 하는 사진을 얻을 수 있는 식이다.
실제 '카페 인스타그램(Cafe Instagram)'이란 모델의 경우, 모델 개발자가 직접 일본 인스타그램 계정에서 모은 14만 장의 이미지를 통해 학습시켰다고 밝히기도 했다. 이 외에 '칠아웃믹스', '오렌지믹스', '바질믹스' 등 수많은 모델이 있고 AI 관련 플랫폼에서 손쉽게 다운로드를 할 수 있다. 한 AI 커뮤니티에서는 "한국인 인스타 모델 스타일로 뽑으려면 칠아웃믹스를 쓰면 되고 애니메이션 스타일의 이미지를 얻으려면 오렌지믹스를 섞으면 된다" 등의 후기도 공유되고 있었다.
AI 업계 관계자는 "카페 인스타그램 외에 수많은 모델은 아예 어떤 학습 데이터를 가지고 만들어졌는지조차 밝히지 않았다"면서 "AI는 학습시키지 않은 데이터를 만들어내는 것이 불가능하므로 결국 내가 인스타에 올린 사진이 누군가의 AI 음란물의 재료로 쓰이고 있다는 것을 의미한다"고 말했다.
AI 기술이 빠르게 진화하면서 'AI판 성 착취' 역시 더욱 쉬워졌다. 단지 특정인의 사진 20장만 있으면 된다고 한다. AI 업계 관계자는 "N번방 당시 딥페이크가 사회적으로 이슈가 됐지만 정작 콘텐츠가 엄청나게 쏟아지진 않았다"며 "그 이유는 일반인이 딥페이크를 만드는 게 어려웠기 때문"이라고 말했다. 이어 그는 "하지만 최근 기술 접근성이 크게 내려가면서 딥페이크 이미지가 넘칠 정도로 만들어지고 있다"고 덧붙였다. 또한 온라인에서는 개인이 보유한 PC의 성능이 떨어지더라도 클라우드 컴퓨팅 기술을 활용해 생성 AI 서비스를 이용할 수 있다는 방법도 알려졌다.
특정인을 학습시킨 로라마저도 공유하는 웹사이트도 있다. 누군가가 만들어 놓은 로라 파일만 다운로드하면 클릭 몇 번에 특정인을 본 딴 음란물이 만들어지는 것이다. 이 사이트에서 'korea'를 검색하자 국내 아이돌, 연예인부터 인스타그램 인플루언서 등 일반인 대상 로라 파일도 있었다. 이들을 활용한 딥페이크 이미지가 이미 만들어졌다는 뜻이다.
A씨는 "AI 그림 게시판에서 모 항공사 직원들의 사진을 인스타에서 모아 AI에 학습시켜 봤다는 글도 있어 충격이었다"며 "판매되는 아동 포르노도 결국 일반인이 올린 사진을 몰래 학습시켜 만든 음란물일 가능성이 크다"고 말했다.