디지털 기술을 이용해 원본을 조작한 가짜 사진이나 영상을 뜻하는 딥페이크가 사회문제로 떠올랐다. 특히 인공지능(AI)이나 그래픽 소프트웨어로 지인 사진을 성폭력 이미지로 바꾸는 딥페이크가 확산되면서 많은 사람을 불안하게 만들고 있다.
그만큼 대책 마련이 필요하지만 제대로 준비되지 않은 대책은 오히려 걱정을 키울 수 있다. 방송통신심의위원회는 지난 28일 국내 포털 및 외국 기업들과 협의체를 만들어 사전 점검을 늘리고 자진 삭제 조치를 강화하는 내용의 대책을 내놓았다. 또 김장겸 국민의힘 의원은 29일 포털 등 플랫폼 업체와 정보 게시자에게 영상을 올리기 전 AI 생성 및 딥페이크 여부를 표시하도록 의무화한 정보통신망법 개정안을 발의했다.
플랫폼 업체들이 음란물 등 유해 정보를 발견하면 차단하는 것은 원래 해왔던 일인데 이를 강화하면 오히려 이용자의 표현의 자유를 제한하는 부작용을 낳을 수 있다. 김 의원 발의안은 게시자가 조작 여부를 밝히지 않으면 플랫폼 업체에서 탐지 기술을 따로 개발하지 않는 한 딥페이크를 찾아내기 힘든 한계가 있다.
안타깝게도 아직 국내에는 본인도 모르는 딥페이크 사진과 영상을 찾아내는 기술이 없다. 과학기술정보통신부는 이를 해결하기 위해 지난 4월 100억 원 규모의 '정보보호 핵심 원천 기술 개발 사업'을 발주했다. 보안 분야의 국내 신생기업(스타트업) 샌즈랩이 이 사업을 수주해 AI 스타트업들 및 LG유플러스 등과 공동으로 딥페이크, 음성변조(페이크보이스) 등을 AI로 탐지하는 기술 개발을 4개년 계획으로 시작했다. 샌즈랩에 따르면 2, 3년 개발을 거쳐 성능 시험 뒤 실제 사용하려면 2028년에나 가능할 전망이다.
그런데 이런 기술들이 제대로 개발되려면 데이터 개방이라는 민감한 문제가 걸려 있다. AI가 가짜 사진과 영상을 찾아내려면 반드시 원본을 학습해야 한다. 따라서 원본 자료에 얽힌 초상권, 저작권, 개인정보보호 문제를 제도적으로 해결해 줘야 한다. 하지만 국민들 입장에서는 딥페이크 탐지를 위해 AI에 개인정보를 제공하는 게 꺼림칙할 수 있다.
원본 없이 딥페이크를 추정할 수도 있지만 정확도와 탐지율이 떨어진다. 미국 보안업체 리얼리티 디펜더가 추론 방식으로 테일러 스위프트의 딥페이크 음란물 사진을 찾기도 했다. 세금을 들여 정확도와 탐지율이 떨어지는 추론 기술을 개발하면 책임 문제가 불거질 수 있다.
보안업계에서는 딥페이크보다 페이크보이스를 더 우려한다. 페이크보이스는 AI나 음성조작 소프트웨어로 성대모사하듯 타인의 목소리를 흉내 낸 것이다. 부모, 친구, 자식의 목소리로 위장한 페이크보이스를 보이스피싱 범죄에 악용해 돈을 빼앗긴 사례가 늘고 있고 급기야 피해자가 목숨을 끊는 사고까지 일어났다.
페이크보이스 탐지 기술도 아직 국내에 나온 게 없다. 대검찰청이 지난 5월 86억 원 예산을 들여 2027년까지 페이크보이스 탐지 기술 개발 사업을 발주했으나 최근 입찰 업체 부족으로 유찰됐다. 역시 데이터 활용 여부 등이 걸림돌이다.
딥페이크나 페이크보이스 탐지 기술을 개발하려면 데이터 활용에 대한 사회적 합의가 필요하다. 정작 정부나 정치권에서 해야 할 일은 설익은 대책 발표가 아니라 기술 개발 난제들을 현실적으로 짚어주는 일이다.