오픈AI가 할리우드 여성 배우 스칼릿 조핸슨의 목소리와 비슷하다는 평가를 받은 새 인공지능(AI) 모델 'GPT-4o'의 특정 목소리 지원을 전격 중단했다. 당사자인 조핸슨이 "내 가장 친한 친구도 차이점을 구분할 수 없을 정도로 비슷하다"고 문제를 제기하고 나서면서다.
오픈AI는 "(해당 목소리는) 조핸슨이 아닌 (목소리 연기) 전문 배우의 목소리"라며 "우리는 AI 목소리가 유명인의 독특한 목소리를 의도적으로 모방해서는 안 된다고 믿는다"고 주장했다. 그러나 목소리 지원 중단으로 문제 소지가 있음을 사실상 인정하면서, '본인 동의 없이 의도적으로 남의 목소리를 베꼈다'는 논란은 계속될 것으로 보인다.
오픈AI는 19일(현지시간) 자사 블로그에 글을 올려 "우리는 '스카이'란 이름의 목소리를 어떻게 선택했는지에 대해 많은 질문을 받았다"며 "문제를 해결하는 동안 스카이 사용을 일시 중지하기로 했다"고 밝혔다. 오픈AI는 "스카이는 자신만의 자연스러운 목소리를 내는 다른 전문 여성 배우의 목소리"라면서도, 해결 중이라는 문제가 구체적으로 무엇인지는 밝히지 않았다.
지난 13일 오픈AI가 새 AI 모델 GPT-4o를 공개한 뒤, 온라인에서는 GPT-4o가 내는 5개의 목소리 중 스카이가 실제 조핸슨의 목소리와 비슷하다는 평가가 잇따랐다. GPT-4o는 사람과 거의 비슷한 속도로 음성에 반응하고 감정 표현도 할 수 있는 AI로, 공개 직후부터 영화 '그녀'에 등장하는 AI '사만다'의 '현실판'으로 불렸다. 조핸슨은 영화 속 사만다의 목소리를 연기했던 배우다. 이 때문에 "오픈AI가 영화 그녀를 떠올리게 하기 위해 의도적으로 GPT-4o에 조핸슨과 비슷한 목소리를 입힌 게 아니냐"는 반응이 나왔다.
논란이 커지자 조핸슨은 이날 직접 입장문을 내 "지난해 9월 샘 올트먼(오픈AI 최고경영자)으로부터 챗GPT 목소리 생성을 위해 나를 고용하고 싶다는 제안을 받았다"고 폭로했다. NBC에 따르면, 그는 이 매체를 통해 공개한 입장문에서 "올트먼은 내가 목소리를 제공함으로써 이용자가 AI에 대해 편안함을 느끼고, 위안을 받을 수 있을 것이라고 말했다"며 "나는 많은 고민 끝에 개인적인 이유로 제안을 거절했다"고 말했다.
그러나 그는 최근 GPT-4o 발표 행사에서 공개된 스카이 목소리를 듣고 "충격을 받고 분노했으며, 믿을 수 없었다"고 밝혔다. "공개된 시연을 들었을 때, 나는 올트먼이 내가 가장 친한 친구나 언론 매체조차 차이점을 구분할 수 없을 만큼 비슷한 목소리를 추구(생성)했다는 데에 소름이 끼쳤다"면서다. 조핸슨은 이어 "시연 이틀 전에 올트먼은 내 소속사에 연락해 재고를 요청했으나, 우리가 답하기 전에 시스템은 이미 공개돼 있었다"며 "이에 우리는 변호사를 고용할 수밖에 없었고, 올트먼과 오픈AI에 서한을 보내 스카이 목소리를 만든 정확한 과정을 설명해 달라고 요청했다"고 전했다. 그는 "결과적으로 오픈AI는 마지못해 스카이 목소리를 내리는 데 동의했다"고 덧붙였다.
조핸슨의 주장대로 실제 이날 오픈AI는 스카이 지원 중단을 밝히며 스카이를 비롯한 5개 목소리가 만들어진 과정을 소개했다. 이에 따르면 지난해 오픈AI는 성우와 영화배우 등으로부터 400개 이상의 목소리를 제출받았고, 이 가운데 14개를 추린 뒤 다시 5개 목소리를 최종적으로 선택했다고 한다.
조핸슨의 입장이 나온 후 올트먼은 "우리는 조핸슨에게 연락하기 전에 스카이 목소리의 성우를 캐스팅한 상태였다"면서도 "(그러나) 조핸슨을 존중하는 차원에서 스카이 사용을 잠시 중단했다"고 해명했다.
이 주장이 사실이라 하더라도, '조핸슨이 목소리를 제공하지 않자 비슷한 목소리를 만들어냈다'는 비판은 피하기 어려울 전망이다. 조핸슨은 "우리가 얼굴과 작업, 정체성을 보호하기 위해 딥페이크와 싸우고 있는 이때, 나는 이것(목소리를 모방했는지 여부)이 반드시 명확해져야 하는 질문이라고 믿는다"고 말했다. 월스트리트저널은 "오픈AI는 허가나 (대가) 지불 없이 저작물을 사용한 혐의로 작가, 예술가, 언론사 등으로부터 고소를 당했다"며 "조핸슨과의 갈등은 오픈AI가 직면한 어려움을 가중시킬 것"이라고 분석했다.
이번 논란으로 '오픈AI가 AI의 빠른 발전을 위해 윤리 문제를 등한시하고 있다'는 지적도 거세질 것으로 보인다. 오픈AI는 최근 AI가 인류에 해가 되지 않도록 하는 방법을 연구하는 사내 조직 'AI 안전팀'을 전격 해체했다. 이 팀을 이끌던 오픈AI 공동 창립자 일리야 수츠케버도 오픈AI를 퇴사했다.