러시아와 중국 등이 생성형 인공지능(AI)의 대표주자 챗GPT를 사용해 온라인 여론 조작을 시도한 것으로 조사됐다. 미국 대선(11월)을 비롯해 세계 각국에서 주요 선거가 실시되는 올해, 생성형 AI 기술이 허위 정보 캠페인에 기반한 정치적 선전에 악용될 수 있다는 우려가 현실화하고 있는 셈이다.
30일(현지시간) 미국 뉴욕타임스(NYT) 등에 따르면 챗GPT 개발사 오픈AI는 이날 보고서를 통해 “우리의 AI 모델을 이용해 인터넷상 여론을 기만적으로 조작하고 전 세계 정치적 담론에 영향을 미치려 한 ‘은밀한 시도’ 5건을 확인해 이를 차단했다”고 밝혔다. 최근 3개월간 챗GPT로 짧은 댓글, 다양한 언어로 된 기사 등으로 허위 정보를 퍼뜨려 왔다는 게 오픈AI의 설명이다.
여기에 연루된 국가는 러시아와 중국, 이란, 이스라엘이었다. 우선 러시아의 경우, 군 정보 당국과 연계된 ‘도플갱어’가 챗GPT를 활용해 ‘미국의 우크라이나 지원 반대’ 등을 담은 러시아어·영어 게시물 및 댓글을 생성한 것으로 나타났다. 유사 활동을 펼친 또 다른 행위자 그룹도 이번에 처음 포착돼 ‘배드 그래머’로 명명됐다.
친(親)중국 허위 정보 캠페인 ‘스패무플라주’는 중국어와 한국어, 일본어, 영어로 △중국 정부 비판 세력 비난 △일본 후쿠시마 오염수 방류 비난 등 게시물을 만드는 데 AI 기술을 썼다. ‘국제가상미디어연합’으로 알려진 이란 그룹은 반(反)이스라엘·반미 감정 확산에 주력했고, ‘스토익’이라는 이스라엘 정치 캠페인 기업은 가자지구 전쟁과 관련해 친이스라엘·반이슬람 메시지를 유포했다.
다만 온라인에서 큰 호응은 없었다. 벤 님모 오픈AI 조사관은 “그들과 관련된 소셜 미디어 계정 이용자 수는 거의 없었고, 팔로어도 소수였다”고 말했다. 실제 영향력은 미미했다는 뜻이다.
그러나 안심은 금물이라는 지적이 나온다. 미 싱크탱크 애틀랜틱카운슬의 그레이엄 브루키 디지털포렌식연구소장은 NYT에 “생성형 AI 기술이 점점 강력해지고 있어 온라인 허위 정보 환경도 바뀔 수 있다”고 경고했다. 워싱턴포스트는 “국가 기구가 AI로 은밀하게 (정치적) 선전 활동을 더 쉽게 할 수도 있게 됐다는 우려를 부각시켰다”고 전했다.