영화 '그녀'처럼… "대화형 AI에 사용자 '감정적 의존' 위험" 경고

입력
2024.08.10 15:50
오픈AI, 'GPT-4o' 안전성 검토 보고서 "우려"
"AI와 관계, 다른 이들과 상호작용 필요성↓"

실제 사람과 대화하는 듯한 경험을 제공하는 생성형 인공지능(AI) 서비스에 사용자들이 감정적으로 의존하도록 만들 수 있는 위험이 있다는 경고가 나왔다. 다름 아닌 챗GPT 개발사 오픈AI 보고서에서다.

미 CNN 방송은 9일(현지시간) 오픈AI가 음성 지원이 가능한 새 인공지능(AI) 모델 'GPT-4o'(GPT-포오)와 관련해 안전성 검토를 실시한 뒤 보고서를 통해 이 같이 지적했다고 보도했다.

GPT-4o는 오픈AI가 지난 5월 공개한 최신 인공지능 모델로 딱딱한 기계음이 아닌 사람과 거의 유사한 음성과 감정 표현, 반응 속도로 실시간 대화가 가능한 게 특징이다. 서비스 첫 공개 당시 인간이 AI 비서와 사랑에 빠지는 내용의 영화 '그녀'(her)가 현실이 됐다는 반응이 나오기도 했다.

오픈AI는 보고서에서 "사용자들이 챗GPT와 음성 모드로 대화하면서 공유된 유대감을 표현하는 현상이 관찰됐다"라고 우려했다. AI와 사랑에 빠진 주인공의 모습이 꼭 영화 속 일만은 아닐 수도 있다는 얘기다. 보고서는 "사용자가 AI와 사회적 관계를 형성하면서 다른 사람과의 상호작용에 대한 필요성을 줄일 수 있다"며 "이는 외로운 개인에 잠재적으로 도움을 줄 수 있지만, 다른 사람과의 건강한 관계에도 영향을 미칠 수 있다"고 했다.

CNN은 "이미 일부 사용자들이 AI와 낭만적 관계를 형성하고 있다고 관련 전문가들은 우려를 표하고 있다"고 전했다. 오픈AI는 보고서에서 "AI를 안전하게 구축하는 데 전념하고 있으며 사용자의 잠재적인 '감정적 의존'에 대해 지속해서 연구할 계획"이라고 밝혔다.

위용성 기자
세상을 보는 균형, 한국일보 Copyright © Hankookilbo