구글에 이어 메타도 명령어만 입력하면 이미지를 그려주는 생성형 인공지능(AI)이 엉뚱한 이미지를 내놓아 망신을 자초하고 있다. AI 개발 열풍을 이끄는 빅테크들이 시장 선점을 위해 '새 상품' 출시 경쟁에 급급해 AI 기술의 한계를 스스로 드러냈다는 지적이 나온다.
5일 IT(정보기술) 업계에 따르면 메타가 지난해 12월 출시한 생성형AI인 '이매진 위드 메타 AI(이매진)'에서 편향되거나 역사적으로 사실과 다른 이미지를 생성하는 오류가 일어나고 있다. 예를 들어 사용자가 '교황 이미지를 그려줘'라고 요청하면 이매진은 흑인 교황을 그렸다. 역사적 사실을 고려하지 않고 잘못된 결과물을 내놓은 셈이다.
구글도 지난달 출시한 생성형AI모델인 '제미나이'의 이미지 생성 기능에서 오류가 발생해 20여 일 만에 서비스를 중단했다. 제미나이도 독일 나치군을 아시아인으로 묘사하는 등 사실과 다른 이미지를 만들었다. 오픈AI의 챗GPT 추격자로 내세웠던 제미나이의 신뢰성 논란이 일자 구글 내부에선 순다르 피차이 최고경영자(CEO)가 물러나야 한다는 요구까지 나오고 있다.
빅테크들의 생성형AI가 정확하지 않은 결과물을 내놓는 건 데이터 학습 과정에 문제가 있기 때문으로 분석된다. 생성형AI는 초거대언어모델(LLM)에 방대한 양의 데이터를 학습시켜 일종의 알고리즘을 구축한 후 이를 바탕으로 이미지나 텍스트를 만들어 낸다. 이때 AI의 편향성 논란을 피하기 위해 '인종·성별·직업 등에 편견이 없어야 한다'는 다양성만 지나치게 학습시키다 보니 왜곡된 결과물이 나오는 것이다. 구글 스스로도 "다양성을 주의하라는 지침을 강화한 후 알고리즘이 지나치게 신중해지면서 과잉 보정을 불러왔다"고 분석했다.
생성형 AI의 정확성 높이기가 새로운 과제로 떠오르자 빅테크는 내부에서 쓴소리를 담당하는 'AI레드팀' 운영을 확대하는 모습이다. 통상 테크 기업에서 레드팀은 소프트웨어(SW) 보안을 강화하는 역할을 한다. 하지만 AI레드팀은 AI가 비윤리적이거나 부적절한 답변을 내놓지 않도록 사전 테스트를 해 신뢰성을 높이는 역할을 맡고 있다. 실제 마이크로소프트(MS)는 AI레드팀의 테스트를 반드시 통과해야 생성형AI 서비스를 출시할 수 있다. 오픈AI도 최근 동영상을 만드는 AI인 '소라(Sora)'를 위험 기술로 분류하고 영화 제작사, 디자이너 등이 합류한 레드팀을 꾸려 안전성 테스트를 하는 중이다.
국내 기업들도 AI레드팀 운영에 힘을 싣고 있다. 네이버는 올해 초 AI 안전성 연구를 전담하는 조직인 '퓨처 AI 센터'를 최수연 네이버 대표 직속으로 새로 만들었다. 퓨처 AI 센터에서는 AI 안전성과 정확성을 높이기 위한 기술을 연구하고 AI윤리 정책을 연구하고 있다. 카카오도 기술윤리위원회에서 AI 윤리 준수 여부를 감시하고 있다. 인권과 기술윤리팀이 방향성을 제시하면 각 계열사 대표나 최고기술책임자(CTO)가 참여하는 위원회에서 기술‧서비스 내용을 점검하는 방식이다. 국내 IT 업계 관계자는 "생성형 AI는 작동 방식이 불분명하고 적용 범위가 너무 넓어 최대한 많은 경우의 수로 점검하는 과정이 필요한 상황"이라고 설명했다.