"오픈AI, AI 위험성 고발 입막아" 직원의 폭로... 커지는 안전 우려

입력
2024.07.14 17:00
12면
"GPT-4o 검증기간 줄여" 폭로도
'AI 안전보다 이익 우선' 비판 커져

챗GPT 개발사 오픈AI가 인공지능(AI)이 인류에 미칠 수 있는 위험성을 규제 당국에 알리려는 직원들 시도를 불법적으로 저지했다는 내부 폭로가 나왔다. 사람의 능력에 훨씬 가까워졌다고 평가받는 최신 AI 모델을 충분한 테스트 없이 서둘러 공개했다는 주장도 제기됐다.

미국 워싱턴포스트(WP)는 13일(현지시간) 일부 오픈AI 직원이 이달 초 연방거래위원회(SEC)에 회사의 비밀 유지계약과 관련한 조사를 촉구하는 항의성 서한을 보냈다고 보도했다. 해당 직원들은 "회사가 직원들에게 내부고발자 보상에 대한 연방 권리를 포기하도록 하는 직원 협약에 서명하도록 했다"며 "이 협약은 직원들이 연방 당국에 정보를 공개하려 할 경우 회사의 사전 동의를 받도록 하기도 했다"고 밝혔다. 사실상 내부고발을 원천 차단하려는 것으로, 연방법 위반이라는 게 서한 작성자들 주장이다. 미국은 기업의 악행 등을 외부에 폭로한 직원에게 회사가 해고 등 보복 조치를 취하는 것을 연방법으로 금지하고 있다.

전날에는 오픈AI가 올해 5월 공개한 AI 모델 'GPT-4o'의 제품 안정성 테스트 기간을 과거보다 축약했다는 지적도 나왔다. GPT-4o는 사람과 비슷한 음성 반응 속도를 보이는 AI 모델로, WP는 오픈AI가 제품 공개 예정일에 맞추기 위해 일부 직원의 반대에도 단 일주일의 테스트 기간만 거쳤다고 내부 관계자들을 인용해 전했다. 심지어 테스트가 시작되기도 전에 'GPT-4o 공개 자축 파티'를 열었다고 한다.

이 같은 잇단 폭로는 '오픈AI가 AI 개발에 있어 안전보다는 이익과 속도를 우선시한다'는 우려를 키우고 있다고 WP는 지적했다. 실제 오픈AI는 2015년 비영리회사로 출발했으나, 챗GPT 출시를 계기로 영리 활동에 점점 더 무게를 싣고 있다. 아예 영리회사로 전환하는 방안도 검토 중인 것으로 전해진다. 이런 가운데 최근 AI의 장기적 위험을 연구하는 안전팀을 해체하고, 이 팀을 이끌던 공동창업자 일리야 수츠케버가 퇴사하면서 '안전은 완전히 후순위로 미룬 게 아니냐'는 비판이 쏟아지고 있다.

다만 오픈AI 경영진은 '과한 우려'라는 입장이다. '직원 입막음 시도' 의혹에 대해 오픈AI는 "회사가 '퇴직 후 회사를 비방하지 않는다'는 조건을 없애는 등 중요한 변화를 시행했다"고 반박했다. 제품 테스트 기간을 줄였다는 지적에 대해서도 "(제품 공개에 맞춰) 촉박하게 이뤄졌다는 점은 인정하지만 테스트 완료에는 충분한 기간이었다"고 강변했다.

실리콘밸리= 이서희 특파원
세상을 보는 균형, 한국일보 Copyright © Hankookilbo