인공지능(AI)이 인류의 멸종을 불러올 수 있어 국제 사회가 AI 위험성을 최우선 문제로 다뤄야 한다는 주장이 나왔다. 이런 비관적 주장을 내놓은 이들은 바로 지금껏 AI 개발 과정을 선도한 'AI의 아버지'와 'AI 대부'들이다.
비영리단체 AI안전센터는 30일(현지시간) "AI로 인한 (인간) 멸종 위험을 완화하는 것은 전염병이나 핵전쟁 같은 위험과 함께 전 지구적 우선순위가 돼야 한다"는 내용을 담은 성명서를 발표했다. 성명서는 다른 설명 없이 이 문장 단 한 줄만을 담아 메시지를 간결하고도 분명하게 전했다.
이날 현재 성명서엔 약 350명이 이름을 올렸다. 특히 챗GPT를 만든 샘 올트먼 오픈AI 최고경영자(CEO), 데미스 하사비스 구글 딥마인드 CEO, 다리오 아모데이 앤스로픽 CEO, 미라 무라티 오픈AI 최고기술책임자(CTO), 케빈 스캇 MS CTO 등 AI 개발 경쟁의 최전선에 있는 기업의 최고경영진들이 대거 포함됐다. 'AI 대부'로 불리는 제프리 힌튼 캐나다 토론토대 교수, 요슈아 벤지오 몬트리올대 교수 등도 있었다.
다만 올해 3월 "GPT-4(오픈AI의 최신 거대언어모델)보다 강력한 AI 개발을 최소 6개월 동안 즉시 중단할 것을 요청한다"는 성명서에 동참했던 일론 머스크 테슬라 CEO 등 빅테크(주요 기술기업) CEO들의 이름은 빠졌다.
이번 성명서는 3월 1,000명이 넘는 테크업계 리더들이 서명한 AI 개발 중단 촉구 성명 이후 두 달여 만에 나온 것이다. 이후 미 의회에서 첫 'AI 청문회'가 열리는 등 규제 논의가 본격적으로 시작되긴 했으나, 규제 움직임이 AI 발전 속도에 비해 한참 더디자 AI 업계 관계자들이 경각심을 드러낸 것으로 보인다.