미국 인공지능(AI) 연구소 오픈AI가 개발한 생성 AI 챗봇 '챗GPT'가 세상에 나온 지 30일로 1년이다. 사람처럼 말하고, 몇 초 만에 소설, 그림, 노래 등 창작물까지 만들어 내는 챗GPT는 등장과 동시에 '혁명'이란 평가를 받았다. 1994년 인터넷의 등장, 2007년 아이폰의 등장을 잇는 새로운 기술 패러다임이 시작됐다는 찬사였다.
혁명은 기대와 우려, 강한 지지와 거센 반발을 필연적으로 동반한다. 오픈AI에서 최근 발생한 샘 올트먼 최고경영자(CEO) 축출 사태는 AI 발전을 향한 상반된 시선을 상징적으로 보여줬다. 올트먼을 몰아낸 이들은 AI 발전 속도가 너무 빠르며 이대로 가다간 인류에 큰 위협이 될 수 있다고 본 반면, 올트먼과 그를 따르는 직원들은 AI의 빠른 발전이 인류의 번영을 가속화할 것이라고 믿는다. 싸움은 올트먼 진영의 승리로 끝났다.
산업혁명으로 일자리를 잃을 것을 걱정한 노동자들은 자동화 기계를 파괴하며 저항했지만 신기술의 발전을 막지 못했다. 인류는 불균등하게 배분됐을지언정 경제 번영의 과실을 맛봤다. 챗GPT 혁명의 결과가 번영일지 파국일지는 누구도 모른다.
챗GPT 등장 1년을 맞아 한국일보는 미국의 AI 전문가 5명에게 AI 개발을 둘러싼 윤리적 고민에 대해 질문했다. 전문가들에게도 정답은 없었지만 관통하는 메시지가 있었다. AI의 발전은 이미 막을 수도, 늦출 수도 없다는 것. 그러니 위험성을 관리하면서 선한 기술로 발전시켜 나갈 기회가 아직은 있다는 것이다.
최근 오픈AI 사태 이후 테크업계에선 AI 개발이 '안전성'보다는 '자본'과 '속도'를 강조하는 방향으로 전개될 가능성이 커졌다는 평가가 나왔다. AI 업체들이 안전장치 없이 수익 창출을 목표로 개발에 가속페달을 밟을 것이란 의미다.
한국일보와 인터뷰한 전문가들은 AI 개발 속도를 늦추는 건 챗GPT가 등장한 1년 전부터 불가능해진 일이라고 입을 모았다. "AI 업계에 이미 너무 많은 자본이 들어가서 누구도 자발적으로 멈추거나 속도를 늦추지 않을 것"(노아 지안시라쿠사 벤틀리대 교수·수리학)이란 것이다. 비영리법인으로 시작한 오픈AI도 영리활동을 시작한 순간 공익을 우선하는 게 어려워졌을 것이라고 이들은진단했다.
그러나 빠른 속도가 반드시 위험을 뜻하는 건 아니다. 벤저민 키퍼스 미시간대 교수(컴퓨터공학)는 "현재 급속한 AI 발전은 '포모'(FOMO·소외되는 데 대한 두려움)의 압박, 즉 선두 주자들의 발전 속도를 당장 따라가지 못하면 계속 뒤처질 것이란 우려에서 비롯됐다"고 했다. 너도나도 달려들며 경쟁이 격화한 측면이 크다는 뜻으로, 시간이 지나면서 자연스럽게 조정될 것이란 예측이다.
더 안전한 AI를 구축하기 위한 노력도 활발하기에 비관적이지 않다는 평가도 있다. 루슬란 살라크후티노프 카네기멜론대 교수(컴퓨터과학)는 "어떻게 하면 더 신뢰할 수 있고 설명 가능한 AI를 만들 수 있을지에 대해서도 많은 연구가 진행되고 있다"고 했다.
빈센트 코니처 카네기멜론·옥스퍼드대 교수(컴퓨터과학)는 "AI는 의학의 새로운 발전을 이끌고, 기후 위기와 식량 부족을 해결하는 데 도움을 주고, 핵무기 실험과 같은 국제 조약 위반을 감시하는 것을 가능하게 만들 수 있다는 것은 분명한 사실"이라고 했다.AI의 발전은 부작용보다 효용이 클 수 있으며, 빠른 발전이 반드시 독은 아니라는 의미다.
올해 3월 'AI의 대부'로 불리는 제프리 힌턴 캐나다 토론토대 교수의 경고가 AI 업계에 대형 반향을 일으켰다. 1970년 초반 이후 일생을 AI 연구에 바친 그는 "무섭다"고 했다. "AI가 사람보다 더 똑똑해질 수 있는 시점이 30~50년 뒤 또는 그보다 더 멀다고 봤지만 지금은 그렇게 생각하지 않는다"며 속도전을 걱정했다. 킬러로봇의 등장 가능성에 대해서도 우려를 표했다.
그러나 이번에 인터뷰한 5명의 전문가들은 적어도 힌턴 교수의 우려가 현실이 될 가능성은 현재로선 극히 작다고 봤다. 힌턴 교수의 제자인 살라크후티노프 교수는 "AI의 실존적 위험에 대해 걱정하는 사람은 학계에서 소수"라며 "현재의 챗GPT는 사람으로 치면 눈과 귀만 갖고 있는 상태로, 스스로 판단하고 행동하는 수준까지 진화하려면 엄청난 과정과 시간이 필요하다"고 했다. 가령 사람을 대신해 온라인 쇼핑만 하려 해도 '제품 검색→검색 결과 페이지 스크롤→마음에 드는 옷 클릭→상세 설명과 후기 확인→가격과 품질 비교 분석' 등 수많은 단계를 거쳐야 하고, 모든 단계마다 100%의 정확성을 구현해야 한다. 개발 난도가 차원이 다르다는 것이다. 살라크후티노프 교수는 "AI 자체가 악의적인 의도를 갖게 될 가능성보다 악의적인 의도를 가진 사람이 AI를 악용할 가능성이 훨씬 크다"고 내다봤다.
지안시라쿠사 교수는 AI를 둘러싼 인류 종말론적 시각이 미지의 공포를 조장하는 것이 오히려 더 큰 문제가 될 수 있다고 봤다. 그는 "킬러로봇 출현 같은 이야기는 현재의 피해에 집중하는 대신 상상에만 존재하는 미래의 위험에 에너지를 쏟게 한다"며 "이는 AI 개발 속도가 앞서가는 기업에만 이익이 될 뿐"이라고 했다. 거대언어모델(LLM)의 환각(hallucination·AI가 사실이 아닌 것을 사실인 양 답변하는 현상), 편견, 저작권 침해 문제 등 지금 당장 나타나는 AI 관련 문제가 뒷전으로 밀릴 수 있다는 것이다.
전문가들은 킬러로봇으로 대표되는 불확실한 미래보다 당장 확인되는 문제를 더 걱정하고 있었다. 어니스트 데이비스 뉴욕대 교수(컴퓨터과학)는 "AI가 '모르겠어요'라고 말하는 대신 그럴듯하게 들리는 허위 답변을 지어내는 환각 문제가 가장 큰 위협 중 하나이지만, 해결책을 찾는 것이 어려워 보인다"고 했다. 살라크후티노프 교수는 "챗GPT가 답변에 활용하는 데이터의 범위를 줄여주는 등의 방식으로 환각 발생 확률을 낮출 수는 있다"며 "그러나 환각을 완전히 피할 수 있게 만드는 것은 몇 년이 걸릴지, 심지어 가능할지조차 알 수 없다"고 했다.
현재 AI는 환각뿐 아니라 성별, 인종에 대한 편견도 드러내고 있다. 이런 문제들은 사람들을 속이고 혼란을 일으킬 수도 있지만, AI를 갈수록 더 신뢰하기 어렵고 불안전하게 만들 수 있다는 점에서 심각하다는 게 데이비스 교수의 말이다. 그는 "AI가 생성한 터무니없는 콘텐츠들은 이미 따로 제거해 내기 어려운 방식으로 (AI 훈련을 위한) 데이터에 통합되고 있다"고 했다. AI가 만들어 낸 엉뚱한 말, AI가 드러낸 편견이 다시 AI 교육에 쓰이면 환각과 편견은 걷잡을 수 없이 악화할 수 있다.
AI의 위험성을 최소화하기 위해선 정부의 규제와 시민들의 감시, 견제가 필수적이라고 전문가들은 공통적으로 강조했다. 지안시라쿠사 교수는 "일반 이용자들이 할 수 있는 가장 쉬운 일은 AI 기업이 우리에게 하는 말을 전적으로 신뢰하지 않는 것"이라고 했다. 살라크후티노프 교수는 "AI와 대화할 때는 내가 이미 알고 있는 정보라 할지라도 재확인하는 것을 습관화하라"고 조언했다.