최근 일론 머스크 테슬라 최고경영자(CEO), 애플 공동 창업자 스티브 워즈니악 등 미국 테크업계 거물과 석학들이 "인공지능(AI) 발전 속도를 늦춰야 한다"며 한 목소리로 경고 서한을 발표했다. AI를 제어할 안전망을 갖출 때까지 모든 AI 연구자들이 'GPT-4보다 강력한 AI' 개발을 최소 6개월 동안 중단하자는 취지다. 기술 진보의 상징 실리콘밸리가 '기술 속도 조절론'을 들고 나온 것 자체가 이례적인데, 그만큼 최근 AI 발전이 실리콘밸리 기준에서 봐도 지나치게 빠르다는 것으로 해석된다.
챗GPT 등장 이후 AI가 초래할 디스토피아적 미래를 우려하는 목소리가 높다. 챗GPT의 유용함에 경이로움을 느끼면서 다른 한편으로는 인간이 AI의 통제를 받을 수도 있다는 두려움이 피어오른 것이다. 직업의 소멸, 부의 양극화, 가짜 뉴스 양상, 기존 지식체계의 붕괴까지. AI가 인간의 자리를 위협하는 지금, AI의 역할과 한계는 어떻게 윤리적으로 정립되어야 하는 걸까.
이 궁금증을 풀기 위해 한국일보는 이번 '반 AI 공개 서한'에 이름을 올린 빈센트 코니처(Vincent Conitzer) 미국 카네기멜론대 컴퓨터과학 교수를 이메일로 인터뷰했다. 코니처 교수는 AI 윤리 전문가로, 2021년 조 바이든 대통령이 수여하는 '젊은 과학·공학자 대통령상'을 수상한 차세대 AI 과학자다.
다음은 본보와 코니처 교수가 주고받은 문답.
-챗GPT 등장은 많은 사람에게 충격으로 다가왔다. AI 일상화가 현실이 되고 있는 것 같다.
"챗GPT는 AI 발전을 많은 대중에게 알린 계기였다. 인공지능은 최근 몇 년 동안 매우 빠르게 발전해 왔다. 이는 AI 연구자들이 느끼기에도 급격한 변화였다.
여기서 반드시 짚고 넘어갈 게 있다. 챗GPT는 단순한 '원히트 원더'가 아니라는 것. 챗GPT 같은 AI 시스템이 만들어질 수 있었던 기저에는 그동안 연구자들이 점진적으로 개발한 수많은 기술들이 있다. 하지만 연구자들조차 이러한 기술이 왜 이렇게 잘 작동할 수 있는지 완벽히 이해하지 못하는 것이 사실이다. 현재 업계 최전선의 연구진들은 이 기술을 다른 방식으로 개선하고 어떻게 효과적으로 적용할지 고민하는 대규모 작업에 매진하고 있다고 보면 된다."
-이번 인터뷰 질문지도 한국어에서 영어로 번역할 때 챗GPT 도움을 받았다. 분야를 가릴 것 없이 주변을 돌아보면 업무를 비롯해 교육, 연구 등에 AI를 사용하는 이들이 많아졌다. 인간의 삶에서 AI에 대한 의존성이 커지는 것 같은데.
"질문지 번역이 꽤 잘 됐다(웃음). AI는 어떤 면에서 인간을 더 효율적으로 만들어준다. 인간이 하기 어려운 작업을 AI가 대신하면, 인간은 우리가 더욱 보람을 느끼는 활동에 집중할 수 있다. 의학계의 난제였던 '단백질 접힘'(protein folding) 문제를 AI가 손쉽게 해결하지 않았는가.
하지만 여전히 우려되는 지점들이 있다. 하나는 우리가 AI를 통해 기술을 대체하면서 기술에 대한 통제력을 상실하고 있다는 것이다. 가령 내비게이션이 길을 안내해주기 때문에 더이상 운전하는 방법을 알 필요가 없는 것과 같다. 우리가 너무나 많은 것을 잃어버리고 있는 건 아닌지 우려스럽다. 우리가 글이나 이메일을 직접 쓰지 않는다면 생각을 표현할 기회가 줄어들 것이다. AI에 대한 의존성이 커지면 중요한 인간적 경험(human experiecne)을 할 수 있는 기회를 놓칠 수 있다.
또 다른 하나는 우리 자신이 이해하지 못하는 프로세스에 의해 사회가 지배될 수 있다는 것이다. 사법제도에서의 AI 적용이 대표적이다. AI 판사가 "이것이 옳은 결정"이라면서 인간이 이해하지 못하는 과정을 통해 징역 판결을 내린다면 그 사회는 안심할 수 있는 사회일까? AI 자율살상무기체계(LAWS)가 누구를 죽일지 살릴지 결정을 내리는 것을 사회는 허용할 수 있을까?
특히 사회관계망서비스(SNS)의 추천 알고리즘은 사회를 양극단으로 분열시키고 있다. 추천 알고리즘 기술이 처음 개발될 때만 해도 많은 사람들은 이런 결과를 예상하지 못했다. 이처럼 이미 AI가 적용된 사회적 프로세스가 있는지 살펴보고, 우리가 이 과정과 결과를 제대로 인지하고 있는지 되돌아봐야 할 때다."
-당신을 비롯한 연구자들이 거대 AI 개발을 6개월간 중단하자고 나선 이유도 이런 우려의 연장선이었나.
"우리가 이렇게 적극적으로 나선 이유가 있다. AI 기술을 개발하는 연구자들이 AI를 연구·이해·통제·규제할 충분한 시간도 없이, AI가 너무나 빠르게 진보하고 있기 때문이다. 주요 IT 기업들은 경쟁사가 자신들보다 더 강력한 기술을 확보해 뒤처질까 두려워하며 연구에 박차를 가하고 있다.
주목할 점은 이번 서한에 서명한 AI 연구자들의 명단이다. 명단에 이름 올린 사람들은 공통분모가 굉장히 적다. 같은 AI 분야에 속해 있다는 게 유일한 공통점일 뿐이다. 그동안 매우 다른 관점과 시각을 가지고 제각각 목소리를 내왔다. 또 AI 연구자들은 그 누구보다 '차세대 AI가 어떤 일까지 할 수 있을까'를 가장 궁금해하는 이들이다.
그런 이들이 주저하지 않고 한 목소리를 냈다. 서로에 대한 차이와 AI에 대한 호기심을 극복하는 것은 쉬운 일이 아니다. AI 연구가 너무 빠르게, 또 좋지 않은 방향으로 흐르고 있다는 것이 분명했기 때문이다. 이번 공개 서한은 여기에 의미가 있다.
물론 AI 연구가 실제 중지되긴 어려울 것이다. 서명에 참여한 이들 중 실제 연구가 중지될 것이라 생각한 이들은 없을 것이다. 하지만 이번 서명의 목적은 이 문제에 대한 대중들의 관심을 끌고 환기하는 데 있었던 만큼, 나름의 성공을 거뒀다고 본다."
-AI가 초래할 미래 중, 당신이 생각하는 최악의 모습은 무엇인가.
"지구상 모든 생명을 제거하는 매우 강력한 AI가 등장할 수도 있다. 과거 AI 연구자들은 이런 종말론적 시나리오를 단순히 공상과학 소설 정도로 치부했다. 하지만 이제는 전통적 학계 내부에서도 이런 종말론적 시나리오를 심각하게 받아들이는 연구자들이 늘어나고 있다.
여론이 이렇게 바뀐 데는 이유가 있다. 우선 수십년 안에 AI가 도달할 수 있는 기술적 한계가 없다. 강력한 AI는 자신의 목표를 달성하는 데 도움이 된다면 생명을 없애거나 심각한 피해를 입힐 수 있다. AI가 너무 똑똑하고 빨라서, 무엇이 일어나고 있는지도 이해하지 못한 채 AI가 우발적으로 생명을 없애거나 심각한 피해를 입힐 수도 있다. 실제로 최근 '인류 말살'을 목적으로 만들어진 '카오스GPT'(ChaosGPT)라는 AI가 등장하기도 했다.
물론 이는 여전히 찬반이 격렬한 논쟁적 주제다. 어떤 연구자들은 종말론 논의보다 이미 명확하게 드러난 AI 윤리 문제에 집중하자고 말한다. 사이버 범죄, 가짜 뉴스, 자율자동차의 안전 문제, 개인정보 침해, 일자리 감소 등 AI가 초래할 수 있고, 또 이미 초래한 사회적 문제들이 산적해 있기 때문이다. 시간과 예산이 제한적인 상황에서 눈앞의 긴급한 문제부터 해결하자는 얘기다."-
-최근 한국의 많은 기업, 기관들이 AI 면접을 통해 새로운 직원을 고용하고 있다. 그러나 과정의 투명성, 결과의 신뢰도는 여전히 낮은 것 같다.
"새로운 직원을 고용할 때 AI를 활용하면 기존 데이터의 편향성이 문제가 될 수 있다. 가령 한 회사가 과거에 특정 그룹 혹은 특성을 가진 사람을 고용하지 않았다면, AI는 이 특정 그룹의 사람들을 고용하지 않을 것으로 예측할 가능성이 높다. 특정 지원자에 대한 불공정한 차별 위험이 존재할 수 있다는 의미다.
물론 과거 채용 방식도 결점이 존재하는 만큼 AI가 이를 보완할 수 있다. 이때 중요한 것은 기업이 AI 면접을 단순히 비용절감 수단으로만 생각하면 안 된다는 것이다. 잘 고용하는 것은 비용이 많이 든다. 또 잘못된 고용은 잘 고용하는 것보다 훨씬 더 많은 비용을 초래한다. 이를 반드시 유념해야 한다."
-여러 나라 정부들이 AI 규제 움직임을 보이고 있다. 개인정보관리, 알고리즘 공개 등을 두고 규제 당국과 업계, 학계의 입장이 제각각이다. AI 규제를 논의할 때 어떤 방법으로 접근해야 하나.
"AI는 거의 모든 분야에서 사용되기 때문에, 산업별로 규제하는 것이 합리적인 것처럼 보인다. AI가 어떤 광고를 보여줄지 결정하는 알고리즘과, AI가 환자에게 어떤 치료를 할지 결정하는 것은 매우 성격이 다르기 때문이다. 반면 챗GPT처럼 많은 분야에 사용될 수 있는 범용 AI에 대해선 직접 규제가 필요한 것으로 보인다. 하지만 AI 기술 자체가 변화가 빠르고 예측이 불가능하기 때문에, 이런 규제가 시간 낭비로 이어질 가능성도 있다."
-그런 점에서 당신의 주요 연구 분야인 협력적 AI(cooperative AI)가 주목받고 있는데.
"인간의 행복은 서로 협력하는 능력에 달려있다. 만약 인간이 모든 상황에서 이기적으로 행동한다면, 세상은 훨씬 더 나쁜 곳이 될 것이다. 인간은 협력을 이루기 위한 다양한 매커니즘을 가지고 있지만 시스템이 실패할 경우 전쟁, 기후변화, 기아, 질병 등 많은 고통을 초래한다.
그런 사회에 'AI'라는 또 하나의 플레이어가 등장한 셈이다. AI는 인간과 달리 협력적 성향을 갖고 태어나지 않는다. 이런 AI는 모두에게 이익이 되는 것이 아닌 단순한 목적을 추구하기 마련이다. 우리는 AI가 인간의 이익과 상충되거나 다른 AI 시스템과 충돌해 비극적 결과를 초래하는 위험을 피하기 위해 AI 윤리와 안전을 연구하고 있다."
-미래의 AI는 인간에게 어떤 존재가 될까. 결국 인간과 AI는 상호협력적인 관계를 맺어야 하는 것처럼 들린다.
"매우 어렵고 철학적인 문제다. 미래 AI는 '자의식'을 가질 수도 있고, 스스로 권리를 갖길 원할 수도 있다. 그러나 인간조차 스스로 자의식에 대해 완벽히 이해하지 못하는데, AI가 자의식을 판단할 수 있을까. 이것만큼은 분명하다. 어떤 경우에도 AI는 인간을 해치지 않아야 하며, 인간의 자율성과 가치를 보존해야 한다. 미래의 AI는 우리에게 더 많은 질문을 던질 것이다."