“10년 내 자율적으로 인간을 죽이는 로봇 병기가 등장할 것이다.”
섬뜩했다. 공상과학(SF) 만화 속에서나 나올 법했던 시나리오가 아니어서다. 시시각각 현실 속으로 다가오고 있다는 인공지능(AI) 분야 대부의 경고였기에 무게감도 실렸다. 지난 10일 일본 니혼게이자이신문에 보도된 제프리 힌턴(77) 캐나다 토론토대 명예교수의 예언이다. 50년 이상 AI 연구에 몰두해온 힌턴 교수는 지난해 4월 “AI의 위험성을 알리기 위해 떠난다”며 10년 이상 몸담았던 구글에서 퇴사한 인물로도 유명하다. 힌턴 교수는 이 인터뷰에서 구체적으로 점쳐진 AI의 부작용 프로세스와 사례까지 제시했다. 그는 “AI에 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다”며 “예컨대 AI에 기후변화를 막도록 지시하면 이 목적 달성을 위해 인간을 배제하는 게 필요하다고 생각하고 실행에 옮길 위험성도 걱정된다”고 염려했다. 아울러 “앞으로는 서로 다른 AI들의 경쟁으로 데이터센터 쟁탈전이 벌어질 수 있다”고 내다봤다.
또 다른 ‘인조인간’으로 진화 중인 AI에 대한 우려의 목소리가 갈수록 최고조에 달하고 있다. 지난 2022년 11월 말 출시된 오픈AI의 ‘챗GPT’와 더불어 대중화된 생성형 AI가 업데이트되면서 파생시킨 저작권과 딥페이크(특정 인물의 얼굴이나 신체 부위가 합쳐진 이미지와 비디오, 오디오 등을 버무린 조작본) 기반의 가짜뉴스, 사이버 범죄인 보이스 피싱 등을 초월한 최악의 재앙 상황에 직면할 것이란 경고에서다.
힌튼 교수는 특히 지금까지 인간의 전유물로 여겨졌던 언어나 감각적인 측면 등에서 보여준 AI의 뛰어난 흡수력에 주목했다. 그는 우선 “생성형 AI의 기반인 거대 언어 모델은 우리와 마찬가지로 말을 이해하고 있다고 생각한다"고 말했다. 그는 또 “자신은 AI의 농담 이해 여부를 판단의 기준으로 삼는다”며 “2022년 구글이 개발한 언어모델(PaLM)에 의한 챗봇을 상대로 농담을 설명해 달라고 했을 때 챗봇은 그 농담이 왜 재미있는지 모두 설명했다”고 전했다. AI가 이미 인간과 대등한 수준의 커뮤니케이션 능력을 탑재했다는 얘기였다. 이와 관련, 그는 “철학자들 사이에서는 인간이 언어를 사용하는 기능을 선천적으로 갖고 있다는 주장이 있지만 그건 틀렸다”며 “언어는 태어난 뒤에 학습하는 후천적인 것이라고 생각한다”고 강조했다. 그는 이어 “많은 사람들이 AI의 폭주를 막기 위해선 전원 스위치를 내리면 된다고 주장하지만 인지 능력을 가진 AI는 대화로 우리를 조종할 수 있게 됐다”며 “스위치를 끄면 안 된다고 설득하려고 할 것이다”고 덧붙였다. AI가 자신을 제어하려는 인간과 대화를 통해 자연스럽게 통제에서 벗어날 가능성도 농후해졌다는 끔찍한 설명으로 읽혔다. 힌턴 교수는 나아가 “주관적인 경험이라는 관점에서 보면 AI는 인간과 같은 감각도 가질 수 있다고 생각한다”고 덧붙였다.
유럽연합(EU)이 13일 세계 최초로 포괄적인 AI 기술 규제법안인 ‘AI법’을 최종 승인한 배경도 이런 위험도를 낮추기 위한 수순으로 풀이된다. 2026년 이후 전면 시행될 이 최종안에 따르면 EU는 AI 활용 분야에 대해 총 4단계의 위험 등급으로 구분해 차등 규제할 예정이다. 법 위반 시 경중에 따라 전 세계 매출의 1.5%에서 최대 7% 수준의 과징금이 부과될 수 있다.
AI에 대한 경고등은 미국 정부 차원에서도 감지됐다. 12일 미 CNN 방송 등에 따르면 미 국무부의 의뢰로 AI 정책 조언 등을 제공해온 민간업체 글래드스톤 AI는 최근 보고서에서 “가장 발전한 AI 시스템이라면 최악의 경우, 인류 멸종 수준의 위협이 될 수 있다”며 “미 정부가 개입해야 한다”고 진단했다. 이 보고서에선 또 “빠르게 진화하는 AI로 인한 재앙적인 국가 안보 위험에 대한 경고다”라며 “미 연방 정부가 재앙을 피할 수 있는 시간이 얼마 남지 않았다”고 짚었다. 이 보고서는 주요 AI 기업의 최고 경영진과 사이버 보안 연구원, 대량살상무기 전문가, 국가 안보 정부 당국자 등을 포함해 200명 이상과 1년여에 걸쳐 인터뷰한 내용을 토대로 작성됐다.
보고서가 지목한 위험성은 크게 2가지다. 우선, 인간의 능력을 초월할 수도 있는 범용인공지능(AGI, 사람과 유사한 수준 또는 그 이상의 지능을 갖춘 AI)의 진화 속도에 주목했다. 보고서에선 "AGI는 통제력 상실로 인한 재앙적 위험의 주요 요인으로 간주되고 있다"며 오픈AI, 구글 딥마인드, 앤트로픽, 엔비디아 등은 모두 2028년까지 AGI에 도달할 수 있다”고 공개적으로 밝혀왔다는 부분을 근거로 제시했다. 보고서에서 미 정부가 AGI의 개발 과정부터 개입, 출시 시점을 지연시켜야 된다고 조언한 까닭도 이 때문이다.
무엇보다 최신형 AI 시스템이 무기화에 악용될 경우, 돌이킬 수 없는 막대한 피해만 보게 될 것이란 부문을 경계했다. 보고서는 “AI와 AGI의 부상은 핵무기 도입을 연상시키는 방식으로 세계 안보를 불안정하게 할 가능성이 있다”며 “AI 군비 경쟁과 분쟁, 대량살상무기 규모의 치명적인 사고 의 위험이 있다”고 예측했다. 제러미 해리스 글래드스톤 AI 공동 설립자 겸 최고경영자(CEO) 또한 CNN에 “AI는 이미 경제적으로 혁신적인 기술이지만 우리가 알아야 할, 재앙적인 위험까지 포함한 심각한 상황도 가져올 수 있다”고 말했다.
아이러니컬하게도 이 가운데 전해진 미국의 AI 무인전투기 개발 소식엔 이목이 쏠린다. 3일 미 월스트리트저널(WSJ)에 의하면 중국과 신냉전 시대로 진입한 미국은 AI 기반의 무인 전투기 개발을 본격화하고 나섰다. 이 보도에 따르면 미 국방부는 협동전투기(CCA)로 알려진 AI 기반의 무인 전투기 개발을 위해 올여름까지 2곳의 방산업체를 선정할 방침이다. 이 개발 프로젝트에 뛰어든 업체는 보잉과 록히드마틴, 노스럽그루먼, 제너럴 아토믹스, 안두릴 등이다. 미 공군은 향후 5년간 AI 무인 전투기 사업에 총 600억 달러(약 80조 원)의 예산을 할당할 계획이다. 무인 협동전투기는 편대장기를 옆에서 호위하는 '윙맨' 대체를 목표로 한다는 점에서 현재 자율운항이 가능한 기존 무인항공기(드론)와 구별된다. 인간 조종사가 모는 편대장기의 지휘에 따라 호위는 물론 공격 임무를 합동으로 수행할 수 있는 이른바 'AI 윙맨'인 셈이다.
군사전문가들은 “CCA가 미국의 F-35 전투기나 최신 스텔스 전략폭격기 B-21 '레이더' 등과 함께 편대를 이뤄 작전 수행도 가능할 것”으로 기대하고 있다.
AI 무인 전투기는 인명 피해부터 ‘제로(0)’인 데다, 가성비까지 탁월하다는 측면에서 매력적이다. 미 공군은 현재 목표 생산 가격을 2,000만∼3,000만 달러(약 260억∼400억 원)로 추산 중인 가운데 방산업계에선 향후 대당 가격을 1,000만 달러(약 130억 원) 이하 선까지 낮출 수 있을 것으로 기대하고 있다. 미 공군 주력인 F-35 스텔스 전투기 가격이 1억 달러(약 1,300억 원)에 달하는 점을 고려하면 저렴한 가격에 대량 생산까지 가능한 AI 무인 전투기의 투자 가치는 긍정적일 수밖에 없다.
이와 관련, 업계 관계자는 “인공지능 기반의 CCA는 인간의 통제에서 벗어난 AI 살상용 무기 시대가 개막됐다고 볼 수 있다”며 “CCA를 계기로 각국의 AI 무기 개발 경쟁에도 가속도가 붙게 될 공산이 커졌다”고 내다봤다.