미국의 스타트업인 오픈AI가 내놓은 챗GPT, 즉 대화형 인공지능(AI) 서비스의 놀라운 성능이 연일 화제이다. 사용자가 간단한 질문을 던지면 챗GPT가 AI를 기반으로 방대한 양의 데이터를 직접 검색하고 그 결과를 단문의 형식으로 보여주는데, 그 정확도와 응용력이 인간의 상상을 뛰어넘는 것이기 때문이다. AI가 가진 잠재력이 본격적으로 발휘되면 수백만 개의 일자리가 AI에 의해 대체되고 사회적, 경제적으로 엄청난 구조적 변화가 일어날 것이라 예측되고 있다.
이러한 AI가 군사적 용도로 이용된다면 어떨까. 살상력을 가진 무기에 AI의 분석과 판단이 결합될 경우 신속하게 적을 압도할 수 있는 전투력을 발휘할 수 있을 것이고, 전력 열세를 단숨에 만회하여 확실한 승기를 잡게 될 것이다. 그러나 자동화된 AI의 판단으로 공격이 개시되었는데 데이터의 편향성이나 알고리즘의 결함으로 잘못된 결과, 예를 들어 민간인을 전투원으로 오인하고 사격하는 결과가 벌어진다면 그 책임은 누가 져야 할까. 이러한 결과를 방지하기 위한 인간의 통제가 어느 단계부터 필요할까. 인간의 통제를 벗어난 AI의 독자 행동, 마치 영화 터미네이터의 AI 시스템인 '스카이넷'의 반란과 같은 파멸적 결과의 가능성을 막기 위해 인류는 무엇을 해야 할까.
AI의 군사적 이용과 관련한 법적, 윤리적 관점에서의 논의는 그 중요성에 비해 시작이 늦은 감이 있다. 국제연합(UN) 차원에서는 2014년부터 자율살상무기체계(LAWS)에 관한 정부전문가그룹(GGE)을 결성하여 2019년 국제인도법의 적용, 무기체계 사용결정에 대한 인간의 책임 등 11개 지도원칙을 발표하였다. 그러나 이후 국제사회에서의 논의는 지지부진하였는데, 그 바탕에는 AI의 군사적 이용에 대한 포괄적인 국제규제를 지지하는 국가군과 지나친 규제로 인한 연구개발에 대한 제약을 우려하는 미국, 영국 등 일부 선진국 간 의견 대립이 있다. 이러한 입장 차이를 고려하면서 공통 관심사를 합리적으로 처리할 수 있는 국제규범 체계의 창설을 위해서는 어느 한쪽에 치우치지 않는 중견국가들의 선도적 기여가 필요하다.
이와 관련하여 '군사영역에서의 책임 있는 AI에 관한 장관급 회의(REAIM)'가 2월 15일부터 16일(현지시간)까지 헤이그에서 열리고 있다. 이 회의에서는 AI 기술의 군사적 이용에 내포된 특징과 위험을 비롯해 윤리 문제, 책임 있는 AI의 군사적 응용을 위한 규범 등 다양한 주제에 관한 세션이 마련되어 있는데, 특기할 만한 것은 네덜란드와 우리나라가 공동주최국이라는 사실이다. 두 나라 모두 규범에 기반한 국제질서를 지지하며, 공명정대한 입장에서 객관적 논의를 통해 AI의 군사적 이용이라는 국제정치적으로 첨예한 주제에 대해 공통의 이해를 넓힐 역량을 갖추고 있다. 우리나라의 경우 AI를 포함한 첨단기술 산업기반이 탄탄하고 현안의 이해도도 높아, 이 주제의 논의를 선도할 수 있으리라 본다.
2018년 한국과학기술원(KAIST)은 국방 관련 AI 연구로 무차별 살상무기인 킬러로봇을 개발한다는 오해를 받아 국제석학들과의 공동연구 보이콧에 휘말리는 홍역을 치른 적이 있다. AI 기술개발의 필요를 충족시키면서 국제사회의 우려도 해소한다는 차원에서, 우리나라가 AI의 군사적 이용에 관한 국제규범 확립에 리더십을 발휘하고 적극적 역할을 담당할 필요가 있다. 국익에 주의를 기울이며 국제사회에도 공헌하는 글로벌 중추국가 대한민국의 위상이 AI의 군사적 이용에 관한 외교적 논의의 선도를 통해서도 더욱 높아질 것을 기대한다.