지난 1월 31일 육군은 군사용 인공지능(AI)의 안전성 확보를 위한 윤리적 평가 및 검증 기준 마련과 관련한 연구 용역을 발주했다고 밝혔다. 우리나라도 국방 분야에 AI를 적용하기 위한 연구와 개발이 한창 추진 중인데, 육군에서 군사용 AI의 사용에 앞서 윤리적 문제를 보완하고 해결하겠다는 의지를 보인 것이다.
지난번 칼럼에서는 인공지능 윤리의 5대 문제(편향성, 오류와 안전성, 악용, 개인정보보호, 킬러로봇) 중 '킬러로봇'의 개념과 사례에 대해 살펴보았는데, 오늘은 킬러로봇이 왜 위험한지, 우리가 이 문제를 어떻게 해결해야 하는지에 대해 함께 고민해보도록 하겠다.
작년 9월 케네스 매켄지 미국 중부사령관은 카불 지역에서 드론 오폭으로 어린이 7명을 포함해 10명의 민간인이 사망한 사건에 대해 공식 인정하고 사과했다. 현재 많은 나라들이 드론을 군사용 목적으로 적극 활용하고 있는데 드론의 사용이 늘어날수록 이러한 민간인 오폭 사건도 지속적으로 증가하고 있다.
드론 기술의 적용만으로도 이러한 대규모 민간인 피해 사례가 발생하고 있는데, 만약 인공지능 기술과 킬러로봇이 무기화되어 전장에서 활용된다면 훨씬 더 큰 피해가 발생할 수 있다. 기계와 시스템은 완벽하지 않으며 언제든지 예측 못한 오류와 해킹이 발생할 수 있다. 현재 기술 수준에서는 AI와 로봇이 민간인과 전투원을 100% 완벽히 구별할 수 없다.
더 큰 문제는 이러한 AI와 킬러로봇의 오류와 사고에 대해 관련자 모두가 책임을 회피할 수 있다는 것이다. 군에서는 제조사에, 제조사는 개발자에게, 개발자는 군의 운영자에게, 운영자는 상관인 지휘관에게, 지휘관은 부하 대원에게 책임을 떠넘겨 결국 아무도 책임지지 않는 상황이 발생할 수도 있다.
또한 킬러로봇이 활성화되면 결국 누구나 돈만 있으면 쉽게 만들고 구매할 수 있게 돼 지구촌에 전쟁과 테러가 급증할 우려가 있다. 더욱이 킬러로봇은 목적을 달성한 후 스스로 파괴되거나 기록을 삭제할 수 있어, 누가 만들었고 조종했는지가 불명확해져 증거가 쉽게 인멸될 수 있다.
하지만 무엇보다도 킬러로봇은 인간을 목적이 아니라 단순한 공격대상, 즉 수단으로 취급하게 되어 인간의 존엄성과 생명권을 경시하게 될 위험성이 커진다는 점이다.
인간의 생명과 존엄성은 어떤 상황에서도 어떤 이유에서도 지켜야 하는 절대적 권리이다. 기계는 결코 인간의 생명을 살리고 빼앗는 가치판단을 내려서는 안 되며, 인간은 그러한 결정 권한을 절대 기계에 위임해서도 안 된다.
현재 강대국들이 '킬러로봇'을 개발하는 데 아무런 제약이 없는 상황이다. 이러한 상황이 지속되면 '킬러로봇' 문제는 제2의 핵문제가 될 수도 있다. 따라서 핵무기와 같이 잠재적 위험성이 높은 킬러로봇들이 수백만 개가 만들어지기 전에, 바로 지금 킬러로봇 문제에 대해 전 세계적인 논의와 합의가 이루어져야 한다.
필자는 핵확산금지조약(NPT)처럼, 유엔(UN)이 주도하여 킬러로봇의 개발과 사용을 금지하는 '킬러로봇금지조약'(KRPT, Killer Robot Prohibition Treaty)의 제정이 필요함을 지속 주장하고 있다. 이와 함께 국제원자력기구(IAEA)와 같이 '국제인공지능기구'를 설립하여 킬러로봇과 같은 AI의 위협 요인들에 대해 가이드하고 감시하게 하는 기능을 수행하는 것도 중요하다.
킬러로봇 개발 기술은 어려운 게 아니다. 현재 AI 기술 수준만 가지고도 충분히 고성능의 킬러로봇을 만들어 낼 수 있다. 이미 킬러로봇은 나도 모르는 사이 개발되고 있으며 이제 킬러로봇 문제는 전 인류에게 닥친 주요한 문제이다. 영화에만 나오는 먼 훗날의 일이 아니라는 점을 우리 모두가 주지할 필요가 있다.