우크라에 '킬러드론' 띄운 러시아...인공지능무기 현실이 되다

입력
2022.03.31 19:00
25면

편집자주

가속화한 인공지능 시대. 인간 모두를 위한, 인류 모두를 위한 AI를 만드는 방법은? AI 신기술과 그 이면의 문제들, 그리고 이를 해결할 방법과 Good AI의 필요충분조건

러시아의 우크라이나 침공으로 발발한 전쟁이 벌써 한 달여가 되었다. 속히 이 불행한 전쟁이 종식되어 더 이상 무고한 시민들의 피해가 없길 간절히 바란다. 최근 미국 와이어드지는 이번 전쟁에서, 러시아가 인공지능(AI) 기능이 탑재된 '킬러드론'을 사용한 정황이 포착되었다고 보도했다. 이제 AI 무기가 실제 전쟁에 등장하기 시작한 것이다.

이번 칼럼에서는 인공지능 윤리의 5대 문제(편향성, 오류와 안전성, 악용, 개인정보보호, 킬러로봇) 중 인류에게 가장 직접적인 영향을 미칠 수 있는 '킬러로봇' 문제를 이야기해 보고자 한다.

우리가 AI의 역기능과 위험성에 대해 우려하고, 윤리문제를 연구 및 논의하는 이유는 바로 인공지능이 자율성을 갖기 때문이다. 그런데 자율성을 가진 인공지능이 인간을 공격하는 무기로 사용된다면 어떻게 될까?

그동안 SF영화 속에서 등장한 것처럼, 로봇과 AI가 인간을 상대로 전쟁을 벌이고, 인류는 여기에 속수무책으로 당하는 그런 일들이 현실화될 수도 있다. 이것은 필자만이 주장하는 바가 아니라 고 스티븐 호킹 박사, 프란치스코 교황, 일론 머스크 등 전 세계 많은 리더와 AI 전문가들이 우려하고 경고하고 있는 사항이다.

킬러로봇은 '치명적 자율형 살상무기시스템'(LAWS, Lethal Autonomous Weapon Systems)이라고도 한다. 만약 킬러로봇이 보편화되면 이제 인공지능과 로봇이 전장에서 무기가 되어, 인간을 공격대상으로 인식한 후, 인간을 죽일지 살릴지를 스스로 결정할 수 있게 된다.

킬러로봇은 러시아만의 얘기가 아니다. 미국, 중국 등 강대국들이 앞다투어 이러한 킬러로봇을 개발하고 있다. 이미 미국은 중동 지역에서 킬러드론을 테러조직 공격에 활용하고 있으며, 2019년에는 장갑차 형태의 로봇전투차량(RCV, Robotic Combat Vehicle)을 개발 중임을 공개하기도 했다.

미국 CNN은 2017년 4월26일 보도에서, 러시아에서 개발 중인 '페도르'(Fedor)라는 이름의 휴머노이드 형태의 전투로봇 테스트 영상을 공개했다. 이 영상 속 전투로봇은 사격을 통해 목표물을 정확히 맞히고, 이족(두개의 다리) 보행을 할 수 있으며, 심지어 차량 운전까지 가능한 기능을 보여줘 충격을 안겼다.

국방과학연구소의 최근 자료에 따르면, 러시아는 'Uran-9'이라는 자율주행 로봇탱크도 개발 중에 있는데, 이 로봇탱크는 시속 35㎞의 주행속도에 30㎜ 기관포와 7.62㎜ 기관총, 대전차 미사일 등을 탑재하여 전장에서 자율적으로 임무수행이 가능한 것으로 알려졌다.

홍콩 사우스차이나모닝포스트도 2020년 1월 18일자 기사에서, 중국 선박그룹(CSIC)이 무인 전투함 'JARI'를 개발해 해상 시험을 진행했다고 보도했다. 이 무인 전투함은 시속 78㎞의 속도를 낼 수 있고, 대공 미사일, 대함 미사일, 대잠어뢰 등까지 장착한 바닷속 AI 신무기라고 밝힌 바 있다.

물론 이러한 AI 무기 개발에 대해선 아직 일어나지 않은 일에 대한 과도한 우려라는 시각도 있다. 오히려 AI 무기가 활용되면 전투인력이 많이 투입되지 않아도 되며, 빠르게 전쟁을 끝낼 수도 있어, 민간인 인명 피해를 대폭 줄일 수 있다는 주장도 있다. 그리고 만약에 AI의 오류나 실수로 인해 피해가 발생할 경우, 로그 기록 및 데이터 확인을 통해 수정이 가능하고 책임자를 명확히 가려낼 수 있으므로 큰 문제가 없다고 주장하기도 한다.

하지만 이러한 주장에는 심각한 논리적 오류가 있다. 다음엔 킬러로봇 문제가 왜 전 인류에게 위협인지, 그리고 킬러로봇 문제를 해결하기 위해 우리가 또 전 세계가 어떤 노력을 기울여야 하는지 논의해 보기로 하자.



전창배 IAAE (국제인공지능/윤리협회) 이사장