외교·국방·정보 당국, 한목소리로 AI를 외치지만..."과연 통제 가능할까"[문지방]

입력
2024.09.18 06:00

편집자주

광화'문'과 삼각'지'의 중구난'방' 뒷이야기. 딱딱한 외교안보 이슈의 문턱을 낮춰 풀어드립니다.
'AI(인공지능) 실험실.'

요즘 우크라이나와 가자지구를 가리켜 'AI 실험실'이라고 합니다. 군사시설과 전장의 실험실, 그 중심에 AI가 있다는 의미입니다.

우크라이나는 AI업체 팔란티어가 제공하는 정보를 통해 러시아의 군사장비 결집 정보를 받고, 이스라엘은 AI표적시스템 '하브소라'와 '라벤더' 시스템을 토대로 무장정파 하마스 등 적군을 식별해 공격하고 있다고 합니다. 자폭AI드론인 '하피'는 식별된 데이터를 토대로 공격을 가하고요. 그만큼 두 전장을 AI가 지배하고 있다는 얘기입니다.

이와 관련해 국방장관을 지낸 정경두 사이버안보연구소 대표는 지난 9일, 서울 중구 롯데호텔에서 열린 'AI의 책임 있는 군사적 이용에 관한 고위급회의(REAIM)' 특별세션에서 의미 있는 발언을 내놓았습니다.

"군사작전을 수행하는 데에 AI를 적용하려면 정확한 데이터를 토대로 지휘관의 올바른 통제하에 진행돼야 합니다. 데이터 해킹의 위험성, 정보 오류가 조금이라도 있을 경우 심각한 위협요소가 될 수 있는 만큼 사이버안보가 담보돼야 전 세계 평화도 유지될 수 있습니다."

실제 AI로 전투원과 민간인을 구분해 군사작전을 이행하고 있다는 이스라엘은 최근까지 가자지구 내 난민촌의 유엔학교와 병원들을 공습하며 상당한 민간인 피해를 초래했습니다. 잘못된 식별에 대한 책임소재는 불분명한 상황이죠.

회의에 함께 참석한 구태언 코리아스타트업포럼 부의장 역시 "AI가 국제법에 따라 전투원과 민간인을 명확히 구별해 대응해야 하는데, 그런 세밀한 판단을 내릴 수 있는지 의문"이라고 지적했습니다. 이진 사이버안보연구소장은 "AI를 군사적으로 이용하려면 무단접근을 방지하기 위해 모든 데이터를 실시간 암호화하는 작업이 필요하고, 접근 제어 기능도 필수적"이라며 "생명과 직결되는 상황에서 AI가 인간의 감독 없이 자율적으로 운영돼서는 안 된다"고 말했습니다.

제대로 된 AI 활용...문제는 '규범'과 '데이터'

전문가들은 대체로 AI의 악의적 이용을 막고, 선순환적인 기술발전을 도모하기 위한 전제 조건으로 두 가지 핵심요소를 꼽습니다.

먼저 규범입니다. 적절한 규범이 없으면 이스라엘 AI표적시스템과 드론으로 가자지구 민간인이 무장정파 하마스 전투원과 가족이나 친척이라는 이유로 공격당하는 일이 벌어질 수 있습니다. 심리전을 목적으로 지식재산권이나 초상권에 대한 고려없이 딥페이크 영상과 사진이 유포될 수도 있습니다. 실제 러시아 측은 우크라이나와의 전쟁에서 우위를 점하기 위해 무단으로 볼로디미르 젤렌스키의 이미지 자료를 추출, 항복을 선언하는 듯한 가짜영상을 제작해 심리전에 나섰죠.

또 다른 요소는 바로 데이터입니다. 빅데이터가 없으면 AI는 무용지물입니다. 하지만 빅데이터도 '정확'해야 하고 경우에 따라 외부로 유출될 경우 엄청난 피해를 양산하게 됩니다. 챗GPT가 독도를 '한일 분쟁지역'이라고 답변한 일이나 AI챗봇 '이루다'가 고지없이 이용자들의 카카오톡 대화내용을 수집·활용한 사건은 AI의 어두운 면을 세상에 드러냈죠.

외교부와 국정원, 각각 REAIM·사이버 서밋 개최…"AI의 안전한 이용방안 모색"

이 같은 측면에서 9~12일까지 한 주간 외교· 국방부와 국정원이 각각 AI와 사이버안보를 주제로 연 국제회의는 이목을 끌 만했습니다. 먼저 90여 개국의 정부대표단과 36명의 장차관이 참석하는 REAIM 고위급 회의는 기술강국인 네덜란드와 한국이 미국과 중국 등 강대국뿐 아니라 AI활용 국가들을 규범 논의의 장으로 견인하기 위해 만들어졌습니다. 또 하나는 국정원 주도의 '사이버 서밋(CSK) 2024'로 외국 기관 관계자 70여 명과 기업 및 정부 인사 등 총 400여 명이 참석한 회의입니다.

외교부의 REAIM은 AI의 어두운 면을 규제하기 위한 정책방안을, 국정원은 AI의 선순환적 이용을 위한 데이터 보호 및 보안뿐 아니라 사이버 공간에서의 안보체계를 구축하는 메커니즘 개발을 위해 열린 것입니다.

"급속도로 발전하는 정보기술…제도는 여전히 지지부진"

실제로 두 회의에서는 AI를 중심으로 신흥기술은 나날이 발전하고 있는 반면, 이 기술들이 사회안전과 국가안보에 악영향을 끼치지 않도록 하기 위한 제도들은 여전히 미비하다는 지적이 쏟아졌습니다.

위성통신 시대, 지상 위성관리 시설과 위성체를 겨냥한 해킹 공격에 대비해야 한다고 지적한 류재철 충남대 교수는 CSK회의에서 "미국과 비교하면 한국은 사이버보안·우주산업이 60~70년 뒤져있다고 볼 수 있다"며 "아무래도 안보 면에서는 국정원이 나설 수밖에 없는데, 우주항공청에서도 사이버보안을 담당하는 인력이 필요하다"고 했습니다. 뒤늦게 우주기술과 안보 분야의 '부처 칸막이'를 없애기 위해 범정부·관민 협의체가 생겼지만, 원활하게 가동하려면 역할분담과 업무보완이 필요하다는 지적이죠.

우주사이버나 AI 군사기술이 아닌 일반 AI 서비스에 관해서도 마찬가지입니다. 제임스 랜데이 스탠퍼드대 인간중심AI연구소 공동소장은 REAIM 고위급회의에서 "AI 부작용과 관련해 터미네이터와 같은 시나리오를 생각하는 것은 주안점이 잘못됐다고 생각합니다"고 지적했습니다. 영화 '아이, 로봇'처럼 AI가 인류를 장악하는 디스토피아적 공상과학(SF) 시나리오만을 AI의 위협이라고 착각하는 정책 입안자들과 대중의 시선이 바뀌어야 한다는 것이죠. 하정우 네이버 클라우드 AI 이노베이션 센터장도 "당장 우리가 직면하고 있는 것은 허위정보를 AI이용자들이 인식하지 못하는 할루시네이션(Hallucination)과 같은 것들이 있습니다. 그런 점에서 AI기술의 기능과 한계에 대한 정확한 설명이 필요합니다"고 강조했습니다.

제도화 첫걸음 내디딘 정부…다중보안체계 도입하고 REAIM 청사진 채택

참 다행인건, 정부의 귀가 완전히 닫혀 있지는 않다는 겁니다. AI와 사이버안보를 주제로 한 국제행사를 외교·국방부와 국정원이 각각 개최했다는 것은 그만큼 점진적으로 신흥기술 안보분야에서의 제도적 기반을 마련하고, 국제규범을 정립하는 데 한 역할을 하고 싶다는 의미겠죠.

이러한 의지를 반영하듯, 정부는 REAIM에서 '행동을 위한 청사진'을 채택했습니다. 96개국 정부 대표단 가운데 61개국이 지지한 청사진에는 AI기술을 군사적으로 적용하더라도 반드시 인간이 그 과정을 통제하고 책임을 져야 한다는 점이 강조됐죠. 이 소장이 강조한 부분입니다.

핵무기와 대량살상무기와 관련해서도 청사진은 "핵무기 사용결정에 관련된 정보를 제공하고 실행하는 데 있어 필수적 모든 행동에 대해 인간의 통제와 개입을 유지하는 것이 중요하다"면서 핵심전략무기에 AI기술이 활용되는 것을 경계했습니다.

그 사이 국정원은 IT 또는 AI기술업체 등에 공공데이터 공유를 극도로 꺼리게 한 내부망 체계를 확 바꾸기로 했죠. 공공데이터를 정보 중요도 및 기밀성에 따라 1~3급으로 구분해 공유하고 그 수준에 맞춰 정보 공유망을 짜는 '다중보안체계(MLS)'를 도입하기로 한 것입니다. 국정원은 내부 제도 개편, 외교부와 국방부는 AI의 책임 있는 이용을 위한 국제사회 연대를 노렸다고 볼 수 있습니다.

REAIM 청사진과 국정원의 MLS 도입은 보다 나은 신흥기술 활용을 위한 첫걸음일 것입니다. 외교안보·정보 당국의 제도 개편 노력을 토대로 국가안보뿐 아니라 국제안보 차원에서 책임 있는 AI와 신흥기술 이용이 이뤄질 수 있기를 기대해 봅니다.


문재연 기자