보내는 기사
"이스라엘 '하마스 식별' AI 시스템만 믿고 가자 공습… 민간 피해 키워"
이미 가입된 회원입니다.
만 14세 이상만 회원으로 가입하실 수 있습니다.
팔레스타인 무장 정파 하마스 대원을 '표적'으로 식별하는 이스라엘방위군(IDF)의 인공지능(AI) 시스템이 졸속 운영되고 있다는 외신 보도가 나왔다. AI의 오류 가능성에 대한 고려 없이 그 의존도를 높이면서 인간이 해당 정보의 타당성을 검증하는 절차를 사실상 없앴다는 것이다. 이로 인해 1분마다 하마스 타깃 2개를 타격하는 '숨 가쁜 전쟁'이 이어져 왔고, 가자지구 민간인 피해는 기하급수적으로 늘어난 것으로 파악됐다.
미국 워싱턴포스트(WP)는 29일(현지시간) 익명의 소식통을 포함한 12명에 대한 인터뷰를 토대로 "이스라엘이 '전쟁 수행용 AI 공장'을 세웠다"고 보도했다. 지난해 10월 가자지구 전쟁 발발에 앞서 수년 전부터 IDF 정보 부대를 'AI 시험장'으로 바꾸었고, 그 결과 부적절한 정보 생산이 이어져 왔다고 신문은 전했다.
WP에 따르면 문제의 'AI 공장'은 IDF의 통합정보분석 AI 시스템 '하브소라(복음을 의미하는 히브리어)'다. 군이 수집한 각종 자료를 분석해 하마스 대원·건물·무기고 등을 식별하는 AI 기반 프로그램 '라벤더'가 하브소라의 핵심 축이다. 이렇게 생산된 정보를 일선 병사·지휘관에게 전달하는 애플리케이션(앱)도 있다. 민간인과 섞여 있는 하마스 대원을 구별해 내기 위해 2006년 개발이 시작됐다.
하브소라의 존재는 이스라엘도 일찍이 인정했다. IDF는 지난해 11월 "하브소라가 목표물 1만2,000곳을 공습하는 데 기여했다"고 밝혔다. AI 신뢰도에 대한 문제 제기가 이스라엘 안팎의 언론에서 제기됐지만, IDF는 "정보분석가의 데이터 해석을 돕는 단순 도구일 뿐"이라고 맞서 왔다.
그러나 이 같은 해명은 거짓에 가깝다고 WP는 지적했다. 신문은 "과거에는 '인간이 직접 얻은 최소 두 개의 정보가 AI 생산 정보를 뒷받침해야 한다'는 내부 규칙이 있었다"며 "가자 전쟁 시작 이후 '최소 한 개'로 바뀌었다"고 설명했다. 인간의 직접 검증 기준을 대폭 낮췄다는 얘기다.
그마저도 실전에선 무시되기 일쑤였다. WP는 "병사들은 (추가) 검증 절차도 없이 'AI에 의해 하마스로 지목된 타깃'을 공격했다고 털어놨다"며 "설령 검증하더라도 '성별 일치'를 확인하는 수준에 그쳤다"고 짚었다.
막대한 사상자를 유발하는 건물 공습 여부도 AI가 결정했다. 한때 IDF 지휘관들은 가자 북부 건물 50곳 폭격을 준비하면서 "AI 기반 앱을 활용하라"는 지시를 받았다. 이 앱은 '건물 주변 기지국에 포착된 휴대폰 신호 수'가 해당 건물 거주자 인원 추정치의 25% 이하일 땐 '폭격 승인' 신호를 주는 프로그램이었다. 과거 병사들이 가가호호 전화를 걸어 건물에 민간인이 있는지 직접 확인했던 종전 방식에 비하면 터무니없는 의사결정 방식이다. WP는 "휴대폰이 없는 어린이들은 고려하지 않는 시스템"이라고 비판했다.
이러한 AI 졸속 사용은 결국 하마스를 더 빨리, 더 많이 제거하는 데에만 몰두한 결과로 풀이된다. 전직 IDF 장교는 "AI 시스템은 정보분석가들이 일주일 동안 생산했던 정보량을 30분 만에 양산할 수 있다"고 말했다. IDF가 매일 폭탄 수십~수백 발을 가자 전역에 퍼부을 수 있었던 이유다.
결과는 참혹하다. 가자지구 보건부에 따르면 이번 전쟁 과정에서 숨진 팔레스타인 주민은 4만5,000명을 넘어섰고, 이 중 절반 이상이 여성과 어린이였다. WP는 "IDF 관리들조차 AI 사용을 더 이상 자랑스러워하지 않는다"고 꼬집었다.
신고 사유를 선택해주세요.
작성하신 글을
삭제하시겠습니까?
로그인 한 후 이용 가능합니다.
로그인 하시겠습니까?
이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.
구독을 취소하시겠습니까?
해당 컨텐츠를 구독/취소 하실수 없습니다.
댓글 0