보이스 피싱에 AI 악용...아이 목소리도 '뚝딱' 복제

입력
2023.06.21 04:30
11면
SK쉴더스 화이트해커 그룹 이큐스트, 보안 분석 세미나 
피싱 탐지 AI 우회하기 위해 AI 활용하는 경우도
"공격·방어 모두 AI 쓰게 될 것"


챗GPT의 등장과 함께 시작된 생성형 인공지능(AI)이 빠르게 발전하면서 사이버 보안 업계도 촉각을 곤두세우고 있다. 특히 AI를 적극 활용해 진짜와 판박이 같은 가짜 메일, 음성, 화상을 만들어 피해자의 지인을 흉내 내는 피싱 수법이 나타날 수도 있다는 경고가 나왔다.

라이프플랫폼 기업 SK쉴더스의 화이트해커 팀 이큐스트(EQST)는 20일 언론 대상 보안 분석 세미나를 열고 해킹 공격을 시도하는 쪽과 이를 막으려는 쪽 모두 생성형 AI를 활용할 것으로 내다봤다. 이재우 SK쉴더스 EQST그룹장은 "생성형 AI가 고도화할 경우 자동으로 공격이 이뤄지고 그 수준이 매우 높은 수준에서 평준화될 것"이라면서 "이를 방어하려는 쪽에서도 생성형 AI가 필요할 것"이라고 말했다.

EQST에 따르면 이미 피싱 공격에는 AI가 악용되고 있다. 실제와 흡사한 스팸메일이나 문자의 문구를 작성하고 악성 링크를 클릭하도록 유도하는 식이다. 사람의 얼굴과 목소리를 '딥 페이크' 기술을 활용해 모방한 후 보이스피싱에 쓰기도 한다. 이호석 이큐스트 랩(Lab) 담당은 "5초 정도의 음성만 있으면 목소리를 복제할 수 있어서 합성된 아이의 목소리를 들려주고 돈을 요구하는 보이스피싱 사례 등이 등장하고 있다"고 말했다.

메일 서비스를 제공하는 플랫폼 업체나 보안업체는 피싱을 막기 위해 메일이나 위험 링크를 AI를 활용해 탐지하는 프로그램을 내놓고 있다. 하지만 공격자 쪽에서는 이런 방어를 우회하는 수단을 찾아내는 데 AI를 쓰면서 역공을 시도하는 것으로 나타났다. 사이버 세상 한편에선 이미 창과 방패에 모두 AI가 핵심 기술로 쓰이고 있는 셈이다.



"생성형 AI, 사이버 보안 분야 보조적 활용 가능"


악성코드 공격 역시 AI 발전에 힘입어 크게 번질 가능성이 있다. 이 담당은 "다크웹(추적이 어려운 음지 인터넷 영역)을 통해 악성코드를 생성하는 방법이 널리 퍼지고 있다"고 분석했다. 많은 기업과 기관에 피해를 입히고 있는 랜섬웨어 공격이 더욱 빈발할 수도 있다는 얘기다. 랜섬웨어 공격은 특정 기관의 내부망에 침입해 통제 권한을 뺏고 데이터 등을 암호화한 상태로 금전을 요구하는 것을 말한다.

SK쉴더스는 공격을 막는 사이버보안 전문가 입장에서도 생성형 AI를 보조 수단으로 활용할 수 있다고 봤다. 보안 실무에서 주로 사용하는 네 가지 분야에 생성형 AI를 도입해 테스트로 검증한 결과 △모의 해킹 시나리오를 도출하거나 △소프트웨어 개발 시 보안 취약점을 점검하는 데 활용도가 높았다.

다만 △실시간으로 진행해야 하는 모바일 서비스 점검과 △실제 악성코드 분석에는 큰 힘을 쓰지 못했다. 현재 생성형 AI가 소화할 수 있는 입력량과 연산 능력이 공격에 쓰이는 길고 복잡한 코드를 해석하는 데까지 미치진 못하고 있기 때문이다. 이 담당은 "생성형 AI 모델은 보안 영역에서 활용하기엔 아직 초·중급 수준"이라면서도 "앞으로 AI 모델 발전에 따라 정확도와 활용도가 높아질 것"이라고 밝혔다.

한편 SK쉴더스는 올해 상반기 보안 침해 사고를 유형별로 분류한 결과 정보유출(30%)이 가장 많았으며 랜섬웨어 등 악성코드 공격(28%)과 피싱·스캠(18%)이 뒤를 이었다고 밝혔다. 아울러 올해 하반기에는 최근 한국 정부가 독자 제재에 나선 북한 해커조직 '김수키' '라자루스' '안다리엘' 등이 더욱 공격적으로 활동할 것으로 내다봤다. 이 담당은 "국가협력안보센터를 통해 정부와 정보를 교환하고 있어 구체적 사항은 공개가 어렵지만 하반기에 더 많은 공격이 일어날 조짐이 보인다"고 말했다.

인현우 기자