속보

단독

"위험도 높으면 서비스 배포 중단"...네이버가 AI 안전 체계 고강수 둔 까닭은

입력
2024.06.17 14:00
수정
2024.06.17 14:45
16면
구독

프런티어 AI는 3개월마다 위험 평가
"위험 상당하다면 서비스 배포 중단"

최수연 네이버 대표가 지난해 8월 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '팀 네이버 콘퍼런스 단(DAN) 2023'에서 초대규모 AI '하이퍼클로바X' 관련 발표를 하고 있다. 네이버 제공

최수연 네이버 대표가 지난해 8월 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '팀 네이버 콘퍼런스 단(DAN) 2023'에서 초대규모 AI '하이퍼클로바X' 관련 발표를 하고 있다. 네이버 제공


네이버가 국내 최초로 인공지능(AI) 안전성 체계를 설계하고 실천 방안을 내놨다. 그 핵심은 영어 중심의 글로벌 빅테크 AI의 한계를 극복하기 위해 문화적 다양성을 반영한 AI 안전성 체계를 만드는 것이다. 특히 인류를 위협할 만한 '프런티어(frontier) AI'는 3개월마다 평가하고 위험 수준이 상당히 높다고 판단되면 서비스를 배포하지 않기로 하는 등 강도 높은 기준을 세웠다.

네이버가 17일 공개한 '네이버 ASF(AI Safety Framework)'는 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계다. 네이버가 AI를 연구·개발하면서 세운 'AI 윤리 준칙'(2021년), 'AI 윤리 자문 프로세스'(2022년)에 이어 좀 더 구체화한 실천안을 담았다.

네이버 ASF는 AI 시스템 때문에 생길 수 있는 위험을 ①통제력 상실과 ②악용으로 정의하고 대응법을 설계했다. 우선 인간이 AI 시스템에 영향을 줄 수 없는 통제력 상실 위험을 완화하기 위해서 AI 시스템의 위험을 주기적으로 평가하고 관리할 예정이다. 특히 현존 최고 성능의 AI 시스템인 프런티어 AI에 대해선 3개월마다 위험을 따져본다. 또한 시스템의 능력이 기존보다 여섯 배 이상 증가하면 추가 평가도 한다.

AI 시스템의 악용 위험에 대해선 'AI 위험 평가 매트릭스'를 가지고 대응한다. 예를 들면 생화학 물질 개발과 같이 특수한 목적으로 쓰이는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화하겠다는 것. 특히 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 위험의 정도가 낮아질 때까지 모델 또는 서비스 배포를 중단할 방침이다. 생성형 AI 기술 선봉에 있는 오픈AI가 안전성보다 기술 진보에 방점을 찍은 것과 대비된 행보다.



'문화적 다양성' 반영해 빅테크 AI와 차별화

경기 성남시 네이버 본사. 연합뉴스

경기 성남시 네이버 본사. 연합뉴스


네이버는 AI 안전성 체계에 문화적 다양성을 반영해 고도화할 예정이다. 영어·미국 중심의 빅테크 AI에 비해 네이버는 나라별로 언어·문화적 맥락을 이해하는 소버린 AI 기술을 내세워 글로벌 존재감을 키우고 있는데 이를 AI 안전성 기준에도 담겠다는 것. 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 알아차리고 위험의 정도를 측정하는 벤치마크(성능 측정 기준)도 문화권의 특성을 반영한다.

AI 안전성에 대한 테크 기업의 책무는 점점 커지고 있다. AI보다 한 단계 진화해 사람과 비슷하거나 사람보다 뛰어난 지능을 가진 범용인공지능(AGI) 기술 상용화도 머지않았다는 전망이 나오기 때문이다. 최수연 네이버 대표는 "소버린 AI를 개발한 경험을 통해 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다"며 "다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 쓰이며 공존하는 AI 생태계에 네이버가 힘을 보탤 것"이라고 설명했다.






김지현 기자

댓글 0

0 / 250
첫번째 댓글을 남겨주세요.
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.

기사가 저장 되었습니다.
기사 저장이 취소되었습니다.