네이버가 '사람을 위한 인공지능(AI)' 개발을 위해 서울대와 함께 'AI 윤리 준칙'을 마련했다.
네이버는 서울대 AI 정책 이니셔티브(SNU AI Policy Initiative·SAPI)와 17일 온라인 세미나를 열고 '네이버 AI 윤리 준칙'을 발표했다.
AI 윤리 문제는 올해 초 불거진 AI 챗봇 '이루다' 논란에서부터 확산됐다. 이루다는 이용자의 대화 도중 혐오·차별적 어휘를 사용했다. 이루다 개발사의 경우 챗봇 개발 과정에서 이용자의 개인정보를 무단으로 활용하면서 도마에 올랐다.
네이버가 이번에 발표한 AI 윤리 준칙은 △사람을 위한 AI 개발 △다양성 존중 △합리적인 설명과 편리성의 조화 △안전을 고려한 서비스 설계 △프라이버시 보호와 정보 보안 등 총 5개 조항으로 구성됐다. 이는 네이버의 모든 구성원이 AI 개발과 이용에 있어 준수해야 하는 원칙으로, AI에 대한 사회적 요구와 네이버의 기업철학이 통합적으로 반영됐다.
네이버는 이번 AI 윤리 준칙을 마련하기 위해 2018년부터 SAPI와 논의를 진행했다. SAPI는 법학, 공학, 경제학 등 여러 학문분야의 협력을 통해 AI와 관련된 융합 연구를 하는 서울대 산하 프로그램이다.
네이버는 AI 윤리 준칙이 구호에 그치지 않도록 단계적 실험을 통한 실천 방안도 제시했다. 이를 위해 유연한 사내 커뮤니케이션 채널을 마련해, 프로젝트 진행이나 서비스 개발 시에 사안을 중심으로 논의를 진행할 수 있도록 할 예정이다.
또 네이버는 SAPI와 협력해 사례 중심의 보고서도 발간하기로 했다. 향후 스타트업 지원기관과 연계해 시간과 자원이 부족한 스타트업도 AI 윤리에 대해 미리 고민할 수 있도록 경험과 노하우를 전달할 계획이다.
송대섭 네이버 아젠다 리서치 책임리더는 "AI 윤리 준칙을 수립해 발표하는 것은 이 프로젝트의 시작 단계일 뿐"이라며 "앞으로도 학계와 계속 협업하고, 현장에서의 적용 사례를 축적하며, 지속적으로 실천 가능한 방향으로 준칙을 더욱 구체화하고 개선해나갈 것"이라고 말했다.