보내는 기사
'책임 있는 AI 개발' 약속한 국내 6개사 "위험 관리 체계 다 만들었다"
이미 가입된 회원입니다.
만 14세 이상만 회원으로 가입하실 수 있습니다.
'인공지능(AI) 서울 기업 서약'에 참여한 네이버·카카오·삼성전자·SK텔레콤·KT·LG AI연구원 등 국내 6개 기업이 26일 열린 'AI 신뢰·안전성 콘퍼런스'에 참석해 10월까지 모두 AI 위험관리 체계를 마련했다고 밝혔다.
과학기술정보통신부는 이날 서울 용산구 전쟁기념관에서 AI 분야 대기업과 스타트업, 연구자 200여 명이 참석해 AI 신뢰·안전성 콘퍼런스를 개최하고 기술과 정책 동향을 공유했다고 밝혔다. 이날 행사에는 5월 'AI 서울 기업 서약'에 서명한 국내 6개 기업이 모두 자리했다. AI 서울 기업 서약은 기업들이 'AI 서울 정상회의' 개최에 맞춰 자발적으로 책임 있는 AI 개발을 이행한다는 내용을 담은 발표다.
이날 발표에 따르면 네이버는 6월 'AI 세이프티 프레임워크(ASF)'를, 카카오는 10월 'AI 세이프티 이니셔티브(ASI)'를 구축했다. 둘 모두 위험도를 스스로 평가한 뒤 위험도가 높으면 AI 서비스의 배포를 중단한다는 내용이 담겼다. 삼성전자·SKT·KT도 각기 AI 안전성 규범을 마련했다. LG AI연구원은 3월부터 AI 위험을 사전에 파악하고 해결하는 'AI 윤리 영향 평가'를 모든 프로젝트에 적용한다고 밝혔다.
국내 업계는 AI의 신뢰와 안전성 확보를 위한 기술과 평가 기법 등을 만들고 있다. '제2회 AI 신뢰성 대상'을 탄 다비오의 '다비오 어스아이2.0'은 위성·영상 이미지의 공간 정보를 AI를 통해 디지털 데이터로 바꾸는 설루션인데 '신뢰할 수 있는 AI 개발 안내서'를 바탕으로 자체 데이터 품질 관리 프로세스를 수립·적용했다는 평가를 받았다.
이날 기조 연설을 맡은 요슈아 벤지오 몬트리올대 교수는 "AI 안전 확보를 위해 정량적이고 측정 가능한 AI 모델의 위험 평가·관리 기술을 확보해야 한다"면서 "정부의 지원 확대와 AI 안전 연구소의 역할이 필요하다"고 밝혔다.
행사에 참석한 송상훈 과기정통부 정보통신정책실장은 "민간 자율에 기반한 책임 있는 AI 개발·활용 문화가 확산할 수 있도록 정책 지원을 강화할 것"이라며 "첨단 AI의 잠재적 위험에 대비해 AI 안전연구소를 출범하고 체계적으로 대응해 나가겠다"고 밝혔다.
신고 사유를 선택해주세요.
작성하신 글을
삭제하시겠습니까?
로그인 한 후 이용 가능합니다.
로그인 하시겠습니까?
이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.
구독을 취소하시겠습니까?
해당 컨텐츠를 구독/취소 하실수 없습니다.
댓글 0