보내는 기사
오픈AI, 인공지능 위험 관리 강화... "대비팀 꾸리고, 이사회 비토권 부여"
이미 가입된 회원입니다.
만 14세 이상만 회원으로 가입하실 수 있습니다.
챗GPT 개발사인 오픈AI가 18일(현지시간) 인공지능(AI) 위험성 관리 방안을 내놨다. AI를 통해 생화학 무기 제조법을 알아내거나 개인정보를 캐내는 등의 '심각한 악용'을 방지하려는 목적이다. 전담팀을 꾸려 AI 모델 안전성을 검증하고, 이사회에 신규 모델 출시 거부권을 부여하는 게 골자다.
이날 오픈AI 홈페이지를 통해 '대비(preparedness)'라는 이름으로 발표된 위험성 관리 방안에 따르면, 전담 대비팀은 출시를 앞둔 AI 모델뿐 아니라 이미 출시된 모델에 대해서도 지속적인 모니터링을 하기로 했다. 위험도가 높다고 판명된 모델은 추가 보완을 하거나 출시를 보류하게 된다. 매사추세츠공대(MIT) AI 교수인 알렉산더 마드리가 이끄는 전담팀과 관련, 워싱턴포스트는 "AI 연구원과 컴퓨터 과학자, 국가 안보 전문가 등 다양한 전문가로 꾸려질 전망"이라며 "오픈AI는 미 국가핵안보국(NNSA) 등과도 접촉 중"이라고 전했다.
오픈AI는 대비팀을 통해 △사이버 보안 △화학·생물학·핵·방사능 위협(CBRN) △설득력 △모델 자율성 등 위험 요소 4개의 안전성을 검증하겠다고 밝혔다. '사이버 보안'은 해킹이나 개인정보 노출 등 보안 관련 위험성 지표이고, 'CBRN'은 생화학적 도구나 핵무기 등 개발에 AI가 도움을 줄 우려를 뜻한다. '설득력'은 AI가 사람들의 신념을 바꾸거나 행동하도록 부추길 위험을 가리키는 요소이며, '모델 자율성'은 시스템 오용 유도에 대한 취약성을 보여 주는 척도다. 오픈AI는 이들 네 가지로 모든 위험을 예견할 순 없다는 점을 인정하고, 지속적인 감시를 통해 필요시 '위험 요소' 범주를 추가하겠다고 설명했다.
신규 AI 모델의 출시 여부는 대비팀 보고서를 토대로 결정된다. 다만 경영진이 출시 결정을 내리더라도 이사회가 이를 거부할 수 있도록 했다. 결국 AI 모델 출시의 최종 결정권은 샘 올트먼 최고경영자(CEO)가 아니라, 비토권을 쥔 이사회가 갖게 된 셈이다. 블룸버그통신은 "이사회에 최첨단 기술 개발을 위한 안전장치를 강화하도록 권한을 부여한 것"이라고 짚었다.
이번 방안은 '올트먼 축출' 사태 이후 오픈AI 이사회와 경영진 간 권력 균형에 이목이 집중된 가운데 나왔다. 지난달 17일 이사회는 돌연 올트먼을 해고했으나, 직원들의 거센 반발로 닷새째인 21일 올트먼이 다시 CEO로 복귀했다. 이후 기존 이사진이 대거 사임했고, 현재 새 이사회를 꾸리고 있는 상태다.
신고 사유를 선택해주세요.
작성하신 글을
삭제하시겠습니까?
로그인 한 후 이용 가능합니다.
로그인 하시겠습니까?
이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.
구독을 취소하시겠습니까?
해당 컨텐츠를 구독/취소 하실수 없습니다.
댓글 0