속보

단독

노벨상 탄 AI 대부의 'AI 경계론'에...노벨상 환영하던 빅 테크들 긴장

입력
2024.10.10 04:30
2면
구독

노벨 물리학상 수상자 'AI 대부' 힌턴
수상 직후 '안전성 규제' 주장

'인공지능(AI)의 대부'로 불리는 제프리 힌턴 캐나다 토론토대 교수가 2015년 캘리포니아주 마운틴뷰 구글 본사에서 인터뷰하는 모습. 힌턴 교수는 2023년 AI 개발의 속도 조절을 주장하며 구글을 떠났다. AP 연합뉴스 자료사진

'인공지능(AI)의 대부'로 불리는 제프리 힌턴 캐나다 토론토대 교수가 2015년 캘리포니아주 마운틴뷰 구글 본사에서 인터뷰하는 모습. 힌턴 교수는 2023년 AI 개발의 속도 조절을 주장하며 구글을 떠났다. AP 연합뉴스 자료사진


존과 제프를 축하한다. 둘 다 나의 전 동료였다.

얀 르쿤 메타 수석 인공지능(AI) 과학자

거대 기술기업(빅테크) 메타의 수석 인공지능(AI) 과학자를 맡고 있는 얀 르쿤 뉴욕대 교수가 8일(현지시간) 사회관계망서비스(SNS) 엑스(X·옛 트위터)를 통해 남긴 메시지다. 이날 노벨 물리학상을 수상한 존 홉필드 미국 프린스턴대 명예교수와 제프리 힌턴 캐나다 토론토대 교수는 AI 머신러닝(기계학습)의 기초를 세웠고 르쿤과도 함께 연구한 적이 있다. 르쿤과 힌턴은 '컴퓨터과학계의 노벨상'으로 불리는 튜링상을 2018년 함께 받기도 했다.

최근 이들의 관계는 미묘하다. 'AI 대부'로 불리는 힌턴이 지난해 10년 이상 몸담은 구글을 떠나면서 AI의 발전에 따른 위험성을 역설해 온 반면 르쿤은 이런 주장들이 지나친 비관론이라며 충돌했기 때문. 9월 힌턴이 캘리포니아주 의회가 마련한 '첨단 AI 시스템을 위한 안전 및 보안 혁신 법안(SB 1047)'에 지지를 보내자 르쿤은 직접적으로 "AI의 미래에 대한 왜곡된 견해"라고 비판했다.




낙관론·비관론 두 갈래로 나뉜 AI 개발자 진영

얀 르쿤(오른쪽) 메타 수석 인공지능(AI) 과학자가 마크 저커버그 메타 CEO와 대담하고 있다. 메타 영상 캡처

얀 르쿤(오른쪽) 메타 수석 인공지능(AI) 과학자가 마크 저커버그 메타 CEO와 대담하고 있다. 메타 영상 캡처


스웨덴 왕립과학원 노벨위원회가 AI 머신러닝의 기초를 확립한 공헌을 인정해 홉필드와 힌턴을 노벨 물리학상 수상자로 발표하자 AI 개발자들은 AI와 컴퓨터 과학의 가치를 인정받았다며 환영 메시지를 보냈다. 구글의 순다르 피차이 최고경영자(CEO)도 "수상 자격이 충분하다"고 축하했다.

하지만 유럽을 시작으로 점차 확산하고 있는 'AI 규제'가 힘을 얻는 게 아니냐는 관측도 나온다. 정보기술(IT) 업계에 따르면 AI 개발자들은 AI의 장래를 두고 크게 '비관론자(Doomer·두머)와 '낙관론자(Boomer·부머)의 두 갈래로 나뉘고 있다. 지난해 11월 오픈AI에서 샘 올트먼 최고경영자(CEO)가 쫓겨났다 복직하는 사건은 양측 대결 구도가 고스란히 드러난 사건으로 꼽힌다. 올트먼이 개발에 속도를 내고 위험성은 나중에 평가할 수 있다는 낙관론자인 반면 당시 올트먼의 해임을 주도했던 공동 창업자 일리야 수츠케버는 안전성을 중시해야 한다는 입장이었다. 수츠케버는 힌턴의 수제자로도 유명하다.



국회는 AI기본법 추진, 정부는 AI안전연구소 설치

안데르스 이르배크 스웨덴 룬드대 교수가 8일(현지시간) 스웨덴 스톡홀름 왕립과학원에서 열린 기자회견에서 존 홉필드 프린스턴대 교수와 제프리 힌턴 토론토대 교수를 노벨 물리학상 수상자로 소개하고 있다. 스톡홀름=EPA 연합뉴스

안데르스 이르배크 스웨덴 룬드대 교수가 8일(현지시간) 스웨덴 스톡홀름 왕립과학원에서 열린 기자회견에서 존 홉필드 프린스턴대 교수와 제프리 힌턴 토론토대 교수를 노벨 물리학상 수상자로 소개하고 있다. 스톡홀름=EPA 연합뉴스


비관론자의 대표격인 힌턴과 홉필드가 노벨상 수상 소감에서 AI의 가능성보다 위험성을 돋보이게 하는 입장을 드러내면서 업계로서는 긴장할 수밖에 없는 상황이다. 당장 지난달 빅테크들의 강력한 반대 속에서도 입법 문턱까지 갔던 SB 1407은 개빈 뉴섬 캘리포니아 주지사가 거부권을 행사했지만 불씨는 남아 있다. 힌턴은 노벨상 수상 후 노벨위원회와의 첫 인터뷰에서도 "오픈AI 같은 기업이 안전 연구에 더 많은 비용을 투자하도록 정부가 강제할 수 있다"고 제안하면서 규제론을 고수했다.

한국도 AI 규제의 기초를 마련하고 있는 시점에서 업계에선 '균형 있는 입법'이 중요하다는 의견이 나온다. 국회는 현재 AI의 진흥과 규제 양면을 모두 다루는 AI 기본법의 입법을 준비 중이고 정부는 11월 중 AI 안전연구소를 설치해 AI 때문에 생기는 위험성 문제를 집중적으로 다룰 예정이다. 김명주 서울여대 바른AI연구센터장 겸 정보보호학과 교수는 "규제도 중요하지만 차세대의 먹거리를 생각한다면 발전도 필요하다"면서 "기본법은 전체적 방향성을 정하고 저작권·개인정보 보호 등 분야 각각의 법률에서 세부 규제를 다루는 방식이 적절할 것"이라고 말했다.






인현우 기자

댓글 0

0 / 250
첫번째 댓글을 남겨주세요.
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.

기사가 저장 되었습니다.
기사 저장이 취소되었습니다.