보내는 기사
챗GPT로 만들어 제출한 보고서, 정말 당신의 것일까요?
이미 가입된 회원입니다.
만 14세 이상만 회원으로 가입하실 수 있습니다.
미국 스타트업 오픈AI가 지난해 말 공개한 생성 인공지능(AI) '챗GPT'의 유행은 AI에 대한 관심만큼이나 걱정도 키웠다. 많은 이들이 생성 AI를 접하면서 파생되는 문제점도 자연스레 경험하며 생긴 일이다. AI를 대상으로 규제가 적용되기도 전에 AI 개발사조차 지침을 만들고 결과물을 철저히 검증할 정도로 신중하다.
챗GPT가 등장하고 초창기부터 제기된 문제점은 완전히 잘못된 답변도 나온다는 것이었다. 개발자 질의응답 사이트 '스택 오버플로'는 이용자가 챗GPT를 통해 만든 답안을 업로드하는 것을 일시적으로 금지하는 결정을 내렸다. 운영진은 "챗GPT가 내놓는 답변이 오답률이 높음에도 일반적으로 타당한 것처럼 보이고 답변을 만들어내기가 너무 쉽다"고 지적했다.
메타의 수석 AI 과학자 얀 르쿤 뉴욕대 교수는 이를 두고 "언어 능력과 생각하는 것은 다르다"고 표현했다. 챗GPT 같은 대규모언어모델(LLM)은 언어를 피상적으로 학습해 질문에 그럴싸한 답변을 도출할 수는 있지만 답변 자체의 진위 여부를 판독하지는 않는다는 것이다.
이 때문에 발생하는 편견 어린 답변도 문제다. 2016년 마이크로소프트(MS)의 챗봇 '테이(Tay)'가 "히틀러가 옳았다" 등의 표현을 내놓았다는 이유로 폐기된 이래 미국의 빅테크(주요 기술기업)들은 AI의 공개에 신중한 태도를 유지해 왔다.
르쿤 교수는 메타의 '블렌더봇'이 챗GPT만큼 대중적 관심을 얻지 못한 것이 "안전하기 때문"이라면서 "(메타는) 콘텐츠 조정에 지나치다 싶을 정도로 주의를 기울이고 있다"고 말했다. 구글 또한 2018년 6월 AI 개발을 위해 지켜야 할 윤리원칙으로 △사회에 도움이 되는 AI △편견 없는 AI △안전한 AI 등을 내세웠다.
하지만 과거 구글에서 윤리적 AI팀을 이끌었던 팀닛 게브루 분산 AI연구소 설립자는 "구글은 처음엔 윤리에 큰 비중을 두지 않았다"는 입장이다. 그보다는 AI가 통제 불가능한 결과를 내놓았을 때 회사에 미치는 평판 문제가 더 컸다는 것이다. 업계에선 오픈AI의 챗GPT가 인기를 끌면서 빅테크들이 윤리적 문제를 고려해 주춤했던 AI 공개에 박차를 가할 수 있다고 본다.
챗GPT의 등장으로 가장 큰 충격을 받은 것은 교육계다. 짧은 시간에 기존의 자료를 조합해 긴 글을 작성하거나 문제풀이를 하는 챗GPT의 등장으로 인해, 학생이 스스로 과제를 해결하지 않고 챗GPT에 맡겨 결과물을 그대로 복제할 수 있다는 우려가 나온다.
챗GPT 등장 직후부터 미국에선 다수의 학생들이 이를 과제에 활용했다. '스터디닷컴'이 진행한 설문조사에서 챗GPT를 사용한 학생의 53%가 이를 글쓰기 과제에 사용했다고 응답했다. 또 여러 연구자들의 모의 시험 테스트 결과, 챗GPT는 미국의 의료면허 시험, 미네소타대 로스쿨과 펜실베이니아대 워튼 경영대학원 석사과정(MBA)의 기말 시험에서 합격점을 받기도 했다.
일부 학교에서는 챗GPT 활용을 제한하기 시작했다. 뉴욕시 공립학교는 이달 초, 워싱턴주 시애틀과 캘리포니아주 로스앤젤레스 공립학교는 지난해 말부터 학군 내 학교 네트워크에서 챗GPT에 접속할 수 없게 했다. 호주의 뉴사우스웨일스, 퀸즐랜드, 태즈메이니아주 학교도 비슷한 조치를 취했다.
대학교 가운데서도 프랑스의 파리정치대(시앙스포)는 챗GPT나 비슷한 AI 도구의 사용을 완전히 금지했다. 인도 벵갈루루의 RV대도 학생들의 챗GPT 사용을 금지하고 기습적으로 점검해 사용자를 적발할 것이라고 전했다.
학교가 표절을 검증하기 위해 '카피킬러'를 사용하는 것처럼 글이 AI로 작성됐는지 따져보는 'AI 킬러'도 나왔다. 프린스턴대에서 컴퓨터과학을 전공하는 22세 학생 에드워드 티안은 지난달 초 특정한 저술이 챗GPT의 산물인지 검증할 수 있는 앱 'GPT제로'를 개발했다. 뒤이어 오픈AI 역시 1일 챗GPT 등 AI로 쓴 텍스트를 자동으로 알아차릴 수 있는 앱을 공개했다.
챗GPT의 등장을 계기로 주목받는 다른 문제는 저작권 문제다. 챗GPT를 비롯한 생성 AI는 학습 단계와 이용 단계에서 저작권 침해 논란을 부르고 있는데 관련 법적 규제도 불분명할뿐더러 의견도 나뉜다.
①학습 단계에서는 AI의 학습에 쓰인 데이터 저작권자의 권리를 AI 개발사가 침해하고 있는지 여부가 문제다. 오픈AI에 따르면 챗GPT는 온라인에 공개된 문건, 사회관계망서비스(SNS)의 대화, 위키백과 등의 자료를 학습해 결과물을 내고 있다. 온라인에 무료 공개된 자료를 끌어모은 것이긴 하지만, 자료의 출처가 명확하고 영리 목적으로 이용하려 한다면 저작권 침해 소지가 있다.
②이용 단계에서도 AI의 도움을 얻은 저작물의 저작권이 누구에게 있는지를 두고 의견이 엇갈린다. 대표적으로 학계에서는 AI를 연구 논문의 '저자'로 받아들일지를 두고 시끄럽다. 국제 학술지 '사이언스'와 '네이처'는 지난달 말 챗GPT를 논문의 저자로 인정할 수 없다고 밝혔다. 홀든 소프 사이언스 편집장은 "과학 저널은 저자가 작업을 책임진다는 의미인데 챗GPT는 이것을 할 수 없다"고 말했다.
생성 AI를 활용해도 저자의 창작성이 충분히 들어간다면 인정받을 수 있을지 여부도 논란이다. 두 학술지의 발표를 보면, 사이언스는 AI로 만들어진 텍스트나 데이터가 논문에 사용되는 것을 허용하지 않을 것이라고 발표했다. 반면 네이처는 AI가 사용됐다는 점과 방법론을 알린다면 논문 작성에 활용하는 것 자체는 막지 않을 방침이다.
챗GPT의 등장으로 각국 정부와 정치권도 AI 규제 논의에 속도를 내고 있다. 이미 유엔과 각국 정부, 기업과 민간단체 등이 다양한 'AI 윤리 가이드라인'을 내놨지만 구속력은 없기 때문이다.
세계 규제를 선도하는 유럽연합(EU)의 행정부 격인 집행위원회는 2021년에 '인공지능(AI)법' 초안을 만들었다. 이 법안은 EU의 다른 운영 주체인 EU 이사회(정상회의)와 유럽의회의 검토를 받고 있으며 이르면 올해 중 입법될 것으로 보인다.
AI를 대상으로 한 규제 자체가 없었던 것은 아니다. 가령 EU의 일반개인정보보호법(GDPR)은 AI를 기반으로 자동화한 의사결정 시스템을 감독할 수 있는 대상으로 삼고 있다. AI법 초안은 이를 넘어서 챗GPT 같은 일반적 상황에서 사용될 수 있는 AI조차 개발사가 투명성과 책임성 등 법적 의무를 부과하는 내용을 담았다.
EU의 AI법이 개발사에 투명성과 책임성을 요구하는 것은, AI가 오류를 범하거나 한쪽으로 쏠린 결과를 내놓아 실제로 피해 보는 사람이 생기면 개발자 쪽에 그 책임을 묻기 위함이다. 이에 미국 싱크탱크 브루킹스연구소 등은 EU의 AI 규제가 챗GPT 같은 오픈소스 기반의 AI 개발을 위축할 수 있다고 주장하기도 했다.
실제 AI 개발을 주도하는 빅테크 기업이 많은 미국은 아직까지 입법보다는 구속력 없는 민간과 공공의 자발적 협의를 중심으로 움직이고 있다. 상무부 산하 국립표준기술연구소(NIST)가 지난달 23일 'AI 위험관리 프레임워크'를 발표한 것도 같은 맥락이다.
다만 연방정부 수준의 규제가 필요하다는 주장도 나온다. 컴퓨터공학을 전공한 테드 류 하원의원은 지난달 23일 미국 뉴욕타임스 기고를 통해 "AI의 놀라운 가능성에도 불구하고 누구도 이를 통제하거나 규제하지 않는 데 놀랐다"면서 정부가 AI 규제를 전담할 기관을 설치해야 한다고 밝혔다.
전창배 국제인공지능&윤리협회(IAAE) 이사장은 "저작권 문제나 AI로 피해가 생겼을 때 책임 문제 등 법적으로 명확히 해야 할 부분이 있다"면서도 "이런 규제가 AI의 발전을 늦추지 않도록 최소한으로 이뤄지는 것이 바람직하다"고 말했다.
신고 사유를 선택해주세요.
작성하신 글을
삭제하시겠습니까?
로그인 한 후 이용 가능합니다.
로그인 하시겠습니까?
이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.
구독을 취소하시겠습니까?
해당 컨텐츠를 구독/취소 하실수 없습니다.
댓글 0