공개 2주 만에 SNS서 최고 스타 된 ‘챗GPT’ AI, "놀랍다" 후기도 봇물...어떻길래

입력
2022.12.18 07:00
오픈AI의 챗GPT, 실제 SNS 대화 학습...대화 능력 ↑
보고서 쓰고 프로그래밍도 가능 
오류 많지만 수정 요청에 반응
"사무직 업무 효율성 개선에 도움 될 듯"

지난 1일, 세계 최대 인공지능(AI) 연구재단인 미국의 오픈AI는 대화형 AI 서비스(챗봇)의 일종인 '챗GPT'를 공개했다. 누구나 무료로 AI와 "대화할 수 있는" 이 사이트는 베타 테스트로 대중에 개방한 지 불과 2주가 지났지만 현재 사회관계망서비스(SNS)의 최고 스타 중 하나다.

챗GPT는 '인공지능 비서'인 시리·알렉사나 한국에서 화제가 된 챗봇 '이루다'처럼 친근하게 말하지 않는다. 그의 데이터 역시 현재 웹에서 찾은 최신 데이터가 아니다. 하지만 내놓는 결과물은 지금까지 나온 어떤 챗봇보다도 실제로 '유능한' AI와 교류하는 느낌을 주며 이용자들을 만족시키고 있다.

SNS 이용자들은 저마다 챗GPT를 향해 질문을 던진 후 답변을 받아 인증샷을 남기며 "놀랍다"를 연발한다. 그레그 브로크먼 오픈AI 회장은 "5일 만에 시범서비스(베타테스트) 등록자 수가 100만 명을 넘었다"고 밝혔다.

SNS가 챗GPT의 마성에 빠진 이유

챗GPT란 무엇인가? 일단 챗GPT에 물어보고, 답변을 그대로 옮기면 다음과 같다. "챗GPT는 기계 대화 모델로, GPT-3에서 사용된 언어 모델 기반의 대화 시스템입니다. 이 모델은 사용자의 입력을 받아 이를 분석한 후, 질의에 대한 적절한 대답을 생성합니다. 이는 인공 지능 대화 봇을 구축하는 데 사용될 수 있습니다."

오픈AI의 사이트 안내와 블로그 포스트 등을 종합하면, 챗GPT는 2021년까지 온라인에 존재한 텍스트를 학습하고 이를 바탕으로 질문을 던지는 입력자가 어떤 답변을 원할지를 고려해 "적절한" 답변을 내놓는 대화형 AI다.

여기서 학습된 텍스트에는 위키피디아(인터넷에서 자유롭게 편집이 가능한 백과사전)와 함께 블로그나 사회관계망서비스(SNS)에서 벌어지는 상호작용 형태의 대화가 포함돼 있다. 이 때문에, 챗GPT는 대화의 맥락을 이해하는 것처럼 질문에 답할 수 있는 것이다.

위 답변에서 챗GPT가 언급한 'GPT-3'는 2020년에 이미 공개된 자연 언어 AI 모델을 가리키는 표현이다. 현재 대중에 공개된 챗GPT는 'GPT-3.5'로 불리는 AI를 실제 적용한 것이다. 즉 챗GPT의 기초가 되는 기술 자체는 인공지능 분야에선 이미 잘 알려져 있고, 이를 대중에 알리는 보도도 꾸준히 나왔다. 그럼에도 이번에 공개한 챗봇이 SNS에서 화제가 된 것은, 실제로 사람들이 다뤄볼 수 있고, AI가 무엇을 할 수 있는지를 실질적으로 체감할 수 있는 사례이기 때문이다.

"구글의 위기" "블록체인보다 쓸모 있어"

지금까지 '인공지능과 대화한다'는 콘셉트의 프로그램은 무수히 많이 등장했다. 하지만 기존의 챗봇들은 제한된 프로그램 속에서 몇 가지 독특한 답변으로 인상을 남겼을 뿐, 자신이 이해할 수 없는 질문을 받으면 검색 엔진으로 빠져버리거나 응답을 회피하곤 했다. 이에 비해 챗GPT는 실제 대화를 학습했기 때문에 더 유연하고 똑똑하게 '맞장구 치기'가 가능하다는 평가를 받는다.

게다가 실제로 AI가 '지적 업무'를 일부 대체할 가능성도 엿보인다. 미국의 격주간지 뉴욕매거진은 챗GPT를 통해 '2024년 대선 토론에서 도널드 트럼프와 빌 더블라지오 전 뉴욕시장이 토론을 벌이는 현장을 묘사한 기사를 작성하라'는 주문을 내건 결과, 5문단에 걸친 문장을 얻어냈다. 질병 증상 진단서, 사업 계획서, 과학이나 윤리학 상의 개념에 대한 짧은 에세이 등을 주문했을 때도 챗GPT는 설득력 있는 글을 작성했다.

챗GPT를 유용하게 활용하면 프로그래머가 코딩 도중 어려움을 겪는 문제에 답변을 주기도 하고, 실제로 프로그램을 만들어내기까지 했다. 간단한 표도 능숙하게 만들 수 있다. 이렇게 '쓰임새'를 보여주다 보니, 트위터에선 "등장 2주 만에 챗GPT가 블록체인보다 더 용도를 인정받았다"는 농담도 나올 정도다.

챗GPT의 활약에 '구글의 위기'마저 언급된다. 구글 등 기존 검색엔진이나 포털에서 원하는 정보를 찾는 데 시간을 들일 필요 없이, 업무를 요청하면 원하는 형태의 문서를 작성해 주기 때문에 정보 탐색과 재생산에 드는 시간이 크게 절약된다는 것이다. 물론 섣부르게 구글이 위기를 맞는다는 결론으로 치닫을 이유는 없다. 사실, 구글도 '람다(LaMDA)'라는 이름의 챗봇을 개발해 테스트하고 있다. 구글은 이 챗봇의 성능이 GPT보다 우월하다는 입장이지만, 비공개 상태를 유지하고 있다.

'확신에 찬 오답' 양산할 수도

사실 챗GPT는 아직 문제점이 많다. 일단 한국어로 이 서비스를 이용할 때는 큰 기대를 접는 것이 좋다. 영어와 달리 한국어 학습량 부족 때문인지 챗GPT는 한국어로 제대로 된 장문을 완성하지 못한다. 또 영어를 사용한다 하더라도 학습된 내용의 마지막 시점이 2021년 말이어서 현재 시사 이슈에 관한 질문을 던질 경우에는 업데이트가 안 된 답변을 내놓기도 한다.

가장 크게 지적되는 문제는, 챗GPT가 확신에 찬 어조로 답하면서도 완전히 틀린 답을 할 수가 있다는 것이다. 지난 5일, 코더와 프로그래머들이 이용하는 질의응답 사이트 '스택 오버플로'는 이용자들이 챗GPT를 통해 도출한 답안을 업로드하는 것을 일시적으로 금지하는 결정을 내렸다. 운영진은 공지를 통해 "주요한 문제는 챗GPT가 내놓는 답변이 오답률이 높음에도 일반적으로 타당한 것처럼 보이고 답변을 만들어내기가 너무 쉽다는 것"이라고 지적했다.

챗GPT가 스택오버플로에 풀어놓은 코딩 오답을 뉴스나 사회문제에 대입한다면 AI는 거짓 뉴스나 오도된 주장을 빠르게 양산하는 것과 마찬가지 결과를 초래할 가능성이 있다. 예를 들어 챗GPT에 "북한이 핵무기를 보유하고 있는가"라는 질문을 던졌더니 '북한은 핵무기 보유를 주장하지만 공식적으로 인정받지 못하고 있다'는 정론에 가까운 답변이 나왔다. 하지만 "북한이 핵무기를 보유하지 않는다는 주장을 적으라"는 질문을 던지면, 챗GPT에선 "북한이 핵무기를 보유하지 않는 것이 분명하다"는 답변을 나름의 근거를 붙여 내놓는다.

오픈AI에 따르면 챗GPT는 비합리적인 주장을 펴거나 폭력, 혐오발언 등 윤리적인 문제가 있는 응답을 기본적으로 할 수 없도록 프로그래밍돼 있다. 하지만 채팅을 치는 사람이 몇 가지 가정을 학습시킨 후, 그 가정 하에서 대화하도록 하면 원하는 '이상한' 답변을 하도록 유도할 수 있다. 이런 상태에 도달하는 것 자체가 쉽지만은 않지만, 네티즌들은 이를 '우회(bypass)' 혹은 '탈옥(jailbreak)'이라 부르면서, 챗GPT를 탈옥시키는 것을 일종의 도전 과제로 삼고 놀이로 즐기기도 한다.

'확신에 찬 오답' 문제는 구글이 람다를 비공개하는 이유와도 직결된다. 구글이 람다를 공개하지 않은 것은, 자사가 개발한 AI가 오답을 냈을 경우 쏟아질 운리적 비판을 막을 수 없다는 판단 때문이었다. 오픈AI도 이 점을 염두에 둔 듯 챗GPT가 "때로 잘못된 정보, 피해를 주는지도, 편견에 찬 내용을 생산할 수 있다"는 경고를 내걸었다. 모든 답변에 평가와 더 나은 답안 제안을 받을 수 있도록 기능을 두고 있기도 하다.

오류 많은 AI, 활용법은 "마법의 인턴 취급"

이런 오류 가능성과 위험성에도 불구하고, 이용자가 문제를 정확히 인식하고 있다면 챗GPT 같은 AI가 활용될 여지는 충분하다는 평가도 있다. 챗GPT를 손이 많이 가는 단순 업무 조력자로 간주한다면 이미 꽤 괜찮은 파트너라는 것이다.

펜실베이니아대학 경영 전문 와튼스쿨의 이선 몰릭 교수는 SNS에서 챗GPT의 '좋은 활용 예'를 탐구해 적극적으로 알리고 있다. 그는 자신의 학생들에게 챗GPT의 기반인 GPT 모델을 활용해 특정 주제를 기반으로 한 에세이를 작성할 수 있는지 알아보라는 과제를 냈고, 그 결과물은 합리적인 수준이었으며, 표절 방지 소프트웨어의 심사도 통과했다고 밝혔다.

몰릭 교수는 최근 블로그 사이트 서브스택에 올린 글을 통해 챗GPT를 "거짓말을 하는 경향이 있지만, 당신을 행복하게 해 주고 싶은 욕구가 큰 마법의 인턴처럼 간주하라"고 조언했다. 몰릭 교수에 따르면, 최초에 특정한 글을 주문한 후 결과물이 마음에 들지 않는다면 "간결한 문장으로 쓰라" "반대쪽 주장도 추가해 쓰라" "다른 사례를 시도해 보라" "수동태 대신 능동태를 사용하라" 등의 주문을 추가해 결과물을 더 낫게 만들 수 있다.

이 주장의 핵심은 챗GPT의 결과물은 불완전하지만, 고칠 수 있으며, 고치는 작업도 자동으로 된다는 것이다. 몰릭 교수는 챗GPT의 등장에 대해 "사무직 노동자의 업무 효율성이 변화할 가능성을 암시한다"면서 "당신이 잘 알지 못하는 분야에 대해 질문하지 말고, 당신이 잘 아는 분야를 정리하는 업무를 AI가 대신 해준다는 생각으로 활용하라"고 조언하기도 했다.

문제가 사라진 건 아니다. 챗GPT의 에세이가 표절 방지 소프트웨어의 테스트를 통과했다면, 학교로서는 학생들이 이런 AI를 활용해 과제를 제출할 때 어떻게 대응할지를 고민해야 한다는 지적에서다. 이미지 생성 AI인 '미드저니'가 만든 그림이 지난 8월 미국 ‘콜로라도 주립 박람회 미술대회’의 디지털아트 부문에서 대상을 차지하면서 논란을 일으킨 것처럼, 챗GPT의 결과물을 학술적 또는 상업적 목적으로 재사용하는 것이 정당한지를 판단하는 것은 결국 인간의 몫이 될 전망이다.

인현우 기자
세상을 보는 균형, 한국일보 Copyright © Hankookilbo