출시 후 단 두 달 만에 월간 이용자 1억 명을 달성한 서비스. “구글은 끝났다”(영국 인디펜던트), “AI 분야에서 아이폰과 같은 존재가 될 것이다”(미 블룸버그) 등 언론에서 앞다퉈 인류의 삶을 바꿀 ‘혁신’으로 평가한 서비스. 바로 미국의 AI 연구기관 오픈AI가 개발한 챗GPT이야기입니다. 질문의 맥락을 이해하고, 스스로 텍스트를 생성해 내는 AI 챗봇인데요. 전 세계가 열광하는 이유는 무엇인지, 가공할 만한 AI를 받아들이는 우리에게 필요한 건 무엇인지 h알파가 짚어봤습니다.
챗GPT는 ‘생성 AI’라고 불립니다. 오픈AI의 초거대 AI인 GPT3를 개선해 일반인들도 쓸 수 있게 서비스로 만든 것인데요. 수많은 데이터의 요소들을 관계에 따라 추적해 문장 전체의 맥락과 의미를 학습한 뒤, 답을 내놓습니다. 챗GPT가 직접 글을 생성할 수 있으니, 업무 메일도 작성할 수 있고 에세이를 쓰기도 합니다. 수학 문제도 풀 수 있고, 코딩도 할 수 있어요. 그러나 대학생들이 과제 제출에 챗GPT를 이용하는 문제가 심각해지자, 오픈AI는 사람이 직접 쓴 글과 AI가 쓴 글을 구분할 수 있는 툴도 출시했어요.
글도 쓰고 그림도 그리고 작곡까지 하는 AI를 보면 인간 고유의 기능이라고 여겼던 분야까지 단숨에 뛰어넘는 건 아닐까 하는 걱정이 들기도 합니다. 그러나 챗GPT의 결정적인 한계는 인간이 주는 데이터를 기반으로 학습한다는 사실입니다. 어떤 데이터를 학습하느냐에 따라 챗GPT를 포함한 AI가 내놓는 답변이 달라질 수 있다는 것이죠. 데이터에 오류가 있거나, 편향적이거나, 불법적인 내용이 있다면 AI 역시 잘못된 답을 내놓을 수 있어요. 현재까지 챗GPT는 2021년까지의 데이터만을 학습했기 때문에 ‘최신 정보’는 답할 수 없다는 한계도 있고요.
실제로 많은 IT전문가와 보안전문가들은 챗GPT가 나쁜 사람의 손에 잘못 이용될 경우, 사이버범죄에 사용될 수 있다고 경고하고 있습니다. 오픈AI 의 최고기술 책임자 미라 무라티도 이런 문제에 대해 심각하게 고민한다며 관련 기관과 정부의 규제가 필요하다고 말했습니다.
이런 단점들이 있다고 AI의 진화를 멈출 순 없겠죠. 중요한 건 “어떻게 개발하고, 어떻게쓸 것인가”입니다. AI를 개발하고 활용하는 주체인 사람들이 AI 윤리 문제를 진지하게 고민해야 하는 이유죠. 구글 등 빅테크 기업들은 자체적으로 윤리 강령을 만들거나 조직을 구성해 대응 중이에요. 전창배 국제인공지능&윤리협회(IAAE) 이사장은 이렇게 조언했습니다. “AI윤리에 대한 노력은 기업들도 해야 하고, 시민들도 지속적으로 관심을 갖고 모니터링하면서 의견을 내야 한다”고요.
챗GPT 이후, 바드(구글), 서치GPT(네이버), KoGPT(카카오) 등 테크 기업들의 생성 AI 경쟁이 심화하고 있습니다. 이 AI들은 우리에게 무한한 가능성의 세계가 될까요? 아니면, 인간 본연의 모습을 보여주는 반면교사가 될까요?
※h알파 유튜브 영상 보러 가기(https://bit.ly/3RrDmye)
연출 이상찬·안재용/ 구성 제선영/ 진행·취재 양진하/ 촬영 안재용·최희정·김광영/ 영상편집 안재용·이상찬/ 인턴PD 이상찬·김예원·권준오