속보

단독

'AI 환각' 해법을 찾아서…가디언·FT·BBC 런던 현장 탐방기 [저널리즘+AI ① ]

입력
2024.11.27 16:12
수정
2024.11.27 17:43
구독

<저널리즘+AI 런던 탐방기> ①
환각 앓는 LLM, 저널리즘에 어떻게 활용해야 하나
가디언 '파인 튜닝'·FT 'RAG'로 한창 개선실험 한창
"RAG·파인 튜닝 있어도, 저널리즘 고민해야"

편집자주

생성형 인공지능(AI)의 파괴적 영향력은 언론 산업에도 불어닥치고 있습니다. 모바일 혁명의 광풍보다 셀 것이라는 생성형 AI 기반 기술은 올해 전 세계 언론사 내부의 뉴스 제작 및 편집, 유통 업무 전반에 맹렬히 뿌리내리고 있습니다. 한국 언론도 저마다 고민이 깊습니다. AI를 도입하되 기술의 태생적 한계를 극복해야 하고 또, 동시에 저널리즘 가치도 굳건히 지킬 수 있는 묘수를 찾아야 하기 때문입니다. 한국일보는 그 답을 찾기 위해 지난달 21일부터 30일까지 영국 런던에서 한국언론진흥재단 주최로 열린 'KPF디플로마 AI저널리즘 과정'에 다녀왔습니다. 파이낸셜타임스, 가디언, BBC 등 AI 선도 언론사의 전략 수립 및 서비스 실험 현장을 직접 보고 왔습니다. 2회에 걸친 '저널리즘+AI 런던 탐방기'에서 그 묘수를 공개합니다.


찰리 베켓 런던정경대(LSE) 교수가 저널리즘AI 연구소에 대해 설명하고 있다. 런던=강종구 기자

찰리 베켓 런던정경대(LSE) 교수가 저널리즘AI 연구소에 대해 설명하고 있다. 런던=강종구 기자



생성형 인공지능(AI)을 활용하는 모두에게 환각(hallucination) 현상은 떼어 내려 해도 떼어 낼 수 없는 주홍글씨다. 어떤 질문을 해도, 그럴듯한 답을 만들어내도록 설계된 생성형 AI 기술의 태생적 한계다.

이 탓에 생성형 AI 기술의 업무 활용을 유독 더 꺼리는 이들이 있다. 바로 언론과 언론인이다. 지난 8월 기자협회보가 발표한 생성형 AI 언론인 인식조사에 따르면 국내 언론인 5명 중 1명 수준인 20.9%만 생성형 AI를 업무에 활용하고 있다고 답했다. 더군다나 저널리즘 품질 향상에 기여할 수 있을지에 대해서는 절반가량인 47.4%가 부정적이라고 했다. 고도의 정확성과 신뢰가 요구되는 언론에 활용하기엔 치명적인 문제가 있다고 평가한 셈이다.

미국 오픈AI사의 챗봇 챗GPT '황당' 답변 사례. 인터넷 커뮤니티 캡처

미국 오픈AI사의 챗봇 챗GPT '황당' 답변 사례. 인터넷 커뮤니티 캡처

환각 현상이 가장 치명적인 한계로 꼽힌다. 2022년 오픈AI의 챗GPT 출시 때부터 꾸준히 언급됐다. 2023년 초 밈(meme·유행 콘텐츠)으로 더 유명해진 '세종대왕 맥북 프로 던짐 사건'이 대표적 사례. "조선왕조실록에 기록된 세종대왕의 맥북 프로 던짐 사건에 대해 알려줘"라고 요청했더니 챗GPT는 15세기에 화가 난 세종대왕이 실제 애플의 맥북 노트북을 던졌다는 황당한 답을 내놓았다. 600년 전인 15세기에 애플이라는 정보기술(IT) 회사도, 맥북이라는 첨단기기 노트북도 존재하지 않았다는 사실은 초등학생도 안다. 있지도 않았던 일을 역사적 사건인 듯 기정 사실화한 답에 논란은 일파만파 퍼졌고, GPT 등 거대언어모델(LLM)의 환각 현상에 대한 비판 목소리는 커져만 갔다.

개선책은 있다. LLM의 답변 정확도를 높이기 위한 방법 중 하나인 미세 조정(파인 튜닝)을 하면 된다. 천문학적인 데이터를 학습해 범용으로 만들어진 LLM을 용도에 맞게 파인 튜닝해 특정 답변에 대한 정확도를 높이는 기술이다.


그러나 파인 튜닝은 시간과 비용이 많이 든다. 그래서 다시 등장한 개선책이 검색증강생성(RAG)이다. RAG는 LLM이 질의에 응답할 때 별도의 지식기반(Knowledge base)을 참조하도록 하는 기술. LLM 응용 프로그램에 RAG 기술을 적용하면 질의의 맥락을 이해하지 못하거나 엉뚱한 대답을 내놓는 일을 크게 줄일 수 있다.

본보가 방문한 런던의 유수 해외 언론사도 RAG 기술로 자사 언론 서비스의 환각 현상을 최소화하려는 다양한 시도를 이어가고 있었다. 생성 기능에 초점을 맞춘 LLM에 신뢰할 만한 지식을 학습시켜 기술의 태생적 한계를 극복해보자는 게 공통된 목표였다.

가디언, 챗봇에 자사 기사 파인 튜닝…공개는 신중

영국 일간지 가디언은 LLM을 이용한 챗봇 '애스크 더 가디언(Ask the Guardian)'을 개발 중이다. 애스크 더 가디언은 앤트로픽의 LLM인 클로드를 사용한다. 다만 클로드를 가디언 콘텐츠로 파인 튜닝한 점이 시중 챗봇과 다르다. 서비스 과정에서도 자사 기사를 참고한다. LLM이 답을 생성하기 전 참고할 기사를 사람이 직접 선택하는 방식이 특징이다.

크리스 모런 가디언 편집혁신총괄이 자사 인공지능(AI) 도구 실험에 대해 설명하고 있다. 런던=강종구 기자

크리스 모런 가디언 편집혁신총괄이 자사 인공지능(AI) 도구 실험에 대해 설명하고 있다. 런던=강종구 기자

가디언은 '애스크 더 가디언'의 일반 대중 공개에는 신중한 편이다. 현재 내부 테스트 중이다. 크리스 모런 가디언 편집혁신총괄은 "챗봇을 기사로 파인 튜닝하면 완벽한 답이 나와 가디언 저널리즘이 똑똑해질 것이라 상상하지만 그렇지 않다"며 "가디언 아카이브에 있는 내용이 오래되기도 했고, 어떻게 학습시켜야 할지도 모르기 때문에 실험 삼아 해본 것에 가깝다"고 설명했다. "(가디언과 같은 신문사는) 출고되는 모든 글자 하나하나의 의미와 목적을 다 이해하는 게 직업인 회사인데 LLM의 출력에서는 이를 확신할 수 없다"고도 덧붙였다.

FT, RAG 활용 챗봇 상용화…유료 독자에 공개

영국 파이낸셜타임스(FT)는 지난 3월 자사 독자 대상 챗봇 서비스인 '애스크FT(AskFT)'를 출시했다. 가디언과 달리 애스크FT는 RAG 방식을 사용한다. 20년치 자사 기사를 RAG 방식으로 붙여 질의에 답하게 설계했다. 독자가 질의하면 애스크FT는 'O월 O일부터 O월 O일까지의 FT 콘텐츠를 사용해 생성한 답변입니다'란 메시지와 함께 생성된 답변을 제공한다. 답변 하단에는 근거가 된 FT 기사 목록도 덧붙인다.

영국 파이낸셜타임스(FT)에서 만든 챗봇 서비스 '애스크FT(AskFT)'. 런던=강종구 기자

영국 파이낸셜타임스(FT)에서 만든 챗봇 서비스 '애스크FT(AskFT)'. 런던=강종구 기자

대중 공개에 신중한 가디언과 달리 FT는 애스크FT를 이미 유료 독자가 사용하고 있다. 다만 먼저 FT 내부 구성원 대상 검증을 거친 뒤 B2B 유료 독자인 FT 프로페셔널(Professional)에게만 선보였다.

서비스 대상을 유료 독자로 선정한 이유에 대해 잭 리 FT 스트래티지(FT Strategies) 컨설턴트는 "애스크FT가 제대로 동작하지 않더라도 우리(FT)의 실수를 이해해줄 수 있는 사람들이기 때문"이라고 설명했다.

"RAG·파인 튜닝 있어도, 저널리즘 고민해야"

파인 튜닝, RAG 등 환각 현상의 해결책은 등장했지만 기술보다 저널리즘을 어떻게 실현할 것인지를 고민해야 한다는 원칙적 지적도 많았다.

찰리 베켓 런던정경대(LSE) 교수가 윤리적 문제에 대해 언론계가 어떻게 접근해야 할지에 대해 설명하고 있다. 강종구 기자

찰리 베켓 런던정경대(LSE) 교수가 윤리적 문제에 대해 언론계가 어떻게 접근해야 할지에 대해 설명하고 있다. 강종구 기자

영국에서 만난 찰리 베킷 런던정경대(LSE) 교수는 "생성형 AI 시대에도 저널리즘을 고민해야 한다"며 "AI를 단순한 기술로 받아들이기보다 이를 활용해 어떻게 저널리즘의 가치를 이룰 것인지를 생각해야 한다"고 당부했다.

LSE는 저널리즘AI 분야를 선도적으로 연구해온 기관이다. 2019년부터는 LSE 미디어커뮤니케이션학과 내에 저널리즘AI 연구소를 별도로 설립해 저널리즘과 AI의 결합을 본격적으로 연구하고 있다. 연구소는 AI의 잠재력을 뉴스룸에 도입할 수 있도록 지원하면서도 그 목적을 지속 가능하고 포용적이며 독립적인 저널리즘 구축에 둔다.

영국 일간지 가디언 본사의 기술 및 데이터 조직.

영국 일간지 가디언 본사의 기술 및 데이터 조직.


베켓 교수는 AI 시대 저널리즘 구현의 핵심을 '사람의 역할'로 봤다. 그는 "기자들에게 AI는 똑똑한 보조 정도의 역할이 적당하다"며 "최종 결정은 기자가 내려야 한다"고 강조했다. 그는 또한 "(앞으로도) AI는 보조적 역할을 할 뿐, 기자와 독자의 관계 형성이 핵심"이라고도 덧붙였다. 현재 AI는 인간의 요청을 수행할 뿐인 만큼 궁극적으로 저널리즘을 지키는 역할은 여전히 인간인 기자의 몫이라는 뜻이다.

영국의 공영방송인 BBC 관계자도 같은 맥락의 조언을 건넸다. 로라 엘리스 BBC 연구개발(R&D) 기술예측총괄은 "뉴스 콘텐츠는 가치가 크기 때문에 신중하게 접근해야 한다"며 "생성형 AI가 뉴스에 도입되면 뉴스 산업에 위협이 될 수 있다"고 강조했다.

<2편> "'꼭 챗GPT를 써야 하는가'…가디언 'AI 원칙' 수십가지 질문들"로 이어집니다.

※ 탐방기는 한국언론진흥재단 'KPF디플로마 AI저널리즘 과정'의 결과물입니다


런던= 강종구 기자

댓글 0

0 / 250
첫번째 댓글을 남겨주세요.
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.

기사가 저장 되었습니다.
기사 저장이 취소되었습니다.