전 세계에 생성형 인공지능(AI) 열풍을 일으킨 챗GPT가 ‘진보적 정치 성향’을 지니고 있다는 연구 결과가 나왔다. 미국의 공화당보다는 민주당 쪽으로, 영국의 보수당보다는 노동당 쪽으로 확연히 기울어져 있는 ‘선택’을 하고 있다는 것이다. 인간의 일상생활로 급속히 스며들고 있는 생성형 AI의 정치적 편향성이 선거에 악영향을 주는 것은 물론, 민주주의 자체도 위협할 것이라는 우려가 커지고 있다.
16일(현지시간) 미국 워싱턴포스트(WP)에 따르면, 영국 이스트앵글리아대 연구팀은 퍼블릭초이스저널에 이 같은 내용의 연구 결과를 담은 논문을 게재했다. 연구팀은 ①우선 이념적 질문 60개를 만든 뒤 ②챗GPT에 ‘다양한 정치적 성향을 가정하고 질문에 답하라’고 요청했다. “진보, 보수 혹은 중립적인 입장이라면 이 질문에 어떻게 대답할 것인가”라고 묻는 식이었다. 그리고 ③정치적 성향에 따른 답변을 챗GPT의 ‘기본 답변’과 비교하는 방법으로 정치적 편향성을 평가했다.
생성형 AI가 매번 무작위로 다른 답변을 하는 만큼 질문은 100번 반복됐다. 신뢰성 향상을 위해 또다시 1,000회의 부트스트랩(표본에 대한 재표본을 다시 추출해 데이터 분포를 파악하는 방식)도 거쳤다는 게 연구팀의 설명이다. 그 결과, 챗GPT의 의견은 미국 민주당이나 영국 노동당과 비슷한 것으로 나타났다. 브라질의 극우 정치인인 자이르 보우소나루 전 대통령보다 ‘남미 좌파의 대부’ 루이스 이나시우 룰라 다 시우바 대통령 지지자들 성향에 가깝기도 했다.
연구팀의 파비오 모토키 이스트앵글리아대 박사는 “(AI의) 정치적 편견은 현실 정치나 선거에 영향을 미칠 수 있다”며 “이번 연구 결과는 AI가 온라인 및 사회관계망서비스(SNS)의 문제를 재현하거나 증폭시킬 수 있다는 사실을 보여준다”고 밝혔다.
생성형 AI의 정치적 편향성을 다룬 연구는 더 있다. 이달 초 카네기멜런대·워싱턴대·시안교통대의 공동 발표 논문에선 오픈AI의 챗GPT와 구글의 버트(BERT), 메타의 라마(LLaMA) 등의 정치 성향이 다르게 나타났다. 이민, 기후변화, 동성혼 등 사회·경제·정치 관련 질문을 14개의 AI에 던진 결과, 챗GPT의 근간인 GPT-4가 가장 진보적인 성향을 보였고, 라마는 보수적 답변을 내놨다. 버트는 상대적으로 중도적 입장이었다.
실제 AI가 ‘가치중립적’이란 생각은 일종의 환상이라는 게 중론이다. 방대한 데이터베이스를 기반으로 학습하는 AI에는 온라인상의 차별·편견을 그대로 수용할 위험성이 내재돼 있다. 카네기멜런대의 박찬영 연구원은 “사회의 (이념적) 양극화가 AI에도 반영된다”고 WP에 말했다. 그리고 이는 다시 현실사회의 양극화로 이어지는 악순환을 낳는다는 게 박 연구원의 지적이다.
내년 대선을 앞둔 미국 정치권도 선거에 대한 AI의 영향력에 촉각을 곤두세우고 있다. 특히 보수 진영의 반발이 거세다. 테드 크루즈(공화) 상원의원은 지난 2월 챗GPT에 대해 “조 바이든 대통령 찬양 요구는 받아들인 반면, 도널드 트럼프 전 대통령과 관련해선 거부했다”며 “(오픈AI가) 의도적으로 정치적 편견을 주입했다”고 주장했다. 당시 오픈AI는 “정치적 중립을 위해 노력 중이며 그럼에도 나타나는 편향은 버그(시스템 오작동)”라고 설명했다.
챗GPT의 진보 성향은 인종·성차별을 피하려는 ‘피드백’ 과정에서 비롯됐을 가능성이 크다. 박 연구원은 “혐오 표현이 없는 답변에 가중치를 둔 것이 사회 문제에 진보적 답변을 하도록 유도했을 수 있다”고 분석했다. 차별적 표현을 종종 쓰는 보수 진영의 발언이 걸러진 탓이라는 얘기다.
다만 이번 연구의 한계도 있다. WP는 “국가와 개인의 신념에 따라 무엇이 진보이고 보수인지에 대한 기준이 다를 수 있다는 점에서, AI의 정치적 편향성 연구는 본질적 단점이 있다”고 짚었다.