중국에선 AI가 사상 검증도 한다... "공산당 말 더 잘 듣도록"

입력
2022.07.04 18:15
수정
2022.07.04 18:22
6면
구독

국영 연구원 AI로 '사상교육' 효과 파악 시도
중국인들 "빅브라더식 세뇌와 비슷해" 비판
AI로 민간인 프로파일링, 반정부 위험도 평가
"감시기술 수출 위해 연성차관 제공까지"

2018년 10월 24일 중국 베이징에서 열린 '국제 공공안전 박람회'에 방문한 사람들의 얼굴이 인공지능(AI) 보안 카메라에 포착되고 있다. 베이징=AFP 연합뉴스

2018년 10월 24일 중국 베이징에서 열린 '국제 공공안전 박람회'에 방문한 사람들의 얼굴이 인공지능(AI) 보안 카메라에 포착되고 있다. 베이징=AFP 연합뉴스

중국 국영 연구기관이 인공지능(AI) 프로그램을 국민 사상 교육에 이용하겠다고 나서 논란이 일고 있다. 당국이 AI로 국민 사생활을 무단 수집·분석한다는 보도가 나온 데 이어 중국이 첨단 기술을 국민 통제에 악용하는 사례가 추가된 것이다. 중국이 '빅브라더 사회'로 급속도로 진입하고 있다는 뜻이다.

중국 AI연구원 "국민이 정부 더 잘 따르게 만들 것"

허페이 종합 국가과학중심 인공지능연구원 홈페이지 캡처

허페이 종합 국가과학중심 인공지능연구원 홈페이지 캡처

3일(현지시간) 홍콩 명보가 중국 안후이성 허페이시(市)의 '국가과학중심 인공지능연구원'이 만든 'AI 기반 사상 교육 프로그램'과 관련한 논란을 보도하면서 이 같은 사실이 알려졌다. 연구원은 공산당 창건 101주년(이달 1일)을 맞아 'AI로 당 건설에 조력!'이라는 제목의 영상을 올리고 해당 프로그램을 소개했다.

프로그램 작동 방식은 이렇다. ①사상 교육을 받는 사람의 표정, 뇌파, 피부전기반응 같은 생물학적 특징을 AI가 포착해 분석한다. ②교육에 집중하는지 여부와 교육 내용에 공감하고 이해한 정도 등을 AI가 측정하고 평가한다. AI가 교육 대상자의 사상을 사실상 검증하는 것이다.

프로그램의 최종 목표는 "교육 대상이 공산당에 더 감사하고, 당에 더 순응하게 하는 것"이라고 연구원은 밝혔다. "빅브라더의 세뇌 교육 같다"는 중국 누리꾼들의 비판이 쏟아지자 연구원은 영상을 삭제했다.

개인정보 수집해 기질 평가…"감시 시스템, 위협적"

2019년 10월 29일 중국 광둥성 선전시에서 열린 '국제 공공안전 박람회에'서 방문객들이 화웨이 부스에 전시된 감시 카메라들을 구경하고 있다. 선전=AP

2019년 10월 29일 중국 광둥성 선전시에서 열린 '국제 공공안전 박람회에'서 방문객들이 화웨이 부스에 전시된 감시 카메라들을 구경하고 있다. 선전=AP

중국 정부는 국민들을 촘촘한 감시망에 몰아 넣고 있다. 베이징과 톈진 등의 지역 경찰은 AI 기술을 이용해 민간인의 개인 정보를 일상적으로 수집·분석한다. 물론 사전 동의는 구하지 않는다. '국가적 위험 방지'라는 명분을 내세웠지만, 실상은 시진핑 국가주석에 반대하는 시위와 목소리를 원천 봉쇄하기 위해서다.

최근 미국 뉴욕타임스(NYT)에 따르면 톈진 경찰은 개인의 과거 행적과 인간관계, 동선 등을 수집·분석해 "편집증적이다" "성급하다"는 등의 기질 판정까지 내린다. 경찰은 기질 데이터를 기반으로 범죄 위험도를 평가해 반정부 시위 등에 나설 가능성이 높은 인물들을 집중 감시한다. 노암 유트만 런던정치경제대 교수는 "시스템이 행동을 정확하게 예측하지 못하더라도, 정부는 시스템이 주는 위협감 때문에 성공적이라고 여길 수 있다"고 분석했다.

中 63개국에 감시 기술 수출…한국도 AI기술 이용해

중국은 첨단 감시 기술을 해외에 수출하며 전 세계의 '빅브라더화'를 부채질하고 있다. 2019년 카네기 국제평화기금 보고서에 따르면 화웨이를 비롯한 중국 정보통신기술(IT) 기업들은 세계 63개국에 AI 감시 기술을 판매했다. 케냐, 라오스 등 저소득 국가엔 연성차관(소프트론)까지 제공하면서 판촉했다.

보고서는 "조사 대상 176개국 중 한국을 비롯한 75개국이 이미 감시 기술을 운용 중"이라고 적시했다. 특히 한국은△실시간 데이터 전송이 가능한 스마트시티 △얼굴 인식 기술 △경찰 수사를 위한 데이터 분석 기술을 모두 이용하는 국가로 분류됐다. 보고서는 "AI 감시 기술은 억압적 정권뿐 아니라 엄격한 법 체계를 가진 국가들에서도 윤리적 문제를 만들고 있다"며 "각 정부는 기술을 어떻게 이용할지 더 투명하게 밝혀야 한다"고 권고했다.

장수현 기자
세상을 보는 균형, 한국일보 Copyright © Hankookilbo

댓글 0

0 / 250
첫번째 댓글을 남겨주세요.
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.

기사가 저장 되었습니다.
기사 저장이 취소되었습니다.