AI가 직원을 감독하는 중국 편의점

입력
2022.11.10 19:00
25면

편집자주

가속화한 인공지능 시대. 인간 모두를 위한, 인류 모두를 위한 AI를 만드는 방법은? AI 신기술과 그 이면의 문제들, 그리고 이를 해결할 방법과 Good AI의 필요충분조건

인간이 인공지능(AI)과 기계를 판단하고 통제하는 것이 맞을까? AI와 기계가 인간을 판단하고 통제하는 것이 맞을까? 이렇게 물어보면 거의 모든 사람이 당연히 인간이 AI와 기계를 판단하고 통제하는 것이 맞다고 답할 것이다.

그런데 현실은 거꾸로 가고 있는 사례들이 나타나고 있어 매우 우려스럽다. 이번 칼럼의 주제는 '과연 AI와 기계가 인간을 가치 판단하는 것이 맞는가?'에 관한 것이다.

중국의 '벤리펑'이라는 편의점 체인점이 있다. 벤리펑은 중국 편의점 업계에서 최초로 점포 관리에 AI시스템을 도입해 운영하는 업체로 유명한데, 이처럼 AI를 통해 편의점 운영의 효율성을 극대화한 결과 AI시스템 도입 4년 만에 점포수를 2,800여 개까지 확장하는 대성공을 거뒀다.

그런데 올해 들어 갑자기 벤리펑의 점포 700여 개가 폐점하게 되는데, 이유가 놀랍게도 인력 부족 때문이었다. 과연 어떻게 된 일일까?

벤리펑의 AI 점포 운영 시스템은, 점원의 일거수일투족을 초단위로 AI가 파악하고, AI가 이를 분석해 다시 최적의 운영을 직원에게 지시하는 방식인데, 만약 AI의 지시 시간까지 점원이 업무를 마치지 못하면 급여가 자동으로 삭감되게 된다.

또한 점포 내부를 AI가 모니터링하면서 내부가 청결하지 않다고 판단하면 바로 점원에게 규정된 시간 내에 청소를 하도록 했는데, 그렇지 못했을 경우 역시 급여가 삭감됐고 이에 점원들이 더는 못 견디고 퇴직하기 시작했다.

본사에서는 서둘러 본사 사원들을 파견해 대체인력으로 투입했으나 파견된 사원들은 운영에 더 미숙해 AI의 지시를 어기는 경우가 더 많아졌고 이들 역시 급여가 자동 삭감되는 악순환에 빠지게 됐다. 결국 이러한 악명이 구직자들 사이에 퍼지게 되면서 결국 인력 부족 사태에 빠지게 된 것이다.

비단 중국의 이야기가 아니더라도 최근 전 세계적으로 이와 같이 AI플랫폼이나 AI알고리즘이 알게 모르게 인간을 평가하고 지시를 내리는 상황이 증가하고 있다.

요즘 취업준비생들에게 준비해야 할 스펙이 하나 더 늘었는데, 바로 'AI 면접시험'이다. 정확한 통계치는 없지만 지난해 AI면접을 도입해 시행한 기업, 공공기관의 수가 600여 개 이상으로 추정된다.

AI면접을 도입하는 가장 큰 이유는 바로 평가의 공정성과 객관성 때문일 것이다. 또한 코로나 시대에 비대면으로 시행하기 편리하고 관리하기 효율적인 측면도 있을 것이다.

하지만 AI면접이 정말 공정하고 객관적일까? 너무나 유명한 2018년도의 '아마존의 AI채용 프로그램 폐기 사건'을 다시 예시하지 않더라도, AI 학습의 기반이 되는 데이터가 현재 완전무결하지 않기 때문에, AI면접의 결과도 결국 편향적이고, 차별이 있을 수 있음을 우리는 알고 있다.

하지만 보다 근원적으로 우리가 더 생각해 보아야 할 점은, 바로 AI면접관이 인간을 평가하고, 점수를 매기고, 점수에 따라서 줄을 세우고, 합격·불합격을 결정하게 하는 게 맞느냐는 것이다.

최근에 많이 논의되고 있는 'AI 판사'도 마찬가지다. AI 판사가 도입돼 AI가 인간을 가치 판단하고, 죄의 유무와 경중을 평가하고, 극단적으로 누구는 사형, 누구는 무죄를 내리게 된다면, 이렇게 AI가 인간을 가치 판단하고 생명의 결정권을 가지게 하는 것이 맞느냐는 것이다.

당연히 안 될 것이다. 만약 이렇게 AI가 인간을 가치 판단하게 된다면, 우리가 SF영화 속에서 보았던 AI와 로봇들이 인간을 통제하고 지배하는 그런 세상이 상상만이 아니게 될 수도 있다.

인간의 존엄성과 생명권, 인격권은 그 무엇에도 침해받거나 훼손돼서는 안 되며, 기술은 인간을 판단하고 결정하는 존재가 아니라, 인간을 편리하게 하기 위한 도구라는 점을 우리 모두가 다시금 명확히 인식했으면 한다.

전창배 IAAE (국제인공지능&윤리협회) 이사장·WECON PTE. LTD. 대표