속보

단독

AI 사망선고

입력
2021.01.17 18:00
26면
구독

편집자주

<한국일보> 논설위원들이 쓰는 칼럼 '지평선'은 미처 생각지 못했던 문제의식을 던지며 뉴스의 의미를 새롭게 해석하는 코너입니다.

인공지능(AI) 이미지. 게티이미지뱅크

인공지능(AI) 이미지. 게티이미지뱅크

2013년 2월 미국 중북부 위스콘신주 라크로스에서 주택을 향한 총격 사건이 있었다. 경찰은 얼마 뒤 차를 타고 총을 쏜 2명의 혐의자를 체포했는데 이 중 한 명이 1심 재판에서 6년형을 선고받는다. 이 판결에는 당시 미국 여러 주에서 도입한 '범죄 예측 프로그램'이 사용됐다. '콤파스(COMPAS)'라는 이 프로그램은 전과는 물론 교육 수준, 거주 지역, 생활 신조 등 피고에 대한 137가지 정보를 종합해 재범 위험을 10단계로 예측하는 일종의 인공지능(AI) 평가 시스템이다.

□그러나 피고인 평가 방법, 즉 알고리즘이 공개되지 않은 프로그램을 재판에 이용하는 것은 적절한 법적 절차를 받을 권리 침해라며 항소를 제기했다. 실제로 이 프로그램이 적용됐지만 2년간 재범이 없었던 사람 중 재범 위험도가 높다고 평가된 경우가 백인은 23.5%, 흑인은 44.9%라는 보도도 있었다. 반대로 다시 범죄를 저질렀지만 애초 위험이 낮다고 평가된 사람이 백인은 47.7%, 흑인은 28.0%였다. 인종 편향을 의심할 만하다.

□AI가 잘못 판단하는 이유로 몇 가지가 거론된다. 우선 딥러닝의 기초가 되는 데이터가 충분하지 않은 경우다. 개와 고양이 사진만 제공받아 이를 구별하도록 학습한 AI에게 조류 사진을 보여 줄 때 올바른 답을 기대하기 어렵다. 얼굴 인식의 정확도가 인종에 따라 다른 것도 수집 자료의 차이와 무관하지 않다. 알고리즘 편향도 문제가 된다. 남성 우대로 논란이 된 아마존 채용 시스템이나 애플의 신용카드 대출심사 편향이 이런 경우다.

□인간 사회의 편향을 AI가 재연하는 경우는 심각하다. 출시 한 달도 안 돼 폐기 결정된 '이루다'처럼 챗봇에서 이런 문제가 반복된다. 그러나 '이루다'가 폐기되더라도 이것이 AI에 대한 사망선고일 리 없다. AI는 이미 논리적으로 인간의 모든 결함을 넘어서는 '초월자'가 되기로 예정된 존재다. 반가우면서 두려운 이유다. AI 개발 과정에서 윤리 준수나 학습 데이터 기록 등 문제를 고치려는 노력을 의무화하지 않으면 AI 디스토피아 우려는 더 커질 수 있다.

김범수 논설위원

댓글 0

0 / 250
첫번째 댓글을 남겨주세요.
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.

기사가 저장 되었습니다.
기사 저장이 취소되었습니다.