편집자주
사회변화, 기술발전 등으로 새롭게 부상하고 있는 직업을 소개합니다. 직업은 시대상의 거울인 만큼 새로운 직업을 통해 우리 삶의 변화도 가늠해 보길 기대합니다.
편리한 기술, 윤리로부터 자유로울 수 없어
한시도 손에서 스마트폰을 놓지 않는 사람들을 주변에서 쉽게 볼 수 있다. 내가 원하는 것을 나보다 훨씬 더 꿰뚫고서 내 취향의 영상을 추천하기도 하고, 탑재된 인공지능(AI)으로 친구처럼 대화가 가능한 지도 오래다. 이 질문에 대한 답은 시간이 지날수록 구체적이고 고도화된다. 대화형 AI, 생성형 AI… 생소하고도 친숙한 AI가 우리 일상 곳곳에 스며든 지금, 어느덧 우리는 기술의 지배를 받고 있는 것은 아닐까 하는 착각이 들 때도 있다.
다양한 기능의 제품과 콘텐츠가 쏟아지면서 더 나은 기능 탑재를 통해 시장을 점유하려는 경쟁 역시 치열해지고 있고 편리함과 정확함을 안겨주는 것과 함께 AI가 가져야 할 '윤리'에 대한 관심도 높아지고 있다.
기술은 기술일 뿐, 웬 윤리가 필요할까도 싶지만, 고도의 기술은 인간의 가치와 존엄을 훼손하거나 부정적이거나 당초 의도치 않은 결과를 낳기도 하고 있어 결국 인간이 만들어내는 AI의 알고리즘이 인간을 돕기도, 해하기도 한다.
그 무엇보다 인간의 존엄과 가치가 우선
기술이 직면한 윤리문제를 언급할 때 흔히 트롤리의 딜레마(Trolley Dilemma)를 예로 들게 된다. 트롤리 전차가 멈출 수 없는 속도로 질주하고 있으나 브레이크가 고장 나 멈출 수 없을 때 선로에는 다섯 명이 작업을 하고 있고 이들과 충돌을 피하고자 옆 선로로 진입한다면 또 다른 한 명의 희생자를 낼 수밖에 없는 상황이라면 기관사는 어떤 선택을 해야 할까. 소수의 생명이라고 가벼이 여길 수 없는 윤리적인 고민, 책임의 무게가 정당화될 수 있을지에 대한 물음을 안긴다.
이는 자율주행자동차가 일상화될 무렵 나온 윤리문제이기도 한데 똑같은 위험에 처했다면 운전자와 보행자 중 누구를 더 보호해야 할 것인가라는 질문을 남긴다. 또 이제 우리 일상 깊숙이 사소한 것에까지 침투한 AI는 인종, 젠더 등에 대한 편견이 반영된 알고리즘으로 마치 그 편견이 정답인 것처럼 제시되기도 한다.
흑인은 백인보다 재범률이 높을 것이라는 편견, 딥페이크로 만든 합성물로 퍼지는 가짜 뉴스, 마치 사람의 아이디어와 창작물인 것처럼 속인 예술작품, 법조인이 AI를 활용해 만든 법조문 등 AI 윤리(AI Ethics)가 다뤄야 할 문제는 무궁무진하다.
엔지니어, 철학자 등이 인공지능 윤리학자가 될 수도
세계 각국의 정부와 기업, 연구기관에서는 이러한 AI 윤리에 대한 가이드라인을 정하고 있는데 국내에서도 2020년에 과학기술정보통신부에서 Al 윤리기준을 마련했다. 이 기준은 AI 개발 및 활용과정에서 '인간성(Humanity)'을 위해 준수해야 하는 '인간의 존엄성', '사회의 공공선', '기술의 합목적성' 등의 3대 원칙을 포함하고 있다.
AI 윤리학자는 이러한 정책이나 규정을 만들어 AI가 양산하는 윤리적 문제를 해결하기 위해 공정성, 투명성, 책임성을 강조하는 것뿐만 아니라 제품 개발에 AI 윤리를 반영하도록 하고 알고리즘에 대한 정기검사와 모니터링을 하기도 하며 AI 윤리에 대한 국제협력을 하기도 한다. 따라서 이들은 특정 영역에만 한정되는 것이 아닌 제품 개발을 위한 엔지니어, 인간의 존엄과 가치를 연구하고 기술과 공존하기 위한 방안을 체계화하는 철학자, 그리고 법률전문가나 디자이너에 이르기까지 다양한 전문가들이 함께 AI 시스템이 인간을 향하고 있는지를 준비하고 고민하고 해결한다. 아직 AI 윤리학자는 눈에 쉽게 띄는 직업은 아니나 기술에 대한 안전성, 공정성, 투명성의 요구도 커지는 만큼 앞으로의 활약이 기대된다.
댓글 0