최근 ‘인공지능 윤리’라는 단어가 여기저기 많이 등장하고 있다. 왜 ‘인공지능’이라는 단어 뒤에 ‘윤리’라는 단어가 붙게 된 걸까? 도대체 ‘인공지능 윤리(AI Ethics)’는 무엇일까?
작년과 올해 한 TV 방송 프로그램에서 가상현실(VR) 기술을 이용하여 고인이 된 자식과 다시 만나고, 사별한 아내와 다시 만나보는 프로그램을 방송한 적이 있다. VR와 AI 기술을 이용하여 고인의 모습을 살아있는 것처럼 구현한 것인데, 많은 시청자들이 큰 감동을 받아 화제가 되었다. 또 한 프로그램에서는 고인이 된 가수들의 목소리를 AI 기술을 통해 살려내어 그 가수가 생전에 부르지 않았던 노래를 실제처럼 부르는 장면을 선보이기도 했다.
우리는 이런 장면을 보면서 너무나 감동하고 놀라면서도 한편으로는 뭔가 불편하고 찜찜하고, 나아가 두려움이 느껴지기도 한다. 이러한 불편한 느낌이 드는 이유가 무엇일까? 바로 ‘인공지능 윤리’ 때문이다.
우리는 ‘냉장고 윤리’, ‘세탁기 윤리’, ‘텔레비전 윤리’라는 말을 쓰지는 않는다. 그런데 ‘인공지능 윤리’, ‘로봇 윤리’라는 말은 많이 쓰이고 있다. 그것은 인공지능과 로봇이 바로 ‘자율성’을 갖기 때문이다. 스스로 판단하고 결정하고 행동하는 ‘자율성’을 갖는 존재는 인간과 함께 공존하려면 반드시 ‘윤리’가 필요하기 때문이다. 그렇지 않으면 그러한 자율적 존재가 인간에게 어떤 영향을 미칠지, 어떤 행위를 하게 될지 매우 불확실해지게 된다.
하지만 인공지능과 로봇이 윤리를 지키고 윤리의식을 갖도록 만드는 것만 인공지능 윤리를 뜻하는 것은 아니다. 인공지능 윤리는 우리가 인공지능을 만들고 사용하는 데 있어 발생할 수 있는 모든 윤리적, 도덕적 문제들, 그리고 그러한 문제들을 해결하는 방안까지 모두 포함하는 개념이라고 볼 수 있다.
최근 인공지능 기술이 급격히 발전하면서 인공지능을 만들고 활용하는 데 많은 문제들이 발생하고 있다. 물론 모든 기술의 이면에는 위험성과 부작용이 있다. 인간이 기술의 혜택을 누리기 위해서는 일정 수준 감내해야 하기도 한다. 하지만 인공지능 기술의 위험성과 부작용은 타 기술의 감내 수준을 훨씬 뛰어넘을 수 있다. 인공지능 기술이 갖는 자율성으로 인해 인간에게 미치는 영향이 막대할 수 있기 때문이다.
현재까지 발생한 다수의 인공지능 위험성, 부작용 사례들을 분석해보면 총 5가지로 요약이 된다. AI의 편향성 문제, AI의 오류와 안전성 문제, AI의 악용 문제, 개인정보보호 문제, 킬러로봇 문제 등이다. 물론 현재도 인공지능 기술은 계속 발전 중이므로 또 다른 신기술이 개발되면 그에 따른 새로운 윤리적 문제가 계속 나타날 수 있다.
본 칼럼 '모두를 위한 AI'에서는 현재까지 발생한 위의 5가지 인공지능 윤리의 주요 이슈들을 다양한 사례를 중심으로 함께 공유하고 고민해보고자 한다. 그리고 아직 나타나지는 않았지만 가까운 미래에 도래할 수 있는 인공지능 윤리 문제들도 함께 생각해 보고자 한다.
최근 세계적인 AI 석학인 미국 버클리대학의 스튜어트 러셀 교수가 국내 한 언론사와 가진 인터뷰에서 이런 말을 했다. “우리는 인공지능의 위험성을 해결하지 못하는 한 인공지능의 혜택을 누릴 수 없다.”
모두를 위한 AI를 만들기 위해서는 인공지능의 위험성과 부작용 문제를 해결해야 한다. 하지만 너무 겁먹거나 두려워할 필요는 없다. 아직 인공지능 기술도, 인공지능 시장도 초창기이기 때문에 지금부터 우리가, 전 세계가 이러한 인식을 갖게 된 것만 해도 매우 고무적인 일이다. 이제 다 함께 우리 모두를 위한 AI를 만들어 갈 시간이다.