편집자주
가속화한 인공지능 시대. 인간 모두를 위한, 인류 모두를 위한 AI를 만드는 방법은? AI 신기술과 그 이면의 문제들, 그리고 이를 해결할 방법과 Good AI의 필요충분조건
최근 해외의 한 프로그래머가 딥러닝으로 '어린 시절의 나'를 재현한 AI 챗봇을 만들었다고 밝혀 화제가 되었다. OpenAI가 개발한 AI 모델인 GPT-3에 어릴 적 자신의 10년 치 일기를 학습시켜 만들었는데, 실제로 어린 시절의 자신과 대화하는 듯이 느껴졌으며, 감정이 치유되고 힐링되는 경험을 했다고 밝혀 많은 공감을 받았다.
그런가 하면 최근 우크라이나-러시아 전쟁에서는 양국 간 자폭드론이 전투 무기로 활용되면서 전쟁의 효율성을 증대시킨다는 주장과 함께 윤리적인 논란도 일어나고 있다.
인공지능이 선하고 윤리적 목적으로만 만들어지고 사용된다면 좋겠지만 현실은 그렇지 못하다. 이번 칼럼은 선하고 안전한 인공지능을 어떻게 만들어야 할지에 대해 함께 고민해보고자 한다.
현재의 AI 단계인 약인공지능(Narrow AI) 단계에서는 AI를 만들고 사용하는 것이 인간이기 때문에, 인간이 AI를 바르게 안전하게 만들고, 악용하지 않고 올바른 목적으로 사용한다면 선하고 안전한 인공지능이 구현될 수 있다. 하지만 이것이 말처럼 쉽지만은 않다. 그렇기 때문에 많은 주체들의 협력과 노력이 필요한 것이다.
2016년부터 본격적으로 전 세계 많은 정부와 기업, 학계, 민간에서 이른바 '인공지능 윤리 가이드라인'을 제정하고, 발표한 것은 이를 위한 첫 출발점이다. 인공지능 윤리 가이드라인 중 '고위험 AI'나 '범죄적 목적의 AI'와 같은 기술에 대해서는 법적 규제 장치도 만들어지고 있다.
이와 함께 AI 교육이 필수적이다. 개발자, 기업인뿐만 아니라 청소년, 대학생, 소비자, 시민 등 모든 주체들이 AI를 올바르게 만들고 사용하는 AI 윤리 교육을 받아야 한다. AI 기술은 계속 발전해 나가기 때문에 이에 대응하여 AI 윤리 교육도 지속적으로 시행돼야 함은 물론이다.
기업들도 AI 윤리에 대한 자발적 노력이 필요하다. 소비자들과 시민들 사이에는 인간 능력을 초월하는 AI에 대한 두려움과 불확신이 있다. 그렇기 때문에 AI 제품과 서비스를 제공하려는 기업들은 소비자들에게 해당 제품이 윤리적이고 안전하다는 확신을 주어야 시장에서 성공할 수 있다.
구글, 메타, 마이크로소프트, IBM 등 세계 유수의 기업들이 모두 AI 윤리부서를 갖추고 있는 것은 그런 이유다. 특히 메타는 '메타버스 윤리 연구와 개발'에 1조 원을 투자하고 있고, 구글에는 200여 명의 AI 윤리부서와 AI 윤리에 매년 200억 원을 투자하고 있다. 우리나라는 지난 7월 카카오가 유일하게 '기술윤리위원회'라는 AI 윤리 부서를 만들었는데, 이제 AI를 다루는 기업들은 필수로 AI 윤리 부서를 갖출 필요가 있다.
하지만 대기업 외 중소 AI기업들은 자원 부족으로 AI 윤리에 대한 자체 노력이 어려운 측면도 있다. 따라서 여기에 정부 역할이 중요한데, 예를 들어 'AI 윤리 바우처' 제도를 만들어 중소 AI기업들이 'AI 윤리 검인증', '임직원 AI 윤리 교육' 등을 받을 수 있도록 지원하는 것이다. 또한 AI 윤리에 대해 선제적으로 노력한 기업들에 정부, 지자체 사업 입찰 시 가산점을 부여한다면, 기업들로 하여금 자율적으로 AI 윤리를 준수하도록 유도할 수 있다.
이제 AI 윤리의 최강국이 AI 기술과 산업의 최강국이 되는 시점이 도래했다. 역설적이게도 AI 기술이 더욱 발전하려면 AI 윤리와 안전에 더욱 많은 투자를 해야 한다. 관·산·학·연과 시민 등 모든 주체들이 힘을 모아 AI 윤리에 대해 함께 노력해 나간다면, 우리나라가 세계를 선도하는 인공지능과 4차산업 최강국으로 발돋움할 것임을 믿어 의심치 않는다.
댓글 0