인공지능(AI)이 '혁신'의 동의어처럼 사용되는 시대다. 다양한 분야에서 도입, 활용 중인 AI기술은 미래 성장의 핵심 요소로 간주되고 산업 경쟁력의 한 단계 도약을 위한 발판으로 주목받고 있다.
국회 분위기도 다르지 않다. 최근 국회 과방위 법안소위를 통과한 인공지능 법안은 인공지능 기술 개발 및 산업 육성을 위한 제도적 기반 마련과 정책 지원에 초점을 맞추고 있다. 일관된 AI 관련 정책 수립, 예측 가능성 확보가 필요하다는 산업계의 요청에 부응한 결과다.
그러나 AI기술의 다양한 활용 가능성, 발전가능성 이면에 국민 안전과 인권에 미칠 수 있는 부정적 영향과 위험도 간과해선 안 된다. AI기술을 활용한 국내외 사례에서 학습 데이터의 편향성, 알고리즘의 불투명성, 오작동 가능성 등 다양한 문제가 제기되고 있다. 최근 소다앱은 외설 이미지를 합성한 사진을 결과물로 산출, 논란이 됐다. 다수 공공기관과 민간기업이 활용하는 AI 채용 도구는 불투명성과 차별 가능성 논란에서 자유롭지 못하다. AI기술을 적용한 자율주행 차량, 제조공정에 도입된 산업용 로봇은 시민과 노동자의 생명, 신체 안전성을 담보할 수 없다. AI기술이 발전하고 적용 범위를 넓혀 감에 따라 이러한 위험은 더욱 구체화하고, 현실화할 것이다.
그러나 국회가 AI기술의 역기능 또는 위험성에 대해 충분히 고민했는지 의문이다. 인간의 잠재의식을 왜곡하거나 조종하는 AI기술, 살상무기에 탑재된 기술 등 수용불가한 위험도를 지닌 기술은 개발과 활용 자체를 금지해야 한다. 하지만 현재 논의 중인 법안에는 금지해야 할 AI에 대한 규정 자체가 없는 것으로 보인다. 또 AI기술의 책임성을 확보하기 위해선 고위험 AI개발 과정에 로그기록 보관, 기술문서 작성 등 의무를 부과하고 피해 발생 시 책임 소재를 가릴 수 있도록 해야 한다. 하지만 법안은 의무 조치 미이행에 대한 처벌 규정을 두지 않고 있어 그 실효성이 의문이다. 권리 침해 시 피해자 권리에 대한 규정, 구제를 위한 절차도 빠져 있다.
무엇보다 법안 논의 과정에서 AI기술을 둘러싼 다양한 쟁점에 대하여 충분한 논의와 의견 수렴이 이뤄지지 않고 있다. 인공지능 기본법에는 AI의 위험성을 어떻게 통제할 수 있을지, 무엇을 금지 인공지능, 고위험 인공지능으로 봐야 할지, 인공지능 기술의 책임성을 어떻게 확보할 것인지 등 쟁점에 대하여 숙의를 거친 사회적 합의 결과가 담겨야 한다. 그래야 AI기술 발전이 진정한 혁신으로 자리매김할 수 있다.