AI법 집행주체는 과기부... 산업진흥 기관이 윤리감시까지

입력
2023.04.20 14:00
[AI시대의 윤리학: ③동반자 AI] 
EU와 한국의 AI 법안 차이점

편집자주

인공지능(AI) 발전 속도가 무섭도록 빠릅니다. 몇 년 전 바둑에 통달하더니, 이젠 철학 에세이를 쓰고, 변호사 시험에 척 붙습니다. AI 전문가들조차 속도를 부담스럽게 여길 지경이죠. 그러나 이렇게 눈부시게 발전하는 AI를 ‘어떻게 쓸지’를 두고 아직 사회적 합의와 공감대가 형성되지 않았습니다. 인간의 목숨과 운명이 걸린 일에 AI를 활용할 수 있을까요? 이는 기술적 문제라기보단 인문학(윤리학)이 풀어야 할 질문입니다. AI 전성시대에 인간이 마주한 딜레마, 그 해결의 실마리를 함께 고민해 봅니다.


한국 국회와 유럽의회(European Parliament)는 비슷한 시기, 비슷한 주제의 법안을 처리 중이다. 바로 인공지능(AI)의 위험성와 신뢰성 문제를 담은 '인공지능법안'이다.

AI 기술이 나날이 발전하는 시점에 맞춰 두 법안 모두 조만간 의회의 최종 문턱을 넘어 법제화 단계를 밟을 것으로 예상되지만, 양쪽 법안을 자세히 살펴보면 뚜렷한 차이점이 있다. '인공지능'이라는 이름을 담은 법을 역사상 최초로 제정하는 한국 입장에서, AI 윤리성에 대한 고민을 더 일찍 시작한 유럽연합(EU)의 사례는 상당한 시사점이 될 것으로 보인다.

①AI 금지사항을 딱 정한 EU

EU와 한국 인공지능 법안의 가장 큰 차이점은 블랙리스트, 즉 애초부터 허용하지 않는 AI 시스템을 정의하고 규율했는지 여부다. 2021년 4월 EU집행위원회가 제정한 인공지능법 초안은 기본권 침해정도, 시스템 투명성 등에 따라 AI의 위험도를 △허용할 수 없는 위험(Unacceptable Risk) △고위험(High Risk) △저위험(Low Risk) △최소위험(Minimal Risk) 등 네 단계로 나눴다. 허용 불가능한 위험을 초래하는 AI 시스템을 아예 금지한 것이 특징이다.

EU 인공지능법안 제5조가 금지 사항을 구체적으로 정하고 있는데 △부지불식간에 인간 행동을 왜곡해 신체-정신적 피해를 입히는 AI시스템 △공공기관이 AI 기술을 활용해 개인의 사회적 신용 등을 평가하는 소셜 스코어링(Social Scoring) △테러방지, 범죄 가해·피해자 수색을 제외하고 경찰 등이 공개 장소에서 생체 정보(얼굴 등)를 실시간 활용하는 신원확인 시스템 등이 금지 사항이다.

이에 비해 국내 인공지능법은 '금지된 AI'를 따로 규정하지 않았다. 본보가 입수한 국회 과학기술정보방송통신위원회(과방위)의 '인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안' 법안심사소위원회 최종안에 따르면, 법안에 '금지'라는 단어는 한 차례도 쓰이지 않았다.

EU와 한국 인공지능법의 차이에 대해 최경진 한국인공지능법학회장(가천대 법학과 교수)은 "EU 법은 AI 산업 진흥보다 규제와 시민 보호를 염두에 뒀고, 한국 인공지능법은 AI 산업을 진흥하려는 관점이 더 많이 들어간 결과"라고 분석했다.

②고위험 AI엔 '외부검증' 강제... 한국 법엔 없다

EU와 한국의 AI법은 기본권에 영향을 끼치는 '위험한 AI'에 대한 정의, 사전조치 방법 및 수위에 대해서도 서로 다른 접근법을 보였다.

EU는 '고위험 AI'의 종류만을 최소 28개로 분류하고 있다. 우선 항공·자동차·철도·기계·장난감 등 7가지 제품에 사용된 AI 기술 등을 포함시켰고, △생체인식·분류 △인프라 관리 운영 △교육 및 직업훈련 △고용 및 직원관리 △공공지원 혜택 △법 집행 △이민 △사법업무 등 8개 분야 21 종류의 AI 시스템을 고위험 인공지능으로 분류했다. 또 법안은 EU집행위원회(행정부 역할)가 기본권 침해 위험성이 있는 AI 시스템을 '고위험'으로 추가 지정하는 것도 가능케 했다.

EU 법은 고위험 AI 공급자가 제품·서비스 출시 전에 적합성 평가를 받아야 한다는 조항도 명시했다. 적합성 평가는 AI 시스템이 법률 요구사항을 지켰다는 것을 입증하는 것으로, 이 평가를 통과한 AI 제품 등엔 유럽인증(CE) 마크를 붙여야 한다고 정했다. 특히 EU는 고위험 AI 중에서도 대 테러 및 범죄 수사 등 용도로 쓰이는 안면 인식(생체 인식) 시스템, 그리고 공공 인프라용 AI 제품(서비스)은 지정된 제3의 인증기관에서 적합성 평가를 받도록 강제했다.


국내 법안도 고위험 AI를 규정하고 있다. 안면 인식 기술, 국가기관이 쓰는 AI 등 총 9개 분야의 인공지능을 '고위험 영역 인공지능'으로 정의했다. 고위험 영역AI 공급자는 해당 제품이나 서비스가 '고위험'이라는 사실을 사전 고지해야 하며, 의무적으로 신뢰·안전성 확보 조치도 취해야 한다. 다만 국내 AI 법안은 신뢰성 확보 조치의 구체적 내용 준수를 강제하지 않고 "권고할 수 있다"고 명시하는 데 그쳤다. 고위험 영역 AI의 제3자 검증 관련 규정도 없다.

최경진 교수는 EU와 한국의 이러한 차이점 역시 법 제정을 바라보는 철학의 차이가 반영된 것이라고 설명했다. "국내 법안의 경우 AI 신뢰성에 대한 민간 위주의 검증을 정부가 지원할 수 있게 했는데, 이는 '우선 허용하고 사후에 규제한다'는 원칙을 적극적으로 수용한 결과"라고 했다.

③EU는 규제관련 조직이 심의·집행, 한국은 과방위-과기부 전담

한국과 EU의 AI법안은 심의와 집행을 전담하는 주체 규정에서도 차이를 보인다. 외신 보도 등을 종합하면 현재 EU의 AI법안 심의에 관여하고 있는 유럽의회 내 상임위원회는 내수시장소비자보호위원회(IMCO)와 시민자유-사법 및 내무위원회(LIBE)다. IMCO와 LIBE는 각각 EU의 시장규제, 기본권 및 개인정보 보호 관련 법안을 전담 심의하고 있다. 법 집행 주체 또한 EU 각 회원국 내 시장감시당국이다.

반면 국내 인공지능법은 국회 과방위가 단독 심의 중이고, 주요 집행주체는 과학기술정보통신부 장관으로 규율하고 있다.

장여경 정보인권연구소 상임이사는 "국내 AI법안은 AI산업 진흥과 윤리성 확보 방안 등을 모두 아우른 기본법 성격"이라며 "지금껏 AI산업 진흥 위주의 정책을 추진한 부처(과기정통부)가 AI의 윤리·사회정책에 대한 포괄적 권한까지 갖는 기형적 구조"라고 지적했다. 그는 "반면 EU의 AI법안은 시장감시 및 규제당국에 고위험 인공지능 단속 권한을 부여해 시민 안전·기본권 보호에 대한 일관적 입장을 유지하고 있다"고 설명했다.

이에 대해 국회 과방위 법안심사소위 간사인 조승래 더불어민주당 의원 측은 "법안 심의 과정에서 시민사회 및 각 지자체의 의견 수렴이 다소 부족했다는 지적을 반영해 해당 법안을 더 살펴보고 있다"며 "본 법안이 기존 다른 법률과 중복되는 지점이 없는지 등도 고려해 조정 가능성을 검토 중"이라고 말했다.


▶ AI는 개인정보 먹깨비… 운세·스케줄까지 닥치는대로 수집

https://hankookilbo.com/News/Read/A20230416144100025

▶ "사람 골머리 썩이는 일, AI시대에도 사람 몫으로 남겨야"

https://hankookilbo.com/News/Read/A2023041814070003921

윤현종 기자
최동순 기자
세상을 보는 균형, 한국일보 Copyright © Hankookilbo