2020년 중앙행정기관이 된 개인정보보호위원회(개보위)는 다소 생소한 장관급 기구다. 일반인들에게 별로 알려지지 않았던 개보위가 존재감을 확실하게 과시한 것은 지난해 가을. 개인정보를 불법 수집한 미국 빅테크 구글과 메타에 합계 1,000억 원의 과징금을 부과하면서부터다.
고학수 위원장의 이름도 개보위가 개인정보 보호를 소홀히 한 업체에 과징금을 부과할 때마다 언급된다. 그런데 알고 보면 고 위원장의 전문 분야는 바로 인공지능(AI). 서울대 로스쿨 교수 출신인 그는 한국인공지능법학회장 등을 역임하며 개인정보와 AI 분야를 함께 연구한 'AI 법제도 전문가'다. AI의 눈부신 발전을 대체 어디까지 용인해야 할지 갈피를 잡지 못하는 지금. 한국일보는 AI 기술과 법제도, 개인정보 문제를 아우를 수 있는 적임자로 고 위원장을 찾았다. 그와의 인터뷰는 17일 정부서울청사에서 진행됐다.
본보와의 인터뷰에서 고 위원장은 AI의 위험성에 관한 구체적 근거를 찾는 작업이 우선적으로 이뤄져야 한다고 강조했다. "아직 AI가 인간에 미치는 위험성에 관한 실질적 근거가 부족해, AI 규제를 구체화하기엔 어려운 단계"라는 진단이다. 이 작업을 통해 위험성이 확인된다면 곧바로 규제에 들어갈 수 있다는 입장이다.
또한 그는 AI가 인간의 영역에서 '주체'가 되어선 안 되며, 계속해서 '심부름꾼'의 지위에 머물러야 한다고 제안했다. 복잡해서 쉽게 결정 내리기 힘든 일, 논란의 당사자가 첨예하게 대립하고 있어서 골치 아픈 일을 AI에 덥석 맡겨서는 안 된다는 주장이다.
다음은 고 위원장과 나눈 일문일답.
-개정 개인정보보호법엔 AI 결정에 대해 설명을 요구할 권리, 거부할 권리가 신설됐습니다. 어떤 맥락인가요?
"지금은 AI가 우리 사회에 막 들어오면서 본격적으로 고민을 시작하는 초기 단계입니다. 지금 필요한 것은 기본 정책 방향이죠. 이번 법 개정으로 도입된 '자동화된 결정에 대한 정보주체의 권리'는 이런 뜻입니다. AI 기술에만 의존해 (사람의) 권리에 중대한 영향을 미치는 경우라면, 그 대상자인 사람에게 (AI 결정을) 거부할 권리나 설명을 요구할 권리를 보장해야 한다는 것이죠. 앞으로 AI 활용이 확대되면서 국민의 삶에 크게 영향을 미치는 결정까지 AI에 의해 이뤄지는 경우가 많아질 것인데, 그 결정이 AI에 의해 이뤄졌음을 이유로 책임을 회피해선 안 된다는 얘기입니다.
쉽게 말해 'AI에게만 다 맡기지 말라' 'AI에게 책임을 미루지 말라'는 선언을 밑에 깔고 있습니다. 예를 들면 채용 분야에서 AI가 의사결정을 했다면, '최첨단 AI가 했으니까 옳은 판단입니다'라거나 '우리한테 따지지 마세요'라는 식으로 떠넘기지 말라는 것이죠."
-AI를 이용한 채용이 확대되는 중인데, 개인정보법 신설 조항이 현실에서 어떤 식으로 실현될 수 있을까요?
"입사 원서를 낸 뒤 떨어진 사람에게 '최첨단 AI가 판단했습니다'라고만 말하면 쉽게 수긍할 수 없을 겁니다. 문제 제기를 했을 때 지원자들이 이해할 수 있도록 그 눈높이에 맞는 설명을 해줄 수 있어야 한다는 게 기본 방향입니다. '그래, 사실 이 부분은 부족했어'라고 받아들일 수 있을 정도로 말이에요. AI를 일반인에게 설명해 주는 것은 어려운 일이지만 꼭 필요한 일입니다. 예를 들어 수술을 앞둔 환자에게 의사가 어떤 식으로 수술을 진행할 것이고, 어떤 부작용의 가능성이 있는지를 설명해 줘야 하는 것과 같죠. 어떤 식으로 구현할 것이냐는 고민이 많이 필요합니다."
-시민단체에서는 채용AI 등 영향력이 큰 AI에 대해 객관적 검증이 필요하다는 요구가 있습니다.
"전문가를 통해 검증하는 게 더 실효성이 있을 순 있죠. 하지만 외부 전문가한테 잘못 보여주면 회사 영업비밀이 노출될 수 있습니다. 학계에서는 비밀 유지 장치가 마련된 제3의 독립 기관에서 검증하자는 제안이 나오고는 있지만, 아직 초기 단계로 충분히 무르익지 않은 논의예요.
현 상황에서 AI가 인간생활에 위협이나 지장을 줄 개연성이 크다고 보긴 어렵지만, 반드시 아니라고 단언하기도 쉽지 않은 게 사실입니다. 결국 AI에 관한 규제는 위험성에 기초해 판단할 수밖에 없다고 생각합니다. 유럽연합(EU)에서 논의 중인 AI법 초안의 경우, 위험성에 따른 AI 규제를 정하고 있지만, 어떤 근거에서 그 위험성을 평가했는지, 구체적 기준이 없다는 게 한계로 지적되고 있습니다.
지금 당장 AI 규제를 구체화하기에는 위험성에 대한 실질적 근거가 많지 않습니다. 의미 있는 규제가 되려면 실질적 근거가 있어야 해요. 우선 지금은 규제 샌드박스(새로운 제품·서비스 출시 때 규제를 면제·유예하는 것)와 같은 특정한 틀 안에서 새로운 실험을 하도록 열어두면서, 축적된 데이터와 경험으로 예상되는 위험성을 가늠하는 과정이 선행돼야 한다고 생각합니다."
-위험성에 대한 판단이 내려지면 특정 AI에 대해 별도의 검증을 갖추는 체계도 들어설 수 있다고 보시나요?
"그럴 가능성이 충분히 있습니다. 우리 일상에, 생명·자유에 중대한 영향을 미치는 영역 같으면 훨씬 더 조심스럽게 바라봐야 하고, 필요시 즉각 규제가 들어갈 수 있는 태세를 갖춰야 되겠지요. 개인적 의견으로는 실시간 얼굴 인식 기술 등 기본권이 침해될 가능성이 높은 분야에 대해 생체정보 규율체계를 검토하는 등, 정부가 적극적 역할을 할 필요가 있다고 생각합니다."
-AI 개발은 태생적으로 개인정보를 이용할 수밖에 없는데, 그렇다고 무작정 AI 기술을 규제만 할 수도 없을 건데요, 활용론과 규제론을 절충하는 방법이 있을까요?
"어려운 문제입니다. 데이터가 없으면 AI를 못 만드는데, 내 얼굴 같은 개인정보가 이용되는 건 마음이 불편하거든요. 어떤 데이터를 모아서 어떤 기술을 발전시킬 것인지, 어떤 식으로 사회가 발전하는 데 쓰이도록 할 것인지에 대한 질문을 여러 측면에서 계속 던져야 한다고 봅니다.
오래전부터 데이터를 활용해 온 의료 영역의 전통은 시사점을 줄 수 있다고 생각해요. 우리가 병원에 가는 이유는 치료, 딱 한 가지에요. 하지만 환자의 치료 과정에서 쌓인 데이터는 사실 의학 발전을 위해 쓰여왔습니다. ①의사 개인의 입장에서 노하우가 늘고 ②데이터가 모여서 논문이 발표되며 ③논문이 축적돼 의학 발전을 이끌었지요. 개인은 필요에 의해 자발적으로 데이터를 제공했지만 △그 과정에서 나오는 결과물이 사회적 발전을 이루고 △사회적 발전이 다시 개인에게 도움을 주는 형태입니다. AI학습도 이런 형태의 선순환이 가능하다고 생각합니다. 개인정보 문제가 발생하지 않으면서 사회적으로 유용한 부분을 어떻게 만들어 낼 수 있을지 고민하고 있습니다."
-AI는 인간의 동반자가 될 수 있을까요?
"AI는 원자력 기술과 비슷한 점이 있습니다. 핵무기를 개발한다고 하면 여러 방면에서 논란이 되지만, 병원 핵의학과에서 하는 연구를 태클 거는 사람은 아무도 없지요. 기본적으로는 똑같은 기술이지만, 어떻게 유용하게 잘 쓸 것이냐 하는 게 굉장히 큰 과제인 거죠.
사실 저는 AI를 동반자로 표현하는 것을 별로 좋아하지 않습니다. 동반자라고 하면 묵시적으로 AI가 독립적인 주체라고 여기기 쉽기 때문이죠. AI는 적어도 우리 세대에서는 '심부름꾼'이고 철저한 도구라고 생각합니다. 이런 맥락에서 AI에겐 단순하고 쉬운 반복 작업을 맡겨야 하는 게 바람직합니다. 인간이 골머리 싸매고 고민해야 하는 일을 AI에게 맡기면 안 되죠. 하지만 사람들은 복잡하고 답이 잘 안 나오는, 선례가 없는 일을 AI에게 맡기고 싶어 해요. AI가 다양한 분야에 적용될수록, 이런 경향성은 더 심해질 수 있습니다. 나중에 문제가 되는 게 싫어서, 면피용으로, 판단력이 필요한 문제를 AI에게 떠넘기는 것이죠. 이런 유혹에서 벗어나야 합니다. 오히려 정반대가 돼야 해요. 답이 곧바로 나오는 방대한 양의 단순 작업은 AI에게 시키고, 그 시간에 사람은 중요한 일에 더 집중해야 됩니다."
▶ AI는 개인정보 먹깨비… 운세·스케줄까지 닥치는대로 수집
https://hankookilbo.com/News/Read/A2023041614410002573
▶ AI법 집행주체는 과기부... 산업진흥 기관이 윤리감시까지
https://hankookilbo.com/News/Read/A2023041416150002942