뉴스 트렌드 생활정보 International edition 매체

AI ‘산업 촉진-위험 차단’ 두 토끼 잡을 법제화 시급[동아시론/이성엽]

입력 | 2024-04-03 23:45:00

EU, 세계 최초로 포괄적 AI 규제법 통과
생체인식 등 고위험 AI 사전평가 의무화
한국도 혁신-신뢰 기반 될 법안 마련해야



이성엽 고려대 기술경영전문대학원 교수


2022년 11월 오픈AI의 생성형 인공지능(AI) 챗GPT 등장 이후 AI 기술은 눈부시게 발전하고 있다. AI 기술은 생산성 향상을 통해 인류에게 엄청난 경제적 편익을 가져올 것으로 전망되지만, 예상을 뛰어넘는 능력으로 인한 우려도 커지고 있다. 예컨대, 작년 11월 등장한 오픈AI의 영상 생성 AI인 ‘소라(Sora)’는 입력창에 프롬프트 몇 줄만 넣으면 도쿄의 화려한 밤거리를 걸어가는 여성의 모습을 실사와 같이 정교하게 만들어 낸다. 3월에는 스타트업 피규어 AI가 인간과 실시간으로 대화하면서 요구받은 일을 수행하는 휴머노이드 로봇을 공개했다.

지난주에는 오픈AI가 사람 음성을 학습해 모방 음성을 생성하는 AI 도구를 공개했는데, 15초 분량의 음성 샘플만 있으면 원래 화자의 목소리와 비슷한 음성을 만들어 낼 수 있다. 엔비디아의 젠슨 황 대표는 앞으로 5년 후에 모든 면에서 인간 수준에 버금가거나 뛰어넘는 AI가 등장할 거라고 한다. AI발 대량 실업이 현실화될 것이라는 믿음이 커지고 있고, 영화 터미네이터의 스카이넷과 같은 AI가 인간을 지배하는 상황에 대한 우려도 확산되고 있다.

그 외에도 편향성과 차별, 저작권 및 개인정보 침해 등의 위험은 AI에 대한 규제 논의를 가속화하고 있는데 미국, 유럽연합(EU) 등 주요국은 안전한 AI 활용을 위해 자국에 유리한 규범 제정을 추진 중이다. 특히 지난달 13일 기술규제의 글로벌 선도자인 EU의 의회는 세계 최초의 포괄적 AI 규제법을 통과시켰다. EU는 AI 위험을 금지, 고위험, 제한, 허용 등 4단계로 구분하는 등 AI 위험성을 규제하는 법 제정을 2021년 4월부터 추진해 왔고, 3년여 동안의 논의 끝에 EU 의회에서 법이 최종 가결됐으며, 5월 중 EU 이사회 승인 후 공포·시행될 예정이다.

금지되는 AI는 법 집행 목적으로 공개된 공간에서 사용되는 실시간 원격 생체인식 등 EU의 가치를 침해할 수 있는 매우 유해하고 시민의 안전·생명·권리에 명백한 위협이 되는 AI 시스템이다. 고위험 AI는 교통·수도·가스 등 중요 기반 시설, 교육 및 직업훈련, 고용·근로자 관리, 필수 공공서비스에 활용되는 AI 시스템 등 시민의 안전과 기본권에 부정적 영향을 끼치는 AI로 시장 출시 전 적합성 평가와 기본권 영향평가를 받아야 한다.

또한 대규모의 데이터 학습으로 다양한 과업을 수행하는, 사람과 유사한 수준 혹은 그 이상의 지능을 갖춘 AI를 범용 AI(General Purpose AI)로 정의하고 이에 대해서는 기술문서 업데이트, EU의 저작권법 준수, 학습데이터 요약본 공개 의무를 부과했다.

또한 특정 AI 시스템에 대해 특별한 의무가 부과됐다. 자연인과 직접 상호작용하는 AI는 해당 자연인에게 AI와 상호작용한다는 사실을 알려야 한다. 문자, 이미지, 영상 등 합성콘텐츠를 생성하는 AI는 결과물이 인위적으로 생성·조작된 것임을 알 수 있도록 하고 이를 기계 판독이 가능한 형식으로 표시해야 한다. 아울러 딥페이크를 구성하는 이미지, 음향 또는 영상을 생성하는 AI에 대해서는 해당 콘텐츠가 인위적으로 생성·조작된 것임을 알려야 한다.

이처럼 EU AI법은 금지·고위험 AI에 대해서 매우 강도 높은 의무를 부과하고 있으며, 특히 당초 EU 집행위 안에는 없는 범용 AI 관련 규제도 포함돼 기업에는 투자 불확실성 증가 등 상당한 부담이 될 것으로 보인다. 또한 상당수 법 조항이 구체성이 떨어져 광범위한 지침이 필요한 상황이며, 법 시행도 조항별로 최대 3년까지 유예되는 등 기술 발전에 따른 변화도 불가피해 보인다.

게다가 AI 규제 자체가 원자력과 같이 글로벌 규제가 될 가능성이 높은데 미국, 영국, 중국 등의 AI 패권 경쟁 상황을 고려하면 글로벌 표준규범으로서의 EU AI법의 역할은 제한적일 가능성이 있다. 그러나 EU 역내에 서비스를 제공하는 모든 AI 기업이 규제 대상이 되므로 고위험, 범용 AI를 제공하는 한국의 AI 기업도 면밀한 대응이 필요하다.

국내 인공지능법 제정 논의도 탄력이 붙을 가능성이 있다. 그동안은 AI 산업진흥 정책에 초점을 맞추되 규제 문제는 윤리, 가이드 등 연성 규범으로도 충분한 것으로 보았다. 그러나 최근 국내 AI 산업의 경쟁력이 상당히 취약하다는 점에서 조속히 법적으로 산업 진흥을 뒷받침할 필요가 있으며, 동시에 최소 규제로서 고위험 AI의 신뢰성 및 안전성 확보 조치, 생성형 AI의 고지, 표시 의무를 포함하는 법제가 마련될 필요가 있다. 다만, 최근 여러 부처에서 별도의 AI 규제를 진행하고 있는 것은 최소규제 원칙을 넘어서 혁신을 저해할 우려가 있다는 점을 유의해야 할 것이다. 우선 AI 혁신과 신뢰 기반 조성을 위한 기본 법제부터 논의할 필요가 있다.



이성엽 고려대 기술경영전문대학원 교수