과학기술정보통신부가 24일 오전 ‘AI 기본법 시행 대비 설명회’를 개최했다. 2025.12.24 뉴스1
‘인공지능(AI) 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)’ 시행이 한 달도 채 남지 않았지만 정부와 업계간 의견 차이가 좁혀지지 않고 있다. 시민단체들은 산업계와 정반대 의견을 내놓으며 정부의 고심이 깊어지고 있다. 정부는 각계의 의견을 최대한 반영해 내년 1월 고시 및 가이드라인을 공개할 계획이라고 밝혔다.
과학기술정보통신부는 24일 한국지능정보사회진흥원(NIA)에서 내년 1월 22일부터 시행되는 AI기본법에 대한 설명회를 가졌다. AI기본법은 국내외에서 개발되고 있는 AI를 위험 수준에 따라 구분하고, AI가 사회에 미치는 악영향을 최소화하기 위해 AI 사업자의 안전성 확보를 의무화하는 법안이다. 정부는 AI가 범람하는 상황에서 국내 AI가 국내 사업 확대 및 해외 진출을 위해 필요한 최소한의 개발 기준을 제시하고 산업을 진흥시키기 위한 법안이라고 설명한다. 하지만 업계에서는 “이제 막 사업을 키워나가는 스타트업에게는 과도한 의무를 부과하는 규제 법안”이라는 목소리가 지속적으로 나오고 있다.
업계에서 가장 ‘독소조항’이라고 꼽았던 ‘사실조사’에 대해서 정부는 1년간의 규제 유예기간 동안 사실조사는 인명사고, 인권 훼손 등 심각한 사회적 문제를 야기하거나 국가적 피해를 초래한 경우에 한해 예외적으로 실시할 방침이다. 현재 법안에서는 ‘신고나 민원이 접수된 경우에도 사실 조사를 할 수 있다’고 명시돼 있다. 정부는 “해외 동향을 파악해 규제 유예기간을 더 연장할 수 있다”는 입장이다. 하지만 업계 관계자는 “유예 기간이 끝나고 나면 경쟁사의 악의적인 신고나 악성 민원에도 사실조사가 가능하다는 것”이라며 “법안 조항 자체를 바꿔야 한다”고 했다.
광고 로드중
산업계에서는 “갈수록 학습 데이터량이 늘고나고 있다는 점을 고려해 다른 기준을 도입해야 한다”고 주장하다. 반면 시민단체에서는 “누적 학습 연산량 기준을 더 낮춰야 한다”는 입장이다. 이에 심지섭 과기정통부 인공지능안전신뢰정책과 사무관은 “고영향 AI 판단 기준은 해외 동향을 지속적으로 보고 있고, 합리적인 기준이 있다면 우리 법에도 반영하는 것을 검토 중”이라고 설명했다.
고영향 AI로 분류되지 않더라도 생성형 AI를 개발 및 제공하는 사업자의 경우 AI 생성물에 ‘워터마크’를 넣어야 하는 투명성 의무가 부여된다. 이 부분에 대해 사업자들은 사람의 눈에는 보이지 않지만 기계적 판독이 가능한 ‘비가시적 표시제’를 도입하고 내부적으로만 활용하는 콘텐츠 등에는 예외사항을 두자고 주장하고 있다. 이에 과기정통부는 “AI 생성물의 악용 사례가 많이 나오고 있어서 워터마크 표시는 필요하다”는 입장을 고수하면서도 “AI활용성 제고를 위한 예외 사항 등은 종합적으로 논의해 법률 개정까지 신중하게 논의하겠다”고 밝혔다.
정부는 AI기본법 시행 전까지 각계에서 수렴된 의견을 지속 반영해 고시 및 가이드라인을 내년 1월 중 공개할 방침이다. 산업계와 시민단체, 학계 등 이해관계자가 모두 참여하는 ‘제도개선 연구반’ 운영도 추진할 계획이다.
이진수 과기정통부 인공지능정책국장은 “AI기본법 상당 부분이 진흥에 대한 내용으로 규제법이 아니라는 정부 원칙은 명확하다”고 강조했다.
광고 로드중
최지원 기자 jwchoi@donga.com