과기정통부, '제2차 AI 윤리정책 포럼' 개최 윤리·기술·교육 분과 논의…핵심은 자율규제
광고 로드중
정부가 챗GPT 등 생성형 인공지능(AI)의 확산에 발 맞춰 AI 윤리의식과 신뢰성을 높이기 위한 혁신 방안에 대해 업계와 논의에 나섰다. AI 신뢰성을 담보하는 동시에 활용도까지 촉진할 수 있는 방안을 찾아낸다는 목표다.
과학기술정보통신부는 5일 서울 서초구 엘타워에서 정보통신정책연구원(KISDI), 한국정보통신기술협회(TTA)와 함께 ‘제2차 인공지능 윤리정책 포럼’을 개최했다.
이번 AI 윤리정책 포럼은 AI의 윤리적 개발 및 활용에 대해 논의하고 AI 신뢰성 검·인증 등 주요 정책과제에 대한 의견을 수렴하기 위해 개최됐다.
광고 로드중
포럼은 윤리분과, 기술분과, 교육분과로 구성됐다. 이번 포럼에서는 분과별로 생성형 AI 활용과 관련한 윤리적 쟁점들을 발표하고, 윤리와 신뢰성을 담보하면서 초거대·생성형 AI의 활용을 촉진할 수 있는 방안에 대해 논의했다.
먼저 윤리분과 세션에서는 노태영 위원(김·장 법률사무소 변호사)이 ‘법률서비스 분야에서의 생성형 AI 활용과 윤리적·법적 쟁점’이라는 주제로 발표를 진행했다. 노 위원은 개인 법률상담이나 기업 계약서 작성 등에 사용될 수 있는 생성형 AI는 민감한 정보를 처리하고 산출과정에 대한 설명이 어려워 이용자에 대한 안전성 및 책임성·연대성 등이 고려돼야 한다고 강조했다.
기술분과 세션에서는 김지관 한국IBM 실장이 ‘신뢰 가능한 AI 구현을 위해 기업이 고민해야 할 것들’이라는 주제로 데이터, AI 모델, 위험관리 체계라는 3가지 측면에서 고려해야 할 부분을 발표했다. 그는 기업이 데이터 및 AI 모델의 소유 및 사용주체를 명확히 하고 이에 대한 관리를 수행할 수 있도록 정부에서 가이드라인을 제시해야 한다고 역설했다.
마지막 교육분과 세션에서는 김기영 아티피셜소사이어티 대표가 ‘생성형 AI를 활용한 맞춤형 교육의 현주소 및 방향성’이라는 주제를 맡았다. 김 대표는 향후 교육 분야에서 생성형 AI의 활용도가 높아질 것으로 예상되나 다른 영역에 비해 엄격한 윤리적 기준이 적용돼야 하므로 인간 전문가에 의한 감수 및 평가는 여전히 중요할 것이라고 진단했다. 그는 특히 학습데이터의 진실성, 저작권 확보, 다양성 및 인간의 엄격한 검증과 관련된 부분을 강조했다.
광고 로드중
[서울=뉴시스]