‘한국형 AI 위험관리체계’ 수립 방침 네이버-LG-삼성 등과 연구 협력
정재헌 SK텔레콤 대외협력담당 사장
광고 로드중
‘인공지능(AI) 안전연구소’가 공식 출범하면서 안전한 AI 사용을 위한 업계의 움직임도 빨라지고 있다.
과학기술정보통신부는 지난달 27일 경기 성남시 판교에 AI 안전연구소를 열고 대한민국 AI 안전 컨소시엄을 출범했다. SK텔레콤, 네이버, KT, 카카오, LG AI연구원, 삼성전자와 서울대 등이 AI 안전에 관한 정책 연구와 평가, 연구개발 등에서 협력하기 위해 업무협약을 맺었다. 3일 업계에 따르면 이들은 미국의 국립표준기술연구소(NIST)가 2023년 제안한 AI 위험관리체계(RMF)를 참고해 ‘한국형 AI 위험관리체계’를 만들 방침이다. 이를 위해 마이크로소프트(MS) 등 해외 빅테크들의 앞선 거버넌스 사례를 검토 중이다.
특히 SK텔레콤은 올 1월 회사 경영에 ‘AI 거버넌스’를 도입하기로 결정하고, 3월 주주총회를 통해 AI 거버넌스 원칙인 ‘T.H.E. AI’를 공개했다. 이를 바탕으로 행동 원칙을 담은 ‘AI 행동 규범’도 수립해 사규에 반영하고 전 구성원 실천 서약을 마쳤다.
광고 로드중
정재헌 대외협력담당(CGO·사장)은 “AI 기술의 파괴적 속성을 적절히 제어하고 예방하는 것은 AI 발전과 확산을 위한 가장 큰 도전이 될 것”이라며 “앞으로 AI 거버넌스 정립과 확산을 주도해 나가겠다”고 강조했다.
장은지 기자 jej@donga.com