●공개서한 보낸 구글 임직원들
27일(현지시간) 워싱턴포스트(WP), 파이낸셜타임스(FT) 등 외신에 따르면 구글 임직원 600여 명은 순다르 피차이 최고경영자(CEO)에게 공개서한을 보내 국방부와의 협상을 중단할 것을 요구했다. 이들은 서한에서 “우리는 AI가 인류에게 이로움을 주기를 원하지, 비인도적이거나 극도로 해로운 방식으로 사용되는 건 원치 않는다”고 밝혔다.
이들은 특히 치명적인 자율무기와 대규모 감시를 구체적인 우려 사례로 꼽으며 기밀 업무에 자사 모델이 활용될 경우 어떤 용도로 쓰이는지 알 수도, 막을 수도 없다고 지적했다. 그러면서 “구글이 이와 같은 해악에 연루되는 것을 막을 유일한 방법은 기밀 업무에서의 사용을 일절 거부하는 것뿐”이라고 강조했다. 이번 서한은 구글의 AI 연구소 딥마인드와 클라우드 부문 직원들이 주도했으며 서명자 중 18명 이상이 수석·디렉터·부사장급 고위 임원인 것으로 알려졌다. 인도 경제 매체 머니컨트롤에 따르면 영국 구글 딥마인드 소속 연구원 소피아 리구오리는 전쟁에서의 AI 활용과 관련해 “강력한 도구를 넘겨주면서 사용 통제권은 포기하는 셈”이라고 비판했다.
광고 로드중
구글의 AI의 군사적 활용 관련 반발은 이번이 처음이 아니다. 2018년에도 구글은 미 국방부의 드론 영상 AI 분석 사업인 ‘프로젝트 메이븐’에 참여했다가 직원 수천 명의 반발에 부딪혀 해당 계약의 갱신을 포기했다. 당시 구글은 무기나 국제법·인권 등에 어긋나는 감시와 관련한 AI 개발을 하지 않겠다는 ‘AI 원칙’을 발표했다. 다만 이후 구글은 AI 원칙을 개정해 구체적인 금지 문구를 삭제한 것으로 알려졌다.
●“AI 군사적 활용 ‘레드라인’ 필요”
AI 전쟁이 현대전의 표준으로 자리잡아가는 가운데, 전문가들은 AI의 군사적 활용에 대한 구체적인 ‘레드라인(금지선)’이 필요하다고 지적한다. 2022년 2월 드론과 AI 결합이 본격화된 러시아-우크라이나 전쟁 이후 2023년 10월 이스라엘-하마스 전쟁, 2026년 1월 미국의 베네수엘라 마두로 대통령 체포, 최근 미국-이란 전쟁까지 AI의 군사적 활용은 점차 광범위해지고 정교해지고 있다.
최재운 광운대 경영학부 교수는 “전쟁에서의 AI 활용은 이미 진행 중이고 막을 수 없기 때문에, 국제적 논의를 통해 AI의 군사적 허용 범위와 한계를 법제화하는 작업이 하루빨리 이뤄져야 한다”고 말했다. 국회 입법조사처도 26일 보고서를 통해 AI의 군사적 활용에 관한 제도적 공백 등 현실의 한계를 지적하며 “AI의 책임있는 활용을 위한 기준정립”을 과제로 꼽았다.
전혜진 기자 sunrise@donga.com