36개국 150개 기업 전문가 선언 “인공지능 이용한 자율살상 무기는 핵-생화학무기와는 완전히 달라 세계의 리더들, 가이드라인 정해야”
인공지능(AI) 기술로 자율살상무기를 만드는 것에 반대하는 단체 ‘치명적인 자율살상무기 금지(Ban Lethal Autonomous Weapons)’가 제작한 자율살상무기 시뮬레이션 영상의 일부. 한 남성(오른쪽)이 차량 뒷문을 열고 리모컨을 조작해 AI 드론들을 하늘로 날리고 있다. Ban Lethal Autonomous Weapons 홈페이지 동영상 캡처
로봇과 함께 살아가는 인간 사회의 모습을 그린 공상과학(SF) 영화 ‘아이, 로봇’(2004년)에 등장하는 ‘로봇의 법칙’일부다. 유명 SF 작가 아이작 아시모프가 1950년 세운 로봇의 원칙을 차용했다. 2035년을 배경으로 한 이 영화는 미래 로봇에 대한 인간의 기대감과 두려움을 함께 보여줬다.
기술은 생각했던 것보다 훨씬 빠르게 발전했다. 로봇에 관한 법칙이 영화의 배경이 된 시기보다 17년 일찍 선언된 것이다. 전 세계 36개국 150개 기업 2400명 이상의 인공지능(AI) 연구자들은 18일 스웨덴 스톡홀름에서 열린 ‘2018 국제 인공지능 협력 회의(IJCAI)’에서 ‘인간을 식별하고 공격하는 무기를 만드는 데 참여하지 않겠다’고 선언했다.
AI 기술이 무기 제작에 사용돼서는 안 된다는 연구자들의 목소리가 나온 것은 처음이 아니다. 지난해 AI와 로봇 전문가 100여 명은 유엔에 ‘AI 무기가 제3의 전쟁을 불러올 것’이라는 내용의 공개서한을 보냈다.
자율살상무기를 개발하고 있다는 의혹이 불거져 기업이나 국가기관이 연구를 중단한 사례도 있다. 지난해 4월 구글 직원 3000여 명은 구글이 미 국방부와 협력해 진행하는 ‘메이븐 프로젝트’가 공격용 AI 드론 개발로 이어질 수 있다는 논란이 일자 순다르 피차이 CEO에게 서한을 보내 연구를 중단시켰다. 한국의 KAIST도 한 차례 홍역을 치렀다. 올해 4월엔 KAIST가 한화그룹 계열사인 한화시스템과 국방인공지능 연구센터를 열자 세계 로봇학자들이 ‘자율살상무기를 개발하는 것 아니냐’며 KAIST에 ‘연구 보이콧’을 선언했다. 이 논란은 KAIST가 “연구센터는 방위산업과 관련한 물류 시스템 개발에 활용될 것”이라고 해명한 끝에야 잠잠해졌다.
모든 전문가들이 ‘AI 디스토피아론’을 주장하는 것은 아니다. 마크 저커버그 페이스북 CEO는 대표적인 AI 낙관론자다. 저커버그는 지난해 “기술은 지금까지 항상 좋은 곳에도, 나쁜 곳에도 사용돼 왔다. 어떤 일이 일어날지 미리 생각할 필요가 없다”며 AI의 발전 속도에 제동을 걸려는 이들을 비판했다. 마이크로소프트 창업자 빌 게이츠도 AI 낙관론을 펴고 있다.