“인공지능 무기 개발 막아야” 호킹-머스크 등 세계 석학들 경고

  • 동아일보
  • 입력 2015년 7월 28일 16시 55분


코멘트
“인공지능(Artificial Intelligence·AI) 기술로 만든 무기는 미래의 ‘칼라시니코프(러시아제 소총 AK47)’가 될 것입니다. 인간의 통제를 벗어난 AI 무기 개발을 법으로 금지해야 합니다.”

세계적 천체물리학자인 스티븐 호킹 박사, 전기차 업체 테슬라의 최고경영자(CEO)이자 민간 우주선 회사 스페이스X의 최고기술책임자(CTO)인 일론 머스크, 애플의 공동창업자 스티븐 워즈니악 등 세계적인 석학과 기업가 1000여 명의 서명이 담긴 서한이 27일(현지시간) 공개됐다. 서한은 이들의 연구 모임인 ‘삶의 미래 연구소(Future of Life Institute·FLI)’ 홈페이지를 통해 발표됐으며, 1000여 명의 명단도 함께 공개됐다.

이들은 서한에서 ‘AI 자동화 무기’ 개발을 금지하자고 했다. 아직 존재하지 않는 AI 자동화 무기는 공격 대상만 미리 설정해 놓으면 기준에 맞춰 목표를 공격하는 무기로 인간의 개입 없이 알아서 작동한다. 이들은 AI 자동화 무기 개발이 핵무기 개발과 같은 ‘군비 경쟁’으로 이어질 수 있다고 우려했다. 주요 군사 강국들이 AI 무기 개발에 뛰어든다면 세계적인 군비 경쟁은 불가피하다는 것이다.

특히 AI 무기는 핵무기보다 개발하기 쉽다는 점도 문제로 지적됐다. AI 무기는 핵무기와 달리 원재료를 구하기가 어렵지 않고 개발비도 핵무기만큼 많이 들지 않기 때문에 대량생산될 경우 세계적으로 쉽게 이용될 수 있다는 것이다. 이들은 “AI 무기가 암시장을 통해 테러리스트와 독재자의 손에 들어간다면 ‘인종 청소’ 등에 이용될 수 있다”고 염려했다.

AI 무기 개발자들을 향해 “대부분의 화학자와 생물학자들이 화학무기나 생물학무기 개발에 관심이 없듯 대다수의 AI 연구자들도 AI 무기 개발에 관심이 없다”고 일침을 가했다. 또 화학자와 생물학자들이 화학·생물 무기금지협약을 지지하고, 물리학자들이 핵무기와 레이저 무기 개발 금지를 지지하는 것처럼 AI 연구자들도 AI 무기 개발 금지에 동참할 것을 촉구했다.

호킹 박사와 머스크 회장은 이번 서한 이전에도 수차례 AI 무기 개발과 관련해 경고의 메시지를 보냈다. 호킹 박사는 지난해 영국 BBC방송과의 인터뷰에서 “AI 발전이 인류 종말을 부를 수도 있다”고 밝혔다. 머스크 회장 역시 “AI 기술이 인류에게 중대한 위협을 줄 수 있다”고 밝힌 바 있다.

신선미 동아사이언스기자 vamie@donga.com
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스

‘터미네이터: 제니시스’에 등장하는 터미네이터 T-1000. 인간보다 뛰어난 초지능을 보유하고 인간을 위협한다.

‘터미네이터: 제니시스’에 등장하는 터미네이터 T-1000. 인간보다 뛰어난 초지능을 보유하고 인간을 위협한다.

영화 ‘터미네이터: 제니시스’에 등장하는 터미네이터 T-1000. 인간보다 뛰어난 초지능을 보유하고 인간을 위협한다.

영화 ‘터미네이터: 제니시스’에 등장하는 터미네이터 T-1000. 인간보다 뛰어난 초지능을 보유하고 인간을 위협한다.

2011년 미국 뉴욕 요크타운에서 인공지능과 사람의 퀴즈대결 연습경기가 열렸다. 켄 제닝스, 왓슨 아바타, 브래드 러터(왼쪽부터)가 대결하고 있다. 이 대결에서는 왓슨이 이겼다.

2011년 미국 뉴욕 요크타운에서 인공지능과 사람의 퀴즈대결 연습경기가 열렸다. 켄 제닝스, 왓슨 아바타, 브래드 러터(왼쪽부터)가 대결하고 있다. 이 대결에서는 왓슨이 이겼다.

다음
이전