열흘째로 접어든 미국과 이스라엘의 이란 공습에 대한 영국 일간 가디언, 파이낸셜타임스(FT) 등 서방 언론들의 주된 평가다. ‘AI 기반 폭격 체계’가 전장 정보 수집 및 평가, 목표물 식별, 공격 승인 준비, 전쟁 시뮬레이션 등 핵심 역할을 수행하고 있다는 것. 현대 전쟁의 무게 중심이 무기 체계에서 데이터와 알고리즘의 싸움으로 이동 중이라는 얘기다.
전쟁서 AI로 인한 오폭 우려 커져
미국에 이번 공습은 사실상 ‘오픈북 테스트’에 가까웠다. 수 주 전부터 항공모함 두 척을 배치하며 2003년 이라크전 이후 최대 규모의 병력을 집결시켰다. 도널드 트럼프 미국 대통령 또한 공습 가능성을 공개 언급하며 연일 공격 시기를 저울질했다. 이란으로선 대비할 시간이 비교적 많았다. ‘광범위하게 예견된 공습은 자국 군인들을 위험에 빠뜨릴 수 있다’는 우려까지 나왔지만, 결과는 이란에 치명적이었다.
미국과 이스라엘은 개전 12시간 만에 약 900회의 공습을 퍼부었다. 과거 최대 6개월이 걸릴 수 있던 정보 수집부터 폭격 승인까지의 과정을 앤스로픽의 AI 시스템 ‘클로드’가 실시간 지원한 덕분이다. 알리 하메네이 최고지도자 등 이란 수뇌부 상당수가 개전 초 대거 목숨을 잃은 것도 같은 맥락이다. 하메네이의 후계자도 제거하겠다는 트럼프의 경고가 더 이상 허언으로 들리지 않는 이유다.
하지만 AI의 오류 가능성에 대한 우려도 깊어지고 있다.
예컨대 이스라엘은 가자 전쟁 당시 AI 시스템 ‘라벤더’를 통해 약 3만7000명의 표적을 식별한 것으로 알려졌다. 이 과정에서 인간은 AI가 차려준 밥상에 공격 승인 버튼을 누르는 거수기로 전락했다는 자조 섞인 증언이 나왔다. 일상에서 사용하는 AI 플랫폼들이 때때로 황당한 오류를 범하듯, 전장의 AI 역시 10% 내외의 표적 오류를 범할 수 있다는 지적도 있었다.
실제로 이번 이란 공습에서도 표적 오류로 의심되는 민간인 사상자가 다수 발생했다. 이란 혁명수비대 부지 인근 여자 초등학교가 폭격당해 최소 175명의 민간인이 숨진 것이 대표적이다. 미국과 이스라엘이 전쟁 초 공격 명분을 훼손시킬 수 있는 초등학교 폭격을 의도적으로 감행했을 가능성이 거의 없다는 점에서 AI 등에 의한 표적 오류라는 의혹이 커지고 있다. AI 무기 확증편향 통제 방안 절실
AI의 확증편향성도 문제다. 영국 런던 킹스칼리지 케네스 페인 교수 연구팀에 따르면 AI는 불리한 상황에서 협상보다 핵무기 사용(95%)을 선택하는 등 공격적 성향을 보였다.
책임 소재도 불분명하다. AI 오류로 민간인 피해가 발생한다면 그 책임은 누가 져야 하는가? 공격을 승인한 지휘관인가 프로그래머인가? 아니면 데이터를 제공한 국가인가? 사고가 터져도 AI에 책임을 전가하는 상황이 발생할 가능성이 높다. 그러나 AI 무기 규제에 대한 국제 사회의 논의는 아직 걸음마 단계다.
전쟁은 기술 발전의 잔혹한 시험대였다. 알프레드 노벨의 다이너마이트는 광산을 넘어 전장을 피로 물들였다. 로버트 오펜하이머의 원자폭탄은 대량 살상, 나아가 인구가 멸망할 수 있다는 우려를 낳는 시대를 열었다.
2026년 우리는 AI라는 ‘가장 효율적인 살인 도구’를 또다시 목도하고 있다. AI 무기를 제대로 통제하지 못한다면 삶과 죽음의 결정권을 AI 알고리즘에 맡기는 상황으로 내몰리게 된다. “세상의 파괴자가 됐다”는 오펜하이머의 탄식보다 더 깊은 절망과 곧 마주하게 될지 모를 일이다.
댓글 0