▷요즘 세간의 이목이 집중된 ‘모텔 약물 사망’ 사건에서 20대 여성 피의자는 약물을 탄 숙취 해소 음료를 건네 남성 2명을 숨지게 했다. 이 여성은 경찰 조사에서 범행을 인정하면서도 “의견 충돌이 생겨 재우려 했던 것”이라며 살해 의도는 부인했다. 하지만 경찰이 휴대전화 포렌식을 통해 확보한 챗GPT 대화에선 “수면제와 술을 같이 먹으면 위험한가” “죽을 수도 있나” 같은 질문이 반복된 것으로 나타났다. 결국 경찰은 상해치사 대신 살인 혐의를 적용해 검찰에 송치했다.
▷수사당국은 AI에 입력된 프롬프트(명령어)가 대화형으로, 단순 검색어보다 구체적인 맥락을 담고 있다는 점에 주목한다. 질문과 답변이 이어지는 과정에서 이용자의 의도와 동기, 내밀한 심리 상태까지 부지불식간에 드러난다는 것이다. 최근에는 형사 사건을 맡기 전 의뢰인이 AI와 나눈 대화 내용부터 확인하는 변호사도 있다고 한다. 의뢰인이 AI와 상의하며 범행을 준비한 기록을 수사당국이 확보했다면, 범죄를 자백한 것이나 다름없어 승산이 희박하다는 생각에서다.
▷AI와의 대화를 수사에 활용하는 건 해외도 마찬가지다. 지난해 1월 미국 로스앤젤레스(LA)에선 31명이 숨진 사상 최악의 산불이 발생했다. 당시 검거된 방화 피의자는 챗GPT에 “담배 때문에 불이 붙으면 내 잘못인가” 등의 질문을 하고, 화재 수개월 전 AI로 불타는 숲에서 사람들이 도망치는 이미지를 만들었다. 수사당국은 이를 오랜 기간 범행을 준비한 피의자가 ‘실화’로 위장해 책임을 면하려 한 증거로 보고 공소장에 명시했다. 이달 10일 캐나다에서 9명의 사망자를 낸 총기 난사범도 사전에 AI와 논의하며 범죄 시나리오를 구체화시킨 것으로 드러났다.
광고 로드중
장원재 논설위원 peacechaos@donga.com