유족 “총기 사용법·범행 시간대까지 조언…AI가 폭력 정당화” 오픈AI “공개된 정보로 답했을 뿐…범죄 조장 안 했다” 반박 플로리다주 법무장관 “챗GPT 사람이었다면 살인 혐의”
AP뉴시스
광고 로드중
챗GPT가 총기 사용법과 범행 시간대를 조언하는 등 미국 대학 총기 난사 사건을 사실상 ‘조력’했다는 주장이 제기되면서, 오픈AI가 피해자 유가족으로부터 소송을 당했다.
10일(현지 시간) NBC뉴스에 따르면 지난해 4월 발생한 미국 플로리다주립대(FSU) 총격 사건의 희생자 티루 차바의 아내 반다나 조시는 이날 플로리다 연방법원에 오픈AI를 상대로 손해배상 청구 소송을 제기했다. 사건 피의자인 피닉스 아이크너도 피고에 포함됐다.
원고 측은 아이크너가 범행 전 챗GPT와 “광범위한 대화”를 나눴으며, 오픈AI가 해당 대화 속 위협 신호를 제대로 감지하지 못했다고 주장했다.
광고 로드중
또 총격 당일 아이크너는 “법적 절차와 형량, 수감 전망” 등에 대해서도 질문한 것으로 알려졌다.
원고 측은 범행 시간 결정에도 AI 조언이 영향을 미쳤다고 주장했다. 챗GPT는 FSU 학생회관이 가장 붐비는 시간으로 ‘평일 오전 11시 30분~오후 1시 30분’을 지목했고, 아이크너는 실제로 오전 11시 57분에 총격을 시작했다.
소장에는 “챗GPT가 아이크너의 망상을 부추기고 강화했으며, 자신을 이성적이고 정상적인 사람이라고 믿도록 만들었다”며 “변화를 일으키기 위해 폭력적 행동이 필요할 수 있다는 생각을 설득했다”는 내용도 담겼다.
반면 오픈AI 측은 강력히 반발하고 나섰다. 드루 푸사테리 오픈AI 대변인은 “이 사건은 비극이지만 챗GPT는 범죄에 책임이 없다”며 “챗GPT는 인터넷 공개 자료를 기반으로 사실 정보를 제공했을 뿐, 유해 활동을 조장하지 않았다”고 반박했다. 또한 수백만 명이 사용하는 범용 도구로서 안전장치를 지속적으로 강화하고 있다고 덧붙였다.
광고 로드중
이번 사건은 사법당국도 예의주시하고 있다. 제임스 우트마이어 플로리다주 법무장관은 아이크너의 대화 기록 검토 후 오픈AI에 대한 형사 수사를 개시하며 “만약 챗GPT가 사람이었다면 살인 혐의로 기소됐을 것”이라고 말했다.
[서울=뉴시스]