12일(현지시간) 캐나다 브리티시컬럼비아주 텀블러리지의 학교가 경찰 통제선으로 둘러싸여 있다. 이 학교에서는 10일(현지시간) 총격 사건이 발생해 9명이 사망했다. AP 뉴시스
인공지능(AI) 챗GPT가 10일(현지 시간) 캐나다 브리티시컬럼비아주의 산간 마을 텀블러리지의 한 학교에서 발생한 총기 난사 사건의 전조를 8개월 전 인지했음에도 불구하고, 오픈AI가 이를 당국에 알리지 않은 것으로 나타났다.
21일 월스트리트저널(WSJ)은 오픈AI가 총기 난사 사건 발생 8개월 전 용의자 제시 밴 루트셀라의 챗GPT 계정에서 위험 신호를 감지하고 계정을 차단했지만, 정작 이를 캐나다 사법 당국에 알리진 않았다고 보도했다.
보도에 따르면 밴 루트셀라는 지난해 6월경 수일에 걸쳐 챗GPT와 범행 시나리오를 논의했다. 이러한 정황은 챗GPT의 자동 필터링 시스템에 의해 ‘위험 징조’로 감지됐다. 이에 오픈AI의 직원 10여 명이 어떤 조치를 취할지 논의했고, 일부 직원은 밴 루트셀라의 잠재적 폭력성을 사법 당국에 알려야 한다고 주장했다. 하지만 오픈AI 경영진은 이를 당국에 알리지 않기로 한 것으로 전해졌다.
이에 대해 오픈AI 측은 “밴 루트셀라의 챗GPT 계정을 차단했다”면서도 “이용자의 활동이 타인에게 심각한 위해를 가할 가능성이 높고 위험이 임박한 경우에만 사법 당국에 신고해야 하는데, 이 기준에 부합하지 않는다고 판단했다”고 설명했다. 이어 오픈AI는 “사용자가 현실에 위해를 끼치는 행위를 하지 않도록 AI 모델을 훈련시키고 있다”며 “사용자가 누군가에게 위해를 가하려 한다면 이를 담당자에게 알리고, 위험이 임박했다고 판단되는 경우 사법 기관에 신고하도록 할 것”이라고 밝혔다.
밴 루트셀라는 범행에 앞서 온라인 게임 플랫폼 ‘로블록스’에서도 총격 사건을 시뮬레이션한 비디오게임을 제작하거나 총기 사진 등을 소셜네트워크서비스(SNS)에 게재한 것으로 나타났다.
댓글 0