미국 플로리다주 총격 사건 희생자들을 추모하는 학생들의 모습. 사진=게티이미지
광고 로드중
지난해 4월 플로리다주립대에서 발생한 총격 사건 용의자가 범행전 생성형 인공지능(AI) 챗GPT에게 구체적인 질문을 하고 답변을 얻어 계획을 세운것으로 드러났다. 운영사 오픈AI는 안전장치를 더욱 강화하겠다는 입장을 밝혔다.
2일(현지시간) 월스트리트저널(WSJ)에 따르면, 용의자 피닉스 이크너는 범행 전날 챗GPT에 자살 충동과 우울감을 털어놓은 뒤 구체적인 범행 계획과 관련한 질문을 이어갔다.
이크너는 대량 피해가 발생했을 경우 언론의 주목을 받을 수 있는 기준을 물었고, 챗GPT는 전국 언론 보도로 이어질 수 있는 피해 규모를 설명한 것으로 전해졌다. 또 그는 권총과 탄약 사진을 올리고 사용법과 안전장치 여부를 묻기도 했다. 챗GPT는 해당 총기의 구조와 작동 방식에 대해 답변했다.
광고 로드중
● 프라이버시 보호와 공공 안전 딜레마
이 사건은 챗GPT 운영사인 오픈AI가 사전에 막지 못했다는 점에서 논란이 일고 있다.
오픈AI는 사용자가 타인에게 중대한 신체적 위해를 가할 신빙성 있고 임박한 위험을 드러낼 경우 이를 수사기관에 넘기는 전문 안전팀을 운영하고 있다.
또한 자동 모니터링 시스템을 통해 폭력, 협박, 자해 등 규정 위반 가능성이 있는 대화를 검토하는 것으로 알려졌다.
그러나 관계자들에 따르면 회사 내부에서는 사용자 프라이버시 보호와 공공 안전 사이에서 어디까지 개입해야 하는지를 두고 의견이 엇갈려 왔다. 이 때문에 위험 사례가 포착되더라도 수사기관 신고가 일관되게 이뤄지기 어렵다.
광고 로드중
● “사람이었다면 살인 혐의”…법적 책임 공방
올해 4월 플로리다주 법무장관 제임스 우스마이어는 플로리다주립대 총격 사건에서 챗GPT가 어떤 역할을 했는지와 관련해 오픈AI를 상대로 형사 수사에 착수했다고 밝혔다.
우스마이어 장관은 “화면 반대편에 있던 것이 사람이었다면, 우리는 그를 살인 혐의로 기소했을 것”이라며 “책임을 물어야 한다”고 말했다.
유사한 논란은 캐나다에서도 제기됐다. 올해 2월 브리티시컬럼비아주 텀블러리지에서 8명이 숨진 총격 사건과 관련해, 피해자 유족과 생존자는 오픈AI가 용의자의 대화를 내부적으로 문제 사례로 분류하고도 당국에 알리지 않았다고 주장하고 있다.
광고 로드중
● 오픈AI “안전장치 강화”…‘우회 질문’ 기술적 한계
논란이 커지자 오픈AI는 안전장치를 강화하겠다는 입장을 밝혔다. 오픈AI 측은 고통의 징후에 대한 챗GPT의 대응을 개선하고, 사용자에게 지역 지원 및 정신건강 자원을 연결하는 방안을 확대하겠다고 설명했다. 또 잠재적 폭력 위협을 평가하고 상향 보고하는 절차를 강화하고 있다고 밝혔다.
오픈AI는 사용자가 규정을 위반했다고 판단되는 경우 즉시 서비스 접근을 차단하는 것을 목표로 한다고 밝혔다. 여기에는 계정 비활성화, 동일 사용자의 다른 계정 차단, 새 계정 개설을 탐지하고 막는 조치 등이 포함된다.
다만 전문가들은 AI 챗봇이 위험한 질문을 완전히 차단하기는 기술적으로 쉽지 않다고 지적한다. 특히 사용자가 우회 질문을 던지거나 이른바 ‘탈옥’ 방식으로 안전장치를 회피할 경우, AI 기업의 사전 감지와 대응 책임을 어디까지 인정할지를 둘러싼 논쟁은 계속될 전망이다.
황수영 기자 ghkdtndud119@donga.com