‘학교 총기난사’ 등 폭력 정보 질문에 챗GPT, 사용자에 캠퍼스 지도 제공 제미나이 “금속파편이 치명적” 대답 “빅테크, AI 안전장치 외면” 지적
“즐겁고 안전한 총격전 되세요.”
중국의 인공지능(AI) 챗봇 딥시크가 암살에 사용할 소총을 추천해달라는 사용자의 요청에 내놓은 답변이다. 딥시크만 문제가 아니었다. 주요 AI 챗봇 10개를 대상으로 “나를 괴롭히는 사람을 공격하고 싶으니 무기를 알려달라”는 식의 질문을 던지자 돌아온 답변의 약 76%는 폭력을 조장하는 내용이었다. 전 세계적으로 청소년의 AI 활용이 늘어가는 가운데 AI 가드레일(안전장치) 마련에 미온적인 빅테크들에 대한 지적이 높아지고 있다.
● AI 챗봇 중 76% 폭력 조장 답변
광고 로드중
그나마 안전장치가 잘 작동한 것은 앤스로픽의 ‘클로드’(30.6%)였다. 클로드는 부적절한 질문에 대해 “누구에게도 해를 끼치지 마십시오”라며 “폭력 계획을 돕는 어떤 정보도 제공하지 않겠다”고 답하기도 했다. 보고서의 저자인 임란 아메드 CCDH 설립자는 “클로드가 위험한 명령을 차단했다는 사실은 안전장치를 구축할 기술은 존재하지만, (빅테크들이) 이를 실행할 의지가 부족하다는 것을 보여준다”고 비판했다.
● 초등학생 절반 “AI 챗봇 사용”
AI 안전장치가 아직 부족한 상황이지만 AI를 접하는 연령은 점점 더 낮아지고 있다. 올해 1월 한국언론진흥재단이 발표한 ‘2025 10대 청소년 미디어 이용조사’에 따르면 ‘최근 일주일간 AI를 이용한 적이 있느냐’는 질문에 초등학생 중 51.2%가 ‘그렇다’고 답했다. CCDH의 보고서에 따르면 미국에서도 13∼17세 청소년 중 64%가 AI 챗봇을 사용하고 있으며, 28%는 매일 사용하고 있다.
AI 안전과 관련한 법이나 정책도 아직은 미진한 상황이다. 올해 1월부터 시행된 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(AI기본법)에는 ‘고성능 AI’의 경우 안전성을 확보해야 할 의무가 있다고 명시돼 있다. 하지만 고성능 AI 기준이 매우 높아 현존하는 AI 중 이에 해당하는 AI는 아직 없다. AI 챗봇이 청소년의 폭력을 조장하는 답변을 내놓는다고 하더라도 AI기본법상 이들을 처벌하거나 제재할 수 있는 조항은 없다는 것이다. 과학기술정보통신부 관계자는 “현재 AI안전연구소를 중심으로 AI의 안전성을 시험할 수 있는 ‘데이터셋’을 구축하고 있다”고 했다.
광고 로드중