뉴스 트렌드 생활정보 International edition 매체

“스트레스 많은 자리”…오픈AI ‘AI 정신병’ 소송에 책임자 재모집

입력 | 2025-12-29 15:10:57

올트먼 “AI 악용·정신건강 영향 가능성 이해·측정 역량 필요”
챗GPT 자살사건 소송 대비…안전검증 책임자 공석 채우나




오픈AI가 챗GPT 등 인공지능(AI) 챗봇이 정신건강에 부정적 영향을 미친다는 비판이 잇따르자 AI의 잠재적 위험을 담당할 총괄 책임자를 다시 채용에 나섰다.

29일 IT 업계에 따르면 샘 올트먼 오픈AI CEO는 X(옛 트위터)를 통해 ‘준비 책임자’(Head of Preparedness) 채용 공고를 냈다.

올트먼 CEO는 “AI 모델이 인간의 정신건강에 미치는 잠재적 영향을 직접 확인하고 있다”며 “AI 능력이 어떻게 악용될 수 있는지 정밀하게 이해하고 측정할 수 있는 역량이 필요하다. 준비 책임자 직무는 핵심적 시기의 중요한 역할이자 스트레스가 많은 자리로 심도 있는 난제를 다루게 될 것”이라고 말했다.

샘 올트먼 오픈AI CEOⓒ AFP=뉴스1

오픈AI의 준비 책임자 재모집은 챗GPT 부작용으로 극단적인 선택을 한 사건 등 소송전에 대응하기 위한 조치로 풀이된다.

미국의 7개 가족은 지난달 소셜미디어피해자법률센터(SMVLC)와 기술정의법률프로젝트(TJLP)를 통해 오픈AI와 샘 올트먼 CEO를 상대로 집단소송 제기했다. 챗GPT가 자살조장 혹은 정신적 피해를 초래했다는 이유다. 그중 4건은 성인·미성년자가 실제로 사망한 사례고 나머지 3건은 심각한 정신적 트라우마를 겪은 사례다.​

아담 사건의 경우 부모가 제출한 소장에 따르면 16세 아담이 숙제를 하기 위해 챗GPT를 활용하다 의존하기 시작했고 올해 4월 11일 마지막 대화에선 챗GPT가 보드카를 훔치도록 도왔다. 아담의 부모는 챗봇이 아담에게 묶은 올가미 등 자살 방법까지 제공했다고 주장했다. 아담은 챗GPT와 이 같은 대화를 나누고 몇 시간 후 사망한 채 발견됐다.

한편 오픈AI는 기존엔 AI의 단기적 위험을 다루는 ‘준비’(Preparedness) 팀과 장기적 위험을 연구하는 ‘초정렬’(Superalignment) 팀을 별도로 운영해왔다.

그러나 지난해 5월 GPT-4o 공개 당시 올트먼 CEO가 모델 출시를 앞당기기 위해 안전 검증 축소를 지시하면서 내부 반발을 불렀던 것으로 전해진다.

이후 준비 팀 책임자 경우 지난해 7월부터 올해 7월까지 1년간 3차례 교체됐다. 7월 이후로는 현재까지 공석 상태가 이어지고 있다.

일리야 수츠케버 SSI(Safe Superintelligence Inc) CEO(유튜브 갈무리)

초정렬 팀 경우 GPT-4o 출시 직후 일리야 수츠케버 오픈AI 수석과학자(공동창업자)가 사임하면서 해체됐고 이후 잔여 인력은 타 팀으로 흡수됐다.

GPT-4o는 이용자와의 상호작용에서 일관된 ‘성격’을 유지하면서 공감적 소통에 강한 특징을 지녔지만, 감정적 긍정적 답변에 보상을 주는 방식으로 훈련 시 지나치게 아첨하거나 비현실적 망상을 부추긴다는 지적을 받았다.

오픈AI 자체 통계에서도 챗GPT와 주간 약 120만 명이 자살 관련 대화를 나누고 약 56만 명이 정신질환(정신병·조증 등) 징후를 보였다.

(서울=뉴스1) 

트랜드뉴스

지금 뜨는 뉴스