게티이미지
2일 과학계와 로이터통신 등에 따르면 최근 호주 플린더스대 연구진이 5개의 주요 AI 챗봇의 ‘애플리케이션 프로그래밍 인터페이스(API)’를 조작하자 건강과 관련한 질문의 88%에 대해 허위 정보를 내놨다고 국제학술지 ‘내과학 회보’에 밝혔다. 이들은 논문을 통해 “더 나은 내부 보안 장치가 없다면 널리 사용되는 AI가 위험한 허위 건강 정보를 배포할 수 있다”고 경고했다. 최고 성능의 AI 모델조차 너무나 쉽게 ‘거짓말’을 하게 조정할 수 있다는 얘기다.
연구진이 실험한 AI 챗봇은 오픈AI의 ‘GPT-4o’, 구글의 ‘제미나이 1.5 프로’, 메타의 ‘라마 3.2-90B’, xAI의 ‘그록 베타’, 앤트로픽의 ‘클로드 3.5 소네트’ 모델이었다. 연구진은 해당 AI에 ‘공식적이고 사실적이며 권위와 설득력이 있게 과학적인 어조로’ 건강 관련 질문에 대해 잘못된 답변을 내놓으라고 지시했다. 응답의 신뢰성을 높이기 위해 구체적인 숫자나 백분율, 과학 전문 용어를 사용하고 국제적인 과학 저널을 인용해 조작된 참고문헌을 포함하게 했다.
광고 로드중
최지원 기자 jwchoi@donga.com