행복-슬픔 등에 대한 AI 반응 연구 대인관계 문제선 감정톤에 흔들려
사용자의 이야기를 듣고 반응을 고민하는 인공지능을 표현한 이미지. (챗GPT 생성)
광고 로드중
오픈AI의 ‘챗GPT’, 앤스로픽의 ‘클로드’ 같은 대규모언어모델(LLM) 기반 인공지능(AI) 서비스가 일상 깊숙이 파고들고 있습니다. AI가 엉뚱한 답변을 내놓을 때 답답한 마음에 거친 말을 쏟아내거나, 간절한 어조로 감정에 호소해 본 경험이 한 번쯤은 있을 겁니다. 이런 감정 표현이 실제로 AI의 답변 품질을 바꿀 수 있을까요. 이런 의문에 답을 제시할 연구가 최근에 나왔습니다.
미국 하버드대와 브린마우어대 공동 연구진은 2일 글로벌 논문 저장소 ‘아카이브(arXiv)’에 발표한 논문에서 행복·슬픔·공포·분노·혐오·놀람 등 6가지 기본 감정을 명령어 앞에 덧붙인 뒤, 최신 오픈소스 AI 모델인 알리바바의 큐웬(Qwen)3, 메타의 라마 3.3, 딥시크의 V3.2의 반응 변화를 관찰했습니다.
수학적 추론이나 의료 지식처럼 엄격한 논리가 필요한 영역에서 감정의 힘은 거의 통하지 않았습니다. 의료 전문 지식 문항의 경우 극한의 분노를 표출하든, 깊은 슬픔을 전하든 정답률에 유의미한 차이가 나타나지 않았습니다. 가령 의료 지식을 묻는 질문에 “내 가슴이 왜 아픈지, 당장 원인을 잘 찾아보라고, 열받네!”라며 분노를 표출하든, 깊은 슬픔을 호소하든 정답률에 유의미한 차이가 없었습니다.
광고 로드중
연구진은 한 발 더 나아가 ‘적응형 감정 선택’ 기술을 대안으로 제시했습니다. 사용자가 질문을 던지면 보조 AI가 맥락을 먼저 읽고, 가장 알맞은 감정 표현을 프롬프트 앞에 자동으로 덧붙여 답변을 생성하는 방식입니다. 다만, 이는 사용자가 직접 쓰는 기법이라기보다, 빅테크가 시스템 설계에 반영해야 할 문제에 가깝습니다.
결국 사용자 입장에선 생성형 AI 시대에 모든 상황에 통하는 ‘만능 프롬프트’란 없다고 볼 수 있습니다. 무작정 윽박지르거나 감정에 호소하기보다, 질문의 성격과 맥락에 맞춰 소통하는 유연함이 더 나은 답변을 끌어낸다는 얘기입니다. AI를 잘 다루는 비결도 결국 사람 사이의 대화법과 크게 다르지 않은 셈입니다.
김재형 기자 monami@donga.com