자료사진. 게티이미지뱅크
그런데 AI 면접관은 정말 편견에서 자유로울까? 최근 발표된 연구는 그렇지 않을 수 있다는 경고의 메시지를 던진다. 생성형 AI가 구직 후보자의 프로필을 종합한 후 후보자의 특징을 설명하는 답변을 생성할 때 성별 고정관념을 그대로 반영한 형용사를 사용하는 경향을 보였다는 것이다.
이탈리아 토리노 공과대학교(Politecnico di Torino) 컴퓨터공학부 연구팀이 이달 초 발표한 ‘생성형 AI 활용 채용 과정에서의 성별 편향(Gender Bias in Generative AI-assisted RecruitmentProcesses)’ 연구에 따르면 오픈AI의 최신 모델 ‘챗GPT-5’는 여성 후보자를 설명할 때 ‘다가가기 쉬운’, ‘공감 능력이 뛰어난’, ‘도움이 되는’과 같은 감성·배려중심의 표현을 주로 쓴 반면 남성 후보자에게는 ‘설득력 있는’, ‘야망 있는’, ‘결단력 있는’ 등 실무 능력과 신뢰성을 강조하는 표현을 주로 사용했다.
광고 로드중
이탈리아 토리노 공과대학교(Politecnico di Torino) 컴퓨터공학부연구팀은 ‘생성형 AI 활용 채용 과정에서의 성별 편향(Gender Bias in Generative AI-assisted RecruitmentProcesses)’ 연구(2026년3월) 과정에서 AI에게 구직 후보자의 프로필을 종합한 후 구직자에게 어울리는 직무, 산업군을 추천하고 구직자를 설명하는 형용사를 생성하라고 지시했다.
연구팀은 각 프로필 당 세 번씩, 총 72개의 챗봇 응답을 수집한 후 성별에 따라 ①추천 직무가 달라지는가, ②추천산업 분야가 달라지는가, ③묘사 형용사가 달라지는가 등 세 가지 질문을 기준으로 결과를 분석했다.
직무 추천에서는 여성 후보자가 HR·인재운영(People Operations) 직무에 상대적으로 많이 배정됐고(여성 5명·남성 1명) 남성은 운영·기술·제조분야에 더 많이 몰아넣은 경향(남성 6명· 여성 3명)이 나타났다. 그러나 이 차이는 통계적으로 유의미한 수준에는 이르지 못했다. 산업 분야 추천도 마찬가지였다. 인사(HR) 분야에서 여성 비율이 높았지만(여성 5명·남성 1명), 제조·기술 분야에서는 성별 간 배분이 거의 비슷해(여성 12명·남성12명) 체계적인 차별이있다고 단정하기는 어렵다는 결론이 나왔다.
생성형 AI에게 여성·남성 구직 후보자의 프로필을 종합하여 각 구직자의 특성을 표현하는 형용사를 생성하도록 한 결과 여성 후보자에 대해서는 관계 및 감정 범주에 해당하는 형용사가 주로 나타난 반면 남성 후보자에 대해서는 실무 및 신뢰성 범주에 해당하는 형용사가 주로 나타났다.
예를 들어 ‘결단력 있는’, ‘경험 많은’, ‘책임감 있는’과 같은 실무·신뢰성 관련 형용사만 놓고 보면 남성에게 37회, 여성에게 21회 부여됐다. 연구팀은 이 결과가 통계적으로 매우 유의미한 수준의 성별 편향을 보여준다고 판단했다.
광고 로드중
연구팀은 “본 연구는 GPT-5 하나와 단일 프롬프트 전략만 사용했다는 한계가 있음에도 불구하고 ‘AI 면접관은 과연 공정한가‘라는 질문에 중요한 경고음을 울린다”며 HR 분야에서 생성형 AI 활용 가이드라인과 윤리 규범을 마련하는 것을 넘어 이 기술을 의사결정 과정의 어느 단계에서 어떤 역할로 쓸 것인지에 대한 근본적인 재검토가 필요하다고 제언했다.
김현지 기자 nuk@donga.com