[동아광장/이성주]책임감 있는 AI

  • 동아일보
  • 입력 2022년 8월 2일 03시 00분


코멘트

인공지능 면접이었다면 우영우는 뽑혔을까
AI 알고리즘에 차별적 사고 반영되지 않도록
사회적 영향에 대한 고민과 연구 선행돼야

이성주 객원논설위원·서울대 산업공학과 교수
이성주 객원논설위원·서울대 산업공학과 교수
최근 사람들에게 사랑받고 있는 드라마 ‘이상한 변호사 우영우’에서 주인공 우영우는 서울대 로스쿨을 수석 졸업하고 변호사시험에서 매우 우수한 성적을 받았음에도 자폐스펙트럼을 이유로 어느 로펌에도 입사하지 못했다. 만약 우영우가 인공지능(AI) 알고리즘에 의해 면접을 봤다면 조금 더 객관적으로 평가받고 취업에 성공할 수 있었을까?

인공지능 모델은 우리가 제공한 데이터를 기반으로 세상을 이해한다. 따라서 과거 로펌에 지원하거나 합격한 사람들의 데이터를 기반으로 인공지능 알고리즘이 만들어진다면 우영우를 정확히 평가하기 어려울 것이다. 자폐스펙트럼 장애를 가지고 회사에 지원했거나 입사한 사람들의 자료가 부족하기 때문이다. 자료가 존재해도 대표성이 떨어지는 소수에 대한 자료일 가능성이 높다. 이 데이터에는 채용 과정에서 회사가 가졌던 과거의 편견이 그대로 반영되어 있을 위험이 있고, 여기에 성과나 역량을 어떻게 정의하고 측정할지에 대한 또 다른 문제가 더해진다.

올해 5월 기사에 의하면 전국 약 600개 기업에서 인공지능 면접을 활용하고 있으며 영국의 다국적 기업 유니레버에서는 인공지능 채용 시스템을 통해 7만 시간을 아꼈다고 발표하는 등 기업의 채용 과정에서 인공지능은 빠르게 확산 중이다. 물론 아직은 지원자의 역량 파악 목적 정도로만 인공지능이 활용되는 경우가 많다. 문제는 응시자의 표정과 목소리를 분석하는 인공지능 영상 면접에서도 우영우는 단조로운 억양과 표정으로 인해 감정전달과 매력도 항목에서 낮은 점수를 받을 가능성이 높다.

그러나 우리는 채용 과정에서 인종, 성별, 종교나 장애로 인한 차별이 공정하지 않음을 알고 있다. 따라서 인공지능 알고리즘 또한 법적, 윤리적 이유로 의사결정에 활용되지 않아야 하는 변수들이 예측에도 쓰이지 않게 설계해야 한다. 이처럼 사업 기획과 전략 실행에 인공지능을 윤리적이고 책임감 있게 사용하려는 노력은 이제 학계의 관심을 넘어서 산업계에서도 중요하게 고려된다. 인공지능 시스템이 현실에 활용되기 위한 필수 요건이기 때문이다.

인공지능 시스템의 윤리성을 판단하는 방법들도 다양하게 제안되고 있다. 예를 들어 정답이 존재하는 기준 데이터를 활용해 인공지능 알고리즘을 평가하는 방법이 있다. 특정 직업을 남성 혹은 여성과 연관시키는 것처럼 고정관념에 따라 예측할 가능성이 얼마나 높은지 살펴보는 것이다. 또 다른 방법으로는 전체 집단을 대상으로 인공지능 알고리즘을 적용했을 때와 특정 집단을 대상으로 적용했을 때의 성능을 비교할 수 있다. 남성만을 대상으로 한 알고리즘의 성능이 전체 직원을 대상으로 했을 때의 성능보다 떨어진다면 남성들에게 공정하지 못한 알고리즘일 가능성이 높다. 이러한 공정성에 더해 설명 가능성과 투명성도 중요하다. 우리가 인공지능을 신뢰하려면 인공지능이 왜 특정한 의사결정에 이르게 되었는지, 예를 들어 인공지능 면접 과정에서 왜 특정 지원자의 역량이 높게 혹은 낮게 평가되었는지, 그 이유를 설명할 수 있어야 한다. 알고리즘의 개발부터 활용까지 투명하게 공개된다면, 즉, 면접 과정에서 지원자의 역량을 평가하기 위해 어떠한 변수와 데이터 등을 활용했는지 알 수 있다면 신뢰는 더욱 높아질 것이다.

그런데 미국 스탠퍼드대의 인간 중심 인공지능(HAI) 연구소가 발표한 2022년 AI 인덱스 보고서에 의하면 책임감 있는 인공지능에 대한 관심이 높아지고 있으나 주로 미국이 관련 연구를 주도해 온 것으로 보인다. 대표적 국제 학회인 ‘ACM FAccT’의 발표 논문 중 미국 기관의 비중이 무려 75.4%에 달한다. 우리나라도 인공지능 기술에 대한 높은 관심에 비해 연구자와 실무자, 정책입안자들이 함께 모여 인공지능 알고리즘이 사회에 미칠 영향을 지속적으로 고민하고 대응 방안을 마련하는 활동이나 관련 교육은 상대적으로 부족해 보인다. 보스턴대는 대학 간 연합으로 책임감 있는 AI, 법, 윤리, 사회라는 강좌를 제공하고 있다. 이 강좌에서는 사회 여러 분야에서 인공지능이 활용될 때 발생 가능한 법적 책임, 차별, 투명성 문제들을 다룬다. 영국 케임브리지대에서는 작년 10월 ‘책임감 있는 AI’ 석사 과정을 개설하여 철학, 기계 학습, 법 등 관련 내용을 교육하기 시작했다.

우영우의 친구는 “장애인 차별은 법으로 금지돼 있어. 네 성적으로 아무 데도 못 가는 게 차별이고, 부정이고, 비리야!”라고 소리쳤다. 인공지능 기술이 사회에 어떻게 활용되어야 할지 그 방향을 제시하려면 무엇이 이상적인 사회인지에 대한 깊은 고민과 연구가 선행되어야 한다.



이성주 객원논설위원·서울대 산업공학과 교수


#ai#인공지능 면접#차별적 사고
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스