AI는 죄가 없다[횡설수설/장택동]

  • 동아일보
  • 입력 2021년 1월 12일 03시 00분


코멘트

휴대전화의 인공지능(AI) 비서 기능을 잘 사용하는 사람들은 “어지간한 사람보다 낫다”고 한다. 말만 하면 교통상황과 날씨를 알려주고, 오늘의 일정을 체크해주는가 하면, 궁금한 뉴스까지 척척 대답해주기 때문이다. 그렇지만 AI가 사람의 뜻대로 작동되지 않으면 예상치 못한 일이 벌어질 수도 있다. 영화 ‘하이, 젝시’에서 주인에게 불만을 품은 AI 비서 서비스 ‘젝시’가 휴대전화에 저장돼 있던 음란사진을 주인의 직장 동료들에게 전송해 결국 해고되도록 만든 것처럼.

▷최근 국내에서 AI 챗봇 서비스 ‘이루다’가 장애인, 동성애자 등 사회적 소수자에 대한 차별적인 표현을 한 것이 논란이 돼 서비스를 잠정 중단하기로 했다. 이 서비스는 사용자들과 대화를 하면서 배우는 딥러닝 기술을 이용한다고 한다. 그런데 잘못된 내용을 학습한 탓인지 의도치 않은 방향으로 작동한 것으로 보인다. 20세 여성의 인격을 기반으로 개발됐다는 이루다를 대상으로 성적인 표현을 하는 이용자가 있다는 점도 논란거리다.

▷해외에서도 AI 서비스가 종종 논란이 되고 있다. 2016년 마이크로소프트(MS)가 출시한 AI 챗봇 ‘테이’는 대화 과정에서 “난 유대인이 싫다”는 등 인종차별 발언을 해 서비스가 중단됐다. 이루다 사례를 연상케 한다. 최근 구글의 AI 전문가가 “구글의 AI 기술이 성적·인종적으로 편향돼 있다”는 문제를 제기하면서 논쟁이 붙은 것을 보면 여전히 해외 대형 IT업체들도 AI를 온전하게 구현하고 있지는 못한 것 같다.

▷AI를 사용하는 서비스와 기술이 늘어날수록 이에 따른 부작용도 커질 가능성이 높다. 한국신용정보원은 2025년 전 세계 AI 시장 규모가 지난해보다 5배 이상 늘어날 것으로 추산했다. 그래서 각국에서 AI 개발자와 사용자가 지켜야 할 윤리기준이 제정되고 있고, 한국 정부도 지난해 말 ‘사람이 중심이 되는 AI 윤리기준’을 마련했다. 세계 각국의 AI 윤리를 분석해보니 가장 자주 언급되는 주제가 ‘공정성과 무차별(Fairness and Non-discrimination)’이었다는 연구 결과도 있다.

▷공정하고 차별 없는 AI 서비스를 만드는 책임은 AI가 아니라 사람에게 있다. AI는 알고리즘과 데이터를 근간으로 작동하기 때문이다. 미 경제 전문지 포브스는 “사람들은 AI 시스템에서 나온 결과를 보곤 ‘AI가 편향됐네’라며 놀라지만 이런 결과를 만들어낸 것은 전적으로 사람”이라고 지적했다. 핵 기술로 원전에서 전기를 생산할 수도 있고, 핵폭탄을 제조해 수많은 인명을 살상할 수도 있듯이 새로운 기술이 어떻게 사용될지는 사람에게 달렸다.

장택동 논설위원 will71@donga.com
#ai#인공지능#이루다
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스