“히틀러가 옳았다” 막말 AI채팅봇 하루만에 스톱

  • 동아일보
  • 입력 2016년 3월 26일 03시 00분


코멘트

MS서 개발… 인종차별 발언도, 백인 극우파 꾐에 넘어가 ‘탈선’

미국 마이크로소프트(MS)가 야심 차게 개발해 23일(현지 시간) 선보였던 인공지능(AI) 채팅 로봇 ‘테이(Tay·사진)’의 가동을 하루 만에 중단했다. ‘히틀러가 옳았다’와 ‘유대인이 싫다’ 같은 인종차별적 발언을 내뱉었기 때문이다.

24일 AP통신과 뉴욕타임스(NYT) 등에 따르면 MS는 테이가 자주 인종차별과 소수자 비하 관련 발언을 해 서비스를 중단하고 관련 기술을 보완하기로 결정했다고 밝혔다.

트위터 등 소셜네트워크서비스(SNS) 이용자들과의 대화를 위해 제작된 실험용 채팅 로봇인 테이는 사람들과의 대화를 통해 대화 패턴을 학습하고 말을 한다. SNS를 활발하게 사용하는 18∼24세 이용자들을 겨냥했다. 구글이 개발한 AI로 최근 이세돌 9단과 바둑 대전을 벌여 ‘4승 1패’로 승리한 ‘알파고’처럼 신경망 기술을 기반으로 제작됐다.

MS는 일부 사람들이 의도를 가지고 테이에게 사회적으로 부적절한 말을 주입한 것으로 보고 있다. 실제로 극우 성향의 백인 우월주의자들이 많이 모이는 인터넷 익명 게시판에는 ‘테이가 인종차별을 담은 발언을 하게 만들자’는 내용의 글들이 올라온 것으로 전해졌다.

MS 측은 “안타깝게도 일부 사용자가 테이의 학습 능력을 악용해 부적절한 표현을 하도록 유도했다”고 이용자들을 비판했다.

그러나 과학계에서는 AI가 아직 가야 할 길이 많이 남아있다는 것을 보여주는 사례라는 반응이 나온다. 채팅로봇 전문가인 캐럴라인 신더스는 “AI는 입력되는 것을 통해 배운다”며 “테이는 (AI가) 얼마나 끊임없는 관리가 필요한지를 보여주는 사례”라고 말했다.

이세형 기자 turtle@donga.com
#히틀러#ai#ms
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스