이성효 주교는 “인공지능(AI)은 인간의 삶을 혁신하고 편리하게 하지만, 잘못 사용하면 윤리적 문제는 물론이고 인간성을 파괴할 위험이 있다”고 말했다. 김동주 기자 zoo@donga.com
지난해 8월 스위스 루체른의 한 성당에서 인공지능(AI)이 신자들의 고해성사를 들어주는 실험을 했다. 고해성사는 신부에게 자신의 죄를 고백하고 용서받는 의식. 가톨릭에서 성스럽게 여기는 성사(聖事)에 AI가 도입된 것이다. 실험은 두 달 정도 관광객과 신자들을 대상으로 진행되다 중단됐다. 워낙 파격적이라 사전에 교황청 허락까지 받았지만, 신자들의 반발이 거셌기 때문이다.
최근 교황청의 ‘인공지능과 만남: 윤리적 인간학적 탐구’ 한국어판 번역·출간을 총괄한 이성효 주교(교황청 문화교육부 위원·천주교 마산교구장)는 지난달 31일 경기 수원시 천주교 수원교구 제1대리구청에서 가진 인터뷰에서 “AI는 인간의 삶을 혁신하고 편리하게 하지만, 잘못 사용하면 윤리적 문제는 물론이고 인간성을 파괴할 위험이 있다”라며 “AI 사용에 대한 비판적 사고와 교육이 필요한 때”라고 말했다. 교황청은 AI 시대에 대비해 2020년 문화교육부 안에 매튜 J 고데, 노린 헤르츠펠트 등 20여 명의 세계적 신학자, 철학자, 윤리학자로 구성된 ‘AI 연구 그룹’을 결성하고 지난해 12월 이 책을 발간했다. 영어판 외에는 지난달 초 한국어판이 가장 먼저 나왔다.
이 주교는 “AI라는 엄청난 문화적 변화도 우리가 온전한 인간다움을 유지하면서 활용할 수 있도록 좋은 방향으로 이끌어야 한다”라고 말했다. 통제가 되지 않는 AI를 편리성에 취해 잘못 사용하면 엄청난 위험을 초래할 수 있다는 것. 예를 들어 고해성사 내용은 절대적 비밀이 요구되지만, 해킹이나 시스템 오작동으로 유출될 수 있다. 또 데이터를 보관하는 기관, 국가 등에 의해 악용될 가능성도 배제하기 어렵다. 예를 들어 최근 개인정보 유출 우려가 불거진 중국 AI ‘딥시크’가 고해성사에 활용될 경우 어떤 악영향을 미칠지 가늠하기 어렵다.
이 주교는 “더 큰 문제는 AI가 알고리즘에 의해 사용자가 듣고 싶어 하는 말만 골라 제공하기에 한번 빠지면 헤어나기 어렵다는 점”이라고 말했다. 만약 어떤 윤리적 규범이나 통제 장치 없이 AI를 고해성사 등에 도입할 경우 부작용이 클 수 있다는 것이다. 그는 “이런 우려와 부작용 때문에 프란치스코 교황은 개발자와 정책 입안자들에게 AI가 인간의 존엄성과 공동선을 해치지 않도록 도덕적 책임을 다해 줄 것을 강조하고 있다”라며 “그런 호소와 함께 AI에 담아야 할 구체적인 기준을 책에서 제안하고 있다”라고 설명했다.
교황청이 제안한 AI에 담아야 할 기준은 △인간 존엄성 존중 △생명 보호 △프라이버시와 데이터 윤리 △진리와 조작 방지 △AI의 결정에 대한 인간의 궁극적 책임 강조 △정의와 형평성 △노동과 공동선 등이다.
“AI에 종속된 삶이 아닌, AI를 타인 및 세상과의 관계를 증진하는 방향으로 사용하기 위해서는 알고리즘에 의해서가 아니라 자신의 의지로 얼마나 다양한 정보를 얻고 있는지, 컴퓨터, 스마트폰 등 AI 기술의 방해를 받지 않고 얼마나 시간을 보낼 수 있는지 등에 대해 늘 질문을 던져야 합니다.”
이 주교는 “편리성에 취해 인간이 스스로 사고하고 선택하는 능력을 AI에 의존하는 것은 결국 AI의 노예가 되는 길”이라고 말했다.
댓글 0