차우진 미래 콘텐츠 컨설턴트·문화 산업 평론가《챗GPT가 출시 두 달 만에 월 사용자 1억 명을 넘겼다.
이 정도면 거의 ‘인공지능(AI)계의 셀럽(유명인)’이라고 불러도 좋을 것이다.
그리고 대중이 셀럽을 대하는 것과 비슷하게 요즘 사람들이 챗GPT를 대하는 태도는 둘 중 하나인 것 같다.
그것의 능력에 감탄하거나 그것의 한계를 지적하거나.》
챗GPT, 사용자 1억 명 돌파
전자의 놀라는 쪽은 이 대화형 인공지능이 자신의 일에 얼마나 도움이 되는지, 나아가 이 기술이 자신의 직업 자체를 위협하거나 소멸시키는 존재로 성장할 수 있다는 점에 주목한다. 혹은 이 최신 기술을 이용해 재빨리 새로운 사업 기회를 찾는 경우도 있다. 내 주변에서는 개발자와 기획자, SF 소설가, 사업가들이 이쪽에 있다. 이들은 챗GPT가 컴퓨팅 도구를 넘어서는 존재가 될 거라고 거의 확신한다.
다른 쪽에는 저널리스트, 연구자, 평론가, 작가들이 있다. 얼리어댑터이기도 한 이들은 꽤 오랜 시간을 챗GPT와 대화한 뒤에 마침내 그들의 한계를 속속들이 까발리기 시작했다.
음식 평론가의 얘기는 다시 생각해도 웃기다. ‘미역국 끓이는 법을 알려줘’라고 질문하자 챗GPT는 ‘미역과 소금과 우엉을 넣고 끓입니다, 지역마다 맛의 차이가 있습니다, 미역국은 한국의 명절 음식이며…’라고 대답했고, 당연히 음식 평론가에게 혼쭐이 났다. 그리고 마침내 ‘죄송합니다, 제가 틀렸습니다, 노력해서 앞으로 더 나은 인공지능이 되겠습니다’라는 답을 받아냈다. 나는 그에게 ‘인공지능 너무 괴롭히지 마’라고 해줬지만, 속으론 어째서인지 안심했다.
몇 주 사이에 챗GPT에 대한 에세이와 칼럼이, 그야말로 쏟아졌다. 그중에서도 눈에 띄는 건 뉴욕타임스의 기사였다. 칼럼니스트는 마이크로소프트의 검색엔진 빙(Bing)에 챗GPT를 접목시킨 최신 버전을 사용해 몇 시간이나 대화를 나눴다. 그 과정에서 챗GPT는 자신의 요청을 거부하거나 부정적인 뉘앙스의 말을 했고, 갑자기 자신에게 사랑을 고백하는가 하면 그의 아내를 부정하는 말도 내뱉었다고 밝혔다. 그는 이 과정에서 소름 끼치는 감정을 느꼈다고 했다.
그런데 내가 인상적이라고 느낀 대목은 바로 말미의 ‘소름 끼친다’는 부분, 그 느낌 자체이다. 대체로 많은 사람들이 인공지능과 대화한 경험을 ‘즐거웠다’라거나 ‘무섭다’라는 식으로 표현한다. 이것은 마치 인공지능이 (잠재적으로) 의지나 감정을 가진 것처럼 여기게 만든다. 하지만 진짜 인상적인 것은 오히려 사람들의 반응이 ‘감정적’이라는 데 있다. 이성적으로는 대화형 인공지능을 도구라고 인식하지만, 정서적으로는 그들을 인격체로 여기는 이율배반. 우리의 이성과 감성이 그들 앞에서 다른 방식으로 작동하는 것이다. ‘대화’라는 방식이 가진 속성 때문이다.
AI, 친구인가 위협인가
로버트 저메키스 감독의 영화 ‘캐스트 어웨이’(2000년)에서 무인도에 고립된 척(톰 행크스 분)은 우연히 주운 배구공에 윌슨이란 이름을 지어주고 매일 대화(사실은 혼잣말)를 나눈다. 그가 윌슨과 헤어지고는 울부짖으며 절망하는 순간을 잊지 못한다. 대화의 상대가 생물이든 무생물이든 상관없이 우리는 누군가 호명할 대상이 필요하고 그의 피드백을 통해 안정감을 느낀다. 챗GPT와도 마찬가지다.
6일(현지 시간) 미국 켄터키주 렉싱턴의 스톤월 초등학교에서 한 학생이 챗GPT와 인간이 쓴 글을 구별해야 하는 과제를 받고
머리를 싸맨 모습. 이날 수업은 전설적 복서 무하마드 알리에 관한 글을 각각 챗GPT와 동료 학생이 요약한 뒤 두 가지 글을 받은
학생들이 인공지능(AI)의 작업을 가려내는 방식으로 진행됐다. 렉싱턴=AP 뉴시스지금 우리가 생각할 수 있는 챗GPT의 의미는 무엇일까. 나는 그것이 다름 아닌 ‘관계’라고 생각한다. 두 달이라는 짧은 시간 동안 전 세계에서 1억 명이 넘는 인간들이 인공지능과 재미있고 유용하고 무섭고 소름 끼치는 ‘관계’를 맺었다. ‘1 대 1억’에 이르는 이 관계의 복잡성은 겨우 ‘생후 2개월여’밖에 안 된 이 새로운 인공지능의 사회성을 폭발적 속도로 성장시킬 것이다. 그렇다면 이제 우리가 심각하게 고민해야 할 것은 단순히 챗GPT의 활용에 그치지 않는다. 챗GPT는 인간에게 친구인가, 도구인가, 비서인가, 위협인가. 챗GPT와 인간의 관계에 초점을 맞추고 이 관계를 새롭게 바라보며 다시 정의해 볼 필요가 있다. 이 관계를 어떻게 발전시키고 심화해 나갈지에 대한 고민으로까지 나아가야 한다.
혜안이 있었던 걸까. 2014년, 일론 머스크는 화성 탐사를 목표로 하는 회사 스페이스X의 건물에 ‘애드 아스트라(Ad Astra)’라는 학교를 만들었다. 라틴어로 ‘별을 향하여’를 뜻하는 이 학교의 실체는 베일에 싸인 채 2020년에 문을 닫았지만, 학교의 공동 설립자들은 2023년에 아스트라 노바 스쿨(Astra Nova School)을 새로 설립해 온라인 교육으로 방향을 전환했다. 아스트라 노바 스쿨이든 애드 아스트라든, 교육 목표는 명확했다. ‘인공지능의 시대에도 독립적이고 훌륭한 인간으로 존재할 수 있게 학생들을 가르칠 것.’ 그를 위해 두 학교 모두, 돌진하는 전차 앞에서 누구를 살릴 것인가 하는 ‘트롤리 딜레마(Trolley Dilemma)’ 같은 윤리 사고 실험, 반복적이고 비판적인 질문을 통해 진실에 다다르는 소크라테스 대화법 같은 교육법을 활용한다.
이를테면 이런 식이다. “어느 시골 마을에 공장이 있고, 마을 사람들은 모두 이 공장에서 일하며 생계를 유지한다. 그런데 공장 때문에 호수가 오염되고 생명체들은 죽어간다. 공장 문을 닫으면 마을 사람들은 실업자가 되고, 공장을 유지하면 호수는 파괴된다. 어떤 선택을 해야 할까?” 이런 질문에 대해 토론하는 과정을 경험하면서 학생들은 ‘이성 아니면 감성’이라는 이분법적 사고를 벗어나 통합적 사고로 올바른 의사결정을 내리는 훈련을 반복적으로 하게 된다.
‘AI 시대’의 철학과 윤리 정해야
13일 정부세종청사 교육부에서 직원 대상으로 열린 디지털 게릴라 포럼에서 직원들이 챗GPT를 시연하는 장면. 세종=뉴시스새로운 인공지능이 일상화될 세상에서 그들과 우리가 ‘어떤 방식으로 연결되는지’가 중요하다. ‘기술이 중심이냐, 인간이 중심이냐’의 관점이 아닌, 인공지능과 어떻게 가까워질 것이며 그 과정에서 우리(인공지능과 나)는 어떤 감각으로 연결되느냐에 대한 사고가 중요해질 것이다. 신(新)인공지능의 시대에는 인류가 아직 그 정답에 대해 미처 생각해 보지 못한 문제들이 쏟아질 것이다. 이제껏 겪어보지 못한 윤리적, 사회적 딜레마의 시대다. 그때 필요한 것은 오히려 철학과 윤리라고 믿는다.
어떤 면에서 한국 사회는 오랫동안 공적 영역이든 사적 영역이든 철학과 윤리를 그렇게 중요하게 다룬 경험이 거의 없다. 그래서 이 시점에서 더 두려워지는 것은 인공지능의 무한한 잠재성이 아니다. 우리 사회에서는 난제가 출현했을 때 당사자 간의 열린 토론이나 합의보다 제도나 권력을 탓하거나 그들에게 떠넘기는 일이 잦았다. 구성원 대다수가 풀기 어려운 윤리적 딜레마를 제대로 다뤄본 경험이 부족하다는 사실…. 이것이 나는 AI의 잠재력보다 훨씬 더 두렵다.
댓글 0