전문가 ‘기술적 특이점’ 전망 사람 손 안 타, 스스로 학습-진화 “곧 출시” “최소 10년” 예측 다양 초지능 ‘ASI’ 나오는 특이점에선… 오작동-통제력 상실 문제 현실로
2016년 3월 구글 딥마인드의 바둑 인공지능(AI) 알파고와의 제2국에서 이세돌 9단이 패한 뒤 기자회견을 하는 모습. 올해는 알파고가 이세돌을 꺾은 지 10년이 되는 해로 AI가 인간을 뛰어넘는 ‘특이점’이 시작됐거나 곧 올 거란 예측이 힘을 받는다. 동아일보DB
‘기술적 특이점’이라고도 불리는 특이점은 기술 발전 속도가 인간의 예측과 통제를 벗어나 사회 전반을 급격히 변화시키는 전환점을 의미한다. 과학동아는 2026년 1월 창간 40주년을 맞아 AI, 생명, 기후, 우주 개척의 4개 분야에서 앞으로 40년의 특이점을 전문가들에게 묻는 기획을 마련했다. 4개 분야 중 특이점 개념이 가장 치열하게 논의되는 영역은 AI다. AI가 실제로 사람을 뛰어넘을 수 있겠다는 기대가 나오기 때문이다.
전문가들은 AI를 크게 세 가지로 분류한다. 알파고처럼 한 가지 작업을 전문적으로 수행하는 약인공지능(ANI), 인간의 지성을 구현해 모든 지적 작업을 수행하는 범용인공지능(AGI), 인간을 훨씬 뛰어넘는 초지능(ASI)이다. AGI가 특이점의 시작이 될지, ASI가 특이점의 도달점이 될지에 대한 전문가들의 의견은 엇갈린다.
광고 로드중
의견이 갈리는 이유는 ‘지능’의 정의 자체에 아직 합의가 이뤄지지 않았기 때문이라는 분석이 나온다. 이 교수가 최근 요슈아 벤지오 캐나다 몬트리올대 교수 등 AI 석학과 함께 발표한 ‘AGI의 정의’에 관한 논문에서는 지능을 10개 분야로 세분화해 AI를 평가했다. 그 결과 ‘GPT-5’는 100점 만점에 평균 57점을 받았다. 장기 기억 저장과 속도에서 낮은 점수를 받은 결과다.
이 교수는 앞으로 특이점으로 가기 위한 결정적 계기는 “스스로 진화하는 AI의 출현일 것”이라며 “AI가 사람의 손을 거치지 않고 스스로 학습해서 더 나아질 수 있다면 발전 속도가 걷잡을 수 없이 빨라질 것”이라고 예측했다.
AI의 위험성과 안전 문제도 중요한 의제로 떠오르고 있다. 김경훈 카카오 AI 세이프티 리더는 “AI의 위험은 ‘악의적 사용 위험’ ‘시스템 위험’ ‘오작동 위험’의 세 가지로 분류된다”고 설명했다. 이 중 특이점을 넘어선 AI가 야기할 수 있는 가장 큰 위험은 ‘오작동 위험’이다. 인간의 AI 통제력 상실 등 인간보다 더 똑똑한 AI가 인류의 말을 듣지 않을 때 벌어질 문제도 여기 속한다.
AI 특이점 예측은 기술의 속도에 대한 예측은 물론 결국 사회적 대응과 윤리적 준비의 중요성을 환기시키고 있다. AI는 이미 산업, 문화, 교육 등 다양한 분야에 영향을 미치고 있기 때문이다. 이미 지난해 연세대 등 국내 최상위권 대학의 온라인 시험에서 AI를 이용한 부정 행위가 적발돼 논란을 일으켰다. 조만간 도래할 AI 특이점 시대를 어떻게 대비해야 하느냐는 질문에 김 리더는 “AI가 아무리 발전해도 사람이 제대로 일을 시켜야 제대로 된 결과물을 낼 수 있다”며 “‘AI 문해력’ 교육이 매우 중요해질 것”이라고 전망했다.
광고 로드중
이창욱 동아사이언스 기자 changwooklee@donga.com