영리 강화하려는 오픈AI… 인공지능 제어 기준 필요[이슈 따라잡기/박성필]

  • 동아일보
  • 입력 2023년 11월 30일 23시 33분


코멘트

챗GPT 1년, AI 규제 논란

오픈AI의 CEO 샘 올트먼의 해임 및 복귀 소동은 AI 개발과 활용을 두고 대립하는 세계관을 보여줌과 동시에 기업의 자율 규제가
 지닌 한계를 확인해주었다는 평가가 나온다. 11월 초 영국에서 처음 열린 ‘AI 안전 정상회담’에서는 AI의 공적 규제의 
필요성이 논의되기도 했다. 게티이미지코리아
오픈AI의 CEO 샘 올트먼의 해임 및 복귀 소동은 AI 개발과 활용을 두고 대립하는 세계관을 보여줌과 동시에 기업의 자율 규제가 지닌 한계를 확인해주었다는 평가가 나온다. 11월 초 영국에서 처음 열린 ‘AI 안전 정상회담’에서는 AI의 공적 규제의 필요성이 논의되기도 했다. 게티이미지코리아
《2022년 11월 오픈AI가 챗GPT를 세상에 선보인 지 1년이 지났다. 시장의 반응은 폭발적이었다. 챗GPT가 공개된 지 불과 5일 만에 100만 사용자를 돌파했고 현재는 1억8000만 명이 넘는다. 빌 게이츠가 개인 블로그에서 선언한 인공지능(AI) 시대, 제프 베이조스가 말한 AI의 황금기가 온 것일까? 하지만 갈수록 똑똑해지는 AI가 인류에게 해를 끼칠 수 있다는 우려의 목소리도 점차 커지고 있다.》





올트먼 해임 뒤 복귀 소동

11월 초에는 세계 최초의 ‘AI 안전 정상회담(AI Safety Summit)’이 영국 블레츨리 파크에서 열렸고, 참가국 정부와 기업의 주요 인사들은 프런티어 AI 모델의 안정성과 위험에 대해 테스트한 보고서를 작성하기로 합의했다(블레츨리 선언). 프런티어 AI 모델은 공공의 안전에 심각한 위험을 초래할 만한 기능을 보유할 수 있는 고도의 파운데이션 모델을 뜻한다. 이번 회담 결과가 법적인 구속력을 가지는 것은 아니지만, AI의 위험성을 통제하는 것이 국제적인 협력을 요구하는 일임을 확인했다는 데 의의가 있다.

박성필 KAIST 문술미래전략대학원장
박성필 KAIST 문술미래전략대학원장
AI 안전 정상회담이 개최된 후 얼마 지나지 않아 실리콘밸리에서 전해진 깜짝 뉴스가 세계를 떠들썩하게 했다. 오픈AI 최고경영자(CEO) 샘 올트먼의 갑작스러운 해임과 복귀 소식이었다. 블레츨리 선언부터 올트먼의 해임 소동까지 일련의 사태는 AI 개발을 둘러싼 거대한 이념 전쟁의 서막이라 볼 수 있다. 올트먼이 해임 통보를 받기 며칠 전 오픈AI 연구원들이 이사회에 AI 연구와 관련해 ‘섣불리 상용화하면 안 된다’고 경고 편지를 보냈던 것으로 알려졌다. 연구원들은 올트먼이 새로 개발한 AI 기술의 신속한 상용화를 추진한다는 생각에 두려웠는지 모른다. 베일에 가려진 신기술은 ‘큐스타(Q*)’라는 프로젝트의 결과물로, 수학 문제를 풀 수 있는 새로운 AI 모델로 추측된다. 글쓰기와 언어 번역에 탁월한 생성형 AI에 수학적 추론능력이 더해진다면 범용인공지능(AGI)에 성큼 다가가게 된다.

AI 개발 속도 놓고 이견 커져

오픈AI의 CEO이자 대화 전문 AI인 챗GPT 개발의 주역 샘 올트먼. 그는 공격적인 AI 개발을 지지하는 ‘가속주의자’에 가깝다. 동아일보DB
오픈AI의 CEO이자 대화 전문 AI인 챗GPT 개발의 주역 샘 올트먼. 그는 공격적인 AI 개발을 지지하는 ‘가속주의자’에 가깝다. 동아일보DB
이번 오픈AI 사태는 AI 개발과 활용에 대한 상충하는 세계관들을 유형별로 정리할 기회를 제공했다. 첫째, 고도로 발전한 AI가 결국 인류를 멸망시킬 것이라는 파멸주의(doomism)다. 유명 애널리스트인 베네딕트 에번스는 영국 파이낸셜타임스(FT) 기고문에서 이번 오픈AI 사태의 결과를 파멸주의자들의 패배라고 평가했다.

반면 승리자인 올트먼은 두 번째 유형인 기술 낙관주의자라 하겠다. 기술 낙관주의자들의 상당수는 스스로를 가속주의자(accelerationists)라 부른다. 벤저민 노이스가 2010년 ‘부정의 지속’이란 책에서 제시한 개념이다. AI 기술이 사회에 미칠 부정적 영향을 염려하지 말고 공격적인 기술 혁신을 지속하자는 것이 가속주의의 핵심이다. 단기적으로는 AI 기술이 사회에 혼란을 가져올 수 있지만 그 장기적 이익은 비용을 충분히 상쇄하고도 남을 만큼 크다는 논리다. 넷스케이프 창업자 마크 앤드리슨이 10월 16일 a16z 홈페이지에 올린 기술적 낙관주의자 선언문에서 기술이 우리의 일자리를 빼앗고, 불평등을 심화시키며, 환경을 파괴한다는 것은 거짓말이라고 단언했다. 앤드리슨은 지능이 궁극적인 진보의 엔진이므로 AI야말로 인간 생명의 구원자이자 세상 모든 문제의 궁극적 해결사라 천명한다. 마치 AI에 대한 숭배의 글, 신앙고백으로 들린다.

세 번째 유형은 감속주의(decelerationism)다. 가속주의의 반대 진영이라기보다는 기술의 이익을 추구하면서도 그 위험을 경계하고 통제하려는 입장이다. 이번 오픈AI 사태 중 사흘간 임시 CEO를 맡았던 트위치의 CEO 에밋 시어는 두 달쯤 전에 X 게시글을 통해 현재의 AI 개발 속도가 10이라면 1∼2 정도로 늦추어야 한다고 했던 인물이다. 전형적 감속주의자다.

기업의 자율 규제 가능한가

AI 개발을 둘러싼 세계관 대립이 이번 오픈AI 사태의 본질이다. 갈수록 발전하고 있는 AI가 인류에 가져올 이익과 위험에 대한 서로 다른 인식이 파멸주의자, 가속주의자, 감속주의자의 차이를 만든다.

오픈AI의 모체는 올트먼과 일론 머스크가 2015년 안전하고 이로운 AGI 개발을 목표로 설립한 비영리법인(OpenAI, Inc.)이다. 비영리법인 형태를 선택한 이유는 이익 창출이 아닌 인류에게 도움이 되는 방식으로 AGI를 개발하고자 했기 때문이다. 그러나 AGI 개발에는 천문학적 규모의 투자가 불가피했다. 결국 오픈AI는 2019년 자회사로 영리법인(OpenAI Global, LLC)을 설립했다. 이로써 비영리법인이 자회사인 영리법인을 통제하는 독특한 구조가 만들어졌다. 마이크로소프트(MS)가 오픈AI 영리법인에 130억 달러를 투자해 49% 지분을 확보했지만, 오픈AI 비영리법인의 이사회 의석은 물론이고 아무런 통제권도 없다. AGI 기술은 MS에 대한 지식재산권(IP)과 다른 상업적 조건에서 제외된다. 이외에도 몇 가지 독특한 장치들이 있다. 올트먼 스스로도 이상한(weird) 구조라고 넋두리를 한 독특한 구조다.

오픈AI의 이런 지배구조는 AI 규제를 상당 부분 시장에 맡기고 있는 미국에서 정부의 개입을 최소화한 채 기업의 자율규제가 가능한지 가늠하는 실험과도 같았다. 올해 2월까지는 올트먼도 자사 블로그에 올린 ‘범용 AI와 그 이후를 위한 계획’이란 글에서 범용 AI 기술로 모든 인류에게 혜택을 주겠다고 했다. 시스템이 범용 AI 수준에 근접해 감에 따라 모델 생성 및 배포에 더욱 신중을 기했고, 5월 29일 비영리 단체인 CAIS가 AI로 인한 위험을 경고하는 성명서를 냈을 때 서명도 했다. 오픈AI는 7월 21일 MS, 구글, 아마존, 메타, 앤트로픽, 인플렉션 같은 빅테크들과 공동으로 AI 기술의 안전성, 보안성, 투명성을 준수하겠다는 공개 약속도 했다.

공적인 ‘AI 활용 기준’ 논의해야

하지만 올트먼이 해고됐다가 다시 복귀한 일련의 사태는 과연 업계의 자율규제에만 의존하는 것이 AI 거버넌스 관점에서 타당한지 의문을 갖게 했다. 이제 올트먼은 더 자신 있게 AI 기술을 영리 목적으로 활용할 수 있을 것이다. 오픈AI 비영리법인 이사회의 구성도 달라질 수 있다. 가령 투자자들도 이사회 의석을 확보할 수 있다. 결과적으로 독특한 지배구조를 통해 비영리성, 공익성을 추구하던 기존의 오픈AI의 색채는 많이 약화되고, 투자자들의 입김은 강해질 것이다. 이는 오픈AI만의 문제가 아니라 인류에게 큰 이익을 줄 수도 있고 인류의 파멸을 가져올 수도 있는 최첨단 기술의 거버넌스 문제다.

결국 AI 안전 정상회담의 방향성이 맞다는 것을 보여준 사건이 최근 오픈AI 사태다. 유럽연합(EU)처럼 정부가 주도하는 공적 거버넌스가 기본 틀이 되고, 기업들이 자율적인 가이드라인에 맞춰 협력하는 것이 기본 방향이 될 것이다. 사실 EU의 인공지능법(The AI Act) 입법은 AI 이념 전쟁 당사자들이 서로 수용할 수 있는 대체적인 틀을 잘 제시했다. 법안은 AI 애플리케이션의 위험을 허용할 수 없는 위험, 고위험, 기타 유형으로 등급화했다. 중국 정부의 사회 신용평가 시스템처럼 허용할 수 없는 위험을 초래하는 애플리케이션은 금지된다. 고위험 AI 애플리케이션은 엄격한 법적 요건을 충족한다는 조건하에 허용된다. EU는 입사 지원자의 순위를 매기는 이력서 스캔 도구 등을 고위험 애플리케이션의 예로 들었다.

다만 AI 세계관의 차이에 따라 특정 기술에 대한 허용 여부가 갈릴 수 있다. 기업과 정부, 연구자들이 함께 참여해서 충분한 논의를 거쳐 기준을 확정해야 한다. 이렇게 기준이 서면 이를 바탕으로 AI를 충분히 활용하기 위한 잣대도 설 수 있다.



박성필 KAIST 문술미래전략대학원장


#챗gpt#ai#규제 논란
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스