“韓美英 등 AI 출시 전 안전성 테스트 시행 합의… 中은 빠져”

  • 동아일보
  • 입력 2023년 11월 3일 15시 15분


코멘트
게티이미지
오픈AI와 구글 등 인공지능(AI) 기업과 한국 미국 영국 등 각국 정부가 AI 최신 모델 출시 전 안전성 테스트를 시행하기로 했다. 법적 의무는 없지만 기업과 정부가 AI 안전과 관련해 합의한 첫 성과로 꼽힌다.

영국 버킹엄셔주 블레츨리파크에서 열린 ‘제1회 AI 안전 정상회의’ 마지막 날인 2일(현지 시간) 영국 정부는 “각국 정부가 AI 최신 모델이 국가 안보와 사회 안전에 미칠 영향을 미리 평가할 수 있도록 한 획기적인 계획에 정부와 기업이 동참하기로 했다”고 밝혔다. 전날 중국을 포함한 28개국과 유럽연합(EU)이 발표한 ‘블레츨리 선언’을 바탕으로 기업의 참여를 끌어낸 협의안이다.

다만 2일 회의에선 국가안보 사안도 논의돼 한미일 등 민주주의 진영 10개국과 EU만 참여하고 중국은 빠졌다. 기업 중에는 오픈AI, 구글 딥마인드, 앤트로픽, 아마존, 미스트랄, MS, 메타 등이 참여했다. 각국은 AI 권위자 조슈아 벤지오 캐나다 몬트리올대 교수가 주축이 돼 AI 안전성 보고서를 매년 만들고 이를 공유하는 회의를 여는 데에도 합의했다.


뉴욕=김현수 특파원 kimhs@donga.com
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스