잘 쓰면 득, 잘못 쓰면 독… AI 윤리기준-한계 함께 가르쳐주세요

  • 동아일보
  • 입력 2023년 3월 9일 03시 00분


코멘트

초등생 올바른 AI 활용법
개정 교육과정 ‘디지털 소양’ 포함… 인간에 도움 주지만 의존은 금물
알고리즘 오류 땐 오답 내놓거나 인종차별 등 편향적 발언 하기도
무분별한 수용 대신 근거 따지고, 개인정보 입력 땐 필수적 정보만

올해 초 경기 동두천시 신흥중에서 동양대 주최로 진행된 디지털 새싹 캠프. 학생들이 인공지능(AI)을 비롯해 로봇, 코딩 등에 대한 수업을 듣고 있다. 교육부 제공
올해 초 경기 동두천시 신흥중에서 동양대 주최로 진행된 디지털 새싹 캠프. 학생들이 인공지능(AI)을 비롯해 로봇, 코딩 등에 대한 수업을 듣고 있다. 교육부 제공
경기 김포시에서 초3 아들을 키우는 학부모 이모 씨는 인공지능(AI) 채팅 프로그램 ‘챗GPT’ 등장 이후로 고민이 많아졌다. 이 씨가 가입된 온라인 커뮤니티에서는 챗GPT를 활용하면 학원비를 아낄 수도 있고, 자녀에게 효과적으로 영어, 코딩 등 공부를 시킬 수 있다는 글이 인기를 끌었다. 이 씨는 “아이에게 무작정 쓰지 말라고 할 수도 없고, 어떻게 쓰라고 해야 할지도 잘 모르겠다”며 한숨을 쉬었다.

챗GPT의 등장 이후로 교육 현장에서도 AI 활용에 대한 논의가 활발해지고 있다. AI 활용 방법에 대한 교육과 더불어 AI를 더 잘 쓰기 위한 윤리 교육도 함께 이뤄져야 한다는 지적이 나온다. 서울시교육청이 발간한 ‘서울형 인공지능 윤리교육 자료’와 ‘교원을 위한 인공지능 첫걸음’ 책자를 기반으로 초등생을 대상으로 ‘AI를 올바르게 활용하는 법’에 대해 정리해 봤다.

● 디지털 시대에 AI는 핵심 소양

AI를 올바르게 활용하기 위해서는 AI가 무엇인지에 대해 알아야 한다. 과학기술정보통신부는 AI란 ‘학습, 추론 지각, 언어 능력 등 인간의 지적 능력을 컴퓨터로 구현하는 과학기술’로 정의했다. 여기에는 상황을 인지하고 이성적, 논리적으로 판단하고 행동하며, 감성적이고 창의적인 기능을 수행하는 능력까지 포함된다.

앞으로 학생들이 살아갈 시대는 디지털 인프라를 기반으로 한다. 디지털 인프라에는 컴퓨터나 무선인터넷 같은 물리적 기술도 포함되지만, 더 중요한 것은 인간의 인지 능력을 분석하고 표현한 AI 기술이다. 학교에서 AI를 배워야 하는 이유다. 2025학년도부터 도입되는 ‘2022 개정 교육과정’에서는 기초 소양 중 하나로 디지털 소양을 제시하고 있다.

2020년 12월 과기정통부에서 발표한 AI 윤리기준은 최고 가치를 ‘인간성’으로 제시하고, 이를 가진 AI를 개발하고 활용하는 과정에서 △인간의 존엄성 △사회의 공공선 △기술의 합목적성을 지키도록 했다.

● ‘양날의 검’ AI

학생들이 AI를 활용할 때에는 ‘양날의 검’이라는 것을 기억하는 게 좋다. AI는 그 자체만으로 사람들에게 도움을 줄 수도 있지만, 인권을 침해할 수 있는 도구이기도 하다. AI의 발달로 수화 번역 애플리케이션이 등장해 청각장애인이 아닌 사람들도 청각장애인의 언어를 이해하고 소통할 수 있게 되는 등 인권 신장에도 도움이 되고 있다.

반면 AI가 주는 정보를 인간이 부문별하게 받아들이면서 적절하지 못한 언어를 배우거나, AI에 과도하게 의존하게 되는 경우도 생겨났다. 과제를 할 때 챗GPT가 내놓는 답을 그대로 학교에 제출하거나, AI가 준 내용에 따라 스스로 생각해 보지 않고 행동하는 경우도 적지 않다.

AI를 이용하는 과정에서 자신의 개인정보가 유출되거나, 다른 사람의 개인정보를 침해할 수 있다는 점에 대해서도 항상 유념해야 한다. 포털사이트에 ‘떡볶이’를 검색하면 집 주변의 떡볶이 맛집이 뜨는 이유는 내가 사는 위치가 AI 검색에서 사용됐기 때문이다. 이처럼 태블릿PC나 휴대전화 등을 통해 개인정보가 유출될 수 있다. 개인정보를 보호하며 AI를 사용하기 위해서는 계정을 만들 때 개인정보 관련 사항을 꼼꼼하게 읽어 보고 필수적인 정보만 제공하도록 해야 한다.

AI는 다양한 사람들을 존중하는 방향으로 활용해야 한다. AI는 사용자가 어느 한쪽으로 치우친 정보를 입력하면 편향성을 가지게 된다. 그 과정에서 특정 집단이나 개인이 피해를 입을 수도 있다. 2016년 미국 마이크로소프트(MS)사가 개발한 AI 채팅봇 ‘테이’는 일부 극우 성향 사용자들을 통해 인종·성차별적 표현을 학습한 뒤 부적절한 발언을 해 16시간 만에 운영이 중단됐다.

● AI의 한계 아는 것도 중요

AI도 잘못된 판단을 내릴 수 있다는 것을 알고, 이를 검증하려는 노력도 함께 해야 한다. AI는 빅데이터와 알고리즘을 바탕으로 인간이 알기 힘든 것을 파악하고, 이를 바탕으로 미래를 예측하거나 상황을 분석한다. 그 과정이 복잡하기에 때때로 사람들은 손쉽게 AI의 답이 정답이라고 간주하기도 한다. 그러나 AI도 정보가 잘못됐거나 알고리즘이 틀렸다면 오답을 내놓기 때문에 근거를 제시하라고 하는 등 검증이 필요하다.

AI가 문제를 일으켰을 때 책임이 누구에게 있느냐를 두고 갈등이 발생할 수도 있어 미리 책임 소재를 생각해 보는 것도 필요하다. 일례로 자율주행 자동차가 자율주행 시스템의 오류로 사고를 낸다면 개발 및 판매사, 사용자, 보험사 사이에서 책임을 두고 공방이 벌어질 것이다. 하지만 모두 각각의 책임이 있다는 점을 알고 피해를 막기 위해 함께 노력하는 게 중요하다.

AI는 주의해서 사용한다면 문화·예술적 격차를 줄이고, 사회적 약자를 도울 수 있는 기술이다. 구글 ‘아트 앤드 컬처’ 등 가상 미술관 사이트를 통해 미술관에 가기 어려운 국가나 계층의 사람들이 쉽게 예술 작품을 접할 수 있게 됐다. AI 대화 및 반려 프로그램 등을 통해서는 노약자, 장애인, 환자의 건강을 확인하거나 대화 상대가 돼 줄 수 있다. 서울시교육청은 “AI는 올바르게 활용한다면 계층 간, 세대 간 격차를 줄일 수 있다”고 강조했다.



조유라 기자 jyr0101@donga.com
#인공지능#윤리교육#ai의 한계
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스