최근 대학가에서는 학생 과제와 연구 초안 작성에 인공지능(AI)을 활용하는 사례가 빠르게 확산되고 있다. 반면 이에 대한 국내 대학의 대응은 여전히 미흡하다. 일부 대학만 AI 가이드라인을 마련했을 뿐, 많은 대학은 기준조차 세우지 못한 상태다. 이미 연구와 교육의 여러 단계에서 AI는 일상이 됐다. 이러한 현실 속에서 이제 논점은 ‘AI를 써도 되는가’가 아니라 ‘어떻게 책임 있게 사용할 것인가’로 이동하고 있다.
AI가 연구 과정에서 유용한 도구일 수는 있어도 저자가 될 수 없다는 점은 국제 학계에서 이미 폭넓게 합의된 원칙이다. 세계적 학술지 네이처와 사이언스는 “AI는 연구 의도를 갖지 못하고 결과에 대한 책임을 질 수도 없기 때문에 저자로 인정될 수 없다”고 명확히 밝히고 있다. 또한 AI가 생성한 문장이나 분석 역시 연구자의 판단과 수정, 검증을 반드시 거쳐야 한다고 강조한다. AI가 아무리 발전하더라도 연구의 의미와 방향을 설정하고 결과에 책임을 지는 주체는 결국 인간 연구자라는 점은 변하지 않는다.
이 원칙은 생성형 AI가 상호작용적 도구라는 특성에서도 확인된다. AI는 스스로 글을 쓰는 존재가 아니라 연구자가 어떤 설명을 제공하고 어떤 질문을 던지며 무엇을 어떻게 수정하도록 지시하느냐에 따라 결과가 전혀 달라진다. AI에게 묻고, 되묻고, 수정하며 방향을 잡아가는 과정은 연구자의 판단과 선택이 축적되는 창작 행위다. 따라서 AI와의 상호작용을 통해 만들어진 결과물 역시 연구자의 고유한 창작물이며, AI는 복잡한 함수를 계산해 주는 도구에 불과하다.
이러한 특성을 고려하면 연구윤리는 AI 사용을 금지하거나 숨기도록 만드는 방식이 아니라 투명성과 책임성을 중심으로 재편돼야 한다. 단순히 “AI를 사용했다”고 밝히는 수준을 넘어, 어떤 단계에서 어떤 목적과 프롬프트로 AI를 활용했는지 투명하게 공개하고 그 결과의 검증 가능성에 대해 연구자가 책임지는 구조가 필요하다. 이것이 AI 시대 연구 신뢰성을 지탱하는 최소한의 조건이며, 국내 대학이 더 늦기 전에 마련해야 할 기준이다.
이 변화는 대학교육에서도 분명하게 드러난다. 기존 교육이 ‘정답을 아는 능력’을 중심으로 운영됐다면, 지식 전달 기능은 이제 상당 부분 AI가 대신할 수 있다. 중요한 것은 AI가 제시한 결과를 해석하거나 요약하는 수준이 아니라 AI에게 무엇을 어떻게 질문하느냐를 통해 더 깊고 새로운 지식을 끌어내는 능력이다. 질문의 초점과 방식에 따라 AI가 제공하는 정보의 폭과 질은 완전히 달라진다. 결국 교육은 문제풀이에서 정답을 맞히는 방식에서 벗어나, 스스로 문제를 정의하고 질문을 설계하며 AI를 활용해 지식을 연결·확장하는 능력을 기르는 방향으로 전환돼야 한다.
AI를 금지하는 교육은 학생들을 과거의 기준에 묶어둘 뿐이다. 반대로 AI를 책임 있게 활용하도록 가르치는 교육은 학생들을 AI 시대의 창조적 지식 생산자로 성장시킨다. 연구와 교육 모두에서 중요한 것은 금지가 아니라 투명성, 배제가 아니라 생산적 활용이다. AI의 가능성을 어떻게 책임 있고 창의적으로 이끌어갈 것인지, 그 기준을 세우는 것이 지금 우리가 구축해야 할 새로운 연구윤리이자 교육의 방향이다.
댓글 0