165건은 ‘논문공장’이 대필 의혹 “AI활용 구체적 가이드라인 필요”
동아일보가 16일 김완종 한국과학기술정보연구원(KISTI) 데이터서비스센터 책임연구원과 논문 철회 감시 사이트 ‘리트랙션 워치’ 자료를 분석한 결과 2021년부터 이달 15일까지 국내 대학·연구기관 논문 중 ‘생성형 AI 사용 의심’을 이유로 논문 게재가 철회된 사례는 204건이었다. 1999년 이후 전체 철회 논문의 14.3%에 달한다. 논문 철회는 중대한 오류나 연구윤리 위반이 발견됐을 때 해당 연구를 무효로 하는 조치다.
AI 사용 의심 논문은 챗GPT 등이 등장한 2022년까지 9건에 불과했지만 2023년 이후 195건으로 급증했다. 이 중엔 서울대(1건)와 고려대(2건), 연세대(1건) 등 논문도 있었다. 이공계가 164건(80.4%), 인문계가 40건(19.6%)이었다. 특히 204건 중 165건은 대필 업체인 이른바 ‘논문 공장(paper mill)’이 AI를 이용해 대신 작성했을 가능성이 높은 사례로 분류됐다. AI와 무관하게 논문 공장 의심만으로 철회된 논문도 51건이었다. 김 책임연구원은 “논문 작성 과정에서 AI 사용은 불가피해지고 있는 만큼, 명확하고 구체적인 가이드라인이 필요하다”고 제언했다.
광고 로드중
“석사논문 1200만원, 2주내 완성”… AI 악용 ‘논문 공장’ 활개
“맞춤 논문, 침대서 받아보세요”… 논문 컨설팅 업체들 홍보 경쟁
학계 “적발된 ‘AI 논문’ 빙산의 일각… AI활용 가이드라인 제정을” 목소리
학계 “적발된 ‘AI 논문’ 빙산의 일각… AI활용 가이드라인 제정을” 목소리
“석사 논문 1200만 원, 박사 논문 3000만 원입니다. 서울대는 20%, 고려대·연세대는 10% 할증 붙습니다.”
16일 동아일보 취재팀이 연구자를 가장해 국내 한 ‘논문 공장’(논문 대필 업체)에 접근하자 돌아온 견적서다. 인공지능(AI)을 사용하는 것으로 의심되는 또 다른 업체는 ‘2주 안에 논문을 완성해야 한다’는 주문에도 “문제없다”고 답했다. 김완종 한국과학기술정보연구원(KISTI) 데이터서비스센터 책임연구원은 “생성형 AI의 보급 이후 이런 논문 공장이 더 활개 치는 분위기”라고 말했다.
● “침대에서 받아보라” AI로 불법 대필 확산
광고 로드중
포털에서 ‘논문 컨설팅’을 검색하면 수십 개의 업체가 노출되는데, 상담을 해보면 컨설팅이 아니라 대필 영업이었다. 한 업체는 “고민 없이 침대에서 개인 맞춤 제작 논문 대행을 작업받아 제출만 하라”고 홍보했다. 이 업체가 작성해 준 논문으로 박사학위를 받았다며 ‘정신적 스트레스를 생략했다’는 후기 글까지 버젓이 올라왔다.
기자가 한 업체에 문의하자 전공과 주제, 희망 기간, 용도 등을 묻더니 “279만 원입니다. 결제하시고 교수와 주제를 확정해서 가지고 오세요”라며 노골적으로 가격을 제시했다. 시장에서는 제1저자·교신저자·공저자별로 논문 가격이 수백만∼수천만 원대에 거래된다는 얘기도 나온다.
● ‘고문 문구’ 범람… “발견 안 된 AI 논문 더 많아”
부적절한 AI 활용 가운데 가장 흔한 유형은 AI가 논문 내용을 직접 작성한 것으로 의심돼 ‘표절’로 분류된 사례다. 재생에너지 관련 한 논문은 “일관성 없는 문장과 관련 없는 텍스트, ‘고문 문구(Tortured phrases)’ 사용”을 이유로 올해 철회됐다. 고문 문구란 AI가 표절 검사를 피하려고 학술 용어를 기괴하게 변형한 표현을 뜻한다. 또 다른 논문은 통상적 학술 용어인 유물(Artifacts)을 ‘고대의 희귀품(Ancient rarities)’으로 바꿔 써 철회됐다.
광고 로드중
이효빈 대학연구윤리협의회 사무총장은 “정보를 찾는 과정에서 AI를 활용하거나, 문서나 도표 정리, 번역 등의 도움은 받을 수 있지만 고문 문구까지 발견됐다는 건 AI가 직접 작성했을 가능성을 시사한다”며 “AI는 논문에 대한 책임을 질 수 없기 때문에 저자로 등재될 수 없다”고 강조했다.
● “AI 사용 기준 모호해 혼란 키워”
학계에서는 AI 사용에 대한 명확한 가이드라인이 없어 혼란이 커지고 있다는 지적이 나온다. 국내 한 이공계 대학원생은 “대부분의 연구자가 번역이나 문헌 탐색에 어느 정도는 AI의 도움을 받고 있다”며 “어디까지가 허용이고, 어디부터가 부적절한지 제대로 된 기준이 없어 오히려 불안하다”고 말했다. 지난해 한국연구재단이 내놓은 AI 활용 권고안은 ‘직접 출처를 검증해 자료의 신뢰성 및 타당성을 확인하고 연구윤리 위반 가능성을 점검하라’ 등 원론적 내용이라 실효성이 낮다는 지적이 나온다.
이 사무총장은 “AI가 출력하는 내용을 연구자가 어떻게 확인해야 하는지, 연구자는 AI 작업물을 어떻게 책임져야 하는지 등 구체적이고 실효성 있는 가이드라인이 필요하다“고 강조했다.
전남혁 기자 forward@donga.com
이다겸 인턴기자 연세대 정치외교학과 수료