시작은 그저 좋아하는 가수의 공연을 가까이서 보고 싶다는 팬심이었다. 20대 후반의 평범한 회사원이었던 김모 씨는 남들처럼 ‘피케팅(피 튀기듯 치열한 티케팅)’에 뛰어들었을 뿐이다. 하지만 0.1초의 찰나에 갈리는 예약 전쟁에서 번번이 고배를 마셨고, 그 갈증은 위험한 호기심으로 이어졌다. 텔레그램에서 매크로 프로그램을 사 본 김 씨는 놀라운 경험을 했다. 구경하기도 힘들었던 VIP석이 클릭 한 번에 잡힌 것. 지인들의 예매까지 대신 해주던 그는 점차 ‘이걸로 용돈벌이를 해볼까’라는 유혹에 빠지게 됐다.
김 씨를 단순한 ‘되팔이’와 가른 것은 인공지능(AI)이었다. 코딩의 ‘코’자도 몰랐던 그는 예매 플랫폼이 보안을 강화해 매크로가 막힐 때마다 챗GPT 등 생성형 AI를 켰다. 보안의 취약점을 분석해 주고 우회 로직을 짜 달라는 그의 요구에 AI는 충실한 비서가 되어 코드를 업데이트해 줬다. 과거 능숙한 해커나 노릴 수 있었던 대형 플랫폼의 보안을 정보기술(IT) 경력이 전무한 김 씨가 뚫은 것이다. 이때부터 그는 아예 회사까지 그만두고 전업 암표상으로 나섰다.
김 씨가 가족 계정까지 동원해 티켓을 쓸어 담고 수십 배로 되팔아 2년간 벌어들인 돈은 2억 원에 달했다. 그는 지난해 8월 공연장 앞에서 암표를 팔다가 암행 단속하던 경찰에 붙잡혔다. 김 씨의 휴대전화를 조사해 보니 암표 조직은 채팅방에서 AI로 예매 사이트의 보안망을 무력화하는 비결을 공유하고 있었다. 경기북부경찰청 사이버수사2대는 이들 조직 16명을 검찰에 넘겼다.
AI가 범죄를 도운 사례는 이뿐만이 아니다. 최근 ‘모텔 약물 연쇄살인’으로 기소된 김소영(21)은 범행 전 챗GPT에 ‘약물과 술을 섞으면 죽나’ ‘치사량은 얼마인가’ 등을 물으며 범행을 치밀하게 설계했다. 지난해 6월 경기 가평군의 집단 성폭행범들은 ‘집단 강간 초범도 징역 가나’ ‘합의하면 형량이 줄어드나’ 등을 입력하며 처벌 회피 가능성을 계산했다.
물론 검거된 후에는 AI와의 대화가 거꾸로 ‘검은 의도’를 스스로 밝히는 자수서가 되기도 한다. 하지만 붙잡고 나서 대화 기록을 포렌식해 엄벌한들 그건 나중의 일이다. 피해자의 고통은 온전히 회복되지 않는다.
챗GPT나 제미나이는 범죄에 조력하는 답변을 거부하도록 설계됐다고 주장한다. 하지만 실제로는 노골적인 질문만 걸러낼 뿐이다. 검열을 우회하는 ‘프롬프트 탈옥’이 너무 쉬운 구조다. 국내외 연구진의 실험에 따르면 소설 속 상황이라고 속이거나 명령어를 여러 차례 나눠서 입력하는 것만으로도 검열을 80% 수준으로 피할 수 있었다. 이용자가 떠날까 봐 AI 기업이 일부러 이를 방치한다는 추측도 있다.
그렇다면 해결책은 간단하다. 범죄를 방조하는 게 득이 아닌 실이 되게 하면 된다. 범죄 의도를 미리 읽고 예방하지 못한 책임을 AI 기업에도 물리는 것이다. “누군가 칼을 휘둘렀다고 주방용품 가게 주인까지 처벌하라는 거냐”는 식의 반론은 이 시대엔 적합하지 않다. 현재 AI는 “누구를 어떻게 찌를지”를 묻는 의뢰인에게 친절하게 과외해 주고 신고도 하지 않는 범죄 컨설턴트에 가깝다. 플랫폼이 스스로 막지 않는다면 규제가 그 자리를 채울 수밖에 없다.
댓글 0