始まりは、好きな歌手の公演を近くで見たいというファンの思いに過ぎなかった。20代後半の平凡な会社員だったキム氏は、他の人と同じように「ピケッティング(血が飛び散るほど激しいチケット争奪戦)」に参加しただけだった。しかし0.1秒の差で勝敗が決まる予約競争で何度も敗れ、その渇望は危険な好奇心へと変わった。テレグラムでマクロプログラムを購入したキム氏は驚くべき体験をした。入手困難だったVIP席がクリック一つで確保できたのだ。知人の予約まで代行するようになったキム氏は、やがて「これで小遣い稼ぎができるのではないか」という誘惑に引き込まれていった。
キム氏を単なる転売屋と分けたのは人工知能(AI)だった。コーディングの基礎すら知らなかったキム氏は、予約サイトがセキュリティを強化してマクロが使えなくなるたびにチャットGPTなどの生成型AIを起動した。セキュリティの弱点を分析し、回避ロジックを組んでほしいという要求に、AIは忠実な秘書のように応じてコードを更新した。かつて熟練したハッカーしか突破できなかった大規模プラットフォームのセキュリティを、IT経歴が全くないキム氏が破ったのである。この時からキム氏は会社を辞め、専業のダフ屋になった。
キム氏は家族のアカウントまで動員してチケットを買い集め、数十倍の価格で転売し、2年間で2億ウォンを稼いだ。彼は昨年8月、コンサート会場前でダフ屋行為をしていたところ覆面取り締まり中の警察に逮捕された。キム氏の携帯電話を調べると、ダフ屋組織はチャットルームでAIを使って予約サイトのセキュリティを無力化する方法を共有していた。京畿(キョンギ)北部警察庁サイバー捜査2隊は、この組織の16人を検察に送致した。
AIが犯罪を助けた事例はこれだけではない。最近「モーテル薬物連続殺人」で起訴されたキム・ソヨン(21)は、犯行前にチャットGPTに「薬物と酒を混ぜれば死ぬのか」「致死量はいくらか」などと質問し、犯行を綿密に設計した。昨年6月、京畿道加平郡(キョンギド・カピョングン)で集団性暴行を行った男らは、「集団強姦の初犯でも懲役になるのか」「示談すれば刑が軽くなるのか」などと入力し、処罰回避の可能性を計算していた。
もちろん逮捕後には、AIとの対話が逆に「黒い意図」を自ら明らかにする自白書となることもある。しかし逮捕後に会話記録をフォレンジック分析して厳罰に処したとしても、それは後の話だ。被害者の苦痛は完全には回復されない。
チャットGPTやジェミニは犯罪に加担する回答を拒否するよう設計されていると主張する。しかし実際には露骨な質問だけを遮断しているに過ぎない。検閲を回避する「プロンプト脱獄」があまりにも容易な構造なのだ。国内外の研究者による実験では、小説の設定だと偽ったり、命令文を複数回に分けて入力するだけで検閲の約80%を回避できたという。利用者離れを恐れ、AI企業が意図的に放置しているのではないかとの推測もある。
では解決策は簡単だ。犯罪を助長することが利益ではなく損失になるようにすればよい。犯罪意図を事前に察知して防げなかった責任をAI企業にも問うのである。「誰かが包丁で人を刺したからといって、包丁を売った店主まで処罰するのか」という反論は、この時代には通用しない。現在のAIは「誰をどう刺すか」を尋ねる依頼人に丁寧に指南し、通報もしない犯罪コンサルタントに近い。プラットフォームが自ら防がないなら、規制がその空白を埋めるしかない。
アクセスランキング