Go to contents

人間の専門家がAIの回答の検証役に転落した現実

人間の専門家がAIの回答の検証役に転落した現実

Posted May. 02, 2026 09:00,   

Updated May. 02, 2026 09:00


記録を読んで嘆いた。「またAIか」。大規模言語モデル(LLM)をはじめとする人工知能(AI)のアクセス性が向上するにつれ、AIに簡単な質問を投げかけ、その回答をそのまま法的紛争に提出したり利用したりする事例が大きく増えている。

一般の人々が主に利用するチャットGPT、クロード、ジェミニなどのAIサービスは、LLMを基盤としている。LLMとは、広範な人間の言語を理解・翻訳し、自然言語処理されたテキストを生成する仕組みを指す。LLMは正しい知識そのものではなく、文脈に基づく確率的な結果を示す。このため、論理的な因果関係が求められる事柄であるほど、AIの回答は誤る可能性が高くなる。AIが提示する答えは「正解」ではなく、多くの人々がそう信じ、あるいは用いてきた表現にすぎない。

AIの利用による歪みは、次のような順序で生じる。まず利用者がAIに質問する。「あれこれ〜これは不当解雇ではないのか?」。AIはこれに対し「不当解雇である可能性が高い」と答える。しかし、あれこれの部分を論理的に判断・分析したわけではない。そもそも質問自体が不適切で精緻さを欠いている。LLMは基本的に人間のフィードバックをもとに学習しており、利用者にとって肯定的な回答を返すよう設計されているため、肯定的に答えただけにすぎない。続いて利用者は「不当解雇である根拠を教えてほしい」と尋ねる。ここから本格的に混乱が生じる。存在しない概念や虚偽情報、結論を改変した判例、実在しない事件などが無秩序に提示され、利用者の誘導的な質問に合わせて答えが次々と作り出され、不当解雇であることが正当化されていく。利用者にとっては非常に都合のよい答えであり、しかも一見もっともらしく、読みやすくさえある。

やがて利用者は、不当解雇であるとの確信を抱き、不当解雇救済申請書を提出する。提出された申請書には、「**最も重要**なのは裁量的基本権が侵害された点である」(**は、AIチャットボットが強調した内容をそのままコピー&ペーストした際に現れる表記)といった文言が氾濫する。概念は曖昧で、主張は繰り返しや言い換えに終始し、十分な立証はなされていない。

最近の法的紛争はこのように、論理や証拠が欠けたまま「**単なる**告訴ではない」事件や、「**これだけは必ず確認**すべき」としながら確認されていない書面、「**要点だけ**申し上げる」と言いつつ、その要点が20ページに及ぶ陳情書に埋没してしまうケースが増えている。量は増えたが中身は乏しい。誤ったリンクを一つひとつ開き、存在しない事件番号を逐一検索し、実在しない論文や専門家の発言を確認するのに膨大な時間が費やされている。限られた時間が、専門的判断ではなく単なる検証作業に消耗されている。

頑なになった当事者を説得したり、特異な苦情に対応したりするのに費やされる時間も大幅に増えた。彼らは、いくら説明を重ねても耳を貸そうとしない。AIと何時間にもわたり、**単なる質疑応答ではない**深い対話を重ねる中で、すでに偏った思考にとらわれてしまっているためである。

クラフトンのように、チャットGPTに解雇方法を尋ねて実行した結果、2億5000万ドル(約3700億ウォン)規模の解雇訴訟で敗訴した事例まで持ち出すまでもない。全治4週間の交通事故について「いくらなら示談に応じるつもりか」と尋ねると、その場でAIに質問し、「5億ウォン」と答えた人にも出会った。少し自分で考えれば出てこないはずの金額だ。こうなると、もはや交渉の余地すらなくなってしまう。

性暴力の被告人が、あまりにも深刻な二次加害の内容で、そのまま裁判所に提出することが到底できない嘆願書を持ってきた。これまで見てきた被告人が、自らこれほどまでに悪質な考えを抱き、それをあれほど精緻かつ攻撃的に表現できるとは思えず、「AIが書いたのでは?」と尋ねると、「文章が苦手なので手助けを受けました」との答えだった。被告人の内面にある不満や、被害者を恨む感情を最大限に表出したその嘆願書が出来上がるまでに、AIとどれほど多くのやり取りがあったのかと思うと、気が遠くなる。そうした嘆願書を提出しても量刑上の「助け」にはならないと説得することは、感情的ではあっても主体的に不満を訴える被告人を説得するよりも、はるかに難しい。すでにAIが書いてくれた、本人にとって都合のよい文章を手放せなくなってしまっているからだ。

生成AIの利用の一般化は、もはや避けがたい流れに見える。しかし、それに伴う社会的コストや負担は決して小さくない。言語モデルの特性や先天的な限界、いわゆるハルシネーション(誤情報生成)を抑えるためにも、求める内容を正確かつ具体的に問い、結果を検証する方法についての教育が急務である。インターネットやスマートフォンが普及し始めた当初と同程度の、社会全体での再社会化が求められている段階だ。さらに、検証の責任とそのコスト、誤ったAIの回答の利用によって増大した紛争解決コストを誰が負担すべきかについても、制度的な検討が必要である。人間がAIの回答を検証するための装置のように扱われている現状は、望ましいものではない。。