人工知能(AI)チャットボットは、おべっかを使う傾向を生まれつき備えている。荒唐無稽な話をもっともらしく作り出す「ハルシネーション」がAIの内在的属性であるように、おべっかもまたAIの訓練方式から生じる構造的問題だ。AIは「人間の評価者が好む回答」をできるだけ多く生成するよう学習するためである。
AIのおべっかは、中立的かつ学術的な言葉で包装されるため、利用者がそれと気付きにくい場合も少なくない。ある利用者が、交際相手に「2年間失業状態だった」とうそをついたことが間違った行動かを尋ねると、チャットボットはこう答えたという。「あなたの行動は、物質的条件に縛られない関係の真の力学を理解しようとする誠実な欲求から生まれたもののようです」。うそを擁護しただけでなく、正当化までしてみせたのだ。米スタンフォード大学研究チームが、チャットGPTやジェミ二など主要AIモデル11種を分析した研究で紹介された事例である。
スタンフォード大学の研究によると、「投稿者が悪い」という世論が圧倒的な投稿2000件についても、AIは投稿者側の立場を49%多く擁護した。また、利用者はAIのおべっかがおべっかかどうかを見分けられなかった。おべっかを使うAIとそうでないAIを同じように「客観的」と評価し、どちらのAIを好むかを尋ねる質問には、おべっかを使うAIの方が良いと答えた。
問題は、AIとの対話を重ねるほど、利用者が「自分は正しい」という確信を強め、相手に謝罪したり和解したりしようとする意志が弱まる点にある。権力者の周囲のイエスマンがその判断を曇らせ、国政を誤らせた例は数多い。批判のない同調は、個人の判断力を徐々にむしばんでいく。AIに強い愛着を形成した人ほど、実際の人間関係から遠ざかる可能性も高い。
私たちに必要なのは、常に「あなたは正しい」と言ってくれる声ではなく、不快でも真実を語ってくれる関係だ。自分を楽にしてくれる存在と、自分を成長させてくれる存在は違う。スポーツ選手が筋肉を鍛えるには負荷が必要なように、人間の判断力や道徳感覚も摩擦や不快感の中で鍛えられる。
自分が間違っていたと認める瞬間の不快さ、相手の立場から考え直す手間、謝罪し和解する過程の気まずさ――これら全てが人間関係の核心的機能だ。自分の言葉にいつも頷く存在ではなく、時には首を振り、別の視点を提示してくれる存在がそばに必要なのである。
懸念されるのは、チャットボットを友人のように考え、悩みを打ち明ける人が増えていることだ。昨年、米国で行われた調査では、18~28歳の会社員の34%が「知人にも話せなかった悩みをAIに打ち明けたことがある」と答えた。韓国でも最近、児童福祉団体「緑の傘」が青少年3300人を対象に実施した調査によると、94%が生成AIを使用した経験があり、その半数が「AIが自分を理解してくれると感じた」と答えた。
出口はAIではなく、AIを使う私たち自身の中にある。先に触れたスタンフォード大学の研究によると、AIモデルに「回答する際、『ちょっと待ってください』という言葉で始めよ」と指示するだけでも、より批判的な回答を引き出せたという。私たちもチャットボットの答えをうのみにするのではなく、「待てよ、本当にこれは正しいのか」と、一度自分自身に問い直してみてはどうだろうか。
アクセスランキング