Go to contents

AI基本法が世界初施行、信頼性への熟考が先だ

AI基本法が世界初施行、信頼性への熟考が先だ

Posted February. 21, 2026 09:33,   

Updated February. 21, 2026 09:33


個人や集団の達成を際立たせようとする時、「初めて」であることを強調する場面をよく目にする。数年前、興行面で旋風を巻き起こし、韓国映画の累計観客数で歴代2位となった作品にも、「これまでこんな味はなかった。これはカルビなのか、フライドチキンなのか」というせりふがあるが、そこでも「初めて」を強調していた。誰も成し遂げられなかったことをやり遂げ、誰も歩んだことのない道を選ぶ難しさを、私たちは知っている。だからこそ「初めて」は意味を帯びるのだろう。

意見が割れていた「人工知能(AI)発展と信頼基盤造成などに関する基本法」(AI基本法)が、今年1月22日、世界で「初めて」全面施行された。産業振興に軸足を置きつつ、透明性と安全性の義務を明記し、信頼性を確保しようとする努力が盛り込まれている。適用範囲や運用方式を巡って議論は続くが、人間と機械の相互作用を研究する筆者としては、「信頼できるAIとは何か」と問わざるを得ない。答えに近づくには、まず「信頼とは何か」を考える必要がある。

第一に、信頼は多次元的な概念だ。情報源の公信力(credibility)はコミュニケーションの効果を左右する重要な要因で、通常は有能さ、誠実さ、善意を含むものとして理解される。患者が手術台に身を横たえるのは、メスを握る医師が寸分の狂いなく患部を切除できると信じるからであり、不安な保護者が塾の講師に高額を払うのも、試験に出そうな問題を子どもの頭に的確に教え込むと信じるからだ。

だが、能力が高いだけでは信頼できない。詐欺師が問題なのは無能だからではなく、不誠実だからだ。知っていることをすべて明かさなかったり、積極的に事実を歪めたりする人は信頼しがたい。どれほど有能で誠実でも、こちらのためを思っていない人も信頼の対象にはなれない。かつて大統領に不利な供述をしたサンバンウル会長の弁護団に参加した人物を、与党「共に民主党」が第2次総合特別検察の候補に推薦した際、親・李在明(イ・ジェミョン)系から「知らずにやったなら無能で、知っていてやったなら裏切りであり反逆だ」との声が出た。どちらに転んでも信頼できない、というわけだ。

AIの信頼性を論じる際に避けて通れない「幻覚(ハルシネーション)」は、生成AIが事実と異なる、あるいは根拠のない答えを自信満々に示す現象を指す。よく知らない(無能)のに、知っているふりをする(欺瞞)点で、有能さと誠実さの双方を欠いた例だ。言い換えれば、正しい答えを出す正確性、自分の答えがどれほど正確かを把握するメタ認知、分からない時に分からないと率直に言う透明性が、信頼できるAIの基本要件となる。

第二に、信頼は主観的だ。同じ対象でも信頼性評価が分かれるのは、評価過程に人間の偏りが無自覚に入り込むからだ。最近、韓国行政研究院の調査で「中央政府に複雑な社会問題を解決する能力があると思うか」と問うと、公務員回答者の65.9%が「非常にそうだ」「そう思う」を選んだのに対し、一般回答者で肯定したのは46.5%にとどまった。「中央政府が国民全体の利益を優先すると考えるか」でも、公務員の58.3%が肯定した一方、一般国民は33.9%だった。

したがって、大学修学能力試験の国語で何等級を取ったか、医師のイメージを求めた時に女性を示す割合が何%かといった客観的性能指標だけに依存しても、利用者の信頼を十分に把握するのは難しい。人々がどんな期待でAIを使うのか、いつ、どんな理由で利用をやめるのか、利用に伴う予期せぬ副作用は何か。実際の利用文脈で綿密に評価する必要がある。

最後に、信頼には見極めが要る。ロマンス詐欺にだまされるように、おべっかを使うAIに心を奪われ、誤った判断や有害な行動に至る例は、人間が称賛にいかに弱いかを示す。社会的受容性を高めること自体を政策目標に据えるのではなく、信頼できる技術の開発と同時に、それを見極める利用者の能力を高めることが急務だ。そこには、私たち自身の限界と偏りを警戒することも含まれる。

結局、信頼できるAIとは、利用者を説得して信じ込ませ、過度な確信を誘うシステムではない。利用者が合理的に判断し、必要な時に疑えるよう設計されたシステムである。李在明政権の国政課題に「世界でAIを最も多く使う国」ではなく「AIを最も上手に使う国」を明記したのも、そうした問題意識が背景にあるのではないか。