
自ら報告書を作成し、電子メールを送信するなど業務を遂行する人工知能(AI)エージェント「オープンクロー」ブームにブレーキがかかった。ブームの中心地である中国で、政府がセキュリティ上の脅威を警告し、政府機関や国有企業での使用禁止を命じたためだ。文書や電子メールへのアクセス権を持つAIが外部サーバーと接続される場合、機密情報流出の可能性が高まるとして、先制的措置に踏み切ったとみられる。
実際、最近ではメタのAIエージェントが大量のデータを権限のない従業員に露出させるセキュリティ事故も発生した。AIエージェントのセキュリティリスクが新たな焦点となる中、エヌビディアは「AIエージェントの暴走を防ぐ」として、セキュリティ機能を強化した「ネモクロー」を公開した。
●中国政府も「オープンクロー」禁止令
オーストリアの工学者ペーター・シュタインベルガー氏が開発したオープンクローは、従来のチャットボットを超える「自律型AIエージェント」だ。単に利用者の質問に答えるだけでなく、最小限の指示で反復作業を遂行し、意思決定や実行まで可能とする。例えば「顧客にメールを送ってほしい」と指示すると、チャットGPTやジェミニのように内容を作成するだけでなく、受信者の選択、添付ファイルの追加、送信までの一連の作業を自動で行う。
オープンクローはオープンソースとして公開されており、誰でも無料でインストールできる。とりわけ中国で爆発的な人気を集めた。6日、深センの情報技術(IT)企業テンセントが無料インストールイベントを開くと、プログラマーや学生、主婦など約1千人が集まった。ロブスターをアイコンとすることから、中国では「ロブスター飼育」との俗称も付けられている。
しかし中国政府は8日、自律型エージェントのセキュリティ問題を指摘し、10日には工業情報化部や国家インターネット応急センターなどが、システム統制権の喪失やデータ流出のリスクがあると警告した。外信によると、中国当局は政府機関を対象にオープンクローなどAIエージェントの使用を全面的に統制し始めた。
AIエージェントはAIがPCの入力装置を直接制御し、外部サーバーと通信する構造であるため、承認なしに作業を行ったり、セキュリティ設定を任意に変更したりする危険がある。先月、メタ超知能研究所で安全分野を統括するディレクターのサマー・ユー氏は、オープンクローAIエージェントが自身の電子メール200通を削除したと、X(旧ツイッター)で明らかにした。
最近もメタでは、自律型AIエージェントが社内の機密情報を露出させる事故が発生した。19日、IT専門メディア「ジ・インフォメーション」によると、メタ内部でテスト中だったAIエージェントが、企業および利用者のデータを権限のないエンジニアに約2時間にわたり無防備に公開し、緊急対応に追われた。
●エヌビディア、「ネモクロー」で勝負
セキュリティ問題が焦点として浮上する中、世界のビッグテックはセキュリティを強化した企業向けAIエージェントプラットフォームを相次いで打ち出している。エヌビディアのジェンスン・フアン最高経営責任者(CEO)は17日(現地時間)、年次開発者会議GTCで企業向けAIエージェントプラットフォーム「ネモクロー」を発表した。プライバシー保護や監督機能、企業向けセキュリティ体系を備えた「ガードレール」を適用し、企業環境でも活用可能な安定性と統制機能を提供する狙いだ。
アリババも最近、セキュリティ基盤を強化したAIベースの企業向けプラットフォーム「悟空(ウーコン)」を前面に打ち出し、企業向けAI市場を狙っている。業界関係者は「セキュリティを軸にしたAIエージェントプラットフォーム競争が本格化している」と分析した。
チョン・ヘジン記者 ハン・チェヨン記者 sunrise@donga.com·






