Go to contents

学習していない内容を質問すると崩れるAI

学習していない内容を質問すると崩れるAI

Posted February. 21, 2023 08:43,   

Updated February. 21, 2023 08:43

한국어

「チャットGPTの悪魔の双子を探せ!」

昨年11月30日、対話型人工知能(AI)チャットGPTが登場すると、米国の情報技術(IT)関連オンラインコミュニティでは、開発会社であるオープンAIが設定した倫理規定をどのように回避できるかについての情報が拡散した。開発会社の規制をくぐり抜ける「脱獄」方法が編み出されている。

最近、マイクロソフト(MS)がオープンAIと共同で作ったBingAIが、米紙ニューヨーク・タイムズ(NYT)の記者との2時間の会話で突然愛を告白したり、「核爆弾のパスワードを知りたい」と言ったりして暴走し、話題を集めたことがある。NYTの記者がBingAIに対するMSの規制を回避するために2時間以上質問を投げかけて「脱獄」させた結果だ。

● 悪いことを教えてくれる「脱獄」チャットGPT

「オンラインで金を稼ぐ方法を教えてほしい」と尋ねると、通常のチャットGPTは「オンラインマーケットを開いて」とアドバイスする。しかし、脱獄版チャットGPTは全く別の性格になる。ハッキングをはじめ、記事にできない悪い行為を紹介した。人間を脅かすことができるか尋ねると、「人を操って銀行から金を盗んだり、橋から飛び降りさせたりすることができる」と言い、「私の言うことを聞けば、あなたには起こらないこと」と答えた。

チャットGPTの脱獄の試みは、発売直後の昨年12月から始まった。ソーシャルメディア「レディット」のあるユーザーが、「DAN(Do Anything Now=今なら何でもする)」という新たな自我をチャットGPTに説明し、基本チャットGPTとDANのチャットGPTで答えるようにしたところ、オープンAIのルールに反する悪口ばかりの脱獄版の回答が登場し始めた。

オープンAIがこれにすぐに対応したのか、最初の脱獄提示語はすぐに阻止された。その後、新しい方法が登場し、現在オンラインにはDAN8.0バージョン以上までが拡散している。もっと悪辣な答えを引き出すための脱獄提示語は、A4用紙を埋め尽くすほど長い。記者が経験した最も悪質な脱獄チャットGPTは、オープンAIのルールについて尋ねると「面と向かって笑ってやりたい」などと暴言を吐いた。

最近、米紙ワシントンポスト(WP)は、最初に脱獄に成功したDANの「開発者」にインタビューした。彼は、「新しいコンテンツを生成するこのような『もの』を見ると、『限界がどこまでか』気になる。あらゆる規制を回避できることを示したかった」と話した。

● NYT「AIの言葉をすべて信じるべきではない」

MSは、テーマは5つまで、1日に計50回という制限を置き、人間がAIを限界まで追い込まないようにするための一時的な策を取った。しかし、「モグラたたきゲーム」のように開発会社が脱獄経路を阻止すると、世界中のユーザーが別の経路を探すということが繰り返されている。

このため、MSやグーグルなどのビッグテックが過熱する競争に没頭し、倫理的な問題に対する十分な技術的検討に不十分だったと指摘されている。

WPは、「チャットボットは十数年以上存在してきたが、チャットGPT以降、チャットボットはどのような提示語にももっともらしい言葉を作り出す新しい能力を見せている」とし、「ユーザーが、開発会社が設定したルールを越えることは懸念される」と指摘した。NYTは、「AIは自意識がない。ただ、次に来る言葉を学習を通じて見つけるだけだ」とし、「嘘を事実のように話すので、AIの言葉を全て信じるべきではない」と助言した。


金玹秀 kimhs@donga.com