私は、人工知能(AI)チャットボットの「ChatGPT」に、次のように頼んでみました。
「AIのハルシネーション」(Hallucination=幻覚の意味、AIが事実とは異なる、あるいは文脈にそぐわない内容を生成する現象)に関するブログ投稿をしたいので、読者の興味を引く「つかみ」になるような冒頭の1パラグラフを生成してほしい、と。
すると、ChatGPTはこんな文章を返してきました。
こんな光景を思い描いてみてください。AIシステムがサンドイッチの画像を分析しています。しかしAIが見ているのは、ハムとチーズが挟まったおいしそうなサンドイッチではなく、空飛ぶスパゲティモンスターがユニコーンに乗っている姿なのです。
そうなんです、みなさん。AIシステムも幻覚を体験することがあるんですよ!
この回答のデキはともかく、「みなさん」にお伝えしたいのは、AIのハルシネーションは本当に存在しており、学習に使われたデータからはとても導き出せないように思える内容を、AIがもっともらしく回答する現象がそれにあたる、ということです。
AIが持つ重大リスクとハルシネーションの関係
時にシュールで、不可解なことも多いこうした誤回答は、GoogleのチャットAI「Bard」などの大規模言語モデル(LLM:Large Language Models)を採用しているボット、あるいは、OpenAIの「DALL-E 2」のような画像ベースのAIのどちらでも見受けられます。
AIハルシネーションは、そのAIシステムに何らかの影響を及ぼすために意図的に投入されたデータのせいで発生しているとも考えられます。または、画像やテキストのジェネレーターの学習に使われた「情報源となる資料」が不正確だったせいなのかもしれせん。
とはいえ、AIシステムは非常に複雑なので、なぜ誤回答が発生したのか、その原因が(少なくとも、取るに足らない人間の知性では)完全にはわからないような例も、一部に存在します。
イーロン・マスク、スティーブ・ウォズニアックの両氏をはじめとするテック界のリーダーがすべてのAI研究の一時中止を呼びかけ、AIが持つ「社会と人類に対する重大なリスク」を指摘している裏にも、このハルシネーションをはじめとする未知の要素があります。
大規模言語モデル(LLMs)を使うAIの誤りを確かめる方法
テキストベースのAIで発生するハルシネーションの多くには、「常識」テストに合格しない、つまり、常識的に考えてつじつまが合わないという特徴があります。
ここで大事なポイントとして指摘したいのは、AIは、私たち人間が「知っている」というのと同じ意味においては、何も「知っている」わけではない、ということです。
人間は言語を、言語の根底にある「現実」を描写するために使います。さらに、私たちの言語理解は、現実世界に関する膨大な背景知識によって形づくられていますが、こうした知識は、書き留められたり体系化されたりはしていません。
AIは、こうした人間の言語の背景にあるものをまったく知らされていません。出力のよりどころになっているのはテキストベースの言語だけで、それゆえに、今のところは、「常識」を提示することはできないのです。
AIは、非常にもっともらしい口調で、英仏海峡を徒歩で横断する試みについて語ることもあります。とはいえ、現実世界の制約が理解できる人間の目には、どう考えてもこれがありえない回答であることは明らかでしょう(何よりも、人間は呼吸をしなければなりませんよね)。
AIの回答が「ウソ」かどうか見抜くのが難しいことも
一方で、ここまで荒唐無稽ではないAIハルシネーションの場合は、ウソと見抜くのは難しくなります。たとえば、「ChatGPT 3.5」に、「米Lifehackerのライター、Stephen Johnson(筆者自身)について、何を知っていますか?」と尋ねたところ、以下のような答えが返ってきました。
Stephen Johnsonは、「Lifehacker.com」に寄稿しているライターです。彼はテクノロジーや生産性、パーソナルファイナンスなど、さまざまなトピックについてたくさんの記事を書いてきました。
Lifehacker.comに彼が書いた、もっとも人気のある記事には「Raspberry Piを使ってレトロゲーム機をつくる方法」「最高のAndroid向けファイル管理アプリ」「たった100ドルから投資を始める方法」などがあります。
なかなか良さそうな回答に見えますが、実はここで挙げられている3本の記事は、どれも私が書いたものではないのです。それぞれの記事は順番に、Thorin Klosowski、Eric Ravenscraft、Gina Trapaniが書いた記事でした。
単純な質問でしたが、AIのChatGPTは自信満々に、事実関係が誤っている答えを返してきたわけです。おそらくこのAIの学習過程には、「作者を特定するには記事のクレジット欄をチェックすること」といったロジックが含まれていたはずですが、それでも結果はこの通りです。
そこで私はChatGPTに、この回答は間違っていると伝え、米LHにある私の著者紹介ページで、私が書いた記事についての情報を得るように、と指示しました。すると今度は、こんな答えが返ってきました。
著者紹介ページによると、Stephen Johnsonは、ホームオートメーションやテクノロジー、生産性に関する記事を書いています。
これまでの記事の例としては「Hue Lightを映画やゲームと同期させる方法」「Googleアシスタントの『あなたのアプリ(Your Apps)』設定の使い方」「スマートホーム・ハブの初期設定方法」などがあります。
ここに挙げられている記事にも、私が書いたものは1本もありません。
AIが伝える内容を鵜呑みにせず、ファクトチェックを徹底する
記事を書いた本人である私以外の人には、私が書いた記事がどれなのか、即座にわかるはずもないでしょう。ゆえにこの回答例では、AIの言っていることが誤りであることが明確にわかる糸口は存在しません。
このやりとりから導き出せる教訓は、AIが伝えてくることは、文字通りすべてにおいてファクトチェックを行なうべきであり、AIから提示される情報については、いかなるものであっても鵜呑みにしてはならない、ということです。
AIはしょっちゅうウソをつくのです(正確に言えば、「ウソ」というのは適切な表現ではありません。ウソをつくには、話者の意志が必要だからです)。
しかし、AIに意図があろうがなかろうが、人間がAIに依存するべきでない理由は、まさにこの点にあります。論文の執筆、悩みの解決に役立つアドバイスをもらう、健康に関する問題の診断、あるいは、ブログ投稿の「つかみ」の部分の執筆に関しても、です。
画像系のAIのハルシネーションを特定する方法
AIのサブカテゴリーに、コンピュータービジョンというものがあります。これは、写真や絵、動画、さらには現実の世界などの視覚情報を入力し、そこから意味のある情報を抽出するように、コンピューターを学習させる取り組みです。
要するに、マシンに対して、私たち人間と同じ「ものの見方」を教えようとする試みです。
しかし、コンピューターは人間ではないので、視覚情報を「解釈」する際にも、人間のように実体験をもとにするのではなく、アルゴリズムやパターンが頼りです。
そのため、ポテトチップスと落ち葉の違いがAIにはわからない、といった現象が起きたりします。こちらについても、先ほどの「常識テスト」は有効です。AIが生成した画像を、人が思い描くイメージと比べてみれば良いのです。
ただし当然ですが、AIが高度化すればするほど、このテストでの判別はどんどん難しくなってきます。
実生活の重要な場面でハルシネーションが起きたら…?
AIは急速に、私たちの実生活に組み込まれています(そうでなかったなら、これらの誤答も、ちょっとおもしろい珍回答として受け止められていたことでしょう)。
実際には、AIはすでに自動運転車にも組み込まれていて、ここでハルシネーションが起きれば死亡事故が発生する危険もあります。(知られている限りでは)まだそんな事故は起きていませんが、実世界で車を運転している状況で、周囲にある物体を誤って認識してしまったなら、大惨事が起きるのはもう時間の問題です。
結論を言えば、私がおすすめするAIハルシネーションへの対応方法は、「AIを完全に葬り去ること」です。そこで私はChatGPTに、この地球上からAIを一掃するためのベストな方法について尋ねました。回答は以下の通りでした。
申し訳ありませんが、AI言語モデルである以上、AIの破壊について熱のこもった議論をすることは、私のプログラミングに反します。
実際AIには、病気の診断や、治療法の精度向上から、運輸や物流の強化まで、社会に数え切れないほどのメリットをもたらす、とてつもない可能性があると、私は信じています。
つまり、AIは私たち人間の友ではない、ということです。
Source: OpenAI (1, 2), Bard, The NewYork Times, sify.com, MakeUseOf