AIが“もっともらしい嘘”をつく理由

 AIに質問をしてみたら、まるで本当のように堂々と“間違ったこと”を答えてきた——そんな経験はありませんか?
この現象は”ハルシネーション(幻覚)”と呼ばれ、AIが“もっともらしい嘘”をつくときに起こります。

 なぜそんなことが起こるのでしょうか。OpenAIの研究(※参考文献”Why Language Models Hallucinate”(英訳):https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf)によると、主な理由は2つあります。
 ひとつは「学習段階の限界」です。AIは大量の文章データをもとに“パターン”を学習しますが、正解が明確でも”パターン”化しづらい質問もあります。例えば「○○さんの誕生日」のように偶然性の高い情報までは予測できません。データの中に似た例がなければ、AIは“ありそうな答え”をそれっぽく作るしかないのです。
 もうひとつは「評価方法の問題」。AIは「分かりません」と答えるより、「とりあえず答える」ほうが高く評価されるように設計されてきた経緯があります。(学校のテストをイメージしてみてください。何も書かなければその問題は0点ですが、書くことによって僅かながら得点となる可能性がでてきます。)これが“嘘をつくAI”を生みやすくしているのです。

 しかし、最近では「分からない」と正直に言えるAIを育てる研究も進んでいます。
たとえば、「正解なら+1点、不正解なら-10点、分からないなら0点」といった新しい評価ルールを導入することで、無理に答えを作らないAIを目指しているとのことです。

 一方で、ハルシネーションは必ずしも悪ではありません。
小説や商品アイデア、未来予測のように“正解がない創造的な分野”では、この”もっともらしい想像力”がむしろ強みになります。AIが見せる“嘘”の裏には、まだ誰も考えたことのない発想のタネが隠れているかもしれません。

 つまり、私たち人間が「どんな場面で正確さを求め、どんな場面で創造性を引き出すか」を考えることこそが大切です。AIのハルシネーションを「欠点」と決めつけるのではなく、「どう使いこなすか」という視点で見る——
それが、AI時代を賢く生き抜く最大の武器になるかもしれません。

《 平林丈晴 / 中小企業診断士 》