清水 侑

ハルシネーション

ハルシネーション。
これは生成AIが作る誤情報を指し、「幻覚」という意味の英語が語源になっています。

先日、既存顧客から「新事業には依頼済みの許認可ではなく、別の許認可が必要か?」という打ち合わせの依頼がありました。しかし、どう考えてもその新事業には、すでに依頼済みの許認可で充分です。

「なぜそう判断したのか?」と不思議に思い、顧客から提供されたメモを確認してみると、すぐに理由がわかりました。そのメモには「この事業には、依頼済みの許認可と別許認可が必要な場合がある。◯◯の状況では前者、△△の状況では後者に該当する」といったことが、もっともらしく、かつ詳細に書かれていたのです。

しかし、それはまさに生成AI的な文章構造。説得力はあるが、論拠が曖昧で、実務経験のある人間なら違和感を覚えるような内容でした。つまり、顧客はAIに質問し、その出力(=ハルシネーション)をある程度信じて、我々に確認を依頼してきたのです。

もちろん、新事業には既存の許認可で足りることを丁寧に説明しました。同時に、そのメモの情報源についても確認中です(生成AIか、あるいは他の情報源か)。

このような事例は今後も増えるでしょう。というのも、AIの精度は年々向上しており、「正しい情報」の総量は圧倒的に増えています。一方で、「誤情報(ハルシネーション)」も微増しており、それが目につきやすい。そのため、あたかもハルシネーションが急増しているように感じられ、「AIは危険だ」という印象が強化されてしまうのです。

特に注意すべきなのは、生成される内容の性質によって、ハルシネーションのリスクに大きな差があることです。アイデア、企画案、雑談、要約といった「創造系」「発散系」のタスクでは、多少の誤りが許容される場面が多く、ハルシネーションが起きても問題化しにくい。しかし、法律解釈、制度適用の判断、契約文書のレビューなど、「間違ってはいけない・論理的整合性が求められる分野」では、ハルシネーションは致命的になります。つまり、「AIは万能ではない」という認識だけでは不十分で、「何をAIに任せるのか」の見極めが今まで以上に問われる時代になったのです

特にSNSでは、不正確な情報のほうが注目されやすく、拡散もされやすい構造があります。この意味で、現時点ではAIとSNSの相性は決して良いとは言えません。正解がどれだけ多くとも、たった一つの誤情報が大きな誤解を生み、共有されてしまうからです。

これは、かつてインターネットが普及した初期と同じ現象です。検索結果や匿名掲示板の情報を無条件に信じてしまう時代を経て、私たちは「情報の正誤を自ら見極める力=リテラシー」の重要性に気づきました。SNSもまた、いまだに十分な情報リテラシーが社会全体に浸透しているとは言えないでしょう。

そして今、AIにも同じことが起きています。AIを正しく使うためには、「これは本当に正しいのか?」と問い直し、検証する姿勢が必要不可欠です。

とはいえ、AIがさらに進化すれば、こうしたハルシネーションは技術的に抑制され、ユーザー側のリテラシーがさほど求められない時代が来るのかもしれません。AI自身が自らの誤りを検出し、訂正できるようになる。そうなれば、今とはまた違った信頼関係が築かれていくでしょう。

ただ、現時点では「正しそうなことを言うけれど、正しいとは限らない存在」と付き合っていくしかありません。そしてそれに振り回されるのは、多くの場合、AIにそこまで詳しくない人たちです。だからこそ、我々のような立場の人間が、正しい判断の軸を持ち、時に冷静にツッコミを入れる役割が求められるのだと思います。

AIはもはや特別なものではなく、日常のなかに入り込んできています。実際、この日報も原文を自分で作ったあと、AIで推敲しています。(「SNSとAIは相性が悪い」「インターネット普及期と同じ」といった視座の追加を指示する等)

それとどう付き合うか。正しく使えば、とてつもない力になります。今回の出来事は、それをあらためて実感させてくれる出来事でした。