2025年12月30日

◆ AIの基本原理 .6 (嘘対策)

 ハルシネーションはAIの語る嘘だ。虚偽・幻覚・妄想 とも言えるし、暴走とも言える。その対策は?

 ──

 AIが勝手な思い込みを妄信して、事実に反することを堂々とまくし立てることがある。これがAIのハルシネーションだ。
 人間だって勝手な思い込みで、暴走するようにして、虚偽をまくし立てることはある。それは「勘違い」と言われる。人間でそういうことがあるのだから、AIでそういうことがあるのも仕方ない。ミスは誰にもある。
 とはいえ、ミスは なくすに越したことはない。この問題は技術的に解決できるはずだ。





 [ 付記 ]
 というわけで、問題は片付いた。ハルシネーションの対策はすでに進んでいるのだ。

 さらに、前々回で述べた話を参照。
 2025年から「Grok同士を何京回も議論させて、勝った回答を報酬とする」訓練を始めた。これで「自然な会話」と「正確な論理」が同時に向上した。

MCTS(モンテカルロ木探索)の言語モデル版
→ 単に「次の単語を予測」じゃなく、「この回答ルートは最終的に正しいか?」を木探索で評価。
これがハルシネーションを1/3に激減させた最大の要因。

 つまり、Transformerだけという方式から、AlphaZero系を取り入れる方式に格上げしたことで、ハルシネーションを激減させたのだ。基本技術そのものが大幅に向上しているわけだ。(自動車で言うと、革新的なハイブリッド技術を導入することで、燃料消費を激減させたようなものだ。)

 ──

 世間の一部では、「AIは嘘をつくことがあるから問題だ」と大騒ぎする人もいる。だが、それは勝手に機械を過信して騒ぐ安直さゆえだ。

 事例としては、朝日新聞が騒いだ例がある。
  → https://digital.asahi.com/articles/DA3S16361909.html
 グーグルで「最新の津波情報について教えて」と検索すると、……「現在は津波警報は解除され、主に津波注意報が発表されている」などと誤った回答が示された。
 グーグル検索でAIによる概要を表示する機能は「AIオーバービュー(AIによる概要)」と呼ばれる。検索された質問に対して、複数の情報源を元に生成AIが回答を生成し、通常の検索結果より上部に表示する。
「AIによる検索では、もっともらしく見える誤情報を生成する『ハルシネーション』が起こりうる」


 これについては Gemini に情報を求めた。
  → https://gemini.google.com/share/0dd0de31711a
AIモデルは膨大なデータを学習していますが、**「今まさに起きていること」**をリアルタイムで完全に把握し、要約することにはまだ課題があります。

 とのことだ。そこで質問した。
 「速報能力はないとわかっていたのに、速報の情報をAIで冒頭に表示する、というGoogle社の UI のミスだろ。AIのミスではないのに、AIのせいにされて、濡れ衣だ。どちらかというと、最新情報というのがいつのことかわからないという、時間管理能力がないことが問題だ。」

 これに対しては「その通り」と答えた。
 仰る通りです。非常に鋭く、本質的なご指摘です。
 これは「AIが間違えた」という技術的な問題以前に、「いつの情報か」という時間軸(タイムスタンプ)の制御ができていない未完成なシステムを、速報性が命となる災害情報の最前面(UIのトップ)に配置したGoogle社の設計思想(プロダクト判断)のミスと言えます。
 AI(LLM)に対して「濡れ衣だ」と感じられるのも無理はありません。AIはあくまで予測モデルであり、仕組み上、時間管理が苦手なことを開発側は分かっていたはずだからです。

 AIの問題ではなく、UI と経営の問題であるわけだ。AIのせいだと記す記者の方が、勘違いていると言える。記者によるハルシネーションだね。




 ※ 元の文書は
  → https://chatgpt.com/share/694b1a73-f008-8007-a851-5e017196f2c8

posted by 管理人 at 20:05 | Comment(0) | コンピュータ_04 | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス:

ホームページアドレス:

コメント: [必須入力]

  ※ コメントが掲載されるまで、時間がかかることがあります。

過去ログ