2025年12月30日

## 要約:
大規模言語モデルにおける幻覚(ハルシネーション)問題に取り組むため、既存の定義を統合し、幻覚を「不正確な内部世界モデル」と定義した。この定義により、評価基準や対策を比較しやすくなり、評価対象となる真実の源を明確にできる。さらに、合成された世界モデルを用いたベンチマークを開発し、言語モデルの世界モデリング能力を向上させる計画を立てている。
---
## 翻訳:
arXiv:2512.21577v1 Announce Type: new
概要:ニューラル言語モデルの誕生以来、幻覚の問題を解決しようと数多くの試みが行われてきたにもかかわらず、今日に至るまで最先端の大規模言語モデルでも幻覚は依然として問題である。なぜこれが起こるのか? 文献で用いられてきた幻覚の定義を歴史的視点から現在の状況まで辿り、それらを単一の定義に統合する。その核心にある議論は、幻覚は単に不正確な(内部の)世界モデルであり、それがユーザーに観測可能な形で現れる(例えば、知識ベースと矛盾する事実を述べたり、既知のソースと矛盾する概要を生成したりすること)ということである。参照する世界モデルや知識の対立方針(例えば、知識ベースとコンテキスト内)を変化させることで、文献に存在する既存の幻覚の定義が生まれる。
この統一的な視点が有用であると主張する理由として、評価基準が想定する「世界」または真実の源を明確にすることを強制し、幻覚とみなすべきでないもの(計画や報酬/インセンティブに関連するエラーなど)を明確にし、ベンチマークや軽減策を比較するための共通言語を提供することが挙げられる。この定義に基づき、幻覚を異なる環境における合成されたが完全に指定された世界モデルとのミスマッチとして定義するベンチマークのファミリーの開発計画を立て、これらのベンチマークがどのように言語モデルの世界モデリングコンポーネントをストレス・テストし、改善できるかを概説する。
[📰 原文はこちら](https://arxiv.org/abs/2512.21577)
---
※本記事はAI(Ollama)による自動翻訳・要約です。
BittensorManがお勧めするメーカーリスト
https://exbridge.jp/xdirect/
AI時代の技術と知識のまとめ(AI生成メディア) - AIDexx
https://exbridge.jp/aidexx/
頑張って働く人に向けて、プロ用仕事アイテムを格安でネット販売しているX-Direct( https://exdirect.net )を、BittensorManは応援しています。
動画の最後にお得な情報がありますので、
最後までご覧ください。