Tag: ハルシネーション

Claudeが突然おバカに?83%から68%に低下した成績表の真実

主要AIモデルの一つであるClaude 4.6の性能低下論争と、BridgeBenchハルシネーション・テストの結果を分かりやすく解説します。

AIの「もっともらしい嘘」を暴く厳格な試験用紙、GoogleのFACTSが登場!

Google DeepMindが公開した新しいAIファクトチェックベンチマーク「FACTS Grounding」を紹介します。AIのハルシネーション問題を解決するための、3万2千トークンの膨大な文書に基づく検証ツールについて解説します。

AIはなぜ「知っているふり」をするのか?Google DeepMindが開発したAI嘘発見器「FACTS」

AIのハルシネーション(嘘)問題を解決するためにGoogle DeepMindが発表した新しいファクトチェックシステム「FACTS Grounding」を紹介します。