H

Hallucination Evaluation Model

vectaraによって開発
HHEM-2.1-OpenはVectaraが開発した幻覚検出モデルで、大規模言語モデルが生成した内容と与えられた証拠との一貫性を評価します。
ダウンロード数 229.46k
リリース時間 : 10/25/2023

モデル概要

大規模言語モデル(LLM)の幻覚を検出するために特別に設計されたテキスト分類モデルで、検索拡張生成(RAG)シナリオに特に適しており、生成内容と事実の一貫性度合いを定量評価します。

モデル特徴

高性能検出
RAGTruthベンチマークでGPT-3.5-TurboとGPT-4のバランス精度を上回る
軽量で効率的
32ビット精度でメモリ使用量600MB未満、最新x86 CPUで2kトークンの入力を約1.5秒で処理
無制限のコンテキストサポート
前世代HHEM-1.0の512トークン制限に比べ、長いコンテキストシーンをサポート
非対称検出
事実は正しいがコンテキストに合わない特殊な幻覚タイプを識別可能

モデル能力

テキスト一貫性評価
RAGシナリオでの幻覚検出
文を跨いだ論理関係分析

使用事例

検索拡張生成(RAG)
要約の事実チェック
LLMが検索結果に基づいて要約を生成する際、要約内容が検索証拠と一致しているか検証
RAGTruth-Summベンチマークで64.42%のバランス精度を達成
質問応答システム検証
質問応答システムが生成した回答が提供されたコンテキストに厳密に基づいているか評価
RAGTruth-QAベンチマークで74.28%のバランス精度を達成
コンテンツモデレーション
事実的声明の検証
ユーザー生成コンテンツ(UGC)内の既知の事実と矛盾する記述を検出
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase