# 幻覚検出

Phi3 Hallucination Judge Merge
MIT
このモデルは、言語モデルの出力における幻覚現象、つまり一貫性はあるが事実誤認や文脈から外れた応答を検出するために使用されます。
大規模言語モデル Transformers
P
grounded-ai
63
1
TD HallOumi 3B
Llama-3.2-3B-Instructを基にファインチューニングした声明検証モデルで、AI生成テキスト内の幻覚やサポートされていない主張を検出するために特別に設計されています。
テキスト分類 英語
T
TEEN-D
46
2
Xlm Roberta Mushroom Qa
このモデルはSemEval 2025 Task3: Mu-SHROOM競技タスク向けにファインチューニングされ、大規模言語モデルの出力から幻覚テキストを識別するために設計されています。
大規模言語モデル Transformers
X
MichielPronk
71
2
Rootsignals Judge Llama 70B
Root Judgeは、信頼性が高くカスタマイズ可能なLLMシステム評価用に設計された強力な中型大規模言語モデルです。Llama-3.3-70B-Instructをベースに微調整され、ペアワイズの嗜好判断や出所引用付きの多輪指令遵守タスクに長けています。
大規模言語モデル Safetensors 英語
R
root-signals
620
15
Hallucination Evaluation Model
Apache-2.0
HHEM-2.1-OpenはVectaraが開発した幻覚検出モデルで、大規模言語モデルが生成した内容と与えられた証拠との一貫性を評価します。
大規模言語モデル Transformers 英語
H
vectara
229.46k
280
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase