TD HallOumi 3B
基于Llama-3.2-3B-Instruct微调的声明验证模型,专门用于检测AI生成文本中的幻觉或未支持的陈述。
下载量 46
发布时间 : 4/4/2025
模型简介
该模型能够评估响应中的声明是否得到给定上下文文档的支持,主要用于声明验证和幻觉检测任务。
模型特点
高效幻觉检测
以30亿参数的规模,在幻觉检测任务上超越更大模型如Llama 3.1 405B和Gemini 1.5 Pro。
结构化输出
训练为输出特定标签(<|支持|>或<|不支持|>),便于自动化处理。
长上下文支持
最大序列长度8192,能够处理较长的上下文文档。
专业微调
使用Oumi AI专门策划的声明验证数据集进行监督微调。
模型能力
声明验证
幻觉检测
文本分类
事实依据性验证
使用案例
AI生成内容验证
AI生成摘要验证
验证AI生成的摘要是否准确反映源文档内容
可识别摘要中与源文档不符的陈述
问答系统验证
验证问答系统给出的答案是否得到参考文档支持
可检测问答系统中未基于文档的虚构答案
内容审核
事实核查
核查新闻或文章中声称的事实是否得到引用来源支持
可识别未经验证的事实声称
🚀 TD-HallOumi-3B:用于幻觉检测和声明验证的Llama 3.2 3B模型
本模型是meta-llama/Llama-3.2-3B-Instruct
的微调版本,专门用于声明验证和幻觉检测。它可以评估回复中的声明是否有给定上下文文档的支持。
这项工作受到了Oumi AI的HallOumi项目的启发,并使用了该项目开发的数据集。该项目旨在通过实现可验证的输出,建立人们对AI系统的信任。这个30亿参数的模型由TEEN-DIFFERENT社区提供。
🚀 快速开始
本模型专为根据给定的上下文文档进行声明验证而设计。其主要应用场景是检测大语言模型生成的文本(或人工撰写的文本)中与源文档相比存在的幻觉或无根据的声明。
✨ 主要特性
- 高性能:在oumi-ai/oumi-groundedness-benchmark基准测试中,TD-HallOumi-3B*的宏F1分数达到了68.00%。
- 高效性:这个30亿参数的模型性能优于Open AI o1、Llama 3.1 405B和Gemini 1.5 Pro等更大的模型。
- 竞争力强:排名紧随Claude Sonnet 3.5(69.60%)之后。
📚 详细文档
模型详情
属性 | 详情 |
---|---|
基础模型 | meta-llama/Llama-3.2-3B-Instruct |
微调任务 | 给定一个上下文文档和一个回复(包含一个或多个声明),模型预测每个声明是否能被上下文支持(`< |
模型输出格式 | 模型经过训练,会在结构化的提示格式中输出特定标签(`< |
语言 | 英文 |
训练数据
本模型在由Oumi AI整理的混合数据集上进行了监督微调(SFT),这些数据集专为声明验证任务而设计:
- oumi-ai/oumi-anli-subset:基于ANLI提示,回复由Llama-3.1-405B生成。(许可证:CC-BY-NC-4.0)
- oumi-ai/oumi-c2d-d2c-subset:基于C2D-and-D2C-MiniCheck提示,回复由Llama-3.1-405B生成。(许可证:Llama 3.1社区许可证)
- oumi-ai/oumi-synthetic-claims:基于文档,使用Llama-3.1-405B合成生成的声明和验证标签。(许可证:Llama 3.1社区许可证)
- oumi-ai/oumi-synthetic-document-claims:使用Llama-3.1-405B合成生成的文档、请求(问答、摘要)、回复和验证标签。详细说明了涉及
<document>
、<request>
和<|supported|>
/<|unsupported|>
标签的提示结构。(许可证:Llama 3.1社区许可证)
组合训练数据使用了为对话式SFT格式化的messages
列。
训练过程
- 框架:TRL(Transformer强化学习库)SFT训练器。
- 适配器方法:在微调过程中使用了低秩适应(LoRA),参数如下:
lora_r
: 64lora_alpha
: 128lora_dropout
: 0.05lora_target_modules
:q_proj
,k_proj
,v_proj
,o_proj
,gate_proj
,up_proj
,down_proj
- 最终模型:虽然使用LoRA进行训练,但此处托管的最终保存模型工件包含完全合并的权重,将LoRA调整合并到基础模型中,以便于部署。
- 关键超参数:
- 轮数:1
- 学习率:4.0e - 5(余弦调度,100个热身步骤)
- 优化器:AdamW(融合)
- 批量大小(每个设备):2
- 梯度累积步数:8(有效批量大小 = 16 * 设备数量)
- 权重衰减:0.01
- 最大序列长度:8192
- 精度:
bfloat16
- 梯度检查点:启用(
use_reentrant=False
)
- 分词器:使用了基础的Llama 3.2分词器,并在训练期间添加了特殊的填充标记
<|finetune_right_pad_id|>
。此仓库中包含的分词器文件反映了这一点。
完整的训练配置可在Github上找到。
评估
- 基准测试:可以使用oumi-ai/oumi-groundedness-benchmark评估模型在声明验证方面的性能。这个基准测试由Oumi AI专门为评估幻觉检测模型而开发,包含各种文档、请求和带有验证标签的AI生成回复。
- 指标:此任务的标准指标包括“支持”(0)和“不支持”(1)类之间的宏F1分数和平衡准确率。
- 参考性能:Oumi AI的HallOumi - 8B模型在这个基准测试中实现了77.2%的宏F1分数。这个30亿参数模型的性能可能会有所不同。
完整的训练配置可在Github上找到。
预期用途
本模型专为根据给定的上下文文档进行声明验证而设计。其主要应用场景是检测大语言模型生成的文本(或人工撰写的文本)中与源文档相比存在的幻觉或无根据的声明。
它并非用于通用聊天机器人,也不适用于与依据验证无关的任务。
局限性和偏差
- 继承偏差:作为
meta-llama/Llama-3.2-3B-Instruct
的微调版本,本模型可能继承基础模型与其训练数据相关的偏差。 - 合成数据偏差:微调数据主要使用Llama-3.1-405B-Instruct生成,可能包含生成模型特有的偏差或局限性。
- 特异性:模型专门针对其训练的声明验证任务格式进行了优化。在显著不同的提示结构或任务上,性能可能会下降。
- 上下文依赖性:验证准确性完全取决于所提供上下文文档的质量和相关性。模型无法根据上下文中不存在的通用世界知识来验证声明。
- 细微差别:尽管在训练时考虑了细微差别(符合HallOumi项目的目标),但复杂或高度微妙的声明可能仍然难以正确验证。
引用
如果您使用此模型,请考虑引用基础模型、数据集、Oumi AI的HallOumi项目以及这个特定的微调模型工件:
此微调模型(TD-HallOumi-3B):
@misc{teen_d_halloumi_3b_2024,
author = {Tarun Reddi and Teen Different},
title = {TD-HallOumi-3B: Fine-tuned Llama-3.2-3B-Instruct for Claim Verification},
month = {April},
year = {2025},
url = {\url{https://huggingface.co/TEEN-D/TD-HallOumi-3B}}
}
基础模型:
@misc{meta2024llama32,
title = {Introducing Llama 3.2: The Next Generation of Open Weights AI Models},
author = {Meta AI},
year = {2024},
url = {https://ai.meta.com/blog/llama-3-2-ai-models/}
}
数据集:
@misc{oumiANLISubset,
author = {Jeremiah Greer},
title = {Oumi ANLI Subset},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-anli-subset}
}
@misc{oumiC2DAndD2CSubset,
author = {Jeremiah Greer},
title = {Oumi C2D and D2C Subset},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-c2d-d2c-subset}
}
@misc{oumiSyntheticClaims,
author = {Jeremiah Greer},
title = {Oumi Synthetic Claims},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-synthetic-claims}
}
@misc{oumiSyntheticDocumentClaims,
author = {Jeremiah Greer},
title = {Oumi Synthetic Document Claims},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-synthetic-document-claims}
}
@misc{oumiGroundednessBenchmark,
author = {Jeremiah Greer},
title = {Oumi Groundedness Benchmark},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-groundedness-benchmark}
}
Oumi平台和HallOumi项目:
@software{oumi2025,
author = {Oumi Community},
title = {Oumi: an Open, End-to-end Platform for Building Large Foundation Models},
month = {January},
year = {2025},
url = {https://github.com/oumi-ai/oumi}
}
@article{halloumi2025,
author = {Greer, Jeremiah and Koukoumidis, Manos and Aisopos, Konstantinos and Schuler, Michael},
title = {Introducing HallOumi: A State-of-the-Art Claim-Verification Model},
journal = {Oumi AI Blog},
year = {2025},
month = {April},
url = {https://oumi.ai/blog/posts/introducing-halloumi}
}
📄 许可证
本项目采用CC BY-NC 4.0许可证。
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基于DistilBERT-base-uncased在SST-2情感分析数据集上微调的文本分类模型,准确率91.3%
文本分类 英语
D
distilbert
5.2M
746
Xlm Roberta Base Language Detection
MIT
基于XLM-RoBERTa的多语言检测模型,支持20种语言的文本分类
文本分类
Transformers 支持多种语言

X
papluca
2.7M
333
Roberta Hate Speech Dynabench R4 Target
该模型通过动态生成数据集来改进在线仇恨检测,专注于从最差案例中学习以提高检测效果。
文本分类
Transformers 英语

R
facebook
2.0M
80
Bert Base Multilingual Uncased Sentiment
MIT
基于bert-base-multilingual-uncased微调的多语言情感分析模型,支持6种语言的商品评论情感分析
文本分类 支持多种语言
B
nlptown
1.8M
371
Emotion English Distilroberta Base
基于DistilRoBERTa-base微调的英文文本情感分类模型,可预测埃克曼六种基本情绪及中性类别。
文本分类
Transformers 英语

E
j-hartmann
1.1M
402
Robertuito Sentiment Analysis
基于RoBERTuito的西班牙语推文情感分析模型,支持POS(积极)/NEG(消极)/NEU(中性)三类情感分类
文本分类 西班牙语
R
pysentimiento
1.0M
88
Finbert Tone
FinBERT是一款基于金融通讯文本预训练的BERT模型,专注于金融自然语言处理领域。finbert-tone是其微调版本,用于金融情感分析任务。
文本分类
Transformers 英语

F
yiyanghkust
998.46k
178
Roberta Base Go Emotions
MIT
基于RoBERTa-base的多标签情感分类模型,在go_emotions数据集上训练,支持28种情感标签识别。
文本分类
Transformers 英语

R
SamLowe
848.12k
565
Xlm Emo T
XLM-EMO是一个基于XLM-T模型微调的多语言情感分析模型,支持19种语言,专门针对社交媒体文本的情感预测。
文本分类
Transformers 其他

X
MilaNLProc
692.30k
7
Deberta V3 Base Mnli Fever Anli
MIT
基于MultiNLI、Fever-NLI和ANLI数据集训练的DeBERTa-v3模型,擅长零样本分类和自然语言推理任务
文本分类
Transformers 英语

D
MoritzLaurer
613.93k
204
精选推荐AI模型
Llama 3 Typhoon V1.5x 8b Instruct
专为泰语设计的80亿参数指令模型,性能媲美GPT-3.5-turbo,优化了应用场景、检索增强生成、受限生成和推理任务
大型语言模型
Transformers 支持多种语言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一个基于SODA数据集训练的超小型对话模型,专为边缘设备推理设计,体积仅为Cosmo-3B模型的2%左右。
对话系统
Transformers 英语

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基于RoBERTa架构的中文抽取式问答模型,适用于从给定文本中提取答案的任务。
问答系统 中文
R
uer
2,694
98