TD HallOumi 3B
基於Llama-3.2-3B-Instruct微調的聲明驗證模型,專門用於檢測AI生成文本中的幻覺或未支持的陳述。
下載量 46
發布時間 : 4/4/2025
模型概述
該模型能夠評估響應中的聲明是否得到給定上下文文檔的支持,主要用於聲明驗證和幻覺檢測任務。
模型特點
高效幻覺檢測
以30億參數的規模,在幻覺檢測任務上超越更大模型如Llama 3.1 405B和Gemini 1.5 Pro。
結構化輸出
訓練為輸出特定標籤(<|支持|>或<|不支持|>),便於自動化處理。
長上下文支持
最大序列長度8192,能夠處理較長的上下文文檔。
專業微調
使用Oumi AI專門策劃的聲明驗證數據集進行監督微調。
模型能力
聲明驗證
幻覺檢測
文本分類
事實依據性驗證
使用案例
AI生成內容驗證
AI生成摘要驗證
驗證AI生成的摘要是否準確反映源文檔內容
可識別摘要中與源文檔不符的陳述
問答系統驗證
驗證問答系統給出的答案是否得到參考文檔支持
可檢測問答系統中未基於文檔的虛構答案
內容審核
事實核查
核查新聞或文章中聲稱的事實是否得到引用來源支持
可識別未經驗證的事實聲稱
🚀 TD-HallOumi-3B:用於幻覺檢測和聲明驗證的Llama 3.2 3B模型
本模型是meta-llama/Llama-3.2-3B-Instruct
的微調版本,專門用於聲明驗證和幻覺檢測。它可以評估回覆中的聲明是否有給定上下文文檔的支持。
這項工作受到了Oumi AI的HallOumi項目的啟發,並使用了該項目開發的數據集。該項目旨在通過實現可驗證的輸出,建立人們對AI系統的信任。這個30億參數的模型由TEEN-DIFFERENT社區提供。
🚀 快速開始
本模型專為根據給定的上下文文檔進行聲明驗證而設計。其主要應用場景是檢測大語言模型生成的文本(或人工撰寫的文本)中與源文檔相比存在的幻覺或無根據的聲明。
✨ 主要特性
- 高性能:在oumi-ai/oumi-groundedness-benchmark基準測試中,TD-HallOumi-3B*的宏F1分數達到了68.00%。
- 高效性:這個30億參數的模型性能優於Open AI o1、Llama 3.1 405B和Gemini 1.5 Pro等更大的模型。
- 競爭力強:排名緊隨Claude Sonnet 3.5(69.60%)之後。
📚 詳細文檔
模型詳情
屬性 | 詳情 |
---|---|
基礎模型 | meta-llama/Llama-3.2-3B-Instruct |
微調任務 | 給定一個上下文文檔和一個回覆(包含一個或多個聲明),模型預測每個聲明是否能被上下文支持(`< |
模型輸出格式 | 模型經過訓練,會在結構化的提示格式中輸出特定標籤(`< |
語言 | 英文 |
訓練數據
本模型在由Oumi AI整理的混合數據集上進行了監督微調(SFT),這些數據集專為聲明驗證任務而設計:
- oumi-ai/oumi-anli-subset:基於ANLI提示,回覆由Llama-3.1-405B生成。(許可證:CC-BY-NC-4.0)
- oumi-ai/oumi-c2d-d2c-subset:基於C2D-and-D2C-MiniCheck提示,回覆由Llama-3.1-405B生成。(許可證:Llama 3.1社區許可證)
- oumi-ai/oumi-synthetic-claims:基於文檔,使用Llama-3.1-405B合成生成的聲明和驗證標籤。(許可證:Llama 3.1社區許可證)
- oumi-ai/oumi-synthetic-document-claims:使用Llama-3.1-405B合成生成的文檔、請求(問答、摘要)、回覆和驗證標籤。詳細說明了涉及
<document>
、<request>
和<|supported|>
/<|unsupported|>
標籤的提示結構。(許可證:Llama 3.1社區許可證)
組合訓練數據使用了為對話式SFT格式化的messages
列。
訓練過程
- 框架:TRL(Transformer強化學習庫)SFT訓練器。
- 適配器方法:在微調過程中使用了低秩適應(LoRA),參數如下:
lora_r
: 64lora_alpha
: 128lora_dropout
: 0.05lora_target_modules
:q_proj
,k_proj
,v_proj
,o_proj
,gate_proj
,up_proj
,down_proj
- 最終模型:雖然使用LoRA進行訓練,但此處託管的最終保存模型工件包含完全合併的權重,將LoRA調整合併到基礎模型中,以便於部署。
- 關鍵超參數:
- 輪數:1
- 學習率:4.0e - 5(餘弦調度,100個熱身步驟)
- 優化器:AdamW(融合)
- 批量大小(每個設備):2
- 梯度累積步數:8(有效批量大小 = 16 * 設備數量)
- 權重衰減:0.01
- 最大序列長度:8192
- 精度:
bfloat16
- 梯度檢查點:啟用(
use_reentrant=False
)
- 分詞器:使用了基礎的Llama 3.2分詞器,並在訓練期間添加了特殊的填充標記
<|finetune_right_pad_id|>
。此倉庫中包含的分詞器文件反映了這一點。
完整的訓練配置可在Github上找到。
評估
- 基準測試:可以使用oumi-ai/oumi-groundedness-benchmark評估模型在聲明驗證方面的性能。這個基準測試由Oumi AI專門為評估幻覺檢測模型而開發,包含各種文檔、請求和帶有驗證標籤的AI生成回覆。
- 指標:此任務的標準指標包括“支持”(0)和“不支持”(1)類之間的宏F1分數和平衡準確率。
- 參考性能:Oumi AI的HallOumi - 8B模型在這個基準測試中實現了77.2%的宏F1分數。這個30億參數模型的性能可能會有所不同。
完整的訓練配置可在Github上找到。
預期用途
本模型專為根據給定的上下文文檔進行聲明驗證而設計。其主要應用場景是檢測大語言模型生成的文本(或人工撰寫的文本)中與源文檔相比存在的幻覺或無根據的聲明。
它並非用於通用聊天機器人,也不適用於與依據驗證無關的任務。
侷限性和偏差
- 繼承偏差:作為
meta-llama/Llama-3.2-3B-Instruct
的微調版本,本模型可能繼承基礎模型與其訓練數據相關的偏差。 - 合成數據偏差:微調數據主要使用Llama-3.1-405B-Instruct生成,可能包含生成模型特有的偏差或侷限性。
- 特異性:模型專門針對其訓練的聲明驗證任務格式進行了優化。在顯著不同的提示結構或任務上,性能可能會下降。
- 上下文依賴性:驗證準確性完全取決於所提供上下文文檔的質量和相關性。模型無法根據上下文中不存在的通用世界知識來驗證聲明。
- 細微差別:儘管在訓練時考慮了細微差別(符合HallOumi項目的目標),但複雜或高度微妙的聲明可能仍然難以正確驗證。
引用
如果您使用此模型,請考慮引用基礎模型、數據集、Oumi AI的HallOumi項目以及這個特定的微調模型工件:
此微調模型(TD-HallOumi-3B):
@misc{teen_d_halloumi_3b_2024,
author = {Tarun Reddi and Teen Different},
title = {TD-HallOumi-3B: Fine-tuned Llama-3.2-3B-Instruct for Claim Verification},
month = {April},
year = {2025},
url = {\url{https://huggingface.co/TEEN-D/TD-HallOumi-3B}}
}
基礎模型:
@misc{meta2024llama32,
title = {Introducing Llama 3.2: The Next Generation of Open Weights AI Models},
author = {Meta AI},
year = {2024},
url = {https://ai.meta.com/blog/llama-3-2-ai-models/}
}
數據集:
@misc{oumiANLISubset,
author = {Jeremiah Greer},
title = {Oumi ANLI Subset},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-anli-subset}
}
@misc{oumiC2DAndD2CSubset,
author = {Jeremiah Greer},
title = {Oumi C2D and D2C Subset},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-c2d-d2c-subset}
}
@misc{oumiSyntheticClaims,
author = {Jeremiah Greer},
title = {Oumi Synthetic Claims},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-synthetic-claims}
}
@misc{oumiSyntheticDocumentClaims,
author = {Jeremiah Greer},
title = {Oumi Synthetic Document Claims},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-synthetic-document-claims}
}
@misc{oumiGroundednessBenchmark,
author = {Jeremiah Greer},
title = {Oumi Groundedness Benchmark},
month = {March},
year = {2025},
url = {https://huggingface.co/datasets/oumi-ai/oumi-groundedness-benchmark}
}
Oumi平臺和HallOumi項目:
@software{oumi2025,
author = {Oumi Community},
title = {Oumi: an Open, End-to-end Platform for Building Large Foundation Models},
month = {January},
year = {2025},
url = {https://github.com/oumi-ai/oumi}
}
@article{halloumi2025,
author = {Greer, Jeremiah and Koukoumidis, Manos and Aisopos, Konstantinos and Schuler, Michael},
title = {Introducing HallOumi: A State-of-the-Art Claim-Verification Model},
journal = {Oumi AI Blog},
year = {2025},
month = {April},
url = {https://oumi.ai/blog/posts/introducing-halloumi}
}
📄 許可證
本項目採用CC BY-NC 4.0許可證。
Distilbert Base Uncased Finetuned Sst 2 English
Apache-2.0
基於DistilBERT-base-uncased在SST-2情感分析數據集上微調的文本分類模型,準確率91.3%
文本分類 英語
D
distilbert
5.2M
746
Xlm Roberta Base Language Detection
MIT
基於XLM-RoBERTa的多語言檢測模型,支持20種語言的文本分類
文本分類
Transformers 支持多種語言

X
papluca
2.7M
333
Roberta Hate Speech Dynabench R4 Target
該模型通過動態生成數據集來改進在線仇恨檢測,專注於從最差案例中學習以提高檢測效果。
文本分類
Transformers 英語

R
facebook
2.0M
80
Bert Base Multilingual Uncased Sentiment
MIT
基於bert-base-multilingual-uncased微調的多語言情感分析模型,支持6種語言的商品評論情感分析
文本分類 支持多種語言
B
nlptown
1.8M
371
Emotion English Distilroberta Base
基於DistilRoBERTa-base微調的英文文本情感分類模型,可預測埃克曼六種基本情緒及中性類別。
文本分類
Transformers 英語

E
j-hartmann
1.1M
402
Robertuito Sentiment Analysis
基於RoBERTuito的西班牙語推文情感分析模型,支持POS(積極)/NEG(消極)/NEU(中性)三類情感分類
文本分類 西班牙語
R
pysentimiento
1.0M
88
Finbert Tone
FinBERT是一款基於金融通訊文本預訓練的BERT模型,專注於金融自然語言處理領域。finbert-tone是其微調版本,用於金融情感分析任務。
文本分類
Transformers 英語

F
yiyanghkust
998.46k
178
Roberta Base Go Emotions
MIT
基於RoBERTa-base的多標籤情感分類模型,在go_emotions數據集上訓練,支持28種情感標籤識別。
文本分類
Transformers 英語

R
SamLowe
848.12k
565
Xlm Emo T
XLM-EMO是一個基於XLM-T模型微調的多語言情感分析模型,支持19種語言,專門針對社交媒體文本的情感預測。
文本分類
Transformers 其他

X
MilaNLProc
692.30k
7
Deberta V3 Base Mnli Fever Anli
MIT
基於MultiNLI、Fever-NLI和ANLI數據集訓練的DeBERTa-v3模型,擅長零樣本分類和自然語言推理任務
文本分類
Transformers 英語

D
MoritzLaurer
613.93k
204
精選推薦AI模型
Llama 3 Typhoon V1.5x 8b Instruct
專為泰語設計的80億參數指令模型,性能媲美GPT-3.5-turbo,優化了應用場景、檢索增強生成、受限生成和推理任務
大型語言模型
Transformers 支持多種語言

L
scb10x
3,269
16
Cadet Tiny
Openrail
Cadet-Tiny是一個基於SODA數據集訓練的超小型對話模型,專為邊緣設備推理設計,體積僅為Cosmo-3B模型的2%左右。
對話系統
Transformers 英語

C
ToddGoldfarb
2,691
6
Roberta Base Chinese Extractive Qa
基於RoBERTa架構的中文抽取式問答模型,適用於從給定文本中提取答案的任務。
問答系統 中文
R
uer
2,694
98