# DPO微調優化

Chocolatine Fusion 14B
MIT
Chocolatine-Fusion-14B是一個合併模型,結合了Chocolatine-2系列的優勢,通過優化融合提升了推理能力和多輪對話表現。
大型語言模型 Transformers
C
FINGU-AI
226
5
Llama 3 Gutenberg 8B
其他
基於Llama-3-8b的微調模型,使用Gutenberg DPO數據集進行優化,適用於文本生成任務。
大型語言模型 Transformers
L
nbeerbower
18
9
Excalibur 7b DPO
Apache-2.0
Excalibur-7b-DPO是基於Excalibur-7b基礎模型通過直接偏好優化(DPO)微調的大語言模型,專注於提升對話質量和視覺應用場景表現。
大型語言模型 Transformers
E
InferenceIllusionist
22
8
Westlake 7B V2 Laser Truthy Dpo
Apache-2.0
基於WestLake-7B-v2-laser模型在truthy-dpo-v0.1數據集上進行微調的大語言模型,專注於文本生成任務,在多項基準測試中表現優異。
大型語言模型 Transformers
W
macadeliccc
9,693
25
Neuralbeagle14 7B 8.0bpw H8 Exl2
Apache-2.0
NeuralBeagle14-7B是基於Beagle14-7B模型,使用DPO方法微調的7B參數大語言模型,在7B參數類別中表現優異。
大型語言模型 Transformers
N
LoneStriker
111
5
Tinymistral 248M Chat V4
Apache-2.0
TinyMistral-248M-Chat是一個基於TinyMistral-248M微調的聊天模型,支持多輪對話,適用於各種對話場景。
大型語言模型 Transformers 英語
T
Felladrin
516
29
Tinymistral 248M Chat V3
Apache-2.0
TinyMistral-248M-Chat 是一個基於 TinyMistral-248M 的聊天模型,經過多數據集訓練和優化,適用於多種對話任務。
大型語言模型 Transformers 英語
T
Felladrin
456
28
AIbase
智啟未來,您的人工智能解決方案智庫
© 2025AIbase