# DPO最適化

Slam
MIT
これは離散Hubertトークンに基づく音声言語モデルで、効率的なトレーニングに焦点を当て、音声セグメントの継続を生成できます。
音声生成 Transformers
S
slprl
115
10
Zhi Writing Dsr1 14b
Apache-2.0
DeepSeek-R1-Distill-Qwen-14Bを微調整したクリエイティブライティング強化モデルで、創作表現が大幅に向上
大規模言語モデル Transformers 複数言語対応
Z
Zhihu-ai
133
16
Turkish Gemma 9b V0.1
Turkish-Gemma-9b-v0.1はGemma-2-9bを基に開発されたトルコ語テキスト生成モデルで、継続的な事前学習、教師あり微調整(SFT)、直接選好最適化(DPO)、およびモデル統合技術によって最適化されています。
大規模言語モデル Safetensors
T
ytu-ce-cosmos
167
18
Ablation 141 A128.dpo.armorm.rp Shisa V2 Llama 3.1 8b
DPO手法でファインチューニングされた言語モデル、テキスト生成タスクに適応
大規模言語モデル Transformers
A
shisa-ai
38
2
Bytedance Research.ui TARS 7B DPO GGUF
UI-TARS-7B-DPO の量子化バージョンで、知識を大衆が共有できるようにすることに取り組んでいます。
画像生成テキスト
B
DevQuasar
197
0
Summllama3.1 8B
SummLlama3.1-8BはLlama3.1-8B-Instructを初期化したテキスト要約モデルで、大規模な要約フィードバックを用いた直接選好最適化(DPO)トレーニングにより、忠実性、完全性、簡潔性の面で優れた性能を発揮します。
テキスト生成 Transformers
S
DISLab
116
10
Summllama3 70B
SummLlama3-70BはLlama3-70B-Instructをベースに初期化されたテキスト要約モデルで、大規模な要約フィードバックを用いたDPOトレーニングにより最適化され、忠実性、完全性、簡潔性の面で優れた性能を発揮します。
大規模言語モデル
S
DISLab
15
7
UNA ThePitbull 21.4B V2
UNA-ThePitbull-21.4B-v2は21.4Bパラメータの大規模言語モデルで、70Bモデルに近い性能を持ち、EQとIQを融合させ、会話とテキスト生成に優れています。
大規模言語モデル Transformers
U
fblgit
16
16
Llama3 OpenBioLLM 70B
OpenBioLLM-70Bは生物医学分野向けに設計された先進的なオープンソース言語モデルで、Meta-Llama-3-70B-Instructを微調整しており、生物医学タスクで卓越した性能を発揮します。
大規模言語モデル Transformers 複数言語対応
L
aaditya
18.35k
428
Rhea 72b V0.5
Apache-2.0
Rhea-72b-v0.5はSmaug-72B-v0.1を微調整した大規模言語モデルで、HuggingFaceオープン大規模モデルランキングで1位を獲得しています。
大規模言語モデル Transformers 英語
R
davidkim205
103
135
Nous Hermes 2 Mistral 7B DPO AWQ
Apache-2.0
Nous Hermes 2は、Mistral 7B DPOをベースにした次世代の旗艦級7B Hermesモデルで、DPO最適化を施し、複数のテストベンチマークで優れた性能を発揮します。
大規模言語モデル Transformers 英語
N
solidrust
84
8
Sambalingo Hungarian Chat
ハンガリー語と英語に対応した人間の嗜好に沿ったチャットモデル、Llama-2-7bをハンガリー語用に適応
大規模言語モデル Transformers 複数言語対応
S
sambanovasystems
154
43
Llava V1.5 13b Dpo Gguf
LLaVA-v1.5-13B-DPOはLLaVAフレームワークに基づく視覚言語モデルで、直接選好最適化(DPO)でトレーニングされ、推論効率向上のためにGGUF量子化フォーマットに変換されています。
画像生成テキスト
L
antiven0m
30
0
Bloom 1b1 Zh Error Correction Dpo
DPOでトレーニングされた中国語テキスト校正モデルで、中国語テキストのスペルミスや文法誤りを自動検出・修正できます。
大規模言語モデル Transformers 中国語
B
p208p2002
15
1
UNA TheBeagle 7b V1
TheBeagleはThe Bagelデータセットでトレーニングされた70億パラメータモデルで、DPO(直接選好最適化)とUNA(統一ニューラルアーキテクチャ)技術を採用し、マルチタスクで優れた性能を発揮します。
大規模言語モデル Transformers
U
fblgit
88
37
Laser Dolphin Mixtral 4x7b Dpo
Apache-2.0
特定のモデルをベースに改良された中規模のMoE実装モデルで、テキスト生成タスクに適しており、複数のベンチマークテストで良好な性能を示します。
大規模言語モデル Transformers
L
macadeliccc
846
10
Sdxl Dpo Turbo
その他
SDXL超高速版と直接選好最適化(DPO)技術を組み合わせたテキスト画像生成モデルで、高速かつ高品質な画像生成をサポート
画像生成
S
thibaud
291
85
Rocket 3B
Rocket-3Bは30億パラメータの大規模言語モデルで、公開データセット上で直接選好最適化(DPO)によって訓練され、多くの大規模モデルを凌駕する性能を発揮します。
大規模言語モデル Transformers 英語
R
pansophic
26
85
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase