# DPOファインチューニング

L3.3 GeneticLemonade Unleashed V3 70B
これはLlama 3.3ベースの700億パラメータ大規模言語モデルで、SFT+DPOファインチューニングを経ており、キャラクター駆動の対話とクリエイティブコンテンツ生成に特化しています
大規模言語モデル Transformers
L
zerofata
119
5
Echollama 1B
EchoLLaMAはマルチモーダルAIシステムで、3D視覚データを自然な音声記述に変換でき、音声入力による対話型インタラクションもサポートします。
画像生成テキスト Transformers
E
AquaLabs
75
3
Qwen2.5 14B Dpo It Ties
Qwen2.5-14BモデルをベースにTIES手法で融合した強化版で、命令追従と対話最適化に特化
大規模言語モデル Transformers
Q
mergekit-community
30
2
Chocolatine 2 14B Instruct V2.0.3
Apache-2.0
Chocolatine-2-14B-Instruct-v2.0.3 は Qwen-2.5-14B アーキテクチャに基づく大規模言語モデルで、DPOファインチューニングを施されており、フランス語と英語のタスクに特化しており、フランス語LLMランキングで優れた成績を収めています。
大規模言語モデル Transformers 複数言語対応
C
jpacifico
329
14
Gemma 2 9b Neogenesis Ita
VAGOsolutions/SauerkrautLM-gemma-2-9b-itをファインチューニングしたバージョンで、イタリア語のパフォーマンスを最適化し、8kのコンテキスト長をサポートします。
大規模言語モデル Transformers 複数言語対応
G
anakin87
3,029
10
Tanuki 8B Dpo V1.0
Apache-2.0
Tanuki-8Bは8Bパラメータの日本語大規模言語モデルで、SFTとDPOによって会話タスク向けに最適化されており、GENIAC松尾研究室によって開発されました
大規模言語モデル Transformers 複数言語対応
T
weblab-GENIAC
1,143
41
Ko Gemma 2 9b It
Ko-Gemma-2-9B-ITはGemmaモデルシリーズの韓国語会話モデルで、google/gemma-2-9b-itを基に教師あり微調整(SFT)と直接選好最適化(DPO)トレーニングを行い、韓国語テキスト生成タスクに特化して最適化されています。
大規模言語モデル Transformers 韓国語
K
rtzr
3,467
87
Llama 3 Bophades V3 8B
その他
Llama-3-8bを基に構築されたDPOファインチューニングモデルで、真実性と数学的推論能力の向上に焦点を当てています
大規模言語モデル Transformers
L
nbeerbower
44
3
Calme 2.3 Llama3 70b
Meta-Llama-3-70B-InstructモデルをDPOファインチューニングした大規模言語モデルで、複数のベンチマークテストで優れた性能を発揮
大規模言語モデル Transformers 英語
C
MaziyarPanahi
31
4
Neural 4 QA 7b
Apache-2.0
Neural-4-QA-7bは、複数の7Bパラメータ規模モデルを統合した大規模言語モデルで、質問応答タスクに特化しており、DARE-TIES統合手法を用いて性能を最適化しています。
大規模言語モデル Transformers
N
Kukedlc
23
1
Noro Hermes 3x7B
Apache-2.0
Noro-Hermes-3x7Bは、LazyMergeKitツールを使用して構築された混合専門家モデル(MoE)で、3つの7BパラメータのMistralバリエーションモデルを融合し、インテリジェントアシスタント、クリエイティブなロールプレイ、一般的なタスク処理能力を備えています。
大規模言語モデル Transformers
N
ThomasComics
16
1
Starchat2 15b V0.1
StarChat2はStarCoder2をファインチューニングした160億パラメータのプログラミングアシスタントモデルで、対話とコード生成タスクに優れています
大規模言語モデル Transformers
S
HuggingFaceH4
4,196
111
Zephyr 7b Gemma V0.1
その他
Zephyr 7B Gemmaはgoogle/gemma-7bをファインチューニングした言語モデルで、公開合成データセットで直接選好最適化(DPO)を使用して訓練され、有用なアシスタントとして設計されています。
大規模言語モデル Transformers
Z
HuggingFaceH4
502
124
Eeve Dpo V3
Apache-2.0
EEVE-Korean-Instruct-10.8B-v1.0を基にした韓国語コマンド最適化モデル、直接選好最適化(DPO)手法でトレーニング
大規模言語モデル Transformers
E
ENERGY-DRINK-LOVE
1,803
1
Minueza 32M Chat
Apache-2.0
Minueza-32M-Chatは3200万パラメータを持つチャットモデルで、Felladrin/Minueza-32M-Baseを基に教師ありファインチューニング(SFT)と直接選好最適化(DPO)で訓練されています。
大規模言語モデル Transformers 英語
M
Felladrin
77
9
Olmo 7B Instruct
Apache-2.0
OLMo 7B InstructはDolmaデータセットでトレーニングされたオープン言語モデルで、SFTとDPOで最適化され、質問応答タスク向けに設計されています。
大規模言語モデル Transformers 英語
O
allenai
365
53
EEVE Korean Instruct 10.8B V1.0
Apache-2.0
SOLAR-10.7B-v1.0を基にした韓国語語彙拡張版、DPOファインチューニング済み大規模言語モデル
大規模言語モデル Transformers
E
yanolja
19.39k
154
Polka 1.1b Chat
MIT
ローカル実行専用に設計された初のポーランド語会話アシスタントモデル。TinyLlama-1.1Bをベースにポーランド語トークナイザーを拡張し、事前学習とDPO最適化を実施
大規模言語モデル Transformers その他
P
eryk-mazus
91
19
Neuralhermes 2.5 Mistral 7B
Apache-2.0
NeuralHermesはOpenHermes-2.5-Mistral-7Bモデルを基に、直接選好最適化(DPO)でさらにファインチューニングされた大規模言語モデルで、多くのベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers 英語
N
mlabonne
215
154
Causallm 14B DPO Alpha GGUF
14Bパラメータの因果言語モデルをベースに、DPO最適化トレーニングを経て、中英文テキスト生成タスクをサポート
大規模言語モデル 複数言語対応
C
tastypear
2,238
85
Mini Synatra 7b 02
Mini_synatra_7b_02はMinirecord社がmaywell/Synatra-7B-v0.3-dpoモデルを基にファインチューニングした大規模言語モデルで、テキスト生成タスクに特化しています。
大規模言語モデル Transformers
M
Minirecord
1,804
4
14B
14Bパラメータ規模の因果言語モデル、Meta LLaMA 2アーキテクチャと完全互換、複数のベンチマークテストで70B以下のモデルを超越
大規模言語モデル Transformers 複数言語対応
1
CausalLM
236
303
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase