# ORPO微調整

Schreiber Mistral Nemo 12B
Apache-2.0
Schreiber-mistral-nemo-12Bは、mistral-nemo-kartoffel-12Bをベースに微調整された大規模言語モデルで、より強力で正確な言語処理能力を提供することに特化しています。
大規模言語モデル Transformers
S
nbeerbower
107
1
Calmerys 78B Orpo V0.1
MIT
MaziyarPanahi/calme-2.4-rys-78bをベースに、mlabonne/orpo-dpo-mix-40kデータセットで微調整された大規模言語モデルで、Open LLM Leaderboardで1位を獲得しています。
大規模言語モデル Transformers 英語
C
dfurman
353
74
Llama Medx V3.2
Llama-medx_v3.2 は医療分野に特化して微調整された大規模言語モデルで、Meta-Llama-3.1-8B アーキテクチャを基に開発され、教師あり微調整(SFT)とオッズ比選好最適化(ORPO)技術によって訓練され、医学用語と臨床推論能力を正確に習得しています。
大規模言語モデル Transformers
L
skumar9
5,677
12
Arabic Orpo Llama 3 8B Instruct
Llama-3-8B-Instructをベースに微調整されたアラビア語テキスト生成モデルで、アラビア語テキストの首尾一貫性と正確性の向上に特化しています。
大規模言語モデル Transformers アラビア語
A
MohamedRashad
5,764
15
Llama3 8B Chinese Chat
Meta-Llama-3-8B-Instructを微調整した中英対話モデルで、中国語回答の品質を最適化し、中英混在問題を減少させました。
大規模言語モデル Transformers 複数言語対応
L
shenzhi-wang
2,777
678
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase