# 強化学習ファインチューニング

Finetuned Tamil Llama 7B Finetuned
Transformersライブラリをベースにした教師ありファインチューニング(SFT)モデルで、言語モデルの性能を最適化するために使用されます
大規模言語モデル Transformers
F
Jaggu05
73
1
Phi 4 Reasoning Plus
MIT
Phi-4-reasoning-plus はマイクロソフトリサーチが開発した先進的なオープンウェイト推論モデルで、Phi-4を基に教師ありファインチューニングと強化学習で最適化され、数学、科学、コーディング分野の高度な推論能力に特化しています。
大規模言語モデル Transformers 複数言語対応
P
microsoft
19.83k
261
Deepcoder 1.5B Preview AWQ
MIT
DeepCoder-1.5B-Previewは、コード推論に特化した大規模言語モデルで、分散型強化学習によりDeepSeek-R1-Distilled-Qwen-1.5Bからファインチューニングされ、より長い文脈長を処理できます。
大規模言語モデル Transformers 英語
D
adriabama06
72
2
Ablation 141 A128.dpo.armorm.rp Shisa V2 Llama 3.1 8b
DPO手法でファインチューニングされた言語モデル、テキスト生成タスクに適応
大規模言語モデル Transformers
A
shisa-ai
38
2
Ice0.101 20.03 RP GRPO 1
Apache-2.0
Unsloth無惰性最適化フレームワークとHuggingface TRLトレーニングライブラリで最適化された薄霧モデル、2倍速のトレーニング効率を実現
大規模言語モデル Transformers 英語
I
icefog72
55
2
Llama 3.1 Tulu 3.1 8B
Tülu 3は最先端の指示追従モデルファミリーで、完全オープンソースのデータ、コード、トレーニング手法を提供し、現代技術の包括的なガイドとして機能します。バージョン3.1では強化学習フェーズが改善され、性能が全体的に向上しました。
大規模言語モデル Transformers 英語
L
allenai
3,643
33
Alignprop Trl Aesthetics
Apache-2.0
Stable Diffusion v1.5をファインチューニングしたテキストから画像を生成するモデルで、動物データセットの美学報酬関数を使用し、報酬逆伝播法でトレーニングされています。
画像生成
A
mihirpd
15
1
Llama 3 NeuralPaca 8b
Meta LLAMA-3-8Bをベースに構築された最適化モデル。遅延なし最適化技術とHuggingface TRLライブラリを使用し、速度を2倍向上
大規模言語モデル Transformers 英語
L
NeuralNovel
21
7
Blip Image Captioning Base Mocha
MIT
BLIP基礎モデルの公式チェックポイント。MOCHA強化学習フレームワークを用いてMS-COCOデータセットでファインチューニングされ、オープン語彙記述における幻覚問題を緩和
画像生成テキスト Transformers
B
moranyanuka
88
1
Blip Image Captioning Large Mocha
MIT
これはBLIP-Largeモデルの公式ファインチューニング版で、MOCHa強化学習フレームワークを用いてMS-COCOデータセットでファインチューニングされ、開放語彙記述の幻覚問題を緩和することを目的としています
画像生成テキスト Transformers
B
moranyanuka
188
10
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase