# 強化学習による微調整

Xgen Small 9B Instruct R
xGen-smallはエンタープライズ向けのコンパクトな言語モデルで、ドメイン特化型データキュレーション、スケーラブルな事前学習、長文脈拡張、強化学習による微調整を通じて、予測可能な低コストで長文脈性能を実現します。
大規模言語モデル Transformers 英語
X
Salesforce
97
4
Qwen3 0.6B TLDR Lora
Apache-2.0
Qwen3-0.6BはTransformerアーキテクチャに基づくオープンソースの言語モデルで、6億のパラメータ規模を持ち、テキスト要約などの自然言語処理タスクに適しています。
テキスト生成
Q
phh
56
0
Phi 4 Reasoning Plus GGUF
MIT
Phi-4-reasoning-plus はマイクロソフトが開発した推論能力を強化した大規模言語モデルで、複雑な数学問題や多段階推論タスクに最適化されています。
大規模言語モデル 複数言語対応
P
lmstudio-community
5,205
4
Openhands Lm 7b V0.1 GGUF
MIT
OpenHands LMは、Qwen Coder 2.5 Instruct 32Bをベースに構築されたオープンソースのコーディングモデルで、特殊な微調整によりソフトウェアエンジニアリングタスクで優れた性能を発揮します。
大規模言語モデル 英語
O
Mungert
1,131
2
Qwen 2.5 7B Base RAG RL
Qwen-2.5-7B-base-RAG-RLは、未知のデータセットからスクラッチでトレーニングされた7Bパラメータ規模の大規模言語モデルで、検索拡張生成(RAG)と強化学習(RL)技術を組み合わせています。
大規模言語モデル Transformers
Q
XXsongLALA
859
7
Notbad V1 0 Mistral 24b
Apache-2.0
Notbad v1.0 Mistral 24Bは、数学とPythonプログラミング推論に特化したモデルで、Mistral-Small-24B-Instruct-2501をベースに強化学習でさらに訓練されています。
大規模言語モデル Transformers
N
notbadai
29
5
Vlrm Blip2 Opt 2.7b
MIT
強化学習手法で微調整されたBLIP-2 OPT-2.7Bモデルで、長く包括的な画像記述を生成可能
画像生成テキスト Transformers 英語
V
sashakunitsyn
398
17
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase