# 軽量指令微調整

Phi 3.5 Mini Instruct
MIT
Phi-3.5-mini-instructは、Phi-3で使用されるデータセットに基づいて構築された、軽量で先進的なオープンソースモデルです。高品質で推論に富んだデータに焦点を当てています。128Kトークンのコンテキスト長をサポートし、強力な多言語能力と長いコンテキスト処理能力を備えています。
大規模言語モデル Transformers Other
P
Lexius
129
1
Solarav2 Coder 0511
Apache-2.0
SolaraV2はオリジナルのSolaraモデルのアップグレード版で、軽量で指令微調整された言語モデルで、高校生によって開発され、日常会話と教育タスクに適しています。
大規模言語モデル Transformers English
S
summerstars
1,766
1
Tiny Random Llama 4
Apache-2.0
これはLlama-4-Scout-17B-16E-Instructの軽量版で、ユーザーにより精簡化された使用選択肢を提供します。
大規模言語モデル Transformers
T
llamafactory
1,736
0
Phi 3 Mini 4k Instruct GGUF
MIT
Phi-3-Mini-4K-Instructは38億のパラメータを持つ軽量で高度なオープンソースモデルで、高品質のデータセットを使用してトレーニングされ、複数のベンチマークテストで優れた性能を発揮します。
大規模言語モデル Transformers Supports Multiple Languages
P
SanctumAI
675
17
Phi 3 Mini 4k Instruct Onnx
MIT
Phi-3 Miniは軽量で最先端のオープンソースモデルで、高品質かつ高推論密度のデータに特化し、4Kのコンテキスト長をサポートします。
大規模言語モデル Transformers
P
microsoft
370
137
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase