# マルチタスク命令微調整

Velvet 2B
Apache-2.0
Velvet-2Bは20億パラメータのイタリア語 - 英語のバイリンガル大規模言語モデルで、Transformerアーキテクチャに基づいてゼロから訓練され、テキスト生成と理解タスクに特化しています。
大規模言語モデル Transformers 複数言語対応
V
Almawave
3,784
37
Cognitivecomputations Dolphin3.0 R1 Mistral 24B GGUF
Dolphin3.0-R1-Mistral-24B は Mistral アーキテクチャに基づく24Bパラメータの大規模言語モデルで、Eric Hartfordによって訓練され、推論と第一原理分析に特化しています。
大規模言語モデル 英語
C
bartowski
10.24k
72
Aceinstruct 72B
AceInstructは、Qwenを改良した一連の高度なSFTモデルで、コーディング、数学、汎用タスクに適しています。
大規模言語モデル Safetensors 複数言語対応
A
nvidia
1,584
18
EVA Qwen2.5 72B V0.2
その他
Qwen2.5-72Bをベースに微調整された大規模言語モデルで、テキスト生成と命令追従タスクに特化しています。
大規模言語モデル Transformers
E
EVA-UNIT-01
392
19
Mistral 7B Instruct Uz
Apache-2.0
ウズベク語に最適化されたMistral-7B命令微調整モデルで、ウズベク語と英語のさまざまなNLPタスクをサポート
大規模言語モデル Transformers 複数言語対応
M
behbudiy
49
13
Phi 3 Small 8k Instruct Onnx Cuda
MIT
Phi-3 Smallは70億パラメータの軽量級最先端オープンソースモデルで、NVIDIA GPU向けに最適化されたONNXバージョンであり、8Kの文脈長をサポートし、強力な推論能力を備えています。
大規模言語モデル Transformers
P
microsoft
115
12
Platypus2 70B Instruct
Platypus2-70B-instructはLLaMA 2アーキテクチャに基づく大規模言語モデルで、garage-bAIndとupstageAIのモデルを統合したもので、命令追従と論理的推論タスクに特化しています。
大規模言語モデル Transformers 英語
P
garage-bAInd
1,332
175
Flan T5 Small
Apache-2.0
FLAN-T5はT5モデルの命令微調整バージョンで、1000以上の追加タスクで微調整され、複数の言語をサポートし、元のT5よりも性能が優れています。
大規模言語モデル 複数言語対応
F
google
587.92k
340
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase