# 小パラメータ高効率

Flarenew
MIT
LaMini-Flan-T5-783M はT5アーキテクチャに基づく軽量テキスト生成モデルで、英語、ロシア語、ウクライナ語をサポートし、様々な自然言語処理タスクに適しています。
大規模言語モデル Transformers 複数言語対応
F
HaveAI
718
1
Teacher Persona GGUF
Qwen2-1.5B-Instructはアリババクラウドが提供する15億パラメータ規模の命令ファインチューニング大規模言語モデルで、Q&Aや対話タスクに適しています。
大規模言語モデル
T
RyZhangHason
24
1
Reasonablellama3 3B Jr
LLaMA-3Bを基に構築された微調整推論モデル、推論能力を強化し、多言語処理をサポート
大規模言語モデル 複数言語対応
R
adeelahmad
1,173
6
Kanana Nano 2.1b Base
KananaはKakaoが開発したバイリンガル大規模言語モデルシリーズで、韓国語タスクで優れた性能を発揮し、英語タスクでも競争力を維持しています。2.1bバージョンはこのシリーズの軽量ベースモデルです。
大規模言語モデル Transformers 複数言語対応
K
kakaocorp
4,039
33
Lava Phi
MIT
マイクロソフトPhi-1.5アーキテクチャを基にしたビジュアルランゲージモデル、CLIPと統合して画像処理能力を実現
画像生成テキスト Transformers 複数言語対応
L
sagar007
17
0
Phi 2 Sft Ultrachat Full
MIT
microsoft/phi-2をultrachat_200kデータセットでファインチューニングした大規模言語モデルで、対話生成タスクに適しています。
大規模言語モデル Transformers その他
P
lole25
68
2
EEVE Korean Instruct 2.8B V1.0
Apache-2.0
EEVE-Korean-2.8B-v1.0を微調整した韓国語命令モデルで、DPO最適化トレーニングを採用
大規模言語モデル Transformers その他
E
yanolja
2,197
24
Tinyllama 110M
MIT
これはTinyStoriesデータセットでトレーニングされた1.1億パラメータのLlama 2アーキテクチャモデルで、軽量級テキスト生成タスクに適しています。
大規模言語モデル Transformers
T
nickypro
1,472
5
Lamini T5 61M
LaMini-T5-61MはT5-smallアーキテクチャをベースに、LaMini-instructionデータセットでファインチューニングされた命令追従モデルで、パラメータ規模は61Mです。
大規模言語モデル Transformers 英語
L
MBZUAI
1,287
18
Norbert3 Xs
Apache-2.0
NorBERT 3 xsはノルウェー語に最適化されたBERTモデルで、次世代NorBERT言語モデルシリーズの最小バージョンであり、パラメータ数は15Mです。
大規模言語モデル Transformers その他
N
ltg
228
4
Gpt2
因果言語モデリングの目標に基づいて事前学習されたインドネシア語生成モデルで、Flaxフレームワークを使用してトレーニングされました。
大規模言語モデル その他
G
indonesian-nlp
130
11
Klue Roberta Small Nli Sts
これはKLUE-RoBERTa-smallをベースにした韓国語文章変換モデルで、文の類似度計算と自然言語推論タスクに特化しています。
テキスト埋め込み Transformers 韓国語
K
ddobokki
141
4
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase