# 軽量言語モデル

Zeta 2
MIT
Zeta 2は約4.6億パラメータの小型言語モデル(SLM)で、コンシューマー向けPCで慎重に構築され、複数の言語をサポートしています。
大規模言語モデル 複数言語対応
Z
Zeta-LLM
26
3
Minillm 0.2B WithWudao
Apache-2.0
MiniLLMはbert4torchフレームワークで開発された軽量中国語言語モデルで、事前学習から命令ファインチューニングまでの全プロセスをカバーし、基本的な対話能力を備えています
大規模言語モデル Transformers
M
Tongjilibo
127
2
Smollm2 135M Eagle
Apache-2.0
SmolLM2-135Mをファインチューニングしたロシア語・英語バイリンガル軽量言語モデルで、ロシア語処理能力は強化されているが明らかな限界がある
大規模言語モデル 複数言語対応
S
nyuuzyou
50
3
Qwen2.5 1.5B Instruct
Apache-2.0
Gensyn RL Swarm専用に設計された15億パラメータの命令微調整モデルで、ピアツーピア強化学習によるローカル微調整をサポート
大規模言語モデル Transformers 英語
Q
Gensyn
2.1M
4
Latent Recurrent Depth Lm
MIT
反復的な潜在処理を通じてより深いコンテキスト情報を捕捉する実験的なテキスト生成アーキテクチャ
大規模言語モデル Transformers 英語
L
codewithdark
38
1
Llama 3.1 0x Mini
0x MiniはOzone AIが開発した軽量言語モデルで、Llama-3.1アーキテクチャを最適化し、効率的なテキスト生成能力を提供します
大規模言語モデル Transformers
L
ozone-research
21
5
Miniplm Qwen 200M
Apache-2.0
Qwenアーキテクチャに基づく2億パラメータモデル、MiniPLM知識蒸留フレームワークを使用してゼロから事前学習
大規模言語モデル Transformers 英語
M
MiniLLM
203
5
Llammlein 1B
その他
これはTinyllamaコードフレームワークをベースに、RedPajama V2ドイツ語コーパスを使用してゼロからトレーニングされたドイツ語Tinyllama 1B言語モデルです。
大規模言語モデル Transformers ドイツ語
L
LSX-UniWue
304
14
Meta Llama 3.1 8B Instruct Abliterated GGUF
MIT
混合量子化技術を採用したテキスト生成モデルで、出力と埋め込みテンソルはf16形式を使用し、残りのテンソルはq5_kまたはq6_k量子化を採用しています。標準のq8_0量子化形式よりも体積が小さく、純粋なf16バージョンと同等の性能を維持しています。
大規模言語モデル 英語
M
ZeroWw
98
17
Smollm 135M 4bit
Apache-2.0
これは4ビット量子化された1億3500万パラメータの小型言語モデルで、リソースが限られた環境でのテキスト生成タスクに適しています。
大規模言語モデル Transformers 英語
S
mlx-community
312
1
Mobillama 1B Chat
Apache-2.0
MobiLlama-1B-ChatはMobiLlama-1Bを微調整した命令追従モデルで、リソース制約のあるデバイス向けに設計されており、効率性、低メモリ使用量、高速応答を重視しています。
大規模言語モデル Transformers 英語
M
MBZUAI
44
25
Mobillama 05B
MIT
MobiLlama-05Bは5億パラメータの小型言語モデル(SLM)で、リソース制約デバイスのアプリケーションシナリオに焦点を当て、効率的でメモリ使用量の少ないテキスト生成能力を提供します。
大規模言語モデル Transformers 複数言語対応
M
MBZUAI
187
41
Mamba 3B Slimpj
Apache-2.0
Mambaアーキテクチャに基づく3Bパラメータ規模の言語モデルで、英語テキスト生成タスクをサポートします。
大規模言語モデル Transformers 英語
M
Q-bert
56
3
Phi Hermes 1.3B
その他
HermesデータセットでファインチューニングされたPhi-1.5モデル、主にテキスト生成タスクに使用
大規模言語モデル Transformers 英語
P
teknium
45
44
Charllama 35M
Openrail
CharLLaMa-35MはLLaMaアーキテクチャを採用した小型言語モデルで、文字単位のトークン化機能を備えており、BPEトークン化がうまく機能しない様々な実験シナリオに適しています。
大規模言語モデル Transformers その他
C
inkoziev
61
5
Llama2 Xs 460M Experimental
このシリーズのリポジトリではMeta AIのLLaMAとLLaMA 2大規模言語モデルを再現していますが、モデル規模は大幅に縮小されており、llama1_s実験版は18億パラメータ、llama2_xs実験版はわずか4.6億パラメータです。
大規模言語モデル Transformers 英語
L
ahxt
145
13
Koalpaca KoRWKV 1.5B
Apache-2.0
KoRWKV-1.5BをKoAlpacaデータセットv1.0で微調整した韓国語言語モデル
大規模言語モデル Transformers 韓国語
K
beomi
1,941
7
Japanese Gpt Neox Small
MIT
GPT-NeoXアーキテクチャに基づく小型日本語言語モデルで、テキスト生成タスクをサポート
大規模言語モデル Transformers 複数言語対応
J
rinna
838
15
Albert Base Japanese V1 With Japanese Tokenizer
MIT
これは日本語で事前学習されたALBERTモデルで、BertJapaneseTokenizerをトークナイザーとして使用しており、日本語テキストの処理がより簡単です。
大規模言語モデル Transformers 日本語
A
ken11
44
3
Xlm Roberta Base Uk
MIT
これはXLM-RoBERTaモデルの縮小版で、ウクライナ語と一部の英語に特化して最適化されており、パラメータ数は4.7億から1.34億に削減されました。
大規模言語モデル Transformers その他
X
ukr-models
78
12
Roformer Chinese Char Small
RoFormerは回転位置エンコーディング(Rotary Position Embedding)を強化した中国語Transformerモデルで、テキスト補完タスクに適しています。
大規模言語モデル 中国語
R
junnyu
24
0
Minilmv2 L6 H384 Distilled From BERT Large
MiniLMv2はマイクロソフトが開発した軽量言語表現モデルで、知識蒸留技術により効率的な推論を実現し、様々な自然言語処理タスクに適しています。
大規模言語モデル Transformers
M
nreimers
14.21k
1
Mminilmv2 L6 H384 Distilled From XLMR Large
MiniLMv2はマイクロソフトが開発した軽量言語表現モデルで、知識蒸留技術により効率的な性能を実現しています。
大規模言語モデル Transformers
M
nreimers
197
17
Distilbert Base Uncased Sparse 90 Unstructured Pruneofa
Apache-2.0
これは疎事前学習モデルで、一度の剪定方法により90%の重みを疎化し、複数の言語タスクに対して微調整できます。
大規模言語モデル Transformers 英語
D
Intel
78
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase