# 小型言語モデル

Doge 20M Chinese
Apache-2.0
Dogeモデルは動的マスクアテンションメカニズムを使用してシーケンス変換を行い、多層パーセプトロンまたはクロスドメインエキスパート混合を選択して状態変換を行うことができます。
大規模言語モデル Transformers 複数言語対応
D
wubingheng
65
2
Minueza 2 96M
Apache-2.0
Llamaアーキテクチャに基づくコンパクトな言語モデルで、英語とポルトガル語をサポート、パラメータ数9600万、4096トークンのコンテキスト長に対応。
大規模言語モデル Transformers 複数言語対応
M
Felladrin
357
6
Doge 320M Instruct
Apache-2.0
Doge 320M 指導版は動的マスクアテンションを基にした軽量言語モデルで、教師ありファインチューニング(SFT)と直接選好最適化(DPO)で訓練され、質問応答や対話タスクに適しています。
大規模言語モデル Transformers 英語
D
SmallDoge
12.61k
3
Bonsai
盆栽は5億パラメータの小型三値重み付け言語モデルで、LlamaアーキテクチャとMistralトークナイザーを使用し、トレーニングに使用されたトークン数は50億未満です。
大規模言語モデル Transformers
B
deepgrove
113
8
Doge 160M
Apache-2.0
Doge 160M は動的マスクアテンションメカニズムを採用した小型言語モデルで、SmallDoge コミュニティによってトレーニングされ、テキスト生成タスクをサポートします。
大規模言語モデル Transformers 複数言語対応
D
SmallDoge
4,227
4
Doge 20M Instruct
Apache-2.0
Doge 20Mは動的マスクアテンション機構に基づく小型言語モデルで、命令追従と質問応答タスクをサポートします。
大規模言語モデル Transformers 英語
D
SmallDoge
5,010
4
Teenytinyllama 160m Text Simplification Ptbr
Apache-2.0
これはポルトガル語テキストの圧縮と構造化処理に特化した小型言語モデルで、33万件のポルトガル語テキストで訓練されています。
テキスト生成 Transformers その他
T
cnmoro
50
2
Simple Stories 4M
MIT
Simple StoriesはTinyStoriesデータセットでトレーニングされた小型テキスト生成モデルシリーズで、児童向けストーリー生成に特化しています。
テキスト生成 Transformers 英語
S
broskicodes
104
16
Chargpt 96M
Openrail
CharGPT-96M は文字レベル分かち書きを採用した小型言語モデルで、様々な実験シナリオに適しており、特にBPE(サブワード)分かち書きがタスクのパフォーマンス低下を引き起こす場合に有効です。
大規模言語モデル Transformers その他
C
inkoziev
70
3
Tinystories 1M
TinyStories-1Mは、TinyStoriesデータセットを使って訓練された小型言語モデルで、子供向けのシンプルな物語を生成するために特別に設計されています。
大規模言語モデル Transformers
T
roneneldan
37.99k
49
Minilm L12 H384 Uncased Finetuned Imdb
MIT
このモデルはMicrosoftのMiniLM-L12-H384-uncasedをIMDBデータセットでファインチューニングしたバージョンで、主に感情分析タスクに使用されます。
大規模言語モデル Transformers
M
lewtun
18
0
Tiny Roberta Indonesia
MIT
これはインドネシア語に特化した小型RoBERTaモデルで、インドネシア語テキスト処理タスク向けに最適化されています。
大規模言語モデル Transformers その他
T
akahana
17
1
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase