# 小規模事前学習

Arshstory
MIT
Llamaアーキテクチャに基づく5億パラメータのテキスト生成モデルで、ストーリー作成のために特別に設計されています。
テキスト生成 Transformers
A
arshiaafshani
131
1
OPENCLIP SigLIP Tiny 14 Distill SigLIP 400m Cc9m
MIT
SigLIPアーキテクチャに基づく軽量な視覚言語モデルで、より大きなSigLIP-400mモデルから蒸留技術を用いて知識を抽出し、ゼロショット画像分類タスクに適しています。
画像分類
O
PumeTu
30
0
Llama 3.2 400M Amharic
これはMeta社のLlama-3.2-1Bモデルをベースにした軽量版で、アムハラ語に特化して事前学習されており、4億のパラメータと1024トークンのコンテキスト長を持ちます。
大規模言語モデル Transformers その他
L
rasyosef
310
3
Vit Betwixt Patch32 Clip 224.tinyclip Laion400m
MIT
ViTアーキテクチャに基づく小型CLIPモデルで、ゼロショット画像分類タスクに適しており、LAION-400Mデータセットでトレーニングされています。
画像分類
V
timm
113
1
GPT NeoX 1.3B Viet Final GGUF
31.3GBのベトナム語データで事前学習された1.3BパラメータのGPT-NeoXモデル
大規模言語モデル 英語
G
afrideva
170
1
Twibert
MIT
TwiBERTはガーナおよび西アフリカ地域で広く使用されているトゥイ語専用に設計された事前学習言語モデルです
大規模言語モデル Transformers その他
T
sakrah
16
3
Roberta Base 100M 3
1Mから1Bトークン規模のデータセットで事前学習されたRoBERTaバリアントで、BASEとMED-SMALLの2つの仕様があり、リソースが限られた場面での自然言語処理タスクに適しています
大規模言語モデル
R
nyu-mll
18
0
Roberta Med Small 1M 1
1Mトークンの小規模データで事前学習されたRoBERTaモデルで、MED-SMALLアーキテクチャを採用し、テキスト理解タスクに適しています。
大規模言語モデル
R
nyu-mll
23
1
Roformer Chinese Char Small
RoFormerは回転位置エンコーディング(Rotary Position Embedding)を強化した中国語Transformerモデルで、テキスト補完タスクに適しています。
大規模言語モデル 中国語
R
junnyu
24
0
Kinyaroberta Small
これはキニャルワンダ語のデータセットに基づき、マスク言語モデリング(MLM)の目標で事前学習されたRoBERTaモデルで、大文字小文字の区別のないトークンを使用して事前学習されています。
大規模言語モデル Transformers
K
jean-paul
38
0
Gpt2 Small Indonesian 522M
MIT
これはインドネシア語ウィキペディアデータで事前学習されたGPT2-smallモデルで、インドネシア語テキスト生成タスクに特化しています。
大規模言語モデル その他
G
cahya
1,900
9
Roberta Base 10M 1
異なる規模のデータセット(1M-1Bトークン)で事前学習されたRoBERTaシリーズモデルで、BASEとMED-SMALLの2種類の仕様を含む
大規模言語モデル
R
nyu-mll
13
1
It5 Small
Apache-2.0
IT5は、イタリア語に対して大規模なシーケンス-to-シーケンスTransformerモデルの事前学習を行った最初のモデルファミリーで、元のT5モデルの方法に従っています。
大規模言語モデル その他
I
gsarti
220
2
Roberta Base 100M 1
10億トークンスケールで事前学習されたRoBERTaベースモデル、検証パープレキシティは3.93、英語テキスト処理タスクに適しています。
大規模言語モデル
R
nyu-mll
63
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase