# 小規模パラメータ

T5 Small Text Summarization
Apache-2.0
T5-smallアーキテクチャをxsumデータセットでファインチューニングしたテキスト要約モデルで、簡潔な要約を生成できます。
テキスト生成 Transformers
T
bhuvaneswari
27
0
News Summarizer T5
Apache-2.0
google-t5/t5-smallをファインチューニングしたニュース要約生成モデルで、ニューステキストの簡潔な要約を生成できます。
テキスト生成 Transformers
N
SurAyush
62
0
Clip Vit Tiny Random Patch14 336
これはデバッグ用の小型CLIPモデルで、ViTアーキテクチャに基づき、重みをランダムに初期化しています。
テキスト生成画像 Transformers
C
yujiepan
14.47k
0
Gpt2 Demo
その他
GPT-2はTransformerアーキテクチャに基づく自己監督事前学習言語モデルで、テキスト生成タスクに長けています。
大規模言語モデル Transformers
G
demo-leaderboard
19.21k
1
Gpt Neo 125m Instruction Tuned Sni
MIT
Super-Natural Instructionsデータセットを用いて命令ファインチューニングされた125Mパラメータの言語モデルで、様々な自然言語処理タスクに適しています。
大規模言語モデル Transformers
G
uoe-nlp
51
1
Llama Lite 134m
Apache-2.0
1億3400万パラメータ、768次元のLlama軽量版、文埋め込みベクトル生成用
テキスト埋め込み Transformers
L
skeskinen
93
13
Electra Contrastdata Squad
Apache-2.0
このモデルはSQuADデータセットを使用してELECTRA-small判別器をファインチューニングしたバージョンで、質問応答タスクに適しています。
質問応答システム Transformers
E
mlxen
19
0
Bloom 350m German
MIT
ドイツ語データを使用してゼロからトレーニングされたBLOOM-350m言語モデルで、BLOOMシリーズの小規模バージョンであり、ドイツ語テキスト生成タスクに特化しています。
大規模言語モデル Transformers ドイツ語
B
malteos
26
0
Tapas Small Masklm
TAPAS (Table Parser) はGoogle Researchによって開発された表ベースの事前学習言語モデルで、表データと自然言語クエリの処理に特化しています。
大規模言語モデル Transformers
T
google
14
1
Danbert Small Cased
Apache-2.0
DanBERTはBERT-Baseアーキテクチャに基づくデンマーク語事前学習モデルで、200万以上のデンマーク語テキストで学習されています。
大規模言語モデル 複数言語対応
D
alexanderfalk
18
1
Gpt2 Finnish
Apache-2.0
GPT - 2アーキテクチャに基づいて事前学習されたフィンランド語言語モデル、117Mパラメータ版
大規模言語モデル その他
G
Finnish-NLP
201
2
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase