# マルチタスク適合

Clip Vitl14 Test Time Registers
MIT
OpenCLIP-ViT-L-14モデルをベースに、テスト時レジスタ技術を導入し、モデルの解釈可能性と下流タスクの性能を向上させます。
テキスト生成画像 Transformers
C
amildravid4292
236
0
Deepseek Ai DeepSeek R1 Distill Qwen 14B GGUF
DeepSeek-R1-Distill-Qwen-14Bは、14Bパラメータ規模の最適化された大規模言語モデルで、DeepSeek AIによってリリースされ、Qwenアーキテクチャに基づいて蒸留され、性能向上のために複数のGGUF量子化バージョンを提供します。
大規模言語モデル
D
featherless-ai-quants
237
1
Meowgpt 3.5 11B
MeowGPT-3.5はGPT-3.5アーキテクチャに基づくマージモデルで、テキスト生成タスクに特化しています。
大規模言語モデル Transformers
M
Chickaboo
16
1
Sentence Transformers Multilingual E5 Small
MIT
multilingual-e5-smallは、多言語テキスト処理タスクで優れた性能を発揮するモデルで、分類、検索、クラスタリング、再ランキング、意味的テキスト類似度などの様々なタスクをサポートします。
テキスト埋め込み 複数言語対応
S
beademiguelperez
3,922
1
Deberta V3 Japanese Base
DeBERTa V3アーキテクチャに基づく日本語の事前学習モデルで、日本語のNLPタスクに最適化されています。
大規模言語モデル Transformers 日本語
D
globis-university
144
1
Minilmv2 L6 H384 RoBERTa Large
MiniLM v2は、マイクロソフトがRoBERTa-Largeを基に知識蒸留を行って得た軽量型言語モデルで、高効率かつコンパクトな特徴を持っています。
大規模言語モデル Transformers
M
torbenal
15
0
Chinese Legal Electra Base Generator
Apache-2.0
中国語ELECTRAは、グーグルのELECTRAモデルに基づく中国語事前学習モデルで、ハルビン工業大学と科大訊飛の共同研究室によって発表されました。構造がコンパクトで、性能が優れているという特徴があります。
大規模言語モデル Transformers 中国語
C
hfl
18
6
Biom ALBERT Xxlarge
BERT、ALBERT、ELECTRAをベースに構築された大型の生物医学言語モデルで、生物医学分野のタスクに特化しています。
大規模言語モデル Transformers
B
sultan
77
2
Test
MIT
これは、さまざまな自然言語処理タスクに適したミニチュアのロシア語BERTモデルです。
テキスト埋め込み Transformers 複数言語対応
T
k0t1k
21
0
Xlm Roberta Base Finetuned English
Apache-2.0
大規模言語モデル Transformers
X
Davlan
114
0
Bert Base Uncased Sparse 90 Unstructured Pruneofa
Apache-2.0
これは疎事前学習のBERT-Baseモデルで、ワンショット剪定方法により90%の重みを疎化し、さまざまな言語タスクの微調整に適しています。
大規模言語モデル Transformers 英語
B
Intel
178
0
Robbertje 1 Gb Non Shuffled
MIT
RobBERTjeはRobBERTに基づく一連の蒸留オランダ語モデルで、さまざまなサイズと学習設定のバージョンを提供します。
大規模言語モデル Transformers その他
R
DTAI-KULeuven
43
0
Robbertje 1 Gb Shuffled
MIT
RobBERTjeはRobBERTに基づく蒸留オランダ語モデルセットのシャッフル版で、パラメータ数は74Mで、シャッフルされたOSCARコーパスを使用して訓練されています。
大規模言語モデル Transformers その他
R
DTAI-KULeuven
508
0
Bert Base Uncased Mnli Sparse 70 Unstructured No Classifier
このモデルはbert-base-uncased-sparse-70-unstructuredをMNLI(GLUEベンチマークテスト)タスクで微調整したもので、他の下流タスクにより簡単にロードして訓練できるように分類器層を削除しています。
大規模言語モデル Transformers 英語
B
Intel
17
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase