# ウィキペディアトレーニング

Yugogpt Florida Q8 0 GGUF
MIT
YugoGPT-Floridaはセルビア語ベースの大規模言語モデルで、複数の評価基準で優れたパフォーマンスを発揮します。
大規模言語モデル その他
Y
MarkoRadojcic
30
2
Llama 68m
Apache-2.0
これはLLaMAに似た小型言語モデルで、6800万のパラメータを含み、主にSpecInfer論文における推論推測研究に使用されます。
大規模言語モデル Transformers 英語
L
JackFram
573.35k
27
Llama 160m
Apache-2.0
これは1.6億パラメータのみを含むLLaMA類似モデルで、トレーニングデータはウィキペディアおよび一部のC4-enとC4-realnewslikeデータセットに由来します。
大規模言語モデル Transformers 英語
L
JackFram
275.14k
34
Abstract Sim Query
抽象的な文の記述を、その記述に合致する文にマッピングするモデルで、ウィキペディアでトレーニングされ、デュアルエンコーダーアーキテクチャを採用しています。
テキスト埋め込み Transformers 英語
A
biu-nlp
53
12
Abstract Sim Sentence
抽象的な文の記述を該当する文にマッピングするモデルで、ウィキペディアでトレーニングされ、デュアルエンコーダーアーキテクチャを採用しています。
テキスト埋め込み Transformers 英語
A
biu-nlp
51
16
Multilingual Bert Gn Base Cased
MIT
多言語BERT基本モデルを基にグアラニ語向けにファインチューニングされた言語モデルで、104言語及びグアラニ語をサポート
大規模言語モデル Transformers その他
M
mmaguero
28
0
Simcse Model M Bert Thai Cased
mBERTベースのタイ語文埋め込みモデルで、SimCSE手法を用いてタイ語ウィキペディアデータでトレーニングされ、テキストを768次元ベクトルにマッピング可能
テキスト埋め込み Transformers
S
mrp
1,637
7
Tamillion
ELECTRAフレームワークでトレーニングされたタミル語事前学習モデル、第二版はTPUトレーニングを採用しコーパス規模を拡大
大規模言語モデル Transformers その他
T
monsoon-nlp
58
2
Indo Roberta Small
MIT
インドネシア小型RoBERTaはRoBERTaモデルに基づくマスク言語モデルで、インドネシア語に特化して訓練されており、テキスト補完や特徴抽出タスクに適しています。
大規模言語モデル その他
I
w11wo
50
1
Bert Base En Fr De No Da Cased
Apache-2.0
これはbert-base-multilingual-casedのカスタマイズされた最適化バージョンで、英語、フランス語、ドイツ語、ノルウェー語、デンマーク語の5言語に焦点を当て、元のモデルの表現出力精度を維持しています。
大規模言語モデル その他
B
Geotrend
21
0
Bert Base En Es Cased
Apache-2.0
これはbert-base-multilingual-casedを基にカスタマイズされた簡素化バージョンで、英語とスペイン語の処理に特化しており、オリジナルモデルの表現出力を完全に再現し、元の精度を維持しています。
大規模言語モデル その他
B
Geotrend
13
0
Bert Base Th Cased
Apache-2.0
これはbert-base-multilingual-casedのカスタマイズ簡易版で、タイ語処理に最適化され、元のモデルの精度を維持しています。
大規模言語モデル その他
B
Geotrend
21
3
Bert Base Zh Cased
Apache-2.0
bert-base-multilingual-casedを基にカスタマイズした簡素化中国語BERTモデルで、中国語処理をサポートしつつ元の精度を維持
大規模言語モデル 中国語
B
Geotrend
15
0
Bert Base Vi Cased
Apache-2.0
bert-base-multilingual-casedを基にカスタマイズしたベトナム語軽量化版BERTモデルで、大文字小文字を区別する処理をサポートし、元のモデルの表現出力を完全に再現します。
大規模言語モデル その他
B
Geotrend
15
2
Distilbert Base Vi Cased
Apache-2.0
これは多言語版DistilBERT基礎モデルのカスタマイズ軽量版で、ベトナム語処理に最適化されており、元のモデルの表現能力と精度を保持しています。
大規模言語モデル Transformers その他
D
Geotrend
41
1
Bert Base It Cased
Apache-2.0
これはbert-base-multilingual-casedのカスタマイズ簡素化バージョンで、イタリア語処理に特化して最適化されており、元のモデルの精度を維持しています。
大規模言語モデル その他
B
Geotrend
15
0
AIbase
未来を切り開く、あなたのAIソリューション知識ベース
© 2025AIbase